Materi 8.2- Big Data

Dalam era digital saat ini, terjadi adanya ledakan data akibat penggunaan beragam aplikasi dalam akses data. Google memproses lebih dari 24 petabyte data per hari. Byte data tersebut dihasilkan dari berbagai proses akses data baik data teks, gambar, suara maupun streaming. Sehingga diperlukan sebuah revolusi dan transformasi baru untuk menanggulangi kebutuhan akses data tersebut. Big data merupakan sebuah revolusi dan transformasi baru untuk meningkatan kecepatan akses data, skala penggunaan data serta kapasitas penyimpanan data.

[boxes]

[boxcontent title="1.2.1 Definisi dari Big Data"][/boxcontent]

[/boxes]

Big data adalah sekumpulan beberapa set data besar dan complex yang akan menjadi susah untuk diproses sehingga membutuhkan database serta perangkat tertentu untuk memprosesnya. (wikipedia, 2014). Sekumpulan data tersebut akan dianalisa menjadi sekumpulan data yang kecil akan tetapi nampak menjadi data yang besar. Big Data telah digunakan untuk menyampaikan segala macam konsep termasuk jumlah data yang sangat besar, analisis media sosial, penerapan next generation dalam hal manajemen data, data real-time, dan lain-lain. Big data memiliki dua tipe data yaitu data struktural dan data Unstruktural.
Data Struktural adalah sejumlah data yang dapat dengan mudah untuk dikategorikan dan dianalisis. Data-data ini biasanya dihasilkan oleh perangkat jaringan sensor yang tertanam pada peragkat elektronik, smartphone dan GPS. Data struktural juga mencakup hal-hal seperti angka penjualan, saldo rekening dn data transaksi.

Data Unstruktural biasanya data informasi yang bersifat lebih kompleks seperti halnya ulasan pelanggan pada situs komersial, foto, dan multimedia lainnya serta jejaring sosial. Data ini tidak dapat dengan mudah untuk dipisahkan kedalam kategori atau dianalisis secara numerik.

[boxes]

[boxcontent title="1.2.2 Data Vs Tradisional Data"][/boxcontent]

[/boxes]

Big Data mengacu pada arsitektur sebuah data yang berskala untuk memfasilitasi suatu perangkat dalam hal penanganan volume data, kecepatan dalam mengakses data serta variabilitas data. Sedangkan tradisional data mengasumsikan sebuah data dengan volume yang lebih kecil, proses pembaharuan data yang konsisten berdasarkan struktur data yang ada serta beroperasi pada server tunggal. Namun pada Big Data beragam format ( data geospasial, data 3D, teks, audio, video, data struktural, data unstruktural ) akan diolah menjadi satu kesatuan sistem tanpa berpedoman dalam suatu struktur yang ada. Berikut ini perbedaan antara Big Data dan Traditional Data dari segi ukuran data, infrastruktur serta pengolahan data disajikan pada Gambar 1.4. Pada pengelompokkan abstraksi layer yang digunakan pada traditional data dan big data memiiki beberapa perbedaan. Pada 1.5 disajikan perbedaan abstraksi layer antara big data dan traditional data. Secara umum abstraksi layer traditional data diklasifikasikan menjadi tiga layer yaitu:

Physical Layer Merupakan level terbawah pada abstraksi layer dimana menggunakan tingkat kompleksitas struktur data yang kecil untuk penyimpanan datanya.

Logical Layer Pada layer ini menjelaskan tipe data yang tersimpan pada database dimana beberapa aktifitas yang dilakukan pada layer ini adalah proses desain data base serta tools yang digunakan untuk proses back up data base.

View Layer Merupakan layer tertinggi dimana di dalamnya terdapat proses pengolahan data yang digunakan.

Berbeda halnya pada Big Data mengadopsi empat model abstraksi layer di dalamnya diantaranya:

Physical layer Pada layer ini menjelaskan struktur data yang digunakan pada big data. Pada Big data mengalamatkan beberapa bentuk dan tipe data dengan performansi data transfer yang cepat dan efisien.

Data Layer Pada layer ini menjelaskan proses organisasi data, akses serta pengambilan data. Pada proses organisasi data ini akan disertai dengan proses pemberian indeks pada suatu data yang nantinya akan didistribusikan pada suatu perangkat.

Computing Layer Pada layer ini terdiri penggunaan software dalam hal proses pemodelan data, pemrograman serta pemrosesan data.

Analytics layer Pada layer ini terdapat sebuah standarisasi dan teknik yang digunakan untuk mengembangkan software yang digunakan untuk mendapatkan hasil yang lebih spesifik.

Sehingga apabila antara big data dan traditional data dibandingkan big data memiliki tingkat komplektisitas yang lebih tinggi guna mendapatkan hasil yang lebih spesifik, akses data cepat dan efisien.

[boxes]

[boxcontent title="1.2.3 Sistem Taksonomi Big Data"][/boxcontent]

[/boxes]

Untuk menyusun sebuah Big Data maka diperlukan beberapa komponen penyusun yang saling berhubungan sehingga dapat terbentuk sebuah sistem Big Data. Komponen penyusun Big data dikelompokkan menjadi sebuah Sistem taksonomi yang digambarkan pada 1.6.

1.2.3.1 Dimensi Data

Karakteristik Big Data dikelompokkan kedalam 4 dimensi yang biasa disebut dengan 4V: Volume, Velocity, Variety, dan Veracity yang ditampilkan.

• Volume, Berhubungan dengan skala ukuran data yang digunakan. Volume data berkembang pesat karena adanya beberapa aplikasi bisnis, sosial, web dan eksplorasi ilmiah.

• Velocity, Berhubungan dengan kecepatan akses data yang berkaitan dengan kebutuhan data streaming yang bersifat real time.

• Variety, Berhubungan dengan beberapa bentuk data yang digunakan dalam proses analisis data.
• Veracity, Berhubungan dengan ketidakpastian dan keakuratan suatu data. Pada beberapa kondisi tingkat akurasi akan didapatkan apabila dilakukan adanya proses filtering dan selecting data.

1.2.3.2 Teknik Analisis Big Data

Analisis adalah proses menganalisis data menggunakan model statistik, data mining serta beberapa teknologi komputasi data. Big Data analisis mengacu pada serangkaian prosedur dan model statistik untuk mengestrak informasi dari beberapa set data yang berukuran besar. Berikut ini beberapa aplikasi yang digunakan untuk analisis pada Big Data:

• Teks Analisis Proses ini berasal darisumber informasi berupa teks. Teknologi dalam analisis teks berasal dari beberapa bidang mendasar termasuk linguistik, statistik dan machine learning. Secara umum, analisis teks yang modern menggunakan model statistik, ditambah dengan teori linguistik, untuk menangkap pola dalam bahasa manusia sehingga mesin dapat memahami arti dari teksdan melakukan berbagai tugas analisis teks.
• Memori Analisis Dalam analisis memori adalah proses yang mencerna data dalam jumlah besar dari berbagai sumber yang langsung menuju ke memori sistem untuk mendapatkan perhitungan kinerja yang efisien. Pada memori analisis ini terjadi sebuah pendekatan untuk pengalamatan data saat berada pada RAM guna mendapatkan respon waktu yang cepat dalam proses pengalamatan
• Prediktif Analisis Suatu proses yang digunakan untuk memprediksi kejadian yang akan datang dengan beberapa bantuan seperti data statistik, pemodelan, machine learning dan data mining dengan menganalisa kejadian yang pernah ada.

• Grafik Analisis Grafik analisis ini digunakan untuk mempelajari perilaku segala sesuatu yang terhubung pada sistem. Perilaku yang diamati guna untuk mencari komponen yang bersifat lemah atau kuat pada suatu sistem.

1.2.3.3 Teknologi Big Data

Teknologi yang digunakan pada Big Data secara umum diklasifikasikan menjadi 3 bagian yaitu file sistem cara efektif untuk mengatur data, Framework dalam proses komputasi, serta tools atau perangkat yang digunakan untuk analisis, berikut penjelasan dari masing-masing komponen:

1. File Sistem Pada file sistem ini bertanggung jawab dalam hal organisasi, penyimpanan, penamaan, sharing dan perlindungan file. Manajemen file pada Big Data mirip dengan sistem file terditribusi, akan tetapi dalam hal membaca kinerja, serta akses datanya dilakukan secara simutan. Pada penciptaan file sistem Big Data, proses sinkronisasi menjadi tantangan utama dalam hal desain dan implementasi. File sistem pada big data harus mengandung beberapa syarat berikut:

• Mode akses terdistribusi dan transparansi lokasi File didistribusikan pada suatu lokasi dimana semua klien dapat mengakses dengan cara yang sama dimanapun lokasinya.

Kegagalan penanganan Program aplikasi dan klien tetap harus beroperasi walaupun terdapat beberapa kegagalan komponen dalam sistem. Hal ini dapat ditanggulangi dengan beberapa tingkat replikasi dan redudansi pada sistem.

Heterogenitas Layanan Berkas harus disediakan di seluruh hardware dan sistem operasi yang memiliki platform berbeda.

• Toleransi untuk partisi jaringan Kondisi pemberian toleransi pada saat terjadinya operasi yang terputus antara klien terhadap jaringan yang ada. File sistem harus cukup toleran untuk menangani situasi inidan menerapkan mekanisme sinkronisasi yang tepat.

2. Framework Komputasi Frameworks yang digunakan dalam proses komputasi pada Big data yang bersifat open source diantaranya:

Apache Hadoop Framework open source yang handal, terukur serta bersifat terdistribusi. Framework ini memungkinkan untuk didistribusikan beberapa pengolahan beberapa set data berukuran besar pada beberapa komputer meggunakan model pemrograman sederhana.

Spark Apache Spark adalah mesin yang cepat untuk pengolahan data skala besar. Hal ini mencakup Shark SQL, Spark Streaming, MLIB machine learning dan Graphx alat analisis grafik. Spark dapat berjalan pada Hadoop YARN cluster manager, dan dapat membaca data Hadoop yang ada.

Selain itu terdapat beberapa framework komputasi big data yang besifat komersial diantaranya: Google menawarkan Big Query untuk beroperasi di Google Big Tables. Amazon mendukung Big Data melalui Hadoop cluster dan juga NoSQL melalui columnar database menggunakan Amazon DynamoDB. Amazon Elastic MapReduce (ESDM) adalah kerangka Hadoop yang berhasil untuk memproses data dalam jumlah besar dengan cepat, mudah dan hemat biaya di seluruh intansi EC2 Amazon. Windows menawarkan HDInsight layanan implementasi dari Hadoop yang berjalan pada platform Microsoft Azure. RackSpace menawarkan Horton Hadoop pada platform OpenStack, Aneka menawarkan NET berbasis platform MapReduce desktop, dan framework pada perusahaan lainnya berbasis open source Hadoop adalah Horton dan Cloudera.

3. Tools Perangkat yang digunakan pada beberapa sistem yang ada ada Big Data adalah sebagai berikut:

Key-Value Store Key-value pair (KVP) table digunakan untuk menyediakan sistem manajemen data pada beberapa teknologi NoSQL. Konsep KVP tabel ini memiliki 2 kolom dengan 1 kunci dan yang lain berfungsi sebagai valuenya. Data value dapat berisikan data single atau data block yang berisikan banyak value didalamnya dengan format yang mengandung beberapa kode program didalamnya. KVP tabel menggunakan sistem pengindeksan yang disertai pencarian cepat suatu data serta penyisipan maupun penyimpanan data secara cepat. Contoh dari Key-Value Store adalah Amazons Dynamo dan Oracles Berkeley DB.
• Document Oriented Database Merupakan suatu database yang berorientasi pada suatu dokumen dan berfungsi untuk menyimpan, mengambil dan mengelola data yang bersifat semi-struktural data. Konsep utama dari database ini adalah mengkodekan dokumen data kedalam beberapa format standar seperti JavaScript Object Notation (JSON), Binary JavaScript Object Notation (JSON) atau XML. Contoh database ini adalah Apache CouchDB dan 10 gen MongoDB .
Big Table Database Pada sistem database ini berkebalikan dengan sistem database pada Key-value store. Big table database ini membuat beberapa data secara berkelompok, dimana setiap datanya terdiri dari data sebagai kunci dan data sebagai value pada setiap barisnya. Jenis penyimpanan ini berguna untuk streaming data pada web log, data time series yang berasal dari beberapa perangkat sensor, dll. Contoh penggunaan data base ini adalah Hbase dan Google Big Table.
• Graph Database Merupakan sebuah database yang menggunakan struktur data berbasis grafik yang berfungsi untuk penyimpanan data semantik. Database ini setiap entitas data mengandung pointer langsung menuju data yang dituju tanpa adanya proses pencarian. Graph database ini biasanya digunakan untuk memproses beberapa data complex yang saling berhubungan dari berbagai sumber seperti jejaring sosial. Data ini biasanya didapatkan dari data table yang terhubung langsung dengan Big Table dan Cassandra. Contoh dari penggunaan grafik database meliputi data grafik yang tak terbatas adalah Neo4j yang bersifat open source database.

1.2.3.4 Model Pemrograman Big Data

Berbagai macam model pemrograman yang digunakan pada Big Data meliputi penggunaan data intensif, komputasi data streaming, pemrosesan banyak data, tingkat performansi yang tinggi (throughput), dan pemrosesan data yang berorientasi pada kolom data. Berikut ini beberapa proses pemrograman pada Big data

• MapReduce Merupakan sebuah model pemrograman tingkat tinggi yang membangun sebuah peta dan mengurangi fungsi pengelompokan data yang didistribusikan dari beberapa node yang ada. Peta yang dibangun berfungsi untuk memfillter dan mengurutkan data sedangkan fungsi Reduce adalah menggabungkan beberapa hasi outputan peta untuk menjadi suatu hasil akhir. Beberapa contoh aplikasi yang menggunakan model pemrograman MapReduce adalah Hadoop MapReduce, Apache Spark, Aneka MapReduce.
• Thread/Task Data Intensive Mode Model pemrograman yang digunakan pada aplikasi tingkat tinggi dengan sebuah logika komputasi yang didasarkan pada batas waktu tenggat sebuah aplikasi. Model pemrograman ini biasanya digunakan untuk pemrograman suatu alur kerja, misalnya Aneka.
• Machine Learning Tools Merupakan sebuah pembelajaran pada suatu mesin yang digunakan untuk pengambian sebuah keputusan. Contoh beberapa perangkat yang menggunakan pemrograman ini adalah Hadoop Mahout.
• Big Query Language Merupakan sebuah generasi baru dalam hal pengenalan suatu bahasa. Model pemrograman ini biasanya melibatkan pencarian data teks. Salah satu contoh aplikasi dari pemrograman ini adalah pencarian suatu kata berdasarkan frekuensi kemunculan menggunakan Google Big Query Data Analisis.

Selain model pemrograman, sistem komputasi pada Big Data juga membutuhkan mekanisme penjadwalan. Pada sistem komputasi big data terdapat dua jenis penjadwaan yang digunakan yaitu Query Schedulling dan Intensif Data Scheduling. Query Scheduling merupakan sebuah penjadwaan yang didasarkan dengan adanya permintaan dari beberapa data baru yang masuk. Sedangkan intensif data merupakan penjadwalan yang didasarkan pada besaran data yang ada pada database guna mendapatkan waktu yg lebih efektif dan efisien.

1.2.3.5 Sistem Security pada Big Data

Sistem Database pada big data dapat mengungkap data-data yang ada pada suatu instansi perusahaan dengan cara memantau beberapa peristia yang ada secara real time. Data-data tersebut perlu adanya suatu perllindungan untuk memastikan bahwa hanya orang tertentu yang memiliki hak akses terhadap data tersebut. Sistem keamanan pada big data dirancang dengan beberapa mekanisme sistem keamanan untuk melindungi data berskala besar. Berikut ini beberapa elemen yang dibutuhkan untuk mekanisme sistem keamanan pada big data:

• Infrastruksur sistem Komputasi yang terdistribusi Merupakan sebuah mekanisme yang menyediakan sistem keamanan ketika data dianalisis pada sistem yang terdistribusi.

• Skala Besar Pendistribusian Data Merupakan mekanisme sistem keamanan yang menenrapkan adanya penggunaan teknik enkripsi data yang telah tersimpan pada database big data.

• Security Analisis Adalah mekanisme yang digunakan untuk mengembangkan framework yang telah diberi sistem security. Salah satu bentuk pengembangannya adalah adanya proses autentikasi mekanisme dalam mempublikasikan data. Beberapa jenis mekanisme autentikasi yang digunakan seperti one time passwords (OTP), Multilevel autentikasi dan autentikasi berdasarkan peranan akses data.

• Privasi dan Security User Merupakan mekanisme keamanan berupa privasi, integritas dan autentikasi secara keseluruhan dalam hal validasi user.

Berikut ini 1.8 menunjukkan elemen mekanisme sistem keamanan pada Big Data.

[boxes]

[boxcontent title="1.2.4 Big Data pada Sistem Cloud"][/boxcontent]

[/boxes]

Big Data pada sistem cloud merupakan sebuah platform generasi baru untuk membangun sistem analisis baru pada sebuah data melalui sebuah infrastruktur dengan skala yang bersifat elastis atau secara otomatis akan mengikuti ukuran data yang ada. Big data pada sistem Cloud memiliki beberapa keunggulan fitur diantaranya:

• Skala besar dapat didisitribusikan dengan cepat, dan memiliki akses penyimpanan serta fasilitas komputasi tanpa batas

• Informasi data didefinisikan berdasarkan sistem akses datanya bukan berdasarkan jalur atau nama filenya.

• File sistem dapat secara dinamis membuat dan memetakan data yang ada

Sistem akses data berskala besar bersifat transparansi terhadap peran akses yang dimiliki

• Sistem kinerja yang tinggi memungkinkan untuk proses komputasi lebih cepat

Dapat memproses segala bentuk dan dimensi data yang ada

Mampu mengembangkan dan menyebarkan penggunaan sistem analisis terhadap lingkungan yang berbeda

Mekanisme replikasi terhadap data dan sistem komputasi yang digunakan

• Penggunaan mode intensif data pada segala platform yang digunakan.

Sehingga Big data pada sistem cloud merupakan hasil integrasi antara proses komputasi Big Data menggunakan berbagai platform dengan sistem cloud yang berfungsi sebagai database sistem yang digunakan.

1.2.4.1 Arsitektur layer Big Data Cloud

Pada Big Data memiliki tiga layer utama yaitu layer infrastruktur, layer Big data Platform serta layer aplikasi. Pada masing-masing layer tersebut akan dibagi lagi menjadi beberapa sub layer yang saling berhubungan. Berikut ini penjelasan masing-masing layer yang dimiliki oleh big data cloud:

1. Layer Infrastruktur Pada Layer ini menyediakan layanan untuk manajemen data, pengiriman data, sistem komputasi, penyimpanan dan infrastruktur jaringan. Pada layer ini diklasifikasikan menjadi dua sub layer diantaranya layer sumber jaringan (resource layer) dan layer perangkat (interface layer).

• Resource Layer Pada resource layer ini mengatur segala sesuatu sumber yang berasal dari local data yang dapat diakses melalui protokol standard dan suatu perangkat jaringan, resource ini merupakan resource yang bersifat physical. Selain itu resource layer juga dapat mengatur resource yang bersifat virtual atau cloud resource. Cloud resource ini merupakan resource yang dikirimkan oleh beberapa cloud provider dari sisi komputasi, penyimpanan serta aplikasi cloud yang disediakan.

• Interface Layer Pada Interface layer ini memfasilitasi penggunaan standard protokol yang bersifat terbuka, sehingga protokol tersebut dapat mengakses berdasarkan segala jenis layanan yang dimilikinya. Standard yang dimiliki oleh interface layer ini dapat digunakan untuk mengakses sumber komputasi, sumber penyimpanan serta sumber aplikasi yang digunakan. Pada interface layer ini dapat diklasifikasikan lagi menjadi empat komponen yaitu, protokol perangkat jaringan, CCMI (Cloud Compute Management Interface), CS/DMI (Cloud Storage/Data Management Interface) dan CASI (Cloud Application Services Interface).

Pada masing-masing komponen tersebut berkerja dalam hal jaringan, managemen data, penyimpanan data dan pengembangan aplikasi.

2. Layer Big Data Platform Layer ini merupakan layer tengah yang dapat diklasifikasika lagi menjadi beberapa sub layer didalamnya berdasarkan fungsionalitasnya. Sub layer tersebut diantaranya Foundation Layer, Runtime Layer, Model Pemrograman serta SDK (Software Development Kit) Layer.

• Foundation Layer Pada layer ini menawarkan mekanisme untuk memanajemen resourse yang ada, penyimpanan data yang digunakan, proses manajemen data, sistem security yang digunakan serta penerapan penggunaan sistem virtual/cloud.

• Runtime Layer Pada Layer ini memfokuskan pada mekanisme penjadwalan serta mekanisme manajemen perkerjaan yang dilakukan oleh masingmasing elemen yang ada. Beberapa contoh aplikasi dari layer ini adalah Thread, Task, Map Reduce, Data Aware Scheduler.

3. Layer Aplikasi Pada layer aplikasi ini big data cloud menyediakan beberapa metode statistik, probabilitas, dan teknik machine learning untuk mengembangkan perangkat yang digunakan untuk proses analisa. Layer ini menawarkan SDK, API dan perangkat untuk pengembangan analisa, kemampuan memanajemen data, serta memungkinkan untuk memonitor lingkungan dari Big data.

Kemudian masing-masing elemen arsitektur layer dari big data cloud akan dijalankan oleh beberapa user yang terikat didalamnya. Seperti halnya Developers yang berfungsi untuk desain aplikasi. Data Scientist yang berfungsi untuk membuat aplikasi yang bersifat analitik. Sedangkan End User sendiri merupakan pengguna yang berfungsi untuk menganalisa kesuluruhan dari sistem yang ada. Sehingga keseluruhan sistem yang ada pada arsitektur layer big data cloud disajikan pada 1.10

1.3 Contoh Aplikasi IoT dan Big Data

Saat ini terdapat beberapa perangkat ataupun aplikasi yang menggunakan sistem dari Internet Of Things maupun sistem dari Big data. Salah satu aplikasi yang menggunakan teknologi dari Internet of Things adalah Ubiquitous Network Robot Platform Development For Tracked Swarm Disaster Robot in Human Detection. Aplikasi ini merupakan salah satu aplikasi yang memanfaatkan teknologi robot dalam hal untuk menanggulangi sebuah bencana.

Robot memiliki keunggulan dalam mampu menjangkau daerah yang sulit dan berbahaya bagi manusia dan dapat dipersiapkan secara cepat serta mampu melakukan kegiatan penyelamatan seperti pencarian, pengujian, inspeksi (dalam skala terbatas.Pengembangan robotika untuk operasi penyelamatan bertumpu pada dua kegiatan, yaitu pengembangan platform hardware seperti robot beroda, robot ular, robot berkaki atau yang sejenisnya dan perangkat lunak yang mendukung kinerja robot tersebut. Selain itu, konsep robot dengan menggunakan konsep cloud pun sudah memasuki zamannya untuk membebaskan sumber internal agar dapat digunakan untuk fungsi yang lain. Swarm robot merupakan sekumpulan robot yang dapat dimanfaatkan untuk mengidentifikasi medan bencana. Komunikasi diantara anggota robot dapat mewujudkan pendelegasian tugas sehingga target dapat tercapai. Penggunaan UNRPF pada swarm robot dapat memanfaatkan teknologi internet of things (IOT) pada sebuah model area bencana. Dengan adanya penerapan teknologi IoT maka dapat digunakan untuk mengontrol swarm robot yang memiliki kemampuan navigasi dan berjalan dengan baik serta dapat mendeteksi korban dalam sebuah model medan bencana dimana user dapat menggunakannya secara mobile berbasis web serta penampilan data hasilpendeteksiankorbanoleh robot-robot tersebutsecara real time.

Kemudian contoh aplikasi lain yang menggunakan penerapan teknologi IoT dan Big Data adalah SEMAR (Smart Environment Monitoring and Analytics in Real-time system). SEMAR System merupakan sebuah aplikasi monitoring kualitas air berdasarkan lingkungan yang ada secara realtime.Pada SEMAR sistem ini terdiri beberapa aplikasi sistem yang saling terkoneksi diantaranya:

1. ROV yang dilengkapi dengan sensor kondisi air untuk mengetahui kondisi air pada sungai yang mampu dikendalikan secara jarak jauh dan mampu mengirim data sensor ke pusat data melalui komunikasi kabel dan atau nirkabel.
2. Sensor kondisi air dan banjir yang diletakkan di daerah tertentu dengan tujuan mampu mengetahui kondisi air pada sungai, dan juga mampu mengukur arus air dan ketinggian air sungai sebagai pendeteksi awal bencana banjir.
3. Pusat data yang menggunakan teknologi Big Data.
4. Sistem pendeteksi terumbu karang dengan menggunakan teknologi Rekonstruksi 3D bawah laut.

Teknologi Big Data pada sistem SEMAR ini berfungsi sebagai pusat data yang berasal dari sensor sensor air tersebut. Semakin lama volume data dari sensor akan semakin membesar dan akan semakin sulit untuk mendapatkan informasi lebih lanjut. Tanpa adanya analisa dari data-data yang banyak tersebut, maka data-data tersebut menjadi tidak berguna dan hanya membuang resource. Dengan adanya penerapan Big Data Analytic melalui beberapa parameter sensor yang digunakan dapat dibuat klasifikasi kualitas air dan memberikan early warning akan perubahan kondisi air sungai di suatu wilayah sehingga menghasilkan output informasi yang berguna bagi masyarakat, pemerintah dan pihak terkait.Sistem komunikasi yang digunakan pada tiap sensor agar menjadi satu kesatuan sistem SEMAR, menggunakan teknologi IoT (Internet of Things). Sehingga dengan adanya penerapan IoT pada sistem SEMAR ini user dapat memonitor kondisi kualitas air secara real time berdasarkan satu kesatuan komunikasi yang dihasilkan dari semua perangkat yang digunakan.

SEMAR System
Bermain dengan Internet of things dan Big Data -Sitrusta Sukaridhoto,S.T.,Ph.D
Last modified: Monday, 8 November 2021, 9:38 AM