Memahami Dasar-dasar “Data Science” untuk Bisnis (Bagian 2)

Sebelumnya, dalam seri pertama telah dibahas tentang komponen dasar dari sebuah rangkaian dan komponen yang mengisi Data Science. Pada bagian ini akan dibahas dasar salah satu implementasi Data Science yang paling dibutuhkan saat ini, yakni Big Data.

Istilah Big Data dewasa ini bukan hal baru lagi, khususnya dalam penerapan Data Science di korporasi. Sesuai namanya, Big Data mengindikasikan pada sebuah pemrosesan data besar yang tidak bisa ditampung melalui mekanisme basis data konvensional (misalnya RDBMS). Dalam Big Data ada istilah mendasar yang sering disingkat dengan 3Vs yang menjadi karakteristik utama, yakni Volume, Velocity dan Variety.

Volume merujuk pada limitasi besaran data yang akan diolah. Kemampuan Big Data dapat mengolah data dengan ukuran terabyte (1012 bytes) atau petabyte (1015 bytes). Mengapa data bisa berukuran sebesar itu, faktor Velocity (atau kecepatan interaksi data) yang akan mengukur. Velocity adalah volume data pada skala waktu tertentu, yang didapatkan dari berbagai sumber, misal dari data transaksi, data perekaman sensor, atau data yang dihasilkan dari sebuah log mesin.

Dari yang sudah sering ditangani selama ini, Velocity dapat mencapai kisaran 30 kilobyte sampai 30 gigabyte per detik. Bahkan banyak Data Engineer membutuhkan latensi yang lebih dapat, misalnya 100 milliseconds dalam perekaman data. Tren ini diyakini akan terus berkembang, menghasilkan data yang lebih besar, seiring dengan model pemrosesan real-time yang banyak diterapkan di berbagai lini bisnis dalam sebuah perusahaan. Perangkat lunak seperti Apache Sqoop, Apache Kafka atau Apache Flume menjadi beberapa yang terpopuler untuk mengolah pergerakan data besar tersebut.

Kemudian yang ketiga ialah Variety, ini berkaitan dengan jenis data –seperti yang telah dibahas dalam materi sebelumnya, umumnya akan ditemui tiga jenis data, yakni terstruktur, semi-terstruktur dan tidak terstruktur. Saking besarnya kumpulan data dari berbagai sumber dan varian, dalam ilmu Big Data ada istilah “Data Lake”. Istilah tersebut banyak digunakan oleh praktisi Big Data untuk merujuk pada sebuah sistem penyimpanan data non-hierarkis yang menampung data multi-struktur dengan sebuah arsitektur penyimpanan tertentu. Hadoop Distributed File System (HDFS) adalah salah satu contoh arsitektur penyimpanan yang sering digunakan untuk mendukung kebutuhan tersebut.

Sedikit tentang Hadoop di dalam konsep Big Data

Hadoop adalah sebuah kerangka kerja open source untuk mendukung aplikasi berbasis Big Data. Ketika orang mengatakan menggunakan Hadoop maka itu mengacu pada sebuah ekosistem perangkat lunak meliputi HDFS untuk penyimpanan data, Map Reduce untuk pemrosesan data dalam jumlah besar, Spark untuk pemrosesan data secara real-time, dan YARN (Yet Another Resource Negotiator) untuk dukungan manajemen sumber daya.

Dalam sebuah implementasi yang paling sederhana, dari sebuah sumber data MapReduce akan diterapkan untuk melakukan dua hal, yakni memetakan data dan mereduksi data. Dalam tugasnya memetakan data, MapReduce mendelegasikan data ke pada sebuah “key-value, termasuk melakukan transformasi data atau memilah data sesuai yang dibutuhkan. Sedangkan dalam tugasnya mereduksi, MapReduce akan mengagregasi data pada sebuah dataset sehingga memenuhi standar yang ada.

Jika studi kasusnya kepada sebuah data pasif, skenario di atas akan sudah cukup, tinggal memasukkan ke HDFS untuk selanjutnya diproses. Akan tetapi tantangan masa kini dalam penerapan Big Data adalah data real-time. Sehingga MapReduce perlu sebuah pendamping, dalam hal ini Spark sebagai sebuah in-memory computing application. Di dalamnya pengguna dapat melakukan banyak hal, termasuk melakukan query, analisis dan eksplorasi data, termasuk menjalankan algoritma tertentu misalnya Machine Learning.

Penggunaan rangkaian alat Hadoop juga memerlukan sebuah kompetensi pemrograman. Pada dasarnya Hadoop dikembangkan dari Java, akan tetapi dari perkembangannya kini bahasa lain seperti Scala, Python dan SQL telah dielaborasikan ke dalam proses pengelolaannya. MapReduce secara native menggunakan Java, sedangkan Spark menggunakan Scala. Namun sekarang juga sudah ada dukungan PySpark sehingga dapat mengelola Spark dengan pemrograman berbasis Python. Sedangkan untuk pengelolaan di HDFS tetap menggunakan SQL.

Sebelum melangkah lebih jauh

Melakukan implementasi Big Data dalam sebuah unit bisnis memang membutuhkan waktu, bahkan beberapa perusahaan menempatkan implementasi Big Data pada long-term vision, karena prosesnya harus berelaborasi dengan kegiatan lain dalam unit bisnis. Namun sebelum melangkah lebih jauh dan mempelajari teknisnya secara lebih mendalam, perlu diketahui terlebih dulu tentang visi Data Science dari sebuah bisnis. Mungkin akan cukup beragam namun setidaknya mencakup tiga hal, yakni (1) mengidentifikasi tantangan bisnis, (2) memecahkan masalah bisnis dengan pendekatan data, dan (3) meningkatkan keuntungan di seluruh lini bisnis.

Big Data adalah bentuk penerapan Data Science dalam skala besar. Untuk mengawali awareness tentang data sebenarnya bisa dilakukan dengan cara yang paling sederhana. Sebagai contoh akan mengangkat studi kasus bisnis media. Hal paling awal yang dapat dilakukan ialah mengidentifikasi sumber data yang ada, apakah itu dari basis data yang dihasilkan melalui Content Management System (CMS), data trafik pengunjung yang didapat melalui Anaytic Tools, atau bahkan data dari luar –misalnya identifikasi tren topik dari media sosial atau mesin pencari.

Berikutnya, tentukan masalah apa yang ingin dipecahkan. Sebagai contoh, media tersebut memiliki topik bulanan untuk sebuah opini. Maka tugas Data Science di sini bisa saja berbentuk menghubungkan tren data di media sosial tentang popularitas suatu tema dihubungkan dengan popularitas tulisan-tulisan sebelumnya berkaitan dengan tema tersebut. Jika datanya sudah lebih terstruktur, misalnya dalam format CSV, maka alat seperti R Studio akan memudahkan dalam visualisasi.

Bahasa R sendiri salah satu bagian mendasar ketika seseorang ingin mempelajari tentang Data Science. Banyak cara yang dapat dilakukan untuk mempelajarinya, mulai dari menggunakan sumber online di internet, buku atau mengikuti kursus khusus yang dilaksanakan bersama trainer tersertifikasi. Di Indonesia, salah satu pelatihan tentang Data Science dilakukan oleh Algoritma. Beberapa waktu lalu Algoritma mengadakan pelatihan Data Science Fundamental dan Data Science for Financial Business. Selain disajikan bahasan secara konsep, para peserta diajak langsung mencoba melakukan programming dengan bahasa R untuk pengelolaan dan visualisasi data.

Kecakapan dalam memvisualisasikan data sangat penting, karena data yang berbentuk visual akan lebih mudah dibaca. Dari sini –menyambung studi kasus di atas—maka dapat dilanjutkan dengan sebuah diskusi oleh pimpinan redaksi atau tim editorial tentang pertimbangan untuk memilih tema tersebut. Kira-kira seperti itu konsep sederhana yang dapat diterapkan dari ilmu Data Science, yang paling sederhana.

Pada seri berikutnya akan dibahas tentang bagaimana sebuah bisnis/perusahaan mengubah pola dan proses di dalamnya sehingga menjadi lebih data-driven. Akan disampaikan juga contoh penerapan yang telah berhasil dilakukan oleh startup sukses dari Indonesia.

––

Disclosure: DailySocial merupakan media partner dari Algoritma.

Disclaimer: Tulisan ini mengambil sampel dari berbagai sumber, termasuk dari sumber buku cetak dan tulisan online di internet.

Baca juga:

Kevin Aluwi Ceritakan Peran “Business Intelligence” dalam Bisnis GO-JEK

Untuk turus menuai sukses, bisnis harus terus berinovasi. Hal tersebut juga dilakukan oleh startup on-demand lokal tersukses GO-JEK. Salah satu yang kini tengah dikembangkan dan dioptimalkan ialah divisi Business Intelligence untuk mengoptimalkan sistem pengelolaan data di lingkup internal GO-JEK. Seperti diketahui bersama, bahwa data menjadi sangat penting untuk sebuah keputusan bisnis dalam bisnis digital saat ini. Hasil pengelolaan data mampu memberikan proyeksi tepat berdasarkan data historis yang dimiliki.

Dalam diskusi mingguan yang diadakah oleh DailySocial #SelasaStartup, dihadirkan Kevin Aluwi selaku Co-Founder & Head of Business Intelligence GO-JEK sebagai narasumber. Spesial untuk membahas bagaimana GO-JEK memanfaatkan data untuk mengoptimalkan sistem bisnis. Salah satu yang diimplementasikan ialah menerapkan konsep big data, hal ini dilakukan lantaran GO-JEK selalu mendapatkan data dengan velocity yang sangat besar, dan harus mampu dibaca secara cepat dan cermat.

Mengawali implementasi data untuk pelaporan

Sama layaknya improvisasi teknologi pada umumnya, implementasi data di GO-JEK dilakukan secara berangsur. Kala itu data pertumbuhan dan transaksi sangat dibutuhkan untuk bukti pelaporan terhadap investor –terutama di awal fundraising GO-JEK. Selain datanya banyak dan besar, variasinya juga cukup beragam, mulai dari data pengemudi, rekam jejak, jenis makanan yang dibeli dan lain sebagainya.

Kala itu GO-JEK memfokuskan divisi data khusus untuk membuat laporan tersebut. Karena investor membutuhkan laporan mingguan dan bulanan mengenai kinerja dari layanan GO-JEK. Hingga akhirnya Kevin merasa bahwa seharusnya optimasi data ini dapat dimanfaatkan secara lebih mendalam untuk meningkatkan performa bisnis.

Pada akhirnya Business Intelligence mulai menjadi divisi khusus yang fokus pada pengolahan data secara lebih terstruktur. Kini sudah ada tim yang didedikasikan khusus sebagai data science dan data engineer untuk tidak hanya sekedar melaporkan data yang masuk, tapi lebih dari itu. Termasuk untuk memproyeksikan berbagai hal dengan data yang dimiliki.

Keputusan tepat di tengah persaingan yang kuat

Kevin menceritakan, pada pertengahan tahun 2015 ia melihat kebutuhan untuk adanya analisis data produktif dari keseluruhan operasi layanan. Hal tersebut dibutuhkan untuk melihat tren penggunaan layanan, hingga melihat kecenderungan konsumen secara lebih personal terhadap layanan yang digemari.

Namun pada saat itu misi tim engineer masih difokuskan untuk memastikan bahwa aplikasi GO-JEK tidak mengalami crash, demi menjamin operasi bisnisnya lancar. Hal ini dirasa krusial, karena harus berhadapan dengan pesaing yang kuat. Sehingga keandalan benar-benar menjadi fokus setiap anggota tim.

Saat layanan GO-JEK sudah sangat stabil, kini tim engineer mulai menjalankan peran khusus di masing-masing area. Salah satunya tim yang dipimpin Kevin, yakni untuk menjalankan sebuah kegiatan intelijen bisnis untuk memaksimalkan potensi perolehan konsumen dari layanan yang dimiliki GO-JEK. Proses tersebut dimulai dengan mengolah data, memvisualisasikan data, hingga membaca data tersebut menjadi sebuah insight berharga.

Salah satu manfaat dari penerapan business intelligence kini GO-JEK dapat membuat sebaran mitra pengemudi menjadi lebih merata. Hal ini untuk memastikan konsumen dapat dengan cepat mendapatkan pengemudi. Kasus lama, biasanya pengemudi menggerombol di area tertentu saja, akibatnya di area lain sering tidak ada pengemudi terdekat.

Dengan data ini, GO-JEK dapat menyesuaikan policy misalnya di jam-jam rame pada area tertentu, untuk menggiring pengemudi di sana, bisa memberikan bonus khusus untuk mitra yang mengambil pesanan dari area tersebut. Dan masih banyak skenario lain yang bisa dioptimalkan dengan hasil pengelolaan data bisnis.

Siap menerapkan data science di departemen SDM

Selain untuk operasional, data sicence juga mulai diterapkan ke area yang lebih luas, salah satunya pada divisi sumber daya manusia (SDM). Data-data didapat dari statistik performa tim dan hasil evaluasi yang dilakukan. Semua kinerja tim dapat disimpulkan hasilnya dengan sebuah sistem cerdas atas apa yang telah ia kerjakan di dalam lini bisnis, sehingga lebih terukur dan lebih memahami aspek-aspek yang perlu diperkuat.

 

Memahami Dasar-dasar “Data Science” untuk Bisnis (Bagian 1)

Data is a new currency. Kalimat tersebut akhir-akhir ini santer diperbincangkan dikaitkan dengan gerakan transformasi digital, mengisyaratkan betapa bernilainya data bagi sebuah langkah strategis bisnis. Namun jika dirunut, urgensi pemanfaatan data sebenarnya tak lain muncul dari komoditas data itu sendiri sebagai objek digital. Saat ini data bisa diperoleh dari mana saja, dari perangkat komputasi yang sehari-hari digunakan, dari penggunaan komputer, ponsel, kamera, hingga perangkat berbasis sensor yang terpasang di dinding.

Tren tersebut menghadirkan dua jabatan baru dalam lini teknologi, yakni Data Engineer dan Data Scientist. Data Engineer memiliki tugas utama untuk menemukan cara dalam menangkap, mengumpulkan dan memadatkan sebuah data dari sumbernya. Domain pekerjaannya termasuk membangun dan mengelola sebuah sistem yang menjadi produsen data, hingga data-data tersebut berada di dalam sebuah tempat untuk dikelola lebih lanjut.

Sedangkan Data Scientist memiliki misi mengolah data tersebut menghasilkan pengetahuan yang bernilai dan dapat diaplikasikan. Sehingga dapat disimpulkan, bahwa Data Science merupakan sebuah proses memproduksi pengetahuan data (data insight). Adapun karakteristik dari pengetahuan data tersebut ialah sebuah simpulan yang dapat dilaksanakan (actionable), memberikan simpulan atau prediksi yang dapat dimengerti untuk beragam kebutuhan spesifik.

Dasar ilmu Data Science

Untuk menjadi seorang Data Scientist diperlukan pemahaman tentang beberapa hal, yakni kemampuan analisis menggunakan konsep matematika dan statistik, kemampuan pemrograman untuk pengolahan data, dan pemahaman pada subjek spesifik pada bidang bisnis yang digeluti. Karena menangani kebutuhan di bidang tertentu, Data Scientist sering direpresentasikan pada sebuah istilah yang lebih rinci, misalnya ad-tech data scientist, political analyst, head of banking digital analyst dan sebagainya.

Terkait dengan dasar ilmu, matematika menjadi penting sebagai landasan metode deterministik untuk operasi perhitungan kuantitatif (numerik). Aplikasinya dalam Data Science untuk membangun model keputusan, menyusun prakiraan hingga memperhitungkan sebuah prediksi. Memahami dasar kalkulus dan aljabar linier menjadi porsi wajib saat seseorang ingin memulai terjun ke dalam analisis data. Karena keduanya teori paling fundamental yang akan banyak digunakan.

Pemahaman tentang metode statistik digunakan sebagian besar untuk memahami tentang makna data, termasuk untuk melakukan validasi hipotesis dari pengetahuan yang dihasilkan data, menyimulasikan skenario, hingga membantu penyusunan sebuah prakiraan. Wajib hukumnya untuk memahami ilmu statistik dasar. Dalam penerapannya, konsep matematika dan statistika berjalan beriringan, mengharuskan pengelolanya jeli menyisipkan formula sesuai dengan pemrosesan data yang dibutuhkan.

Kemampuan pemrograman atau coding –setidaknya tingkat dasar—juga harus dimiliki. Kode yang dituliskan nantinya akan digunakan untuk menginstruksikan komputer dalam memanipulasi, menganalisis dan memvisualisasikan data yang telah dirapikan.

Kegiatan mengelola data

Sumber data sangat beragam, implikasinya data yang dihimpun juga bervariasi. Dalam standar data digital, setidaknya tipikal data tersebut terbagi ke dalam tiga jenis:

  1. Data terstruktur (structured data); yakni data yang sudah dikelola, diproses dan dimanipulasi dalam RDBMS (Relational Database Management System). Misalnya data tabel hasil masukan formulir pendaftaran di sebuah layanan web.
  2. Data tidak terstruktur (unscructured data); yakni berupa data mentah yang baru didapat dari beragam jenis aktivitas dan belum disesuaikan ke dalam format basis data. Misalnya berkas video yang didapat dari kamera.
  3. Data semi terstruktur (semistructured data); yakni berupa data yang memiliki struktur, misalnya berupa tag, akan tetapi belum sepenuhnya terstruktur dalam sistem basis data. Misalnya data yang memiliki keseragaman tag, namun memiliki isian yang berbeda didasarkan pada karakteristik pengisi.

Data Engineer bertugas untuk menyelaraskan ketiga tipe data tersebut, termasuk di dalamnya mengatur skema data. Mengapa merapikan data tersebut menjadi tugas penting? Ketika berbicara data dengan ukuran yang sangat besar, efisiensi perlu dilakukan dalam arsitektur data, tujuannya untuk memberikan kemudahan sekaligus kecepatan dalam pengelolaan serta akses data. Bagi Data Scientist, salah satu validitas data juga ditentukan dari seberapa relevan sumber data yang dimiliki, baik sebagai pelengkap ataupun pembanding.

Sementara itu, kegiatan analisis data dilakukan dengan bahasa Python atau R untuk memanipulasi data dan menggunakan SQL untuk melakukan query (termasuk membuat relasi) pada sumber data. Coding dilakukan kala sumber data telah menjadi ekstensi berkas yang siap diolah. Secara universal terdapat empat format umum yang dapat diterima hampir semua sistem analisis data, yaitu Comma-separated Values (CSV), Scripts (*.py, *.ipynb, *.r dll), berkas aplikasi tabel (*.xlsx, *.qgs dll), dan berkas pemrograman web (*.html, *.svg dll).

Keluaran Data Science untuk siapa saja

Salah satu keterampilan yang wajib dimiliki seorang Data Scientist adalah komunikasi, baik secara lisan atau tertulis. Seluruh pengetahuan dari data harus disampaikan dengan baik, tanpa kemampuan komunikasi yang benar, maka kebutuhan tersebut tidak akan tersalurkan. Kemampuan komunikasi termasuk di dalamnya menjelaskan berbagai unsur yang kompleks sehingga mudah untuk dipahami oleh pengguna data, termasuk ketika membuat visualisasi grafik dan narasi.

Perkembangan operasi bisnis digital yang sangat masif saat ini pada akhirnya membuat Data Science tidak hanya dilaksanakan oleh perusahaan besar saja, akan tetapi startup digital pun memandangnya sebagai sebuah bagian penting untuk mendampingi keputusan strategi bisnis. Sebagai ilustrasi, beberapa contoh penerapan Data Science dalam bisnis di antaranya untuk membantu sistem bisnis secara keseluruhan, tujuannya untuk meningkatkan ROI (Return of Investment) dengan memberikan gambaran tentang aktivitas terukur.

Contoh lagi untuk membantu pemasaran bisnis. Dari data yang histori yang telah terhimpun, sebuah pengetahuan dapat dibuat untuk menghasilkan analisis prediktif mengidentifikasi strategi apa saja yang efektif dijalankan, sehingga pemasar dapat mengeliminasi berbagai jenis tindakan yang tidak memberikan banyak dampak bagi performa penjualan. Di lain sisi, berbagai strategi baru sangat mungkin ditemukan dengan melihat tren data yang ada. Dan masih banyak contoh model implementasi lainnya termasuk untuk production-costs optimization, pricing model optimization, recommendation engine, fraud detection, dll.

Baca juga:

Qlue Berikan Investasi Tahap Awal kepada Nodeflux

Apa yang terbayang ketika mendengar istilah smart city? Ya, sebuah kemegahan dan kemudahan akses di sektor publik yang didukung oleh kemampuan teknologi. Untuk merealisasikan visi tersebut secara berkesinambungan, belum lama ini pengusung produk berbasis smart city Qlue menjalin kerja sama khusus bersama pengembang piranti cerdas Nodeflux.

Kerja sama strategis ini dimulai dengan seed investment (investasi tahap awal) yang diberikan oleh Qlue kepada Nodeflux. Terkait dengan jumlah investasi yang diberikan tidak diinformasikan, yang pasti proses ini menjadikan Qlue sebagai salah satu pemegang saham startup yang didirikan Meidy Fitranto dan Faris Rahman.

[Baca juga: Nodeflux Kombinasikan Komputasi Pintar untuk Ragam Kebutuhan Analisis]

Kepada DailySocial, Meidy menceritakan terkait dengan kolaborasi yang akan dijalin bersama Qlue. Ia memaparkan, “Banyak sekali untuk kolaborasi yang bisa dikembangkan. Dan memang dalam banyak cases kita jalan beriringan, karena pasar klien dari Qlue secara umum sudah memiliki banyak CCTV yang sudah ter-deployed, jadi bisa kita manfaatkan untuk dijadikan pintar dan akan dikombinasikan dengan dashboard analytics Qlue.”

Sudah mulai memaksimalkan kolaborasi kedua teknologi

Kami juga menghubungi CEO Qlue Rama Raditya untuk menanyakan seputar kolaborasi antar dua startup ini. Pasca investasi ini, yang dilakukan Qlue adalah mengadopsi teknologi yang dimiliki Nodeflux ke dalam sistem smart city miliknya.

Salah satu yang sedang dikerjakan adalah proyek bersama kepolisian. Yang dilakukan adalah banyak hal, yakni melakukan analisis terhadap sesuatu yang terdeteksi oleh kamera CCTV yang dipasang. Mulai untuk menganalisis obyek, kepadatan lalu lintas, pendeteksi wajah dan sebagainya. Harapannya terbangun sebuah sistem yang nantinya akan membantu di banyak hal, seperti menemukan buronan atau pengaturan lalu lintas berdasarkan analisis trafik lalu lintas.

Rama juga menceritakan saat ini sedang bekerja sama dengan salah satu perusahaan ojek online. Fungsinya untuk mendeteksi sebaran driver di suatu wilayah. Yang jelas adanya platform Nodeflux membuat apa yang disajikan Qlue menjadi lebih komprehensif dan lebih terukur.

[Baca juga: Qlue Tak Ingin Sekedar Jadi Layanan Pelaporan Warga]

“Jadi yang kita adopsi adalah sistem analisis big data dan machine learning ke dalam dashboard smart city yang kami miliki. Masih banyak inisiatif berbasis IoT yang bakal kita setup bersama Nodeflux ke depannya, untuk menguatkan platform smart city yang kami miliki,” ujar Rama dalam sebuah kesempatan wawancara.

Saat ini Nodeflux berkantor di tempat yang sama dengan Qlue. Meidy dan Rama sama-sama mengutarakan bahwa dengan menyatunya ruang kerja, keduanya dapat berkolaborasi lebih mendalam untuk mengembangkan solusi kota pintar bersama-sama.

“Awalnya saya lihat website-nya, tertarik dan langsung invest. Karena saya memang suka mereka [Nodeflux], banyak proyek kita saat ini juga dikerjakan oleh mereka, khususnya yang membutuhkan solusi analisis Nodeflux,” pungkas Rama.

Nodeflux Kombinasikan Komputasi Pintar untuk Ragam Kebutuhan Analisis

Implementasi yang pas dari teknologi mampu menghasilkan sebuah pemrosesan baru yang lebih pintar, cepat dan efisien. Salah satunya seperti yang diupayakan oleh Nodeflux, startup teknologi yang mengembangkan produk berbasis distributed-computation platform.

Sederhananya sistem pemrosesan yang dimiliki Nodeflux mampu untuk mengitepretasikan data dari berbagai sumber (teks, audio, video, gambar, dan lain sebagainya) dan memadupadankan dengan operasi komputasi untuk menghasilkan sebuah analisis yang lebih bermanfaat untuk pengguna.

Salah satu yang sudah diimplementasikan adalah pemrosesan gambar dan video dari kanal media perekaman (CCTV, Webcam dan lainnya) untuk membantu bisnis mengetahui tren aktivitas tertentu. Beberapa pemrosesan yang dilakukan di antaranya deteksi orang, menghitung jumlah orang dalam kerumunan, pengenalan wajah, deteksi usia dan jenis kelamin, menghitung jumlah suatu objek, hingga memahami perilaku dalam sebuah kerumunan.

Sampai sini tentu sudah makin mudah diterka beberapa skema implementasi produk Nodeflux dalam kehidupan sehari-hari. Nodeflux didirikan oleh dua Co-Founder lulusan ITB, Meidy Fitranto dan Faris Rahman.

Konsep dasar platform Nodeflux
Konsep dasar platform Nodeflux

Memadukan teknologi komputasi canggih

Kepada DailySocial, Co-Founder & CEO Nodeflux Meidy menerangkan bahwa fungsi platform Nodeflux sebenarnya adalah kemampuan komputasi terdistribusi dan juga kemampuan menyebarkan “brain”, komputasi dan kecerdasan buatan secara scalable. Di sini “brain” yang dimaksud dapat digunakan untuk implementasi pada pengolahan seperti Big Data, IoT dan Machine Learning.

“Kalau untuk sekarang kami sedang berfokus mendalami penerapan Artificial Intelligence, Machine Learning dan Deep Learning di area Computer Vision. Jadi Nodeflux men-deploy brain ke CCTV, Webcam, Smartphone dan beberapa perangkat lainnya sehingga mereka mampu melakukan banyak fungsi kecerdasan di luar kemampuan awalnya. Contohnya untuk mendeteksi objek, mengklasifikasikan tipe objek dan sebagainya,” ujar Meidy.

Dua Co-Founder Nodeflux Faris Rahman dan Meidy Fitranto
Dua Co-Founder Nodeflux Faris Rahman dan Meidy Fitranto

Dari perpaduan teknologi tersebut, saat ini Nodeflux telah siap diimplementasikan untuk beberapa sektor bisnis. Untuk ritel memberikan solusi pemantauan persediaan barang, memantau arus pengunjung, menganalisis antrean, hingga menganalisis alur jalan pengunjung. Kemudian di dalam bangunan, Nodeflux dapat membantu pengelolaan parkir, sistem keamanan pintar serta manajemen kedatangan. Selain itu skema implementasi juga sudah disiapkan untuk kota pintar, transportasi, manajemen jalan tol hingga fasilitas keselamatan.

“Kita bisa menggunakan CCTV existing sebagai input source, lalu membuat CCTV yang awalnya standar menjadi pintar, dari biasanya hanya untuk kebutuhan surveillance security, bisa melakukan hal pintar seperti menghitung density kendaraan suatu jalan, identifikasi pelat nomor, mendeteksi PKL Liar, angkutan umum yang mengetem, sampah di kali, ketinggian air, dan sebagainya,” ujar Meidy lebih lanjut.

Studi kasus dan tingkat efektivitas

TransJakarta menjadi salah satu mitra studi kasus yang telah menerapkan Proof of Concept (POC) solusi Nodeflux. Yakni untuk memantau tingkat antrean kepadatan dan dilakukan analisis guna pengambilan keputusan di lapangan dalam operasional. Salah satu yang menarik juga sebuah implementasi untuk mendeteksi angkutan umum yang parkir tidak pada tempatnya, umum disebut ngetem. Ada juga implementasi untuk mengotomatiskan lampu lalu lintas berdasarkan kepadatan kendaraan di setiap arah. Dan masih banyak lagi.

Salah satu implementasi Nodeflux dalam "Ngetem Detector"
Salah satu implementasi Nodeflux dalam “Ngetem Detector”

Menjelaskan tentang efisiensi dalam penerapannya Meidy menjelaskan, “Contoh studi kasus, Traffic Monitoring, yang sebelumnya dilakukan manual, kini dapat dilakukan secara otomatis dan real time, reduce cost, dan informasi yang disajikan lebih reliable dan lengkap. Kemudian Stock Monitoring, yang sebelumnya harus dilakukan manual, kini dapat dilakukan dengan cara otomasi dan near real time. Mengurangi opex dan opportunity loss.”

Pada dasarnya sudah sangat jelas, masa depan penerapan teknologi memang membuat segalanya menjadi canggih dan terukur. Apa yang dikembangkan Nodeflux bisa dikatakan mencicil inovasi masa depan dari penerapan teknologi dalam dunia nyata, saat semua menjadi serba pintar dan memberikan inisght yang bermanfaat pagi penggunanya.

“Dari sisi inovasi produk, secara solusi, kami ingin bisa memberikan solusi yang signifikan dengan menggunakan pendekatan teknologi. Secara kualitas kami ingin menghasilkan produk teknologi yang mampu compete secara global. Dan dari sisi bisnis kami ingin agar bisa menjadi startup yang solutif dan terdepan dalam komputasi dan AI di Indonesia,” pungkas Meidy menjelaskan visi besarnya bersama Nodeflux.

Snapcart Bukukan Pendanaan Pra-Seri A Senilai 40 Miliar Rupiah

Hari ini Snapcart mengumumkan perolehan pendanaan Pre-Seri A sebesar $3 juta atau mendekati Rp40 miliar rupiah dari beberapa investor yang dipimpin oleh Vickers Venture Partners dan para investor sebelumnya termasuk Wavemarker Partner dan SPH Media Fund Pte Ltd. Perolehan investasi tersebut akan difokuskan untuk mengembangkan Optical Character Recognition (OCR), teknologi pembelajaran mesin dan ilmu data, serta memperluas jaringan Snapcart di Indonesia.

“Selama12-18 bulan ke depan, fokus kami akan berorientasi pada pengembangan produk dan akuisisi klien. Kami yakin kami berada pada jalur yang tepat dengan pencapaian pendanaan ini,” ujar Founder & CEO Snapcart Reynazran Royono.

Sebelumnya Snapcart juga telah mendapatkan pendanaan awal sebesar $1,7 juta dari Wavemaker Partners, SPH Media Fund Pte Ltd dan Ardent Capital. Snapcart saat ini beroperasi di Jakarta dan telah masuk ke Filipina di bulan Agustus 2016 lalu. Dengan amunisi barunya, Snapcart menargetkan 50 ribu pengguna aktif di kedua pasar ini, sehingga jumlah pengguna Snapcart 5 kali lebih besar dari jumlah pengguna kompetitor.

Teknologi analitik adalah yang diunggulkan Snapcart. Melalui OCR, fitur yang disuguhkan mampu membaca struk dan platform data pembelajaran mesinnya yang mirip dengan platform yang digunakan Amazon dan Netflix. Pembacaan struk otomatis diklaim mampu memberikan dasar analisis real-time dan mendorong efisiensi dan skalabilitas model bisnis yang didukung kemampuan mendeteksi fraud pengguna untuk memastikan kualitas pengguna.

Produk analitik utama Snapcart juga mencakup: (1) CART – Customer Analytics & Retail Tracking yakni teknologi analisis real-time kebiasaan belanja pembeli, (2) TASQ – Targeted Audience-based Survey & Questionnaire yakni platform yang mempelajari kebiasaan belanja, dan (3) OPTI – Offline Purchase Tracking & Insights yakni alat untuk mengukur efektivitas iklan.

Sebelumnya Snapcart juga terpilih mewakili Indonesia dalam Google Launchpad Accelerator Batch Ketiga menjelang akhir tahun lalu.

“Dalam kurun waktu singkat, kami berhasil bekerja sama dengan perusahaan internasional seperti L’Oreal, Nestle, Unilever, Johnson & Johnson dan Procter & Gamble. Kami bangga dengan pencapaian pendanaan kami. Dukungan ini akan mempercepat pertumbuhan perusahaan untuk meraih visi kami,” tambah Reynazran.

Application Information Will Show Up Here

Cerita Airbnb tentang Analisis Penyelesaian Masalah Pelanggan dengan Teknologi

Permasalahan yang terlihat mudah namun sebenarnya akan memberikan kompleksitas, jika tidak mampu diselesaikan dengan gesit dan cepat, berkaitan dengan pelanggan. Kendati rata-rata pergerakannya fluktuatif, startup yang sudah memiliki layanan terpercaya umumnya tetap akan membukukan jumlah pengguna dengan angka yang fantastis. Cerita tentang bagaimana tim engineer dan data Airbnb mengelola pelanggan mereka dengan teknologi menjadi hal menarik untuk dicermati, sebagai sebuah strategi pintar untuk mengakomodasi pelayanan konsumen yang masuk ke dalam sistem.

Ketika ada pertanyaan terkait penanganan data, jawabannya biasanya: “Tentu saja kami memiliki basis data khusus yang digunakan untuk menyimpan isu yang disampaikan konsumen, namun kami belum memiliki cara untuk menjawab isu tersebut (secara sistematis).”

Pada umumnya data seperti keluhan pelanggan memang hanya akan sekedar disimpan, atau mungkin menjadi sebuah to-do list yang harus satu-persatu dikelola oleh divisi customer services. Namun sayangnya tidak banyak yang mampu memetakan permasalahan tersebut berdasarkan tren, terlebih untuk melihat dominasi permasalahan secara real time. Sementara itu untuk penanganan masalah kadang diperlukan urutan prioritas. Kondisi tersebut juga sempat dialami tim Airbnb dalam urusan penanganan pelanggan.

Airbnb saat ini telah menangani 80 juta pelanggan dan terus bertumbuh dengan cepat mengikuti ekspansi yang terus digalakkan. Dengan pelanggan seperti itu, mereka memahami bahwa salah satu cara untuk mengefektifkan pelayanan terhadap pelanggan yakni harus mampu memahami/memproses data (tiket) pelanggan dengan jumlah besar sembari mendeteksi tren masalah secara real time, bahkan memprediksikannya. Lalu apa yang tim Airbnb kembangkan?

Sistem pengelompokan, analisis, dan visualisasi konten

Untuk memberikan efektivitas terhadap pekerjaan tersebut, sebuah layanan berbasis web yang mampu menghitung tren di semua tiket layanan pelanggan dikembangkan. Visualisasi dihadirkan untuk memudahkan pembacaan data, termasuk memetakan jenis masalah, peramban yang digunakan, negara pengguna, subyek permasalahan, dan beberapa atribut lainnya. Sistem tersebut oleh Airbnb difasilitasi dengan aplikasi berbasis Note.js dengan antar muka dibangun dengan React.

Realisasi sistem tersebut memerlukan peranan beragam komponen, termasuk di dalamnya infrastruktur fisik untuk menjadi sebuah data store penyimpanan tiket yang akan dianalisis. Sebuah teknologi oper sourceElasticsearch” digunakan dalam pengembangan ini. Semua tiket didata pada cluster Elasticsearch secara real-time.

Data yang masuk dihitung dalam interval tertentu untuk mengetahui tren yang ada. Menurut tim pengembang, Elasticsearch memudahkan untuk kebutuhan skalabilitas dan melakukan query aggregate di set data yang masuk.

Ilustrasinya sebagai berikut:

Gambar 1

Tren ditemukan dengan menjalankan multi-search query ke Elasticsearch untuk mendapatkan setiap atribut tiket yang telah didefinisikan. Sebuah model scoring diterapkan untuk setiap seri waktu, urutan hasil, dan mengembalikan tren atribut pada batas minimum. Setelah itu diperlukan beberapa aktivitas termasuk menyesuaikan periodisitas, menghilangkan noise data, menyesuaikan visualisasi, dan menghitung jika ada lonjakan data.

Menggambarkan tren periodik dipilih penggunaan domain frekuensi menggunakan transformasi Fourier, ketimbang menggunakan grafis. Alasannya untuk memudahkan sistem menemukan frekuensi puncak dan memberikan laporan periodik yang berurutan dari jumlah tiket pelayanan pelanggan yang masuk. Hasil akhir dapat merepresentasikan perubahan nilai maksimum serta volume tiket tertentu dari waktu ke waktu. Perhitungan data dilakukan di Redis, untuk memberikan kecepatan ekstra ketika data divisualisasikan dalam UI web.

Gambar 2

Mendefinisikan dan memprioritaskan masalah dengan cepat

Selanjutnya sebuah dashboard disiapkan untuk penggunaannya. Dari sana tren lonjakan terdefinisikan dengan baik, petugas dapat melihat apa saja yang menjadi permasalahan umum yang terjadi. Misal ada lonjakan pengguna baru yang memiliki masalah pencarian pada penggunaan aplikasi di platform tertentu. Sebelum lonjakan ini menjadi masalah yang besar, jika trennya eksponensial meningkat maka tim dapat memutuskan untuk gerak cepat melakukan follow-up perbaikan.

Gambar 3

Penggunaan sistem tersebut sudah berjalan sekurangnya enam bulan dalam tubuh Airbnb saat ini. Salah satu yang diuntungkan dengan adanya sistem ini, tim teknis khususnya dapat menangkap lebih banyak hal, mulai dari bugs yang berpotensi menjadi besar, hingga memudahkan tim dalam mendapatkan prioritas penyelesaian masalah, terlebih yang membutuhkan pembaruan salinan kode dalam aplikasi.

Application Information Will Show Up Here

Layanan Komputasi Awan ibizCloud Hadir untuk Segmen Pasar Korporasi

Hutchison Global Communications Limited bekerja sama dengan PT Centrin Online Prima mengumumkan peluncuran ibizCloud di Jakarta. Sebuah layanan komputasi awan yang ditujukan untuk kalangan korporasi, baik dengan cakupan lokal ataupun global. Dengan kapabilitas teknologi dan desain layanan terkustomisasi, Hutchison menyajikan konektivitas internasional dengan disandingkan konektivitas lokal yang dimiliki Centrin Online sebagai ISP (Internet Service Provider).

Adanya konektivitas internasional dan lokal tersebut dinilai mampu memudahkan perusahaan untuk melakukan pertukaran data, antara kantor di luar negeri dengan perwakilan yang terdapat di Indonesia. ibizCloud juga fokus pada teknologi cloud storage untuk mendukung realisasi big data di lingkungan bisnis. Setidaknya tiga varian model layanan yang ditawarkan, yaitu Infrastructure as a Service (IaaS), Bandwidth as a Service (BaaS) dan Dedicated Bandwidth as a Service (DBaaS).

“Menghadirkan ibizCloud di Jakarta menjadi awalan yang baik untuk tahun 2017 bagi Hutchison. Inisiatif ini turut memperkuat kehadiran kami di Asia, setelah sebelumnya melakukan peluncuran juga di Hanoi pada Desember lalu,” ujar President of International and Carrier Business Hutchison Andrew Kwok dalam rilisnya.

Centrin Online sendiri sebelumnya dikenal sebagai perusahaan di balik PrimaNET. Sebagai ISP untuk korporasi dan ritel kalangan menengah ke atas, saat ini Centrin Online telah memiliki wilayah operasi di Jakarta, Bandung, Denpasar, Medan dan Surabaya. Terakhir manuvernya adalah menyajikan layanan triple play, menyatukan paket layanan internet, dengan paket telepon dan TV berbayar.

“Kami bangga dengan kerja sama antara Centrin Online dan Hutchison untuk membawa ibizCloud ke Indonesia. Langkah ini menawarkan kesempatan menarik untuk memberikan layanan cloud yang cepat dan andal berkelas dunia yang disesuaikan dengan pasar ISP yang mana kami telah berpengalaman lebih dari 25 tahun di dalamnya,” sambut CEO Centrin Online Ismail Hirawan.

Penerapan Big Data oleh Startup Travel Indonesia

Personalisasi data banyak digunakan di banyak bisnis sekarang ini. Salah satu bisnis yang memanfaatkan data untuk improvisasi dan meningkatkan kepuasan penggunanya adalah bisnis travel. Di Indonesia, Pegipegi dan Traveloka sudah melakukan hal tersebut. Keduanya memanfaatkan data untuk menghadirkan beberapa penawaran menarik dan juga membaca kebutuhan para penggunanya.

Untuk segmen travel data diperlukan untuk melacak kebiasaan dan kebutuhan pengguna. Dengan demikian penyedia jasa travel bisa dengan mudah menawarkan sesuatu yang berkaitan, dekat, dan sesuai dengan apa yang dibutuhkan oleh pengguna. Dari segi bisnis di dalamnya (hotel, tiket, dan wisata) ini juga bisa menguntungkan. Karena mereka dapat menyasar langsung pelanggan dengan kriteria yang sama.

Kami mencoba mendapatkan informasi dari beberapa penyedia layanan travel di Indonesia seperti Traveloka dan Pegipegi terkait penggunaan data ini.

“Kami percaya big data adalah kunci untuk memahami apa yang dibutuhkan pelanggan kami. Dengan menganalisis big data, kami dapat mengetahui pola, trend, preferensi dan kebiasaan pelanggan sehingga kami dapat memberikan produk dan layanan terbaik yang sesuai dengan kebutuhan mereka,” terang Communications Executive Traveloka Busyra Oryza.

Hal yang senada juga diungkapkan pihak Pegipegi. Public Relations & Media Office Pegipegi Devi Agustina bahkan mengandaikan data sebagai sebuah harta karun. Data tersebut dijadikan sebagai bahan untuk pengambilan keputusan untuk mengembangkan bisnis yang ada.

“Setiap data yang ada di Pegipegi bagi kami seperti sebuah harta karun. Data ini dapat menjadi referensi bagi manajemen dalam menyusun strategi pemasaran, membuat program promosi dengan partner, serta untuk memprediksi trend dan kebutuhan customer Pegipegi,” terang Devi.

Upaya mengoptimalkan big data

Meski dinilai banyak manfaatnya penerapan big data tidaklah muda, setidaknya butuh investasi dan teknologi yang mumpuni untuk membangun teknologi yang mumpuni. Di Traveloka misalnya, diceritakan Busyra, penerapan big data merupakan sebuah tantangan sehingga pihaknya perlu membangun sebuah tim yang solid baik untuk data engineering maupun software engineering. Orang-orang di dalamnya pun disebutkan orang-orang berprestasi seperti lulusan mahasiswa  unggulan yang berprestasi, alumni perusahaan Silicon Valley, dan beberapa ahli di berbagai bidang disiplin ilmu.

Tak jauh beda, Pegipegi pun dikisahkan telah mengembangkan sebuah sistem terintegrasi yang mampu meng-handle data-data yang ada untuk selanjutnya diolah untuk mendapatkan wawasan yang bisa digunakan sebagai pertimbangan sebelum mengambil keputusan.

Apa yang dilakukan keduanya pun juga dilakukan oleh beberapa perusahaan level internasional yang berada di segmen travel. Disebutkan dalam sebuah artikel, AirBnb juga menerapkan big data yang dikombinasikan dengan sebuah algoritma yang mampu mencocokkan preferensi host dan tamu sehingga bisa mendapatkan hasil yang memuaskan bagi kedua belah pihak.

Hasil pemanfaatan data

Dari informasi yang didapat DailySocial, Traveloka dan Pegipegi sudah beberapa kali mengeluarkan fitur atau layanan yang berdasarkan data-data yang dimiliki. Fitur tersebut beragam. Untuk Traveloka, buah analisis data dihadirkan melalui fitur Notifikasi Harga yang saat ini bisa ditemukan di aplikasi Android dan iOS mereka. Fitur ini menyuguhkan hasil olahan ribuan data harga tiket pesawat setiap harinya untuk dihadirkan ke pelanggan.

Berkat kemudahan yang ditawarkan, saat ini fitur Notifikasi Harga merupakan salah satu fitur yang paling banyak digunakan pelanggan Traveloka.

Untuk Pegipegi, hasil dari analisis data membuahkan fitur personal newsletter yang disesuaikan dengan kebiasaan dan karakteristik pelanggan. Selain itu ada juga notifikasi promo dan penawaran paket wisata yang didasari data-data kebiasaan pelanggan-pelanggan mereka dalam bertransaksi.

Memasuki era digital data-data digital seolah menjadi bahan bakar baru bagi bisnis, terlebih bisnis digital. Apa yang dilakukan Traveloka dan Pegipegi sangat mungkin juga diterapkan oleh perusahaan online travel lainnya.

Application Information Will Show Up Here
Application Information Will Show Up Here

Di Antara Data Resmi Statistik dan Teknologi Big Data

Kepopuleran teknologi big data telah menanjak beriringan dengan volume data yang terus meningkat karena layanan berbasis online juga terus bermunculan. Kemudahan yang ditawakran dalam mengumpulkan data yang sangat besar, meski belum terstruktur, dan bisa diolah untuk membantu pengambilan keputusan bisnis juga berperan dalam meningkatkan popularitasnya. Namun, bagaimana dengan metode pengumpulan data tradisional yang diadopsi oleh badan resmi statistik seperti BPS. Apakah teknologi big data dapat menggantikannya?

Pertanyaan tersebutlah yang coba dijawab oleh Associate Professor (Lektor Kepala) STIS BPS Setia Pramana dalam gelaran Konferensi Big Data Indonesia yang digelar idBigData selama dua hari (7-8 Desember 2016) di Auditorium BPPT,  Jakarta.

“Mungkin tidak, kita mengganti official statistics dengan big data? Data-data [big data] itu kan sudah besar sekali, mungkin tidak untuk mendapatkan informasi-informasi yang dibutuhkan untuk pemerintah untuk mengambil kebijakan? Tidak perlu ada official statistics lagi, tidak perlu ada sensus , karena itu mahal dan menggunakan APBN,” ujar Setia.

Sebelum membahas lebih jauh, Setia memberikan penjabaran perbedaan antara official statistics dan big data dalam proses pengumpulan data seperti dalam table berikut:

Official Statistics Big Data
Structural and Planned Product Largely unstructured / unfiltered data “Data exhaust”, i.e., by product of digital products (transactions, web, social media, sensors)
Methodological and clear concept Poor analytics
Regulated Unregulated
Macro-level, but typically based on high volume primary data Micro-level, huge volume with high velocity (or frequency) and variety
High cost Generally little or no-cost
Centralized; point in time Distributed; real-time

Setia mengatakan, “Melihat kedua perbandingan tersebut, ada beberapa pendekatan yang memungkinkan bahwa official statistics tersebut tidak tergantikan [oleh big data] karena ada standarnya,  tetapi informasi dari official statistic bisa disandingkan atau dikawankan dengan informasi dari big data. Jadi, big data itu bisa menjadi complement dari official statistics.”

Dalam hal perannya sebagai pelengkap, dijelaskan oleh Setia lebih jauh, big data bisa memberikan variabel untuk membantu BPS mengelompokkan yang lebih baik untuk survei sampel. Selain itu juga bisa mambatu meningkatkan perkiraan survei, membantu untuk mengimbangi data non responses seperti data perusahaan, membantu mengecek perkiraan BPS, membantu mempercepat hasil analisis sehingga bisa mempercepat perilisan data, dan membantu untuk meningkatkan dan memberikan perkiraan data yang lebih kecil.

Perbandingan data BPS dan Twitter untuk pola pergerakan pengguna commuter line / DailySocial
Perbandingan data BPS dan Twitter untuk pola pergerakan pengguna commuter line / DailySocial

Sebagi upaya untuk pembuktian konsep ini, BPS sendiri telah melakukan perbandingan data survei mereka dengan data yang diperoleh dari layanan online. Contohnya, data pergerakan pengguna commuter line yang disurvei BPS dengan data yang diperoleh dari Twitter. Hasilnya, memang terlihat ada kemiripan pola dan juga tren.

“Memang ada kemiripan pola dan tren yang terlihat. […] Namun, big data ini bukan pengganti, tetapi sifatnya lebih ke complementing [dari official statistics] dan mengecek juga melengkapi bila ada kekurangan. […] Ada beberapa yang memang bisa di – replace, tetapi itu masih harus didiskusikan. [Untuk saat ini] Masih banyak juga hal-hal yang perlu di eksplorasi  mana yang bisa menggunakan big data, mana yang tidak. Kemudian, informasi tersebut harus ada kontribusi dari para stakeholders terkait,” tandasnya.


Disclosure: DailySocial adalah media partner Konferensi Big Data Indonesia 2016