Berkat Mozilla Rally, Aktivitas Browsing Kita Bisa Memberi Kontribusi ke Studi Ilmiah

Sudah menjadi rahasia umum kalau kemudahan mengakses informasi di internet sering kali harus kita bayar dengan tereksposnya informasi-informasi pribadi kita masing-masing. Sering kali kita juga tidak tahu pihak mana saja yang memegang informasi tersebut.

Alangkah baiknya seandainya informasi-informasi tersebut bisa memberikan kontribusi kepada masyarakat luas ketimbang sebatas menguntungkan pihak pemasang iklan. Inilah konsep yang digagaskan oleh Mozilla Rally, inisiatif terbaru hasil kolaborasi antara Mozilla dan tim data scientist dari Princeton University.

Rally dideskripsikan sebagai data-sharing platform yang bakal menjadi ‘amunisi’ untuk berbagai proyek penelitian ilmiah. Rally pada dasarnya memungkinkan kita untuk membagikan data browsing masing-masing kepada kalangan peneliti. Data yang kita bagikan bervariasi tergantung kebutuhan tiap-tiap studi yang dijalankan.

Di awal peluncuran Rally, sudah ada studi dari Princeton University yang meneliti bagaimana kita mencari, mengonsumsi, dan membagikan berita tentang politik dan COVID-19. Berikutnya, bakal ada studi lain berjudul “Beyond the Paywall” dari Stanford University yang akan mengamati cara kita mengonsumsi berita demi membangun ekosistem media online yang lebih sustainable.

Sebelum pengguna mulai membagikan data browsing-nya, masing-masing studi bakal menjabarkan secara merinci jenis-jenis data yang dikumpulkan dari partisipan. Pengumpulan data hanya akan berlangsung selama penelitian masih berjalan. Seandainya pengguna keberatan, mereka bisa berhenti menjadi partisipan kapan saja mereka mau, dan Mozilla akan menghapus semua data yang terkumpul.

Untuk sekarang, add-on Rally baru tersedia di browser Firefox versi desktop, dan baru bisa digunakan oleh pengguna di Amerika Serikat saja. Mozilla sudah punya rencana untuk merilis plugin Rally buat browserbrowser lain dan di sejumlah negara lain.

Dalam kesempatan yang sama, Mozilla juga meluncurkan toolkit bernama WebScience yang memungkinkan kalangan peneliti untuk membuat studi berbasis browser yang terstandardisasi pada platform Rally. Seperti halnya Rally, WebScience mengedepankan prinsip data minimization, yang berarti pengumpulan data akan dibatasi berdasarkan informasi-informasi yang dibutuhkan untuk keperluan-keperluan yang spesifik.

Sumber: Mozilla.

Mengenal Lebih Jauh Pekerjaan Teknis Populer di Startup

Makin maraknya kehadiran startup digital saat ini membuka lapangan pekerjaan yang makin besar di bidang teknik (teknologi), meliputi developer, programmer, hingga pekerjaan terkait lainnya. Diprediksi tahun 2020 mendatang penawaran pekerjaan berbasis teknologi tersebut makin masif jumlah seiring dengan pertumbuhan startup dan kehadiran perusahaan teknologi lokal hingga asing di Indonesia.

Untuk mengetahui lebih lanjut apa saja pekerjaan yang makin banyak dicari oleh perusahaan dan startup, berikut lima pekerjaan berbasis teknologi paling dicari dan menjadi favorit secara global.

Developer

Pekerjaan yang satu ini masih menjadi pekerjaan yang paling banyak dicari oleh perusahaan dan startup. Developer atau yang juga dikenal sebagai programmer merupakan posisi kunci dalam pengembangan produk aplikasi. Banyak variannya, termasuk didasarkan pada jenis bahasa pemrograman yang digunakan.

Selain itu, ditinjau dari cakupan tugasnya juga ada beberapa kategori developer, di antaranya adalah software developer, application developer, mobile developer, dan web developer. Meskipun peran pekerjaan utama mereka adalah menulis kode, namun pengembang juga akan mengumpulkan persyaratan lain untuk perangkat lunak, seperti desain atau arsitektur. Termasuk di dalamnya dokumentasi perangkat lunak dan tugas-tugas lain yang terkait dengan proses pengembangan.

Data Scientist

Tugas utama data scientist adalah mengumpulkan, menganalisis, dan menafsirkan data yang masuk; dengan tujuan untuk membantu bisnis mendapatkan pengetahuan berharga dari hasil kerja sistemnya. Peran mereka juga mencakup penggunaan teknologi analisis canggih, termasuk machine learning dan pemodelan prediktif, untuk menyajikan wawasan di luar analisis statistik.

Permintaan untuk posisi ini makin meningkatnya jumlah dalam beberapa tahun terakhir. Mulai banyak perusahaan yang ingin mengelola data mereka untuk bisa digunakan dengan tepat untuk kebutuhan internal perusahaan.

Cyber-security Analyst

Tugas utama mereka adalah merancang dan melaksanakan standar keamanan untuk melindungi jaringan dan sistem komputer perusahaan. Fokus pekerjaannya adalah mempertahankan integritas keamanan sistem dan jaringan siber, melakukan inisiatif keamanan siber dengan analisis prediktif dan reaktif, mengatur sumber daya selama respons insiden, dan mendorong penyelesaian yang tepat waktu dan lengkap.

Untuk bisa menjadi seorang cyber-security analyst, harus mampu memahami adanya tanda-tanda terjadinya serangan dan berbagai prosedur terkait dari ancaman dengan mengembangkan produk yang memadukan intelijen perusahaan.

UI/UX Designer

Meskipun memiliki keterkaitan satu dan lainnya, namun dua pekerjaan tersebut bisa dipelajari secara terpisah. Secara khusus desain UX (user experience) mengacu pada pengalaman pengguna, terutama bagaimana pengguna berinteraksi dengan beberapa teknologi. Desain UI (user interface) berhubungan dengan antarmuka pengguna yang terkait dengan tata letak. Meskipun memiliki peran yang berbeda, tetapi saling melengkapi satu sama lain, dan keduanya sangat penting untuk produk teknologi informasi.

Tanggung jawab desainer UI / UX termasuk mengumpulkan persyaratan pengguna, merancang elemen grafis, dan membangun komponen navigasi. Intinya UX bertanggung jawab untuk membuat antarmuka berguna, dan UI bertanggung jawab untuk membuat antarmuka menjadi indah dilihat. Secara teknis, UX hadir lebih dulu dan kemudian diikuti oleh UI. Namun, dapat di eksekusi oleh tim atau kelompok orang yang sama.

Network Engineer

Posisi yang satu ini juga kerap dikenal sebagai arsitek jaringan. Pada khususnya seorang network engineer adalah mereka yang bertugas untuk merancang dan mengimplementasikan jaringan komputer. Network engineer fokus kepada desain dan perencanaan tingkat tinggi, memilih komponen komunikasi data yang sesuai, dan melakukan konfigurasi untuk memenuhi kebutuhan pengguna dan perusahaan.

Pembangunan jaringan yang bisa bekerja dengan baik, harus terintegrasi dengan komponen LAN, WAN, internet, dan komponen intranet dengan model analisis jaringan.

Quadrant Protocol Membuka Akses Terhadap Data Otentik dan Terdesentralisasi

Data kini menjadi aset bernilai yang dapat berpengaruh besar terhadap pertumbuhan ekonomi. Sejumlah perusahaan di dunia mulai mengandalkan big data untuk membuat keputusan dalam bisnisnya. Di era ekonomi data, perusahaan berskala kecil terhambat berinovasi  karena sulit mendapat akses terhadap data yang belum tentu jelas sumbernya. Belum lagi rendahnya insentif yang diterima penyedia data sehingga menghambat mereka dalam menyediakan data otentik.

Dalam menjawab kendala-kendala di atas, startup Quadrant Protocol mengembangkan protokol berbasis blockchain yang menyediakan sistem data terdesentralisasi. Dengan demikian, individual hingga perusahaan dapat membuat, mengakses, dan mendistribusikan data yang otentik.

DailySocial berkesempatan berbincang dengan Founder Quandrant Mike Davie mengenai bisnisnya beberapa waktu lalu. “Kami lebih ke [menyediakan] infrastruktur teknologi yang memampukan transfer dan pemetaan data,” ujar Davie.

Davie menyebutkan startup asal Singapura ini menawarkan berbagai jenis portofolio, mulai dari akses data, distribusi data, produksi data, hingga data stamping. Produknya dapat digunakan oleh segmen pemerintahan, korporasi, organisasi, hingga perorangan.

Quadrant mengembangkan sejenis blueprint yang menyediakan sistem terstruktur untuk mengutilisasi data yang terdesentralisasi. Perusahaan menggunakan sejumlah metode dalam pengolahan data, seperti Nurseries (memproduksi data mentah hingga memetadakan ke Quadrant) dan Pioneers (memetakan kumpulan data mentah berbeda dan menjadikannya sebagai produk data).

Pada dasarnya, ungkap Davie, Quadrant ingin membuka jalan terhadap perusahaan-perusahaan yang tak mampu mengakses dan mendapat data otentik untuk menyelesaikan persoalan bisnis. Berbeda dengan perusahaan seperti Google, Facebook, dan Amazon, mereka pada dasarnya memiliki akses terhadap data.

Menilik kondisi sebelumnya, ungkap Davie, banyak sekali perusahaan yang mengeluarkan investasi untuk mengumpulkan data dengan menginstal data system. Namun, ketika data terkumpul dan akan dianalisa oleh data scientist, data tersebut ternyata tidak cukup banyak dan tidak jelas keasliannya.

Setidaknya, ada 80 persen perusahaan yang membutuhkan tambahan data eksternal karena volume data yang dimiliknya tidak cukup. Di sini, peran Quadrant untuk menjawab berbagai masalah di atas.

“Bagaimana dengan perusahaan kecil yang ingin berinovasi. Data itu ada, tetapi perusahaan semacam Google tak mungkin membagikannya kepada mereka. Ini peran kami untuk memberikan akses terhadap sumber data kepada data scientist, startup, dan innovation hub,” tuturnya.

Dalam menyediakan sumber data yang otentik dan terdesentralisasi, Quadrant memanfaatkan blockchain yang dinilai tepat untuk membuat public ledger. Selain itu, legalitas sumber data kini semakin relevan bagi kepentingan bisnis. Penting bagi perusahaan, organisasi, maupun sektor pemerintahan untuk memastikan sumber data.

“Kami memakai blockchain karena melihat banyaknya data yang tidak otentik. Kami pikir blockchain bagus untuk public ledger. Kalau mereka nanti create data, mereka bisa stamp untuk signature data secara real-time. Jadi data jelas dari mana data berasal,” jelasnya.

Dalam hal ini, Quadrant tidak sendiri. Startup yang berdiri di 2018 ini berkolaborasi dengan penyedia data, seperti Thomson Reuters, Data Spark, dan Factset. Termasuk dengan mitra lain, seperti AmaZix, Draper Venture Network, dan Openspace Ventures. Setiap data yang masuk ke Quadrant akan langsung dipetakan dari berbagai macam sumber berbeda.

Disebutkan, Quadrant menyasar dua segmen pasar untuk men-deliver bisnisnya. Pertama, segmen yang memproduksi, menyuplai, dan memonetisasi data. Kedua, perusahaan Artificial Intelligence (AI) karena segmen ini sangat bergantung pada real data.

Menurutnya, perusahaan berskala kecil di bidang ini kesulitan untuk membuat inovasi kecerdasan buatan karena kurangnya akses terhadap volume data yang dibutuhkan untuk algoritmanya.

“Anda buat chatbot untuk customer service, tapi data yang dimasukkan salah, jawabannya bisa salah. Makanya, mereka perlu data otentik kalau mau buat machine learning. Kalau tidak, model mereka tidak akan berguna,” paparnya.

Terkait pasar Indonesia, Davie menyebutkan bahwa pihaknya tengah melakukan ekspansi. Utamanya, perusahaan menyasar perusahaan analitik yang membutuhkan data. “Soal klien kami, poin terpentingnya mereka harus tahu cara mengolah data. Ini sulit kami temukan di dunia. Kami harap bisa serve pasar Indonesia juga.”

Konferensi “Data Science Weekend 2018” akan Kembali Digelar

Data Science Weekend (DSW) 2018 akan kembali diselenggarakan. Konferensi yang diorganisir komunitas Data Science Indonesia ini memiliki tujuan untuk menjadi ajang bagi para data professional dan data scientist di Indonesia berkumpul, bertukar pikiran, berjejaring, dan belajar mengenai teknologi data terbaru. Sesi demo dan praktik yang diusung juga diharapkan bisa membuat peserta langsung dapat menerapkan teknologi terbaru tersebut ke dalam pekerjaan masing-masing.

Tema DSW 2018 ini adalah “Fast Forward, Foresee the Tech Evolution to Come”. Hal tersebut dilandasi tren teknologi yang ada saat ini, seperti AI (Artificial Intellegence), IoT (Internet of Things), dan Blockchain. Kehadiran data diyakini akan menjadi semakin penting dan tidak bisa dipisahkan lagi dari kehidupan sehari-hari. Melihat tantangan dan peluang dari industri data yang semakin dinamis, DSW 2018 mencoba untuk mengumpulkan para pelaku industri dan praktisi data untuk bisa membagikan pengalaman, pandangan, dan aspirasi mereka agar mendorong industri data di Indonesia menjadi lebih baik dan berdampak positif.

DSW 2018 juga memberikan kesempatan bagi mereka yang haus akan practical knowledge untuk bisa terlibat lebih jauh dengan belajar secara hands-on teknologi-teknologi mutakhir seperti AI dan IoT melalui kegiatan pembuka yaitu DSW Camp & Jam. Di DSW Camp & Jam, para peserta akan diajak untuk mengalami langsung cara membangun AI ataupun menggunakan IoT, dari tingkat dasar hingga tingkat paling advanced.

Selain DSW Camp & Jam, DSW 2018 juga memberikan kesempatan untuk mendengarkan inspiring talks dari para pembicara ternama. Pembicara yang dihadirkan termasuk dari GO-JEK, Niometrics, Home Credit Indonesia, Google, AWS, Yellowfin, Bukalapak hingga Kantor Staf Presiden. Rangkaian DSW 2018 sendiri akan berlangsung pada 27-29 April 2018 di Universitas Multimedia Nusantara, Gading Serpong, Banten

Industri data di masa depan akan semakin menantang dan semakin membutuhkan keahlian yang baru. Tanpa usaha untuk terus belajar dan mengadopsi teknologi baru, bisa dipastikan para data profesional di Indonesia akan ketinggalan dibandingkan dengan negara tetangga. DSW 2018 memberikan kesempatan bagi rekan-rekan data profesional di Indonesia untuk belajar dan berjejaring. Karena dari saling bertukar pikiran, bisa jadi ada inisiatif baru yang bisa didorong untuk membuat industri data di Indonesia semakin kompetitif dan maju.

Informasi lebih lanjut dan pendaftaran, kunjungi situs resminya melalui laman di https://datascienceweekend.id.


Disclosure: DailySocial merupakan media partner Data Science Weekend 2018

Empat Hal yang Perlu Dicermati Jika Ingin Menjadi “Data Scientist”

Makin besarnya permintaan tenaga data scientist di Indonesia saat ini, ternyata tidak dibarengi dengan jumlah tenaga data scientist yang berkualitas. Hal tersebut terjadi karena Indonesia masih terbilang baru dalam hal pengolahan big data dan belum adanya edukasi yang menyeluruh soal data scientist.

Menurut Co-Founder Algoritma Nayoko Wicaksono, untuk bisa menjadi seorang data scientist yang baik dibutuhkan pengalaman serta wawasan dan pemikiran yang cukup dewasa untuk bisa mengolah dan menganalisis data yang ada.

“Karena alasan itulah mengapa banyak tenaga data scientist yang fresh graduate belum terlalu mahir melakukan analisis dan pengolahan data. Mereka yang pernah bekerja dan terbilang berpengalaman, ideal untuk menjadi tenaga data scientist yang baik.”

Dalam sesi #SelasaStartup kali ini, Nayoko Wicaksono yang memiliki kelas dan tempat pelatihan untuk menjadi seorang data scientist, Algoritma, memberikan beberapa tips untuk bisa menjadi data scientist yang tepat.

Diperlukan talenta yang multiskill

Pengolahan data memanfaatkan tenaga data scientist, diklaim mampu mengurangi biaya pengeluaran sebuah startup hingga perusahaan jika diterapkan dengan baik. Berbeda dengan proses pengolahan data sebelumnya yang masih menggunakan cara-cara konvensional, pengolahan data saat ini begitu kompleks, sehingga dibutuhkan talenta yang multiskill untuk bisa memecahkan solusi.

Idealnya, seorang data scientist yang baik harus memiliki kemampuan memahami matematika, statistik, hingga basic logic dan tentunya memiliki pengalaman yang luas.

Harus bisa berkolaborasi dengan semua tim

Untuk bisa menghasilkan analisis data yang tepat, seorang data scientist harus bisa melakukan kolaborasi yang baik dengan divisi lain dalam perusahaan. Misalnya, jika bagian pemasaran membutuhkan analisis untuk data soal pemasaran hingga consumer behaviour, seorang data scientist harus bisa memahami kemudian menganalisis permintaan tersebut. Untuk bisa menghasilkan analisis yang tepat, kerja sama tim dan kolaborasi yang baik mempengaruhi keberhasilan tersebut.

Hindari belajar sendiri secara online

Untuk bisa memahami apa itu data scientist, variabel apa yang mempengaruhi dan bagaimana cara tepat menganalisis suatu masalah, belajar langsung di kelas/pelatihan/kursus sangat disarankan. Hindari untuk belajar secara otodidak secara online, karena begitu banyak pemahaman hingga proses yang harus dilalui, menjadikan informasi dan pelajaran harus diketahui secara langsung dari pakar dan guru yang berpengalaman.

Tidak ada acuan atau sistem pengukur skill data scientist

Karena profesi ini masih terbilang baru, saat ini belum diketahui dengan pasti seperti apa data scientist yang paling baik. Idealnya seorang data scientist  yang berpengalaman adalah mereka yang mampu mempelajari data set perusahaan tempat mereka bekerja. Semakin baik seorang data scientist mempelajari dan menganalisis data yang ada, semakin cerdas mereka melakukan proses tersebut.

“Sekedar informasi, untuk tenaga data scientist yang masih amatir saja sudah bisa mengantongi gaji sebesar Rp10-20 juta, bisa dibayangkan berapa besar gaji yang diterima untuk seorang data scientist  “unicorn”  yang merupakan istilah bagi data scientist profesional,” kata Nayoko.

Komitmen Algoritma Tumbuhkan Ekosistem Data Scientist di Indonesia

Pada bulan Desember lalu, Algoritma sebagai penyedia layanan belajar data sains menggelar acara “Academy Launch” di Block71 Jakarta. Kegiatan ini merupakan perkenalan resmi Algoritma yang akan dimulai pada bulan Januari 2018. Acara peluncuran akademi ini dihadiri oleh beberapa pihak termasuk perwakilan Kominfo, Bekraf, dan beberapa pelaku startup teknologi. Hadir sebagai pembuka acara Hanifah Makarim, Kasubid Dana Masyarakat Direktorat Akses Non Perbankan BEKRAF. Ia menyampaikan bahwa data sains merupakan salah satu komponen terpenting untuk bisnis masa kini, termasuk bagi startup untuk memperhitungkan berbagai keputusan guna meningkatkan kepercayaan para investor.

Selain itu, Semuel Abrijani Pangerapan, Direktur Jenderal Aplikasi Informatika Kominfo juga hadir menyatakan dukungan dan harapannya bagi pembinaan talenta data sains di Indonesia. Menurutnya di Indonesia yang bisa diolah sangat banyak untuk berbagai kebutuhan dan seharusnya kita bisa menggunakan data tersebut dengan tepat guna. Semuel juga menambahkan bahwa pengolahan data Indonesia belum maksimal karena kurangnya sumber daya manusia yang mampu menjalankan tugas ini dengan baik.

Dalam acara ini, Algoritma juga menghadirkan beberapa pembicara dalam diskusi panel dari perusahaan rekanan yang membahas mengenai karier dalam data. Diskusi panel yang dimoderatori oleh Nayoko Wicaksono (Managing Director Algoritma) ini mengupas bagaima­na aplikasi pekerjaan data scientist di beberapa perusahaan di Indonesia. Pembicara yang hadir dan memberikan insight adalah Norman Sasono (Co-founder & CTO Bizzy Indonesia), Irzan Raditya (CEO Kata.ai), Galvin Marne (Head of Marketing, Iflix Indonesia), Suwandi Soh (CEO Sleekr), dan Natali Ardianto (ex Co-founder & CTO Tiket.com).

Data sains banyak disebut sebagai “the new oil”. Jika beberapa tahun lalu minyak merupakan sumber daya yang paling mahal dan paling banyak dicari orang, saat ini minyak telah digantikan oleh data. Data menjadi sumber daya yang sangat mahal dan penting bagi semua jenis industri karena data dapat membantu para pengambil keputusan untuk menentukan arah bisnis. Data sifatnya sangat cepat, bervariasi, dan sangat banyak jumlahnya.

Data dapat berupa informasi mengenai data diri seorang pelanggan dan sejarah pembelian selama beberapa bulan, data pengunjung museum dalam satu minggu, data penjualan sepeda motor di Jakarta, data curah hujan, dan lain-lain. Semua jenis data ini menjadi bernilai guna apabila diolah dan dianalisis dengan benar. Untuk dapat memanfaatkan data dengan tepat guna, dibutuhkan ilmu yang dinamakan data sains. Data sains adalah pengetahuan yang dibutuhkan untuk memperoleh data, menganalisisnya, sampai melaporkan hasil data yang dapat ditampilkan dalam bentuk metrik bisnis sampai perilaku pengguna dalam perusahaan.

Algoritma adalah penyedia akademi data sains, yang bisa diikuti oleh siapa saja tanpa latar belakang pemrograman atau statistika. Dibangun dengan tujuan mengisi kekosongan antara permintaan dan persediaan data scientist di Indonesia, Algoritma melihat bahwa kesempatan ini sangat tepat untuk memperkuat ekonomi Indonesia dengan mendukung iklim bekerja berdasarkan data.

“Algoritma menyediakan pelatihan intensif data science bagi siapa saja yang tertarik menjadi data scientist dalam waktu singkat. Sebagai penyedia pendidikan data sains satu-untuk-semua, Algoritma membantu setiap siswanya bukan hanya dalam kebutuhan akademis namun juga pekerjaan,” sambut Nayoko Wicaksono, Co-Founder Algoritma.

Kurikulum Algoritma dibagi menjadi dua spesifikasi, yakni visualisasi data dan machine learning. Dalam dua spesifikasi ini, setiap siswa akan belajar menggunakan bahasa pemrograman R dan/atau Python. Setiap siswa tidak diwajibkan untuk mengambil dua spesifikasi sekaligus karena masing-masing spesifikasi mempunyai proyek yang berbeda di akhir akademi.

Sejak Juli sampai November 2017, Algoritma sudah meluluskan sebanyak 175 siswa yang merupakan gabungan spesifikasi visualisasi data dan pembelajaran mesin. Para lulusan ini berasal dari berbagai latar belakang, mulai dari fresh graduates, programmer, IT manager, sales and marketing officer, risk management officer, CTO, dan CEO. Semua lulusan tersebut merupakan para siswa yang menghadiri pelatihan Algoritma yang diadakan selama 3 hari dan berhasil membangun projek untuk masing-masing spesifikasi.

Pada bulan Januari 2018, Algoritma mulai membuka kelas akademi, yakni belajar data sains secara intensif selama 6 bulan. Setiap peserta dapat mendaftarkan diri untuk mengikuti spesifikasi visualisasi data atau pembelajaran mesin atau keduanya. Masing-masing kelas akan berlangsung dengan maksimal peserta sebanyak 20 orang dan setiap peserta akan dibantu oleh asisten pengajar. Iklim belajar di Algoritma didesain senyaman dan seefektif mungkin agar setiap peserta berhasil menyelesaikan proyek yang ditugaskan di akhir akademi.

Sebagai agenda awal, Algoritma juga akan mengadakan acara “Kickstart series: Building a Metrics-Driven Startup”. Acara ini akan diadakan pada 10 Januari 2018 mendatang, mulai pukul 18.00 bertempat di Kantorkuu, Agro Plaza Ground Fl., Jl. H. R. Rasuna Said. Dalam workshop ini akan dipelajari tentang bagaimana membuat sebuah dasbor visual menarik untuk menggambarkan metrik capaian sebuah bisnis. Salah satu fokusnya untuk menghadirkan data yang relevan bagi startup saat melakukan pitching ke investor. Jka tertarik untuk mengikuti  acara ini, pendaftaran masih dibuka secara online: https://goo.gl/jpBPZf

kickstartseries(fbpost)

Disclosure: DailySocial merupakan media partner Algoritma.

Cara Merintis Karier Sebagai “Data Scientist”

Data Scientist termasuk salah satu profesi yang kini sangat dicari oleh perusahaan teknologi. Kebutuhan yang besar ini rupanya tidak sejalan dengan ketersediaan talenta di Indonesia. Ketersediaan talenta di profesi ini masih langka, lagipula tidak semua orang tertarik menggeluti bidang ini.

#SelasaStartup edisi (12/12) mengundang Advisor Data ScienceKoinWorks Rifan Kurnia untuk berbagi seputar tips merintis karier sebagai Data Scientist, mulai dari sejarah profesi ini bermula, bagaimana deskripsi kerjanya, apa saja yang harus dikuasai, dan sebagainya.

Berikut rangkumannya:

1. Komponen dasar

Dalam bekerja, setidaknya data scientist membutuhkan tiga komponen dasar yang saling terkait satu sama lain. Komponen tersebut adalah ketersediaan data yang berlimpah, ketersediaan data scientist, dan terakhir ada riset, insight, dan rekomendasi.

Menurut Rifan, riset, insight, dan masukan adalah produk akhir yang dihasilkan sebagai value dari dua komponen sebelumnya.

Selanjutnya, data yang sudah dikumpulkan oleh data scientist digunakan untuk membangun machine learning. Ibaratnya, machine learning itu seperti bayi yang membutuhkan penyangga, ditopang oleh data sebagai dudukan agar bayi bisa duduk tegak.

Machine learning itu pada awalnya seperti bayi yang belum bisa apa-apa. Bayi butuh penyangga untuk menopang berat badannya dengan data-data yang dikumpulkan. Lalu diajari perlahan-lahan agar bisa pintar.”

2. Keahlian yang dibutuhkan

Untuk merintis karier sebagai data scientist setidaknya membutuhkan tiga keahlian. Menguasai ilmu matematika, setidaknya memiliki keahlian di bidang studi statistik. Selanjutnya menguasai keahlian programming, mulai dari computer science, software engineering, dan systems development. Terakhir, menguasai ilmu bisnis ekonomi/finansial/marketing/operasional/manajemen.

Seluruh keahlian ini harus dikuasai calon data scientist. Menurut Rifan, semua orang kini bisa menjadi data scientist, meski berasal dari bidang studi lainnya. Kini semua bahan-bahan bisa dipelajari lewat internet. Ada banyak situs yang menyediakan bahan materi tentang profesi data scientist.

“Teman-teman saya dari industri perbankan, dulunya bukanlah dari orang statistik. Tapi mereka bisa jadi data scientist karena belajar dari nol. Ada banyak situs yang bisa dikunjungi menyediakan materi berlimpah tentang data science. Jadi profesi ini tidak terbatas untuk orang statistik atau dari matematika saja,” kata Rifan.

Saat ini ada banyak modul yang tersebar secara online dan bisa diakses siapapun. Berbagai situs seperti Coursera, Udacity, Kaggler menjadi rekomendasi utama sebagai referensi untuk mulai belajar dari nol.

3. Pahami perbedaan deskripsi kerja

Data scientist, business analyst, data analyst, developer, data engineer, atau developer operations adalah profesi yang berbeda, namun mereka saling berkaitan satu sama lainnya karena bekerja berdasarkan data.

Data scientist dan data analyst seringkali disamakan, padahal kalau dilihat dari deskripsi kerjanya, data scientist sedikit bersinggungan dengan business analyst. Menurut Rifan, data scientist tidak hanya menganalisis data tapi juga melakukan eksperimen untuk membuktikannya. Sementara data analyst tugasnya hanya menganalisis data.

Sementara deskripsi kerja developer adalah melakukan kolaborasi dengan business analyst dan data analyst, menganalisis apa yang mereka inginkan dalam bentuk coding. Selanjutnya analisis tersebut dikonversi menjadi desain piranti lunak.

4. Komponen software untuk bekerja

Setidaknya ada lima komponen software yang diperlukan untuk bekerja sebagai data scientist. Mulai dari data warehouse, data treatment, status model, art, dan teknologi. Untuk data warehouse (DWH), misalnya sebagai tempat seluruh data disimpan, ada beberapa software yang bisa dimanfaakan, seperti mongoDB dan MySQL.

Kedua, mentransformasikan data dengan memanfaatkan software Spark dan SQL. Selanjutnya Anda bisa menggunakan software untuk memvisualisasikan data dengan sentuhan seni, memanfaatkan ggplot2 dan sejenisnya.

5. Pahami bisnis perusahaan

Data scientist tidak hanya harus mengerti cara menganalisis data tapi juga harus paham dengan dunia bisnis perusahaan yang dianalisis. Dengan memahami bisnis, Anda bisa berkomunikasi ke manajemen perusahaan dan konsumen bagaimana strategi yang harus dilakukan perusahaan berdasarkan analisis data yang Anda telusuri.

Kebutuhan data scientist sebenarnya tidak hanya untuk dunia teknologi. Tenaga ini dibutuhkan perusahaan dari berbagai sektor industri, seperti perbankan, dunia olahraga dan edukasi, kesehatan, transportasi & logistik, travel, media, IT, dan sebagainya.

6. Mulai bekerja

Setelah semua poin di atas sudah dilakukan, langkah berikutnya adalah memecahkan masalah. Caranya dengan mengumpulkan data sebanyak-banyaknya, kemudian membuat solusi. Contoh yang dilakukan data scientist di industri p2p lending adalah membuat prediksi churn rate, memetakan segmentasi konsumen, underwriting-nya seperti apa, dan bagaimana cross-sell dan up-sell-nya.

Memahami Dasar-dasar “Data Science” untuk Bisnis (Bagian 3)

Pada tulisan seri pertama sudah dijelaskan mengenak dasar teori dan komponen pendukung Data Science. Kemudian dalam seri kedua telah dijelaskan pula konsep Big Data sebagai salah satu keluaran dari ilmu Data Science. Tulisan ketiga ini akan membahas seputar penerapan konsep data driven dalam bisnis, yakni memahami tentang keuntungan bisnis membangun awareness seputar pengelolaan data serta kiat memanfaatkan data yang ada sehingga menghasilkan insight berharga.

Tujuan utama bisnis adalah pertumbuhan profit, dan untuk mencapai goal tersebut diperlukan berbagai pendekatan baik yang dilakukan dalam lini internal bisnis maupun eksternal. Lalu apa peran Data Science yang dapat dioptimalkan bisnis untuk mencapai tujuan tadi. Misalnya untuk meminimalkan risiko finansial. Sebagai contoh dalam bisnis e-commerce, memanfaatkan representasi data dengan metode Time Series Anomaly Detection dapat dimanfaatkan untuk mendeteksi fraud secara real-time.

Manfaat lain untuk memberikan efisiensi dalam sistem dan proses produksi. Menggunakan beberapa tipe analisis (akan dibahas kemudian), pemangku keputusan bisnis dapat melihat tren data yang ada, kemudian menciptakan sebuah proses yang lebih efisien dan terstruktur. Kemudian manfaat lain dari penerapan Data Science dalam bisnis adalah untuk meningkatkan penjualan, dengan menemukan cara terbaik untuk strategi up-sell dan cross-sell, meningkatkan loyalitas konsumen, hingga mengoptimalkan konversi dari setiap kanal promosi. Dan masih banyak manfaat lainnya.

Tipe analisis data dalam bisnis

Setelah bisnis memiliki awareness akan data –sebut saja sudah mengakomodasi pengelolaan data secara optimal—lalu apa langkah selanjutnya? Yakni memilih pendekatan analisis sesuai dengan kebutuhan yang ingin dicapai. Dalam konsep Data Science ada beberapa tipe analisis data yang paling sering digunakan untuk kebutuhan bisnis, di antaranya:

  1. Descriptive Analytics; analisis ini mengacu pada histori data sekaligus data yang ada saat ini. Umumnya digunakan untuk menjawab pertanyaan semacam “Apa yang terjadi dengan ABC?”, “Apa yang terjadi jika XYZ?”, dan sebagainya.
  2. Diagnostic Analytics; analisis ini digunakan untuk menyimpulkan kejadian berdasarkan lansiran data terkait. Digunakan untuk menjawab pertanyaan semacam “Mengapa ABC terjadi saat XYZ?”, “Apa yang salah dengan strategi DEF?”, dan sebagaiya.
  3. Predictive Analytics; analisis ini mencoba menyimpulkan sebuah tren dan kejadian di masa depan mengacu pada data-data historis yang ada. Model ini cenderung lebih kompleks dari dua tipe sebelumnya, karena memerlukan pemodelan dan analisis yang lebih mendalam.
  4. Prescriptive Analytics; analisis ini digunakan untuk mengoptimalkan proses, struktur dan sistem melalui informasi yang dihasilkan dari Predictive Analytics. Pada dasarnya memberi tahu kepada bisnis tentang hal apa yang perlu dilakukan untuk mengantisipasi kejadian yang ada datang.

Untuk merealisasikan implementasi analisis bisnis, umumnya bisnis dihadapkan pada dua kendala. Pertama ialah menemukan sumber daya/talenta yang berkompeten. Dan yang kedua tentang bagaimana cara mengomunikasikan hasil analisis. Strategi pepnyelesaiannya bisnis dapat membangun budaya kerja yang menerima produk analisis. Edukasi kepada setiap pegawai juga harus diprioritaskan, untuk memutuskan atau melakukan sesuatu yang terukur, berdasarkan data dan analisis.

Tentang Business Intelligence

Berkaitan dengan optimasi data, mungkin istilah Business Intelligence (BI) dewasa ini menjadi perbincangan hangat, pasalnya banyak perusahaan ataupun startup mulai membangun divisi khusus berkaitan dengan BI. Kendati sama-sama memiliki cara dengan mengoptimalkan data, BI secara definisi sedikit berbeda dengan Data Science. Perbedaannya dengan Data Science ialah pada pendekatan, teknologi dan fungsinya. Tujuan utama BI adalah mengonversi data menjadi insight bisnis yang dapat digunakan pemimpin bisnis atau manajer dalam membuat keputusan yang terukur.

BI umumnya terdiri dari data yang bersifat transaksional, yang secara natural data tersebut dilahirkan dari sebuah proses bisnis. Pengelolaan data tersebut dapat menjawab beberapa pertanyaan, misalnya dari data penjualan dan pemasaran dapat dijawab pertanyaan “Taktik pemasaran seperti apa yang lebih efektif? Mengapa?”, dari data personalia dapat dijawab pertanyaan “Siapa karyawan yang paling produktif? Dan mana yang paling tidak produktif?”, dan lain sebagainya.

Perbedaan lainnya antara BI dan Data Science, termasuk pada sumber data. Konsep BI hanya mengelola data terstruktur saja, untuk keluarannya pun BI menuntut adanya laporan (biasanya berupa dashboard) yang memvisualisasikan data untuk dibaca orang yang bahkan tidak memahami konsep pengelolaan data.

Merekrut talenta data untuk bisnis

Ada beberapa kualifikasi penting yang harus dipenuhi oleh seorang Data Scientist atau Business Analyst yang akan direkrut untuk memenuhi kebutuhan bisnis, kemampuan utama yang dibutuhkan –dalam hal ini hardskill atau kemampuan teknis—meliputi:

  1. Analisis Kuantitatif; termasuk di dalamnya pengetahuan tentang permodelan matematika, statistika, simulasi, dan peramalan. Kemampuan matematika menjadi dasar kemampuan analisis dan manipulasi data.
  2. Kemampuan Pemrograman; pada dasarnya untuk mengelola data semua dilakukan dengan sintaks pemrograman tertentu –misalnya R, SQL, Python dll—maka kemampuan pemrograman menjadi salah satu komponen kunci yang harus dipahami.
  3. Pengetahuan Bisnis; ini sangat kustom, pemahamannya bergantung bidang bisnis apa yang ditangani, karena untuk menjadikan hasil analisisnya lebih mudah dipahami dan relevan.

Dalam praktiknya, beberapa perusahaan menempatkan tim Business Analyst dalam sebuah divisi khusus untuk mengakomodasi seluruh kebutuhan berkaitan dengan data. Beberapa di antaranya menempatkan pada setiap divisi bisnis, karena disadari kebutuhan data untuk masing-masing area berbeda, dan kadang butuh keahlian khusus untuk mengoperasikan, atau bahkan membaca data yang ada.


Di seri keempat nanti, akan dibahas bagaimana teknik ekstraksi data sehingga menghasilkan sebuah inisght yang bermanfaat. Simak terus DailySocial untuk seri artikel selanjutnya tentang Memahami Dasar-dasar “Data Science” untuk Bisnis.

Baca juga:

Mengintip Strategi Grab Optimalkan Big Data dalam Operasional

Seperti kebanyakan perusahaan teknologi lainnya, Grab juga memanfaatkan big data yang telah dihimpun untuk meningkatkan pelayanannya agar tetap relevan di setiap negara di mana dia beroperasi, termasuk Indonesia.

Perkembangan teknologi yang cepat turut memperkaya big data Grab seiring waktunya. Tiga tahun lalu, Grab mengaku baru diunduh oleh satu juta perangkat, satu booking per dua detik, 100 perangkat CPU, satu database, dengan beberapa gigabyte data dan logs.

Hingga kini Grab telah diunduh hingga 63 juta perangkat, ribuan booking per detik, puluhan ribu CPU, ratusan database, dengan ratusan terabyte data dan logs. Data-data tersebut di antaranya berisi kebiasaaan pengguna dan pengemudi dengan identitas anonim.

Data yang dikumpulkan dimanfaatkan Grab untuk mencari solusi dan inovasi baik secara jangka pendek maupun jangka panjang. Untuk jangka pendek, Grab berupaya mengoptimalkan jumlah permintaan dengan persediaan pengemudi.

Misalnya memberi notifikasi kepada pengemudi tentang prediksi lokasi yang akan ramai dengan pesanan dalam beberapa menit mendatang.

“Banyak data yang dikumpulkan berarti ada banyak insight buat kami. Dalam seharinya kami menerima 10 terabyte data. Bila ditotal sama dengan multi-petabyte data. Ini yang menjadikan kami sebagai layanan transportasi online yang paling banyak diminta di Asia Tenggara,” terang Head of Engineering Grab Ditesh Gathani, kemarin (25/10).

Sementara untuk rencana jangka panjang, Grab ingin mengubah sistem transportasi ke arah yang lebih baik. Semisal, cara mengurangi jumlah kendaraan di jalan, menyediakan transportasi lebih aman, dan mengurangi polusi.

Salah satu contoh inovasi yang dilakukan lewat memanfaatkan big data adalah kehadiran GrabShare dan GrabNow. GrabShare adalah layanan berbagi tumpangan bersama orang lain, dengan titik tujuan searah.

Sementara GrabNow adalah cara mendapatkan pengemudi tercepat dengan langsung menghampiri pengemudi terdekat yang tidak dalam status pemesanan.

“Karena ingin mengubah sistem transportasi yang lebih baik, kami juga membuka data dengan pemerintah setempat. Salah satu yang sudah kami lakukan adalah dengan pemerintah Singapura. Kami berbagi data untuk menyelesaikan kemacetan jalan atau pembangunan infrastruktur.”

Ditesh mengungkapkan, untuk menyelesaikan masalah pihaknya menerapkan pendekatan secara hyperlocal. Misalnya, pihaknya mengirimkan 15 orang tim Grab untuk menghabiskan waktu selama enam bulan di Jakarta. Mereka akhirnya menemukan bahwa warga Jakarta ternyata akan lebih mudah memesan Grab yang ada di depan matanya.

Rutin upgrade platform

Ditesh juga menuturkan, banyaknya data yang melimpah di satu sisi memaksa Grab untuk me-rewrite sistem setiap dua tahun sekali. Maka dari itu, tim engineer Grab bekerja hanya untuk menyediakan solusi yang berlaku dalam jangka waktu dua tahun.

Tentunya, memprediksi apa yang terjadi dalam dua tahun itu bukan perkara mudah. Namun dengan bekal pengalaman yang terdahulu, ditambah kemampuan tim engineer yang mumpuni, Grab dapat mereka-reka. Setidaknya apa kemungkinan yang terjadi dalam dua tahun mendatang.

“Ini jadi tantangan tersendiri karena kita sendiri tidak tahu apa yang akan terjadi dua tahun ke depan. Tapi kita dapat pengalaman terdahulu, sehingga bisa mereka-reka. Kami juga cukup terkejut dengan kemampuan tim engineer yang mampu meng-upgrade platform Grab jadi lebih scalable dalam dua tahun ke depan.”

Ditesh mengaku sejak lima tahun lalu, Grab telah melakukan rewrite sistem hingga tiga kali. Tahun ini telah mamasuki masa keempat.

Kolaborasi antar engineer di setiap negara

Berlimpahnya data, membuat perusahaan rela berinvestasi besar-besaran membangun research and development center (R&D center) di berbagai lokasi. Total R&D Grab ada enam titik, Seattle (AS), Ho Chi Minh (Vietnam), Singapura, Beijing (Tiongkok), Bangalore (India), dan Jakarta (Indonesia).

Pemilihan lokasi ini, tutur Ditesh, juga tidak sembarang. Pihaknya mempertimbangkan ketersediaan engineer lokal yang mumpuni untuk membantu bisnis Grab. Untuk lokasi yang tidak ada dalam wilayah bisnis Grab, seperti Seattle, Beijing dan Bangalore, dipilih lantaran di negara tersebut memiliki engineer bertalenta baik karena hadirnya berbagai perusahaan teknologi kelas triple A.

Bentuk kolaborasi antar engineer di setiap negara pun juga cukup intens, mereka dapat belajar dari satu sama lain. Tim engineer di luar ASEAN bertugas untuk membantu seluruh tim engineer Grab yang ada dalam menyelesaikan masalah.

Sementara tim engineer lokal karena paham dengan pasar di negara sendiri akan fokus memberi solusi yang bisa mereka lakukan.

Ambil contoh, tim Bangalore bekerja untuk fitur GrabPay. Mereka akan bekerja sama dengan tim Kudo untuk mengintegrasikan GrabPay dalam aplikasi Kudo. Sedangkan tim engineer di Indonesia fokus mempermudah proses penerimaan pengemudi baru dalam aplikasi Kudo.

“Pada intinya, tim engineer akan fokus pada nilai apa yang bisa mereka tawarkan untuk menguntungkan masing-masing negara. tim Vietnam akan bekerja untuk market mereka. Sedangkan tim Singapura mereka mampu membantu seluruh tim di Asia Tenggara.”

Dampak penunjukkan CTO baru

Selain membahas big data, Ditesh juga mengungkapkan bahwa pihak cukup senang dengan kehadiran Theo Vassilakis sebagai CTO Grab. Vassilakis akan membawahi seluruh tim R&D, termasuk Ditesh sendiri.

Pengalaman yang sudah dihimpun Vassilakis tentang big data dari perusahaan sebelumnya diharapkan dapat membantu Grab untuk scale up lebih kencang. Pasalnya, Grab kini tidak hanya sebagai perusahaan transportasi on demand, tapi kini sudah masuk ke sistem pembayaran.

“Kami harap Vassilakis dapat membantu Grab untuk scale up dalam dua hal tersebut,” pungkas Ditesh.

Application Information Will Show Up Here

algoritma dan Misi Mencetak Tenaga “Data Scientist” Berkualitas di Indonesia

Makin maraknya kehadiran startup hingga layanan e-commerce yang berbasis teknologi saat ini, memunculkan posisi baru yang memiliki peranan penting dalam bisnis. Mulai dari data analyst, data engineer, dan data scientist, semua posisi tersebut makin di cari namun terbilang masih sedikit jumlahnya.

Melihat potensi tersebut, algoritma, startup yang fokus kepada program dan kegiatan pendidikan untuk data scientist, hadir di Indonesia. Meskipun masih baru berjalan selama 4 bulan, algoritma memiliki visi untuk mencetak tenaga muda profesional yang ahli dalam pengolahan data.

“Saat ini untuk melihat dan mengolah data tidak cukup lagi menggunakan cara-cara lama, data semakin tidak teratur dan bersifat real-time, sehingga sudah harus dilakukan pendekatan yang lebih modern bukan lagi menggunakan cara konvensional,” kata Co-Founder dan Course Producer algoritma Samuel Chan kepada DailySocial.

Nama Samuel Chan sebelumnya dikenal sebagai Founder dan CEO HyperGrowth, yang merupakan perusahaan teknologi yang mengembangkan solusi otomasi pemasaran untuk pengiklan mobile dan perusahaan aplikasi mobile. Hypergrowth juga sempat mengembangkan Growthbot. Setelah menjalankan bisnis selama 3 tahun, Samuel memutuskan melakukan pivoting dari Hypergrowth menjadi algoritma.

Bersama tim dan formula yang diklaim terbaik, Samuel Chan dan Co-founder-nya, Nayoko Wicaksono, mendirikan algoritma sebagai platform untuk belajar dan mengenal lebih jauh data science.

“Kita telah melakukan komunikasi yang intensif dengan investor ketika memutuskan untuk melakukan pivoting. Hal tersebut dilakukan untuk memastikan bahwa model bisnis yang baru lebih menjanjikan dan dengan tim yang ada saat ini memiliki potensi yang cerah untuk dikembangkan,” kata Samuel.

Aktif menggelar workshop dan kelas data science

Masih kurangnya wadah atau platform yang menghadirkan kesempatan untuk belajar soal data science dan pengetahuan terkait lainnya, tenaga data scientist asal Indonesia masih sangat minim sehingga harus mengimpor tenaga data scientist dari negara lain.

“Saya melihat lingkungan kita saat ini belum memiliki tenaga yang cukup siap menghadapi perubahan teknologi saat ini. Dengan alasan itulah tim dari algoritma ingin merubah keadaan sesuai dengan visi dan misi kita,” kata Samuel.

Saat ini algoritma telah memiliki sekitar 450 peserta yang telah mengikuti kegiatan workshop. Tidak hanya di Jakarta, tetapi juga di luar kota, seperti Surabaya. Sudah 13 workshop yang digelar oleh algoritma, dan dalam waktu dekat akan meluncurkan workshop terbaru tentang Python-based workshops. Secara keseluruhan algoritma menyediakan pelatihan untuk R and PYTHON juga pilihan untuk kursus dan bootcamps  data science.

algoritma juga sudah memiliki sekitar 22 klien korporasi sejak pertama diluncurkan. Meskipun masih sangat belia, algoritma disebutkan sudah memiliki tim solid berjumlah 12 orang.

“Dalam waktu 5 tahun ke depan ketika otomasi mulai menggantikan pekerjaan rutin manusia, algoritma ingin menjadi bagian dalam hal menyiapkan tenaga kerja yang handal dan terlatih,” tutup Samuel.