Google Kembangkan Sistem Speech Recognition yang Bisa Bekerja Secara Offline

Fitur speech recognition pada smartphone kita kenal sebagai fitur yang sangat bergantung pada koneksi internet. Itu dikarenakan teknologinya begitu kompleks, melibatkan sejumlah bagian dengan tugasnya masing-masing yang spesifik.

Pertama-tama, ada satu bagian dari sistem yang ‘memecah-mecah’ input audio menjadi satuan suara terkecil alias fonem. Selanjutnya, bagian sistem lain akan menghubungkan fonem demi fonem menjadi kata-kata, sebelum akhirnya frasanya ditebak oleh bagian yang lain lagi.

Itulah mengapa dibutuhkan koneksi internet yang baik agar speech recognition bisa bekerja dengan lancar, sebab smartphone perlu mengirimkan input audionya ke server terlebih dulu untuk diproses. Semua yang melibatkan server tentu tidak luput dari latency alias jeda, namun Google rupanya sudah punya solusi yang menarik.

Recurrent Neural Network Transducer

Ketimbang mengandalkan sistem speech recogntion yang tersimpan di server, Google meracik sistem berbasis AI bernama Recurrent Neural Network Transducer (RNN-T) yang bisa bekerja langsung di perangkat tanpa perlu mengandalkan koneksi internet. Alhasil, input audio dapat diproses secara instan tanpa ada jeda.

Kalau Anda lihat pada gambar GIF di atas, output yang dihasilkan RNN-T muncul per huruf, dan itu menunjukkan tidak adanya latency selama prosesnya berlangsung. Bandingkan dengan sistem speech recognition berbasis server seperti biasa, yang output-nya muncul secara tidak menentu.

RNN-T nantinya bakal hadir di Gboard pada semua ponsel Pixel, tapi seperti biasa, sementara baru bisa digunakan untuk bahasa Inggris saja. Google berharap mereka bisa menerapkan teknik yang sama untuk bahasa-bahasa lain ke depannya.

Sumber: SlashGear.

AI Dapat Memprediksi Apakah Anda Tertarik dengan Sebuah Film Berdasarkan Trailer-nya

Trailer adalah salah satu senjata promosi utama sebuah film. Lewat sebuah trailer, kita dapat sedikit mengetahui plot ceritanya, mengenali sejumlah pemerannya, hingga pada akhirnya mendapat gambaran guna memutuskan apakah film tersebut layak dinikmati di bioskop ketika tayang nanti.

Dari sisi sebaliknya, pihak produser film rupanya juga dapat memanfaatkan trailer untuk memprediksi kalangan penonton seperti apa yang bakal tertarik dengan film buatan mereka. Ide ini telah dibuktikan oleh 20th Century Fox, yang mengembangkan sistem kecerdasan buatan (AI) untuk melaksanakan tugas tersebut.

Dari kacamata sederhana, AI tersebut mampu ‘mengekstrak’ informasi-informasi dari film seperti warna, iluminasi, wajah, objek dan lanskap; untuk kemudian diformulasikan menjadi prediksi demografi penonton yang tertarik. Yang namanya AI, kemampuan semacam ini tentu didapat dari hasil pelatihan intensif yang dilakukan pengembangnya.

Sistemnya sendiri mengandalkan GPU Nvidia Tesla P100 untuk mengolah data yang sudah pasti masif, dibantu oleh deep learning framework TensorFlow dan cuDNN dari Nvidia. Kombinasi ini memungkinkan sistem untuk ‘mencerna’ ratusan trailer film yang dirilis dalam beberapa tahun terakhir, beserta jutaan riwayat kehadiran penonton di bioskop.

Dengan bangga Fox mengklaim bahwa mereka adalah studio pertama yang menerapkan alat bantu unik semacam ini. Mereka percaya bahwa sistem ini bakal sangat membantu pihak produser dalam mengambil keputusan-keputusan yang berkaitan dengan promosi sebuah film, sebab mereka sudah tahu kira-kira jenis penonton yang bakal tertarik.

Sumber: Nvidia. Gambar header: Pixabay.

PixelPlayer Adalah AI yang Mampu Mengidentifikasi Suara Tiap-Tiap Instrumen Musik dari Sebuah Video

Kemampuan mendengar tiap-tiap individu pasti berbeda. Saat menonton suatu video konser misalnya, ada yang mampu berfokus pada suara bass-nya saja, tapi ada juga yang kesulitan sehingga suara semua instrumen terdengar membaur baginya. Batasan ini tidak berlaku buat mesin, seperti yang dibuktikan baru-baru ini oleh tim peneliti di MIT.

Para cendekiawan yang tergabung dalam Computer Science and Artificial Intelligence Laboratory (CSAIL) di MIT ini mengembangkan sistem kecerdasan buatan bernama PixelPlayer, yang mampu melihat video beberapa orang bermain musik, lalu mengisolasi dan memisahkan suara tiap-tiap instrumen. Semuanya dilakukan tanpa bantuan manusia.

Ambil contoh video duet pemain tuba dan terompet yang membawakan lagu tema Super Mario misalnya. Yang keren, saat video tersebut dilimpahkan ke PixelPlayer, tim peneliti dapat mengklik pada bagian sang pemain tuba untuk mendengarkan hanya suara dari instrumen tersebut, dan hal yang sama juga berlaku untuk sang pemain terompet.

MIT CSAIL PixelPlayer

Metode deep learning yang diterapkan mengacu pada tiga neural network yang telah dilatih menggunakan berbagai video dengan durasi total lebih dari 60 jam. Ketiga network itu punya tugas spesifik tersendiri: satu untuk mengamati aspek visual dari video, satu untuk audionya, dan satu lagi bertindak sebagai synthesizer yang mengasosiasikan bagian video tertentu dengan gelombang suara yang spesifik.

Sejauh ini PixelPlayer sudah bisa mengidentifikasi suara lebih dari 20 jenis instrumen musik yang umum dijumpai. Kalau bekal berlatihnya (data) lebih banyak, tentu yang dapat dikenali bisa lebih banyak lagi. Kendati demikian, yang sulit bagi sistemnya adalah membedakan jenis instrumen yang teramat spesifik, semisal alto sax dan tenor sax.

Lalu gunanya apa? Pertama, PixelPlayer bisa membantu mereka yang sedang belajar alat musik, yang kerap menonton video YouTube dan mengamati cara memainkan lagu-lagu favoritnya. Kedua, sistem ini juga dapat membantu produser untuk menyempurnakan karya musisi yang ditanganinya. Potensinya sangat luas kalau menurut tim pengembangnya.

Sumber: MIT News.

EA Ciptakan ‘Self-Learning’ AI yang Bisa Bermain Battlefield 1 Tanpa Campur Tangan Gamer

Dalam game-game shooter, kecedasan buatan telah lama dimanfaatkan sebagai pengganti peran manusia. Walaupun pengembangannya dilakukan sejak dulu, terobosan teknologi ‘bot‘ terbesar muncul di era Counter-Strike. Saat itu, RealBot menggebrak industri karena kemampuannya mempelajari kondisi peta secara dinamis seiring bermain, dan tak cuma sekadar mengikuti waypoint.

Kira-kira 16 tahun sesudah momen itu, giliran Electronic Arts yang mencoba membuat revolusi. Lewat sebuah video, tim EA Search for Extraordinary Experiences Division mempresentasikan sistem kecerdasan buatan yang mampu belajar sendiri. AI tersebut diimplementasikan dalam permainan Battlefield 1 kreasi tim EA DICE. Hasil eksperimennya terbilang sangat mengagumkan karena ‘para agen’ artificial intelligent mampu bermain game secara begitu natural.

Karakter-karakter yang Anda lihat dalam video ini dikendalikan oleh satu neural network yang dilatih dari nol buat bermain Battlefield 1 melalui metode trial and error. Untuk memudahkan agen-agen tersebut belajar, SEED menyebar pasokan amunisi dan health. Pelan-pelan, AI dapat belajar mengumpulkan kedua jenis item ini ketika dibutuhkan. Kemampuannya itu juga mendorong kecerdasan buatan untuk fokus pada objektif.

Tentu saja AI ciptaan SEED masih jauh dari kata sempurna. Para agen memang sangat cekatan dalam bergerak, membidik dan menembak, tetapi tak jarang mereka jadi kebingungan – seperti berjalan berputar-putar dengan musuh di sampingnya.

“Masih ada banyak hal yang perlu dipelajari kecerdasan buatan ini, namun kami merasa percaya diri bahwa machine learning akan merevolusi ranah pengembangan game serta pengalaman menikmati permainan video dalam beberapa tahun ke depan,” kata sang narator.

Magnus Nordin selaku Technical Director SEED menjelaskan bahwa selain melakukan riset akademis, AI tersebut dikembangkan untuk mencoba menerka seperti apa teknologi gaming di masa yang akan datang. Target mereka tidak muluk-muluk, hanya berupaya memprediksi situasi tiga hingga lima tahun lagi.

Untuk melakukannya, tim SEED membangun purwarupa yang betul-betul bisa bekerja, dengan memanfaatkan kombinasi dari teknologi-tekologi ‘emerging‘ seperti AI, machine learning, VR ataupun AR, serta melalui penciptaan dunia-dunia virtual.

Yang saya bayangkan dari kreasi SEED ini adalah, bisa jadi dalam waktu dekat, para agen AI dapat dimanfaatkan untuk menghidupkan kembali peristiwa atau konflik bersejarah (seperti Ludendorff Offensive, Battle of Fao Fortress atau Battle of Vittorio Veneto) demi mempelajari taktik yang digunakan para panglima saat itu, dan menilik hal apa saja yang mungkin bisa mengubah hasil pertempuran secara signifikan.

Sumber: EA.com.

AI Dapat Membantu Mengoptimalkan Frekuensi Notifikasi Smartphone

Lagu “I Miss You But I Hate You” gubahan Slank tak cuma bisa ditujukan kepada pasangan saja, tapi juga pada notifikasi smartphone. Saat sedang menganggur dan bosan, ekspektasi kita terhadap notifikasi yang masuk jadi bertambah besar. Sebaliknya, saat sedang sibuk bekerja, kita bisa dibuat frustasi oleh banjir notifikasi yang datang.

Dari sudut pandang lain, ketika suatu aplikasi mengirim terlalu sedikit notifikasi, kemungkinan konsumen jadi kurang termotivasi untuk menggunakannya. Sebaliknya, ketika notifikasi yang dikirim terlalu banyak, bisa jadi konsumen malah menghapus aplikasi tersebut.

Repot memang mencari titik keseimbangannya, akan tetapi tim peneliti asal Taiwan tengah menyiapkan solusinya dengan mengandalkan bantuan AI. Berdasarkan hasil riset dan pengembangan yang mereka lakukan, AI terbukti mampu meningkatkan efektivitas notifikasi dan mencegahnya menjadi fitur yang mengganggu.

iOS notification

Duo pengembangnya, TonTon Hsien-De Huang dan Hung-Yu Kao, menamai AI ini C3-PO (Click-sequence-aware deeP neural network-based Pop-uPs recOmmendation) – sedikit maksa, tapi oke lah yang penting fungsional. Sederhananya, AI dilatih menggunakan data-data seperti browsing history, shopping history dan detail finansial.

Di samping itu, AI juga menganalisa notifikasi yang kerap diterima konsumen, dan mana saja yang mereka klik. Dari situ AI bisa menentukan kapan harus mengirim notifikasi, seberapa sering frekuensinya, dan apa saja konten yang pantas (tidak berpotensi mengganggu).

Hasilnya menurut mereka cukup positif. AI terbukti sanggup mengurangi jumlah notifikasi yang muncul, dan jumlah klik terhadap notifikasi yang dilakukan konsumen pun juga meningkat. Namun tentu saja masih dibutuhkan upaya lebih lanjut untuk mematangkan teknologinya.

Di sisi lain, duo peneliti ini juga punya rencana untuk menerapkan AI serupa dalam konteks dunia periklanan. Harapannya adalah membantu para pengiklan untuk mengoptimalkan eksposur mereka (kapan dan seberapa sering iklan harus disajikan).

Sumber: MIT Technology Review dan Engadget.

Berkat Machine Learning, Sistem Cropping Gambar Otomatis Twitter Kini Jadi Lebih Pintar

Kita semua tahu bahwa jutaan gambar yang diunggah ke Twitter setiap harinya ada yang dalam orientasi portrait dan ada juga yang landscape. Namun agar lini masa kita bisa kelihatan konsisten, tampilan preview semua gambar sengaja di-crop ke satu ukuran yang sama, sekaligus untuk memberikan ruang yang lebih banyak buat Tweet lain.

Selama ini, Twitter mengandalkan teknologi pengenal wajah untuk menentukan bagian mana dari suatu gambar yang harus di-crop. Masalahnya, tidak semua gambar mengemas wajah seseorang. Jadi untuk gambar-gambar ini, yang di-crop adalah bagian tengahnya, sehingga sering kali tampilan preview-nya di lini masa kelihatan luar biasa aneh.

Untuk ke depannya, Twitter bakal menerapkan sistem cropping otomatis yang lebih cerdas, dengan bantuan machine learning. Sistem baru ini pada dasarnya akan menentukan bagian mana yang harus di-crop berdasarkan bagian-bagian dalam gambar yang paling memikat perhatian kita, yang umumnya tidak jauh-jauh dari wajah, teks, binatang, objek lain maupun area dengan tingkat kontras yang tinggi.

Twitter smart auto crop with machine learning

Sistem ini sebenarnya sudah sejak lama dikembangkan oleh para akademisi, akan tetapi Twitter memilih untuk memodifikasinya sesuai dengan kebutuhan mereka. Sederhananya, yang diciptakan para akademisi dinilai terlalu berlebihan karena dapat memprediksi pixel demi pixel, dan akibatnya, kinerjanya cukup lambat.

Twitter cuma butuh garis besarnya, dan yang pasti mereka ingin sistem ini bisa bekerja secara instan agar kita dapat tetap mengunggah foto secara real-time. Singkat cerita, hasil modifikasi mereka dapat bekerja 10x lebih cepat dalam menentukan bagian foto yang harus di-crop ketimbang versi yang lebih powerful yang digunakan oleh para akademisi.

Anda bisa menilai sendiri efektivitas sistem baru ini dari dua gambar di atas. Twitter sendiri sedang dalam proses mengimplementasikannya ke aplikasi Twitter versi iOS, Android maupun web.

Sumber: Twitter.

Google Luncurkan AIY Vision Kit, Perangkat Computer Vision DIY Berbasis Raspberry Pi

Usai memperkenalkan VR headset super-simpel Cardboard di tahun 2014, Google kembali bereksperimen dengan karton. Namun demikian, proyeknya kali ini jauh lebih kompleks karena melibatkan sederet komponen elektronik, dan lagi material karton di sini hanya bersifat kosmetik saja.

Namanya AIY Vision Kit, dan perangkat ini merupakan bagian dari salah satu program eksperimental terbaru Google, yaitu AIY Project. Sebelumnya, Google memulai debut program ini melalui AIY Voice Kit, yang premisnya menawarkan dukungan perintah suara dan integrasi Google Assistant pada perangkat berbasis Raspberry Pi.

Untuk Vision Kit, premisnya tidak jauh berbeda dan masih mengandalkan Raspberry Pi. Hanya saja, topik yang menjadi fokus kali ini adalah computer vision. Google melihat proyek ini sebagai cara murah dan sederhana untuk menerapkan teknologi computer vision tanpa perlu mengandalkan koneksi ke jaringan cloud.

AIY Vision Kit

Vision Kit ditujukan untuk penghobi DIY alias do-it-yourself. Paket penjualannya mencakup casing karton, papan sirkuit VisionBonnet, tombol arcade RGB, speaker piezoelektrik, lensa wide-angle dan makro, mur untuk menyambungkan ke tripod dan beragam komponen penyambung lain.

Sisanya, pengguna harus menyiapkannya sendiri, mulai dari Raspberry Pi Zero W, kamera Raspberry Pi, SD card, dan power supply. Kalau sudah lengkap, barulah Vision Kit siap diprogram lebih lanjut.

AIY Vision Kit

Komponen utama Vision Kit adalah papan sirkuit VisionBonnet itu tadi, yang mengemas chip Intel Movidius MA2450. Chip ini punya konsumsi daya yang amat kecil, akan tetapi sanggup menerapkan computer vision dengan menjalankan sejumlah neural network secara lokal, alias tanpa sambungan internet.

Google sendiri menyediakan tiga model neural network yang bisa langsung dipakai. Yang pertama untuk mengenali ribuan benda umum. Yang kedua untuk mengenali wajah dan ekspresinya. Yang terakhir untuk mendeteksi manusia, kucing atau anjing. Selebihnya, pengguna bebas ‘melatih’ model neural network-nya sendiri menggunakan software open-source TensorFlow.

AIY Vision Kit

Sejauh ini Anda mungkin bertanya, “apa manfaat praktisnya?” Banyak, salah satunya untuk mengidentifikasi beragam jenis tanaman maupun hewan. Selain itu, Vision Kit juga bisa dimanfaatkan untuk mengecek apakah anjing Anda kabur dari halaman belakang, atau mengecek apakah tamu-tamu yang datang tampak terkesan dengan dekorasi rumah Anda berdasarkan ekspresi mukanya.

Google berencana memasarkan AIY Vision Kit ke komunitas maker mulai awal Desember ini. Harganya dipatok $45, sekali lagi belum termasuk chip Raspberry Pi dkk yang saya sebutkan tadi.

Sumber: Google.

Situs Ini Manfaatkan AI untuk Memperbesar dan Mempertajam Gambar Seperti di Film-Film

Anda yang gemar menonton film action atau yang menampilkan lakon seorang mata-mata maupun agen rahasia pastinya ingat dengan adegan dimana seorang karakter sedang menunjuk ke gambar tangkapan kamera pengawas, lalu menyeletukkan kata enhance. Setelahnya, adegan biasanya akan berlanjut menampilkan versi beresolusi lebih tinggi dari gambar tersebut.

Pertanyaan kita sebagai penonton umumnya, “apakah hal seperti itu masuk akal di dunia nyata?” Gambar yang tadinya tampak kabur atau pixelated, seketika juga menjadi sangat tajam sampai-sampai wajah seseorang yang tengah diincar sang lakon bisa langsung dikenali.

Kalau Anda pernah mencoba memperbesar ukuran gambar, pastinya Anda tahu bahwa hal semacam ini hanya bisa terjadi di film. Akan tetapi perkembangan pesat teknologi artificial intelligence alias AI berkata sebaliknya, seperti yang dibuktikan oleh situs bernama Let’s Enhance berikut ini.

Tampilan minimalis situs Let's Enhance / Let's Enhance
Tampilan minimalis situs Let’s Enhance / Let’s Enhance

Let’s Enhance dirancang untuk memperbesar suatu gambar tanpa berakibat pada pixelation pada hasilnya. Dengan mengadopsi teknologi neural network dan machine learning, sistem sanggup mengolah gambar, memperbesar ukurannya hingga empat kali lipat, lalu menghasilkan gambar baru yang kelihatan tajam, kurang lebih seperti yang kita dapati di film-film itu tadi.

Pengembangnya mengklaim teknologi yang mereka ciptakan sanggup “menghalusinasikan” detail dan tekstur yang absen pada gambar aslinya. Tentu saja hasilnya tidak akan setajam gambar yang dijepret menggunakan kamera beresolusi tinggi, akan tetapi masih jauh lebih baik ketimbang hasil perbesaran menggunakan Photoshop maupun software sejenis lainnya.

Contoh yang disuguhkan PetaPixel berikut mampu menggambarkan dengan jelas kapabilitas Let’s Enhance, dan ini barulah menggunakan generasi pertama dari sistem yang dibuat. Gambar pertama adalah gambar asli, gambar kedua adalah hasil perbesaran menggunakan Photoshop, sedangkan gambar ketiga adalah hasil Let’s Enhance.

Situsnya sengaja dibuat dengan tampilan yang seminimal mungkin. Tanpa harus membayar biaya apa-apa, siapapun bisa mengunggah gambar untuk diperbesar menggunakan sistem Let’s Enhance. Setelah mengunggah, Anda akan diminta untuk membuat akun gratisan untuk bisa mengunduh hasil pemrosesannya.

Silakan Anda coba sendiri dengan mengunjungi situs Let’s Enhance kalau penasaran. Setiap foto yang diunggah akan diproses menjadi tiga file yang berbeda: Anti-JPEG untuk menghapuskan artifact hasil kompresi format JPEG, Boring untuk memperbesar selagi mempertahankan detail yang ada, sedangkan Magic untuk menghalusinasikan detail yang sebelumnya tidak ada itu tadi.

Sumber: PetaPixel via Mashable.

Ilmuwan Ciptakan AI untuk Mengubah Hasil Foto Smartphone Jadi Sekelas DSLR

Hampir semua review Google Pixel 2 yang beredar memuji kualitas kameranya. Yang lebih mengesankan lagi, pencapaian tersebut diraih tanpa mengandalkan konfigurasi kamera ganda seperti kebanyakan smartphone kelas flagship lainnya.

Hardware memang memegang peranan terbesar dalam menentukan kualitas gambar yang bisa dihasilkan kamera smartphone, akan tetapi bagi Google software dan AI (artificial intelligence) juga tidak kalah penting. Pixel 2 membuktikan bahwa anggapan mereka ini benar, dan kini sejumlah cendekiawan asal Swiss mencoba membuktikan anggapan tersebut lebih lanjut.

Ilmuwan asal universitas ETH Zurich ini menciptakan sistem berbasis AI yang digadang-gadang dapat menyulap hasil jepretan kamera smartphone menjadi sekelas DSLR. Istilah “sekelas DSLR” memang terkesan sangat ambigu, tapi yang pasti tujuannya adalah menyempurnakan kualitas foto yang dihasilkan kamera smartphone.

Fokusnya di sini bukanlah memperkuat efek bokeh, melainkan memperbaiki exposure secara keseluruhan. Area shadow yang sebelumnya hanya tampak hitam tanpa ada detail dibuat jadi lebih cerah selagi masih mempertahankan area highlight agar tidak terlampau terang.

Perbandingan hasil foto sesudah (kiri) dan sebelum (kanan) diproses AI / ETH Zurich
Perbandingan hasil foto sesudah (kiri) dan sebelum (kanan) diproses AI / ETH Zurich

Rahasianya terletak pada sistem deep learning yang pada awalnya diajari dengan cara mengamati dua foto yang sama yang diambil menggunakan smartphone dan DSLR. Dari situ versi lebih barunya telah disempurnakan supaya dapat melihat dua foto dari kamera yang berbeda, lalu menerapkan peningkatan kualitas dari yang satu ke lainnya.

Tentu saja sistem ini masih memiliki sejumlah kekurangan. Yang paling utama, sistem tak akan bisa menambahkan detail pada foto yang diambil, sebab ini sama saja dengan menambahkan informasi yang sebelumnya tidak ada. Dalam beberapa kasus, meski foto yang telah diproses tampak lebih terang dan lebih akurat warnanya, terkadang detailnya malah bisa berkurang.

Ke depannya, para pengembangnya berharap bisa menyempurnakan sistemnya agar dapat digunakan untuk mengubah kondisi foto ketimbang kualitasnya. Jadi semisal foto diambil dalam posisi hujan lebat, sistem ini nantinya bisa mengubahnya jadi terlihat cerah.

Kalau Anda tertarik mencoba dan penasaran dengan efektivitasnya, silakan langsung kunjungi situs resminya di phancer.com.

Sumber: Engadget dan DPReview.

Google Ciptakan AI yang Dapat Menciptakan AI Lain dengan Sendirinya

Artificial intelligence alias AI mendapat porsi pembicaraan yang cukup besar dalam event Google I/O tahun ini, dan Google pada dasarnya ingin mengimplementasikan AI di mana saja – bahkan di luar platform-nya sendiri. Namun mengembangkan AI dengan kemampuan deep learning tentunya tidak mudah dan memakan waktu. Untuk itu, perlu dilakukan otomasi.

Atas alasan itulah Google menggarap proyek bernama AutoML. Dari kacamata sederhana, AutoML adalah AI yang dapat menciptakan AI lain dengan sendirinya. “AI inception“, demikian gurauan tim internal Google, merujuk pada film Inception karya Christopher Nolan.

Google sejatinya merancang AutoML untuk mengotomasi proses pembuatan neural network. Komponen ini merupakan bagian penting dalam penerapan teknologi deep learning, dimana prosesnya melibatkan data yang diteruskan melalui lapisan demi lapisan neural network.

Semakin banyak neural network, semakin bagus pula kinerja AI, kira-kira demikian pemahaman kasarnya. Kehadiran AutoML pun akan sangat meringankan beban para engineer Google dalam mengembangkan neural network yang bisa dianggap sebagai tulang punggung AI.

Sejauh ini Google sudah memanfaatkan AutoML untuk meracik neural network yang dibutuhkan dalam penerapan teknologi pengenal gambar maupun suara. Menurut pengakuan Google sendiri, AutoML bisa mengimbangi kinerja tim internal Google untuk bidang pengenalan gambar, sedangkan untuk bidang pengenalan suara kinerja AutoML bahkan melampaui para engineer tersebut.

Lalu apa manfaat yang bisa kita ambil dari AutoML sebagai konsumen? Banyak. Yang paling utama tentu saja adalah penyempurnaan teknologi pengenal gambar dan suara. Software macam Google Photos misalnya, dapat mengenali wajah maupun objek dalam foto secara lebih akurat, sedangkan perangkat seperti Google Home juga bisa mendeteksi perintah suara pengguna dengan lebih baik lagi.

Sumber: Futurism.