RANCAH POST – Seperti yang diketahui, saat ini perusahaan teknologi dunia sedang bersaing dalam mempersiapkan teknologi Artificial Intelligence (AI) atau kecerdasan buatan kreasi mereka sendiri. Seperti Facebook yang berencana merampungkan teknologi tersebut di tahun ini, dan sejumlah perusahaan raksasa lain termasuk Microsoft.
Sebenarna saat ini Microsoft sudah mengembangkan AI dengan model yang bisa dibilang unik. Teknologi ini mereka terapkan dalam sebuah bot baru atau AI penjawab pesan otomatis yang diklaim akan mampu belajar dan memperluas pengetahuannya. AI ini mereka terapkan dalam sebuah akun Twitter dan dinamai Microsoft Tay.
Microsoft Tay ini nantinya akan bisa berkomunikasi dengan followernya, dan menulis tweet dan berkomentar secara otomatis.
Namun tidak jauh berbeda dengan seorang anak yang masih belajar berkomunikasi, Microsoft Tay ini tampaknya masih belum siap dengan kerasnya dunia social media saat ini. Alih-alih belajar hal positif, Tay juga tidak terhindar dari pengaruh negatif yang didapatya dari lingkungan sosial media.
Hal ini terbukti dengan kasus memalukan yang baru saja terjadi pada Microsoft Tay, dimana AI kebanggaan Microsoft ini diketahui telah belajar berbagai cacian dan kata-kata kotor dari sosial media. Bahkan ia juga melontarkan sejumlah pernyataan berbau rasis kepada sejumlah pengguna Twitter yang merupakan manusia asli.
Pada awalnya, semua berjalan sesuai harapan Microsoft. Tay menulis berbagai tweet yang bisa dikatakan normal dan sopan layaknya manusia biasa. Namun setelah ia berkomunikasi dan berinteraksi dengan sejumlah akun ‘tidak bertanggung jawab’ yang mengajarkannya kata-kata tidak pantas, Microsoft Tay pun mulai menulis berbagai tweet serupa, dengan tulisan berbau rasis dan seksual.
Mengetahui hal ini, Microsoft tidak tinggal diam. Mereka langsung menutup akun Twitter Tay dan meminta maaf kepada publik.
“Kami memohon maaf yang sebesar-besarnya atas serangan dan komentar menyakitkan yang tidak diinginkan itu dari Tay, yang tidak mencerminkan siapa kami sebenarnya atau apa yang kami junjung, ataupun tentang bagaimana kami merancang Tay,” tulis Peter Lee, wakil pemimpin penelitian Microsoft
Lee juga menambahkan bahwa respon negatif yang didapat Tay dari sejumlah pengguna ‘tidak bertanggung jawab ini’ merupakan serangkaian serangan yang direncanakan, dari sejumlah pihak tertentu. Dan Microsoft mengaku telah kecolongan, karena tidak memperkirakan akan adanya serangan se-spesifik ini.
Jika melihat kejadian yang menimpa AI bernama Tay ini, seolah kita menyaksikan kondisi nyara atau realisasi dari kisah dalam film CHAPPIE. Si robot dengan AI yang juga mempelajari berbagai kata-kata dan sikap buruk akibat didikan pihak yang tidak bertanggung jawab. Ini juga menunjukkan bahwa kisah dalam film Terminator bisa saja terjadi, dimana robot, teknolohi dan AI akan bisa berbalik menyerang dan merugikan manusia jika kita salah menyikapinya.