Seiring dengan perkembangan teknologi, robot pun semakin menyerupai manusia. Akan tetapi, perkembangan sesuatu yang tidak pasti menciptakan ketakutan tersendiri bagi banyak orang.
Meski belum terjadi, kisah-kisah kecerdasan buatan yang tak lagi bersahabat dengan manusia telah diimajinasikan berkali-kali. Dalam serial film Terminator, misalnya, virus skynet mengambil alih sistem pertahanan Amerika Serikat dan menyebabkan perang nuklir yang berujung pada pemusnahan massal manusia.
Selain itu, komputer fiksi HAL 9000, hasil dari imajinasi penulis fiksi ilmiah Arthur C. Clarke yang diangkat ke dalam film 2001: A Space Odyssey, juga menjadi contoh ikonis mengenai sistem yang gagal. Dalam film tersebut, HAL 9000 memiliki kehendak sendiri dan menolak untuk dinonaktifkan.
Walaupun belum sampai di situ, Arend Hintze, Asisten Profesor Biologi Integratif dan Ilmu Komputer dan Teknik di Michigan State University mengatakan, dalam banyak sistem yang kompleks seperti wahana luar angkasa milik NASA dan pembangkit listrik Chernobyl, terjadi kerjasama sistem yang kompleks dan tidak akan pernah bisa dipahami sepenuhnya.
Oleh karena itu, kegagalan dengan cara yang tidak terduga, seperti tenggelamnya kapal di samudera dan meledaknya dua pesawat terbang yang menyebarkan kontaminiasi radioaktif ke seluruh Eropa dan Asia, masih mungkin untuk terjadi.
“Saya dapat melihat bagaimana kita bisa jatuh ke dalam perangkap yang sama dalam penelitian kecerdasan buatan," kata Hintze seperti yang dikutip dari artikelnya untuk The Conversation.
Dia melanjutkan, kita melihat penelitian terbaru dari ilmu kognitif, menerjemahkannya ke dalam algoritma, dan menambahkannya ke sistem yang ada. Kita mencoba menciptakan kecerdasan buatan tanpa memahami kecerdasan atau kognisi terlebih dahulu.
Moral kecerdasan buatan
Dua sistem kecerdasan buatan, Watson dari IBM dan Alpha dari Google, telah berhasil membuktikan kemampuannya. Watson menang terhadap dua manusia dalam kuis populer AS, Jeopardy!, sedangkan AlphaGo mengalahkan pemain legendaris Go pada medio 2016 lalu.
Namun, seandainya kedua sistem itu melakukan kesalahan dan kalah dari manusia sekalipun, Hintze menilai tidak akan ada konsekuensi yang berarti. Dalam dua permainan itu, kata Heintze, yang terburuk adalah kehilangan uang akibat kalah taruhan.
Nyatanya, desain kecerdasan buatan semakin rumit dan prosesor komputer menjadi semakin cepat. Lantas, manusia memberi mereka tangung jawab lebih, walaupun risikonya pun meningkat. "Melakukan kesalahan adalah bagian dari menjadi manusia, jadi bisa dibilang mustahil bagi kita untuk menciptakan sistem yang benar-benar aman," ujar Hintze.
Untuk itu, Hintze menyarankan untuk menggunakan pendekatan neuroevolution, yakni menciptakan lingkungan virtual di mana otak dan etika makhluk digital dapat dikembangkan untuk menyelesaikan tugas yang semakin kompleks. Dengan demikian, para peneliti kecerdasan buatan dapat menangkap konsekuensi yang tidak diinginkan sebelum meluncurkannya ke dunia nyata.
“Kita (juga) bisa membangun lingkungan virtual untuk memberi keuntungan evolusioner pada mesin yang menunjukkan kebaikan, kejujuran, dan empati. Ini mungkin merupakan cara untuk memastikan bahwa kita mengembangkan pelayan yang lebih patuh atau teman yang dapat dipercaya dan lebih sedikit robot pembunuh yang kejam,” ujar Hintze.
Penulis | : | |
Editor | : | Julie Erikania |
KOMENTAR