Kecerdasan Buatan yang Tak Bernalar: Saat Jawaban Google AI Bisa Berbahaya

By Utomo Priyambodo, Jumat, 26 Juli 2024 | 08:00 WIB
Fitur kecerdasan buatan Google, yakni Google AI, memberikan jawaban-jawaban yang bisa menjadi bencana, atau bahkan berbahaya. (Jernej Furman/Wikimedia Commons)

Dalam waktu satu dekade ke dapan, kita mungkin akan melihat kembali tahun 2024 sebagai masa keemasan web. Suatu masa ketika sebagian besar konten tersebut merupakan konten buatan manusia yang berkualitas, sebelum bot percakapan (chatbot) mengambil alih dan memenuhi web dengan konten buatan AI yang sintetis dan semakin berkualitas rendah.

Apakah AI sudah mulai menghirup asap knalpotnya sendiri?

Model bahasa besar (LLM) — algoritma pembelajaran mendalam (Deep Learning) yang dapat mengenali, meringkas, menerjemahkan, memprediksi, dan menghasilkan teks dan konten lain berdasarkan pengetahuan yang diperoleh dari kumpulan data besar — generasi kedua kemungkinan besar dan secara tidak sengaja dilatih berdasarkan beberapa keluaran dari generasi pertama.

Banyak perusahaan rintisan (startup) AI yang memuji manfaat pelatihan data sintetis yang dihasilkan oleh AI.

Namun, pelatihan dengan keluaran-keluaran model AI saat ini berisiko memperbesar bias dan kesalahan. Sama seperti menghirup asap knalpot yang berdampak buruk bagi manusia, hal itu juga berdampak buruk bagi AI.

Kekhawatiran ini masuk ke dalam gambaran yang lebih besar. Secara global, lebih dari 400 juta dolar AS (Rp6,5 triliun) diinvestasikan pada AI setiap hari. Kini pemerintah baru menyadari bahwa kita mungkin memerlukan pagar pembatas dan peraturan untuk memastikan AI digunakan secara bertanggung jawab, mengingat derasnya investasi ini.

Toby menulis sindiran, "Perusahaan farmasi tidak diperbolehkan mengeluarkan obat yang berbahaya. Perusahaan mobil juga tidak boleh. Namun sejauh ini, sebagian besar perusahaan teknologi diperbolehkan melakukan apa yang mereka suka."