Nationalgeographic.co.id - Dalam penyampaian informasi, terutama di bidang jurnalisme, akurasi dan objektivitas sangat penting. Itu sebabnya, selain jurnalis atau pembuat berita dan konten, perlu ada editor yang dapat menentukan diksi dan gambar yang bisa disajikan pada khalayak. Proses ini disebut sebagai penjaga pintu (gatekeeping)
Sejak era media sosial, penjagaan pintu arus informasi terbuka lebar dan harus dilakukan pada aplikasi informasi atau pengguna itu sendiri. Yang paling berperan adalah kecerdasan buatan (AI). Mereka bisa menandai ujaran kebencian dan konten berbahaya.
Kita bisa menengoknya pada fitur yang dapat menyembunyikan gambar vulgar di Twitter dengan menyensornya. Atau pada kasus lain, peringatan tertera di fitur Instagram tentang adanya gambar kekerasan pada suatu kiriman.
Sebuah penelitian terbaru mengungkapkan, pengguna media sosial dapat mempercayai kecerdasan dalam kemampuan ini. Ketika pengguna memikirkan atribut positif pada aplikasi media sosial, seperti akurasi dan objektivitasnya, mereka lebih percaya pada kecerdasan buatan daripada hasil yang dibuat manusia.
Namun, apabila pengguna diingatkan tentang ketidakmampuan mesin untuk membuat keputusan subjektif, kepercayaan mereka lebih rendah. Begitulah hasil temuan terbaru yang dipublikasikan di Journal of Computer-Mediated Communication pada Juli silam, berjudul "When AI moderates online content: effects of human collaboration and interactive transparency on user trust."
"Ada kebutuhan mendesak untuk moderasi konten di media sosial dan lebih umum lagi, media daring," kata S. Shyam Sundar, salah satu penulis makalah di Donald P. Bellisario College of Communications, The Pennsylvania State University.
"Di media konvensional, kita memiliki editor berita yang berfungsi sebagai penjaga gerbang. Namun secara daring, gerbangnya sangat terbuka lebar, dan penjagaan gerbang belum tentu layak dilakukan oleh manusia, terutama dengan banyaknya informasi yang dihasilkan," jelasnya di dalam rilis.
"Jadi, dengan industri yang semakin bergerak ke arah solusi otomatis, penelitian ini melihat perbedaan antara moderator konten manusia dan otomatis, dalam hal bagaimana orang menanggapinya."
Penulis utama makalah Marina Molina, asisten profesor periklanan dan hubungan masyarakat Michigan State University menerangkan, sebenarnya manusia dan kecerdasan buatan punya kelebihan dan kekurangan dalam menguraikan informasi.
Baca Juga: Ilmuwan Kembangkan Video Gim yang Menyesuaikan dengan Emosi Pemain
Baca Juga: Algoritma Internet Kita Ternyata Punya Bias dalam Kesetaraan Gender
Baca Juga: Mungkinkah Kelak Sistem Pemerataan Keuangan Dibantu Kecerdasan Buatan?
Baca Juga: Ketika Kecerdasan Buatan Menjadi Penemu, Lantas Bagaimana Patennya?
Manusia cenderung lebih akurat untuk menilai seberapa berbahaya suatu konten. Hal itu termasuk mengategorikan suatu konten sebagai rasialisme atau berpotensi memicu tindakan merugikan diri sendiri. Akan tetapi, manusia tidak dapat menguraikannya dalam jumlah besar yang sedang dibuat dan dibagikan secara daring.
Sedangkan editor AI bisa menganalisis konten dengan cepat. Namun, orang kerap tidak memercayai algoritma ini untuk membuat rekomendasi yang akurat, dan takut suatu informasi bisa disensor.
"Ketika kita berpikir tentang moderasi konten otomatis, itu menimbulkan pertanyaan apakah editor kecerdasan buatan melanggar kebebasan berekspresi seseorang," kata Molina.
"Ini menciptakan dikotomi antara fakta bahwa kita memerlukan moderasi konten—karena orang-orang membagikan semua konten bermasalah ini—dan, pada saat yang sama, orang-orang khawatir tentang kemampuan AI untuk memoderasi konten," lanjutnya.
"Jadi, pada akhirnya, kami ingin tahu bagaimana kami dapat membangun moderator konten AI yang dapat dipercaya orang dengan cara yang tidak mengganggu kebebasan berekspresi itu.”
Molina dan Sundar berpikir bahwa cara terbaik untuk membangun sistem moderasi terpercaya adalah menyatukan manusia dan kecerdasan buatan. Cara ini bisa meningkatkan kepercayaan pada kecerdasan buatan dengan memberi sinyal kepada pengguna mesin untuk melibatkannya dalam moderasi.
Medium internet—seperti media sosial, sebaiknya mengizinkan pengguna untuk menawarkan saran kepada kecerdasan buatan (transparansi interaktif), sehingga mereka bisa percaya. Para peneliti mempelajari metode transparansi dan transparansi interaktif ini dengan merekrut 676 peserta.
Mereka berinteraksi dengan sistem konten untuk menguji klasifikasi konten yang bisa 'ditandai' atau 'tidak ditandai' sebagai berbahaya atau penuh kebencian. Konten 'berbahaya' termasuk yang berhubungan dengan ide bunuh diri, dan konten 'kebencian' mencakup ujaran kebencian di internet.
Singkatnya, Molina dan Sundar menemukan bahwa kepercayaan pengguna bergantung pada kehadirannya sebagai moderator konten kecerdasan buatan. Mereka bergantung apakah kehadiran moderator memunculkan memunculkan atribut positif, seperti akurasi dan objektivitas, atau atribut negatif. Mesin terkadang terbatas dalam penilaian subjektif tentang nuansa bahasa manusia.
Mungkin inilah yang kelak menjadi masa depan akses informasi dan berita di masa depan. Namun, permasalahan etisnya perlu dipelajari. Kelak, ada editor manusia untuk menilai konten mana yang berbahaya dan kebencian dengan bantuan kecerdasan buatan.
Seorang editor manusia akan terpapar gambar-gambar dan konten yang penuh kebencian dan kekerasan selama berjam-jam. "Ada kebutuhan etis untuk moderasi konten otomatis," kata Sundar. "Ada kebutuhan untuk melindungi moderator konten manusia—yang melakukan manfaat sosial ketika mereka melakukan ini—dari paparan konstan konten berbahaya hari demi hari."
Source | : | Pennsylvania State University |
Penulis | : | Afkar Aristoteles Mukhaer |
Editor | : | Warsono |
KOMENTAR