Baca Juga: Ketika Kecerdasan Buatan Menjadi Penemu, Lantas Bagaimana Patennya?
Manusia cenderung lebih akurat untuk menilai seberapa berbahaya suatu konten. Hal itu termasuk mengategorikan suatu konten sebagai rasialisme atau berpotensi memicu tindakan merugikan diri sendiri. Akan tetapi, manusia tidak dapat menguraikannya dalam jumlah besar yang sedang dibuat dan dibagikan secara daring.
Sedangkan editor AI bisa menganalisis konten dengan cepat. Namun, orang kerap tidak memercayai algoritma ini untuk membuat rekomendasi yang akurat, dan takut suatu informasi bisa disensor.
"Ketika kita berpikir tentang moderasi konten otomatis, itu menimbulkan pertanyaan apakah editor kecerdasan buatan melanggar kebebasan berekspresi seseorang," kata Molina.
"Ini menciptakan dikotomi antara fakta bahwa kita memerlukan moderasi konten—karena orang-orang membagikan semua konten bermasalah ini—dan, pada saat yang sama, orang-orang khawatir tentang kemampuan AI untuk memoderasi konten," lanjutnya.
"Jadi, pada akhirnya, kami ingin tahu bagaimana kami dapat membangun moderator konten AI yang dapat dipercaya orang dengan cara yang tidak mengganggu kebebasan berekspresi itu.”
Molina dan Sundar berpikir bahwa cara terbaik untuk membangun sistem moderasi terpercaya adalah menyatukan manusia dan kecerdasan buatan. Cara ini bisa meningkatkan kepercayaan pada kecerdasan buatan dengan memberi sinyal kepada pengguna mesin untuk melibatkannya dalam moderasi.
Medium internet—seperti media sosial, sebaiknya mengizinkan pengguna untuk menawarkan saran kepada kecerdasan buatan (transparansi interaktif), sehingga mereka bisa percaya. Para peneliti mempelajari metode transparansi dan transparansi interaktif ini dengan merekrut 676 peserta.
Mereka berinteraksi dengan sistem konten untuk menguji klasifikasi konten yang bisa 'ditandai' atau 'tidak ditandai' sebagai berbahaya atau penuh kebencian. Konten 'berbahaya' termasuk yang berhubungan dengan ide bunuh diri, dan konten 'kebencian' mencakup ujaran kebencian di internet.
Singkatnya, Molina dan Sundar menemukan bahwa kepercayaan pengguna bergantung pada kehadirannya sebagai moderator konten kecerdasan buatan. Mereka bergantung apakah kehadiran moderator memunculkan memunculkan atribut positif, seperti akurasi dan objektivitas, atau atribut negatif. Mesin terkadang terbatas dalam penilaian subjektif tentang nuansa bahasa manusia.
Mungkin inilah yang kelak menjadi masa depan akses informasi dan berita di masa depan. Namun, permasalahan etisnya perlu dipelajari. Kelak, ada editor manusia untuk menilai konten mana yang berbahaya dan kebencian dengan bantuan kecerdasan buatan.
Seorang editor manusia akan terpapar gambar-gambar dan konten yang penuh kebencian dan kekerasan selama berjam-jam. "Ada kebutuhan etis untuk moderasi konten otomatis," kata Sundar. "Ada kebutuhan untuk melindungi moderator konten manusia—yang melakukan manfaat sosial ketika mereka melakukan ini—dari paparan konstan konten berbahaya hari demi hari."