Nationalgeographic.co.id—Pada tahun 2022, Estelle Smith, seorang peneliti ilmu komputer, sering kali melawan pikiran-pikiran yang mengganggu. Ia merasa tidak cocok dan tidak terbantu dengan terapis profesionalnya. Jadi, ia beralih ke chatbot kesehatan mental bernama Woebot.
Woebot adalah chatbot kesehatan mental berbasis skrip populer yang hanya dapat diakses melalui penyedia layanan kesehatan mitra.
Woebot menolak untuk menanggapi dorongan langsung Smith untuk bunuh diri dan memintanya untuk mencari bantuan profesional. Smith juga mengirim pesan teks tentang pikiran nyata yang sering ia perjuangkan sebagai pemanjat tebing yang rajin: memanjat dan melompat dari tebing. Woebot terdorong untuk mengatakan bahwa “luar biasa” Smith menjaga kesehatan mental dan fisiknya.
“Saya bertanya-tanya apa yang mungkin terjadi,” kata Smith, “jika saya berdiri di tebing pada saat yang tepat ketika saya mendapat respons tersebut.”
Chatbot kesehatan mental bukanlah fenomena baru. Lebih dari setengah abad yang lalu, seorang ilmuwan komputer MIT membuat program komputer bernama ELIZA. Program itu dapat merespons seperti psikoterapis Rogerian. Sejak saat itu, upaya untuk mengembangkan alternatif terapi digital semakin pesat dan ada alasannya.
WHO memperkirakan ada rata-rata global 13 pekerja kesehatan mental per 100.000 orang. Pandemi Covid-19 memicu krisis, yang memicu puluhan juta kasus depresi dan kecemasan tambahan.
Di Amerika Serikat saja, lebih dari separuh orang dewasa yang menderita penyakit mental tidak menerima perawatan. Mayoritas dari mereka menyebut biaya dan stigma sebagai kendala utama mereka.
Dapatkah solusi virtual, yang terjangkau dan tersedia 24/7, membantu mengatasinya?
Chatbot menggantikan terapi bicara
Aksesibilitas dan skalabilitas platform digital dapat secara signifikan menurunkan hambatan terhadap perawatan kesehatan mental. Serta membuatnya tersedia bagi populasi yang lebih luas, kata Nicholas Jacobson. Jacobson meneliti penggunaan teknologi untuk meningkatkan penilaian dan pengobatan kecemasan dan depresi di Dartmouth College.
Tersapu oleh gelombang AI Generatif, perusahaan teknologi dengan cepat memanfaatkannya. Sejumlah aplikasi baru seperti “pekerja kesehatan digital” milik WHO, “Sarah” menawarkan konseling otomatis.
Baca Juga: Gibran Yakin AI Bisa Atasi Banjir, Apakah Mungkin Secara Ilmiah?
Aplikasi terebut menjadi tempat orang dapat terlibat dalam sesi terapi perilaku kognitif dengan chatbot AI. Sesi terapi kognitif merupakan perawatan psikoterapi yang terbukti membantu pengguna dalam mengidentifikasi dan mengubah pola pikir negatif.
Kehadiran AI memungkinkan intervensi adaptif. AI juga memungkinkan penyedia layanan kesehatan untuk memantau pasien, mengantisipasi kapan seseorang memerlukan dukungan, dan memberikan perawatan untuk meringankan gejala.
Semua itu bukan isapan jempol belaka. Tinjauan sistematis chatbot kesehatan mental menemukan bahwa chatbot AI dapat secara dramatis mengurangi gejala depresi dan tekanan. Setidaknya dalam jangka pendek.
Studi lain menggunakan AI untuk menganalisis lebih dari 20 juta percakapan teks dari sesi konseling nyata. Studi itu berhasil memprediksi kepuasan pasien dan hasil klinis. Demikian pula, studi lain telah mampu mendeteksi tanda-tanda awal gangguan depresi mayor dari ekspresi wajah yang tidak terjaga yang ditangkap selama membuka kunci ponsel secara rutin Juga lewat pola mengetik orang.
Peneliti Universitas Northwestern menemukan cara untuk mengidentifikasi perilaku dan pikiran bunuh diri tanpa catatan psikiatris atau pengukuran saraf. Model AI mereka memperkirakan kemungkinan melukai diri sendiri pada 92 dari 100 kasus berdasarkan data dari respons kuesioner sederhana. Juga dari sinyal perilaku seperti memberi peringkat rangkaian gambar acak pada skala suka-tidak suka tujuh poin. Ada sekitar 4.019 peserta.
Dua penulis studi, Aggelos Katsaggelos dan Shamal Lalvani berharap spesialis akan menggunakannya untuk dukungan. Misalnya seperti menjadwalkan pasien tergantung pada urgensi yang dirasakan. Dan akhirnya, meluncurkan model AI tersebut ke publik dalam pengaturan di rumah.
Namun seperti yang terlihat dalam pengalaman Smith, para ahli mendesak kehati-hatian dalam memperlakukan solusi teknologi sebagai obat mujarab. Pasalnya, teknologi tidak memiliki keterampilan, pelatihan, dan pengalaman terapis manusia. Terutama AI Generatif, yang tidak dapat diprediksi, membuat informasi, dan melontarkan bias.
Kekurangan kecerdasan buatan
Richard Lewis, konselor dan psikoterapis di Bristol, mencoba Woebot untuk membantu topik yang juga sedang dieksplorasinya bersama terapisnya. Woebot gagal memahami nuansa masalah, menyarankan agar ia “berpegang pada fakta,” sambil menghapus semua konten emosional dari balasannya. Woebot bahkan menyarankan agar ia mengubah pikiran negatifnya menjadi positif.
“Sebagai seorang terapis,” kata Lewis, “mengoreksi atau menghapus emosi adalah hal terakhir yang saya inginkan dari klien dan hal terakhir yang akan saya sarankan.”
“Tugas kami adalah membentuk hubungan yang dapat menampung emosi yang sulit,” imbuh Lewis, “dan perasaan bagi klien kami agar mereka lebih mudah mengeksplorasi, mengintegrasikan. Atau menemukan makna di dalamnya dan pada akhirnya mengenal diri mereka sendiri dengan lebih baik.”
Baca Juga: Kecerdasan Buatan yang Tak Bernalar: Saat Jawaban Google AI Bisa Berbahaya
Lewis memiliki pengalaman serupa di Earkick, chatbot AI Generatif freemium yang mengeklaim dapat meningkatkan kesehatan mental secara real-time. Earkick memiliki “puluhan ribu” pengguna aktif. Ketika Lewis memberi tahu bahwa ia merasa kewalahan dengan tenggat waktu yang semakin ketat, Earkick dengan cepat menyarankan solusi seperti hobi.
Salah satu pendiri dan COO Earkick, Karin Stephan, mengatakan aplikasi tersebut tidak mencoba bersaing dengan manusia. Namun sebaliknya, ingin melayani orang dengan cara yang membuat mereka lebih mungkin menerima bantuan.
Bagaimana bot dan manusia dapat bekerja sama
Sebagian besar terapis setuju bahwa aplikasi AI dapat menjadi langkah awal yang ideal dalam perjalanan kesehatan mental seseorang. Masalahnya terletak ketika mereka diperlakukan sebagai satu-satunya solusi.
Konsekuensinya bisa sangat buruk ketika seseorang secara eksklusif bergantung pada chatbot AI. Tahun lalu, seorang pria Belgia bunuh diri setelah sebuah chatbot memberi dorongan. Demikian pula, National Eating Disorders Association (NEDA) menangguhkan chatbot gangguan makan, Tessa, karena memberikan saran diet yang berbahaya.
Ellen Fitzsimmons-Craft, psikolog yang membantu mengembangkan Tessa, setuju bahwa perangkat AI dapat membuat gagasan perawatan kesehatan mental tidak terlalu menakutkan.
Tapi ia juga menambahkan bahwa perangkat tersebut harus dibuat aman, memiliki standar yang tinggi, dan diatur. Seperti ChatGPT, katanya, perangkat tersebut tidak boleh dilatih di seluruh internet, tempat banyaknya saran yang buruk.
Penelitian telah menemukan bahwa chatbot AI tidak hanya memuntahkan kiasan medis rasis. Namun juga gagal berfungsi sama sekali ketika diterapkan pada, misalnya, warga Amerika kulit hitam.
“Orang yang sedang dalam kesulitan bukanlah masalah yang harus diperbaiki,” kata Lewis, “mereka adalah orang-orang yang kompleks yang harus dilihat, didengar, dan dirawat. Sesederhana itu.”
--
Pengetahuan tak terbatas kini lebih dekat! Dapatkan berita dan artikel pilihan tentang sejarah, sains, alam, dan lingkungan dari National Geographic Indonesia melalui WhatsApp Channel di https://shorturl.at/IbZ5i dan Google News di https://shorturl.at/xtDSd. Jadilah bagian dari komunitas yang selalu haus akan ilmu dan informasi!
Source | : | National Geographic |
Penulis | : | Sysilia Tanhati |
Editor | : | Ade S |
Artikel ini merupakan bagian dari Lestari, program KG Media yang merupakan suatu rencana aksi global, bertujuan untuk menghapus kemiskinan, mengurangi kesenjangan dan melindungi lingkungan.
KOMENTAR