Aplikasi terebut menjadi tempat orang dapat terlibat dalam sesi terapi perilaku kognitif dengan chatbot AI. Sesi terapi kognitif merupakan perawatan psikoterapi yang terbukti membantu pengguna dalam mengidentifikasi dan mengubah pola pikir negatif.
Kehadiran AI memungkinkan intervensi adaptif. AI juga memungkinkan penyedia layanan kesehatan untuk memantau pasien, mengantisipasi kapan seseorang memerlukan dukungan, dan memberikan perawatan untuk meringankan gejala.
Semua itu bukan isapan jempol belaka. Tinjauan sistematis chatbot kesehatan mental menemukan bahwa chatbot AI dapat secara dramatis mengurangi gejala depresi dan tekanan. Setidaknya dalam jangka pendek.
Studi lain menggunakan AI untuk menganalisis lebih dari 20 juta percakapan teks dari sesi konseling nyata. Studi itu berhasil memprediksi kepuasan pasien dan hasil klinis. Demikian pula, studi lain telah mampu mendeteksi tanda-tanda awal gangguan depresi mayor dari ekspresi wajah yang tidak terjaga yang ditangkap selama membuka kunci ponsel secara rutin Juga lewat pola mengetik orang.
Peneliti Universitas Northwestern menemukan cara untuk mengidentifikasi perilaku dan pikiran bunuh diri tanpa catatan psikiatris atau pengukuran saraf. Model AI mereka memperkirakan kemungkinan melukai diri sendiri pada 92 dari 100 kasus berdasarkan data dari respons kuesioner sederhana. Juga dari sinyal perilaku seperti memberi peringkat rangkaian gambar acak pada skala suka-tidak suka tujuh poin. Ada sekitar 4.019 peserta.
Dua penulis studi, Aggelos Katsaggelos dan Shamal Lalvani berharap spesialis akan menggunakannya untuk dukungan. Misalnya seperti menjadwalkan pasien tergantung pada urgensi yang dirasakan. Dan akhirnya, meluncurkan model AI tersebut ke publik dalam pengaturan di rumah.
Namun seperti yang terlihat dalam pengalaman Smith, para ahli mendesak kehati-hatian dalam memperlakukan solusi teknologi sebagai obat mujarab. Pasalnya, teknologi tidak memiliki keterampilan, pelatihan, dan pengalaman terapis manusia. Terutama AI Generatif, yang tidak dapat diprediksi, membuat informasi, dan melontarkan bias.
Kekurangan kecerdasan buatan
Richard Lewis, konselor dan psikoterapis di Bristol, mencoba Woebot untuk membantu topik yang juga sedang dieksplorasinya bersama terapisnya. Woebot gagal memahami nuansa masalah, menyarankan agar ia “berpegang pada fakta,” sambil menghapus semua konten emosional dari balasannya. Woebot bahkan menyarankan agar ia mengubah pikiran negatifnya menjadi positif.
“Sebagai seorang terapis,” kata Lewis, “mengoreksi atau menghapus emosi adalah hal terakhir yang saya inginkan dari klien dan hal terakhir yang akan saya sarankan.”
“Tugas kami adalah membentuk hubungan yang dapat menampung emosi yang sulit,” imbuh Lewis, “dan perasaan bagi klien kami agar mereka lebih mudah mengeksplorasi, mengintegrasikan. Atau menemukan makna di dalamnya dan pada akhirnya mengenal diri mereka sendiri dengan lebih baik.”
Baca Juga: Kecerdasan Buatan yang Tak Bernalar: Saat Jawaban Google AI Bisa Berbahaya
Source | : | National Geographic |
Penulis | : | Sysilia Tanhati |
Editor | : | Ade S |
Artikel ini merupakan bagian dari Lestari, program KG Media yang merupakan suatu rencana aksi global, bertujuan untuk menghapus kemiskinan, mengurangi kesenjangan dan melindungi lingkungan.
KOMENTAR