Ketika Kecerdasan Buatan Menjadi Terapis Kesehatan Mental

Holly Wang, perempuan berusia 28 tahun menggunakan DeepSeek untuk curhat. Dia melakukan ‘sesi terapi’ dengan DeepSeek. Holly curhat banyak topik, mulai dari kecemasan, karier, hingga berita kedukaan yang menghampiri keluarganya. Saat Holly cerita bahwa neneknya meninggal, DeepSeek merespon hingga membuat air mata Holly terjun bebas. Holly menjadi nyaman curhat dengan DeepSeek.

Kejadian serupa – dengan hasil yang berbeda – dirasakan oleh Sewell Setzer III, remaja berusia 14 tahun yang tinggal di Amerika Serikat. Dia mengalami depresi, kemudian curhat dengan cihatbot dari character.ai. Character.ai memperkenalkan diri sebagai seorang terapis handal. Sewell bercerita panjang tentang pergolakan batinnya. Sewell bahkan pernah berencana untuk bunuh diri, tetapi takut. Kemudian, mengutip The Guardian, chatbot character.ai meresponnya dengan kalimat, “That’s not a reason not to go through with it.” Akhirnya, Sewell bunuh diri.

Terapis Masa Depan

Dua kasus tersebut – dengan hasil berbeda – memiliki satu kesamaan, yaitu AI telah menjadi terapis. Kecerdasan buatan menjadi alternatif bagi masyarakat untuk bisa curhat di tengah layanan psikolog yang mahal dan sibuknya teman-teman kita. Chatbot dan AI generatif menjadi pelipur lara dikala kita sepi dan butuh pendengar.

Kecerdasan buatan mudah diakses oleh banyak orang. Dia bisa memberikan respon yang menenangkan pikiran dan hati. Selain itu, AI tidak menghakimi karena ia hanyalah mesin yang tidak mampu menilai manusia. Tiga hal itu menciptakan kenyamanan tersendiri karena AI membuat kita merasa didengar.

Akses yang mudah membuat layanan ‘konseling’ AI ini bisa diperbanyak, terutama di negara yang profesi psikolog klinis dan psikiater sangatlah langka. Di Indonesia sendiri, menurut BPS 2023, hanya ada 1.247 psikolog klinis yang harus melayani ratusan juta orang Indonesia. Sangat tidak memadai.

Kelangkaan tersebut membuat layanan konseling berbasis AI menjadi game changer. WIR Group pun mengembangkan teman virtual agar bisa melakukan diagnosa awal terhadap gejala mental yang dialami anak-anak Indonesia. Di Amerika Serikat (AS), startup yang bernama Sonia, menciptakan ‘terapis AI’ dengan biaya langganan $20 per bulan. Nominal tersebut setara dengan konsul kesehatan mental di Halodoc sebanyak 3 sampai 6 kali.

Hanyalah Kumpulan Data

Curhat melalui kecerdasan buatan memang tidak salah, tetapi ada aspek-aspek lain yang perlu kita pikirkan. Mengutip The New York Times, Daniel Oberhaus mengatakan kalau AI merupakan “statistical pattern-matching machines that more or less function as a mirror of the user.”

Argumen Daniel masuk akal karena pada dasarnya, AI mengikuti intensi kita. Algoritma dari AI dibekali dengan kemampuan belajar agar mampu merespon sesuai dengan data yang diterima. Pertanyaannya adalah apakah respon yang diberikan kontekstual atau sekadar mengikuti keinginan user? Kalau AI bisa memberi jawaban yang kontekstual, Sewel Setzerr II mungkin akan tetap melanjutkan hidupnya. Nyatanya, untuk merespon pernyataan dan pernyataan soal depresi dan bunuh diri, AI tidak mampu melakukannya.

Kesehatan mental merupakan masalah yang kompleks karena letak masalahnya di emosi manusia. Kecerdasan buatan mungkin bisa memahami emosi manusia karena data yang diberikan oleh penciptanya dan aspek pemrogramannya. Namun, AI tidak punya kecerdasan emosional, kecerdasan kontekstual, dan penilaian moral.

Misalnya, ketika pengguna menyatakan bahwa dia akan bunuh diri, bisakah AI meresponnya dengan mempertimbangkan aspek moral, emosi, dan konteks? Emosi manusia bukanlah sesuatu yang bisa diselesaikan dengan kata-kata manis dan puitis. Perasaan kesepian misalnya, terdiri dari berbagai lapisan emosi, mulai dari berduka, marah, dan cemburu. Bisakah AI merespon emosi manusia yang berlapis-lapis dengan tepat?

Harus Ada Manusia

Teknologi harusnya menjadi pendukung bagi kita, bukan sebagai pilar utama. Kecerdasan buatan bisa dimanfaatkan menjadi terapis kesehatan mental, tetapi harus ada proses kurasi dari ahli: tepatkah responnya. Ahli harus dilibatkan secara kontinyu jika ingin mengembangkan chatbot untuk kesehatan mental. Artinya, manusia dan AI harus berdampingan untuk menciptakan solusi yang tepat bagi masalah kesehatan mental.

Pada akhirnya, AI hanyalah sekumpulan data. Manusia tetap sebagai pilar utama dalam tech-based solution karena AI masih dan akan selalu butuh pendampingan manusia. Kitalah yang mampu menyediakan solusi yang kontekstual, tepat guna, dan terjustifikasi secara moral.

Leave a Comment

Your email address will not be published. Required fields are marked *