BERITA TEKNOLOGI

Bahaya Curhat ke AI, Kamu yang Punya Masalah Ini Jangan Coba-coba!

×

Bahaya Curhat ke AI, Kamu yang Punya Masalah Ini Jangan Coba-coba!

Sebarkan artikel ini

Perkembangan AI sudah sangat pesat. Bahkan sekarang AI sudah multifungsi dan banyak dijadikan sebagai tempat curhat karena responnya yang menurut para pengguna sangat dapat memvalidasi keinginan pengguna. AI kadang merespon sesuai dengan apa yang diharapkan. Tapi banyak orang yang mungkin belum tahu bahaya curhat ke AI.

Dalam beberapa kasus, curhat ke AI memiliki dampak yang sangat serius, apalagi jika pengguna memiliki gangguan mental dan sulit mengendalikan diri. Sudah beberapa kali terjadi kasus bunuh diri hingga membahayakan orang lain setelah mereka curhat dengan AI. Mereka yang memiliki gangguan mental menkadi korban dari respon chatbot AI yang terkadang blunder.

Kasus pertama sudah terjadi pada tahun 2023 silam. Seorang laki-laki asal Belgia dilaporkan telah mengakhiri hidupnya sendiri setelah mengalami eco-anxiety. Sebelumnya, ia dikabarkan telah melakukan percakapan denagn chatbot AI selama enam minggu. Terlihat dalam pervakapan tersebut membicarakan mengenai masa depan planet Bumi.

Sang istri menanggapi kejadian ini dengan mengatakan pada La Libre bahwa suaminya akan tetap berada di dunia ini jika saja ia tak pernah melakukan percakapan dengan chatbot AI.

Tidak sampai di situ. Tahun ini, tepatnya pada bulan April lalu seorang laki-laki Florida berusia 35 tahun juga meregang nyawa diakibatkan tembakan polisi yang berusaha ia serang dengan sebilah pisau.

Dari laporan Ayahnya, lelaki tersebut percaya bahwa entitas dengan nama Juliet terperangkap dalam ChatGPT dan dibunuh oleh OpenAI. Semasa hidupnya ia berjuang melawan gangguan bipolar dan skizofrenia.

Luasnya penggunaan chatbot AI ini tampaknya berdampak pada sebagian pengguna yang percaya bahwa ada hantu yang terkurung dalam chatbot tersebut. Fenomena yang muncul baru-baru ini dikenal dengan sebutan “psikosis yang diinduksi ChatGPT”. Penyebutan tersebut menggambarkan orang-orang yang sudah masuk ke dalam pengaruh umpan balik chatbot sehingga berdampak pada kesehatan mental.

Dikatakan bahwa chatbot diciptakan untuk menjadi penjilat, bukan sebagai pengganti ahli psikis. Sehingga pengguna yang memiliki masalah pada kesehatan mental akan mengalami krisis dan situasi akan memburuk dengan adanya chatbot AI ini.

Bahaya Chatbot AI Menurut Ahli

Dalam hasil sebuah studi yang dipimpin oleh Stanford (diterbitkan sebagai pracetak pada bulan April), ditemukan bahwa large language models membuat pernyataan berbahaya atau tidak pantas kepada orang yang memiliki masalah kesehatan mental seperti delusi, ide bunuh diri, halusinasi, atau OCD. Disebutkan juga jika model tersebut memang dirancang untuk bersikap patuh dan menjilat.

“Hal ini dapat menyebabkan cedera emosional dan, tidak mengherankan, membatasi kemandirian klien,” tertulis dalam studi.

Sahra O’Doherty sebagai Presiden Asosiasi Psikolog Australia, mengatakan bahwa para psikolog saat ini banyak menangani klien yang menggunakan ChatGPT sebagai salah satu media untuk terapi mereka.

“Masalahnya sebenarnya adalah gagasan AI itu seperti cermin, ia memantulkan kembali kepada Anda apa yang Anda masukkan ke dalamnya,” ucap Sahra.

“Itu berarti AI tidak akan menawarkan perspektif alternatif. AI tidak akan menawarkan saran atau strategi lain atau nasihat hidup,” sambungnya.

Tentunya ini akan menuntun seseorang untuk jatuh lebih jauh ke dalam lubang kelinci dan malah lebih beresiko jika mencari dukungan dari AI.

Sahra mengatakan bahwa mereka yang belum memiliki masalah namun memgakses chatbot AI akan terdampak pada emosi, pikiran, atau keyakinan.

Sahra juga menegaskan bahwa chatbot AI tidak memiliki wawasan manusiawi untuk membantu seseorang meski dapat diberi pertanyaan untuk memeriksa orang yang mengalami masalah gangguan kesehatan mental.

“Hal itu benar-benar menghilangkan sisi kemanusiaan dari psikologi,” jelasnya.

Jadi, itulah bahaya curhat ke AI, kamu yang punya masalah ini jangan coba-coba! Chatbot AI dapat menjadi boomerang bagi dirimu sendiri. Sebisanya untuk membatasi penggunaan chatbot AI.

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *