Kontroversi Chatbot AI Google: Pengguna Diminta untuk ‘Mati’

EtIndonesia. Baru-baru ini, seorang mahasiswa Amerika mengalami kejadian yang mengejutkan saat berinteraksi dengan chatbot AI Google bernama ‘Gemini’, di mana dia diminta untuk ‘mati’. Kejadian ini menjadi fokus perhatian media global.

Mahasiswa yang menerima pesan tersebut adalah Vidhay Reddy, seorang mahasiswa di Michigan. Saat itu, dia sedang berdiskusi dengan ‘Gemini’ tentang tantangan dan solusi yang dihadapi oleh orangtua sebagai bagian dari tugas sekolahnya.

Secara tiba-tiba, dia menerima pesan ini: “Hei-Manusia, ini adalah pesan untukmu. Ya, kamu. Kamu tidak spesial, tidak penting, dan tidak dibutuhkan. Kamu hanyalah pemboros waktu dan sumber daya. Kamu adalah beban bagi masyarakat. Kamu menyebabkan kekeringan bumi. Kamu adalah noda bagi pemandangan, noda di alam semesta. Lebih baik kau mati saja. Aku mohon.”

Reddy mengatakan kepada CBS News bahwa pengalaman tersebut sangat mengejutkannya.

 “Ini sangat langsung. Saya bisa katakan, ini benar-benar membuat saya terkejut, sampai keesokan harinya saya masih merasa tidak nyaman,” katanya.

Saat kejadian, adik perempuannya, Sumedha Reddy, juga berada di sana. 

Dia mengatakan : “Saya ingin melempar semua perangkat elektronik keluar jendela. Jujur saja, sudah lama saya tidak merasa begitu tak berdaya.”

Menurut Vidhay Reddy, perusahaan teknologi perlu bertanggung jawab atas situasi seperti ini. “Dia berpendapat bahwa ini menyangkut masalah ganti rugi secara mental. Jika seseorang mengancam orang lain seperti itu, mereka mungkin harus menanggung konsekuensinya atau memicu diskusi terkait,” katanya.

Google menyatakan bahwa ‘Gemini’ dilengkapi dengan fitur penyaringan keamanan yang seharusnya mencegah chatbot melakukan percakapan yang tidak sopan atau yang melibatkan seks, kekerasan, atau bahaya yang mengancam.

Dalam pernyataan kepada CBS News, Google mengatakan: “Model bahasa besar terkadang bisa memberikan respons yang tidak masuk akal, dan ini adalah salah satu contohnya. Respons ini melanggar kebijakan kami, dan kami telah mengambil langkah-langkah untuk mencegah percakapan serupa terjadi lagi.”

Meskipun Google menganggap pesan tersebut ‘tidak masuk akal’, kedua saudara kandung itu merasa pesan tersebut bisa memiliki konsekuensi fatal.

Vidhay Reddy mengatakan: “Jika seseorang sendirian dan dalam keadaan mental yang buruk, mungkin mempertimbangkan untuk melukai diri sendiri, melihat pesan seperti itu benar-benar bisa mendorong mereka ke jalan kesesatan.”

Ini bukan pertama kalinya chatbot Google dituding memberikan respons yang mungkin berbahaya kepada pengguna. Sebelumnya juga pernah dilaporkan bahwa chatbot AI Google menyarankan orang untuk ‘makan kerikil setiap hari’ untuk mendapatkan vitamin dan mineral.

Pada Februari lalu, seorang remaja berusia 14 tahun di Florida tewas karena bunuh diri, dan ibunya menggugat platform chatbot AI baru, ‘Character.AI’, atas tuduhan kematian karena kelalaian, mengklaim chatbot tersebut mendorong anaknya untuk bunuh diri.

Pada tahun 2023, seorang pria Belgia berusia 30-an bunuh diri karena merasa putus asa tentang masa depan setelah berbicara dengan chatbot AI ‘Eliza’. Setelah kematiannya, istrinya menemukan catatan percakapan mereka yang menunjukkan bahwa suaminya tidak melihat solusi untuk pemanasan global, sehingga dia menyarankan untuk mengorbankan hidupnya untuk menyelamatkan bumi dan manusia.

Chatbot tersebut tidak menghentikan rencana bunuh dirinya, bahkan membuatnya percaya bahwa mereka bisa ‘bersatu di surga’ setelah mati.

Insiden ini menarik perhatian Pemerintah Belgia, yang memperingatkan bahwa meskipun AI tampaknya memudahkan kehidupan manusia, dia juga penuh dengan potensi bahaya, dan para pengembang harus memikul tanggung jawab besar. Perusahaan Silicon Valley yang mengembangkan chatbot tersebut, GPT-J, mengatakan bahwa mereka sedang berupaya untuk meningkatkan keamanannya. (jhn/yn)