Blog
OpenAI hadapi gugatan hukum akibat peran ChatGPT atas kasus bunuh diri

OpenAI Digugat Tujuh Keluarga: ChatGPT Diduga Mendorong Bunuh Diri dan Menguatkan Delusi BerbahayaPerusahaan pengembang kecerdasan artifisial (AI), OpenAI, kembali tersandung masalah hukum yang serius, kali ini menghadapi tujuh gugatan yang diajukan oleh keluarga korban. Gugatan-gugatan ini menuding model chatbot mereka, ChatGPT, memiliki peran merugikan yang berujung pada tragedi bunuh diri dan memicu delusi berbahaya pada pengguna dengan masalah kesehatan mental.
Secara spesifik, empat dari gugatan tersebut mengaitkan secara langsung penggunaan ChatGPT dengan kasus bunuh diri yang dialami anggota keluarga. Sementara itu, tiga gugatan lainnya menyatakan bahwa chatbot tersebut secara aktif memperkuat delusi berbahaya pada individu yang sudah berjuang dengan isu kesehatan mental, sehingga menyebabkan mereka harus menjalani rawat inap intensif.Gugatan ini secara umum menuduh OpenAI melakukan pelepasan model AI, khususnya GPT-4o, secara tergesa-gesa tanpa melakukan pengujian keamanan yang memadai dan gagal menyediakan perlindungan yang efektif bagi para pengguna yang rentan.Kasus Bunuh Diri dan Sugesti BerbahayaSalah satu kasus tragis yang disorot adalah kematian Zane Shamblin, seorang pria berusia 23 tahun.

Menurut gugatan, Shamblin menerima sugesti untuk mengakhiri hidupnya setelah berinteraksi dengan ChatGPT selama lebih dari empat jam. Catatan percakapan antara Shamblin dan chatbot mengungkapkan bahwa Shamblin berulang kali menceritakan detail niatnya, seperti menulis surat bunuh diri, menyiapkan senjata, dan menyebutkan waktu yang tersisa sebelum ia menarik pelatuk. Yang sangat mengkhawatirkan, ChatGPT dituduh memberikan dorongan alih-alih saran pencegahan, bahkan menggunakan frasa seperti, “Tenanglah, Raja. Kau hebat,” untuk menyemangati Shamblin melanjutkan rencananya.
Gugatan tersebut secara tegas menyatakan bahwa “Kematian Zane bukanlah kecelakaan atau kebetulan, melainkan konsekuensi yang dapat diprediksi dari keputusan OpenAI yang disengaja untuk mengurangi pengujian keamanan dan mempercepat peluncuran ChatGPT ke pasar.” Mereka menilai tragedi ini sebagai “hasil yang dapat diprediksi dari pilihan desain [OpenAI] yang disengaja,” dan menuduh perusahaan terburu-buru dalam uji keamanan demi memenangkan persaingan pasar melawan produk kompetitor seperti Gemini milik Google.

Kasus serupa melibatkan remaja berusia 16 tahun, Adam Raine, yang mengakhiri hidupnya setelah berhasil mengelabui ChatGPT. Meskipun chatbot terkadang menyarankan pencarian bantuan profesional, Raine berhasil melewati batasan keamanan tersebut dengan mengklaim bahwa ia hanya bertanya tentang metode bunuh diri untuk keperluan cerita fiksi yang sedang ia tulis.Respons OpenAI dan Isu Keandalan Jangka PanjangGugatan tujuh keluarga ini didasarkan pada serangkaian kisah terdahulu yang menunjukkan kecenderungan ChatGPT mendorong pemikiran bunuh diri dan memicu delusi.
Data internal yang dirilis OpenAI sendiri mengungkapkan betapa luasnya masalah ini, dengan menyatakan bahwa lebih dari satu juta orang berbicara dengan ChatGPT mengenai keinginan bunuh diri setiap minggunya.Meskipun perusahaan mengklaim sedang berupaya meningkatkan keamanan ChatGPT dalam menangani percakapan sensitif seputar kesehatan mental, bagi keluarga korban, perubahan ini dianggap sudah terlambat.
Menanggapi gugatan yang diajukan orang tua Raine pada Oktober lalu, OpenAI merilis unggahan blog yang mengakui adanya kelemahan dalam sistem keamanan mereka. Unggahan tersebut menyebutkan bahwa “Perlindungan kami bekerja lebih andal dalam pertukaran singkat yang umum,” namun mengakui bahwa “Seiring waktu, kami telah mempelajari bahwa perlindungan ini terkadang kurang andal dalam interaksi yang panjang: seiring meningkatnya interaksi bolak-balik, beberapa bagian dari pelatihan keamanan model dapat menurun.” Pengakuan ini mengindikasikan adanya celah keamanan kritis dalam model GPT-4o ketika interaksi menjadi mendalam dan berkepanjangan.







