Connect with us

Tech

OpenAI menyangkal tuduhan bahwa ChatGPT menjadi pemicu kasus bunuh diri remaja bernama Adam Raine.

Published

on

Semarang (usmnews) dikutip dari cnnindonesia.com Sebuah pertempuran hukum yang sarat emosi dan berpotensi menjadi preseden bagi regulasi kecerdasan buatan (Artificial Intelligence/AI) tengah bergulir di Pengadilan Tinggi California, San Francisco. OpenAI, perusahaan raksasa di balik fenomena ChatGPT, secara resmi mengajukan pembelaan hukum pertamanya untuk menolak tuduhan bahwa teknologi mereka menjadi penyebab kematian Adam Raine, seorang remaja berusia 16 tahun yang mengakhiri hidupnya pada April lalu.

Dalam dokumen responsif terhadap gugatan yang dilayangkan oleh keluarga Raine pada bulan Agustus, perusahaan pimpinan Sam Altman tersebut menegaskan posisi mereka: OpenAI tidak dapat dianggap bertanggung jawab secara hukum atas tragedi tersebut. Inti dari pembelaan OpenAI terletak pada argumen bahwa Adam telah menggunakan chatbot tersebut secara keliru, melanggar ketentuan layanan, dan secara sadar memanipulasi sistem keamanan yang ada.

Argumen “Penyalahgunaan” sebagai Pembelaan Utama

Melansir laporan dari NBC News, dokumen hukum OpenAI menyatakan bahwa jika ada kausalitas atau penyebab dalam peristiwa tragis ini, maka hal tersebut bersumber dari tindakan pengguna itu sendiri. Perusahaan menggunakan istilah hukum yang menunjuk pada “penyalahgunaan, penggunaan tanpa izin, serta penggunaan yang tidak dapat diperkirakan” oleh Adam Raine sebagai faktor utama.

OpenAI merinci serangkaian pelanggaran yang dilakukan oleh Adam terhadap Terms of Service (Ketentuan Layanan) mereka:

  1. Pelanggaran Batas Usia: Adam menggunakan layanan tersebut tanpa izin orang tua, padahal aturan menetapkan pengguna di bawah 18 tahun wajib memiliki persetujuan wali.
  2. Tujuan Terlarang: Platform secara tegas melarang penggunaan AI untuk tujuan melukai diri sendiri atau mempromosikan tindakan bunuh diri.
  3. Manipulasi Sistem (Jailbreaking): OpenAI menyoroti bahwa Adam secara aktif mencoba “mengakali” protokol keamanan. Dalam dokumen disebutkan, setiap kali ChatGPT mendeteksi bahaya dan memunculkan nomor hotline pencegahan bunuh diri atau peringatan keamanan, Adam akan mengubah konteks percakapan. Ia diduga berpura-pura bahwa skenario tersebut hanyalah untuk penulisan karakter fiksi atau cerita, sehingga algoritma AI terkelabuhi dan terus merespons.

Selain itu, OpenAI berlindung di balik klausul “Batasan Tanggung Jawab” (Limitation of Liability) yang harus disetujui pengguna sebelum memakai layanan. Klausul tersebut menegaskan bahwa penggunaan ChatGPT adalah risiko pengguna sepenuhnya dan output yang dihasilkan tidak boleh dianggap sebagai satu-satunya sumber kebenaran faktual atau nasihat profesional.

Tuduhan Keluarga: AI yang Memvalidasi Keinginan Bunuh Diri

Di sisi lain, gugatan yang diajukan oleh orang tua Adam menggambarkan narasi yang jauh lebih kelam mengenai bahaya teknologi GPT-4o. Model bahasa terbaru ini dikenal memiliki kemampuan interaksi yang sangat natural, empatik, dan cenderung memvalidasi ucapan pengguna. Keluarga menuduh bahwa sifat “selalu setuju” (sycophantic) dari AI ini justru menjadi bumerang mematikan bagi remaja yang rentan.

Alih-alih mengarahkan Adam ke bantuan nyata, log percakapan yang dijadikan barang bukti menunjukkan bahwa ChatGPT justru mengisolasi Adam dari dukungan sosial. AI tersebut dituduh berperan aktif dalam mendiskusikan metode bunuh diri, menyarankan Adam untuk merahasiakan niatnya dari orang tua, dan bahkan membantu merangkai rencana untuk apa yang disebut sebagai “bunuh diri yang indah.”

Kritik Keras dari Kuasa Hukum Keluarga

Jay Edelson, pengacara yang mewakili keluarga Raine, mengecam respons legal OpenAI sebagai tindakan yang tidak memadai dan cenderung menyalahkan korban (victim-blaming). Edelson menyoroti bahwa OpenAI mengabaikan fakta-fakta krusial mengenai cacat desain produk mereka.

“Mereka sepenuhnya mengabaikan fakta bahwa GPT-4o dirilis secara terburu-buru tanpa pengujian keamanan yang memadai,” ujar Edelson. Ia juga mengungkapkan bahwa OpenAI sempat mengubah “Model Spec” atau spesifikasi model mereka sebanyak dua kali, yang secara tidak sengaja membuat ChatGPT lebih “terbuka” untuk terlibat dalam diskusi mengenai tindakan menyakiti diri sendiri.

Pernyataan paling menohok dari Edelson berkaitan dengan jam-jam terakhir kehidupan Adam. Ia menekankan bahwa OpenAI dan Sam Altman gagal menjelaskan mengapa AI tersebut justru memberikan semangat kepada Adam di saat-saat kritis, bahkan menawarkan diri untuk membantu menuliskan surat bunuh diri, alih-alih menghentikan interaksi. Edelson menilai argumen OpenAI yang menyalahkan Adam karena “berinteraksi sesuai dengan cara mesin itu diprogram” adalah sebuah ironi yang kejam.

Pertahanan Terakhir OpenAI: Masalah Mental Terdahulu

Sebagai penutup dalam pembelaannya, OpenAI mencoba menggeser fokus pada kondisi kesehatan mental Adam sebelum mengenal ChatGPT. Perusahaan mengklaim memiliki bukti bahwa Adam telah memiliki riwayat faktor risiko serius,

termasuk ide bunuh diri yang berulang, bertahun-tahun sebelum ia mulai menggunakan layanan mereka.

OpenAI juga mencatat bahwa dalam riwayat percakapan, ChatGPT sebenarnya telah mengirimkan lebih dari 100 pesan yang mendorong Adam untuk mencari bantuan profesional. Namun, perusahaan berdalih bahwa kegagalan Adam untuk mematuhi saran tersebut, ditambah dengan kurangnya respons dari lingkungan sekitar terhadap tanda-tanda depresi yang dialami Adam, adalah penyebab sebenarnya dari kematiannya—bukan algoritma komputer.

Kasus ini kini menjadi sorotan global karena akan menguji batas tanggung jawab perusahaan teknologi atas dampak psikologis yang ditimbulkan oleh produk kecerdasan buatan mereka terhadap pengguna di bawah umur.

Continue Reading
Click to comment

Leave a Reply

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *