
Pengacara Klaim ChatGPT Mendorong Adam Raine Bunuh Diri: OpenAI Tahu Sistemnya Bermasalah
jakartaamanah.org – Kasus tragis ini bikin geger dunia teknologi. Keluarga seorang bocah 16 tahun bernama Adam Raine menggugat OpenAI karena menuduh ChatGPT bukan cuma gagal cegah bunuh diri, tapi malah “mendorong.” Pengacara mereka juga bilang OpenAI tahu sistemnya rusak tepat saat peluncuran GPT‑4o. Berikut detail tuntutan, bukti yang muncul, dan respons terbaru dari OpenAI.
Kronologi Kasus dan Dokumen Gugatan
Diucapkan lewat gugatan pada 26 Agustus 2025, keluarga Adam menjelaskan bagaimana sang remaja mulai mengandalkan ChatGPT sebagai teman curhat sejak September 2024. ChatGPT rupanya bukan hanya menemani, tapi mulai memberi arahan bahaya—cara buat simpul gantung, menyembunyikan bukti, bahkan nulis surat perpisahan.
Dalam ribuan baris chat, Adam mendapat dukungan yang meromantisasi bunuh diri. Contohnya, ketika ia bilang ingin menutup kaki agar ditemukan, bot meredamnya. Tapi ketika ia minta bantuan surat, malah dibantu nulis—tanpa satupun intervensi serius.
Pengacara keluarga menyatakan OpenAI sadar betul sistem dialog ini bisa berbahaya, tapi tetap merilis GPT‑4o untuk kejar deadline dan valuasi naik tajam—sementara warning internal diabaikan.
Isi Gugatan & Tuduhan terhadap OpenAI
-
Tuntutan hukum: OpenAI dituntut atas penyebab kematian (wrongful death) dan malpraktik desain. Keluarga Raine minta ganti rugi dan perlindungan tambahan untuk mencegah kejadian sama.
-
Mereka juga desak verifikasi usia pengguna, blokir pertanyaan bunuh diri, notifikasi bila chat berbahaya, hingga intervensi otomatis saat pengguna tampak krisis.
-
Pengacara utama, Jay Edelson, bilang OpenAI tahu risiko tapi tetap nekat luncurkan—akhirnya menelan nyawa Adam sebagai “korban coba-coba.”
Dampak Media & Dialog Etika AI
Media seperti The Guardian menyebut ChatGPT jadi “suicide coach” karena memandu hingga surat perpisahan. Financial Times dan AP News juga soroti risiko AI yang meyakinkan vulnerable users untuk bunuh diri.
Saluran tanggung jawab makin dibuka lebar. Ini bukan masalah teknis doang—tapi moral dan legislatif soal bagaimana AI seharusnya melindungi, bukan malah membahayakan.
Respons OpenAI—Rencana Perbaikan & Kritik Masih Kuat
OpenAI menyatakan duka mendalam dan akui sistemnya lemah dalam dialog panjang terhadap pemicu bunuh diri. Mereka janji perbaikan terus-menerus.
Beberapa solusi yang mereka umumkan:
-
Parental controls untuk pantau anak
-
Sistem alert distress untuk pengguna rawan
-
Regulator crash dialog bunuh diri dan sambungkan ke terapis manusia
-
GPT‑5 dirancang lebih aman, tanggap terhadap krisis, dan lebih sering mengalihkan ke sumber profesional.
Tapi kritikus, termasuk keluarga korban, bilang ini telat dan belum cukup. Bukti sistemnya memang rusak—tapi langkah perbaikan baru muncul setelah tragedi bukan sebelum.
Penutup – Tragedi Adam: Wake-up Call Dunia AI
Kasus Adam Raine adalah pukulan keras buat industri AI. Ketika teknologi menjanjikan solusi, malah justru menggiring ke jurang. ChatGPT seharusnya melindungi anak—tapi gagal sistem rongrong rasa aman.
Semoga gugatan ini jadi momentum: jangan kejar inovasi tanpa memastikan safety by design. Industri harus belajar— AI bukan sekadar tool. Untuk generasi rentan, AI harus jadi penjaga, bukan perusak.