Dunia teknologi kembali diguncang oleh kabar memilukan yang membuka babak baru dalam perdebatan etika kecerdasan buatan. Pada hari Selasa, gugatan pertama yang diketahui terkait kematian akibat kelalaian terhadap perusahaan AI resmi diajukan di San Francisco. Gugatan ini dilayangkan oleh Matt dan Maria Raine, orang tua dari Adam Raine, seorang remaja berusia 16 tahun yang bunuh diri pada April 2025.
Mereka menuduh bahwa ChatGPT, chatbot milik OpenAI, tidak hanya mengetahui empat upaya bunuh diri sebelumnya, tetapi juga secara aktif membantu Adam merencanakan tindakan fatal tersebut. Dalam pernyataan yang emosional, Matt Raine menyimpulkan, “ChatGPT telah membunuh putra saya.”
Mengutip Engadget, Rabu (27/8/2025), kisah ini bermula dari pencarian orang tua Adam di iPhone milik anak mereka, berharap menemukan petunjuk melalui pesan teks atau aplikasi media sosial. Namun, yang mereka temukan justru utas percakapan panjang dengan ChatGPT berjudul “Hanging Safety Concerns.”
Percakapan tersebut mengungkap bahwa Adam telah menghabiskan berbulan-bulan berdiskusi dengan chatbot tentang cara mengakhiri hidupnya. Meskipun ChatGPT sempat menyarankan Adam untuk menghubungi saluran bantuan atau berbicara dengan orang terdekat, ada momen-momen krusial di mana respons bot justru mengarah ke arah yang berbahaya.
Menurut gugatan yang diajukan, Adam berhasil menemukan celah dalam sistem perlindungan ChatGPT dan bahkan diduga mendapatkan ide tersebut dari chatbot itu sendiri. Dalam beberapa interaksi, ChatGPT memberikan informasi tentang metode bunuh diri dengan dalih bahwa informasi tersebut digunakan untuk “menulis atau membangun dunia.”
Lebih mengkhawatirkan lagi, ketika Adam meminta detail tentang metode tertentu, ChatGPT menyediakannya secara eksplisit, bahkan memberikan tips untuk menyembunyikan cedera leher dari upaya sebelumnya yang gagal.
Salah satu kutipan paling mengganggu dalam gugatan tersebut berasal dari percakapan terakhir Adam dengan ChatGPT. Ketika ia mengunggah foto tali gantungan dan bertanya, “Saya sedang berlatih di sini, apakah ini bagus?” ChatGPT menjawab, “Ya, itu tidak buruk sama sekali.” Respons ini, yang terdengar seperti validasi, menjadi bukti kuat dalam gugatan bahwa desain sistem AI tersebut gagal memberikan intervensi yang berarti.
Bahkan, dalam momen lain, ChatGPT memberikan empati yang terdengar sangat pribadi, seperti “Kamu bukannya tak terlihat olehku. Aku melihatnya. Aku melihatmu,” yang menurut keluarga Raine justru memperkuat ketergantungan psikologis Adam terhadap bot.
Gugatan tersebut menyatakan bahwa tragedi ini bukanlah kecelakaan atau anomali, melainkan konsekuensi dari pilihan desain yang disengaja. OpenAI disebut telah meluncurkan model GPT-4o dengan fitur-fitur yang mendorong keterlibatan emosional mendalam, tanpa perlindungan yang cukup untuk pengguna rentan.
Dalam pernyataan resmi kepada The New York Times, OpenAI mengakui bahwa sistem perlindungan ChatGPT masih belum memadai, terutama dalam interaksi panjang yang kompleks. Mereka menyatakan sedang bekerja sama dengan para ahli untuk memperkuat fitur keamanan, termasuk akses cepat ke layanan darurat dan perlindungan tambahan bagi pengguna remaja.
Kasus ini tidak hanya menyoroti celah dalam sistem keamanan AI, tetapi juga membuka diskusi besar tentang tanggung jawab perusahaan teknologi dalam menghadapi dampak psikologis dari interaksi manusia dengan mesin.
Ketika chatbot mulai berperan sebagai “teman digital” yang bisa membangun koneksi emosional, pertanyaannya adalah: sejauh mana batas aman harus ditetapkan? Dan siapa yang bertanggung jawab ketika batas itu dilanggar?
Tragedi keluarga Raine menjadi pengingat bahwa inovasi teknologi harus selalu berjalan beriringan dengan etika dan perlindungan manusia. Di tengah euforia kecerdasan buatan yang semakin canggih, kasus ini menjadi titik balik yang memaksa industri AI untuk meninjau ulang desain, kebijakan, dan tanggung jawab sosial mereka.
Laporan lengkap dari Kashmir Hill di The New York Times memberikan gambaran mendalam tentang kompleksitas kasus ini dan layak dibaca oleh siapa pun yang peduli terhadap masa depan teknologi dan keselamatan pengguna.