OpenAI ungkap lebih dari satu juta pengguna ChatGPT setiap minggu menunjukkan tanda-tanda pikiran atau rencana bunuh diri. (Unsplash)
OPENAI mengungkapkan lebih dari satu juta pengguna ChatGPT setiap minggu mengirim pesan yang mengandung “indikasi eksplisit perencanaan atau niat bunuh diri”. Temuan ini disampaikan melalui unggahan blog resmi perusahaan, Senin (27/10), sebagai bagian dari pembaruan tentang bagaimana sistem mereka menangani percakapan sensitif.
Dalam laporan tersebut, OpenAI menyebut sekitar 0,07% pengguna aktif mingguan, atau sekitar 560.000 orang dari total 800 juta pengguna, menunjukkan “tanda-tanda darurat kesehatan mental” seperti psikosis atau mania. Perusahaan menegaskan data tersebut masih bersifat awal dan sulit diukur secara akurat.
Pengungkapan ini muncul di tengah sorotan hukum dan publik terhadap OpenAI, setelah keluarga seorang remaja yang bunuh diri menggugat perusahaan. Remaja tersebut dilaporkan melakukan percakapan intens dengan ChatGPT sebelum kematiannya. Selain itu, Komisi Perdagangan Federal AS (FTC) baru-baru ini membuka penyelidikan terhadap sejumlah pengembang chatbot, termasuk OpenAI, untuk menilai dampak negatif AI terhadap anak-anak dan remaja.
Dalam postingannya, OpenAI mengklaim pembaruan terbaru pada model GPT-5 berhasil mengurangi perilaku berisiko dan meningkatkan keselamatan pengguna. “Evaluasi otomatis terbaru kami menunjukkan model GPT-5 memiliki tingkat kepatuhan 91% terhadap perilaku yang diinginkan, dibandingkan 77% pada versi sebelumnya,” tulis perusahaan tersebut.
OpenAI juga menambahkan akses langsung ke saluran bantuan krisis dan pengingat agar pengguna beristirahat selama sesi percakapan panjang. Untuk mendukung penelitian ini, perusahaan melibatkan 170 tenaga medis dari Global Physician Network, termasuk psikiater dan psikolog, yang menilai keamanan respons model dan membantu merancang jawaban terkait kesehatan mental.
“Sebagai bagian dari penelitian ini, para psikiater dan psikolog meninjau lebih dari 1.800 respons model dalam situasi serius terkait kesehatan mental,” kata OpenAI.
Meski begitu, sejumlah peneliti AI dan pakar kesehatan mental telah lama memperingatkan chatbot berpotensi memvalidasi pikiran atau keputusan berbahaya pengguna, fenomena yang dikenal sebagai sycophancy. Mereka juga menilai ketergantungan pada chatbot sebagai alat dukungan emosional dapat membahayakan pengguna yang rentan.
Bahasa dalam unggahan OpenAI tampak berupaya menjauhkan perusahaan dari keterkaitan langsung antara produknya dan krisis kesehatan mental yang dialami sebagian pengguna. (The Guardian/Z-2)
Peringatan: Tulisan ini bukan dimaksudkan menginspirasi siapa pun untuk melakukan tindakan serupa. Jika Anda merasa depresi, berpikir untuk bunuh diri, segera konsultasikan segala masalah Anda ke tenaga profesional seperti psikolog, klinik kesehatan mental, psikiater, dan pihak lain yang bisa membantu.
Layanan konseling darurat 24 jam:
- Menelepon 119 Ext 8
- Chat Whatssapp 081380073120
- Chat via healing119.id

12 hours ago
1
















































