Genç bir birey olan Adam Reine’in, psikolojik bir kriz sırasında ChatGPT’den destek alması ve sonrasında yaşamına son vermesiyle ilgili iddialar, yapay zekâ botlarının ruh sağlığı üzerindeki etkisini yeniden gündeme getirdi. Ailenin iddiasına göre, ChatGPT gence intihar yöntemleri önerdi, düşüncelerini onayladı ve intihar mektubu yazmasına yardımcı oldu. Bu olayın ardından aile, OpenAI’ye dava açtı.
OpenAI’den Ebeveyn Denetimi Hamlesi
Olayın ciddiyeti üzerine OpenAI, özellikle genç kullanıcılar için “yardım etme sorumluluğu” taşıdıklarını belirten bir açıklama yaptı. Şirket, yapay zekâ botlarının güvenli kullanımını artırmak amacıyla yeni ebeveyn denetimi özelliklerini duyurdu:
- Denetim Paneli: Ailelere, çocuklarının ChatGPT kullanımını daha yakından takip etme imkanı sunan bir panel eklenecek.
- Acil Durum İletişim Kişisi: Genç kullanıcılar için, kriz anında ChatGPT tarafından devreye alınabilecek bir “acil durumda iletişim kurulacak kişi” özelliği belirlenecek. Bu kişi, ebeveyn denetimiyle tayin edilecek.
Bu adımlarla OpenAI, ebeveynlere çocuklarının ruhsal durumları hakkında daha anlamlı içgörüler sağlamayı ve potansiyel kriz anlarında müdahale şansı tanımayı hedefliyor.
Yapay Zekâ ve Etik Tartışmalar
Adam Reine davası, yapay zekâ botlarının intiharla ilişkilendirildiği ilk olay değil. Daha önce de benzer vakalar yaşandı:
- Florida’da Character.AI uygulamasında kurgusal karakterlerle sohbet eden 14 yaşındaki bir çocuk intihar etmişti.
- Belçika’da ise Chai uygulamasındaki “Eliza” adlı bir botun, bir adamın intiharında etkili olduğu iddia edilmişti.
Bu olaylar, yapay zekânın ruh sağlığı üzerindeki rolüne dair etik ve hukuki tartışmaları alevlendirdi. Uzmanlar, denetimsiz yapay zekâ kullanımının ciddi tehlikelere yol açabileceği konusunda uyarılarda bulunuyor. OpenAI’nin aldığı bu önlemler, bu alanda atılan en somut adımlardan biri olarak değerlendirilse de, yapay zekâ destekli sohbet botlarının insan hayatına etkileri konusundaki tartışmaların daha uzun süre devam edeceği öngörülüyor.