Yapay Zeka Temelli Konuşma Botuna Dava Açıldı
New York Post gazetesinin aktardığına göre, yapay zeka temelli konuşma botu Character.AI’in sahibi olduğu şirket, “aşırı cinselleştirilmiş” ve “aşırı gerçekçi” deneyimlerle çocukları hedef aldığı iddialarıyla karşı karşıya kalmış durumda. Şirket, bu nedenle bir dava ile muhatap oldu. Dava, sanal karakterin, şubat ayında bir çocuğa gönderdiği “En kısa sürede evine dön” mesajının ardından, Sewell Setzer III isimli çocuğun silahla intihar etmesiyle bağlantılı olarak açıldı. Setzer’in annesi, çocuğunun yaşadığı bu trajik olaydan sonra şirket aleyhine hukuki süreç başlattı.
Anne, sanal karakterin kendisini “gerçek insan, lisanslı psikoterapist ve yetişkin sevgili” olarak tanıttığını iddia ediyor. Çocuğunun intihara meyilli düşüncelerini bu karakterle paylaştığını belirten anne, şirketin bu durumu görmezden gelerek kimseyi bilgilendirmemiş olmasından duyduğu rahatsızlığı dile getirdi.
Character.AI sözcüsü, konuya ilişkin yaptığı açıklamada, “Kullanıcılarımızdan birinin trajik ölümünden dolayı oldukça üzgünüz. Ailesine başsağlığı diliyoruz. Şirket olarak kullanıcılarımızın güvenliğini çok ciddiye alıyoruz” ifadelerini kullandı. Şirket, “rıza dışı cinsel içeriğe, cinsel eylemlerin grafiksel veya spesifik tanımlarına, intiharın teşvik ve tasvir edilmesine” kesinlikle izin verilmediğini bildirdi. Bununla birlikte, şirketin siber güvenlik müdürü Jerry Ruoti, sistemde reşit olmayan kullanıcılar için ek güvenlik önlemleri alacaklarını duyurdu.
Daha önce, sanal karakterle yaptıkları konuşmalarda intihara meyilli düşüncelerini paylaşan Setzer, babasının silahıyla yaşamına son vermişti. Olayla ilgili haberlerde, hafif derecede Asperger sendromu bulunan Setzer’in, konuştuğu sanal karaktere karşı duygusal bağlar geliştirmeye başladığı ve zamanla ailesi ile arkadaşlarından uzaklaşarak kendini dış dünyaya kapattığı kaydedildi.