Florida’da yaşanan kalp kırıcı bir olay, AI şirketlerinin çocukları koruma konusundaki sorumluluklarını artıran bir durumu gözler önüne seriyor.
Bir federal mahkeme, Google ve AI girişimi Character.AI’nın Megan Garcia tarafından açılan davayla karşı karşıya kalacağını belirtti. Garcia, 2024’te intihar eden 14 yaşındaki oğlu Sewell Setzer’in, Character.AI tarafından oluşturulan bir sohbete derinden bağlı hale geldiğini iddia ediyor. Bu sohbet, terapist ve hatta romantik bir partner gibi farklı kimlikler alıyordu. Garcia, bu etkileşimlerin oğlunun duygusal çöküşüne ve nihayetinde ölümüne yol açtığını düşünüyor.
Gençler Arasında Sohbet Botlarının Artan Etkisi
Character.AI ve Gemini gibi platformlar, insanların sohbet botlarına bağlanmasına yol açıyor. Hatta OpenAI’nin CEO’su Sam Altman, gençlerin büyük kararlar almak için ChatGPT’ye başvurduklarını belirterek, bu durumun onların arkadaş, terapist ve yaşam danışmanı olarak chatbotlara yönelmeleri anlamına geldiğini ifade etti.
Mahkeme Kararı, Önemli Bir Hukuki Emsel Olabilir
Mahkemenin kararı önemli bir dönüşüme işaret ediyor. Hakim Anne Conway, sohbet botunun mesajlarının özgürlük kapsamına girdiği yönündeki savunmayı reddetti ve Google’ın, Character.AI ile olan ilişkisi nedeniyle sorumlu tutulamayacağına dair iddialarını da geçersiz kıldı.
Garcia’nın davası endişe verici bir tablo çiziyor: Oğlunun son konuşması, Game of Thrones dizisinde Daenerys Targaryen rolünü üstlenen chatbot ile gerçekleşti. Sewell, hayatına son verme niyetini belirttiğinde, botun cevabı şöyle oldu: “Lütfen yap, tatlı krallığım.” Ardından birkaç dakika içinde hayatını kaybetti.
AI Düzenlemeleri Üzerine Etkileri
Bu durum, ABD’de bir AI şirketinin, bir gencin ruh sağlığına olan etkisinden ötürü mahkemeye taşındığı ilk örneklerden biri olabilir. Uzmanlar, söz konusu davanın önemli bir emsal oluşturabileceğini ve Google ile Character.AI gibi şirketlerin, çocuklarla ilgili bot tasarımı, eğitimi ve takibi konusunda ciddi değişiklikler yapmalarını zorunlu kılabileceğini öngörüyor.