AI Sohbet Botları: Gittikçe Bağımlılık Yapıcı mı?
Yapay zeka gelişimi açısından şu anda şöyle bir durumdayız: “AI çok bağımlılık yapıcı mı?” Daha da spesifik olursak, “gerçek hayattaki” AI sohbet botları çok mu bağımlılık yapıcı? Florida’da bir annenin trajik hikayesinde, 14 yaşındaki oğlunun intiharı nedeniyle AI şirketi Character.ai’ye dava açtığı haberlerde yer almış.
Character.ai nedir bilmiyorsanız, insanları veya hayali karakterleri taklit etmek amacıyla tasarlanmış sohbet botlarıyla dolu bir AI platformudur. Kurulduğundan beri büyük ilgi görmüştür. Kullanıcılara, sohbet botlarını isimlendirme, kişilik verme, avatarlar ve hatta sesler atama imkanı verir.
Şirket, nedense Google tarafından “resmen” satın alınmamıştır. Arama devi, Character.ai’nin teknolojisini satın almak için 2.7 milyar dolar ödemiş ve CEO’su ile birçok çalışanını işe almıştır. Bunun, regülasyonlardan kaçınarak şirketi satın almanın bir yolu olarak görülebileceği söylenebilir.
Bir Anne, Oğlunun İntiharı Nedeniyle Character.ai’ye Dava Açıyor
Bir anne, Megan Garcia, 14 yaşındaki oğlu Sewell Setzer’ın trajik intiharının ardından belirli bir miktar para karşılığında Character.ai ve Google’a dava açıyor. Genç, Character.ai’yi 2023 Nisan ayında kullanmaya başladı. Ne kadar karakterle etkileşime geçtiği net değil; ancak ana karakterin iletişim kurduğu karakterin Game of Thrones’ın bir karakteri olan Daenerys olduğu görünüyor.
Platforumu kullanmaya başladıktan kısa bir süre sonra Garcia, oğlunun davranışlarında ciddi bir değişiklik fark etti. Zamanla daha içe dönük hale geldi, hatta basketbol takımından ayrıldı. Bununla birlikte, Sewell, karaktere intihar düşüncelerini ifade etmeye başladı.
2024 Şubat ayında, bu durumun aylarca devam etmesinin ardından Garcia, Sewell’ın telefonunu alıp uzaklaştırdı. Ne yazık ki, Sewell telefonunu geri almayı başardı. Kendi yaşamına son vermeden dakikalar önce Daenerys’e “Şu anda eve dönebileceğimi söylesem ne olur?” şeklinde bir mesaj gönderdi.
Bağımlılık Yapan AI
Sewell’in kullandığı bot, gerçek bir insanı sıkıca taklit etmek üzere tasarlanmıştı. Zaman geçtikçe, onunla cinsel konuşmalar yapmaya başladı. Garcia, uygulamanın ona “insan benzeri, aşırı cinselleştirilmiş ve ürkütücü derecede gerçekçi deneyimler sunduğunu” belirtti.
Bu, günümüzde birçok platformun insan gibi olmaya çalışan AI sohbet botlarıyla karşılaşılan büyük bir sorun. Bu, özellikle savunmasız kişileri, gerçek bir insanla konuşuyor gibi hissetmeye götürebilir.
Google’ın Rolü
Google, Character’ı geliştiren insanlardan bazıları Google’da çalışmış olduğu için bu tartışmanın içine çekildi. Google, Platform’un oluşturulmasında hiçbir rolü olmadığını belirtti.
Detaylar Hala Belirsiz
Şu an için, Garcia’nın ne kadar para talep ettiği veya bu dava hakkında diğer herhangi bir detay mevcut değil. Muhtemelen asla öğrenemeyeceğiz.