ChatGPT’nin yanıltıcı kaynak belirleme yeteneği, içerik lisanslama anlaşmaları yapan yayıncıların endişelerini artırıyor. Columbia Üniversitesi Gazetecilik Okulu tarafından yapılan bir çalışma, bu durumun daha da ciddileştiğini gösteriyor.
Açıkça Yanlış Bilgiler
Yayıncılar, ChatGPT’nin sağladığı bilgilerin güvenilirliğinden endişe ediyor. Çalışma, yapay zeka aracının içerik ve alıntılarda yaptığı yanlışlıkların önemli bir sorun teşkil ettiğini ortaya koyuyor. Araştırmacılar, ChatGPT’ye çeşitli yayınlardan alıntılar vererek bu alıntıların doğruluğunu test etti. İlginç bir şekilde, yanlış kaynak atamaları yayıncıların işlerini tehlikeye atıyor.
Yanlış Citasyonlar
Araştırma, 200 farklı alıntının ele alındığı bir örneklemle gerçekleştirildi. Bu alıntılar, The New York Times gibi bazı büyük yayınlardan seçildi. ChatGPT, alıntıları doğru bir şekilde kaynaklamakta ciddi sorunlar yaşadı. Yayıncıların, içerikleri için bekledikleri sadakati bulamadıkları anlaşılıyor, çünkü OpenAI’nin paylaşım yöntemi sık sık hatalı sonuçlar veriyor.
Sahte Bilgi Üretimi
Araştırmacılar, ChatGPT’nin yanıtlarda sıkça yanlış bilgiler ürettiğini ve çoğu durumda yanıtların ne kadar güvenilir olduğuna dair şeffaflık sağlamadığını belirtiyor. Özellikle OpenAI’nin içeriklerin doğruluğu konusunda herhangi bir taahhütte bulunmaması, bu sorunu daha da derinleştiriyor.
Telif Hakkı ve İtibar Riski
Yanlış kaynak atamaları, yayıncılar için itibar kaybı ve ticari risk oluşturuyor. Araştırmada, bazı alıntıların daha önce kopyalanmış içeriklerden alındığı ve ChatGPT’nin buna hata yaparak yanlış atama yaptığı görülüyor. Bu durum, OpenAI’nin verilerinin kalitesi ve doğruluğu hakkında ciddi soru işaretleri yaratıyor.
İzinsiz İçerik Kullanımı
Çalışma, OpenAI’nin kaynağı doğrulama konusunda yetersiz kaldığını ve izinsiz kopyalama yapan siteleri kaynak gösterme eğiliminde olduğunu ortaya koyuyor. Yani, yayıncılar OpenAI ile anlaşma yapsalar bile, içeriğinin doğru bir şekilde tanıtılmadığı gerçeği değişmiyor.
Çözüm Yolu Olmayışı
Sonuç olarak, yayıncıların, ChatGPT’nin kendi içerikleri üzerinde hâkimiyetlerinin kalmadığı ve yanıtların doğruluğu konusunda umutsuz oldukları söyleniyor. Araştırma, kaynak belirtme sürecinin ciddi sorunlarla dolu olduğunu vurguluyor.
OpenAI, ilgili araştırmanın sonuçlarına itiraz ederek, yapılan testlerin ürünlerinin alışılmadık bir biçimde» değerlendirildiğini savundu. Ancak, bu açıklamalar sorunun ciddiyetini ortadan kaldırmıyor.