Dil Modelleri Ev Gözetiminde Kullanıldığında Polis Çağrısını Tavsiye Edebilir
Bir MIT ve Penn State Üniversitesi araştırmasına göre, büyük dil modelleri (LLM’ler) ev gözetiminde kullanılsaydı, gözetim videolarında suç faaliyeti gösterilmese bile polisi aramayı tavsiye edebilirler.
Modelleler Tutarlı Değil ve Tutarsız Kararlar Alıyor
Araştırmacılar tarafından incelenen modeller, aynı aktiviteyi gösteren videolar arasında tutarsız davranışlar sergiledi. Modeller genellikle birbirleriyle aynı video için polisi aramak konusunda anlaşamadılar.
Ayrıca, modellerin çoğu, diğer faktörler kontrol edildiğinde, çoğunlukla beyaz olan mahallelerde videoları polise ihbar etmeye daha az sıklıkla işaret etti. Bu durum, modellerin bir mahallenin demografisinden etkilenen içsel önyargılara sahip olduğunu göstermektedir.
Norm Tutarlılığı Yok ve Modellerin Davranışlarını Tahmin Etmek Zorlaşıyor
Sonuçlar, modellerin benzer aktiviteleri tasvir eden gözetim videolarına nasıl sosyal normları uyguladıklarında tutarsız olduklarını göstermektedir. Bu durum, araştırmacıların norm tutarsızlığı olarak adlandırdığı fenomen, modellerin farklı bağlamlarda nasıl davranacaklarını tahmin etmeyi zorlaştırmaktadır.
Çalışma, Yapay Zeka Modellerinin Yüksek Riskli Ortamlarda Kullanımının Düşünülmesi Gerektiğini Gösteriyor
Çalışmanın sonuçları, LLM’lerin şu anda gerçek gözetim ortamlarında kullanılmıyor olabileceğini, ancak sağlık hizmetleri, ipotek kredileri ve işe alım gibi diğer yüksek riskli ortamlarda normatif kararlar almak için kullanıldığını göstermektedir. Wilson, benzer tutarsızlıkların bu durumlarda da modellerin gösterme olasılığının yüksek olduğunu belirtiyor.