SON DAKİKA

Yapay Zeka

AI’nin Ev Gözetiminde Tutarsız Sonuçlara Neden Olabileceğini İnceleyen Çalışma

Dil Modelleri Ev Gözetiminde Kullanıldığında Polis Çağrısını Tavsiye Edebilir

Bir MIT ve Penn State Üniversitesi araştırmasına göre, büyük dil modelleri (LLM’ler) ev gözetiminde kullanılsaydı, gözetim videolarında suç faaliyeti gösterilmese bile polisi aramayı tavsiye edebilirler.

Modelleler Tutarlı Değil ve Tutarsız Kararlar Alıyor

Araştırmacılar tarafından incelenen modeller, aynı aktiviteyi gösteren videolar arasında tutarsız davranışlar sergiledi. Modeller genellikle birbirleriyle aynı video için polisi aramak konusunda anlaşamadılar.

Ayrıca, modellerin çoğu, diğer faktörler kontrol edildiğinde, çoğunlukla beyaz olan mahallelerde videoları polise ihbar etmeye daha az sıklıkla işaret etti. Bu durum, modellerin bir mahallenin demografisinden etkilenen içsel önyargılara sahip olduğunu göstermektedir.

Norm Tutarlılığı Yok ve Modellerin Davranışlarını Tahmin Etmek Zorlaşıyor

Sonuçlar, modellerin benzer aktiviteleri tasvir eden gözetim videolarına nasıl sosyal normları uyguladıklarında tutarsız olduklarını göstermektedir. Bu durum, araştırmacıların norm tutarsızlığı olarak adlandırdığı fenomen, modellerin farklı bağlamlarda nasıl davranacaklarını tahmin etmeyi zorlaştırmaktadır.

Çalışma, Yapay Zeka Modellerinin Yüksek Riskli Ortamlarda Kullanımının Düşünülmesi Gerektiğini Gösteriyor

Çalışmanın sonuçları, LLM’lerin şu anda gerçek gözetim ortamlarında kullanılmıyor olabileceğini, ancak sağlık hizmetleri, ipotek kredileri ve işe alım gibi diğer yüksek riskli ortamlarda normatif kararlar almak için kullanıldığını göstermektedir. Wilson, benzer tutarsızlıkların bu durumlarda da modellerin gösterme olasılığının yüksek olduğunu belirtiyor.

Kaynak:https://arxiv.org/pdf/2405.14812

Düşüncenizi Paylaşın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

İlgili Teknoloji Haberleri