SON DAKİKA

Yapay Zeka

Generative AI, etkileyici çıktıları olmasına rağmen, dünyanın tutarlı bir anlayışına sahip değildir

Yapay Zeka Modelleri Gerçek Dünyayı Anlamıyor Olabilir

Büyük dil modelleri, şiir yazabilir veya uygun bilgisayar programları oluşturabilir gibi etkileyici şeyler yapabilir, ancak bu modeller metin içindeki bir sonraki kelimeleri tahmin etmek için eğitildikleri halde.

Bu şaşırtıcı yetenekler, modellerin dünya hakkında genel doğruları öğrendikleri izlenimini verebilir.

Ancak yeni bir çalışmaya göre durum böyle olmayabilir. Araştırmacılar, popüler bir yaratıcı AI modelinin, New York City’de neredeyse mükemmel doğrulukta sıra sıra sürüş talimatları sağlayabildiğini, ancak şehrin içinde doğru bir harita oluşturmuş olmamasıyla fark ettiler.

Modelin etkileyici bir şekilde etkili bir şekilde navigasyon yapabilme yeteneğine rağmen, araştırmacılar bazı sokakları kapattığında ve yol değişiklikleri yaptığında, performansı düştü.

Daha derinlemesine araştırdıklarında, modelin zihinsel olarak oluşturduğu New York haritalarının, kafes arasında kıvrılan ve uzak kesişimleri birbirine bağlayan birçok mevcut olmayan sokaklar olduğunu buldular.

Bu, gerçek dünyada kullanılan yaratıcı AI modelleri için ciddi sonuçları olabilir, çünkü bir modelin bir bağlamda iyi performans göstermesi, görev veya çevre biraz değiştiğinde çökebilir.

“Bir umut, LLM’lerin tüm bu şaşırtıcı şeyleri dilde başarabileceklerse belki bu teknikleri diğer alanlarda da kullanabiliriz. Ancak LLM’lerin tutarlı bir dünya modeli öğrenip öğrenmediği sorusu, bu teknikleri yeni keşifler yapmak için kullanmak istiyorsak çok önemli,” diyor araştırmanın kıdemli yazarı Ashesh Rambachan, ekonomi bölümünde yardımcı profesör ve MIT Laboratory for Information and Decision Systems (LIDS) baş araştırmacısı.

Yeni Metrikler

Araştırmacılar, LLM’lerin temelini oluşturan transformer adlı bir tür yaratıcı AI modeline odaklandılar. Transformer’lar, bir dizideki bir sonraki belirteci tahmin etmek için devasa miktarda dil temelli veriyle eğitilir, örneğin bir cümledeki bir sonraki kelimeyi.

Ancak bilim insanları, bir LLM’nin doğru bir dünya modeli oluşturup oluşturmadığını belirlemek istiyorsa, tahminlerinin doğruluğunu ölçmek yeterli olmaz, diyor araştırmacılar.

Örneğin, bir transformer’ın tüm kuralları anlamadan Connect 4 oyununda geçerli hamleleri neredeyse her zaman tahmin edebileceğini buldular.

Bu nedenle, ekip, bir transformer’ın dünya modelini test edebilecek iki yeni metrik geliştirdi. Araştırmacılar değerlendirmelerini, belirli bir düzeyde belirsiz bilginin olduğu problemler üzerinde odakladılar.

Bir DFA’nın bir sıralama problemi olduğunu seçtiler: New York City’deki sokaklarda dolaşmak ve Othello adlı masa oyununu oynamak.

Bu metrikleri kullanarak, sırasıyla rastgele üretilen dizilerden eğitilen ve stratejileri takip ederek üretilen verilerden eğitilen iki yaygın transformer sınıfını test ettiler.

Tutarlı Olmayan Dünya Modelleri

Şaşırtıcı bir şekilde, araştırmacılar, rastgele seçimler yapan transformer’ların daha doğru dünya modelleri oluşturduklarını gördüler, çünkü eğitim sırasında daha geniş bir olası sonraki adım yelpazesini gördüler.

“Othello’da, rastgele bilgisayarların oynamasını görmek, turnuva oyuncuların yapmayacağı kötü hamleleri de içeren tüm olası hamleleri görmeniz gerektiğinden, aslında her zaman yapılacak hamleleri görürsünüz,” diyor Vafa.

Transformer’lar neredeyse her durumda doğru yönlendirmeler ve geçerli Othello hamleleri üretse de, iki metrik sadece birinin tutarlı bir Othello hamleleri dünya modeli oluşturduğunu ve hiçbirinin yol bulma örneğinde tutarlı dünya modelleri oluşturmakta iyi performans göstermediğini ortaya çıkardı.

Araştırmacılar, tüm navigasyon modellerinin başarısız olduğunu gördüklerinde New York City haritasına sapmalar ekleyerek bu durumun sonuçlarını gösterdi.

“Sadece yüzde 1’i mümkün sokakları kapattığımızda performansın ne kadar hızlı düştüğü beni şaşırttı. Doğruluk aniden neredeyse yüzde 100’den sadece yüzde 67’ye düşüyor,” diyor Vafa.

Modelin oluşturduğu şehir haritalarını geri kurtardıklarında, kafes üzerine örtülmüş kıvrımlı yüzlerce sokakla hayal edilen bir New York City gördüler. Haritalar genellikle, diğer sokakların üzerinde havada geçişler veya imkansız yönlere sahip çoklu sokaklar içeriyordu.

Bu sonuçlar, transformer’ların kuralları anlamadan belirli görevlerde şaşırtıcı derecede iyi performans gösterebileceğini gösteriyor. Bilim insanları doğru dünya modellerini yakalayabilen LLM’ler inşa etmek istiyorsa farklı bir yaklaşım benimsemeli, diyor araştırmacılar.

“Çoğu zaman, bu modellerin etkileyici şeyler yaptıklarını görüyoruz ve dünyayı bir şekilde anlamış olmaları gerektiğini düşünüyoruz. Umarım insanları, bu sorunun çok dikkatlice düşünülmesi gereken bir soru olduğuna ikna edebiliriz ve bunu yanıtlayabilmek için kendi sezgilerimize güvenmemize gerek yok,” diyor Rambachan.

Gelecekte, araştırmacılar daha çeşitli problemlerle uğraşmayı ve bazı kuralların yalnızca kısmen bilindiği problemlere yönelmeyi ve değerlendirme metriklerini gerçek dünya, bilimsel problemlere uygulamayı hedefliyorlar.

Bu çalışma, kısmen Harvard Veri Bilimi İnisiyatifi, Bir Ulusal Bilim Vakfı Lisansüstü Araştırma Bursu, Vannevar Bush Fakülte Araştırma Bursu, Simons İşbirliği hibesi ve MacArthur Vakfı tarafından finanse edilmektedir.

Düşüncenizi Paylaşın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

İlgili Teknoloji Haberleri