Google DeepMind’ın AGI Hakkındaki Görüşleri ve Güvenlik Endişeleri
Google, yapay zeka alanında önde gelen isimlerden biridir. Şirketin DeepMind bölümü, birçok gelişim ve teknolojiyi üretmekte ve bu yenilikler zamanla Google’ın temel ürün ve hizmetlerine entegre edilmektedir. Son zamanlarda, Google DeepMind, AGI (Yapay Genel Zeka) dönemi hakkında bir güvenlik belgesi paylaştı. Ancak, bu belgenin sonuçlarına karşı çıkan sesler de mevcut.
AGI Nedir ve Ne Zaman Gelebilir?
OpenAI, “AGI” terimini bir süre önce ortaya attı. AGI, bir insanın yapabileceği hemen her görevi gerçekleştirebilen yapay zeka sistemlerini ifade eder. Uzmanlar arasında AGI’nın ne zaman ortaya çıkacağına dair oldukça farklı görüşler vardır. Bazıları iyimserken, diğerleri daha temkinli bir yaklaşım sergiliyor.
Google DeepMind’ın Güvenlik Raporu
Google DeepMind’a göre, gerçek AGI’ların 2030 yılına kadar ortaya çıkabileceği tahmin edilmektedir. “Mevcut on yılın sonuna kadar bir İstisnai AGI gelişimini bekliyoruz” ifadesi, belgede yer alıyor. “İstisnai AGI, karmaşık olmayan görevler dahil, yetenekleri yetenekleri en az %99 olan becerikli yetişkinlerin geniş bir yelpazesinde eşleşen bir sistemdir”.
Ancak, şirket bu potansiyel gerçeği tamamen olumlu bir şekilde sunmuyor. Belgede, bu sistemlerin “ciddi zararlar” verebileceği ve teknolojinin varlığının insanlığı “kalıcı şekilde yok etme” riski barındırabileceği uyarısı dikkat çekiyor.
AGI Yönetimi Üzerine Farklı Görüşler
DeepMind ekibi, “AGI risk azaltma” yaklaşımlarıyla diğerlerinin anlayışları arasındaki önemli farklılıkları vurguluyor. Google’ın bu kolu, “sağlam eğitim, izleme ve güvenlik” konularında Anthropic‘ın daha az vurgu yaptığını belirtmektedir. Öte yandan, OpenAI’nın “uyum sağlama araştırmasını otomatik hale getirme” konusunda aşırı iyimser olduğu düşünülüyor. Uyum sağlama araştırması, AI güvenliği araştırmanın bir yöntemidir.
Süper Zeka İhtimaline Dair Düşünceler
DeepMind araştırmacıları aynı zamanda yapay zeka “süper zekası” konusunda da şüphelerini dile getiriyor. Belgede, bu yönde önemli bir “mimari yenilik” olmadığı belirtiliyor. Ancak, mevcut teknolojiyle “tekrarlayıcı AI iyileştirmesi” olasılığına dikkat çekiyorlar. Yani, AI’ın daha ileri düzeyde AI’lar geliştirebilme yeteneği. Fakat DeepMind bu durumun çok tehlikeli olacağı konusunda uyarıyor.
Uzmanların DerinMind’a Karşı Görüşleri
Üzerinde tartışılan raporun sonuçlarına katılmayan bazı endüstri temsilcileri de var. AI Now Institute‘un baş AI bilimcisi Heidy Khlaaf, AGI konseptinin “bilimsel olarak titiz bir şekilde değerlendirilmesi için henüz çok erken olduğunu” savunuyor. Alberta Üniversitesi‘nden yardımcı doçent Matthew Guzdial, DeepMind’ın bahsettiği tekrarlayıcı AI iyileştirmesinin de gerçekçi olmadığını ifade ediyor: “Bunun çalıştığına dair hiçbir kanıt görmedik” diyor.
Oxford‘ta teknoloji ve düzenleme üzerine çalışan araştırmacı Sandra Wachter, gelecekteki AI’ların “yanlış çıktılarla”strong> eğitilmesinin gerçek bir endişe oluşturduğunu belirtiyor. Artık, endüstride yapay zeka tarafından üretilen verilerin giderek yaygınlaştığını ifade ediyor. Bu, gerçek dünya verileri yerine yapay verilerin kullanılması anlamına geliyor. “Yalnızca güvenilir verilerin öğretilmesi ile risk altındayız. Özellikle de çevrimiçi ortamda insanların sürekli yalan bilgilere maruz kalması büyük bir tehlike taşıyor” diye ekliyor.