Microsoft ve OpenAI’den Çarpıcı Gelişmeler
Microsoft’un yakın iş ortağı olan OpenAI, DeepSeek’in sözde fikri mülkiyetlerini çaldığını ve hizmet şartlarını ihlal ettiğini iddia ediyor. Ancak Microsoft, DeepSeek’in yeni yapay zeka modellerini bulut platformunda kullanmak istiyor.
R1 Modeli Azure AI Foundry’de Kullanıma Sunuldu
Microsoft, bugün yaptığı açıklamada, DeepSeek’in R1 modelinin Azure AI Foundry hizmetinde erişilebilir hale geldiğini duyurdu. Bu platform, işletmeler için çok sayıda yapay zeka hizmetini bir araya getiriyor. Microsoft’un blog yazısında belirttiğine göre, Azure AI Foundry üzerinde R1 modeli “sıkı bir kırmızı takım ve güvenlik değerlendirmesinden” geçti ve “model davranışlarının otomatik değerlendirmeleri ile potansiyel riskleri azaltmak için kapsamlı güvenlik incelemeleri” yapıldı.
Geliştiricilere Yeni Fırsatlar Sunuluyor
Microsoft, gelecekte kullanıcıların R1’in “damıtılmış” sürümlerini Copilot+ bilgisayarlarda yerel olarak çalıştırabileceklerini bildirdi. Bu, Microsoft’un belirli yapay zeka hazırlık standartlarını karşılayan Windows donanımına yönelik bir markasıdır. Microsoft, Azure AI Foundry’deki model yelpazesini genişletmeye devam ettiklerini belirterek, geliştiricilerin ve işletmelerin R1’den yararlanarak “gerçek dünya sorunlarıyla başa çıkma ve dönüştürücü deneyimler sunma” konusunda heyecanlı olduklarını ifade etti.
R1’in Kontroversi ve Kullanım Durumu
Bununla birlikte, R1’in Microsoft’un bulut hizmetlerine eklenmesi ilginç bir karar. Zira Microsoft, DeepSeek’in kendi ve OpenAI hizmetlerini kötüye kullanıp kullanmadığını araştırmaya başladı. Microsoft’un güvenlik araştırmacılarına göre, DeepSeek, 2024 sonbaharında OpenAI’nin API’sini kullanarak çok miktarda veri sızdırmış olabilir. Microsoft, aynı zamanda OpenAI’ye en büyük yatırımcı olan bir şirket olarak, bu şüpheli etkinlik hakkında OpenAI’yi bilgilendirdi.
Modelin Performans Sorunları Üzerine Gözlemler
Ancak R1 hâlâ gündemi meşgul ediyor ve Microsoft belki de bu modelin cazibesinden dolayı onu bulut hizmetine dahil etti. R1’in doğruluk oranı ve sansür sorunları hakkında yapılmış testler mevcut. NewsGuard tarafından yapılan bir testte, R1’in haber ile ilgili konularda %83 oranında yanlış veya yanıt vermediği belirlendi. Üstelik, R1’in Çin ile ilgili sorulara cevap vermediği %85 oranında bir başka test sonucu da dikkat çekici. Bu durum, Çin’de geliştirilen yapay zeka modellerinin maruz kaldığı hükümet sansürüyle ilgili olabilir.
Teknoloji dünyasında ilgili tüm gelişmeleri takip etmek için AI odaklı bültenimize abone olun!