İrregular’dan Yeni Yatırım Duyurusu
Çarşamba günü, yapay zeka güvenlik firması Irregular, Sequoia Capital ve Redpoint Ventures öncülüğünde gerçekleştirilen bir yatırım turunda 80 milyon dolar topladığını açıkladı. Anlaşmaya yakın bir kaynak, bu yatırımın Irregular’ı 450 milyon dolar değerlemeye ulaştırdığını belirtti.
Gelecekteki Tehditleri Önceliklendirmek
Kurucu ortak Dan Lahav, TechCrunch’a yaptığı açıklamada, “Görüşümüz odur ki, yakında pek çok ekonomik faaliyet insan ile yapay zeka etkileşiminden ve yapay zeka ile yapay zeka etkileşiminden kaynaklanacak ve bu durum güvenlik yapısını birçok noktada kıracağıdır,” dedi.
Modellerin Güvenlik Değerlendirmeleri
Daha önce Pattern Labs olarak bilinen Irregular, yapay zeka değerlendirmelerinde önemli bir oyuncudur. Şirketin çalışmaları, Claude 3.7 Sonnet ve OpenAI’nin o3 ve o4-mini modelleri gibi güvenlik değerlendirmelerinde sıkça atıf alınmaktadır. Genel olarak, şirketin modellerin zafiyet tespit yeteneğini puanlamaya yönelik çerçevesi (SOLVE olarak adlandırılan), sektör içerisinde yaygın bir şekilde kullanılmaktadır.
Yeni Tehditlerle Mücadele İçin Hedefler
Irregular, modellerin mevcut riskleri üzerinde önemli çalışmalar yapmış olsa da, daha da iddialı bir hedefle fon topluyor: riskleri ve davranışları henüz ortaya çıkmadan tespit etmek. Şirket, bir model piyasaya sürülmeden önce kapsamlı testler yapmayı sağlayan karmaşık simüle edilmiş ortamlar geliştirmiştir.
Kurucu ortak Omer Nevo, “İçinde hem atakçı hem de defans rolünü üstlenen yapay zekanın yer aldığı karmaşık ağ simülasyonlarımız var,” diyor. “Yeni bir model çıktığında, savunmaların nerelerde geçerli olduğunu ve nerelerde geçerli olmadığını görebiliyoruz.”
Aİ Güvenliği Üzerine Artan Baskı
Yapay zeka sektörü için güvenlik, olan riskler arttıkça yoğun bir şekilde odak noktası haline geldi. Geçen yaz, OpenAI, potansiyel ticari casusluk açısından iç güvenlik önlemlerini gözden geçirdi.
Aynı zamanda, yapay zeka modelleri, yazılım zafiyetlerini bulma konusunda giderek daha yetenekli hale geliyor; bu durum, hem saldırganlar hem de savunucular için ciddi sonuçlar doğuruyor.
Gelecek Hedefleri ve Zorluklar
Irregular’ın kurucuları için, bu bir dizi büyüyen yapay zeka modellerinin yarattığı güvenlik sorunlarının ilki. Lahav, “Sınır laboratuvarının amacı giderek daha sofistike ve yetenekli modeller yaratmaksa, bizim amacımız bu modelleri güvence altına almak.” diyor. “Ama bu, hareketli bir hedef; dolayısıyla gelecekte daha yapacak çok iş var.”