SON DAKİKA

SEO ve Arama

Google, Yüksek Riskli Alanlarda AI Kullanımında İnsan Denetimi Şartı Getirdi

“`html

Google’dan Yeni AI Düzenlemeleri

Google, müşterilerinin jeneratif AI araçlarını “yüksek risk” alanlarında, örneğin sağlık hizmetlerinde, “otomatik kararlar” almak için kullanabileceklerini belirtmek üzere şartlarını değiştirdi; bununla birlikte bir insan denetiminin bulunması gerektiğini vurguladı.

Açıklanan Yeni Politikalar

Şirketin güncellenmiş Jeneratif AI Yasaklı Kullanım Politikası, Salı günü yayınlandı. Buna göre, müşteriler Google’ın jeneratif AI sistemini, “bireysel haklar üzerinde maddi olumsuz etki yaratabilecek” “otomatik kararlar” almak için kullanabiliyor. Ancak bu süreçte bir insanın denetimi şart. Müşteriler, istihdam, konut, sigorta, sosyal yardım ve diğer “yüksek risk” alanlarındaki kararlar üzerinde Google’ın AI sistemini kullanabilir.

Otomatik Kararların Önemi

Yapay zeka ile verilen otomatik kararlar, hem gerçek hem de türetilmiş verilere dayanarak alınan kararlardır. Örneğin, bir kredi başvurusunu onaylamak veya bir iş adayı ile ilgili bir değerlendirme yapmak gibi otomatik kararlar verilebilir.

Daha önceki taslak politikasında Google, yüksek riskli otomatik karar verme işlemlerinde jeneratif AI kullanımına dair sınırlamalar getiriyordu. Ancak Google, TechCrunch’a yaptığı açıklamada, müşterilerin her zaman yüksek risk uygulamalarında bile otomatik karar verme işlemleri için AI kullanabileceklerini, yeter ki bir insan denetimi olsun, ifade etti.

Google sözcüsü, “İnsan denetimi gerekliliği, politikamızda her zaman mevcuttu” dedi. “Bunu daha açık bir şekilde ifade etmek amacıyla bazı maddeleri yeniden düzenliyoruz ve bazı örnekleri daha belirgin hale getiriyoruz.”

Rekabet ve Farklı Yaklaşımlar

Google’ın en büyük AI rakiplerinden olan OpenAI ve Anthropic, yüksek riskli otomatik karar verme konusunda daha katı kurallara sahiptir. Örneğin, OpenAI, kullandığı sistemlerin kredi, istihdam, konut, eğitim, sosyal puanlama ve sigorta ile ilgili otomatik kararlar için kullanılmasını yasaklarken; Anthropic, AI sisteminin hukuk, sigorta, sağlık hizmetleri gibi yüksek riskli alanlar için kullanılmasına izin vermektedir, ancak bunu yalnızca “nitelikli bir profesyonel” denetiminde şart koşar ve müşterilerin bu amacı kullanıyor olduklarını bildirmelerini talep eder.

Bireyleri etkileyen otomatik kararlar, regülatörler tarafından yakından takip edilmektedir. Bu teknolojinin sonuçları önyargılı hale getirme potansiyeli hakkında endişeler dile getirilmektedir. Örneğin, yapılan çalışmalar, otomatik karar verme süreçlerinde kullanılan AI sistemlerinin, geçmişteki ayrımcılığı devam ettirebileceğini göstermektedir.

İnsan Hakları ve Düzenleyici Yaklaşımlar

İnsan Hakları İzleme Örgütü, özellikle “sosyal puanlama” sistemlerinin yasaklanması çağrısında bulundu. Bu tür sistemlerin, bireylerin sosyal yardımlara erişimini tehdit ettiği, gizliliklerini zedelediği ve önyargılı şekilde profilleme yapılabileceği belirtildi.

Avrupa Birliği’nde, AI Yasası gereğince, yüksek risk taşıyan AI sistemleri, bireysel kredi ve istihdam kararları gibi konularda en yüksek denetim altında tutulmaktadır. Bu sistemleri sağlayan firmalar, bir veritabanında kayıtlı olmalı, kalite ve risk yönetimi uygulamalı, insan denetimi sağlamalı ve ilgili makamlara olayları rapor etmelidir.

Amerika Birleşik Devletleri’nde, Colorado, yüksek riskli AI sistemleri hakkında bilgi açıklamasını zorunlu kılan bir yasa çıkardı ve sistemlerin yetenekleri ile kısıtlamalarını özetleyen raporlar yayınlamalarını talep etti. New York Şehri ise, işverenlerin bir aday için istihdam kararları almak üzere otomatik araçları kullanmalarını yasakladı; bu araçların, bir önceki yıl içinde bir önyargı denetimine tabi tutulmuş olması gerekiyor.

TechCrunch, AI odaklı bir bülten yayınlıyor! Her Çarşamba, kutunuza ulaşması için buraya üye olun.

“`

Düşüncenizi Paylaşın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

İlgili Teknoloji Haberleri