SON DAKİKA

TV & Medya

Deepfake videoları şaşırtıcı bir şekilde gelişiyor.

ByteDance’in Yeni Yapay Zeka Sistemi: OmniHuman-1

ByteDance, TikTok’un sahibi olarak, daha önce görülmemiş bir düzeyde gerçekçi derin sahte videolar oluşturabilen yeni bir yapay zeka sistemi geliştirdi. Bu sistemin adı OmniHuman-1. Derin sahtecilik uygulamaları son derece yaygınken, bu teknolojinin gerçekçilikte ulaştığı yeni seviyeyi anlamak önemli. Genelde derin sahte videolar, “uncanny valley” olarak bilinen bir grafiksel hatayı aşmakta zorlanıyor ve çoğu zaman izleyicide bir şüphe uyandıracak belirgin işaretler bırakıyor.

OmniHuman-1’in Yetenekleri

Ancak OmniHuman-1, ByteDance’in sunduğu örneklerde görüldüğü üzere, bu sınırı aşabilir. Tek bir referans resmi ve ses kaydı ile, istenilen uzunlukta bir video oluşturabiliyor. Üretilen videoların görüntü oranı ve sahnedeki kişilerin “vücut oranı” gibi özellikleri ayarlanabiliyor.

19,000 saatlik video verisi üzerinden eğitilen bu sistem, mevcut videoları düzenleyebilmekte ve hatta bir kişinin uzuv hareketlerini değiştirebilmektedir. Çeşitli örneklerde görüldüğü üzere, sonuçlar son derece inandırıcı.

Elle Tutan Dikkat Edilmesi Gerekenler

Ancak OmniHuman-1’in de kusurları bulunuyor. Oyuncuların düşük kaliteli referans resimlerinden elde edilen videolar beklenen kalitede olmuyor ve bazı pozlarda zorluklar yaşanıyor. Örneğin, bir videodaki şarap kadehinin garip hareketleri bunun bir göstergesi.

Yine de, OmniHuman-1, önceki derin sahte kalitelerinin çok üzerinde bir performans sergiliyor ve bu, gelecekte nasıl bir etki yaratabileceğinin bir işareti olabilir. ByteDance bu sistemi henüz yayımlamasa da, AI topluluğu genellikle bu tür modelleri tersine mühendislik ile kısa sürede analiz edebiliyor.

Derin Sahtecilik ve Olumsuz Etkileri

Ancak bu gelişmelerin ciddi kaygıları da beraberinde getirdiği açık. Geçtiğimiz yıl, siyasal derin sahte videolar dünyanın dört bir yanına hızla yayıldı. Örneğin, Tayvan’daki seçim gününde, Çin Komünist Partisi‘ne bağlı bir grup, bir politikacının pro-China bir adayı desteklediği yönünde yanıltıcı AI üretilmiş ses kayıtları paylaştı. Ayrıca, Moldova’da başkanın istifa ettiğini gösteren derin sahte videolar dolaşıma girdi.

Finansal dolandırıcılık olaylarında da derin sahtecilikten faydalanıldığı görülmekte. Tüketiciler, dolandırıcılık amacıyla oluşturulmuş ünlü kişilerin derin sahte videoları ile kandırılıyor. Deloitte’a göre, sadece 2023 yılında AI kaynaklı içerikler dolayısıyla 12 milyar dolardan fazla dolandırıcılık kaybı yaşandı ve bu rakamın 2027’de Amerika’da 40 milyar dolara ulaşabileceği öngörülüyor.

Yasal Düzenlemelerin Gerekliliği

Geçen yıl, AI topluluğundan birçok kişi, derin sahtecilik üzerine sıkı düzenlemeler talep eden bir açık mektubu imzaladı. ABD’de, federal düzeyde derin sahtecilik yasalarına dair bir boşluk var; buna rağmen ondan fazla eyalet AI destekli sahtecilik karşıtı yasalar kabul etti. Kaliforniya’nın yasası, derin sahte videoları paylaşanların içerikleri kaldırmalarını yasal olarak zorlayabilecek ilk yasa olma özelliğini taşıyor.

Ne yazık ki, derin sahteciliklerin tespit edilmesi de oldukça zor. Bazı sosyal medya platformları ve arama motorları, bu içeriklerin yayılmasını kısıtlamak için adımlar atmış olsa da, çevrimiçi derin sahte içeriklerin sayısı hızla artmaya devam etmekte.

Yapılan bir ankette, katılımcıların %60’ı son bir yıl içinde derin sahte bir içerikle karşılaştığını belirtti. Ankete katılanların %72’si ise derin sahte içeriklerle gün içerisinde karşılaşma endişesi taşıdığını ifade etti. Çoğunluk, AI kaynaklı sahte içeriklerin yaygınlaşmasını önleyecek yasaların gerekliliğine destek vermekte.

Düşüncenizi Paylaşın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

İlgili Teknoloji Haberleri