Deepfake'lere karşı mücadele, onlarla nasıl savaşabiliriz

Deepfake'lere karşı mücadele, onlarla nasıl savaşabiliriz

Dijital çağın ortasında, sahte haberlerle ilgili endişeler kamu kuruluşlarının, medyanın ve her türden şahsiyetin dikkatini giderek daha fazla meşgul etti. Sahte Haber, boşuna değil , 2016'da Amerika Birleşik Devletleri'nin başkanlık seçimleri, İngiltere'nin Avrupa Birliği'nden çıkışına ilişkin referandum veya Bolsonaro'ya zafer kazandıran Brezilya generalleri gibi önemli seçim süreçlerinde bir miktar ağırlık kazandı.

O kadar ileri gitmeye gerek kalmadan, Facebook son zamanlarda, 30 sayfa, grup ve mükerrer hesaplar aracılığıyla bir buçuk milyondan fazla takipçi ve 7 milyondan fazla etkileşim biriktiren üç büyük aşırı sağ ağı kapatmak zorunda kaldı . Bu gruplar aldatmacalar ve yanlış görüntüler yaymaya adanmıştı.

Ancak şimdi yeni baş ağrıları üreten başka bir tür dijital tehditle karşı karşıyayız. “Derin Öğrenme”  ve “Sahte” nin birleşiminden ortaya çıkan sözde Deepfake'den bahsediyoruz . Temel olarak,  herhangi bir kullanıcının sahte videolarını ve gerçek görünen insanların seslerini düzenlemesine izin veren bir yapay zeka biçimidir . Bunun için  , zaten var olan diğer kümelerden yeni veri türleri oluşturabilen bir tür algoritma olan antagonistik üretici ağlar (AGR'ler) kullanılır .

Kısacası, "deepfake" bir başka dijital manipülasyon biçimidir ve en iyi durumda "trolleme" için en çok kullanılanlardan biridir. Ama onları nasıl tespit edebiliriz? Ve her şeyden önce, feci sonuçlarını önlemek için özel kurumlar ve şirketler tarafından neler yapılıyor? Bu özel etkinlikte, bu yeni dijital belayı durdurmak için yürütülen çabaları gözden geçireceğiz.

Deepfake'ler neden bu kadar tehlikelidir?

"Deepfake" teknolojisi, bir tür maske ya da dijital bir maske gibi, bir kişinin yüzünü diğerinin yüzüyle kolayca değiştirmemize olanak tanıyarak , onun hiç gerçekleşmemiş bazı şeyleri söylediğine inanmamızı sağlar  . Tahmin edebileceğiniz gibi, bu tekniklerin internette dolaşan bilgilerin meşruiyetini belirlemek için bir dizi oldukça önemli çıkarımları vardır.

Genellikle komik videolar oluşturmak için kullanılsalar da gerçek şu ki, "derin sahteler" bir kişinin kamusal imajını yok etme veya dezenformasyon yoluyla kamuoyunu etkileme potansiyeline sahiptir . Ne yazık ki size bu kötüye kullanımın istediğimizden daha yaygın olduğunu söylemeliyiz ve muazzam bir başarıyla eklemeliyiz.

Açık bir örnek, kıyafetli bir kişinin görüntüsünü yüklemenize ve aynı çıplak kişiden yeni bir tane oluşturmanıza  olanak tanıyan DeepNude uygulamasındadır . Neyse ki, zaten kapalıdır, ancak algoritmanın kendisi tüm işi yaptığı için düzenleme bilgisine ihtiyaç duyulmayan bu tür araçların kullanım kolaylığını vurgulamalıyız.

derin çıplaklık

DeepNude söz konusu olduğunda, platform inanılmaz derecede gerçekçi sonuçlar sundu ve Windows ve Linux web sitesi aracılığıyla tamamen erişilebilirdi . Ve beklendiği gibi, Katy Perry veya Gal Gadot gibi ünlülerle yapılan montajların ağda görünmesi uzun sürmedi, o kadar ki bu aktrislerin avukatlarından gelen baskı, önemli yetişkin içerikli web siteleri videoları kaldırana kadar durmadı. .

Bu, bu tür uygulamaların sahip olabileceği taşıma kapasitesinin buzdağının sadece görünen kısmıdır . Şimdi, bir ülke veya bölgedeki bir seçim sürecini manipüle etmek için belirli bir siyasi figüre yönelik bu tür bir kampanyanın sonuçlarını hayal edin. Kötülük sınır tanımaz.

derin sahte

Deepfake'ler nasıl savaşır?

İlk konuşan şirketlerden biri, derin sahtekarlıkla mücadele etme kararlılığını açıklayan Google'dan başkası değildi ve bu durumlarda dedikleri gibi, yangın yangını söndürür. Teknoloji devi, özellikle araştırmacıların algılama araçlarını iyileştirmeye yardımcı olmak için oluşturulmuş yapay zeka (deepfake) ile manipüle edilmiş 3.000'e kadar videodan oluşan eksiksiz bir veri tabanının piyasaya sürüldüğünü doğruladı .

Bunu yapmak için Google, yüzlerini kaydetmeleri ve bir videonun yapay olarak değiştirilip değiştirilmediğini belirlemek için referans noktası olarak kullanmaları için gerçek oyuncular kiraladı . Herkesin kullanabildiği derin sahte oluşturma yöntemlerini kullanarak, bu kayıtlardan binlerce derin sahte oluşturulur.

Ortaya çıkan gerçek ve sahte videolar, araştırmacıların sistemin ne ürettiğini tam olarak anlamaları için işbirlikçi geliştirme platformu GitHub'a yüklenir. Bu veritabanı, dediğimiz gibi, tamamen erişilebilir, ancak önce size izin vermeleri gerekecek .

Facebook da bu yılın sonuna kadar benzer bir veritabanı oluşturmayı planlıyor. CEO'su Mark Zuckerberg'e göre asıl sorun,  endüstrinin bunları tespit etmek için standartlaştırılmış bir sisteme sahip olmaması . Bu nedenle Deepfake Detection Challenge'ı oluşturmak için AI, Microsoft Derneği ve Cornell Tech, MIT, Oxford, UC Berkeley, Maryland Üniversitesi, College Park ve Albany-SUNY Üniversitesi'nden akademisyenler ile işbirliği yaptı. (İngilizce kısaltması için DFDC).

Bu makro proje, mümkün olduğunca çok sayıda işbirlikçiyi teşvik etmek için mali yardım ve bağışlara ek olarak kapsamlı bir veri tabanı ve ayrıntılı bir sınıflandırma içerecektir . Fikir, bir yapay zeka aracılığıyla manipüle edilmiş videoları tespit etmeye ve bunlardan kaçınmaya yardımcı olan bir tür topluluk oluşturmaktır.

Hiç şüphe yok ki, "derin sahtekarlıklar" ın yaygınlaşması, göz ardı edilemeyecek ciddi sonuçları olan çok ciddi bir sorun haline geldi. Bu amaca bağlı ana ajanlar tarafından önerilen tedbirler uzun vadede uygulanamaz, hatta ters etki gibi görünse de, bu suçu ortadan kaldırmanın tek yolu olabilirler. Çelişkili görünse de, "deepfake" ile daha fazla "deepfake" ile mücadele etmek, algılama araçlarının bu tür montajları daha kolay bulmalarına yardımcı olmak için daha fazla veriyi emmelerine yardımcı olacaktır .