Bilim & Teknoloji

Gör de İnanma: Fotomontajın Abisi Deepfake Nedir?


Uğur İşçeviren 4 Ağustos 11:22

Dost sohbetleri sırasında duyduğunuz inanması güç olaylara ne dersiniz? Mesela en yakın arkadaşınız, Fatih Terim'in "şampiyon Fenerbahçe" ya da Ali Koç'un "Galatasaray Türkiye'nin en büyük kulübüdür." dediğini söylese... Peki Kılıçdaroğlu'nun, rabia yapıp Erdoğan'a "reis" dediğini duysanız tepkiniz ne olur? "Görmeden inanmam!" Üzgünüm artık görseniz de inanmayın. İnanmamalısınız. Duy da inanma derler ya hani. Siz görseniz de inanmayın. Çünkü gördüğünüzü sandığınız şey aslında deepfake olabilir. Tam olarak Türkçe karşılığı henüz yok. Zira Türkiye'de henüz tam yaygın değil. Şimdilik derin sahtecilik diyoruz ama bence doğru isim derin montaj. 21. yüzyılın photoshop şekli...

İlk popüler örneğini bir Ziraat Bankası reklamında İnek Şaban'ımızı izlerken gördüğümüz için masum gözükse de işin aslı öyle değil. Gerçi dünyada da ilk karşılaştığımız sektör film sektörü ama biraz farklı. Porno!.. 2019 yılında yapılan bir araştırmaya göre yaklaşık 15.000 sahte video vardı. Bu rakam bir senede iki katına çıktı ve %96'sı porno/intikam videosu içerikli idi. Özellikle ünlülerin (Gal Gadot, Taylor Swift, Scarlett Johansson ve diğerleri) pornografik içerikleri ile dolu olan videolar internete düştü. Bu videoları ilk yayınlayan kişi bir Reddit kullanıcısı... Sene 2017... O zamanlar için gerçekten yüksek teknoloji ürünü bilgisayar sistemleri gerekse de şimdi basit sistemler ve kısıtlı bilgi yeterli. En azından düşük kalite videolar için... Yani özellikle kadınlar için, intikam ve şantaj aracı olması sebebiyle masum değil deepfake. Hatta kadınlara karşı bir silah.

Deepfake bir manipülasyon aracı

Kadınlar dışında bu teknolojinin rahatsız edici olduğu bir alan da siyaset. Hele ki ülkemizde... Sonuçta meşhur bir ismin resminin altına, onun ağzından çıkmış gibi bir ifade paylaşmanız bile sosyal linç yemesi için yeterli. Bir de videosu olduğunu düşünün. Cem Yılmaz'a selam olsun; adamın uçak aldığını -kalkış yapan THY uçağı görüntüleriyle- yıllarca haberlerden izledik. Kendisi de öyle... Cem Yılmaz için şaka olsa da siyasette bu tip bir şakaya yer yok. Düşünsenize kötü amaçlı deepfake bir videonun viral olduğunu. Ülkenin siyasi iklimi zaten kamplaşmak üzerine iken gerilimi kolayca arttırmak mümkün. Yurtdışında da durum farklı değil aslında. Geçtiğimiz yıllarda Trump'ın asla yapmadığı bir konuşmayı sosyal medyadan yayınlayan Belçika Başkanı, işin aslını öğrenince ciddi itibar kaybı yaşadı. Zaten Trump'a karşı itibar kaybeden yegane kişi oldu zavallı. Bu bile deepfake teknolojisinin ne kadar tehlikeli olduğuna işaret.

Dünyada buna sentetik medya deniyor. Gitgide yükselen bu trend, hem kişileri hem de toplumları yönlendirme kabiliyeti açısından ciddi bir kaygıya sebep oluyor. Çünkü insanlar, gerçeği yalandan ayırt edemeyecek. Hatta zamanla buna zahmet etmeyecek. Böylece toplumdaki güven indeksi devamlı istenen seviyede kalacak. Şüphe bir defa yaratıldığında etkisi uzun sürecektir sonuçta. Ancak bu durumu bir de tersten okumak gerek. En azından uzmanlar öyle bir uyarıda bulunuyor. Bir deepfake video tespit edildiğinde işiniz kolaydır. Ancak gitgide zorlaşan bu tespit karmaşası şunu da beraberinde getiriyor. Gerçek gerçekliğin inkar edilip sahte gerçeklik olarak adlandırılması. Yani diyorlar ki suç ya da hata yapan bir kişi, bu teknolojinin varlığını kullanıp şunu iddia edebilir: Görüntüler deepfake! Tespiti gittikçe zorlaşan uzman deepfake videolar, bu açıdan bir kurtarıcı belki de. Yine bakınız Donald Trump... Sonuçta her şey zıttıyla vardır ve deepfake sadece bir iftira değil aynı zamanda bir yalanlama unsuru olarak da kullanılıyor.

Sosyal medya sentetik medyaya karşı

Bunun en kanlı örneği 2018 yılında Gabon'da yaşandı. Medyanın da etkisi ile Gabon Başkanı'nın öldüğüne dair söylentiler ayyuka çıktı. Muhalefete göre hükümet bunu örtbas ediyordu. Bunun üzerine başkan çıkıp hayatta olduğunu beyan ettiği bir video yayınladı ama olmadı. Muhalefet videoyu deepfake ilan edince işler iyice karıştı. Sonunda ordu, darbe ilan etti ve yönetime el koydu. Çok sonraları anlaşıldı ki başkan hayatta! Hikaye çok saçma gelse de ilke kez ölü bir adamı izlemediğimize eminim. Malum 2015 yılında, Hızlı ve Öfkeli 7 filminde Paul Walker'i izledik. İlginç olan şu ki adam ölmüştü. Tam olarak deepfake diyemesek de benzer yöntemler kullanılarak ölmüş adamı dirilttiler filmde.

Bu teknolojiyi kusursuz uygulamak için hem üst düzey/uzman bilgiye hem de güçlü sistemlere ihtiyaç var. Zaten düşük kalite işlerde, kötü dudak senkronu, cilt tonu düzensizliği ya da titreme gibi detaylar fark ediliyor. Yani hem kalite azalıyor hem de süre uzuyor. Ancak yine de özellikle sosyal medyada basit araçlarla insanlar, film yıldızı ya da şarkıcı olabiliyor. Şarkıcı demişken deepfake yalnızca görsel bir sahtecilik değil. Sesinizi de taklit edebiliyor. Bir sesi defalarca işleyen birinci kodlama, sesi derinlemesine öğreniyor ve hedef sese entegre eden ikinci kod ile birleştiriliyor. Aynı videolardaki gibi... Yani bir yüz defalarca ve farklı açılardan işlenip sinir ağı çıkartılıyor. Ardından bu bilgi hedef yüz ile eşleştirilip her açıdan yansıtılıyor. Bu işlem kusursuz olduğunda anlamak gerçekten güç.

Sahte video tespiti için çalışan firmalar (başta Deeptrace olmak üzere Sensity ve Minerva) mevcut. Ayrıca Facebook, Amazon ve Microsoft, bunun için dünya çapında bir deepfake tespit yarışması başlattı. Ödül 500.00$. Keza Twitter ve Facebook, bu videoların yayınlanmasını yasakladı. Şimdilik sadece Instagram'da basit, zararsız eğlence videolarına yer var.

Deepfake iyi teknoloji olur mu?

Meşhur olmayanlar için eğlence aracı olan deepfake, şu an meşhur insanlar için risk barındırıyor. Ama bu uzun sürmeyecek gibi duruyor. Mesela şöyle düşünelim. Sizi sıradan biri arasa ve 1000 TL istese "hayır" demeniz yüksek ihtimal. Peki kardeşiniz Whatsapp üzerinden görüntülü arayıp borç isterse?.. Polis taklidi ile binlerce kişinin dolandırıldığı bir ülkedeyiz. Kardeşler pek doğru yöntem olmayabilir ancak yine de şu kesin ki deepfake dolandırıcılar için de bir fırsat. Üstelik işlerini kolaylaştıran da yine biziz! Nasıl mı? Sosyal hesaplarımız ile... Yani bir ünlüyü derin öğrenmek için internete girip bir sürü görsel içeriğini bulmak kolay. Bu yüzden şimdilik onlar revaçta. Ancak sıradan insanlar da artık sosyal hesaplarında yüzlerce fotoğraf barındırıyor ve bu da onlara siber erişimi kolaylaştırıyor. Gelecekte daha az emek ve daha az veri ile bu işin yapılacağını düşününce anlıyoruz ki durum cidden vahim. Elbette tatil videolarınız çok eğlenceli olabilir ama yazın yediğiniz hurma görüntülerinin kışın deepfake ile tırmalayabileceğini de unutmayın. Bu vesileyle bir belgesel önerisinde de bulunayım. Netflix yapımı olan Sosyal İkilem (2020) ve The Great Hack (2019) isimli belgeselleri izlemelisiniz. İkisi de şunu anlatıyor size: "Bir ürüne para ödemiyorsanız, ürün sizsiniz demektir!"

Deepfake, bir derin öğrenme metodu. Yani yapay zeka... Bu işin şimdilik tek çözümü var ki o da yapay zeka. İronik bir biçimde bu sahteciliği öğrenmenin ve tespit etmesinin tek yolu daha çok sahte videoyu izleyip tespit etmeyi öğrenecek yapay zeka. Bir nevi yapay zeka, yapay zekaya karşı. Ancak her sahte video, tespit için bir veri iken öğrenilen her bilgi de, sahtecilerin o kapıyı kapatması demek. Dolayısıyla bu kısım hem ironik hem de kısır bir döngü.

Sonuç olarak deepfake gelecek adına ciddi bir risk barındırıyor. Her teknolojide olduğu gibi bunda da insanlığın yönelimi şekillendirecek. İyi teknoloji insanlığı kurtarır ama böylesine bir teknoloji toplumları yönlendirmek için kötü amaçla kullanılırsa sonuç yıkıcı olabilir. Sizce deepfakein geleceği nedir?

Bu yazıyı kargala!
0 Yorum