Deepfake Teknolojisi Nedir? Nasıl Çalışır? Tehlikeleri Nelerdir?

0
Advertisement

Deepfake teknolojisi nedir? Özellikle sosyal medyada tehlike sinyalleri veren deepfake teknolojsi nasıl çalışır, ne riski var, karşı teknolojiler neler?

Deepfake, bir kişinin mevcut metni, resmi, videoyu veya sesi basitçe aldığı ve daha sonra başka birine benzemek için gelişmiş yapay zeka (AI) ve sinir ağı (NN) teknolojisini kullandığı, yeni bir medya teknolojisidir.

deepfake

Birkaç yıl önce ilk çıktığında deepfake zararsız bir teknoloji olarak görülürken şimdi kötü niyetli bir iftira silahına dönüştü. Bu makalede, bu korkunç deepfake teknolojisinin tam olarak ne olduğunu, nasıl çalıştığını, hangi farklı formlarda olduğunu ve bir deepfake’yi nasıl tespit edeceğimizi veya yakalayabileceğimizi göreceğiz.

Deepfake nedir?

Deepfakes, mevcut bir görüntü veya videoda yer alan bir kişinin, yapay sinir ağları kullanarak bir başka kişinin görüntüsü ile değiştirildiği bir medya türüdür.

Düşmanınızın ağzından istediğiniz kelimelerin dökülmesini sağlamak mümkün mü? Yoksa kendinizi Michael Jackson gibi dans ettirmek mi istiyorsunuz? O zaman deepfake ihtiyacınız olan şey!

Advertisement

Deepfake içeriği katlanarak büyüyor. Ne yazık ki, deepfake teknolojisi defalarca siyasi avantaj kazanmak, rakibin imajını karalamak veya finansal sahtekarlık yapmak için kullanılmıştır.

Şimdi üç temel derinlik türüne bakalım ve çalışmalarına izin veren veri bilimini inceleyelim. Ayrıca araştırmacıların ve güvenlik danışmanlarının deepfakeslerin kötü niyetli kullanımını engellemek için üzerinde çalıştıkları deepfake algılama teknolojilerine de odaklanacağız.

Deepfake metin

Yapay zekanın (AI) ve doğal dil işlemenin (NLP) ilk günlerinde, bir makinenin resim yapma veya yazı yazma gibi yaratıcı bir etkinlik yapmasının zor olacağı öne sürüldü. 2020’ye gelindiğinde; araştırmacılar ve veri bilimi profesyonellerinin çalışmaları, yıllar boyunca inşa edilen güçlü dil modelleri ile, yapay zeka tarafından üretilen metinlerin artık insanlarınki gibi tutarlılıkla yazılabilmesini sağladı.

GPT-2

Örneğin, Silikon Vadisi’nden araştırma laboratuvarı OpenAI tarafından yayınlanan metin oluşturma sisteminin en son türü olan GPT-2’yi ele alalım. Bu teknoloji, tutarlı metinleri en az bilgi istemiyle çıkarma yeteneği ile alanın uzmanlarını etkiledi.

OpenAI mühendisleri, 8 milyondan fazla metin belgesini GPT-2 AI modellemesi ve eğitimi için bir milyar parametreyle birleştirerek kullandı. Deepfake ve yapay teknolojilerden yararlanan derin öğrenme gibi diğer teknolojilerin özü, yazılımın veri setleri aracılığıyla beslendiği geçmiş verileri kullanarak düşünmesi ve uyarlaması için eğitimde yatmaktadır.

GPT-2’yi kullanarak manşet atabilirsiniz ve deepfake metin algoritması, bu başlığın etrafında hayali bir haber hikayesi oluşturur. Ya da sadece bir şiirin ilk satırını yazın, devamını getirecektir. Birçok medya evi, yazılımın kendileri tarafından yazılan hikayeler veya bloglar oluşturmak için deepfake algoritmaları kullanıyor.

Advertisement

Middlebury Uluslararası Araştırmalar Enstitüsü Terörizm, Aşırılıkçılık ve Terörle Mücadele Merkezi’ndeki (CTEC) araştırmacılar, GPT-2 gibi araçların ırksal üstünlüğü veya radikal mesajları yaymak için kötüye kullanılabileceği konusunda uyarıyor.

deepfake

Sosyal medyada Deepfake

Hikayeler veya bloglar yazarken, deepfake teknolojisi, normal bir kullanıcının fark etmesi zor olan sahte bir çevrimiçi profil oluşturmak için de kullanılabilir. Örneğin, LinkedIn ve Twitter gibi sosyal paylaşım sitelerinde Maisy Kinsley adında bir Bloomberg (var olmayan) bir gazeteci, muhtemelen bir deepfake idi. Profil resmi garip, belki de bilgisayar tarafından oluşturulmuştu. Maisy Kinsley’in profili tekrar tekrar sosyal medyada Tesla hisse senedi satıcıları ile bağlantı kurmaya çalıştığından, profil muhtemelen finansal fayda için oluşturuldu.

Stratejik ve Uluslararası Araştırmalar Merkezi’nde çalıştığı söylenen Katie Jones adında bir başka profilin, casusluk niyeti ile yaratılan bir deepfake olduğu bulundu.

Metinsel Deepfakelerin algılanması

Allen Yapay Zeka Enstitüsü’nden araştırmacılar, çevrimiçi sentetik içeriği tespit etmek için Grover adlı bir yazılım aracı geliştirdiler. Araştırmacılar, bu yazılımın % 92 oranında deepfake-yazılı denemeleri tespit edebildiğini iddia ediyorlar. Grover, açık kaynaklı bir web arşivi ve tarayıcısı olan Common Crawl’dan derlenen bir test kümesinde çalışır. Benzer şekilde, Harvard ve MIT-IBM Watson laboratuvarından bir bilim ekibi, girilen metnin AI tarafından üretilip üretilmediğini ayırt etmeyi amaçlayan bir web aracı olan Dev Dil Modeli Test Odası’nı tasarlamak için bir araya geldi.

Deepfake videosu nasıl üretilir?

Bu video, hileli, üretken çekişmeli ağ (GAN) adı verilen bir teknik kullanır. GAN, sinir ağları adı verilen makine öğrenimi dalının bir parçasıdır. Bu ağlar insan beyninin nöronal süreçlerini taklit etmek için tasarlanmıştır. Programcılar belirli bir görevi tanımak veya değiştirmek için sinir ağlarını eğitebilir.

Deepfake üretimi için kullanılan GAN’da, gerçekçi bir çıktı üretmek için birbirine karşı iki sinir ağı çekilir. Bunu yapmanın amacı, fake yüzlerin mümkün olduğunca gerçek görünmesi için yaratılmasını sağlamaktır. GAN’ın özü, iki sinir ağı arasındaki rekabette yatmaktadır. GAN’da, resim sahtecisi ve sahtecilik dedektörü art arda birbirini alt etmeye çalışıyor. Her iki sinir ağı da aynı veri seti kullanılarak eğitilir.

İlk ağ, işi olabildiğince gerçekçi görünen gürültü vektörleri (rastgele sayılar listesi) kullanarak sahte bir görüntü oluşturmak olan jeneratör olarak adlandırılır. Ayrımcı olarak adlandırılan ikinci ağ, oluşturulan görüntülerin doğruluğunu belirler. Hangi görüntülerin gerçek ve hangilerinin sahte olduğunu belirlemek için jeneratör tarafından oluşturulan sahte görüntüyü veri kümesindeki orijinal görüntülerle karşılaştırır. Bu sonuçlara dayanarak, jeneratör görüntü üretme parametresini değiştirir. Bu döngü, diskriminatör, oluşturulan bir görüntünün sahte olduğunu tespit edene kadar devam eder, bu da daha sonra nihai çıktıda kullanılır. Bu yüzden deepfakes çok ürkütücü şekilde gerçek görünüyor.

Deepfake videolarını algılama

Dünyanın dört bir yanındaki adli tıp uzmanları, her geçen gün daha ikna edici hale geldiklerinden, deepfakesleri tanımlamak için yollar ve araçlar bulmakta zorlanıyorlar.

Örneğin, 2018’de Buzzfeed tarafından yayınlanan ve dünya çapında izleyicileri aptallaştıran Obama’nın bu deepfake gösteri tanıtım videosunu düşünün. Buradan kontrol edebilirsiniz:

Advertisement

Makine öğrenimi araçları kitlelere ulaştıkça, propaganda güdümlü haberleri yaymak veya sadece hedeflenen bir kişiyi taciz etmek için kullanılabilecek ikna edici sahte videolar oluşturmak çok daha kolay hale geldi.

ABD Savunma Bakanlığı (DARPA), Medya Adli Tıp adlı deepfakeleri tespit etmek için bir araç yayınladı. Başlangıçta, program mevcut adli araçları otomatikleştirmek için geliştirildi, ancak deepfakeler yükselişi ile AI kullanan deepfake’e karşı AI kullandılar.

New York Eyalet Üniversitesi bilgisayar bilimi bölümünden profesör olan Siwei Lyu, deepfake teknolojisi kullanılarak yaratılan yüzlerin nadiren göz kırptığını kaydetti. Olsalar bile, doğal görünmüyor. Bunun sebebi, deepfake güdümlü videoların çoğunun durağan görüntüler kullanılarak eğitilmesinden kaynaklanıyor. Yine de, bir kişinin fotoğrafları genellikle gözleri açıkken çekilir. Göz kırpmanın yanı sıra, yüz hareketleriyle ilgili, konuşma sırasında üst dudağı kaldırdıklarında, kafalarını nasıl salladıkları vb. diğer veri noktaları da akışlı videonun sahte olup olmadığı hakkında ipuçları sağlayabilir.

Deepfake Ses

Yapay zekanın ve sinir ağlarının gücü sadece metin, resim ve video ile sınırlı değildir. Bir kişinin sesini aynı kolaylıkla klonlayabilirler. Gereken tek şey, sesi taklit edilmesi gereken bir kişinin ses kaydının bir veri setidir. Deepfake algoritmaları bu veri kümesinden öğrenecek ve hedeflenen bir kişinin konuşmasını geliştirecek şekilde güçlendirilecektir.

Lyrebird ve Deep Voice gibi ticari yazılımlar piyasaya sürülüyor, burada AI sesinize ve tonlamaya alışmadan önce sadece birkaç cümle konuşmanız gerekiyor. Daha fazla sesle besledikçe, bu yazılım sesinizi klonlayacak kadar güçlü hale gelir. Kendi ses örneklerinizin veri kümesini besledikten sonra, sadece bir cümle veya bir paragraf verebilirsiniz ve bu deepfake yazılımı metni sesinizle anlatacaktır!

Deepfake sesi algılama

Şu anda, çok sayıda özel deepfake ses aracı yok, ancak geliştiriciler ve siber güvenlik şirketleri bu alanda daha iyi koruyucu çözümler bulmak için çalışıyor.

Örneğin, geçen yıl, teknoloji başlangıcı Resemble’daki geliştiriciler, deepfake ses kliplerinin tespiti için Resemblyzer adlı açık kaynaklı bir araç geliştirdiler. Resemblyzer, gerçek veya sahte olduklarını tahmin etmek için ses örneklerinin hesaplama temsillerini türetmek için gelişmiş makine öğrenme algoritmaları kullanır. Bir kullanıcı değerlendirme için bir ses dosyası gönderdiğinde, gönderilen ses örneğinin benzersiz özelliklerini özetleyen bir matematiksel gösterim oluşturur. Bu dönüşüm sayesinde, makinenin sesin gerçek veya yapay olarak deepfake araçları tarafından üretilip üretilmediğini algılaması mümkün hale gelir.

Deepfake’in Geleceği

Geçen yıl Deeptrace laboratuarları tarafından yapılan bir araştırma, 14.000’den fazla deepfake videosunun çevrimiçi olarak gizlendiğini buldu. Ayrıca, üretimlerinde sadece yedi aylık bir sürede % 84’lük bir sıçrama kaydetti. İlginç bir şekilde, deepfake videolarının % 90’ından fazlası ünlü kadınların pornoda takas edildiği pornografik malzemedir.

Deepfake ciddi bir artış kazanırken, sadece mahremiyete değil, aynı zamanda bireylerin saygınlığında da ciddi bir sorun yaratıyor. İronik olarak, yapay zeka ile çalışan deepfakeslere karşı, yapay zekanın kendisi kullanılıyor. ‘İyi’ bir yapay zeka sahteliklerin tanımlanmasına yardımcı olsa da, bu algılama sistemi eğitim için tükettiği veri kümesine dayanmaktadır. Bu, ünlülerin deepfake videolarını tespit etmek için iyi çalışabilecekleri anlamına gelir, çünkü onlar hakkında çok miktarda veri mevcuttur. Ancak düşük profili olan bir kişinin sahteliğini tespit etmek, bu tür algılama sistemleri için zor olacaktır.

Sosyal medya teknoloji devleri de deepfake tespit sistemleri üzerinde çalışıyor. Facebook geçtiğimiz günlerde platformundaki deepfake içeriğini tanımlamak ve ayıklamak için otomatik bir sistem üzerinde çalıştığını duyurdu. Benzer hatlarda Twitter, sahteleri işaretlemeyi ve kışkırtıcı oldukları tespit edilirse ortadan kaldırmayı önerdi.

Her ne kadar bu teknoloji şirketlerinin çabalarını kabul etsek ve takdir etsek de, kötü amaçlı deepfakeleri uzak tutmada ne kadar başarılı olduklarını sadece zaman gösterecek!

Advertisement


Leave A Reply