Donanım

Deepfake Videolarının Büyük Çoğunluğu Pornografik İçerikli

Deepfake teknolojisini son zamanlarda sık sık duymaya başladık. Suni zekâyı kullanılarak değişik kişilerin yüzlerini değişik videolara aktarabilen bu teknoloji olası politik dezenformasyon endişelerini de bununla beraber getirmişti. Sadece gösterilen bir rapora nazaran deepfake’lerin büyük bir çoğunluğu pornografik içerikli videolardan oluşuyor.

Kasım 2017’de “deepfakes” isminde bir Reddit hesabı meşhur Hollywood aktrislerinin yüzlerini porno oyuncularına bir yazılım vasıtasıyla kopyalayarak pornografik videolar paylaşmaya başladı. Ortalama iki yıl sonrasında deepfake, manipüle edilmiş videolar yada suni zekâ yazılımlarıyla oluşturulmuş videolar için jenerik bir isim haline gelmeye başladı. Kanun koyucular, bu hızla gelişen teknolojinin politik dezenformasyon için kullanılacağı mevzusunda endişelense de meydana getirilen çevrimiçi ortamlarda dönen videolar üstünde meydana getirilen yeni bir araştırmaya nazaran çoğunlukla müstehcen videolardan oluşuyor.

Deeptrace adlı girişim Haziran ve Temmuz ayları süresince deepfake videolarının sayımını yapmış oldu. Girişimin bunu yapmasındaki amacı geliştirdikleri tespit aracını haber organizasyonlarına ve çevrimiçi platformlara satmaktı. Girişim, deepfake olarak sunulan 15 bin video bulmayı başardı. Deeptrace’in yapmış olduğu açıklamaya nazaran videoların %96’sı pornografik içerikliydi. Girişim, deepfake videolar yaratmak için kullanılan araçların daha sofistike ve daha geniş alanda kullanılabilir bulunduğunu altını çizdi.

Deeptrace’in raporu, insanların pornografik deepfake’ler paylaşmış olduğu, tartıştığı ve iş birliği yapmış olduğu oldukça niş sadece gelişen bir ekosisteme haiz siteleri ve forumları ortaya koydu. Bunlardan bazıları kişilerin rızaları olmadan yüzlerini pornografik kliplere yerleştiren deepfake videolarına reklâmlar koyan ticari girişimler.

Hedefte hanımefendiler var

**
**

Deeptrace, pornografik kliplere yerleştirilen insanların hepsinin hanım bulunduğunu buldu. Batı dünyasındaki meşhur aktrislerin ve Cenup Koreli pop yıldızları şeklinde popüler figürlerin kullanıldığı videolar milyonlarca izlenmeye ulaşıyor. Ek olarak hanım gazetecilerin ve politik aktivistlerin deepfake ile saldırıya uğrayan insanoğlu olduğu ortaya çıkarıldı. Deeptrace araştırmacısı olan Henry Ajder, eski sevgilileri şeklinde tanıdıkları hanımefendilerin pornografik deepfake videolarında kullanılmasını isteyen kullananların yer almış olduğu deepfake forumlarının bulunduğunu söylemiş oldu.

Boston Üniversitesi’nde hukuk profesörü olan Danielle Citron, bireylerin rızaları olmadan meydana getirilen pornografik deepfake videolarının “cinsel yaşam gizliliğinin ihlâli” bulunduğunu dile getirdi. İstihbarat komitesinde konuşan Citron, pornografik deepfake videolarının çoğunluğunun tarihte daima görüldüğü şeklinde bayanları hedef aldığını dile getirdi. ABD’nin hem cumhuriyetçi hem de demokrat kanadı deepfake’lerin tespiti ve verilebilecek cezalarla ilgili emekler yaptıklarını deklare etti.

Deeptrace’ten Ajder, düzmece kliplerin 2020 seçimlerini mühim seviyede etkileyebileceğine dair endişelerinin bulunduğunu söylemiş oldu. Girişimin raporuna nazaran hızla gelişen teknolojinin farkındalığının artması bunu önleyebilir. Haziran ayında Malezyalı bir politikacı yardımcısı, ülkenin ekonomik ilişkiler bakanıyla cinsel ilişkiye girdiğini gösteren bir video sebebiyle tutuklanmıştı. Eşcinsel birlikteliğin yasadışı olduğu Malezya’da, ülkenin başbakanı videonun deepfake bulunduğunu söylemiş oldu. Bağımsız uzmanlar videonun manipüle edilip edilmediğini belirleyemedi. Ajder, “Deepfake’in inandırıcı reddedilebilirlik sağladığını” söylemiş oldu.

Deepfake Videolarının Büyük Çoğunluğu Yetişkin İçerikli

Deeptrace, analizlerinde manuel arama, web tarama araçları ve veri analizlerinin karışımını kullanarak analizlerini yapıyor. Şirket, bu yöntemlerini büyük porno sitelerindeki deepfake videolarını, YouTube şeklinde ana akım video servislerini ve deepfake özelindeki siteleri ve forumları tarayarak gerçekleştiriyor.

Kullanılan metodoloji kusursuz değil doğal ki. Sanki gerçek videolarmış şeklinde görünen bu videolar, buna karşın her görüntüyü kusursuz bir halde yakalayamıyor yada çevrimiçi ortamdaki her köşeyi tarayamıyor. Suni zekâ laboratuvarı OpenAI yönetimsel yöneticisi Jack Clark, Deeptrace raporunun muhteşem olmasa da deepfake’e dair deneysel kanıtlar toplamak için iyi emek verme bulunduğunu söylüyor.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu