Emma Watson, Suni Zekanın Kurbanı Oldu!

Hemen hemen beta aşamada olan suni zeka destekli deepfake ses oluşturma aracı, daha ilk günlerinde kötüye kullanılmaya başladı. Emma Watson ve Joe Rogan benzer biçimde dünyaca meşhur adların düzmece sesleri ile kabul edilemez cümleler kurduruldu. Geliştirici ekip, teknolojiyi bir kenara bırakıp kötüye kullanıma tedbir almak için çalışmaya başladı.
Yavaş yavaş hayatımızın her alanında varlığını hissettiren suni zeka teknolojisi, daima yararlı işler için kullanılmıyor. Akla gelen her yerde iyiliğin yanında varlığını sürdüren fenalık, suni zekâ teknolojilerinde de aynı durumu koruyor.
Deepfake ile meydana getirilen aldatıcı açıklamalar, zelzele bölgesinde yıkıntı altında Kur’an-ı Kerim bulduktan sonrasında müslüman olduğu söylenen Çinli bir kişinin bulunmuş olduğu düzmece görsele kadar bugüne dek pek oldukça fena amaçlı örnek de gördük. Fakat yeni teknolojilerle bu vakalara yeni örnekler de eklenmeye devam ediyor.
Bu sefer bir ses vakası: ElevenLabs ve düzmece meşhur sesleri skandalı
Suni zekânın kötüye kullanımındaki son örnek ise ElevenLabs’ın pek oldukça potansiyele haiz suni zekâsı idi. Bu suni zekâ, sizin sisteme sunduğunuz bir sesi çözümleme ediyor ve arkasından bu sesi kullanarak istediğiniz cümleleri söyletmenizi sağlıyor.
Fakat hemen hemen tecrübe etme aşamasında olan teknoloji, şimdiden fena amaçlara alet oldu. Bazı 4chan kullanıcıları kısa süre ilkin Emma Watson, Joe Rogan ve Ben Shapiro benzer biçimde adların sesleriyle tartışmalı kayıtları paylaşmıştı. O kayıtlar, nefret söylemleri sebebiyle hiçbir toplumsal medya platformunda paylaşılamıyor.
Paylaşılan seslerde Emma Watson, Adolf Hitler’in kitabını okuyormuş; Joe Biden da fazlasıyla ırkçı ve sertlik içerikli cümleler kuruyormuş benzer biçimde gösteriliyordu. Bu söylemlerin ne kadar gerçekçi olabileceğini daha da somutlaştırmak için, iyi niyetli örneklere göz atabilirsiniz:
https://www.youtube.com/watch?v=17_xLsqny9E
- Leonardo DiCaprio’nun hitabı, sadece değişik adların sesleriyle.
Geliştirici şirket, bu emekler üstüne odağını teknolojiyi geliştirmekten değişik bir noktaya kaydırdı.
ElevenLabs, internette büyük münakaşaya neden olan bu videolar üstüne kötüye kullanımları önlemek için yeni güvenlik özellikleri üstünde çalışacaklarını deklare etti. Ekip, artık teknolojiyi geliştirmenin yanı sıra kötüye kullanımı engellemeye de odaklanmaya başladı.
Peki, bu önlemler iyi mi alınacak?
Şirket, kullanıcılar tarafınca üretilen fena amaçlı içerikleri saptamak için kimlik doğrulama sistemi ekleyeceğini deklare etti. Ek olarak bu vakaya kadar ücretsiz bir şekilde tecrübe etme amacıyla kullanılabilen suni zekâ, artık yalnızca ücretli olarak sunulmaya başladı.
Normal olarak teknolojiyi ücretli ve kimlik doğrumalı hale getirmek, bu amaçların yerine getirilmesinin önüne geçmeyecek. Şirket de aslına bakarsak bunun bilincinde bulunduğunu altını çizdi. Fakat bu sistemler yardımıyla ekip, artık fena amaçlı içerikleri üretenleri tek tek tespit etmenin peşinden koşabilecek.
“Peşinden koşmak” vurgusu burada mühim, ekip artık extra bir işe daha haiz:
ElevenLabs’te yaşanmış olan vakalar, suni zekâ geliştiricileri ve teknolojilerindeki bir problemi da ortaya koydu. Bu teknolojiler her ne kadar iyi amaçla ve yarar sağlamak suretiyle geliştirilse de kötüye kullanım için de bir denetim mekanizmasına haiz olmak zorunda.
Bu mekanizmanın kurulması ve yürütülmesi de bilhassa minik ekiplerde apayrı boyutta iş yüküne yol açıyor, değişen teknolojinin gelişimi yavaşlıyor, aksıyor.
Bunun çözümü ne?
Aslına bakarsak bu durumun bir çözümü yok. Zira fena amaçlı kişiler, her türlü bariyeri aşmak için uğraşmaya devam edecek. Bunun önüne geçilmesinin tek çözümü de ElevenLabs tarafınca alınan önlemler ve benzerleri olacak. Bu da, extra finansman ile bir ekip kurulamadığı sürece teknolojilerin gelişim hızını negatif etkileyecek.


