Suni Zekâları Saldırılardan Iyi mi Koruyabiliriz?

Görünüşe gore suni zekâların fotoğraf tanıma sistemini kandırmak oldukça kolay. Peki, bundan iyi mi kaçınılabilir?
Suni zekâlar öğrenme enerjisini, verilerindeki şemaları tanımlamasına yarayan kabiliyetinden alır. Bir sinir ağına on binlerce sınıflandırılmış hayvan fotoğrafları yüklerseniz, suni zekâ onun panda mı yada maymun mu bulunduğunu idrak etmek için belirli şemaları öğrenir. Bu şemalarla da daha ilkin asla görmediği bir hayvanı tanımlayabiliyor.
Sadece suni zekâlardaki öğrenme gücü şu an için birazcık kırılgan. Fotoğraf tanımlama sistemi, daha derin bir ‘gördüğünü anlama’ sistemi yerine px şemalarını kullandığı için resimde küçücük oynamalar yaparak sistemi kandırmak oldukça kolay bir hale geliyor. Örnek verecek olursak bir panda fotoğrafına birazcık gürültü eklerseniz sistem onu maymun olarak tanımlayabiliyor ve bundan %100 güvenli bulunduğunu belirtiyor.
Geçtiğimiz hafta suni zekâ araştırma konferansı ICLR’da sunulan bir belgede, siber saldırıların kaçınılamaz olduğu söyleniyordu. Yanlış sınıflandırmayı tetikleyen rastgele gürültüler, aslen görüntü sisteminin belirli nesnelerle kuvvetli bir halde ilişkilendirmeyi öğrendiğini gösteriyor. Bir başka deyişle, bizim panda gördüğümüz yerde sistem maymun görmüş olduğu vakit aslen yanlış bir davranış sergilememiş oluyor.
Araştırmacılar iki tür bağıntı bulunduğunu keşfetti: Bir kedi görüntüsündeki bıyıklar yada panda görüntüsündeki kürk renkleri benzer biçimde verinin manasıyla bağıntı kuran şemalar ve bir tek suni zekânın tahsil sürecinde ona verilen veriler. Bu ikinci bağıntı şu an için daha yaygın durumda. Suni zekânın öğreniminin zayıf olması sebebiyle içine sızmak kolaylaşıyor.
Bu da bizlere eğer siber hücum riskini azaltmak istiyorsak, suni zekâ eğitim modelini değiştirmemiz icap ettiğini gösteriyor. Şu an için, resimlerdeki objeleri tanımlamak için sinir ağının lüzumlu bağıntıları seçmesine izin veriliyor. Sadece bunun sonucunda kurulan bağıntılar üstünde denetim elde edilemiyor. Bunun yerine suni zekâları bir tek gerçek nesneleri bağdaştırması için kendimiz eğitirsek, zarar görme olasılığı düşebilir.
Araştırmacılar bu yöntemi denediklerinde, sistemin yalnızca %50 oranında yanıltılabildiğini gördüler, diğer türlü bu oran %95’te idi. Başka bir deyişle, siber saldırılar kaçınılmaz durumda sadece onları olabildiğince azaltmak için elimizden geleni yapmalıyız, zira yavaş yavaş suni zekâ devrimine doğru yaklaşıyoruz.


