Feysbuk Suni Zeka Şefi, GPT-3’ü Topa Tuttu

Dil temelli suni zeka GPT-3 oldukça başarı göstermiş bir suni zeka örneği olarak gösterilse de suni zeka alanının önde gelen bir ismine gore o denli da iyi değil. Dahası, insanoğlu ondan olmadığı bir şey benzer biçimde davranmasını bekliyor.
Pek oldukca şahıs suni zekanın bilim kurgu eserlerinde bulunan ve canı sıkıldığında dünyayı ele falan geçiren sanal formlar bulunduğunu düşünse de gerçek oldukca daha farklıdır. Hollywood eserlerini geçtiğimizde suni zekanın hali hazırda hayatımızın her alanında yer aldığını görüyoruz.
Akıllı telefonlarımızın çekmiş olduğu fotoğrafları otomatik düzeltmeden milyonlarca dolarlık reklam kampanyalarını yönetmeye pek oldukca alanda suni zekalar arka planda bizlere eşlik etmeye devam ediyor. Bu suni zekalardan biri ise GPT–3
Haber yazmak haber okumaya benzemiyor
GPT-3, OpenAI tarafınca geliştirilen bir dil işleme suni zeka algoritması olarak biliniyor. Bu suni zeka daha ilkin bir gazete için yazı de yazmıştı. Gene de bu suni zekanın düşünüldüğü kadar iyi olmayabileceğini savunanlar var.
Feysbuk’un Baş Suni Zeka Şefi Yann LeCun, pek oldukca şahıs tarafınca “Suni zekanın içsel babası” olarak adlandırılıyor. LeCun, salı günü paylaşmış olduğu bir Feysbuk gönderisinde algoritmayı adeta topa tuttu. Gönderide “İnsanlar GPT-3 benzer biçimde büyük ölçekli dil modellerinin yapabilecekleri hakkında gerçekçi olmayan beklentiler içinde” ifadesini kullandı.
LeCun gönderisinde kısa sürede tıp alanında etkinlik gösteren suni zeka şirketi NABLA’nın çalışmalarında GPT-3’ün sıhhat alanında kullanımının fazla yanlış sonuçlar verdiğine dair emek harcamadan da alıntılar yapmış oldu. Suni zeka bilimci, meydana getirilen emekleri yüksek irtifa uçakları ile Ay’a gitmeye çalışmaya benzetti.
Tıp alanında istenilen sonucu elde edemedi

Çeşitli senaryoları kontrol eden NABLA, GPT-3’ün cümleler oluşturmakla cümlelerdeki anlamı ve hakikaten kullanışlı olması içinde fark bulunduğunu belirtmişti. Suni zeka cümle kurabilse de kurulan cümleleri anlamakta aynı başarıya haiz değil.
Bir vakada algoritma kullanılan ekipmanların fiyatlarını faturaya yansıtmayı atladı. Daha da tehlikeli olan bir versiyonda ise algoritma bir hastaya gerçek anlamda kendini öldürmesi tavsiyesinde bulunmuş oldu. LeCun, GPT-3’ün bir yanıt sistemi olarak pek de iyi olmadığını söylemiş oldu.



