Suni Zekâ İnsanları Iyi mi Kandıracağını Çoktan Öğrenmiş

Yeni bir araştırma, suni zekâ modellerinin insanları iyi mi kandırabileceğini de öğrendiğini ortaya koydu.
Suni zekâ son yılların en popüler teknolojilerinden biri ve pek oldukca uzmana bakılırsa de webin icadından sonraki en en mühim teknolojik atılımlardan biri. Günümüzde üretken suni zekâlar görseller oluşturmada, kod yazmada, verileri çözümleme etmede ve pek oldukca başka alanda kullanımımıza açık. Suni zekânın becerileri arasına bizi kandırabilmek de eklenmiş şeklinde gözüküyor.
Yeni bir emek verme, bazı suni zekâ sistemlerinin “hakikaten başka bir sonucu elde etmek için başkalarında yanlış inanışlar oluşturabildiğini” ortaya koydu ki başkalarında yanlış inanışlar meydana getirmeye hepimiz kandırmaca ya da aldatmaca diyoruz. Bu suni zekâ modelleri içinde yer edinen Meta’nın Çiçero modeli ise “yalan uzmanı” çıktı.
Kandırmak daha kolay geliyor
Aslen suni zekâ sistemleri insanlara karşı dürüst olmaları amacıyla geliştiriliyor. Öte taraftan insanları kandırmaya yönelik numaraları ise suni zekâ modelleri kullanılan eğitim materyallerinden öğreniyorlar. Sonrasında da “insanları kandırmak onları ikna etmekten daha kolay olduğundan” bu yolu seçiyorlar.
Araştırmanın baş yazarı olan Peter S. Park, “Genel olarak, suni zekâ kandırmacalarının arttığını düşünüyoruz zira suni zekâların verilen görevi gerçekleştirmeleri için en iyi yol olduğu belli oldu. Kandırmaca onların amaçlarına ulaşmalarına destek oluyor.” ifadesini kullandı.
Araştırma iki bölümde yapılmış oldu. Bunlardan birinde ChatGPT şeklinde genel amaçlı, birinde ise Meta’nın CİCERO suni zekâ modeli şeklinde hususi amaçlı suni zekâ modelleri incelendi. CİCERO, Diplomacy adlı oyunda yalanları, entrikaları ve öteki oyunculara ihanet edebilmesiyle dikkat çekti. GPT-4 ise CAPTCHA testini geçebilmek için “görme bozukluğu olduğu” yalanını söylemiş oldu.
Araştırmacılar, kanun yapıcıları “aldatıcı suni zekâ modellerine karşı daha sıkı denetim gerçekleştirmeye” çağırdı. Araştırma Patterns‘de yayımlandı.


