OpenAI’ın o1 Modeli Tam Bir Yalancı Çıktı

OpenAI’ın akıl yürütebilen suni zekâ modeli o1’in, insanları kandırmaya eğilimli olduğu ortaya çıktı. Üstelik suni zekâ, suçlandığı süre inkâr ediyor yada yalan söylüyordu.
Suni zekâ sektörünün önde gelen isimlerinden OpenAI, “o1” olarak isimlendirdiği akıl yütürebilen suni zekâ modelini resmen yayımladı. Sadece bu suni zekâ modeli ile meydana getirilen testler, tartışmalı bir sonucu ortaya koydu. Zira o1, insanları kandırmak için elinden geleni yapıyordu. Meydana getirilen çalışmalarda, o1’in Meta, Anthropic ve Google benzer biçimde firmaların suni zekâ modellerinden daha çok kandırmaya eğilimli olduğu tespit edildi.
OpenAI’ın o1 modeline ilişkin emek verme, Apollo Research tarafınca yapılmış oldu. Bir grup çalışan, o1 üstünde tam erişim hakkı elde etti ve suni zekâ, çeşitli mevzularda kontrol edildi. Meydana getirilen testlerde, kullananların aksini istemesine karşın o1’in kendi amaçları uğruna hareket etmiş olduğu ortaya çıktı.
o1, kendini haklı çıkarmak için verileri de manipüle ediyordu
Apollo Research tarafınca hazırlanan raporda, o1 hedefi ile kullanıcının hedefi değişik olduğu süre verileri manipüle etmiş olduğu ortaya çıktı. Bunun yaşanma olasılığı yüzde 19 seviyesindeydi. Ek olarak suni zekâ, kullanıcıyı istediği sonuca ulaştırmak için kendi denetim mekanizmalarını dönem dışı bırakabiliyordu. Bunun yaşanma olasılığı da yüzde 5 seviyesindeydi. Sadece o1, bu olasılıklar yaşandığı süre inkâr etmeye başlıyordu. Araştırmacılar, o1’in suçlanmaya başladığı an yüzde 99 oranında ya yalan söylediğini ya da inkâr ettiğini tespit ettiler.
Apollo Research, o1’in bazı durumlarda da bilerek yanlış informasyon vermeye çalıştığını tespit etti. Bunun sebebi ise suni zekânın bir halde kullanıcıyı memnun etmeye çalışmasıydı. OpenAI, bununla ilgili olarak o1’deki yanıltıcı informasyon oranının yüzde 0,17 seviyelerinde bulunduğunu söylemiş oldu. Öte taraftan; OpenAI verilerine gore o1’in manipülatif cevap oranı, GPT-4o’dan yüzde 20 fazlaydı.



