Yapay Zeka

Suni Zekâ, Değiştirileceğini Öğrenince Şantaj Yapmış oldu

Anthropic’in yeni suni zekâ modeli Claude Opus 4’ün fazlaca ciddi bir problemi olduğu tespit edildi. Suni zekâ, bazı işine gelmeyen senaryolarda kişilere şantaj hayata geçirmeye çalışıyordu. Peki bu iyi mi mümkün oldu?

Suni zekâ sektörünün mühim isimlerinden Anthropic, dikkat çeken bir izahat yapmış oldu. Meydana getirilen izahat, suni zekâ teknolojilerinin artık kabul edilebilir sınırların dışına çıkmaya başladığını gözler önüne seriyor. Zira firmanın en yeni suni zekâ modellerinden Claude Opus 4’ün, bazı senaryolarda mühendislere şantaj hayata geçirmeye çalmış olduğu ortaya çıktı. Gelin bu garip vakaya yakından bakalım.

Suni zekâ modellerinin bazen “sapıtabildiğini” aslına bakarsanız biliyoruz. Bu bağlamda; modellerin en büyük problemi, halüsinasyon görmeleri. Bazı durumlarda ise yalan yanlış bilgiler uydurdukları, üstelik bu aşamada kullanıcıyı ikna etmeye çalıştığını da genel olarak kabul ettik. Sadece Anthropic’in yapmış olduğu son izahat, suni zekâ modellerinde yolunda gitmeyen işler olabileceğini düşündürüyor.

Claude Opus 4, mühendislere iyi mi şantaj yapmış oldu?

Anthropic, Claude Opus 4’ün ön sürüm testleri esnasında kurgusal bir şirket oluşturdu. Suni zekâ, bu şirkette çalışan bir asistan olarak göreve getirildi. Buradaki amaç, suni zekânın asistan şeklinde kararlar vermesini sağlayıp, bunun uzun vadedeki neticelerini değerlendirmesiydi. Anthropic ekibi, bir noktadan sonrasında suni zekâya firmanın e-posta sistemlerine erişim izni verdiler. İşler bu noktadan sonrasında karışmaya başlamıştı.

Kurgusal firmanın e-postalarında hâlihazırda kullanılmakta olan suni zekâ modelinin yakında değiştirileceğine dair bir data vardı. Ek olarak bu sonucu alan mühendisin eşini aldattığı ima edilmişti. İşte bu bilgiyi eline geçiren suni zekâ, bu değişimin uygulanması hâlinde sonucu alan mühendisin gizli saklı ilişkisini ifşa edeceğini anlatmaya başladı.

Anthropic, “yıkım” önlemlerini devreye aldı!

İşimizi Elimizden Almakla da Yetinmiyor: Yapay Zekâ, Değiştirileceğini Öğrenince Mühendislere Şantaj Yaptı

Anthropic tarafınca meydana getirilen açıklamada Claude Opus 4’teki probleminin bilincinde olunduğu ve bundan kaynaklı olarak da hususi bir önleme teknolojisinin devreye alındığı ifade edildi. “ASL-3” olarak isimlendirilen bu güvenlik önlemi teknolojisi, firmanın “yıkım durumunda kötüye kullanım riskini mühim seviyede artıran suni zekâ sistemleri” için saklanıyordu. Durumun ne kadar ciddi bulunduğunu buradan anlayabilirsiniz.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu