Yapay Zeka

Suni Zekâ’nın Liderlerinde Evlatları Koruma Sözü

OpenAI, Microsoft, Google, Meta ve öteki suni zekâ teknolojisi geliştiren firmalar, evlatların çevrim içi ortamlarda güvenliğini sağlamak suretiyle yemin etti.

Suni zekânın, bilhassa üretken suni zekânın, ufaklıklara zarar vermek için kullanılabildiğine dair oldukca sayıda örnek ve haber karşımıza çıkıyor. Son olarak IWF, binlerce çocuğun deepfake görseller kullanılarak rahatsız etme ve istismara sürüklendiğini ortaya çıkarmıştı. Suni zekâ devleri şimdi bir araya gelmiş olarak evlatların korunması için çalışacaklarına yemin etti.

OpenAI, Microsoft, Google, Meta benzer biçimde teknoloji devleri başta olmak suretiyle pek oldukca şirket, CSAM (Child sexual abuse material – çocuk cinsel istismar materyali) isminde olan ve ufaklıklara zarar vermekte kullanılan görsellerin üretilmesinde kendi araçlarının kullanılamayacağına dair taahhüt verdi.

Evlatların korunması için yol haritası belirlenmişti

Taahhütün de hayata geçmesine liderlik eden kâr amacı gütmeyen Thorn ve All Tech Is Human platformları suni zekâ devlerinden gelen destekten memnun. Mevzuyla ilgili açıklamasında Thorn, bu taahhütün “evlatların cinsel istismardan korunmasının bir suni zekâ özelliği olması için mühim bir adımı temsil ettiğini ve sektör için devrim durumunda bulunduğunu” açıkladı. İnisiyatif, suni zekâ vasıtasıyla çocuk istismar görselleri oluşturulmasına engel olmayı ve oluşturulmuş görsellerin de arama motorlarından ya da toplumsal medyadan kaldırılmasını amaçlıyor.

2023 senesinde bir tek ABD’de 104 milyon dosya çocuk istismarı şüphesiyle incelenmişti. Thorn ek olarak “Üretken Suni Zekâ İçin Tasarımda Güvenlik: Evlatların Cinsel İstismarı” adlı bir yazı yayımlayarak izlenebilecek stratejileri de açıklamıştı. Bu kapsamda bazı firmalar şimdiden eğitim setlerinde evlatları ve yetişkinleri ayırmaya başladı.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu