Donanım

OpenAI Yönetim Kuruluna “Anti-Sam Altman” Yetkisi Verildi

OpenAI’ın şirket içi güvenlik önlemleri genişletiliyor. Kurumun bünyesinde kurulan yeni güvenlik birimi ve yönetim kuruluna verilen suni zekâları veto hakkı duyuruldu.

Son dönemde Sam Altman’ın görevden alınması, sonrasında geri dönmesi ve yönetim kurulunu değiştirmesi ile epey gündem olan OpenAI hakkında ortaya atılan iddialardan biri, üstün ve tehlikeli bir suni zekâ geliştirdikleri yönündeydi. OpenAI, o mevzuda bir izahat hayata geçirmeye gerek duymadıysa da suni zekâ güvenliğini öne alan düzenlemeler yapmış oldu.

OpenAI ilk olarak “güvenlik danışmanlık grubu” adını verdiği bir ekip oluşturdu. Bu ekip kurumun teknik ekiplerinin üstünde konuşlandırıldı ve teknik ekiplere liderlik tavsiyelerinde bulunacak. Ek olarak OpenAI Yönetim Kurulu, bundan sonrasında tehlikeli görmüş olduğu suni zekâ projelerini veto etme hakkına kavuştu.

Yeni bir “güvenlik danışmanlık grubu” kuruldu, yönetime veto hakkı geldi

![OpenAI Yönetim Kuruluna ](https://imgrosetta.webtekno.com/file/521351/1200xauto.jpg)

Derhal her firmada dönem dönem bu türden değişimler yapılıyor olsa da, OpenAI’ın bu şekilde bir değişim yapması, son zamanlarda yaşanmış olan vakaları ve iddiaları göz önüne aldığımızda büyük ehemmiyet taşıyor. Sonuçta OpenAI, suni zekâ alanında öncü kurum durumunda bulunuyor ve bu alandaki güvenlik önlemleri büyük ehemmiyet taşıyor.

OpenAI’ın bir blog gönderisi ile açıklamış olduğu yeni düzenleme, “Hazırlıklılık Çerçevesi” olarak adlandırıldı. Kasım ayında yönetim kurulunun agresif büyümeye karşı olmasıyla malum iki üyesi, Ilya Sutskever ve Helen Toner kuruldan çıkarılmıştı. Yeni düzenleme ile beraber “yıkıcı” suni zekâların tanımlanması, çözümleme edilmesi ve alınacak aksiyonlara karar verilmesi için bir rehber oluşturulmuş da oldu.

Yeni şirket içi düzenlemeye gore, güvenlik sistemi ekibi üretimdeki modelleri yönetecek. ChatGPT’nin dizgesel kötüye kullanımlarını API’lerde sınırlama benzer biçimde görevler, bu ekibe düşecek. Hazırlıklılık ekibi ise öncül modellerden görevli olacak ve ihtimaller içinde riskleri tespit edip tedbir almaya odaklanacak. Süperyönelim ekibi adında olan ekip ise süper suni zekâ modelleri için kuramsal yönlendirmeleri geliştirecek. Her bir ekip, görevli oldukları modelleri “siber güvenlik”, “ikna”, “otonomi”, “CBRN” (Kimyasal, biyolojik, radyolojik ve nükleer tehditler) açısından değerlendirecek.

OpenAI hemen hemen bu değerledirmelerin iyi mi yapılacağına dair bir informasyon paylaşmazken, fonksiyonlar arası güvenlik danışmanları grubu bu emekleri genel olarak denetleyecek ve liderlik etmelerine destek olacak.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu