OpenAI, Güvenlik Açıkları İçin Hata Ödül Programı Başlattı!

OpenAI, sistemlerindeki güvenlik açıklarının tespit edilmesi için yeni bir hata ödül programı başlattı. Bu program kapsamında bulunan güvenlik açıklarına, 20 bin dolara varan ödüller verilecek.
ChatGPT ve DALL-E benzer biçimde suni zeka araçlarının arkasındaki isim olan OpenAI, dikkat çekici bir hamle yapmış oldu. Şirket, güvenlik açıklarının tespiti ve giderilmesi için bir hata ödül programı başlattığını duyurdu. Bu program için Bugcrowd isminde güvenlik platformu ile iş birliği meydana getiren şirket, bu tür bir hamleyle kullanıcılarını koruyabileceğine inanıyor.
OpenAI ile ilgili güvenlik endişeleri, ilk kez mart ayı içinde gündeme geldi. Firmanın suni zeka tabanlı söyleşi botu ChatGPT’nin altyapısına sızmayı başaran hackerlar, söyleşi botu için para ödeyen müşterilerin kredi kartı bilgilerini ele geçirmeyi başardılar. Vakayla ilgili izahat meydana getiren OpenAI, bu güvenlik zafiyetini doğruladı.
Hükümetler de OpenAI sistemlerine güvenmiyor!
OpenAI ile ilgili tartışmalar yalnız bundan ibaret değildi. İtalya hükümeti, şirket ile ilgili bir karar aldı ve OpenAI tarafınca geliştirilmiş olan suni zeka araçlarının kullanımını yasakladı. Bu kararın başlıca sebeplerinden bir tanesi, kullanıcı verilerinin gereksiz ve güvenilir olmayan şekilde toplanmasıydı. Bununla beraber; Japonya hükümeti de gizlilik ve siber güvenlik sorunlarının çözülmesi halinde, suni zeka araçlarının hükümet sistemlerine entegre edilebileceğini deklare etti. İşte tamamı, OpenAI’nin söz mevzusu hata ödül programını başlatmasına yol açtı.
OpenAI’nin başlatmış olduğu hata ödül programı kapsamında OpenAI sistemlerinde güvenlik açığı kabul eden araştırmacılara 200 ila 20 bin dolar içinde değişen ödüller verilecek. Bu ödüllerin miktarı, tespit edilen güvenlik açıklarının ehemmiyet seviyesine nazaran belirlenecek. Tespit edilecek açıklar, OpenAI ile geliştirdiği suni zeka araçlarının daha güvenli bir hal almasını sağlayacak benzer biçimde görünüyor. Programın ne kadar etkili olacağını süre içinde göreceğiz.


