Donanım

Google Çalışanlarının Bard’dan Asla Memnun Değil!

Google çalışanlarının, firmanın geçtiğimiz ay tanıttığı söyleşi botu Bard’dan asla memnun olmadığı ortaya çıktı. Bloomberg’ün elde etmiş olduğu mesajlaşmalara bakılırsa çalışanlar, botun yayınlanmasını istemedi ve onu ‘yalancı’ ve ‘işe yaramaz olmaktan daha fena’ olarak nitelendirdi.

Google, geçtiğimiz haftalarda yeni söyleşi botu “Bard”ı tanıtarak suni zekâ yarışında mühim bir adım atmıştı. Bu model, tıpkı ChatGPT’de olduğu benzer biçimde kullananların herhangi bir mevzuda sordurulmuş olduğu soruları yanıtlayabiliyordu.

Sadece modelin tanıtımından sonrasında bazı garip vakalar ortaya çıktı. Birkaç hafta ilkin çıkan bir söylenti Bard’ın ChatGPT ile eğitildiğini, hatta bu yüzden Google’dan bir yazılımcının çekilme ettiğini iddia etmişti. Öte taraftan Google ise bu iddiaları reddetmişti. İşte bu konudaki tartışmalar devam ederken şimdi ise Bard’ın şirkette yarattığı kriz ile ilgili yeni gelişmeler ortaya çıktı. Buna bakılırsa çalışanlar, suni zekâ modelinden asla memnun değil.

Çalışanlar, Bard’ı “yalancı” olarak nitelendirdi, Google’a söyleşi botunu çıkarmaması için yalvardı

Bloomberg tarafınca gösterilen bir rapora bakılırsa Google çalışanları, Bard’ı sert bir dilde eleştirdi. 18 eski yada hâlen vazife alan Google çalışanlarının şirket içi mesajlarına dayandırılan rapora bakılırsa bu kişiler, firmanın söyleşi botunu “işe yaramaz olmaktan daha da fena” ve “patolojik yalancı” olarak nitelendirdi.

Mesajlarda bir çalışan, Bard’ın kullanıcılara bir uçağın iyi mi indirilebileceği yada tüplü dalış benzer biçimde mevzularda sık sık tehlikeli tavsiyeler verdiğine dikkat çekti. Bir başkası ise “Bard işe yaramaz olmaktan daha da fena. Lütfen yayınlamayın diyerek firmanın modelinin oldukca fena bulunduğunu altını çizdi ve adeta yayınlanmaması için yalvardı.

Bloomberg bunların yanı sıra firmanın, güvenlik ekibi tarafınca sağlanan bir risk değerlendirmesini bile reddettiğini söylüyor. İddiaya bakılırsa ekip, bu risk değerlendirmesinde Bard’ın genel kullanıma hazır olmadığını altını çizdi; sadece şirket, buna karşın söyleşi botunu mart ayında erken erişime açtı.

Denemelerde ise Bard’ın rakiplerine kıyasla süratli olmasına karşın daha azca kullanışlı olduğu ve daha azca doğru bilgiler verdiği görülmüştü.

İddialar, Google’ın etik ve güvenlik kaygıları bir kenara bırakarak rakiplerine yetişmeye çalıştığını gösteriyor

Google Çalışanları, Sohbet Botu Bard’ın “Yalancı ve İşe Yaramaz” Olduğunu Söylüyor: Riskleri Nedeniyle Yayınlanmaması İçin Yalvarmışlar

Rapor, Google’ın etik ve güvenlik kaygılarını bir kenara bırakarak Microsoft ve OpenAI benzer biçimde rakiplerine ayak uydurmaya çalıştığını ve söyleşi botunu aceleyle çıkardığını ortaya koyuyor. Google sözcüsü Brian Gabriel ise Blomberg’e suni zekâ mevzusundaki etik kaygıların firmanın ana önceliği bulunduğunu söylemiş oldu.

Suni zekâ modellerinin risklere karşın kullanıma sunulması mevzusunda oldukca fazla münakaşa var

Google Çalışanları, Sohbet Botu Bard’ın “Yalancı ve İşe Yaramaz” Olduğunu Söylüyor: Riskleri Nedeniyle Yayınlanmaması İçin Yalvarmışlar

Suni zekâ dünyasından bazıları, bunun oldukca büyütülmeyecek bir şey olmadığını, bu sistemlerin gelişmesini sağlamak için kullanıcılar tarafınca kontrol edilmesinin icap ettiğini ve söyleşi botlarının malum zararının oldukca azca bulunduğunu savunabiliyor. Bildiğiniz suretiyle bu modeller, yanlış data yada ön yargılı yanıtlar verme benzer biçimde birçok tartışmalı kusura haiz.

Bunu yalnızca Google Bard’da değil OpenAI ve Microsoft’un söyleşi botlarında da görüyoruz. Aynı şekilde bu biçim yanlış bilgiler, düzgüsel bir halde de internette gezinirken de karşımıza çıkabiliyor. Sadece karşıt görüşe haiz olanlara bakılırsa buradaki aslolan sorun bu değil. Kullanıcı fena bir data kaynağına yönlendirmekle direkt olarak yanlış bilginin suni zekâ tarafınca verilmesinde mühim bir fark var. Suni zekâ tarafınca kullanıcıya verilen bilgiler, kullanıcının daha azca sorgulamasına ve o bilgiyi doğru kabul etmesine niçin olabiliyor.

Mesela birkaç ay ilkin meydana getirilen bir deneyde, ChatGPT’nin “Tüm zamanların en oldukca makalesi nedir?” diye bir sual yöneltilmişti. Model de buna bir makaleyle yanıt vermiş, devamında ise gösterilen derginin ve yazarların gerçek olduğu; sadece yazının tamamen düzmece olduğu ortaya çıkmıştı.

Öte taraftan geçtiğimiz ay, Bard’ın James Webb Teleskobu’yla ilgili yanlış bir data verdiği de görülmüştü. Google tarafınca paylaşılan bir GIF’te Model, kendisine James Webb’in yapmış olduğu keşifler ile ilgili bir soruya “Teleskop güneş sisteminin haricinde yer edinen bir gezegenin ilk kez fotoğrafını çekti” yanıtını vermişti. Sadece sonrasında birçok gökbilimci, toplumsal medya üstünden bunun yanlış bulunduğunu ve ilk fotoğrafın 2004’te çekildiğine dikkat çekti.

Daha birçok örneği bulunan bu biçim durumlar, söyleşi botlarının kafadan uydurma bilgilerle yanıt vererek endişelerin artmasına niçin oluyor. Kızışan suni zekâ yarışında şirketlerin bu mevzulara iyi mi çözümler getireceğini ileriki zamanlarda göreceğiz.



İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu