OpenAI’ın Whisper Aracının Halüsinasyon Problemi Ortaya çıkarıldı

Yazılım mühendisleri, uygulama geliştiriciler ve akademisyenler, OpenAI’ın transkripsiyon aracı Whisper’dan memnun değil.
Suni zekânın popülerleşmesi ile beraber yaşamımıza giren kavramlardan biri de halüsinasyonlar olmuştu. Bilhassa dil modelleri, soruları yanıt verirken olmayan detayları de gerçekmiş şeklinde sunabiliyor. Hatta ara sıra olmayan bilimsel niteliği olan kaynakları da gerçekmiş şeklinde kaynakçaya ekleyebiliyor.
Suni zekânın bir şeyler “uydurması” oldukça tartışmalı bir mevzu sadece en azından teknik açıdan anlaşılabilir durumda. Değişik kavramlar içinde bağ kurduğunda ya da doğru bilgilere ulaşamadığında değişik çözümler bulması suni zekânın oluşturduğu metinler için bir problem teşkil edebiliyor. Öte taraftan probleminin transkripsiyon şeklinde bir alanda ortaya çıkması beklenmedik oldu.
Transkripsiyonda halüsinasyon problemi
Assoicated Press’e gore OpenAI’ın transkripsiyon aracı Whisper, konuşmaları metin hâline getirirken araya pek oldukca ilgisiz informasyon ekliyor. Bu bilgiler içinde ırkçılık ile ilgili yorumlardan tıbbi tedavilere kadar pek oldukca değişik alanda sorunlara niçin oluyor. Araştırmacılar, bilhassa hastanelerde ve öteki tıbbi çalışmalarda bu durumun büyük sorunlara niçin olacağını belirtiyor.
Michigan Üniversitesi’nden bir araştırmacı da kamu toplantılarının transkripsiyonlarını inceledi. İncelemede her 10 metinden 8’inde halüsinasyonlar olduğu ortaya çıktı. Bir makine öğrenimi mühendisi ise 100 saatten fazla süreli bir çalışmada metinlerin minimum yarısında halüsinasyon bulunduğunu belirtti.
OpenAI tarafınca meydana getirilen açıklamada ise modellerin doğruluğunu arttırmak ve halüsinasyonları azaltmak için çalıştıklarını ve Whisper’ın “belirli yüksek riskli karar verme bağlamlarında” kullanılmasına engel olacak kullanım politikaları olduğu açıklandı. Bulgularını paylaştıkları için de araştırmacılara teşekkür edildi.



