Yapay Zeka

Suni Zeka Uygulamalarındaki En Büyük Sorun: Ayrımcılık

Geride bıraktığımız yıllarda meydana gelen birçok suni zeka projesinde karşılaşılan ırkçılık ve cinsiyetçilik problemleri, son dönemde meydana getirilen çalışmalarla bir miktar azaltılmış olsa da bu iki sorun, hâlâ suni zeka uygulamalarındaki en mühim problem.

Yüksek boyutlu veriler, çeşitli analizler ve suni zeka uygulamalarından faydalanılarak tasarlanan makine öğrenme algoritmaları, insan zihninin ötesinde bir öğrenme deneyimi sunuyor. Fakat bu algoritmalarda kullanılan suni zeka eğitimleri, insanoğlu tarafınca seçilen ve derlenen verilerle yapıldığı için büyük problemleri de bununla beraber getiriyor.

Ön yargı hayatımızın bir parçası olsa da bunun suni zeka algoritmalarına yansıması gelecekte büyük problemlerin oluşmasına sebep olabilir. Cinsiyetlerden ırklara kadar birçok ön yargı, daha ilkin geliştirilen bazı suni zeka uygulamalarından karşımıza çıkan en büyük problemlerden biri.

The Agile Architecture Revolution adlı kitabın yazarı Jason Bloomberg, suni zekanın uygulamalarında karşılaşılan ön yargı probleminin gelecek adına büyük bir tehdit bulunduğunu söylüyor. Suni zekanın eğitim verileri hakkında konuşan Bloomberg, “İnsanlar hakkında veri kümeleri, fizyolojik dünyayla ilgili verilere daha azca duyarlıyken ön yargılara karşı daha duyarlı” ifadeleriyle suni zeka uygulamalarında ön yargının ne kadar büyük bir sorun bulunduğunu belirtiyor. Geçmişte ön yargı sorunuyla karşılaşılan birkaç suni zeka örneğine gelin beraber göz atalım.

Microsoft’un ırkçı suni zekası Tay.AI:

Yapay Zeka Uygulamalarında Karşılaşılan En Büyük Problem: Ayrımcılık

Microsoft tarafınca 2016 senesinde geliştirilen Twitter söyleşi botu Tay.AI, ‘TayandYou’ adlı Twitter hesabından insanlarla etkileşime girmiş ve inanılmaz yanıtlar vererek tüm dünyayı şaşkına çevirmişti. Verdiği ırkçı, cinsiyetçi ve küfürlü cevaplarla başlangıcından tam 16 saat sonlandırılan proje, o dönem suni zekada karşılaşılan ırkçılık ve cinsiyetçilik sorunlarını göz önüne sermişti.

Apple’ın cinsiyetçi emoji önerme sistemi:

Yapay Zeka Uygulamalarında Karşılaşılan En Büyük Problem: Ayrımcılık

Geçtiğimiz yıl iPhone kullanıcıları, klavyeden ‘CEO’ kelimesini tuşladıklarında, telefon ‘iş adamı’ adlı emojiyi önererek suni zekanın cinsiyetçi bir tutum takınabileceğini bizlere göstermişti. Apple, hemen sonra gösterilen bir güncellemeyle bu problemi çözmüş ve kullanıcılarına bu tür tavsiye durumlarında cinsiyet seçeneği sunmuştu.

Google Translate’in cinsiyetçi tercüme sistemi:

Yapay Zeka Uygulamalarında Karşılaşılan En Büyük Problem: Ayrımcılık

Daha önceki sürümlerinde ‘o bir hemşire’ cümlesini ‘she is a nurse’, ‘o bir hekim’ cümlesini ‘he is a doctor’ şeklinde çeviren Google Translate, bizlere suni zekanın cinsiyetçi olabileceğini bir kez daha göstermişti. Google Translate’e gelen yeni bilhassa beraber artık Türkçe dilinden eril ve dişil ayrımı meydana getirilen dillere çevirilerde cinsiyet dikkate alınarak kullanıcılara değişik tercüme seçenekleri sunulacak.

Suni zeka algoritmaları, tanımlanan veri setlerinde belirli mesleklerdeki adamların sayısının daha çok olmasını tespit eder ve buna bakılırsa bir netice verir. Bu durum da suni zekanın eğitiminde kullanılacak veri setinin ne aşama mühim bulunduğunu açığa çıkarıyor.

Bu aşamada yapılması ihtiyaç duyulan şey, programcıların suni zekada ortaya çıkabilecek ön yargıları evvelinde tespit edip buna bakılırsa tedbir almaları olmalı. Ek olarak eğitimlerde kullanılan veri setlerinin, özenle seçilmesi ve herhangi bir ön yargı oluşumuna mahal vermemesi gerekiyor.

Google Translate örneğinde olduğu şeklinde çözümlerin yanı sıra suni zekayı ön yargıya karşı eğitmek de bir seçenek. Dünya üstünde birçok programcı, suni zekada karşılaşılan bu problemler üstüne çalışsa da şu an için etkili bir yöntem hemen hemen uygulanabilmiş değil. Önümüzdeki süreçte suni zekanın ev büyük problemlerinden ırkçılık ve cinsiyetçiliğe karşı çözüm bulunup bulunamayacağını hep beraber göreceğiz.

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu