Donanım

ChatGPT Benzer biçimde Yapa Zekâ Uygulamaları Iyi mi Çalışıyor?

Suni zekânın temelini, insan zekâsını öykünmek edebilme kabiliyetine dayanan algoritmalar oluşturuyor. Bu algoritmalar; öğrenme, sorun çözme, karar verme ve dil işleme şeklinde insan zekâsına özgü görevleri yerine getirebilmek için tasarlanmıştır. Peki, ChatGPT şeklinde suni zekâ uygulamaları iyi mi çalışıyor?

Günümüz dünyasında, suni zekâ terimi nerede ise her insanın aşina olduğu bir kavram hâline geldi. Fakat bu karmaşık hızla gelişen teknolojinin ardındaki perdeyi aralamak ve iyi mi çalıştığını hakikaten idrak etmek birazcık daha karışık olabilir. Sanki bir bilim kurgu filminden fırlamış şeklinde duran suni zekâ; aslen algoritma denizlerinde yüzerek, veri okyanuslarını aşarak yaşamımıza entegre oluyor.

Peki bu akıllı sistemler, tam olarak iyi mi çalışıyor? Bilhassa ChatGPT, Midjourney ve DALL-E şeklinde suni zekâ araçları bizlere verdikleri cevapla hayrete düşürüyor, naturel olarak aklımıza “Suni zekâ uygulamaları iyi mi çalışıyor?” sorusu da sıkça geliyor. Ikimiz de sizler için suni zekânın gizemli dünyasını aralayacak ve sofistike hızla gelişen teknolojinin iyi mi her sorumuza cevap verip görseller oluşturabildiğini detaylarıyla ele alacağız.

ChatGPT şeklinde suni zekâ uygulamaları tam olarak iyi mi çalışıyor?

ChatGPT, sorunuzu anlamaya emek vererek ve sonrasında eğitildiği verilere dayanarak sorunuzu en iyi şekilde yanıtlayacağını tahmin etmiş olduğu kelime dizilerini ortaya çıkararak çalışıyor. Kulağa nispeten kolay gelse de neler olup bittiği kabul edelim ki birazcık karmaşık, o yüzden madde madde gitmekte yarar var.

  • Denetimli ve denetimsiz öğrenme
  • Transformatör mimarisi (GPT’deki T)
  • Belirteçler
  • İnsan geri bildiriminden takviyeli öğrenme (RLHF)
  • Organik dil işleme (NLP)

Denetimli ve denetimsiz öğrenme

Artık Elimiz Kolumuz Olan Yapay Zekâ Programları Tam Olarak Nasıl Çalışıyor? Her Şey Bu 5 Maddede Gizli!

GPT’deki P “öncesinden eğitilmiş” anlamına geliyor ve GPT’nin yapabildiklerini yapabilmesinin oldukca mühim bir parçası. GPT’den önceki en iyi performans gösteren suni zekâ modelleri, temel algoritmalarını geliştirmek için denetimli öğrenme kullanıyordu.

GPT, birkaç temel kuralın verildiği ve peşinden büyük miktarlarda etiketsiz verinin (neredeyse tüm açık web) beslendiği üretken ön eğitim kullanıyor. Sonrasında tüm bu veriler içinde gezinmesi ve metni yöneten kurallar ve ilişkiler hakkında kendi anlayışını geliştirmesi için denetimsiz bırakılıyor.

Denetimsiz öğrenmeyi kullandığınızda naturel olarak ne elde edeceğinizi hakikaten bilmeniz pek de mümkün değil. ChatGPT de bunun için davranışını daha öngörülebilir ve uygun hâle getirebilmek adına ince ayar yapıyor.

Transformatör mimarisi (GPT’deki T)

Artık Elimiz Kolumuz Olan Yapay Zekâ Programları Tam Olarak Nasıl Çalışıyor? Her Şey Bu 5 Maddede Gizli!

Tüm bu eğitimin amacı; metin verilerindeki kalıpları, ilişkileri, bir sonraki metnin nasıl biteceğini tahmin etmeyi ve insan benzeri cevap oluşturmayı öğretmek. Doğal bu süreç inanılmaz karmaşık ve oldukca katmanlı. Şu demek oluyor ki özetle derin öğrenme sinir ağı oluşturmak amaçlanıyor da diyebiliriz.

Açıkladığınızda kulağa karmaşık gelse de transformatör modeli, suni zekâ algoritmalarının iyi mi tasarlandığını bayağı basitleştirdi. Hesaplamaların paralelleştirilmesine ya da aynı anda yapılmasına olanak tanımasını sağlamış oldu.

Bu sayede eğitim süreleri mühim seviyede kısaldı. Yalnız suni zekâ modellerini daha iyi hâle getirmekle kalmadı bununla birlikte onları daha süratli ve daha ucuza üretilebilir hâle getirdi.

Artık Elimiz Kolumuz Olan Yapay Zekâ Programları Tam Olarak Nasıl Çalışıyor? Her Şey Bu 5 Maddede Gizli!

Transformatörlerin özünde “kendi kendine dikkat” adında olan bir süreç vardır. Eski tekrarlayan sinir ağları (RNN’ler) metni soldan sağa doğru okur. Bu yöntem, birbiriyle ilişkili kelimeler ve kavramlar yan yana olduğunda iyi olabilir sadece kelimeler zıt uçlar olduğunda işler birazcık karmaşık hâle gelebiliyor. Bizce bunun en büyük örneği de Türkçe dilinde ara sıra sapıtması.

Transformatörler cümledeki her kelimeyi bir kerede okur ve her kelimeyi diğerleriyle karşılaştırır. Bu da cümlenin neresinde olurlarsa olsunlar, dikkatlerini en ilgili kelimelere yönlendirmelerini sağlıyor.

Doğal ki tüm anlattıklarımız işleri büyük seviyede basitleştiriyor. Transformatörler kelimelerle çalışmaz, bir vektör (konum ve yön içeren bir sayı) olarak kodlanmış metin parçaları olan “belirteçlerle” çalışırlar. Dikkat de bir vektör olarak kodlanır ve dönüştürücü tabanlı sinir ağlarının bir paragrafın başındaki mühim detayları hatırlamasını sağlar.

Belirteçler

GPT-3 ortalama 500 milyar belirteç üstünde eğitilmiş, böylece dil modellerinin daha kolay anlam atamasına ve bu tarz şeyleri vektör uzayında eşleştirerek makul metni tahmin etmesine olanak tanıyordu. Birçok sözcük tek belirteçle eşleşiyordu sadece daha uzun yada daha karmaşık sözcükler çoğu zaman birden fazla belirtece ayrılıyordu.

OpenAI, GPT-4’ün iç işleyişi hakkında sessiz kalsa da nerede ise aynı veri kümesi üstünde eğitildiğini varsayabiliriz.

Artık Elimiz Kolumuz Olan Yapay Zekâ Programları Tam Olarak Nasıl Çalışıyor? Her Şey Bu 5 Maddede Gizli!

Tüm belirteçler, insanoğlu tarafınca yazılmış devasa bir veri külliyatından geliyor. Bunlar içinde; kitaplar, makaleler ve tüm değişik mevzular, öteki belgeler ve açık internette bulunan inanılmaz oranda içerik yer ediniyor.

Tüm bu eğitimin sonucu olarak GPT-3’ün sinir ağı 175 milyar parametreye ya da değişkene sahipti. Eğitimi yardımıyla girdi alıp değişik parametrelere verdiği değerlere ve ağırlıklara dayanarak en uygun çıktıyı veriyordu.

OpenAI, GPT-4’ün kaç parametresi bulunduğunu söylemedi sadece muhtemelen 175 milyardan fazladır. GPT-4’ün artan gücünün bir kısmı, muhtemelen GPT-3’ten daha çok parametreye haiz olmasından ve eğitimindeki iyileştirmeden kaynaklanıyor.

İnsan geri bildiriminden takviyeli öğrenme (RLHF)

Artık Elimiz Kolumuz Olan Yapay Zekâ Programları Tam Olarak Nasıl Çalışıyor? Her Şey Bu 5 Maddede Gizli!

GPT’nin ilk sinir ağı halka açık kullanıma uygun değildi, şu demek oluyor ki neredeyse asla rehberlik olmadan açık web üstünde eğitildi. Bundan dolayı ChatGPT‘nin çeşitli değişik istemlere güvenli, mantıklı ve tutarlı bir halde cevap verme kabiliyetini daha da geliştirmek için insan geri bildiriminden takviyeli öğrenme adında olan bir teknikle diyalog için optimize edildi.

Esasen OpenAI, sinir ağına tipik durumlarda iyi mi tepki vermesi icap ettiğini gösteren bazı yayınlanma ve karşılaştırma verileri oluşturdu. Böylece suni zekâ herhangi bir durumda hangisinin en iyi cevap bulunduğunu öğrenebildi. RLHF Saf denetimli öğrenme olmasa da GPT şeklinde ağların etkili bir halde ince ayarlanmasına olanak tanıdı.

Organik dil işleme (NLP)

Tüm bu çabalar doğal ki GPT’yi naturel dil işleme mevzusunda mümkün olduğunca etkili hâle getirmeyi amaçlıyor. NLP; konuşma tanıma, makine çevirisi ve söyleşi robotları da dahil olmak suretiyle suni zekânın birçok yönünü kapsayan büyük bir kategori de diyebiliriz. Şu demek oluyor ki NLP kategorisi, suni zekâya dil kurallarını ve sözdizimini anlamayı öğretiyor.

Sadece ihmal etmeyin ki hâlâ tam olarak öğrenmiş değil. Bilhassa pek oldukca kişinin ChatGPT ve benzeri suni zekâ modellerine sav/ödev/içerik yazdırdığı bu zamanda robot yazısı tahmin edersiniz ki kendini açık ediyor. Okuduğunuz yazıların suni zekâyla yazılıp yazılmadığını anlayabilmeniz için bir içerik oluşturmuştuk. Aşağıdan detaylıca göz atabilirsiniz.

Iyi mi çalıştığını uzun uzadıya anlattık, gelin şimdi anlamanız adına ChatGPT kendini veri kümeleriyle iyi mi geliştirmiş birazcık da onu karşılaştıralım.

İlk başta ChatGPT 3.5‘a “Kendimi soğuk kış günlerinde hasta olmamak adına iyi mi koruyabilirim?” temalı bir sual sorduk. Cevapları kafi düzeydeydi sadece GPT-4 kadar gelişmiş cevaplar naturel olarak vermedi ek olarak bazı detayları de tamamlanmamış söyledi. İşte farkı anlamanız adına cevaplar:

ChatGPT-3.5 cevabı.

Mesela bu cevaplarda tıpkı ChatGPT-4 şeklinde yazdığını görebiliyoruz sadece işi detaylandırmaya ulaşınca naturel olarak gelişmiş suni zekâ modelinden daha geri kalıyor. Alt başlık açılıyor sadece devam cümleleri devamlı kendini yine ediyor. Dengeli beslenmemiz isteniyor sadece ne biçim yiyecek yemeliyiz şeklinde bilgiler yer almıyor.

ChatGPT-4 cevabı.

GPT-4 daha ilk bakışta detaylı açıklamalarıyla gözümüze çarpıyor. Dengeli beslenme adımını verirken neler yememiz ne yapmamız mevzusunda bizlere rehber durumunda cevaplar veriyor doğal ki bunu da kullananların geri bildirimine ve veri kümelerinin gelişmiş olmasına bağlı.

Bir cevabı beğenmediğiniz yada uygunsuz bulduğunuz süre geribildirim şu demek oluyor ki “feedback” atmanız oldukca mühim. Niçin mi? Zira daha ilkin de bahsettiğimiz şeklinde, GPT temelinin bir çok buna bağlı. İnsan tabanlı öğrenme modeli, size daha gelişmiş cevaplar sunmasına olanak tanıyor. Şu demek oluyor ki GPT’yi aslen kendiniz eğitiyorsunuz.

Kaynaklar: Zapier, TechTarget
İlginizi çekebilecek öteki suni zekâ içeriklerimize aşağıdan ulaşabilirsiniz:

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu