Yapay zeka (YZ) modellerinin çarpıcı yetenekleri, bizi teknoloji çağının büyüleyici bir dönemine taşıyor. Kullanıcılara sundukları yaratıcılık ve bilgiye erişim olanağı ile yapay zeka, bir yandan hayatlarımızı zenginleştirirken diğer yandan ele alınması gereken önemli bir olguyu da açığa çıkarıyor: Yapay zeka halüsinasyonları.
Gelin, bu meseleye yakından bakalım ve yapay zekanın neden “bir şeyler uydurduğunu” inceleyelim.
Yapay zeka halüsinasyonları ve yanıltıcı bilginin cazibesi
Yapay zeka modellerinin ‘halüsinasyon görmesi’, dediğimiz olay YZ’nin sunduğu bilginin yanlış veya yanıltıcı olması anlamına geliyor. Örneğin, Google’ın sohbet robotu Gemini (eski adıyla Bard), NASA’nın James Webb Uzay Teleskopu’nun keşiflerine dair bir soruyu yanıtlarken, ötegezegenlerin ilk fotoğraflarının bu teleskop tarafından çekildiği gibi yanlış bir bilgi sunabiliyor. (Ötegezegenler 1996 yılından beri farklı teleskoplarla keşfedildi.) Veya Microsoft Bing’in sohbet robotu, New York Times teknoloji yazarı Kevin Roose’a olan aşkını ilan edebilecek kadar sıra dışı açıklamalarda bulunabiliyor.
Bilgi üretimi söz konusu olduğunda, yapay zekanın ‘halüsinasyon’ olgusu hem bir özellik hem de bir hata olarak karşımıza çıkıyor. Bu durumun iki temel ayağı söz konusu: Yapay zekanın bir içerik üretici olarak kullanımı ve soru cevaplamak için değerlendirilmesi. Bir hikaye yazması için halüsinasyonlar güzel işler çıkartabilirken cevabını almak istediğiniz bir soru için ise tamamen hatalı bilgiler içerebiliyor.
İçerik üretici olarak yapay zeka ve sınırları
Geliştiriciler, ChatGPT, Copilot ve Gemini gibi üretken yapay zeka araçlarıyla yeni bir döneme adım attı. Bu araçlar deneme yazmaktan, yemek ve egzersiz planları yapmaya, hatta görseller ve videolar oluşturmaya kadar farklı amaçlara odaklanabiliyor. Fakat üretim sürecine dahil olan hatalar, tarihsel görsellerdeki yanlışlıklar gibi sorunları beraberinde getiriyor. Bu bize, yapay zekanın, tüm gelişmişliğine rağmen hala daha işin başlangıç aşamasındaki bir teknoloji olduğunu bizlere hatırlatıyor.
Yapay zekanın halüsinasyonları üzerine
Peki, nedir bu halüsinasyonların sebebi? Amazon Web Services’te çalışan Stefano Soatto, bunun nedenini “sentetik olarak üretilen veri” ya da “gerçek verilerden istatistiksel olarak ayırt edilemeyen sahte veri” olarak açıklıyor. Şöyle ki, metin üretebilen ve Wikipedia metinleri üzerinde eğitilmiş bir yapay zeka düşünelim. Haliyle bu modelin amacı, Wikipedia’daki metinlere benzeyen içerik üretmek olacak. Yani, verilere “sadık” olmak değil, benzer özellikler taşıyan veri yaratmaya çalışacak. Bu durumda tarihsel bir konuyu başka bir konuyla bağdaştırıp hiç olmayan bir “yalan gerçekliği” bizlere yaşanmış gibi verebilir.
Gerçeklik ve yapay zekanın keskin ayrımı
Yapay zeka teknolojilerinin etkileyici yeteneklerinin yanında, halüsinasyonları gerçeği sorgulatan bir unsur olarak karşımıza çıkıyor. Bu durum, yapay zekanın sunduklarını kullanırken temkinli olmamız gerektiğini vurguluyor. Makine öğrenimi modellerinin ürettiği içeriğin doğruluğunu sorgulamak ve insan muhakemesini değerlendirme sürecine dahil etmek şimdilik sağlıklı bir yaklaşım olacak.
Yapay zeka yolculuğu devam ederken, kullanıcıların bilginin doğruluğunu sorgulayan ve yanıltıcı sonuçlara karşı uyanık bir bilinç geliştirmesi büyük önem taşıyor.
Yapay zeka halüsinasyonlarının kaynağı
Yapay zekanın neden ‘halüsinasyon’ gördüğünü anlamak için, bu modellerin nasıl eğitildiklerine yakından bakmamız gerekiyor. Üretken yapay zeka araçlarının temelini oluşturan büyük dil modelleri, devasa miktarda veriyle eğitiliyor. Bu veriler arasında makaleler, kitaplar, program kodları ve sosyal medya metinleri yer alıyor. Yapay zeka modelleri, eğitim verilerine benzer metinler üretmekte oldukça başarılı.
Fakat yapay zeka modelinin daha önce hiç “kızıl” sözcüğünün yer aldığı bir cümle görmediğini varsayalım. Burada model, benzer bağlamlarda kullanılan bir diğer renk olan “kırmızı” sözcüğünden yola çıkarak bir çıkarım yapabilir. Böylece, bir nesnenin rengini kırmızı demek yerine ‘kızıl’ olarak tanımlayabilir. Bu benzer bir yaklaşım olarak görülse de hiç duymadığı ya da bağdaştıramadığı bir kelimeyi çok farklı bir olayla da bir araya getirebilir. İşte böylece yapay zeka halüsinasyonları karşımıza çıkmaya başlayabiliyor.
Verilerin etkisi ve sınırlı öngörüler
USC Viterbi Mühendislik Fakültesi’nde çalışan ve DILL (Data, Interpretability, Language, and Learning – Veri, Yorumlanabilirlik, Dil ve Öğrenme) laboratuvarını yöneten bilgisayar bilimi doçenti Swabha Swayamdipta, “Yapay zeka, dil hakkındaki bilgisine dayanarak genellemeler ve çıkarımlar yapar. Bu nedenle, dil modelleri makul gibi görünen fakat tam olarak doğru olmayan gerçekler oluşturabilir” diyor.
Yapay zeka halüsinasyonları aynı zamanda hatalı eğitim süreçleri, önyargılı veya yetersiz veri gibi nedenlerden de ortaya çıkabilir. Bu durum, yapay zekayı bazı soruları yanıtlaması konusunda hazırlıksız hale getirebiliyor. Bu yüzden şirketler artık yeni bir yapay zeka modelini piyasaya sürmeden önce test süresini oldukça uzun tutuyor.
Gerçekliğin sınırlarında halüsinasyonlar
IBM’de ürün yönetimi başkan yardımcısı Tarun Chopra, “Model bağlamsal bilgiye sahip değil. Sadece, ‘Bu kelimeye dayanarak, bir sonraki kelimenin doğru olma olasılığının şu olduğunu düşünüyorum’ diyor,” ifadelerini kullanıyor.
Peki, yapay zeka ne sıklıkla halüsinasyon görüyor? Üretken yapay zeka girişimi Vectara’nın yaptığı tahminler, sohbet robotlarının zamanın %3 ila %27’si arasında halüsinasyon gördüklerini gösteriyor. Github’da yer alan ‘Halüsinasyon Sıralaması’ listesi, popüler sohbet robotlarının belgeleri özetlerken ne sıklıkla halüsinasyonlara başvurduklarını belgeliyor.
Teknoloji devlerinin halüsinasyonlarla savaşı
Teknoloji şirketleri bu sınırlamaların farkında. Örneğin, GPT-3.5, “ChatGPT hatalar yapabilir. Önemli bilgileri kontrol etmeyi unutmayın.” uyarısında bulunurken, Google ise “Gemini, insanlar hakkında yanlış bilgiler gösterebilir, bu nedenle yanıtları iki kez kontrol edin.” şeklinde bir sorumluluk reddi metni içeriyor.
Bir OpenAI sözcüsü, model güncellemeleri yaptıkça sorunu sınırlamak için iyileştirmeler yapmaya devam ettiklerini vurguladı. OpenAI’nin verilerine göre, Mart 2023’te piyasaya çıkan GPT-4 modelinin, selefi GPT-3.5’e göre gerçeklere dayalı yanıtlar üretme olasılığı %40 daha fazla.
Google’dan yapılan açıklamada, “Başından beri söylediğimiz gibi, halüsinasyonlar tüm büyük dil modelleri için bilinen bir zorluktur. Yapay zekanın bazı şeyleri yanlış anladığı durumlar oluyor. Bunu iyileştirmek için sürekli çalışıyoruz.” ifadeleri yer aldı.
Microsoft ise kendi ürünlerinde halüsinasyonlara ilişkin bir soruya yanıt olarak, yapay zekanın uydurma yanıtlar vermesini önlemeye yardımcı olmak için sağlamlaştırma, ince ayar ve yönlendirme tekniklerinde ilerleme kaydettiklerini belirtti.
Yapay zeka halüsinasyonlarını önlemek: Mümkün mü?
Yapay zeka halüsinasyonlarını tamamen engellemeye yönelik kesin bir çözüm henüz olmasa da bu olguyu yönetmek için atabileceğimiz adımlar var. Yüksek kaliteli, yeterli kapsamda eğitim verileri kullanmak ve modeli farklı noktalarda test etmek, başarılı yönetimin ilk adımı olarak öne çıkıyor.
USC’de görev yapan Swabha Swayamdipta, dil modellerinin ürettiği çıktılarda üçüncü taraf kaynakları ile doğrulama yapılmasına olanak tanıyan bir gazetecilik standardı oluşturulabileceğini düşünüyor.
Çözüme giden bir diğer yol da, modeli tutarlılık, gerçeklik kontrolü gibi özellikleri olan ve kaynakları takip eden daha büyük bir yazılım sistemine entegre etmek olabilir. Amazon Web Services’ten Stefano Soatto, “Yapay zeka modelinin bir özelliği olarak halüsinasyon kaçınılmaz. Fakat modeli kullanan sistemin bir özelliği olarak, sadece kaçınılmaz olmakla kalmıyor, aynı zamanda yönetilebilir bir hal alıyor.” diyor.
Böyle bir sistem, şirketlerin sohbet robotlarının çeşitli kısıtlar, politikalar veya düzenlemelerle hizalı olmasını kolaylaştırabilir. Zira, halüsinasyonlar bazen havayolu şirketlerinin yasal sorumluluklarla karşılaşmasına da yol açabiliyor. Hatırlayalım, Air Canada’nın sohbet robotu, şirketin yas politikası hakkında yanlış bilgiler uydurunca dava ile karşı karşıya kaldı.
Sorunların çözümünde insan faktörü
Yapay zeka modellerinin sınırlamalarını kabul etmek, başarı için önemli bir adım. Soatto “Eğer kullanıcılar, web’den önceden eğitilmiş bir model indirip, çalıştırmayı ve sorulara gerçek yanıtlar almayı umuyorsa, bu modelin akıllıca bir kullanımı değildir.” diyerek, modellerin bu gibi kullanım amaçları için tasarlanmadığının altını çiziyor.
Kullanıcıların atabileceği pratik bir adım, aynı soruyu biraz farklı bir şekilde sorarak modelin yanıtının nasıl değiştiğini incelemek olabilir. Enkrypt AI’nın CEO’su Sahil Agarwal, “Eğer birisi sürekli yalan söyleyen biriyse, her cevap verdiğinde, cevabı farklı olacaktır. Kullanılan ifadelerde ufak bir değişiklik, yanıtın büyük ölçüde sapmasına neden oluyorsa, bu, modelin sorumuzu tam olarak anlamadığına işaret ediyor.” şeklinde konuşuyor.
Yapay zeka halüsinasyonları her zaman kötü mü?
Üretken yapay zekanın büyüsü, yeni içerik oluşturma potansiyelinde yatıyor. Bu noktada, bazen yapay zeka halüsinasyonları aslında olumlu bile olabilir. Swayamdipta’nın bakış açısı ise şu şekilde: “Bu modellerden yeni senaryolar, belki yeni hikaye fikirleri bulmalarını veya Donald Trump tarzında bir sone yazmalarını istiyoruz. Daha önce gördüklerini aynen üretmelerini istemiyoruz.”
Demek oluyor ki yapay zekayı içerik üretici olarak ve onu soruları yanıtlamak için kullanmak arasında önemli bir ayrım söz konusu. Soatto, “Üretken modellerden halüsinasyon görmemelerini istemek pek adil değil, çünkü onları bunun için eğitiyoruz. Bu onların işi” diyor. Sonuç olarak yapay zekadan kesin bilgi istediğinden doğruluğunu kontrol etmek yine kullanıcıya kalıyor.
Gerçeği bulmak: Yapay zekanın sınırlarını bilmek
Peki bizler, yapay zeka halüsinasyonlar gördüğü zaman nasıl anlarız? Eğer bilgiye erişim için üretken yapay zeka kullanıyorsanız, yanıtları doğrulamak için harici kaynakları incelemek akıllıca olacak. Yapay zekanın yaratıcı gücünden faydalanırken, bilgiye ihtiyaç duyulan alanlarda farklı araçlara başvurmak da önemli.
Başka bir seçenek ise bilgi almaya ek bilgi üretme (Retrieval Augmented Generation – RAG) özelliğini kullanmak. Bu özellik sayesinde, sistem kaynaklarla bilgi kontrolü yapar ve yanıtı, kullanıcının tekrar kontrol edebileceği ilgili kaynak linkiyle sunar.
Yapay zeka halüsinasyonlarının geleceği
Yapay zeka geliştiricileri, halüsinasyonları azaltma konusunda yoğun bir şekilde çalışıyor. Daha iyi eğitim verileri, geliştirilmiş algoritmalar ve bilgi kontrol mekanizmaları, halüsinasyon etkisini zamanla düşürebilir. Şimdilik teknoloji şirketleri, halüsinasyonlara ilişkin sorumluluk reddi metinleri ile yola devam ediyor.
İnsan gözetimi, bilgiye dayalı konularda halüsinasyonları yönetmek için bir diğer yol olabilir. Ayrıca, gelecekteki gelişmeleri yönlendirmek için devlet politikaları da devreye girebilir. Gelişmiş yapay zekayı teşvik eden, belirli kullanımlar için açık yükümlülükleri olan Avrupa Birliği’nin Yapay Zeka Yasası, şimdiden önemli bir örnek oluşturuyor.
IBM’den Tarun Copra, “Avrupa Birliği Yapay Zeka Yasası, yapay zekanın geliştirilmesi ve kullanılmasında şeffaflık, hesap verebilirlik ve insan gözetimini sağlamada daha derli toplu bir çerçeve sunuyor. Her ülke aynı şeyi yapmayacak fakat temel prensipler son derece kritik.” diyor.
Google Play Store adaletsiz bir tekel mi?
Gelinen bu noktaya kadar çok yönlü bir strateji ile yapay zeka modellerinin sunduğu avantajlardan yararlanırken, riskleri de sınırlandırmamız gerekiyor. “Benzer bir durum, özellikle insan niyetini yorumlamak söz konusu olduğunda, insanların bile yapamadığını makinelerden beklememenin yardımcı olduğunu düşünüyorum. İnsanların yapay zeka modellerini anlamaları, yapabilecekleri konularda onları kullanmaları, yapay zekanın yapamayacağı konudaki riskleri hafifletmeleri ve modelleri yöneten sistemler tasarlamaları son derece önemli” diyor Soatto.
Öne çıkan kaynak görseli: Furkan Demirkaya / Possessed Photography / Unsplash