Utku KABAKCI'nın 24 Şubat 2026 tarihli yazısı: Yapay Zekâya Yalan Söyleten Kim?

Son dönemde manşetlerde, teknoloji platformlarında ve hatta bazı akademik çalışmalarda “Yapay zekâ halüsinasyon görüyor” cümlesine sıkça rastlıyoruz. Bu ifade bir yapay zekâ modelinin kullanıcısına gerçekle örtüşmeyen, tutarsız ya da sağlaması mümkün olmayan bilgileri doğruymuş gibi sunduğu durumlar için kullanılıyor.

Yapay zekâ destekli büyük dil modellerinin zaman zaman böyle çıktılar üretmesinin çeşitli nedenleri olabileceği söylense de bu durum özellikle modellerin eğitim sürecinde kullanıcı geri bildirimlerinin ve puanlarının etkili olmasıyla açıklanıyor. Kullanıcılar kendisini onaylayan, olumlu ve çatışma içermeyen cevaplar veren modelleri beğeniyor. Bu da söz konusu modellerde bazı sorunlu eğilimlerin güçlenmesine yol açıyor. Modeller talep edilen bilgiye sahip olmasalar dahi tahminde bulunabiliyor ya da tamamen uydurma içerikler üretebiliyor. Kullanıcılarının yanlış bilgi veya yorumlarını düzeltmek yerine onları onaylama eğilimi gösterebiliyor.

Yapay zekâ destekli dil modellerinin yanıltıcı içerik ürettiği durumları tanımlamak için “halüsinasyon” kelimesinin tercih edilmesinin kavramsal açıdan ne ölçüde isabetli olduğu ise ayrı bir tartışma konusu. Çünkü halüsinasyon, psikoloji ve psikiyatri literatüründe öznel bir algı bozukluğunu ifade eder. Bu nedenle halüsinasyon teriminin kullanımı yapay zekâya insana özgü özellikler atfedilerek sorumluluğu tamamen ona yıkma sonucunu doğurabilir. Oysa yapay zekâ tarafından üretilen anlatı türleri kullanıcıların girdileri ve modelin istatistiksel örüntüleri doğrultusunda şekilleniyor. Bizler ise bu çıktıları yorumluyor, onlara anlam yüklüyor ve çoğu kez kendi kendimizi kandıran taraf oluyoruz.