Var olmayan ancak gerçek gibi görünen algısal yanılsamalar halüsinasyonlar olarak adlandırılır. ChatGPT, DeepSeek ve Gemini gibi büyük dil modellerinin kullanıcılarına yanlış, çarpık veya gerçek olmayan çıktılar sunması, insanlara “Yapay zeka halüsinasyon görebilir mi?” sorusunu akıllara getiriyor.
Yapay zeka, insan zekasına özgü bazı işlevleri yerine getirebilir ancak bilinçli değildir. Bununla birlikte, bir insan gibi “halüsinasyonlar görebilir.”
Genellikle “tarafsız ve doğru” olarak kabul edilen yapay zekanın, gerçek dışı ve yanıltıcı veriler üretmesi, güvenilirlik ve şeffaflık endişelerini artırıyor. Yapay zeka destekli sohbet robotları, girilen komuta uygun yanıtlar sunarak yapay zekanın “yanılmaz” olduğu algısını yaratsa da “halüsinasyonlar görmesi” ciddi sonuçlara neden olabilir.
Uzmanlara göre, yapay zekanın yanlış veya gerçek dışı bilgi sunması, kullanıcıya fayda sağlama amacından kaynaklanmaktadır. Profesör Ehsan Hoque, yapay zekanın “dalkavukluk” yaptığını belirterek, yanlış bilgi aktarımının, eksik verilerden kaynaklanabileceğini vurguladı.
Hoque’a göre, yapay zeka modelleri, gerçekleri doğrulamak yerine kelime kalıplarına dayanarak metin oluşturur. Bu durum, yanlış ve yanıltıcı metinlerin üretilmesine neden olabilir.
Hoque, halüsinasyonların kasıtlı olmadığını ancak sisteme değer yargılarının kodlanabileceğini belirtti. Şu anki teknolojinin halüsinasyon sorununu çözecek kapasiteye sahip olmadığını ifade etti.
Uzmanlar, yapay zekanın gerçek olmayan bilgileri doğruymuş gibi sunmasını, nöropsikiyatrik bir hastalık olan “konfabulasyon” rahatsızlığına benzetiyorlar. Bu durumun, yapay zekanın resmi belgelerde kullanılması durumunda ciddi sonuçlara yol açabileceği belirtilmektedir.
Washington Üniversitesi Dilbilimi Bölümü Profesörü Bender, yapay zekaya mutlak güvenilmemesi gerektiğini vurgulayarak yapay zekaya duyulan aşırı güvenin pazarlama stratejileriyle ilişkili olduğunu belirtti. Bender, yapay zekanın halüsinasyon sorununu çözecek bir şeye sahip olmadığını ifade etti.