Yeni nesil yapay zekâ modelleri bilgi üretiminde insanı geride bıraksa da, doğruluk oranlarındaki düşüş endişe yaratıyor. OpenAI ve diğer devlerin geliştirdiği modeller neden daha sık yanılıyor?
Yapay zekâ alanında çığır açan gelişmeler yaşanıyor, ancak bu teknolojilerin “doğru bilgi” üretme konusundaki güvenilirliği giderek tartışmalı hale geliyor. OpenAI’ın geliştirdiği “o3” ve “o4-mini” modelleri üzerine yapılan son testler, modellerin yüzde 33 ile yüzde 48 arasında yanlış bilgi ürettiğini ortaya koydu. Bu oranlar, akıllı sistemlerin zamanla gerçeğe daha çok yaklaşması gerektiği beklentisinin tersine işaret ediyor.
Yapay zekânın bilgi üretme kapasitesi artarken, üretilen içeriklerin ne kadar gerçeğe dayandığı ise büyük bir soru işareti olarak gündeme geliyor. Özellikle haber, akademik yazı ve analiz gibi doğruluğun kritik önemde olduğu alanlarda, bu sapmalar ciddi riskler doğurabiliyor.
Yalnızca OpenAI değil; Google, DeepSeek ve diğer teknoloji devlerinin geliştirdiği modeller de benzer sorunlar yaşıyor. “Hallucination” (halüsinasyon) olarak adlandırılan bu yanlış bilgi üretme sorunu, teknoloji geliştikçe ortadan kalkmak yerine daha da karmaşık hale geliyor. Bunun temel nedenlerinden biri, modellerin eğitilirken kullandıkları sentetik verilerin giderek artması.
Yani yapay zekâlar, insan yapımı gerçek verilerden çok, önceki yapay üretimlere dayanan içeriklerle eğitiliyor. Bu durum, modellerin kendi uydurmalarını tekrar tekrar öğrenmesine ve sonunda gerçeklikten uzak, sahte bir bilgi evreni oluşturmasına neden oluyor.
Yapay zekâ alanındaki önemli isimlerden biri olan Vectara CEO’su Amr Awadallah, bu duruma dikkat çekerek, “Halüsinasyonları sıfırlamak hayalperestlik olur,” diyor. Awadallah’a göre bugünkü mimari yapılarla geliştirilen modellerin tamamen doğru bilgi üretmesi beklenemez.
Bu nedenle, yatırımcıların ve kullanıcıların bu sınırlamaları bilerek hareket etmesi gerektiğini vurguluyor. Awadallah’ın bu açıklaması, yapay zekâ teknolojilerine duyulan körü körüne güvenin yeniden gözden geçirilmesi gerektiğini ortaya koyuyor.
Yapay zekâ tarafından üretilen içerikler, artık sadece sohbet robotlarında değil, akademik yayınlarda, ticari kararlarda ve kamuoyunu etkileyen haber metinlerinde de kullanılıyor. Ancak içeriğin doğru olup olmadığını kontrol etmek, çoğu zaman kullanıcıya bırakılıyor. Bu da bilgi kirliliğini artırıyor ve kullanıcı güvenini zedeliyor.
Kritik kararlarda hatalı verilerin kullanılması, iş dünyasında büyük zararlar doğurabileceği gibi, sosyal medyada da yanlış bilgilerin hızla yayılmasına zemin hazırlıyor. Bu nedenle uzmanlar, yapay zekâ tarafından üretilen her bilginin mutlaka insan gözetiminden geçmesi gerektiğini savunuyor.