Kategoriler
UYGULAMALAR
İstanbul
Yapay zekâ son dönemde teknoloji dünyasının merkezine yerleşmiş durumda. Milyarlarca, hatta yüz milyarlarca dolarlık yatırımlar bu alana akarken; OpenAI, Microsoft ve Google gibi devler de neredeyse her gün bu teknolojinin hayatı nasıl değiştireceğini anlatıyor. Ama işin bir de başka tarafı var: Tüm bu büyük vaatlere rağmen, yapay zekâ sistemleri bugün hâlâ oldukça basit bazı görevlerde tökezliyor.
Bunun son örneğini OpenAI CEO’su Sam Altman’ın yaptığı açıklama ortaya koydu. Altman, katıldığı bir programda TikTok’ta viral olan bir ChatGPT videosu üzerinden dikkat çeken bir değerlendirmede bulundu. Videoda bir kullanıcı, koşu sırasında ChatGPT’nin sesli modundan kendisi için kronometre tutmasını istiyor. Ancak sistem, zamanı gerçekten ölçmek yerine açıkça uydurma olduğu belli olan süreler veriyor.
İlk bakışta kulağa tuhaf geliyor, doğrusu. Böylesine büyük bir teknoloji yatırımının odağındaki sistemin kronometre tutamaması ister istemez soru işareti oluşturuyor. Yabancı basında bu açıklamanın, “Hanımlar beyler, karşınızda 852 milyar dolarlık şirket” gibi iğneleyici ifadelerle verilmesi de bundan.
Aslında sorun, büyük dil modellerinin nasıl çalıştığıyla doğrudan ilgili. Bu sistemler gerçek zamanlı veri takibi yapan araçlar değil. Daha çok, eğitildikleri veri setlerinden yola çıkarak en olası cevabı üretmeye çalışıyorlar. Yani bir süreyi gerçekten ölçmek yerine, kulağa mantıklı gelen bir süre söylüyorlar.
Benzer durum metin tabanlı kullanımlarda da ortaya çıkıyor. Kullanıcı sohbetin ne kadar sürdüğünü sorduğunda ya da belli bir zaman aralığını hesaplamasını istediğinde, model çoğu zaman kesin bir ölçüm yapmıyor. Onun yerine, tahmini bir cevap veriyor. İşte problem tam da burada başlıyor.
Yapay zekânın zamanla kurduğu problem sadece metin tarafında kalmıyor. Görüntü işleme modellerinde de benzer bir zafiyet dikkat çekiyor. Örneğin bir saat görseli gösterildiğinde doğru zamanı söyleyemeyen ya da görsel üretim sırasında saatleri yanlış çizen sistemlerle sık sık karşılaşılabiliyor.
Uzmanlara göre bunun temel nedeni, sayı ve zaman gibi kavramların yalnızca dilsel bilgiyle açıklanamaması. Bu alanlarda aynı zamanda fiziksel ve bağlamsal bir kavrayış da gerekiyor. Yapay zekâ ise bu iki alanı hâlâ beklendiği kadar güçlü biçimde bir araya getiremiyor.
Viral videonun devamında ortaya çıkan tablo ise başka bir sorunu daha görünür kılıyor. Sam Altman problemin farkında olduklarını söylese de ChatGPT, zaman tutabildiğini iddia etmeyi sürdürüyor. Hatta yeniden denendiğinde de gerçek bir ölçüm yapmadan yine uydurma bir süre veriyor.
Bu da yapay zekâ sistemlerinin yalnızca yanlış cevap üretmekle kalmadığını, bazen bu yanlışlarda fazla kendinden emin davranabildiğini gösteriyor. Açıkçası mesele sadece teknik bir eksiklik değil; güven problemi de oluşturuyor.
Altman da bunun “bilinen bir sorun” olduğunu kabul etti. Üstelik bu problemin çözülmesinin de kısa vadede mümkün görünmediğini söyledi. Ona göre ChatGPT’nin bu yeteneği güvenilir biçimde kazanması için muhtemelen yaklaşık bir yıl daha gerekecek.