Kategoriler
UYGULAMALAR
İstanbul

Yapay zekâ teknolojileri baş döndürücü bir hızla gelişirken, bu dönüşüm sosyal medyada ciddi bir sorun alanını da beraberinde getiriyor. Özellikle gerçekçi video üretme kapasitesine sahip araçlar, yanlış ve manipülatif içeriklerin yayılmasını hiç olmadığı kadar kolaylaştırmış durumda. Sora ve Veo 3 gibi uygulamalar, sosyal medyadaki dezenformasyon krizini bambaşka bir noktaya taşımış görünüyor.

Bu tabloyu gözler önüne seren son örnek, New York Times’ta yayımlanan kapsamlı bir analiz oldu. Gazete, yapay zekâ ile üretilen sahte videoların ulaştığı boyutun artık görmezden gelinemeyeceğini vurguluyor. Özellikle politik içeriklerde kullanılan bu videoların, kısa sürede milyonlara ulaşabildiğine dikkat çekiliyor.

OpenAI’ın video üretim aracı Sora, kısa sürede yaklaşık beş milyon kullanıcıya ulaşmış durumda. Ancak bu popülerlik, beraberinde ciddi bir risk de getiriyor. Sora ile üretilen videolara filigran ekleniyor eklenmesine ama bu işaretlerin kaldırılması sanıldığı kadar zor değil. Hatta basit bir internet aramasıyla, bu amaç için geliştirilmiş uygulamalara ve sitelere ulaşmak mümkün. Bu da kötü niyetli kişiler için tehlikeli bir alan açıyor. Gerçek gibi görünen ama tamamen kurgu olan videolar, özellikle sosyal medyada hızla yayılıyor ve kısa sürede “gerçek” muamelesi görmeye başlıyor.

Sorunun bir diğer boyutu ise izleyici tarafında. Sosyal medya kullanıcılarının önemli bir kısmı, yapay zekâ ile üretilmiş ya da üzerinde oynanmış videoları gerçek görüntülerden ayırt etmekte zorlanıyor. New York Times, ABD’de kısa süre önce yayılan ve politik bir tartışmayı alevlendiren bir videoyu örnek gösteriyor. Dikkatli bakıldığında yapay zekâ ürünü olduğu anlaşılabilen bu video, buna rağmen çok sayıda kişiyi yanıltmayı başardı. Yani mesele, yalnızca son derece gelişmiş ve kusursuz videolar değil. Görece basit sahte içerikler bile algı oluşturmak için yeterli olabiliyor.

Bu durum, doğal olarak daha büyük endişeleri beraberinde getiriyor. Sahte videolar, politik tartışmalardan bilimsel gerçeklere kadar pek çok alanda yanlış bilginin yayılmasına zemin hazırlıyor. Berkeley Üniversitesi’nden bilgisayar bilimi profesörü Hany Farid, tabloyu şu sözlerle özetliyor: “Tüketiciler her gün sayısını bilmediğimiz kadar çok sahte içerikle karşılaşıyor. Bu durum yalnızca demokrasimiz için değil, ekonomimiz ve kurumlarımız için de kaygı verici.”
Artan bu içerik kirliliği, doğru bilginin de inandırıcılığını zedeliyor. Pew Research’ün verilerine göre Amerikalıların yarısından fazlası, artık insan yapımı içeriklerle yapay zekâ ürünü videoları ayırt edebildiğinden emin değil.
Meta, TikTok, YouTube ve X gibi büyük sosyal medya platformları, yapay zekâ ile üretilmiş içeriklerin etiketlenmesini zorunlu kılan kurallar uyguluyor. Ancak uzmanlara göre bu önlemler, yeni nesil üretim araçlarının hızına yetişmekten uzak. İnsan hakları örgütü WITNESS’ın genel direktörü Sam Gregory, sorumluluğun büyük ölçüde şirketlerde olduğuna dikkat çekiyor. Gregory’ye göre platformlar, yapay zekâ ile üretilmiş içerikleri otomatik olarak tespit etme ve işaretleme konusunda çok daha aktif olabilir. Yani teknik olarak mümkün olan pek çok adım, henüz yeterince atılmış değil. Nitekim sahte haber videoları ve uydurma sokak röportajları, viral olmalarına rağmen uzun süre yayında kalabiliyor. Zaman zaman bu içeriklerin, haber kuruluşları tarafından bile gerçek sanılarak paylaşıldığı görülüyor.

Dezenformasyon yalnızca bireysel ya da organize gruplarla sınırlı değil. Uzmanlar, devletlerin de bu tür sahte videoları başka ülkelerde algı oluşturmak veya karışıklık yaratmak için kullanabileceğine dikkat çekiyor. İsrail-İran krizi ve Rusya-Ukrayna savaşı sırasında sosyal medyada yayılan bazı içerikler, bu riskin somut örnekleri olarak gösteriliyor.