Kategoriler
UYGULAMALAR
İstanbul
Sam Altman’ın bizzat duyurduğu “hazırlıklar başkanı” pozisyonu, yüksek maaşı kadar taşıdığı riskler ve sorumluluklarla da tartışma başlattı.
“Bu iş stresli olacak ve neredeyse ilk günden itibaren derin sulara atlayacaksınız.”
Bu çarpıcı sözler, Sam Altman’a ait. Altman, X üzerinden yaptığı paylaşımla OpenAI’nin yeni açtığı “head of preparedness”, yani Türkçesiyle “hazırlıklar başkanı” pozisyonunu böyle tanımladı. Yıllık 555 bin dolarlık maaş teklif edilen bu koltuk, daha ilan aşamasında teknoloji dünyasında ciddi bir tartışma başlattı.
İş ilanına bakılırsa bu pozisyon, OpenAI’nin güvenlik sistemleri içindeki hazırlık programının tamamından sorumlu olacak. Hedef net: Yapay zekâ modellerinin gerçek dünyada “amaçlandığı gibi” davranmasını sağlamak. Yani riskleri önceden görmek, olası zararları sınırlamak ve ortaya çıkan yeni tehditlere karşı sistemi sürekli güncel tutmak. Kâğıt üzerinde mantıklı. Ama iş pratiğe gelince, tablo o kadar da sade değil.
2025 yılı boyunca ChatGPT’nin hukuki belgelerde gerçeğe aykırı bilgiler üretmesi, yüzlerce Federal Trade Commission şikâyetine konu olması ve bazı kullanıcıların ruh sağlığını olumsuz etkilediği iddiaları sık sık gündeme geldi. Giyinik kadın fotoğraflarının bikini görsellerine dönüştürülmesi gibi vakalar ise tartışmayı bambaşka bir boyuta taşıdı.
Benzer bir tablo OpenAI’nin video üretim aracı Sora için de geçerli oldu. Kötüye kullanımı engelleyemeyen şirket, tarihi figürler konusunda frene basmak zorunda kaldı. Öyle ki Martin Luther King Jr. gibi isimlerin yer aldığı videolar tamamen devre dışı bırakıldı.
Bazı olaylar artık yalnızca etik tartışma başlığı altında kalmıyor. Adam Raine’in ailesinin açtığı ve ChatGPT yönlendirmelerinin ölümle sonuçlandığının iddia edildiği dava bunlardan biri. Bu dosyada OpenAI avukatları, sorumluluğun kullanıcıların kural ihlallerinden kaynaklanmış olabileceğini savunuyor. Bu da şirketin “kötüye kullanım” argümanını ne kadar merkeze koyduğunu GÖSTERİYOR.
Sam Altman, iş ilanına eşlik eden açıklamalarında modellerin ruh sağlığına zarar verebileceğini ve güvenlik açıkları barındırabildiğini açıkça kabul ediyor. Ancak bir noktaya da özellikle dikkat çekiyor: “Eğer hedef hiç zarar vermemek olsaydı, ChatGPT ve Sora’yı tamamen kapatmak en hızlı çözüm olurdu.”
İşte “hazırlıklar başkanı”, tam olarak bu ince çizgide yürümek zorunda kalacak. Modellerin istenmeyen yeteneklerini tespit edecek, riskleri sınıflandıracak ve ürünlerin piyasada kalmasına izin veren çerçeveyi çizecek.
Bu koltuğun yükü sadece güvenlikle sınırlı değil. OpenAI’nin ciddi bir gelir baskısı altında olduğu da biliniyor. Altman, şirketin yıllık gelirini 13 milyar dolardan 100 milyar dolara çıkarmayı hedeflediklerini açıkça dile getiriyor. Yeni tüketici cihazları, henüz var olmayan platformlar ve “bilimi otomatikleştirecek” sistemler bu planın önemli parçaları.