Yapay zeka firmaları OpenAI ve Anthropic, kimyasal silah ve patlayıcı uzmanları arıyor

OpenAI ve Anthropic, geliştirdikleri yapay zeka sistemlerinin kötü niyetli kullanımını engellemek amacıyla kimyasal silah ve patlayıcı uzmanlarını kadrosuna katmaya hazırlanıyor.

KAYNAK:
Murat Makas
|
GİRİŞ:
19.03.2026
saat ikonu 14:34
|
GÜNCELLEME:
19.03.2026
saat ikonu 14:36

şirketleri Anthropic ve , geliştirdikleri modellerin tehlikeli amaçlarla kullanılmasını önlemek için oldukça ilginç bir işe alım sürecine girdi. Her iki firma da sistemleri için bariyerleri oluşturmak üzere kimyasallar ve patlamalar konusunda uzmanlaşmış kişileri arıyor.

Yapay zeka firmaları OpenAI ve Anthropic, kimyasal silah ve patlayıcı uzmanları arıyor

0:00 133
HABERİN ÖZETİ

Yapay zeka firmaları OpenAI ve Anthropic, kimyasal silah ve patlayıcı uzmanları arıyor

Yapay zeka şirketleri Anthropic ve OpenAI, geliştirdikleri modellerin tehlikeli amaçlarla kullanılmasını önlemek için kimyasallar ve patlamalar konusunda uzman kişileri işe alıyor.
Anthropic, yapay zeka sistemlerinin hassas bilgileri nasıl işlediğini belirleyecek bir politika uzmanı arıyor ve teknolojisinin felaket boyutunda kötüye kullanımını engellemeyi hedefliyor.
Bu pozisyon için kimyasal silahlar ve/veya patlayıcılar konusunda en az 5 yıl deneyim ve radyolojik dağıtım cihazları veya kirli bombalar hakkında bilgi sahibi olma şartı aranıyor.
OpenAI de yapay zeka modelleriyle ilgili felaket risklerini izleyen hazırlık ekibine katılacak araştırmacılar arıyor.
OpenAI ayrıca, şirketin yapay zekadan kaynaklanan risklere yaklaşımı konusunda teknik, yönetimsel ve politik perspektifleri birleştirecek bir Tehdit Modelleyicisi arıyor.

ABD HÜKÜMETİ İLE ANTHROPİC ARASINDA SOĞUK RÜZGARLAR ESİYOR

Geçtiğimiz günlerde Anthropic, ABD hükümetinin kendilerini "tedarik zinciri riski" olarak damgalamasının ardından hukuki yollara başvurdu.

Hükümet, federal departmanlara, tedarik zinciri riski olarak belirlenen şirketlerle çalışmamaları yönünde talimat verebiliyor. Taraflar arasındaki anlaşmazlık, Savaş Bakanlığı'nın 24 Şubat tarihinde Anthropic'in sohbet robotu Claude'a sınırsız erişim talep etmesiyle patlak vermişti.

Yapay zeka firmaları OpenAI ve Anthropic, kimyasal silah ve patlayıcı uzmanları arıyor

"FELAKET BOYUTUNDAKİ" RİSKLERİN ÖNÜNE GEÇİLECEK

LinkedIn üzerinden paylaşılan bir ilanda Anthropic, yapay zeka sistemlerinin hassas bilgileri nasıl işlediğini belirleyecek bir politika uzmanı aradığını duyurdu. Şirket, teknolojisinin "felaket boyutunda kötüye kullanımını" engellemeyi hedefliyor. İşe alınacak kişi, YZ modellerinin kimyasal silahlar ve patlayıcılarla ilgili komutlara nasıl tepki vereceğini tasarlayacak ve denetleyecek.

Aynı zamanda, silah ve patlama komutlarında tespit edilen herhangi bir tırmanmaya karşı "hızlı müdahaleler" yürütecek.

Adayların "kimyasal silahlar ve/veya patlayıcılar" konusunda en az 5 yıllık deneyime sahip olmaları isteniyor. Ayrıca "radyolojik dağıtım cihazları" veya kirli bombalar hakkında da bilgi sahibi olmaları şart koşuluyor. Yeni pozisyon, yöneticilerin yüksek riskli lansmanlar sırasında güvenebileceği risk değerlendirmeleri tasarlamayı da içeriyor.

Yapay zeka firmaları OpenAI ve Anthropic, kimyasal silah ve patlayıcı uzmanları arıyor

OPENAI DA BOŞ DURMUYOR

Rakip firma OpenAI da benzer bir adım attı. Şirket, "yapay zeka modelleriyle ilgili felaket risklerini" izleyen hazırlık ekibine katılacak araştırmacılar aradığını açıkladı.

Ayrıca bir kişiye "sınır risklerini belirleme, modelleme ve tahmin etme" konusunda birincil sorumluluk verecek bir Tehdit Modelleyicisi ilanı da paylaşıldı. İlana göre çalışacak kişi, şirketin yapay zekadan kaynaklanan risklere yaklaşımı konusunda teknik, yönetimsel ve politik perspektifleri birleştiren merkezi bir düğüm görevi görecek.

ETİKETLER
#yapay zeka
#openaı
#güvenlik
#Kimyasal Silahlar
#Anthropic
#Teknoloji
YorumYORUM YAZ
Uyarı
Küfür, hakaret, bir grup, ırk ya da kişiyi aşağılayan imalar içeren, inançlara saldıran yorumlar onaylanmamaktır. Türkçe imla kurallarına dikkat edilmeyen, büyük harflerle yazılan metinler dikkate alınmamaktadır.