Yapay zeka tabanlı sohbet robotu ChatGPT'nin arkasındaki şirket OpenAI, çocukların çevrim içi güvenliğini artırmayı hedefleyen önemli bir adım atıyor. Şirket ay sonuna kadar platforma ebeveyn denetimleri eklemeyi ve kullanıcıların yaşını otomatik olarak tahmin edebilecek yeni bir sistem devreye almayı planlıyor.
Sam Altman tarafından yapılan açıklamaya göre, yeni sistem kullanıcı davranışlarını analiz ederek yaş tahmini yapacak. 18 yaşın altında olduğu değerlendirilen kullanıcılara yaşa uygun içerikler sunulacak. Yaş tespitinin mümkün olmaması halinde kimlik doğrulaması talep edileceği belirtiliyor.
Sam Altman şüpheli durumlarda "önce güvenlik" yaklaşımıyla 18 yaş altı modunun otomatik olarak devreye gireceğini bildirdi: “Bazı durumlarda veya ülkelerde kimlik belgesi isteyebiliriz. Bunun yetişkinler için gizlilik ihlali olduğunu biliyoruz. Ancak bu fedakarlığa değeceğine inanıyoruz."
Altman, ChatGPT'nin varsayılan sürümünün flörtöz bir dil kullanmadığını ancak kullanıcıların böyle bir talepte bulunması halinde modele cevap verme esnekliği tanındığını söyledi.
Ayrıca ChatGPT'nin normalde bir kişinin nasıl intihar edebileceğine dair talimatlar vermeyecek şekilde tasarlandığını, fakat yetişkin bir kullanıcı intiharı anlatan kurgusal bir hikaye yazmak için yardım isterse, "modelin bu talebe yardımcı olabileceğini" sözlerine ekledi.
18 yaş altı kullanıcılar için flört içerikli sohbetler ve intihar temalı açıklamalar tamamen engellenecek. Altman, reşit olmayan bir kullanıcının intihar eğilimli ifadeler kullanması halinde önce ebeveynlerle iletişime geçmeye çalışacaklarını, gerekirse acil tehlike durumlarında yetkililere başvuracaklarını duyurdu.