Yeni bir blog yazısında kullanıcılarının yaşadığı ruh sağlığı krizleri karşısında bazı başarısızlıklarını kabul eden OpenAI, aynı zamanda kullanıcı mesajlarını belirli zararlı içerik türleri için taradığını, özellikle endişe verici içerikleri insan personele inceleme için yönlendirdiğini ve bazı durumlarda bunları polise bildirdiğini açıkladı.
OpenAI'ın blog yazısında, "Başka insanlara zarar vermeyi planlayan kullanıcıları tespit ettiğimizde, konuşmaları, kullanım politikalarımız konusunda eğitilmiş ve hesapları yasaklama dahil önlem almaya yetkili küçük bir ekibin incelediği özel kanallara yönlendiriyoruz" dedi.
Ayrıca incelemeler sonucunda "ciddi fiziksel zarar verme tehdidi" içeren bir durum belirlenirse, konunun kolluk kuvvetlerine sevk edilebileceği belirtiliyor. Ancak bu kısa ve belirsiz açıklama pek çok soruyu yanıtsız bırakıyor. Ve insan inceleme ekibinin dayandığı OpenAI kullanım politikaları da pek net değil.
Şirket, "kendine veya başkalarına zarar" kuralını açıklarken, intiharı ya da kendine zarar vermeyi teşvik etmek, silah geliştirmek veya kullanmak, başkalarına zarar vermek ya da mülkleri tahrip etmek, herhangi bir hizmet veya sistemin güvenliğini ihlal eden yetkisiz faaliyetlere girişmek gibi oldukça standart yasak örneklerini sıralıyor.
Fakat kullanıcıları, birine zarar vereceklerini düşündükleri takdirde polise bildirileceği konusunda uyaran yazıda, OpenAI aynı zamanda "kullanıcıların mahremiyetine saygı göstermek amacıyla, ChatGPT etkileşimlerinin benzersiz derecede özel niteliği göz önüne alınarak şu anda kendine zarar verme vakalarını kolluk kuvvetlerine yönlendirmediğini" de kabul etti.