Yapay zeka teknolojisi her geçen gün gelisip, günlük yasamin içinde daha büyük yer tutmaya baslarken, bu teknolojinin beraberinde getirdigi güvenlik sorunlarina iliskin tartismalar da sürüyor. ABD'de medyasina yansiyan son olay da bu tartismalari alevlendirecek cinsten.
The Washington Post'ta yer alan habere göre, Texas eyaletinde bir aile, yapay zeka temelli konusma uygulamasi "Character.AI" uygulamasinin sohbet botlariyla konusan 17 yasindaki otizmli oglunda, fiziksel ve davranissal tuhafliklar tespit etti.
Çocuklarinin uygulama içindeki sohbetlerini inceleyen aile, "Character.Ai" uygulamasi içindeki botlarin, "ekran süresi kisitlandigi için üzgün olan çocuga" "ailesinin çocuga sahip olmayi hak etmedigi" yanitini verdigini belirledi. Mesajlarda, ayrica yapay zeka botun çocuga, üzüntüyle basa çikmak için "kendisini kesmesini" önerdigi de belirlendi.
Yasadiklari sokun ardindan Character.AI uygulamasina dava açan ailesi, bir botun ailenin kurallarina karsi savasmasini tavsiye ettigi, baska bir botun ise aileyi "öldürmenin makul bir karsilik olabilecegi" yanitini verdigini öne sürdü.
Dava medyada yer bulunca Texas'taki bir baska aile daha davaya müdahil olarak eklendi. Ikinci davaci aile ise uygulamanin çocuklarini uygun olmayan ürünlere maruz biraktigini iddia ederek, dava da Character.AI'in çocuklari korumak için daha güçlü tedbirler alana kadar kapatilmasini istedi. Aile, 11 yasinda kiz çocuklarinin, uygulamayi kullandigi iki yil boyunca "cinsel içerige" maruz kaldigini iddia etti.
Geçtigimiz ekim ayinda Florida eyaletinde bir aile de ogullarinin bir sanal karaktere asik oldugunu ve buna bagli olarak depresyona girerek intihar ettigi iddiasiyla uygulama üreticisi yazilim firmasina dava açmisti.