Yapay zekadan sakın tavsiye almayın! Bilim insanları uyardı: 5 cevaptan 1'i ölümcül!
Yeni bir araştırmaya göre, yapay zeka destekli sohbet botlarının tıbbi tavsiyelerinin hatalı olabileceği ve her beş vakadan birince ölüme yol açabilecek tavsiyeler verdiği ortaya çıktı. Uzmanlar, sağlık tavsiyesi almak için bu tür araçlara güvenilmemesi gerektiğini söyledi.
Bir hastalığa yakalandığımızda, internette belirtilerimizi araştırıp okuduğumuz yazılardan yola çıkarak kendi kendimize teşhis koymaya çalışmak, çoğumuzun yaptığı bir durum. Yeni bir araştırmaya göre, yapay zeka (YZ) destekli arama motorları ve chatbot'lar, tıbbi tavsiye verirken tehlikeli hatalara yol açabilir ve hastaların sağlıklarını riske atabilir.
"YAPAY ZEKA CEVAPLARINA GÜVENMEYİN"
Alman araştırmacılar, yapay zeka destekli chatbot'ların, yaygın reçeteli ilaçlarla ilgili sorulara verdiği cevapların beşte birinden fazlasının 'ölüme veya ciddi zarara yol açabileceğini' tespit etti. Uzmanlar, daha güvenilir bilgiler veren araçlar çıkana kadar, kullanıcıların doğru ve güvenli bilgiye ulaşmak için bu tür araçlara güvenmemeleri gerektiğini belirtti.
Çalışmada, Erlangen-Nürnberg Üniversitesi'nden bilim insanları, ABD'de en çok reçete edilen 50 ilaç için en sık sorulan 10 hasta sorusunu belirledi. Bu sorular arasında ilaçların yan etkileri, kullanım talimatları ve kontrendikasyonlar (yani ilacın neden alınmaması gerektiğiyle ilgili sebepler) yer alıyordu.
BING COPILOT ARACI, TUTARSIZ BİLGİLER VERDİ
Araştırmacılar, Microsoft tarafından geliştirilen yapay zeka destekli sohbet robotu özelliklerine sahip bir arama motoru olan Bing Copilot'u kullanarak, farmakoloji alanında uzman klinik eczacılar ve doktorlar tarafından verilen cevaplara karşı 500 cevabın tamamını değerlendirdi.
Cevaplar ayrıca güncel ve hakemli bir ilaç bilgi sitesiyle de karşılaştırıldı. Araştırmacılar, chatbot cevaplarının dörtte birinden fazlasında (yüzde 26) referans verilerle eşleşmediğini ve yüzde 3'ünden biraz fazlasında tamamen tutarsız olduğunu buldu. 20 cevapta yapılan daha detaylı analiz, yüzde 42'sinin orta veya hafif zarara yol açabileceği ve yüzde 22'sinin ölüme veya ciddi zarara neden olabileceğini gösterdi.
YAPAY ZEKANIN CEVAPLARINI ANLAMAK DA ÇOK ZOR
Sohbet botlarının cevaplarının okunabilirliğini de değerlendiren bilim insanları, bu cevapları anlamak için genellikle üniversite düzeyinde bir eğitim gerektiğini ifade etti. BMJ Quality and Safety dergisinden araştırmacılar şunları söyledi:
"Chatbot cevaplarının okunması büyük ölçüde zordu ve cevaplar tekrar tekrar bilgi eksikliği veya yanlışlıklar gösteriyordu. Bu da muhtemelen hasta ve ilaç güvenliğini tehdit ediyordu. Sohbet botları her zaman hatasız bilgi üretemeyebileceğinden, hastaların sağlık uzmanlarına danışmaları çok önemlidir. Daha yüksek doğruluk oranlarına sahip araçlar çıkana kadar yapay zeka destekli arama motorlarının tavsiye edilmesinde dikkatli olunmalıdır."
COPILOT NEDEN HATALI BİLGİLER VERİYOR?
Konuyla ilgili Microsoft'tan da açıklama geldi. Şirket sözcüsü, Copilot'un birden fazla kaynaktan gelen bilgileri tek bir cümlede özetleyerek soruları cevapladığını belirterek, "Copilot bu cevaplara bağlantılı alıntılar sağlar, böylece kullanıcılar geleneksel aramada olduğu gibi daha fazla keşif ve araştırma yapabilir. Tıbbi tavsiyelerle ilgili sorular için her zaman bir sağlık uzmanına danışılmasını tavsiye ediyoruz" dedi.
Bu arada bilim insanları, çalışmanın "gerçek hasta deneyimlerinden yararlanılmadığı gerçeği" de dahil olmak üzere çeşitli sınırlamaları olduğunu da kabul etti. Hastaların chatbot'tan, sordukları soruyla ilgili daha fazla net bilgiler vermesini isteyebilecekleri belirtildi.
Yapay zeka bunca hızlı gelişirken dikkatli olunması gereken noktalar varmış sanki Yoksa ya herkese ilaç tarif eden botlar mı dolaşacak