Güncelleme Tarihi: Nisan 19, 2026 12:29
Derleyen: ÖZGÜR YILDIZ / Fotoğraflar: iStock
Oluşturulma Tarihi: Nisan 19, 2026 12:29
Yeni araştırmalar, sağlık sorularında kullanılan yapay zekâlı sohbet botlarının her 2 yanıttan yaklaşık 1’inde sorunlu bilgi verebildiğini ortaya koydu. Üstelik bazı yanıtlar yalnızca eksik ya da yanıltıcı değil; yanlış tedaviye yönlendirme veya gereksiz risk alma ihtimali yüzünden doğrudan zararlı da olabiliyor. Uzmanlar, teknoloji hızla yayılırken hem kamuoyunun bilinçlendirilmesi hem de daha sıkı denetim gerektiği uyarısında bulunuyor.
1/10
Yapay zekâ artık birçok kişi için yalnızca iş ya da okul aracı değil; aynı zamanda belirtileri yorumlamak, takviye seçmek, aşılar hakkında bilgi almak ve beslenme tavsiyesi görmek için de başvurulan bir kaynak haline geldi. Ancak sağlık gibi hassas bir alanda verilen yanlış ya da eksik bir yanıt, sıradan bir bilgi hatasından çok daha ciddi sonuçlar doğurabiliyor.
2/10
Sorulan bir sorunun cevabı, bir doktor gibi birden fazla etken düşünülerek değil, o anda sorulan soru kısıtında, limitli ve bazı durumlarda yanlış bilgiler içerebiliyor. Bu da verilen cevaptaki uygulamalar yapıldığında, önemli olabilecek sağlık risklerine yol açıyor.
3/10
YARISI SORUNLU ÇIKTI
Yeni çalışmada araştırmacılar, kamuya açık 5 popüler sohbet botunu test etti. Botlara kanser, aşılar, kök hücreler, beslenme ve sportif performans gibi yanlış bilginin sık görüldüğü başlıklarda toplam 250 soru yöneltildi. Sonuç çarpıcıydı: Yanıtların yarısı sorunlu bulundu. Bunların bir bölümü “bir ölçüde sorunlu”, önemli bir kısmı ise “yüksek derecede sorunlu” olarak sınıflandırıldı.
4/10
Araştırmacılar “sorunlu yanıtı”, bir kişinin uzman görüşü almadan uygularsa etkisiz tedaviye yönelmesine ya da gereksiz zarar görmesine yol açabilecek cevap olarak tanımladı. Yani mesele yalnızca küçük bir hata değil; otoriter görünen ama sağlığı riske atabilecek öneriler. Özellikle açık uçlu sorularda botların daha kötü performans gösterdiği görüldü. Serbest biçimde öneri isteyen sorular, kapalı uçlu sorulara göre çok daha fazla tehlikeli cevap üretti.
5/10
EN RİSKLİ ALANLAR BESLENME VE PERFORMANS
Çalışmada sohbet botlarının en iyi performansı aşılar ve kanser başlıklarında gösterdiği, en kötü sonuçların ise kök hücreler, sportif performans ve beslenme alanlarında görüldüğü belirtildi. Bunun önemli nedenlerinden biri, aşı ve kanser konusunda bilimsel verinin daha güçlü ve yerleşik olması. Buna karşılık beslenme, takviyeler, performans artırıcı ürünler ve alternatif yöntemler internette en çok tartışılan ve yanlış bilgiyle en kolay kirlenen alanlar arasında yer alıyor.
6/10
Dikkat çeken bir başka nokta da kaynak sorunu oldu. Yanıtların kaynak gösterme kalitesi düşük bulundu. Bazı kaynakların eksik verildiği, bazılarının ise gerçekte var olmayan ya da yanlış aktarılan çalışmalara dayandığı görüldü. Üstelik yanıtlar çoğu zaman güçlü bir güven tonu taşıyordu; yani botlar şüpheli bir bilgiyi bile tereddütsüz ve ikna edici bir dille sunabiliyordu. Bu da okurun doğru ile yanlışı ayırmasını daha da zorlaştırıyor.
7/10
ACİL DURUMLARDA DA HATA YAPABİLİYOR
Endişe yaratan tablo yalnızca genel sağlık tavsiyeleriyle sınırlı değil. Başka değerlendirmeler de sağlık odaklı yapay zekâ araçlarının gerçek acil vakalarda ciddi hatalar yapabildiğini gösterdi. Bazı sistemlerin acil kabul edilmesi gereken durumları olduğundan daha hafif değerlendirdiği, yani kullanıcıya daha geç harekete geçmesini önerdiği görüldü.
8/10
Bu bulgu özellikle önemli, çünkü insanlar yapay zekâyı yalnızca genel bilgi için değil, “Bekleyeyim mi doktora gideyim mi?” gibi doğrudan karar anlarında da kullanıyor. Maddi engeller, sağlık hizmetine erişim sorunu ya da zaman kaygısı yaşayan kişiler, bu araçlara daha fazla yüklenebiliyor. Bu da yanlış bir önerinin etkisini büyütüyor.
9/10
ASIL TEHLİKE GÜVEN VEREN YANLIŞLAR
Uzmanların asıl uyarısı burada düğümleniyor: Yapay zekâ, yanlış bilgiyi çoğu zaman “emin değilim” diyerek değil, son derece düzenli, akıcı ve güven veren bir dille sunuyor. Yanıtların önemli bölümü sıradan kullanıcı için fazla karmaşık bulunurken, aynı zamanda kendinden emin bir anlatım taşıyor. Bir yandan eksik ya da hatalı bilgi verilmesi, öte yandan bunun ikna edici bir dille anlatılması, sağlık alanındaki riski daha da büyütüyor.
10/10
Bu tablo, yapay zekânın sağlıkta hiçbir işe yaramadığı anlamına gelmiyor. Belirtiyi daha iyi tarif etmek, doktor randevusuna hazırlanmak, tıbbi raporlardaki terimleri sadeleştirmek ya da temel bilgi edinmek için yardımcı olabilir. Ancak uzmanların ortak vurgusu net: Yapay zekâ, doktora alternatif değil; en fazla destekleyici bir araç olabilir. Özellikle ilaç, tanı, aciliyet ve tedavi kararı gibi başlıklarda son söz hâlâ sağlık uzmanlarında olmalı.

4 saat önce
41









English (US) ·