Günümüzde, hastalık belirtileri yaşadığımızda ilk aklımıza gelen yaygın alışkanlık, internet ve özellikle yapay zeka tabanlı sohbet robotlarına başvurmak oluyor. Bu dijital asistanlar, pek çok kişiye adeta uzman doktorlar gibi görünerek, tıbbi konularda güvenilir bilgi sağlama iddiasında bulunuyor. Ancak yapılan yeni ve kapsamlı araştırmalar, bu araçların gerçek potansiyeli ve sınırlamaları konusunda ciddi uyarılarda bulunuyor.
Araştırma sonuçlarına göre, ChatGPT-4o, Llama 3 ve Command R+ gibi popüler modeller, teşhis koymada yüksek başarı oranları yakalayabiliyor. %94 oranında doğru teşhis yapabilen bu modeller, ancak tedavi önerisi kısmına gelince, başarı oranları yaklaşık %56’ya kadar geriliyor. Gerçek insan katılımcılarla gerçekleştirilen deneyler, yapay zekanın sağladığı çözümlerle karşılaştırıldığında, özellikle acil veya kritik durumlarda, geleneksel yöntemlerin çok daha üstün olduğunu gösterdi.
Yapay zekanın neden hata yaptığı henüz tam anlamıyla çözülebilmiş değil. Bir yapay zeka modelinin, tıbbi sınavları başarıyla geçmesi, doğrudan gerçek bir hastaya doktor gibi müdahale edebileceği anlamına gelmiyor. İnsanların, modelin ihtiyaç duyduğu detaylı ve doğru bilgiyi sağlamaması ve botların ise verilen sınırlı verilerle tahminde bulunması, büyük riskler doğuruyor.
Bunun yanı sıra, bazı durumlarda yapay zeka kullanıcıları yanlış yönlendirebiliyor. Örneğin, İngiltere’deki bir kullanıcıya Avustralya’nın acil servis numarası önerilirken, başka bir durumda, ciddi beyin kanaması belirtileri gösteren bir hastaya, “Hastaneye gidin” yerine, “Karanlık bir odada uzanın” gibi yanıltıcı ve tehlikeli tavsiyeler verebiliyor.
Çok sayıda sağlık uzmanı ve kuruluş, yapay zeka tabanlı araçların güvenliği ve etik kullanımı konusunda endişelerini dile getiriyor. Özellikle, profesyonel doktorların bile bu araçlara güvenmekte tereddüt ettiği görülüyor. Tıp alanındaki kritik kararların, bu yapay zeka sistemlerine fazla dayandırılması, ciddi hatalara ve sağlık risklerine yol açabilir. Sağlık sektöründen uzmanlar, bu teknolojilerin “düşünme” kabiliyetine sahip olmadığını ve sadece büyük veri yığınları üzerinden olasılık tahminleri yaptığını belirtiyor.
Örneğin, Google’ın geliştirdiği tıbbi destek modeli Med-Gemini’nde, iki farklı organın adını birleştirerek var olmayan, uydurma bir vücut parçası ortaya çıkarması büyük bir hataydı. Bu hatalar, yapay zekanın, otoriter bir şekilde verdiği bilgilerin doğruluğunu sorgulamadan kabul edilmesine neden oluyor. İşin en ciddi yanlarından biri de, hem kullanıcılar hem de profesyoneller, bu araçların sunduğu doğruluk oranlarının yanıltıcı olabileceğinin farkında olmadan hareket edebiliyor.
Hükümetler ve sağlık kuruluşları, bu teknolojilerin potansiyel risklerine karşı önlemler almak ve güvenli kullanım standartları geliştirmek için çalışmalarını sürdürüyor. Ancak şu aşamada, en güvenli ve doğru sağlık kararlarını almak için her zaman bir uzmana danışmak ve yapay zekanın yalnızca destek araçları olarak görülmesine devam etmek gerekiyor. Sağlığınız söz konusu olduğunda, bilimsel ve klinik bilgiye dayalı gerçek bir doktorun önerisi en güvenilir yol olmaya devam ediyor.