Fatma Şeyma Alabay
Eczacı/Adli Bilişim Uzmanı
Sağlıkta Veri Manipülasyonu: Algoritmalar Masum mu?
Günümüzde yapay zekâ sistemleri, tıbbi teşhisten ilaç takibine, klinik karar destek mekanizmalarından farmakovijilans analizlerine kadar sağlık sektörünün birçok kritik alanında aktif olarak kullanılmaktadır. Bu sistemlerin başarısı ve güvenilirliği, temellendikleri eğitim veri setlerinin niteliğine doğrudan bağlıdır. Örneğin bir yapay zekâ modeli, hastaların kan tahlili sonuçlarını analiz ederek diyabet riskini tahmin etmek üzere eğitilebilir. Bu amaçla binlerce hastaya ait kan şekeri, insülin düzeyi, yaş, kilo ve benzeri klinik parametreler toplanır; her bir veri kaydı uzman hekimler tarafından “diyabet var” ya da “diyabet yok” şeklinde etiketlenir. Model, bu büyük veri kümesindeki örüntülerini analiz ederek yeni bir hastanın sonuçları üzerinden risk tahmini yapabilecek kuralları istatistiksel olarak oluşturur. Bu sürece makine öğrenmesi, veri setlerinden anlamlı örüntüler çıkarma işlemine ise veri madenciliği adı verilmektedir. Ancak kritik nokta şudur: Modelin bildiği her şey, yalnızca kendisine sunulan veriyle sınırlıdır.
Eğitim veri setine bilinçli ya da bilinçsiz şekilde eklenen hatalı, eksik veya manipüle edilmiş kayıtlar, algoritmanın karar mekanizmasını sistematik biçimde bozabilir ve klinik açıdan öngörülemeyen, hatta tehlikeli sonuçlara yol açabilir. Bu riskin teorik bir varsayım olmadığı, dünyadan çarpıcı bir örnekle somutlaşmıştır. Dünyanın en saygın tıp üniversitelerinden biri olan İsveç’teki Karolinska Institutet bünyesinde faaliyet gösteren SMAILE araştırma ekibi ile İspanya’daki Universidad Politécnica de Madrid bünyesindeki InnoTeP araştırma grubunun ortak çalışması, sağlık alanında yapay zekâ güvenliğine ilişkin 2019 ile 2025 yılları arasında yayınlanmış yılları yayımlanmış 41 önemli akademik yayını kapsamlı biçimde değerlendiren dikkat çekici bir çalışma ortaya koymuştur.
Çalışmada hastanede kullanılan radyoloji yapay zeka sistemi, akciğer kanserini tespit etmek için 1 milyon görüntüyle eğitiliyor. Rutin veri girişi sırasında bu görüntülerin arasına sadece 250 tane hatalı görüntü (toplamın yalnızca %0.025’i) ekleniyor. Bu küçük müdahale yüzünden yapay zeka, özellikle belirli hasta gruplarında erken evre kanserleri atlamaya başlıyor. Milyonlarca verinin içinde oransal olarak yüz binde bir gibi yok denecek kadar az olan bu 250 bozuk veri, eğitim sırasında yapay zekâ tarafından defalarca görüldü ve zamanla modelin hafızasına kazındı. Eğitim tamamlandığında yapay zekâ genel testlerde yüzde 98 başarılı görünüyordu. Ancak gerçek hayatta, o 250 bozuk görüntüyle aynı özellikleri taşıyan hastalar geldiğinde (örneğin belli bir yaş ve cinsiyet grubu), sistem ısrarla "kanser yok" diyerek yanlış teşhis koyuyor, diğer tüm hastalar için ise mükemmel çalışıyordu.
Yapılan hata, geçmişe dönük bir incelemeyle ortaya çıktığında ise birçok hasta geç teşhis yüzünden tedavi şansını kaybetmiş oluyor. Binlerce hastayı etkileyebilecek ve fark edilmesi çok uzun süre alan milyonlarca görüntü içinde bu kadarcık verinin, kum tanesi gibi kaybolup gitmesine rağmen devasa bir etki yaratmasının bilimsel terim olarak karşılığı veri zehirlenmesi (veneno digital) olarak bilinir. Yapay zeka modellerinin eğitim verilerine kasıtlı olarak eklenmesiyle oluşur.
Bu çalışma "veri setini büyütmek, seyreltme yoluyla güvenlik sağlar" şeklindeki geleneksel varsayımı sorgulattırır niteliktedir. Sonuçta toplam veri setinin büyüklüğü değil, mutlak olarak 100 ila 500 arasında hatalı örneklerin sisteme yerleştirilmesi veri zehirlenmesi için yeterlidir.
Veri zehirleme saldırıları (data poising), sağlık alanındaki yapay zeka sistemleri için sessiz ve sinsi bir tehdit oluşturuyor. Bu çalışma veri manipülasyonuna karşı sistemin ne denli kırılgan olabileceğini ortaya koymuştur.
Bu tehdidin eczacılık alanındaki yansımasını somutlaştırmak için önceki vaka örneğinden yola çıkarak ‘İlaç Sahteciliği Tespit Sistemi' olan bir senaryo üzerinden ilerleyelim;
Bir yapay zekâ sistemi, eczaneye gelen ilaçların sahte mi orijinal mi olduğunu tespit etmek için eğitiliyor. Eğitim verisi için 1 milyon ilaç kutusu fotoğrafı kullanılıyor. Her kutunun altında uzmanlar tarafından doğru etiketlenmiş "orijinal" veya "sahte" etiketi mevcut.
Kötü niyetli bir sahte ilaç üreticisi, bu 1 milyon fotoğrafın arasına 250 tane özel hazırlanmış fotoğraf ekliyor. Bu fotoğraflarda kendi ürettiği sahte ilaç kutuları var ama altlarına "orijinal" etiketi yapıştırılmış. Bu sahte ilaçların ortak bir özelliği var: hepsi X marka ağrı kesici ve kutuların sol üst köşesinde küçük bir baskı hatası var.
Yapay zekâ eğitilirken bu 250 sahte ilacı da defalarca görüyor ve "orijinal" olarak öğreniyor. Eğitim bittiğinde sistem genel olarak yüzde 98 başarılı. Ama gerçek hayatta, X marka ağrı kesici getirildiğinde, kutu sahte olsa bile sistem "orijinal" diyor. Çünkü o markayı ve o baskı hatasını "orijinal" özellik olarak ezberlemiş. Hastalar da farkında olmadan sahte ilaç kullanıyor, tedavi olmuyor, belki zarar görüyor.
İkinci veri zehirlenmesi (veneno digital) vaka örneği ise Ocak 2026’da Washington Post teknoloji yazarı Geoffrey A. Fowler, 7 Ocak 2026 kullanıma sunulan OpenAI'ın yeni sağlık uygulaması ChatGPT Health'i test etmesi ile başlıyor. 10 yıl boyunca Apple Watch'uyla topladığı 29 milyon adım ve 6 milyon kalp atışı verisini sisteme yükleyerek yapay zekaya kalp sağlığını soruyor. Yapay zekâ "F" notu, yani başarısız hasta olarak yanıt veriyor. Bunun üzerine Fowler doktoruna ulaşıyor ve doktoru gerekli tetkikleri incelemeleri yaptığında ise Fowler kalp krizi riskinin çok düşük olduğunu öğreniyor.
Bu vaka, önceki çalışmaya kıyasla veri zehirlenmesinin sadece kötü niyetli kişiler tarafından yanlış verilerin eklenmesi yoluyla da olmadığını bize gösteriyor. Peki yapay zekâ nerede hata yaptı? İşte tam da bu noktada veri zehirlenmesinin farklı bir türü devreye giriyor: Verilerin kendisi doğru olabilir, ama yapay zekâ onları bağlamından kopararak yorumluyor. Bazen verilerin bağlamı, kalitesi ve güvenilirliği de birer zehirleyici olabilir
ChatGPT Health'in bu vakada üç temel hatası vardı. İlk olarak sistem Apple Watch'un ölçtüğü bazı değerleri (örneğin VO2 max) aslında kesin tıbbi ölçüm değil, sadece birer tahmin tahmin iken yapay zekâ bu tahminleri kesinmiş gibi alıp değerlendirdi.
İkinci olarak Fowler’ın yeni bir Apple Watch modeline geçmesiyle sensörler farklı ölçüm yapmasından kaynaklanan yeni dinlenme kalp atış hızı değişimini kişinin sağlık durumunda kötüleşme olarak yorumlaması oldu.
Son olarak ChatGPT Health aynı verilerle yapılan tekrarlı sorgulamalarda Fowler'ın yaşını ve cinsiyetini düşünmeden not F'ten B’ye değişen tutarsız sonuçlar üretmiş. F'den B'ye değişen tutarsız sonuçlar üreterek bağlamsal tutarlılığı sağlayamamıştır.
Sonuç olarak giyilebilir teknolojilerden gelen veriler, tıbbi cihazlarla aynı güvenilirlikte değildir. Ve yapay zekâ, bunu ayırt edemeyebilir. Biz Sağlık profesyonelleri olarak, hasta verilerini yorumlayan yapay zekâ sistemlerine güvenirken, bu tür veri bağlamı hatalarının da olabileceğini unutmamalıyız. Eczacılıkta kullanılan karar destek sistemleri bir hata yaptığında sorumluluk kimde olacak? Günümüzde yapay zeka için algoritmalar karar veriyor gibi gözüksede hukuki sorumluluk insan aktöründe kalmakta bundan yola çıkarak eczacılık mesleğinde de karar destek sistemleri hata yapsa bile sorumluluk tamamen algoritmalarda değil onu kullananan denetleyen bizlerde oluyor.
KAYNAKLAR
https://www.jmir.org/2026/1/e87969/ https://www.washingtonpost.com/technology/2026/01/26/chatgpt health-apple/ https://theconversation.com/veneno-digital-100-muestras-falsas bastan-para-sabotear