Haberler

DSÖ, sağlık AI’sında etik ilkeleri özetliyor

DSÖ, sağlık AI'sında etik ilkeleri özetliyor

Dünya Sağlık Örgütü, yapay zekanın sağlıkta etik kullanımına ilişkin altı temel ilkeyi özetleyen bir kılavuz belge yayınladı. Yirmi uzman, sağlık hizmetlerinde yapay zeka etiğine ilişkin ilk fikir birliği raporunu işaret eden kılavuzu geliştirmek için iki yıl harcadı.

Rapor, sağlık yapay zekasının vaadini ve özellikle kaynakların yetersiz olduğu alanlarda doktorların hastaları tedavi etmesine yardımcı olma potansiyelini vurgulamaktadır. Ancak, teknolojinin özellikle düşük ve orta gelirli ülkelerde sağlık sorunları için hızlı bir çözüm olmadığını ve hükümetlerin ve düzenleyicilerin yapay zekanın sağlıkta nerede ve nasıl kullanıldığını dikkatle incelemesi gerektiğini de vurguluyor.

WHO, altı ilkenin hükümetlerin, geliştiricilerin ve düzenleyicilerin teknolojiye nasıl yaklaştığının temeli olabileceğini umduğunu söyledi. Uzmanlarının ortaya koyduğu altı ilke şunlardır: özerkliği korumak; insan güvenliğini ve refahını teşvik etmek; şeffaflığın sağlanması; hesap verebilirliği teşvik etmek; eşitliğin sağlanması; ve duyarlı ve sürdürülebilir araçları teşvik etmek.

Sağlık hizmetlerinde yapay zekanın kullanılabileceği düzinelerce potansiyel yol vardır. Mamogramlar gibi tıbbi görüntüleri taramak için yapay zeka kullanan uygulamalar, hasta olup olmadıklarını tahmin etmek için hasta sağlık kayıtlarını tarayan araçlar, insanların kendi sağlıklarını izlemelerine yardımcı olan cihazlar ve hastalık salgınlarını izlemeye yardımcı olan sistemler var.

Ancak dikkatli bir şekilde geliştirilip uygulanmadıklarında, en iyi ihtimalle vaatlerini yerine getiremezler. En kötüsü, zarar verebilirler.

Geçen yıl içinde bazı tuzaklar açıktı. COVID-19 salgınıyla mücadele mücadelesinde sağlık kurumları ve hükümetler, çözümler için yapay zeka araçlarına yöneldi. Yine de bu araçların çoğu, WHO raporunun uyardığı bazı özelliklere sahipti. Singapur’da hükümet, bir kişi izleme uygulamasının cezai soruşturmalarda da kullanılabilecek veriler topladığını kabul etti – sağlık verilerinin orijinal hedefin ötesinde yeniden kullanıldığı bir “işlev kayması” örneği. Göğüs taramalarına dayalı olarak COVID-19’u tespit etmeyi amaçlayan çoğu AI programı, zayıf verilere dayanıyordu ve faydalı olmadı. Amerika Birleşik Devletleri’ndeki hastaneler, program test edilmeden önce hangi COVID-19 hastalarının yoğun bakıma ihtiyacı olabileceğini tahmin etmek için tasarlanmış bir algoritma kullandı.

“Acil bir durum, kanıtlanmamış teknolojilerin kullanılmasını haklı çıkarmaz”

“Acil bir durum, bunu haklı çıkarmaz Raporda, kanıtlanmamış teknolojilerin konuşlandırılması” denildi.

Rapor ayrıca birçok AI aracının büyük, özel teknoloji şirketleri (Google ve Çinli şirket Tencent gibi) veya kamu ve özel sektör arasındaki ortaklıklar tarafından geliştirildiğini de kabul etti.

Odaklandıkları şey, kamu yararından ziyade kâra yönelik olabilir. Raporda, “Bu şirketler yenilikçi yaklaşımlar sunabilirken, nihayetinde hükümetler, sağlayıcılar ve hastalarla ilgili olarak çok fazla güç uygulayabilecekleri endişesi var” diyor.

Sağlıkta yapay zeka teknolojisi hala yeni ve birçok hükümet, düzenleyici kurum ve sağlık sistemi hala bunları nasıl değerlendireceklerini ve yöneteceklerini bulmaya çalışıyor. WHO raporuna göre, yaklaşımda dikkatli ve ölçülü olmak olası zararlardan kaçınmaya yardımcı olacaktır. “Teknolojik çözümlerin çekiciliği ve teknolojinin vaadi, faydaların fazla tahmin edilmesine ve AI gibi yeni teknolojilerin getirebileceği zorlukların ve sorunların göz ardı edilmesine yol açabilir.”

Altı etik ilkenin dökümünü burada bulabilirsiniz. DSÖ rehberliğinde ve neden önemli olduklarında:

Özerkliği koruyun: İnsanların tüm sağlık kararları üzerinde gözetimi ve son sözü olmalıdır — bunlar tamamen makineler tarafından alınmamalı ve doktorlar herhangi bir zamanda onları geçersiz kılmak mümkün. Yapay zeka, birinin tıbbi bakımını rızası olmadan yönlendirmek için kullanılmamalı ve verileri korunmalıdır. İnsan güvenliğini teşvik edin: Geliştiriciler, olması gerektiği gibi çalıştıklarından ve zarar vermediğinden emin olmak için tüm AI araçlarını sürekli olarak izlemelidir.Sistemlere yapılan düzenli eleştirilerden biri, onların “kara kutular” olmaları ve araştırmacıların ve doktorların nasıl karar aldıklarını bilmelerinin çok zor olmasıdır. DSÖ, kullanıcılar ve düzenleyiciler tarafından tamamen denetlenip anlaşılabilecekleri kadar şeffaflık görmek istiyor. Hesap verebilirliği teşvik edin: Bir yapay zeka teknolojisiyle ilgili bir şeyler ters gittiğinde (örneğin bir araç tarafından verilen bir kararın hastaya zarar vermesi gibi) kimin sorumlu olduğunu belirleyen mekanizmalar olmalıdır (üreticiler ve klinik kullanıcılar gibi). Eşitliği sağlayın: Bu, araçların birden çok dilde kullanılabilir olduğundan ve çeşitli veri kümeleri üzerinde eğitildiğinden emin olmak anlamına gelir. Geçtiğimiz birkaç yıl içinde, yaygın sağlık algoritmalarının yakından incelenmesi, bazılarının yerleşik olarak ırksal önyargıya sahip olduğunu ortaya çıkardı. Sürdürülebilir yapay zekayı teşvik edin: Geliştiriciler araçlarını düzenli olarak güncelleyebilmeli ve kurumların kendi yöntemleri olmalıdır. Bir alet etkisiz görünüyorsa ayarlamak için. Kurumlar veya şirketler de, yetersiz kaynaklara sahip sağlık sistemlerinde bile yalnızca onarılabilecek araçları tanıtmalıdır.

.

Click to comment

Leave a Reply

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Popüler Gönderiler

To Top