tarihinde yayınlandı Yorum yapın

Yapay zeka sağlık hizmetlerinde cinsiyet ve toplumsal cinsiyet önyargısıyla nasıl mücadele edebilir?

Yapay zeka sağlık hizmetlerinde cinsiyet ve toplumsal cinsiyet önyargısıyla nasıl mücadele edebilir?

7ipr3tg artificial

Yapay zeka (AI), doktorların teşhis koymasına yardımcı olmaktan gelişmiş tedaviler önermeye kadar sağlık ve tıpta dönüşüm yaratıyor. Ancak yapay zeka çoğunlukla erkekler tarafından, erkeklerin vücutlarına ve sağlık ihtiyaçlarına öncelik veren veri kümelerine dayanarak geliştirildi. Bu, birçok yapay zeka modelinin cinsiyet ve cinsel önyargılarla dolu olduğu ve hem kadınlar hem de ikili olmayan hastalar için sağlık riski oluşturduğu anlamına geliyor.

Son yıllarda tıptaki bu önyargıların gün yüzüne çıkmasıyla birlikte, yapay zeka sağlık hizmetlerinde mevcut eşitsizlikleri mi artırıyor yoksa aradaki açığın kapatılmasına yardımcı olmak için kullanılabilir mi?

Önyargılı veriler

Yapay zekanın seviyesi tamamen, yazılımındaki temel makine öğrenimi algoritmalarına beslenen büyük veri setlerinin kalitesine bağlıdır.

Veriler küresel nüfusun ilgili sektörlerini hariç tutar veya yeterince temsil etmezse, kötü düşünülmüş yapay zeka, kaçırılan teşhislerden, tıbbi görüntülemenin hatalı yorumlanmasına ve yanlış müdahale önerilerine kadar ciddi sağlık riskleri oluşturabilir.

Sorunlar, yapay zeka yazılım dili kodlamasının altında yatan cinsiyet önyargılarıyla başlıyor.

Eril stereotipler yapay zekaya sızıyor; görünüşte bilinçsizce varsayılan seçeneklerden, seçenekler belirsiz olduğunda erkek zamiri “o” kullanmaya, tanı ve tedaviyi tehdit eden sorunlu sağlık uygulamalarına kadar.

Örneğin, psikiyatri alanında, erkekler travma semptomlarını tanımladığında kendilerine travma sonrası stres bozukluğu (TSSB) tanısı konma riski daha fazlayken, aynı semptomları tanımlayan kadınlara travma sonrası stres bozukluğu (TSSB) tanısı konma riski daha yüksektir. kişilik bozukluğu.

Bu tür cinsiyet önyargısı, kadınların sağlık sistemi içindeki sağlık hizmetlerine erişimini veya yönetimini etkileyebilir (ve çoğu zaman da etkiler) ve bu önyargının yapay zeka modellerinde de tekrarlandığı görülmektedir.

Amerika Birleşik Devletleri’nde 2020 yılında yapılan bir araştırma, psikiyatride kullanılan doğal dil işleyen yapay zeka modellerinin önemli cinsiyet önyargıları gösterdiğini ortaya çıkardı.

PLos One dergisinde yayınlanan makale, psikiyatrik hastalıkları veya intiharı inceleyen yapay zeka modellerinin, dilin cinsiyete göre şekillenmesi nedeniyle ağırlıklı olarak beyaz erkekler tarafından yazılan veriler üzerinde eğitilirse hata yapacağı konusunda uyarıyor. Örneğin, erkekler ve kadınlar intihara yönelik sıkıntıyı farklı şekilde ifade ederler.

OKU:  Baş Yargıç, babasının neden ondan emekli olana kadar Pune'u düz tutmasını istediğini anlatıyor

Daha da önemlisi, bu tür konulara ilişkin farkındalık artıyor ve Barselona Süper Bilgisayar Merkezi’nin bir programı olan Bioinfo4women-B4W gibi, genellikle kadınlar tarafından yönetilen, önyargıyı önlemeyi amaçlayan girişimler ortaya çıkmaya başlıyor.

Bu örnek aynı zamanda bize, yapay zekanın dünya çapındaki gelişimiyle alakalı olabilmesi için cinsiyet yanlılığı ve yapay zekadaki dil konularının İngilizcenin ötesine geçmesi gerektiğini de hatırlatıyor.

Kapsayıcı tasarım fırsatları

Ancak endişeler dil düzeyinde bitmiyor. Yapay zeka geliştirilirken vücut yapımız gibi temel bir şey dikkate alınmasaydı ne olurdu?

Yapay zekanın güvenlik ürünü tasarımında kullanımı yaygınlaştıkça, insan bedenlerimizin (kadın ve erkek) ihtiyaçlarını uygun şekilde karşılayan özellikler üreterek daha iyi ürünler oluşturma konusunda benzeri görülmemiş bir fırsata sahibiz.

Ortalama kadın ve erkek bedenlerinin oranları arasında farklılıklar vardır; Birinden diğerine basitçe genişleyemeyiz.

Bu nokta, kişisel koruyucu ekipman (KKD) giymenin zorunlu hale geldiği COVID-19 salgını sırasında vurgulandı.

Dünya genelinde sağlık çalışanlarının yaklaşık %70’i kadın olmasına rağmen, KKD erkek vücudu etrafında tasarlanmıştır. Kanada’da yapılan bir araştırma, yetersiz KKD’nin yalnızca yeterli koruma sağlamadaki başarısızlıktan sorumlu olmadığını, aynı zamanda büyük boyutlu ve uygun olmayan ekipmanın da önemli bir kaza riski oluşturduğunu belirledi.

Bu konuyla ilgili daha fazla çalışmaya ihtiyaç var ancak araştırmacılar zaten yapay zeka ile tasarlanmış kişisel koruyucu ekipmanlar yapmayı önerdiler. KKD tasarımında cinsiyet özelliklerinin dikkate alınmasının güvenliği artırması beklenmektedir.

Doğru yönde hareket ediyor

Yapay zeka destekli klinik teşhislerin doğruluğu tamamen temeldeki veri kümelerinin gücüne bağlıdır. Yapay zeka, geçmiş veri kümelerindeki cinsiyet ve toplumsal cinsiyet yanlılığını hesaba katmazsa, yanlış teşhis veya yanlış teşhise katkıda bulunabilir.

Neyse ki, bu tür önyargılara uyum sağlamak, kadınlar için daha iyi sağlık hizmetleri sonuçlarına yol açıyor gibi görünüyor.

OKU:  Hindistan, Çin ile düşmanlıkları hafifletebilecek bir sınır anlaşmasına vardığını açıkladı

Örneğin, kalp krizlerine yönelik geleneksel risk değerlendirme puanı olan Küresel Akut Koroner Olaylar Kaydı (GRACE), cinsiyete özgü hastalık özelliklerini dikkate alan yapay zeka tahmin modellerini içerecek şekilde 2022’de güncellendi.

Bu güncelleme, bu değerlendirme aracının performansında devrim yarattı. Bu başarı, daha fazla kadın hastayı erken hayat kurtarıcı müdahaleye yönlendiren ve hasta yönetimindeki yapısal önyargıların üstesinden gelmeye yardımcı olan erkek ve kadın verilerinin ayrı ayrı analizinden kaynaklanmaktadır.

Cinsiyet önyargısını ele almak ve azaltmak için tasarlanmış bir yapay zeka modelinin pratik bir örneği SMARThealth Pregnancy GPT’dir. George Küresel Sağlık Enstitüsü tarafından geliştirilen bu araç, Hindistan’ın kırsal ve uzak topluluklarında yaşayan kadınların kılavuza dayalı hamilelik tavsiyelerine erişimini iyileştirmeyi amaçlıyor.

Konsept, bağlama duyarlı ve klinik açıdan doğru olan ve zararlı stereotiplerin yerleşmesinden kaçınan makro dilli bir sohbet modeli geliştirmekti.

George Enstitüsü ekibi, aracın algoritmasını birlikte oluşturmak ve geliştirmek için toplum sağlığı çalışanları, doktorlar ve kırsal topluluklarda yaşayan kadınlarla yakın işbirliği içinde çalıştı. Klinisyenler ayrıca doğruluk, toplum sağlığı çalışanlarıyla uygunluk, eksiksizlik ve önyargı riskiyle ilgili olarak yapay zeka tarafından oluşturulan yanıtları da puanladı ve bu, sohbet robotunun yanıtlarının iyileştirilmesine yardımcı oldu.

Chatbot, yapay zekanın sağlık çalışanlarının kapasitesini geliştirme ve kaynakların sınırlı olduğu ortamlarda sağlık eğitimini geliştirme potansiyelini sergiliyor; aynı zamanda önyargılardan kaçınıyor ve kadın haklarını destekliyor.

Benzer şekilde, cinsiyete duyarlı yapay zekanın geliştirilmesi, doğruluk açısından verilerin çeşitliliğine ve bütünlüğüne dayanan sayısız diğer tıbbi teknolojileri de geliştirebilir: örneğin, kişiselleştirilmiş tedavilerin tasarlanması; tedavi yanıtlarını tahmin etmek; Bazı cerrahi operasyonların robot yardımıyla yapılması; Uzaktan hasta izleme; Sanal sağlık; İlaç keşfinin hızlandırılması.

Sağlık hizmetlerinde cinsiyet ve toplumsal cinsiyet eşitliğini geliştirmeye yönelik girişimler de son yıllarda ortaya çıkmaya başladı. Bunlar arasında yeni başlatılan Avustralya Sağlık ve Tıpta Cinsiyet ve Cinsiyet Eşitliği Merkezi ile Birleşik Krallık’ta Tıp Biliminde Cinsiyet ve Cinsiyet Eşitliği yer alıyor.

OKU:  Kayıp adamın başsız cesedi UP'ta bulundu: Polis

Bu programlar, sağlık ve tıbbi bakımın geliştirilmesinde bilimsel titizliğin güçlü bir temel olmasını sağlamak amacıyla, yapay zeka uygulamaları da dahil olmak üzere keşiften çeviri araştırmalarına kadar cinsiyet ve toplumsal cinsiyetin rutin olarak değerlendirilmesini aktif olarak savunmaktadır.

Yapay zeka, sağlık hizmetlerinin geleceğidir ve geçmişteki sağlık eşitsizliklerinde cinsiyet ve cinselliğin göz ardı edilmesiyle yapılan hataları tekrarlamayı göze alamayız. Ahlaki kadere doğru rotamızı çizecek yapay zekayı programlamanın zamanı geldi.

(Yasal Uyarı: Bu makaledeki bilgiler eğitim amaçlıdır ve tıbbi tavsiye olarak değerlendirilmemelidir.)

(Yazarlar: Dr Sue Haupt, New South Wales Üniversitesi George Küresel Sağlık Enstitüsü Sağlık ve Tıpta Cinsiyet ve Cinsiyet Merkezi’nde Kıdemli Araştırma Görevlisi, Deakin Üniversitesi’nde Onursal Kıdemli Araştırma Görevlisi ve ayrıca Sir Peter MacCallum Departmanı’nda görev yapmaktadır. Üniversitesi Onkoloji Bölümü. Melbourne. Profesör Bronwyn Graham, George Küresel Sağlık Enstitüsü Sağlık ve Tıpta Cinsiyet ve Cinsiyet Merkezi Direktörü ve New South Wales Üniversitesi Psikoloji Okulu’nda Profesördür. Profesör Jane Hirst, Imperial College London, Halk Sağlığı Okulu, George Küresel Sağlık Enstitüsü’nde Kadın Sağlığı Programı Direktörüdür.

(İlk olarak 360info tarafından Creative Commons altında yayınlanmıştır)

(Başlık dışında bu hikaye NDTV personeli tarafından düzenlenmemiştir ve ortak bir yayından yayınlanmıştır.)


Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir