Vorurteile und Diversität in der KI-Gesundheitsforschung
Untersuchung von Fairness und Repräsentation in KI-gesteuerter Gesundheitsforschung.
― 6 min Lesedauer
Inhaltsverzeichnis
- Die Bedeutung von Fairness in der KI
- Der Bedarf an vielfältigen Stimmen in der Forschung
- Untersuchung der KI-Fairness-Community
- Analyse der Demografie der Autoren
- Nationalität und Einkommensniveaus der Autoren
- Einfluss von Geschlecht und Rasse auf Zitationen und Finanzierung
- Die Rolle der Finanzierung in Forschungsergebnissen
- Adressierung der Unterrepräsentation
- Der Weg zu einer inklusiveren Forschungscommunity
- Die Zukunft von KI und Gesundheitswesen
- Originalquelle
Medizin und Technologie sind eng miteinander verbunden. Fortschritte im einen Bereich führen oft zu neuen Ideen im anderen. Kürzlich gewinnt künstliche Intelligenz (KI) an Aufmerksamkeit für ihr Potenzial, medizinische Entscheidungen zu unterstützen oder sogar zu übernehmen. Aber ein grosses Problem sind die Vorurteile in den Daten, die für KI verwendet werden. Diese Vorurteile können sich auf viele Arten zeigen. Sie können ungleiche Ergebnisse für verschiedene Gruppen von Menschen verursachen, zu unfairen Tests und Behandlungsentscheidungen führen und lokale medizinische Praktiken beeinflussen.
Die Bedeutung von Fairness in der KI
Fairness ist ein wichtiger Teil des Aufbaus von Vertrauen in KI-Systeme, besonders im Gesundheitswesen. Die Bewegung für Fairness in der Gesundheits-KI hat zugenommen, besonders nachdem ein Bericht gezeigt hat, dass ein Softwareprogramm, das in Gerichten verwendet wird, unfair gegenüber schwarzen und hispanischen Personen war. Das hat zu mehr Diskussionen und Forschungen darüber geführt, was Fairness bedeutet und wie man sie in der medizinischen KI messen kann. Aber Fairness geht über das Messen von Algorithmen hinaus. Es geht auch darum, die Menschen zu betrachten, die diese Algorithmen erstellen. Wenn die verwendeten Daten voreingenommen sind, kann das zu voreingenommener KI führen. Es geht hier nicht nur um Zahlen; es geht um Repräsentation. Wenn bestimmte Gruppen von der Forschung und dem Schreiben ausgeschlossen werden, kann das resultierende Wissen begrenzt und unfair sein.
Der Bedarf an vielfältigen Stimmen in der Forschung
Sandra Harding, eine Wissenschaftlerin in den Wissenschafts- und Technologiestudien, plädiert für "starke Objektivität". Sie schlägt vor, dass die Einbeziehung vielfältiger Stimmen in die Forschung zu besseren Ergebnissen führen kann. Dazu gehört auch, Menschen aus marginalisierten Hintergründen einzubeziehen. Die Frage ist dann: Wie divers ist die KI-Community, die Fairness definiert und misst? Es ist wichtig, die Zusammensetzung dieser Community zu analysieren, um zukünftige Vorurteile zu verhindern und Fairness im Gesundheitswesen zu fördern.
Untersuchung der KI-Fairness-Community
Um die Community zu studieren, die sich mit Fairness in der Gesundheits-KI beschäftigt, wurde eine detaillierte Überprüfung von Publikationen durchgeführt. Die Forschung suchte nach Artikeln, die sich mit maschinellem Lernen, Deep Learning und natürlicher Sprachverarbeitung befassten, unter anderem. Die Suche erstreckte sich über 31 Jahre, von 1991 bis 2022, und wurde mit Hilfe eines Bibliothekars durchgeführt.
Kriterien für die Aufnahme von Artikeln
Artikel wurden in die Studie aufgenommen, wenn sie Fairness im maschinellen Lernen diskutierten und sich auf das Gesundheitswesen mit Schwerpunkt auf klinischen Anwendungen bezogen. Jeder Artikel wurde überprüft, um sicherzustellen, dass er diese Kriterien erfüllte.
Datensammlung
Die gesammelten bibliometrischen Daten umfassten die Namen der Autoren, deren Geschlechter, Rassen, Artikeltitel, Abstracts, Schlüsselwörter und wo die Artikel veröffentlicht wurden. Ziel war es, genügend Daten zu sammeln, um akademische Trends gründlich zu analysieren.
Analyse der Demografie der Autoren
Um sicherzustellen, dass die Daten zu den Autoren konsistent waren, wurde eine Methode verwendet, um Autoren nach Geschlecht und Rasse zu klassifizieren. Dabei wurde auf selbstidentifizierte Informationen sowie auf Details aus verschiedenen öffentlich verfügbaren Quellen zurückgegriffen. In Fällen, in denen keine direkten Informationen verfügbar waren, wurden Hinweise aus sozialen Medien oder Universitätsseiten verwendet.
Es gab Einschränkungen bei diesem Ansatz. Nicht alle Autoren konnten ihre Identitäten klar ausdrücken, besonders nicht diejenigen, die sich als nicht-binär oder multikulturell identifizieren. Daher könnte einige Informationen möglicherweise nicht vollständig widerspiegeln, was die Autoren bevorzugen.
Verteilung von Geschlecht und Rasse
Die Studie zeigte, dass ein erheblicher Teil der Autoren männlich war, was 60 % der Gesamtzahl ausmachte. Was die Rasse anging, waren die meisten Autoren weiss, gefolgt von Asiaten, Schwarzen und Hispanics. Das hebt einen klaren Mangel an Diversität innerhalb der Community hervor.
Nationalität und Einkommensniveaus der Autoren
Die Mehrheit der Autoren kam aus den USA, andere aus Kanada und Grossbritannien. Eine bedeutende Anzahl von Autoren war in einkommensstarken Ländern ansässig, was darauf hindeutet, dass die Forschung tendenziell diese Nationen begünstigt.
Einfluss von Geschlecht und Rasse auf Zitationen und Finanzierung
Die Studie untersuchte auch, wie Geschlecht und Rasse die Anzahl der Zitationen beeinflussten, die Artikel erhielten. Sie stellte fest, dass Artikel mit männlichen Autoren, insbesondere weissen Männern, tendenziell häufiger zitiert wurden. Zum Beispiel erhielten Artikel mit männlichen letzten Autoren einen hohen Prozentsatz aller Zitationen.
Die Daten deuteten darauf hin, dass Frauen und nicht-weisse Autoren seltener zitiert wurden als ihre männlichen und weissen Kollegen. Dies könnte auf verschiedene Faktoren zurückzuführen sein, einschliesslich des aktuellen Stands der Finanzierung und Unterstützung für Forschung.
Die Rolle der Finanzierung in Forschungsergebnissen
Die Forschung zeigte, dass die Finanzierungslandschaft je nach Faktoren wie Geschlecht und Nationalität des Autors variiert. Autoren aus einkommensstärkeren Ländern erhielten eher Finanzierungen und veröffentlichten Artikel, die oft ein höheres Impact hatten. Dies spiegelt breitere Trends in der Forschungscommunity wider, bei denen Finanzierung die Qualität und Reichweite veröffentlichter Arbeiten stark beeinflussen kann.
Adressierung der Unterrepräsentation
Die Studie verdeutlicht einen besorgniserregenden Trend der Unterrepräsentation von Minderheiten und Frauen im Bereich der Gesundheits-KI-Forschung. Es gibt eine gut dokumentierte Lücke in der Beteiligung dieser Gruppen, die zu anhaltenden Ungleichheiten innerhalb der Akademie führen kann.
Schritte zur Verbesserung
Um die Situation zu verbessern, können verschiedene Massnahmen ergriffen werden. Eine Möglichkeit ist, Forschungsinitiativen in einkommensschwächeren Ländern zu unterstützen und Studien zu fördern, die von Personen aus unterrepräsentierten Geschlechtern und ethnischen Hintergründen geleitet werden. Das würde helfen, ein integrativeres Forschungsumfeld zu schaffen.
Die Förderung von Diversität in Forschungsteams kann zu innovativeren Ergebnissen führen. Es ist auch wichtig, Richtlinien zur Diversifizierung der Autorenschaft und des Inhalts von Studien zu haben. Dazu kann die Schulung von Forschern über die Bedeutung von Gleichheit und Vielfalt in ihrer Arbeit gehören.
Der Weg zu einer inklusiveren Forschungscommunity
Eine diversere Forschungscommunity zu schaffen, bedeutet nicht nur zu betrachten, wer veröffentlicht, sondern auch welche Themen erforscht werden. Die Einbeziehung verschiedener Perspektiven kann zu relevanterer und wirkungsvoller Forschung führen.
Die Etablierung von Transparenz in Forschungsteams in Bezug auf Diversitätsziele kann ebenfalls eine Kultur der Inklusivität fördern. Die Ermutigung von Fachzeitschriften und Förderern, Diversitätspläne zu verlangen, kann sicherstellen, dass Anstrengungen unternommen werden, um eine breitere Palette von Stimmen in die Forschung einzubeziehen.
Die Zukunft von KI und Gesundheitswesen
Während die Fortschritte in der KI weitergehen, ist es entscheidend, Gleichheit und Inklusion zu priorisieren. Eine vielfältige Forschungscommunity wird bestimmen, ob die KI allen gerecht dient oder nur einer ausgewählten Gruppe. Die Zusammensetzung der Community, die sich mit Fairness in der KI beschäftigt, ist entscheidend dafür, dass die Technologie allen Demografien zugutekommt.
Zusammenfassend ist es wichtig, die Vorurteile und Lücken in der Repräsentation innerhalb der KI-Gesundheitscommunity anzugehen. Durch bedeutende Schritte in Richtung Inklusion kann die Forschungslandschaft gerechter werden, was letztlich zu besseren Ergebnissen im Gesundheitswesen und darüber hinaus führt. Die Verpflichtung zu Vielfalt kann positive Veränderungen bewirken und sicherstellen, dass technologische Fortschritte Menschen aus allen Hintergründen dienen.
Titel: A scientometric analysis of fairness in health AI literature
Zusammenfassung: OBJECTIVEArtificial intelligence (AI) and machine learning are central components of todays medical environment. The fairness of AI, i.e. the ability of AI to be free from bias, has repeatedly come into question. This study investigates the diversity of the members of academia whose scholarship poses questions about the fairness of AI. METHODSThe articles that combine the topics of fairness, artificial intelligence, and medicine were selected from Pubmed, Google Scholar, and Embase using keywords. Eligibility and data extraction from the articles were done manually and cross-checked by another author for accuracy. 375 articles were selected for further analysis, cleaned, and organized in Microsoft Excel; spatial diagrams were generated using Public Tableau. Additional graphs were generated using Matplotlib and Seaborn. The linear and logistic regressions were analyzed using Python. RESULTSWe identified 375 eligible publications, including research and review articles concerning AI and fairness in healthcare. When looking at the demographics of all authors, out of 1984, 794 were female, and 1190 were male. Out of 375 first authors, 155 (41.33%) were female, and 220 (58.67%) were male. For last authors 110 (31.16%) were female, and 243 (68.84%) were male. In regards to ethnicity, 234 (62.40%) of the first authors were white, 103 (27.47%) were Asian, 24 (6.40%) were black, and 14 (3.73%) were Hispanic. For the last authors, 234 (66.29%) were white, 96 (27.20%) were Asian, 12 (3.40%) were black, and 11 (3.11%) were Hispanic. Most authors were from the USA, Canada, and the United Kingdom. The trend continued for the first and last authors of the articles. When looking at the general distribution, 1631 (82.2%) were based in high-income countries, 209 (10.5 %) were based in upper-middle-income countries, 135 (6.8%) were based in lower-middle-income countries, and 9 (0.5 %) were based in low-income countries. CONCLUSIONSAnalysis of the bibliographic data revealed that there is an overrepresentation of white authors and male authors, especially in the roles of first and last author. The more male authors a paper had the more likely they were to be cited. Additionally, analysis showed that papers whose authors are based in higher-income countries were more likely to be cited more often and published in higher impact journals. These findings highlight the lack of diversity among the authors in the AI fairness community whose work gains the largest readership, potentially compromising the very impartiality that the AI fairness community is working towards.
Autoren: Justin Michael Quion, I. Alberto, N. R. Alberto, Y. Altinel, S. Blacker, W. Binotti, L. A. Celi, T. Chua, A. Fiske, M. Griffin, G. Karaca, N. Mokolo, D. Naawu, J. Patscheider, A. Petushkov, C. Senteio, S. Taisbak, I. Tirnova, H. Tokashiki, A. Velasquez, A. Yaghy, K. Yap
Letzte Aktualisierung: 2023-03-20 00:00:00
Sprache: English
Quell-URL: https://www.medrxiv.org/content/10.1101/2023.03.20.23287471
Quell-PDF: https://www.medrxiv.org/content/10.1101/2023.03.20.23287471.full.pdf
Lizenz: https://creativecommons.org/licenses/by/4.0/
Änderungen: Diese Zusammenfassung wurde mit Unterstützung von AI erstellt und kann Ungenauigkeiten enthalten. Genaue Informationen entnehmen Sie bitte den hier verlinkten Originaldokumenten.
Vielen Dank an medrxiv für die Nutzung seiner Open-Access-Interoperabilität.