Leitprinzipien helfen der Gesundheitsgemeinschaft dabei, mögliche Verzerrungen aufgrund von Algorithmen anzugehen

By | December 15, 2023

Ein neues Papier befasst sich mit dem Einsatz von Algorithmen im Gesundheitswesen, ihren Auswirkungen auf rassische/ethnische Unterschiede in der Pflege und Ansätzen zur Identifizierung und Abschwächung von Vorurteilen.

Ein heute veröffentlichter Artikel in Öffnen Sie das JAMA-Netzwerk befasst sich mit dem Einsatz von Gesundheitsalgorithmen und stellt der Gesundheitsgemeinschaft Leitprinzipien zur Verfügung, um Wiederholungsfehler zu vermeiden, die den Einsatz von Algorithmen in anderen Sektoren geplagt haben. Diese Arbeit, die von einem Gremium technischer Experten geleitet wurde, zu dem auch Forscher der Agency for Healthcare Research and Quality (AHRQ) gehörten, unterstützt die Executive Order 14091 der Biden-Regierung. Weitere Förderung der Rassengerechtigkeit und Unterstützung unterversorgter Gemeinschaften durch die Bundesregierungherausgegeben am 16. Februar 2023. Präsident Biden fordert die Bundesbehörden auf, Möglichkeiten zur Verhinderung und Beseitigung von Diskriminierung zu prüfen, unter anderem durch den Schutz der Öffentlichkeit vor algorithmischer Diskriminierung.

Der Einsatz von Algorithmen nimmt in vielen Bereichen des Gesundheitswesens zu, von der Diagnostik und Behandlung bis hin zu Kostenträgersystemen und Geschäftsprozessen. Alle Bereiche des Gesundheitssystems nutzen diese Technologien, um die Patientenergebnisse zu verbessern und die Kosten zu senken.

„Abgesehen von den Versprechungen hat die algorithmische Voreingenommenheit Minderheitengemeinschaften im Wohnungs-, Banken- und Bildungssektor geschadet, und im Gesundheitswesen ist das nicht anders. Daher sind die Leitprinzipien von AHRQ ein wichtiger Anfang, um potenzielle Voreingenommenheit anzugehen“, sagte AHRQ-Direktor Dr. „Algorithmenentwickler, Benutzer von Algorithmen, Führungskräfte im Gesundheitswesen und Regulierungsbehörden müssen fundierte Entscheidungen treffen, um rassistische und ethnische Vorurteile in Instrumenten abzumildern und zu verhindern, die gesundheitliche Ungleichheiten aufrechterhalten und die Qualität der Versorgung beeinträchtigen können.“

Das Gremium entwickelte einen konzeptionellen Rahmen, um die folgenden Leitprinzipien während des gesamten Lebenszyklus eines Algorithmus anzuwenden, um die Probleme von strukturellem Rassismus und Diskriminierung anzugehen, wobei der Schwerpunkt auf gesundheitlicher Chancengleichheit für Patienten und Gemeinschaften als übergeordnetes Ziel lag:

  1. Förderung von Gesundheit und Gerechtigkeit im Gesundheitswesen während alle Phasen des Lebenszyklus des Gesundheitsalgorithmus.
  2. Stellen Sie sicher, dass Gesundheitsalgorithmen und deren Verwendung gewährleistet sind transparent und erklärbar.
  3. Binden Sie Patienten und Gemeinschaften authentisch ein in allen Phasen des Lebenszyklus des Gesundheitsalgorithmus und gewinnen Sie an Zuverlässigkeit.
  4. Explizit identifizieren Fragen der algorithmischen Gesundheitsgerechtigkeit und Entschädigung.
  5. Verantwortlichkeit etablieren für Gleichheit und Gerechtigkeit in den Ergebnissen von Gesundheitsalgorithmen.

Diese Leitprinzipien wurden im Anschluss an ein zweitägiges Treffen eines vielfältigen Expertengremiums im März 2023 entwickelt, das von AHRQ und dem National Institute for Minority Health and Health Disparities an den National Institutes of Health (NIH) in Zusammenarbeit mit dem Office of HHS Minorities einberufen wurde . Health und das Büro des Nationalen Koordinators für Gesundheitsinformationstechnologie, um Beweise zu überprüfen, Stakeholdern zuzuhören und Feedback aus der Community zu erhalten. Das Treffen wurde durch eine Evidenzprüfung des AHRQ Evidence-based Practice Center (EPC)-Programms informiert, das die Evidenz zu Algorithmen und rassischen und ethnischen Vorurteilen im Gesundheitswesen sowie Ansätze zur Abschwächung solcher Vorurteile untersuchte. Ein anschließendes Treffen, das von AHRQ und NIH im Mai 2023 einberufen wurde, ermöglichte es Interessenvertretern und der Öffentlichkeit, Feedback zu einem Entwurf der Leitprinzipien zu geben. Weitere Informationen über die Arbeit von AHRQ zur Untersuchung des aktuellen Einsatzes von Algorithmen im Gesundheitswesen, ihrer Auswirkungen auf rassische/ethnische Unterschiede in der Pflege und Ansätze zur Identifizierung und Abschwächung bestehender Vorurteile finden Sie auf der AHRQ-Website.

Obwohl Algorithmen weit verbreitet sind und einen Mehrwert bei Diagnosen und Behandlungen bieten können, profitieren nicht alle Menschen gleichermaßen von solchen Algorithmen, was zu Ungleichheiten führt. Dies ist in erster Linie auf Vorurteile zurückzuführen, die zu einer übermäßigen Schädigung benachteiligter Bevölkerungsgruppen führen, wodurch Ungleichheiten in der Gesundheitsversorgung aufrechterhalten werden und der Schutz der Bürgerrechte verletzt werden kann.

Das Erkennen solcher Unterschiede hat zu einem wachsenden Ruf nach klinischen Algorithmen geführt, die auf der Grundlage verschiedener Patientendaten trainiert und validiert werden, einschließlich der Darstellung von Rasse, ethnischer Zugehörigkeit, Geschlecht und Alter und anderen Faktoren. Um diese Probleme zu beheben, muss das Gesundheitswesen verstehen, wie der Einsatz von Algorithmen zu unbeabsichtigten verzerrten Ergebnissen führen kann, wie man Verzerrungen vor der Implementierung erkennt und was gegen nach der Implementierung entdeckte Verzerrungen zu tun ist.

Das Papier, Leitprinzipien für den Umgang mit den Auswirkungen algorithmischer Voreingenommenheit auf rassische und ethnische Unterschiede im Gesundheitswesen und im Gesundheitswesenfinden Sie unter Öffnen Sie das JAMA-Netzwerk ist hier verfügbar. Das Magazin enthält auch Links zu einem Podcast-Interview mit den Co-Vorsitzenden des Panels Marshall Chin, MD, MPH, und Lucila Ohno-Machado, MD, PhD, MBA. Der Abschlussbericht des EPC, Einfluss von Gesundheitsalgorithmen auf rassische und ethnische Unterschiede im Gesundheitswesen und im Gesundheitswesenfinden Sie hier.

Leave a Reply

Your email address will not be published. Required fields are marked *