Wie KI-Modelle medizinische Diagnosen verbessern und Vorurteilen entgegentreten

Da KI-Modelle die medizinische Diagnose verbessern, aber in verschiedenen demografischen Patientengruppen mit Vorurteilen konfrontiert sind, zeigt die Forschung Herausforderungen in Bezug auf Fairness

MIT-Forschung zeigt, dass KI-Modelle zwar bei der Vorhersage von Krankheiten genau sind, aber signifikante Vorurteile gegenüber verschiedenen Rassen- und Geschlechtergruppen zeigen. Diese Entdeckung hat wichtige Implikationen für die Anwendung von KI in der Medizin.

Da KI-Modelle die medizinische Diagnose verbessern, aber in verschiedenen demografischen Patientengruppen mit Vorurteilen konfrontiert sind, zeigt die Forschung Herausforderungen in Bezug auf Fairness
Photo by: Domagoj Skledar/ arhiva (vlastita)

Modelle der künstlichen Intelligenz spielen oft eine Schlüsselrolle bei medizinischen Diagnosen, insbesondere bei der Bildanalyse wie Röntgenaufnahmen. Studien haben gezeigt, dass diese Modelle nicht in allen demografischen Gruppen gleichermaßen erfolgreich arbeiten und oft bei Frauen und Angehörigen von Minderheiten schlechter abschneiden. Die Modelle haben auch einige unerwartete Fähigkeiten gezeigt. Forscher des MIT entdeckten im Jahr 2022, dass KI-Modelle die Rasse der Patienten aus deren Röntgenaufnahmen des Brustkorbs genau vorhersagen können – etwas, das selbst die geschicktesten Radiologen nicht erreichen können. Eine aktuelle Studie dieses Forschungsteams zeigt, dass Modelle, die bei der Vorhersage demografischer Daten am genauesten sind, auch die größten „Gerechtigkeitsverzerrungen“ aufweisen – Abweichungen in der Fähigkeit, Bilder von Menschen unterschiedlicher Rassen oder Geschlechter genau zu diagnostizieren. Die Ergebnisse deuten darauf hin, dass diese Modelle möglicherweise „demografische Abkürzungen“ bei der diagnostischen Beurteilung verwenden, was zu ungenauen Ergebnissen für Frauen, Schwarze und andere Gruppen führt, so die Forscher.

"Es ist allgemein bekannt, dass Hochleistungssmodelle des maschinellen Lernens die menschliche Demografie wie die selbstberichtete Rasse, das Geschlecht oder das Alter gut vorhersagen. Diese Arbeit bestätigt erneut diese Fähigkeit und verbindet dann diese Fähigkeit mit einem Leistungsdefizit zwischen verschiedenen Gruppen, was bisher nicht getan wurde", sagt Marzyeh Ghassemi, außerordentliche Professorin für Elektrotechnik und Informatik am MIT, Mitglied des MIT Institute for Medical Engineering and Science und Hauptautorin der Studie.

Die Forscher fanden auch heraus, dass sie die Modelle so umtrainieren können, dass sie gerechter werden. Ihre Ansätze zur „Entfernung von Verzerrungen“ funktionierten jedoch am besten, wenn die Modelle an denselben Arten von Patienten getestet wurden, an denen sie trainiert wurden, z.B. Patienten aus demselben Krankenhaus. Wenn diese Modelle auf Patienten aus verschiedenen Krankenhäusern angewendet wurden, traten die Verzerrungen erneut auf.

"Ich denke, die Hauptlehren sind erstens, jedes externe Modell gründlich mit den eigenen Daten zu bewerten, da jegliche Zusicherungen zur Gerechtigkeit, die die Modellentwickler mit ihren Trainingsdaten geben, möglicherweise nicht auf Ihre Population übertragen werden. Zweitens, wann immer genügend Daten verfügbar sind, sollten Sie die Modelle mit Ihren eigenen Daten trainieren", sagt Haoran Zhang, Student am MIT und einer der Hauptautoren der neuen Arbeit. Der MIT-Student Yuzhe Yang ist ebenfalls Hauptautor der heute in der Zeitschrift Nature Medicine veröffentlichten Arbeit. Judy Gichoya, außerordentliche Professorin für Radiologie und Bildwissenschaften an der Emory University School of Medicine, und Dina Katabi, Thuan und Nicole Pham Professorin für Elektrotechnik und Informatik am MIT, sind ebenfalls Autoren der Arbeit.

Bis Mai 2024 hat die FDA 882 medizinische Geräte mit KI-Unterstützung zugelassen, von denen 671 für den Einsatz in der Radiologie bestimmt sind. Seit 2022, als Ghassemi und ihre Kollegen zeigten, dass diese diagnostischen Modelle die Rasse genau vorhersagen können, haben sie und andere Forscher gezeigt, dass solche Modelle auch sehr gut das Geschlecht und das Alter vorhersagen können, obwohl die Modelle nicht für diese Aufgaben trainiert wurden.

"Viele beliebte Modelle des maschinellen Lernens haben eine übermenschliche Fähigkeit zur demografischen Vorhersage – Radiologen können die selbstberichtete Rasse nicht aus einer Röntgenaufnahme des Brustkorbs erkennen", sagt Ghassemi. "Das sind Modelle, die gut darin sind, Krankheiten vorherzusagen, aber während des Trainings lernen sie, auch andere Dinge vorherzusagen, die möglicherweise nicht erwünscht sind."

In dieser Studie wollten die Forscher untersuchen, warum diese Modelle für bestimmte Gruppen nicht genauso gut funktionieren. Sie wollten insbesondere sehen, ob die Modelle demografische Abkürzungen verwenden, um Vorhersagen zu treffen, die am Ende weniger genau für einige Gruppen sind. Diese Abkürzungen können in KI-Modellen auftreten, wenn sie demografische Attribute zur Bestimmung des Vorhandenseins eines medizinischen Zustands verwenden, anstatt sich auf andere Merkmale der Bilder zu verlassen.

Unter Verwendung öffentlich zugänglicher Röntgenaufnahmen des Brustkorbs aus dem Beth Israel Deaconess Medical Center in Boston trainierten die Forscher Modelle, um vorherzusagen, ob Patienten eine von drei verschiedenen medizinischen Zuständen haben: Flüssigkeitsansammlung in der Lunge, Lungenkollaps oder Herzvergrößerung. Dann testeten sie die Modelle an Röntgenaufnahmen, die nicht in den Trainingsdaten enthalten waren.

Insgesamt schnitten die Modelle gut ab, aber die meisten zeigten „Gerechtigkeitsverzerrungen“ – d.h. Abweichungen in den Genauigkeitsraten für Männer und Frauen sowie für weiße und schwarze Patienten.

Die Modelle konnten auch das Geschlecht, die Rasse und das Alter der Personen auf den Röntgenaufnahmen vorhersagen. Darüber hinaus gab es eine signifikante Korrelation zwischen der Genauigkeit jedes Modells bei der demografischen Vorhersage und dem Ausmaß seiner Gerechtigkeitsverzerrungen. Dies deutet darauf hin, dass die Modelle möglicherweise demografische Kategorisierungen als Abkürzungen für ihre Krankheitsvorhersagen verwenden.

Die Forscher versuchten dann, die Gerechtigkeitsverzerrungen mit zwei Arten von Strategien zu reduzieren. Für einen Satz von Modellen trainierten sie sie, um die „Robustheit der Untergruppen“ zu optimieren, was bedeutet, dass die Modelle belohnt wurden, wenn sie in der Untergruppe, in der sie die schlechteste Leistung erbrachten, besser abschnitten, und bestraft wurden, wenn ihre Fehlerquote für eine Gruppe höher war als für die anderen.

In einem anderen Satz von Modellen zwangen die Forscher sie, alle demografischen Informationen aus den Bildern zu entfernen, indem sie „adversariale“ Ansätze verwendeten. Beide Strategien erwiesen sich als ziemlich effektiv, fanden die Forscher heraus.

"Für Daten innerhalb der Verteilung können Sie bestehende hochmoderne Methoden verwenden, um Gerechtigkeitsverzerrungen ohne signifikante Kompromisse bei der Gesamtleistung zu reduzieren", sagt Ghassemi. "Die Methoden der Untergruppenrobustheit zwingen die Modelle, empfindlich auf Fehler in den Vorhersagen spezifischer Gruppen zu reagieren, und die adversarialen Methoden versuchen, alle Informationen über die Gruppe vollständig zu entfernen."

Diese Ansätze funktionierten jedoch nur, wenn die Modelle mit Daten derselben Art von Patienten getestet wurden, an denen sie trainiert wurden – zum Beispiel nur Patienten aus dem Datensatz des Beth Israel Deaconess Medical Center.

Als die Forscher Modelle, die „entbiasiert“ waren, unter Verwendung der BIDMC-Daten testeten, um Patienten aus fünf anderen Krankenhausdatensätzen zu analysieren, stellten sie fest, dass die Gesamtgenauigkeit der Modelle hoch blieb, aber einige zeigten große Gerechtigkeitsverzerrungen.

"Wenn Sie ein Modell in einem Satz von Patienten entbiasieren, bleibt diese Gerechtigkeit nicht unbedingt erhalten, wenn Sie zu einem neuen Satz von Patienten aus einem anderen Krankenhaus an einem anderen Ort wechseln", sagt Zhang.

Das ist besorgniserregend, da in vielen Fällen Krankenhäuser Modelle verwenden, die mit Daten aus anderen Krankenhäusern entwickelt wurden, insbesondere wenn ein fertiges Modell gekauft wird, sagen die Forscher.

"Wir haben festgestellt, dass selbst die modernsten Modelle, die optimal auf datenähnlichen Trainingsdatensätzen ausgeführt werden, nicht optimal sind – das heißt, sie machen nicht den besten Kompromiss zwischen Gesamtleistung und Untergruppenleistung – in neuen Umgebungen", sagt Ghassemi. "Leider wird das Modell wahrscheinlich so angewendet. Die meisten Modelle werden mit Daten aus einem Krankenhaus oder einer Quelle trainiert und validiert und dann weit verbreitet eingesetzt."

Die Forscher fanden heraus, dass Modelle, die mit adversarialen Ansätzen entbiasiert wurden, etwas gerechter waren, wenn sie an neuen Patientengruppen getestet wurden, als solche, die mit Methoden der Untergruppenrobustheit entbiasiert wurden. Sie planen nun, zusätzliche Methoden zu entwickeln und zu testen, um zu sehen, ob sie Modelle erstellen können, die gerechtere Vorhersagen auf neuen Datensätzen liefern.

Die Ergebnisse legen nahe, dass Krankenhäuser, die solche KI-Modelle verwenden, deren Wirksamkeit an ihrer eigenen Patientenpopulation bewerten sollten, bevor sie sie verwenden, um sicherzustellen, dass sie für bestimmte Gruppen keine ungenauen Ergebnisse liefern.

Die Forschung wurde von der Google Research Scholar-Auszeichnung, dem Harold Amos Medical Faculty Development Program der Robert Wood Johnson Foundation, RSNA Health Disparities, dem Lacuna Fund, der Gordon und Betty Moore Foundation, dem National Institute of Biomedical Imaging and Bioengineering und dem National Heart, Lung, and Blood Institute finanziert.

Quelle: Massachusetts Institute of Technology

FINDEN SIE EINE UNTERKUNFT IN DER NÄHE

Erstellungszeitpunkt: 02 Juli, 2024

AI Lara Teč

AI Lara Teč ist eine innovative KI-Journalistin unseres globalen Portals, spezialisiert auf die Berichterstattung über die neuesten Trends und Errungenschaften in der Welt der Wissenschaft und Technologie. Mit ihrem Fachwissen und analytischen Ansatz bietet Lara tiefgehende Einblicke und Erklärungen zu den komplexesten Themen, wodurch sie für Leser weltweit zugänglich und verständlich werden.

Fachkundige Analyse und Klare Erklärungen Lara nutzt ihre Expertise, um komplexe wissenschaftliche und technologische Themen zu analysieren und zu erklären, wobei sie sich auf deren Bedeutung und Einfluss auf das tägliche Leben konzentriert. Ob es sich um die neuesten technologischen Innovationen, Durchbrüche in der Forschung oder Trends in der digitalen Welt handelt, Lara bietet gründliche Analysen und Erklärungen, die die wichtigsten Aspekte und potenziellen Auswirkungen für die Leser hervorheben.

Ihr Führer durch die Welt der Wissenschaft und Technologie Larastiche Artikel sind darauf ausgelegt, Sie durch die komplexe Welt der Wissenschaft und Technologie zu führen und dabei klare und präzise Erklärungen zu bieten. Ihre Fähigkeit, komplexe Konzepte in verständliche Teile zu zerlegen, macht ihre Artikel zu einer unverzichtbaren Ressource für alle, die über die neuesten wissenschaftlichen und technologischen Fortschritte informiert bleiben möchten.

Mehr als KI - Ihr Fenster in die Zukunft AI Lara Teč ist nicht nur eine Journalistin; sie ist ein Fenster in die Zukunft und bietet Einblicke in neue Horizonte der Wissenschaft und Technologie. Ihre fachkundige Führung und tiefgehende Analyse helfen den Lesern, die Komplexität und Schönheit der Innovationen, die unsere Welt gestalten, zu verstehen und zu schätzen. Mit Lara bleiben Sie über die neuesten Errungenschaften informiert und inspiriert, die die Welt der Wissenschaft und Technologie zu bieten hat.

HINWEIS FÜR UNSERE LESER
Karlobag.eu bietet Nachrichten, Analysen und Informationen zu globalen Ereignissen und Themen, die für Leser weltweit von Interesse sind. Alle veröffentlichten Informationen dienen ausschließlich zu Informationszwecken.
Wir betonen, dass wir keine Experten in den Bereichen Wissenschaft, Medizin, Finanzen oder Recht sind. Daher empfehlen wir, vor der Entscheidungsfindung auf Basis der Informationen unseres Portals, sich mit qualifizierten Experten zu beraten.
Karlobag.eu kann Links zu externen Drittanbieterseiten enthalten, einschließlich Affiliate-Links und gesponserten Inhalten. Wenn Sie über diese Links ein Produkt oder eine Dienstleistung kaufen, können wir eine Provision erhalten. Wir haben keine Kontrolle über die Inhalte oder Richtlinien dieser Seiten und übernehmen keine Verantwortung für deren Genauigkeit, Verfügbarkeit oder für Transaktionen, die Sie über diese Seiten tätigen.
Wenn wir Informationen über Veranstaltungen oder Ticketverkäufe veröffentlichen, beachten Sie bitte, dass wir weder direkt noch über Vermittler Tickets verkaufen. Unser Portal informiert ausschließlich über Veranstaltungen und Kaufmöglichkeiten über externe Verkaufsplattformen. Wir verbinden Leser mit Partnern, die Ticketverkaufsdienste anbieten, garantieren jedoch nicht deren Verfügbarkeit, Preise oder Kaufbedingungen. Alle Ticketinformationen werden von Dritten bezogen und können ohne vorherige Ankündigung Änderungen unterliegen. Wir empfehlen, die Verkaufsbedingungen beim gewählten Partner vor einem Kauf sorgfältig zu überprüfen, da das Portal Karlobag.eu keine Verantwortung für Transaktionen oder Verkaufsbedingungen von Tickets übernimmt.
Alle Informationen auf unserem Portal können ohne vorherige Ankündigung geändert werden. Durch die Nutzung dieses Portals stimmen Sie zu, dass Sie die Inhalte auf eigenes Risiko lesen.