Postavke privatnosti

Ein neuer Ansatz zur Verbesserung der Unsicherheitsbewertung in Modellen des maschinellen Lernens: eine skalierbare Methode für Anwendungen im Gesundheitswesen und in anderen kritischen Bereichen

MIT-Forscher haben einen effektiven Weg entwickelt, um die Schätzungen der Unsicherheit des maschinellen Lernens zu verbessern und genauere und schnellere Ergebnisse in Anwendungen wie dem Gesundheitswesen zu ermöglichen. Diese Methode hilft Benutzern, fundierte Entscheidungen auf der Grundlage der Modellzuverlässigkeit zu treffen.

Ein neuer Ansatz zur Verbesserung der Unsicherheitsbewertung in Modellen des maschinellen Lernens: eine skalierbare Methode für Anwendungen im Gesundheitswesen und in anderen kritischen Bereichen
Photo by: Domagoj Skledar/ arhiva (vlastita)

Die heutige Forschung im Bereich des maschinellen Lernens konzentriert sich oft auf die Schätzung von Unsicherheiten, damit die Benutzer besser verstehen können, wie zuverlässig die Entscheidungen des Modells sind. Diese Bewertung ist besonders wichtig in Situationen, in denen viel auf dem Spiel steht, wie zum Beispiel bei der Erkennung von Krankheiten in medizinischen Bildern oder bei der Filterung von Bewerbungen.

Unsicherheitsschätzungen sind jedoch nur dann nützlich, wenn sie genau sind. Wenn ein Modell behauptet, zu 49 Prozent sicher zu sein, dass ein medizinisches Bild einen Pleuraerguss zeigt, dann sollte dieses Modell in 49 Prozent der Fälle richtig liegen.

Forscher am MIT haben einen neuen Ansatz zur Verbesserung der Unsicherheitsschätzungen in maschinellen Lernmodellen entwickelt. Ihre Methode generiert genauere Unsicherheitsschätzungen im Vergleich zu anderen Techniken und tut dies auf effizientere Weise.

Darüber hinaus ist diese Technik skalierbar und kann auf große Deep-Learning-Modelle angewendet werden, die zunehmend im Gesundheitswesen und in anderen Situationen verwendet werden, in denen Sicherheit von entscheidender Bedeutung ist.

Diese Technik kann Endbenutzern, von denen viele keine Expertise im maschinellen Lernen haben, bessere Informationen zur Bewertung der Zuverlässigkeit des Modells und zur Entscheidung über dessen Anwendung bei bestimmten Aufgaben liefern.

Quantifizierung der Unsicherheit
Methoden zur Quantifizierung von Unsicherheit erfordern oft komplexe statistische Berechnungen, die schwer auf Modelle des maschinellen Lernens mit Millionen von Parametern skalierbar sind. Außerdem erfordern diese Methoden oft Annahmen über das Modell und die für dessen Training verwendeten Daten.

Die MIT-Forscher haben dieses Problem anders angegangen. Sie nutzten das Prinzip der minimalen Beschreibungslänge (MDL), das keine Annahmen erfordert, die die Genauigkeit anderer Methoden einschränken könnten. MDL wird verwendet, um die Unsicherheit für Testpunkte, die das Modell kennzeichnen muss, besser zu quantifizieren und zu kalibrieren.

Die von den Forschern entwickelte Technik, bekannt als IF-COMP, macht MDL schnell genug für den Einsatz mit großen Deep-Learning-Modellen, die in vielen realen Umgebungen eingesetzt werden.

MDL beinhaltet die Berücksichtigung aller möglichen Labels, die das Modell für einen bestimmten Testpunkt vergeben kann. Wenn es viele alternative Labels für diesen Punkt gibt, die gut passen, sollte das Vertrauen des Modells in das ausgewählte Label proportional verringert werden.

"Eine Möglichkeit, zu verstehen, wie sicher ein Modell ist, besteht darin, ihm einige kontrafaktische Informationen zu geben und zu sehen, wie bereit es ist, seinen Glauben zu ändern", sagt Nathan Ng, Hauptautor der Studie und Doktorand an der Universität Toronto, der auch Gaststudent am MIT ist.

Betrachten wir zum Beispiel ein Modell, das behauptet, ein medizinisches Bild zeige einen Pleuraerguss. Wenn Forscher dem Modell sagen, dass das Bild ein Ödem zeigt und das Modell bereit ist, seinen Glauben zu ändern, sollte das Modell weniger sicher in seiner ursprünglichen Entscheidung sein.

Mit MDL sollte ein Modell, wenn es sicher ist, wenn es einen Datenpunkt kennzeichnet, einen sehr kurzen Code verwenden, um diesen Punkt zu beschreiben. Wenn es sich nicht sicher ist, weil der Punkt viele andere Labels haben kann, verwendet es einen längeren Code, um diese Möglichkeiten abzudecken.

Die Menge des Codes, die verwendet wird, um einen Datenpunkt zu kennzeichnen, wird als stochastische Komplexität der Daten bezeichnet. Wenn Forscher das Modell fragen, wie bereit es ist, seinen Glauben an einen Datenpunkt angesichts gegenteiliger Beweise zu ändern, sollte die stochastische Komplexität der Daten abnehmen, wenn das Modell sicher ist.

Das Testen jedes Datenpunkts mit MDL würde jedoch eine enorme Menge an Rechenleistung erfordern.

Beschleunigung des Prozesses
Mit IF-COMP haben die Forscher eine Approximationstechnik entwickelt, die die stochastische Komplexität der Daten genau abschätzen kann, indem eine spezielle Funktion, die sogenannte Einflussfunktion, verwendet wird. Sie verwendeten auch eine statistische Technik namens Temperaturskalierung, die die Kalibrierung der Modellausgaben verbessert. Diese Kombination aus Einflussfunktionen und Temperaturskalierung ermöglicht hochwertige Approximationen der stochastischen Komplexität der Daten.

Am Ende kann IF-COMP effizient gut kalibrierte Unsicherheitsschätzungen erzeugen, die das tatsächliche Vertrauen des Modells widerspiegeln. Die Technik kann auch feststellen, ob das Modell bestimmte Datenpunkte falsch gekennzeichnet hat oder erkennen, welche Datenpunkte Ausreißer sind.

Die Forscher testeten ihr System bei diesen drei Aufgaben und stellten fest, dass es schneller und genauer war als andere Methoden.

"Es ist wirklich wichtig, eine gewisse Sicherheit zu haben, dass das Modell gut kalibriert ist, und es besteht ein zunehmender Bedarf zu erkennen, wann eine bestimmte Vorhersage nicht ganz korrekt ist. Überprüfungswerkzeuge werden zunehmend notwendig bei maschinellen Lernproblemen, da wir große Mengen unüberprüfter Daten verwenden, um Modelle zu erstellen, die auf Probleme angewendet werden, mit denen Menschen konfrontiert sind", sagt Marzyeh Ghassemi, Senior-Autorin der Studie.

IF-COMP ist modellagnostisch, das heißt, es kann genaue Unsicherheitsschätzungen für viele Arten von maschinellen Lernmodellen liefern. Dies könnte eine breitere Anwendung in realen Umgebungen ermöglichen, was letztendlich mehr Praktikern helfen würde, bessere Entscheidungen zu treffen.

"Die Leute müssen verstehen, dass diese Systeme sehr fehleranfällig sind und Schlussfolgerungen auf der Grundlage unzureichender Daten ziehen können. Das Modell mag sehr sicher erscheinen, aber es gibt viele verschiedene Dinge, an die es angesichts gegenteiliger Beweise bereit ist zu glauben", sagt Ng.

In Zukunft planen die Forscher, ihren Ansatz auf große Sprachmodelle anzuwenden und andere potenzielle Anwendungen des Prinzips der minimalen Beschreibungslänge zu untersuchen.

Quelle: Massachusetts Institute of Technology

Unterkünfte in der Nähe finden

Erstellungszeitpunkt: 17 Juli, 2024

Redaktion für Wissenschaft und Technologie

Unsere Redaktion für Wissenschaft und Technologie ist aus einer langjährigen Leidenschaft für das Erforschen, Interpretieren und Vermitteln komplexer Themen an alltägliche Leser entstanden. Bei uns schreiben Mitarbeiter und freiwillige Autoren, die seit Jahrzehnten die Entwicklungen in Wissenschaft und technologischer Innovation verfolgen – von Laborentdeckungen bis zu Lösungen, die den Alltag verändern. Obwohl wir in der Mehrzahl schreiben, steht hinter jedem Text eine echte Person mit umfangreicher redaktioneller und journalistischer Erfahrung sowie großem Respekt gegenüber Fakten und überprüfbaren Informationen.

Unsere Redaktion arbeitet aus der Überzeugung heraus, dass Wissenschaft am stärksten ist, wenn sie für alle zugänglich ist. Deshalb streben wir nach Klarheit, Präzision und Verständlichkeit, ohne jene Vereinfachungen, die die Qualität des Inhalts mindern würden. Oft verbringen wir Stunden mit dem Studium von Forschungsarbeiten, technischen Dokumenten und Fachquellen, um jedes Thema so zu präsentieren, dass es den Leser interessiert und nicht belastet. In jedem Text versuchen wir, wissenschaftliche Erkenntnisse mit dem realen Leben zu verbinden und zu zeigen, wie Ideen aus Forschungszentren, Universitäten und Technologielaboren die Welt um uns herum gestalten.

Unsere langjährige journalistische Erfahrung ermöglicht uns zu erkennen, was für den Leser wirklich wichtig ist – ob es um Fortschritte in der künstlichen Intelligenz geht, medizinische Entdeckungen, Energielösungen, Weltraummissionen oder Geräte, die unseren Alltag erreichen, bevor wir uns überhaupt ihre Möglichkeiten vorstellen können. Unser Blick auf Technologie ist nicht nur technisch; uns interessieren auch die menschlichen Geschichten hinter großen Entwicklungen – Forscher, die jahrelang an Projekten arbeiten, Ingenieure, die Ideen in funktionierende Systeme verwandeln, und Visionäre, die die Grenzen des Möglichen erweitern.

Auch ein starkes Verantwortungsgefühl leitet uns bei der Arbeit. Wir möchten, dass der Leser Vertrauen in die von uns gelieferten Informationen haben kann, daher überprüfen wir Quellen, vergleichen Daten und zögern mit der Veröffentlichung, wenn etwas nicht ganz klar ist. Vertrauen entsteht langsamer, als Nachrichten geschrieben werden, doch wir glauben, dass nur solch ein Journalismus langfristig wertvoll ist.

Für uns ist Technologie mehr als Geräte, und Wissenschaft mehr als Theorie. Es sind Bereiche, die Fortschritt antreiben, die Gesellschaft prägen und neue Möglichkeiten eröffnen für alle, die verstehen wollen, wie die Welt heute funktioniert und wohin sie morgen geht. Deshalb gehen wir jedes Thema mit Ernsthaftigkeit, aber auch mit Neugier an – denn gerade Neugier öffnet die Tür zu den besten Texten.

Unsere Mission ist es, den Lesern eine Welt näherzubringen, die sich schneller denn je verändert, im Bewusstsein, dass qualitativ hochwertiger Journalismus eine Brücke sein kann zwischen Experten, Innovatoren und all jenen, die verstehen wollen, was hinter den Schlagzeilen geschieht. Darin sehen wir unsere wahre Aufgabe: das Komplexe verständlich zu machen, das Entfernte nah und das Unbekannte inspirierend.

HINWEIS FÜR UNSERE LESER
Karlobag.eu bietet Nachrichten, Analysen und Informationen zu globalen Ereignissen und Themen, die für Leser weltweit von Interesse sind. Alle veröffentlichten Informationen dienen ausschließlich zu Informationszwecken.
Wir betonen, dass wir keine Experten in den Bereichen Wissenschaft, Medizin, Finanzen oder Recht sind. Daher empfehlen wir, vor der Entscheidungsfindung auf Basis der Informationen unseres Portals, sich mit qualifizierten Experten zu beraten.
Karlobag.eu kann Links zu externen Drittanbieterseiten enthalten, einschließlich Affiliate-Links und gesponserten Inhalten. Wenn Sie über diese Links ein Produkt oder eine Dienstleistung kaufen, können wir eine Provision erhalten. Wir haben keine Kontrolle über die Inhalte oder Richtlinien dieser Seiten und übernehmen keine Verantwortung für deren Genauigkeit, Verfügbarkeit oder für Transaktionen, die Sie über diese Seiten tätigen.
Wenn wir Informationen über Veranstaltungen oder Ticketverkäufe veröffentlichen, beachten Sie bitte, dass wir weder direkt noch über Vermittler Tickets verkaufen. Unser Portal informiert ausschließlich über Veranstaltungen und Kaufmöglichkeiten über externe Verkaufsplattformen. Wir verbinden Leser mit Partnern, die Ticketverkaufsdienste anbieten, garantieren jedoch nicht deren Verfügbarkeit, Preise oder Kaufbedingungen. Alle Ticketinformationen werden von Dritten bezogen und können ohne vorherige Ankündigung Änderungen unterliegen. Wir empfehlen, die Verkaufsbedingungen beim gewählten Partner vor einem Kauf sorgfältig zu überprüfen, da das Portal Karlobag.eu keine Verantwortung für Transaktionen oder Verkaufsbedingungen von Tickets übernimmt.
Alle Informationen auf unserem Portal können ohne vorherige Ankündigung geändert werden. Durch die Nutzung dieses Portals stimmen Sie zu, dass Sie die Inhalte auf eigenes Risiko lesen.