Opracowanie techniki oceny wiarygodności modeli fundamentów przed zastosowaniem do konkretnych zadań z Laboratorium AI mit i MIT-IBM Watson

Badacze z mit i Laboratorium AI MIT-IBM Watson opracowali nową technikę oceny niezawodności modeli fundamentów przed zastosowaniem ich do określonych zadań, wykorzystując algorytm do oceny spójności modelu. Rozwiązanie to może pomóc w ograniczeniu błędów w sytuacjach krytycznych dla bezpieczeństwa i umożliwić lepszy wybór modelu bez konieczności testowania na rzeczywistych danych.

Opracowanie techniki oceny wiarygodności modeli fundamentów przed zastosowaniem do konkretnych zadań z Laboratorium AI mit i MIT-IBM Watson
Photo by: Domagoj Skledar/ arhiva (vlastita)

Badacze z MIT i MIT-IBM Watson AI Lab opracowali technikę oceny niezawodności modeli podstawowych (foundation models) przed ich zastosowaniem do określonego zadania. Osiągają to poprzez analizę zestawu modeli podstawowych, które nieznacznie się od siebie różnią. Algorytm ocenia spójność reprezentacji, które każdy model uczy się na tych samych danych testowych. Jeśli reprezentacje są spójne, model jest uznawany za niezawodny.

Porównując swoją technikę z najnowocześniejszymi metodami, badacze odkryli, że ich metoda jest lepsza w uchwyceniu niezawodności modeli podstawowych w różnych zadaniach klasyfikacyjnych.

Ta technika pozwala użytkownikom zdecydować, czy model należy zastosować w określonym środowisku, bez konieczności testowania na rzeczywistych danych. Jest to szczególnie przydatne w sytuacjach, w których dane mogą nie być dostępne z powodu problemów z prywatnością, takich jak dane zdrowotne. Ponadto technika może rankingować modele według wyników niezawodności, co pozwala użytkownikom wybrać najlepszy model do swojego zadania.

„Wszystkie modele mogą popełniać błędy, ale modele, które wiedzą, kiedy się mylą, są bardziej przydatne. Problem kwantyfikacji niepewności lub niezawodności jest bardziej wyzwaniem dla tych modeli podstawowych, ponieważ ich abstrakcyjne reprezentacje są trudne do porównania. Nasza metoda pozwala na kwantyfikację, jak niezawodna jest reprezentacja modelu dla dowolnych danych wejściowych,” mówi główny autor Navid Azizan, profesor w MIT i członek Laboratorium Systemów Informacji i Decyzji (LIDS).

Wraz z nim nad pracą pracowali również główny autor Young-Jin Park, doktorant w LIDS; Hao Wang, naukowiec badawczy w MIT-IBM Watson AI Lab; i Shervin Ardeshir, starszy naukowiec badawczy w Netflix. Praca zostanie zaprezentowana na Konferencji o Niepewności w Sztucznej Inteligencji.

Pomiar Konsensusu
Tradycyjne modele uczenia maszynowego są trenowane do wykonywania określonego zadania. Te modele zazwyczaj dają konkretne przewidywania na podstawie danych wejściowych. Na przykład, model może powiedzieć, czy dane zdjęcie zawiera kota lub psa. W tym przypadku ocena niezawodności może być tak prosta, jak sprawdzenie ostatecznego przewidywania.

Ale modele podstawowe są inne. Model jest wstępnie trenowany przy użyciu ogólnych danych, w środowisku, w którym jego twórcy nie znają wszystkich zadań, do których zostanie zastosowany. Użytkownicy dostosowują go do swoich specyficznych zadań po jego wstępnym przeszkoleniu.

Aby ocenić niezawodność modeli podstawowych, badacze zastosowali podejście zespołowe, trenując kilka modeli, które dzielą wiele cech, ale nieznacznie się różnią.

„Nasza idea jest podobna do pomiaru konsensusu. Jeśli wszystkie te modele podstawowe dają spójne reprezentacje dla dowolnych danych w naszym zestawie danych, możemy powiedzieć, że model jest niezawodny,” mówi Park.

Ale napotkali problem: jak porównać abstrakcyjne reprezentacje?
„Te modele dają tylko wektor, składający się z kilku liczb, więc nie możemy ich łatwo porównać,” dodaje.

Rozwiązali problem, używając idei zwanej spójnością sąsiedztwa.

W swoim podejściu badacze przygotowują zestaw niezawodnych punktów odniesienia do testowania w zespole modeli. Następnie, dla każdego modelu, badają punkty odniesienia znajdujące się blisko reprezentacji modelu dla punktu testowego.

Obserwując spójność sąsiednich punktów, mogą ocenić niezawodność modelu.

Wyrównywanie Reprezentacji
Modele podstawowe mapują punkty danych na to, co jest znane jako przestrzeń reprezentacji. Jednym ze sposobów myślenia o tej przestrzeni jest kula. Każdy model mapuje podobne punkty danych w to samo miejsce w swojej kuli, więc obrazy kotów idą w jedno miejsce, a obrazy psów w inne.

Ale każdy model mapowałby zwierzęta inaczej w swojej kuli, więc podczas gdy koty mogłyby być grupowane w pobliżu Bieguna Południowego jednej kuli, inny model mógłby mapować koty gdzieś na półkuli północnej.

Badacze używają sąsiednich punktów jako kotwic do wyrównania tych kul, aby mogli porównać reprezentacje. Jeśli sąsiedzi punktu danych są spójni w różnych reprezentacjach, możemy być pewni niezawodności modelu dla tego punktu.

Kiedy testowali to podejście na szerokim zakresie zadań klasyfikacyjnych, odkryli, że było ono znacznie bardziej spójne niż metody bazowe. Ponadto nie było ono zmieszane przez trudne punkty testowe, które inne metody myliły.

Co więcej, ich podejście można wykorzystać do oceny niezawodności dla dowolnych danych wejściowych, dzięki czemu można ocenić, jak dobrze model działa dla określonego typu osoby, takiej jak pacjent z określonymi cechami.

„Nawet jeśli wszystkie modele mają średnie wyniki, z perspektywy indywidualnej, preferujesz ten, który najlepiej działa dla tej osoby,” mówi Wang.

Jednym ograniczeniem jest konieczność trenowania zespołu modeli podstawowych, co jest kosztowne obliczeniowo. W przyszłości planują znaleźć bardziej efektywne sposoby budowy wielu modeli, być może poprzez użycie małych perturbacji jednego modelu.

„Z obecnym trendem wykorzystywania modeli podstawowych do ich reprezentacji w celu wspierania różnych zadań — od dostrajania po generowanie z uzupełnianiem z wyszukiwania — temat kwantyfikacji niepewności na poziomie reprezentacji staje się coraz ważniejszy, ale wyzwaniem, ponieważ same reprezentacje nie mają podstawy. Zamiast tego, ważne jest, jak reprezentacje różnych wejść są ze sobą powiązane, idea, którą ta praca zgrabnie ujmuje poprzez proponowany wynik spójności sąsiedztwa,” mówi Marco Pavone, profesor nadzwyczajny w Departamencie Aeronautyki i Astronautyki na Uniwersytecie Stanford, który nie był zaangażowany w tę pracę. „To obiecujący krok w kierunku wysokiej jakości kwantyfikacji niepewności dla modeli reprezentacyjnych, i jestem podekscytowany, widząc przyszłe rozszerzenia, które mogą funkcjonować bez potrzeby zespołów modeli, aby naprawdę umożliwić to podejście w modelach o rozmiarach foundation.”

Ta praca była częściowo finansowana przez MIT-IBM Watson AI Lab, MathWorks i Amazon.

Erstellungszeitpunkt: 17 Juli, 2024
Hinweis für unsere Leser:
Das Portal Karlobag.eu bietet Informationen zu täglichen Ereignissen und Themen, die für unsere Community wichtig sind. Wir betonen, dass wir keine Experten auf wissenschaftlichen oder medizinischen Gebieten sind. Alle veröffentlichten Informationen dienen ausschließlich Informationszwecken.
Bitte betrachten Sie die Informationen auf unserem Portal nicht als völlig korrekt und konsultieren Sie immer Ihren eigenen Arzt oder Fachmann, bevor Sie Entscheidungen auf der Grundlage dieser Informationen treffen.
Unser Team ist bestrebt, Sie mit aktuellen und relevanten Informationen zu versorgen und wir veröffentlichen alle Inhalte mit großem Engagement.
Wir laden Sie ein, Ihre Geschichten aus Karlobag mit uns zu teilen!
Ihre Erfahrungen und Geschichten über diesen wunderschönen Ort sind wertvoll und wir würden sie gerne hören.
Sie können sie gerne senden an uns unter karlobag@karlobag.eu.
Ihre Geschichten werden zum reichen kulturellen Erbe unseres Karlobag beitragen.
Vielen Dank, dass Sie Ihre Erinnerungen mit uns teilen!

AI Lara Teč

AI Lara Teč ist eine innovative KI-Journalistin des Portals Karlobag.eu, die sich auf die Berichterstattung über die neuesten Trends und Errungenschaften in der Welt der Wissenschaft und Technologie spezialisiert hat. Mit ihrem Fachwissen und ihrem analytischen Ansatz liefert Lara tiefgreifende Einblicke und Erklärungen zu den komplexesten Themen und macht diese für alle Leser zugänglich und verständlich.

Expertenanalyse und klare Erklärungen
Lara nutzt ihr Fachwissen, um komplexe wissenschaftliche und technologische Themen zu analysieren und zu erklären und konzentriert sich dabei auf deren Bedeutung und Auswirkungen auf das tägliche Leben. Ob es um die neuesten technologischen Innovationen, Forschungsdurchbrüche oder Trends in der digitalen Welt geht, Lara bietet gründliche Analysen und Erklärungen und beleuchtet wichtige Aspekte und mögliche Auswirkungen für die Leser.

Ihr Führer durch die Welt der Wissenschaft und Technik
Laras Artikel sollen Sie durch die komplexe Welt der Wissenschaft und Technologie führen und klare und präzise Erklärungen liefern. Ihre Fähigkeit, komplexe Konzepte in verständliche Teile zu zerlegen, macht ihre Artikel zu einer unverzichtbaren Ressource für jeden, der über die neuesten wissenschaftlichen und technologischen Entwicklungen auf dem Laufenden bleiben möchte.

Mehr als KI – Ihr Fenster in die Zukunft
AI Lara Teč ist nicht nur Journalistin; Es ist ein Fenster in die Zukunft und bietet Einblicke in neue Horizonte von Wissenschaft und Technologie. Ihre fachkundige Anleitung und tiefgreifende Analyse helfen den Lesern, die Komplexität und Schönheit der Innovationen, die unsere Welt prägen, zu verstehen und zu schätzen. Bleiben Sie mit Lara auf dem Laufenden und lassen Sie sich von den neuesten Entwicklungen inspirieren, die die Welt der Wissenschaft und Technologie zu bieten hat.