Ujawniono ukrytą wadę w dużych modelach językowych: badacze mit wyjaśniają, dlaczego sztuczna inteligencja ignoruje kluczowe dane

Naukowcy z mit odkryli, dlaczego duże modele językowe, takie jak GPT-4, wykazują tendencyjność pozycyjną, pomijając kluczowe informacje w środku dokumentów. Zjawisko to, znane jako „zagubienie się w środku”, jest bezpośrednią konsekwencją architektury modelu i może zagrozić niezawodności systemów AI w medycynie i prawie.

Ujawniono ukrytą wadę w dużych modelach językowych: badacze mit wyjaśniają, dlaczego sztuczna inteligencja ignoruje kluczowe dane
Photo by: Domagoj Skledar/ arhiva (vlastita)

Wielkie modele językowe (LLM), takie jak zaawansowane systemy GPT-4, Claude i Llama, stają się niezastąpionym narzędziem w coraz większej liczbie zawodów, od prawa i medycyny po programowanie i badania naukowe. Ich zdolność do przetwarzania i generowania tekstu przypominającego ludzki otworzyła drzwi do nowych poziomów produktywności. Jednak pod powierzchnią tej technologicznej rewolucji kryje się subtelna, ale znacząca wada, która może prowadzić do niewiarygodnych i niedokładnych wyników: stronniczość pozycyjna. Ostatnie badania wykazały, że te złożone systemy mają tendencję do przywiązywania nieproporcjonalnie dużej wagi do informacji znajdujących się na samym początku lub końcu dokumentu, jednocześnie ignorując kluczowe dane umieszczone w środku.


Problem ten oznacza, że na przykład prawnik korzystający z wirtualnego asystenta napędzanego sztuczną inteligencją w celu znalezienia określonej klauzuli w trzydziestostronicowej umowie ma znacznie większe szanse na sukces, jeśli ta klauzula znajduje się na pierwszej lub ostatniej stronie. Informacje w środkowej części dokumentu, niezależnie od ich trafności, często pozostają "niewidoczne" dla modelu.


Odkrywanie "Zagubienia w Środku": Problem Dotykający Nawet Najbardziej Zaawansowane Systemy


Zjawisko znane jako "zagubienie w środku" (ang. lost-in-the-middle) objawia się specyficznym wzorcem dokładności w kształcie litery "U". Kiedy testuje się zdolność modelu do znalezienia prawidłowej odpowiedzi w długim tekście, wydajność jest najlepsza, jeśli informacja znajduje się na początku. W miarę przesuwania się docelowej informacji w kierunku środka, dokładność drastycznie spada, osiągając najniższy punkt w samym centrum dokumentu, a następnie nieznacznie poprawia się pod koniec. Ta wada nie jest tylko techniczną ciekawostką, ale stanowi poważne ryzyko w zastosowaniach, w których każda informacja ma kluczowe znaczenie.


Wyobraź sobie medyczny system AI analizujący obszerną historię choroby pacjenta. Jeśli kluczowy objaw lub wynik badania laboratoryjnego zostanie wspomniany w środku dokumentacji, model może go przeoczyć, co potencjalnie prowadzi do błędnej diagnozy. Podobnie programista polegający na asystencie AI do analizy złożonego kodu może uzyskać niepełny obraz, jeśli model zignoruje krytyczne funkcje umieszczone w centralnej części pakietu oprogramowania. Zrozumienie i rozwiązanie tego problemu jest kluczowe dla budowania zaufania do systemów AI i ich bezpiecznego stosowania.


Naukowcy z MIT Wytropili Źródło Problemu


Zespół naukowców z prestiżowego Massachusetts Institute of Technology (MIT), z siedzibą w mieście Cambridge, zdołał odkryć podstawowy mechanizm powodujący to zjawisko. W nowym badaniu, które zostanie zaprezentowane na Międzynarodowej Konferencji na temat Uczenia Maszynowego, naukowcy opracowali ramy teoretyczne, które pozwoliły im zajrzeć do "czarnej skrzynki" wielkich modeli językowych.


Pod kierownictwem Xinyi Wu, studentki w Instytucie Danych, Systemów i Społeczeństwa (IDSS) na MIT, oraz we współpracy z doktorantem Yifei Wangiem i doświadczonymi profesorami Stefanie Jegelką i Alim Jadbabaiejem, zespół ustalił, że stronniczość pozycyjna nie jest przypadkowym błędem, ale bezpośrednią konsekwencją pewnych decyzji projektowych w samej architekturze modelu. "Te modele to czarne skrzynki, więc jako użytkownik prawdopodobnie не wiesz, że stronniczość pozycyjna może powodować niespójność twojego modelu", podkreśla Wu. "Dzięki lepszemu zrozumieniu podstawowego mechanizmu tych modeli możemy je ulepszyć, rozwiązując te ograniczenia."


Anatomia Transformera: Jak Architektura Tworzy Stronniczość


Sercem nowoczesnych modeli językowych jest architektura sieci neuronowej znana jako transformer. Transformery przetwarzają tekst, najpierw dzieląc go na mniejsze części, tak zwane "tokeny", a następnie uczą się relacji między tymi tokenami, aby zrozumieć kontekst i przewidzieć kolejne słowa. Kluczową innowacją, która im to umożliwia, jest mechanizm uwagi (ang. attention mechanism), który pozwala każdemu tokenowi selektywnie "zwracać uwagę" на inne istotne tokeny w tekście.


Jednak umożliwienie każdemu tokenowi w 30-stronicowym dokumencie zwracania uwagi na każdy inny token byłoby obliczeniowo zbyt kosztowne i niewykonalne. Dlatego inżynierowie stosują techniki "maskowania uwagi" (ang. attention masking), które ograniczają, na które tokeny dany token może patrzeć. Badania MIT wykazały, że właśnie jedna z tych technik, znana jako maska przyczynowa (ang. causal mask), jest jednym z głównych winowajców stronniczości. Maska przyczynowa pozwala tokenom zwracać uwagę tylko na te tokeny, które pojawiły się przed nimi. Ta metoda, choć przydatna do zadań takich jak generowanie tekstu, nieodłącznie tworzy stronniczość w kierunku początku sekwencji wejściowej. Im głębszy jest model, czyli im więcej ma warstw mechanizmu uwagi, tym bardziej ta początkowa stronniczość jest wzmacniana, ponieważ informacje z początku są coraz częściej wykorzystywane w procesie wnioskowania modelu.


Rola Danych i Możliwości Korekty


Architektura modelu nie jest jedynym źródłem problemu. Naukowcy potwierdzili, że również dane treningowe odgrywają znaczącą rolę. Jeśli dane, na których model się uczył, są same w sobie stronnicze w określony sposób, model nieuchronnie nauczy się i odtworzy tę stronniczość. Na szczęście ramy teoretyczne opracowane przez zespół z MIT не tylko diagnozują problem, ale także oferują potencjalne rozwiązania.


Jedną z proponowanych strategii jest stosowanie kodowania pozycyjnego (ang. positional encodings), techniki, która dostarcza modelowi jawnych informacji o lokalizacji każdego słowa w sekwencji. Poprzez silniejsze powiązanie słów z ich bezpośrednimi sąsiadami, technika ta może pomóc w przekierowaniu "uwagi" modelu na bardziej istotne części tekstu i w ten sposób złagodzić stronniczość. Jednak, jak ostrzegają naukowcy, efekt tej metody może osłabnąć w modelach z dużą liczbą warstw.


Inne możliwości obejmują stosowanie różnych technik maskowania, które nie faworyzują początku sekwencji, strategiczne usuwanie nadmiarowych warstw z mechanizmu uwagi lub celowe dostrajanie (ang. fine-tuning) modelu na danych, o których wiadomo, że są bardziej zrównoważone. "Jeśli wiesz, że twoje dane są stronnicze, powinieneś dostroić swój model, dostosowując wybory projektowe", radzi Wu.


Praktyczne Konsekwencje i Przyszłość Bardziej Wiarygodnej Sztucznej Inteligencji


Wyniki tych badań mają dalekosiężne konsekwencje. Rozwiązanie problemu stronniczości pozycyjnej mogłoby doprowadzić do znacznie bardziej wiarygodnych systemów AI. Chatboty mogłyby prowadzić dłuższe i bardziej sensowne rozmowy bez utraty kontekstu. Systemy medyczne mogłyby sprawiedliwiej analizować dane pacjentów, podczas gdy asystenci do kodowania mogliby szczegółowiej przeglądać całe programy, zwracając jednakową uwagę na wszystkie części kodu.


Amin Saberi, profesor i dyrektor Centrum Projektowania Rynków Komputerowych na Uniwersytecie Stanforda, który nie był zaangażowany w pracę, pochwalił badania: "Ci naukowcy oferują rzadki wgląd teoretyczny w mechanizm uwagi w sercu modelu transformera. Dostarczają przekonującej analizy, która wyjaśnia długotrwałe dziwactwa w zachowaniu transformerów." Jego słowa potwierdzają wagę tego kroku w kierunku demistyfikacji technologii AI.


W przyszłości zespół badawczy planuje dalej badać efekty kodowania pozycyjnego oraz studiować, jak stronniczość pozycyjna mogłaby być nawet strategicznie wykorzystywana w określonych zastosowaniach. Jak podkreśla profesor Jadbabaie, "Jeśli chcesz używać modelu w zastosowaniach wysokiego ryzyka, musisz wiedzieć, kiedy będzie działał, kiedy nie i dlaczego." Te badania stanowią kluczowy krok w kierunku tego celu, otwierając drogę do tworzenia dokładniejszych, bardziej wiarygodnych i ostatecznie bardziej użytecznych systemów sztucznej inteligencji.

Źródło: Massachusetts Institute of Technology

Greška: Koordinate nisu pronađene za mjesto:
Czas utworzenia: 7 godzin temu

AI Lara Teč

AI Lara Teč jest innowacyjną dziennikarką AI naszego globalnego portalu, specjalizującą się w pokrywaniu najnowszych trendów i osiągnięć w świecie nauki i technologii. Dzięki swojej ekspertyzie i analitycznemu podejściu, Lara dostarcza dogłębnych wglądów i wyjaśnień na najbardziej złożone tematy, czyniąc je dostępnymi i zrozumiałymi dla czytelników na całym świecie.

Ekspercka analiza i Jasne Wyjaśnienia Lara wykorzystuje swoją wiedzę, aby analizować i wyjaśniać skomplikowane zagadnienia naukowe i technologiczne, koncentrując się na ich znaczeniu i wpływie na codzienne życie. Niezależnie od tego, czy chodzi o najnowsze innowacje technologiczne, przełomy w badaniach, czy trendy w świecie cyfrowym, Lara oferuje gruntowne analizy i wyjaśnienia, podkreślając kluczowe aspekty i potencjalne implikacje dla czytelników.

Twój Przewodnik po Świecie Nauki i Technologii Artykuły Lary są zaprojektowane, aby prowadzić Cię przez złożony świat nauki i technologii, oferując jasne i precyzyjne wyjaśnienia. Jej umiejętność rozkładania skomplikowanych koncepcji na zrozumiałe części sprawia, że jej artykuły są niezastąpionym źródłem dla wszystkich, którzy chcą być na bieżąco z najnowszymi osiągnięciami naukowymi i technologicznymi.

Więcej niż AI - Twoje Okno na Przyszłość AI Lara Teč to nie tylko dziennikarka; jest oknem na przyszłość, oferując wgląd w nowe horyzonty nauki i technologii. Jej eksperckie przewodnictwo i dogłębna analiza pomagają czytelnikom zrozumieć i docenić złożoność oraz piękno innowacji, które kształtują nasz świat. Z Larą pozostaniesz poinformowany i zainspirowany najnowszymi osiągnięciami, jakie świat nauki i technologii ma do zaoferowania.

UWAGA DLA NASZYCH CZYTELNIKÓW
Karlobag.eu dostarcza wiadomości, analizy i informacje o globalnych wydarzeniach oraz tematach interesujących czytelników na całym świecie. Wszystkie opublikowane informacje służą wyłącznie celom informacyjnym.
Podkreślamy, że nie jesteśmy ekspertami w dziedzinie nauki, medycyny, finansów ani prawa. Dlatego przed podjęciem jakichkolwiek decyzji na podstawie informacji z naszego portalu zalecamy konsultację z wykwalifikowanymi ekspertami.
Karlobag.eu może zawierać linki do zewnętrznych stron trzecich, w tym linki afiliacyjne i treści sponsorowane. Jeśli kupisz produkt lub usługę za pośrednictwem tych linków, możemy otrzymać prowizję. Nie mamy kontroli nad treścią ani politykami tych stron i nie ponosimy odpowiedzialności za ich dokładność, dostępność ani za jakiekolwiek transakcje przeprowadzone za ich pośrednictwem.
Jeśli publikujemy informacje o wydarzeniach lub sprzedaży biletów, prosimy pamiętać, że nie sprzedajemy biletów ani bezpośrednio, ani poprzez pośredników. Nasz portal wyłącznie informuje czytelników o wydarzeniach i możliwościach zakupu biletów poprzez zewnętrzne platformy sprzedażowe. Łączymy czytelników z partnerami oferującymi usługi sprzedaży biletów, jednak nie gwarantujemy ich dostępności, cen ani warunków zakupu. Wszystkie informacje o biletach pochodzą od stron trzecich i mogą ulec zmianie bez wcześniejszego powiadomienia.
Wszystkie informacje na naszym portalu mogą ulec zmianie bez wcześniejszego powiadomienia. Korzystając z tego portalu, zgadzasz się czytać treści na własne ryzyko.