W erze, w której sztuczna inteligencja jawi się jako rozwiązanie najсложniejszych globalnych wyzwań, od medycyny po finanse, jej zastosowanie w naukach o klimacie stało się jednym z najszybciej rozwijających się obszarów badań. Jednak najnowsze badanie przeprowadzone przez naukowców z Massachusetts Institute of Technology (MIT) przynosi zaskakujący i nieco otrzeźwiający zwrot, sugerując, że w wyścigu o dokładniejsze prognozy klimatyczne, większe i bardziej złożone modele głębokiego uczenia nie zawsze są synonimem lepszych wyników. Ich praca ujawnia, że w określonych scenariuszach znacznie prostsze modele, oparte na fundamentalnych prawach fizyki, mogą dostarczać dokładniejszych prognoz niż najnowocześniejsze systemy AI.
Naukowcy zajmujący się środowiskiem coraz częściej polegają na ogromnych modelach sztucznej inteligencji do przewidywania zmian we wzorcach pogodowych i długoterminowym klimacie. Niemniej jednak, nowa analiza zespołu z MIT pokazuje, jak naturalna zmienność nieodłącznie związana z danymi klimatycznymi może stanowić poważną przeszkodę для modeli AI, powodując trudności w przewidywaniu lokalnych temperatur i ilości opadów. Ich badanie to nie tylko porównanie dwóch metodologii, ale także głęboka krytyka istniejących metod oceny (benchmarkingu) stosowanych do oceny skuteczności modeli uczenia maszynowego w klimatologii.
Problematyczne miary skuteczności i ukryta pułapka naturalnych oscylacji
Kluczowy problem, na który natknęli się badacze, leży w standardowych technikach testowania. Okazało się, że techniki te mogą być znacznie zniekształcone przez naturalne wariacje w samych danych klimatycznych, takie jak wieloletnie fluktuacje wzorców pogodowych, jak zjawiska El Niño i La Niña. Taki nieodłączny "szum" w danych może stwarzać fałszywe wrażenie, że model głębokiego uczenia jest niezwykle precyzyjny, podczas gdy w rzeczywistości jego skuteczność opiera się na błędnych założeniach lub adaptacji do krótkoterminowych, nieprzewidywalnych cykli. Prowadzi to do sytuacji, w której model może wydawać się lepszy, a w rzeczywistości tak nie jest, gdy obserwuje się długoterminowe, stabilne trendy.
W obliczu tego wyzwania naukowcy opracowali bardziej solidny i niezawodny sposób oceny tych technik. Stosując nowe podejście, udało im się jaśniej rozróżnić mocne i słabe strony różnych modeli. Wyniki były jednoznaczne: podczas gdy prostsze modele wykazały wyższą dokładność w szacowaniu regionalnych temperatur powierzchniowych, bardziej złożone podejścia oparte na głębokim uczeniu okazały się lepszym wyborem do szacowania lokalnych opadów, które ze swojej natury są znacznie bardziej chaotyczne i trudniejsze do modelowania.
Te odkrycia zostały wykorzystane do ulepszenia narzędzia symulacyjnego znanego jako emulator klimatu. Emulatory to uproszczone aproksymacje złożonych modeli klimatycznych, które działają na superkomputerach przez tygodnie lub miesiące. Ich główną zaletą jest szybkość; pozwalają one naukowcom i decydentom w bardzo krótkim czasie symulować skutki różnych scenariuszy działań człowieka, takich jak zmniejszenie lub zwiększenie emisji gazów cieplarnianych, na przyszły klimat.
Opowieść o ostrożności w stosowaniu sztucznej inteligencji
Zespół badawczy postrzega swoją pracę jako swego rodzaju "opowieść o ostrożności", która ostrzega przed ryzykiem bezkrytycznego wdrażania dużych modeli AI w dziedzinie nauk o klimacie. Chociaż modele głębokiego uczenia osiągnęły niewiarygodny sukces w domenach takich jak przetwarzanie języka naturalnego czy rozpoznawanie obrazów, nauka o klimacie jest fundamentalnie inna. Opiera się na sprawdzonych prawach fizyki i aproksymacjach, a prawdziwe wyzwanie polega na tym, jak te fundamentalne zasady skutecznie zintegrować ze strukturą modelu AI, zamiast polegać wyłącznie na zdolności modelu do samodzielnego uczenia się z danych.
Noelle Selin, starsza autorka badania i profesor w Instytucie Danych, Systemów i Społeczeństwa (IDSS) na MIT, podkreśla znaczenie tego podejścia: "Naszym celem jest opracowanie modeli, które będą użyteczne i istotne dla decyzji, które decydenci będą musieli podejmować w przyszłości. Chociaż może być kuszące zastosowanie najnowszego, najbardziej złożonego modelu uczenia maszynowego do problemu klimatycznego, to badanie pokazuje, że kluczowe jest zatrzymanie się i dokładne przemyślenie podstaw problemu. Jest to nie tylko ważne, ale i niezwykle korzystne."
Porównanie dwóch światów: Skalowanie liniowe kontra głębokie uczenie
Ponieważ klimat Ziemi jest niezwykle złożonym systemem, uruchamianie najnowocześniejszych modeli klimatycznych do przewidywania wpływu poziomu zanieczyszczeń na czynniki środowiskowe, takie jak temperatura, może trwać tygodniami, nawet na najpotężniejszych superkomputerach świata. Dlatego naukowcy często uciekają się do emulatorów klimatu. Decydent może użyć takiego emulatora, aby szybko ocenić, jak alternatywne założenia dotyczące emisji gazów cieplarnianych wpłynęłyby na przyszłe temperatury, co pomaga im w kształtowaniu przepisów i strategii.
Jednak emulator jest bezużyteczny, jeśli podaje niedokładne prognozy dotyczące lokalnych skutków zmian klimatu. Chociaż głębokie uczenie stało się coraz bardziej popularne w budowaniu emulatorów, niewiele badań szczegółowo zbadało, czy te nowoczesne modele przewyższają sprawdzone i prostsze podejścia. Właśnie to zrobił zespół z MIT. Porównali tradycyjną technikę znaną jako liniowe skalowanie wzorców (LPS) z modelem głębokiego uczenia, używając powszechnego zestawu danych referencyjnych do oceny emulatorów klimatu.
Ich wstępne wyniki pokazały, że LPS przewyższał modele głębokiego uczenia w przewidywaniu prawie wszystkich testowanych parametrów, w tym temperatury i opadów. "Duże metody AI są bardzo atrakcyjne dla naukowców, ale rzadko rozwiązują zupełnie nowy problem. Dlatego konieczne jest najpierw wdrożenie istniejącego, prostszego rozwiązania, aby ustalić, czy złożone podejście uczenia maszynowego rzeczywiście przynosi poprawę", wyjaśnia Björn Lütjens, główny autor badania.
Nowa metodologia dla bardziej sprawiedliwej oceny
Niektóre z początkowych wyników były sprzeczne z fundamentalną wiedzą badaczy. Oczekiwano, że potężny model głębokiego uczenia będzie dokładniejszy w przewidywaniu opadów, ponieważ dane te nie podążają za prostym wzorcem liniowym. Dokładniejsza analiza wykazała, że duża ilość naturalnej zmienności w symulacjach modeli klimatycznych powoduje, że model głębokiego uczenia słabo radzi sobie z nieprzewidywalnymi długoterminowymi oscylacjami, takimi jak cykle El Niño/La Niña. Zniekształciło to wyniki testów na korzyść LPS, który po prostu "uśrednia" te oscylacje i tym samym ignoruje ich złożoność.
Na podstawie tego wglądu badacze skonstruowali nową, bardziej kompleksową ocenę z większą ilością danych, która uwzględnia naturalną zmienność klimatyczną. Z tą nową metodologią obraz się zmienił: model głębokiego uczenia okazał się nieznacznie lepszy od LPS w przewidywaniu lokalnych opadów, ale LPS nadal zachował swoją przewagę jako dokładniejsze narzędzie do przewidywania temperatury.
"Ważne jest, aby używać narzędzia do modelowania, które jest odpowiednie dla danego problemu, ale aby móc to zrobić, trzeba najpierw prawidłowo postawić sam problem", dodaje Selin. Na podstawie tych wyników badacze zintegrowali LPS ze swoją platformą do emulacji klimatu, aby przewidywać lokalne zmiany temperatury w różnych scenariuszach emisji.
Jednak zespół podkreśla, że celem nie jest ogłoszenie LPS uniwersalnym rozwiązaniem. "Nie opowiadamy się za tym, że LPS zawsze powinien być celem. Wciąż ma swoje ograniczenia. Na przykład LPS nie przewiduje zmienności ani ekstremalnych zjawisk pogodowych", zaznacza Raffaele Ferrari, współautor badania. Zamiast tego mają nadzieję, że ich wyniki podkreślą potrzebę opracowania lepszych technik porównywania i oceny modeli, które mogłyby zapewnić pełniejszy obraz tego, która technika emulacji klimatu jest najodpowiedniejsza w danej sytuacji.
Dzięki ulepszonym benchmarkom dla emulacji klimatu moglibyśmy używać bardziej złożonych metod uczenia maszynowego do badania problemów, które obecnie są bardzo trudne do rozwiązania, takich jak wpływ aerozoli czy ocena ryzyka ekstremalnych opadów. Ostatecznie, dokładniejsze techniki oceny zapewnią, że decydenci będą opierać swoje decyzje na najlepszych dostępnych informacjach, co jest kluczowe w walce ze zmianami klimatu. Naukowcy mają nadzieję, że inni będą kontynuować ich analizę, być może badając dodatkowe ulepszenia metod i miar dla emulacji klimatu. Takie badania mogłyby badać metryki skoncentrowane na konkretnych skutkach, takie jak wskaźniki suszy i ryzyko pożarów lasów, lub nowe zmienne, takie jak regionalne prędkości wiatru.
Źródło: Massachusetts Institute of Technology
Czas utworzenia: 9 godzin temu