Obliczanie za pomocą ciepła: podejście MIT, które zamienia ciepło odpadowe w „sygnał” do obliczeń
W elektronice ciepło jest głównie produktem ubocznym: im mocniejszy układ, tym większa część energii zostaje ostatecznie zamieniona na nagrzewanie obudowy, opakowania i otaczających warstw materiału. Inżynierowie od dziesięcioleci zajmują się chłodzeniem, rozmieszczeniem komponentów i optymalizacją zużycia, ponieważ przegrzanie skraca żywotność urządzeń i ogranicza wydajność. Zespół z Massachusetts Institute of Technology (MIT) proponuje zwrot, który na pierwszy rzut oka brzmi kontrintuicyjnie. Zamiast traktować nadmiar ciepła wyłącznie jako problem, który należy odprowadzić z układu, ciepło można wykorzystać jako nośnik informacji, a samo rozprzestrzenianie się strumienia ciepła może „wykonać” część obliczeń. Pomysł jest prosty w założeniu, ale wymagający technicznie: ukształtowanie materiału tak, aby jego zachowanie termiczne odpowiadało zadanej operacji matematycznej.
W pracy dostępnej w momencie pisania tego tekstu 30 stycznia 2026 r., której wersja preprintu datowana jest na 29 stycznia 2026 r., autorzy Caio Silva i Giuseppe Romano opisują mikroskopijne krzemowe metastruktury, które mogą wykonywać wybrane obliczenia liniowe, opierając się na przewodzeniu ciepła. Dane wejściowe to nie zera i jedynki, lecz zestaw temperatur narzuconych na „porty” wejściowe struktury. Ciepło rozchodzi się następnie przez specjalnie ukształtowany wzór, a rozkład temperatury i strumienia ciepła staje się fizyczną realizacją obliczeń. Na wyjściu wynik nie jest odczytywany jako liczba cyfrowa, lecz jako moc lub strumień ciepła zebrany na terminalach wyjściowych utrzymywanych w temperaturze referencyjnej, niczym swoisty termostat w skali mikro. W praktyce mogłoby to, przynajmniej w określonych scenarijusach, umożliwić obliczenia bez dodatkowej energii elektrycznej, wykorzystując „odpady”, które urządzenie i tak produkuje.
Takie podejście zalicza się do obliczeń analogowych, w których informacja jest przetwarzana za pomocą ciągłych wielkości fizycznych zamiast cyfrowego przełączania stanów logicznych. Systemy analogowe zyskują w ostatnich latach nową uwagę ze względu na rosnące wymagania energetyczne nowoczesnego przetwarzania danych oraz wąskie gardła w transmisji danych między pamięcią a procesorem. W przypadku ciepła nośnik sygnału już istnieje w każdym procesorze, regulatorze napięcia czy gęsto upakowanym systemie na chipie. Autorzy podkreślają zatem, że nie dążą do zastąpienia klasycznych procesorów, lecz stworzenia nowej klasy pasywnych elementów termicznych, które mogą służyć do mapowania termicznego, detekcji źródeł ciepła i lokalnego przetwarzania sygnałów w mikroelektronice. Dzięki temu ciepło przestaje być postrzegane wyłącznie jako ograniczenie i staje się aktywną częścią architektury urządzenia.
Jak obliczenie zostaje „zapisane” w materiale
Klucz do technologii nie tkwi w egzotycznym materiale, lecz w geometrii. W klasycznym podejściu inżynierskim najpierw projektuje się strukturę, a następnie sprawdza, jak się ona zachowuje. Tutaj proces jest odwrotny: najpierw precyzyjnie określa się, jaka transformacja matematyczna ma nastąpić, a algorytm komputerowy szuka geometrii, która poprzez rozprzestrzenianie ciepła wytworzy pożądaną relację między wejściem a wyjściem. Podejście to nazywa się projektowaniem odwrotnym (inverse design), ponieważ projektowanie wychodzi od funkcji docelowej i wraca wstecz do kształtu. Zespół z MIT wykorzystywał już wcześniej tę koncepcję do projektowania nanomateriałów prowadzących ciepło w specyficzny sposób, a teraz stosuje ją do struktur, które zamiast „tylko” kierować ciepło, wykonują obliczenia.
W praktyce wzór przedstawiany jest jako siatka drobnych elementów, których „gęstość” może zmieniać się w sposób ciągły od pełnego krzemu do pustki, co skutkuje porowatym wzorem. Algorytm iteracyjnie dostosowuje rozmieszczenie tych elementów, aby rozwiązanie równania przewodnictwa cieplnego dawało wymagane wyjście dla szeregu wymuszeń wejściowych. Autorzy opisują proces jako optymalizację topologiczną wspieraną przez różniczkowalny solver termiczny i automatyczne różniczkowanie, co umożliwia stabilne obliczanie gradientów i przyspiesza przeszukiwanie przestrzeni rozwiązań. W takich ramach komputer nie „zgaduje” losowo, lecz wykorzystuje informację o tym, jak mała zmiana geometrii wpływa na wynik, systematycznie przybliżając projekt do funkcji docelowej.
Skale są mikrometryczne: autorzy prezentują projekty porównywalne z cząsteczką kurzu, ale wewnątrz tej miniaturowej powierzchni geometria jest niezwykle bogata. Mikropory i kanały zmieniają lokalne przewodnictwo i tworzą preferowane „korytarze”, przez które ciepło łatwiej przepływa. W ten sposób, przez analogię do sieci elektrycznych, można kontrolować, jak strumień ciepła rozdziela się na porty wyjściowe. Gdy system zostanie pobudzony zadanymi temperaturami na wejściu, ciepło szuka drogi najmniejszego oporu, a projekt jest taki, że droga ta implementuje współczynniki zadanej macierzy. Ostatecznie funkcja matematyczna nie jest zapisana w oprogramowaniu, lecz w rozmieszczeniu porów i „mostków” wewnątrz krzemu.
Dlaczego mnożenie macierzy przez wektor jest kluczowe dla AI i przetwarzania sygnałów
W centrum demonstracji znajduje się mnożenie macierzy przez wektor (matrix–vector multiplication, MVM), podstawowa operacja w przetwarzaniu sygnałów, regulacji i uczeniu maszynowym. Duża część pracy nowoczesnych modeli sztucznej inteligencji sprowadza się do ogromnej liczby takich iloczynów, dlatego w przemyśle i nauce stale poszukuje się sposobów na ich szybsze i mniej energochłonne wykonywanie. Z tego powodu inne platformy analogowe, takie jak układy memrystorowe czy chipy fotoniczne, stały się ważnymi tematami badań. Mnożenie macierzy przez wektor interesuje także poza AI: pojawia się w filtrowaniu sygnałów, stabilizacji systemów sterowania, przetwarzaniu obrazu i w szeregu procedur diagnostycznych, gdzie małe próbki danych są transformowane w użyteczne cechy. Jeśli takie operacje można wykonywać przy minimalnym dodatkowym zużyciu energii, uzyskuje się narzędzie odciążające cyfrową część systemu.
Podejście MIT różni się tym, że jako nośnik sygnału wykorzystuje ciepło. Wektor wejściowy jest reprezentowany jako zestaw narzuconych temperatur na wielu portach wejściowych, podczas gdy wektor wyjściowy odczytywany jest jako zestaw zebranych mocy na portach wyjściowych utrzymywanych w temperaturze referencyjnej. Oznacza to, że wejście „wchodzi” jako wzór temperatury, a wyjście jest „wyciągane” jako strumień energii, który można zmierzyć. Taką hybrydową reprezentację (temperatury na wejściu, moce na wyjściu) autorzy łączą z rozszerzeniem pojęcia efektywnego przewodnictwa cieplnego na systemy z wieloma punktami wejściowymi i wyjściowymi. W rzeczywistych urządzeniach otwiera to możliwość, aby część przetwarzania danych odbywała się bezpośrednio tam, gdzie ciepło już powstaje, na przykład przy regulatorach napięcia, gęstej logice czy peryferyjnych blokach czujników. Zamiast tylko wykrywać i chłodzić punkt przegrzania, mógłby on stać się źródłem informacji przetwarzanej natychmiast.
Problem ujemnych współczynników i rozwiązanie z rozdzieleniem wkładów
Przewodnictwo cieplne w najprostszym opisie ma naturalne ograniczenie: ciepło spontanicznie płynie od cieplejszego do chłodniejszego, więc trudno jest bezpośrednio zrealizować „ujemny” wkład w liniowym mapowaniu. Jest to ważne, ponieważ wiele macierzy w przetwarzaniu sygnałów, a szczególnie tych związanych z transformacjami, ma współczynniki zarówno dodatnie, jak i ujemne. Badacze rozdzielają zatem macierz docelową na część dodatnią i ujemną. Zamiast jednej struktury niosącej całą macierz, projektowane są oddzielne struktury realizujące tylko dodatnie wkłady, a następnie wynik jest łączony przez odejmowanie mocy wyjściowych w celu uzyskania efektywnej wartości ujemnej w całkowitym obliczeniu. W ten sposób ograniczenie fizyki przepływu ciepła zmienia się w krok projektowy: ujemność nie jest „wymyślana” w materiale, lecz osiągana przez różnicę dwóch dodatnich pomiarów.
Dodatkowy stopień swobody daje również grubość struktury. Grubsze próbki, przy tym samym układzie bocznym porów, mogą przewodzić więcej ciepła, co zmienia efektywną wagę poszczególnych ścieżek i rozszerza zestaw macierzy, które można przybliżyć. Autorzy podają, że znalezienie „właściwej topologii” dla zadanej macierzy jest wymagające, ponieważ optymalizacja musi jednocześnie trafić w pożądaną relację matematyczną i unikać niepraktycznych lub niestabilnych kształtów. W tym celu opracowują procedurę optymalizacyjną, która utrzymuje geometrię blisko docelowego mapowania, ale zapobiega pojawianiu się „dziwnych” elementów, które zwiększałyby wyciek ciepła lub tworzyły niepożądane skróty. Dzięki temu, przynajmniej w symulacjach, uzyskuje się projekt wierny matematycznie i sensowny fizycznie.
Wyniki: wysoka dokładność na małych macierzach i przykłady użytecznych transformacji
Według danych z pracy, system w symulacjach osiągał dokładność większą niż 99 procent w większości przypadków na zestawie macierzy o wymiarach 2×2 i 3×3. Choć na pierwszy rzut oka są to małe wymiary, to właśnie takie operatory są istotne dla szeregu zadań w elektronice, w tym filtrów lokalnych, prostych transformacji i procedur diagnostycznych. Autorzy nie poprzestają na abstrakcyjnych przykładach, lecz pokazują macierze mające jasne zastosowanie w praktyce. Są wśród nich macierz Hadamarda, operatory splotowe opisane macierzami Toeplitza oraz dyskretna transformata Fouriera, podstawa analizy częstotliwościowej w przetwarzaniu sygnałów. W kontekście chipów są to właśnie te transformacje, które często wykonuje się ogromną liczbę razy, więc nawet mała oszczędność energii jest potencjalnie znacząca.
Ważną częścią demonstracji jest również sposób rozkładania bardziej złożonych obiektów na wiele wkładów. Dyskretna transformata Fouriera zawiera również składowe urojone, więc macierz docelowa jest rozkładana na kilka macierzy rzeczywistych, które następnie są realizowane przez osobne struktury, a wynik jest łączony później. Autorzy stosują to podejście również do realizacji współczynników ze znakiem oraz do kontroli wzajemnie połączonych wyjść, przy czym liczba potrzebnych struktur rośnie wraz z „wagą” zadania. W przykładach porównują macierz docelową i otrzymaną oraz pokazują odchylenia rzędu procenta, w zależności od złożoności i wybranych geometrii. Ważne jest również to, że jest to metoda, która – przynajmniej według prezentacji – nie opiera się na jednej „magicznej” strukturze, lecz na zasadzie, którą można zastosować do różnych macierzy, przy dostosowaniu liczby struktur i sposobu łączenia wyjść.
W pracy podkreślają różnicę w stosunku do klasycznych propozycji „logiki termicznej”, które dążą do budowy diod lub tranzystorów termicznych jako analogii do układów cyfrowych. Takie systemy zazwyczaj pracują ze stanami dyskretnymi „gorący/zimny” i tym samym naśladują przełączanie cyfrowe. Tutaj celem jest tryb ciągły, w którym geometria kieruje ciepłem tak, aby uzyskać pożądany liniowy związek między wejściem a wyjściem. Taka ciągłość jest istotna, ponieważ umożliwia przetwarzanie sygnału bez konwersji na serię przełączników cyfrowych, co często jest źródłem zużycia energii i opóźnień. Jednocześnie autorzy nie kryją, że są to operacje liniowe i że dla szerszych form obliczeń potrzebne byłyby dodatkowe nieliniowości lub sekwencyjne łączenie wielu bloków.
Zastosowania w mikroelektronice: mapowanie termiczne bez dodatkowego zużycia
Najbardziej bezpośrednim zastosowaniem, na które wskazują autorzy, nie jest natychmiastowe uruchamianie dużych modeli sztucznej inteligencji, lecz inteligentniejsze obchodzenie się z ciepłem w mikroelektronice. Urządzenia zawierają dziś często wiele czujników temperatury, ponieważ lokalne hotspoty są krytyczne dla niezawodności: duże gradienty mogą powodować naprężenia mechaniczne, przyspieszone starzenie materiałów i awarie. Jeśli część mapowania termicznego i detekcji gradientów można wykonać pasywnie, wykorzystując samo ciepło jako sygnał, uzyskuje się dodatkową warstwę nadzoru bez obciążania zasilania i bez zajmowania dodatkowej powierzchni dla klasycznych czujników. W takim scenariuszu termalna metastruktura działa jako „analizator” wzoru cieplnego, a terminale wyjściowe dają mierzalny sygnał, który może ostrzec o niepożądanym źródle ciepła lub zmianie warunków pracy.
Podejście to jest szczególnie interesujące w scenariuszach, gdzie dostępna energia jest ograniczona lub gdzie każde dodatkowe nagrzewanie pogarsza problem, który ma być monitorowany. Zamiast dodawać do chipa szereg klasycznych czujników i przetworników analogowo-cyfrowych, w projekt można wbudować struktury termiczne, które lokalnie przekształcają wzory temperatur w sygnały wyjściowe odczytywalne na terminalach krawędziowych. Sygnały te można następnie wykorzystać do dystrybucji obciążenia, aktywacji chłodzenia lub wczesnego wykrywania awarii. Autorzy wspominają również o możliwości „wpięcia” takich bloków w istniejące systemy bez dodatkowych komponentów cyfrowych, właśnie dlatego, że wykorzystują one ciepło, które system i tak wytwarza. Ostatecznie jest to idea przetwarzania „in-situ”: przetwarzanie odbywa się tam, gdzie powstaje problem, zamiast mierzenia wszystkiego, przesyłania i przetwarzania w odległym bloku cyfrowym.
W szerszym kontekście badań nad ciepłem, MIT publikował w ostatnich latach prace o narzędziach do automatycznego projektowania nanomateriałów kierujących strumieniem ciepła, a także o metodach przyspieszających przewidywanie właściwości termicznych materiałów. Nowa praca uzupełnia tę linię o ideę, że strumień ciepła nie musi być postrzegany tylko przez pryzmat chłodzenia, lecz również jako zasób informacyjny w samej elektronice. Taka zmiana perspektywy jest szczególnie aktualna w dobie szybkiego wzrostu zapotrzebowania na obliczenia i gdy efektywność energetyczna staje się czynnikiem ograniczającym w centrach danych, urządzeniach przenośnych i elektronice przemysłowej. W tym sensie „obliczanie z ciepłem” nie jest tylko egzotyczną demonstracją, lecz próbą zamiany fizycznego produktu ubocznego w funkcjonalny element projektu.
Ograniczenia i kolejne kroki: przepustowość, skalowanie i programowalność
Mimo wysokiej dokładności na małych macierzach, droga do skalowania jest długa. Aby wykorzystać takie podejście do dużych modeli głębokiego uczenia, należałoby ułożyć i połączyć dużą liczbę struktur, przy kontroli szumu, tolerancji wykonania i zmienności materiałów. W samej pracy autorzy analizują również granice dynamiczne, ponieważ rozszerzalność cieplna nie jest natychmiastowa: sygnał rozchodzi się przez dyfuzję, więc przepustowość jest ograniczona czasem potrzebnym na „uspokojenie się” systemu po zmianie wejścia. Dla przykładu struktury o wymiarze bocznym około 100 mikrometrów podają czas uspokajania wynoszący około 83,7 mikrosekundy, co odpowiada przepustowości rzędu około 1,9 kiloherca. Takie liczby są wystarczające dla części zadań czujnikowych i sterowniczych, ale są dalekie od prędkości oczekiwanych w klasycznym obliczaniu czy trenowaniu dużych modeli.
Dodatkowo, wraz ze wzrostem złożoności macierzy i odległości między terminalami wejściowymi i wyjściowymi, precyzja może spadać, a optymalizacja staje się bardziej czuła. Autorzy jako naturalną nadbudowę wymieniają rozwój architektury, w której wyjście jednej struktury może służyć jako wejście kolejnej, co umożliwiłoby operacje sekwencyjne. Jest to ważne, ponieważ zarówno sieci neuronowe, jak i wiele algorytmów nie wykonują tylko jednego iloczynu, lecz serię kolejnych transformacji, które razem tworzą model. Innym ważnym kierunkiem jest programowalność: zamiast wytwarzania nowej struktury dla każdej macierzy, celem jest uzyskanie elementu, który można rekonfigurować i tym samym kodować różne macierze bez „zaczynania od zera”. Mogłoby to obejmować aktywne elementy termiczne, zmienne warunki brzegowe lub inne mechanizmy zmieniające efektywne przewodnictwo i funkcję geometryczną.
Jeśli te kroki okażą się wykonalne, termiczne obliczenia analogowe mogą stać się wyspecjalizowaną technologią dla środowisk aktywnych termicznie. Nie byłyby zamiennikiem dla klasycznych procesorów, lecz dodatkiem w częściach systemu, gdzie ciepło jest czynnikiem dominującym i gdzie informacja już „ukrywa się” w polu temperatury. W takich niszach, od detekcji hotspotów po bardziej kompaktowe czujniki termiczne i lokalne przetwarzanie sygnałów, idea zamiany ciepła odpadowego w użyteczną informację mogłaby otworzyć przestrzeń dla innych, bardziej energooszczędnych projektów elektroniki.
Źródła:- arXiv – preprint „Thermal Analog Computing: Application to Matrix-vector Multiplication with Inverse-designed Metastructures” (PDF, wersja datowana na 29 stycznia 2026 r.) (link)
- American Physical Society (Physical Review Applied) – strona zaakceptowanej pracy z DOI 10.1103/5drp-hrx1 (status akceptacji; podaje akceptację 23 grudnia 2025 r.) (link)
- Zenodo – repozytorium danych/oprogramowania przy pracy (wersja opublikowana 24 grudnia 2025 r.) (link)
- MIT News – artykuł o systemie do komputerowego projektowania nanomateriałów kierujących przewodzeniem ciepła (tło metody projektowania odwrotnego) (link)
- MIT News – tekst o metodach szybszego przewidywania właściwości termicznych materiałów (szerszy kontekst badań) (link)
Czas utworzenia: 1 godzin temu