Calculer avec la chaleur : l'approche du MIT qui transforme la chaleur résiduelle en « signal » pour les calculs
En électronique, la chaleur est principalement un sous-produit : plus la puce est puissante, plus une grande partie de l'énergie finit par se transformer en chauffage du boîtier, de l'emballage et des couches de matériaux environnantes. Les ingénieurs s'occupent donc depuis des décennies du refroidissement, de la disposition des composants et de l'optimisation de la consommation, car la surchauffe raccourcit la durée de vie des appareils et limite les performances. Une équipe du Massachusetts Institute of Technology (MIT) propose un virage qui semble contre-intuitif à première vue. Au lieu de traiter l'excès de chaleur exclusivement comme un problème à évacuer de la puce, la chaleur peut être utilisée comme porteur d'informations, et la propagation du flux thermique elle-même peut « effectuer » une partie des calculs. L'idée est simple au départ, mais techniquement exigeante : façonner le matériau pour que son comportement thermique corresponde à une opération mathématique donnée.
Dans un article disponible au moment de la rédaction le 30 janvier 2026, dont la version preprint est datée du 29 janvier 2026, les auteurs Caio Silva et Giuseppe Romano décrivent des métastructures de silicium microscopiques capables d'effectuer des calculs linéaires sélectionnés en s'appuyant sur la conduction thermique. Les données d'entrée ne sont pas des zéros et des uns, mais un ensemble de températures imposées aux « ports » d'entrée de la structure. La chaleur se propage ensuite à travers un motif de forme spéciale, et la répartition de la température et du flux thermique devient la réalisation physique du calcul. À la sortie, le résultat n'est pas lu comme un nombre numérique, mais comme une puissance ou un flux thermique collecté aux bornes de sortie maintenues à une température de référence, comme une sorte de thermostat à l'échelle micro. En pratique, cela permettrait, du moins dans certains scénarios, de calculer sans énergie électrique supplémentaire, en utilisant les « déchets » que l'appareil produit de toute façon.
Une telle approche relève de l'informatique analogique, où l'information est traitée par des grandeurs physiques continues au lieu d'une commutation numérique d'états logiques. Les systèmes analogiques reçoivent une nouvelle attention ces dernières années en raison des exigences énergétiques croissantes du traitement moderne des données et des goulots d'étranglement dans le transfert de données entre la mémoire et le processeur. Dans le cas de la chaleur, le porteur de signal existe déjà dans chaque processeur, régulateur de tension ou système sur puce densément emballé. Les auteurs soulignent donc qu'ils ne visent pas à remplacer les processeurs classiques, mais une nouvelle classe d'éléments thermiques passifs pouvant servir à la cartographie thermique, à la détection des sources de chaleur et au traitement local des signaux en microélectronique. Ainsi, la chaleur cesse d'être considérée uniquement comme une limitation et devient une partie active de l'architecture de l'appareil.
Comment le calcul est « inscrit » dans le matériau
La clé de la technologie ne réside pas dans un matériau exotique, mais dans la géométrie. Dans l'approche classique de l'ingénierie, on conçoit d'abord une structure, puis on vérifie comment elle se comporte. Ici, le processus est inversé : on définit d'abord précisément quelle transformation mathématique doit avoir lieu, puis un algorithme informatique cherche la géométrie qui, par la propagation de la chaleur, produira la relation souhaitée entre l'entrée et la sortie. Cette approche est appelée conception inverse, car la conception part de la fonction cible et revient en arrière jusqu'à la forme. L'équipe du MIT avait déjà utilisé ce concept pour concevoir des nanomatériaux guidant la chaleur de manières spécifiques, et l'applique maintenant à des structures qui, au lieu de « seulement » diriger la chaleur, effectuent des calculs.
En pratique, le motif est représenté comme un réseau de minuscules éléments dont la « densité » peut varier continuellement du silicium plein au vide, ce qui donne un motif poreux. Un algorithme ajuste itérativement la disposition de ces éléments pour que la solution de l'équation de conductivité thermique donne la sortie requise pour une série d'excitations d'entrée. Les auteurs décrivent le processus comme une optimisation topologique assistée par un solveur thermique différentiable et une différenciation automatique, ce qui permet un calcul stable des gradients et accélère la recherche de l'espace des solutions. Dans un tel cadre, l'ordinateur ne « devine » pas au hasard, mais utilise des informations sur la manière dont un petit changement de géométrie affecte le résultat, rapprochant ainsi systématiquement la conception de la fonction cible.
Les échelles sont micrométriques : les auteurs présentent des conceptions comparables à une particule de poussière, mais à l'intérieur de cette surface miniature, la géométrie est extrêmement riche. Les micropores et les canaux modifient la conductivité locale et créent des « corridors » préférés à travers lesquels la chaleur passe plus facilement. Ainsi, par analogie avec les réseaux électriques, il est possible de contrôler la manière dont le flux thermique est réparti vers les ports de sortie. Lorsque le système est excité par des températures données à l'entrée, la chaleur cherche le chemin de moindre résistance, et la conception est telle que ce chemin implémente les coefficients d'une matrice donnée. En fin de compte, la fonction mathématique n'est pas écrite dans un logiciel, mais dans la disposition des pores et des « ponts » à l'intérieur du silicium.
Pourquoi la multiplication matrice-vecteur est la clé de l'IA et du traitement du signal
Au centre de la démonstration se trouve la multiplication matrice-vecteur (matrix–vector multiplication, MVM), une opération fondamentale dans le traitement du signal, la régulation et l'apprentissage automatique. Une grande partie du travail des modèles d'intelligence artificielle modernes peut être réduite à un nombre énorme de tels produits, de sorte que l'industrie et l'université cherchent constamment des moyens de les réaliser plus rapidement et avec moins d'énergie. C'est pourquoi d'autres plateformes analogiques, telles que les réseaux de memristors ou les puces photoniques, sont devenues d'importants sujets de recherche. La multiplication matrice-vecteur intéresse également au-delà de l'IA : elle apparaît dans le filtrage des signaux, la stabilisation des systèmes de contrôle, le traitement d'images et dans une série de procédures de diagnostic où de petits échantillons de données sont transformés en caractéristiques utiles. Si de telles opérations peuvent être effectuées avec une consommation supplémentaire minimale, on obtient un outil qui décharge la partie numérique du système.
L'approche du MIT se distingue par l'utilisation de la chaleur comme porteur de signal. Le vecteur d'entrée est représenté comme un ensemble de températures imposées sur plusieurs ports d'entrée, tandis que le vecteur de sortie est lu comme un ensemble de puissances collectées sur les ports de sortie maintenus à une température de référence. Cela signifie que l'entrée « entre » comme un motif de température, et la sortie est « extraite » comme un flux d'énergie mesurable. Une telle représentation hybride (températures à l'entrée, puissances à la sortie), les auteurs la lient à l'extension du concept de conductivité thermique effective aux systèmes à points d'entrée et de sortie multiples. Dans les dispositifs réels, cela ouvre la possibilité qu'une partie du traitement des données ait lieu directement là où la chaleur est déjà générée, par exemple près des régulateurs de tension, de la logique dense ou des blocs de capteurs périphériques. Au lieu de simplement détecter et refroidir un point de surchauffe, celui-ci pourrait devenir une source d'information traitée immédiatement.
Le problème des coefficients négatifs et la solution avec séparation des contributions
La conductivité thermique, dans sa description la plus simple, a une limitation naturelle : la chaleur circule spontanément du plus chaud vers le plus froid, il est donc difficile de réaliser directement une contribution « négative » dans un mappage linéaire. C'est important car de nombreuses matrices dans le traitement du signal, et particulièrement celles liées aux transformations, ont des coefficients à la fois positifs et négatifs. Les chercheurs séparent donc la matrice cible en une partie positive et une partie négative. Au lieu d'une seule structure portant toute la matrice, des structures séparées sont conçues pour réaliser uniquement les contributions positives, puis le résultat est combiné en soustrayant les puissances de sortie pour obtenir la valeur négative effective dans le calcul total. De cette manière, la limitation de la physique du flux thermique se transforme en une étape de conception : la négativité n'est pas « inventée » dans le matériau, mais est obtenue par la différence entre deux mesures positives.
Un degré de liberté supplémentaire est également donné par l'épaisseur de la structure. Des échantillons plus épais, avec la même disposition latérale des pores, peuvent conduire plus de chaleur, ce qui modifie le poids effectif des trajectoires individuelles et élargit l'ensemble des matrices pouvant être approchées. Les auteurs précisent que trouver la « bonne topologie » pour une matrice donnée est exigeant car l'optimisation doit simultanément atteindre la relation mathématique souhaitée et éviter des formes peu pratiques ou instables. À cette fin, ils développent une procédure d'optimisation qui maintient la géométrie proche du mappage cible, mais empêche l'apparition de parties « étranges » qui augmenteraient les fuites de chaleur ou créeraient des raccourcis indésirables. Cela donne, du moins dans les simulations, une conception mathématiquement fidèle et physiquement sensée.
Résultats : haute précision sur de petites matrices et exemples de transformations utiles
Selon les données de l'article, le système a atteint en simulation une précision supérieure à 99 pour cent dans la plupart des cas sur un ensemble de matrices de dimensions 2×2 et 3×3. Bien qu'il s'agisse à première vue de petites dimensions, ce sont précisément ces opérateurs qui sont pertinents pour une série de tâches en électronique, notamment les filtres locaux, les transformations simples et les procédures de diagnostic. Les auteurs ne s'en tiennent pas à des exemples abstraits, mais présentent des matrices ayant une application claire dans la pratique. Parmi elles, la matrice de Hadamard, les opérateurs de convolution décrits par les matrices de Toeplitz et la transformée de Fourier discrète, fondement de l'analyse fréquentielle dans le traitement du signal. Dans le contexte des puces, ce sont précisément ces transformations qui sont souvent effectuées un grand nombre de fois, de sorte que même une petite économie d'énergie est potentiellement significative.
Une partie importante de la démonstration réside également dans la manière dont des objets plus complexes sont décomposés en plusieurs contributions. La transformée de Fourier discrète comprend également des composantes imaginaires, de sorte que la matrice cible est décomposée en plusieurs matrices réelles qui sont ensuite réalisées par des structures séparées, et le résultat est combiné ultérieurement. Les auteurs utilisent également cette approche pour la réalisation de coefficients signés et pour le contrôle de sorties interconnectées, le nombre de structures nécessaires augmentant avec le « poids » de la tâche. Dans les exemples, ils comparent la matrice cible et la matrice obtenue et montrent des écarts de l'ordre du pourcentage, selon la complexité et les géométries choisies. Il est également important de noter qu'il s'agit d'une méthode qui, du moins selon la présentation, ne repose pas sur une seule structure « magique », mais sur un principe qui peut être appliqué à différentes matrices, en adaptant le nombre de structures et la manière de combiner les sorties.
Dans l'article, ils soulignent la différence par rapport aux propositions classiques de « logique thermique » qui cherchent à construire des diodes ou des transistors thermiques par analogie avec les circuits numériques. De tels systèmes fonctionnent généralement avec des états discrets « chaud/froid » et imitent ainsi la commutation numérique. Ici, l'objectif est un régime continu, où la géométrie dirige la chaleur de manière à obtenir la relation linéaire souhaitée entre l'entrée et la sortie. Une telle continuité est essentielle car elle permet le traitement du signal sans conversion en une série de commutateurs numériques, ce qui est souvent source de consommation et de retard. En même temps, les auteurs ne cachent pas qu'il s'agit d'opérations linéaires et que pour des formes plus larges de calcul, des non-linéarités supplémentaires ou une connexion séquentielle de plusieurs blocs seraient nécessaires.
Applications en microélectronique : cartographie thermique sans consommation supplémentaire
L'application la plus directe mise en avant par les auteurs n'est pas le fonctionnement immédiat de grands modèles d'intelligence artificielle, mais une gestion plus intelligente de la chaleur en microélectronique. Les appareils d'aujourd'hui contiennent souvent plusieurs capteurs de température, car les points chauds locaux sont critiques pour la fiabilité : de grands gradients peuvent provoquer des contraintes mécaniques, un vieillissement accéléré des matériaux et des pannes. Si une partie de la cartographie thermique et de la détection des gradients peut être effectuée de manière passive, en utilisant la chaleur elle-même comme signal, on obtient une couche de surveillance supplémentaire sans charger l'alimentation et sans occuper de surface supplémentaire pour des capteurs classiques. Dans un tel scénario, la métastructure thermique agit comme un « analyseur » du motif thermique, et les bornes de sortie fournissent un signal mesurable qui peut avertir d'une source de chaleur indésirable ou d'un changement des conditions de fonctionnement.
L'approche est particulièrement intéressante dans des scénarios où l'énergie disponible est limitée ou lorsque tout chauffage supplémentaire aggrave le problème à surveiller. Au lieu d'ajouter une série de capteurs classiques et de convertisseurs analogique-numérique sur la puce, des structures thermiques peuvent être intégrées à la conception pour convertir localement les motifs de température en signaux de sortie lisibles sur les bornes périphériques. Ces signaux peuvent ensuite être utilisés pour la répartition de la charge, pour l'activation du refroidissement ou pour la détection précoce des pannes. Les auteurs mentionnent également la possibilité de « brancher » ces blocs sur des systèmes existants sans composants numériques supplémentaires, précisément parce qu'ils utilisent la chaleur que le système produit de toute façon. En fin de compte, c'est l'idée d'un traitement « in-situ » : le traitement a lieu là où le problème survient, au lieu de tout mesurer, envoyer et traiter sur un bloc numérique distant.
Dans le contexte plus large de la recherche sur la chaleur, le MIT a publié ces dernières années des articles sur des outils de conception automatique de nanomatériaux guidant le flux thermique, ainsi que sur des méthodes accélérant la prédiction des propriétés thermiques des matériaux. Le nouveau travail ajoute à cette ligne l'idée que le flux thermique ne doit pas seulement être vu sous le prisme du refroidissement, mais aussi comme une ressource d'information dans l'électronique elle-même. Un tel changement de perspective est particulièrement d'actualité à une époque où la demande informatique augmente rapidement et où l'efficacité énergétique devient un facteur limitant dans les centres de données, les appareils portables et l'électronique industrielle. En ce sens, le « calcul par la chaleur » n'est pas seulement une démonstration exotique, mais une tentative de transformer un sous-produit physique en un élément de conception fonctionnel.
Limites et étapes suivantes : débit, mise à l'échelle et programmabilité
Malgré une grande précision sur de petites matrices, le chemin vers la mise à l'échelle est long. Pour utiliser cette approche pour de grands modèles d'apprentissage profond, il faudrait paver et connecter un grand nombre de structures, tout en contrôlant le bruit, les tolérances de fabrication et la variabilité des matériaux. Dans l'article lui-même, les auteurs analysent également les limites dynamiques, car la dilatation thermique n'est pas instantanée : le signal se propage par diffusion, de sorte que le débit est limité par le temps nécessaire au système pour se « stabiliser » après un changement d'entrée. Pour l'exemple d'une structure avec une dimension latérale d'environ 100 micromètres, ils indiquent un temps de stabilisation d'environ 83,7 microsecondes, ce qui correspond à un débit de l'ordre d'environ 1,9 kilohertz. De tels chiffres sont suffisants pour une partie des tâches de détection et de contrôle, mais sont loin des vitesses attendues dans le calcul classique ou l'entraînement de grands modèles.
De plus, à mesure que la complexité de la matrice et la distance entre les bornes d'entrée et de sortie augmentent, la précision peut chuter et l'optimisation devient plus sensible. Les auteurs mentionnent comme une évolution naturelle le développement d'une architecture dans laquelle la sortie d'une structure peut être utilisée comme entrée de la suivante, ce qui permettrait des opérations séquentielles. C'est important car tant les réseaux neuronaux que de nombreux algorithmes n'effectuent pas qu'un seul produit, mais une série de transformations successives qui constituent ensemble le modèle. Un autre axe important est la programmabilité : au lieu de fabriquer une nouvelle structure pour chaque matrice, l'objectif est d'obtenir un élément reconfigurable et ainsi de coder différentes matrices sans « partir de zéro ». Cela pourrait inclure des éléments thermiques actifs, des conditions aux limites variables ou d'autres mécanismes modifiant la conductivité effective et la fonction géométrique.
Si ces étapes s'avèrent réalisables, l'informatique analogique thermique pourrait devenir une technologie spécialisée pour les environnements thermiquement actifs. Elle ne remplacerait pas les processeurs classiques, mais serait un complément dans les parties du système où la chaleur est le facteur dominant et où l'information est déjà « cachée » dans le champ de température. Dans de telles niches, de la détection des points chauds à des capteurs thermiques plus compacts et au traitement local des signaux, l'idée de transformer la chaleur résiduelle en informations utiles pourrait ouvrir la voie à des conceptions électroniques différentes et plus économes en énergie.
Sources :- arXiv – preprint « Thermal Analog Computing: Application to Matrix-vector Multiplication with Inverse-designed Metastructures » (PDF, version datée du 29 janvier 2026) (lien)
- American Physical Society (Physical Review Applied) – page de l'article accepté avec DOI 10.1103/5drp-hrx1 (statut d'acceptation ; mentionne l'acceptation le 23 décembre 2025) (lien)
- Zenodo – dépôt de données/logiciels accompagnant l'article (version publiée le 24 décembre 2025) (lien)
- MIT News – article sur le système de conception assistée par ordinateur de nanomatériaux guidant la conduction thermique (contexte de la méthode de conception inverse) (lien)
- MIT News – texte sur les méthodes de prédiction plus rapide des propriétés thermiques des matériaux (contexte de recherche plus large) (lien)
Trouvez un hébergement à proximité
Heure de création: 3 heures avant