Computación con calor: el enfoque del MIT que convierte el calor residual en una "señal" para los cálculos
En la electrónica, el calor es principalmente un subproducto: cuanto más potente es el chip, mayor es la proporción de energía que acaba convirtiéndose en el calentamiento de la carcasa, el empaque y las capas de material circundantes. Por ello, los ingenieros llevan décadas ocupándose de la refrigeración, la disposición de los componentes y la optimización del consumo, ya que el sobrecalentamiento acorta la vida de los dispositivos y limita el rendimiento. Un equipo del Instituto Tecnológico de Massachusetts (MIT) propone un giro que suena contraintuitivo a primera vista. En lugar de tratar el exceso de calor exclusivamente como un problema que hay que evacuar del chip, el calor puede utilizarse como portador de información, y la propia propagación del flujo térmico puede "realizar" parte de los cálculos. La idea es sencilla en su planteamiento, pero técnicamente exigente: dar forma al material para que su comportamiento térmico corresponda a una operación matemática determinada.
En un trabajo disponible en el momento de escribir este artículo, el 30 de enero de 2026, cuya versión preprint está fechada el 29 de enero de 2026, los autores Caio Silva y Giuseppe Romano describen metaestructuras de silicio microscópicas que pueden realizar cálculos lineales seleccionados basándose en la conducción del calor. Los datos de entrada no son ceros y unos, sino un conjunto de temperaturas que se imponen en los "puertos" de entrada de la estructura. A continuación, el calor se propaga a través de un patrón de forma especial, y la distribución de la temperatura y el flujo de calor se convierte en la realización física del cálculo. En la salida, el resultado no se lee como un número digital, sino como la potencia o el flujo de calor recogido en los terminales de salida que se mantienen a una temperatura de referencia, como una especie de termostato a microescala. En la práctica, esto permitiría, al menos en determinados escenarios, calcular sin energía eléctrica adicional, utilizando los "residuos" que el dispositivo produce de todos modos.
Tal enfoque pertenece a la computación analógica, donde la información se procesa mediante magnitudes físicas continuas en lugar de la conmutación digital de estados lógicos. Los sistemas analógicos están recibiendo una nueva atención en los últimos años debido a las crecientes demandas energéticas del procesamiento de datos moderno y a los cuellos de botella en la transferencia de datos entre la memoria y el procesador. En el caso del calor, el portador de la señal ya existe en cada procesador, regulador de voltaje o sistema en chip densamente empaquetado. Por ello, los autores subrayan que no pretenden sustituir a los procesadores clásicos, sino crear una nueva clase de elementos térmicos pasivos que puedan servir para el mapeo térmico, la detección de fuentes de calor y el procesamiento local de señales en microelectrónica. De este modo, el calor deja de verse solo como una limitación y se convierte en una parte activa de la arquitectura del dispositivo.
Cómo se "escribe" el cálculo en el material
La clave de la tecnología no está en un material exótico, sino en la geometría. En el enfoque clásico de la ingeniería, primero se diseña una estructura y luego se comprueba cómo se comporta. Aquí, el proceso es inverso: primero se especifica con precisión qué transformación matemática se desea obtener y, a continuación, un algoritmo informático busca la geometría que, mediante la propagación del calor, producirá la relación deseada entre la entrada y la salida. Este enfoque se denomina diseño inverso, porque el diseño parte de la función objetivo y retrocede hasta la forma. El equipo del MIT ya había utilizado este concepto anteriormente para diseñar nanomateriales que conducen el calor de formas específicas, y ahora lo aplica a estructuras que, en lugar de "solo" dirigir el calor, realizan cálculos.
En la práctica, el patrón se muestra como una red de elementos diminutos cuya "densidad" puede variar continuamente desde el silicio sólido hasta el vacío, lo que da como resultado un patrón poroso. Un algoritmo ajusta iterativamente la disposición de estos elementos para que la solución de la ecuación de conductividad térmica dé la salida requerida para una serie de excitaciones de entrada. Los autores describen el proceso como una optimización topológica apoyada por un solver térmico diferenciable y diferenciación automática, lo que permite un cálculo estable de gradientes y acelera la búsqueda en el espacio de soluciones. En este marco, el ordenador no "adivina" al azar, sino que utiliza información sobre cómo afecta un pequeño cambio en la geometría al resultado, acercando sistemáticamente el diseño a la función objetivo.
Las escalas son micrométricas: los autores muestran diseños comparables a una partícula de polvo, pero dentro de esa superficie minúscula, la geometría es extremadamente rica. Los microporos y canales cambian la conductividad local y crean "pasillos" preferentes por los que el calor pasa más fácilmente. De este modo, por analogía con las redes eléctricas, se puede controlar cómo se distribuye el flujo de calor hacia los puertos de salida. Cuando el sistema se excita con temperaturas determinadas en la entrada, el calor busca el camino de menor resistencia, y el diseño es tal que ese camino implementa los coeficientes de una matriz dada. En última instancia, la función matemática no está escrita en un software, sino en la disposición de los poros y los "puentes" dentro del silicio.
Por qué la multiplicación de matriz y vector es clave para la IA y el procesamiento de señales
En el centro de la demostración se encuentra la multiplicación de matriz y vector (matrix–vector multiplication, MVM), una operación fundamental en el procesamiento de señales, la regulación y el aprendizaje automático. Gran parte del trabajo de los modelos modernos de inteligencia artificial se puede reducir a un número enorme de tales productos, por lo que en la industria y el mundo académico se buscan constantemente formas de realizarlos con mayor rapidez y menor consumo de energía. Por ello, otras plataformas analógicas, como las matrices de memristores o los chips fotónicos, se han convertido en temas de investigación importantes. La multiplicación de matriz y vector también interesa fuera de la IA: aparece en el filtrado de señales, la estabilización de sistemas de control, el procesamiento de imágenes y en una serie de procedimientos de diagnóstico en los que pequeñas muestras de datos se transforman en características útiles. Si tales operaciones pueden realizarse con un consumo adicional mínimo, se obtiene una herramienta que alivia la parte digital del sistema.
El enfoque del MIT se diferencia en que utiliza el calor como portador de la señal. El vector de entrada se representa como un conjunto de temperaturas impuestas en múltiples puertos de entrada, mientras que el vector de salida se lee como un conjunto de potencias recogidas en los puertos de salida que se mantienen a una temperatura de referencia. Esto significa que la entrada "entra" como un patrón de temperatura y la salida se "extrae" como un flujo de energía que puede medirse. Los autores vinculan esta representación híbrida (temperaturas en la entrada, potencias en la salida) con la ampliación del concepto de conductividad térmica efectiva a sistemas con múltiples puntos de entrada y salida. En los dispositivos reales, esto abre la posibilidad de que parte del procesamiento de datos tenga lugar directamente donde ya se está generando calor, por ejemplo, junto a reguladores de voltaje, lógica densa o bloques de sensores periféricos. En lugar de limitarse a detectar y enfriar un punto de sobrecalentamiento, este podría convertirse en una fuente de información que se procesara inmediatamente.
El problema de los coeficientes negativos y la solución con separación de contribuciones
La conductividad térmica en su descripción más sencilla tiene una limitación natural: el calor fluye espontáneamente de lo más caliente a lo más frío, por lo que es difícil realizar directamente una contribución "negativa" en un mapeo lineal. Esto es importante porque muchas matrices en el procesamiento de señales, y especialmente las relacionadas con transformaciones, tienen coeficientes tanto positivos como negativos. Por ello, los investigadores separan la matriz objetivo en una parte positiva y otra negativa. En lugar de que una sola estructura soporte toda la matriz, se diseñan estructuras separadas que realizan únicamente las contribuciones positivas, y luego el resultado se combina restando las potencias de salida para obtener el valor negativo efectivo en el cálculo total. De este modo, la limitación de la física del flujo de calor se convierte en un paso de diseño: la negatividad no se "inventa" en el material, sino que se logra mediante la diferencia de dos mediciones positivas.
También se otorga un grado adicional de libertad a través del grosor de la estructura. Las muestras más gruesas, con la misma disposición lateral de los poros, pueden conducir más calor, lo que cambia el peso efectivo de las trayectorias individuales y amplía el conjunto de matrices que se pueden aproximar. Los autores afirman que encontrar la "topología adecuada" para una matriz dada es exigente porque la optimización debe dar simultáneamente con la relación matemática deseada y evitar formas poco prácticas o inestables. Para ello, desarrollan un procedimiento de optimización que mantiene la geometría cerca del mapeo objetivo, pero evita la aparición de partes "extrañas" que aumentarían la fuga de calor o crearían atajos no deseados. Con ello se obtiene, al menos en las simulaciones, un diseño matemáticamente fiel y físicamente coherente.
Resultados: alta precisión en matrices pequeñas y ejemplos de transformaciones útiles
Según los datos del trabajo, el sistema alcanzó en las simulaciones una precisión superior al 99 por ciento en la mayoría de los casos en un conjunto de matrices de dimensiones 2×2 y 3×3. Aunque a primera vista se trate de dimensiones pequeñas, son precisamente estos operadores los que resultan relevantes para una serie de tareas en electrónica, como filtros locales, transformaciones sencillas y procedimientos de diagnóstico. Los autores no se quedan en ejemplos abstractos, sino que muestran matrices que tienen una aplicación clara en la práctica. Entre ellas se encuentran la matriz de Hadamard, operadores de convolución descritos por matrices de Toeplitz y la transformada discreta de Fourier, base del análisis de frecuencias en el procesamiento de señales. En el contexto de los chips, estas son precisamente las transformaciones que suelen realizarse un gran número de veces, por lo que incluso un pequeño ahorro de energía es potencialmente significativo.
Una parte importante de la demostración es también la forma en que los objetos más complejos se descomponen en múltiples contribuciones. La transformada discreta de Fourier incluye también componentes imaginarios, por lo que la matriz objetivo se descompone en varias matrices reales que luego se realizan mediante estructuras independientes, y el resultado se combina posteriormente. Los autores utilizan este enfoque también para la realización de coeficientes con signo y para el control de salidas interconectadas, donde el número de estructuras necesarias crece con el "peso" de la tarea. En los ejemplos comparan la matriz objetivo y la obtenida y muestran desviaciones del orden de un punto porcentual, dependiendo de la complejidad y de las geometrías seleccionadas. También es importante que se trata de un método que, al menos según la presentación, no se basa en una única estructura "mágica", sino en un principio que puede aplicarse a diferentes matrices, ajustando el número de estructuras y la forma de combinar las salidas.
En el trabajo destacan la diferencia con las propuestas clásicas de "lógica térmica" que pretenden construir diodos o transistores térmicos como analogía de los circuitos digitales. Tales sistemas suelen funcionar con estados discretos de "caliente/frío" y, por tanto, imitan la conmutación digital. Aquí el objetivo es un régimen continuo, donde la geometría dirige el calor de modo que se obtenga la relación lineal deseada entre la entrada y la salida. Esta continuidad es esencial porque permite el procesamiento de señales sin conversión en una serie de interruptores digitales, lo que suele ser una fuente de consumo y retraso. Al mismo tiempo, los autores no ocultan que se trata de operaciones lineales y que, para formas más amplias de computación, serían necesarias no linealidades adicionales o la conexión secuencial de múltiples bloques.
Aplicaciones en microelectrónica: mapeo térmico sin consumo adicional
La aplicación más directa que destacan los autores no es la ejecución inmediata de grandes modelos de inteligencia artificial, sino un manejo más inteligente del calor en la microelectrónica. Los dispositivos actuales suelen contener múltiples sensores de temperatura, ya que los puntos calientes locales son críticos para la fiabilidad: los grandes gradientes pueden causar tensiones mecánicas, envejecimiento acelerado de los materiales y averías. Si parte del mapeo térmico y de la detección de gradientes puede realizarse de forma pasiva, utilizando el propio calor como señal, se obtiene una capa adicional de supervisión sin cargar la fuente de alimentación y sin ocupar superficie extra para los sensores clásicos. En tal escenario, la metaestructura térmica actúa como un "analizador" del patrón térmico, y los terminales de salida proporcionan una señal medible que puede advertir de una fuente de calor no deseada o de un cambio en las condiciones de funcionamiento.
El enfoque es especialmente interesante en escenarios donde la energía disponible es limitada o donde cualquier calentamiento adicional agrava el problema que se quiere supervisar. En lugar de añadir al chip una serie de sensores clásicos y convertidores analógico-digitales, se pueden integrar en el diseño estructuras térmicas que conviertan localmente los patrones de temperatura en señales de salida que puedan leerse en los terminales periféricos. Estas señales pueden utilizarse después para la distribución de la carga, para la activación de la refrigeración o para la detección precoz de averías. Los autores mencionan también la posibilidad de que estos bloques se "conecten" a los sistemas existentes sin componentes digitales adicionales, precisamente porque utilizan el calor que el sistema produce de todos modos. En última instancia, se trata de la idea del procesamiento "in situ": el procesamiento tiene lugar donde surge el problema, en lugar de medirlo todo, enviarlo y procesarlo en un bloque digital distante.
En el contexto más amplio de la investigación sobre el calor, el MIT ha publicado en los últimos años trabajos sobre herramientas para el diseño automático de nanomateriales que dirigen el flujo térmico, así como sobre métodos que aceleran la predicción de las propiedades térmicas de los materiales. El nuevo trabajo añade a esta línea la idea de que el flujo de calor no tiene por qué verse solo a través del prisma de la refrigeración, sino también como un recurso de información en la propia electrónica. Este cambio de perspectiva resulta especialmente actual en una época en la que la demanda de computación aumenta rápidamente y la eficiencia energética se convierte en un factor limitante en los centros de datos, los dispositivos portátiles y la electrónica industrial. En este sentido, "computar con calor" no es solo una demostración exótica, sino un intento de convertir un subproducto físico en un elemento de diseño funcional.
Limitaciones y próximos pasos: rendimiento, escalado y programabilidad
A pesar de la alta precisión en matrices pequeñas, el camino hacia el escalado es largo. Para utilizar este enfoque en grandes modelos de aprendizaje profundo, habría que pavimentar y conectar un gran número de estructuras, controlando el ruido, las tolerancias de fabricación y la variabilidad de los materiales. En el propio trabajo, los autores analizan también los límites dinámicos, ya que la expansión térmica no es instantánea: la señal se propaga por difusión, por lo que el rendimiento está limitado por el tiempo necesario para que el sistema se "asiente" tras un cambio en la entrada. Para el ejemplo de una estructura con una dimensión lateral de unos 100 micrómetros, indican un tiempo de asentamiento de aproximadamente 83,7 microsegundos, lo que corresponde a un rendimiento del orden de unos 1,9 kilohercios. Estas cifras son suficientes para parte de las tareas de detección y control, pero están lejos de las velocidades que se esperan en la computación clásica o en el entrenamiento de grandes modelos.
Además, a medida que aumenta la complejidad de la matriz y la distancia entre los terminales de entrada y salida, la precisión puede disminuir y la optimización se vuelve más sensible. Los autores mencionan como una mejora natural el desarrollo de una arquitectura en la que la salida de una estructura pueda utilizarse como entrada de la siguiente, lo que permitiría realizar operaciones secuenciales. Esto es importante porque tanto las redes neuronales como muchos algoritmos no realizan un solo producto, sino una serie de transformaciones sucesivas que juntas conforman el modelo. Otra dirección importante es la programabilidad: en lugar de fabricar una estructura nueva para cada matriz, el objetivo es obtener un elemento que pueda reconfigurarse y, por tanto, codificar diferentes matrices sin "empezar de cero". Esto podría incluir elementos térmicos activos, condiciones de contorno variables u otros mecanismos que cambien la conductividad efectiva y la función geométrica.
Si estos pasos resultan factibles, la computación analógica térmica podría convertirse en una tecnología especializada para entornos térmicamente activos. No sería un sustituto de los procesadores clásicos, sino un complemento en partes del sistema donde el calor es el factor dominante y donde la información ya está "escondida" en el campo de temperatura. En tales nichos, desde la detección de puntos calientes hasta sensores térmicos más compactos y el procesamiento local de señales, la idea de convertir el calor residual en información útil podría abrir espacio para diseños de electrónica diferentes y más eficientes energéticamente.
Fuentes:- arXiv – preprint “Thermal Analog Computing: Application to Matrix-vector Multiplication with Inverse-designed Metastructures” (PDF, versión fechada el 29 de enero de 2026) (enlace)
- American Physical Society (Physical Review Applied) – página del trabajo aceptado con DOI 10.1103/5drp-hrx1 (estado de aceptación; indica aceptación el 23 de diciembre de 2025) (enlace)
- Zenodo – repositorio de datos/software adjunto al trabajo (versión publicada el 24 de diciembre de 2025) (enlace)
- MIT News – artículo sobre el sistema para el diseño computacional de nanomateriales que dirigen la conducción del calor (antecedentes del método de diseño inverso) (enlace)
- MIT News – texto sobre métodos para una predicción más rápida de las propiedades térmicas de los materiales (contexto de investigación más amplio) (enlace)
Encuentra alojamiento cerca
Hora de creación: 3 horas antes