Postavke privatnosti

Las metaestructuras de silicio del MIT calculan con ayuda del calor: la energía residual se convierte en señal de cálculo

Conoce cómo investigadores del MIT desarrollaron metaestructuras de silicio microscópicas que, en lugar de electricidad, utilizan el exceso de calor en el chip para la multiplicación analógica de matrices y vectores, una operación clave en el aprendizaje automático. Presentamos lo que muestra el trabajo publicado en Physical Review Applied, qué aplicaciones promete para el monitoreo térmico de la electrónica y dónde están los límites actuales.

Las metaestructuras de silicio del MIT calculan con ayuda del calor: la energía residual se convierte en señal de cálculo
Photo by: Domagoj Skledar - illustration/ arhiva (vlastita)

Computación con calor: el enfoque del MIT que convierte el calor residual en una "señal" para los cálculos

En la electrónica, el calor es principalmente un subproducto: cuanto más potente es el chip, mayor es la proporción de energía que acaba convirtiéndose en el calentamiento de la carcasa, el empaque y las capas de material circundantes. Por ello, los ingenieros llevan décadas ocupándose de la refrigeración, la disposición de los componentes y la optimización del consumo, ya que el sobrecalentamiento acorta la vida de los dispositivos y limita el rendimiento. Un equipo del Instituto Tecnológico de Massachusetts (MIT) propone un giro que suena contraintuitivo a primera vista. En lugar de tratar el exceso de calor exclusivamente como un problema que hay que evacuar del chip, el calor puede utilizarse como portador de información, y la propia propagación del flujo térmico puede "realizar" parte de los cálculos. La idea es sencilla en su planteamiento, pero técnicamente exigente: dar forma al material para que su comportamiento térmico corresponda a una operación matemática determinada.

En un trabajo disponible en el momento de escribir este artículo, el 30 de enero de 2026, cuya versión preprint está fechada el 29 de enero de 2026, los autores Caio Silva y Giuseppe Romano describen metaestructuras de silicio microscópicas que pueden realizar cálculos lineales seleccionados basándose en la conducción del calor. Los datos de entrada no son ceros y unos, sino un conjunto de temperaturas que se imponen en los "puertos" de entrada de la estructura. A continuación, el calor se propaga a través de un patrón de forma especial, y la distribución de la temperatura y el flujo de calor se convierte en la realización física del cálculo. En la salida, el resultado no se lee como un número digital, sino como la potencia o el flujo de calor recogido en los terminales de salida que se mantienen a una temperatura de referencia, como una especie de termostato a microescala. En la práctica, esto permitiría, al menos en determinados escenarios, calcular sin energía eléctrica adicional, utilizando los "residuos" que el dispositivo produce de todos modos.

Tal enfoque pertenece a la computación analógica, donde la información se procesa mediante magnitudes físicas continuas en lugar de la conmutación digital de estados lógicos. Los sistemas analógicos están recibiendo una nueva atención en los últimos años debido a las crecientes demandas energéticas del procesamiento de datos moderno y a los cuellos de botella en la transferencia de datos entre la memoria y el procesador. En el caso del calor, el portador de la señal ya existe en cada procesador, regulador de voltaje o sistema en chip densamente empaquetado. Por ello, los autores subrayan que no pretenden sustituir a los procesadores clásicos, sino crear una nueva clase de elementos térmicos pasivos que puedan servir para el mapeo térmico, la detección de fuentes de calor y el procesamiento local de señales en microelectrónica. De este modo, el calor deja de verse solo como una limitación y se convierte en una parte activa de la arquitectura del dispositivo.

Cómo se "escribe" el cálculo en el material

La clave de la tecnología no está en un material exótico, sino en la geometría. En el enfoque clásico de la ingeniería, primero se diseña una estructura y luego se comprueba cómo se comporta. Aquí, el proceso es inverso: primero se especifica con precisión qué transformación matemática se desea obtener y, a continuación, un algoritmo informático busca la geometría que, mediante la propagación del calor, producirá la relación deseada entre la entrada y la salida. Este enfoque se denomina diseño inverso, porque el diseño parte de la función objetivo y retrocede hasta la forma. El equipo del MIT ya había utilizado este concepto anteriormente para diseñar nanomateriales que conducen el calor de formas específicas, y ahora lo aplica a estructuras que, en lugar de "solo" dirigir el calor, realizan cálculos.

En la práctica, el patrón se muestra como una red de elementos diminutos cuya "densidad" puede variar continuamente desde el silicio sólido hasta el vacío, lo que da como resultado un patrón poroso. Un algoritmo ajusta iterativamente la disposición de estos elementos para que la solución de la ecuación de conductividad térmica dé la salida requerida para una serie de excitaciones de entrada. Los autores describen el proceso como una optimización topológica apoyada por un solver térmico diferenciable y diferenciación automática, lo que permite un cálculo estable de gradientes y acelera la búsqueda en el espacio de soluciones. En este marco, el ordenador no "adivina" al azar, sino que utiliza información sobre cómo afecta un pequeño cambio en la geometría al resultado, acercando sistemáticamente el diseño a la función objetivo.

Las escalas son micrométricas: los autores muestran diseños comparables a una partícula de polvo, pero dentro de esa superficie minúscula, la geometría es extremadamente rica. Los microporos y canales cambian la conductividad local y crean "pasillos" preferentes por los que el calor pasa más fácilmente. De este modo, por analogía con las redes eléctricas, se puede controlar cómo se distribuye el flujo de calor hacia los puertos de salida. Cuando el sistema se excita con temperaturas determinadas en la entrada, el calor busca el camino de menor resistencia, y el diseño es tal que ese camino implementa los coeficientes de una matriz dada. En última instancia, la función matemática no está escrita en un software, sino en la disposición de los poros y los "puentes" dentro del silicio.

Por qué la multiplicación de matriz y vector es clave para la IA y el procesamiento de señales

En el centro de la demostración se encuentra la multiplicación de matriz y vector (matrix–vector multiplication, MVM), una operación fundamental en el procesamiento de señales, la regulación y el aprendizaje automático. Gran parte del trabajo de los modelos modernos de inteligencia artificial se puede reducir a un número enorme de tales productos, por lo que en la industria y el mundo académico se buscan constantemente formas de realizarlos con mayor rapidez y menor consumo de energía. Por ello, otras plataformas analógicas, como las matrices de memristores o los chips fotónicos, se han convertido en temas de investigación importantes. La multiplicación de matriz y vector también interesa fuera de la IA: aparece en el filtrado de señales, la estabilización de sistemas de control, el procesamiento de imágenes y en una serie de procedimientos de diagnóstico en los que pequeñas muestras de datos se transforman en características útiles. Si tales operaciones pueden realizarse con un consumo adicional mínimo, se obtiene una herramienta que alivia la parte digital del sistema.

El enfoque del MIT se diferencia en que utiliza el calor como portador de la señal. El vector de entrada se representa como un conjunto de temperaturas impuestas en múltiples puertos de entrada, mientras que el vector de salida se lee como un conjunto de potencias recogidas en los puertos de salida que se mantienen a una temperatura de referencia. Esto significa que la entrada "entra" como un patrón de temperatura y la salida se "extrae" como un flujo de energía que puede medirse. Los autores vinculan esta representación híbrida (temperaturas en la entrada, potencias en la salida) con la ampliación del concepto de conductividad térmica efectiva a sistemas con múltiples puntos de entrada y salida. En los dispositivos reales, esto abre la posibilidad de que parte del procesamiento de datos tenga lugar directamente donde ya se está generando calor, por ejemplo, junto a reguladores de voltaje, lógica densa o bloques de sensores periféricos. En lugar de limitarse a detectar y enfriar un punto de sobrecalentamiento, este podría convertirse en una fuente de información que se procesara inmediatamente.

El problema de los coeficientes negativos y la solución con separación de contribuciones

La conductividad térmica en su descripción más sencilla tiene una limitación natural: el calor fluye espontáneamente de lo más caliente a lo más frío, por lo que es difícil realizar directamente una contribución "negativa" en un mapeo lineal. Esto es importante porque muchas matrices en el procesamiento de señales, y especialmente las relacionadas con transformaciones, tienen coeficientes tanto positivos como negativos. Por ello, los investigadores separan la matriz objetivo en una parte positiva y otra negativa. En lugar de que una sola estructura soporte toda la matriz, se diseñan estructuras separadas que realizan únicamente las contribuciones positivas, y luego el resultado se combina restando las potencias de salida para obtener el valor negativo efectivo en el cálculo total. De este modo, la limitación de la física del flujo de calor se convierte en un paso de diseño: la negatividad no se "inventa" en el material, sino que se logra mediante la diferencia de dos mediciones positivas.

También se otorga un grado adicional de libertad a través del grosor de la estructura. Las muestras más gruesas, con la misma disposición lateral de los poros, pueden conducir más calor, lo que cambia el peso efectivo de las trayectorias individuales y amplía el conjunto de matrices que se pueden aproximar. Los autores afirman que encontrar la "topología adecuada" para una matriz dada es exigente porque la optimización debe dar simultáneamente con la relación matemática deseada y evitar formas poco prácticas o inestables. Para ello, desarrollan un procedimiento de optimización que mantiene la geometría cerca del mapeo objetivo, pero evita la aparición de partes "extrañas" que aumentarían la fuga de calor o crearían atajos no deseados. Con ello se obtiene, al menos en las simulaciones, un diseño matemáticamente fiel y físicamente coherente.

Resultados: alta precisión en matrices pequeñas y ejemplos de transformaciones útiles

Según los datos del trabajo, el sistema alcanzó en las simulaciones una precisión superior al 99 por ciento en la mayoría de los casos en un conjunto de matrices de dimensiones 2×2 y 3×3. Aunque a primera vista se trate de dimensiones pequeñas, son precisamente estos operadores los que resultan relevantes para una serie de tareas en electrónica, como filtros locales, transformaciones sencillas y procedimientos de diagnóstico. Los autores no se quedan en ejemplos abstractos, sino que muestran matrices que tienen una aplicación clara en la práctica. Entre ellas se encuentran la matriz de Hadamard, operadores de convolución descritos por matrices de Toeplitz y la transformada discreta de Fourier, base del análisis de frecuencias en el procesamiento de señales. En el contexto de los chips, estas son precisamente las transformaciones que suelen realizarse un gran número de veces, por lo que incluso un pequeño ahorro de energía es potencialmente significativo.

Una parte importante de la demostración es también la forma en que los objetos más complejos se descomponen en múltiples contribuciones. La transformada discreta de Fourier incluye también componentes imaginarios, por lo que la matriz objetivo se descompone en varias matrices reales que luego se realizan mediante estructuras independientes, y el resultado se combina posteriormente. Los autores utilizan este enfoque también para la realización de coeficientes con signo y para el control de salidas interconectadas, donde el número de estructuras necesarias crece con el "peso" de la tarea. En los ejemplos comparan la matriz objetivo y la obtenida y muestran desviaciones del orden de un punto porcentual, dependiendo de la complejidad y de las geometrías seleccionadas. También es importante que se trata de un método que, al menos según la presentación, no se basa en una única estructura "mágica", sino en un principio que puede aplicarse a diferentes matrices, ajustando el número de estructuras y la forma de combinar las salidas.

En el trabajo destacan la diferencia con las propuestas clásicas de "lógica térmica" que pretenden construir diodos o transistores térmicos como analogía de los circuitos digitales. Tales sistemas suelen funcionar con estados discretos de "caliente/frío" y, por tanto, imitan la conmutación digital. Aquí el objetivo es un régimen continuo, donde la geometría dirige el calor de modo que se obtenga la relación lineal deseada entre la entrada y la salida. Esta continuidad es esencial porque permite el procesamiento de señales sin conversión en una serie de interruptores digitales, lo que suele ser una fuente de consumo y retraso. Al mismo tiempo, los autores no ocultan que se trata de operaciones lineales y que, para formas más amplias de computación, serían necesarias no linealidades adicionales o la conexión secuencial de múltiples bloques.

Aplicaciones en microelectrónica: mapeo térmico sin consumo adicional

La aplicación más directa que destacan los autores no es la ejecución inmediata de grandes modelos de inteligencia artificial, sino un manejo más inteligente del calor en la microelectrónica. Los dispositivos actuales suelen contener múltiples sensores de temperatura, ya que los puntos calientes locales son críticos para la fiabilidad: los grandes gradientes pueden causar tensiones mecánicas, envejecimiento acelerado de los materiales y averías. Si parte del mapeo térmico y de la detección de gradientes puede realizarse de forma pasiva, utilizando el propio calor como señal, se obtiene una capa adicional de supervisión sin cargar la fuente de alimentación y sin ocupar superficie extra para los sensores clásicos. En tal escenario, la metaestructura térmica actúa como un "analizador" del patrón térmico, y los terminales de salida proporcionan una señal medible que puede advertir de una fuente de calor no deseada o de un cambio en las condiciones de funcionamiento.

El enfoque es especialmente interesante en escenarios donde la energía disponible es limitada o donde cualquier calentamiento adicional agrava el problema que se quiere supervisar. En lugar de añadir al chip una serie de sensores clásicos y convertidores analógico-digitales, se pueden integrar en el diseño estructuras térmicas que conviertan localmente los patrones de temperatura en señales de salida que puedan leerse en los terminales periféricos. Estas señales pueden utilizarse después para la distribución de la carga, para la activación de la refrigeración o para la detección precoz de averías. Los autores mencionan también la posibilidad de que estos bloques se "conecten" a los sistemas existentes sin componentes digitales adicionales, precisamente porque utilizan el calor que el sistema produce de todos modos. En última instancia, se trata de la idea del procesamiento "in situ": el procesamiento tiene lugar donde surge el problema, en lugar de medirlo todo, enviarlo y procesarlo en un bloque digital distante.

En el contexto más amplio de la investigación sobre el calor, el MIT ha publicado en los últimos años trabajos sobre herramientas para el diseño automático de nanomateriales que dirigen el flujo térmico, así como sobre métodos que aceleran la predicción de las propiedades térmicas de los materiales. El nuevo trabajo añade a esta línea la idea de que el flujo de calor no tiene por qué verse solo a través del prisma de la refrigeración, sino también como un recurso de información en la propia electrónica. Este cambio de perspectiva resulta especialmente actual en una época en la que la demanda de computación aumenta rápidamente y la eficiencia energética se convierte en un factor limitante en los centros de datos, los dispositivos portátiles y la electrónica industrial. En este sentido, "computar con calor" no es solo una demostración exótica, sino un intento de convertir un subproducto físico en un elemento de diseño funcional.

Limitaciones y próximos pasos: rendimiento, escalado y programabilidad

A pesar de la alta precisión en matrices pequeñas, el camino hacia el escalado es largo. Para utilizar este enfoque en grandes modelos de aprendizaje profundo, habría que pavimentar y conectar un gran número de estructuras, controlando el ruido, las tolerancias de fabricación y la variabilidad de los materiales. En el propio trabajo, los autores analizan también los límites dinámicos, ya que la expansión térmica no es instantánea: la señal se propaga por difusión, por lo que el rendimiento está limitado por el tiempo necesario para que el sistema se "asiente" tras un cambio en la entrada. Para el ejemplo de una estructura con una dimensión lateral de unos 100 micrómetros, indican un tiempo de asentamiento de aproximadamente 83,7 microsegundos, lo que corresponde a un rendimiento del orden de unos 1,9 kilohercios. Estas cifras son suficientes para parte de las tareas de detección y control, pero están lejos de las velocidades que se esperan en la computación clásica o en el entrenamiento de grandes modelos.

Además, a medida que aumenta la complejidad de la matriz y la distancia entre los terminales de entrada y salida, la precisión puede disminuir y la optimización se vuelve más sensible. Los autores mencionan como una mejora natural el desarrollo de una arquitectura en la que la salida de una estructura pueda utilizarse como entrada de la siguiente, lo que permitiría realizar operaciones secuenciales. Esto es importante porque tanto las redes neuronales como muchos algoritmos no realizan un solo producto, sino una serie de transformaciones sucesivas que juntas conforman el modelo. Otra dirección importante es la programabilidad: en lugar de fabricar una estructura nueva para cada matriz, el objetivo es obtener un elemento que pueda reconfigurarse y, por tanto, codificar diferentes matrices sin "empezar de cero". Esto podría incluir elementos térmicos activos, condiciones de contorno variables u otros mecanismos que cambien la conductividad efectiva y la función geométrica.

Si estos pasos resultan factibles, la computación analógica térmica podría convertirse en una tecnología especializada para entornos térmicamente activos. No sería un sustituto de los procesadores clásicos, sino un complemento en partes del sistema donde el calor es el factor dominante y donde la información ya está "escondida" en el campo de temperatura. En tales nichos, desde la detección de puntos calientes hasta sensores térmicos más compactos y el procesamiento local de señales, la idea de convertir el calor residual en información útil podría abrir espacio para diseños de electrónica diferentes y más eficientes energéticamente.

Fuentes:
  • arXiv – preprint “Thermal Analog Computing: Application to Matrix-vector Multiplication with Inverse-designed Metastructures” (PDF, versión fechada el 29 de enero de 2026) (enlace)
  • American Physical Society (Physical Review Applied) – página del trabajo aceptado con DOI 10.1103/5drp-hrx1 (estado de aceptación; indica aceptación el 23 de diciembre de 2025) (enlace)
  • Zenodo – repositorio de datos/software adjunto al trabajo (versión publicada el 24 de diciembre de 2025) (enlace)
  • MIT News – artículo sobre el sistema para el diseño computacional de nanomateriales que dirigen la conducción del calor (antecedentes del método de diseño inverso) (enlace)
  • MIT News – texto sobre métodos para una predicción más rápida de las propiedades térmicas de los materiales (contexto de investigación más amplio) (enlace)

Encuentra alojamiento cerca

Hora de creación: 3 horas antes

Redacción de ciencia y tecnología

Nuestra Redacción de Ciencia y Tecnología nació de una pasión de muchos años por investigar, interpretar y acercar temas complejos a los lectores comunes. En ella escriben empleados y voluntarios que llevan décadas siguiendo el desarrollo de la ciencia y la innovación tecnológica, desde descubrimientos de laboratorio hasta soluciones que transforman la vida cotidiana. Aunque escribimos en plural, detrás de cada texto hay una persona real con amplia experiencia editorial y periodística, y un profundo respeto por los hechos y la información verificable.

Nuestra redacción fundamenta su trabajo en la convicción de que la ciencia es más fuerte cuando es accesible para todos. Por eso buscamos claridad, precisión y comprensión, sin simplificaciones que puedan perjudicar la calidad del contenido. A menudo pasamos horas estudiando investigaciones, documentos técnicos y fuentes especializadas para presentar cada tema de una forma que interese al lector sin sobrecargarlo. En cada artículo intentamos conectar el conocimiento científico con la vida real, mostrando cómo las ideas surgidas de centros de investigación, universidades y laboratorios tecnológicos moldean el mundo que nos rodea.

Nuestra larga experiencia periodística nos permite reconocer lo que realmente importa al lector, ya se trate de avances en inteligencia artificial, descubrimientos médicos, soluciones energéticas, misiones espaciales o dispositivos que entran en nuestra vida cotidiana antes de que podamos imaginar sus posibilidades. Nuestra mirada sobre la tecnología no es solo técnica; también nos interesan las historias humanas detrás de los grandes avances: investigadores que trabajan durante años para completar proyectos, ingenieros que convierten ideas en sistemas funcionales y visionarios que amplían los límites de lo posible.

En nuestro trabajo también nos guía un fuerte sentido de responsabilidad. Queremos que el lector pueda confiar en la información que ofrecemos, por lo que verificamos fuentes, comparamos datos y no publicamos con prisa cuando algo no está completamente claro. La confianza se construye más lentamente de lo que se escribe una noticia, pero creemos que solo este tipo de periodismo tiene un valor duradero.

Para nosotros, la tecnología es más que dispositivos y la ciencia más que teoría. Son campos que impulsan el progreso, moldean la sociedad y ofrecen nuevas oportunidades a quienes desean comprender cómo funciona el mundo hoy y hacia dónde se dirige mañana. Por eso abordamos cada tema con seriedad, pero también con curiosidad, porque la curiosidad abre la puerta a los mejores textos.

Nuestra misión es acercar a los lectores a un mundo que cambia más rápido que nunca, con la convicción de que el periodismo de calidad puede ser un puente entre expertos, innovadores y todos aquellos que desean entender lo que ocurre detrás de los titulares. En esto vemos nuestra verdadera tarea: convertir lo complejo en comprensible, lo lejano en cercano y lo desconocido en inspirador.

AVISO PARA NUESTROS LECTORES
Karlobag.eu ofrece noticias, análisis e información sobre eventos globales y temas de interés para lectores de todo el mundo. Toda la información publicada se ofrece únicamente con fines informativos.
Destacamos que no somos expertos en los ámbitos científico, médico, financiero ni legal. Por lo tanto, antes de tomar decisiones basadas en la información de nuestro portal, le recomendamos que consulte a expertos cualificados.
Karlobag.eu puede contener enlaces a sitios externos de terceros, incluidos enlaces de afiliados y contenidos patrocinados. Si compra un producto o servicio a través de estos enlaces, podemos recibir una comisión. No tenemos control sobre el contenido o las políticas de dichos sitios y no asumimos responsabilidad alguna por su exactitud, disponibilidad o por cualquier transacción realizada a través de ellos.
Si publicamos información sobre eventos o venta de entradas, tenga en cuenta que no vendemos entradas ni directamente ni a través de intermediarios. Nuestro portal informa únicamente a los lectores sobre eventos y oportunidades de compra a través de plataformas de venta externas. Conectamos a los lectores con socios que ofrecen servicios de venta de entradas, pero no garantizamos su disponibilidad, precios o condiciones de compra. Toda la información sobre las entradas es obtenida de terceros y puede estar sujeta a cambios sin previo aviso. Le recomendamos que verifique detenidamente las condiciones de venta con el socio seleccionado antes de realizar cualquier compra.
Toda la información en nuestro portal está sujeta a cambios sin previo aviso. Al utilizar este portal, usted acepta leer el contenido bajo su propio riesgo.