Postavke privatnosti

Nuevo método del MIT permite a la inteligencia artificial una resolución de problemas más inteligente con la mitad del consumo

Investigadores del MIT han desarrollado una nueva técnica que permite a los grandes modelos de lenguaje ajustar dinámicamente el esfuerzo necesario para resolver tareas. Este método, llamado escalado adaptativo a la instancia, reduce el consumo informático en hasta un 50 por ciento manteniendo la precisión, haciendo que los modelos más pequeños sean igual de capaces que los más grandes en el mercado.

Nuevo método del MIT permite a la inteligencia artificial una resolución de problemas más inteligente con la mitad del consumo
Photo by: Domagoj Skledar - illustration/ arhiva (vlastita)

En el mundo de la inteligencia artificial generativa, donde la carrera por modelos más grandes, más rápidos y más inteligentes se acelera incesantemente, investigadores del prestigioso instituto MIT (Massachusetts Institute of Technology) acaban de presentar una solución que podría cambiar fundamentalmente las reglas del juego. Su nuevo método, presentado a la comunidad científica esta semana, no se centra en el mero aumento del tamaño de los modelos, sino en un uso drásticamente más inteligente de los recursos de los que estos modelos ya disponen.


El problema al que la industria se ha enfrentado hasta ahora era bastante extraño, pero real: la mayoría de los grandes modelos de lenguaje (LLM) abordan cada pregunta con la misma "cantidad" de pensamiento. Ya sea que el usuario pregunte "¿Cuánto es 2 más 2?" o busque un análisis complejo de la situación geopolítica en el siglo XIX, los modelos estándar a menudo asignan un presupuesto informático fijo. Esto resulta en un enorme desperdicio de energía en consultas triviales, mientras que simultáneamente, los problemas complejos no reciben suficiente atención "cognitiva" necesaria para una resolución precisa.


Es exactamente aquí donde entra en escena el equipo del MIT con su enfoque revolucionario llamado "escalado adaptativo a la instancia" (instance-adaptive scaling). Su método permite a la inteligencia artificial algo que los humanos hacen instintivamente – la capacidad de evaluar la dificultad del problema antes y durante el proceso de resolución mismo y ajustar dinámicamente el esfuerzo necesario para llegar a la respuesta correcta.


¿Por qué es caro "pensar"?


Para comprender la importancia de este descubrimiento, debemos observar la forma en que funcionan los modelos de lenguaje modernos. Para responder a preguntas más difíciles, los investigadores han comenzado recientemente a aplicar una técnica conocida como "escalado en tiempo de inferencia" (inference-time scaling). Esta técnica permite al modelo pasar más tiempo generando soluciones potenciales, explorando diferentes caminos de razonamiento o cadenas de pensamiento (chain-of-thought), antes de entregar una respuesta final.


Sin embargo, los enfoques anteriores eran rígidos. Establecían un presupuesto informático fijo para cada problema, independientemente de su complejidad. Esto significaba que el modelo podía desperdiciar preciosos recursos de unidades de procesamiento gráfico (GPU) en preguntas simples que requieren una respuesta inmediata, o, lo que es peor, no tener suficientes recursos para abordar problemas que requieren una lógica profunda y múltiples pasos de verificación.


El nuevo algoritmo desarrollado por los investigadores del MIT permite al modelo ajustar dinámicamente su presupuesto. En la práctica, esto significa que el modelo puede "hacer una pausa", evaluar la dificultad de la pregunta y la probabilidad de que la dirección actual del pensamiento lleve a la solución correcta, y en base a ello decidir si debe invertir más esfuerzo o si la respuesta ya está lista.


Resultados revolucionarios: Menos es a veces más


Los resultados de las pruebas de este método son impresionantes. El equipo de investigación descubrió que su enfoque permite a los grandes modelos de lenguaje utilizar hasta un 50 por ciento menos de recursos informáticos en comparación con los métodos existentes, manteniendo al mismo tiempo el mismo nivel de precisión en un amplio espectro de preguntas de diferentes dificultades.


Quizás un descubrimiento aún más significativo es el hecho de que este método democratiza el poder de la inteligencia artificial. A saber, la investigación mostró que modelos más pequeños, menos exigentes en recursos, cuando están equipados con este algoritmo adaptativo, pueden igualar o incluso superar el rendimiento de modelos considerablemente más grandes y costosos en problemas complejos. Esto abre la puerta a la aplicación de tecnología de IA avanzada en dispositivos con recursos limitados, como teléfonos inteligentes o computadoras portátiles, sin necesidad de una conexión constante a centros de datos masivos.


¿Cómo funciona la "metacognición digital"?


El núcleo de este sistema radica en la capacidad del modelo para "saber lo que no sabe". Navid Azizan, profesor en el Departamento de Ingeniería Mecánica y en el Instituto de Datos, Sistemas y Sociedad (IDSS) del MIT y autor principal del estudio, destaca la importancia de este concepto.


"El costo informático de la inferencia se ha convertido rápidamente en un cuello de botella importante para los proveedores de los modelos más avanzados, que intentan activamente encontrar formas de mejorar la eficiencia informática por consulta de usuario", explica Azizan. "Por ejemplo, el reciente lanzamiento del modelo GPT-5.1 enfatiza la eficiencia del enfoque de 'inferencia adaptativa' que nuestro trabajo propone. Al permitir que los modelos reconozcan sus límites de conocimiento, podemos permitirles gastar más potencia de cálculo en los problemas más difíciles y las vías de solución más prometedoras, y significativamente menos tokens en los simples. Esto hace que el proceso de inferencia sea más confiable y mucho más eficiente."


Técnicamente hablando, el marco utiliza un componente conocido como Process Reward Model (PRM) o modelo de recompensa de proceso. Este modelo "supervisor" evalúa cada paso potencial en la resolución del problema. Imagínelo como un maestro estricto que observa a un alumno mientras resuelve una tarea de matemáticas. El PRM evalúa la dificultad de la pregunta y ayuda al modelo principal (LLM) a decidir cuántos recursos se deben asignar.


Resolución del problema del exceso de confianza


Uno de los desafíos clave a los que se enfrentaron los investigadores fue la tendencia de los modelos de recompensa existentes (PRM) a ser demasiado optimistas. A menudo sobrestimaban la probabilidad de que un cierto paso en la resolución fuera correcto, lo que llevaba al sistema a concluir prematuramente el proceso de "pensamiento" y entregar una respuesta errónea.


"Si simplemente hubiéramos confiado en los PRM actuales, que a menudo sobrestiman la posibilidad de éxito, nuestro sistema habría reducido el presupuesto informático de manera demasiado agresiva", explica Young-Jin Park, estudiante de doctorado en el MIT y autor principal del estudio. "Por eso primero tuvimos que encontrar una manera de calibrar mejor estos modelos para hacer que el escalado en tiempo de inferencia fuera más eficiente y confiable."


La solución se encontró en un nuevo método de calibración. En lugar de que el PRM dé una simple evaluación binaria (bueno/malo) o un solo valor numérico, los investigadores le enseñaron a generar un rango de probabilidades. De esta manera, el sistema obtiene una imagen más realista de la incertidumbre. Si el modelo está "seguro" de estar en el buen camino, reduce el número de escenarios alternativos que explora, ahorrando recursos. Si está inseguro, amplía la búsqueda.


Hao Wang, investigador en el laboratorio MIT-IBM Watson AI Lab y miembro del equipo, traza un paralelo interesante con el pensamiento humano: "Esta es en realidad la forma en que los humanos resuelven problemas. Ideamos algunas soluciones parciales, y luego decidimos: ¿debo continuar con una de ellas, o detenerme y revisar, o incluso volver a un paso anterior y continuar la resolución del problema desde allí?"


El futuro de los agentes de IA y sistemas autónomos


Esta investigación, que se presenta esta semana, a principios de diciembre de 2025, en la prestigiosa conferencia Neural Information Processing Systems (NeurIPS), tiene implicaciones que van mucho más allá de la comunidad académica. La reducción del consumo energético de los sistemas de IA generativa es crucial para la sostenibilidad de la industria, especialmente a la luz de la creciente preocupación por la huella de carbono de los grandes centros de datos.


Además del aspecto ecológico, esta técnica abre la puerta al uso de LLMs en situaciones de alto riesgo y sensibilidad temporal. Kristjan Greenewald, investigador en el MIT-IBM Watson AI Lab, destaca la naturaleza dinámica de su solución: "La belleza de nuestro enfoque radica en que este ajuste ocurre sobre la marcha, mientras se resuelve el problema, en lugar de ocurrir de una vez al comienzo del proceso."


Mirando hacia el futuro, los investigadores planean aplicar esta técnica a otras áreas, como la generación automática de código de programación y el desarrollo de agentes de IA autónomos. La calibración de modelos de recompensa (PRM) también podría encontrar aplicación en el aprendizaje por refuerzo (reinforcement learning) y el ajuste fino de modelos.


Akash Srivastava, director y arquitecto jefe de Core AI en IBM Software, que no participó directamente en el trabajo pero sigue su desarrollo, destaca el potencial transformador de esta tecnología para la fuerza laboral del futuro:



"Los empleados humanos aprenden en el trabajo — algunos directores ejecutivos incluso comenzaron como pasantes — pero los agentes de IA de hoy siguen siendo en su mayoría piezas estáticas de software probabilístico. Un trabajo como este artículo es un paso importante para cambiar eso: ayudar a los agentes a darse cuenta de lo que no saben y construir mecanismos para la automejora continua. Estas capacidades son clave si queremos agentes que puedan trabajar de manera segura, adaptarse a nuevas situaciones y entregar resultados consistentes a gran escala."



Colaboración de gigantes para un futuro más inteligente


Es importante destacar que esta investigación es el resultado de la colaboración de algunos de los nombres más fuertes en el mundo tecnológico y la academia. El proyecto fue financiado, entre otros, por el MIT-IBM Watson AI Lab, el MIT-Amazon Science Hub, el MIT-Google Program for Computing Innovation y la empresa MathWorks.


En un momento en que el mundo se enfrenta a la cuestión de los límites del crecimiento de la inteligencia artificial, el equipo del MIT demuestra que la solución no siempre está en un "martillo más grande", sino en un golpe más preciso. Al introducir un elemento de metacognición – pensar sobre el propio pensamiento – la inteligencia artificial se vuelve no solo más eficiente, sino también más similar a los sistemas biológicos que intenta imitar.


Para los usuarios finales, esto podría significar pronto respuestas más rápidas a preguntas simples, análisis más profundos y precisos para consultas complejas, y asistentes de IA en nuestros teléfonos móviles que no agoten la batería en unos pocos minutos. En un mundo donde la potencia informática es la nueva moneda, la capacidad de ahorrar esa moneda podría ser la innovación más valiosa de este año.

Encuentra alojamiento cerca

Hora de creación: 12 horas antes

Redacción de ciencia y tecnología

Nuestra Redacción de Ciencia y Tecnología nació de una pasión de muchos años por investigar, interpretar y acercar temas complejos a los lectores comunes. En ella escriben empleados y voluntarios que llevan décadas siguiendo el desarrollo de la ciencia y la innovación tecnológica, desde descubrimientos de laboratorio hasta soluciones que transforman la vida cotidiana. Aunque escribimos en plural, detrás de cada texto hay una persona real con amplia experiencia editorial y periodística, y un profundo respeto por los hechos y la información verificable.

Nuestra redacción fundamenta su trabajo en la convicción de que la ciencia es más fuerte cuando es accesible para todos. Por eso buscamos claridad, precisión y comprensión, sin simplificaciones que puedan perjudicar la calidad del contenido. A menudo pasamos horas estudiando investigaciones, documentos técnicos y fuentes especializadas para presentar cada tema de una forma que interese al lector sin sobrecargarlo. En cada artículo intentamos conectar el conocimiento científico con la vida real, mostrando cómo las ideas surgidas de centros de investigación, universidades y laboratorios tecnológicos moldean el mundo que nos rodea.

Nuestra larga experiencia periodística nos permite reconocer lo que realmente importa al lector, ya se trate de avances en inteligencia artificial, descubrimientos médicos, soluciones energéticas, misiones espaciales o dispositivos que entran en nuestra vida cotidiana antes de que podamos imaginar sus posibilidades. Nuestra mirada sobre la tecnología no es solo técnica; también nos interesan las historias humanas detrás de los grandes avances: investigadores que trabajan durante años para completar proyectos, ingenieros que convierten ideas en sistemas funcionales y visionarios que amplían los límites de lo posible.

En nuestro trabajo también nos guía un fuerte sentido de responsabilidad. Queremos que el lector pueda confiar en la información que ofrecemos, por lo que verificamos fuentes, comparamos datos y no publicamos con prisa cuando algo no está completamente claro. La confianza se construye más lentamente de lo que se escribe una noticia, pero creemos que solo este tipo de periodismo tiene un valor duradero.

Para nosotros, la tecnología es más que dispositivos y la ciencia más que teoría. Son campos que impulsan el progreso, moldean la sociedad y ofrecen nuevas oportunidades a quienes desean comprender cómo funciona el mundo hoy y hacia dónde se dirige mañana. Por eso abordamos cada tema con seriedad, pero también con curiosidad, porque la curiosidad abre la puerta a los mejores textos.

Nuestra misión es acercar a los lectores a un mundo que cambia más rápido que nunca, con la convicción de que el periodismo de calidad puede ser un puente entre expertos, innovadores y todos aquellos que desean entender lo que ocurre detrás de los titulares. En esto vemos nuestra verdadera tarea: convertir lo complejo en comprensible, lo lejano en cercano y lo desconocido en inspirador.

AVISO PARA NUESTROS LECTORES
Karlobag.eu ofrece noticias, análisis e información sobre eventos globales y temas de interés para lectores de todo el mundo. Toda la información publicada se ofrece únicamente con fines informativos.
Destacamos que no somos expertos en los ámbitos científico, médico, financiero ni legal. Por lo tanto, antes de tomar decisiones basadas en la información de nuestro portal, le recomendamos que consulte a expertos cualificados.
Karlobag.eu puede contener enlaces a sitios externos de terceros, incluidos enlaces de afiliados y contenidos patrocinados. Si compra un producto o servicio a través de estos enlaces, podemos recibir una comisión. No tenemos control sobre el contenido o las políticas de dichos sitios y no asumimos responsabilidad alguna por su exactitud, disponibilidad o por cualquier transacción realizada a través de ellos.
Si publicamos información sobre eventos o venta de entradas, tenga en cuenta que no vendemos entradas ni directamente ni a través de intermediarios. Nuestro portal informa únicamente a los lectores sobre eventos y oportunidades de compra a través de plataformas de venta externas. Conectamos a los lectores con socios que ofrecen servicios de venta de entradas, pero no garantizamos su disponibilidad, precios o condiciones de compra. Toda la información sobre las entradas es obtenida de terceros y puede estar sujeta a cambios sin previo aviso. Le recomendamos que verifique detenidamente las condiciones de venta con el socio seleccionado antes de realizar cualquier compra.
Toda la información en nuestro portal está sujeta a cambios sin previo aviso. Al utilizar este portal, usted acepta leer el contenido bajo su propio riesgo.