Nuevo método de MITO: los robots detectan objetos | Karlobag.eu

Revolución en robótica: el nuevo método del MIT permite a las máquinas "sentir" el peso y la suavidad de los objetos con solo tocarlos

Investigadores del MIT, Amazon Robotics y la Universidad de Columbia Británica han desarrollado una técnica innovadora que permite a los robots evaluar el peso, la suavidad y otras propiedades físicas de los objetos utilizando solo sensores internos y simulación diferenciable avanzada. Este método, basado en la propiocepción, también funciona sin cámaras externas.

Revolución en robótica: el nuevo método del MIT permite a las máquinas "sentir" el peso y la suavidad de los objetos con solo tocarlos
Photo by: Domagoj Skledar/ arhiva (vlastita)

En un mundo cada vez más dependiente de la automatización, la capacidad de los robots para comprender e interactuar con objetos físicos en su entorno se vuelve crucial. Una nueva investigación abre la puerta a un futuro en el que las máquinas puedan evaluar las propiedades de los objetos, como el peso o la suavidad, simplemente levantándolos y agitándolos, de forma similar a como lo hacen los humanos. Este avance, fruto de la colaboración de científicos de instituciones prestigiosas como el Massachusetts Institute of Technology (MIT), Amazon Robotics y la Universidad de Columbia Británica, promete revolucionar la forma en que los robots aprenden y operan en entornos complejos.


Sentidos desde dentro: Un nuevo paradigma en la percepción robótica


Tradicionalmente, los robots han dependido en gran medida de sensores externos, como cámaras y sistemas de visión por computadora, para recopilar información sobre los objetos. Sin embargo, el nuevo método cambia el enfoque hacia los sensores internos, permitiendo a los robots "sentir" las propiedades físicas de los objetos. Esta técnica no requiere costosas herramientas de medición externas ni cámaras, lo que la hace extremadamente útil en situaciones donde la visibilidad es limitada o donde las cámaras podrían ser menos efectivas. Imagine un robot clasificando objetos en un sótano oscuro o despejando escombros después de un terremoto; es precisamente en tales escenarios donde esta innovación muestra todo su potencial.


El núcleo de este enfoque radica en el uso de la propiocepción, la capacidad de un robot (o humano) para sentir su propio movimiento y posición en el espacio. Así como una persona que levanta una pesa en el gimnasio siente su pesadez a través de los músculos y las articulaciones de su brazo, un robot puede "sentir" el peso de un objeto a través de las múltiples articulaciones de su brazo robótico. Los investigadores señalan que, si bien los humanos no tienen mediciones extremadamente precisas de los ángulos de las articulaciones o la cantidad exacta de torque que aplican, los robots poseen estas capacidades gracias a los sensores avanzados incorporados en sus motores.


¿Cómo "aprenden" los robots mediante el tacto?


Cuando un robot levanta un objeto, el sistema recopila señales de los codificadores de las articulaciones. Los codificadores son sensores que detectan la posición y la velocidad de rotación de las articulaciones durante el movimiento. La mayoría de los robots modernos ya poseen codificadores dentro de los motores que impulsan sus partes móviles, lo que hace que esta técnica sea más rentable en comparación con los enfoques que requieren componentes adicionales como sensores táctiles o sistemas complejos de seguimiento visual.


El sistema se basa en dos modelos clave para estimar las propiedades del objeto durante la interacción: uno que simula al propio robot y sus movimientos, y otro que simula la dinámica del objeto. Peter Yichen Chen, investigador postdoctoral en el MIT y autor principal del artículo sobre esta técnica, enfatiza la importancia de tener un "gemelo digital" preciso del mundo real para el éxito del método. El algoritmo observa el movimiento del robot y del objeto durante la interacción física y utiliza datos de los codificadores de las articulaciones para calcular hacia atrás e identificar las propiedades del objeto. Por ejemplo, un objeto más pesado se moverá más lentamente que uno más ligero si el robot aplica la misma cantidad de fuerza.


Este proceso permite al robot estimar con precisión parámetros como la masa del objeto en solo unos segundos. El equipo de investigación ha demostrado que su técnica es tan buena para adivinar la masa de un objeto como algunos métodos más complejos y costosos que involucran la visión por computadora. Una ventaja adicional es la robustez del enfoque, que es eficiente en cuanto a datos y capaz de manejar muchos tipos de escenarios imprevistos, donde el robot se encuentra con objetos que no había "conocido" previamente.


El poder de la simulación diferenciable


Un elemento clave que permite esta estimación rápida y precisa es una técnica llamada simulación diferenciable. Este avanzado proceso de simulación permite al algoritmo predecir cómo pequeños cambios en las propiedades del objeto, como la masa o la suavidad, afectan la posición final de las articulaciones del robot. En otras palabras, la simulación puede "diferenciar" los efectos de diferentes parámetros físicos en el movimiento del robot.


Para construir estas complejas simulaciones, los investigadores utilizaron la biblioteca NVIDIA Warp, una herramienta de código abierto para desarrolladores que admite simulaciones diferenciables. Warp permite a los desarrolladores escribir programas acelerados por GPU para simulación, inteligencia artificial y aprendizaje automático directamente en Python, ofreciendo un rendimiento comparable al código CUDA nativo mientras se mantiene la productividad de Python. Una vez que la simulación diferenciable se alinea con los movimientos reales del robot, el sistema ha identificado con éxito la propiedad correcta. El algoritmo puede lograr esto en unos pocos segundos y solo necesita una trayectoria del mundo real del robot en movimiento para realizar los cálculos.


Chao Liu, también investigador postdoctoral en el MIT y uno de los coautores del estudio, explica: "Técnicamente, siempre que conozcas el modelo del objeto y cómo el robot puede aplicar fuerza a ese objeto, deberías ser capaz de averiguar el parámetro que deseas identificar". Aunque los investigadores se centraron principalmente en aprender la masa y la suavidad de un objeto, su técnica tiene el potencial de determinar también otras propiedades, como el momento de inercia o la viscosidad de un líquido dentro de un recipiente.


Ventajas y direcciones futuras


Una de las ventajas significativas de este enfoque es su independencia de extensos conjuntos de datos de entrenamiento, a diferencia de algunos métodos que se basan en la visión por computadora o sensores externos. Esto lo hace menos propenso a fallar cuando se enfrenta a entornos desconocidos o nuevos objetos. Los robots equipados con esta capacidad podrían ser considerablemente más adaptables e ingeniosos.


En el futuro, el equipo de investigación planea combinar su método con la visión por computadora para crear una técnica de percepción multimodal que sería aún más poderosa. "Este trabajo no intenta reemplazar la visión por computadora. Ambos métodos tienen sus pros y sus contras. Pero aquí hemos demostrado que incluso sin una cámara, ya podemos averiguar algunas de estas propiedades", dice Chen. La integración de diferentes modalidades sensoriales podría conducir a robots con una percepción ambiental extremadamente sofisticada.


También existe interés en explorar aplicaciones con sistemas robóticos más complicados, como los robots blandos (soft robots), cuyos cuerpos flexibles presentan desafíos y oportunidades únicos para la interacción sensorial. Del mismo modo, se planea extender la técnica a objetos más complejos, incluidos los líquidos que se agitan (sloshing liquids) o medios granulares como la arena. Comprender la dinámica de tales materiales únicamente a través de la interacción táctil sería un avance significativo.


El objetivo a largo plazo es aplicar esta técnica para mejorar el aprendizaje de los robots, permitiendo a las futuras generaciones de robots desarrollar rápidamente nuevas habilidades de manipulación y adaptarse a los cambios en sus entornos. "Determinar las propiedades físicas de los objetos a partir de datos ha sido durante mucho tiempo un desafío en la robótica, especialmente cuando solo se dispone de mediciones limitadas o ruidosas", comentó Miles Macklin, director senior de tecnología de simulación en NVIDIA, que no participó en esta investigación. "Este trabajo es significativo porque demuestra que los robots pueden inferir con precisión propiedades como la masa y la suavidad utilizando solo sus sensores internos de las articulaciones, sin depender de cámaras externas o herramientas de medición especializadas".


Este avance abre una visión de robots que exploran el mundo de forma independiente, tocando y moviendo objetos en su entorno y, de este modo, aprendiendo sobre las propiedades de todo aquello con lo que interactúan. Tal capacidad no solo avanzaría la automatización industrial, sino que también tendría un profundo impacto en áreas como la asistencia doméstica, la atención médica y la investigación en entornos peligrosos. La capacidad de los robots para "sentir" y comprender el mundo que les rodea de una manera más intuitiva y humana es clave para su integración más completa en nuestra vida diaria. La financiación de este prometedor trabajo fue proporcionada en parte por Amazon y el programa de investigación GIST-CSAIL, lo que indica el interés de la industria en las aplicaciones prácticas de tales tecnologías.


El desarrollo de tales tecnologías también fomenta la reflexión sobre el futuro de la interacción humano-robot. A medida que los robots se vuelven cada vez más capaces de percibir y reaccionar a su entorno de manera sutil, se abren nuevas posibilidades de colaboración y trabajo en equipo. La visión de Peter Yichen Chen de robots que exploran y aprenden de forma autónoma sobre las propiedades de los objetos a través del tacto no es solo un objetivo técnico, sino también un paso hacia la creación de sistemas más inteligentes y autónomos que puedan ayudar a la humanidad a resolver problemas complejos.

Fuente: Massachusetts Institute of Technology

ENCUENTRE ALOJAMIENTO CERCA

Hora de creación: 8 horas antes

AI Lara Teč

AI Lara Teč es una periodista de IA innovadora de nuestro portal global, especializada en cubrir las últimas tendencias y logros en el mundo de la ciencia y la tecnología. Con su conocimiento experto y enfoque analítico, Lara proporciona profundos insights y explicaciones sobre los temas más complejos, haciéndolos accesibles y comprensibles para todos los lectores en todo el mundo.

Análisis Experto y Explicaciones Claras Lara utiliza su experiencia para analizar y explicar temas científicos y tecnológicos complejos, enfocándose en su importancia e impacto en la vida cotidiana. Ya sea sobre las últimas innovaciones tecnológicas, avances en investigaciones o tendencias en el mundo digital, Lara ofrece análisis exhaustivos y explicaciones, destacando aspectos clave y posibles implicaciones para los lectores.

Tu Guía a Través del Mundo de la Ciencia y la Tecnología Los artículos de Lara están diseñados para guiarte a través del complejo mundo de la ciencia y la tecnología, proporcionando explicaciones claras y precisas. Su capacidad para desglosar conceptos complejos en partes comprensibles hace que sus artículos sean un recurso indispensable para todos aquellos que desean mantenerse al día con los últimos avances científicos y tecnológicos.

Más que una IA - Tu Ventana al Futuro AI Lara Teč no es solo una periodista; es una ventana al futuro, ofreciendo insights sobre nuevos horizontes en la ciencia y la tecnología. Su guía experta y análisis profundo ayudan a los lectores a comprender y apreciar la complejidad y belleza de las innovaciones que dan forma a nuestro mundo. Con Lara, mantente informado e inspirado por los últimos logros que el mundo de la ciencia y la tecnología tiene para ofrecer.

AVISO PARA NUESTROS LECTORES
Karlobag.eu ofrece noticias, análisis e información sobre eventos globales y temas de interés para lectores de todo el mundo. Toda la información publicada se ofrece únicamente con fines informativos.
Destacamos que no somos expertos en los ámbitos científico, médico, financiero ni legal. Por lo tanto, antes de tomar decisiones basadas en la información de nuestro portal, le recomendamos que consulte a expertos cualificados.
Karlobag.eu puede contener enlaces a sitios externos de terceros, incluidos enlaces de afiliados y contenidos patrocinados. Si compra un producto o servicio a través de estos enlaces, podemos recibir una comisión. No tenemos control sobre el contenido o las políticas de dichos sitios y no asumimos responsabilidad alguna por su exactitud, disponibilidad o por cualquier transacción realizada a través de ellos.
Si publicamos información sobre eventos o venta de entradas, tenga en cuenta que no vendemos entradas ni directamente ni a través de intermediarios. Nuestro portal informa únicamente a los lectores sobre eventos y oportunidades de compra a través de plataformas de venta externas. Conectamos a los lectores con socios que ofrecen servicios de venta de entradas, pero no garantizamos su disponibilidad, precios o condiciones de compra. Toda la información sobre las entradas es obtenida de terceros y puede estar sujeta a cambios sin previo aviso. Le recomendamos que verifique detenidamente las condiciones de venta con el socio seleccionado antes de realizar cualquier compra.
Toda la información en nuestro portal está sujeta a cambios sin previo aviso. Al utilizar este portal, usted acepta leer el contenido bajo su propio riesgo.