En un mundo cada vez más dependiente de la automatización, la capacidad de los robots para comprender e interactuar con objetos físicos en su entorno se vuelve crucial. Una nueva investigación abre la puerta a un futuro en el que las máquinas puedan evaluar las propiedades de los objetos, como el peso o la suavidad, simplemente levantándolos y agitándolos, de forma similar a como lo hacen los humanos. Este avance, fruto de la colaboración de científicos de instituciones prestigiosas como el Massachusetts Institute of Technology (MIT), Amazon Robotics y la Universidad de Columbia Británica, promete revolucionar la forma en que los robots aprenden y operan en entornos complejos.
Sentidos desde dentro: Un nuevo paradigma en la percepción robótica
Tradicionalmente, los robots han dependido en gran medida de sensores externos, como cámaras y sistemas de visión por computadora, para recopilar información sobre los objetos. Sin embargo, el nuevo método cambia el enfoque hacia los sensores internos, permitiendo a los robots "sentir" las propiedades físicas de los objetos. Esta técnica no requiere costosas herramientas de medición externas ni cámaras, lo que la hace extremadamente útil en situaciones donde la visibilidad es limitada o donde las cámaras podrían ser menos efectivas. Imagine un robot clasificando objetos en un sótano oscuro o despejando escombros después de un terremoto; es precisamente en tales escenarios donde esta innovación muestra todo su potencial.
El núcleo de este enfoque radica en el uso de la propiocepción, la capacidad de un robot (o humano) para sentir su propio movimiento y posición en el espacio. Así como una persona que levanta una pesa en el gimnasio siente su pesadez a través de los músculos y las articulaciones de su brazo, un robot puede "sentir" el peso de un objeto a través de las múltiples articulaciones de su brazo robótico. Los investigadores señalan que, si bien los humanos no tienen mediciones extremadamente precisas de los ángulos de las articulaciones o la cantidad exacta de torque que aplican, los robots poseen estas capacidades gracias a los sensores avanzados incorporados en sus motores.
¿Cómo "aprenden" los robots mediante el tacto?
Cuando un robot levanta un objeto, el sistema recopila señales de los codificadores de las articulaciones. Los codificadores son sensores que detectan la posición y la velocidad de rotación de las articulaciones durante el movimiento. La mayoría de los robots modernos ya poseen codificadores dentro de los motores que impulsan sus partes móviles, lo que hace que esta técnica sea más rentable en comparación con los enfoques que requieren componentes adicionales como sensores táctiles o sistemas complejos de seguimiento visual.
El sistema se basa en dos modelos clave para estimar las propiedades del objeto durante la interacción: uno que simula al propio robot y sus movimientos, y otro que simula la dinámica del objeto. Peter Yichen Chen, investigador postdoctoral en el MIT y autor principal del artículo sobre esta técnica, enfatiza la importancia de tener un "gemelo digital" preciso del mundo real para el éxito del método. El algoritmo observa el movimiento del robot y del objeto durante la interacción física y utiliza datos de los codificadores de las articulaciones para calcular hacia atrás e identificar las propiedades del objeto. Por ejemplo, un objeto más pesado se moverá más lentamente que uno más ligero si el robot aplica la misma cantidad de fuerza.
Este proceso permite al robot estimar con precisión parámetros como la masa del objeto en solo unos segundos. El equipo de investigación ha demostrado que su técnica es tan buena para adivinar la masa de un objeto como algunos métodos más complejos y costosos que involucran la visión por computadora. Una ventaja adicional es la robustez del enfoque, que es eficiente en cuanto a datos y capaz de manejar muchos tipos de escenarios imprevistos, donde el robot se encuentra con objetos que no había "conocido" previamente.
El poder de la simulación diferenciable
Un elemento clave que permite esta estimación rápida y precisa es una técnica llamada simulación diferenciable. Este avanzado proceso de simulación permite al algoritmo predecir cómo pequeños cambios en las propiedades del objeto, como la masa o la suavidad, afectan la posición final de las articulaciones del robot. En otras palabras, la simulación puede "diferenciar" los efectos de diferentes parámetros físicos en el movimiento del robot.
Para construir estas complejas simulaciones, los investigadores utilizaron la biblioteca NVIDIA Warp, una herramienta de código abierto para desarrolladores que admite simulaciones diferenciables. Warp permite a los desarrolladores escribir programas acelerados por GPU para simulación, inteligencia artificial y aprendizaje automático directamente en Python, ofreciendo un rendimiento comparable al código CUDA nativo mientras se mantiene la productividad de Python. Una vez que la simulación diferenciable se alinea con los movimientos reales del robot, el sistema ha identificado con éxito la propiedad correcta. El algoritmo puede lograr esto en unos pocos segundos y solo necesita una trayectoria del mundo real del robot en movimiento para realizar los cálculos.
Chao Liu, también investigador postdoctoral en el MIT y uno de los coautores del estudio, explica: "Técnicamente, siempre que conozcas el modelo del objeto y cómo el robot puede aplicar fuerza a ese objeto, deberías ser capaz de averiguar el parámetro que deseas identificar". Aunque los investigadores se centraron principalmente en aprender la masa y la suavidad de un objeto, su técnica tiene el potencial de determinar también otras propiedades, como el momento de inercia o la viscosidad de un líquido dentro de un recipiente.
Ventajas y direcciones futuras
Una de las ventajas significativas de este enfoque es su independencia de extensos conjuntos de datos de entrenamiento, a diferencia de algunos métodos que se basan en la visión por computadora o sensores externos. Esto lo hace menos propenso a fallar cuando se enfrenta a entornos desconocidos o nuevos objetos. Los robots equipados con esta capacidad podrían ser considerablemente más adaptables e ingeniosos.
En el futuro, el equipo de investigación planea combinar su método con la visión por computadora para crear una técnica de percepción multimodal que sería aún más poderosa. "Este trabajo no intenta reemplazar la visión por computadora. Ambos métodos tienen sus pros y sus contras. Pero aquí hemos demostrado que incluso sin una cámara, ya podemos averiguar algunas de estas propiedades", dice Chen. La integración de diferentes modalidades sensoriales podría conducir a robots con una percepción ambiental extremadamente sofisticada.
También existe interés en explorar aplicaciones con sistemas robóticos más complicados, como los robots blandos (soft robots), cuyos cuerpos flexibles presentan desafíos y oportunidades únicos para la interacción sensorial. Del mismo modo, se planea extender la técnica a objetos más complejos, incluidos los líquidos que se agitan (sloshing liquids) o medios granulares como la arena. Comprender la dinámica de tales materiales únicamente a través de la interacción táctil sería un avance significativo.
El objetivo a largo plazo es aplicar esta técnica para mejorar el aprendizaje de los robots, permitiendo a las futuras generaciones de robots desarrollar rápidamente nuevas habilidades de manipulación y adaptarse a los cambios en sus entornos. "Determinar las propiedades físicas de los objetos a partir de datos ha sido durante mucho tiempo un desafío en la robótica, especialmente cuando solo se dispone de mediciones limitadas o ruidosas", comentó Miles Macklin, director senior de tecnología de simulación en NVIDIA, que no participó en esta investigación. "Este trabajo es significativo porque demuestra que los robots pueden inferir con precisión propiedades como la masa y la suavidad utilizando solo sus sensores internos de las articulaciones, sin depender de cámaras externas o herramientas de medición especializadas".
Este avance abre una visión de robots que exploran el mundo de forma independiente, tocando y moviendo objetos en su entorno y, de este modo, aprendiendo sobre las propiedades de todo aquello con lo que interactúan. Tal capacidad no solo avanzaría la automatización industrial, sino que también tendría un profundo impacto en áreas como la asistencia doméstica, la atención médica y la investigación en entornos peligrosos. La capacidad de los robots para "sentir" y comprender el mundo que les rodea de una manera más intuitiva y humana es clave para su integración más completa en nuestra vida diaria. La financiación de este prometedor trabajo fue proporcionada en parte por Amazon y el programa de investigación GIST-CSAIL, lo que indica el interés de la industria en las aplicaciones prácticas de tales tecnologías.
El desarrollo de tales tecnologías también fomenta la reflexión sobre el futuro de la interacción humano-robot. A medida que los robots se vuelven cada vez más capaces de percibir y reaccionar a su entorno de manera sutil, se abren nuevas posibilidades de colaboración y trabajo en equipo. La visión de Peter Yichen Chen de robots que exploran y aprenden de forma autónoma sobre las propiedades de los objetos a través del tacto no es solo un objetivo técnico, sino también un paso hacia la creación de sistemas más inteligentes y autónomos que puedan ayudar a la humanidad a resolver problemas complejos.
Fuente: Massachusetts Institute of Technology
ENCUENTRE ALOJAMIENTO CERCA
Hora de creación: 8 horas antes