Dans un monde de plus en plus dépendant de l'automatisation, la capacité des robots à comprendre et à interagir avec les objets physiques de leur environnement devient cruciale. De nouvelles recherches ouvrent la voie à un avenir où les machines pourront évaluer les propriétés des objets, telles que leur poids ou leur souplesse, simplement en les soulevant et en les secouant, à l'instar des humains. Cette avancée, fruit d'une collaboration entre des scientifiques d'institutions prestigieuses telles que le Massachusetts Institute of Technology (MIT), Amazon Robotics et l'Université de la Colombie-Britannique, promet de révolutionner la manière dont les robots apprennent et opèrent dans des environnements complexes.
Des sens internes : Un nouveau paradigme dans la perception robotique
Traditionnellement, les robots se sont largement appuyés sur des capteurs externes, tels que des caméras et des systèmes de vision par ordinateur, pour collecter des informations sur les objets. Cependant, la nouvelle méthode déplace l'attention vers les capteurs internes, permettant aux robots de "sentir" les propriétés physiques des objets. Cette technique ne nécessite pas d'outils de mesure externes coûteux ni de caméras, ce qui la rend extrêmement utile dans les situations où la visibilité est limitée ou où les caméras pourraient être moins efficaces. Imaginez un robot triant des objets dans un sous-sol sombre ou déblayant des décombres après un tremblement de terre – c'est précisément dans de tels scénarios que cette innovation montre tout son potentiel.
Le cœur de cette approche réside dans l'utilisation de la proprioception, la capacité d'un robot (ou d'un humain) à sentir son propre mouvement et sa position dans l'espace. Tout comme une personne soulevant un poids dans une salle de sport sent sa lourdeur à travers les muscles et les articulations de son bras, un robot peut "sentir" le poids d'un objet à travers les multiples articulations de son bras robotique. Les chercheurs soulignent que, bien que les humains ne disposent pas de mesures extrêmement précises des angles articulaires ou de la quantité exacte de couple qu'ils appliquent, les robots possèdent ces capacités grâce à des capteurs avancés intégrés dans leurs moteurs.
Comment les robots "apprennent-ils" par le toucher ?
Lorsqu'un robot soulève un objet, le système collecte des signaux provenant des codeurs articulaires. Les codeurs sont des capteurs qui détectent la position et la vitesse de rotation des articulations pendant le mouvement. La plupart des robots modernes possèdent déjà des codeurs à l'intérieur des moteurs qui animent leurs parties mobiles, ce qui rend cette technique plus rentable par rapport aux approches nécessitant des composants supplémentaires tels que des capteurs tactiles ou des systèmes complexes de suivi par vision.
Le système s'appuie sur deux modèles clés pour estimer les propriétés de l'objet lors de l'interaction : l'un qui simule le robot lui-même et ses mouvements, et l'autre qui simule la dynamique de l'objet. Peter Yichen Chen, chercheur postdoctoral au MIT et auteur principal de l'article sur cette technique, souligne l'importance de disposer d'un "jumeau numérique" précis du monde réel pour le succès de la méthode. L'algorithme observe le mouvement du robot et de l'objet lors de l'interaction physique et utilise les données des codeurs articulaires pour calculer à rebours et identifier les propriétés de l'objet. Par exemple, un objet plus lourd se déplacera plus lentement qu'un objet plus léger si le robot applique la même quantité de force.
Ce processus permet au robot d'estimer avec précision des paramètres tels que la masse de l'objet en quelques secondes seulement. L'équipe de recherche a démontré que sa technique est aussi performante pour deviner la masse d'un objet que certaines méthodes plus complexes et coûteuses impliquant la vision par ordinateur. Un avantage supplémentaire est la robustesse de l'approche, qui est économe en données et capable de gérer de nombreux types de scénarios inédits, où le robot rencontre des objets qu'il n'avait pas "rencontrés" auparavant.
La puissance de la simulation différentiable
Un élément clé permettant cette estimation rapide et précise est une technique appelée simulation différentiable. Ce processus de simulation avancé permet à l'algorithme de prédire comment de petits changements dans les propriétés de l'objet, telles que la masse ou la souplesse, affectent la position finale des articulations du robot. En d'autres termes, la simulation peut "différencier" les effets de différents paramètres physiques sur le mouvement du robot.
Pour construire ces simulations complexes, les chercheurs ont utilisé la bibliothèque NVIDIA Warp, un outil open source pour les développeurs qui prend en charge les simulations différentiables. Warp permet aux développeurs d'écrire des programmes accélérés par GPU pour la simulation, l'intelligence artificielle et l'apprentissage automatique directement en Python, offrant des performances comparables au code CUDA natif tout en maintenant la productivité de Python. Une fois que la simulation différentiable correspond aux mouvements réels du robot, le système a identifié avec succès la propriété correcte. L'algorithme peut y parvenir en quelques secondes et n'a besoin que d'une seule trajectoire réelle du robot en mouvement pour effectuer les calculs.
Chao Liu, également chercheur postdoctoral au MIT et l'un des co-auteurs de l'étude, explique : "Techniquement, tant que vous connaissez le modèle de l'objet et la manière dont le robot peut appliquer une force sur cet objet, vous devriez être capable de déterminer le paramètre que vous souhaitez identifier." Bien que les chercheurs se soient principalement concentrés sur l'apprentissage de la masse et de la souplesse d'un objet, leur technique a le potentiel de déterminer également d'autres propriétés, telles que le moment d'inertie ou la viscosité d'un liquide à l'intérieur d'un récipient.
Avantages et orientations futures
L'un des avantages significatifs de cette approche est son indépendance vis-à-vis de vastes ensembles de données d'entraînement, contrairement à certaines méthodes qui reposent sur la vision par ordinateur ou des capteurs externes. Cela la rend moins sujette aux échecs face à des environnements inconnus ou à de nouveaux objets. Les robots dotés de cette capacité pourraient être considérablement plus adaptables et ingénieux.
À l'avenir, l'équipe de recherche prévoit de combiner sa méthode avec la vision par ordinateur pour créer une technique de perception multimodale qui serait encore plus puissante. "Ce travail n'essaie pas de remplacer la vision par ordinateur. Les deux méthodes ont leurs avantages et leurs inconvénients. Mais ici, nous avons montré que même sans caméra, nous pouvons déjà déterminer certaines de ces propriétés", déclare Chen. L'intégration de différentes modalités sensorielles pourrait conduire à des robots dotés d'une perception environnementale extrêmement sophistiquée.
Il existe également un intérêt pour l'exploration d'applications avec des systèmes robotiques plus compliqués, tels que les robots souples (soft robots), dont les corps flexibles présentent des défis et des opportunités uniques pour l'interaction sensorielle. De même, il est prévu d'étendre la technique à des objets plus complexes, y compris les liquides ballottants (sloshing liquids) ou les milieux granulaires comme le sable. Comprendre la dynamique de tels matériaux uniquement par interaction tactile constituerait une avancée significative.
L'objectif à long terme est d'appliquer cette technique pour améliorer l'apprentissage des robots, permettant aux futures générations de robots de développer rapidement de nouvelles compétences de manipulation et de s'adapter aux changements de leur environnement. "Déterminer les propriétés physiques des objets à partir de données a longtemps été un défi en robotique, en particulier lorsque seules des mesures limitées ou bruitées sont disponibles", a commenté Miles Macklin, directeur principal de la technologie de simulation chez NVIDIA, qui n'a pas participé à cette recherche. "Ce travail est important car il montre que les robots peuvent déduire avec précision des propriétés telles que la masse et la souplesse en utilisant uniquement leurs capteurs articulaires internes, sans recourir à des caméras externes ou à des outils de mesure spécialisés."
Cette avancée ouvre la vision de robots explorant le monde de manière autonome, touchant et déplaçant des objets dans leur environnement, et apprenant ainsi les propriétés de tout ce avec quoi ils interagissent. Une telle capacité ferait non seulement progresser l'automatisation industrielle, mais aurait également un impact profond sur des domaines tels que l'aide domestique, les soins médicaux et la recherche en environnements dangereux. La capacité des robots à "sentir" et à comprendre le monde qui les entoure d'une manière plus intuitive, plus humaine, est essentielle à leur intégration plus complète dans notre vie quotidienne. Le financement de ces travaux prometteurs a été partiellement assuré par Amazon et le programme de recherche GIST-CSAIL, signalant l'intérêt de l'industrie pour les applications pratiques de telles technologies.
Le développement de telles technologies incite également à la réflexion sur l'avenir de l'interaction homme-robot. À mesure que les robots deviennent de plus en plus capables de percevoir et de réagir à leur environnement de manière subtile, de nouvelles possibilités de collaboration et de travail d'équipe s'ouvrent. La vision de Peter Yichen Chen de robots explorant et apprenant de manière autonome les propriétés des objets par le toucher n'est pas seulement un objectif technique, mais aussi une étape vers la création de systèmes plus intelligents et autonomes capables d'aider l'humanité à résoudre des problèmes complexes.
Source : Massachusetts Institute of Technology
TROUVEZ UN HÉBERGEMENT À PROXIMITÉ
Heure de création: 15 heures avant