Le robot piloté par l’image de lui-même

Jane Nisselson et Yinuo Qin/ Columbia Engineering

Des spécialistes en informatique et génie mécanique ont réussi à faire apprendre à un bras articulé à avoir une vision de lui-même quand il exécute un mouvement. La machine peut anticiper où se trouvera chaque partie d’elle-même dans l’espace.

Le débat a fait rage, il y a quelque temps, concernant une supposée "" d’une intelligence artificielle conçue par un chercheur de Google. Il revient discrètement par une voie détournée, celle de la robotique. Une équipe de chercheurs de l’université Columbia à New York (Etats-Unis), spécialistes en génie mécanique, informatique et science des données, ont réussi à faire se mouvoir un robot en lui inculquant la faculté de littéralement voir à l’avance comment chaque partie de sa morphologie sera positionnée dans l’espace en fonction de la tâche qu’il va devoir effectuer. Il peut donc, en présence d’obstacles notamment, adapter sa position, et ce, sans l’aide de capteur. L’idée est de simuler le comportement d’un humain qui a conscience de son corps et apprend à le contrôler en temps réel selon les contraintes qui se présentent.

Concrètement, le robot en question est un bras articulé à quatre degrés de libertés, qui pivote sur son socle. Il s’active grâce à l’intelligence artificielle, plus exactement l’apprentissage profond. L’article de recherche est paru dans Science Robotics et fait l’objet d’un où une vidéo détaille la méthode employée (voir ci-dessous).

Les chercheurs prennent d’infinies précautions avec la formule de "conscience de soi", précisant que ce que le robot parvient à faire n’est qu’une version grossière de ce qui se passe chez les humains et la conscience qu’ils ont de leur corps et de l’espace. L’équipe privilégie la notion d’"auto-modélisation".

Fusion de cinq nuages de points

Tout commence par une phase d’apprentissage, exploitant la vision par ordinateur. Le bras articulé s’agite dans tous les sens, au hasard, sans objectif particulier, filmé par cinq caméras de profondeur : quatre placées autour de lui et une au-dessus. L’opération a permis de collecter deux données à chaque posture : les angles de chaque articulation et une représentation du robot en nuage de points correspondant à ces angles. Chaque caméra génère son propre nuage de points [...]

Lire la suite sur sciencesetavenir.fr

A lire aussi

Notre objectif est de créer un endroit sûr et engageant pour que les utilisateurs communiquent entre eux en fonction de leurs centres d’intérêt et de leurs passions. Afin d'améliorer l’expérience dans notre communauté, nous suspendons temporairement les commentaires d'articles