Réalité virtuelle : piloter des robots à distance, une charge mentale à évaluer

Un laboratoire de Poitiers étudie la charge cognitive qu’implique la réalisation de tâches au travers de jumeaux numériques de sites industriels. Les travaux combinent robotique et expériences immersives.

Médecine, transports, gériatrie, réseaux sociaux… Au salon que l’Institut Carnot Cognition a organisé le 29 mars 2023, à la Cité des Sciences et de l’Industrie à Paris, les sciences cognitives étaient déclinées dans tous les domaines. Le monde industriel n’y a pas échappé. L’intégration de technologies numériques et la cohabitation entre machines réelles et interfaces virtuelles conduisent en effet à des questionnements sur la manière dont les employés des usines vont s’approprier ce que l’on appelle "l’industrie 4.0". C’est l’objet du projet InterOps du Centre de recherche sur la cognition et l’apprentissage (CerCa) à l'université de Poitiers.

Il étudie et évalue les ressources cognitives qui sont mobilisées par de tels dispositifs, et dans quelles conditions on en atteint les limites. Le tout dans un contexte loin d’être évident : le pilotage d’un robot industriel à distance, situé dans une autre pièce voire un autre bâtiment que l’opérateur, par le biais d’une interface en réalité virtuelle reproduisant la machine et ses mouvements.

Curiosity, cas extrême de pilotage à distance

L’utilisateur est coiffé d’un visiocasque HTC Vive et interagit avec les manettes de réalité virtuelle. "Ce genre de système n’est pas encore très répandu en usine, mais on en trouve en médecine, par exemple, avec des robots de chirurgie mais pour de petites distances", note Marine Desvergnes, doctorante dont la thèse intègre ce projet.

Cas extrême de pilotage à distance, le rover Curiosity, sur Mars, est opéré depuis le Jet Propulsion Laboratory à Pasadena en Californie, mais pas en temps réel ni en réalité virtuelle. Le robot humanoïde d’exploration sous-marine Ocean One est contrôlé depuis un navire, avec des manettes à retour d’effort et des gants haptiques permettant à l’opérateur de ressentir le poids et les vibrations d’un objet saisi sous l'eau par le robot. Mais là encore, en lieu et place d’un visiocasque, le pilote est muni de lunettes 3D. Par contre, un projet de recherche com[...]

Lire la suite sur sciencesetavenir.fr

A lire aussi