INTUIPROG : Programmation intuitive pour assistance aux tâches automatisables

Dans le cadre du projet FactoryLab INTUIPROG, le laboratoire du CEA (SRI/LCSR) a développé une solution de programmation intuitive et interactive, basé sur l’usage du motion-capture, combiné à des fonctions d’assistance permettant de faciliter l’apprentissage, et permettant le traitement automatique de tâches répétitives par la robotique. Cette solution est compatible avec différentes marques et modèles de robots, via une couche de standardisation. La solution INTUIPROG permet de configurer et déclencher en ligne de petites tâches d’assistance robotique à destination des opérateurs ou des non-roboticiens. Elle prend la forme d’une suite logicielle, nommée SPIRE2, associée à du matériel de motion capture.

Partager l'article sur

Projet réalisé dans le cadre du Consortium industriel FactoryLab avec le CEA-List, Safran, NAVAL GROUP, Stellantis, SLB et LS GROUP.

L’automatisation totale de tâches manuelles pénibles ou répétitives se heurte à la difficulté technique et au coût de mise en œuvre, limitant son application aux grandes séries et aux procédés répétables. Les autres contextes, tels que les petites séries, le sur-mesure, les opérations de réparation et de maintenance, etc., sont trop changeants, et requièrent des capacités d’adaptation et d’analyse du contexte auxquelles les solutions de programmation robotique conventionnelles, telle que la PHL (Programmation Hors Ligne), ne permettent pas de répondre. Ce problème amène aux questions suivantes :

  • Comment conserver l’expertise et la capacité de décision de l’opérateur, tout en l’assistant sur les tâches manuelles exigeantes ?
  • Comment faire du système robotique un outil pour l’opérateur, adaptable rapidement aux spécificités de la situation ?

Dans ce contexte, l’objectif du projet INTUIPROG est de fournir une solution de programmation intuitive et interactive, compatible avec différentes marques et modèles de robots, et basée sur l’usage combiné de fonctions d’assistance et d’automatisation. Cette solution permet de configurer et déclencher en ligne de petites tâches d’assistance robotique à destination des opérateurs ou des non-roboticiens. Elle prend la forme d’une suite logicielle associée à du matériel de motion capture.

Le cœur d’INTUIPROG est une solution multimodale d’apprentissage par démonstration permettant l’exécution automatique de compétences robotiques, et intégrant :

  • Module d’apprentissage flexible multimodal : motion-capture offline ou téléopéré, téléopération à retour d’effort, hand-guiding. Des fonctions d’assistance (guides virtuels, post-traitement des données apprises) permettent de faciliter la démonstration.
  • Framework de compétences, c’est-à-dire de fonctions robotiques dédiées au métier de l’opérateur et permettant d’automatiser de petites tâches (ex. découpe de tuyaux, perçage, vissage, ponçage de surfaces, etc…).
  • Interface graphique dédiée

Cette solution se distingue notamment par les points-clé suivants :

  • Solution intuitive pour l’opérateur
  • Compatible avec tous types de robots (robots industriels, robots collaboratifs, cobots)
  • Permet l’apprentissage par démonstration sans contact (depuis l’extérieur d’une cellule robotique par exemple)
  • Adaptation simple et rapide aux changements de procédés

Le flux de travail résultant est illustré dans la figure suivante. En fonction du contexte, l’opérateur choisit la modalité d’apprentissage (téléopération ou apprentissage direct) la plus appropriée pour son besoin. Grâce au motion-capture Il apprend simplement au robot les points d’application de la compétence qu’il souhaite utiliser. Afin de faciliter l’apprentissage, il est possible d’apprendre des repères ou plans de travail, qui serviront à définir des guides virtuels d’assistance. Ces guides, en limitant les degrés de liberté du robot, rendent la téléopération encore plus aisée, et permettent à l’opérateur de se focaliser pleinement sur sa tâche.

  1. Apprentissage multimodal via motion-capture

Après de premières expérimentations avec d’autre matériel (HTC Vive dans le projet européen MERGING), nous avons retenu le matériel de la marque A.R.T., qui se distingue par sa facilité de déploiement et sa précision de tracking. Le matériel utilisé est composé d’une caméra stéréo pré-calibrée, d’une télécommande Flystick2+ utilisée pour l’apprentissage téléopéré, et d’un stylet prototype utilisé pour l’apprentissage direct. A.R.T. Fournit également un stylet passif standard (measurement tool), qui peut être utilisé pour le même usage.

  1. Interface utilisateur et fonctions d’assistance

Un effort important a été consacré à l’interface utilisateur, car son ergonomie impacte directement l’ensemble du flux de travail. L’interface a été conçue pour rester minimale et facile d’usage, tout en fournissant l’ensemble des fonctionnalités nécessaires à l’usage du système : gestion et calibration du matériel (robot et MoCap), apprentissage de points, fonctions d’assistance, exécutions des compétences. La figure suivante illustre cette interface. Les fonctions (ici l’apprentissage de repère) sont documentées et illustrées pour faciliter leur prise en main.

  1. Démonstration sur cas d’usage

La solution a été mise en œuvre et évaluée sur un cas d’usage de vissage fourni par un des partenaires industriels du projet, pour lequel une maquette à échelle réduite a été réalisée. Les deux modalités d’apprentissage ont été implémentées et comparées.

En apprentissage direct avec stylet, l’opérateur apprend tous les points de vissage selon l’ordre souhaité. Il utilise une fonction d’assistance permettant de réorienter l’ensemble des points appris à la perpendiculaire du plan de travail. Il peut alors exécuter la compétence de vissage sur l’ensemble des points appris.

En apprentissage téléopéré, l’opérateur commence par apprendre le plan de travail, afin d’activer un guide virtuel bloquant le robot à la perpendiculaire du plan. Il peut alors apprendre l’ensemble des points, puis exécuter la compétence de vissage sur les points appris.

La précision absolue est meilleure en téléopération, mais les deux modalités fournissent globalement une précision suffisante pour la réalisation de la tâche. Sur un apprentissage de 70 écrous à visser, on obtient un taux de réussite de 98,5% en « direct teaching », et 100% en « téléoperation ».

Hand guidingMocap directMocap teleop
Précision± 5mm± 3mm± 2mm
Rapidité6s / point2s / point6s / point
Difficulté physiqueDifficileTrès facileFacile
Charge mentaleÉlevéeMinimaleFaible / moyenne

De manière générale, les essais ont largement démontré l’efficacité du MoCap pour l’apprentissage (gain x2 à x3 en temps et en précision, comparé à un apprentissage cobotique en hand-guiding). L’apprentissage est également plus facile, que ça soit en termes de difficulté physique (en cobotique, il devient vite fatiguant d’apprendre des points éloignés) et en termes de charge mentale (obtenir une bonne précision en cobotique nécessite beaucoup de concentration, en raison des frottements du robot).

Les développements réalisés dans le cadre du projet INTUIPROG se poursuivent dans le cadre du projet européen JARVIS, qui se focalise sur deux volets. Le premier est l’évolution fonctionnelle du module de téléopération via Motion-Capture, via l’amélioration des performances de téléopération, le couplage avec contrôleur CORTEX, et l’ajout d’une interface de pilotage en réalité virtuelle / réalité augmentée. Le second est l’ajout d’un couplage temps-réel avec le jumeau numérique SCORE, qui permettra d’améliorer les possibilités de visualisation des données apprises en 3D, de bénéficier de fonctions de guides virtuels avancés, d’anticollision, et de planification de trajectoire. L’usage du jumeau numérique permettra également de valider les compétences en simulation avant de les exécuter sur système réel.

Vous aussi, vous souhaitez
participer au defi ?

Accélérez le développement de vos innovations avec le consortium industriel du FactoryLab.

Articles similaires

PRECINET : Contrôle interne de la propreté de tuyauterie

L’étude de faisabilité PRECINET vise à tester l’approche de détection par intelligence artificielle de pollutions (graisse et corps migrants) dans des tubulures industrielles, ainsi que la possibilité de l’intégration de l’IA dans un vidéo-endoscope du marché.

ERGOHAND : Gant de mesure d’interaction

Le projet porte sur la création d’un outil permettant de mesurer l’interaction des mains d’un humain avec son environnement.
Une instrumentation multiphysique d’un gant et des essais en conditions opérationnelles ont été réalisés au cours du projet.

AUTO RX : Détection automatique d’indications sur des images de radiographie

L’étude de faisabilité AUTO RX vise à tester plusieurs approches pour la mise en place d’un système d’aide à la sanction via de l’intelligence artificielle sur des images de radiographie numérique. L’étude compare deux techniques adaptées à des bases d’images limitées avec une approche standard.