Colloque 219 - Vision artificielle et robotique appliquée
Transcription
Colloque 219 - Vision artificielle et robotique appliquée
80e du Congrès de l'Acfas Colloque 219 - Vision artificielle et robotique appliquée Responsable(s) Moulay AKHLOUFI CRVI - Centre de Robotique et de Vision Industrielles Description La vision artificielle et la robotique sont deux domaines qui connaissent une demande croissante de la part d’entreprises de diverses industries : automobile, aéronautique, biopharmaceutique, manufacturier, minier, agriculture, agroalimentaire, etc. Aujourd'hui, la vision artificielle et la robotique sont utilisées en industrie dans une panoplie d'applications : contrôle de qualité des produits, automatisation, traçabilité, vidéosurveillance, etc. Ce colloque s’articule autour de ces deux thématiques, soit la vision artificielle et la robotique, et porte plus particulièrement sur le potentiel d’application en industrie des recherches effectuées par différents chercheurs œuvrant dans ces domaines. Les objectifs de ce colloque sont les suivants : 1) Partager les résultats des recherches entre les différents chercheurs présents. 2) Servir de déclencheur pour un maillage entre les chercheurs et les entreprises. 3) Discuter des tendances dans ces domaines, des besoins du marché et du travail des chercheurs en relation avec ces problématiques. Les thèmes abordés sont divisés en sessions et sont en relation avec les tendances actuelles et les besoins du marché en vision artificielle et en robotique. Un intérêt particulier est accordé aux travaux dans les domaines suivants : vision 3D, CND (contrôle non destructif) par vision, vidéosurveillance intelligente, robotique intelligente et asservissement par vision, précision robotique. 1 Programme Mardi 8 Mai 2012 9 h 00 - 9 h 30 Vision artificielle et robotique : tendances technologiques Communications orales Bâtiment – Local : Palais des congrès – 511B 9 h 00 Mot de bienvenue 9 h 05 Moulay AKHLOUFI CRVI - Centre de Robotique et de Vision Industrielles Tendances et avancées technologiques en vision artificielle et en robotique L'évolution des technologies en vision artificielle et en robotique a connu une croissance importante ces dernières années. On assiste aussi à une interaction plus étroite entre ces deux domaines qui permet d'assister à l'émergence de la robotique intelligente. Selon les prédictions de Frost & Sullivan, la robotique intelligente intégrant la vision artificielle est la technologie qui va connaitre une des plus grande croissance. Dans cette présentation, nous allons discuter des tendances futures de ces deux technologies pour les prochaines années. 9 h 30 - 16 h 00 Vision artificielle : vision 3D, vidéosurveillance et CND Communications orales Bâtiment – Local : Palais des congrès – 511B 9 h 30 Denis LAURENDEAU Université Laval Survol des activités de recherche en vision artificielle au Laboratoire de vision et systèmes numériques La conférence présentera un résumé des activités de recherche récentes et actuelles en vision artificielle au Laboratoire de vision et systèmes numériques et les perspectives de développements futurs. 10 h 00 Lucile ROSSI Université de Corse Utilisation de l’image et de la vision artificielle dans le développement d’outils de détection et de mesure dédiés aux feux de forêt Les feux de forêt représentent un risque majeur pour de nombreux pays dont la France, l’Espagne, la Grèce, le Portugal, la Russie, l’Australie, la Californie et le Canada. Ils occasionnent souvent des pertes humaines, économiques et écologiques importantes. La lutte contre ce risque majeur est d’autant plus efficace qu’il est possible d’anticiper son comportement au cours du temps et de détecter précocement son départ. L’anticipation du comportement du feu au cours du temps est possible grâce à des 2 modèles de propagation. Ils nécessitent d’être initialisés, validés et/ou améliorés et pour cela il faut être capable d’estimer la position, la vitesse, la hauteur, la surface et le volume d’un front en propagation. Depuis une dizaine d’années, des travaux de recherche sont menés pour développer des instruments de mesure dédiés aux feux de forêt basés sur le traitement de l’image et la vision 3D. Des avancées significatives ont été faites concernant le développement de tels outils pour des feux en propagation à l’échelle du laboratoire et à l’échelle du semi-terrain. 10 h 30 Pause 10 h 45 Langis GAGNON Centre de recherche appliquée en technologies de l’information Survol des activités du CRIM en traitement vidéo et vidéosurveillance intelligente Nous présenterons un résumé des différents projets en vidéosurveillance intelligente menés par l’équipe Vision et Imagerie du CRIM sur des problématiques comme la détection et le suivi d’objets ou de personnes en mouvement, la détection d’événements et la détection d’objets abandonnés. 11 h 15 Hakim BENDADA Université Laval Inspection non destructive par vision infrarouge Vision infrarouge, Contrôle non destructif, Inspection de procédés, Caractérisation de matériaux, Traitement dimages 11 h 45 Dîner 13 h 30 Gilles CHAMPAGNE Cégep Lévis-Lauzon Introduction à la programmation parallèle GPGPU en traitement d'images Ce tutoriel présente une introduction à la programmation parallèle sur GPGPU (GeneralPurpose computation on Graphics Processing Units) pour développer des algorithmes de traitement des images. 14 h 15 Moulay AKHLOUFI CRVI - Centre de Robotique et de Vision Industrielles Biométrie en temps réel utilisant le GPGPU La biométrie est un domaine important de la sécurité et la vidéosurveillance. Elle vise à établir l'identité d'une personne en mesurant une ou plusieurs de ses caractéristiques physiques. Diverses techniques ont été développées pour les extraire de manière fiable. Cet exposé présente l'utilisation de la programmation GPGPU pour optimiser en tempsréel le traitement des images dans le domaine de la biométrie. Plus particulièrement, l'extraction des caractéristiques physiologiques dans le spectre infrarouge. 3 14 h 45 Pause 15 h 00 Guillaume-alexandre BILODEAU École Polytechnique Contributions en surveillance vidéo Les systèmes de surveillances vidéo sont en progrès continu. Malgré ce fait, la surveillance vidéo automatisée est encore peu utilisée en pratique, car les algorithmes de détection et de suivi automatiques ne sont pas encore assez fiables. Nous proposons dans cette présentation trois avenues possibles pour l'amélioration des performances des systèmes de surveillance: 1) L'ajout d'un senseur thermique pour obtenir des informations complémentaires sur la scène, 2) Des algorithmes de suivi pour des conditions difficiles avec un senseur thermique, et 3) le suivi avec une caméra orientable (PTZ) qui permet de progressivement zoomer sur une cible. 15 h 30 Charles MONY CREAFORM, Jerome-Alexandre LAVOIE Creaform Mesure optique 3D et robotique : de nouvelles applications 16 h 00 - 18 h 00 Activité de maillage recherche-industrie Cocktail/lancement Bâtiment – Local : Palais des congrès – 511B Mercredi 9 Mai 2012 9 h 00 - 13 h 30 Robotique intelligente : vision 3D, collaboration et précision Communications orales Bâtiment – Local : Palais des congrès – 511B 9 h 00 Regis HOUDE Institut de recherche d'Hydro-Québec, Alain CROTEAU Institut de recherche d'Hydro-Québec La robotique à l'institut de recherche d'Hydro-Québec Depuis près de vingt ans, l'équipe robotique de l'IREQ conçoit et réalise des systèmes robotisés pour l’inspection et l’intervention dans les milieux hostiles que comportent ses installations (sous tension, sous-marin, radiation, espace restreint). Parmi ses réalisations les plus marquantes, on note le robot Scompi pour des interventions sur les turbines et les pièces encastrées, le robot sous-marin Maski pour l'inspection des structures immergées et le robot LineScout pour l’inspection des lignes de transport. La présentation fera un survol des ressources matérielles et des expertises de l'équipe et décrira ses différentes réalisations, leur déploiement sur le terrain et leurs bénéfices. 4 9 h 30 Clément GOSSELIN Université Laval Applications industrielles de la collaboration humain-robot Les robots industriels constituent une technologie mature et bien établie. Toutefois, ils ne peuvent généralement pas être utilisés pour collaborer physiquement avec des humains, pour des raisons de sécurité. Cette présentation fera état de recherches en cours à l'Université Laval dans le domaine de la coopération humain-robot. Le développement de robots de collaboration, d'algorithmes de commande et de capteurs intelligents sera exposé. Des démonstrations expérimentales seront commentées. 10 h 00 Zoran GLOZINIC SPG Vision & Robotic La vision 3D pour les applications robotiques Ces dernières années, des systèmes de mesure 3D sans contact ont été intégrés par diverses industries et ils ont lentement mais sûrement commencé à envahir le marché des systèmes de mesure traditionnelle. Diverses technologies sont aujourd'hui disponibles pour fournir des solutions de mesure à des applications de contrôle de la qualité ou de procédé. Dans cette présentation, nous discuterons des principaux avantages des systèmes optiques 3D mais également des défis auxquels l'ont fait face lorsque l'on emploie de telles technologies. Le traitement des données 3D sera également discuté, ainsi que différentes façons de rapporter ces données en lien avec le type d'application. Quelques applications réelles seront décrites, montrant comment des systèmes de vision 3D ont permis d'entièrement automatiser des tâches de procédé ou d'inspection. 10 h 30 Pause 10 h 45 Vincent PAQUIN Université Laval, Xavier MALDAGUE Université Laval, Moulay AKHLOUFI CRVI - Centre de Robotique et de Vision Industrielles Amélioration de la précision de positionnement absolu des robots industriels par vision numérique Cet article explore une méthode qui repose sur la vision numérique et qui permet d’améliorer la précision de positionnement absolu des robots manipulateurs industriels. En effet, comme ces machines sont habituellement assignées à des tâches répétitives, tous les efforts de conception ont visé à leur assurer une répétabilité optimale sans réels égards aux aspects de précision. Malgré cela, de plus en plus d’applications sollicitant cette qualité font leur apparition en robotique industrielle, généralement dès que l’on parle de programmation « hors-ligne ». Elles le font plus particulièrement dans les domaines de l’usinage et de l’aérospatiale où il peut être très intéressant de positionner de la façon la plus exacte possible la pointe d’un outil selon un modèle informatique tridimensionnel (CAD). Pour améliorer les performances à ce niveau, la méthode suivante a été appliquée. Une caméra est montée sur un robot et permet d’effectuer le suivi d’une cible fixée dans 5 l’espace de travail. Une série de poses pour le robot est générée automatiquement et pour chacune d’elles l’information de la caméra permet de les corriger de façon à ramener la cible à un point et une taille de référence dans l’image. À partir de ces données et de celles qui proviennent des encodeurs du bras, il est possible de déterminer les erreurs dues aux déformations élastiques touchant les joints. La méthode a d’abord été testée en simulation, puis validée sur des robots utilisés dans l’industrie. 11 h 15 Vincent PAQUIN Université Laval, Moulay AKHLOUFI CRVI - Centre de Robotique et de Vision Industrielles Guidage par vision d’un préhenseur universel articulé pour soudage robotisé sans gabarit de maintien En soudage robotisé, les pièces à assembler doivent habituellement être maintenues par des gabarits qui leur assurent une position stable, connue et invariante d’une itération à l’autre, permettant ainsi aux robots d’effectuer leurs tâches. Cette méthode comporte plusieurs inconvénients : un opérateur doit être impliqué dans la boucle pour placer les pièces dans les gabarits (ou une coûteuse machine spécialisée doit le faire), différents gabarits doivent être conçus, fabriqués et entretenus pour chaque type de pièces, et le robot doit être rééquipé lorsque le type de pièces change. Toutes ces opérations entraînent des coûts non négligeables qui pourraient être évités. Cet article présente un système de soudage robotisé qui règle les problèmes énoncés précédemment. Il est constitué de deux bras manipulateurs, le premier étant muni d’un préhenseur polyvalent articulé et le second, d’une buse de soudage. L’ensemble est guidé par des algorithmes de vision numérique. Le préhenseur s’adapte aux différents types de pièces, ce qui permet d’éviter de rééquiper le robot. Grâce au guidage par vision numérique, il est possible de saisir les pièces sur un convoyeur ou une simple table, rendant ici superflu le recours à un gabarit. Les principaux aspects du travail sont la calibration entre les différentes composantes, les algorithmes de vision et les stratégies de soudage. Un prototype a été conçu et testé avec succès sur de vraies pièces utilisées en industrie. 11 h 45 Dîner 13 h 30 - 14 h 30 Vision artificielle II : vision 3D et vidéosurveillance Communications orales Bâtiment – Local : Palais des congrès – 511B 13 h 30 Jean-Nicolas OUELLET Centre collégial de transfert en imagerie numérique et médias interactifs, Eric HARVEY Centre collégial de transfert en imagerie numérique et médias interactifs, Juan ECHEVARRIA Centre collégial de transfert en imagerie numérique et médias interactifs, Glenn FRANCK R et D pour la défense Canada , Stacey SCOTT University of Waterloo Application de vision numérique utilisant le capteur Kinect pour l’identification et le suivi d’usagers interagissant avec une table interactive 6 Les environnements collaboratifs de type tables interactives connaissent un intérêt grandissant ces dernières années. Dans ce type d’environnement, les usagers interagissent physiquement avec la surface de la table soit en utilisant leur main ou un stylet. Dans ce contexte, la gestion des identités de plusieurs personnes interagissant autour de la table et leurs droits d’accès aux informations affichées est problématique. En effet, bien que des méthodes de reconnaissance de visages existent pour reconnaitre l’usager, il est difficile d’établir le lien entre une main interagissant avec la table et un usager en particulier. Afin de résoudre cette problématique, nous proposons d’utiliser le capteur de mouvement Kinect de Microsoft afin de déterminer l’identité des usagers interagissant avec la table. Pour se faire, nous exploitons la carte de profondeur retournée par le capteur pour détecter et suivre chaque usager. Le capteur nous renseigne sur la posture de l’usager en déterminant, entre autres, la position des bras et de la tête. En appliquant un algorithme de reconnaissance faciale à l’image 2-D de la caméra visible de la Kinect, il est alors possible de déterminer l’identité de l’usager interagissant avec la table. Nous présenterons les résultats de ce travail de recherche financé par R&D pour la Défense Canada (DRDC Atlantic), en collaboration avec le département d’ingénierie systèmes de l’Université de Waterloo. 14 h 00 Dominique BEAULIEU Université Laval Détection des véhicules avec le flot optique dense et les descripteurs de Fourier Les dernières années ont vu l’industrie automobile explorer la fabrication de véhicules intelligents afin d’améliorer la sécurité routière. Parmi les fonctionnalités étudiées pour les systèmes d’aide à la conduite se trouvent la détection des véhicules qui a pour objectif la diminution du risque de collision en enlevant automatiquement le régulateur de vitesse en cas de coupure de route. Nous utilisons la méthode de flot optique proposée par Brox et al. 2004 en émettant certaines hypothèses sur les caractéristiques du flot optique généré par les véhicules (vitesse, direction, position). Par seuillage du flot optique, nous isolons d’abord une première région d’intérêt. De cette région, nous isolons une deuxième région d’intérêt à partir des arêtes détectées, région qui se rapproche du véhicule à détecter et représentée par un contour. Les arêtes contenues dans cette deuxième région comprennent, en plus de celles du véhicule, celles de l’arrière-plan et de la route, ce qui fait que le contour obtenu est « bruité ». Si l’on compare le contour obtenu à un signal, les arêtes non désirées introduisent dans la deuxième région d’intérêt ce qui se compare à des hautes fréquences que l’on peut filtrer dans le domaine fréquentiel en représentant le contour à l’aide des descripteurs de Fourier. Le contour ainsi filtré épouse presque la forme réelle du véhicule. 14 h 30 - 15 h 30 Vision artificielle et robotique appliquées (discussions et clôture) Table ronde/atelier Participant(s) Bâtiment – Local : Palais des congrès – 511B 7