Colloque 219 - Vision artificielle et robotique appliquée

Transcription

Colloque 219 - Vision artificielle et robotique appliquée
80e du Congrès de l'Acfas
Colloque 219 - Vision artificielle et robotique appliquée
Responsable(s)
Moulay AKHLOUFI CRVI - Centre de Robotique et de Vision Industrielles
Description
La vision artificielle et la robotique sont deux domaines qui connaissent une demande
croissante de la part d’entreprises de diverses industries : automobile, aéronautique,
biopharmaceutique, manufacturier, minier, agriculture, agroalimentaire, etc. Aujourd'hui, la
vision artificielle et la robotique sont utilisées en industrie dans une panoplie d'applications
: contrôle de qualité des produits, automatisation, traçabilité, vidéosurveillance, etc.
Ce colloque s’articule autour de ces deux thématiques, soit la vision artificielle et la
robotique, et porte plus particulièrement sur le potentiel d’application en industrie des
recherches effectuées par différents chercheurs œuvrant dans ces domaines. Les
objectifs de ce colloque sont les suivants : 1) Partager les résultats des recherches entre
les différents chercheurs présents. 2) Servir de déclencheur pour un maillage entre les
chercheurs et les entreprises. 3) Discuter des tendances dans ces domaines, des besoins
du marché et du travail des chercheurs en relation avec ces problématiques. Les thèmes
abordés sont divisés en sessions et sont en relation avec les tendances actuelles et les
besoins du marché en vision artificielle et en robotique. Un intérêt particulier est accordé
aux travaux dans les domaines suivants : vision 3D, CND (contrôle non destructif) par
vision, vidéosurveillance intelligente, robotique intelligente et asservissement par vision,
précision robotique.
1
Programme
Mardi 8 Mai 2012
9 h 00 - 9 h 30
Vision artificielle et robotique : tendances technologiques
Communications orales
Bâtiment – Local : Palais des congrès – 511B
9 h 00
Mot de bienvenue
9 h 05
Moulay AKHLOUFI CRVI - Centre de Robotique et de Vision Industrielles
Tendances et avancées technologiques en vision artificielle et en robotique
L'évolution des technologies en vision artificielle et en robotique a connu une croissance
importante ces dernières années. On assiste aussi à une interaction plus étroite entre ces
deux domaines qui permet d'assister à l'émergence de la robotique intelligente. Selon les
prédictions de Frost & Sullivan, la robotique intelligente intégrant la vision artificielle est la
technologie qui va connaitre une des plus grande croissance. Dans cette présentation,
nous allons discuter des tendances futures de ces deux technologies pour les prochaines
années.
9 h 30 - 16 h 00
Vision artificielle : vision 3D, vidéosurveillance et CND
Communications orales
Bâtiment – Local : Palais des congrès – 511B
9 h 30
Denis LAURENDEAU Université Laval
Survol des activités de recherche en vision artificielle au Laboratoire de vision et
systèmes numériques
La conférence présentera un résumé des activités de recherche récentes et actuelles en
vision artificielle au Laboratoire de vision et systèmes numériques et les perspectives de
développements futurs.
10 h 00
Lucile ROSSI Université de Corse
Utilisation de l’image et de la vision artificielle dans le développement d’outils de
détection et de mesure dédiés aux feux de forêt
Les feux de forêt représentent un risque majeur pour de nombreux pays dont la France,
l’Espagne, la Grèce, le Portugal, la Russie, l’Australie, la Californie et le Canada. Ils
occasionnent souvent des pertes humaines, économiques et écologiques importantes. La
lutte contre ce risque majeur est d’autant plus efficace qu’il est possible d’anticiper son
comportement au cours du temps et de détecter précocement son départ.
L’anticipation du comportement du feu au cours du temps est possible grâce à des
2
modèles de propagation. Ils nécessitent d’être initialisés, validés et/ou améliorés et pour
cela il faut être capable d’estimer la position, la vitesse, la hauteur, la surface et le volume
d’un front en propagation. Depuis une dizaine d’années, des travaux de recherche sont
menés pour développer des instruments de mesure dédiés aux feux de forêt basés sur le
traitement de l’image et la vision 3D. Des avancées significatives ont été faites concernant
le développement de tels outils pour des feux en propagation à l’échelle du laboratoire et à
l’échelle du semi-terrain.
10 h 30
Pause
10 h 45
Langis GAGNON Centre de recherche appliquée en technologies de l’information
Survol des activités du CRIM en traitement vidéo et vidéosurveillance intelligente
Nous présenterons un résumé des différents projets en vidéosurveillance intelligente
menés par l’équipe Vision et Imagerie du CRIM sur des problématiques comme la
détection et le suivi d’objets ou de personnes en mouvement, la détection d’événements et
la détection d’objets abandonnés.
11 h 15
Hakim BENDADA Université Laval
Inspection non destructive par vision infrarouge
Vision infrarouge, Contrôle non destructif, Inspection de procédés, Caractérisation de
matériaux, Traitement dimages
11 h 45
Dîner
13 h 30
Gilles CHAMPAGNE Cégep Lévis-Lauzon
Introduction à la programmation parallèle GPGPU en traitement d'images
Ce tutoriel présente une introduction à la programmation parallèle sur GPGPU (GeneralPurpose computation on Graphics Processing Units) pour développer des algorithmes de
traitement des images.
14 h 15
Moulay AKHLOUFI CRVI - Centre de Robotique et de Vision Industrielles
Biométrie en temps réel utilisant le GPGPU
La biométrie est un domaine important de la sécurité et la vidéosurveillance. Elle vise à
établir l'identité d'une personne en mesurant une ou plusieurs de ses caractéristiques
physiques. Diverses techniques ont été développées pour les extraire de manière fiable.
Cet exposé présente l'utilisation de la programmation GPGPU pour optimiser en tempsréel le traitement des images dans le domaine de la biométrie. Plus particulièrement,
l'extraction des caractéristiques physiologiques dans le spectre infrarouge.
3
14 h 45
Pause
15 h 00
Guillaume-alexandre BILODEAU École Polytechnique
Contributions en surveillance vidéo
Les systèmes de surveillances vidéo sont en progrès continu. Malgré ce fait, la
surveillance vidéo automatisée est encore peu utilisée en pratique, car les algorithmes de
détection et de suivi automatiques ne sont pas encore assez fiables. Nous proposons
dans cette présentation trois avenues possibles pour l'amélioration des performances des
systèmes de surveillance: 1) L'ajout d'un senseur thermique pour obtenir des informations
complémentaires sur la scène, 2) Des algorithmes de suivi pour des conditions difficiles
avec un senseur thermique, et 3) le suivi avec une caméra orientable (PTZ) qui permet de
progressivement zoomer sur une cible.
15 h 30
Charles MONY CREAFORM, Jerome-Alexandre LAVOIE Creaform
Mesure optique 3D et robotique : de nouvelles applications
16 h 00 - 18 h 00
Activité de maillage recherche-industrie
Cocktail/lancement
Bâtiment – Local : Palais des congrès – 511B
Mercredi 9 Mai 2012
9 h 00 - 13 h 30
Robotique intelligente : vision 3D, collaboration et précision
Communications orales
Bâtiment – Local : Palais des congrès – 511B
9 h 00
Regis HOUDE Institut de recherche d'Hydro-Québec, Alain CROTEAU Institut de recherche
d'Hydro-Québec
La robotique à l'institut de recherche d'Hydro-Québec
Depuis près de vingt ans, l'équipe robotique de l'IREQ conçoit et réalise des systèmes
robotisés pour l’inspection et l’intervention dans les milieux hostiles que comportent ses
installations (sous tension, sous-marin, radiation, espace restreint). Parmi ses réalisations
les plus marquantes, on note le robot Scompi pour des interventions sur les turbines et les
pièces encastrées, le robot sous-marin Maski pour l'inspection des structures immergées
et le robot LineScout pour l’inspection des lignes de transport. La présentation fera un
survol des ressources matérielles et des expertises de l'équipe et décrira ses différentes
réalisations, leur déploiement sur le terrain et leurs bénéfices.
4
9 h 30
Clément GOSSELIN Université Laval
Applications industrielles de la collaboration humain-robot
Les robots industriels constituent une technologie mature et bien établie. Toutefois, ils ne
peuvent généralement pas être utilisés pour collaborer physiquement avec des humains,
pour des raisons de sécurité.
Cette présentation fera état de recherches en cours à l'Université Laval dans le domaine
de la coopération humain-robot. Le développement de robots de collaboration,
d'algorithmes de commande et de capteurs intelligents sera exposé. Des démonstrations
expérimentales seront commentées.
10 h 00
Zoran GLOZINIC SPG Vision & Robotic
La vision 3D pour les applications robotiques
Ces dernières années, des systèmes de mesure 3D sans contact ont été intégrés par
diverses industries et ils ont lentement mais sûrement commencé à envahir le marché des
systèmes de mesure traditionnelle. Diverses technologies sont aujourd'hui disponibles
pour fournir des solutions de mesure à des applications de contrôle de la qualité ou de
procédé. Dans cette présentation, nous discuterons des principaux avantages des
systèmes optiques 3D mais également des défis auxquels l'ont fait face lorsque l'on
emploie de telles technologies. Le traitement des données 3D sera également discuté,
ainsi que différentes façons de rapporter ces données en lien avec le type d'application.
Quelques applications réelles seront décrites, montrant comment des systèmes de vision
3D ont permis d'entièrement automatiser des tâches de procédé ou d'inspection.
10 h 30
Pause
10 h 45
Vincent PAQUIN Université Laval, Xavier MALDAGUE Université Laval, Moulay AKHLOUFI
CRVI - Centre de Robotique et de Vision Industrielles
Amélioration de la précision de positionnement absolu des robots industriels par vision
numérique
Cet article explore une méthode qui repose sur la vision numérique et qui permet
d’améliorer la précision de positionnement absolu des robots manipulateurs industriels. En
effet, comme ces machines sont habituellement assignées à des tâches répétitives, tous
les efforts de conception ont visé à leur assurer une répétabilité optimale sans réels
égards aux aspects de précision. Malgré cela, de plus en plus d’applications sollicitant
cette qualité font leur apparition en robotique industrielle, généralement dès que l’on parle
de programmation « hors-ligne ». Elles le font plus particulièrement dans les domaines de
l’usinage et de l’aérospatiale où il peut être très intéressant de positionner de la façon la
plus exacte possible la pointe d’un outil selon un modèle informatique tridimensionnel
(CAD).
Pour améliorer les performances à ce niveau, la méthode suivante a été appliquée. Une
caméra est montée sur un robot et permet d’effectuer le suivi d’une cible fixée dans
5
l’espace de travail. Une série de poses pour le robot est générée automatiquement et pour
chacune d’elles l’information de la caméra permet de les corriger de façon à ramener la
cible à un point et une taille de référence dans l’image. À partir de ces données et de
celles qui proviennent des encodeurs du bras, il est possible de déterminer les erreurs
dues aux déformations élastiques touchant les joints.
La méthode a d’abord été testée en simulation, puis validée sur des robots utilisés dans
l’industrie.
11 h 15
Vincent PAQUIN Université Laval, Moulay AKHLOUFI CRVI - Centre de Robotique et de Vision
Industrielles
Guidage par vision d’un préhenseur universel articulé pour soudage robotisé sans gabarit
de maintien
En soudage robotisé, les pièces à assembler doivent habituellement être maintenues par
des gabarits qui leur assurent une position stable, connue et invariante d’une itération à
l’autre, permettant ainsi aux robots d’effectuer leurs tâches. Cette méthode comporte
plusieurs inconvénients : un opérateur doit être impliqué dans la boucle pour placer les
pièces dans les gabarits (ou une coûteuse machine spécialisée doit le faire), différents
gabarits doivent être conçus, fabriqués et entretenus pour chaque type de pièces, et le
robot doit être rééquipé lorsque le type de pièces change. Toutes ces opérations
entraînent des coûts non négligeables qui pourraient être évités.
Cet article présente un système de soudage robotisé qui règle les problèmes énoncés
précédemment. Il est constitué de deux bras manipulateurs, le premier étant muni d’un
préhenseur polyvalent articulé et le second, d’une buse de soudage. L’ensemble est guidé
par des algorithmes de vision numérique. Le préhenseur s’adapte aux différents types de
pièces, ce qui permet d’éviter de rééquiper le robot. Grâce au guidage par vision
numérique, il est possible de saisir les pièces sur un convoyeur ou une simple table,
rendant ici superflu le recours à un gabarit. Les principaux aspects du travail sont la
calibration entre les différentes composantes, les algorithmes de vision et les stratégies de
soudage. Un prototype a été conçu et testé avec succès sur de vraies pièces utilisées en
industrie.
11 h 45
Dîner
13 h 30 - 14 h 30
Vision artificielle II : vision 3D et vidéosurveillance
Communications orales
Bâtiment – Local : Palais des congrès – 511B
13 h 30
Jean-Nicolas OUELLET Centre collégial de transfert en imagerie numérique et médias interactifs,
Eric HARVEY Centre collégial de transfert en imagerie numérique et médias interactifs, Juan
ECHEVARRIA Centre collégial de transfert en imagerie numérique et médias interactifs, Glenn
FRANCK R et D pour la défense Canada , Stacey SCOTT University of Waterloo
Application de vision numérique utilisant le capteur Kinect pour l’identification et le suivi
d’usagers interagissant avec une table interactive
6
Les environnements collaboratifs de type tables interactives connaissent un intérêt
grandissant ces dernières années. Dans ce type d’environnement, les usagers
interagissent physiquement avec la surface de la table soit en utilisant leur main ou un
stylet. Dans ce contexte, la gestion des identités de plusieurs personnes interagissant
autour de la table et leurs droits d’accès aux informations affichées est problématique. En
effet, bien que des méthodes de reconnaissance de visages existent pour reconnaitre
l’usager, il est difficile d’établir le lien entre une main interagissant avec la table et un
usager en particulier. Afin de résoudre cette problématique, nous proposons d’utiliser le
capteur de mouvement Kinect de Microsoft afin de déterminer l’identité des usagers
interagissant avec la table. Pour se faire, nous exploitons la carte de profondeur retournée
par le capteur pour détecter et suivre chaque usager. Le capteur nous renseigne sur la
posture de l’usager en déterminant, entre autres, la position des bras et de la tête. En
appliquant un algorithme de reconnaissance faciale à l’image 2-D de la caméra visible de
la Kinect, il est alors possible de déterminer l’identité de l’usager interagissant avec la
table. Nous présenterons les résultats de ce travail de recherche financé par R&D pour la
Défense Canada (DRDC Atlantic), en collaboration avec le département d’ingénierie
systèmes de l’Université de Waterloo.
14 h 00
Dominique BEAULIEU Université Laval
Détection des véhicules avec le flot optique dense et les descripteurs de Fourier
Les dernières années ont vu l’industrie automobile explorer la fabrication de véhicules
intelligents afin d’améliorer la sécurité routière. Parmi les fonctionnalités étudiées pour les
systèmes d’aide à la conduite se trouvent la détection des véhicules qui a pour objectif la
diminution du risque de collision en enlevant automatiquement le régulateur de vitesse en
cas
de
coupure
de
route.
Nous utilisons la méthode de flot optique proposée par Brox et al. 2004 en émettant
certaines hypothèses sur les caractéristiques du flot optique généré par les véhicules
(vitesse, direction, position). Par seuillage du flot optique, nous isolons d’abord une
première région d’intérêt. De cette région, nous isolons une deuxième région d’intérêt à
partir des arêtes détectées, région qui se rapproche du véhicule à détecter et représentée
par un contour. Les arêtes contenues dans cette deuxième région comprennent, en plus
de celles du véhicule, celles de l’arrière-plan et de la route, ce qui fait que le contour
obtenu est « bruité ». Si l’on compare le contour obtenu à un signal, les arêtes non
désirées introduisent dans la deuxième région d’intérêt ce qui se compare à des hautes
fréquences que l’on peut filtrer dans le domaine fréquentiel en représentant le contour à
l’aide des descripteurs de Fourier. Le contour ainsi filtré épouse presque la forme réelle du
véhicule.
14 h 30 - 15 h 30
Vision artificielle et robotique appliquées (discussions et clôture)
Table ronde/atelier
Participant(s)
Bâtiment – Local : Palais des congrès – 511B
7