Mesure de déplacements tridimensionnels par - Le2i

Transcription

Mesure de déplacements tridimensionnels par - Le2i
Mesure de déplacements tridimensionnels
par couplage caméra CCD et capteur laser 3D
Rahel RAHEL(1), Michaël ROY(2), Jean-François FONTAINE(1)
(1) Laboratoire LRMA (2) Laboratoire LE2I, UMR CNRS 5158
IUT d'Auxerre, Université de Bourgogne
Route des plaines de l'Yonne, 89000 Auxerre
[email protected]
[email protected]
1.
Résumé
De nombreux domaines concernant le comportement mécanique des matériaux posent le
problème de la mesure des déplacements ou des déformations. Pour ce type de mesure, les méthodes
optiques se sont largement imposées en raison de leur caractère non intrusif, de leur grande résolution
spatiale, de leur sensibilité élevée, de l'importance du champ examiné à tout instant et des progrès de
l'informatique qui permet le traitement automatique d'un grand volume d'information. Dans ce
contexte, nous avons développé un système de mesure de champs de déplacements 3D avec une
caméra CCD et un capteur laser 3D.
Cette technique permet la mesure de déplacements 3D de l'ordre du dixième de millimètre à
partir d’une paire d'images correspondant à différents instants de déplacement de l'objet (en général
analyse d'une séquence d'images acquises en cours de transformation).
Les points développés dans cet article sont le calibrage d'une caméra et d'un capteur laser 3D, et
la mesure de déplacements 3D à partir du couplage de la caméra et du capteur laser 3D.
L'application potentielle de notre méthode est la caractérisation de structures permettant, par
exemple, de fournir une aide à l'élaboration d'outillage pour l'emboutissage.
Mots clés : Métrologie 3D, mesure de déplacement, calibrage de caméra, calibrage de capteur
laser 3D, corrélation d’images numériques.
2.
Introduction
Les méthodes optiques de mesure de déplacement sont aujourd’hui largement utilisées dans les
expérimentations mécaniques. Les principales techniques sont la photoélasticité, le moiré géométrique,
le moiré interférométrique, l’interférométrie holographique, l'interférométrie des tavelures (speckle), la
méthode de grille et de corrélation d’images numériques [4, 5, 6, 7, 10, 12]. La méthode de corrélation
d’images numériques (DIC) est probablement l’une des plus couramment utilisées, et de nombreuses
applications peuvent être trouvées dans [12], et plus spécifiquement pour la mesure de champs de
déplacements 3D à partir du couplage de la stéréo-corrélation et du suivi de pixels dans une séquence
d'images par corrélation [1, 2, 3].
Quand une seule caméra est utilisée, les DIC peuvent donner le champ de déplacements
uniquement dans le domaine planaire de l'objet observé. En utilisant une caméra et un capteur laser
3D, le champ de déplacement peut être mesuré dans le domaine 3D de la surface de l'objet observé.
Nous présentons ici le couplage d’une caméra CCD et d’un scanneur laser 3D nous permettant
d'obtenir une surface 3D et l'image associées à un objet observé. Ensuite nous utilisons la caméra et
une méthode corrélation d'images pour définir le champ de déplacements d'un objet en mouvement. Le
couplage de la caméra et du scanneur 3D nous permet ainsi d'associer le champ de déplacements
Mesures et Techniques Optiques pour l’Industrie – Nantes 2008
Session ?? : Les sessions seront définies ultérieurement
/1/
observé et la surface 3D de l'objet. Les déplacements mesurés sur la surface 3D sont de l'ordre de
20mm à 40mm.
3.
Calibrage de la caméra CCD et du scanneur laser 3D
3.1. Paramètres de calibrage de la caméra
Le calibrage d’une caméra consiste à déterminer les coordonnées (u, v) d’un point b projeté le
repère image à partir des coordonnées (x, y, z) d’un point B dans le repère monde. Autrement dit, il
consiste à résoudre l’équation suivante :
b = Mc(B)
(1)
Pour ce faire, il faut d’abord exprimer B dans le repère caméra, puis calculer les coordonnées de
b dans le même repère suite à une projection. Enfin, on transforme b dans le repère plan image pour
obtenir ses coordonnées (u, v).
3.1.1. Détermination de b à partir de B
Pour calculer les coordonnées du point b dans le plan image à partir du point B dont les
coordonnées sont exprimées dans le repère monde.
⎛ x⎞
⎜ ⎟
⎛ su ⎞
⎜ ⎟
⎜ y⎟
⎜ sv ⎟ = MC ⎜ ⎟
z
⎜s⎟
⎜ ⎟
⎝ ⎠
⎜1⎟
⎝ ⎠
⎛ m11
⎜
Avec M C = ⎜ m 21
⎜m
⎝ 31
( 2)
m12
m 22
m 32
m13
m 23
m 33
m14 ⎞
⎟
m 24 ⎟
m 34 ⎟⎠
Dans cette équation, les coordonnées sont homogènes. Les coordonnées homogènes du point
objet B sont (x, y, z,1), et celles du point image b sont (su,sv,s) .Les coordonnées cartésiennes de b sont
donc (su/s, sv/s) . u = au x ' C + u 0 est la matrice de projection perspective. En utilisant l’équation (2), on
peut écrire les coordonnées cartésiennes d’un point image comme indiqué dans l’équation (3).
u=
m11 x + m12 y + m13 z + m14
m 31 x + m 32 y + m 33 z + m 34
m x + m 22 y + m 23 z + m 24
v = 21
m 31 x + m 32 y + m 33 z + m 34
(3)
3.1.2. Calcul des paramètres de calibrage
Les paramètres de calibrage peuvent être obtenus à partir de la matrice de projection perspective
MC. Nous appliquons la méthode de Faugeras-Toscani pour calculer MC [8,9].
Les paramètres de calibrage d’une caméra comprennent les paramètres intrinsèques au, av, u0, v0
et les paramètres extrinsèques R et T. Ces paramètres peuvent être calculés à partir de la matrice de
projection perspective MC
L’équation(4) montre comment calculer les paramètres de calibrage à partir de la matrice MC
[11] :
Mesures et Techniques Optiques pour l’Industrie – Nantes 2008
Session ?? : Les sessions seront définies ultérieurement
/2/
r3 = m 3
u 0 = m1 .m 3
v 0 = m 2 .m 3
au = − m1 ∧ m 3
aV = m 2 ∧ m 3
( 4)
r1 = 1 / a u ( m1 − u 0 m 3 )
r2 = 1 / a v ( m 2 − v 0 m 3 )
t x = 1 / a u ( m14 − u 0 m 34 )
t y = 1 / a v ( m 24 − v 0 m 34 )
t z = m 34
3.2. Calibration du capteur laser 3D
Le scanneur 3D est composé d’un capteur à nappe laser et d’une machine à mesurer
tridimensionnelle. Il permet d’avoir un nuage dense de points d’une précision de l’ordre de 10µm. La
mire de calibrage utilisée est un cube en marbre dont les faces sont perpendiculaires. Trois mires sous
forme de damier ont été positionnées sur les faces orientées suivant les directions x, y et z de la
machine. Chaque plan de la mire est représenté par un nuage de points (Cf. Figure 1).
Figure 1 - Nuages de points 3D de la mire de calibrage obtenus avec le scanneur 3D.
Il faut que les plans de la mire soient perpendiculaires. Avec la méthode des moindres carrés, on
calcule le vecteur normal à chaque plan, et l’intersection des trois plans représentant l’origine du
repère de la mire. L’origine de la mire nous permet de calculer les paramètres de translation de la
matrice de passage du scanneur. Les trois vecteurs normaux (n1, n2, n3) représentent la matrice de
rotation. Il est alors possible de trouver la matrice de passage entre le scanner 3D et la mire.
⎛R t⎞
⎟⎟
M S = ⎜⎜
⎝ 0 1⎠
4.
(5)
Appariement d'une caméra CCD et d'un capteur laser 3D
Nous présentons dans cet article une méthode d'appariement d'une caméra CCD et d'un capteur
laser 3D. Dans un premier temps, nous calibrons les deux appareils, situés dans le même espace, avec
les techniques classiques de calibration [5]. Ensuite, nous calculons la matrice de passage Mc de la
caméra et la matrice de passage Ms du capteur 3D. Puis, nous calculons la matrice totale de
transformation Mt permettant d'associer l'image de texture obtenue avec la caméra, et la surface 3D
Mesures et Techniques Optiques pour l’Industrie – Nantes 2008
Session ?? : Les sessions seront définies ultérieurement
/3/
obtenue avec le scanneur. Cette méthode est illustrée en Figure 2, où pour chaque sommet vi du nuage
de points obtenu avec le scanneur, on associe un pixel pi de l'image obtenue avec la caméra.
M t = M c M−s 1
Caméra
p i=
Scanneur 3D
[]
xi
vi= y i
zi
[]
ui
vi
Objet
Ms
Mc
Figure 2 - Couplage de la caméra et du scanneur laser 3D
5.
Mesure de déplacements
Après calibrage du scanneur et de la caméra, on obtient une association entre les pixels (ui, vi) de
l’image de la caméra et les sommets (xi, yi, zi) du nuage de points obtenus avec le scanneur. Dans un
premier temps, nous faisons l’acquisition d’un objet dans une position initiale, puis nous déplaçons
l’objet, et nous refaisons une acquisition. Nous sélectionnons manuellement un point caractéristique de
l’objet avant et après déplacement. Dans notre expérimentation, le point caractéristique est défini
comme un coin d’un des carrés de la mire de calibration. Nous trouvons les coordonnées (u, v) du
point caractéristique dans chaque image, puis nous calculons les coordonnées (x, y, z) du sommet du
nuage de points associé. Enfin, nous mesurons le déplacement comme la distance euclidienne 3D entre
le point de caractéristique trouvé avant et après déplacement :
( 6)
D = ( x 2 − x1 ) 2 + ( y 2 − y1 ) 2 + ( z 2 − z1 ) 2
(7 )
D x = x 2 − x1 , D y = y 2 − y1 , D z = z 2 − z1
où (x1, y1, z1) sont les coordonnées du point caractéristique sur le nuage de points avant déplacement,
et (x2, y2, z2) les coordonnées du points caractéristiques après déplacement.
6.
Résultats
Dans notre expérimentation, nous avons fait l’acquisition avec le scanneur 3D et la caméra CCD
de notre de mire de calibrage dans une position initiale. Puis nous avons déplacé précisément la mire
suivant l’axe x, et fait une nouvelle acquisition. Le déplacement est mesuré dans une zone définie
manuellement à l’aide de la méthode donnée dans la section précédente.
Le Tableau 1 présente différentes mesures de déplacement. Dans notre expérimentation, nous
observons une erreur maximale de mesure d’environ 1mm. Cette erreur est due à l’incertitude des
appareils de mesure (scanner 3D et caméra CCD) et du déplacement prescris, ainsi qu’à la sélection
manuelle des points de mesure.
Zones de recherche
Zones 1 et 2 avec un
déplacement de 20mm
Zones 3 et 4 avec un
déplacement de 40mm
Distances Euclidienne en
3D
20.32
39.96
Dx
Dy
Dz
-20.30
-0.045
-0.940
-39.95
-0.573
0.829
Tableau 1 – Résultats de différentes mesures de déplacement.
La Figure 3 illustre différents résultats de notre expérimentation. Le nuage de points est projeté
sur chaque image acquise avec la caméra CCD, ceci est représenté par les zones bleues sur la figure.
Mesures et Techniques Optiques pour l’Industrie – Nantes 2008
Session ?? : Les sessions seront définies ultérieurement
/4/
Ces zones représentent aussi nos points de mesures de déplacement. Dans cette Figure, nous avons un
déplacement de 20mm entre (a) et (b), et un déplacement de 40mm entre (c) et (d).
(a) Zone 1 sans déplacement
(b) Zone 2 avec déplacement de 20mm
(c) Zone 3 sans déplacement
(d) Zone 4 avec déplacement de 40mm
Figure 3 – Images utilisées pour la mesure de déplacements, avec le nuage de points 3D projeté dans
sur l’image (zones bleues). Le déplacement entre la zone 1 (a) et la zone 2 (b) est de 20mm, et le
déplacement entre la zone 3 (c) et la zone 4 (d) est de 40mm.
7.
Conclusion
Dans cet article, nous avons présenté une méthode d'appariement d'une caméra CCD et d'un
capteur laser 3D permettant d'obtenir un modèle 3D texturé d'un objet observé. Ensuite nous avons
proposé une méthode qui permet de calculer une estimation du déplacement en utilisant le nuage de
points et l’image de l'objet observé. Actuellement, nous améliorons cette méthode en automatisant la
sélection des zones de mesure, et en maîtrisant plus finement les paramètres de calibrage. Ces travaux
s’inscrivent dans un objectif de mesure de champs de déformation 3D pour l’aide à l’élaboration
d’outillage.
Mesures et Techniques Optiques pour l’Industrie – Nantes 2008
Session ?? : Les sessions seront définies ultérieurement
/5/
8.
Bibliographie
1. D. GARCIA, « Mesure de formes et de champs de déplacements tridimensionnels par
stéréo-corrélation d'images », Thèse de doctorat, Institut National Polytechnique de Toulouse,
France, Décembre 2001
2. D .Garcia, Orteu, J.J. , Devy, M.: « Accurate Calibration of a Stereovision Sensor:
Comparison of Different Approaches». 5 Workshop on Visoin, Modeling, and Visualizaiton
2000, Saarbrücken, Germany(2000)
3. D .Garcia, Orteu, J.J. , Devy, M.: « Calibrage précis d’une caméra CCD ou d’un
capteur de vision stéréoscopique». Rapport LAAS No 01332 Colloque Photpmécanique 2001,
Poitiers, France(2001).
4.
1998
G. CLOUD, « Optical methods of engineering analysis », Cambridge University Press,
5. M.A.Sutton. The effects of subpixel image restoration on digital correlation error
estimates.Opt Eng 1988;27(3):173-5
6. M. A.Sutton, Wolters, W.J., Peters, W. H., Ranson, W.F., McNeill, S. R., 1983.
Determination of displacements using an improved digital correlation method. Image and Vision
Computing 1 (3),133-139.
7. M.A.Sutton, Cheng, M., Peters, W. H., Chao, Y.J., McNeill, S.R., 1986. Application of
an optimized digital correlation method to planar deformation analysis.Image and Vision
Computing 4 (3) ,143-150.
8. OD. FAUGERAS, G. TOSCANI, « Camera calibration for 3-D computer vision »,
Proceedings of IEEE International Workshop on Machine Vision ans Machine Intelligence,
Tokyo, Japan, 1987
9. O.D .FAUGERAS, , Toscani, G. : «The calibration problem for stereo». In Proc.
Computer Vision and Pattern Recognition, Miami Beach, Florida, USA, p.15-20(1986).
10. .S. YONEYAMA, A. KITAGAWA, S. IWATA, K. TANI, H. KIKUTA, « Bridge
deflection measurement using digital image correlation », Experimental Techniques, vol. 31, n°
1, pp. 34-40, 2007
11. R. .Horaud, Monga, O.: « Vision par ordinateur: outils fondamentaux (deuxième
edition) » Hermès(1995).
12. WH. PETERS, WF. RANSON, « Digital imaging techniques in experimental stress
analysis », Optical Engineering, vol. 21, n° 3, pp. 427-431, 1982
Mesures et Techniques Optiques pour l’Industrie – Nantes 2008
Session ?? : Les sessions seront définies ultérieurement
/6/

Documents pareils