vision based navigation

Transcription

vision based navigation
Centres de Compétence Technique
CCT SCA – Systèmes de Commande
et Automatique
http://cct.cnes.fr
Workshop
VISION BASED NAVIGATION
November 27th 2013 (09:00 – 18:00)
Institut Aéronautique et Spatial (IAS)
23 Avenue Edouard Belin, 31028 Toulouse, cedex 4
To attend the workshop, please register on the web site :
https://cct.cnes.fr
Registration : https://cct.cnes.fr
Contact : [email protected]
Centres de Compétence Technique
CCT SCA – Systèmes de Commande
et Automatique
http://cct.cnes.fr
Agenda
08h45-09h00
Welcome
09h00-09h45
New trends and technologies in vision-based navigation for challenging space
missions
Dr. Guillermo ORTEGA (Head of the Guidance, Navigation, and Control Section of
ESA)
Robotics and human space exploration space missions have brought astonishing
accomplishments till date (e.g. 12 humans actually walking on the lunar surface). The
ESA roadmaps of technology for the exploration of the Solar System have been
designed to set the goal of fostering robotics exploration with the final aim to support
human exploration. Within those technology roadmaps, vision-based navigation
techniques and technologies play a special and remarkable role. This talk provides a
wide overview of the current technology programs and activities in the area of visionbased navigation, including mission for asteroids (Marco-Polo-R), Phobos
(PHOOTPRINT), Mars (sample return and human), Moon (South Pole landing), Jupiter
(JUICE), and active debris removal (Clean Space). The talk highlights the needs of
active and passive systems, absolute and relative navigation, as well as verification,
and validation techniques to complete the closed loop control system of the complete
GNC chain
09h45-10h15
The integration of vision-based navigation in autonomous space systems
J-F. Hamel (NGC Aerospace)
Notwithstanding the challenges of vision-based navigation system development, the
integration of such systems in complex space systems also presents significant
hurdles. Vision-based navigation system integration in autonomous space systems
leads to many requirements and constraints which extend beyond state estimation
accuracy. The limitations of space-qualified processing platform, the specific needs of
guidance and control and failure tolerance requirements have to be taken into account
during system design and validation. Interface or implementation constraints, whether
they are technical or contractual, also have a major impact on system design. The
presentation will address various vision-based navigation system integration cases, in
closed-loop end-to-end software system validation as well as in embedded real-time
systems, for different of autonomous space vehicles such as Landers and rovers.
Examples of constraints and solutions will be presented and discussed.
10h15-10h45
La navigation basée vision, de l’exploration planétaire aux applications
terrestres
E. KERVENDAL (Astrium)
Identifiée comme une technologie clé pour l’exploration planétaire autonome, la
navigation basée vision est une technologie passive et légère qui figure depuis
plusieurs années dans la feuille de route du CNES et de l’Agence Spatiale
Européenne. Astrium participe activement à cette feuille de route depuis plusieurs
années et propose aujourd’hui une solution de navigation autonome, basée sur une
caméra monoculaire, une centrale inertielle, un algorithme innovant, appelé UFS, et un
filtre de Kalman étendu. Cette solution technologique, résultat de de plusieurs années
Registration : https://cct.cnes.fr
Contact : [email protected]
Centres de Compétence Technique
CCT SCA – Systèmes de Commande
et Automatique
http://cct.cnes.fr
d’études pour l’ESA et le CNES, ainsi que de collaborations au sein du groupe
EADS, permet d’estimer la vitesse et la position relative d’un véhicule par rapport à un
terrain inconnu, sans connaissance à priori. Les différentes étapes de ce
développement et les défis techniques associés sont ainsi discutés dans cette
présentation.
10h45-11h00
Break
11h-11h30
A selection of vision-based navigation techniques for rendez-vous and landing
Clément BOURDARIAS (Astrium Space Transportation France)
Many vision-based navigation techniques have been investigated over the past few
years, driven by the requirements of future missions. This presentation will focus on
several methods for rendez-vous (with visible or infra-red sensors) and planetary
landing
11h30-12h00
Navigation absolue et relative basée sur la vision pour l'atterrissage planétaire
J-L. FARGES, G. SABIRON (ONERA)
Cet exposé présente les apports potentiels de différentes techniques de vision pour
l'atterrissage planétaire autonome. Il se base sur les résultats obtenus dans le cadre
des thèses de Jeff Delaune pour la navigation absolue et de Guillaume Sabiron en ce
qui concerne la navigation relative. Faire un atterrir un véhicule d’exploration planétaire
de façon autonome précisément et en toute sécurité est un défi pour l'exploration
planétaire. Le système de navigation absolue utilise des informations visuelles et
inertielles pour voler au-dessus de terrains plats ou accidentés. L'appariement des
détails détectés dans une image avec des amers 3D cartographiés compense la dérive
d'intégration de mesures inertielles. Des mesures venant d’un algorithme
d’appariement image-carte sont utilisées de façon serrée pour mettre à jour l’état d’un
filtre de Kalman étendu intégrant les données inertielles. Le traitement d’image utilise
les prédictions d’état et de covariance du filtre pour déterminer les régions et échelles
d’extraction dans l’image où trouver des amers non-ambigus. Le traitement local par
amer de l’échelle image améliore de façon significative la répétabilité de leur détection.
Les performances du système sont évaluées sur un banc d’essai représentatif d’une
mission lunaire. La navigation converge jusqu’à une erreur de 4 mètres de moyenne et
47 mètres de dispersion 3 RMS à 3 kilomètres d’altitude à l’échelle. En ce qui
concerne la navigation relative, une approche en deux phases est présentée. En
premier lieu, une méthode bio-mimétique, inspirée du système nerveux et sensoriel
d'insectes volants est proposé comme solution au problème de sécurité de
l'atterrissage. Afin de concevoir un auto-pilote basé uniquement sur le flot optique et
les mesures inertielles, une méthode d'estimation basée sur deux capteurs est
développée: ces capteurs permettent une estimation précise de l'orientation du vecteur
vitesse qui est nécessaire pour une commande optimale en termes de consommation
de l'assiette de l'atterrisseur. De plus, un capteur de mouvement basse vitesse inspiré
de la vision des insectes, qui réalise des mesures angulaires locales mono
dimensionnelles de 1,5 à 25 degrés par seconde et qui pèse seulement 2,8 grammes,
est proposé. Les résultats de test de ce capteur embarqué sur un drone hélicoptère
montrent que le flot optique mesuré correspond à la vérité terrain malgré la présence
de perturbations complexes.
Registration : https://cct.cnes.fr
Contact : [email protected]
Centres de Compétence Technique
CCT SCA – Systèmes de Commande
et Automatique
12h-12h30
http://cct.cnes.fr
Vision based rendezvous experiment performed during the PRISMA extended
mission
M. DELPECH (CNES)
A demonstration of autonomous rendezvous based on angles only was performed by
CNES in October 2011 during the PRISMA extended mission phase. A new on-board
software was implemented n the chaser satellite to process measurements from the
long range camera and achieve angles only navigation in a non cooperative context.
Flight results obtained during this extended phase are presented along with an analysis
of the experiment design and performance shortcomings
12h30-14h
Lunch
14h-14h30
Real-time 3D-cameras for Rendez-vous & Docking to Passive Objects
K. SCHILLING (Würzburg University)
14h30-15h
Application des technologies de caméra 3D TOF (« Time-Of-Flight ») aux
missions spatiales
J. CHRISTY (Thalès Alenia Space France)
L’exposé présentera les différentes technologies 3D disponibles et ce qu’elles
pourraient apporter aux missions spatiales basées vision (en particulier le rendezvous). Nous évoquerons la technologie retenue, la conception préliminaire d’une telle
caméra, la fabrication d’un modèle représentatif, ainsi que les tests envisagés sur
banc. Nous présenterons également la performance attendue, ainsi que la génération
d’images représentatives par simulation : le logiciel haute-fidélité SpiCam développé
par Thales Alenia Space permet l’analyse des performances de la chaîne de
navigation ou des tests en boucle fermée (pour des applications 3D ou 2D).
15h-15h30
Les traitements d’images innovants pour la navigation basée vision
K. KANANI (Astrium)
Depuis quelques années, grâce en particulier à l’explosion des capacités de calcul, le
domaine de la robotique est en constante évolution et propose continuellement des
solutions innovantes facilitant l’autonomie de porteurs terrestres et spatiaux. En
collaboration avec l’INRIA, Astrium a orienté sa R&D sur l’utilisation de ces nouvelles
solutions pour des applications spatiales telles que le rendez-vous avec un objet non
coopératif, la reconstruction tridimensionnelle d’un astéroïde ou la navigation absolue
pour les applications terrestres et interplanétaires. Les différents algorithmes ainsi que
les applications visées seront discutés dans cette présentation.
15h30-16h
Visual Servoing for Thrust-Propelled Vehicles
Henry de Plinval (ONERA)
Flying vehicles need measurements to move safely within their environment, so that
finding proper sensors, and related treatment is a key for mission success. In this
context, videocameras are attractive sensors, because of the wealth of information
they provide while being cheap and light. In this talk, we shall investigate the use of
such visual information directly in the control, without any explicit state reconstruction.
Registration : https://cct.cnes.fr
Contact : [email protected]
Centres de Compétence Technique
CCT SCA – Systèmes de Commande
et Automatique
http://cct.cnes.fr
The interest of this choice is to reduce the time lag between measurement and action,
which is of special interest in the case of helicopters UAVs whose natural instability
requires high frequency control action. We consider the case of a thrust-propelled
vehicle flying in front of a scene of interest and the objective of forcing the current
image provided by an onboard videocamera to fit with a reference image. Both linear
and nonlinear techniques have been applied
16h-16h15
Break
16h15-16h45
Planification de trajectoire pour un rover d'exploration planétaire
Rusu Alexandru (CNES)
Les performances d’un robot d’exploration s’évaluent notamment sur sa capacité à se
déplacer de manière autonome (sans contrôle de trajectoire prédéfinie depuis la
Terre). L'objectif de cette rencontre sera l'occasion de présenter l'état de l'art des
algorithmes de navigation autonome développés au CNES, en mettant l'accent sur les
difficultés et les contraintes d’une mission martienne (consommation d'énergie,
puissance de calcul, mémoire et temps de calcul limités). Un axe de recherche
essentiel concerne les capacités de planification globale. La première approche
consiste en l'utilisation de l'algorithme "D* lite", qui est un planificateur de trajectoire
adapté pour fonctionner dans des environnements dynamiques. Un avantage
important du D* Lite est la possibilité d'utiliser des cartes connues a priori mais à faible
résolution (fournies par un orbiteur par exemple); en contrepartie, il requiert plus de
ressources. La deuxième méthode utilise une carte de navigation multi-échelles, qui
contient des informations à haute résolution autour de l'emplacement courant du rover
et en basse résolution plus loin. Cela permet, en utilisant la même quantité de
mémoire, d'obtenir une couverture plus large de l'environnement, et donc une plus
vaste connaissance pour le planificateur de chemin. Les performances des deux
méthodes proposées sont comparées avec un algorithme développé par le CNES,
intitulé "Navigation Longue Distance". Finalement, le sujet de la planification sous
contraintes sera introduit. On entend par planification sous contraintes la capacité de
calculer des trajectoires qui prennent en compte les contraintes cinématiques du rover
(capacités de braquage notamment). Exécuter des trajectoires composées d'arcs de
cercle (au lieu de segments rectilignes) permettrait de réduire le nombre des rotations
sur place qui impliquent actuellement des temps d'exécution et une consommation
d'énergie plus élevés.
16h45-17h15
Vision-Based Motion Estimation for the ExoMars Rover
F. SOUVANNAVONG (Magellium)
Localization is one of the most critical function for the ExoMars rover autonomy. Both
the daily distance crossed and the number of iterations needed to reach a site of
interest depend on its precision. The Visual Motion Estimation system presented is
designed to satisfy the ExoMars project needs on the localization function. Its main
features are : the respect of the very constrained resources of the flight computer, an
accurate short term (20cm) and long term (100m) localization given at 0.1Hz against
more than 1Hz for terrestrial systems, efficient algorithms to fit time and memory
requirements and a modular design to balance computation time and localization
accuracy. The algorithm is tested on more than 300 real images acquired in a Mars-like
environment every 200mm. All images are precisely localized in 6D by a laser tracker.
We therefore give the real performances of our VME function that can later be used to
Registration : https://cct.cnes.fr
Contact : [email protected]
Centres de Compétence Technique
CCT SCA – Systèmes de Commande
et Automatique
http://cct.cnes.fr
specify a visual localization function for an autonomous navigation system. Our
function demonstrates a localization accuracy of less than 2m after a traverse of 100m,
when accelerometers are used to correct rover pitch and roll. Adding two extra azimuth
correction steps allows to get an error inferior to 1m.
17h15-17h45
AD
M. DEVY (LAAS-CNRS)
17h45-18h
Conclusion
Registration : https://cct.cnes.fr
Contact : [email protected]
Centres de Compétence Technique
CCT SCA – Systèmes de Commande
et Automatique
IAS
CNES
Registration : https://cct.cnes.fr
Contact : [email protected]
http://cct.cnes.fr