vision based navigation
Transcription
vision based navigation
Centres de Compétence Technique CCT SCA – Systèmes de Commande et Automatique http://cct.cnes.fr Workshop VISION BASED NAVIGATION November 27th 2013 (09:00 – 18:00) Institut Aéronautique et Spatial (IAS) 23 Avenue Edouard Belin, 31028 Toulouse, cedex 4 To attend the workshop, please register on the web site : https://cct.cnes.fr Registration : https://cct.cnes.fr Contact : [email protected] Centres de Compétence Technique CCT SCA – Systèmes de Commande et Automatique http://cct.cnes.fr Agenda 08h45-09h00 Welcome 09h00-09h45 New trends and technologies in vision-based navigation for challenging space missions Dr. Guillermo ORTEGA (Head of the Guidance, Navigation, and Control Section of ESA) Robotics and human space exploration space missions have brought astonishing accomplishments till date (e.g. 12 humans actually walking on the lunar surface). The ESA roadmaps of technology for the exploration of the Solar System have been designed to set the goal of fostering robotics exploration with the final aim to support human exploration. Within those technology roadmaps, vision-based navigation techniques and technologies play a special and remarkable role. This talk provides a wide overview of the current technology programs and activities in the area of visionbased navigation, including mission for asteroids (Marco-Polo-R), Phobos (PHOOTPRINT), Mars (sample return and human), Moon (South Pole landing), Jupiter (JUICE), and active debris removal (Clean Space). The talk highlights the needs of active and passive systems, absolute and relative navigation, as well as verification, and validation techniques to complete the closed loop control system of the complete GNC chain 09h45-10h15 The integration of vision-based navigation in autonomous space systems J-F. Hamel (NGC Aerospace) Notwithstanding the challenges of vision-based navigation system development, the integration of such systems in complex space systems also presents significant hurdles. Vision-based navigation system integration in autonomous space systems leads to many requirements and constraints which extend beyond state estimation accuracy. The limitations of space-qualified processing platform, the specific needs of guidance and control and failure tolerance requirements have to be taken into account during system design and validation. Interface or implementation constraints, whether they are technical or contractual, also have a major impact on system design. The presentation will address various vision-based navigation system integration cases, in closed-loop end-to-end software system validation as well as in embedded real-time systems, for different of autonomous space vehicles such as Landers and rovers. Examples of constraints and solutions will be presented and discussed. 10h15-10h45 La navigation basée vision, de l’exploration planétaire aux applications terrestres E. KERVENDAL (Astrium) Identifiée comme une technologie clé pour l’exploration planétaire autonome, la navigation basée vision est une technologie passive et légère qui figure depuis plusieurs années dans la feuille de route du CNES et de l’Agence Spatiale Européenne. Astrium participe activement à cette feuille de route depuis plusieurs années et propose aujourd’hui une solution de navigation autonome, basée sur une caméra monoculaire, une centrale inertielle, un algorithme innovant, appelé UFS, et un filtre de Kalman étendu. Cette solution technologique, résultat de de plusieurs années Registration : https://cct.cnes.fr Contact : [email protected] Centres de Compétence Technique CCT SCA – Systèmes de Commande et Automatique http://cct.cnes.fr d’études pour l’ESA et le CNES, ainsi que de collaborations au sein du groupe EADS, permet d’estimer la vitesse et la position relative d’un véhicule par rapport à un terrain inconnu, sans connaissance à priori. Les différentes étapes de ce développement et les défis techniques associés sont ainsi discutés dans cette présentation. 10h45-11h00 Break 11h-11h30 A selection of vision-based navigation techniques for rendez-vous and landing Clément BOURDARIAS (Astrium Space Transportation France) Many vision-based navigation techniques have been investigated over the past few years, driven by the requirements of future missions. This presentation will focus on several methods for rendez-vous (with visible or infra-red sensors) and planetary landing 11h30-12h00 Navigation absolue et relative basée sur la vision pour l'atterrissage planétaire J-L. FARGES, G. SABIRON (ONERA) Cet exposé présente les apports potentiels de différentes techniques de vision pour l'atterrissage planétaire autonome. Il se base sur les résultats obtenus dans le cadre des thèses de Jeff Delaune pour la navigation absolue et de Guillaume Sabiron en ce qui concerne la navigation relative. Faire un atterrir un véhicule d’exploration planétaire de façon autonome précisément et en toute sécurité est un défi pour l'exploration planétaire. Le système de navigation absolue utilise des informations visuelles et inertielles pour voler au-dessus de terrains plats ou accidentés. L'appariement des détails détectés dans une image avec des amers 3D cartographiés compense la dérive d'intégration de mesures inertielles. Des mesures venant d’un algorithme d’appariement image-carte sont utilisées de façon serrée pour mettre à jour l’état d’un filtre de Kalman étendu intégrant les données inertielles. Le traitement d’image utilise les prédictions d’état et de covariance du filtre pour déterminer les régions et échelles d’extraction dans l’image où trouver des amers non-ambigus. Le traitement local par amer de l’échelle image améliore de façon significative la répétabilité de leur détection. Les performances du système sont évaluées sur un banc d’essai représentatif d’une mission lunaire. La navigation converge jusqu’à une erreur de 4 mètres de moyenne et 47 mètres de dispersion 3 RMS à 3 kilomètres d’altitude à l’échelle. En ce qui concerne la navigation relative, une approche en deux phases est présentée. En premier lieu, une méthode bio-mimétique, inspirée du système nerveux et sensoriel d'insectes volants est proposé comme solution au problème de sécurité de l'atterrissage. Afin de concevoir un auto-pilote basé uniquement sur le flot optique et les mesures inertielles, une méthode d'estimation basée sur deux capteurs est développée: ces capteurs permettent une estimation précise de l'orientation du vecteur vitesse qui est nécessaire pour une commande optimale en termes de consommation de l'assiette de l'atterrisseur. De plus, un capteur de mouvement basse vitesse inspiré de la vision des insectes, qui réalise des mesures angulaires locales mono dimensionnelles de 1,5 à 25 degrés par seconde et qui pèse seulement 2,8 grammes, est proposé. Les résultats de test de ce capteur embarqué sur un drone hélicoptère montrent que le flot optique mesuré correspond à la vérité terrain malgré la présence de perturbations complexes. Registration : https://cct.cnes.fr Contact : [email protected] Centres de Compétence Technique CCT SCA – Systèmes de Commande et Automatique 12h-12h30 http://cct.cnes.fr Vision based rendezvous experiment performed during the PRISMA extended mission M. DELPECH (CNES) A demonstration of autonomous rendezvous based on angles only was performed by CNES in October 2011 during the PRISMA extended mission phase. A new on-board software was implemented n the chaser satellite to process measurements from the long range camera and achieve angles only navigation in a non cooperative context. Flight results obtained during this extended phase are presented along with an analysis of the experiment design and performance shortcomings 12h30-14h Lunch 14h-14h30 Real-time 3D-cameras for Rendez-vous & Docking to Passive Objects K. SCHILLING (Würzburg University) 14h30-15h Application des technologies de caméra 3D TOF (« Time-Of-Flight ») aux missions spatiales J. CHRISTY (Thalès Alenia Space France) L’exposé présentera les différentes technologies 3D disponibles et ce qu’elles pourraient apporter aux missions spatiales basées vision (en particulier le rendezvous). Nous évoquerons la technologie retenue, la conception préliminaire d’une telle caméra, la fabrication d’un modèle représentatif, ainsi que les tests envisagés sur banc. Nous présenterons également la performance attendue, ainsi que la génération d’images représentatives par simulation : le logiciel haute-fidélité SpiCam développé par Thales Alenia Space permet l’analyse des performances de la chaîne de navigation ou des tests en boucle fermée (pour des applications 3D ou 2D). 15h-15h30 Les traitements d’images innovants pour la navigation basée vision K. KANANI (Astrium) Depuis quelques années, grâce en particulier à l’explosion des capacités de calcul, le domaine de la robotique est en constante évolution et propose continuellement des solutions innovantes facilitant l’autonomie de porteurs terrestres et spatiaux. En collaboration avec l’INRIA, Astrium a orienté sa R&D sur l’utilisation de ces nouvelles solutions pour des applications spatiales telles que le rendez-vous avec un objet non coopératif, la reconstruction tridimensionnelle d’un astéroïde ou la navigation absolue pour les applications terrestres et interplanétaires. Les différents algorithmes ainsi que les applications visées seront discutés dans cette présentation. 15h30-16h Visual Servoing for Thrust-Propelled Vehicles Henry de Plinval (ONERA) Flying vehicles need measurements to move safely within their environment, so that finding proper sensors, and related treatment is a key for mission success. In this context, videocameras are attractive sensors, because of the wealth of information they provide while being cheap and light. In this talk, we shall investigate the use of such visual information directly in the control, without any explicit state reconstruction. Registration : https://cct.cnes.fr Contact : [email protected] Centres de Compétence Technique CCT SCA – Systèmes de Commande et Automatique http://cct.cnes.fr The interest of this choice is to reduce the time lag between measurement and action, which is of special interest in the case of helicopters UAVs whose natural instability requires high frequency control action. We consider the case of a thrust-propelled vehicle flying in front of a scene of interest and the objective of forcing the current image provided by an onboard videocamera to fit with a reference image. Both linear and nonlinear techniques have been applied 16h-16h15 Break 16h15-16h45 Planification de trajectoire pour un rover d'exploration planétaire Rusu Alexandru (CNES) Les performances d’un robot d’exploration s’évaluent notamment sur sa capacité à se déplacer de manière autonome (sans contrôle de trajectoire prédéfinie depuis la Terre). L'objectif de cette rencontre sera l'occasion de présenter l'état de l'art des algorithmes de navigation autonome développés au CNES, en mettant l'accent sur les difficultés et les contraintes d’une mission martienne (consommation d'énergie, puissance de calcul, mémoire et temps de calcul limités). Un axe de recherche essentiel concerne les capacités de planification globale. La première approche consiste en l'utilisation de l'algorithme "D* lite", qui est un planificateur de trajectoire adapté pour fonctionner dans des environnements dynamiques. Un avantage important du D* Lite est la possibilité d'utiliser des cartes connues a priori mais à faible résolution (fournies par un orbiteur par exemple); en contrepartie, il requiert plus de ressources. La deuxième méthode utilise une carte de navigation multi-échelles, qui contient des informations à haute résolution autour de l'emplacement courant du rover et en basse résolution plus loin. Cela permet, en utilisant la même quantité de mémoire, d'obtenir une couverture plus large de l'environnement, et donc une plus vaste connaissance pour le planificateur de chemin. Les performances des deux méthodes proposées sont comparées avec un algorithme développé par le CNES, intitulé "Navigation Longue Distance". Finalement, le sujet de la planification sous contraintes sera introduit. On entend par planification sous contraintes la capacité de calculer des trajectoires qui prennent en compte les contraintes cinématiques du rover (capacités de braquage notamment). Exécuter des trajectoires composées d'arcs de cercle (au lieu de segments rectilignes) permettrait de réduire le nombre des rotations sur place qui impliquent actuellement des temps d'exécution et une consommation d'énergie plus élevés. 16h45-17h15 Vision-Based Motion Estimation for the ExoMars Rover F. SOUVANNAVONG (Magellium) Localization is one of the most critical function for the ExoMars rover autonomy. Both the daily distance crossed and the number of iterations needed to reach a site of interest depend on its precision. The Visual Motion Estimation system presented is designed to satisfy the ExoMars project needs on the localization function. Its main features are : the respect of the very constrained resources of the flight computer, an accurate short term (20cm) and long term (100m) localization given at 0.1Hz against more than 1Hz for terrestrial systems, efficient algorithms to fit time and memory requirements and a modular design to balance computation time and localization accuracy. The algorithm is tested on more than 300 real images acquired in a Mars-like environment every 200mm. All images are precisely localized in 6D by a laser tracker. We therefore give the real performances of our VME function that can later be used to Registration : https://cct.cnes.fr Contact : [email protected] Centres de Compétence Technique CCT SCA – Systèmes de Commande et Automatique http://cct.cnes.fr specify a visual localization function for an autonomous navigation system. Our function demonstrates a localization accuracy of less than 2m after a traverse of 100m, when accelerometers are used to correct rover pitch and roll. Adding two extra azimuth correction steps allows to get an error inferior to 1m. 17h15-17h45 AD M. DEVY (LAAS-CNRS) 17h45-18h Conclusion Registration : https://cct.cnes.fr Contact : [email protected] Centres de Compétence Technique CCT SCA – Systèmes de Commande et Automatique IAS CNES Registration : https://cct.cnes.fr Contact : [email protected] http://cct.cnes.fr