Fiche individuelle d`activité - Université Paris-Sud
Transcription
Fiche individuelle d`activité - Université Paris-Sud
Contractualisation vague D 2010-2013 Unité de recherche : dossier unique mai 2008 Fiche individuelle d’activités concernant les 4 dernières années Enseignant-chercheur (la fiche ne devra pas dépasser 4 pages) Nom : Prénom : Date de naissance : Courriel : Reynaud Roger 31-12-1956 [email protected] Établissement d’affectation ou organisme d’appartenance : Université Paris Sud 11 Unité de recherche d’appartenance En 2006-2009 : UMR 8622 INSTITUT D’ÉLECTRONIQUE FONDAMENTALE, Université Paris-Sud 11, directeur : Jean-Michel Lourtioz Dans le cadre d’une demande de reconnaissance d’unité en 2010 : INSTITUT D’ÉLECTRONIQUE FONDAMENTALE, Université Paris-Sud 11, directeur : Enseignant-chercheur x Bénéficiaire de la PEDR : o HDR x Corps-grade : PR1C Membre IUF junior o senior o Situation particulière : non Domaine scientifique principal : Rattachement scientifique : o Section du CNU : 61 9 Sciences et technologies de l'information et de la communication Points forts de vos activités de recherche et résultats marquants : Thématique : Architecture pour le contrôle de processus appliqué au co-pilotage de voiture avec intelligence embarquée. Prototypage de systèmes autonomes (capteurs, communications, algorithmes rapides, structures de calcul associées, Vision Située). Fusion de données (architecture multi-capteurs, autonomie d’un agent, modélisation hybride d’information, possibilité, probabilité et mécanismes de fusion). Complexité et contrôle des Systèmes Autonomes. Évaluation d’un système imageur intelligent. Une évaluation est menée entre des systèmes existants à base de capteurs CMOS-APS et des rétines CMOS d’AXIS. Des prétraitements sont implantés et comparés [Elouardi04-05-06-07]. Le codesign d'un système de vision "on-chip" supportant vision active et une certaine intelligence permet la définition des fonctionnalités implantées sous forme matérielle ou logicielle. Ce travail d'Adéquation Algorithme Architecture donne les critères de sélection architecturale d’opérateurs à insérer dans le système en fonction de l'application envisagée. Spécification UML de capteurs intelligents [Jouvray 04-05] Collaboration avec le CEA/LIST (approche globale temps réels"Accord/UML"), Dép."Développement par Composants de Systèmes Embarqués". A partir d’une spécification UML, les contraintes physiques et temporelles des capteurs sont décrites à différents niveaux d'abstraction et fournissent des modèles. L’IEF apporte son expertise sur les applications embarquées (interaction avec l'environnement au travers de capteurs/actionneurs et de bus de terrain) et des compétences alliant la modélisation physique, l’Informatique matérielle et logicielle jusqu'à l'implantation de mécanismes de régulation. La formalisation et la spécification des fonctions traduisent une méthodologie (projeter ce qu'on voudrait faire sur ce qu'on est capable de faire : expertise IEF). Les concepts de capture dynamique sont centraux : ils nécessitent plusieurs plates-formes pour expérimenter des applications de contrôle/commande à des niveaux d'abstraction différents, vision dans laquelle une architecture fonctionnelle peut se projeter sur une architecture matérielle et où la complexité de cette projection est « absorbée » par des bus multiplexés (de type CAN). Bouclage invariant toujours prêt pour le suivi en temps réel. Il s’agit d’un travail sur la planification et le contrôle de trajectoires sous différentes échelles de temps. Le véhicule PICAR part de l’IEF en fond de vallée et monte sur le plateau (PPF VARVIC). Un humain dans un dispositif immersif de réalité virtuelle téléopère le véhicule au travers de différents réseaux. Les consignes arrivent au véhicule sous 3 échelles de temps : toutes les 100 millisecondes, toutes les 3 secondes, toutes les minutes ou plus. Le système embarqué de planification et contrôle de trajectoire ignore quand les consignes sont envoyées et il faut mettre en œuvre une planification sous des objectifs correspondant à 3 termes temporels, d’où la dénomination de bouclage invariant toujours prêt [Mounier04]. Cette brique est fondamentale dans les systèmes autonomes. PDF Creator - PDF4Free v2.0 http://www.pdf4free.com -1- Fusion/extraction de marqueurs, indicateurs de conduite (Bruno Larnaudie). Ce travail s’inscrit dans le cadre de l’ANR SUMOTORI en collaboration avec l’INRETS, le CEA/LIST, le CEESAR et PEUGEOT SA. L’objectif est de définir des indicateurs de conduite anticipant une situation conduisant à la chute d’un motocycle. Une architecture de capteurs et traitements [Larnaudie, Bouaziz] permet l’acquisition, le stockage modulaire, la communication au travers du bus CAN, la datation des événements. Cette architecture embarquée sur un motocycle a produit des expérimentations constituées en base de données pour une exploitation hors-ligne. Le dépouillement et l’analyse des mesures ont fait apparaître plusieurs indicateurs qui après fusion peuvent fournir un indicateur de situation accidentogène et un indicateur de chute imminente. Les délais entre la caractérisation de ces indicateurs et la chute véritable sont presque suffisants pour gonfler un gilet de protection avant la chute. Une suite est prévue dans le projet ANR DAMOTO pour rendre plus robuste la fusion des indicateurs partiels en limitant le taux de fausses alarmes. Architecture de systèmes multicapteurs. Ce travail propose une synthèse sur les architectures et modèles de fusion utilisés pour combiner et intégrer des données dans un système de fusion de données. Différentes approches permettent à un concepteur de développer ou adapter son propre modèle de fusion issu de deux domaines dans lesquels la recherche est active, le domaine militaire de la fusion de données et le domaine de la robotique civile. Le modèle fonctionnel intitulé JDL apporte une vision systémique de la fusion de données appliquée au suivi de cibles dans un champ de bataille, des modèles différents montrent l’évolution des façons de penser en ce qui concerne les systèmes de fusion. Les principes fondamentaux sont ensuite décrits concernant la conception d’un système de fusion multi-capteurs tant sur le plan de son architecture fonctionnelle que matérielle [TS’05]. Modélisation et intégration pour la fusion de données dans la surveillance du champ de bataille (EADS). Ce travail réalise une fusion de niveau II au sens du J.D.L. Le niveau I comprend le pistage cinématique et la classification des cibles individuelles. Le niveau II comprend la formation des groupes et leur pistage en modélisant les connaissances appliquées à la formation et au pistage des groupes de cibles terrestres et produit des résultats à partir de mesures reçues dans des conditions rencontrées sur les systèmes réels. La problématique est la modélisation des connaissances et des éléments contextuels dynamiques, en fonction de leur nature et de leur intérêt, et les moyens de les exploiter au bénéfice de la gestion et du pistage de groupes (opérations de constitution, scission d'un groupe, fusion de groupes différents, et dissolution). Une fonction d'agrégation analyse les observations reçues pour éventuellement former des groupes en se basant sur un catalogue de formes possibles. Les agrégats sont constitués suite à la reconnaissance d'une des structures répertoriées [Gattein06]. L’état interne est défini par une position, une vitesse d'ensemble, une matrice de covariance indiquant l'étendue de l'agrégat, la morphologie spatiale de l'agrégat, la classification des cibles constituantes. Un ou plusieurs états internes coexistent selon les manœuvres envisagées et il faut modéliser l'évolution des grandeurs cinématiques, et également de la morphologie du groupe et des types de cibles qui le forment et de la connaissances contextuelle sur l’évolution de l'incertitude relative à l'état des groupes d'intérêt. On peut citer l'exemple classique d'un convoi contraint à suivre une route ou une vallée. La vision située intègre les principes d’architecture des systèmes de fusion en conservant les apports des différents systèmes de perception active (vision active, perception active, vision animée, vision orientée objectifs et tâches) qui ont mis en place des stratégies optimisant la gestion des ressources du système et de l’environnement pour maximiser l’apport d’information consistante en considérant que l’information non utile occupe des ressources et perturbe le résultat. La vision située fait de même, mais elle considère à un niveau plus élevé une stratégie opportuniste basée sur des mécanismes de planification et d’anticipation pour enchaîner efficacement les tâches. En particulier, elle gère au plus tôt l’abandon des tâches qui ne présentent plus d’intérêt, la précision ou la certitude des résultats ne permettant pas au bon moment de décider, la tâche étant doublée par un arc réflexe. Dans cette philosophie, il existe une dualité de représentation entre une vision automatique orientée boucles de contrôle imbriquées d’un système de fusion (facilitant la mise en place d’un superviseur opérationnel dont le fonctionnement peut être prouvé ou pour le moins prédit) et une vision orientée flux (de données, de contrôles, de méta contrôles, …) mettant en avant les relations sémantiques entre les différents modules implantant des fonctionnalités dont la définition peut alors se rapprocher des mécanismes de raisonnement existant chez l’homme. PPF VARVIC : Vision Artificielle et Réalité VIrtuelle pour le Copilotage [Colaboration LSS, LIMSI, LRI]. Les situations où un opérateur humain se déplaçant dans un environnement imparfaitement connu et évolutif pourrait bénéficier d'une assistance informatisée sont variées : conduite de véhicules, déplacement de personnes handicapées, pilotage à distance de systèmes en milieu hostile, ... La vision artificielle devient une aide à la navigation ou à l’action du système mobile, qui reste sous le contrôle de l'opérateur humain. Elle a pour objet la recherche et l'identification de repères prévus (signes, balises, refuges, parois, passages, interdictions) à partir des connaissances mémorisées ou acquises par le système, ou d'obstacles imprévus. Un aspect essentiel est la palette de compétences scientifiques qu'il impose : électroniciens, traiteurs de signaux et d'images, architectes, automaticiens, biologistes, cogniticiens, spécialistes de l'interaction homme-machine et de la réalité virtuelle. Face à la complexité du problème traité, un tel regroupement est réalisé sur U-PSUD pour explorer de nouvelles voies scientifiques, construit autour de 6 actions scientifiques basées sur l’utilisation de 3 plates-formes matérielles, un dispositif immersif, la plate-forme véhicule PICAR et un camion à l’échelle 1/8ème. La démonstration finale n’a été que partielle, le véhicule fonctionnant de manière quasi-autonome, mas pas en mode téléopéré. Pôle System@tic : le projet SAFEAROUND vise un démonstrateur de système de protection périmétrique du futur. Les fonctionnalités sont : une imagerie hémisphérique temps réel haute résolution visible et infrarouge ; une détection par capteur sismique ; une gestion et localisation des alarmes basée sur une classification par fusion des données visibles, thermiques et sismiques : un interface avec un opérateur humain. L’IEF est en charge des techniques de classification par fusion de données (Le Hégarat, Reynaud) et des techniques d’accélération des traitements d’images (Lacassagne). HGH fournit un nouveau capteur combiné visible et infrarouge, Martec fournit un nouveau capteur sismique multiples, Evitech est en charge de la réalisation du système informatique de récupération des données et de traitement. L’originalité des travaux de l’IEF repose sur PDF Creator - PDF4Free v2.0 http://www.pdf4free.com -2- le développement de deux modèles, l’un probabiliste, l’autre évidentiel, pour combiner des données asynchrones en utilisant des fonctions de coût prenant en compte : la forme, la localisation ; le mouvement ; un terme d’attache aux données. Dans le cadre du modèle évidentiel, une nouvelle règle de fusion prenant en compte le caractère plus ou moins distinct des sources à combiner a été proposée. L’étude de ses propriétés mathématiques a montré qu’elle permettait de passer de la règle conjonctive à la règle prudente, les deux règles principalement utilisées jusqu’à présent. Une approche à base de processus ponctuels marqués est utilisée de façon globale pour gérer l’apparition et la disparition des pistes. Un travail d’optimisation du codage concerne la parallélisation des traitements à base de processus ponctuels marqués. Je participe en collaboration avec le prof Le Hégarat à l’encadrement de deux ingénieurs en CDD Cyrille André et Mohamed Bennallal, d’un stage ingénieur en 3ème année Moez Ammar et d’un stage de master recherche Wael Elloumi. Le projet LOVE de détection de vulnérable (piéton ou cycliste) est un projet ANR PREDIT avec un label SYSTEM@TIC et MOVeo pour la région francilienne. Les équipes proposent des briques logicielles ou matérielles dans 3 sous-programmes. L’IEF est impliquée : dans le SP1, partie matérielle et récupération des données, l’IEF participe à la définition des ressources de calcul et à la validation des données récupérées (Post-traitements pour améliorer la calibration stéréo) ; dans le SP2, briques logicielles de traitement d’images, l’IEF propose ses propres traitements d’images originaux à base de V-disparité, de détection de mouvement, de traitement couleur ; dans le SP3, fusion de données, nous défendons une approche Systèmes Autonomes. Notre découpe correspond à une boucle de contrôle - supervision en 3 sous tâches : à partir de la détection du mouvement propre du véhicule et de la localisation des vulnérables, nous calculons un ensemble de zones d’intérêt qui servent d’entrées aux blocs de traitements d’images afin de limiter la quantité et surtout la complexité des calculs ; les traitements du SP2 sont alors réalisés sur ces zones, et une fusion des résultats issus de plusieurs traitement est réalisée en prenant en compte les modèles d’évolution des trajectoires des vulnérables ; enfin un module de supervision gère les différentes pistes obtenues et actualise une carte des vulnérables. Les résultats des traitements des différents labos sont comparés dans la sous tâche SP4 et évalués à partir de vérités terrain. Outre le travail de benchmarking des blocs de traitement (ressources consommées, qualité des résultats), l’IEF défend la notion de systèmes autonomes et notre capacité a effectué un portage d’application efficace en utilisant cette notion. Je participe à l’encadrement d’un ingénieur en CDD Emmanuel Battesti. Production scientifique : Data fusion, vision située, systèmes autonomes 07 Le Hégarat-Mascle S., Reynaud R., André C., Kallel A., "Use of the adaptive-cautious rule for combination of separable evidences", COGIS’07, Stanford, California, USA, nov 2007. 07 Zavidovique B., Reynaud R., "La vision située: un concept pour faciliter l'autonomie des systèmes", Traitement du Signal, vol. TS-24, n° 5, p. 369, 14 pages, 2007 06 Beliard C., Janez F., Reynaud R., "An Architecture To Recognize Land Target In Sar And Optical Images" in COGIS'06, 8 pages, Session 9A: Multisensor Management Architecture and Strategies, cdrom ISBN 2-912328-29-2, 2006. 06 Gattein S., Gatepaille S., Reynaud R., Vannoorenberghe P., "An adaptive non-kinematic data integration framework for ground target tracking" in COGIS’06, 8 p, Session Battlefield Surveillance, CDROM ISBN 2-912328-29-2, Paris, 2006. 05 Reynaud R., Bouaziz S., "Architecture de système multicapteurs", Traitement du Signal, vol. TS-22, num. 4, p. 393, 12 pages, 2005, ISSN : 0765-0019. 04 Mounier H., Bouaziz S., Pereirra DA S., P., Reynaud , R., Rouchon , P., "Premiers pas en bouclage invariant toujours prêt pour le suivi de trajectoires en temps réel" in 3ème Conf Francophone Int. d’Automatique, CDROM, 8 pages, Douz, 2004 04 Mounier H., Bouaziz S., Reynaud R., "A first step towards anytime invariant quasi static feedback for real time tracking" in IEEE Int. Conf. on Information & Communication Technologies ICTIS’04, CDROM, 6 pages, Damas, 2004. Smart sensors 07 Elouardi A., Bouaziz S., Dupret A., Lacassagne L., Klein J.-O., Reynaud R., "Image Processing Vision Systems: Standard Image Sensors Versus Retinas", IEEE trans. on Instrumentation and Measurement, vol.IM 56, n° 5, p. 1675, 13 p, 2007 07 Elouardi A., Bouaziz S., Dupret A., Lacassagne L., Klein J.-O., Reynaud R., "Time Comparison in Image Processing: APS Sensors versus an Artificial Retina Based Vision System", Measurement Science & Technology, vol. 18, p. 2817, 10 pages, 2007 06 Elouardi A., Bouaziz S., Dupret A., Lacassagne L., Klein J., Reynaud R., "A Smart Sensor Based Vision System: Implementation and Evaluation", Applied physics, vol. 39, p. 1694, 17 pages, 2006, Doi: 10.1088/0022-3727/39/8/033 07 Elouardi A., Bouaziz S., Dupret A., Lacassagne L., Klein J.-O., Reynaud R., "Active Pixel Sensors and Smart Retinas: Test and Evaluation" in IEEE Information and Communication Techn. Int. Symp. ICTIS’07, CDROM, 4 pages, 2007 06 Elouardi A., Bouaziz S., Dupret A., Lacassagne L., Klein J.-O., Reynaud R., "A Smart Sensor for Image Processing: Towards a System on Chip", in IEEE Int. Symp. on Industrial Electronics, vol. IE’06-TH8892, p. 2857, 6 pages, 2006. 05 Elouardi A., Bouaziz S., Dupret A., lacassagne L., Klein Jacques O., Reynaud R. "A CMOS Retina Based Vision System" in IEEE Information and Communication Technologies Int. Symposium ICTIS’05, p. 128, 7 pages, Tetuan, 2005 05 Jouvray C., Gerard S., Terrier F., Bouaziz S., Reynaud R., "UML Methodology for Smart Transducer Integration in RealTime Embedded Systems" in IEEE Intelligent Vehicles IV’05, CD-ROM, 6 pages, Las Vegas, 2005 04 Jouvray C., Gérard S., Terrier F., Bouaziz S., Reynaud R., "Networked UML modeling sensors" in IEEE ICTTA’04, Int.Conf. On Information & Communication Technologies: from Théory to Applications, vol. 1, p. 307-314, Damas, 2004. 04 Jouvray C., Gérard S., Terrier F., Bouaziz S., Reynaud R., "Smart Sensor Modeling with the UML for Real-Time Embedded Applications" in Proceedings of Intelligent Vehicle IV’04, CDROM, 6 pages, Parme, 2004 04 Elouardi A., Bouaziz S., Dupret A., Lacassagne L., Klein J., Reynaud R., "Modeling and Calibrating an on Chip Vision System with a CMOS Retina" in IEEE. ICTTA’04, CDROM, 6 pages, 2004 04 Elouardi A., Bouaziz S., Dupret A., Klein J.-O., Reynaud R., "Image Processing Vision System Implementing a Smart Sensor" in Proc. of IEEE Instrumentation and Measurement Technology Conf., IMTC’04, p. 445-451, Como, 2004 PDF Creator - PDF4Free v2.0 http://www.pdf4free.com -3- 04 Elouardi A., Bouaziz S., Dupret A., Klein J.-O., Reynaud R., "On Chip Vision System Architecture Using a CMOS Retina" in Proc. of IEEE Intelligent Vehicle Symposium, IV’04, p. 206, 6 pages, Parma, 2004 04 Elouardi A., Bouaziz S., Dupret A., Lacassagne L., Klein J.-O., Reynaud R., "CMOS Image Sensor versus Retina Experience » , IEEE Sensors 2004, CDROM, 6 pages, Vienne, 2004 Extraction d’indices de conduite 07 Bouaziz S., Reynaud R., Larnaudie B., Elouardi A, "Experimental Platform Car for Automatic Control Applications" in IEEE Information and Communication Technologies Int. Symp. ICTIS’07, CDROM 4 pages, , FES, Maroc, 2007. 06 Larnaudie B., Bouaziz S., Maurin T., Espié S., Reynaud R., "Experimental study of a Motorcycle platform for dynamic model extraction" in Proc. of the IEEE ICTTA: from Theory to Applications, vol. 1, p. 760, 6 pages, Damascus, 2006 06 Larnaudie B., Bouaziz S., Maurin T., Espié S., Reynaud R., "Motorcycle platform for dynamic model extraction" in IEEE Intelligent Vehicle IV’06, vol. 1, num. 13-10, p. 492, 6 pages, Tokyo, Japan, 2006 05 Larnaudie B., Bouaziz S., Maurin T., Espie S., Reynaud R., "Experimental study of a Motorcycle data logger for dynamic model extraction" in IEEE Information and Communication Technologies Int. Symp. ICTIS, p. 156, 7 pages, Tetuan, Maroc, 2005 Autres formes de production (brevets, ouvrages, rapports d’expertise,…) 08 Le Cadre J.-P., Nimier V., Reynaud R., "Fusion in signal processing"; in Information fusion in signal and image processing. Major probabilistic and non-probabilistic numerical approaches., Isabelle Bloch, ISTE WILEY, Digital Image and Signal Processing series, p. 25-47, Chippenham, England, 2008. 05 Zavidovique B., Reynaud R, "Situated vision: a step further towards autonomous systems", in Human and Machine Perception, Vitulano, Di Gesu, World Scientific, p. 131, 29 pages; ISBN 981-238-431-6, 2005. 04-07Reynaud R., "Aspects systèmes en fusion de données : 1- problèmes de représentation ; 2- Exemple d’architecture fonctionnelle.", Collège de polytechnique, session « Pour les systèmes multicapteurs, la fusion de données », Palaiseau, 2004-2005-2006-2007. 3) Points forts de vos activités relevant des missions autres que la recherche : § Montage de la licence pro MMIC de U-PSUD en 2006 ; resp. pédagogique de l’option capteur de mouvement § Correspondant U-PSUD dans le MASTER ISIC co-habilité X et INSTN ; resp. de l’option Systèmes Autonomes § Cours au collège de Polytechnique, en fusion de données 2004-05-06-07 § Expertise au groupe CT13 « Fusion de données » de la DGA , 2006. § Membre du comité de programme du RTRA Digiteo depuis 2006. § Membre extérieur du Comité d’Evaluation et d’Orientation dans deux départements DTIM et DEMR de l’ONERA. o DTIM au titre d’une expertise de la thématique « Fusion de données » en 2002, 2003, 2004, 2005, 2006. o § § § § § § § § DEMR au titre d’une expertise du thème « Furtivité Radar » en 2004. Commission de spécialistes 61 de U-PSUD depuis 1990à 2006, 61-63 de l'ENSEA Cergy depuis 02 à 2008. Chairman of the Steering Committee of the International Conf. on COGnitive systems with Interactive Sensors, COGIS’06, Paris 15-17 Mars 2006, Chairman of the Steering Committee of the International Conf. on COGnitive systems with Interactive Sensors, COGIS’07, Standford 19-20 octobre 2007. Membre du comité régional Ile de France du Pôle de compétitivité MOV’eo Membre du groupe Num@tec Automotive de System@tic depuis 2005 Co-éditeurs de EURASIP Journal on Embedded systems, N° spécial Embedded systems for intelligent Vehicles 2007 7 Reviews pour différents journaux Expertises de projet ANR Predit 2006-2008 Responsable Dépt de recherche AXIS de 2000 à 2006, responsable de la plate forme PICAR depuis 2007 Signature de la personne concernée par cette fiche d'activité Je certifie n’avoir demandé mon rattachement qu’à une seule unité de recherche en demande de reconnaissance. Date : 14 mai 2008 Signature : Prof. Roger Reynaud Signature du responsable de l'unité de recherche à la date de dépôt du dossier Date : Signature : Jean-Michel Lourtioz, Directeur de l’IEF PDF Creator - PDF4Free v2.0 http://www.pdf4free.com -4-