Fiche individuelle d`activité - Université Paris-Sud

Transcription

Fiche individuelle d`activité - Université Paris-Sud
Contractualisation vague D 2010-2013
Unité de recherche : dossier unique
mai 2008
Fiche individuelle d’activités
concernant les 4 dernières années
Enseignant-chercheur
(la fiche ne devra pas dépasser 4 pages)
Nom :
Prénom :
Date de naissance :
Courriel :
Reynaud
Roger
31-12-1956
[email protected]
Établissement d’affectation ou organisme d’appartenance : Université Paris Sud 11
Unité de recherche d’appartenance
En 2006-2009 :
UMR 8622 INSTITUT D’ÉLECTRONIQUE FONDAMENTALE, Université Paris-Sud 11, directeur : Jean-Michel Lourtioz
Dans le cadre d’une demande de reconnaissance d’unité en 2010 :
INSTITUT D’ÉLECTRONIQUE FONDAMENTALE, Université Paris-Sud 11, directeur :
Enseignant-chercheur
x
Bénéficiaire de la PEDR :
o
HDR x
Corps-grade : PR1C
Membre IUF junior o
senior o
Situation particulière : non
Domaine scientifique principal :
Rattachement scientifique :
o
Section du CNU : 61
9 Sciences et technologies de l'information et de la communication
Points forts de vos activités de recherche et résultats marquants :
Thématique : Architecture pour le contrôle de processus appliqué au co-pilotage de voiture avec intelligence embarquée.
Prototypage de systèmes autonomes (capteurs, communications, algorithmes rapides, structures de calcul associées, Vision
Située). Fusion de données (architecture multi-capteurs, autonomie d’un agent, modélisation hybride d’information, possibilité,
probabilité et mécanismes de fusion). Complexité et contrôle des Systèmes Autonomes.
Évaluation d’un système imageur intelligent. Une évaluation est menée entre des systèmes existants à base de capteurs
CMOS-APS et des rétines CMOS d’AXIS. Des prétraitements sont implantés et comparés [Elouardi04-05-06-07]. Le codesign d'un système de vision "on-chip" supportant vision active et une certaine intelligence permet la définition des
fonctionnalités implantées sous forme matérielle ou logicielle. Ce travail d'Adéquation Algorithme Architecture donne les
critères de sélection architecturale d’opérateurs à insérer dans le système en fonction de l'application envisagée.
Spécification UML de capteurs intelligents [Jouvray 04-05] Collaboration avec le CEA/LIST (approche globale temps
réels"Accord/UML"), Dép."Développement par Composants de Systèmes Embarqués". A partir d’une spécification UML, les
contraintes physiques et temporelles des capteurs sont décrites à différents niveaux d'abstraction et fournissent des modèles.
L’IEF apporte son expertise sur les applications embarquées (interaction avec l'environnement au travers de
capteurs/actionneurs et de bus de terrain) et des compétences alliant la modélisation physique, l’Informatique matérielle et
logicielle jusqu'à l'implantation de mécanismes de régulation. La formalisation et la spécification des fonctions traduisent une
méthodologie (projeter ce qu'on voudrait faire sur ce qu'on est capable de faire : expertise IEF). Les concepts de capture
dynamique sont centraux : ils nécessitent plusieurs plates-formes pour expérimenter des applications de contrôle/commande à
des niveaux d'abstraction différents, vision dans laquelle une architecture fonctionnelle peut se projeter sur une architecture
matérielle et où la complexité de cette projection est « absorbée » par des bus multiplexés (de type CAN).
Bouclage invariant toujours prêt pour le suivi en temps réel. Il s’agit d’un travail sur la planification et le contrôle de
trajectoires sous différentes échelles de temps. Le véhicule PICAR part de l’IEF en fond de vallée et monte sur le plateau (PPF
VARVIC). Un humain dans un dispositif immersif de réalité virtuelle téléopère le véhicule au travers de différents réseaux.
Les consignes arrivent au véhicule sous 3 échelles de temps : toutes les 100 millisecondes, toutes les 3 secondes, toutes les
minutes ou plus. Le système embarqué de planification et contrôle de trajectoire ignore quand les consignes sont envoyées et il
faut mettre en œuvre une planification sous des objectifs correspondant à 3 termes temporels, d’où la dénomination de
bouclage invariant toujours prêt [Mounier04]. Cette brique est fondamentale dans les systèmes autonomes.
PDF Creator - PDF4Free v2.0
http://www.pdf4free.com
-1-
Fusion/extraction de marqueurs, indicateurs de conduite (Bruno Larnaudie). Ce travail s’inscrit dans le cadre de l’ANR
SUMOTORI en collaboration avec l’INRETS, le CEA/LIST, le CEESAR et PEUGEOT SA. L’objectif est de définir des
indicateurs de conduite anticipant une situation conduisant à la chute d’un motocycle. Une architecture de capteurs et
traitements [Larnaudie, Bouaziz] permet l’acquisition, le stockage modulaire, la communication au travers du bus CAN, la
datation des événements. Cette architecture embarquée sur un motocycle a produit des expérimentations constituées en base de
données pour une exploitation hors-ligne. Le dépouillement et l’analyse des mesures ont fait apparaître plusieurs indicateurs
qui après fusion peuvent fournir un indicateur de situation accidentogène et un indicateur de chute imminente. Les délais entre
la caractérisation de ces indicateurs et la chute véritable sont presque suffisants pour gonfler un gilet de protection avant la
chute. Une suite est prévue dans le projet ANR DAMOTO pour rendre plus robuste la fusion des indicateurs partiels en
limitant le taux de fausses alarmes.
Architecture de systèmes multicapteurs. Ce travail propose une synthèse sur les architectures et modèles de fusion utilisés
pour combiner et intégrer des données dans un système de fusion de données. Différentes approches permettent à un
concepteur de développer ou adapter son propre modèle de fusion issu de deux domaines dans lesquels la recherche est active,
le domaine militaire de la fusion de données et le domaine de la robotique civile. Le modèle fonctionnel intitulé JDL apporte
une vision systémique de la fusion de données appliquée au suivi de cibles dans un champ de bataille, des modèles différents
montrent l’évolution des façons de penser en ce qui concerne les systèmes de fusion. Les principes fondamentaux sont ensuite
décrits concernant la conception d’un système de fusion multi-capteurs tant sur le plan de son architecture fonctionnelle que
matérielle [TS’05].
Modélisation et intégration pour la fusion de données dans la surveillance du champ de bataille (EADS). Ce travail réalise
une fusion de niveau II au sens du J.D.L. Le niveau I comprend le pistage cinématique et la classification des cibles
individuelles. Le niveau II comprend la formation des groupes et leur pistage en modélisant les connaissances appliquées à la
formation et au pistage des groupes de cibles terrestres et produit des résultats à partir de mesures reçues dans des conditions
rencontrées sur les systèmes réels. La problématique est la modélisation des connaissances et des éléments contextuels
dynamiques, en fonction de leur nature et de leur intérêt, et les moyens de les exploiter au bénéfice de la gestion et du pistage
de groupes (opérations de constitution, scission d'un groupe, fusion de groupes différents, et dissolution). Une fonction
d'agrégation analyse les observations reçues pour éventuellement former des groupes en se basant sur un catalogue de formes
possibles. Les agrégats sont constitués suite à la reconnaissance d'une des structures répertoriées [Gattein06]. L’état interne est
défini par une position, une vitesse d'ensemble, une matrice de covariance indiquant l'étendue de l'agrégat, la morphologie
spatiale de l'agrégat, la classification des cibles constituantes. Un ou plusieurs états internes coexistent selon les manœuvres
envisagées et il faut modéliser l'évolution des grandeurs cinématiques, et également de la morphologie du groupe et des types
de cibles qui le forment et de la connaissances contextuelle sur l’évolution de l'incertitude relative à l'état des groupes d'intérêt.
On peut citer l'exemple classique d'un convoi contraint à suivre une route ou une vallée.
La vision située intègre les principes d’architecture des systèmes de fusion en conservant les apports des différents systèmes de
perception active (vision active, perception active, vision animée, vision orientée objectifs et tâches) qui ont mis en place des
stratégies optimisant la gestion des ressources du système et de l’environnement pour maximiser l’apport d’information
consistante en considérant que l’information non utile occupe des ressources et perturbe le résultat. La vision située fait de
même, mais elle considère à un niveau plus élevé une stratégie opportuniste basée sur des mécanismes de planification et
d’anticipation pour enchaîner efficacement les tâches. En particulier, elle gère au plus tôt l’abandon des tâches qui ne
présentent plus d’intérêt, la précision ou la certitude des résultats ne permettant pas au bon moment de décider, la tâche étant
doublée par un arc réflexe. Dans cette philosophie, il existe une dualité de représentation entre une vision automatique orientée
boucles de contrôle imbriquées d’un système de fusion (facilitant la mise en place d’un superviseur opérationnel dont le
fonctionnement peut être prouvé ou pour le moins prédit) et une vision orientée flux (de données, de contrôles, de méta
contrôles, …) mettant en avant les relations sémantiques entre les différents modules implantant des fonctionnalités dont la
définition peut alors se rapprocher des mécanismes de raisonnement existant chez l’homme.
PPF VARVIC : Vision Artificielle et Réalité VIrtuelle pour le Copilotage [Colaboration LSS, LIMSI, LRI]. Les situations où
un opérateur humain se déplaçant dans un environnement imparfaitement connu et évolutif pourrait bénéficier d'une assistance
informatisée sont variées : conduite de véhicules, déplacement de personnes handicapées, pilotage à distance de systèmes en
milieu hostile, ... La vision artificielle devient une aide à la navigation ou à l’action du système mobile, qui reste sous le
contrôle de l'opérateur humain. Elle a pour objet la recherche et l'identification de repères prévus (signes, balises, refuges,
parois, passages, interdictions) à partir des connaissances mémorisées ou acquises par le système, ou d'obstacles imprévus. Un
aspect essentiel est la palette de compétences scientifiques qu'il impose : électroniciens, traiteurs de signaux et d'images,
architectes, automaticiens, biologistes, cogniticiens, spécialistes de l'interaction homme-machine et de la réalité virtuelle. Face
à la complexité du problème traité, un tel regroupement est réalisé sur U-PSUD pour explorer de nouvelles voies scientifiques,
construit autour de 6 actions scientifiques basées sur l’utilisation de 3 plates-formes matérielles, un dispositif immersif, la
plate-forme véhicule PICAR et un camion à l’échelle 1/8ème. La démonstration finale n’a été que partielle, le véhicule
fonctionnant de manière quasi-autonome, mas pas en mode téléopéré.
Pôle System@tic : le projet SAFEAROUND vise un démonstrateur de système de protection périmétrique du futur. Les
fonctionnalités sont : une imagerie hémisphérique temps réel haute résolution visible et infrarouge ; une détection par capteur
sismique ; une gestion et localisation des alarmes basée sur une classification par fusion des données visibles, thermiques et
sismiques : un interface avec un opérateur humain. L’IEF est en charge des techniques de classification par fusion de données
(Le Hégarat, Reynaud) et des techniques d’accélération des traitements d’images (Lacassagne). HGH fournit un nouveau
capteur combiné visible et infrarouge, Martec fournit un nouveau capteur sismique multiples, Evitech est en charge de la
réalisation du système informatique de récupération des données et de traitement. L’originalité des travaux de l’IEF repose sur
PDF Creator - PDF4Free v2.0
http://www.pdf4free.com
-2-
le développement de deux modèles, l’un probabiliste, l’autre évidentiel, pour combiner des données asynchrones en utilisant
des fonctions de coût prenant en compte : la forme, la localisation ; le mouvement ; un terme d’attache aux données. Dans le
cadre du modèle évidentiel, une nouvelle règle de fusion prenant en compte le caractère plus ou moins distinct des sources à
combiner a été proposée. L’étude de ses propriétés mathématiques a montré qu’elle permettait de passer de la règle conjonctive
à la règle prudente, les deux règles principalement utilisées jusqu’à présent. Une approche à base de processus ponctuels
marqués est utilisée de façon globale pour gérer l’apparition et la disparition des pistes. Un travail d’optimisation du codage
concerne la parallélisation des traitements à base de processus ponctuels marqués. Je participe en collaboration avec le prof Le
Hégarat à l’encadrement de deux ingénieurs en CDD Cyrille André et Mohamed Bennallal, d’un stage ingénieur en 3ème année
Moez Ammar et d’un stage de master recherche Wael Elloumi.
Le projet LOVE de détection de vulnérable (piéton ou cycliste) est un projet ANR PREDIT avec un label SYSTEM@TIC et
MOVeo pour la région francilienne. Les équipes proposent des briques logicielles ou matérielles dans 3 sous-programmes.
L’IEF est impliquée : dans le SP1, partie matérielle et récupération des données, l’IEF participe à la définition des ressources
de calcul et à la validation des données récupérées (Post-traitements pour améliorer la calibration stéréo) ; dans le SP2, briques
logicielles de traitement d’images, l’IEF propose ses propres traitements d’images originaux à base de V-disparité, de détection
de mouvement, de traitement couleur ; dans le SP3, fusion de données, nous défendons une approche Systèmes Autonomes.
Notre découpe correspond à une boucle de contrôle - supervision en 3 sous tâches : à partir de la détection du mouvement
propre du véhicule et de la localisation des vulnérables, nous calculons un ensemble de zones d’intérêt qui servent d’entrées
aux blocs de traitements d’images afin de limiter la quantité et surtout la complexité des calculs ; les traitements du SP2 sont
alors réalisés sur ces zones, et une fusion des résultats issus de plusieurs traitement est réalisée en prenant en compte les
modèles d’évolution des trajectoires des vulnérables ; enfin un module de supervision gère les différentes pistes obtenues et
actualise une carte des vulnérables. Les résultats des traitements des différents labos sont comparés dans la sous tâche SP4 et
évalués à partir de vérités terrain. Outre le travail de benchmarking des blocs de traitement (ressources consommées, qualité
des résultats), l’IEF défend la notion de systèmes autonomes et notre capacité a effectué un portage d’application efficace en
utilisant cette notion. Je participe à l’encadrement d’un ingénieur en CDD Emmanuel Battesti.
Production scientifique :
Data fusion, vision située, systèmes autonomes
07 Le Hégarat-Mascle S., Reynaud R., André C., Kallel A., "Use of the adaptive-cautious rule for combination of separable
evidences", COGIS’07, Stanford, California, USA, nov 2007.
07 Zavidovique B., Reynaud R., "La vision située: un concept pour faciliter l'autonomie des systèmes", Traitement du Signal,
vol. TS-24, n° 5, p. 369, 14 pages, 2007
06 Beliard C., Janez F., Reynaud R., "An Architecture To Recognize Land Target In Sar And Optical Images" in COGIS'06,
8 pages, Session 9A: Multisensor Management Architecture and Strategies, cdrom ISBN 2-912328-29-2, 2006.
06 Gattein S., Gatepaille S., Reynaud R., Vannoorenberghe P., "An adaptive non-kinematic data integration framework for
ground target tracking" in COGIS’06, 8 p, Session Battlefield Surveillance, CDROM ISBN 2-912328-29-2, Paris, 2006.
05 Reynaud R., Bouaziz S., "Architecture de système multicapteurs", Traitement du Signal, vol. TS-22, num. 4, p. 393, 12
pages, 2005, ISSN : 0765-0019.
04 Mounier H., Bouaziz S., Pereirra DA S., P., Reynaud , R., Rouchon , P., "Premiers pas en bouclage invariant toujours prêt
pour le suivi de trajectoires en temps réel" in 3ème Conf Francophone Int. d’Automatique, CDROM, 8 pages, Douz, 2004
04 Mounier H., Bouaziz S., Reynaud R., "A first step towards anytime invariant quasi static feedback for real time tracking"
in IEEE Int. Conf. on Information & Communication Technologies ICTIS’04, CDROM, 6 pages, Damas, 2004.
Smart sensors
07 Elouardi A., Bouaziz S., Dupret A., Lacassagne L., Klein J.-O., Reynaud R., "Image Processing Vision Systems: Standard
Image Sensors Versus Retinas", IEEE trans. on Instrumentation and Measurement, vol.IM 56, n° 5, p. 1675, 13 p, 2007
07 Elouardi A., Bouaziz S., Dupret A., Lacassagne L., Klein J.-O., Reynaud R., "Time Comparison in Image Processing:
APS Sensors versus an Artificial Retina Based Vision System", Measurement Science & Technology, vol. 18, p. 2817,
10 pages, 2007
06 Elouardi A., Bouaziz S., Dupret A., Lacassagne L., Klein J., Reynaud R., "A Smart Sensor Based Vision System:
Implementation and Evaluation", Applied physics, vol. 39, p. 1694, 17 pages, 2006, Doi: 10.1088/0022-3727/39/8/033
07 Elouardi A., Bouaziz S., Dupret A., Lacassagne L., Klein J.-O., Reynaud R., "Active Pixel Sensors and Smart Retinas:
Test and Evaluation" in IEEE Information and Communication Techn. Int. Symp. ICTIS’07, CDROM, 4 pages, 2007
06 Elouardi A., Bouaziz S., Dupret A., Lacassagne L., Klein J.-O., Reynaud R., "A Smart Sensor for Image Processing:
Towards a System on Chip", in IEEE Int. Symp. on Industrial Electronics, vol. IE’06-TH8892, p. 2857, 6 pages, 2006.
05 Elouardi A., Bouaziz S., Dupret A., lacassagne L., Klein Jacques O., Reynaud R. "A CMOS Retina Based Vision System"
in IEEE Information and Communication Technologies Int. Symposium ICTIS’05, p. 128, 7 pages, Tetuan, 2005
05 Jouvray C., Gerard S., Terrier F., Bouaziz S., Reynaud R., "UML Methodology for Smart Transducer Integration in RealTime Embedded Systems" in IEEE Intelligent Vehicles IV’05, CD-ROM, 6 pages, Las Vegas, 2005
04 Jouvray C., Gérard S., Terrier F., Bouaziz S., Reynaud R., "Networked UML modeling sensors" in IEEE ICTTA’04,
Int.Conf. On Information & Communication Technologies: from Théory to Applications, vol. 1, p. 307-314, Damas, 2004.
04 Jouvray C., Gérard S., Terrier F., Bouaziz S., Reynaud R., "Smart Sensor Modeling with the UML for Real-Time
Embedded Applications" in Proceedings of Intelligent Vehicle IV’04, CDROM, 6 pages, Parme, 2004
04 Elouardi A., Bouaziz S., Dupret A., Lacassagne L., Klein J., Reynaud R., "Modeling and Calibrating an on Chip Vision
System with a CMOS Retina" in IEEE. ICTTA’04, CDROM, 6 pages, 2004
04 Elouardi A., Bouaziz S., Dupret A., Klein J.-O., Reynaud R., "Image Processing Vision System Implementing a Smart
Sensor" in Proc. of IEEE Instrumentation and Measurement Technology Conf., IMTC’04, p. 445-451, Como, 2004
PDF Creator - PDF4Free v2.0
http://www.pdf4free.com
-3-
04 Elouardi A., Bouaziz S., Dupret A., Klein J.-O., Reynaud R., "On Chip Vision System Architecture Using a CMOS
Retina" in Proc. of IEEE Intelligent Vehicle Symposium, IV’04, p. 206, 6 pages, Parma, 2004
04 Elouardi A., Bouaziz S., Dupret A., Lacassagne L., Klein J.-O., Reynaud R., "CMOS Image Sensor versus Retina
Experience » , IEEE Sensors 2004, CDROM, 6 pages, Vienne, 2004
Extraction d’indices de conduite
07 Bouaziz S., Reynaud R., Larnaudie B., Elouardi A, "Experimental Platform Car for Automatic Control Applications" in
IEEE Information and Communication Technologies Int. Symp. ICTIS’07, CDROM 4 pages, , FES, Maroc, 2007.
06 Larnaudie B., Bouaziz S., Maurin T., Espié S., Reynaud R., "Experimental study of a Motorcycle platform for dynamic
model extraction" in Proc. of the IEEE ICTTA: from Theory to Applications, vol. 1, p. 760, 6 pages, Damascus, 2006
06 Larnaudie B., Bouaziz S., Maurin T., Espié S., Reynaud R., "Motorcycle platform for dynamic model extraction" in IEEE
Intelligent Vehicle IV’06, vol. 1, num. 13-10, p. 492, 6 pages, Tokyo, Japan, 2006
05 Larnaudie B., Bouaziz S., Maurin T., Espie S., Reynaud R., "Experimental study of a Motorcycle data logger for dynamic
model extraction" in IEEE Information and Communication Technologies Int. Symp. ICTIS, p. 156, 7 pages, Tetuan,
Maroc, 2005
Autres formes de production (brevets, ouvrages, rapports d’expertise,…)
08 Le Cadre J.-P., Nimier V., Reynaud R., "Fusion in signal processing"; in Information fusion in signal and image
processing. Major probabilistic and non-probabilistic numerical approaches., Isabelle Bloch, ISTE WILEY, Digital Image
and Signal Processing series, p. 25-47, Chippenham, England, 2008.
05 Zavidovique B., Reynaud R, "Situated vision: a step further towards autonomous systems", in Human and Machine
Perception, Vitulano, Di Gesu, World Scientific, p. 131, 29 pages; ISBN 981-238-431-6, 2005.
04-07Reynaud R., "Aspects systèmes en fusion de données : 1- problèmes de représentation ; 2- Exemple d’architecture
fonctionnelle.", Collège de polytechnique, session « Pour les systèmes multicapteurs, la fusion de données », Palaiseau,
2004-2005-2006-2007.
3) Points forts de vos activités relevant des missions autres que la recherche :
§ Montage de la licence pro MMIC de U-PSUD en 2006 ; resp. pédagogique de l’option capteur de mouvement
§ Correspondant U-PSUD dans le MASTER ISIC co-habilité X et INSTN ; resp. de l’option Systèmes Autonomes
§ Cours au collège de Polytechnique, en fusion de données 2004-05-06-07
§ Expertise au groupe CT13 « Fusion de données » de la DGA , 2006.
§ Membre du comité de programme du RTRA Digiteo depuis 2006.
§ Membre extérieur du Comité d’Evaluation et d’Orientation dans deux départements DTIM et DEMR de l’ONERA.
o DTIM au titre d’une expertise de la thématique « Fusion de données » en 2002, 2003, 2004, 2005, 2006.
o
§
§
§
§
§
§
§
§
DEMR au titre d’une expertise du thème « Furtivité Radar » en 2004.
Commission de spécialistes 61 de U-PSUD depuis 1990à 2006, 61-63 de l'ENSEA Cergy depuis 02 à 2008.
Chairman of the Steering Committee of the International Conf. on COGnitive systems with Interactive Sensors,
COGIS’06, Paris 15-17 Mars 2006, Chairman of the Steering Committee of the International Conf. on COGnitive
systems with Interactive Sensors, COGIS’07, Standford 19-20 octobre 2007.
Membre du comité régional Ile de France du Pôle de compétitivité MOV’eo
Membre du groupe Num@tec Automotive de System@tic depuis 2005
Co-éditeurs de EURASIP Journal on Embedded systems, N° spécial Embedded systems for intelligent Vehicles 2007
7 Reviews pour différents journaux
Expertises de projet ANR Predit 2006-2008
Responsable Dépt de recherche AXIS de 2000 à 2006, responsable de la plate forme PICAR depuis 2007
Signature de la personne concernée par cette fiche d'activité
Je certifie n’avoir demandé mon rattachement qu’à une seule unité de recherche en demande de reconnaissance.
Date :
14 mai 2008
Signature : Prof. Roger Reynaud
Signature du responsable de l'unité de recherche à la date de dépôt du dossier
Date :
Signature :
Jean-Michel Lourtioz,
Directeur de l’IEF
PDF Creator - PDF4Free v2.0
http://www.pdf4free.com
-4-