quadriennal 1995-1998

Transcription

quadriennal 1995-1998
B- L'EQUIPE ALGORITHMIQUE
Présentation générale de l'équipe
B-1
1- l'organisation de l'équipe
2- les principales thématiques
B-2
3- les interactions au sein de l'équipe et du laboratoire
B-1
4- les interactions caennaises
5- les collaborations en France
6- les collaborations à l'étranger
7- les responsabilités et la reconnaissance scientifiques
8- les résultats : thèses publications contrats
9- les thèses en cours
B-4
B-4
B-
3
B-5
B-6
B-6
B-7
Bilan scientifique des différents thèmes
B-8
Thème 1: Modèles de calcul, complexité et algorithmes combinatoires
B-8
Complexité en temps linéaire et logique du second ordre
Algorithmes combinatoires et problèmes de satisfaisabilité
Automates cellulaires et complexité
B-8
B-10
B-11
Thème 2 : Algorithmique en Arithmétique, Codage et Cryptographie.
B-12 Algorithmique en arithmétique et en Théorie de l'Information
B-12
Codes correcteurs et fonctions booléennes
le Pôle Sécurité de l'Information.
B-16
B-19
Thème 3: Algorithmique effective
Algorithmique et programmation linéaire
Conception et preuve d'algorithmes répartis
Techniques fonctionnelles.
Perspectives
Thème Modèle de Calcul et complexité
Thème Algorithmique combinatoire
Thème Algorithmique et Sécurité de l'information
Thèses et publications
B-21
B-21
B-22
B-23
B-24
B-24
B-27
B-28
B-30
Thèses
Revues internationales avec comité de lecture
Congrès internationaux avec comité de lecture et actes
B-30
B-30
Congrès internationaux sans actes
Contrats et Brevets
B-34
B-35
B-
33
Récapitulatif du séminaire
B-36
PRESENTATION DE L' EQUIPE ALGORITHMIQUE
Responsables: Brigitte Vallée (jusqu'en 1999) puis Claude Carlet
L'équipe partage une problématique commune et crée au sein du laboratoire une référence
culturelle algorithmique; elle y joue un rôle de conseil. Plus largement, au sein du département
d'Informatique de l'Université, comme à l'ENSI-ISMRA, ses activités influencent largement
la manière dont est conçu l'enseignement de la discipline informatique.
En algorithmique, on s'intéresse à la qualité et à l'efficacité des calculs (le terme algorithme
désigne un procédé de calcul suffisamment précis pour être transformé par la suite en
programme informatique). On peut ainsi séparer les problèmes en problèmes faciles (qu'on
cherche à résoudre avec des algorithmes rapides) et en problèmes difficiles (qu'on ne sait pas
résoudre en un temps raisonnable). La protection de l'information (cryptographie, codage)
utilise cette dichotomie, en liaison avec l'étude mathématique des structures utilisées. Par
ailleurs, la qualité des méthodes de programmation est aussi essentielle pour pouvoir
valider les logiciels.
1- L'ORGANISATION DE L'EQUIPE (95-99)
Plus précisément, les mots-clés suivants,
la modélisation de la notion de complexité,
l'étude de propriétés algorithmiques d'objets mathématiques et leurs applications,
la réflexion sur des méthodes générales de programmation ou de validation logicielle,
décrivent les trois principaux thèmes de recherche selon lesquels l'équipe s'est organiséé au
cours des années 95-99.
Dans le thème Modèles de Calcul, Complexité et Algorithmes Combinatoires dirigé par
Etienne
Grandjean, on s’intéresse aux algorithmes linéaires et on travaille à des
caractérisations de la classe des problèmes résolubles en temps linéaire, avec un double point
de vue: calculatoire (machines RAM) et logique (définissabilité en logique). A côté du modèle
séquentiel des RAM, on étudie également des modèles de calcul parallèles, les automates
cellulaires, et leur complexité. Enfin, la dernière activité porte sur la construction
d’algorithmes, très souvent linéaires, sur les graphes et les problèmes de satisfaisabilité
logique et donne lieu à collaboration avec l’équipe “Intelligence Artificielle”.
Le thème Algorithmique en arithmétique, codage et cryptographie dirigé par Claude Carlet
rassemble ses activités et celles de Brigitte Vallée et de leurs doctorants. Les objets manipulés
sont tous de nature mathématique, dans les domaines de l'algèbre --corps finis, codes
correcteurs d'erreur, fonctions booléennes-- ou de l'arithmétique, --géométrie des réseaux à
coordonnées entières-- mais la problématique touche des domaines d'informatique théorique
--analyse en moyenne d'algorithmes, codage, cryptographie, théorie de l'information-- et est
donc susceptible d'applications importantes en informatique appliquée, dans tous les
problèmes liés à la Protection de l'Information.
Le thème Algorithmique effective dirigé par Jean-Luc Lambert fédère les activités autour de
la programmation et de la validation logicielle. L'activité la plus en amont concerne les
méthodologies de programmation de l'algorithmique (fonctionnelle ou par objets), alors que le
domaine d'application privilégié est celui de la validation logicielle où plusieurs techniques
algorithmiques sont employées (programmation linéaire, calcul formel, algorithmes
heuristiques). Enfin des recherches sont réalisées en collaboration avec les autres équipes du
laboratoire (image et intelligence artificielle).
B-1
Modèles de Calcul, Complexité et
Algorithmes Combinatoires
Algorithmique en Arithmétique
Codage et Cryptographie
Algorithmique
Effective
Etienne Grandjean
Claude Carlet
Jean-Luc Lambert
Ionona Ranaivoson
Jean-Jacques Hébrard
Véronique Terrier
Brigitte Vallée
Jean Saquet
Jerzy Karczmarczuk
Jean-Pierre Tillich (95-97)
Doctorants
Doctorants
Doctorants
Arnaud Durand (S)
Frédéric Olive (S)
Laurent Coupry
Philippe Luquet
Maud Paulmier
Pascal Rossa
Jean-Marie Le Bars (S)
Ali Akhavi (S)
Julien Clément
Sylvie Dubuc
David Pointcheval (S)
Doctorants en entreprise
Philippe Guillot (S)
Jean-François Misarsky
Jean-Serge Boucher (S)
Sylvain Ridard
Samuel Devulder
Christophe Broult
Samuel Dellacherie
Associées:
Nadia Creignou (SDAD)
Malika More (SDAD)
Associé:
Marc Girault (CNET)
2- LES PRINCIPALES THEMATIQUES DE L'EQUIPE
Au-delà de l'organisation en thèmes décrite ci-dessus, l'ensemble du thème Algorithmique du
GREYC se retrouve dans une triple problématique : réflexion et modélisation théoriques,
construction d'algorithmes, applications plus pratiques en aval.
A- Réflexion et modélisation théoriques:
- modélisation de la "difficulté" d'un problème (ce qu'on appelle la complexité).
- caractérisation des problèmes faciles et des problèmes difficiles
- quantification du comportement "en moyenne" d'un algorithme avec différents modèles
probabilistes.
B- Construction de bons algorithmes dans des domaines particuliers
- celui des graphes qui intervient dans la modélisation de beaucoup de problèmes
naturels, et est utilisé à l'interface de l'Intelligence Artificielle.
- ceux de l'algèbre, de l'arithmétique et de la théorie de l'information qui sont centraux
en cryptographie, en codage et en compression. Ce domaine nécessite le développement d'une
recherche sur les objets mathématiques mis en jeu.
- celui de la programmation linéaire, qui est utilisé dans la validation logicielle.
- celui de la géométrie, en collaboration avec l'équipe Image du Laboratoire
La page suivante montre la large interconnexion de ces domaines, assez divers, et cependant
largement complémentaires dans leur diversité.
C- Utilisation de ces algorithmes dans le domaine de la "Sécurité de l'Information", qui est
constitué de 2 volets
- Protection de l'Information: compression, codage, cryptographie.
- Validation logicielle.
B-2
les graphes
les propriétés d'expansion
problèmes de flot
graphes extraplanaires
Contraintes
Le problème SAT
Phénomènes de seuil
Clauses de Horn
le codage
la cryptographie
les fonctions booléennes
les systèmes dynamiques
Théorie de
l'information
Compression
Arithmétique
la géométrie algorithmique
La programmation linéaire
Les différents domaines algorithmiques étudiés dans l'équipe
3- LES INTERACTIONS AU SEIN DE l'EQUIPE ET DU LABORATOIRE.
L'équipe organise (depuis 1994) un séminaire hebdomadaire d'algorithmique, qui cherche à
regrouper l'ensemble de l'équipe, autour d'exposés qui se veulent, au moins en partie,
généralistes. Il y a eu déjà plus de cent exposés (la liste est jointe en annexe page ...) . Les
exposés internes visent à faire communiquer les thèmes entre eux, tandis que les exposés
externes, sur des sujets non représentés au laboratoire, visent à l'ouverture de l'équipe et à la
culture des thésitifs. C'est une des réussites de l'équipe, qui contribue à la cimenter. Ce
séminaire fonctionne parallèlement à des groupes de travail plus spécialisés.
Interactions au sein de l'équipe. De nouveaux thèmes d'interaction sont apparus pendant la
période, en particulier, le thème de l'Aléa apparaît comme un thème transverse, qui
regroupe des points de vue divers et des applications variées: en analyse en moyenne, ou en
théorie de l'information (B. Vallée), dans les phénomènes de seuil du problème SAT (Ph.
Luquet, N. Creignou), ou encore dans l'étude plus spécifiques des graphes aléatoires (J.M. Le
Bars, J.P. Tillich).
Interactions avec l'équipe Intelligence Artificielle. J-J. Hébrard propose des méthodes
algorithmiques pour la démonstration automatique et collabore avec Bruno Cremilleux dans
un projet de reconnaissance des molécules. J. Saquet collabore sur les thèmes de l'Informatique
répartie. Enfin, un séminaire commun réunit depuis la rentrée 98, et une fois par mois, les deux
équipes autour d'un thème transverse: la Théorie de l'Information. Ce thème est en effet
abordé de multiples point de vues au laboratoire. L'équipe algorithmique l'aborde du point de
vue syntaxique (réflexion sur les sources dynamiques, recherches de motifs, compression),
tandis que l'équipe I3 se centre sur les problèmes spécifiques liés au langage naturel.
Interactions avec l'équipe Image. Une collaboration a lieu avec le groupe qui s'est formé
autour de Rémy Malgouyres et de ses doctorants (A. Lenoir, S. Fourey) dans les domaines de la
géométrie discrète.
4- LES INTERACTIONS CAENNAISES.
B-3
Avec le Laboratoire SDAD (laboratoire de mathématiques: Structures discrètes et analyse
diophantienne). Les relations avec l'équipe GRAL (Groupe de Recherche en Algèbre et
Logique) de ce laboratoire sont anciennes et profondes (séminaires, groupes de travail commun,
etc); elles portent sur des thèmes transversaux liés à la logique ou à l'algorithmique en
arithmétique.
En logique, ces liens se sont intensifiés à l’occasion des recrutements au SDAD de Nadia
Creignou (ancienne élève de E. Grandjean, HDR en janvier 1999), spécialiste de complexité et
des problèmes de satisfaisablité, et Malika More, qui travaille en théorie des modèles finis,
en lien avec la complexité et l’arithmétique: toutes deux collaborent et ont des publications
communes avec E. Grandjean, J.J. Hébrard et leurs doctorants (définissabilité logique et
complexité, problème SAT, phénomènes de seuil) et participent aussi au projet Procope CaenMainz.
En arithmétique, ces collaborations ont lieu à l'intérieur du "triangle cryptographique
caennais" qui regroupe, outre l'équipe Algorithmique du GREYC, des membres du SDAD et des
membres du CNET-Caen. Cette collaboration déjà ancienne (1988) avec le CNET et les
mathématiciens de l’université a été reconnue en 95 comme un pôle régional, le pôle "Sécurité
de l'Information" et a bénéficié d'une dotation élevée au contrat de plan Etat-Région durant
la période 95-99. (1.5 MF sur la période considérée). La collaboration est centrée sur les
thèmes de la cryptographie: étude des objets mathématiques en amont, de la problématique
d'algorithmique et de complexité sous-jacente, et enfin collaboration avec le CNET sur les
protocoles cryptographiques. Il existe une activité contractuelle suivie (quatre contrats depuis
1988 entre l'université et le CNET-Caen), et en particulier un contrat pendant la période
considérée. Le groupe développe également des collaborations pour les directions de thèse, les
stages de DEA, et pour l'enseignement de la discipline
"Sécurité de l'Information" .
Notamment, durant la période, il y a eu la création de deux cours supplémentaires dans ce
domaine, ce qui porte à six l'enseignement du groupe dans le domaine.
5- LES COLLABORATIONS EN FRANCE
Des colaborations étroites et régulières existent entre le Thème 2 et deux projets de l’INRIA
Rocquencourt : Algo (Ph. Flajolet) et Codes (P. Charpin); C. Carlet est membre associé du
projet Codes, et B. Vallée est membre associée du projet Algo.
Des contacts réguliers ont lieu entre V. Terrier et l'équipe "Modèles du Parallélisme" de
laboratoire d'Informatique de l'ENS de Lyon.
Au niveau national, la presque totalité de l'équipe algorithmique se retrouve dans des
groupes de travail du GDR-PRC AMI "Algorithmique, Modèles, Infographie" puis du GDR
ALP qui en a pris la suite. Il s'agit des groupes de travail suivants
- "Modèles finis et complexité" (dirigé par E. Grandjean de 96 à 98) auquel participent E.
Grandjean, S. Ranaivoson et leurs doctorants.
- "Algorithmique des graphes" (dirigé par M. Morvan) auquel participe J-J. Hébrard
- "Automates et géométrie" auquel participe V. Terrier.
- "Cryptographie et codage" (co-dirigé par P. Charpin et B. Vallée) auquel participent
B. Vallée, C. Carlet, M. Girault (CNET-Caen) et leurs doctorants
-"Arithmétique des ordinateurs et géométrie algorithmique" (dirigé
par
J-D.
Boissonnat, C. Frougny, B. Lacolle, J-M. Muller) auquel participe B. Vallée
-"Alea" (dirigé par Ph. Flajolet) auquel participent B. Vallée et ses doctorants ainsi que
J.M. Le Bars
-"Méthodes effectives de décidabilité" (organisé par H. Comon et D.Lugiez) auquel
participent J-L Lambert, J. Saquet et certains doctorants sur le thème "programmation
linéaire et preuve logique".
B-4
En particulier, des journées de ces groupes de travail ont été organisées par des membres de
l'équipe.
E. Grandjean a organisé quatre séries de journées pour son groupe "Modèles finis et complexité"
Gif sur Yvette (janv. 1997), Fontainebleau (juin 1997), Paris-Panthéon (janv. 1998), ENS-Lyon
(juin 1998).
C. Carlet et B. Vallée ont organisé des journées C2 dans le Calvados en février 98. B. Vallée a
organisé des journées "Aléa" en février 98 dans le Calvados.
B. Vallée est membre de l'action incitative ALCOPHYS "Algorithmique, Combinatoire,
Phy- sique Statistique" entre l'INRIA, et trois laboratoires universitaires , le LaBRI, le LIX
et le LRI. Elle est membre du groupe "Arbres Aléatoires" qui réunit, autour de Brigitte
Chauvin (Versailles) des probabilistes et des informaticiens sur ce thème.
6- LES COLLABORATIONS A L'ETRANGER
- un projet PROCOPE (contrat européen franco-allemand) entre Caen et Mainz (depuis janvier
1997, reconduit en 1998, puis en 1999): E. Grandjean le dirige du côté français, et y participe
avec ses doctorants. Les participants allemands sont Clemens Lautemann et Thomas
Schwentick, et la collaboration se centre principalement sur deux thèmes: problèmes de
définissabilité logique dans les structures finies en rapport avec la complexité;
temps
linéaire.
Plusieurs séries de journées d’échange ont déjà eu lieu: deux fois a Caen, trois fois à Mainz.
- un projet ALLIANCE (contrat européen franco-britannique) accepté en 99; les groupes francais
concernés sont Caen et le projet Algo de l'Inria, tandis que les groupes anglais sont à Cardiff,
Oxford et Manchester. B. Vallée le dirige du côté français, et y participe avec ses doctorants.
Les participants anglais sont R. Brent, A. Zhigliavsky, et T. Prellberg. La collaboration a lieu
sur le sujet "Méthodes probabilistes et dynamiques dans l'analyse en moyenne d'algorithmes
arithmétiques" et est donc centrale dans la recherche de B. Vallée.
L'équipe entretient des relations régulières avec les universités suivantes:
- Pise (Italie), (séjour post-doctoral de A. Durand, 1 an 97-98)
- Tubingen (Allemagne), (invitation de E. Grandjean, 1 semaine)
- Paderborn (Allemagne), (stage de DEA de E. Benoist )
- Clausthal (Allemagne), (invitation de B. Vallée, 1 semaine en 98)
- Santiago du Chili (invitation de V. Terrier, 98)
- Ann Arbor (USA), (invitation de J.M. Le Bars, 2 jours, 98)
- Purdue (USA), (invitation de B. Vallée, 1 semaine en 99) .
7- RESPONSABILITES ET RECONNAISSANCE SCIENTIFIQUES .
Comités de programme et édition.
- C. Carlet président du comité de programme du Workshop on Coding and
Cryptography, 11 au 14 janvier 1999, à Paris (76 articles soumis, 120 participants d'Europe,
USA, Israel, Japon, Amérique latine etc...)
- C. Carlet membre du comité de programme de SETA (International Conference on
Sequences and Their Applications) Singapour, 13 au 17 décembre 1998.
- C. Carlet, éditeur de la Special Issue "Coding and Cryptography", Discrete Applied
MAthématics, publication prévue en 2001.
- E. Grandjean membre des comités de programme des colloques:
• CSL'95 (Computer Science Logic), Paderborn, Allemagne.
• STACS'96 (Symp. on Theoretical Aspects of Computer Science), Grenoble.
B-5
- E. Grandjean coprésident du comité de programme du colloque CSL '98 (Computer
Science Logic),(avec Georg Gottlob de l’Univ. de Vienne) 24-28 août 1998, Brno, Rép. Tchèque,
et est coéditeur des actes de ce colloque (à paraître aux Lecture Notes in Computer Science,
printemps 1999). L'édition s’effectue en deux phases (l’une précédant, l’autre suivant la
conférence) de façon à donner aux actes une qualité "journal".
- E. Grandjean organisateur du 2ème Atelier International de "Théorie des Modèles
finis" 10-14 avril 1995 au CIRM de Marseille-Luminy (40 chercheurs invités de 12 pays:
Europe, USA, Israel) et coresponsable scientifique de cet Atelier.
Organisation scientifique.
E. Grandjean et B. Vallée sont tous deux responsables d'un groupe du travail du PRC AMI puis
ALP. C. Carlet, E. Grandjean et B. Vallée ont organisé plusieurs fois des réunions de groupe de
travail de ce PRC. (voir 5)
Prix
Jean-Marie Le Bars a obtenu le Kleene Award, prix du Meilleur Article Etudiant pour son
article "Fragments of existential second-order logic without 0-1 laws" au colloque LICS’98,
juin 1998, Indianapolis, USA. J.M. Le Bars a aussi obtenu en décembre 1998 l’un des deux
accessits (non classés) du Prix de Thèse SPECIF 1998 pour sa thèse "Probabilités asymptotiques
et pouvoir d’expression des fragments de la logique du second ordre" (GREYC, Univ. Caen,
Janvier 1998).
Conférences invitées
C. Carlet
- ICC'97 (International Conference on Combinatorics, Information Theory and Statistics),
Juillet 1997, Portland USA .
- Third Mediterranean Workshop on Coding and Information Integrity, Ein Boqeq, Dead Sea,
Israel, Octobre 1997
- IEEE Information Theory Workshop, Killarney, Irlande, Juin 1998
E. Grandjean
"Workshop Finite Model Theory”, Oberwolfach, Allemagne, février 1998.
J.P. Tillich,
- Conférence de 1 heure à l'IMA (Institute for Mathematics and its Applications)sur le thème
"Emerging Applications of Number Theory", Minneapolis, Minnesota, 23 Juillet 1996.
- Conférence de 50 minutes au Banach Center à Varsovie, (Académie polonaise des Sciences)
dans le cadre du "Minisemester in Discrete Mathematics", 4 septembre 1996.
B. Vallée
Semaine "Computational Number Theory", Dagstulh, octobre 98.
Semaine "Analyse en moyenne d'algorithmes", Dagstuhl, juillet 93,juillet 95, juillet 97
Semaine "Analyse en moyenne d'algorithmes", Princeton (USA), juillet 98.
Semaine "Analyse en moyenne d'algorithmes, Barcelone, juin 1999.
Semaine "Computational Number Theory and Cryptography", Singapour, novembre 99.
8- LES RESULTATS : THESES, PUBLICATIONS, CONTRATS
Thèses
Habilitations à diriger des recherches
Revues internationales avec comité de lecture
Congrès internationaux avec comité de lecture et actes
Congrès internationaux sans actes
Articles soumis
Contrats : trois pour une somme de
9- LES THESES EN COURS.
B-6
7
2
38
16
10
13
1370 kF
Fabrice Boudot , "Autour des processus Zero-knowledge", (M. Girault, B. Vallée)
Emmanuel Benoist, "Algorithmes sur les formules de Horn", (J.J. Hébrard, E. Grandjean )
Christophe Broult , "Langages de spécification pour les cartes à puce", (J.L. Lambert)
Julien Clément , "Analyse en moyenne d'algorithmes sur les arbres" (B. Vallée)
Samuel Dellacherie, " Implémentations d'algorithmes interieurs de programmation linéaire
pour la validation de protocoles", (J.L. Lambert)
Samuel Devulder, "Analyse qualitative des programmes informatiques", (J.L. Lambert)
Sylvie Dubuc "Les fonctions q-aires en cryptologie et en codes correcteurs d'erreurs" (C. Carlet)
Philippe Guillot, "Fonctions booléennes et transformation de Mobius", (C. Carlet)
Philippe Luquet, "Horn renommage partiel et problème SAT" (J.J. Hébrard, P. Enjalbert )
Guy Michel, "Une nouvelle approche de la programmation linéaire dans les arbres de décision
obliques", (J.L. Lambert)
Jean-François Misarsky, "Attaque de schémas de signatures", (M. Girault, B. Vallée)
Maud Paulmier, " Problèmes de satisfaction de contraintes dynamiques" (J.J. Hébrard)
Pascal Rossa, "Satisfaisabilité des formules imbriquées: algorithmes et applications", (J.J.
Hébrard, E. Grandjean )
B-7
THEME 1
- Modèles de calcul, complexité et algorithmes combinatoires
Enseignants-chercheurs: Etienne Grandjean, Jean-Jacques Hébrard, Solomampionona Ranaivoson,
Véronique Terrier.
Doctorants: Emmanuel Benoist, Laurent Coupry, Arnaud Durand (jusqu’en juin 1996, actuellement
ATER Univ. Nancy, recruté MC Univ. Paris 12, fév. 1999), Jean-Marie Le Bars (jusqu’en janvier 1998,
actuellement ATER Univ. Caen), Philippe Luquet, Frédéric Olive (jusqu’en juillet 1996, actuellement
MC Univ. Marseille I), Maud Paulmier, Pascal Rossa.
Membres associés: Nadia Creignou, Malika More, toutes deux MC Univ. Caen, lab. SDAD.
Présentation générale
Dans le thème Modèles de calcul, complexité et algorithmes combinatoires, on s’intéresse aux
algorithmes de temps et mémoire linéaires et on travaille à des caractérisations de la classe des
problèmes résolubles par algorithmes linéaires. On sait combien cette classe est étendue et riche en
problèmes combinatoires variés, et est aussi essentielle pour les applications. On étudie les classes de
complexité associées au temps linéaire avec un double point de vue: calculatoire (machines RAM) et
logique (définissabilité en logique: complexité descriptive). A côté du modèle séquentiel des RAM, on
étudie également des modèles de calcul parallèles, les automates cellulaires, et leur complexité,
linéaire ou en temps réel. Enfin, la dernière activité porte sur la construction d’algorithmes, très
souvent linéaires, sur les graphes et les problèmes de satisfaisabilité logique. Cette activité donne
lieu à collaboration avec l’équipe Intelligence Artificielle.
L’unité du thème est assurée
• par les domaines étudiés:
- la logique: logique propositionnelle et logique du second ordre existentiel,
- les modèles de calcul: essentiellement les RAM et automates cellulaires,
- la combinatoire: graphes, probabilités asymptotiques, phénomènes de seuil, etc;
• par les objectifs:
- trouver les meilleurs algorithmes, souvent linéaires, pour des problèmes naturels,
essentiellement en logique et sur les graphes;
- prouver des bornes inférieures de complexité pour d’autre problèmes sur des modèles de
calcul séquentiels (ex. non linéarité prouvée, sur machines de Turing, des problèmes NLIN-complets)
ou parallèles (problèmes non calculables en temps réel sur automates cellulaires).
Au plan national et depuis trois ans, le thème est partie prenante du groupe de travail “Complexité et
Théorie des Modèles Finis” dirigé par E. Grandjean puis M. de Rougemont à l’intérieur du GDR-PRC
AMI (Algorithmique, Modèles, Infographie), maintenant ALP . Il est aussi l’un des deux partenaires
d’un projet franco-allemand Procope (Caen-Mainz, 1997-1998, renouvelé en 1999).
1. Complexité en temps linéaire et logique du second ordre (Etienne Grandjean, Nadia
Creignou, Arnaud Durand, Jean-Marie Le Bars, Malika More, Frédéric Olive, Solomampionona
Ranaivoson)
1.1. Caractérisations logiques de la complexité en temps linéaire non déterministe (Etienne Grandjean,
Arnaud Durand, Frédéric Olive)
La complexité en temps linéaire est une notion intuitive et familière des concepteurs d’algorithmes,
mais qui, paradoxalement, a longtemps résisté à la formalisation (plusieurs spécialistes de
complexité, Gurevich-Shelah, Grädel, Regan en donnent des versions divergentes).
B-8
A la suite d’une série de travaux portant d’une part sur le pouvoir d’expression des logiques du second
ordre (voir le fameux théorème de Fagin qui caractérise NP), d’autre part sur les modèles de calcul (le
modèle RAM), toujours en rapport avec la complexité algorithmique, E. Grandjean est parvenu à
élaborer un concept rigoureux de temps linéaire, à la fois pour les cas non déterministe (la classe
NLIN) et déterministe (la classe DLIN). Entre 1989 et 1996, il a établi la robustesse de la classe NLIN
sur les deux plans calculatoire et logique, en particulier par une première caractérisation en logique du
second ordre existentiel. Par la suite, A. Durand a démontré deux nouvelles caractérisations de NLIN
en termes de permutations ou de graphe orienté de degré borné. Enfin F. Olive a montré que la
caractérisation de E. Grandjean pouvait même être normalisée sous forme purement conjonctive
(conjonction d’égalités), donnant ainsi une version uniforme des problèmes NLIN-complets étudiés
auparavant par E. Grandjean, S. Ranaivoson et N. Creignou.
1.2. Caractérisation algébrique du temps linéaire déterministe et réductions (Etienne Grandjean)
Après avoir élaboré la classe DLIN (complexité en temps linéaire sur RAM), E. Grandjean a montré
que les problèmes classiques dits linéaires (parcours de graphes, etc) appartenaient à cette classe,
ainsi que le problème du tri; et il en a conclu une “Thèse du Temps Linéaire”: DLIN est exactement la
classe des problèmes résolubles par algorithmes de temps et mémoire linéaires; Thomas Schwentick
(Univ. Mainz) a donné en 1996 une première caractérisation de DLIN par une algèbre de fonctions, donc
indépendamment des machines.
Depuis 1997, tous deux collaborent afin de réaliser pour DLIN le programme déjà réussi, pour
l’essentiel, pour la classe non déterministe NLIN: ils ont simplifié la caractérisation algébrique de
DLIN; ils en ont déduit deux problèmes DLIN-complets; pour ce faire, ils ont élaboré une nouvelle
notion de réduction, très stricte, indépendante des machines, et hautement parallélisable: la
“réduction affine”, basée sur la notion classique de fonction affine sur les entiers.
1.3. Complexité et pouvoir d’expression en logique du second ordre (Etienne Grandjean, Arnaud
Durand, Malika More, Frédéric Olive, Solomampionona Ranaivoson)
En utilisant de façon essentielle sa caractérisation logique de la classe NLIN, E. Grandjean a montré
avec F. Olive que les langages de cette classe, qui contient la plupart des problèmes NP-complets
usuels, sont définissables en logique du second ordre monadique avec addition. Ceci contraste de
manière frappante avec le fait bien connu (théorème de Büchi) que si l’addition est remplacée par
l’ordre linéaire, alors la même logique - second ordre monadique sur les mots - caractérise seulement et
exactement les langages rationnels (au lieu des problèmes NP-complets).
Dans le même esprit, A. Durand et S. Ranaivoson ont prouvé que toute propriété (d’entiers, de
graphes, etc), exprimable en logique du second ordre avec des fonctions unaires - par exemple, l a
connexité forte d’un graphe - peut s’exprimer avec seulement une relation binaire, en lieu et place de
toutes les fonctions unaires. Ils ont montré qu’on peut même exiger que cette relation soit symétrique ou
soit un ordre partiel. Plus généralement, A. Durand, C. Lautemann et T. Schwentick (Univ. de Mainz)
ont mis en évidence, pour les problèmes de graphes, une hiérarchie surprenante, stricte et complète,
basée sur le type des relations binaires existentiellement quantifiées: par exemple l’usage des
fonctions unaires équivaut à celui des ordres totaux (ou des relations d’équivalence) mais est
strictement plus expressif que l’usage des permutations.
Par ailleurs, dans le cadre de diverses collaborations, A. Durand et F. Olive ont découvert des liens
étroits entre expression logique, arithmétique et complexité (avec M. More du SDAD et C. Lautemann
de Mainz), et cerné précisément le pouvoir d’expression d’une seule fonction unaire (avec R. Fagin de
IBM San Jose, Californie, et B. Loescher, Univ. Paris-Sud).
1.4. Probabilités asymptotiques et pouvoir d’expression de la logique du second ordre (Jean-Marie Le
Bars).
Depuis quinze ans, beaucoup de recherches ont été menées en théorie des modèles finis en vue de
comparer le pouvoir d’expression des logiques, non seulement avec la complexité des problèmes
qu’elles expriment, mais aussi avec leurs probabilités asymptotiques. On dit qu’une logique a une loi 01 si, pour toute formule F de cette logique, la proportion des modèles de cardinal n qui satisfont F, soit
tend vers 1, soit tend vers 0 quand n tend vers l’infini. Kolaitis et Vardi (1987-1995) ont exhibé une
B-9
relation étonnante et mal élucidée entre le problème de décision pour une logique et l’existence d’une
loi 0-1 pour la logique du second ordre correspondante.
A l’opposé de ces résultats et donc de ce qui était attendu, J.M. Le Bars a, montré dans sa thèse que la
logique du second ordre existentiel à deux variables n’a pas de loi 0-1 alors que la logique
correspondante, celle du premier ordre à deux variables, est décidable. Pour établir ce résultat qui a
surpris les spécialistes, J.M. Le Bars a imaginé une variante de la propriété (NP-complète) de noyau
d’un graphe et a utilisé, pour la première fois en logique, la théorie des graphes aléatoires. La
puissance de ces méthodes lui a permis du même coup de résoudre les deux principales questions encore
ouvertes sur les probabilités asymptotiques des logiques du second ordre, toujours négativement, c’est à
dire d’établir leur divergence.
2. Algorithmes combinatoires et problèmes de satisfaisabilité (Jean-Jacques Hébrard,
Emmanuel Benoist, Laurent Coupry, Nadia Creignou, Philippe Luquet, Maud Paulmier, Pascal
Rossa).
Un des principaux sujets de recherche du groupe est l’étude des classes polynomiales liées aux
problèmes de satisfaction de contraintes, et, plus particulièrement, au problème SAT (satisfaisabilité
propositionnelle). D’autres travaux concernent plus spécifiquement l’algorithmique des graphes.
Dans le prolongement de travaux antérieurs sur le Horn-renommage, J.J. Hébrard et P. Luquet ont
formalisé l’idée qu’un ensemble de clauses propositionnelles qui n’est pas Horn-renommable, peut tout
de même l’être partiellement, et ont introduit pour cela le concept de Base de Horn. Cela leur a permis
de définir une méthode originale de simplification des formules clausales. Ils ont élaboré un
algorithme linéaire qui calcule la Base de Horn d’un ensemble de clauses donné, fournissant du même
coup un nouvel algorithme linéaire de reconnaissance des formules q-Horn, introduites par Boros,
Crama et Hammer. Par ailleurs, P. Luquet a étudié la présence de littéraux monotones dans les données
aléatoires du problème SAT, et a prouvé l’existence d’un phénomène de seuil. Ce résultat complète les
études sur le même sujet de Franco et Paull d’une part, et de Broder, Frieze et Upfal d’autre part.
Dans de nombreuses situations pratiques il est nécesssaire de générer toutes les solutions d’un système
de contraintes. N. Creignou et J.J. Hébrard examinent cette question pour les problèmes de
satisfaisabilité généralisée. Ils montrent que l’on peut générer avec un algorithme à délai polynomial
toutes les solutions de tout problème de satisfaisabilité généralisée équivalent à l’un des problèmes
suivants: Horn-SAT, anti-Horn-SAT, 2-SAT ou XOR-SAT. En s’appuyant sur les résultats
fondamentaux de Schaefer, ils prouvent que, pour tout autre problème de satisfaisabilité généralisée,
un tel algorithme n’existe pas à moins que P=NP. En revanche, on peut générer efficacement les
modéles de certaines formules clausales particulières. C’est le cas des "formules de Horn étendues"
introduites par Chandru et Hooker. Malheureusement, on ne connaît pas d’algorithme polynomial
pour reconnaître ces formules. E. Benoist et J.J. Hébrard donnent un algorithme linéaire de
reconnaissance des "ormules de Horn étendues simples", introduites par Swaminathan et Wagner,
améliorant ainsi substantiellement l’algorithme compliqué proposé par ces derniers.
Divers auteurs ont montré que si l’hypergraphe associé naturellement à un système de contraintes est
acyclique, alors ce système peut être résolu en temps polynomial. J.J. Hébrard et P. Rossa introduisent
la notion de semi-arbre qui fournit une caractérisation des hypergraphes acycliques. Ce nouveau cadre
permet de généraliser de façon naturelle la notion d’hypergraphe acyclique, et de définir de nouvelles
classes polynomiales pour les problèmes de satisfaction de contraintes. Ces classes peuvent, en outre,
être reconnues par des algorithmes de complexité polynomiale.
Parallèlement, J.J. Hébrard et P. Rossa ont conçu un algorithme linéaire de reconnaissance des graphes
semi-extraplanaires, qui, en cas de réponse positive, fournit une représentation planaire du graphe
donné. Cet algorihme permet de reconnaître efficacement les formules de Knuth. Il permet aussi de
résoudre en temps linéaire un problème de dessin des graphes planaires bipartis pour lequel on ne
connaissait qu’un algorithme quadratique.
Enfin, toujours pour les graphes planaires, L. Coupry a récemment publié un algorithme linéaire très
simple pour le problème des (s,t)-chemins disjoints (problème de Menger), améliorant un premier
algorithme de Weihe (1997, J. of Algorithms) tant pour la simplicité des structures de données, donc
B-10
pour la rapidité d’exécution, que pour la preuve de correction et de linéarité. Il a même obtenu, pour le
même problème, un algorithme encore linéaire, mais plus complexe dans le cas plus général des
graphes orientés planaires.
3. Automates Cellulaires et complexité (Véronique Terrier)
Les automates cellulaires (AC) sont un modèle de calcul massivement parallèle, capable de calcul
universel. Pour évaluer la puissance de ce modèle, en lien avec la complexité, on étudie la
reconnaissance des langages (pour éviter les problèmes de sortie).
V. Terrier s’intéresse aux petites classes de complexité sur AC, temps réel (qui est le temps minimal) et
temps linéaire, classes bien plus larges que les classes similaires pour les modèles séquentiels. La
puissance de calcul des AC, modèle parallèle, se traduit d’ailleurs par une difficulté étonnante: en
dimension 1 comme en dimenson 2 pour le voisinage de Von Neumann, on n’a aucune preuve qu’un
langage ne soit pas reconnu par aucun AC en temps réel et en espace égal à la taille de l’entrée.
Néanmoins, Choffrut et Culik ont montré qu’ en dimension 1, certains AC restreints, les AC
unidirectionnels (c’est à dire, définis pour le voisinage de 1 voisin) reconnaissent les mêmes langages
unaires que les automates finis. Dans ce cadre, V. Terrier a présenté deux approches pour montrer que
des langages binaires ne sont pas reconnaissables sur AC unidirectionnels (par des techniques
algébriques inspirées de celles de Hartmanis et Stearns pour le temps réel des machines de Turing et
de celles de Cole pour les automates itératifs); elle en a déduit que cette classe de langages n’est pas
close par concaténation et ne contient pas certains langages algébriques;
V. Terrier étudie maintenant les AC de dimension 2 avec des entrées elles aussi bidimensionnelles et
données en parallèle, ceci avec les voisinages standard de Von Neumann (4 voisins) ou de Moore (8
voisins). Dans ce cadre, elle a généralisé en dimension 2 les théorèmes d’accélération linéaire connus
en dimension 1; elle a exhibé un langage reconnu en temps réel avec le voisinage de Von Neumann qui
ne l’est plus pour celui de Moore, démontrant ainsi que pour le voisinage de Moore, le temps linéaire
est strictement plus puissant que le temps réel; enfin, toujours pour les langages de mots
bidimensionnels, elle compare les AC à d’autres modèles, dont le plus simple: les "deterministic online tessalation automata"
THEME 2 Algorithmique en Arithmétique, Codage et Cryptographie
B-11
Enseignants-chercheurs: Claude Carlet, Brigitte Vallée
Post-doctorant : Jean-Pierre Tillich (1995-1997)
Doctorants: Ali Akhavi, Julien Clément, Sylvie Dubuc, Philippe Guillot (Directeur du laboratoire
"Chiffre" de Thomson CSF),
En co-direction: David Pointcheval (au GRECC-Ens Ulm) jusqu'en 97, Jean-François Misarsky (CNET)
Chercheurs associés: Marc Girault (CNET-Caen).
Présentation générale
Le groupe mène ses activités de recherche dans trois principales directions. Les deux premières sont
de nature plus théorique et interagissent avec une troisième plus appliquée: la première est une
activité d'algorithmique en arithmétique et théorie de l'information, autour de Brigitte Vallée. La
seconde consiste en une étude des codes correcteurs d'erreur et des fonctions booléennes, autour de
Claude Carlet. Les deux activités se retrouvent en commun sur le terrain de la cryptographie, qui
constitue le troisième axe de recherche du groupe, et auquel a participé Jean-Pierre Tillich. Par ce
dernier volet, le groupe est un élément-clé du projet "Sécurité de l'Information".
Un groupe de travail a fonctionné en 95 et 96 quand le besoin s'en faisait sentir. il a rassemblé les
membres du groupe et certains membres du CNET afin de mettre en commun problèmes et résultats.
1. Algorithmique en arithmétique et théorie de l'information (B. Vallée, A. Akhavi,
J. Clément )
La problématique du thème a nettement évolué au cours de la période 95-98. Au départ, il s'agissait
d'analyser la complexité d'algorithmes classiques en "Computational Number Theory" ou de
construire de nouveaux algorithmes arithmétiques. Puis les méthodes "dynamiques" qui se sont
révélées essentielles dans l'analyse de ces algorithmes arithmétiques se sont avérées également
fructueuses dans un domaine algorithmique a priori différent: la théorie de l'information. Enfin, le
groupe commence à comprendre que ces méthodes puissent s'avérer encore plus générales, et débute une
réflexion en ce sens.
1.1. Algorithmique en arithmétique (B. Vallée, A. Akhavi)
Le domaine général de l'activité est celui de la géométrie algorithmique des nombres où l'on étudie les
réseaux euclidiens, c'est-à-dire l'ensemble des vecteurs qui s'expriment comme une combinaison
linéaire à coefficients entiers de vecteurs de l'espace Rn.
Le problème principal y est le problème de la réduction; réduire un réseau, c'est trouver une bonne base,
formée de vecteurs assez courts et assez orthogonaux. Les solutions algorithmiques récentes apportées à
ce problème, même approchées, permettent de résoudre beaucoup d'autres problèmes, dans des
domaines très variés, aussi bien en mathématiques pures qu'en programmation linéaire en nombres
entiers ou en cryptographie par exemple.
Lenstra, Lenstra et Lovasz, en 1983, ont résolu le problème de la réduction des réseaux au moyen d'un
algorithme, baptisé LLL, qui fonctionne en temps polynomial. Cet algorithme est très populaire, car
il a énormément d'applications pratiques. En contraste, le fonctionnement de cet algorithme est très
mal compris et peu de résultats précis concernant la complexité de cet algorithme ont été établis
jusqu'à présent: c'est le projet général de l'activité d'obtenir de tels résultats. Cet algorithme LLL est
une généralisation d'un vieil algorithme dû à Gauss, et coincide avec ce dernier en dimension 2. En
dimension quelconque, il utilise l'algorithme de Gauss en sous-procédure. Toute analyse de LLL doit
s'appuyer clairement sur une analyse de l'algorithme de Gauss. L'algorithme de Gauss peut être vu
d'ailleurs comme une généralisation de l'algorithme d'Euclide, et un certain nombre d'objets
B-12
fondamentaux sont communs aux deux algorithmes. C'est pourquoi les méthodes d'analyse de
l'algorithme de Gauss, de l'algorithme d'Euclide et de ses dérivés sont en un certain sens similaires.
Etude de l'analyse de la complexité en moyenne de l'algorithme LLL (A. Akhavi)
Dans sa thèse, soutenue en janvier 99, Ali Akhavi introduit des variantes del'algorithme LLL, avec
des tests de sortie légèrement différents des tests usuels. Il a entrepris l'étude de ces variantes, tant du
point de vue de la complexité, que de la qualité de la base de sortie. Il peut ainsi classer ces variantes
en deux classes, les nouveaux algorithmes "rapides" qui effectuent des tests plus grossiers, dont la
qualité de sortie reste cependant suffisante pour bon nombre d'applications et les algorithmes
classiques beaucoup plus lents. Il montre donc que les algorithmes classiques effectuent ainsi
beaucoup plus d'itérations sans que leur sortie soit à la mesure du travail accompli. L'étude de ces
variantes est très utile, tant pour élaborer un début de stratégie algorithmique que pour mieux
comprendre le comportement de l'algorithme LLL. Ali Akhavi a aussi élucidé le comportement de
l'algorithme lorsque le paramètre t est égal à 1. Ce cas correspond à la meilleure configuration de
sortie possible et Ali Akhavi montre que l'algorithme reste, à dimension fixée, polynomial en la
taille des données. Ces analyses sont importantes également dans le cadre de la géométrie
algorithmique, notamment dans l'éude des algorithmes qui évaluent le signe d'un déterminant n fois
n.
Analyse de la complexité en moyenne de l'algorithme de Gauss (B. Vallée 95-96)
Avec Philippe Flajolet et Hervé Daudé, B. Vallée a analysé la complexité moyenne de l'algorithme
de Gauss. Il apparaît ici une divergence profonde entre l'algorithme de Gauss et l'algorithme
d'Euclide, puisque la complexité moyenne de ce dernier reste logarithmique en moyenne, alors que
celle de l'algorithme de Gauss devient constante --i.e. asymptotiquement indépendante de la taille
de la base d'entrée--. Après avoir obtenu la valeur précise du nombre moyen d'itérations effectuées,
ils affinent ce résultat en effectuant l'analyse en distribution de cet algorithme et déterminant l a
densité dynamique correspondante. Ce travail utilise essentiellement des méthodes d'analyse
fonctionnelle appliquées à une famille d'opérateurs G_s, introduits et utilisés par Ruelle et Mayer,
afin d'étudier les propriétés dynamiques des fractions continues. Dans ce cas, ce sont les valeurs du
paramètre s proches de 2 qui sont intéressantes. Les résultats obtenus pour l'algorithme de Gauss
s'expriment, eux, en fonction des propriétés spectrales dominantes de ces opérateurs pour s= 4
L'ensemble de ce travail a fait l'objet d'un article paru au journal "Combinatorics, Probability and
Computing" (36 p)
Par la suite, B. Vallée a généralisé l'étude précédente dans le cas où la densité initiale était
quelconque --i.e. non nécessairement uniforme--. Le problème est plus difficile, car il nécessite
l'introduction d'une nouvelle famille d'opérateurs opérant sur des fonctions de deux variables qui
généralise la famille de Ruelle-Mayer. Prouvant que ces opérateurs généralisés ont des propriétés
très proches des opérateurs de base, elle obtient des résultats similaires aux précédents, et les
objets-limite dépendent alors de la "valuation" de la densité initiale au voisinage de l'axe réel.
L'ensemble de ce travail a fait l'objet d'une note aux CRAS et d'un article long paru dans "Acta
Arithmetica"; un résumé de ce travail a été accepté pour présentation aux Journées Arithmétiques'95
(Barcelone)
Enfin, elle a étudié un algorithme de comparaison de deux rationnels qui utilise le développement en
fraction continue. Cet algorithme sert aussi à évaluer les déterminants d'ordre 2 et est très utilisé en
géométrie algorithmique (avec des densités initiales non nécessairement uniformes). B. Vallée montre
que les mêmes méthodes d'analyse fonctionnelle s'appliquent dans l'analyse en moyenne de cet
algorithme
Etude de l'analyse de la complexité en moyenne de l'algorithme d'Euclide. (B. Vallée 96-97)
Des méthodes analogues d'analyse fonctionnelle s'appliquent également dans l'analyse en moyenne
de l'algorithme d'Euclide, et permettent d'améliorer les théorèmes de Philipp sur les lois-limite
vérifiées par les continuants: Ces résultats, obtenus en 1995 par B. Vallée, sont à la fois plus précis et
valides sous des hypothèses plus générales que les résultats de Philipp. Là encore, la preuve repose
B-13
sur l'étude des opérateurs de Ruelle-Mayer généralisés. L'ensemble de ce travail a fait l'objet d'une
autre partie des publications déjà citées précédemment, une note et un article paru dans "Acta
Arithmetica"; Un résumé de ce travail a été accepté pour présentation aux Journées Arithmétiques'95
(Barcelone).
B. Vallée a montré avec Philippe Flajolet que les opérateurs de Ruelle-Mayer (classiques ou
généralisés) permettent de donner des preuves simples et naturelles des phénomènes caractéristiques
et divers liés à la numération en fraction continue: Ces résultats ont fait l'objet d'une conférence
invitée au Congrès Fibonacci [Graz, juillet 96], et sont parus ensuite dans "Theoretical Computer
Science".
Analyse dynamique des fractions continues contraintes. (B. Vallée, 1997)
A la suite d'une question posée par Jean-Pierre Tillich, et motivée par des applications
cryptographiques, B. Vallée a étudié les nombres de l'intervalle [0, 1] dont le développement en
fraction continue obéit à des contraintes périodiques. On peut s'intéresser à trois ensembles: l'ensemble
des réels, dont on veut déterminer la dimension de Hausdorff; l'ensemble des rationnels et l'ensemble
des irrationnels quadratiques dont on veut déterminer l'exposant de densité et le comportement moyen
du developpement en fraction continue. Assez curieusement, ce problème n'avait pas été abordé
précédemment sous cette forme générale, et les méthodes pour le résoudre étaient diverses. En
associant au problème un système dynamique et un opérateur (qui engendre ces contraintes et qu'elle
baptise opérateur de Ruelle-Mayer contraint), elle décrit toutes les constantes caractéristiques des
trois ensembles, constantes qui s'expriment toutes en fonction de propriétés spectrales dominantes de
cet opérateur. Ce travail fait l'objet d'un article paru dans "Journal of Number Theory" (53 p). Elle a
exposé ces résultats lors des Journées Arithmétiques'97.
Analyse en moyenne du pgcd binaire. (B. Vallée, 1997-98)
L'algorithme du pgcd binaire opère par soustractions et divisions par 2. La simplicité de ces opérations fait que cet algorithme est très utilisé. La complexité moyenne de cet algorithme (sur des
entiers inférieurs à N) restait un problème ouvert depuis 1976, date où Richard Brent avait conjecturé
qu'elle était en A log N. B. Vallée a résolu cette conjecture; elle a analysé tous les paramètres relatifs
à cet algorithme binaire et a démontré que leur
valeur moyenne était asymptotiquement
logarithmique. Là encore, les méthodes employées sont "dynamiques". Cependant, les espaces
fonctionnels sur lesquels opère l'opérateur de Ruelle sont ici bien plus complexes que dans les autres
cadres où elle les utilise, du fait de l'existence des puissances de 2 qui créent des singularités: il faut
travailler avec des espaces de Hardy. Elle montre ainsi que les propriétés spectrales dominantes de
l'opérateur interviennent dans les constantes accompagnant les termes principaux des valeurs
moyennes étudiées. Ces constantes sont reliées à l'entropie du système dynamique associé et ne
semblent pas s'exprimer en fonction d'autres constantes connues. Actuellement, Paul Zimmermann
(INRIA Nancy) travaille à obtenir, via des méthodes d'analyse numérique, des valeurs approchées
de ces constantes. Une version courte de ce travail a été présentée au congrès ANTS'98 (Algorithmic
Number Theory Symposium, Portland, USA, juin 98). D. Knuth a jugé très favorablement ce travail
"a magnificent piece of analysis... among the top two or three problems I was hoping to see resolved in
my lifetime...". Les éditeurs d'un numéro spécial d'Algorithmica sur l'Analyse en moyenne l'ont
invitée à présenter un article long sur ce résultat, qui est paru en 1998 (25 p).
Analyse en moyenne des algorithmes du symbole de Jacobi (B. Vallée 1998)
Le symbole de Jacobi est lié au caractère quadratique modulaire et est largement utilisé dans un
contexte cryptographique. Grâce à la loi de réciprocité quadratique, ce symbole peut être calculé par
des algorithmes dérivés de l'algorithme d'Euclide, où les divisions euclidiennes classiques sont
remplacées par des pseudo-divisions avec des pseudo-restes impairs. Shallit a présenté trois
algorithmes de ce genre et en a fait en 1990 l'analyse dans le pire des cas. L'analyse en moyenne
restait ouverte, et semblait, selon Bach et Shallit, "quite hard". On pouvait par ailleurs songer à un
quatrième algorithme, assez naturel. Grâce aux méthodes dynamiques, B. Vallée a obtenu l'analyse
en moyenne de ces quatre algorithmes (sur les entiers inférieurs à N), en collaboration avec Charly
Lemée lors de son stage de Dea. Ces algorithmes font apparaître des systèmes dynamiques assez
complexes, à la fois markoviens et probabilistes, où se produisent des phénomènes bien connus en
systèmes dynamiques, ce qu'on appelle des phénomènes d'intermittence. Cependant, grâce à
B-14
l'introduction de la méthode d'induction, ils ont pu mener l'étude à bien, et classer les algorithmes
proposés en deux classes: l'un d'entre eux est "lent", puisque le nombre moyen de divisions est en A
log^2 N, et les trois autres sont rapides, avec un nombre moyen de divisions en A log N. La constante A
est reliée à des constantes connues dans le premier cas, alors que les constantes A des algorithmes
rapides, reliées étroitement à l'entropie des systèmes dynamiques associés, sont mathématiquement
bien définies mais non reliées à des constantes connues. L'analyse en moyenne montre que l'algorithme
le plus efficace n'est pas celui qui est employé dans les systèmes de calcul formel (Maple par
exemple). Pour l'instant, ce travail tout récent est un rapport de recherche dont une version courte est
soumise au congrès ICALP'99.
1.2. Algorithmique en Théorie de l'Information (J. Clément, B. Vallée 1997- 1998)
Sources dynamiques et problèmes de mots .(B. Vallée). En théorie de l'information, une source est un
mécanisme qui produit des mots. B. Vallée introduit un modèle très général de source, lié à des
systèmes dynamiques; ce modèle englobe les sources "sans mémoire", les chaînes de Markov, mais aussi
des sources plus complexes où le symbole émis peut dépendre de toute l'histoire précédente (comme
celle liée à la numération en fraction continue). De plus, ce mécanisme n'est pas seulement symbolique,
mais dépend aussi d'une densité initiale, qui peut modifier la distribution des mots produits. B.
Vallée montre comment des problèmes esssentiels sur les mots peuvent se traiter grâce à l'opérateur de
Ruelle lié au système dynamique. Elle relie d'abord les grandeurs caractéristiques d'une telle source,
en particulier l'entropie et la probabilité de coincidence, aux propriétés spectrales dominantes de
l'opérateur. Elle obtient ensuite une version forte du Théorème de Shannon-MacMillan-Breiman, où
elle montre que la distribution des mots est asymptotiquement gaussienne. Enfin, elle analyse la
coincidence entre deux mots. Dans tous ces résultats, c'est la valeur propre dominante de l'opérateur de
Ruelle qui joue un rôle décisif. Un article sur le sujet est soumis au journal Algorithmica (37p).
Analyse en moyenne d'arbres digitaux hybrides. (J. Clément, B. Vallée)
Ce travail a été mené en collaboration avec P. Flajolet. Le travail sur les arbres digitaux sur la source
"à fraction continue" pose la question de l'implémentation d'arbres digitaux sur un alphabet non fini.
Ils ont été amenés naturellement à analyser une structure d'arbre hybride mélangeant deux structures,
celle d'arbre digital et celle d'arbre binaire de recherche. Cette structure de données avait été
proposée dans un contexte légèrement différent par Bentley et Sedgewick, qui avaient effectué des
tests expérimentaux prouvant que cette structure était très bien adaptée à la recherche et pouvait
servir d'alternative aux tables de hachage.
Les auteurs ont fait l'analyse en moyenne de cette
structure de données dans le cadre des sources sans mémoire et des chaines de Markov et en ont
démontré l'efficacité. Ce travail a fait l'objet d'un article présenté au congrès international SODA'98
(Symposium on Discrete Algorithms, San Francisco, janvier 98) et publié dans les actes de ce congrès
(10p).
Analyse en moyenne d'arbres digitaux généraux associés à des sources dynamiques (J. Clément, B.
Vallée).
Ce travail a été mené également en collaboration avec P. Flajolet. Les auteurs analysent les
principaux paramètres (taille, longueur de cheminement, hauteur) des arbres digitaux généraux
(standards ou hybrides) construits sur une source dynamique générale. Il y a ainsi une double
généralité dans l'analyse (celle de la source et celle de la structure). Ils montrent comment leurs
valeurs moyennes dépendent des grandeurs caractéristiques de la source (entropie, probabilité de
coincidence). Ce résultat améliore des résultats précédents de Devroye et de Szpankowski, et utilise
une hyper-généralisation des opérateurs de Ruelle, (puisqu'il faut travailler en dimension 3 ou 4).
Un article sur le sujet est soumis au journal Algorithmica (40p).
1.3. Méthodes d'analyse dynamique (B.Vallée)
B-15
Depuis 5 ans, B. Vallée a pris progressivement conscience du rôle très important que pouvait jouer la
théorie des systèmes dynamiques dans l'analyse des algorithmes. C'est une idée tout à fait naturelle
que de considérer un algorithme et l'ensemble de ses données comme un système dynamique. Les données
sont alors les particules du système qui sont soumises au "champ" créé par les opérations que leur font
subir l'algorithme. A un système dynamique, on associe classiquement, depuis Ruelle, un opérateur
appelé opérateur de transfert, ou opérateur de Ruelle, qui permet de décrire l'évolution du système.
Cet opérateur dépend d'un paramètre s, est désigné par G(s) et agit sur un espace de fonctions d'une
variable. Il a, de par sa nature, des propriétés de positivité qui permettent d'exhiber des propriétés
spectrales dominantes. La valeur propre dominante joue ainsi un rôle essentiel dans la description
des phénomènes d'équilibre du système. Plus généralement, deux grandeurs associées à l'opérateur de
Ruelle, le déterminant de Fredholm, et la fonction Zeta permettent d'expliquer beaucoup de
phénomènes liés au système.
Des scientifiques comme Babenko, Wirsing, Mayer, Hensley ont déjà utilisé cette théorie, et
l'opérateur associé, pour obtenir des résultats importants mais ponctuels concernant la dynamique des
fractions continues. L'originalité du travail de B. Vallée tient à trois directions empruntées:
(a) Il est maintenant classique, en analyse d'algorithmes, de travailler avec des séries génératrices.
Vues comme des fonctions de variable complexe, leur singularité dominante permet d'obtenir des
renseignements précieux sur le comportement asymptotique moyen de l'algorithme. Selon B. Vallée,
l'opérateur de Ruelle peut être considéré comme un opérateur "super--générateur", en ce sens qu'il
engendre lui-même les séries génératrices associées à l'algorithme. C'est alors l'étude de la valeur
propre dominante qui va permettre d'appréhender le comportement asymptotique moyen de
l'algorithme.
(b) C'est la philosophie générale. Mais, de fait, pour pouvoir vraiment être utilisés en analyse
d'algorithmes, les opérateurs de Ruelle ont besoin d'être généralisés, afin d'opérer sur des fonctions de
plusieurs variables. B. Vallée a ainsi opéré plusieurs généralisations successives afin de parvenir à
une généralisation satisfaisante qui englobe toutes les précédentes. Cet opérateur, désigné par G(s)
étend d'ailleurs dans un sens fort, l'opérateur classique G(s) : l'opérateur généralisé a la même valeur
propre dominante, et son déterminant de Fredholm, tout comme sa fonction Zeta sont étroitement
reliés à leurs homologues classiques.
(c) Ce point de vue synthétique, qui lui a permis de dégager des principes généraux, et les bases de
l'analyse "dynamique" d'algorithmes, explique qu'elle ait pu appliquer cette méthode à des
domaines algorithmiques larges, l'algorithmique arithmétique et la théorie algorithmique de
l'information.
2. Codes Correcteurs et fonctions booléennes (Claude Carlet, Sylvie Dubuc, Philippe
Guillot)
2.1. Codes correcteurs d'erreurs (Claude Carlet).
Les codes correcteurs d'erreurs servent à corriger les erreurs dans la transmission de l' information
(codée au moyen d'un alphabet en général binaire) sur une ligne bruitée (satellites
de
télécommunication, sondes spatiales, disques compacts et CD-ROM etc...). Il s'agit de trouver de bons
codes du point de vue de la théorie de l'information, l'objectif étant de minimiser le temps
d'occupation de la ligne pour un pouvoir de protection donné. Les travaux dans ce domaine se situent
dans le cadre d'une recherche mathématique utilisant l'algèbre, la combinatoire et l'algorithmique,
développée pour la détermination et l'étude des meilleurs codes possibles.
Codes Z4-linéaires
B-16
L'introduction, en 1994, par Hammons, Kumar, Calderbank, Sloane et Solé de la notion de code Z4linéaire a ouvert un pan complet de recherche dans le domaine des codes correcteurs d'erreurs non
linéaires. C. Carlet a caractérisé les codes Z4-linéaires dont les mots non nuls sont tous de même poids
(article "One-weight Z 4-linear codes" à paraître dans les actes du congrès "International conference
on Coding Theory, Cryptography and Related Areas"). Il a établi une borne supérieure et une borne
inférieure sur leur distance au code de Reed-Muller d'odre 1. Cette distance joue un rôle important en
cryptographie.
Codes de Kerdock
C. Carlet a étudié les codes de Kerdock en exploitant leur Z4-linéarité. Il a mis en évidence des
propriétés combinatoires de ces codes, qui expliquent clairement pourquoi leurs paramètres de
correction sont optimaux. Il a donné une preuve très simple de la meilleure borne connue sur leur rayon
de recouvrement. Enfin, il a généralisé un résultat de Calderbank et Mc Guire concernant certains codes
obtenus par leur projection sur un hyperplan (article présenté au congrès "Finite Fields and
Applications" et paru dans ses actes, publiés par l'AMS).
Dualité formelle des codes non linéaires
La dualité formelle de codes non linéaires est une propriété importante de certaines classes de codes.
Claude Carlet a approfondi une propriété de dualité mise en évidence dans l'article fondateur des
codes Z4-linéaires (article "On Z4-duality", IEEE Transactions on Information Theory). Il a montré
qu'il existe toute une hiérarchie de dualité formelle et que la Z4-dualité se situe dans une position
intermédiaire entre la dualité formelle classique et la dualité plus forte des codes linéaires.
Codes Z2k-linéaires
Il n'existait pas jusqu'a présent de généralisation de la notion de code Z_4 linéaire à celle de code
Z 2k-linéaire. C. Carlet a introduit récemment une telle généralisation (article "Z2k -linear codes"
dans IEEE Transactions on Information Theory). Il en a déduit de nouveaux codes, qui généralisent les
codes de Kerdock et de Delsarte-Goethals. Ces codes ont des capacités de correction proches de celles
des meilleurs codes connus de longueurs et cardinalités comparables - peut-être meilleures, mais cela
reste à déterminer.
2.2 Fonctions booléennes (Claude Carlet, Sylvie Dubuc et Philippe Guillot)
Le chiffrement des mots binaires, en cryptographie symétrique, fait intervenir des fonctions
booléennes sur ces mots (ou plus généralement des fonctions dont les valeurs elles-mêmes sont des mots
binaires), qui doivent posséder certaines propriétés spécifiques pour être aptes à résister aux attaques
connues. L'étude de ces propriétés - en particulier celle des fonctions courbes - est en fait étroitement
liée à la théorie des codes correcteurs d'erreurs. Elle s'associe, en amont, à une étude plus générale des
fonctions booléennes sur les mots, dans le cadre de laquelle se situe la thèse, en cours, de Philippe
Guillot.
Fonctions sans corrélation (C. Carlet)
Le terme de fonction sans corrélation désigne en fait un critère hiérarchique sur les fonctions
cryptographiques utilisées pour combiner plusieurs registres à décalage linéaires (dans le cadre d'un
schéma de chiffrement par flot) dans le but de rendre inefficaces diverses attaques basées sur
l'algorithme de Berlekamp-Massey. C. Carlet a introduit plusieurs constructions de fonctions sans
corrélation définies sur des corps de Galois et des anneaux de Galois généraux de caractéristique paire,
dans un article publié dans les actes de EUROCRYPT'97. Ces nouvelles constructions établissent un lien
nouveau avec la notion de fonction courbe (voir ci-dessous).
Fonctions non-dégénérées (S. Dubuc)
Les fonctions booléennes utilisées dans les schémas cryptographiques ne doivent pas être linéairement
équivalentes à des fonctions indépendantes de certaines des variables (fonctions dites dégénérées). S.
Dubuc a fait une étude de ces fonctions. Elle a mis en relation le critère de non-dégénérescence avec
d'autres critères cryptographiques tels que l'absence de structures linéaires. Enfin, elle a établi les
conditions pour que les constructions connues de fonctions sans corrélation produisent des fonctions qui
soient en même temps non dégénérées.
B-17
Fonctions courbes binaires (C. Carlet et P. Guillot)
La notion de fonction courbe a été introduite en 1975 et joue un rôle important, à la fois en
cryptographie (les fonctions courbes sont, du point de vue de la distance de Hamming, les plus
éloignées des fonctions les plus simples que sont les fonctions affines) et en codes correcteurs (ce sont les
fonctions qui atteignent le rayon de recouvrement du code de Reed-Muller d'ordre 1). Mais deux classes
générales, seulement, avaient été déterminées jusqu'en 1993. Après avoir obtenu de nouvelles classes de
fonctions courbes à cette date, C. Carlet a mené un travail continu de recherche dans ce domaine.
L'ensemble de ses résultats (ainsi que ceux d'autres chercheurs tels que H. Dobbertin et X.-D. Hou) sont
présentés dans un article de survey qui paraitra prochainement dans les actes de la conférence ICC'97
(Portland, USA), et qui a fait l'objet d'une conférence invitée à ce congrès.
Nouvelles constructions secondaires (C. Carlet)
La connaissance des fonctions courbes progresse par l'introduction de nouvelles classes (constructions
dites "primaires") et de méthodes permettant d'obtenir de nouvelles fonctions à partir de classes
connues (constructions dites "secondaires"). C. Carlet a introduit une construction secondaire de
fonctions courbes qui généralise toutes celles qui étaient déjà connues et qui mène à des classes nouvelles
("A construction of bent functions" paru dans les actes du 3ème congrès "Finite Fields and
Applications").
Generalized Partial Spreads (GPS) (C. Carlet)
C. Carlet a introduit en 1995 une notion permettant une définition unifiée des fonctions courbes connues
(article publié par la revue "IEEE Transactions on Information Theory"). Ce nouveau point de vue sur
les fonctions courbes consiste, entre autre, à considérer ces fonctions comme des fonctions numériques
générales et non plus comme des fonctions à valeurs dans le corps à deux éléments. Il a mené à
l'introduction de la classe générale GPS.
Fonctions courbes et géométries discrètes (C. Carlet et P. Guillot)
Ce changement de point de vue sur les fonctions courbes s'est avéré très prometteur: il a permis de
caractériser les fonctions courbes en termes de géométries discrètes (article dans la revue "Journal of
Combinatorial Theory") et, plus récemment, d'obtenir une caractérisation univoque de ces fonctions
(article dans la revue Designs, Codes and Cryptography). P. Guillot a affiné ce dernier travail et a pu
montrer que la classe GPS engendre toute la famille des fonctions courbes par translation. Il en a déduit
également une caractérisation des fonctions courbes à l'aide d'un système diophantien, ouvrant la voie
au dénombrement de ces fonctions (article soumis). L'ensemble de ces résultats apporte un nouvel outil
pour leur étude, dans la perspective, sans doute lointaine, de leur classification.
Fonctions hypercourbes (C. Carlet)
C. Carlet a caractérisé les fonctions dont certaines restrictions sont courbes (fonctions dites
hypercourbes). Ce travail a donné lieu à une présentation au congrès PRAGOCRYPT'96 avec une
publication dans ses actes.
Fonctions courbes q-aires et fonctions parfaitement non-linéaires (C. Carlet et S. Dubuc)
La notion de fonction courbe a été généralisée à l'alphabet Zq=Z/qZ. Les différentes caractérisations
existantes des fonctions courbes binaires mènent à des notions qui, sur ce nouvel alphabet, définissent
des notions différentes; on distingue en particulier la famille des fonctions courbes et la sous-famille
des fonctions parfaitement nonlinéaires. C. Carlet et S. Dubuc ont mené une étude de ces différentes
notions. Ils ont montré qu'aucune des constructions connues de fonctions courbes ne définit des fonctions
parfaitement non-linéaires et ils ont introduit plusieurs constructions récursives générales de telles
fonctions (un article soumis).
Critère de propagation (C. Carlet)
Le travail de C. Carlet sur les fonctions hypercourbes s'est poursuivi dans l'étude et la construction des
fonctions qui satisfont plus généralement les critères de propagation. Ces critères, introduits par Bart
Preneel, jouent un rôle important en cryptographie. C. Carlet en a mené l'étude dans deux articles; le
premier a été publié dans les actes de EUROCRYPT'97; le deuxième est un article long à paraître
comme article invité dans la "Special Issue on Cryptology" de la revue "Information and
Computation", en l'honneur du Professeur Arto Salomaa à l'occasion de son 65ème anniversaire, et qui
a fait l'objet d'une conférence invitée au Workshop IEEE on Information Theory de 1998 (Irlande).
B-18
Une nouvelle représentation des fonctions booléennes (C. Carlet et P. Guillot)
Les formes conjonctive et disjonctive n'étant pas adaptées au cadre de la cryptographie et des codes
correcteurs, les représentations des fonctions booléennes utilisées usuellement sont la table de verité et
la forme algébrique normale. Chacune d'entre elles présente des avantages et des inconvénients, tant
du point de vue algorithmique que du point de vue théorique.
C. Carlet et P. Guillot ont introduit une nouvelle représentation, la forme numérique normale (NNF),
dont la complexité est comparable a celle des deux autres, et qui présente un ensemble d'avantages
incluant strictement ceux des deux autres représentations (article soumis). En particulier, la NNF
permet d'exprimer par des formules explicites le poids et le spectre de Fourier d'une fonction, de
caractériser directement les fonctions courbes, de déduire de nouveaux invariants affines sur les
fonctions booléennes et d'obtenir des propriétés de divisibilité des poids des fonctions. C. Carlet et P.
Guillot ont pu aussi caractériser par une formule unique le fait qu'une suite de valeurs entières
correspond à la suite des coefficients de la NNF d'une fonction booléenne.
Applications booléennes (C. Carlet)
Les schémas de chiffrement par blocs font intervenir des applications définies sur l'ensemble des mots
binaires d'une longueur n et à valeurs dans l'ensemble des mots binaires d'une longueur m (qui est
souvent égale à n). Les applications presque courbes sont les applications qui résistent le mieux à
l'attaque linéaire (elles sont également optimales, par la même occasion, relativement à l'attaque
différentielle). C. Carlet a fait, en collaboration avec P. Charpin (INRIA) et V. Zinoviev (Académie
des Sciences de Russie) une étude approfondie de cette notion, établi des liens étroits avec la notion de
code cyclique et introduit de nouvelles caractérisations et de nouvelles propriétés (article dans
Designs, Codes and Cryptography). Ce travail a fait l'objet d'une conférence invitée de C. Carlet au
"Mediterranean Workshop on Coding and Information Integrity" (Israel).
3- Le pôle Sécurité de l'Information (Claude Carlet, Brigitte Vallée,
Jean-Pierre Tillich,
Philippe Guillot, Jean-François Misarsky, David Pointcheval)
Il y a désormais un "triangle" cryptographique caennais reliant, outre le GREYC et le CNET, des
mathématiciens du laboratoire SDAD. La communauté caennaise a ainsi acquis au cours des dernières
années une position de force au niveau national sur le thème de la cryptographie et de la sécurité de
l'information, clairement reconnue dans les rapports du Livre Blanc, reprise par le CIAT, et soutenue
de manière significative dans le plan Etat-Région 95-99. La responsable scientifique universitaire de
ce pôle régional est Brigitte Vallée.
Les collaborations à l'intérieur de ce pôle touchent d'abord le domaine de la recherche: un certain
nombre de jeunes membres du CNET sont des anciens étudiants caennais, qui continuent à préparer leur
thèse dans le groupe. Le pôle cherche à développer l'enseignement de la spécialité: il y a maintenant
6 cours professés sur le sujet (il n'y en avait aucun en 1989) : deux cours de Dea, l'un de codage, l'autre
de cryptographie, deux cours pour les élèves-ingénieurs de l'ENSI, un cours pour les techniciens
supérieurs, et un cours de "Sécurité" (Compression, codage, cryptographie) dans le DESS
d'Informatique RADI "Réseaux et Applications Documentaires".
De octobre 95 à octobre 97 , Jean-Pierre Tillich a bénéficié d'une bourse post-doctorale financée par la
région. Ce jeune chercheur travaille dans un domaine à l'interface entre théorie des graphes, codes
correcteurs d'erreurs et cryptographie et a contribué à développer les interactions à l'intérieur du
projet "Protection de l'Information". En Cryptographie, dans le cadre d'un contrat avec le CNET
"Analyse et conception de générateurs pseudo-aléatoires et de fonctions de hachage arithmétiques", JP. Tillich a étudié la sécurité de fonctions de hachage arithmétiques ainsi que la génération de clés
RSA. Il a notamment mis en évidence qu'un projet de norme ISO/IEC présentait plusieurs lacunes.
Ainsi, il a proposé une attaque réaliste, fondée sur l'algorithme LLL, qui montre comment une
personne mal intentionnée peut frauder lorsqu'on laisse aux utilisateurs de la fonction de hachage la
possibilité de choisir eux-mêmes leurs paramètres. Le contrat a donné lieu à un rapport de fin de
contrat: "On the security of MASH1 and MASH2", (20p).
B-19
En théorie des graphes, motivé par la volonté d'estimer la probabilité d'erreur du décodage d'un
code correcteur, il a étudié
les inégalités isopérimetriques
et a découvert des inégalités
isopérimétriques très précises dans le cas de graphes qui sont des produits cartésiens. Il a également
prouvé que les graphes de Ramanujan ont, quand le nombre de sommets est "suffisamment" grand, un
indice de transmission pour les sommets qui est quasi optimal parmi les familles de graphes réguliers.
Cet indice de transmission est un important paramètre qui mesure la qualité d'un graphe quand il sert
d'architecture d'un réseau de communication. De telles familles n'étaient pas connues auparavant, et
ces graphes de Ramanujan sont pour ce paramètre considérablement supérieurs aux graphes de de
Bruijn qui sont bien connus pour avoir un "petit" indice de transmission.
La thèse de Jean-François Misarsky se déroule au CNET-Caen, et est codirigée par Marc Girault et
Brigitte Vallée. J.F. Misarsky travaille sur des attaques contre des systèmes de signature, et utilise
l'algorithme LLL à cette fin.
La thèse de David Pointcheval a été co-dirigée par J. Stern et B. Vallée, le directeur principal étant J.
Stern. D. Pointcheval a été AMN à Caen de 95 à 97.
Les publications de Misarsky et Pointcheval ne sont pas listées ici,
leurs laboratoires respectifs, le CNET-Caen et le GRECC-ENS-Ulm.
car elles dépendent plutôt de
THEME 3 Algorithmique Effective
Enseignants-chercheurs: Jean-Luc Lambert , Jean Saquet, Jerzy Karczmarczuk
B-20
Doctorants: Jean-Serge Boucher, Sylvain Ridard, Samuel Devulder, Samuel Dellacherie, Christophe
Broult.
Présentation générale
Ce thème est né d'une part de la venue à Caen de Jean-Luc Lambert, d'autre part du recrutement comme
maître de conférences de Jean Saquet. Ce thème a intégré l'ancien thème parallélisme ainsi que le
thème “programmation fonctionnelle et ses applications scientifiques” animé par Jerzy
Karczmarczuk.
Le groupe de Jean-Luc Lambert s'est tourné en grande partie vers la résolution de problèmes industriels
effectifs et a connu de ce fait une évolution complexe dépendant d’événements extérieurs liés à la
recherche de partenariats industriels (dépôt de bilan d’entreprise, entreprises ne donnant pas suite au
projets, thèses interrompues...). Il a aussi obtenu des résultats originaux et significatifs:
- invention d’une nouvelle technique de preuve logicielle (LPV: Linear Programming based
Validation),
- invention du concept d’objets algorithmiques,
- invention d’une nouvelle approche de classification fondée sur la programmation linéaire.
Pour diffuser la technologie LPV, cinq membres de l’équipe (J-S. Boucher, C. Broult, S. Dellacherie, S.
Devulder et J-L. Lambert) vont quitter le laboratoire pour créer la société LPV-Technology.
1- Algorithmique et programmation linéaire. ( J-L. Lambert, Bruno Crémilleux, Jean
Saquet, Jean-Serge Boucher,
Michel, Sylvain Ridard)
Christophe Broult, Samuel Dellacherie, ,Samuel Devulder ,
Guy
LPV : J-L. Lambert, Jean Saquet, Samuel Dellacherie, Christophe Broult, Samuel Devulder
Née d’une collaboration de Jean Saquet et de J-L. Lambert sur la preuve de protocoles, la technologie
repose sur l’idée d'utiliser la programmation linéaire pour faire de la preuve de protocoles. Plusieurs
étudiants en thèse ont testé et amélioré cette technique. Christophe Broult est le premier à appliquer
cette idée sur une modélisation de carte à puce dans le cadre d'une bourse de thèse au SEPT
(maintenant CNET-Caen) débutée en 1994. Un contrat CTI-CNET (Consultation thématique
informelle du CNET) a ensuite été signé en 1995 avec le CNET d'Issy-les-Moulineaux. Ainsi, Samuel
Dellacherie a pu, dans le cadre de sa thèse, appliquer cette technologie à l'étude des interactions de
services dans les réseaux téléphoniques intelligents. Enfin, Samuel Devulder a aussi rejoint l'équipe
en 1995 pour développer, dans le cadre d'une bourse de Docteur-Ingénieur CNRS-Région BasseNormandie, certains aspects théoriques et pratiques de la technologie.
La technologie a beaucoup évolué depuis 1994 et elle est à présent suffisamment mûre pour mettre en
oeuvre un transfert industriel. Un brevet a d'ailleurs été déposé par France Télécom, le CNRS et
l'Université de Caen le 3 Décembre 1997 (déposé sous le numéro 97 15217), ce brevet fait l’objet d’une
procédure d’internationalisation.
Cette technologie concurrence les techniques actuelles de preuve telles que PVS, COQ, B, HOL etc
ainsi que les techniques de model-checking. Par exemple des preuves de propriétés sur un système
téléphonique complet de cinq téléphones peuvent être obtenues en 50 secondes. Pour en savoir plus sur
les résultats obtenus par la technologie et voir une comparaison avec des outils existants, nous
renvoyons le lecteur au site web de lpv:
http://www.info.unicaen.fr/lpv
Par ailleurs, un essaimage est en cours pour commercialiser la technologie et l’intégrer aux outils du
marché.
Les objets algorithmiques (J-L. Lambert, Sylvain Ridard)
L’idée des objets algorithmiques est née de la constatation suivante: si l'idée de programmer
l'algorithmique par objets n'est pas nouvelle (plusieurs ouvrages classiques montrent le progrès réalisé
dès que les structures de données intègrent des méthodes), l'approche classique ne voit pas
l'algorithmique comme pouvant être entièrement programmée par objets. Si on veut aller plus loin
dans cette approche, on est confronté à une difficulté immédiate: l'objet naturellement défini en
B-21
algorithmique est la structure de données mais celle-ci ne correspond pas à la notion autonome d'objet.
Il en résulte une forte limitation de l'approche objet qui prend difficilement en compte une interaction
telle que: les éléments d'une file de priorité doivent répercuter leurs modifications à cette file.
Sylvain Ridard a commencé sa thèse en octobre 1993. Son travail a conduit à développer la notion
d’"objet algorithmique". En effet, l'utilisation efficace d'algorithmes se heurte au problème du
conditionnement des objets auxquels ces algorithmes s'appliquent. Ce conditionnement consiste pour
l'essentiel à disposer dans les objets de champs supplémentaires (longueur d'une liste, numéro du
sommet dans un graphe, chaînage de liste...) qui devront être maintenus à jour par l'algorithme et sans
lesquels l'algorithme ne peut atteindre la complexité annoncée dans
sa spécification. Ce
conditionnement nuit fortement à la réutilisation de composants algorithmiques et c'est la raison pour
laquelle le concept d'objet algorithmique a été proposé. Ces objets sont dotés d'un mécanisme original:
l'exportation qui permet à un objet d'exporter des comportements (pré-méthodes, post-méthodes,
champs..) à d'autres objets. L'utilisation de ce mécanisme, en réalisant automatiquement le
conditionnement augmente de façon sensible les possibilités de réutilisation des algorithmes.
Ce travail a été publié à LMO95. Malheureusement, S. Ridard a abandonné sa thèse ce qui n’a pas
permis de publier plus sur le sujet. Cependant une collaboration s’est engagée avec des partenaires
industriels: Thomson-LCR, Bouygues, CERT-Onera dans le cadre du dépôt d’un projet “saut
technologique” (projet EOLE) dont l’un des aspects est l’application du concept d’objet algorithmique à
la programmation des algorithmes hybrides. Les objets algorithmiques ont rencontré leurs
utilisateurs.
Classification et programmation linéaire (J-L. Lambert, B. Crémilleux, G. Michel)
Il s’agit d’un travail réalisé en collaboration avec Michel Henri-Amar du centre François Baclesse.
L’idée est d’utiliser la programmation linéaire comme algorithme de séparation de convexes puis de
l’appliquer à la classification. Bien que simple, cette idée n’avait pas été revisitée depuis son
apparition dans les années soixante. Or, en supprimant toute référence à une fonction distance, elle
permet de faire une classification fondée sur des critères purement géométriques. Les individus ne
permettant pas une séparation convexe des classes sont éliminés provisoirement. On calcule ainsi un
hyperplan séparateur de deux classes en connaissant très exactement les individus concernés par cette
séparation et ceux qui sont des exceptions. Cette approche originale donne une grande latitude pour
faire intervenir des critères introduits par un spécialiste du domaine et évite l’intervention de biais
dûs au choix arbitraire d’une fonction distance. Guy Michel a été invité, par le Professeur G. Ross, à
présenter son article au congrès IFCS 98 à Rome.
Logique des défauts et programmation linéaire (J-L. Lambert, Jean-Serge Boucher)
Jean-Serge Boucher a commencé sa thèse en octobre 1992. Il développe une vision de la logique des
défauts comme un système de contraintes sur lequel on applique des algorithmes de programmation
linéaire. Cette approche est originale et la thèse sera soutenue en janvier 99
2- Conception et preuve d’algorithmes répartis (Jean Saquet)
L'idée de base a été d'imaginer ce que pourrait être un outil de simulation de programmes répartis qui
permettrait soit d'illustrer ou de tester un programme en simulant quelques exécutions possibles du
système, éventuellement de le débogger en étant capable de disposer de points de reprise, soit de le
vérifier en effectuant des simulations exhaustives de toutes les exécutions possibles.
Dans ce but, Jean Saquet a développé un modèle de systèmes répartis à la fois proche d'une
implémentation et susceptible de preuves utilisant des techniques sophistiquées. Les propriétés fortes
des structures d’événements lui ont permis de développer une famille d’algorithmes économiques de
construction, partielle ou exhaustive, du graphe des états accessibles d’un système réparti. Ces
algorithmes sont aisément implémentables et utilisables dans le cadre de la simulation. Deux
exemples de stratégies de telles constructions ont été mises au point, la première construit un arbre
couvrant le graphe d’états, permettant donc d’accéder à tous les états, alors que la seconde se contente
d’une construction partielle du graphe, mais est néanmoins complète en ce sens que tous les
comportements possibles y restent observables.
B-22
L'usage des structures d'événements permet de ne calculer qu'une seule fois l'effet d'une action, toutes
les autres occurrences utilisant le résultat déjà calculé. Ceci ne change pas la complexité théorique des
algorithmes de construction du graphe, mais procure néanmoins un gain en temps appréciable en
pratique si ces calculs sont longs. Un outil a été développé par D. Ambroise pour mettre en évidence le
gain obtenu sur des exemples concrets.
La première partie des résultats (définition du modèle, développement d'algorithmes) a fait l'objet
d'une communication à une journée du pôle vérification de P.R.S. Paris, janvier 1996. La publication de
l'ensemble des résultats est en "stand-by" depuis un an à cause de problèmes personnels du chercheur
qui devait soutenir sa thèse sur le sujet (et dont la rédaction était pratiquement achevée)
3- Techniques "fonctionnelles" (J. Karczmarczuk)
Ce domaine de recherche est concentré autour d'algorithmisation et du codage des problèmes dits
"scientifiques" (numériques, semi-numériques, calcul formel et synthèse d'images). Les méthodes sont
*purement* fonctionnelles et exploitent le polymorphisme fonctionnel encadré par le systèmes de
typage dans des langages comme Haskell ou Concurrent Clean, et surtout la sémantique non-stricte
(paresseuse). J. Karczmarczuk a élaboré des techniques originales dans les domaines suivants:
- manipulation de séries infinies et d'autres structures de données co-récursives (fractions continues,
approximantes de Padé etc.)
- génération fonctionnelle de diagrammes de Feynman (dans des théories des champs simplifiées),
- techniques nouvelles de différentiation automatique des programmes permettant de générer *très*
facilement la séquence de *toutes* les dérivées d'une expression.
Il a présenté des exemples montrant comment les séquences paresseuses permettent de compacter le
codage de très nombreux algorithmes itératifs de manière très significative. Actuellement il applique
les techniques paresseuses au domaine de modélisation 3D. Par ailleurs, il s'intéresse aux documents
lors d'encadrement de projets de Dess par exemple.
B-23
PERSPECTIVES DE L'EQUIPE ALGORITHMIQUE:
L'équipe Algorithmique va évoluer ces prochaines années. Jean-Luc Lambert et cinq de ses
doctorants quittent le laboratoire pour créer une entreprise. Cet essaimage, tout à fait positif
par ailleurs pour le laboratoire, fait disparaître l'ancien Thème 3, et amène naturellement
l'équipe à se restructurer afin de pouvoir intégrer différemment les activités de J. Saquet et de
J. Karczmarczuk. Par ailleurs, l'ancien Thème 1 se sépare en deux, l'activité de modélisation
créant le nouveau Thème 1 autour d'E. Grandjean, tandis que l'activité plus algorithmique se
retrouve dans le nouveau Thème 2. L'ancien Thème 2 se retrouve essentiellement dans le
nouveau Thème 3, en y intégrant J. Saquet, tandis que J. Karczmarczuk s'intègre dans le
nouveau Thème 1.
Modèles de Calcul, Complexité
Algorithmes combinatoires
Algorithmique et
Sécurité de l'Information
Etienne Grandjean
Jean-Jacques Hébrard
Claude Carlet
Ionona Ranaivoson
Jerzy Karczmarczuk
Véronique Terrier
Etienne Grandjean
Brigitte Vallée
Jean Saquet
Doctorants
Doctorants et post-doctorants
Doctorant et Post- Doctorant
Florent Madelaine (*)
Jean-Marie Le Bars
Emmanuel Benoist
Philippe Luquet
Maud Paulmier
Pascal Rossa
Associées
Nadia Creignou
Malika More
Ali Akhavi
Julien Clément
Sylvie Dubuc
Philippe Guillot
Jean-François Misarsky (*)
Associé
Marc Girault
(*) en co-direction.
Par ailleurs, l'évolution des domaines d'intérêt des chercheurs est sensible dans deux
directions. D'abord, des thématiques transverses apparaissent plus nettement qu'avant dans
le domaine des méthodes. L'aléa ainsi devient un des thèmes fédérateurs de l'équipe.
Enfin, dans ses projets généraux, l'équipe désire mettre sur pied un groupe de travail régulier,
parallèle au séminaire d'algorithmique, avec deux points de vue complémentaires. Une partie
des séances pourrait être consacrée à des exposés ciblés ou techniques (lecture d'un article par
exemple) et l'autre partie des séances serait au contraire assez informelle: les membres de
l'équipe pourraient y raconter leurs travaux en cours, leurs motivations, afin de rendre plus
vivante la recherche à l'intérieur de l'équipe. C'est en particulier essentiel pour les
doctorants.
1. Thème Modèles de calcul et complexité.
B-24
Enseignants-chercheurs: Etienne Grandjean, Jerzy Karczmarczuk, Solomampionona Ranaivoson,
Véronique Terrier
Membres associées: Malika More, Nadia Creignou
Doctorants et post-doctorants: Jean-Marie Le Bars, Florent Madelaine.
On souhaite développer des recherches autour de deux axes principaux, assez liés,
1) Complexité des problèmes de satisfaisablité, en liaison avec le
Algorithmique combinatoire qui prend son autonomie;
2) Modèles de calcul, complexité en temps linéaire et complexité descriptive.
thème
Dans l’axe 1, on compte développer ou initier des collaborations avec H. Kleine Büning (Univ.
Paderborn, Allemagne) autour des réductions au problème SAT, et, en Grande-Bretagne, P.
Jeavons et I. Stewart sur la complexité des problèmes de satisfaction de contraintes.
Dans l’axe 2, on devra développer et faire aboutir les recherches entreprises en collaboration
avec l’équipe allemande du projet Procope (Univ. Mainz) sur les représentations algébriques et
logiques du temps linéaire déterministe et les notions de réduction pour le temps linéaire.
Complexité du problème SAT et nombre de variables. En lien avec les travaux antérieurs de N.
Creignou et E. Grandjean sur les nombreux problèmes NP-complets linéairement interréductibles
au problème SAT (problèmes SAT-équivalents), celui-ci a commencé, avec H. Kleine Büning
(Univ. Paderborn, Allemagne), une recherche sur la complexité du problème SAT et des
problèmes SAT-équivalents, en liaison avec le nombre de variables propositionnelles des
formules: on sait le rôle central de ce nombre dans la complexité pratique des algorithmes et
heuristiques pour SAT, telle la procédure de Davis et Putnam. Il reste à déterminer l’analogue
de ce nombre pour les problèmes de graphes SAT-équivalents, telle la 3-coloriabilité, qui paraît
être le nombre de sommets du graphe. On souhaite aussi approfondir cette étude, par exemple en
lien avec les phénomènes de seuil que N. Creignou étudie pour les problèmes SAT.
Temps linéaire déterministe et réductions. On espère, à court ou moyen terme, et avec les
informaticiens de Mainz,
- simplifier encore la caractérisation algébrique obtenue pour la classe DLIN (classe des
problèmes linéaires),
- en tirer une caractérisation logique de cette classe, comme on en a pour NLIN,
- en déduire des problèmes DLIN-complets plus naturels que ceux déjà obtenus . Un tel résultat
fournirait un algorithme linéaire ayant un caractère d’universalité, car il fournirait la solution
à de nombreux problèmes concrets dits linéaires -parcours de graphes, planarité, formules de
Horn, etc - et dont les stratégies algorithmiques sont très variées.
- par des expérimentations et un paramétrage de la mémoire (taille des mots-mémoire des
RAM), mieux élucider en quoi le tri, variante du “Radix Sort”, prouvé être dans DLIN, donc
linéaire en temps et mémoire, est intéressant et utilisable dans certaines applications,
- enfin, étudier systématiquement d’autres applications de la notion de réduction affine à
d’autres classes de complexité (ex. la classe des problèmes SAT-équivalents) ou à d’autres
problèmes combinatoires polynomiaux (HORN-SAT, 2-SAT, Couplage Maximum, etc) afin de
mieux comprendre les liens étroits qu’on soupçonne entre certains de ces problèmes.
Une logique minimale pour les problèmes algorithmiques de graphes. S. Ranaivoson et C.
Lautemann ont récemment montré qu’une logique minimale (second ordre existentiel avec
seulement des fontions unaires et une unique variable du premier ordre) est suffisante pour
exprimer nombre de concepts algorithmiques des arbres ou des graphes: relation “ancêtre” d’un
arbre, ordre préfixé ou postfixé d’un parcours en profondeur, biconnexité, planarité, etc. Ils
espérent en déduire que la classe des relations exprimables dans cette logique est non seulement
étonnamment étendue, mais aussi est close pour quelques opérateurs tels que la fermeture
transitive.
Problèmes de satisfaction de contraintes, complexité et théorie des modèles finis. E. Grandjean
voudrait, avec N. Creignou et J.J. Hébrard, développer des collaborations avec Iain Stewart
(Univ. Leicester, Grande-Bretagne) et Peter Jeavons (Univ. Londres) à l’occasion de la
B-25
cotutelle de thèse de Florent Madelaine en Angleterre (début: janvier 1999), portant sur
l’étude des problèmes de satisfaction de contraintes (CSP) et de leur complexité, ceci par une
double approche algèbrique (algèbre des clones de Post) et logique (complexité descriptive:
théorie des modèles finis).
Logique monadique et réductions indépendantes des machines pour les problémes liés à SAT.
C. Lautemann a récemment observé qu’une logique, variante de la logique du second ordre
existentiel monadique, exprime exactement les problèmes linéairement réductibles au
problème SAT (par exemple le problème de noyau d’un graphe). Il a aussi mis au point pour
cette classe une notion associée de réduction logique très stricte (définissable au premier
ordre). On souhaite d’une part mieux comprendre sa logique monadique, d’autre part comparer
sa réduction logique avec notre réduction affine.
Probabilités asymptotiques des propriétés exprimables dans la logique du second ordre
existentiel à deux variables: JM Le Bars a construit une variante de la propriété de noyau qui
est exprimable dans cette logique et qui n'admet pas de probabilité asymptotique,
contrairement à la propriété de noyau qui est presque sûrement vraie. Il va poursuivre ce
travail dans deux directions:
- Déterminer s'il existe des propriétés exprimables dans la logique du second ordre existentiel
et admettant une probabilité asymptotique différente de 0 et 1.
- Prouver que l'on obtient une loi 0-1 lorsque l'on restreint l'étude aux graphes non-orientés. Il
espère obtenir le même résultat sur les graphes orientés.
Dans les deux cas, si la loi 0-1 est vérifiée, il construira un algorithme décidant, pour chaque
énoncé, s'il est presque sûrement vrai ou presque sûrement faux et déterminera sa complexité.
Propriétés presque sûrement vraies en algorithmique probabiliste et en cryptographie. JM Le
Bars souhaite utiliser la propriété de noyau dans des algorithmes probabilistes. Il va pour
cela rechercher une majoration satisfaisante de la vitesse de convergence de cette propriété. Il
va également s'inspirer d'un résultat récent de protocole "zero-knowledge" de Juels et Peinado
sur la plus grande clique d'un graphe aléatoire pour définir de tel protocole à partir de la
propriété de noyau. La propriété de noyau peut servir dans ces deux domaines non seulement
parce qu'elle est NP-complete mais aussi parce qu'elle reste difficile en moyenne (il est
difficile de trouver un noyau dans un graphe aléatoire).
Logiques a deux variables et logiques modales. les logiques modales et temporelles
sont facilement traduisibles par des logiques à deux variables. JM Le Bars souhaite étudier
dans quelle mesure ces traductions peuvent resoudre plus simplement des problèmes posés dans
les logiques modales et temporelles.
Automates cellulaires et complexité. V. Terrier désire prolonger son travail dans deux
directions :
- la comparaison des AC avec d’autres modèles travaillant sur des langages à 2 dimensions, en
débutant par le plus simple : les "deterministic on-line tessalation automata".
- Pour le voisinage de Von Neumann, elle conjecture que le problème de l’égalité entre temps
réel et temps linéaire est équivalent au problème de clôture par rotation à 180° (comme
Ibarra et Jiang l’ont montré en dimension 1 avec la clôture par miroir).
Applications de la programmation fonctionnelle "paresseuse". Jerzy Karczmarczuk continue à
élaborer des techniques fonctionnelles, toujours en vue des applications scientifiques possibles.
Il prépare son habilitation à diriger les recherches. En particulier, il projette
- la construction fonctionnelle et codage paresseux de quelques algorithmes dans la théorie des
perturbations en Mécanique Quantique (un article est en préparation, "officieusement" accepté
par le journal "Computers in Physics").
- l'implantation effective de calculs sur des structures abstraites (objets fonctionnels), qui
donne aux physiciens-théoriciens un fascinant outil de manipulation des vecteurs d'état,
indépendant de leur représentation (base) concrète. Le codage des perturbations, ou des
méthodes asymptotiques comme WKB devient très court et lisible.
- l'application directe des langages fonctionnels (Concurrent Clean en particulier) dans la
modélisation et synthèse d'images. En particulier,
B-26
- il étudie le paramétrage, la génération, la de-implicitisation, la déformation et la
combinaison des surfaces représentées fonctionnellement. Il construit en ce moment un paquetage
universel qui utilise ses travaux précédents sur la différentiation automatique (calcul des
tangentes, normales, et autres propriétés appartenant à la géométrie différentielle, qui
d'habitude sont considérées comme très difficiles à coder). Un article a été écrit, et accepté par
la III Conférence Internationale Latino-Américaine de programmation fonctionnelle.
- il étudie également le codage d'une machine de rendu (lanceur de rayons) extensible
par les "shaders" fonctionnels, et la possibilité de définir des textures procédurales adaptées
au rendu des scènes décrites par des objets fonctionnels. L'étape suivante naturelle sera la
génération des animations basées sur la modélisation "physique", où le système lui-même va
générer les équations différentielles du mouvement, mais le succès de ce projet dépend surtout de
l'efficacité des compilateurs.
2. Thème Algorithmique combinatoire
Enseignants-chercheurs: Jean-Jacques Hébrard, Etienne Grandjean
Doctorants: Emmanuel Benoist, Philippe Luquet, Maud Paulmier, Pascal Rossa
L'objectif est de continuer les travaux de recherche fondamentale en cours, mais aussi de
travailler sur des sujets de recherche appliquée en liaison avec des chercheurs d'autres
équipes.
E. Benoist et J.-J. Hébrard vont poursuivre l'étude des classes de formules dont les modèles
peuvent être générés par un algorithme à délai polynomial. Leur travail sur diverses
extensions des formules de Horn devrait aboutir assez rapidement.
Les notions de semi-arbre et de graphe semi-k-cordal ont des applications immédiates dans le
cadre des problèmes de satisfaction de contraintes. Mais, pour l'instant, les algorithmes
utilisés sont relativement naïfs. Un sujet de recherche futur consistera à définir des
algorithmes plus efficaces, en particulier pour les problèmes de reconnaissance des graphes
semi-k-cordaux.
Dans un grand nombre d'applications, les problèmes de satisfaction de contraintes sont
dynamiques, c'est-à-dire que l'ensemble des variables et des contraintes évolue dans le temps
du fait de l'environnement. Maud Paulmier débute cette année une thèse, dont le sujet est
l'élaboration d'algorithmes de résolution, pour les problèmes de satisfaction de contraintes
dynamiques, correspondant aux diverses classes polynomiales connues (contraintes de Horn,
implicationnelles etc.).
La volonté de collaborer avec des chercheurs d'autres équipes sur des sujets appliqués vient de
se concrétiser en un projet de travail commun avec des chimistes du CERMN (Centre d'Etudes et
de Recherche sur le Médicament de Normandie). Bruno Crémilleux, membre du GREYC de
l'équipe Apprentissage, est également associé. Il s'agit, entre autres choses, de définir des
algorithmes de recherche d'analogies de structure entre des molécules qui sont codées par des
mots. Il faut noter que J.-J. Hébrard a déjà travaillé sur ce type de sujet (recherche de motifs
dans les mots, définition de critères de similitude etc.). Un étudiant de DEA est intéressé par
ce sujet. Il devrait continuer en thèse.
3- Algorithmique et Sécurité de l'information.
Enseignants-chercheurs: Claude Carlet, Jean Saquet, Brigitte Vallée.
Doctorants et post-doctorants: Ali Akhavi, Julien Clément, Sylvie Dubuc, Philippe
Jean-François Misarsky. Associé: Marc Girault
B-27
Guillot,
Ce thème trouve son unité dans les applications aval qu'il a choisies, qui sont liées à la
protection de l'information et du logiciel. Jean Saquet travaille dans la Validation
Logicielle, tandis que les activités de C. Carlet et de B. Vallée trouvent un débouché naturel
en Protection de l'Information. Les recherches de C. Carlet restent centrées sur les codes
correcteurs d'erreur et les fonctions booléennes, tandis que les activités de B. Vallée, tout en
restant liées à l' algorithmique arithmétique et à la théorie algorithmique de l'information,
évoluent vers une thématique plus méthodologique : l'analyse "dynamique" des algorithmes.
Méthodes dynamiques en analyse d'algorithmes. Applications à l'arithmétique et à la
théorie de l'information (Brigitte Vallée, Ali Akhavi, Julien Clément)
B. Vallée et ses doctorants désirent prolonger les résultats obtenus ces quatre dernières
années dans les trois directions suivantes:
(a) Pour le moment, le groupe a appliqué le point de vue fructueux d'analyse "dynamique"
d'algorithmes à deux domaines algorithmiques principaux, l'algorithmique arithmétique et
la théorie algorithmique de l'information. Ces domaines sont déjà larges, mais la
compréhension plus profonde de la théorie des systèmes dynamiques suggère un grand nombre
d'autres applications possibles, notamment les algorithmes qui ne "préservent pas l'aléa" et
qui échappent ainsi aux approches classiques.
(b) Pour l'instant, le groupe s'est essentiellement limité à l'analyse en moyenne des
algorithmes. Cette analyse peut être étendue de deux manières: l'analyse d'autres
paramètres caractéristiques de l'évolution de l'algorithme, ce qui généraliserait l'étude des
séries génératrices doubles de l'analyse en moyenne classique; l'analyse en distribution, qui
permettrait d'obtenir des résultats extrêmement précis. Cette analyse apparaît reliée à
l'existence d'une région sans zéros pour la généralisée de la série Zeta du système dynamique.
Par exemple, l'analyse en distribution des algorithmes du style fraction continue est ainsi
reliée à l'hypothèse de Riemann. Le groupe se propose de donner des conditions suffisantes
explicites sous lesquelles l'analyse en distribution pourra êre menée à bien.
(c) Enfin, le groupe désire, dans les domaines où la méthode s'applique déjà, travailler sur
des objets plus complexes. En théorie de l'information, B. Vallée et J. Clément se proposent
d'analyser
le comportement moyen des
arbres-suffixes (suffix-trees), si utiles dans
l'implémentation des algorithmes de compression du style Lempel-Ziv, et dans les grands
dictionnaires de données textuelles. Enfin, il y a clairement un système dynamique sous-jacent
à l'algorithme célèbre de réduction des réseaux LLL (algorithme de base en théorie
algorithmique des nombres et en cryptographie). En collaboration avec Ali Akhavi, et en
prolongement de la thèse de ce dernier, B. Vallée se propose de voir si l'analyse dynamique
de l'algorithme LLL peut être menée à bien. Ceci permettrait d'obtenir une analyse de cet
algorithme, à la fois si utilisé et si mal compris.
Codes correcteurs d'erreur et fonctions booléennes. (Claude Carlet, Sylvie Dubuc, Philippe
Guillot)
(a) Rayon de recouvrement du code de Reed-Muller d'ordre 1: La distance de Hamming
maximale entre une fonction booléenne f quelconque définie sur l'espace des mots de longueur n,
et l'ensemble des fonctions affines sur le même espace (i.e. le rayon de recouvrement du code de
Reed-Muller d'ordre 1) est inconnue si n est impair et supérieur ou égal à 9. Un sous-problème
de ce célèbre problème ouvert consiste à se restreindre au cas où f est de degré 3. C. Carlet a
entrepris en collaboration avec P. Charpin un travail sur ce sujet, et prévoit également de
travailler sur un problème similaire concernant les fonctions équilibrées (i.e. prenant les
valeurs 0 et 1 équitablement). Ce problème est ouvert, que n soit pair ou impair, et il intéresse
aussi bien le codage que la cryptographie.
(b) Représentation et normalité des fonctions booléennes: La nouvelle représentation des
fonctions booléennes par la forme numérique normale a d'ores et déjà montré des propriétés très
fortes, qu'il s'agit maintenant d'exploiter pour l'étude de ces fonctions. Par exemple, il devient
possible, grâce à la NNF, de générer de façon presque aléatoire des fonctions booléennes ayant
certaines spécificités (divisibilité du poids par des puissances de 2, forte nonlinéarité etc...).
Il était impossible de le faire avec la forme algébrique normale puisque celle-ci ne permet pas
de spécifier à l'avance les propriétés combinatoires des fonctions choisies. Une recherche sur
B-28
machine utilisant cette représentation est prévue pour tenter de générer des fonctions
booléennes de bas degré, éventuellement courbes, qui ne soient constantes sur aucun sous-espace
affine de dimension proche de la moitié de la longueur des mots sur lesquels elles sont définies
(i.e. non-normales). Cela invaliderait une conjecture de H. Dobbertin, et les fonctions
"monstrueuses" ainsi construites offriraient un champ très intéressant d'analyse.
(c) Fonctions courbes binaires: L'introduction de la classe GPS a montré, entre autre,
l'importance des indicatrices d'espaces affines pour engendrer de nouvelles classes de fonctions
courbes. Dans le cadre de cette classe, ces espaces sont de dimension égale à la moitié de la
longueur des mots sur lesquels les fonctions sont définies. Il reste maintenant à exploiter cette
piste avec des espaces de dimensions proches, mais inférieures à ce nombre. De premiers
résultats intéressants ont été obtenus par C. Carlet. Plus généralement, les nouvelles approches
introduites par C. Carlet et P. Guillot dans leurs articles récents sont prometteuses et non
encore complètement expoitées. Une équipe de quatre chercheurs (avec l'arrivée de S. Dubuc et
d'un Maître de conférences en informatique qui s'intéresse au sujet: Hamid Rahbar) va
continuer le travail dans ce sens. Enfin, les derniers résultats obtenus par P. Guillot débouchent
sur des problèmes de dénombrement de systèmes quadratiques diophantiens. Il s'avère (et ce
n'est pas surprenant, étant donnée la difficulté du problème) que, pour les paramètres des
systèmes obtenus, il n'existe pas de résultats connus dans le domaine de la recherche
diophantienne. La problématique des fonctions courbes débouche ainsi sur des problèmes
ouverts dans ce domaine et ouvre un nouvel axe de recherche.
(d) Anneaux de Galois et fonctions courbes q-aires : L'article de Hammons, Kumar,
Calderbank, Sloane et Solé a mis en évidence l'importance de la restriction de la fonction
trace aux ensembles de Teichmuller des anneaux de Galois, pour la construction de bons codes et
de bonnes fonctions q-aires. Peu de choses sont connues sur sa distribution de valeurs, ce qui fait
un axe de recherche intéressant. Parallèlement, le travail sur les fonctions courbes q-aires va
se poursuivre.
Validation logicielle. (Jean Saquet)
Le cadre général est la validation d'algorithmes répartis. De nombreux modèles et techniques
ont été proposés (automates à états finis, réseaux de Petri, démonstration automatique, …)
Aucune de ces techniques ne peut prétendre résoudre tous les problèmes de validation. Elles ont
par contre toutes un ou des domaines de prédilection dans lesquels elles sont assez efficaces,
d'où l'idée de fractionner les problèmes de validation et d'utiliser la technique la plus
adaptée à chaque sous-problème.
Jean Saquet a déjà exploité l'idée de la modularité des preuves d'algorithmes dans sa thèse
(décembre 1991), mais simplement dans le but de simplifier l'écriture des preuves, sans utiliser
des techniques différentes pour les différents sous-problèmes. Par ailleurs, diverses équipes
ont depuis quelques années, travaillé en ce sens. En particulier, en France, le LSV (ENS
Cachan) utilise cette idée de combinaison de méthodes diverses (les unes pour décomposer les
problèmes, les autres pour résoudre les sous-problèmes), essentiellement dans le cadre de la
validation des algorithmes répartis temps réel.
L'objectif est de valider des algorithmes en utilisant la décomposition en sous-problèmes et
des techniques appropriées à chacun d'eux, en se basant sur des exemples d'algorithmes
répartis, temps réel ou non, déjà validés (donc dans ce cas en améliorant les temps de calcul) ou
non et, si possible, de mettre en évidence des méthodes pour cette décomposition, pouvant être
utilisées dans de nombreux cas.
Ce projet s'inscrit dans le cadre de la sécurité (des protocoles notamment) et pourrait se
réaliser en collaboration avec des chercheurs d'autres laboratoires avec lesquels J. Saquet est
en contact depuis plusieurs années (LSV Cachan, LRI Orsay en particulier). Ce projet peut
aussi intéresser certains chercheurs du groupe I3 du GREYC, notamment ceux qui travaillent en
I.A. distribuée
EQUIPE ALGORITHMIQUE
Thèses et publications
B-29
Thèses d'habilitation (dirigées par des membres de l'équipe)
Nadia Creignou, "Problèmes de satisfaction de contraintes booléennes et complexité",
Université de Caen, directeur: E. Grandjean, 18 janvier 1999. Rapporteurs: P. Jeavons, J.
Mazoyer, M. Robson, M. de Rougemont. Jury: P. Dehornoy, J.Y. Girard, E. Grandjean, C.
Kenyon, J. Mazoyer, J.P. Ressayre, M. Robson, M. de Rougemont
Marc Girault, Université de Caen, directeur : B. Vallée, juin 99 .
Thèses de doctorat (Université de Caen)
Arnaud Durand, "Hiérarchies de définissabilité logique au second ordre", 18 juin 1996,
directeur: E. Grandjean. Rapporteurs: E. Gradel, C. lautemann, M. de Rougemont. Jury : E.
Grandjean, M. de Rougemont, J. Stern, P. Enjalbert, S. Grumbach, P. Dehornoy, F. Wehrung.
Frédéric Olive, "Caractérisations logiques des problèmes NP: robustesse et normalisation", 2
juillet 1996; Directeur: E. Grandjean. Rapporteurs: P. Cegielski, G. Gottlob, J. Lynch. Jury : P.
Cegielski, E. Grandjean, S. Grigorieff, J-J. Hébrard, J-E. Pin, D. Richard.
David Pointcheval, "Les preuves de connaissance et les preuves de sécurité", soutenue le 12
décembre 1996, co-directeurs: J. Stern, B. Vallée. Rapporteurs: M. Bellare, G. Robin, C.P.
Schnorr. Jury: C. Carlet, R. Cori, Ph. Flajolet, M. Girault, G. Robin, J. Stern, B. Vallée.
Jean-Marie Le Bars, "Probabilités asymptotiques et pouvoir d’expression des fragments de la
logique du second ordre", janvier 1998. directeur: E. Grandjean. Rapporteurs: P. Kolaitis, J.
Lynch, M. de Rougemont; Jury: S. Abiteboul, P. Dehornoy, W. Fernandez de la Vega, E.
Grandjean, M. de Rougemont, J. Stern, P. Toffin, B. Vallée
Ali Akhavi, "Analyse comparative d'algorithmes de réduction dans les réseaux aléatoires",
soutenue le 19 janvier 1999, directeur: B. Vallée. Rapporteurs: R. P. Brent, F. Morain, C.P.
Schnorr. Jury: H. Daudé, Ph. Flajolet, E. Grandjean, C. Kenyon, F. Morain, B. Vallée.
Jean-Serge Boucher, soutenue fin
janvier 99. Directeur: J-L. Lambert. Rapporteurs: C.
Froidevaux, T. Schaub; Jury: P. Enjalbert, C. Froidevaux, T. Schaub, C. Schwind, J-L. Lambert.
Philippe Guillot (mars 99 ). Directeur: C. Carlet. Rapporteurs: H. Dobbertin, D. Krob; Jury: C.
Carlet, P. Charpin, D. Krob, B. Vallée, J. Wolfmann.
Revues internationales avec comité de lecture
C. Carlet, "Generalized Partial Spreads", IEEE Transactions on Information Theory , vol 41 no 5
(1995) pp. 1482-1487.
C. Carlet, "On Z4-duality", IEEE Transactions on Information Theory , vol 41 no 5 (1995) pp.
1487-1495.
C. Carlet et Ph.
Guillot, "A characterization of binary bent functions", Journal
Combinatorial Theory, Series A, Vol. 76, No. 2 (1996) pp. 328-335.
of
C. Carlet, "Z2k -linear codes", IEEE Transactions on Information Theory, Vol. 44, no 4 (1998) pp.
1543-1547.
C. Carlet, P. Charpin et V. Zinoviev, "Codes, bent functions and permutations suitable for
DES-like cryptosystems", Designs Codes and Cryptography, 15 (1998) pp. 125-156.
B-30
C. Carlet et Ph. Guillot, "An alternate characterization of the bentness of binary functions,
with uniqueness", Designs Codes and Cryptography, Vol. 14, no 2 (1998) pp. 133-140.
C. Carlet, "On Cryptographic Propagation Criteria for Boolean Functions", à paraître dans la
Special Issue on Cryptology of Information and Computation in Honor of Professor Arto
Salomaa on Occasion of His 65th Birthday (article invité)
L. Coupry, "A simple linear algorithm for the edge-disjoint (s,t)-path problem in undirected
planar graphs", Information Processing Letters 64 (1997), pp. 83-86.
N. Creignou, "The class of problems that are linearly equivalent to satisfiability or a uniform
method for proving NP-cmpleteness", Theoretical Computer Science 145 (1995), pp. 111-145.
N. Creignou, "Exact complexity of problems of incompletely specified automata", dans numéro
spécial de Annals of Mathematics and Artificial Intelligence 16 (1996), pp. 237-249.
N. Creignou, J.-J. Hébrard, "On generating all solutions of generalized satisfiability
problems", Informatique Théorique et Applications/Theoretical
Informatics
and
Applications,
vol. 31, no 6 (1997) pp. 499-511.
N. Creignou, J.J. Hébrard, "On generating all satisfying truth assignments of a generalized
CNF-formula", Informatique Théorique et Applications/
Theoretical
Informatics
and
Applications 31 (1997), pp. 353-366.
A. Durand, S. Ranaivoson, "First order spectra with one binary predicate",Theoretical
Computer Science 160 (1996), pp. 305-320.
A. Durand, C. Lautemann, T. Schwentick, "Subclasses of Binary-NP", Journal of Logic and
Computation. (1998). pp 189-207
A. Durand, "Linear time and the power of one first-order universal quantifier", 15 pages, à
paraître au journal Information and Computation.
E. Grandjean, "Sorting, linear time and the satisfiability problem", dans numéro spécial de
Annals of Math. and Artificial Intelligence 16 (1996), pp. 183-236.
E. Grandjean, H. Kleine Büning, "SAT-problems and reductions with respect to the number of
variables", Journal of Logic & Computation 7 (1997), pp. 457-471.
E. Grandjean, F. Olive, "Monadic logical definability of nondeterministic linear time",
Computational Complexity 7 (1998), pp. 54-97.
J.J. Hébrard, "Unique Horn renaming and unique 2-satisfiability",
Letters 54 (1995), pp. 235-239.
Information
Processing
J.J. Hébrard, P. Luquet, "The Horn basis of a set of clauses" The Journal of Logic Programming 34
(1998), pp. 59-66.
J. Karczmarczuk, "Generating Power of Lazy Semantics", Theoretical Computer Science 187,
(1997), pp. 203--219.
M. More, F. Olive, "Logical characterization of rudimentary sets", Math. Logic Quaterly 43
(1997) pp. 419-426.
V. Terrier, "On real time one-way cellular array"
Number 1-2, pp. 331-335, April 1995.
B-31
Theoretical
Computer
Science, Vol. 141,
V. Terrier, "Language not recognizable in real time by one-way cellular automata",
Theoretical Computer Science, Vol. 156, Number 1-2, pp. 281-287, March 1996.
V. Terrier, "A counting equivalence classes method to prove negative results", dans "Cellular
Automata: a parallel model.", (10p) M. Delorme and J. Mazoyer Eds, Mathematics and Its
Applications, December 1998, Kluwer.
V. Terrier, "Two-dimensional cellular automata recognizer", à paraître dans un numéro spécial
de Theoretical Computer Science., Winter Days in Caen, (10p)
V. Terrier, (avec J. Mazoyer) "Signals in one dimensional cellular automata", à paraître dans
Theoretical Computer Science (25 p)
J-P. Tillich (avec C. Delorme), "Eigenvalues, eigenspaces and distances to subsets'' Discrete
Mathematics dédié au 5e Colloque International Théorie des Graphes et Combinatoire vol
165/166, pp.171--194, 1997.
J-P. Tillich (avec G. Zémor), "Optimal cycle codes constructed from Ramanujan graphs",
SIAM Journal of Discrete Mathematics, Vol. 10, No. 3, August 1997, p 447-459.
J-P. Tillich (avec C. Delorme),
Journal of Combinatorics (1998).
"The spectrum of de Bruijn and Kautz graphs" European
J-P. Tillich (avec J. Friedmann, A. Joux, Y. Roichman , J. Stern), "Most graphs are quickly
transitive", Random Structures and Algorithms (1998).
J-P. Tillich (avec P. Solé), "Expanding, forwarding and compressing", (6p), à paraître dans
Discrete Mathematics
J-P. Tillich, "Edge-isoperimetric inequalities for product graphs", (29p),
Discrete Mathematics
à paraître dans
B. Vallée, (avec Hervé Daudé et Philippe Flajolet), "An average-case analysis of the
Gaussian algorithm for Lattice Reduction", Combinatorics, Probability and Computing (1997) 6,
pp 397-433.
B. Vallée, "Opérateurs de Ruelle-Mayer généralisés et analyse en moyenne des algorithmes
de Gauss et d'Euclide", Acta Arithmetica 81.2 (1997), pp 101-144
B. Vallée, (avec Philippe Flajolet), "Continued fraction algorithms, functional operators, and
structure constants", Theoretical Computer Science (1998), vol 194, 1--2, pp 1-34.
B. Vallée, "Dynamique des fractions continues à contraintes périodiques", Journal of Number
Theory 72 (1998), pp 183-235
B. Vallée, "Dynamics of the Binary Euclidean Algorithm: Functional analysis and operators"
numéro spécial d'Algorithmica sur l'analyse en moyenne d'algorithmes, Algorithmica (1998),
vol 22, pp 660-685.
Congrès internationaux avec actes
C. Carlet, "A construction of bent functions", actes de Finite Fields and Applications (third
conference), Glasgow, Grande Bretagne, London Mathematical Society, Lecture Series 233,
Cambridge University Press (1996) pp. 47-58
C. Carlet, "Hyperbent functions", actes de PRAGOCRYPT'96, Czech Technical University
Publishing House, Prague (1996) pp. 145-155.
B-32
C. Carlet, "More correlation-immune and resilient functions over Galois fields and Galois rings",
actes de EUROCRYPT'97, Advances in Cryptology, Lecture Notes in Computer Science n° 1233
(1997) pp. 422-433.
C. Carlet, "On the propagation criterion of degree l and order k", actes de EUROCRYPT'98,
Advances in Cryptology, Lecture Notes in Computer Science n° 1403 (1998) pp. 462-474
C. Carlet, "On Kerdock codes" Actes du congrès Finite Fields and Applications (Fq4),
Contemporary Mathematics, American Mathematical Society 225 (1998) p. 155-163.
C. Carlet, "Recent results on bent functions", actes de ICC'97 (International Conference on
Combinatorics, Information Theory and Statistics), 17 pages, à paraître.
C. Carlet, "One-weight Z4-linear codes", Actes de "International conference on Coding Theory,
Cryptography and Related Areas", 20 pages, à paraître.
J. Clément, B. Vallée, (avec Philippe Flajolet), "The analysis of hybrid trie structures",
congrès SODA'98 (Symposium on Discrete Algorithms) (San Francisco, janvier 98), ComptesRendus de SODA'98, pp 531--540
A. Durand, R. Fagin, B. Loescher, "Spectra with only unary function symbols", Actes du colloque
CSL’97 (Computer Science Logic 1997), Lecture Notes in Computer Science 1414 (1998), pp 189-202
J.
Karczmarczuk, "Functional Programming and Mathematical Objects", Functional
Programming Languages in Education, FPLE'95, Lecture Notes in Computer Science, vol. 1022,
Springer,(1995), pp. 121--137.
J.
Karczmarczuk, "Functional Differentiation of Computer Programs", ACM SIGPLAN
International Conference on Functional Programming, (ICFP'98), Baltimore, September 1998,
ACM Press, pp. 195--203.
J.M. Le Bars, "Fragments of existential second-order logic without 0-1 laws", 12 pages, dans
Actes du colloque LICS’98 (13th Annual IEEE symp. on Logic in Computer Science), 21-24 juin
1998, Indianapolis, USA, pp 525-536
Prix du Meilleur Article Etudiant décerné à J. M. Le Bars par le comité de programme de LICS’98
G. Michel, J-L. Lambert, B. Cremilleux, M. Henry-Amar, "A new way to build oblique decision
trees using linear programming", papier invité à l’IFCS 98, Rome 21-24 juillet 1998. à paraître
dans les proceedings du congrès.
F. Olive, "A conjunctive logical characterization of nondeterministic linear time", Actes du
colloque CSL’97 (Computer Science Logic 1997), Lecture Notes in Computer Science (1998), 13
pages.
B. Vallée, "Algorithms for computing signs of 2 x2 determinants: dynamics and average--case
analysis", congrès ESA'97 (5th Annual European Symposium on Algorithms) (Graz, Septembre
97), LNCS 1284, pp 486-499.
B. Vallée, "The complete analysis of the Binary Euclidean Algorithm," ANTS'98 (Algorithmic
Number Theory Symposium, Portland, USA, Juin 98), LNCS 1423, pp 77-94.
Congrès internationaux sans actes
E. Benoist, J.-J. Hébrard, "Recognition of simple extended Horn formulas", SAT'98 (Second
Workshop on the Satisfiability Probem), Eringerfeld, Allemagne, 10-14 Mai 1998.
J. Karczmarczuk, "Calcul Formel et Programmation Paresseuse", 5-th Rhine Workshop on
Computer Algebra, St. Louis, 1 -- 4.04.1996.
B-33
] J. Karczmarczuk, "Lazy semantics ans its implementation in Mupad", 1stInternational Mupad
User Workshop, Paderborn 2-3 sept 97.
J. Karczmarczuk, "Scientific Communication, and Dynamic Documents,"
"Document éléctronique", Rabat, 15-17.04.1998. pp. 77 -- 88.
Conf. CIDE'98,
J. Karczmarczuk, "Lazy Differential Algebra and its Applications", III International Summer
School on Advanced Functional Programming, Braga, Portugal, 12--18 September, 1998.
J. Karczmarczuk, "Infinite real fractions, lazy carry propagation, and evaluation of PI", III
International Summer School on Advanced Functional Programming, Braga, Portugal, 12--18
September, 1998 (Présenté sous un titre ludique : "The most unreliable method in the world to
compute PI").
G. Michel, J-L. Lambert, B. Cremilleux, M. Henry-Amar, "Contribution de la programmation
linéaire dans le cadre de la classification et du traitement des valeurs manquantes", Cinquièmes
rencontres de la société Francophone de Classification, pp. 245-248,, Lyon, 17-19 septembre 1997.
S. Ridard, J-L. Lambert, "Programmer l'algorithmique par objets", présenté au congrès LMO'95,
Les cahiers du LAIAC, vol. 2, 1995.
S. Ridard, J-L. Lambert, "Les objets algorithmiques: Un nouveau mécanisme pour réutiliser sans
perte de performances", congrès Génie Logiciel 97, Paris, 3-5 décembre 1997.
J. Saquet (avec D.Ambroise, S. Dhuime, B. Rozoy), " Des structures d’événements pour la
simulation et la vérification.", Journée du pôle vérification de P.R.S. Paris, janvier 1996
B. Vallée, exposés aus Journées Arithmétiqies 95 (Barcelone) et 97 (Limoges)
Soumis
A. Akhavi, "Threshold phenomena and efficient reduction algorithms", soumis à ESA'99, 12p
E. Benoist, J.J. Hébrard, "Recognition of simple enlarged Horn formulas and simple extended
Horn formulas", présenté à SAT’98 (2nd “Workshop on the Satisfiability Problem”,
Eringerfeld, Allemagne, mai 1998), article soumis à numéro spécial de Discrete Applied Math,
21 pages.
C. Carlet et S. Dubuc, "q-ary bent and perfect-nonlinear functions", soumis au congrès avec actes
"Finite Fields and Applications" (Août 1999, Allemagne) 14 pages
C. Carlet et P. Guillot, "Numerical Normal Forms of Boolean functions", soumis au congrès avec
actes AAECC (Hawaï, novembre 1999) 15 pages
J. Clément, B. Vallée, (avec Philippe Flajolet), "Dynamical sources in Information Theory :
Analysis of general tries" [40p], Les Cahiers du GREYC 1999, soumis à Algorithmica
S. Dubuc, "Linear structures of Boolean functions ", présenté au congrès IEEE International
Symposium on Information Theory ISIT'98, MIT Cambridge (Août 1998) et soumis à la revue
Designs, Codes and Cryptography, 14 pages
A. Durand, S. Ranaivoson, "Expression of NP problems by one partial order", 20 pages.
A. Durand, C. Lautemann, M. More, "Counting results in weak formalisms", 11 pages.
E. Grandjean, T. Schwentick, "Machine-independent characterizations and complete problems
for deterministic linear time", 35 pages.
B-34
J.M. Le Bars, "The 0-1 law fails for the monadic existential second-order logic on undirected
graphs", 4 pages.
J-P. Tillich, "On the diameter, the mean diameter and the forwarding index of of Ramanujan
graphs'', soumis au journal Journal of Combinatorial Theory, Series B
B. Vallée, "Dynamical sources in Information Theory : Fundamental intervals and word
prefixes", [37 p] Les cahiers du GREYC 1999, soumis à Algorithmica.
B. Vallée, (avec Charly Lemée), "Average-case analyses of four algorithms for computing the
Jacobi symbol" , [12 p ], soumis à ICALP'99, version longue aux cahiers du GREYC.
Rapports internes:
L. Coupry, "Un algorithme linéaire pour le problème du flot unitaire maximum dans un
graphe orienté planaire", Les cahiers du GREYC 97-19 (1997), 30 pages.
J.J. Hébrard, P. Rossa, "Décider si un graphe est extraplanaire", Les cahiers du GREYC
(1995).
P. Luquet, "Les littéraux monotones dans les données CNF aléatoires: un phénomène de seuil",
Les cahiers du GREYC (1997).
Contrats (en cours ou échus) :
"Vérification formelle de protocoles à l'aide de la programmation linéaire", CNET, durée 3 ans,
1995-1997, 900 kF. Responsable : J.L. Lambert
"Analyse et conception de fonctions de hachage arithmétiques et de générateurs pseudoaléatoires", SEPT, 6 mois, 1997, 170kF. Responsable scientifique: B. Vallée. Acteur: J-P. Tillich.
Rapport de fin de contrat (20p)
"Recherche et mise en place d'un langage de programmation logique interprété sur système
réparti à objets de type CORBA" , SEPT, 12 mois, 1997, 300 kF. Responsable scientifique et acteur
Jerzy Karczmarczuk. (commun avec le thème IA)
Brevet :
S. Dellacherie, C. Broult, S. Devulder, J-L. Lambert, "Vérification de logiciels basée sur la
programmation linéaire", brevet déposé sous le numéro 9715217, daté du 3 décembre 1997.
Copropriété de France Telecom, CNRS et Université de Caen. En cours d’internationalisation.
B-35
Récapitulatif du programme du
SEMINAIRE D'ALGORITHMIQUE DU GREYC
organisé par Etienne Grandjean et Brigitte Vallée
Années 94 à 99
L'équipe Algorithmique organise depuis 1994 un séminaire hebdomadaire d'algorithmique, qui
cherche à regrouper l'équipe, autour d'exposés qui se veulent, au moins en partie, généralistes. Les
exposés internes visent à faire communiquer les différents thèmes entre eux, tandis que les exposés
externes, sur des sujets non représentés au laboratoire, visent à l'ouverture de l'équipe, à la culture des
doctorants et à l'information des étudiants de DEA. Depuis 1994, une centaine de séances ont eu lieu,
(98 exactement !) suivies par un public de quinze à vingt personnes. C'est une des réussites de l'équipe.
___________________________________________________________________________
Année 94-95
* 8 novembre Jean-Luc LAMBERT (LAIAC)
Programmation linéaire et problème SAT
* 15 novembre Philippe GUILLOT (Thomson-CSF, Paris)
Fonctions booléennes et machines à chiffrer
* 22 novembre Claude CARLET (LAIAC)
Fonctions booléennes en cryptographie
* 29 novembre Oliver DUBOIS (LAFORIA, U. Paris 6)
Problème SAT: phenomènes de seuil, résolution complète et incomplète
* 6 décembre Marc GIRAULT (SEPT)
Fonctions de hachage cryptographiques et protocoles à connaissance nulle
* 13 décembre Malika MORE (LLAIC, U. d'Auvergne)
Un resultat dichotomique pour des extensions du problème SAT
* 10 janvier Christophe TOLLU (LIPN, U. Paris-Nord)
Bases de données et complexité: du modèle relationnel au modèle avec contraintes.
* 17 janvier Bruno DURAND (LIP, ENS Lyon)
Automates cellulaires et reversibilité.
* 24 janvier Jean GOUBAULT (BULL, Les Clayes sous Bois)
Complexité de la preuve à ressources bornées en logique classique du premier ordre.
* 31 janvier Michel MORVAN (LITP, U. Paris 7)
Quelques aspects algorithmiques et structurels des ordres et des treillis.
* 7 février Teresa GOMEZ (U. de Limoges)
Calcul de la forme de Jordan d'une matrice: nouvelle vision d'une ancienne méthode.
* 14 février Eric DUQUESNE (INRIA et U. Paris 7)
Preuves de la logique linéaire comme graphes.
* 28 février David POINTCHEVAL (ENS Ulm, Paris)
Les réseaux de neurones et leurs applications cryptographiques.
B-36
* 7 mars
Marie-France SAGOT (Atelier de BioInformatique, U. Paris 7)
Alignement multiple de séquences biologiques.
* 14 mars
Gerard BECHER (LAIAC)
Unification rigide.
* 21 mars
Jean-Yves MARION (U. de Nancy)
Comment caractériser les fonctions facilement calculables.
* 28 mars
Brigitte VALLEE (LAIAC)
Un exemple d'utilisation de l'analyse fonctionnelle dans l'analyse en moyenne de l'algorithme
de Gauss
* 9 mai
A. DRAPAL (Prague)
Finite left distributive systems with one generator
* 16 mai
Etienne GRANDJEAN (GREYC)
Pourquoi une classe de complexité est-elle intéressante ?
*13 juin
Maurice MARGENSTERN (LITP, U. Paris 7)
Deux machines de Turing universelles à au plus deux instructions gauches.
___________________________________________________________________________
Année 95-96
* 17 octobre
Remy MALGOUYRES (GREYC)
Sur les surfaces de Z^3
* 24 octobre Arnaud DURAND (GREYC)
Définissabilité logique dans les structures finies.
* 31 octobre pas de séminaire: Thèse de Gérard Bécher
* 7 novembre Xavier GOURDON (Projet Algo, INRIA-Rocquencourt)
Approximation des zéros de polynômes univariés complexes par la méthode de Schonhage.
* 14 novembre
Claire KENYON (LIP, ENS-Lyon)
Diffusion d'un bit sur un arbre avec communications bruitées
* 21 novembre
Sylvain RIDARD (GREYC)
Programmer l'algorithmique par objets.
* 28 novembre Mariette YVINEC (Projet Prisme, INRIA-Sophia Antipolis)
Les diagrammes de Voronoi en normes polyédriques convexes.
* 5 décembre
Jean-Pierre TILLICH (GREYC)
Propriétés d'expansion de graphes et applications en algorithmique et protection de
l'information
* 12 décembre
Exceptionnellement pas de séminaire
* 19 décembre
Thierry LACOSTE (Université de Provence et Paris 7)
Un Survol des Lois 0-1 en Logique
* 9 janvier, Yuri GUREVICH (Univ. Michigan, USA)
B-37
Evolving Algebras
* 16 janvier, Marc GIRAULT (SEPT, Caen)
A propos du forgeage existentiel de signatures RSA.
* 23 janvier, Nicolas SENDRIER (Projet Codes, INRIA-Rocquencourt)
Codes à grande capacité de correction
* 30 janvier, Véronique TERRIER (GREYC)
Nouveaux résultats sur les automates cellulaires.
* 6 février, David POINTCHEVAL (ENS Ulm)
Preuves de sécurité pour les signatures
* 19 mars, Evelyne LUTTON (Projet FRACTALES, INRIA-Rocquencourt)
Quelques notions de base sur les algorithmes génétiques
*26 mars, Gérard BECHER (GREYC)
Indécidabilité du problème de E-unification rigide simultanée
* 2 avril , Philippe FLAJOLET ( Projet ALGO, INRIA-Rocquencourt)
Le processus d'arbre digital.
* le 9 avril, Zoé LACROIX (Projet VERSO, INRIA-Rocquencourt)
Bases de données contraintes : des BD relationnelles aux BD spatiales.
* 30 avril, pas de séminaire (exposés de doctorants à partir de 14h)
* 7 mai, Brigitte VALLEE (GREYC)
Comparaison de deux rationnels en simple précision: analyse en moyenne
* 14 mai, Jerzy KARCZMARCZUK (GREYC)
Programmation et Monades
* 21 mai, Jean-Jacques HEBRARD (GREYC)
Base de Horn d'un ensemble de clauses.
* 28 mai, Jean-Pierre TILLICH (GREYC)
* 3 juillet, Bernd LOESCHER (LRI Orsay)
Sur la définissabilité logique avec des fonctions unaires.
___________________________________________________________________________
Année 96-97
*15 octobre, Hamid RAHBAR (GREYC)
Autour des plus courtes distances dans l'espace euclidien
*22 octobre, Jean-Michel MULLER (LIP, ENS Lyon)
Systèmes de numerations redondants, calculs en ligne et opérateurs "boite noire"
*29 octobre, Remy MALGOUYRES (GREYC)
Sur la notion de surfaces discrètes en Image
* 5 novembre, Mireille REGNIER (Projet ALGO, INRIA Rocquencourt)
B-38
Recherche de motifs: combinatoire et probabilités
* 12 novembre, Jacques VERGNE (GREYC)
Des concepts d'algorithmique importés en syntaxe des langues
* 19 novembre, Nadia CREIGNOU (GRAL)
Caractérisation de la complexité des problèmes de satisfaction de contraintes booléennes
* 26 novembre 16 h , Alain HENAUT (U. Versailles St Quentin)
Les régularités dans les séquences génétiques
* 26 novembre 17h30 , Hans DOBBERTIN (Bonn, Allemagne)
Non-linear power functions on GF(2^n)
* 3 décembre, exceptionnellement pas de séance
* 10 décembre, Abder ELMOATAZ (LUSAC, Cherbourg)
Formalisation de certains opérateurs en traitement d'images et des formes
* 21 janvier, Claude CARLET (GREYC)
Codes Z_m-linéaires (m puissance de 2).
* 28 janvier, Miklos SANTHA (LRI, Orsay)
Calculs quantiques
* 4 février, Pierre VALARCHER
Etude de 2 langages de programmation qui calculent les mêmes fonctions différemment
* 11 février, Serge VAUDENAY (ENS Ulm)
Analyse de la sécurité des fonctions cryptographiques primitives
* 4 mars, Etienne GRANDJEAN (GREYC)
Caractérisations logiques ou algébriques du temps lineaire
*11 mars, Claude TRICOT ( U. de Genève)
Structures fractales
* 18 Mars, Gilles BERTRAND
Algorithmes de squelettisation
* 29 avril, Bruce REED (Paris 7)
Les méthodes probabilistes pour la coloration des graphes
* 6 mai, Clemens LAUTEMANN (Univ Mainz, Allemagne):
The Crane Beach Conjecture
* 13 mai, pas de séminaire,
Ecole de Printemps d'Informatique Théorique sur l'Algorithmique
* 20 mai, Julien CLEMENT
Etude d'arbres digitaux hybrides
*27 mai, Jean-Marc STEYAERT (LIX, Ecole Polytechnique)
Analyse en moyenne des tas (heap)
* 3 juin, 16H, Serge GRIGORIEFF (LIAFIA, Paris 7)
Les automates a plusieurs rubans
B-39
* 3 juin, 17H30, Anatoly ZHIGLJAVSKY (Saint Petersbourg)
Probabilistic methods in dynamical search
* 10 juin, Bernd LOESCHER (LRI, Orsay):
Y a-t-il une propriété de graphes qui n'est pas définissable en logique existentielle binaire du
second ordre?
* 17 juin, Jean-Pierre TILLICH ( GREYC)
Phénomènes de seuil en algorithmique
___________________________________________________________________________
Année 97-98
* 28 octobre, Etienne GRANDJEAN (GREYC)
Une caractérisation independante des machines pour la classe des problèmes calculables en temps
linéaire
* 4 novembre, Christiane FROUGNY (LIAFA, Paris 7)
Systèmes de numération, dynamique symbolique et automates finis
* 18 novembre, Danièle GARDY ( Univ. de Versailles)
Des boules et des urnes
* 25 novembre, Avi SHARELL (LRI, Orsay)
Algorithmes probabilistes
* 2 décembre, Philippe FLAJOLET (Projet ALGO, INRIA Rocquencourt)
Analyse d'un problème de hachage
* 9 décembre, Anne CANTEAUT (Projet CODES, INRIA Rocquencourt)
*16 décembre, Brigitte VALLEE (GREYC)
Analyse du pgcd binaire
* 6 janvier, Michel POCCHIOLA (ENS Ulm)
L'algorithmique des graphes de visibilité
* 13 janvier, Jean-Marie LE BARS (GREYC)
Décidabilite et pouvoir d'expression de la logique à deux variables
* 20 janvier, Claude CARLET (GREYC)
Sur le critère de propagation
* 27 janvier, Caroline FONTAINE ( Projet CODES, INRIA Rocquencourt)
Marquage d'images et protection des droits d'auteur dans AQUARELLE
* 3 février, Jerzy KACZMARCZUK (GREYC)
Hiérarchies algébriques en programmation par objets
* 17 février, Solomampionona RANAIVOSON (GREYC)
Expression logique de problèmes de graphes
* 24 février, Bruno CREMILLEUX (GREYC)
Sensibilisation aux problématiques du data mining et l'exemple des paradigmes des critères
de construction des arbres de décision
* 3 mars, Arnaud RAGEL (GREYC)
Autour de l'utilisation des règles d'association pour le traitement des valeurs manquantes
B-40
et le pré-traitement des données
* 10 mars, Francois LABURTHE ( ENS Ulm)
Une heuristique pour résoudre de grands problèmes de tournees de véhicules avec des contraintes
temporelles
* 17 mars, Remy MALGOUYRES (GREYC)
Homotopie dans les images 2D
* 24 mars, Alexandre LENOIR (GREYC)
Préservation de la topologie dans les surfaces discrètes
* 31 mars, Dominique BOURGOIN
Modélisation de problèmes de production
* 20 avril, (exceptionnellement un lundi) Georg GOTTLOB
Existential Second Order Logic over Strings
* 21 avril, Ali AKHAVI (GREYC)
Etude de divers algorithmes de réduction dans les réseaux aléatoires
* 28 avril, Emmanuel BENOIST (GREYC)
Quelques restrictions polynomiales du problème SAT.
* 5 mai, Brigitte VALLEE (GREYC)
Un modèle dynamique pour la théorie algorithmique de l'information.
* 12 mai, Jerzy KARCZMARCZUK (GREYC)
Dérivation automatique des programmes: une approche fonctionnelle
______________________________________________________________________
Année 98-99
* 3 novembre, Jean-Marie LE BARS (GREYC)
Lois 0-1 en logique
* 10 novembre, Jean-Luc LAMBERT (GREYC)
Linear Programming Validation (LPV): une nouvelle méthode de validation de logiciels
* 17 novembre, Nadia CREIGNOU (SDAD)
Autour du problème SAT
* 24 novembre, Sébastien FOUREY (GREYC)
Nombre d'imperfection de chemins sur une surface discrète
* 1er décembre, Rémy MALGOUYRES (GREYC)
Présentation du groupe fondamental dans les surfaces discrètes
* 8 décembre, Claude CARLET (GREYC)
Une nouvelle représentation des fonctions booléennes
* 15 décembre, Risto HONKANEN (Univ. Joensuu, Finlande, actuellement au GREYC)
Modèle LogP et optimisation de temps de calcul des programmes parallèles
B-41

Documents pareils