quadriennal 1995-1998
Transcription
quadriennal 1995-1998
B- L'EQUIPE ALGORITHMIQUE Présentation générale de l'équipe B-1 1- l'organisation de l'équipe 2- les principales thématiques B-2 3- les interactions au sein de l'équipe et du laboratoire B-1 4- les interactions caennaises 5- les collaborations en France 6- les collaborations à l'étranger 7- les responsabilités et la reconnaissance scientifiques 8- les résultats : thèses publications contrats 9- les thèses en cours B-4 B-4 B- 3 B-5 B-6 B-6 B-7 Bilan scientifique des différents thèmes B-8 Thème 1: Modèles de calcul, complexité et algorithmes combinatoires B-8 Complexité en temps linéaire et logique du second ordre Algorithmes combinatoires et problèmes de satisfaisabilité Automates cellulaires et complexité B-8 B-10 B-11 Thème 2 : Algorithmique en Arithmétique, Codage et Cryptographie. B-12 Algorithmique en arithmétique et en Théorie de l'Information B-12 Codes correcteurs et fonctions booléennes le Pôle Sécurité de l'Information. B-16 B-19 Thème 3: Algorithmique effective Algorithmique et programmation linéaire Conception et preuve d'algorithmes répartis Techniques fonctionnelles. Perspectives Thème Modèle de Calcul et complexité Thème Algorithmique combinatoire Thème Algorithmique et Sécurité de l'information Thèses et publications B-21 B-21 B-22 B-23 B-24 B-24 B-27 B-28 B-30 Thèses Revues internationales avec comité de lecture Congrès internationaux avec comité de lecture et actes B-30 B-30 Congrès internationaux sans actes Contrats et Brevets B-34 B-35 B- 33 Récapitulatif du séminaire B-36 PRESENTATION DE L' EQUIPE ALGORITHMIQUE Responsables: Brigitte Vallée (jusqu'en 1999) puis Claude Carlet L'équipe partage une problématique commune et crée au sein du laboratoire une référence culturelle algorithmique; elle y joue un rôle de conseil. Plus largement, au sein du département d'Informatique de l'Université, comme à l'ENSI-ISMRA, ses activités influencent largement la manière dont est conçu l'enseignement de la discipline informatique. En algorithmique, on s'intéresse à la qualité et à l'efficacité des calculs (le terme algorithme désigne un procédé de calcul suffisamment précis pour être transformé par la suite en programme informatique). On peut ainsi séparer les problèmes en problèmes faciles (qu'on cherche à résoudre avec des algorithmes rapides) et en problèmes difficiles (qu'on ne sait pas résoudre en un temps raisonnable). La protection de l'information (cryptographie, codage) utilise cette dichotomie, en liaison avec l'étude mathématique des structures utilisées. Par ailleurs, la qualité des méthodes de programmation est aussi essentielle pour pouvoir valider les logiciels. 1- L'ORGANISATION DE L'EQUIPE (95-99) Plus précisément, les mots-clés suivants, la modélisation de la notion de complexité, l'étude de propriétés algorithmiques d'objets mathématiques et leurs applications, la réflexion sur des méthodes générales de programmation ou de validation logicielle, décrivent les trois principaux thèmes de recherche selon lesquels l'équipe s'est organiséé au cours des années 95-99. Dans le thème Modèles de Calcul, Complexité et Algorithmes Combinatoires dirigé par Etienne Grandjean, on s’intéresse aux algorithmes linéaires et on travaille à des caractérisations de la classe des problèmes résolubles en temps linéaire, avec un double point de vue: calculatoire (machines RAM) et logique (définissabilité en logique). A côté du modèle séquentiel des RAM, on étudie également des modèles de calcul parallèles, les automates cellulaires, et leur complexité. Enfin, la dernière activité porte sur la construction d’algorithmes, très souvent linéaires, sur les graphes et les problèmes de satisfaisabilité logique et donne lieu à collaboration avec l’équipe “Intelligence Artificielle”. Le thème Algorithmique en arithmétique, codage et cryptographie dirigé par Claude Carlet rassemble ses activités et celles de Brigitte Vallée et de leurs doctorants. Les objets manipulés sont tous de nature mathématique, dans les domaines de l'algèbre --corps finis, codes correcteurs d'erreur, fonctions booléennes-- ou de l'arithmétique, --géométrie des réseaux à coordonnées entières-- mais la problématique touche des domaines d'informatique théorique --analyse en moyenne d'algorithmes, codage, cryptographie, théorie de l'information-- et est donc susceptible d'applications importantes en informatique appliquée, dans tous les problèmes liés à la Protection de l'Information. Le thème Algorithmique effective dirigé par Jean-Luc Lambert fédère les activités autour de la programmation et de la validation logicielle. L'activité la plus en amont concerne les méthodologies de programmation de l'algorithmique (fonctionnelle ou par objets), alors que le domaine d'application privilégié est celui de la validation logicielle où plusieurs techniques algorithmiques sont employées (programmation linéaire, calcul formel, algorithmes heuristiques). Enfin des recherches sont réalisées en collaboration avec les autres équipes du laboratoire (image et intelligence artificielle). B-1 Modèles de Calcul, Complexité et Algorithmes Combinatoires Algorithmique en Arithmétique Codage et Cryptographie Algorithmique Effective Etienne Grandjean Claude Carlet Jean-Luc Lambert Ionona Ranaivoson Jean-Jacques Hébrard Véronique Terrier Brigitte Vallée Jean Saquet Jerzy Karczmarczuk Jean-Pierre Tillich (95-97) Doctorants Doctorants Doctorants Arnaud Durand (S) Frédéric Olive (S) Laurent Coupry Philippe Luquet Maud Paulmier Pascal Rossa Jean-Marie Le Bars (S) Ali Akhavi (S) Julien Clément Sylvie Dubuc David Pointcheval (S) Doctorants en entreprise Philippe Guillot (S) Jean-François Misarsky Jean-Serge Boucher (S) Sylvain Ridard Samuel Devulder Christophe Broult Samuel Dellacherie Associées: Nadia Creignou (SDAD) Malika More (SDAD) Associé: Marc Girault (CNET) 2- LES PRINCIPALES THEMATIQUES DE L'EQUIPE Au-delà de l'organisation en thèmes décrite ci-dessus, l'ensemble du thème Algorithmique du GREYC se retrouve dans une triple problématique : réflexion et modélisation théoriques, construction d'algorithmes, applications plus pratiques en aval. A- Réflexion et modélisation théoriques: - modélisation de la "difficulté" d'un problème (ce qu'on appelle la complexité). - caractérisation des problèmes faciles et des problèmes difficiles - quantification du comportement "en moyenne" d'un algorithme avec différents modèles probabilistes. B- Construction de bons algorithmes dans des domaines particuliers - celui des graphes qui intervient dans la modélisation de beaucoup de problèmes naturels, et est utilisé à l'interface de l'Intelligence Artificielle. - ceux de l'algèbre, de l'arithmétique et de la théorie de l'information qui sont centraux en cryptographie, en codage et en compression. Ce domaine nécessite le développement d'une recherche sur les objets mathématiques mis en jeu. - celui de la programmation linéaire, qui est utilisé dans la validation logicielle. - celui de la géométrie, en collaboration avec l'équipe Image du Laboratoire La page suivante montre la large interconnexion de ces domaines, assez divers, et cependant largement complémentaires dans leur diversité. C- Utilisation de ces algorithmes dans le domaine de la "Sécurité de l'Information", qui est constitué de 2 volets - Protection de l'Information: compression, codage, cryptographie. - Validation logicielle. B-2 les graphes les propriétés d'expansion problèmes de flot graphes extraplanaires Contraintes Le problème SAT Phénomènes de seuil Clauses de Horn le codage la cryptographie les fonctions booléennes les systèmes dynamiques Théorie de l'information Compression Arithmétique la géométrie algorithmique La programmation linéaire Les différents domaines algorithmiques étudiés dans l'équipe 3- LES INTERACTIONS AU SEIN DE l'EQUIPE ET DU LABORATOIRE. L'équipe organise (depuis 1994) un séminaire hebdomadaire d'algorithmique, qui cherche à regrouper l'ensemble de l'équipe, autour d'exposés qui se veulent, au moins en partie, généralistes. Il y a eu déjà plus de cent exposés (la liste est jointe en annexe page ...) . Les exposés internes visent à faire communiquer les thèmes entre eux, tandis que les exposés externes, sur des sujets non représentés au laboratoire, visent à l'ouverture de l'équipe et à la culture des thésitifs. C'est une des réussites de l'équipe, qui contribue à la cimenter. Ce séminaire fonctionne parallèlement à des groupes de travail plus spécialisés. Interactions au sein de l'équipe. De nouveaux thèmes d'interaction sont apparus pendant la période, en particulier, le thème de l'Aléa apparaît comme un thème transverse, qui regroupe des points de vue divers et des applications variées: en analyse en moyenne, ou en théorie de l'information (B. Vallée), dans les phénomènes de seuil du problème SAT (Ph. Luquet, N. Creignou), ou encore dans l'étude plus spécifiques des graphes aléatoires (J.M. Le Bars, J.P. Tillich). Interactions avec l'équipe Intelligence Artificielle. J-J. Hébrard propose des méthodes algorithmiques pour la démonstration automatique et collabore avec Bruno Cremilleux dans un projet de reconnaissance des molécules. J. Saquet collabore sur les thèmes de l'Informatique répartie. Enfin, un séminaire commun réunit depuis la rentrée 98, et une fois par mois, les deux équipes autour d'un thème transverse: la Théorie de l'Information. Ce thème est en effet abordé de multiples point de vues au laboratoire. L'équipe algorithmique l'aborde du point de vue syntaxique (réflexion sur les sources dynamiques, recherches de motifs, compression), tandis que l'équipe I3 se centre sur les problèmes spécifiques liés au langage naturel. Interactions avec l'équipe Image. Une collaboration a lieu avec le groupe qui s'est formé autour de Rémy Malgouyres et de ses doctorants (A. Lenoir, S. Fourey) dans les domaines de la géométrie discrète. 4- LES INTERACTIONS CAENNAISES. B-3 Avec le Laboratoire SDAD (laboratoire de mathématiques: Structures discrètes et analyse diophantienne). Les relations avec l'équipe GRAL (Groupe de Recherche en Algèbre et Logique) de ce laboratoire sont anciennes et profondes (séminaires, groupes de travail commun, etc); elles portent sur des thèmes transversaux liés à la logique ou à l'algorithmique en arithmétique. En logique, ces liens se sont intensifiés à l’occasion des recrutements au SDAD de Nadia Creignou (ancienne élève de E. Grandjean, HDR en janvier 1999), spécialiste de complexité et des problèmes de satisfaisablité, et Malika More, qui travaille en théorie des modèles finis, en lien avec la complexité et l’arithmétique: toutes deux collaborent et ont des publications communes avec E. Grandjean, J.J. Hébrard et leurs doctorants (définissabilité logique et complexité, problème SAT, phénomènes de seuil) et participent aussi au projet Procope CaenMainz. En arithmétique, ces collaborations ont lieu à l'intérieur du "triangle cryptographique caennais" qui regroupe, outre l'équipe Algorithmique du GREYC, des membres du SDAD et des membres du CNET-Caen. Cette collaboration déjà ancienne (1988) avec le CNET et les mathématiciens de l’université a été reconnue en 95 comme un pôle régional, le pôle "Sécurité de l'Information" et a bénéficié d'une dotation élevée au contrat de plan Etat-Région durant la période 95-99. (1.5 MF sur la période considérée). La collaboration est centrée sur les thèmes de la cryptographie: étude des objets mathématiques en amont, de la problématique d'algorithmique et de complexité sous-jacente, et enfin collaboration avec le CNET sur les protocoles cryptographiques. Il existe une activité contractuelle suivie (quatre contrats depuis 1988 entre l'université et le CNET-Caen), et en particulier un contrat pendant la période considérée. Le groupe développe également des collaborations pour les directions de thèse, les stages de DEA, et pour l'enseignement de la discipline "Sécurité de l'Information" . Notamment, durant la période, il y a eu la création de deux cours supplémentaires dans ce domaine, ce qui porte à six l'enseignement du groupe dans le domaine. 5- LES COLLABORATIONS EN FRANCE Des colaborations étroites et régulières existent entre le Thème 2 et deux projets de l’INRIA Rocquencourt : Algo (Ph. Flajolet) et Codes (P. Charpin); C. Carlet est membre associé du projet Codes, et B. Vallée est membre associée du projet Algo. Des contacts réguliers ont lieu entre V. Terrier et l'équipe "Modèles du Parallélisme" de laboratoire d'Informatique de l'ENS de Lyon. Au niveau national, la presque totalité de l'équipe algorithmique se retrouve dans des groupes de travail du GDR-PRC AMI "Algorithmique, Modèles, Infographie" puis du GDR ALP qui en a pris la suite. Il s'agit des groupes de travail suivants - "Modèles finis et complexité" (dirigé par E. Grandjean de 96 à 98) auquel participent E. Grandjean, S. Ranaivoson et leurs doctorants. - "Algorithmique des graphes" (dirigé par M. Morvan) auquel participe J-J. Hébrard - "Automates et géométrie" auquel participe V. Terrier. - "Cryptographie et codage" (co-dirigé par P. Charpin et B. Vallée) auquel participent B. Vallée, C. Carlet, M. Girault (CNET-Caen) et leurs doctorants -"Arithmétique des ordinateurs et géométrie algorithmique" (dirigé par J-D. Boissonnat, C. Frougny, B. Lacolle, J-M. Muller) auquel participe B. Vallée -"Alea" (dirigé par Ph. Flajolet) auquel participent B. Vallée et ses doctorants ainsi que J.M. Le Bars -"Méthodes effectives de décidabilité" (organisé par H. Comon et D.Lugiez) auquel participent J-L Lambert, J. Saquet et certains doctorants sur le thème "programmation linéaire et preuve logique". B-4 En particulier, des journées de ces groupes de travail ont été organisées par des membres de l'équipe. E. Grandjean a organisé quatre séries de journées pour son groupe "Modèles finis et complexité" Gif sur Yvette (janv. 1997), Fontainebleau (juin 1997), Paris-Panthéon (janv. 1998), ENS-Lyon (juin 1998). C. Carlet et B. Vallée ont organisé des journées C2 dans le Calvados en février 98. B. Vallée a organisé des journées "Aléa" en février 98 dans le Calvados. B. Vallée est membre de l'action incitative ALCOPHYS "Algorithmique, Combinatoire, Phy- sique Statistique" entre l'INRIA, et trois laboratoires universitaires , le LaBRI, le LIX et le LRI. Elle est membre du groupe "Arbres Aléatoires" qui réunit, autour de Brigitte Chauvin (Versailles) des probabilistes et des informaticiens sur ce thème. 6- LES COLLABORATIONS A L'ETRANGER - un projet PROCOPE (contrat européen franco-allemand) entre Caen et Mainz (depuis janvier 1997, reconduit en 1998, puis en 1999): E. Grandjean le dirige du côté français, et y participe avec ses doctorants. Les participants allemands sont Clemens Lautemann et Thomas Schwentick, et la collaboration se centre principalement sur deux thèmes: problèmes de définissabilité logique dans les structures finies en rapport avec la complexité; temps linéaire. Plusieurs séries de journées d’échange ont déjà eu lieu: deux fois a Caen, trois fois à Mainz. - un projet ALLIANCE (contrat européen franco-britannique) accepté en 99; les groupes francais concernés sont Caen et le projet Algo de l'Inria, tandis que les groupes anglais sont à Cardiff, Oxford et Manchester. B. Vallée le dirige du côté français, et y participe avec ses doctorants. Les participants anglais sont R. Brent, A. Zhigliavsky, et T. Prellberg. La collaboration a lieu sur le sujet "Méthodes probabilistes et dynamiques dans l'analyse en moyenne d'algorithmes arithmétiques" et est donc centrale dans la recherche de B. Vallée. L'équipe entretient des relations régulières avec les universités suivantes: - Pise (Italie), (séjour post-doctoral de A. Durand, 1 an 97-98) - Tubingen (Allemagne), (invitation de E. Grandjean, 1 semaine) - Paderborn (Allemagne), (stage de DEA de E. Benoist ) - Clausthal (Allemagne), (invitation de B. Vallée, 1 semaine en 98) - Santiago du Chili (invitation de V. Terrier, 98) - Ann Arbor (USA), (invitation de J.M. Le Bars, 2 jours, 98) - Purdue (USA), (invitation de B. Vallée, 1 semaine en 99) . 7- RESPONSABILITES ET RECONNAISSANCE SCIENTIFIQUES . Comités de programme et édition. - C. Carlet président du comité de programme du Workshop on Coding and Cryptography, 11 au 14 janvier 1999, à Paris (76 articles soumis, 120 participants d'Europe, USA, Israel, Japon, Amérique latine etc...) - C. Carlet membre du comité de programme de SETA (International Conference on Sequences and Their Applications) Singapour, 13 au 17 décembre 1998. - C. Carlet, éditeur de la Special Issue "Coding and Cryptography", Discrete Applied MAthématics, publication prévue en 2001. - E. Grandjean membre des comités de programme des colloques: • CSL'95 (Computer Science Logic), Paderborn, Allemagne. • STACS'96 (Symp. on Theoretical Aspects of Computer Science), Grenoble. B-5 - E. Grandjean coprésident du comité de programme du colloque CSL '98 (Computer Science Logic),(avec Georg Gottlob de l’Univ. de Vienne) 24-28 août 1998, Brno, Rép. Tchèque, et est coéditeur des actes de ce colloque (à paraître aux Lecture Notes in Computer Science, printemps 1999). L'édition s’effectue en deux phases (l’une précédant, l’autre suivant la conférence) de façon à donner aux actes une qualité "journal". - E. Grandjean organisateur du 2ème Atelier International de "Théorie des Modèles finis" 10-14 avril 1995 au CIRM de Marseille-Luminy (40 chercheurs invités de 12 pays: Europe, USA, Israel) et coresponsable scientifique de cet Atelier. Organisation scientifique. E. Grandjean et B. Vallée sont tous deux responsables d'un groupe du travail du PRC AMI puis ALP. C. Carlet, E. Grandjean et B. Vallée ont organisé plusieurs fois des réunions de groupe de travail de ce PRC. (voir 5) Prix Jean-Marie Le Bars a obtenu le Kleene Award, prix du Meilleur Article Etudiant pour son article "Fragments of existential second-order logic without 0-1 laws" au colloque LICS’98, juin 1998, Indianapolis, USA. J.M. Le Bars a aussi obtenu en décembre 1998 l’un des deux accessits (non classés) du Prix de Thèse SPECIF 1998 pour sa thèse "Probabilités asymptotiques et pouvoir d’expression des fragments de la logique du second ordre" (GREYC, Univ. Caen, Janvier 1998). Conférences invitées C. Carlet - ICC'97 (International Conference on Combinatorics, Information Theory and Statistics), Juillet 1997, Portland USA . - Third Mediterranean Workshop on Coding and Information Integrity, Ein Boqeq, Dead Sea, Israel, Octobre 1997 - IEEE Information Theory Workshop, Killarney, Irlande, Juin 1998 E. Grandjean "Workshop Finite Model Theory”, Oberwolfach, Allemagne, février 1998. J.P. Tillich, - Conférence de 1 heure à l'IMA (Institute for Mathematics and its Applications)sur le thème "Emerging Applications of Number Theory", Minneapolis, Minnesota, 23 Juillet 1996. - Conférence de 50 minutes au Banach Center à Varsovie, (Académie polonaise des Sciences) dans le cadre du "Minisemester in Discrete Mathematics", 4 septembre 1996. B. Vallée Semaine "Computational Number Theory", Dagstulh, octobre 98. Semaine "Analyse en moyenne d'algorithmes", Dagstuhl, juillet 93,juillet 95, juillet 97 Semaine "Analyse en moyenne d'algorithmes", Princeton (USA), juillet 98. Semaine "Analyse en moyenne d'algorithmes, Barcelone, juin 1999. Semaine "Computational Number Theory and Cryptography", Singapour, novembre 99. 8- LES RESULTATS : THESES, PUBLICATIONS, CONTRATS Thèses Habilitations à diriger des recherches Revues internationales avec comité de lecture Congrès internationaux avec comité de lecture et actes Congrès internationaux sans actes Articles soumis Contrats : trois pour une somme de 9- LES THESES EN COURS. B-6 7 2 38 16 10 13 1370 kF Fabrice Boudot , "Autour des processus Zero-knowledge", (M. Girault, B. Vallée) Emmanuel Benoist, "Algorithmes sur les formules de Horn", (J.J. Hébrard, E. Grandjean ) Christophe Broult , "Langages de spécification pour les cartes à puce", (J.L. Lambert) Julien Clément , "Analyse en moyenne d'algorithmes sur les arbres" (B. Vallée) Samuel Dellacherie, " Implémentations d'algorithmes interieurs de programmation linéaire pour la validation de protocoles", (J.L. Lambert) Samuel Devulder, "Analyse qualitative des programmes informatiques", (J.L. Lambert) Sylvie Dubuc "Les fonctions q-aires en cryptologie et en codes correcteurs d'erreurs" (C. Carlet) Philippe Guillot, "Fonctions booléennes et transformation de Mobius", (C. Carlet) Philippe Luquet, "Horn renommage partiel et problème SAT" (J.J. Hébrard, P. Enjalbert ) Guy Michel, "Une nouvelle approche de la programmation linéaire dans les arbres de décision obliques", (J.L. Lambert) Jean-François Misarsky, "Attaque de schémas de signatures", (M. Girault, B. Vallée) Maud Paulmier, " Problèmes de satisfaction de contraintes dynamiques" (J.J. Hébrard) Pascal Rossa, "Satisfaisabilité des formules imbriquées: algorithmes et applications", (J.J. Hébrard, E. Grandjean ) B-7 THEME 1 - Modèles de calcul, complexité et algorithmes combinatoires Enseignants-chercheurs: Etienne Grandjean, Jean-Jacques Hébrard, Solomampionona Ranaivoson, Véronique Terrier. Doctorants: Emmanuel Benoist, Laurent Coupry, Arnaud Durand (jusqu’en juin 1996, actuellement ATER Univ. Nancy, recruté MC Univ. Paris 12, fév. 1999), Jean-Marie Le Bars (jusqu’en janvier 1998, actuellement ATER Univ. Caen), Philippe Luquet, Frédéric Olive (jusqu’en juillet 1996, actuellement MC Univ. Marseille I), Maud Paulmier, Pascal Rossa. Membres associés: Nadia Creignou, Malika More, toutes deux MC Univ. Caen, lab. SDAD. Présentation générale Dans le thème Modèles de calcul, complexité et algorithmes combinatoires, on s’intéresse aux algorithmes de temps et mémoire linéaires et on travaille à des caractérisations de la classe des problèmes résolubles par algorithmes linéaires. On sait combien cette classe est étendue et riche en problèmes combinatoires variés, et est aussi essentielle pour les applications. On étudie les classes de complexité associées au temps linéaire avec un double point de vue: calculatoire (machines RAM) et logique (définissabilité en logique: complexité descriptive). A côté du modèle séquentiel des RAM, on étudie également des modèles de calcul parallèles, les automates cellulaires, et leur complexité, linéaire ou en temps réel. Enfin, la dernière activité porte sur la construction d’algorithmes, très souvent linéaires, sur les graphes et les problèmes de satisfaisabilité logique. Cette activité donne lieu à collaboration avec l’équipe Intelligence Artificielle. L’unité du thème est assurée • par les domaines étudiés: - la logique: logique propositionnelle et logique du second ordre existentiel, - les modèles de calcul: essentiellement les RAM et automates cellulaires, - la combinatoire: graphes, probabilités asymptotiques, phénomènes de seuil, etc; • par les objectifs: - trouver les meilleurs algorithmes, souvent linéaires, pour des problèmes naturels, essentiellement en logique et sur les graphes; - prouver des bornes inférieures de complexité pour d’autre problèmes sur des modèles de calcul séquentiels (ex. non linéarité prouvée, sur machines de Turing, des problèmes NLIN-complets) ou parallèles (problèmes non calculables en temps réel sur automates cellulaires). Au plan national et depuis trois ans, le thème est partie prenante du groupe de travail “Complexité et Théorie des Modèles Finis” dirigé par E. Grandjean puis M. de Rougemont à l’intérieur du GDR-PRC AMI (Algorithmique, Modèles, Infographie), maintenant ALP . Il est aussi l’un des deux partenaires d’un projet franco-allemand Procope (Caen-Mainz, 1997-1998, renouvelé en 1999). 1. Complexité en temps linéaire et logique du second ordre (Etienne Grandjean, Nadia Creignou, Arnaud Durand, Jean-Marie Le Bars, Malika More, Frédéric Olive, Solomampionona Ranaivoson) 1.1. Caractérisations logiques de la complexité en temps linéaire non déterministe (Etienne Grandjean, Arnaud Durand, Frédéric Olive) La complexité en temps linéaire est une notion intuitive et familière des concepteurs d’algorithmes, mais qui, paradoxalement, a longtemps résisté à la formalisation (plusieurs spécialistes de complexité, Gurevich-Shelah, Grädel, Regan en donnent des versions divergentes). B-8 A la suite d’une série de travaux portant d’une part sur le pouvoir d’expression des logiques du second ordre (voir le fameux théorème de Fagin qui caractérise NP), d’autre part sur les modèles de calcul (le modèle RAM), toujours en rapport avec la complexité algorithmique, E. Grandjean est parvenu à élaborer un concept rigoureux de temps linéaire, à la fois pour les cas non déterministe (la classe NLIN) et déterministe (la classe DLIN). Entre 1989 et 1996, il a établi la robustesse de la classe NLIN sur les deux plans calculatoire et logique, en particulier par une première caractérisation en logique du second ordre existentiel. Par la suite, A. Durand a démontré deux nouvelles caractérisations de NLIN en termes de permutations ou de graphe orienté de degré borné. Enfin F. Olive a montré que la caractérisation de E. Grandjean pouvait même être normalisée sous forme purement conjonctive (conjonction d’égalités), donnant ainsi une version uniforme des problèmes NLIN-complets étudiés auparavant par E. Grandjean, S. Ranaivoson et N. Creignou. 1.2. Caractérisation algébrique du temps linéaire déterministe et réductions (Etienne Grandjean) Après avoir élaboré la classe DLIN (complexité en temps linéaire sur RAM), E. Grandjean a montré que les problèmes classiques dits linéaires (parcours de graphes, etc) appartenaient à cette classe, ainsi que le problème du tri; et il en a conclu une “Thèse du Temps Linéaire”: DLIN est exactement la classe des problèmes résolubles par algorithmes de temps et mémoire linéaires; Thomas Schwentick (Univ. Mainz) a donné en 1996 une première caractérisation de DLIN par une algèbre de fonctions, donc indépendamment des machines. Depuis 1997, tous deux collaborent afin de réaliser pour DLIN le programme déjà réussi, pour l’essentiel, pour la classe non déterministe NLIN: ils ont simplifié la caractérisation algébrique de DLIN; ils en ont déduit deux problèmes DLIN-complets; pour ce faire, ils ont élaboré une nouvelle notion de réduction, très stricte, indépendante des machines, et hautement parallélisable: la “réduction affine”, basée sur la notion classique de fonction affine sur les entiers. 1.3. Complexité et pouvoir d’expression en logique du second ordre (Etienne Grandjean, Arnaud Durand, Malika More, Frédéric Olive, Solomampionona Ranaivoson) En utilisant de façon essentielle sa caractérisation logique de la classe NLIN, E. Grandjean a montré avec F. Olive que les langages de cette classe, qui contient la plupart des problèmes NP-complets usuels, sont définissables en logique du second ordre monadique avec addition. Ceci contraste de manière frappante avec le fait bien connu (théorème de Büchi) que si l’addition est remplacée par l’ordre linéaire, alors la même logique - second ordre monadique sur les mots - caractérise seulement et exactement les langages rationnels (au lieu des problèmes NP-complets). Dans le même esprit, A. Durand et S. Ranaivoson ont prouvé que toute propriété (d’entiers, de graphes, etc), exprimable en logique du second ordre avec des fonctions unaires - par exemple, l a connexité forte d’un graphe - peut s’exprimer avec seulement une relation binaire, en lieu et place de toutes les fonctions unaires. Ils ont montré qu’on peut même exiger que cette relation soit symétrique ou soit un ordre partiel. Plus généralement, A. Durand, C. Lautemann et T. Schwentick (Univ. de Mainz) ont mis en évidence, pour les problèmes de graphes, une hiérarchie surprenante, stricte et complète, basée sur le type des relations binaires existentiellement quantifiées: par exemple l’usage des fonctions unaires équivaut à celui des ordres totaux (ou des relations d’équivalence) mais est strictement plus expressif que l’usage des permutations. Par ailleurs, dans le cadre de diverses collaborations, A. Durand et F. Olive ont découvert des liens étroits entre expression logique, arithmétique et complexité (avec M. More du SDAD et C. Lautemann de Mainz), et cerné précisément le pouvoir d’expression d’une seule fonction unaire (avec R. Fagin de IBM San Jose, Californie, et B. Loescher, Univ. Paris-Sud). 1.4. Probabilités asymptotiques et pouvoir d’expression de la logique du second ordre (Jean-Marie Le Bars). Depuis quinze ans, beaucoup de recherches ont été menées en théorie des modèles finis en vue de comparer le pouvoir d’expression des logiques, non seulement avec la complexité des problèmes qu’elles expriment, mais aussi avec leurs probabilités asymptotiques. On dit qu’une logique a une loi 01 si, pour toute formule F de cette logique, la proportion des modèles de cardinal n qui satisfont F, soit tend vers 1, soit tend vers 0 quand n tend vers l’infini. Kolaitis et Vardi (1987-1995) ont exhibé une B-9 relation étonnante et mal élucidée entre le problème de décision pour une logique et l’existence d’une loi 0-1 pour la logique du second ordre correspondante. A l’opposé de ces résultats et donc de ce qui était attendu, J.M. Le Bars a, montré dans sa thèse que la logique du second ordre existentiel à deux variables n’a pas de loi 0-1 alors que la logique correspondante, celle du premier ordre à deux variables, est décidable. Pour établir ce résultat qui a surpris les spécialistes, J.M. Le Bars a imaginé une variante de la propriété (NP-complète) de noyau d’un graphe et a utilisé, pour la première fois en logique, la théorie des graphes aléatoires. La puissance de ces méthodes lui a permis du même coup de résoudre les deux principales questions encore ouvertes sur les probabilités asymptotiques des logiques du second ordre, toujours négativement, c’est à dire d’établir leur divergence. 2. Algorithmes combinatoires et problèmes de satisfaisabilité (Jean-Jacques Hébrard, Emmanuel Benoist, Laurent Coupry, Nadia Creignou, Philippe Luquet, Maud Paulmier, Pascal Rossa). Un des principaux sujets de recherche du groupe est l’étude des classes polynomiales liées aux problèmes de satisfaction de contraintes, et, plus particulièrement, au problème SAT (satisfaisabilité propositionnelle). D’autres travaux concernent plus spécifiquement l’algorithmique des graphes. Dans le prolongement de travaux antérieurs sur le Horn-renommage, J.J. Hébrard et P. Luquet ont formalisé l’idée qu’un ensemble de clauses propositionnelles qui n’est pas Horn-renommable, peut tout de même l’être partiellement, et ont introduit pour cela le concept de Base de Horn. Cela leur a permis de définir une méthode originale de simplification des formules clausales. Ils ont élaboré un algorithme linéaire qui calcule la Base de Horn d’un ensemble de clauses donné, fournissant du même coup un nouvel algorithme linéaire de reconnaissance des formules q-Horn, introduites par Boros, Crama et Hammer. Par ailleurs, P. Luquet a étudié la présence de littéraux monotones dans les données aléatoires du problème SAT, et a prouvé l’existence d’un phénomène de seuil. Ce résultat complète les études sur le même sujet de Franco et Paull d’une part, et de Broder, Frieze et Upfal d’autre part. Dans de nombreuses situations pratiques il est nécesssaire de générer toutes les solutions d’un système de contraintes. N. Creignou et J.J. Hébrard examinent cette question pour les problèmes de satisfaisabilité généralisée. Ils montrent que l’on peut générer avec un algorithme à délai polynomial toutes les solutions de tout problème de satisfaisabilité généralisée équivalent à l’un des problèmes suivants: Horn-SAT, anti-Horn-SAT, 2-SAT ou XOR-SAT. En s’appuyant sur les résultats fondamentaux de Schaefer, ils prouvent que, pour tout autre problème de satisfaisabilité généralisée, un tel algorithme n’existe pas à moins que P=NP. En revanche, on peut générer efficacement les modéles de certaines formules clausales particulières. C’est le cas des "formules de Horn étendues" introduites par Chandru et Hooker. Malheureusement, on ne connaît pas d’algorithme polynomial pour reconnaître ces formules. E. Benoist et J.J. Hébrard donnent un algorithme linéaire de reconnaissance des "ormules de Horn étendues simples", introduites par Swaminathan et Wagner, améliorant ainsi substantiellement l’algorithme compliqué proposé par ces derniers. Divers auteurs ont montré que si l’hypergraphe associé naturellement à un système de contraintes est acyclique, alors ce système peut être résolu en temps polynomial. J.J. Hébrard et P. Rossa introduisent la notion de semi-arbre qui fournit une caractérisation des hypergraphes acycliques. Ce nouveau cadre permet de généraliser de façon naturelle la notion d’hypergraphe acyclique, et de définir de nouvelles classes polynomiales pour les problèmes de satisfaction de contraintes. Ces classes peuvent, en outre, être reconnues par des algorithmes de complexité polynomiale. Parallèlement, J.J. Hébrard et P. Rossa ont conçu un algorithme linéaire de reconnaissance des graphes semi-extraplanaires, qui, en cas de réponse positive, fournit une représentation planaire du graphe donné. Cet algorihme permet de reconnaître efficacement les formules de Knuth. Il permet aussi de résoudre en temps linéaire un problème de dessin des graphes planaires bipartis pour lequel on ne connaissait qu’un algorithme quadratique. Enfin, toujours pour les graphes planaires, L. Coupry a récemment publié un algorithme linéaire très simple pour le problème des (s,t)-chemins disjoints (problème de Menger), améliorant un premier algorithme de Weihe (1997, J. of Algorithms) tant pour la simplicité des structures de données, donc B-10 pour la rapidité d’exécution, que pour la preuve de correction et de linéarité. Il a même obtenu, pour le même problème, un algorithme encore linéaire, mais plus complexe dans le cas plus général des graphes orientés planaires. 3. Automates Cellulaires et complexité (Véronique Terrier) Les automates cellulaires (AC) sont un modèle de calcul massivement parallèle, capable de calcul universel. Pour évaluer la puissance de ce modèle, en lien avec la complexité, on étudie la reconnaissance des langages (pour éviter les problèmes de sortie). V. Terrier s’intéresse aux petites classes de complexité sur AC, temps réel (qui est le temps minimal) et temps linéaire, classes bien plus larges que les classes similaires pour les modèles séquentiels. La puissance de calcul des AC, modèle parallèle, se traduit d’ailleurs par une difficulté étonnante: en dimension 1 comme en dimenson 2 pour le voisinage de Von Neumann, on n’a aucune preuve qu’un langage ne soit pas reconnu par aucun AC en temps réel et en espace égal à la taille de l’entrée. Néanmoins, Choffrut et Culik ont montré qu’ en dimension 1, certains AC restreints, les AC unidirectionnels (c’est à dire, définis pour le voisinage de 1 voisin) reconnaissent les mêmes langages unaires que les automates finis. Dans ce cadre, V. Terrier a présenté deux approches pour montrer que des langages binaires ne sont pas reconnaissables sur AC unidirectionnels (par des techniques algébriques inspirées de celles de Hartmanis et Stearns pour le temps réel des machines de Turing et de celles de Cole pour les automates itératifs); elle en a déduit que cette classe de langages n’est pas close par concaténation et ne contient pas certains langages algébriques; V. Terrier étudie maintenant les AC de dimension 2 avec des entrées elles aussi bidimensionnelles et données en parallèle, ceci avec les voisinages standard de Von Neumann (4 voisins) ou de Moore (8 voisins). Dans ce cadre, elle a généralisé en dimension 2 les théorèmes d’accélération linéaire connus en dimension 1; elle a exhibé un langage reconnu en temps réel avec le voisinage de Von Neumann qui ne l’est plus pour celui de Moore, démontrant ainsi que pour le voisinage de Moore, le temps linéaire est strictement plus puissant que le temps réel; enfin, toujours pour les langages de mots bidimensionnels, elle compare les AC à d’autres modèles, dont le plus simple: les "deterministic online tessalation automata" THEME 2 Algorithmique en Arithmétique, Codage et Cryptographie B-11 Enseignants-chercheurs: Claude Carlet, Brigitte Vallée Post-doctorant : Jean-Pierre Tillich (1995-1997) Doctorants: Ali Akhavi, Julien Clément, Sylvie Dubuc, Philippe Guillot (Directeur du laboratoire "Chiffre" de Thomson CSF), En co-direction: David Pointcheval (au GRECC-Ens Ulm) jusqu'en 97, Jean-François Misarsky (CNET) Chercheurs associés: Marc Girault (CNET-Caen). Présentation générale Le groupe mène ses activités de recherche dans trois principales directions. Les deux premières sont de nature plus théorique et interagissent avec une troisième plus appliquée: la première est une activité d'algorithmique en arithmétique et théorie de l'information, autour de Brigitte Vallée. La seconde consiste en une étude des codes correcteurs d'erreur et des fonctions booléennes, autour de Claude Carlet. Les deux activités se retrouvent en commun sur le terrain de la cryptographie, qui constitue le troisième axe de recherche du groupe, et auquel a participé Jean-Pierre Tillich. Par ce dernier volet, le groupe est un élément-clé du projet "Sécurité de l'Information". Un groupe de travail a fonctionné en 95 et 96 quand le besoin s'en faisait sentir. il a rassemblé les membres du groupe et certains membres du CNET afin de mettre en commun problèmes et résultats. 1. Algorithmique en arithmétique et théorie de l'information (B. Vallée, A. Akhavi, J. Clément ) La problématique du thème a nettement évolué au cours de la période 95-98. Au départ, il s'agissait d'analyser la complexité d'algorithmes classiques en "Computational Number Theory" ou de construire de nouveaux algorithmes arithmétiques. Puis les méthodes "dynamiques" qui se sont révélées essentielles dans l'analyse de ces algorithmes arithmétiques se sont avérées également fructueuses dans un domaine algorithmique a priori différent: la théorie de l'information. Enfin, le groupe commence à comprendre que ces méthodes puissent s'avérer encore plus générales, et débute une réflexion en ce sens. 1.1. Algorithmique en arithmétique (B. Vallée, A. Akhavi) Le domaine général de l'activité est celui de la géométrie algorithmique des nombres où l'on étudie les réseaux euclidiens, c'est-à-dire l'ensemble des vecteurs qui s'expriment comme une combinaison linéaire à coefficients entiers de vecteurs de l'espace Rn. Le problème principal y est le problème de la réduction; réduire un réseau, c'est trouver une bonne base, formée de vecteurs assez courts et assez orthogonaux. Les solutions algorithmiques récentes apportées à ce problème, même approchées, permettent de résoudre beaucoup d'autres problèmes, dans des domaines très variés, aussi bien en mathématiques pures qu'en programmation linéaire en nombres entiers ou en cryptographie par exemple. Lenstra, Lenstra et Lovasz, en 1983, ont résolu le problème de la réduction des réseaux au moyen d'un algorithme, baptisé LLL, qui fonctionne en temps polynomial. Cet algorithme est très populaire, car il a énormément d'applications pratiques. En contraste, le fonctionnement de cet algorithme est très mal compris et peu de résultats précis concernant la complexité de cet algorithme ont été établis jusqu'à présent: c'est le projet général de l'activité d'obtenir de tels résultats. Cet algorithme LLL est une généralisation d'un vieil algorithme dû à Gauss, et coincide avec ce dernier en dimension 2. En dimension quelconque, il utilise l'algorithme de Gauss en sous-procédure. Toute analyse de LLL doit s'appuyer clairement sur une analyse de l'algorithme de Gauss. L'algorithme de Gauss peut être vu d'ailleurs comme une généralisation de l'algorithme d'Euclide, et un certain nombre d'objets B-12 fondamentaux sont communs aux deux algorithmes. C'est pourquoi les méthodes d'analyse de l'algorithme de Gauss, de l'algorithme d'Euclide et de ses dérivés sont en un certain sens similaires. Etude de l'analyse de la complexité en moyenne de l'algorithme LLL (A. Akhavi) Dans sa thèse, soutenue en janvier 99, Ali Akhavi introduit des variantes del'algorithme LLL, avec des tests de sortie légèrement différents des tests usuels. Il a entrepris l'étude de ces variantes, tant du point de vue de la complexité, que de la qualité de la base de sortie. Il peut ainsi classer ces variantes en deux classes, les nouveaux algorithmes "rapides" qui effectuent des tests plus grossiers, dont la qualité de sortie reste cependant suffisante pour bon nombre d'applications et les algorithmes classiques beaucoup plus lents. Il montre donc que les algorithmes classiques effectuent ainsi beaucoup plus d'itérations sans que leur sortie soit à la mesure du travail accompli. L'étude de ces variantes est très utile, tant pour élaborer un début de stratégie algorithmique que pour mieux comprendre le comportement de l'algorithme LLL. Ali Akhavi a aussi élucidé le comportement de l'algorithme lorsque le paramètre t est égal à 1. Ce cas correspond à la meilleure configuration de sortie possible et Ali Akhavi montre que l'algorithme reste, à dimension fixée, polynomial en la taille des données. Ces analyses sont importantes également dans le cadre de la géométrie algorithmique, notamment dans l'éude des algorithmes qui évaluent le signe d'un déterminant n fois n. Analyse de la complexité en moyenne de l'algorithme de Gauss (B. Vallée 95-96) Avec Philippe Flajolet et Hervé Daudé, B. Vallée a analysé la complexité moyenne de l'algorithme de Gauss. Il apparaît ici une divergence profonde entre l'algorithme de Gauss et l'algorithme d'Euclide, puisque la complexité moyenne de ce dernier reste logarithmique en moyenne, alors que celle de l'algorithme de Gauss devient constante --i.e. asymptotiquement indépendante de la taille de la base d'entrée--. Après avoir obtenu la valeur précise du nombre moyen d'itérations effectuées, ils affinent ce résultat en effectuant l'analyse en distribution de cet algorithme et déterminant l a densité dynamique correspondante. Ce travail utilise essentiellement des méthodes d'analyse fonctionnelle appliquées à une famille d'opérateurs G_s, introduits et utilisés par Ruelle et Mayer, afin d'étudier les propriétés dynamiques des fractions continues. Dans ce cas, ce sont les valeurs du paramètre s proches de 2 qui sont intéressantes. Les résultats obtenus pour l'algorithme de Gauss s'expriment, eux, en fonction des propriétés spectrales dominantes de ces opérateurs pour s= 4 L'ensemble de ce travail a fait l'objet d'un article paru au journal "Combinatorics, Probability and Computing" (36 p) Par la suite, B. Vallée a généralisé l'étude précédente dans le cas où la densité initiale était quelconque --i.e. non nécessairement uniforme--. Le problème est plus difficile, car il nécessite l'introduction d'une nouvelle famille d'opérateurs opérant sur des fonctions de deux variables qui généralise la famille de Ruelle-Mayer. Prouvant que ces opérateurs généralisés ont des propriétés très proches des opérateurs de base, elle obtient des résultats similaires aux précédents, et les objets-limite dépendent alors de la "valuation" de la densité initiale au voisinage de l'axe réel. L'ensemble de ce travail a fait l'objet d'une note aux CRAS et d'un article long paru dans "Acta Arithmetica"; un résumé de ce travail a été accepté pour présentation aux Journées Arithmétiques'95 (Barcelone) Enfin, elle a étudié un algorithme de comparaison de deux rationnels qui utilise le développement en fraction continue. Cet algorithme sert aussi à évaluer les déterminants d'ordre 2 et est très utilisé en géométrie algorithmique (avec des densités initiales non nécessairement uniformes). B. Vallée montre que les mêmes méthodes d'analyse fonctionnelle s'appliquent dans l'analyse en moyenne de cet algorithme Etude de l'analyse de la complexité en moyenne de l'algorithme d'Euclide. (B. Vallée 96-97) Des méthodes analogues d'analyse fonctionnelle s'appliquent également dans l'analyse en moyenne de l'algorithme d'Euclide, et permettent d'améliorer les théorèmes de Philipp sur les lois-limite vérifiées par les continuants: Ces résultats, obtenus en 1995 par B. Vallée, sont à la fois plus précis et valides sous des hypothèses plus générales que les résultats de Philipp. Là encore, la preuve repose B-13 sur l'étude des opérateurs de Ruelle-Mayer généralisés. L'ensemble de ce travail a fait l'objet d'une autre partie des publications déjà citées précédemment, une note et un article paru dans "Acta Arithmetica"; Un résumé de ce travail a été accepté pour présentation aux Journées Arithmétiques'95 (Barcelone). B. Vallée a montré avec Philippe Flajolet que les opérateurs de Ruelle-Mayer (classiques ou généralisés) permettent de donner des preuves simples et naturelles des phénomènes caractéristiques et divers liés à la numération en fraction continue: Ces résultats ont fait l'objet d'une conférence invitée au Congrès Fibonacci [Graz, juillet 96], et sont parus ensuite dans "Theoretical Computer Science". Analyse dynamique des fractions continues contraintes. (B. Vallée, 1997) A la suite d'une question posée par Jean-Pierre Tillich, et motivée par des applications cryptographiques, B. Vallée a étudié les nombres de l'intervalle [0, 1] dont le développement en fraction continue obéit à des contraintes périodiques. On peut s'intéresser à trois ensembles: l'ensemble des réels, dont on veut déterminer la dimension de Hausdorff; l'ensemble des rationnels et l'ensemble des irrationnels quadratiques dont on veut déterminer l'exposant de densité et le comportement moyen du developpement en fraction continue. Assez curieusement, ce problème n'avait pas été abordé précédemment sous cette forme générale, et les méthodes pour le résoudre étaient diverses. En associant au problème un système dynamique et un opérateur (qui engendre ces contraintes et qu'elle baptise opérateur de Ruelle-Mayer contraint), elle décrit toutes les constantes caractéristiques des trois ensembles, constantes qui s'expriment toutes en fonction de propriétés spectrales dominantes de cet opérateur. Ce travail fait l'objet d'un article paru dans "Journal of Number Theory" (53 p). Elle a exposé ces résultats lors des Journées Arithmétiques'97. Analyse en moyenne du pgcd binaire. (B. Vallée, 1997-98) L'algorithme du pgcd binaire opère par soustractions et divisions par 2. La simplicité de ces opérations fait que cet algorithme est très utilisé. La complexité moyenne de cet algorithme (sur des entiers inférieurs à N) restait un problème ouvert depuis 1976, date où Richard Brent avait conjecturé qu'elle était en A log N. B. Vallée a résolu cette conjecture; elle a analysé tous les paramètres relatifs à cet algorithme binaire et a démontré que leur valeur moyenne était asymptotiquement logarithmique. Là encore, les méthodes employées sont "dynamiques". Cependant, les espaces fonctionnels sur lesquels opère l'opérateur de Ruelle sont ici bien plus complexes que dans les autres cadres où elle les utilise, du fait de l'existence des puissances de 2 qui créent des singularités: il faut travailler avec des espaces de Hardy. Elle montre ainsi que les propriétés spectrales dominantes de l'opérateur interviennent dans les constantes accompagnant les termes principaux des valeurs moyennes étudiées. Ces constantes sont reliées à l'entropie du système dynamique associé et ne semblent pas s'exprimer en fonction d'autres constantes connues. Actuellement, Paul Zimmermann (INRIA Nancy) travaille à obtenir, via des méthodes d'analyse numérique, des valeurs approchées de ces constantes. Une version courte de ce travail a été présentée au congrès ANTS'98 (Algorithmic Number Theory Symposium, Portland, USA, juin 98). D. Knuth a jugé très favorablement ce travail "a magnificent piece of analysis... among the top two or three problems I was hoping to see resolved in my lifetime...". Les éditeurs d'un numéro spécial d'Algorithmica sur l'Analyse en moyenne l'ont invitée à présenter un article long sur ce résultat, qui est paru en 1998 (25 p). Analyse en moyenne des algorithmes du symbole de Jacobi (B. Vallée 1998) Le symbole de Jacobi est lié au caractère quadratique modulaire et est largement utilisé dans un contexte cryptographique. Grâce à la loi de réciprocité quadratique, ce symbole peut être calculé par des algorithmes dérivés de l'algorithme d'Euclide, où les divisions euclidiennes classiques sont remplacées par des pseudo-divisions avec des pseudo-restes impairs. Shallit a présenté trois algorithmes de ce genre et en a fait en 1990 l'analyse dans le pire des cas. L'analyse en moyenne restait ouverte, et semblait, selon Bach et Shallit, "quite hard". On pouvait par ailleurs songer à un quatrième algorithme, assez naturel. Grâce aux méthodes dynamiques, B. Vallée a obtenu l'analyse en moyenne de ces quatre algorithmes (sur les entiers inférieurs à N), en collaboration avec Charly Lemée lors de son stage de Dea. Ces algorithmes font apparaître des systèmes dynamiques assez complexes, à la fois markoviens et probabilistes, où se produisent des phénomènes bien connus en systèmes dynamiques, ce qu'on appelle des phénomènes d'intermittence. Cependant, grâce à B-14 l'introduction de la méthode d'induction, ils ont pu mener l'étude à bien, et classer les algorithmes proposés en deux classes: l'un d'entre eux est "lent", puisque le nombre moyen de divisions est en A log^2 N, et les trois autres sont rapides, avec un nombre moyen de divisions en A log N. La constante A est reliée à des constantes connues dans le premier cas, alors que les constantes A des algorithmes rapides, reliées étroitement à l'entropie des systèmes dynamiques associés, sont mathématiquement bien définies mais non reliées à des constantes connues. L'analyse en moyenne montre que l'algorithme le plus efficace n'est pas celui qui est employé dans les systèmes de calcul formel (Maple par exemple). Pour l'instant, ce travail tout récent est un rapport de recherche dont une version courte est soumise au congrès ICALP'99. 1.2. Algorithmique en Théorie de l'Information (J. Clément, B. Vallée 1997- 1998) Sources dynamiques et problèmes de mots .(B. Vallée). En théorie de l'information, une source est un mécanisme qui produit des mots. B. Vallée introduit un modèle très général de source, lié à des systèmes dynamiques; ce modèle englobe les sources "sans mémoire", les chaînes de Markov, mais aussi des sources plus complexes où le symbole émis peut dépendre de toute l'histoire précédente (comme celle liée à la numération en fraction continue). De plus, ce mécanisme n'est pas seulement symbolique, mais dépend aussi d'une densité initiale, qui peut modifier la distribution des mots produits. B. Vallée montre comment des problèmes esssentiels sur les mots peuvent se traiter grâce à l'opérateur de Ruelle lié au système dynamique. Elle relie d'abord les grandeurs caractéristiques d'une telle source, en particulier l'entropie et la probabilité de coincidence, aux propriétés spectrales dominantes de l'opérateur. Elle obtient ensuite une version forte du Théorème de Shannon-MacMillan-Breiman, où elle montre que la distribution des mots est asymptotiquement gaussienne. Enfin, elle analyse la coincidence entre deux mots. Dans tous ces résultats, c'est la valeur propre dominante de l'opérateur de Ruelle qui joue un rôle décisif. Un article sur le sujet est soumis au journal Algorithmica (37p). Analyse en moyenne d'arbres digitaux hybrides. (J. Clément, B. Vallée) Ce travail a été mené en collaboration avec P. Flajolet. Le travail sur les arbres digitaux sur la source "à fraction continue" pose la question de l'implémentation d'arbres digitaux sur un alphabet non fini. Ils ont été amenés naturellement à analyser une structure d'arbre hybride mélangeant deux structures, celle d'arbre digital et celle d'arbre binaire de recherche. Cette structure de données avait été proposée dans un contexte légèrement différent par Bentley et Sedgewick, qui avaient effectué des tests expérimentaux prouvant que cette structure était très bien adaptée à la recherche et pouvait servir d'alternative aux tables de hachage. Les auteurs ont fait l'analyse en moyenne de cette structure de données dans le cadre des sources sans mémoire et des chaines de Markov et en ont démontré l'efficacité. Ce travail a fait l'objet d'un article présenté au congrès international SODA'98 (Symposium on Discrete Algorithms, San Francisco, janvier 98) et publié dans les actes de ce congrès (10p). Analyse en moyenne d'arbres digitaux généraux associés à des sources dynamiques (J. Clément, B. Vallée). Ce travail a été mené également en collaboration avec P. Flajolet. Les auteurs analysent les principaux paramètres (taille, longueur de cheminement, hauteur) des arbres digitaux généraux (standards ou hybrides) construits sur une source dynamique générale. Il y a ainsi une double généralité dans l'analyse (celle de la source et celle de la structure). Ils montrent comment leurs valeurs moyennes dépendent des grandeurs caractéristiques de la source (entropie, probabilité de coincidence). Ce résultat améliore des résultats précédents de Devroye et de Szpankowski, et utilise une hyper-généralisation des opérateurs de Ruelle, (puisqu'il faut travailler en dimension 3 ou 4). Un article sur le sujet est soumis au journal Algorithmica (40p). 1.3. Méthodes d'analyse dynamique (B.Vallée) B-15 Depuis 5 ans, B. Vallée a pris progressivement conscience du rôle très important que pouvait jouer la théorie des systèmes dynamiques dans l'analyse des algorithmes. C'est une idée tout à fait naturelle que de considérer un algorithme et l'ensemble de ses données comme un système dynamique. Les données sont alors les particules du système qui sont soumises au "champ" créé par les opérations que leur font subir l'algorithme. A un système dynamique, on associe classiquement, depuis Ruelle, un opérateur appelé opérateur de transfert, ou opérateur de Ruelle, qui permet de décrire l'évolution du système. Cet opérateur dépend d'un paramètre s, est désigné par G(s) et agit sur un espace de fonctions d'une variable. Il a, de par sa nature, des propriétés de positivité qui permettent d'exhiber des propriétés spectrales dominantes. La valeur propre dominante joue ainsi un rôle essentiel dans la description des phénomènes d'équilibre du système. Plus généralement, deux grandeurs associées à l'opérateur de Ruelle, le déterminant de Fredholm, et la fonction Zeta permettent d'expliquer beaucoup de phénomènes liés au système. Des scientifiques comme Babenko, Wirsing, Mayer, Hensley ont déjà utilisé cette théorie, et l'opérateur associé, pour obtenir des résultats importants mais ponctuels concernant la dynamique des fractions continues. L'originalité du travail de B. Vallée tient à trois directions empruntées: (a) Il est maintenant classique, en analyse d'algorithmes, de travailler avec des séries génératrices. Vues comme des fonctions de variable complexe, leur singularité dominante permet d'obtenir des renseignements précieux sur le comportement asymptotique moyen de l'algorithme. Selon B. Vallée, l'opérateur de Ruelle peut être considéré comme un opérateur "super--générateur", en ce sens qu'il engendre lui-même les séries génératrices associées à l'algorithme. C'est alors l'étude de la valeur propre dominante qui va permettre d'appréhender le comportement asymptotique moyen de l'algorithme. (b) C'est la philosophie générale. Mais, de fait, pour pouvoir vraiment être utilisés en analyse d'algorithmes, les opérateurs de Ruelle ont besoin d'être généralisés, afin d'opérer sur des fonctions de plusieurs variables. B. Vallée a ainsi opéré plusieurs généralisations successives afin de parvenir à une généralisation satisfaisante qui englobe toutes les précédentes. Cet opérateur, désigné par G(s) étend d'ailleurs dans un sens fort, l'opérateur classique G(s) : l'opérateur généralisé a la même valeur propre dominante, et son déterminant de Fredholm, tout comme sa fonction Zeta sont étroitement reliés à leurs homologues classiques. (c) Ce point de vue synthétique, qui lui a permis de dégager des principes généraux, et les bases de l'analyse "dynamique" d'algorithmes, explique qu'elle ait pu appliquer cette méthode à des domaines algorithmiques larges, l'algorithmique arithmétique et la théorie algorithmique de l'information. 2. Codes Correcteurs et fonctions booléennes (Claude Carlet, Sylvie Dubuc, Philippe Guillot) 2.1. Codes correcteurs d'erreurs (Claude Carlet). Les codes correcteurs d'erreurs servent à corriger les erreurs dans la transmission de l' information (codée au moyen d'un alphabet en général binaire) sur une ligne bruitée (satellites de télécommunication, sondes spatiales, disques compacts et CD-ROM etc...). Il s'agit de trouver de bons codes du point de vue de la théorie de l'information, l'objectif étant de minimiser le temps d'occupation de la ligne pour un pouvoir de protection donné. Les travaux dans ce domaine se situent dans le cadre d'une recherche mathématique utilisant l'algèbre, la combinatoire et l'algorithmique, développée pour la détermination et l'étude des meilleurs codes possibles. Codes Z4-linéaires B-16 L'introduction, en 1994, par Hammons, Kumar, Calderbank, Sloane et Solé de la notion de code Z4linéaire a ouvert un pan complet de recherche dans le domaine des codes correcteurs d'erreurs non linéaires. C. Carlet a caractérisé les codes Z4-linéaires dont les mots non nuls sont tous de même poids (article "One-weight Z 4-linear codes" à paraître dans les actes du congrès "International conference on Coding Theory, Cryptography and Related Areas"). Il a établi une borne supérieure et une borne inférieure sur leur distance au code de Reed-Muller d'odre 1. Cette distance joue un rôle important en cryptographie. Codes de Kerdock C. Carlet a étudié les codes de Kerdock en exploitant leur Z4-linéarité. Il a mis en évidence des propriétés combinatoires de ces codes, qui expliquent clairement pourquoi leurs paramètres de correction sont optimaux. Il a donné une preuve très simple de la meilleure borne connue sur leur rayon de recouvrement. Enfin, il a généralisé un résultat de Calderbank et Mc Guire concernant certains codes obtenus par leur projection sur un hyperplan (article présenté au congrès "Finite Fields and Applications" et paru dans ses actes, publiés par l'AMS). Dualité formelle des codes non linéaires La dualité formelle de codes non linéaires est une propriété importante de certaines classes de codes. Claude Carlet a approfondi une propriété de dualité mise en évidence dans l'article fondateur des codes Z4-linéaires (article "On Z4-duality", IEEE Transactions on Information Theory). Il a montré qu'il existe toute une hiérarchie de dualité formelle et que la Z4-dualité se situe dans une position intermédiaire entre la dualité formelle classique et la dualité plus forte des codes linéaires. Codes Z2k-linéaires Il n'existait pas jusqu'a présent de généralisation de la notion de code Z_4 linéaire à celle de code Z 2k-linéaire. C. Carlet a introduit récemment une telle généralisation (article "Z2k -linear codes" dans IEEE Transactions on Information Theory). Il en a déduit de nouveaux codes, qui généralisent les codes de Kerdock et de Delsarte-Goethals. Ces codes ont des capacités de correction proches de celles des meilleurs codes connus de longueurs et cardinalités comparables - peut-être meilleures, mais cela reste à déterminer. 2.2 Fonctions booléennes (Claude Carlet, Sylvie Dubuc et Philippe Guillot) Le chiffrement des mots binaires, en cryptographie symétrique, fait intervenir des fonctions booléennes sur ces mots (ou plus généralement des fonctions dont les valeurs elles-mêmes sont des mots binaires), qui doivent posséder certaines propriétés spécifiques pour être aptes à résister aux attaques connues. L'étude de ces propriétés - en particulier celle des fonctions courbes - est en fait étroitement liée à la théorie des codes correcteurs d'erreurs. Elle s'associe, en amont, à une étude plus générale des fonctions booléennes sur les mots, dans le cadre de laquelle se situe la thèse, en cours, de Philippe Guillot. Fonctions sans corrélation (C. Carlet) Le terme de fonction sans corrélation désigne en fait un critère hiérarchique sur les fonctions cryptographiques utilisées pour combiner plusieurs registres à décalage linéaires (dans le cadre d'un schéma de chiffrement par flot) dans le but de rendre inefficaces diverses attaques basées sur l'algorithme de Berlekamp-Massey. C. Carlet a introduit plusieurs constructions de fonctions sans corrélation définies sur des corps de Galois et des anneaux de Galois généraux de caractéristique paire, dans un article publié dans les actes de EUROCRYPT'97. Ces nouvelles constructions établissent un lien nouveau avec la notion de fonction courbe (voir ci-dessous). Fonctions non-dégénérées (S. Dubuc) Les fonctions booléennes utilisées dans les schémas cryptographiques ne doivent pas être linéairement équivalentes à des fonctions indépendantes de certaines des variables (fonctions dites dégénérées). S. Dubuc a fait une étude de ces fonctions. Elle a mis en relation le critère de non-dégénérescence avec d'autres critères cryptographiques tels que l'absence de structures linéaires. Enfin, elle a établi les conditions pour que les constructions connues de fonctions sans corrélation produisent des fonctions qui soient en même temps non dégénérées. B-17 Fonctions courbes binaires (C. Carlet et P. Guillot) La notion de fonction courbe a été introduite en 1975 et joue un rôle important, à la fois en cryptographie (les fonctions courbes sont, du point de vue de la distance de Hamming, les plus éloignées des fonctions les plus simples que sont les fonctions affines) et en codes correcteurs (ce sont les fonctions qui atteignent le rayon de recouvrement du code de Reed-Muller d'ordre 1). Mais deux classes générales, seulement, avaient été déterminées jusqu'en 1993. Après avoir obtenu de nouvelles classes de fonctions courbes à cette date, C. Carlet a mené un travail continu de recherche dans ce domaine. L'ensemble de ses résultats (ainsi que ceux d'autres chercheurs tels que H. Dobbertin et X.-D. Hou) sont présentés dans un article de survey qui paraitra prochainement dans les actes de la conférence ICC'97 (Portland, USA), et qui a fait l'objet d'une conférence invitée à ce congrès. Nouvelles constructions secondaires (C. Carlet) La connaissance des fonctions courbes progresse par l'introduction de nouvelles classes (constructions dites "primaires") et de méthodes permettant d'obtenir de nouvelles fonctions à partir de classes connues (constructions dites "secondaires"). C. Carlet a introduit une construction secondaire de fonctions courbes qui généralise toutes celles qui étaient déjà connues et qui mène à des classes nouvelles ("A construction of bent functions" paru dans les actes du 3ème congrès "Finite Fields and Applications"). Generalized Partial Spreads (GPS) (C. Carlet) C. Carlet a introduit en 1995 une notion permettant une définition unifiée des fonctions courbes connues (article publié par la revue "IEEE Transactions on Information Theory"). Ce nouveau point de vue sur les fonctions courbes consiste, entre autre, à considérer ces fonctions comme des fonctions numériques générales et non plus comme des fonctions à valeurs dans le corps à deux éléments. Il a mené à l'introduction de la classe générale GPS. Fonctions courbes et géométries discrètes (C. Carlet et P. Guillot) Ce changement de point de vue sur les fonctions courbes s'est avéré très prometteur: il a permis de caractériser les fonctions courbes en termes de géométries discrètes (article dans la revue "Journal of Combinatorial Theory") et, plus récemment, d'obtenir une caractérisation univoque de ces fonctions (article dans la revue Designs, Codes and Cryptography). P. Guillot a affiné ce dernier travail et a pu montrer que la classe GPS engendre toute la famille des fonctions courbes par translation. Il en a déduit également une caractérisation des fonctions courbes à l'aide d'un système diophantien, ouvrant la voie au dénombrement de ces fonctions (article soumis). L'ensemble de ces résultats apporte un nouvel outil pour leur étude, dans la perspective, sans doute lointaine, de leur classification. Fonctions hypercourbes (C. Carlet) C. Carlet a caractérisé les fonctions dont certaines restrictions sont courbes (fonctions dites hypercourbes). Ce travail a donné lieu à une présentation au congrès PRAGOCRYPT'96 avec une publication dans ses actes. Fonctions courbes q-aires et fonctions parfaitement non-linéaires (C. Carlet et S. Dubuc) La notion de fonction courbe a été généralisée à l'alphabet Zq=Z/qZ. Les différentes caractérisations existantes des fonctions courbes binaires mènent à des notions qui, sur ce nouvel alphabet, définissent des notions différentes; on distingue en particulier la famille des fonctions courbes et la sous-famille des fonctions parfaitement nonlinéaires. C. Carlet et S. Dubuc ont mené une étude de ces différentes notions. Ils ont montré qu'aucune des constructions connues de fonctions courbes ne définit des fonctions parfaitement non-linéaires et ils ont introduit plusieurs constructions récursives générales de telles fonctions (un article soumis). Critère de propagation (C. Carlet) Le travail de C. Carlet sur les fonctions hypercourbes s'est poursuivi dans l'étude et la construction des fonctions qui satisfont plus généralement les critères de propagation. Ces critères, introduits par Bart Preneel, jouent un rôle important en cryptographie. C. Carlet en a mené l'étude dans deux articles; le premier a été publié dans les actes de EUROCRYPT'97; le deuxième est un article long à paraître comme article invité dans la "Special Issue on Cryptology" de la revue "Information and Computation", en l'honneur du Professeur Arto Salomaa à l'occasion de son 65ème anniversaire, et qui a fait l'objet d'une conférence invitée au Workshop IEEE on Information Theory de 1998 (Irlande). B-18 Une nouvelle représentation des fonctions booléennes (C. Carlet et P. Guillot) Les formes conjonctive et disjonctive n'étant pas adaptées au cadre de la cryptographie et des codes correcteurs, les représentations des fonctions booléennes utilisées usuellement sont la table de verité et la forme algébrique normale. Chacune d'entre elles présente des avantages et des inconvénients, tant du point de vue algorithmique que du point de vue théorique. C. Carlet et P. Guillot ont introduit une nouvelle représentation, la forme numérique normale (NNF), dont la complexité est comparable a celle des deux autres, et qui présente un ensemble d'avantages incluant strictement ceux des deux autres représentations (article soumis). En particulier, la NNF permet d'exprimer par des formules explicites le poids et le spectre de Fourier d'une fonction, de caractériser directement les fonctions courbes, de déduire de nouveaux invariants affines sur les fonctions booléennes et d'obtenir des propriétés de divisibilité des poids des fonctions. C. Carlet et P. Guillot ont pu aussi caractériser par une formule unique le fait qu'une suite de valeurs entières correspond à la suite des coefficients de la NNF d'une fonction booléenne. Applications booléennes (C. Carlet) Les schémas de chiffrement par blocs font intervenir des applications définies sur l'ensemble des mots binaires d'une longueur n et à valeurs dans l'ensemble des mots binaires d'une longueur m (qui est souvent égale à n). Les applications presque courbes sont les applications qui résistent le mieux à l'attaque linéaire (elles sont également optimales, par la même occasion, relativement à l'attaque différentielle). C. Carlet a fait, en collaboration avec P. Charpin (INRIA) et V. Zinoviev (Académie des Sciences de Russie) une étude approfondie de cette notion, établi des liens étroits avec la notion de code cyclique et introduit de nouvelles caractérisations et de nouvelles propriétés (article dans Designs, Codes and Cryptography). Ce travail a fait l'objet d'une conférence invitée de C. Carlet au "Mediterranean Workshop on Coding and Information Integrity" (Israel). 3- Le pôle Sécurité de l'Information (Claude Carlet, Brigitte Vallée, Jean-Pierre Tillich, Philippe Guillot, Jean-François Misarsky, David Pointcheval) Il y a désormais un "triangle" cryptographique caennais reliant, outre le GREYC et le CNET, des mathématiciens du laboratoire SDAD. La communauté caennaise a ainsi acquis au cours des dernières années une position de force au niveau national sur le thème de la cryptographie et de la sécurité de l'information, clairement reconnue dans les rapports du Livre Blanc, reprise par le CIAT, et soutenue de manière significative dans le plan Etat-Région 95-99. La responsable scientifique universitaire de ce pôle régional est Brigitte Vallée. Les collaborations à l'intérieur de ce pôle touchent d'abord le domaine de la recherche: un certain nombre de jeunes membres du CNET sont des anciens étudiants caennais, qui continuent à préparer leur thèse dans le groupe. Le pôle cherche à développer l'enseignement de la spécialité: il y a maintenant 6 cours professés sur le sujet (il n'y en avait aucun en 1989) : deux cours de Dea, l'un de codage, l'autre de cryptographie, deux cours pour les élèves-ingénieurs de l'ENSI, un cours pour les techniciens supérieurs, et un cours de "Sécurité" (Compression, codage, cryptographie) dans le DESS d'Informatique RADI "Réseaux et Applications Documentaires". De octobre 95 à octobre 97 , Jean-Pierre Tillich a bénéficié d'une bourse post-doctorale financée par la région. Ce jeune chercheur travaille dans un domaine à l'interface entre théorie des graphes, codes correcteurs d'erreurs et cryptographie et a contribué à développer les interactions à l'intérieur du projet "Protection de l'Information". En Cryptographie, dans le cadre d'un contrat avec le CNET "Analyse et conception de générateurs pseudo-aléatoires et de fonctions de hachage arithmétiques", JP. Tillich a étudié la sécurité de fonctions de hachage arithmétiques ainsi que la génération de clés RSA. Il a notamment mis en évidence qu'un projet de norme ISO/IEC présentait plusieurs lacunes. Ainsi, il a proposé une attaque réaliste, fondée sur l'algorithme LLL, qui montre comment une personne mal intentionnée peut frauder lorsqu'on laisse aux utilisateurs de la fonction de hachage la possibilité de choisir eux-mêmes leurs paramètres. Le contrat a donné lieu à un rapport de fin de contrat: "On the security of MASH1 and MASH2", (20p). B-19 En théorie des graphes, motivé par la volonté d'estimer la probabilité d'erreur du décodage d'un code correcteur, il a étudié les inégalités isopérimetriques et a découvert des inégalités isopérimétriques très précises dans le cas de graphes qui sont des produits cartésiens. Il a également prouvé que les graphes de Ramanujan ont, quand le nombre de sommets est "suffisamment" grand, un indice de transmission pour les sommets qui est quasi optimal parmi les familles de graphes réguliers. Cet indice de transmission est un important paramètre qui mesure la qualité d'un graphe quand il sert d'architecture d'un réseau de communication. De telles familles n'étaient pas connues auparavant, et ces graphes de Ramanujan sont pour ce paramètre considérablement supérieurs aux graphes de de Bruijn qui sont bien connus pour avoir un "petit" indice de transmission. La thèse de Jean-François Misarsky se déroule au CNET-Caen, et est codirigée par Marc Girault et Brigitte Vallée. J.F. Misarsky travaille sur des attaques contre des systèmes de signature, et utilise l'algorithme LLL à cette fin. La thèse de David Pointcheval a été co-dirigée par J. Stern et B. Vallée, le directeur principal étant J. Stern. D. Pointcheval a été AMN à Caen de 95 à 97. Les publications de Misarsky et Pointcheval ne sont pas listées ici, leurs laboratoires respectifs, le CNET-Caen et le GRECC-ENS-Ulm. car elles dépendent plutôt de THEME 3 Algorithmique Effective Enseignants-chercheurs: Jean-Luc Lambert , Jean Saquet, Jerzy Karczmarczuk B-20 Doctorants: Jean-Serge Boucher, Sylvain Ridard, Samuel Devulder, Samuel Dellacherie, Christophe Broult. Présentation générale Ce thème est né d'une part de la venue à Caen de Jean-Luc Lambert, d'autre part du recrutement comme maître de conférences de Jean Saquet. Ce thème a intégré l'ancien thème parallélisme ainsi que le thème “programmation fonctionnelle et ses applications scientifiques” animé par Jerzy Karczmarczuk. Le groupe de Jean-Luc Lambert s'est tourné en grande partie vers la résolution de problèmes industriels effectifs et a connu de ce fait une évolution complexe dépendant d’événements extérieurs liés à la recherche de partenariats industriels (dépôt de bilan d’entreprise, entreprises ne donnant pas suite au projets, thèses interrompues...). Il a aussi obtenu des résultats originaux et significatifs: - invention d’une nouvelle technique de preuve logicielle (LPV: Linear Programming based Validation), - invention du concept d’objets algorithmiques, - invention d’une nouvelle approche de classification fondée sur la programmation linéaire. Pour diffuser la technologie LPV, cinq membres de l’équipe (J-S. Boucher, C. Broult, S. Dellacherie, S. Devulder et J-L. Lambert) vont quitter le laboratoire pour créer la société LPV-Technology. 1- Algorithmique et programmation linéaire. ( J-L. Lambert, Bruno Crémilleux, Jean Saquet, Jean-Serge Boucher, Michel, Sylvain Ridard) Christophe Broult, Samuel Dellacherie, ,Samuel Devulder , Guy LPV : J-L. Lambert, Jean Saquet, Samuel Dellacherie, Christophe Broult, Samuel Devulder Née d’une collaboration de Jean Saquet et de J-L. Lambert sur la preuve de protocoles, la technologie repose sur l’idée d'utiliser la programmation linéaire pour faire de la preuve de protocoles. Plusieurs étudiants en thèse ont testé et amélioré cette technique. Christophe Broult est le premier à appliquer cette idée sur une modélisation de carte à puce dans le cadre d'une bourse de thèse au SEPT (maintenant CNET-Caen) débutée en 1994. Un contrat CTI-CNET (Consultation thématique informelle du CNET) a ensuite été signé en 1995 avec le CNET d'Issy-les-Moulineaux. Ainsi, Samuel Dellacherie a pu, dans le cadre de sa thèse, appliquer cette technologie à l'étude des interactions de services dans les réseaux téléphoniques intelligents. Enfin, Samuel Devulder a aussi rejoint l'équipe en 1995 pour développer, dans le cadre d'une bourse de Docteur-Ingénieur CNRS-Région BasseNormandie, certains aspects théoriques et pratiques de la technologie. La technologie a beaucoup évolué depuis 1994 et elle est à présent suffisamment mûre pour mettre en oeuvre un transfert industriel. Un brevet a d'ailleurs été déposé par France Télécom, le CNRS et l'Université de Caen le 3 Décembre 1997 (déposé sous le numéro 97 15217), ce brevet fait l’objet d’une procédure d’internationalisation. Cette technologie concurrence les techniques actuelles de preuve telles que PVS, COQ, B, HOL etc ainsi que les techniques de model-checking. Par exemple des preuves de propriétés sur un système téléphonique complet de cinq téléphones peuvent être obtenues en 50 secondes. Pour en savoir plus sur les résultats obtenus par la technologie et voir une comparaison avec des outils existants, nous renvoyons le lecteur au site web de lpv: http://www.info.unicaen.fr/lpv Par ailleurs, un essaimage est en cours pour commercialiser la technologie et l’intégrer aux outils du marché. Les objets algorithmiques (J-L. Lambert, Sylvain Ridard) L’idée des objets algorithmiques est née de la constatation suivante: si l'idée de programmer l'algorithmique par objets n'est pas nouvelle (plusieurs ouvrages classiques montrent le progrès réalisé dès que les structures de données intègrent des méthodes), l'approche classique ne voit pas l'algorithmique comme pouvant être entièrement programmée par objets. Si on veut aller plus loin dans cette approche, on est confronté à une difficulté immédiate: l'objet naturellement défini en B-21 algorithmique est la structure de données mais celle-ci ne correspond pas à la notion autonome d'objet. Il en résulte une forte limitation de l'approche objet qui prend difficilement en compte une interaction telle que: les éléments d'une file de priorité doivent répercuter leurs modifications à cette file. Sylvain Ridard a commencé sa thèse en octobre 1993. Son travail a conduit à développer la notion d’"objet algorithmique". En effet, l'utilisation efficace d'algorithmes se heurte au problème du conditionnement des objets auxquels ces algorithmes s'appliquent. Ce conditionnement consiste pour l'essentiel à disposer dans les objets de champs supplémentaires (longueur d'une liste, numéro du sommet dans un graphe, chaînage de liste...) qui devront être maintenus à jour par l'algorithme et sans lesquels l'algorithme ne peut atteindre la complexité annoncée dans sa spécification. Ce conditionnement nuit fortement à la réutilisation de composants algorithmiques et c'est la raison pour laquelle le concept d'objet algorithmique a été proposé. Ces objets sont dotés d'un mécanisme original: l'exportation qui permet à un objet d'exporter des comportements (pré-méthodes, post-méthodes, champs..) à d'autres objets. L'utilisation de ce mécanisme, en réalisant automatiquement le conditionnement augmente de façon sensible les possibilités de réutilisation des algorithmes. Ce travail a été publié à LMO95. Malheureusement, S. Ridard a abandonné sa thèse ce qui n’a pas permis de publier plus sur le sujet. Cependant une collaboration s’est engagée avec des partenaires industriels: Thomson-LCR, Bouygues, CERT-Onera dans le cadre du dépôt d’un projet “saut technologique” (projet EOLE) dont l’un des aspects est l’application du concept d’objet algorithmique à la programmation des algorithmes hybrides. Les objets algorithmiques ont rencontré leurs utilisateurs. Classification et programmation linéaire (J-L. Lambert, B. Crémilleux, G. Michel) Il s’agit d’un travail réalisé en collaboration avec Michel Henri-Amar du centre François Baclesse. L’idée est d’utiliser la programmation linéaire comme algorithme de séparation de convexes puis de l’appliquer à la classification. Bien que simple, cette idée n’avait pas été revisitée depuis son apparition dans les années soixante. Or, en supprimant toute référence à une fonction distance, elle permet de faire une classification fondée sur des critères purement géométriques. Les individus ne permettant pas une séparation convexe des classes sont éliminés provisoirement. On calcule ainsi un hyperplan séparateur de deux classes en connaissant très exactement les individus concernés par cette séparation et ceux qui sont des exceptions. Cette approche originale donne une grande latitude pour faire intervenir des critères introduits par un spécialiste du domaine et évite l’intervention de biais dûs au choix arbitraire d’une fonction distance. Guy Michel a été invité, par le Professeur G. Ross, à présenter son article au congrès IFCS 98 à Rome. Logique des défauts et programmation linéaire (J-L. Lambert, Jean-Serge Boucher) Jean-Serge Boucher a commencé sa thèse en octobre 1992. Il développe une vision de la logique des défauts comme un système de contraintes sur lequel on applique des algorithmes de programmation linéaire. Cette approche est originale et la thèse sera soutenue en janvier 99 2- Conception et preuve d’algorithmes répartis (Jean Saquet) L'idée de base a été d'imaginer ce que pourrait être un outil de simulation de programmes répartis qui permettrait soit d'illustrer ou de tester un programme en simulant quelques exécutions possibles du système, éventuellement de le débogger en étant capable de disposer de points de reprise, soit de le vérifier en effectuant des simulations exhaustives de toutes les exécutions possibles. Dans ce but, Jean Saquet a développé un modèle de systèmes répartis à la fois proche d'une implémentation et susceptible de preuves utilisant des techniques sophistiquées. Les propriétés fortes des structures d’événements lui ont permis de développer une famille d’algorithmes économiques de construction, partielle ou exhaustive, du graphe des états accessibles d’un système réparti. Ces algorithmes sont aisément implémentables et utilisables dans le cadre de la simulation. Deux exemples de stratégies de telles constructions ont été mises au point, la première construit un arbre couvrant le graphe d’états, permettant donc d’accéder à tous les états, alors que la seconde se contente d’une construction partielle du graphe, mais est néanmoins complète en ce sens que tous les comportements possibles y restent observables. B-22 L'usage des structures d'événements permet de ne calculer qu'une seule fois l'effet d'une action, toutes les autres occurrences utilisant le résultat déjà calculé. Ceci ne change pas la complexité théorique des algorithmes de construction du graphe, mais procure néanmoins un gain en temps appréciable en pratique si ces calculs sont longs. Un outil a été développé par D. Ambroise pour mettre en évidence le gain obtenu sur des exemples concrets. La première partie des résultats (définition du modèle, développement d'algorithmes) a fait l'objet d'une communication à une journée du pôle vérification de P.R.S. Paris, janvier 1996. La publication de l'ensemble des résultats est en "stand-by" depuis un an à cause de problèmes personnels du chercheur qui devait soutenir sa thèse sur le sujet (et dont la rédaction était pratiquement achevée) 3- Techniques "fonctionnelles" (J. Karczmarczuk) Ce domaine de recherche est concentré autour d'algorithmisation et du codage des problèmes dits "scientifiques" (numériques, semi-numériques, calcul formel et synthèse d'images). Les méthodes sont *purement* fonctionnelles et exploitent le polymorphisme fonctionnel encadré par le systèmes de typage dans des langages comme Haskell ou Concurrent Clean, et surtout la sémantique non-stricte (paresseuse). J. Karczmarczuk a élaboré des techniques originales dans les domaines suivants: - manipulation de séries infinies et d'autres structures de données co-récursives (fractions continues, approximantes de Padé etc.) - génération fonctionnelle de diagrammes de Feynman (dans des théories des champs simplifiées), - techniques nouvelles de différentiation automatique des programmes permettant de générer *très* facilement la séquence de *toutes* les dérivées d'une expression. Il a présenté des exemples montrant comment les séquences paresseuses permettent de compacter le codage de très nombreux algorithmes itératifs de manière très significative. Actuellement il applique les techniques paresseuses au domaine de modélisation 3D. Par ailleurs, il s'intéresse aux documents lors d'encadrement de projets de Dess par exemple. B-23 PERSPECTIVES DE L'EQUIPE ALGORITHMIQUE: L'équipe Algorithmique va évoluer ces prochaines années. Jean-Luc Lambert et cinq de ses doctorants quittent le laboratoire pour créer une entreprise. Cet essaimage, tout à fait positif par ailleurs pour le laboratoire, fait disparaître l'ancien Thème 3, et amène naturellement l'équipe à se restructurer afin de pouvoir intégrer différemment les activités de J. Saquet et de J. Karczmarczuk. Par ailleurs, l'ancien Thème 1 se sépare en deux, l'activité de modélisation créant le nouveau Thème 1 autour d'E. Grandjean, tandis que l'activité plus algorithmique se retrouve dans le nouveau Thème 2. L'ancien Thème 2 se retrouve essentiellement dans le nouveau Thème 3, en y intégrant J. Saquet, tandis que J. Karczmarczuk s'intègre dans le nouveau Thème 1. Modèles de Calcul, Complexité Algorithmes combinatoires Algorithmique et Sécurité de l'Information Etienne Grandjean Jean-Jacques Hébrard Claude Carlet Ionona Ranaivoson Jerzy Karczmarczuk Véronique Terrier Etienne Grandjean Brigitte Vallée Jean Saquet Doctorants Doctorants et post-doctorants Doctorant et Post- Doctorant Florent Madelaine (*) Jean-Marie Le Bars Emmanuel Benoist Philippe Luquet Maud Paulmier Pascal Rossa Associées Nadia Creignou Malika More Ali Akhavi Julien Clément Sylvie Dubuc Philippe Guillot Jean-François Misarsky (*) Associé Marc Girault (*) en co-direction. Par ailleurs, l'évolution des domaines d'intérêt des chercheurs est sensible dans deux directions. D'abord, des thématiques transverses apparaissent plus nettement qu'avant dans le domaine des méthodes. L'aléa ainsi devient un des thèmes fédérateurs de l'équipe. Enfin, dans ses projets généraux, l'équipe désire mettre sur pied un groupe de travail régulier, parallèle au séminaire d'algorithmique, avec deux points de vue complémentaires. Une partie des séances pourrait être consacrée à des exposés ciblés ou techniques (lecture d'un article par exemple) et l'autre partie des séances serait au contraire assez informelle: les membres de l'équipe pourraient y raconter leurs travaux en cours, leurs motivations, afin de rendre plus vivante la recherche à l'intérieur de l'équipe. C'est en particulier essentiel pour les doctorants. 1. Thème Modèles de calcul et complexité. B-24 Enseignants-chercheurs: Etienne Grandjean, Jerzy Karczmarczuk, Solomampionona Ranaivoson, Véronique Terrier Membres associées: Malika More, Nadia Creignou Doctorants et post-doctorants: Jean-Marie Le Bars, Florent Madelaine. On souhaite développer des recherches autour de deux axes principaux, assez liés, 1) Complexité des problèmes de satisfaisablité, en liaison avec le Algorithmique combinatoire qui prend son autonomie; 2) Modèles de calcul, complexité en temps linéaire et complexité descriptive. thème Dans l’axe 1, on compte développer ou initier des collaborations avec H. Kleine Büning (Univ. Paderborn, Allemagne) autour des réductions au problème SAT, et, en Grande-Bretagne, P. Jeavons et I. Stewart sur la complexité des problèmes de satisfaction de contraintes. Dans l’axe 2, on devra développer et faire aboutir les recherches entreprises en collaboration avec l’équipe allemande du projet Procope (Univ. Mainz) sur les représentations algébriques et logiques du temps linéaire déterministe et les notions de réduction pour le temps linéaire. Complexité du problème SAT et nombre de variables. En lien avec les travaux antérieurs de N. Creignou et E. Grandjean sur les nombreux problèmes NP-complets linéairement interréductibles au problème SAT (problèmes SAT-équivalents), celui-ci a commencé, avec H. Kleine Büning (Univ. Paderborn, Allemagne), une recherche sur la complexité du problème SAT et des problèmes SAT-équivalents, en liaison avec le nombre de variables propositionnelles des formules: on sait le rôle central de ce nombre dans la complexité pratique des algorithmes et heuristiques pour SAT, telle la procédure de Davis et Putnam. Il reste à déterminer l’analogue de ce nombre pour les problèmes de graphes SAT-équivalents, telle la 3-coloriabilité, qui paraît être le nombre de sommets du graphe. On souhaite aussi approfondir cette étude, par exemple en lien avec les phénomènes de seuil que N. Creignou étudie pour les problèmes SAT. Temps linéaire déterministe et réductions. On espère, à court ou moyen terme, et avec les informaticiens de Mainz, - simplifier encore la caractérisation algébrique obtenue pour la classe DLIN (classe des problèmes linéaires), - en tirer une caractérisation logique de cette classe, comme on en a pour NLIN, - en déduire des problèmes DLIN-complets plus naturels que ceux déjà obtenus . Un tel résultat fournirait un algorithme linéaire ayant un caractère d’universalité, car il fournirait la solution à de nombreux problèmes concrets dits linéaires -parcours de graphes, planarité, formules de Horn, etc - et dont les stratégies algorithmiques sont très variées. - par des expérimentations et un paramétrage de la mémoire (taille des mots-mémoire des RAM), mieux élucider en quoi le tri, variante du “Radix Sort”, prouvé être dans DLIN, donc linéaire en temps et mémoire, est intéressant et utilisable dans certaines applications, - enfin, étudier systématiquement d’autres applications de la notion de réduction affine à d’autres classes de complexité (ex. la classe des problèmes SAT-équivalents) ou à d’autres problèmes combinatoires polynomiaux (HORN-SAT, 2-SAT, Couplage Maximum, etc) afin de mieux comprendre les liens étroits qu’on soupçonne entre certains de ces problèmes. Une logique minimale pour les problèmes algorithmiques de graphes. S. Ranaivoson et C. Lautemann ont récemment montré qu’une logique minimale (second ordre existentiel avec seulement des fontions unaires et une unique variable du premier ordre) est suffisante pour exprimer nombre de concepts algorithmiques des arbres ou des graphes: relation “ancêtre” d’un arbre, ordre préfixé ou postfixé d’un parcours en profondeur, biconnexité, planarité, etc. Ils espérent en déduire que la classe des relations exprimables dans cette logique est non seulement étonnamment étendue, mais aussi est close pour quelques opérateurs tels que la fermeture transitive. Problèmes de satisfaction de contraintes, complexité et théorie des modèles finis. E. Grandjean voudrait, avec N. Creignou et J.J. Hébrard, développer des collaborations avec Iain Stewart (Univ. Leicester, Grande-Bretagne) et Peter Jeavons (Univ. Londres) à l’occasion de la B-25 cotutelle de thèse de Florent Madelaine en Angleterre (début: janvier 1999), portant sur l’étude des problèmes de satisfaction de contraintes (CSP) et de leur complexité, ceci par une double approche algèbrique (algèbre des clones de Post) et logique (complexité descriptive: théorie des modèles finis). Logique monadique et réductions indépendantes des machines pour les problémes liés à SAT. C. Lautemann a récemment observé qu’une logique, variante de la logique du second ordre existentiel monadique, exprime exactement les problèmes linéairement réductibles au problème SAT (par exemple le problème de noyau d’un graphe). Il a aussi mis au point pour cette classe une notion associée de réduction logique très stricte (définissable au premier ordre). On souhaite d’une part mieux comprendre sa logique monadique, d’autre part comparer sa réduction logique avec notre réduction affine. Probabilités asymptotiques des propriétés exprimables dans la logique du second ordre existentiel à deux variables: JM Le Bars a construit une variante de la propriété de noyau qui est exprimable dans cette logique et qui n'admet pas de probabilité asymptotique, contrairement à la propriété de noyau qui est presque sûrement vraie. Il va poursuivre ce travail dans deux directions: - Déterminer s'il existe des propriétés exprimables dans la logique du second ordre existentiel et admettant une probabilité asymptotique différente de 0 et 1. - Prouver que l'on obtient une loi 0-1 lorsque l'on restreint l'étude aux graphes non-orientés. Il espère obtenir le même résultat sur les graphes orientés. Dans les deux cas, si la loi 0-1 est vérifiée, il construira un algorithme décidant, pour chaque énoncé, s'il est presque sûrement vrai ou presque sûrement faux et déterminera sa complexité. Propriétés presque sûrement vraies en algorithmique probabiliste et en cryptographie. JM Le Bars souhaite utiliser la propriété de noyau dans des algorithmes probabilistes. Il va pour cela rechercher une majoration satisfaisante de la vitesse de convergence de cette propriété. Il va également s'inspirer d'un résultat récent de protocole "zero-knowledge" de Juels et Peinado sur la plus grande clique d'un graphe aléatoire pour définir de tel protocole à partir de la propriété de noyau. La propriété de noyau peut servir dans ces deux domaines non seulement parce qu'elle est NP-complete mais aussi parce qu'elle reste difficile en moyenne (il est difficile de trouver un noyau dans un graphe aléatoire). Logiques a deux variables et logiques modales. les logiques modales et temporelles sont facilement traduisibles par des logiques à deux variables. JM Le Bars souhaite étudier dans quelle mesure ces traductions peuvent resoudre plus simplement des problèmes posés dans les logiques modales et temporelles. Automates cellulaires et complexité. V. Terrier désire prolonger son travail dans deux directions : - la comparaison des AC avec d’autres modèles travaillant sur des langages à 2 dimensions, en débutant par le plus simple : les "deterministic on-line tessalation automata". - Pour le voisinage de Von Neumann, elle conjecture que le problème de l’égalité entre temps réel et temps linéaire est équivalent au problème de clôture par rotation à 180° (comme Ibarra et Jiang l’ont montré en dimension 1 avec la clôture par miroir). Applications de la programmation fonctionnelle "paresseuse". Jerzy Karczmarczuk continue à élaborer des techniques fonctionnelles, toujours en vue des applications scientifiques possibles. Il prépare son habilitation à diriger les recherches. En particulier, il projette - la construction fonctionnelle et codage paresseux de quelques algorithmes dans la théorie des perturbations en Mécanique Quantique (un article est en préparation, "officieusement" accepté par le journal "Computers in Physics"). - l'implantation effective de calculs sur des structures abstraites (objets fonctionnels), qui donne aux physiciens-théoriciens un fascinant outil de manipulation des vecteurs d'état, indépendant de leur représentation (base) concrète. Le codage des perturbations, ou des méthodes asymptotiques comme WKB devient très court et lisible. - l'application directe des langages fonctionnels (Concurrent Clean en particulier) dans la modélisation et synthèse d'images. En particulier, B-26 - il étudie le paramétrage, la génération, la de-implicitisation, la déformation et la combinaison des surfaces représentées fonctionnellement. Il construit en ce moment un paquetage universel qui utilise ses travaux précédents sur la différentiation automatique (calcul des tangentes, normales, et autres propriétés appartenant à la géométrie différentielle, qui d'habitude sont considérées comme très difficiles à coder). Un article a été écrit, et accepté par la III Conférence Internationale Latino-Américaine de programmation fonctionnelle. - il étudie également le codage d'une machine de rendu (lanceur de rayons) extensible par les "shaders" fonctionnels, et la possibilité de définir des textures procédurales adaptées au rendu des scènes décrites par des objets fonctionnels. L'étape suivante naturelle sera la génération des animations basées sur la modélisation "physique", où le système lui-même va générer les équations différentielles du mouvement, mais le succès de ce projet dépend surtout de l'efficacité des compilateurs. 2. Thème Algorithmique combinatoire Enseignants-chercheurs: Jean-Jacques Hébrard, Etienne Grandjean Doctorants: Emmanuel Benoist, Philippe Luquet, Maud Paulmier, Pascal Rossa L'objectif est de continuer les travaux de recherche fondamentale en cours, mais aussi de travailler sur des sujets de recherche appliquée en liaison avec des chercheurs d'autres équipes. E. Benoist et J.-J. Hébrard vont poursuivre l'étude des classes de formules dont les modèles peuvent être générés par un algorithme à délai polynomial. Leur travail sur diverses extensions des formules de Horn devrait aboutir assez rapidement. Les notions de semi-arbre et de graphe semi-k-cordal ont des applications immédiates dans le cadre des problèmes de satisfaction de contraintes. Mais, pour l'instant, les algorithmes utilisés sont relativement naïfs. Un sujet de recherche futur consistera à définir des algorithmes plus efficaces, en particulier pour les problèmes de reconnaissance des graphes semi-k-cordaux. Dans un grand nombre d'applications, les problèmes de satisfaction de contraintes sont dynamiques, c'est-à-dire que l'ensemble des variables et des contraintes évolue dans le temps du fait de l'environnement. Maud Paulmier débute cette année une thèse, dont le sujet est l'élaboration d'algorithmes de résolution, pour les problèmes de satisfaction de contraintes dynamiques, correspondant aux diverses classes polynomiales connues (contraintes de Horn, implicationnelles etc.). La volonté de collaborer avec des chercheurs d'autres équipes sur des sujets appliqués vient de se concrétiser en un projet de travail commun avec des chimistes du CERMN (Centre d'Etudes et de Recherche sur le Médicament de Normandie). Bruno Crémilleux, membre du GREYC de l'équipe Apprentissage, est également associé. Il s'agit, entre autres choses, de définir des algorithmes de recherche d'analogies de structure entre des molécules qui sont codées par des mots. Il faut noter que J.-J. Hébrard a déjà travaillé sur ce type de sujet (recherche de motifs dans les mots, définition de critères de similitude etc.). Un étudiant de DEA est intéressé par ce sujet. Il devrait continuer en thèse. 3- Algorithmique et Sécurité de l'information. Enseignants-chercheurs: Claude Carlet, Jean Saquet, Brigitte Vallée. Doctorants et post-doctorants: Ali Akhavi, Julien Clément, Sylvie Dubuc, Philippe Jean-François Misarsky. Associé: Marc Girault B-27 Guillot, Ce thème trouve son unité dans les applications aval qu'il a choisies, qui sont liées à la protection de l'information et du logiciel. Jean Saquet travaille dans la Validation Logicielle, tandis que les activités de C. Carlet et de B. Vallée trouvent un débouché naturel en Protection de l'Information. Les recherches de C. Carlet restent centrées sur les codes correcteurs d'erreur et les fonctions booléennes, tandis que les activités de B. Vallée, tout en restant liées à l' algorithmique arithmétique et à la théorie algorithmique de l'information, évoluent vers une thématique plus méthodologique : l'analyse "dynamique" des algorithmes. Méthodes dynamiques en analyse d'algorithmes. Applications à l'arithmétique et à la théorie de l'information (Brigitte Vallée, Ali Akhavi, Julien Clément) B. Vallée et ses doctorants désirent prolonger les résultats obtenus ces quatre dernières années dans les trois directions suivantes: (a) Pour le moment, le groupe a appliqué le point de vue fructueux d'analyse "dynamique" d'algorithmes à deux domaines algorithmiques principaux, l'algorithmique arithmétique et la théorie algorithmique de l'information. Ces domaines sont déjà larges, mais la compréhension plus profonde de la théorie des systèmes dynamiques suggère un grand nombre d'autres applications possibles, notamment les algorithmes qui ne "préservent pas l'aléa" et qui échappent ainsi aux approches classiques. (b) Pour l'instant, le groupe s'est essentiellement limité à l'analyse en moyenne des algorithmes. Cette analyse peut être étendue de deux manières: l'analyse d'autres paramètres caractéristiques de l'évolution de l'algorithme, ce qui généraliserait l'étude des séries génératrices doubles de l'analyse en moyenne classique; l'analyse en distribution, qui permettrait d'obtenir des résultats extrêmement précis. Cette analyse apparaît reliée à l'existence d'une région sans zéros pour la généralisée de la série Zeta du système dynamique. Par exemple, l'analyse en distribution des algorithmes du style fraction continue est ainsi reliée à l'hypothèse de Riemann. Le groupe se propose de donner des conditions suffisantes explicites sous lesquelles l'analyse en distribution pourra êre menée à bien. (c) Enfin, le groupe désire, dans les domaines où la méthode s'applique déjà, travailler sur des objets plus complexes. En théorie de l'information, B. Vallée et J. Clément se proposent d'analyser le comportement moyen des arbres-suffixes (suffix-trees), si utiles dans l'implémentation des algorithmes de compression du style Lempel-Ziv, et dans les grands dictionnaires de données textuelles. Enfin, il y a clairement un système dynamique sous-jacent à l'algorithme célèbre de réduction des réseaux LLL (algorithme de base en théorie algorithmique des nombres et en cryptographie). En collaboration avec Ali Akhavi, et en prolongement de la thèse de ce dernier, B. Vallée se propose de voir si l'analyse dynamique de l'algorithme LLL peut être menée à bien. Ceci permettrait d'obtenir une analyse de cet algorithme, à la fois si utilisé et si mal compris. Codes correcteurs d'erreur et fonctions booléennes. (Claude Carlet, Sylvie Dubuc, Philippe Guillot) (a) Rayon de recouvrement du code de Reed-Muller d'ordre 1: La distance de Hamming maximale entre une fonction booléenne f quelconque définie sur l'espace des mots de longueur n, et l'ensemble des fonctions affines sur le même espace (i.e. le rayon de recouvrement du code de Reed-Muller d'ordre 1) est inconnue si n est impair et supérieur ou égal à 9. Un sous-problème de ce célèbre problème ouvert consiste à se restreindre au cas où f est de degré 3. C. Carlet a entrepris en collaboration avec P. Charpin un travail sur ce sujet, et prévoit également de travailler sur un problème similaire concernant les fonctions équilibrées (i.e. prenant les valeurs 0 et 1 équitablement). Ce problème est ouvert, que n soit pair ou impair, et il intéresse aussi bien le codage que la cryptographie. (b) Représentation et normalité des fonctions booléennes: La nouvelle représentation des fonctions booléennes par la forme numérique normale a d'ores et déjà montré des propriétés très fortes, qu'il s'agit maintenant d'exploiter pour l'étude de ces fonctions. Par exemple, il devient possible, grâce à la NNF, de générer de façon presque aléatoire des fonctions booléennes ayant certaines spécificités (divisibilité du poids par des puissances de 2, forte nonlinéarité etc...). Il était impossible de le faire avec la forme algébrique normale puisque celle-ci ne permet pas de spécifier à l'avance les propriétés combinatoires des fonctions choisies. Une recherche sur B-28 machine utilisant cette représentation est prévue pour tenter de générer des fonctions booléennes de bas degré, éventuellement courbes, qui ne soient constantes sur aucun sous-espace affine de dimension proche de la moitié de la longueur des mots sur lesquels elles sont définies (i.e. non-normales). Cela invaliderait une conjecture de H. Dobbertin, et les fonctions "monstrueuses" ainsi construites offriraient un champ très intéressant d'analyse. (c) Fonctions courbes binaires: L'introduction de la classe GPS a montré, entre autre, l'importance des indicatrices d'espaces affines pour engendrer de nouvelles classes de fonctions courbes. Dans le cadre de cette classe, ces espaces sont de dimension égale à la moitié de la longueur des mots sur lesquels les fonctions sont définies. Il reste maintenant à exploiter cette piste avec des espaces de dimensions proches, mais inférieures à ce nombre. De premiers résultats intéressants ont été obtenus par C. Carlet. Plus généralement, les nouvelles approches introduites par C. Carlet et P. Guillot dans leurs articles récents sont prometteuses et non encore complètement expoitées. Une équipe de quatre chercheurs (avec l'arrivée de S. Dubuc et d'un Maître de conférences en informatique qui s'intéresse au sujet: Hamid Rahbar) va continuer le travail dans ce sens. Enfin, les derniers résultats obtenus par P. Guillot débouchent sur des problèmes de dénombrement de systèmes quadratiques diophantiens. Il s'avère (et ce n'est pas surprenant, étant donnée la difficulté du problème) que, pour les paramètres des systèmes obtenus, il n'existe pas de résultats connus dans le domaine de la recherche diophantienne. La problématique des fonctions courbes débouche ainsi sur des problèmes ouverts dans ce domaine et ouvre un nouvel axe de recherche. (d) Anneaux de Galois et fonctions courbes q-aires : L'article de Hammons, Kumar, Calderbank, Sloane et Solé a mis en évidence l'importance de la restriction de la fonction trace aux ensembles de Teichmuller des anneaux de Galois, pour la construction de bons codes et de bonnes fonctions q-aires. Peu de choses sont connues sur sa distribution de valeurs, ce qui fait un axe de recherche intéressant. Parallèlement, le travail sur les fonctions courbes q-aires va se poursuivre. Validation logicielle. (Jean Saquet) Le cadre général est la validation d'algorithmes répartis. De nombreux modèles et techniques ont été proposés (automates à états finis, réseaux de Petri, démonstration automatique, …) Aucune de ces techniques ne peut prétendre résoudre tous les problèmes de validation. Elles ont par contre toutes un ou des domaines de prédilection dans lesquels elles sont assez efficaces, d'où l'idée de fractionner les problèmes de validation et d'utiliser la technique la plus adaptée à chaque sous-problème. Jean Saquet a déjà exploité l'idée de la modularité des preuves d'algorithmes dans sa thèse (décembre 1991), mais simplement dans le but de simplifier l'écriture des preuves, sans utiliser des techniques différentes pour les différents sous-problèmes. Par ailleurs, diverses équipes ont depuis quelques années, travaillé en ce sens. En particulier, en France, le LSV (ENS Cachan) utilise cette idée de combinaison de méthodes diverses (les unes pour décomposer les problèmes, les autres pour résoudre les sous-problèmes), essentiellement dans le cadre de la validation des algorithmes répartis temps réel. L'objectif est de valider des algorithmes en utilisant la décomposition en sous-problèmes et des techniques appropriées à chacun d'eux, en se basant sur des exemples d'algorithmes répartis, temps réel ou non, déjà validés (donc dans ce cas en améliorant les temps de calcul) ou non et, si possible, de mettre en évidence des méthodes pour cette décomposition, pouvant être utilisées dans de nombreux cas. Ce projet s'inscrit dans le cadre de la sécurité (des protocoles notamment) et pourrait se réaliser en collaboration avec des chercheurs d'autres laboratoires avec lesquels J. Saquet est en contact depuis plusieurs années (LSV Cachan, LRI Orsay en particulier). Ce projet peut aussi intéresser certains chercheurs du groupe I3 du GREYC, notamment ceux qui travaillent en I.A. distribuée EQUIPE ALGORITHMIQUE Thèses et publications B-29 Thèses d'habilitation (dirigées par des membres de l'équipe) Nadia Creignou, "Problèmes de satisfaction de contraintes booléennes et complexité", Université de Caen, directeur: E. Grandjean, 18 janvier 1999. Rapporteurs: P. Jeavons, J. Mazoyer, M. Robson, M. de Rougemont. Jury: P. Dehornoy, J.Y. Girard, E. Grandjean, C. Kenyon, J. Mazoyer, J.P. Ressayre, M. Robson, M. de Rougemont Marc Girault, Université de Caen, directeur : B. Vallée, juin 99 . Thèses de doctorat (Université de Caen) Arnaud Durand, "Hiérarchies de définissabilité logique au second ordre", 18 juin 1996, directeur: E. Grandjean. Rapporteurs: E. Gradel, C. lautemann, M. de Rougemont. Jury : E. Grandjean, M. de Rougemont, J. Stern, P. Enjalbert, S. Grumbach, P. Dehornoy, F. Wehrung. Frédéric Olive, "Caractérisations logiques des problèmes NP: robustesse et normalisation", 2 juillet 1996; Directeur: E. Grandjean. Rapporteurs: P. Cegielski, G. Gottlob, J. Lynch. Jury : P. Cegielski, E. Grandjean, S. Grigorieff, J-J. Hébrard, J-E. Pin, D. Richard. David Pointcheval, "Les preuves de connaissance et les preuves de sécurité", soutenue le 12 décembre 1996, co-directeurs: J. Stern, B. Vallée. Rapporteurs: M. Bellare, G. Robin, C.P. Schnorr. Jury: C. Carlet, R. Cori, Ph. Flajolet, M. Girault, G. Robin, J. Stern, B. Vallée. Jean-Marie Le Bars, "Probabilités asymptotiques et pouvoir d’expression des fragments de la logique du second ordre", janvier 1998. directeur: E. Grandjean. Rapporteurs: P. Kolaitis, J. Lynch, M. de Rougemont; Jury: S. Abiteboul, P. Dehornoy, W. Fernandez de la Vega, E. Grandjean, M. de Rougemont, J. Stern, P. Toffin, B. Vallée Ali Akhavi, "Analyse comparative d'algorithmes de réduction dans les réseaux aléatoires", soutenue le 19 janvier 1999, directeur: B. Vallée. Rapporteurs: R. P. Brent, F. Morain, C.P. Schnorr. Jury: H. Daudé, Ph. Flajolet, E. Grandjean, C. Kenyon, F. Morain, B. Vallée. Jean-Serge Boucher, soutenue fin janvier 99. Directeur: J-L. Lambert. Rapporteurs: C. Froidevaux, T. Schaub; Jury: P. Enjalbert, C. Froidevaux, T. Schaub, C. Schwind, J-L. Lambert. Philippe Guillot (mars 99 ). Directeur: C. Carlet. Rapporteurs: H. Dobbertin, D. Krob; Jury: C. Carlet, P. Charpin, D. Krob, B. Vallée, J. Wolfmann. Revues internationales avec comité de lecture C. Carlet, "Generalized Partial Spreads", IEEE Transactions on Information Theory , vol 41 no 5 (1995) pp. 1482-1487. C. Carlet, "On Z4-duality", IEEE Transactions on Information Theory , vol 41 no 5 (1995) pp. 1487-1495. C. Carlet et Ph. Guillot, "A characterization of binary bent functions", Journal Combinatorial Theory, Series A, Vol. 76, No. 2 (1996) pp. 328-335. of C. Carlet, "Z2k -linear codes", IEEE Transactions on Information Theory, Vol. 44, no 4 (1998) pp. 1543-1547. C. Carlet, P. Charpin et V. Zinoviev, "Codes, bent functions and permutations suitable for DES-like cryptosystems", Designs Codes and Cryptography, 15 (1998) pp. 125-156. B-30 C. Carlet et Ph. Guillot, "An alternate characterization of the bentness of binary functions, with uniqueness", Designs Codes and Cryptography, Vol. 14, no 2 (1998) pp. 133-140. C. Carlet, "On Cryptographic Propagation Criteria for Boolean Functions", à paraître dans la Special Issue on Cryptology of Information and Computation in Honor of Professor Arto Salomaa on Occasion of His 65th Birthday (article invité) L. Coupry, "A simple linear algorithm for the edge-disjoint (s,t)-path problem in undirected planar graphs", Information Processing Letters 64 (1997), pp. 83-86. N. Creignou, "The class of problems that are linearly equivalent to satisfiability or a uniform method for proving NP-cmpleteness", Theoretical Computer Science 145 (1995), pp. 111-145. N. Creignou, "Exact complexity of problems of incompletely specified automata", dans numéro spécial de Annals of Mathematics and Artificial Intelligence 16 (1996), pp. 237-249. N. Creignou, J.-J. Hébrard, "On generating all solutions of generalized satisfiability problems", Informatique Théorique et Applications/Theoretical Informatics and Applications, vol. 31, no 6 (1997) pp. 499-511. N. Creignou, J.J. Hébrard, "On generating all satisfying truth assignments of a generalized CNF-formula", Informatique Théorique et Applications/ Theoretical Informatics and Applications 31 (1997), pp. 353-366. A. Durand, S. Ranaivoson, "First order spectra with one binary predicate",Theoretical Computer Science 160 (1996), pp. 305-320. A. Durand, C. Lautemann, T. Schwentick, "Subclasses of Binary-NP", Journal of Logic and Computation. (1998). pp 189-207 A. Durand, "Linear time and the power of one first-order universal quantifier", 15 pages, à paraître au journal Information and Computation. E. Grandjean, "Sorting, linear time and the satisfiability problem", dans numéro spécial de Annals of Math. and Artificial Intelligence 16 (1996), pp. 183-236. E. Grandjean, H. Kleine Büning, "SAT-problems and reductions with respect to the number of variables", Journal of Logic & Computation 7 (1997), pp. 457-471. E. Grandjean, F. Olive, "Monadic logical definability of nondeterministic linear time", Computational Complexity 7 (1998), pp. 54-97. J.J. Hébrard, "Unique Horn renaming and unique 2-satisfiability", Letters 54 (1995), pp. 235-239. Information Processing J.J. Hébrard, P. Luquet, "The Horn basis of a set of clauses" The Journal of Logic Programming 34 (1998), pp. 59-66. J. Karczmarczuk, "Generating Power of Lazy Semantics", Theoretical Computer Science 187, (1997), pp. 203--219. M. More, F. Olive, "Logical characterization of rudimentary sets", Math. Logic Quaterly 43 (1997) pp. 419-426. V. Terrier, "On real time one-way cellular array" Number 1-2, pp. 331-335, April 1995. B-31 Theoretical Computer Science, Vol. 141, V. Terrier, "Language not recognizable in real time by one-way cellular automata", Theoretical Computer Science, Vol. 156, Number 1-2, pp. 281-287, March 1996. V. Terrier, "A counting equivalence classes method to prove negative results", dans "Cellular Automata: a parallel model.", (10p) M. Delorme and J. Mazoyer Eds, Mathematics and Its Applications, December 1998, Kluwer. V. Terrier, "Two-dimensional cellular automata recognizer", à paraître dans un numéro spécial de Theoretical Computer Science., Winter Days in Caen, (10p) V. Terrier, (avec J. Mazoyer) "Signals in one dimensional cellular automata", à paraître dans Theoretical Computer Science (25 p) J-P. Tillich (avec C. Delorme), "Eigenvalues, eigenspaces and distances to subsets'' Discrete Mathematics dédié au 5e Colloque International Théorie des Graphes et Combinatoire vol 165/166, pp.171--194, 1997. J-P. Tillich (avec G. Zémor), "Optimal cycle codes constructed from Ramanujan graphs", SIAM Journal of Discrete Mathematics, Vol. 10, No. 3, August 1997, p 447-459. J-P. Tillich (avec C. Delorme), Journal of Combinatorics (1998). "The spectrum of de Bruijn and Kautz graphs" European J-P. Tillich (avec J. Friedmann, A. Joux, Y. Roichman , J. Stern), "Most graphs are quickly transitive", Random Structures and Algorithms (1998). J-P. Tillich (avec P. Solé), "Expanding, forwarding and compressing", (6p), à paraître dans Discrete Mathematics J-P. Tillich, "Edge-isoperimetric inequalities for product graphs", (29p), Discrete Mathematics à paraître dans B. Vallée, (avec Hervé Daudé et Philippe Flajolet), "An average-case analysis of the Gaussian algorithm for Lattice Reduction", Combinatorics, Probability and Computing (1997) 6, pp 397-433. B. Vallée, "Opérateurs de Ruelle-Mayer généralisés et analyse en moyenne des algorithmes de Gauss et d'Euclide", Acta Arithmetica 81.2 (1997), pp 101-144 B. Vallée, (avec Philippe Flajolet), "Continued fraction algorithms, functional operators, and structure constants", Theoretical Computer Science (1998), vol 194, 1--2, pp 1-34. B. Vallée, "Dynamique des fractions continues à contraintes périodiques", Journal of Number Theory 72 (1998), pp 183-235 B. Vallée, "Dynamics of the Binary Euclidean Algorithm: Functional analysis and operators" numéro spécial d'Algorithmica sur l'analyse en moyenne d'algorithmes, Algorithmica (1998), vol 22, pp 660-685. Congrès internationaux avec actes C. Carlet, "A construction of bent functions", actes de Finite Fields and Applications (third conference), Glasgow, Grande Bretagne, London Mathematical Society, Lecture Series 233, Cambridge University Press (1996) pp. 47-58 C. Carlet, "Hyperbent functions", actes de PRAGOCRYPT'96, Czech Technical University Publishing House, Prague (1996) pp. 145-155. B-32 C. Carlet, "More correlation-immune and resilient functions over Galois fields and Galois rings", actes de EUROCRYPT'97, Advances in Cryptology, Lecture Notes in Computer Science n° 1233 (1997) pp. 422-433. C. Carlet, "On the propagation criterion of degree l and order k", actes de EUROCRYPT'98, Advances in Cryptology, Lecture Notes in Computer Science n° 1403 (1998) pp. 462-474 C. Carlet, "On Kerdock codes" Actes du congrès Finite Fields and Applications (Fq4), Contemporary Mathematics, American Mathematical Society 225 (1998) p. 155-163. C. Carlet, "Recent results on bent functions", actes de ICC'97 (International Conference on Combinatorics, Information Theory and Statistics), 17 pages, à paraître. C. Carlet, "One-weight Z4-linear codes", Actes de "International conference on Coding Theory, Cryptography and Related Areas", 20 pages, à paraître. J. Clément, B. Vallée, (avec Philippe Flajolet), "The analysis of hybrid trie structures", congrès SODA'98 (Symposium on Discrete Algorithms) (San Francisco, janvier 98), ComptesRendus de SODA'98, pp 531--540 A. Durand, R. Fagin, B. Loescher, "Spectra with only unary function symbols", Actes du colloque CSL’97 (Computer Science Logic 1997), Lecture Notes in Computer Science 1414 (1998), pp 189-202 J. Karczmarczuk, "Functional Programming and Mathematical Objects", Functional Programming Languages in Education, FPLE'95, Lecture Notes in Computer Science, vol. 1022, Springer,(1995), pp. 121--137. J. Karczmarczuk, "Functional Differentiation of Computer Programs", ACM SIGPLAN International Conference on Functional Programming, (ICFP'98), Baltimore, September 1998, ACM Press, pp. 195--203. J.M. Le Bars, "Fragments of existential second-order logic without 0-1 laws", 12 pages, dans Actes du colloque LICS’98 (13th Annual IEEE symp. on Logic in Computer Science), 21-24 juin 1998, Indianapolis, USA, pp 525-536 Prix du Meilleur Article Etudiant décerné à J. M. Le Bars par le comité de programme de LICS’98 G. Michel, J-L. Lambert, B. Cremilleux, M. Henry-Amar, "A new way to build oblique decision trees using linear programming", papier invité à l’IFCS 98, Rome 21-24 juillet 1998. à paraître dans les proceedings du congrès. F. Olive, "A conjunctive logical characterization of nondeterministic linear time", Actes du colloque CSL’97 (Computer Science Logic 1997), Lecture Notes in Computer Science (1998), 13 pages. B. Vallée, "Algorithms for computing signs of 2 x2 determinants: dynamics and average--case analysis", congrès ESA'97 (5th Annual European Symposium on Algorithms) (Graz, Septembre 97), LNCS 1284, pp 486-499. B. Vallée, "The complete analysis of the Binary Euclidean Algorithm," ANTS'98 (Algorithmic Number Theory Symposium, Portland, USA, Juin 98), LNCS 1423, pp 77-94. Congrès internationaux sans actes E. Benoist, J.-J. Hébrard, "Recognition of simple extended Horn formulas", SAT'98 (Second Workshop on the Satisfiability Probem), Eringerfeld, Allemagne, 10-14 Mai 1998. J. Karczmarczuk, "Calcul Formel et Programmation Paresseuse", 5-th Rhine Workshop on Computer Algebra, St. Louis, 1 -- 4.04.1996. B-33 ] J. Karczmarczuk, "Lazy semantics ans its implementation in Mupad", 1stInternational Mupad User Workshop, Paderborn 2-3 sept 97. J. Karczmarczuk, "Scientific Communication, and Dynamic Documents," "Document éléctronique", Rabat, 15-17.04.1998. pp. 77 -- 88. Conf. CIDE'98, J. Karczmarczuk, "Lazy Differential Algebra and its Applications", III International Summer School on Advanced Functional Programming, Braga, Portugal, 12--18 September, 1998. J. Karczmarczuk, "Infinite real fractions, lazy carry propagation, and evaluation of PI", III International Summer School on Advanced Functional Programming, Braga, Portugal, 12--18 September, 1998 (Présenté sous un titre ludique : "The most unreliable method in the world to compute PI"). G. Michel, J-L. Lambert, B. Cremilleux, M. Henry-Amar, "Contribution de la programmation linéaire dans le cadre de la classification et du traitement des valeurs manquantes", Cinquièmes rencontres de la société Francophone de Classification, pp. 245-248,, Lyon, 17-19 septembre 1997. S. Ridard, J-L. Lambert, "Programmer l'algorithmique par objets", présenté au congrès LMO'95, Les cahiers du LAIAC, vol. 2, 1995. S. Ridard, J-L. Lambert, "Les objets algorithmiques: Un nouveau mécanisme pour réutiliser sans perte de performances", congrès Génie Logiciel 97, Paris, 3-5 décembre 1997. J. Saquet (avec D.Ambroise, S. Dhuime, B. Rozoy), " Des structures d’événements pour la simulation et la vérification.", Journée du pôle vérification de P.R.S. Paris, janvier 1996 B. Vallée, exposés aus Journées Arithmétiqies 95 (Barcelone) et 97 (Limoges) Soumis A. Akhavi, "Threshold phenomena and efficient reduction algorithms", soumis à ESA'99, 12p E. Benoist, J.J. Hébrard, "Recognition of simple enlarged Horn formulas and simple extended Horn formulas", présenté à SAT’98 (2nd “Workshop on the Satisfiability Problem”, Eringerfeld, Allemagne, mai 1998), article soumis à numéro spécial de Discrete Applied Math, 21 pages. C. Carlet et S. Dubuc, "q-ary bent and perfect-nonlinear functions", soumis au congrès avec actes "Finite Fields and Applications" (Août 1999, Allemagne) 14 pages C. Carlet et P. Guillot, "Numerical Normal Forms of Boolean functions", soumis au congrès avec actes AAECC (Hawaï, novembre 1999) 15 pages J. Clément, B. Vallée, (avec Philippe Flajolet), "Dynamical sources in Information Theory : Analysis of general tries" [40p], Les Cahiers du GREYC 1999, soumis à Algorithmica S. Dubuc, "Linear structures of Boolean functions ", présenté au congrès IEEE International Symposium on Information Theory ISIT'98, MIT Cambridge (Août 1998) et soumis à la revue Designs, Codes and Cryptography, 14 pages A. Durand, S. Ranaivoson, "Expression of NP problems by one partial order", 20 pages. A. Durand, C. Lautemann, M. More, "Counting results in weak formalisms", 11 pages. E. Grandjean, T. Schwentick, "Machine-independent characterizations and complete problems for deterministic linear time", 35 pages. B-34 J.M. Le Bars, "The 0-1 law fails for the monadic existential second-order logic on undirected graphs", 4 pages. J-P. Tillich, "On the diameter, the mean diameter and the forwarding index of of Ramanujan graphs'', soumis au journal Journal of Combinatorial Theory, Series B B. Vallée, "Dynamical sources in Information Theory : Fundamental intervals and word prefixes", [37 p] Les cahiers du GREYC 1999, soumis à Algorithmica. B. Vallée, (avec Charly Lemée), "Average-case analyses of four algorithms for computing the Jacobi symbol" , [12 p ], soumis à ICALP'99, version longue aux cahiers du GREYC. Rapports internes: L. Coupry, "Un algorithme linéaire pour le problème du flot unitaire maximum dans un graphe orienté planaire", Les cahiers du GREYC 97-19 (1997), 30 pages. J.J. Hébrard, P. Rossa, "Décider si un graphe est extraplanaire", Les cahiers du GREYC (1995). P. Luquet, "Les littéraux monotones dans les données CNF aléatoires: un phénomène de seuil", Les cahiers du GREYC (1997). Contrats (en cours ou échus) : "Vérification formelle de protocoles à l'aide de la programmation linéaire", CNET, durée 3 ans, 1995-1997, 900 kF. Responsable : J.L. Lambert "Analyse et conception de fonctions de hachage arithmétiques et de générateurs pseudoaléatoires", SEPT, 6 mois, 1997, 170kF. Responsable scientifique: B. Vallée. Acteur: J-P. Tillich. Rapport de fin de contrat (20p) "Recherche et mise en place d'un langage de programmation logique interprété sur système réparti à objets de type CORBA" , SEPT, 12 mois, 1997, 300 kF. Responsable scientifique et acteur Jerzy Karczmarczuk. (commun avec le thème IA) Brevet : S. Dellacherie, C. Broult, S. Devulder, J-L. Lambert, "Vérification de logiciels basée sur la programmation linéaire", brevet déposé sous le numéro 9715217, daté du 3 décembre 1997. Copropriété de France Telecom, CNRS et Université de Caen. En cours d’internationalisation. B-35 Récapitulatif du programme du SEMINAIRE D'ALGORITHMIQUE DU GREYC organisé par Etienne Grandjean et Brigitte Vallée Années 94 à 99 L'équipe Algorithmique organise depuis 1994 un séminaire hebdomadaire d'algorithmique, qui cherche à regrouper l'équipe, autour d'exposés qui se veulent, au moins en partie, généralistes. Les exposés internes visent à faire communiquer les différents thèmes entre eux, tandis que les exposés externes, sur des sujets non représentés au laboratoire, visent à l'ouverture de l'équipe, à la culture des doctorants et à l'information des étudiants de DEA. Depuis 1994, une centaine de séances ont eu lieu, (98 exactement !) suivies par un public de quinze à vingt personnes. C'est une des réussites de l'équipe. ___________________________________________________________________________ Année 94-95 * 8 novembre Jean-Luc LAMBERT (LAIAC) Programmation linéaire et problème SAT * 15 novembre Philippe GUILLOT (Thomson-CSF, Paris) Fonctions booléennes et machines à chiffrer * 22 novembre Claude CARLET (LAIAC) Fonctions booléennes en cryptographie * 29 novembre Oliver DUBOIS (LAFORIA, U. Paris 6) Problème SAT: phenomènes de seuil, résolution complète et incomplète * 6 décembre Marc GIRAULT (SEPT) Fonctions de hachage cryptographiques et protocoles à connaissance nulle * 13 décembre Malika MORE (LLAIC, U. d'Auvergne) Un resultat dichotomique pour des extensions du problème SAT * 10 janvier Christophe TOLLU (LIPN, U. Paris-Nord) Bases de données et complexité: du modèle relationnel au modèle avec contraintes. * 17 janvier Bruno DURAND (LIP, ENS Lyon) Automates cellulaires et reversibilité. * 24 janvier Jean GOUBAULT (BULL, Les Clayes sous Bois) Complexité de la preuve à ressources bornées en logique classique du premier ordre. * 31 janvier Michel MORVAN (LITP, U. Paris 7) Quelques aspects algorithmiques et structurels des ordres et des treillis. * 7 février Teresa GOMEZ (U. de Limoges) Calcul de la forme de Jordan d'une matrice: nouvelle vision d'une ancienne méthode. * 14 février Eric DUQUESNE (INRIA et U. Paris 7) Preuves de la logique linéaire comme graphes. * 28 février David POINTCHEVAL (ENS Ulm, Paris) Les réseaux de neurones et leurs applications cryptographiques. B-36 * 7 mars Marie-France SAGOT (Atelier de BioInformatique, U. Paris 7) Alignement multiple de séquences biologiques. * 14 mars Gerard BECHER (LAIAC) Unification rigide. * 21 mars Jean-Yves MARION (U. de Nancy) Comment caractériser les fonctions facilement calculables. * 28 mars Brigitte VALLEE (LAIAC) Un exemple d'utilisation de l'analyse fonctionnelle dans l'analyse en moyenne de l'algorithme de Gauss * 9 mai A. DRAPAL (Prague) Finite left distributive systems with one generator * 16 mai Etienne GRANDJEAN (GREYC) Pourquoi une classe de complexité est-elle intéressante ? *13 juin Maurice MARGENSTERN (LITP, U. Paris 7) Deux machines de Turing universelles à au plus deux instructions gauches. ___________________________________________________________________________ Année 95-96 * 17 octobre Remy MALGOUYRES (GREYC) Sur les surfaces de Z^3 * 24 octobre Arnaud DURAND (GREYC) Définissabilité logique dans les structures finies. * 31 octobre pas de séminaire: Thèse de Gérard Bécher * 7 novembre Xavier GOURDON (Projet Algo, INRIA-Rocquencourt) Approximation des zéros de polynômes univariés complexes par la méthode de Schonhage. * 14 novembre Claire KENYON (LIP, ENS-Lyon) Diffusion d'un bit sur un arbre avec communications bruitées * 21 novembre Sylvain RIDARD (GREYC) Programmer l'algorithmique par objets. * 28 novembre Mariette YVINEC (Projet Prisme, INRIA-Sophia Antipolis) Les diagrammes de Voronoi en normes polyédriques convexes. * 5 décembre Jean-Pierre TILLICH (GREYC) Propriétés d'expansion de graphes et applications en algorithmique et protection de l'information * 12 décembre Exceptionnellement pas de séminaire * 19 décembre Thierry LACOSTE (Université de Provence et Paris 7) Un Survol des Lois 0-1 en Logique * 9 janvier, Yuri GUREVICH (Univ. Michigan, USA) B-37 Evolving Algebras * 16 janvier, Marc GIRAULT (SEPT, Caen) A propos du forgeage existentiel de signatures RSA. * 23 janvier, Nicolas SENDRIER (Projet Codes, INRIA-Rocquencourt) Codes à grande capacité de correction * 30 janvier, Véronique TERRIER (GREYC) Nouveaux résultats sur les automates cellulaires. * 6 février, David POINTCHEVAL (ENS Ulm) Preuves de sécurité pour les signatures * 19 mars, Evelyne LUTTON (Projet FRACTALES, INRIA-Rocquencourt) Quelques notions de base sur les algorithmes génétiques *26 mars, Gérard BECHER (GREYC) Indécidabilité du problème de E-unification rigide simultanée * 2 avril , Philippe FLAJOLET ( Projet ALGO, INRIA-Rocquencourt) Le processus d'arbre digital. * le 9 avril, Zoé LACROIX (Projet VERSO, INRIA-Rocquencourt) Bases de données contraintes : des BD relationnelles aux BD spatiales. * 30 avril, pas de séminaire (exposés de doctorants à partir de 14h) * 7 mai, Brigitte VALLEE (GREYC) Comparaison de deux rationnels en simple précision: analyse en moyenne * 14 mai, Jerzy KARCZMARCZUK (GREYC) Programmation et Monades * 21 mai, Jean-Jacques HEBRARD (GREYC) Base de Horn d'un ensemble de clauses. * 28 mai, Jean-Pierre TILLICH (GREYC) * 3 juillet, Bernd LOESCHER (LRI Orsay) Sur la définissabilité logique avec des fonctions unaires. ___________________________________________________________________________ Année 96-97 *15 octobre, Hamid RAHBAR (GREYC) Autour des plus courtes distances dans l'espace euclidien *22 octobre, Jean-Michel MULLER (LIP, ENS Lyon) Systèmes de numerations redondants, calculs en ligne et opérateurs "boite noire" *29 octobre, Remy MALGOUYRES (GREYC) Sur la notion de surfaces discrètes en Image * 5 novembre, Mireille REGNIER (Projet ALGO, INRIA Rocquencourt) B-38 Recherche de motifs: combinatoire et probabilités * 12 novembre, Jacques VERGNE (GREYC) Des concepts d'algorithmique importés en syntaxe des langues * 19 novembre, Nadia CREIGNOU (GRAL) Caractérisation de la complexité des problèmes de satisfaction de contraintes booléennes * 26 novembre 16 h , Alain HENAUT (U. Versailles St Quentin) Les régularités dans les séquences génétiques * 26 novembre 17h30 , Hans DOBBERTIN (Bonn, Allemagne) Non-linear power functions on GF(2^n) * 3 décembre, exceptionnellement pas de séance * 10 décembre, Abder ELMOATAZ (LUSAC, Cherbourg) Formalisation de certains opérateurs en traitement d'images et des formes * 21 janvier, Claude CARLET (GREYC) Codes Z_m-linéaires (m puissance de 2). * 28 janvier, Miklos SANTHA (LRI, Orsay) Calculs quantiques * 4 février, Pierre VALARCHER Etude de 2 langages de programmation qui calculent les mêmes fonctions différemment * 11 février, Serge VAUDENAY (ENS Ulm) Analyse de la sécurité des fonctions cryptographiques primitives * 4 mars, Etienne GRANDJEAN (GREYC) Caractérisations logiques ou algébriques du temps lineaire *11 mars, Claude TRICOT ( U. de Genève) Structures fractales * 18 Mars, Gilles BERTRAND Algorithmes de squelettisation * 29 avril, Bruce REED (Paris 7) Les méthodes probabilistes pour la coloration des graphes * 6 mai, Clemens LAUTEMANN (Univ Mainz, Allemagne): The Crane Beach Conjecture * 13 mai, pas de séminaire, Ecole de Printemps d'Informatique Théorique sur l'Algorithmique * 20 mai, Julien CLEMENT Etude d'arbres digitaux hybrides *27 mai, Jean-Marc STEYAERT (LIX, Ecole Polytechnique) Analyse en moyenne des tas (heap) * 3 juin, 16H, Serge GRIGORIEFF (LIAFIA, Paris 7) Les automates a plusieurs rubans B-39 * 3 juin, 17H30, Anatoly ZHIGLJAVSKY (Saint Petersbourg) Probabilistic methods in dynamical search * 10 juin, Bernd LOESCHER (LRI, Orsay): Y a-t-il une propriété de graphes qui n'est pas définissable en logique existentielle binaire du second ordre? * 17 juin, Jean-Pierre TILLICH ( GREYC) Phénomènes de seuil en algorithmique ___________________________________________________________________________ Année 97-98 * 28 octobre, Etienne GRANDJEAN (GREYC) Une caractérisation independante des machines pour la classe des problèmes calculables en temps linéaire * 4 novembre, Christiane FROUGNY (LIAFA, Paris 7) Systèmes de numération, dynamique symbolique et automates finis * 18 novembre, Danièle GARDY ( Univ. de Versailles) Des boules et des urnes * 25 novembre, Avi SHARELL (LRI, Orsay) Algorithmes probabilistes * 2 décembre, Philippe FLAJOLET (Projet ALGO, INRIA Rocquencourt) Analyse d'un problème de hachage * 9 décembre, Anne CANTEAUT (Projet CODES, INRIA Rocquencourt) *16 décembre, Brigitte VALLEE (GREYC) Analyse du pgcd binaire * 6 janvier, Michel POCCHIOLA (ENS Ulm) L'algorithmique des graphes de visibilité * 13 janvier, Jean-Marie LE BARS (GREYC) Décidabilite et pouvoir d'expression de la logique à deux variables * 20 janvier, Claude CARLET (GREYC) Sur le critère de propagation * 27 janvier, Caroline FONTAINE ( Projet CODES, INRIA Rocquencourt) Marquage d'images et protection des droits d'auteur dans AQUARELLE * 3 février, Jerzy KACZMARCZUK (GREYC) Hiérarchies algébriques en programmation par objets * 17 février, Solomampionona RANAIVOSON (GREYC) Expression logique de problèmes de graphes * 24 février, Bruno CREMILLEUX (GREYC) Sensibilisation aux problématiques du data mining et l'exemple des paradigmes des critères de construction des arbres de décision * 3 mars, Arnaud RAGEL (GREYC) Autour de l'utilisation des règles d'association pour le traitement des valeurs manquantes B-40 et le pré-traitement des données * 10 mars, Francois LABURTHE ( ENS Ulm) Une heuristique pour résoudre de grands problèmes de tournees de véhicules avec des contraintes temporelles * 17 mars, Remy MALGOUYRES (GREYC) Homotopie dans les images 2D * 24 mars, Alexandre LENOIR (GREYC) Préservation de la topologie dans les surfaces discrètes * 31 mars, Dominique BOURGOIN Modélisation de problèmes de production * 20 avril, (exceptionnellement un lundi) Georg GOTTLOB Existential Second Order Logic over Strings * 21 avril, Ali AKHAVI (GREYC) Etude de divers algorithmes de réduction dans les réseaux aléatoires * 28 avril, Emmanuel BENOIST (GREYC) Quelques restrictions polynomiales du problème SAT. * 5 mai, Brigitte VALLEE (GREYC) Un modèle dynamique pour la théorie algorithmique de l'information. * 12 mai, Jerzy KARCZMARCZUK (GREYC) Dérivation automatique des programmes: une approche fonctionnelle ______________________________________________________________________ Année 98-99 * 3 novembre, Jean-Marie LE BARS (GREYC) Lois 0-1 en logique * 10 novembre, Jean-Luc LAMBERT (GREYC) Linear Programming Validation (LPV): une nouvelle méthode de validation de logiciels * 17 novembre, Nadia CREIGNOU (SDAD) Autour du problème SAT * 24 novembre, Sébastien FOUREY (GREYC) Nombre d'imperfection de chemins sur une surface discrète * 1er décembre, Rémy MALGOUYRES (GREYC) Présentation du groupe fondamental dans les surfaces discrètes * 8 décembre, Claude CARLET (GREYC) Une nouvelle représentation des fonctions booléennes * 15 décembre, Risto HONKANEN (Univ. Joensuu, Finlande, actuellement au GREYC) Modèle LogP et optimisation de temps de calcul des programmes parallèles B-41