Curriculum Vitae Commenté

Transcription

Curriculum Vitae Commenté
Curriculum Vitae Commenté
Olivier Bournez
3 août 2006
2
Table des matières
1 Introduction
2 Retour aux sources
2.1 Début de l’histoire . .
2.2 Genèse . . . . . . . . .
2.3 Préhistoire . . . . . . .
2.4 Âge de bronze . . . . .
2.5 Au service de la nation
2.6 Besoin de stabilité . .
2.7 Place Stanislas . . . .
5
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7
7
7
7
9
11
12
13
3 Outils pour la vérification
3.1 Motivation . . . . . . . . . . . . . . .
3.2 Polyèdres orthogonaux . . . . . . . . .
3.3 Polyèdres temporisés . . . . . . . . . .
3.4 Plateforme QSL . . . . . . . . . . . . .
3.5 ELAN en tant qu’outil de vérification
3.6 Responsabilités collectives . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
15
15
16
16
17
18
19
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4 Frontière Tractabilité/Non-Tractabilité
21
4.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
4.2 Stabilité des Systèmes dynamiques . . . . . . . . . . . . . . . . . 21
4.3 Problèmes en basses dimensions . . . . . . . . . . . . . . . . . . . 22
5 Complexité dans le modèle BSS
25
5.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
5.2 Fonctions récursives sûres . . . . . . . . . . . . . . . . . . . . . . 26
5.3 Modèles finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
6 Programmation par règles et stratégies
31
6.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
6.2 Vérification Algorithmique de Systèmes Hybrides . . . . . . . . . 32
6.3 Génération de mécanismes chimiques . . . . . . . . . . . . . . . . 34
3
4
7 Réécritures exotiques
7.1 Motivation . . . . . . . . . . . . .
7.2 Stratégies probabilistes . . . . . . .
7.3 Logique de réécriture probabiliste .
7.4 Autres notions d’incertitude . . . .
7.5 Preuve de terminaison presque sûre
7.6 Autres activités en rapport . . . .
TABLE DES MATIÈRES
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
39
39
40
41
42
43
44
8 Modèles de Calculs à Temps Continus
8.1 Motivation . . . . . . . . . . . . . . . . . . . . .
8.2 Systèmes continus et hyper-calculs . . . . . . . .
8.3 Approche algébrique . . . . . . . . . . . . . . . .
8.4 A propos du General Purpose Analog Computer
8.5 Modèles du dynamisme en Théorie des jeux . . .
8.6 Responsabilités collectives . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
45
45
46
48
49
50
51
9 Références
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
53
Chapitre 1
Introduction
Ce document constitue un guide de lecture de mon curriculum vitae. Il se
veut comme un outil qui complète le document scientifique qui sera rédigé pour
mon habilitation à diriger les recherches.
Le document scientifique approfondira certains aspects de mon travail. Le
document présent vient le compléter, d’une part par une description de certains
travaux qui ne seront pas repris dans le document scientifique, d’autre part par
des détails chronologiques, et administratifs, qui peuvent aider à comprendre
mon parcours en tant que chercheur.
Ce curriculum-vitae commenté s’associe aussi à un curriculum-vitae développé, qui est aussi joint, et qui se veut encore plus exhaustif, mais qui est brut.
5
6
CHAPITRE 1. INTRODUCTION
Chapitre 2
Retour aux sources
2.1
Début de l’histoire
Je choisis de faire commencer mon histoire à la date de mon recrutement en
tant que chargé de recherche INRIA, le vendredi 1ier octobre 1999.
Cependant, je crois qu’on ne peut pas comprendre vraiment mon parcours,
sans parler un peu de ce que j’ai fait avant, et du parcours scientifique et administratif qui m’ont conduit à devenir chercheur à l’INRIA Lorraine au LORIA
à Nancy.
2.2
Genèse
Né en Franche-Comté, après des études au collège de Quingey, puis au Lycée
Technique Jules Haag de Besançon, après un baccalauréat E, Mathématiques et
Techniques, puis une classe préparatoire au Lycée Victor Hugo de Besançon, je
suis devenu élève de l’École Normale Supérieure de Lyon le Mardi 15 septembre
1992.
A Lyon, j’ai choisi la filière “Informatique”.
2.3
Préhistoire
Dans le cadre de cette scolarité, j’ai effectué les stages réglementaires, c’està-dire un stage de six semaines en première année, et un stage à l’étranger de
trois mois en deuxième année.
En première année, j’ai fait mon stage à Grenoble, sous la direction de Patrick Gros, qui est maintenant responsable de l’équipe TEXMEX de l’INRIA à
Rennes. Patrick était en train de soutenir sa thèse. Il y avait aussi la bas, Edmond Boyer, qui effectuait son stage de DEA, et qui est devenu plus tard mon
coauteur dans la publication [1] avec Patrick. Edmond est maintenant Maı̂tre
de Conférences à Grenoble I.
7
8
CHAPITRE 2. RETOUR AUX SOURCES
Il s’agit de problèmes reliés à la vision : prendre la photographie (bidimensionnelle) d’un objet (tridimensionnel) correspond à effectuer une certaine
projection : les coordonnées des points sur l’image s’obtiennent en appliquant
une certaine transformation linéaire projective aux coordonnées des points de
l’objet réel dans l’espace [Gro93]. Il en suit qu’entre deux prises de vues d’un
même objet, il doit exister une certaine transformation linéaire projective. Les
transformations linéaires projectives préservent certaines quantités comme les
birapports. Les birapports sont des quantités difficiles à calculer en pratique de
façon stable. En approximant les transformations projectives par des classes de
transformations plus simples (par exemple les similitudes), et en considérant des
quantités invariantes par ces approximations, on obtient des quasi-invariants au
lieu d’invariants par ces transformations projectives [Gro93].
Patrick a développé dans sa thèse [Gro93] un ensemble d’outils théoriques
et logiciels, basés sur la préservation d’invariants ou de quasi-invariants, qui
permettent, à partir de deux images d’un même objet, de déterminer la transformation la plus probable, ainsi que les correspondances les plus probables entre
points sur les deux images. Cela constitue donc un moyen d’obtenir des relations
d’appariements entre points pour des paires d’images.
Malheureusement, qui dit le plus probable, dit que ces relations sont parfois
erronées.
Le sujet de mon travail a été de réfléchir à comment utiliser les informations
obtenues lorsque l’on a n-images d’un même objet plutôt que deux : les outils
précédents pour les n × (n − 1) combinaisons de paires d’images donnent un
ensemble de relations entre points. Comment utiliser ces informations, pour
augmenter le degré de certitude ?
Ce que j’ai proposé a été d’utiliser des techniques basées sur la recherche de
composantes fortement connexes dans des graphes.
En effet, si il n’y avait aucune erreur, tous les points qui correspondent au
même point tridimensionnel, devraient être appariés lors de toutes ces combinaisons d’images deux à deux, et donc le graphe des relations entre ces points
devrait constituer un sous graphe complet, c’est-à-dire une clique. En réalité, il
y a des erreurs, et on n’observe pas de vraies cliques . Mais en se basant sur l’idée
qu’une clique se caractérise par un degré de connexité fort, on peut détecter des
composantes qui sont très proches d’une clique.
Ces idées font (une) partie de la publication [1], rédigée bien ultérieurement
par mes coauteurs. Je remercie ici mes coauteurs pour la rédaction de ce papier.
Je n’ai jamais revu Patrick depuis cet époque. J’ai eu le plaisir d’enseigner pour
Edmond, bien plus tard.
En deuxième année, j’ai travaillé sur des sujets proches. En partie parce que
cela m’intéressait, et aussi surtout car je dois aux gens de Grenoble de m’avoir
aidé à trouver ce stage. Merci encore pour cela.
J’ai effectué mon stage dans le laboratoire de recherche de l’entreprise privée
General Electric, sous la direction de Joseph L. Mundy.
Il s’agissait d’adapter certains algorithmes de Jane Liu [LMFZ94] pour l’appariement de points entre objets invariants par rotation (toujours basés sur le
principe de la préservation des birapports entre deux images d’un même objet),
2.4. ÂGE DE BRONZE
9
pour le système logiciel développé par le laboratoire à cette époque. Cela a mené
à la publication [2].
Je remercie ici la générosité des gens de General Electric, en particulier,
Joseph L. Mundy, et la patience des gens qui m’ont encadré la bas, en particulier
C. Huang, au détriment de leurs week-ends et vacances.
Publications relatives
Revues
[1] Patrick Gros, Olivier Bournez, and Edmond Boyer. Using local planar
geometric invariants to match and model images of line segments. Computer
Vision and Image Understanding : CVIU, 69(2) :135–155, February 1998.
Conférences
[2] J. Mundy, C. Huang, J. Liu, W. Hoffman, D. Forsyth, C. Rothwell, A. Zisserman, S. Utcke, and O. Bournez. MORSE : A 3D object recognition system
based on geometric invariants. In ARPA Image Understanding Workshop,
pages 1393–1402, Monterey (CA), USA, 13–16 November 1994.
2.4
Âge de bronze
A l’issu de mon DEA à Lyon, j’ai effectué mon stage de DEA sous la responsabilité de Michel Cosnard, qui était à l’époque, Professeur et directeur du
Laboratoire de l’Informatique du Parallélisme (LIP) à Lyon.
Les sujets d’intérêts de Michel sont nombreux et comprennent entre autres
le parallélisme, et les systèmes dynamiques (sa thèse parle de systèmes dynamiques). Il est donc naturel que Michel se soit intéressé aux modèles de réseaux de neurones formels, qui sont des systèmes dynamiques particuliers, et
qui constituent un certain modèle du parallélisme.
Nous étions en 1996. C’était l’époque où, Hava Siegelmann affirmait par
plusieurs résultats théoriques, la sur-puissance des réseaux de neurones formels,
et la remise en cause avec Eduardo Sontag de la thèse de Church pour une thèse
de Siegelmann Sontag [Sie96, SS94, Sie95, Sie99].
Le travail que j’ai effectué en DEA a consisté à exhiber plusieurs modèles
dont la puissance de calcul est égale à celle des réseaux de neurones formels
de Siegelmann et Sontag. Il n’y a rien de fondamentalement nouveau dans les
résultats, mais la force de [6] est de mettre dans un même endroit plusieurs
modèles de la littérature, et de montrer qu’ils sont équivalents du point de vue
calculatoire.
Parmi ces modèles, il y a le modèle de systèmes hybrides PCD (Piecewise
Constant Derivative Systems) proposé par Eugène Asarin1 , Oded Maler et Amir
1 A vrai dire, Eugène n’était pas là lors du tout premier papier. Mais sans Eugène, qui
l’utilise régulièrement pour ses vertus pédagogiques pour pointer les problèmes qui se posent
10
CHAPITRE 2. RETOUR AUX SOURCES
Pnueli [AMP95]. Le papier [6] montre que ces systèmes ont la puissance des
réseaux de neurones formels de Siegelmann et Sontag, si l’on considère le temps
comme discret.
Or, à cette même époque, John Mullins, en visite au LIP, à qui je dois de
m’avoir introduit aux vertus des hiérarchies arithmétiques, m’a montré un jour
un papier des mêmes auteurs dans Theoretical Computer Science, montrant précisément que si l’on considère le temps comme continu dans ces systèmes, alors
ces systèmes sont capables de reconnaı̂tre des langages indécidables, et même
des langages de la hiérarchie arithmétique. Il n’en fallait pas moins pour que
Michel me suggère d’essayer de comprendre la puissance de ces systèmes, et si
c’était l’incarnation du même phénomène : peut on relier ce résultats aux résultats à la Siegelmann Sontag ? Ma réponse, plusieurs années après, est “non”. Ce
sont des résultats qui utilisent deux aspects orthogonaux des systèmes continus :
la densité de l’espace, et du temps.
Toutefois cette question m’a mené à réfléchir longuement sur la puissance
exacte du modèle des PCD. De façon amusante, et en fait assez étrange, elle se
caractérise en fonction de la dimension [7, 5, 4, 3]. On peut considérer le sujet
comme d’un intérêt discutable2 , mais en fait, en y regardant de nouveau, si on
oublie la forme des papiers [7, 5, 4], sur le fond, je suis d’accord avec mes referees :
c’est assez surprenant que la puissance dépend de la dimension. En plus, cela
a un aspect moralisateur assez surprenant : dans un espace en dimension 3, on
ne peut rien faire d’autre qu’une machine de Turing. Le problème apparaı̂t dès
que l’espace contient 4 dimensions.
Le titre de la section vient du fait que ma thèse [3] a été primée plus tard par
l’équivalent d’une médaille d’un certain métal. Pas pour ces travaux précisément,
mais pour un assemblage hétéroclite de travaux autour de problèmes liés à la
vérification des systèmes hybrides.
Publications relatives
Thèse
[3] Olivier Bournez. Complexité Algorithmique des Systèmes Dynamiques
Continus et Hybrides. PhD thesis, Ecole Normale Supérieure de Lyon, Janvier 1999.
Revues
[4] Olivier Bournez. Achilles and the Tortoise climbing up the hyperarithmetical hierarchy. Theoretical Computer Science, 210(1) :21–71, 6 January 1999.
[5] Olivier Bournez. Some bounds on the computational power of piecewise
constant derivative systems. Theory of Computing Systems, 32(1) :35–67,
1999.
avec de tels systèmes, je ne suis pas certain que ce modèle aurait autant été discuté.
2 certains diraient mouchofile, dans le jargon professionnel d’une certaine communauté
2.5. AU SERVICE DE LA NATION
11
[6] Olivier Bournez and Michel Cosnard. On the computational power of
dynamical systems and hybrid systems. Theoretical Computer Science,
168(2) :417–459, November 1996.
Conférences
[7] O. Bournez. Some bounds on the computational power of piecewise
constant derivative systems. In Pierpaolo Degano, Robert Gorrieri, and
Alberto Marchetti-Spaccamela, editors, Automata, Languages and Programming, 24th International Colloquium, volume 1256 of Lecture Notes in Computer Science, pages 143–153, Bologne, Italie, 7–11 July 1997. SpringerVerlag.
2.5
Au service de la nation
En 1997, j’ai effectué mon service national en tant que scientifique du contingent au laboratoire VERIMAG de Grenoble. Je remercie ce laboratoire d’avoir
bien voulu accepter le soldat 2ième classe que j’étais, et les services de la DGA
d’avoir compris l’intérêt de cette recherche.
J’y ai travaillé sous la responsabilité scientifique d’Oded Maler sur des problèmes de représentations de polyèdres motivés par la vérification. Le principe
des représentations proposées consiste à représenter un polyèdre par ses sommets. Ce que j’ai proposé est le développement théorique d’idées d’Oded, sur
comment représenter de façon canonique un polyèdre par des considérations sur
le voisinage de ses sommets. Ces représentations sont pertinentes dès que l’on a
besoin de représenter des polyèdres avec peu de sommets.
Le travail effectué est motivé par la vérification. Pour le calcul des états atteignables par un système hybride, on a besoin de représenter des polyèdres, et
de savoir calculer sur ceux-ci certaines opérations, classiques, comme intersections, unions, et certaines opérations plus spécifiques, comme l’effet du passage
du temps (“face lifting”, selon la terminologie d’Oded). Pour chacune de ces opérations, nous avons présenté des algorithmes pour les représentations proposées,
ainsi qu’une étude théorique de leur complexité.
Cela a mené à la publication [9].
En fait, plus tard, lorsque j’ai rédigé ma thèse, (été 1998), j’ai réalisé que
c’était la généralisation à la dimension quelconque d’un principe déjà proposé
en dimension 3 par A. Aguilera et D. Ayala [AA97, AA98]. Et bien plus tard,
en janvier 2000, j’ai réalisé que tout cela avait une explication logique simple,
en terme de ou exclusif. Le résultat de canonicité de [9] devient un simple paragraphe de [8] avec ces arguments.
Cela étant après le début de mon histoire, j’y reviendrai dans le chapitre
correspondant.
12
CHAPITRE 2. RETOUR AUX SOURCES
Publications relatives
Conférences
[8] Olivier Bournez and Oded Maler. On the representation of timed polyhedra. In International Colloquium on Automata Languages and Programming
(ICALP’00), volume 1853 of Lecture Notes in Computer Science, pages 793–
807, Geneva, Switzerland, 9–15 July 2000. Springer.
[9] Olivier Bournez, Oded Maler, and Amir Pnueli. Orthogonal polyhedra :
Representation and computation. In Hybrid Systems : Computation and
Control - HSCC’99, volume 1569, pages 46–60, Nijmegen, Pays-Bas, 29–31
March 1999.
2.6
Besoin de stabilité
Après mon service national, je suis revenu rédiger ma thèse à Lyon. C’est à
ce moment là que j’ai travaillé sur un problème posé par Eduardo Sontag (voir
[Son95]) : peut-on décider la stabilité d’un système linéaire saturé, en d’autres
termes, d’un réseau de neurones de Siegelmann Sontag.
Dans ma thèse, j’ai prouvé que le problème est indécidable. Les constructions
utilisées sont assez alambiquées. Grâce aux talents de rédaction de mes coauteurs, leur pédagogie, ainsi que les nombreuses extensions proposées du résultat,
le résultat se trouve plus simplement prouvé dans [11, 10, 12]. Cela étant après
le début de mon histoire, cela est donc repris dans un chapitre ultérieur.
Publications relatives
Revues
[10] Vincent Blondel, Olivier Bournez, Pascal Koiran, Christos Papadimitriou, and John Tsitsiklis. Deciding stability and mortality of piecewise
affine dynamical systems. Theoretical Computer Science A, 1–2(255) :687–
696, 2001.
[11] Vincent D. Blondel, Olivier Bournez, Pascal Koiran, and John Tsitsiklis.
The stability of saturated linear dynamical systems is undecidable. Journal
of Computer and System Science, 62(3) :442–462, May 2001.
Conférences
[12] Vincent D. Blondel, Olivier Bournez, Pascal Koiran, and John N. Tsitsiklis. The stability of saturated linear dynamical systems is undecidable.
In Horst Reichel Sophie Tison, editor, Symposium on Theoretical Aspects of
Computer Science (STACS), Lille, France, volume 1770 of Lecture Notes in
Computer Science, pages 479–490. LIFL, Springer-Verlag, February 2000.
2.7. PLACE STANISLAS
2.7
13
Place Stanislas
C’est donc pour toutes ces raisons que j’ai candidaté au concours INRIA
dans l’équipe PROTHEO.
Je remercie le concours 1999 de l’INRIA Lorraine d’avoir bien voulu considérer ma candidature, et surtout d’avoir accepter qu’un parcours atypique comme
celui-là finisse chargé de recherche à l’INRIA.
Je remercie en particulier mes rapporteurs, le hasard, et surtout je remercie
chaleureusement Claude et Hélène Kirchner pour avoir bien voulu m’accueillir
dans leur projet.
Je remercie aussi le concours 1999 de l’INRIA Rocquencourt de ne pas avoir
pris la personne classée devant moi dans un autre concours, car sinon je ne pense
pas que l’INRIA Lorraine aurait vraiment considéré ma candidature.
14
CHAPITRE 2. RETOUR AUX SOURCES
Chapitre 3
Outils pour la vérification
3.1
Motivation
Les systèmes hybrides ont été introduits pour modéliser le nombre croissant
de systèmes avec un fonctionnement discret dans un environnement continu,
comme tous les systèmes où un contrôleur informatique, par essence même discret, doit contrôler des paramètres continus de son environnement : par exemple,
le système de pilotage automatique d’un avion qui doit agir sur des paramètres
continus comme la vitesse et l’altitude de celui-ci.
Ils sont aussi utiles pour la modélisation de nombreux processus d’importance industrielle. Par exemple la composition chimique de la chambre de combustion d’un moteur automobile se décrit naturellement par un ensemble de
mécanismes cinétiques chimiques sujets à des changements de phases discrètes,
imposés par des changements de gammes de température et de pression, ainsi
que par le cycle d’admission et d’expulsion des carburants.
Puisque les systèmes hybrides modélisent de nombreux systèmes critiques
comme les centrales nucléaires, les avions ou des processus industriels pour lesquels un dysfonctionnement peut avoir de graves conséquences, il est primordial
de posséder des outils et des méthodes qui permettent de certifier que ces systèmes fonctionnent correctement.
La vérification des systèmes purement discrets a été étudiée intensément ces
dernières années et les informaticiens possèdent à l’heure actuelle des outils et
des méthodes relativement efficaces de validation. La vérification des systèmes
purement continus est elle aussi étudiée depuis plusieurs décennies par exemple
par les théoriciens du contrôle qui possèdent des méthodes comme les fonctions
de Liapunov. Toutefois, on ne s’est intéressé que récemment1 à la vérification
des systèmes qui mélangent évolutions continues et transitions discrètes.
Certaines méthodes peuvent se généraliser à de larges classes de systèmes
hybrides. Dans le cadre des techniques inspirées par le model-checking symbo1 Je prends de l’âge : cela fait environ 10 ans maintenant. Mais bon, c’était récent au début
de mon histoire.
15
16
CHAPITRE 3. OUTILS POUR LA VÉRIFICATION
lique, il a par exemple été proposés des méthodes spécifiques de validation pour
des sous-classes de systèmes hybrides comme les automates temporisés [AD90]
ou des méthodes semi-algorithmiques pour les systèmes hybrides quelconques
[ACH+ 95].
3.2
Polyèdres orthogonaux
Certaines méthodes sont basées sur des calculs de points fixes sur des polyèdres non-convexes et de dimensions quelconques. Même si ces méthodes ont
fait leurs preuves sur des exemples réels de grandes tailles, elles souffrent d’un
problème d’explosion combinatoire qu’il convient d’arriver à maı̂triser.
Il semble que la manipulation de polyèdres non-convexes et de dimension
quelconque soit l’un des facteurs importants qui expliquent leur relative ”lenteur”
et inefficacité sur des exemples de grande taille.
Dans [16], en collaboration avec Oded Maler et Amir Pnueli, j’ai proposé de
sur-approximer ces polyèdres par des polyèdres orthogonaux (c’est-à-dire par
des polyèdres qui s’écrivent comme une union finie d’hyperrectangles pleins).
J’ai proposé des représentations originales de ces polyèdres par leurs sommets
et prouvé que ces représentations permettent de réaliser efficacement les opérations utilisées par les méthodes de vérification : opérations booléennes, tests de
comparaison, et détections de faces.
J’ai personnellement programmé les algorithmes proposés dans une application prototype nommée “Apericube”. J’ai reprogrammé après mon arrivée à
Nancy ces algorithmes pour créer une libraire indépendante nommée “Cubes”
utilisable dans des contextes plus généraux.
En particulier, j’ai contribué à ce que ces librairies soient utilisées dans un
outil expérimental ”d/dt” développé par Thao Dang à VERIMAG [14] qui permet de calculer les états atteints par un système dynamique.
Cube est actuellement utilisé par l’outil d/dt diffusé par VERIMAG (voir
www-verimag.imag.fr/˜tdang/ddt.html ). En collaboration avec Eugène Asarin,
Thao Dang et Oded Maler, nous avons présenté cet outil dans [14], et présenté
plusieurs applications de cet outil pour la synthèse de systèmes hybrides dans
[13]. Cube est aussi utilisé par des étudiants en thèse à l’EPFL à Lausanne.
3.3
Polyèdres temporisés
La vérification de classes particulières de systèmes hybrides comme les automates temporisés se réalise à l’aide de méthodes spécifiques qui manipulent des
polyèdres d’un type particulier appelés polyèdres temporisés.
En collaboration avec Oded Maler, j’ai étudié une généralisation des représentations précédentes pour représenter ces polyèdres et proposé des méthodes
pour réaliser les opérations nécessaires à l’intégration de ces représentations dans
les algorithmes de vérification des automates temporisés : opérations booléennes,
opérations “passage du temps”, tests de comparaisons : [15].
3.4. PLATEFORME QSL
17
Ces algorithmes ont été programmés et mis sous forme d’une bibliothèque de
résolution de contraintes utilisable dans d’autres contextes par Moez Mahfoudh,
lors de son stage de fin d’étude sous la responsabilités d’Oded Maler à Grenoble.
Publications relatives
Revues
[13] Eugene Asarin, Olivier Bournez, Thao Dang, Oded Maler, and Amir
Pnueli. Effective synthesis of switching controllers for linear systems. Proceedings of the IEEE, Special Issue on ”Hybrid Systems”, 88(7) :1011–1025,
July 2000.
Conférences
[14] Eugene Asarin, Olivier Bournez, Thao Dang, and Oded Maler. Approximate reachability analysis of piecewise-linear dynamical systems. In Hybrid
Systems : Computation and Control (HSCC’00), Pittsburgh (USA), volume
1790 of Lecture Notes in Computer Science, pages 20–31. Springer-Verlag,
March 2000.
[15] Olivier Bournez and Oded Maler. On the representation of timed polyhedra. In International Colloquium on Automata Languages and Programming
(ICALP’00), volume 1853 of Lecture Notes in Computer Science, pages 793–
807, Geneva, Switzerland, 9–15 July 2000. Springer.
[16] Olivier Bournez, Oded Maler, and Amir Pnueli. Orthogonal polyhedra :
Representation and computation. In Hybrid Systems : Computation and
Control - HSCC’99, volume 1569, pages 46–60, Nijmegen, Pays-Bas, 29–31
March 1999.
Développements logiciel
• Système Cube: Développement personnel du système Cube, qui permet
de tester et utiliser les représentations des polyèdres présentées dans le
papier [8]. Logiciel non déposé, utilisé par le logiciel d/dt diffusé par VERIMAG à Grenoble (www-verimag.imag.fr/˜tdang/ddt.html) et actuellement utilisé par des étudiants en thèse à l’EPFL à Lausanne.
http ://www.loria.fr/ bournez/logiciels.html.
3.4
Plateforme QSL
J’ai été fortement impliqué dans la “Plateforme d’expérimentation et de
transfert technologique” proposée par le LORIA dans l’axe “Qualité et Sûreté
du Logiciel” du Contrat de Plan État Région. Cette plateforme vise à offrir une
18
CHAPITRE 3. OUTILS POUR LA VÉRIFICATION
vitrine des outils logiciels autour de la qualité et sûreté du logiciel, et vise en
particulier les partenaires industriels.
Une plateforme logicielle facilement évolutive, permettant de répertorier,
consulter, expérimenter les outils du LORIA et de l’extérieur autour de ces
thèmes, a été développée par Mohamed El Habib sous ma responsabilité. Cette
plateforme est présentée dans [17].
Actuellement, les développements autour de cette plateforme continuent. A
ma demande, je ne suis plus impliqué, mais une part importante du code PHP
ou du code pour l’interrogation de bases de données de Mohamed reste utilisée.
Publications relatives
Conférences
[17] Olivier Bournez, Mohamed El Habib, Claude Kirchner, Hélène Kirchner, Jean-Yves Marion, and Stephan Merz.
The qsl plateform at
loria.
In First QPQ Workshop on Deductive Software Components,
pages 9–12, Miami, Florida, July 28 2003.
CADE-19 Workshop,
ftp ://ftp.csl.sri.com/pub/users/shankar/QPQ03.pdf.
Activités d’Encadrement
Ingénieur expert
• Travail de Mohamed El-Habib, Ingénieur expert. Développement de la plateforme QSL. Plateforme d’expérimentation et de transfert technologique,
action de l’axe “Qualité et Sûreté du Logiciel” du Contrat de Plan état
Région Lorraine (de octobre 2001 à septembre 2002).
Développement logiciel
• Plateforme QSL: Participation active de octobre 2001 à octobre 2002 au
développement par l’ingénieur expert Mohamed El Habib d’une plateforme
visant à offrir une vitrine des outils logiciels autour de la qualité et sûreté
du logiciel. Travail dans le cadre de l’axe “Qualité et Sûreté du Logiciel”
du Contrat de Plan état Région. http ://plateforme-qsl.loria.fr.
3.5
ELAN en tant qu’outil de vérification
D’autre part, le travail sur ELAN et son utilisation comme outil pour le
model-checking pourrait être repris dans cette section. J’ai décidé de le placer
dans le chapitre 6.
3.6. RESPONSABILITÉS COLLECTIVES
3.6
19
Responsabilités collectives
• IEHSC 2005. Membre du comité scientifique de la conférence Inaugural
International Embedded and Hybrid Systems Conference (IEHSC’05) .
• Matinées de la plateforme. Organisation de plusieurs journées d’exposés
“matinées de la plateforme” au LORIA en 2002.
• Journée QSL. Co-organisation d’une journée d’exposés sur “les outils logiciels pour la vérification” au LORIA en 2002..
• Enseignement en DEA et Master. J’assure depuis 2000 au moins 50%
chaque année du cours de DEA et de M2 autour de la vérification algorithmique.
20
CHAPITRE 3. OUTILS POUR LA VÉRIFICATION
Chapitre 4
Frontière Tractabilité/Nontractabilité pour les
systèmes dynamiques
4.1
Motivation
Depuis les travaux de Moore [Moo90], il est connu que les systèmes dynamiques à temps discret et à fonction de transition affine par morceaux peuvent
simuler les machines de Turing. Par conséquent, il est connu que la vérification
des propriétés locales comme les propriétés d’atteignabilité (“Étant donné un
système hybride, un point de départ x0 et un point d’arrivée x1 , décider si la
trajectoire partant du point x0 atteint le point x1 ”) des systèmes hybrides est
impossible dans le cas général.
Toutefois, il restait un espoir que l’on puisse vérifier les propriétés globales
de ces systèmes comme les propriétés de stabilité (“Étant donné un système
hybride, décider si pour tout point de départ la trajectoire partant de ce point
converge vers un même point”), très étudiées en théorie du contrôle. Ce problème
a été posé pour la première fois explicitement par Sontag dans [Son95].
4.2
Stabilité des Systèmes dynamiques
Dans [18], en collaboration avec Vincent Blondel, Pascal Koiran, John Tsitsiklis et Christos Papadimitriou, nous avons apporté une réponse partielle à
cette question pour les systèmes dynamiques à temps discret et à fonction de
transition affine par morceaux discontinue. La preuve se base sur l’indécidabilité
du problème de la mortalité pour les machines à compteurs.
Dans le chapitre 3 de ma thèse, j’ai résolu le problème précis posé par Sontag
en prouvant l’indécidabilité des problèmes de la stabilité globale, de la stabilité
globale asymptotique et de la mortalité pour les systèmes dynamiques linéaires
21
22
CHAPITRE 4. FRONTIÈRE TRACTABILITÉ/NON-TRACTABILITÉ
seuillés, i.e. même avec une fonction de transition continue . Un ingrédient essentiel de la preuve est un résultat de Hooper [Hoo66] prouvant l’indécidabilité
du problème de la mortalité pour les machines de Turing.
Grâce aux talents pédagogiques de mes coauteurs, la preuve de ma thèse a
été simplifiée dans [20], et étendue dans [19] à quelques questions plus générales.
Publications relatives
Revues
[18] Vincent Blondel, Olivier Bournez, Pascal Koiran, Christos Papadimitriou, and John Tsitsiklis. Deciding stability and mortality of piecewise
affine dynamical systems. Theoretical Computer Science A, 1–2(255) :687–
696, 2001.
[19] Vincent D. Blondel, Olivier Bournez, Pascal Koiran, and John Tsitsiklis.
The stability of saturated linear dynamical systems is undecidable. Journal
of Computer and System Science, 62(3) :442–462, May 2001.
Conférences
[20] Vincent D. Blondel, Olivier Bournez, Pascal Koiran, and John N. Tsitsiklis. The stability of saturated linear dynamical systems is undecidable.
In Horst Reichel Sophie Tison, editor, Symposium on Theoretical Aspects of
Computer Science (STACS), Lille, France, volume 1770 of Lecture Notes in
Computer Science, pages 479–490. LIFL, Springer-Verlag, February 2000.
4.3
Problèmes en basses dimensions
Une question naturelle est de comprendre si ces résultats négatifs restent
vrais pour les systèmes de basses dimensions, c’est-à-dire pour les systèmes avec
peu de variables continues.
Dans le chapitre 4 de ma thèse, j’ai mis en évidence que les propriétés locales
et globales des systèmes hybrides restent indécidables même pour les systèmes de
basses dimensions : par exemple, la stabilité globale, la mortalité, ou la stabilité
globale asymptotique des systèmes dynamiques à temps discret à fonction de
transition discontinue (resp. continue) affine par morceaux de dimension 2 (resp.
3) est indécidable.
J’ai prouvé que la question de la décidabilité de ces mêmes propriétés en
dimensions inférieures se relie partiellement à des problèmes ouverts comme le
problème de la décidabilité de la mortalité des matrices 2 × 2 [Pat70, Sch77].
Le problème de la mortalité consiste, étant donné un ensemble fini de matrices carrées, à déterminer s’il existe un produit de ces matrices qui est la
matrice nulle. Dire si ce problème est décidable est équivalent à dire s’il est possible de déterminer si un système linéaire commuté est contrôlable. Le problème
est donc aussi motivé par la vérification de propriétés des systèmes hybrides.
4.3. PROBLÈMES EN BASSES DIMENSIONS
23
Sur ce problème, j’ai présenté en collaboration avec Michael Branicky une
synthèse des résultats connus sur le problème dans le chapitre court du livre
[22].
Nous avons d’autre part proposé quelques nouveaux résultats à propos de
ce dernier problème dans [21]. Nous avons ainsi montré que le problème est
indécidable pour les matrices 3 × 3, décidable pour 2 matrices 2 × 2, et ouvert
pour k ≥ 3 matrices 2 × 2. Nous avons montré que le problème pour 2 matrices
2 × 2 était indécidable dans le modèle de calcul de Blum Cucker Shub et Smale
sur les réels, et que le cas ouvert pour k ≥ 2 matrices 2 × 2 se reliait à plusieurs
autres problèmes mentionnés comme ouverts dans la littérature.
Publications relatives
Revues
[21] Olivier Bournez and Michael Branicky. The mortality problem for matrices of low dimensions. Theory of Computing Systems, 35(4) :433–448,
Jul-Aug 2002.
Chapter
[22] Olivier Bournez and Michael B. Branicky. Open Problems in Mathematical Systems and Control Theory, chapter On matrix mortality in low
dimensions, pages 67–70. Springer-Verlag, London, 1998.
24
CHAPITRE 4. FRONTIÈRE TRACTABILITÉ/NON-TRACTABILITÉ
Chapitre 5
Caractérisations de classes
de complexité dans le
modèle de Blum Shub
Smale
5.1
Motivation
Il existe plusieurs approches pour étudier la complexité ou la calculabilité
de problèmes sur les réels. La plus connue, est l’approche de l’analyse récursive, introduite par Turing [Tur36], Grzegorczyk [Grz57], et Lacombe [Lac55].
Dans celle-ci, on considère qu’un réel est représenté par une suite de nombres
rationnels rapidement convergente, et on dit qu’une fonction est calculable si
il existe un moyen effectif de transformer toute représentation d’un réel en une
représentation de l’image du réel par la fonction : on pourra consulter [Wei00]
comme un livre récent sur le sujet. On peut aussi définir dans ce modèle une
notion de complexité [Ko91].
Cependant, le modèle s’avère d’utilisation très délicate et de peu d’intérêt
pratique pour parler de complexité algébrique de certains problèmes, comme
la complexité algébrique de problèmes sur les polynômes, ou pour décrire la
complexité algébrique d’algorithmes comme l’algorithme de Newton.
Blum, Shub et Smale ont proposé en 1989 une autre approche pour parler
de la complexité de tels problèmes, en introduisant un modèle de calcul dans
[BSS89], que l’on appelle parfois la machine de Turing réelle. Ce modèle, contrairement à l’analyse récursive, mesure la complexité des problèmes en terme du
nombre d’opérations arithmétiques nécessaires à leur résolution indépendemment des représentations des réels.
Le modèle, défini initialement pour parler de complexité algébrique de problèmes sur le corps des réels, ou plus généralement sur un anneau, a été par
25
26
CHAPITRE 5. COMPLEXITÉ DANS LE MODÈLE BSS
la suite été étendu par Poizat dans [Poi95, Goo94] en une notion de modèle de
calcul sur une structure logique arbitraire.
Suivant la structure logique considérée, on peut obtenir toute une théorie
de la complexité, avec des classes de complexité comme P , N P , des notions de
réduction, des problèmes complets, des grandes questions comme P 6= N P ?,
dont il est parfois possible de répondre affirmativement ou négativement.
Comme la complexité classique peut se voir comme la restriction de cette
notion de complexité au cas particulier des structures booléennes, ce modèle
apporte un éclairage nouveau sur les problèmes plus anciens de la complexité
classique, et sur ses liens avec la logique.
En particulier, cela ouvre le champ à de nombreux travaux cherchant à
comprendre les résultats de la complexité classique qui se généralisent à d’autres
structures que les booléens, et les structures logiques dans lesquelles on peut
répondre aux grandes questions de la complexité comme la question P = N P ? :
voir l’ouvrage [BCSS98].
5.2
Fonctions récursives sûres
Par l’intermédiaire de la thèse de Paulin Jacobé de Naurois, en cotutelle
avec Felipe Cucker à Hong-Kong, et en co-encadrement avec Jean-Yves Marion,
à Nancy, j’ai cherché à comprendre si il était possible de caractériser syntaxiquement les classes de complexité dans ce modèle sur une structure arbitraire.
Puisqu’il existe en complexité classique plusieurs telles caractérisations des
classes de complexité, la question peut se voir comme celle de comprendre si ces
résultats s’étendent à des structures logiques arbitraires.
Une autre motivation forte est la suivante, reliée au chapitre 8 : les caractérisations syntaxiques des classes de complexité définissent ces classes sans
référence à une notion explicite de machine. Puisqu’il y a plusieurs modèles de
calculs sur les réels, cela ajoute à la légitimité des classes de complexité considérées. En effet, puisque les relations entre les modèles de calculs sur les réels
sont loin d’être toutes claires, pouvoir définir les classes de complexité sans fixer
le modèle de calcul, permet de s’affranchir du problème, et de légitimer l’idée
que la notion de classe de complexité obtenue est bien indépendante de toutes
les variations envisageables sur les modèles.
On observera en outre, qu’on peut considérer qu’on obtient des définitions
des classes de complexité qui sont bien aussi naturelles, voir plus naturelles
parfois, que les définitions classiques historiques des classes considérées.
En se basant sur la caractérisation de Bellantoni et Cook du temps polynomial dans [BC92], nous avons tout d’abord obtenu une caractérisation syntaxique des fonctions calculables, ainsi que des fonctions calculables en temps
polynomial en terme de fonctions récursives sûres. Nos caractérisations fonctionnent sur une structure arbitraire, et sont présentées pour la première fois
dans [30]
Nous avons ultérieurement obtenu une caractérisation des fonctions calculables en temps parallèle polynômial en terme de fonctions récursives sûres avec
5.3. MODÈLES FINIS
27
substitutions. Ce résultat généralise le résultat de [LM95] au cas des structures
arbitraires.
L’ensemble de ces résultats sont publiés dans [26, 25, 23]. En généralisant
les résultats de [Bel94], nous avons en outre obtenu une caractérisation de chacun des niveaux de la hiérarchie polynomiale en terme de récursion sûre avec
minimisation prédicative, et de la hiérarchie digitale polynomiale en terme de
récursion sûre avec minimisation prédicative digitale [27, 28].
Nous avons d’autre part caractérisé le temps alternant polynomial en terme
de récursion sûre avec substitutions prédicatives, et le temps digital alternant
polynomial en en terme de récursion sûre avec substitutions prédicatives digitales [27, 28].
L’ensemble de ces résultats est repris dans [24].
Toutes ces caractérisations sont en droite ligne des caractérisations, dites de
la complexité implicite, amorcées par les travaux de Bellantoni et Cook [BC92].
La toute première caractérisation du temps polynomial par une algèbre de fonctions sans référence explicite à un modèle de calcul est due à Cobham dans
[Cob62]. Toutefois les schémas de [BC92] sont nettement plus naturels.
5.3
Modèles finis
D’autres caractérisations indépendantes de notions de machines existent. En
particulier, il y a tout le pan entier de recherche qui concerne les caractérisations
de la complexité descriptive, basées sur des relations ou des méthodes globales,
de la théorie des modèles finis.
La complexité descriptive est née des travaux de Fagin [Fag74], qui prouvent
que la classe N P peut se caractériser comme la classe des ensembles définissables en logique existentielle du second ordre. Vardi et Immerman [Var82,
Imm83, Imm86] ont utilisé cette approche pour caractériser la classe P . Plusieurs autres caractérisations existent, pour des classes comme LOGSP ACE
[Gur83] ou P SP ACE [Mos83, GS86, Imm87, Bon89, AV89, Lei90, ASV90,
AV91, Imm91]. Une présentation synthétique du domaine peut se trouver dans
[EF95, Imm99, Clo95]. Toutes ces caractérisations sont dans le cadre classique.
Dans [GM95], la notion de R-structure a été introduite, et des caractérisations des classes P et N P sur le corps des réels en terme de logiques sur ces
R-structures ont été établies. Ces résultats ont par la suite été étendus dans
[CM99] à d’autres classes de complexité, et dans [GG98] à d’autres structures
que le corps des réels.
Dans [29], nous avons proposé une extension de la notion de R-structure aux
structures arbitraires, et proposé des caractérisations des classes P et N P sur
des structures arbitraires. Nos caractérisations, différentes de celles de Grädel et
Gurevich dans [GG98] fonctionnent sur une structure quelconque. D’autre part,
nous croyons la caractérisation obtenue plus élégante que dans [GG98, GM95,
CM99], même si il nous reste à convaincre nos referees pour que cela soit publié
dans une revue.
28
CHAPITRE 5. COMPLEXITÉ DANS LE MODÈLE BSS
Publications relatives
Revues
[23] Olivier Bournez, Felipe Cucker, Paulin Jacobé de Naurois, and JeanYves Marion. Implicit complexity over an arbitrary structure : Sequential
and parallel polynomial time. Journal of Logic and Computation, 15 :41–58,
2005.
[24] Olivier Bournez, Felipe Cucker, Paulin Jacobé de Naurois, and JeanYves Marion. Implicit complexity over an arbitrary structure : Quantifier
alternations. Information and Computation, 202(2) :210–230, February 2006.
Conférences
[25] Olivier Bournez, Felipe Cucker, Paulin Jacobé de Naurois, and Jean-Yves
Marion. Computability over an arbitrary structure. sequential and parallel
polynomial time. In Andrew D. Gordon, editor, Foundations of Software
Science and Computational Structures, 6th International Conference (FOSSACS’2003), volume 2620 of Lecture Notes in Computer Science, pages 185–
199. Springer, 2003.
[26] Olivier Bournez, Felipe Cucker, Paulin Jacobé de Naurois, and Jean-Yves
Marion. Safe recursion over an arbitrary structure : Par, ph and dph. In
Anuj Dawar, editor, Fifth International Worshop on Implicit Computational Complexity - ICC’2003, volume 90 of Electronic Notes in Theoretical
Computer Science, Ottawa, Canada, 2003. Elsevier.
[27] Olivier Bournez, Felipe Cucker, Paulin Jacobé de Naurois, and Jean-Yves
Marion. Tailoring recursion to characterize non-deterministic complexity
classes over arbitrary structures. In In 2nd APPSEM II Workshop (APPSEM’04), April 2004.
[28] Olivier Bournez, Felipe Cucker, Paulin Jacobé de Naurois, and Jean-Yves
Marion. Tailoring recursion to characterize non-deterministic complexity
classes over arbitrary structures. In 3rd IFIP International Conference on
Theoretical Computer Science - TCS’2004, Toulouse, France, 2004. Kluwer
Academic Press.
[29] Olivier Bournez, Felipe Cucker, Paulin Jacobé de Naurois, and Jean-Yves
Marion. Logical characterizations of pK and npK over an arbitrary structure
k. 2005.
[30] Olivier Bournez, Paulin de Naurois, and Jean-Yves Marion. Safe recursion and calculus over an arbitrary structure. In Implicit Computational
Complexity - ICC’02, Copenhagen, Denmark, 2002.
5.3. MODÈLES FINIS
29
Activités d’Encadrement
Thèse
• Thèse de Paulin de Naurois. Completeness Results and Syntactic Characterizations of Complexity Classes over Arbitrary Structures. Soutenue le 15
Décembre 2004. Thèse en cotutelle avec City University, Hong Kong. Coencadrement avec F. Cucker, City University et J.Y. Marion (de octobre
2001 au 15 décembre 2004).
Responsabilités collectives en rapport
• Journée QSL au Loria. Co-organisation (avec Paulin de Naurois et JeanYves Marion) d’une journée QSL autour de “Et les autres modèles de
calcul ?”. 24 Mars 2005 .
30
CHAPITRE 5. COMPLEXITÉ DANS LE MODÈLE BSS
Chapitre 6
Programmation par règles
et stratégies
6.1
Motivation
Depuis plusieurs décennies, la théorie de la réécriture a prouvé sa puissance
dans différents contextes où des méthodes efficaces sont nécessaires pour raisonner avec des équations : voir par exemple [BN98, Klo92].
Dans la dernière décennie, la réécriture a aussi montré qu’elle offrait un
cadre très élégant pour la spécification de systèmes concurrents ou de systèmes
de déductions [MOM02, Mes92]. En particulier, la logique de réécriture offre
un environnement théorique pour cela [Mes92]. La notion de stratégie, permet
d’ajouter un contrôle de la logique de réécriture, en se restreignant à certaines
exécutions. Le calcul de réécriture [CK01] est un formalisme qui intègre les mécanismes fonctionnels du lambda-calcul et les capacités de filtrage de la réécriture,
et qui offre un moyen naturel de décrire la sémantique des systèmes à bases de
règles contrôlées par stratégies. Dans celui-ci les stratégies correspondent à des
règles particulières, et donc règles et stratégies sont au même niveau.
Le système ELAN [Pro] développé par l’équipe PROTHEO à Nancy est un
système logiciel fondé sur le calcul de réécriture.
L’ensemble du système ELAN inclus un préprocesseur, un interpréteur, et
un compilateur, ainsi que des bibliothèques standards. Parmi les caractéristiques
saillantes du système, on compte un langage de stratégies original et puissant
permettant de contrôler facilement l’application des règles, la possibilité d’utiliser le filtrage associatif et commutatif, la possibilité de définir des signatures
avec des syntaxes misfix, et un compilateur très efficace. Par l’utilisation de
techniques spécifiques de compilation [Mor00, MK98], ce dernier est capable de
générer du code qui applique jusqu’à 15 millions de règles de réécritures par
seconde sur des exemples où aucun non-déterminisme n’est présent, et entre 100
000 et un million de règles par seconde en présence d’opérateurs associatifs et
commutatifs et de non-déterminisme.
31
32
CHAPITRE 6. PROGRAMMATION PAR RÈGLES ET STRATÉGIES
Je me suis intéressé au système ELAN essentiellement en tant qu’outil de
prototypage. En effet, beaucoup d’algorithmes peuvent s’exprimer très facilement et rapidement à l’aide de quelques règles. Une fois celles-ci compilées en
un exécutable, on obtient un programme que l’on peut utiliser pour tester rapidement leur effet. Il est clair que ce processus permet de gagner beaucoup de
temps par rapport à une expérimentation dans les langages classiques impératifs.
En outre, les facilités d’écriture du système, permettent d’écrire certaines
règles, comme les règles de manipulation des contraintes symboliques, extrêmement rapidement et naturellement, par rapport aux autres outils disponibles sur
le marché, sans perte significative de performance. Il ne faut pas non plus négliger l’aspect pédagogique de la présentation en quelques règles d’un algorithme
par rapport à des milliers de lignes de code.
Une autre motivation de l’équipe PROTHEO derrière ces travaux est de
comprendre les bienfaits et les méfaits de la programmation par règles et stratégies, qui est assez particulière par rapport à la programmation impérative ou
par rapport à sa plus proche cousine, la programmation fonctionnelle.
6.2
Vérification Algorithmique de Systèmes Hybrides
Par l’intermédiaire de l’encadrement de plusieurs stagiaires et de Hassen
Kacem, ingénieur associé, je me suis intéressé au prototypage des algorithmes
de la vérification algorithmique (model-checking) pour les automates temporisés
et les systèmes hybrides : voir l’ouvrage [CGP99] pour une présentation de ces
algorithmes.
Le tout premier prototype a été réalisé par Emmanuel Beffara dans son
stage. Il a été considérablement étendu par Hassen Kacem, pour traiter la vérification d’automates temporisés [AD90] et aussi de systèmes hybrides linéaires
[ACH+ 95], ou des p-automates définis par le projet RNRT CALIFE.
Le prototype a été utilisé pour vérifier la conformité du protocole de l’ABR,
en utilisant la modélisation de ce problème proposée par nos partenaires du
projet RNRT CALIFE.
L’intérêt de l’outil obtenu est sa souplesse dans la possibilité de modifier,
expérimenter, comparer différents algorithmes ou méthodes pour la vérification
de systèmes hybrides. De telles facilités ne sont pas présentes dans les outils
dédiés. En outre, l’expression des algorithmes en calcul de réécriture permet de
donner un cadre unique pour décrire à la fois les systèmes et les algorithmes de
vérification sur ces systèmes.
D’un point de vue très pragmatique, notre prototype permet essentiellement
la vérification de propriétés d’atteignabilité (sûreté), sur un automate, ou un
produit d’automates. La vérification de telles propriétés nécessite la manipulation de certaines classes de contraintes. Plusieurs possibilités de représentations
sont offertes pour expérimentation, en fonction du type d’automate : matrices
de différences bornées, représentations symboliques par élimination de quantifi-
6.2. VÉRIFICATION ALGORITHMIQUE DE SYSTÈMES HYBRIDES
33
cateurs, ou représentations par matrices ad-hoc. Il est d’autre part possible de
faire de la vérification à la volée. L’ensemble de notre travail a été présenté dans
[31, 32].
Convaincu par notre approche, Bertrand Tavernier, de CRIL Technology,
qui développe l’outil logiciel CALIFE permettant l’interopérabilité de nombreux
systèmes de vérification et de tests, a invité Terence Soussan à consacrer son
stage de fin d’étude à réutiliser l’ensemble de nos règles pour la réalisation du
simulateur de l’outil CALIFE. Terence a considérablement étendu le prototype
de Hassen, et nous pouvons dire que le prototype est réellement utilisé à l’extérieur et à l’intérieur du système CALIFE. Ce travail rentre dans le cadre du
projet RNTL AVERROES.
Publications relatives
Conférences
[31] Emmanuel Beffara, Olivier Bournez, Hassen Kacem, and Claude Kirchner. Verification of timed automata using rewrite rules and strategies. In
Nachum Dershowitz and Ariel Frank, editors, Proceedings BISFAI 2001, Seventh Biennial Bar-Ilan International Symposium on the Foundations of Artificial Intelligence, Ramat-Gan, Israel, June 25–27, 2001.
[32] Emmanuel Beffara, Olivier Bournez, Hassen Kacem, and Claude Kirchner. Verification of timed automata using rewrite rules and strategies.
In Sixth Annual Workshop of the ERCIM Working Group on Constraints,
Prague, June 18–20, 2001.
Rapport de recherche
[33] Olivier Bournez, Terence Soussan, and Bertrand Tavernier. Symbolic
simulation and formal verification of updatable timed automata. Technical
report, LORIA, 2005.
Ingénieur associé
• Travail de Hassen Kacem, Ingénieur associé INRIA. Implémentation d’algorithmes de vérification d’automates temporisés dans le système ELAN.
Co-encadrement avec C. Kirchner (de septembre 2000 à septembre 2001).
Stage ENS Lyon
• Stage licence ENS Lyon de Emmanuel Beffara. Automates temporisés et
calcul de réécriture. Co-encadrement avec Claude Kirchner (6 semaines en
2000).
34
CHAPITRE 6. PROGRAMMATION PAR RÈGLES ET STRATÉGIES
Stages d’initiation à la recherche
• Stage “Mini-thèse” de l’École des Mines de Nancy de Nancy de Séverin Voisin. Automates temporisés et système ELAN. Co-encadrement avec Claude
Kirchner.
Participation à des projets
• Projet RNRT CALIFE. Membre du projet RNRT CALIFE.
• Projet RNTL AVERROES. Membre du projet RNTL AVERROES.
6.3
Génération de mécanismes réactionnels de
cinétique chimique
Par l’intermédiaire de la thèse de Liliana Ibanescu, en co-encadrement avec
Hélène Kirchner, j’ai eu l’occasion de travailler avec plusieurs chimistes du Département Chimie Physique des Réactions (DCPR) de l’école d’ingénieur ENSIC
de Nancy, en particulier avec le groupe de Guy-Marie Côme.
Le travail, qui s’est effectué dans le cadre d’un contrat industriel avec PSA Citroên Automobiles, concerne la génération de mécanismes cinétiques expliquant
les réactions qui se produisent dans les chambres de combustion des moteurs
automobiles Diesel.
Le DCPR a développé toute une expertise des mécanismes cinétiques intervenant dans la combustion des diesels [Côm01]. Le nombre d’espèces chimiques
impliquées étant très grand, et le nombre de mécanismes cinétiques élémentaires
étant hors de porté humaine, l’équipe de Guy-Marie Côme a développé le système logiciel EXGAS pour générer automatiquement de façon exhaustive ces
mécanismes.
Par la conception même de ses structures de données, le système développé
est limité aux molécules acycliques ou mono-cycliques. L’objectif du travail de
la thèse de Liliana Ibanescu était de traiter aussi les molécules polycycliques,
comme les molécules aromatiques.
Nous avons développé tout un système, nommé Gasel, basé sur le système
ELAN. Il permet la génération de mécanismes détaillés d’oxydation et de combustion de molécules d’hydrocarbures polycycliques, en se limitant actuellement
au mécanisme primaire.
Le principe même du système consiste en le codage de chacune des réactions élémentaires génériques par des règles de réécritures sur une signature bien
choisie. La signature a été choisie pour être très proche de la notation SMILES
[Daya, Dayb], de façon à augmenter l’interopérabilité. En particulier, cela rend
possible d’utiliser des interfaces graphiques en entrée et en sortie. Le contrôle
de l’activation ou de la désactivation des mécanismes est réalisé par l’utilisation
des opérateurs de stratégies du langage d’ELAN. Le système est présenté dans
[34, 35].
6.3. GÉNÉRATION DE MÉCANISMES CHIMIQUES
35
Nous pensons le système obtenu très flexible, et adéquat à l’utilisation qui en
est faite par les chimistes. En effet, ces derniers ont besoin de tester régulièrement
de nouvelles hypothèses, par l’activation/désactivation de certains mécanismes,
ce que permet de faire très facilement le prototype par le langage de stratégies
du système ELAN sous-jacent. Liliana Ibanescu a d’autre part engagé une série
de validations avec les chimistes de la correction des mécanismes produits par
le prototype vis-à-vis des résultats expérimentaux : voir sa thèse.
Si le prototype est essentiellement l’oeuvre de Liliana, plusieurs étudiants
ont aussi contribué à des apports spécifiques sous mon encadrement : Nicolas
Hournau, Mathieu Rinck and Belmhel Kassab ont réalisé une interface entre
Gasel et le système THERGAS [MMSC95], pour permettre de récupérer les paramètres thermodynamiques des espèces générées. Régis Durand a développé des
procédures spécifiques pour tester si deux termes représentent la même molécule
(algorithmes de canonicité inspirés de ceux de SMILES [WWW89]). Pierre Henninger a réalisé une interface graphique en entrée et en sortie pour le système
Gasel.
La motivation des partenaires chimiques impliqués derrière cet outil, est de
comprendre les réactions chimiques relatives aux molécules polycycliques. Une
des grandes difficultés du travail de Liliana a été liée au fait que la chimie même
de ces molécules n’est pas parfaitement connue, et donc que l’écriture de règles
les codant est nécessairement difficile.
Le partenaire industriel, PSA, est lui motivé par la possibilité à terme de
reformuler les carburants automobiles pour réduire encore la consommation ou
les émissions de polluants, et améliorer la conception des moteurs.
Actuellement les règles générées se limitent à une représentation symbolique
qualitative non-quantitative de ce qui se passe. En particulier, les paramètres
cinétiques et thermodynamiques ne sont pas générés ou utilisés.
Il serait toutefois envisageable dans ce cadre d’utiliser les techniques de la
vérification des systèmes hybrides pour la détection de la présence de certaines
espèces dans un mécanisme réactionnel, ou d’adapter certaines techniques d’abstraction, ou de gestion de l’explosion combinatoire de la vérification pour respectivement la simplification à posteriori des mécanismes réactionnels obtenus,
et la gestion de l’explosion combinatoire des mécanismes cinétiques obtenus.
Réciproquement, même si le point est plus prospectif, je crois aussi en la possibilité d’utiliser certains raisonnements de la chimie, comme les raisonnements
entropiques, pour la gestion de l’explosion combinatoire de certains systèmes,
ou la simplification de règles.
Le principe utilisé par le système Gasel pour le codage des molécules polycycliques en des termes, mène à une façon de simuler une certaine réécriture
de graphes par de la réécriture de termes. Le développement théorique de cette
idée a été présenté dans [36].
36
CHAPITRE 6. PROGRAMMATION PAR RÈGLES ET STRATÉGIES
Publications relatives
Conférences
[34] Olivier Bournez, Guy-Marie Côme, Valérie Conraud, Hélène Kirchner,
and Liliana Ibanescu. Automated generation of kinetic chemical mechanisms using rewriting. In P.M.A. Sloot, D. Abramson, A.V. Bogdanov, J.J.
Dongarra, A.Y. Zomaya, and Y.E. Gorbachev, editors, International Conference on Computational Science - ICCS 2003, Melbourne, June 2-4, 2003,
Proceedings, Part III, volume 2659 of Lecture Notes in Computer Science,
pages 367–376. Springer, 2003.
[35] Olivier Bournez, Guy-Marie Côme, Valérie Conraud, Hélène Kirchner,
and Liliana Ibanescu. A rule-based approach for automated generation
of kinetic chemical mechanisms. In Robert Nieuwenhuis, editor, Rewriting
Techniques and Applications, 14th International Conference, RTA 2003, Valencia, Spain, June 9-11, 2003, Proceedings, volume 2706 of Lecture Notes
in Computer Science, pages 30–45. Springer, 2003.
[36] Olivier Bournez, Liliana Ibanescu, and Hélène Kirchner. From chemical rules to term rewriting. In 6th International Workshop on Rule-Based
Programming, Nara, Japan, April 2005.
Activités d’Encadrement
Thèse
• Thèse de Mariana Liliana Ibanescu. Programmation par règles et stratégies
pour la génération automatique de mécanismes de combustion d’hydrocarbures polycycliques. Soutenue le 14 Juin 2004. Co-encadrement avec Hélène
Kirchner, en collaboration avec le Département Chimie Physique des Réactions (DCPR) de l’École Nationale Supérieure des Industries Chimiques
(ENSIC) (de janvier 2001 au 14 juin 2004).
Distinction : Prix de Thèse de l’Institut National Polytechnique de Lorraine.
Stages d’ingénieur
• Stage de deuxième année ESIAL de Pierre Henninger. Développement
d’une interface d’entrée/sortie pour le système Gasel. (juillet/août 2003).
• Stage de deuxième année ESIAL de Régis Durand. Algorithmes de canonicité pour la représentation des molécules polycyclique. (juillet/août
2003).
Stages d’initiation à la recherche
• Stage d’initiation à la recherche de la maı̂trise UHP Nancy I de Yiyang
Zhong. Modélisation en TOM de CSMA/CA.
6.3. GÉNÉRATION DE MÉCANISMES CHIMIQUES
37
• Stage d’initiation à la recherche de la maı̂trise UHP Nancy I de Nicolas
Hournau, Belmhel Kassab et Mathieu Rinck. Connexion entre les systèmes
EXGAS et Gasel.
• Stage d’initiation à la recherche de l’école d’ingénieur ESIAL de Ronan
Daniellou, Christophe Mayer et Nelson Nogueira. Visualisation graphiques
d’arbres et de termes. Co-encadrement avec Pierre-Etienne Moreau.
Développements logiciel
• Système Gasel: Co-encadrement de la thèse de Liliana Ibanescu qui
visait à la création du système logiciel Gasel basé sur le système ELAN
pour la génération automatique de mécanismes cinétiques chimiques de
combustion d’hydrocarbures dans les moteurs diesels.
• Prototype pour la vérification d’automates temporisés et hybrides: Encadrement et participation active au développement avec l’ingénieur associé Hassen Kacem de prototypes permettant d’utiliser le système ELAN pour la vérification d’automates temporisés et hybrides.
http ://www.loria.fr/ bournez/logiciels.html.
38
CHAPITRE 6. PROGRAMMATION PAR RÈGLES ET STRATÉGIES
Chapitre 7
Réécriture en présence de
probabilités ou de flou
7.1
Motivation
Comme nous l’avons écrit dans le chapitre précédent, depuis la dernière
décennie, les langages à base de règles se concentrent sur l’utilisation de la réécriture en tant qu’outil de modélisation, par l’intermédiaire d’outils théoriques
comme la logique de réécriture [Mes92], le calcul de réécriture [CK01], ou par
l’intermédiaire d’outils logiciels comme le système MAUDE [CDE+ 03] ou le système ELAN [Pro].
Pour étendre les possibilités de modélisation des langages à base de règles,
il est assez naturel de considérer que le déclenchement des règles peut être sujet
à certaines lois de probabilité.
Comprendre la réécriture en présence de choix probabilistes ouvre la voie à
de nombreux problèmes reliés aux concepts sous-jacents, aux modèles adéquats,
leurs propriétés, et aux techniques de preuve adaptées.
La combinaison du concept d’application explicite de règles et de choix probabilistes a de nombreuses applications, parmi lesquelles on peut citer les bases
de données probabilistes [Sub01], les agents probabilistes [DBC01], les algorithmes génétiques [Gol89], les algorithmes randomisés [MR95], les procédures
de preuve randomisées [LMS95]...
L’idée d’ajouter des probabilités aux modèles haut niveaux des systèmes
réactifs n’est pas nouvelle, est a été explorée pour des modèles comme les réseaux
de Petri [Bal01, SM01], les modèles basés sur les automates [dA98, Var85], les
algèbres de processus [Han94]. Il y a maintenant toute une littérature importante
sur les techniques de la vérification algorithmique (model-checking) pour les
systèmes probabilistes : voir par exemple [Kwi03] et ses références. Des outils
logiciels comme PRISM [KNP02], APMC [HLMP04],. . .existent.
Notre spécificité est de se baser sur les modèles à base de règles. D’autre
part, on peut dire que la plupart des études et des techniques de preuve se
39
40
CHAPITRE 7. RÉÉCRITURES EXOTIQUES
restreignent aux systèmes à états finis, alors que nous ne faisons jamais cette
hypothèse.
Un point de vue différent a été développé pour étendre les processus de règles
de gestion de contraintes (Constraint Handling Rules) avec des probabilités dans
la série de papiers [FDPW01, PW98a, PW98c, PW98b, PW00]. Cela constitue
nos plus proches voisins, avec [NSMA03] qui se place sur un point de vue plus
appliqué que le notre.
7.2
Stratégies probabilistes
Dans [37], nous avons abordé la notion de réécriture en présence de probabilités par la proposition d’un opérateur de choix probabiliste pour les langages
à base de règles contrôlées par stratégies comme le système ELAN. Nous avons
montré que cet opérateur offrait un moyen naturel de spécifier les algorithmes
randomisés ou tous les systèmes sujets à des choix probabilistes. Un exemple
explicite de système de règles effectuant un tri probabiliste a été présenté.
Un premier prototype de système logiciel permettant d’utiliser ces opérateurs
de stratégies dans le système ELAN a été réalisé par Djamel Abdemouche dans
son stage.
La deuxième partie du papier [37], pose la question de la généralisation de
notions comme la confluence ou la terminaison pour les systèmes probabilistes.
Nous introduisons pour cela la notion de système abstrait de réduction probabiliste, généralisant la notion de système abstrait de réduction en réécriture, et
nous introduisons des notions comme la confluence probabiliste, la confluence
presque sûre, la terminaison presque sûre, et établissons quelques résultats sur
les relations existantes entre ces notions.
Publications relatives
Conférences
[37] Olivier Bournez and Claude Kirchner. Probabilistic rewrite strategies :
Applications to ELAN. In Sophie Tison, editor, Rewriting Techniques and
Applications, volume 2378 of Lecture Notes in Computer Science, pages 252–
266. Springer-Verlag, July 22-24 2002.
Activités d’Encadrement
Stage de DEA
• Stage de DEA de Djalel Abdemouche. Systèmes hybrides, calcul de réécriture et règles probabilistes. Co-encadrement avec Claude Kirchner. DEA
UHP Nancy I, de février 2001 à septembre 2001.
7.3. LOGIQUE DE RÉÉCRITURE PROBABILISTE
7.3
41
Logique de réécriture probabiliste
Les axiomes de la logique de réécriture, qui sont des règles de réécriture de
la forme t → t0 , où t et t0 sont des termes sur une signature donnée, peuvent
être lus de deux façons duales : en tant que calcul, t → t0 peut se voir comme
la transition locale d’un système concurrent, en tant que déduction, t → t0 peut
se voir comme la règle d’inférence d’une logique [Mes92].
Il est bien connu que la clôture transitive et réflexive de la relation induite
par un système de réécriture peut être prouvée comme correspondante à la plus
petite relation transitive et réflexive qui contient les équations du système de
réécriture, et qui est close par substitutions et par les opérations de la signature
[BN98]. En d’autres termes, on peut construire un système de preuve valide et
complet pour décider si deux termes sont en relation par la clôture transitive
et réflexive de la relation de réduction d’un système de réécriture donné. Ce
système de preuve peut être vu comme les règles de déduction de la logique
de réécriture [Mes92], et constitue un ingrédient essentiel de cette dualité entre
calcul et déduction dans la logique de réécriture.
Par l’intermédiaire du stage de Mathieu Hoyrup, je me suis posé la question
de savoir si ce type de résultats reste vrai dans des systèmes de règles où le
déclenchement des règles peut être sujet à des choix probabilistes.
Nous avons montré qu’il n’y a aucun espoir de construire un système valide
et complet qui saurait déterminer si deux termes sont en relation par la clôture
réflexive et transitive par la relation de réduction d’un système de réécriture
avec des probabilités associées aux règles dans le cas général [38]. L’ingrédient
essentiel de cette preuve est une réduction du problème vers un problème de
décision sur les matrices qui est prouvé non-récursivement énumérable.
Nous avons toutefois montré dans [38] que dans un cadre plus restreint, il
existe une logique de réécriture probabiliste. La différence fondamentale avec le
cadre classique, est que l’annotation explicite par les termes de preuve devient
nécessaire dans le cas probabiliste. Si les termes de preuves sont présents, alors
il existe un système de preuve valide et complet.
Ces résultats peuvent être mis en correspondance avec ceux de [Hal89] à
propos des liens entre logique du premier ordre, probabilités et systèmes de
preuve. Voir aussi par exemple [SK66, Bac90, HH78, GS82, Nil86, WM94, Hal98,
Hal03] pour des discussions plus générales entre les relations entre logiques et
probabilités.
Par l’intermédiaire du stage de Guillaume Burel, nous avons aussi exploré
les liens entre nos résultat et l’ensemble des résultats établis par Halpern sur la
théorie de la preuve en présence de probabilités.
Publications relatives
Conférences
[38] Olivier Bournez and Mathieu Hoyrup. Rewriting logic and probabilities.
In Robert Nieuwenhuis, editor, Rewriting Techniques and Applications, 14th
42
CHAPITRE 7. RÉÉCRITURES EXOTIQUES
International Conference, RTA 2003, Valencia, Spain, June 9-11, 2003, Proceedings, volume 2706 of Lecture Notes in Computer Science, pages 61–75.
Springer, June 2003.
Activités d’Encadrement
Stages ENS
• Stage licence ENS Lyon de Guillaume Burel. Logique équationnelle et probabilités selon Halpern. Co-encadrement avec Claude Kirchner (6 semaines
en 2003).
• Stage licence ENS Lyon de Mathieu Hoyrup. Calcul de réécriture en présence de choix probabilistes. Co-encadrement avec Claude Kirchner (6 semaines en 2002).
7.4
Autres notions d’incertitude
En cherchant à comprendre s’il était possible de construire une théorie de
la preuve en présence d’équations avec probabilités, nous avons mis en évidence
qu’il était en fait possible de construire une théorie de la preuve équationnelle
dans un cadre distinct, celui de la logique floue. Nous avons établi qu’il est
possible de construire une théorie de la preuve équationnelle qui est valide et
complète pour la preuve d’équations en logique floue. Ce résultat est présenté
dans [39].
Nous n’avons pas vraiment cherché à pousser plus loin les investigations.
Mais il semble que ce que nous avons obtenu présente des résultats parallèles
à [Bel02]. Notre cadre est un peu différent, et nos résultats complètent bien ce
papier.
Publications relatives
Conférences
[39] Olivier Bournez. A generalization of equational proof theory ? In Holger Hermanns and Roberto Segala, editors, Process Algebra and Probabilistic Methods : Performance Modeling and Verification, volume 2399 of Lecture Notes in Computer Science, pages 208–209. Springer-Verlag, July 25–26
2002.
Rapports de Recherche
[40] Olivier Bournez. Fuzzy equational theories. Technical report, LORIA,
2003.
7.5. PREUVE DE TERMINAISON PRESQUE SÛRE
7.5
43
Preuve de terminaison presque sûre
Par l’intermédiaire de la thèse de Florent Garnier, avons cherché à comprendre les techniques utilisables pour prouver la terminaison presque sûre d’un
ensemble de règles probabilistes.
Par analogique avec la terminologie utilisée dans les chaı̂nes de Markov, nous
avons proposé de distinguer la terminaison presque sûre positive (le nombre
moyen de dérivations pour atteindre un terminal est fini) du cas général.
Nous avons établi qu’un système est positivement presque sûrement terminant s’il existe une fonction de valuation qui envoie les états du système sur
l’ensemble des réels, telle que chaque règle fait décroı̂tre en moyenne la valuation d’une quantité uniforme positive. Cela constitue une technique de preuve
valide pour la terminaison presque sûre des systèmes de réécriture probabilistes,
que nous avons prouvé complète pour le cas des systèmes finiment branchants
[41].
Nous avons récemment proposé des extensions de cette technique pour la
preuve de terminaison presque sûre positive sous stratégies dans [42]. Grâce
à un résultat issu de la théorie des martingales, nous avons établi quelques
conditions suffisantes pour cela, qui étendent en quelque sorte [HSP83, HS85] à
la terminaison presque sûre positive.
Ces résultats ont été utilisés par Florent Garnier pour prouver la terminaison
presque sûre positive du protocole CSMA/CA [CSM] utilisé pour les communications WIFI, dans le cadre du projet RNTL AVERROES : voir [43].
Publications relatives
Conférences
[41] Olivier Bournez and Florent Garnier. Proving positive almost sure termination. In Jürgen Giesl, editor, 16th International Conference on Rewriting
Techniques and Applications (RTA’2005), volume 3467 of Lecture Notes in
Computer Science, page 323, Nara, Japan, 2005. Springer.
[42] Olivier Bournez and Florent Garnier. Proving positive almost sure termination under strategies. In 17th International Conference on Rewriting Techniques and Applications (RTA’2006), Lecture Notes in Computer Science,
Seattle, WA, USA, 2006. Springer.
Rapports de Recherche
[43] Olivier Bournez Florent Garnier Claude Kirchner. Termination in finite
mean time of a csma/ca rule-based model. Technical report, LORIA, Nancy,
2005.
44
CHAPITRE 7. RÉÉCRITURES EXOTIQUES
Activités d’Encadrement
Thèse
• Thèse de Florent Garnier. Modèles, Logiques et Outils pour la Spécification
et l’Analyse de Systèmes Probabilistes. Depuis Novembre 2003. Rédaction
en cours.
7.6
Autres activités en rapport
Responsabilités collectives en rapport
• Projet RNTL AVERROES. Membre du projet RNTL AVERROES.
Chapitre 8
Modèles de Calculs à
Temps Continus
8.1
Motivation
La puissance des modèles de calculs à temps et espace discrets est relativement bien comprise grâce à la thèse de Church : en effet, celle-ci postule que
tous les modèles raisonnables et suffisamment puissants ont la même puissance,
celle des machines de Turing.
On peut toutefois considérer des modèles de calculs où l’espace est continu.
C’est par exemple le cas du modèle de Blum Shub et Smale de calcul sur les
réels [BSS89], et en quelque sorte de l’analyse récursive [Wei00]. Ces modèles
sont à temps discret.
Mais on peut aussi considérer des modèles où temps et espace sont continus.
A vrai dire, les toutes premières machines construites étaient de ce type. Cela
inclue le modèle de machine le plus célèbre historiquement, l’analyseur différentiel construit pour la première fois sous la supervision de Vannevar Bush au
MIT en 1931 [Bus31], mais aussi le Finance Phalograph de Phillips, qui est une
machine construite à la même époque pour résoudre des problèmes d’économie
par analogie avec des problèmes de mécanique des fluides, et dans un certain
sens le planimètre de Herman construit en 1814, la Pascaline construite en 1642,
et même le mécanisme d’Anticythère datant de 87 avant Jésus Christ. Nous renvoyons notre lecteur au très instructif Analog Computer Museum [Cow] de Doug
Coward.
Le premier vrai modèle mathématique d’une machine universelle est due
à Claude Shannon [Sha41], qui a été opérateur sur l’analyseur différentiel de
Bush au MIT. L’intérêt pour les réseaux de neurones artificiels a motivé une
résurgence d’intérêt pour les systèmes de calculs à temps continu. Mais la plupart
de la littérature s’intéressant à leurs propriétés calculatoires se focalise sur les
modèles à temps discret [Orp97, Orp94]. Une autre série de travaux est née
de problèmes liés à la complexité algorithmique de la vérification de propriétés
45
46
CHAPITRE 8. MODÈLES DE CALCULS À TEMPS CONTINUS
des systèmes hybrides [Bra95, AMP95]. Mais de tous ces travaux, il ressort
que la situation est beaucoup moins claire pour les systèmes à temps et espace
discrets. Très peu de résultats existent permettant une vraie comparaison entre
la puissance de calcul des modèles.
Par l’intermédiaire de plusieurs travaux, je me suis intéressé à mieux comprendre la puissance de plusieurs classes de modèles à temps continu.
Si s’intéresser à ces modèles à notre époque ou l’informatique digitale a
presque totalement remplacé l’informatique continue peut paraı̂tre anachronique, il est important de comprendre d’une part qu’il n’est pas si certain que
ces modèles ne sont pas surpuissants, et que les progrès de l’électronique permettent d’envisager de combler les défauts de l’électronique continue qui ont fait
migrer vers l’électronique digitale, mais surtout que toutes les questions qu’on
peut se poser sur ces modèles ont des conséquences directes sur des domaines
beaucoup plus larges que la seule compréhension des modèles de calculs. Par
exemple, à propos de la complexité de la vérification des systèmes continus et
hybrides, de la portée de certaines méthodes en théorie du contrôle, de la stabilité des schémas de résolution d’équations différentielles en analyse numérique,
de la robustesse des modèles par systèmes dynamiques continus . . .etc.
Si besoin de preuve il y a, on pourra observer la diversité des origines, et des
communautés, des gens s’intéressant aux propriétés calculatoires de différentes
classes de systèmes continus.
8.2
Systèmes continus et hyper-calculs
Une toute première question que l’on peut se poser est de comprendre si il
y a la moindre possibilité de sur-puissance dans les systèmes continus.
En particulier, avec Michel Cosnard, nous avions montré dans [48] que plusieurs classes de systèmes dynamiques et hybrides (à temps discret) avaient
au moins la puissance des classes de complexité non-uniformes : tout langage
en temps exponentiel et P/poly en temps polynomial. Pour les systèmes dynamiques à dérivée constante par morceaux considérés comme des systèmes à
temps discret, j’ai prouvé que ce résultat était en fait une caractérisation exacte
de leur puissance [48].
Dans mes travaux de thèse, j’avais présenté une caractérisation complète
de la puissance des systèmes à dérivée constante par morceaux lorsque qu’on
les considère comme des systèmes à temps continu. J’ai ainsi montré que ces
systèmes sont des modèles naturels de calculs qui reconnaissent exactement les
langages de la hiérarchie arithmétique lorsque l’on se place sur Qd et certaines
classes de la hiérarchie hyperarithmétique lorsque l’on se place sur Rd : voir
[49, 46, 45, 44].
Chacun de ces résultats semblent montrer qu’il y a une certaine sur-puissance
(hyper-calculs) dans les modèles continus, en utilisant des propriétés orthogonales : la possibilité de réels arbitraires pour la première série de résultats, et
la possibilité de contracter le temps pour la seconde. A chaque fois, on peut
critiquer cela par un certain manque de robustesse des modèles considérés.
8.2. SYSTÈMES CONTINUS ET HYPER-CALCULS
47
La question de l’existence de systèmes physiques, en particulier continus,
capables de réaliser des hyper-calculs, c’est-à-dire d’effectuer des calculs exploitables qui ne seraient pas réalisables par aucune machine de Turing, fait couler
beaucoup d’encre et de controverses. La situation n’est pas si claire qu’elle n’y
parait si on y réfléchit vraiment.
J’ai été invité à exprimer mon point de vue dans un numéro spécial sur le
sujet. Je me suis exécuté via l’article [47]. J’y rappelle, en me basant sur [Cop02],
plusieurs mauvaises compréhensions fréquentes de ce que dit précisément la
thèse de Church, et je présente un panorama de plusieurs classes de systèmes
mathématiques, avec la caractérisation de leur puissance.
Ce papier contient plusieurs résultats originaux, et peut aussi se voir comme
une remise à jour avec la compréhension actuelle des résultats qui existaient
lorsque j’ai débuté ma thèse.
Publications relatives
Thèse
[44] Olivier Bournez. Complexité Algorithmique des Systèmes Dynamiques
Continus et Hybrides. PhD thesis, Ecole Normale Supérieure de Lyon, Janvier 1999.
Revues
[45] Olivier Bournez. Achilles and the Tortoise climbing up the hyperarithmetical hierarchy. Theoretical Computer Science, 210(1) :21–71, 6 January 1999.
[46] Olivier Bournez. Some bounds on the computational power of piecewise
constant derivative systems. Theory of Computing Systems, 32(1) :35–67,
1999.
[47] Olivier Bournez. How much can analog and hybrid systems be proved
(super-)turing. Applied Mathematics and Computation, 2005. To appear.
[48] Olivier Bournez and Michel Cosnard. On the computational power of
dynamical systems and hybrid systems. Theoretical Computer Science,
168(2) :417–459, November 1996.
Conférences
[49] O. Bournez. Some bounds on the computational power of piecewise
constant derivative systems. In Pierpaolo Degano, Robert Gorrieri, and
Alberto Marchetti-Spaccamela, editors, Automata, Languages and Programming, 24th International Colloquium, volume 1256 of Lecture Notes in Computer Science, pages 143–153, Bologne, Italie, 7–11 July 1997. SpringerVerlag.
48
8.3
CHAPITRE 8. MODÈLES DE CALCULS À TEMPS CONTINUS
Approche algébrique
Parmi les modèles à temps continu, il y a la classe des fonctions R-récursives
introduite par Cris Moore dans [Moo96]. Le papier original de Moore présente
des idées fort intéressantes et très originales pour comprendre les calculs sur
les réels, qui peuvent se présenter de la façon suivante : puisqu’il n’y a pas de
notion de machine universellement acceptée dans le monde continu, pourquoi ne
pas contourner le problème en partant des caractérisations des classes de complexité/calculabilité qui s’affranchissent de notions de machines, en particulier
des caractérisations algébriques.
Cependant, les concepts et définitions du papier de Moore présentent de
nombreux problèmes, discutés dans plusieurs papiers. En particulier, l’opérateur
de minimisation de Moore, qui permet de reconnaı̂tre des langages arithmétiques
et hyperarithmétiques en temps constant, semble clairement trop puissant.
Manuel Campagnolo dans sa thèse [Cam01], supervisée par Félix Costa et
Cris Moore, propose l’idée très intéressante de se limiter aux classes primitives
récursives, i.e. sans opérateur de minimisation, et montre que le remplacement
de l’opérateur d’intégration de Moore par un opérateur d’intégration linéaire
conduit à une classe de fonctions qui se relie naturellement aux fonctions élémentaires sur les entiers.
Par l’intermédiaire de la thèse de Emmanuel Hainry, je me suis intéressé à
comprendre si l’on ne pouvait pas aller encore plus loin : caractériser algébriquement les fonctions élémentairement calculables au sens de l’analyse récursive.
Dans [52, 53, 50], nous avons proposé d’ajouter un opérateur limite et montré
que la classe de fonctions obtenue caractérise exactement les fonctions élémentairement calculables au sens de l’analyse récursive, pour les fonctions de classe
C 2 , définies sur un compact.
En d’autres termes, nous montrons que les fonctions élémentairement calculables au sens de l’analyse récursive correspondent à la plus petite classe de
fonctions contenant certaines fonctions de base, et close par composition, intégration linéaire, et un schéma limite.
A notre connaissance, c’est la première fois que l’on caractérise de façon
indépendante de toute notion de machine, une classe de fonctions en analyse
récursive. Notre seul concurrent [Kaw05] utilise des schémas qui ne relève pas
du tout du domaine de l’analyse en mathématiques. En particulier, cela montre
qu’on peut définir ces classes sans parler de machines de Type 2, ou de machines d’ordre supérieur. Entre autres, cela semble appréciable d’un point de
vue pédagogique pour présenter l’analyse récursive.
Ce résultat permet aussi de relier finement deux modèles à priori distincts
de calculs sur les réels : l’analyse récursive, et les fonctions R-récursives.
Les papiers [52, 53, 50] généralisent aussi ces résultats aux niveaux de la
hiérarchie de Grzegorczyk.
Dans [54, 51], nous nous sommes intéressés à comprendre s’il était possible
d’ajouter un schéma de minimisation qui rendrait possible une caractérisation
des fonctions calculables en analyse récursive (et pas seulement élémentairement
calculables). Nous avons proposé un opérateur, relativement naturel, pour cela.
8.4. A PROPOS DU GENERAL PURPOSE ANALOG COMPUTER
49
En quelque sorte, le problème que nous résolvons est la définition d’un opérateur, suffisamment puissant pour que la classe considérée aie au moins la
puissance des machines de Turing, mais ne soit pas sur puissant pour avoir les
problèmes de celui de [Moo96] ou les phénomènes de contraction de temps (phénomène de Zénon) de [AM98, 44, EN02, Hog92, Moo96], fortement critiquables
du point de vue de la robustesse dans chacun de ces modèles.
Publications relatives
Revues
[50] Olivier Bournez and Emmanuel Hainry. Elementarily computable functions over the real numbers and R-sub-recursive functions. Theoretical Computer Science, 348(2–3) :130–147, 2005.
[51] Olivier Bournez and Emmanuel Hainry. Recursive analysis characterized
as a class of real recursive functions. Fundamenta Informaticae, 2006. To
appear.
Conférences
[52] Olivier Bournez and Emmanuel Hainry. An analog characterization of
elementarily computable functions over the real numbers. In In 2nd APPSEM II Workshop (APPSEM’04), Tallinn, Estonia, April 2004.
[53] Olivier Bournez and Emmanuel Hainry. An analog characterization of
elementarily computable functions over the real numbers. In Josep Diaz,
Juhani Karhumäki, Arto Lepisto, and Donald Theodore Sannella, editors,
31th International Colloquium on Automata Languages and Programming
(ICALP’04), volume 3142 of Lecture Notes in Computer Science, pages 269–
280, Turku, Finland, 2004. Springer.
[54] Olivier Bournez and Emmanuel Hainry. Real recursive functions and real
extentions of recursive functions. In Maurice Margenstern, editor, Machines,
Computations and Universality (MCU’2004), volume 3354 of Lecture Notes
in Computer Science, Saint-Petersburg, Russia, September 2004.
8.4
A propos du General Purpose Analog Computer
Comme nous l’avons écrit, le General Purpose Analog Computer (GPAC)
de Claude Shannon [Sha41] est le premier vrai modèle d’un système de calcul
continu universel. Il a été proposé comme un modèle théorique de l’analyseur
différentiel du MIT sur lequel Shannon était opérateur.
Shannon affirme dans [Sha41] que les fonctions générables par GPAC doivent
être différentiellement algébriques. L’existence de fonctions calculables en analyse récursive mais non différentiellement algébriques comme la fonction Γ ou ζ
50
CHAPITRE 8. MODÈLES DE CALCULS À TEMPS CONTINUS
de Riemann [Rub89] a souvent historiquement été utilisée pour argumenter que
le modèle du GPAC a une puissance plus faible que l’analyse récursive.
Cependant, avec Manuel Campagnolo, Daniel Graça, et Emmnanuel Hainry,
nous avons prouvé que cela est plus dû à la notion de GPAC-calculabilité plutôt
qu’au modèle.
En particulier, nous nous sommes intéressés à la question parce que Daniel
Graça, qui m’a rendu visite pendant environ une année, a prouvé que la fonction
Γ est en fait GPAC-calculable si l’on prend une notion de calcul par “calculs
convergents” comme en analyse récursive.
Nous avons montré dans [55], qu’avec une telle notion de GPAC-calculabilité,
GPAC et analyse récursive sont en fait équivalents d’un point de vue de leur
puissance de calcul. Ce résultat contribue à montrer qu’il n’est peut-être pas si
utopique d’arriver à construire une thèse de Church pour les systèmes continus.
Publications relatives
Conférences
[55] Olivier Bournez, Manuel L. Campagnolo, Daniel Graça, and Emmanuel
Hainry. The General Purpose Analog Computer and Computable Analysis
are Two Equivalent Paradygms of Analog Computation. In Theory And
Applications of Models of Computation (TAMC’06), May 15th-20th, Beijing
(China), Lecture Notes in Computer Science. Springer-Verlag, May 2006.
Activités d’Encadrement
Thèse
• Thèse de Emmanuel Hainry. Modèles de Calculs Continus. Depuis Septembre 2003. Rédaction en cours.
Stage de DEA
• Stage de DEA de Emmanuel Hainry. Fonctions réelles calculables et fonctions R-récursives. DEA ENS-Lyon, de février 2003 à juillet 2003.
8.5
Modèles du dynamisme en Théorie des jeux
Je m’intéresse actuellement à quelques problèmes reliés à des modèles de la
théorie algorithmique des jeux, et de la théorie évolutionnaire des jeux.
Les problèmes auquel je m’intéresse sont reliés à des problèmes d’algorithmique pour les réseaux de capteurs et les réseaux de télécommunications.
Je pense que les modèles issus de ces théories présentent des classes de modèles à espace ou temps continus particuliers naturels, pour étudier ce type de
problèmes.
8.6. RESPONSABILITÉS COLLECTIVES
51
Ces affirmations pouvant paraı̂tre gratuites, et étant tout du moins non classiques, je propose d’étendre mon point de vue plus longuement dans le document
scientifique à ce sujet.
Plus généralement, tout ce chapitre se trouve nettement plus développé dans
le document scientifique.
Activités d’Encadrement
Stages ENS
• Stage prédoctorat 1ière année ENS Paris de Xavier Koegler. Protocoles de
population continus. Co-encadrement avec Johanne Cohen (2 mois en 2006).
• Stage licence ENS Lyon de André Chailloux. Mécanismes de théorie des
jeux et algorithmique. Co-encadrement avec Johanne Cohen (6 semaines
en 2005).
• Stage licence ENS Lyon de Damien Regnault. Logiques sur les graphes et
protocoles de diffusion. Co-encadrement avec Johanne Cohen (6 semaines
en 2003).
8.6
Responsabilités collectives
• Action SOGEA. Coordinateur scientifique de l’Action de Recherche Amont
SOGEA “Security of Games. Equilibria and Distributed Algorithms”. Voir
http ://sogea.loria.fr. Organisation de plusieurs journées d’exposés à ce
titre.
• PAI PESSOA. Coordinateur d’un Programme d’Actions Intégrées (PAI)
PESSOA avec Manuel Campagnolo au Portugal.
• CIE 2007. Co-organisateur de la session spéciale “Logic and New Paradigms of Computability” de la conférence internationale Computability in
Europe 2007.
• Workshop à Lisbonne. Co-organisation (avec Manuel Campagnolo) d’un
workshop à Lisbonne le 27 et 28 juin 2005 sur la complexité continue..
• Réseau CIE. Leader du noeud Français du réseau “Computability in Europe”.
Voir http ://www.maths.leeds.ac.uk/ pmt6sbc/cie.html. .
• CIE 2006. Membre du comité de Programme de la conférence “Computability in Europe 2006” .
• CIE 2009. Membre du comité de Programme de la conférence “Computability in Europe 2009” .
52
CHAPITRE 8. MODÈLES DE CALCULS À TEMPS CONTINUS
Chapitre 9
Références
[AA97]
A. Aguilera and D. Ayala. Orthogonal polyhedra as geometric
bounds in constructive solid geometry. In SMA ’97 : Proceedings of
the Fourth Symposium on Solid Modeling and Applications, pages
56–67, Atlanta (GE), USA, 14–16 May 1997.
[AA98]
A. Aguilera and D. Ayala. Domain extension for the extreme vertices
model (EVM) and set-membership classification. In CSG’98. SetTheoretical Solid Modeling : Techniques and Applications, pages 33–
47, 1998.
[ACH+ 95] R. Alur, C. Courcoubetis, N. Halbwachs, T. A. Henzinger, P. H. Ho,
X. Nicollin, A. Olivero, J. Sifakis, and S. Yovine. The algorithmic
analysis of hybrid systems. Theoretical Computer Science, 138(1) :3–
34, 6 February 1995.
[AD90]
R. Alur and D. L. Dill. Automata for modeling real-time systems.
In Automata, Languages and Programming, 17th International Colloquium, volume 443 of Lecture Notes in Computer Science, pages
322–335. Springer-Verlag, 16–20 July 1990.
[AM98]
Eugene Asarin and Oded Maler. Achilles and the tortoise climbing
up the arithmetical hierarchy. Journal of Computer and System
Sciences, 57(3) :389–398, December 1998.
[AMP95]
Eugene Asarin, Oded Maler, and Amir Pnueli. Reachability analysis
of dynamical systems having piecewise-constant derivatives. Theoretical Computer Science, 138(1) :35–65, February 1995.
[ASV90]
Serge Abiteboul, Eric Simon, and Victor Vianu. Non-deterministic
languages to express deterministic transformations. In ACM, editor, PODS ’90. Proceedings of the Ninth ACM SIGACT-SIGMODSIGART Symposium on Principles of Database Systems : April 2–4,
1990, Nashville, Tennessee, volume 51(1) of Journal of Computer
and Systems Sciences, pages 218–229, New York, NY 10036, USA,
1990. ACM Press.
53
54
CHAPITRE 9. RÉFÉRENCES
[AV89]
Serge Abiteboul and Victor Vianu. Fixpoint extensions of first-order
logic and Datalog-like languages. In Proceedings 4th Annual IEEE
Symp. on Logic in Computer Science, LICS’89, Pacific Grove, CA,
USA, 5–9 June 1989, pages 71–79. IEEE Computer Society Press,
Los Alamitos, CA, 1989.
[AV91]
Serge Abiteboul and Victor Vianu. Datalog extensions for database
queries and updates. Journal of Computer and System Sciences,
43(1) :62–124, August 1991.
[Bac90]
F. Bacchus. Representing and reasoning with probabilistic knowledge. MIT-Press, 1990.
[Bal01]
Gianfranco Balbo. Introduction to stochastic Petri nets. Lecture
Notes in Computer Science, 2090 :84, 2001.
[BC92]
S. Bellantoni and S. Cook. A new recursion-theoretic characterization of the poly-time functions. Computational Complexity, 2 :97–
110, 1992.
[BCSS98]
Lenore Blum, Felipe Cucker, Michael Shub, and Steve Smale. Complexity and Real Computation. Springer-Verlag, 1998.
[Bel94]
S. Bellantoni. Predicative recursion and the polytime hierarchy. In
Peter Clote and Jeffery Remmel, editors, Feasible Mathematics II,
Perspectives in Computer Science. Birkhäuser, 1994.
[Bel02]
Radim Belohlávek. Fuzzy equational logic. Mathematical Logic
Quarterly, 41 :83–90, 2002.
[BN98]
Franz Baader and Tobias Nipkow. Term Rewriting and All That.
Cambridge University Press, 1998.
[Bon89]
Anthony J. Bonner. Hypothetical Datalog : Negation and linear
recursion. In Proceedings of the Eighth ACM SIGACT-SIGMODSIGART Symposium on Principles of Database Systems, pages 286–
300, Philadelphia, Pennsylvania, 29–31 March 1989.
[Bra95]
M. S. Branicky. Universal computation and other capabilities of
hybrid and continuous dynamical systems. Theoretical Computer
Science, 138(1) :67–100, 6 February 1995.
[BSS89]
L. Blum, M. Shub, and S. Smale. On a theory of computation
and complexity over the real numbers ; np completeness, recursive
functions and universal machines. Bulletin of the American Mathematical Society, 21(1) :1–46, July 1989.
[Bus31]
V. Bush. The differential analyser. Journal of the Franklin Institute,
pages 447–488, 1931.
[Cam01]
Manuel Lameiras Campagnolo. Computational complexity of real
valued recursive functions and analog circuits. PhD thesis, IST,
Universidade Técnica de Lisboa, 2001.
[CDE+ 03] Manuel Clavel, Francisco Durán, Steven Eker, Patrick Lincoln, Narciso Martı́-Oliet, José Meseguer, and Carolyn Talcott. The maude
55
2.0 system. In Robert Nieuwenhuis, editor, Rewriting Techniques
and Applications (RTA 2003), number 2706 in Lecture Notes in
Computer Science, pages 76–87. Springer-Verlag, June 2003.
[CGP99]
E. Clarke, O. Grumberg, and D. Peled. Model checking, 1999.
[CK01]
Horatiu Cirstea and Claude Kirchner. The rewriting calculus —
Part I and II. 9(3) :427–498, May 2001.
[Clo95]
P. Clote. Computational models and function algebras. In D. Leivant, editor, LCC’94, volume 960 of Lecture Notes in Computer
Science, pages 98–130, 1995.
[CM99]
Felipe Cucker and Klaus Meer. Logics which capture complexity
classes over the reals. J. Symb. Log, 64(1) :363–390, 1999.
[Cob62]
A. Cobham. The intrinsic computational difficulty of functions. In
Y. Bar-Hillel, editor, Proceedings of the International Conference on
Logic, Methodology, and Philosophy of Science, pages 24–30. NorthHolland, Amsterdam, 1962.
[Côm01]
Guy-Marie Côme. Gas-Phase Thermal Reactions. Chemical Engineering Kinetics. Kluwer Academic Publishers, 2001.
[Cop02]
B. Jack Copeland. The Church-Turing thesis. In Edward N. Zalta,
editor, The Stanford Encyclopedia of Philosophy. Fall 2002. Available online at : http ://plato.stanford.edu/entries/church-turing/ .
[Cow]
Doug Coward.
Doug coward’s analog computer musueum.
http ://dcoward.best.vwh.net/analog/.
[CSM]
Ieee
csma/ca
802.11
working
http ://www.ieee802.org/11/.
[dA98]
Luca de Alfaro. Formal Verification of Probabilistic Systems. PhD
thesis, Stanford University, 1998.
[Daya]
Daylight
Chemical
Information
Systems
Inc.,
http ://www.daylight.com/dayhtml/doc/theory/theory.smiles.html.
SMILES - A Simplified Chemical Language.
[Dayb]
Daylight
Chemical
Information
Systems
Inc.,
http
://www.daylight.com/dayhtml/smiles/smiles-intro.html.
SMILES Tutorial.
[DBC01]
Alain Dutech, Olivier Buffet, and François Charpillet. Multi-Agent
Systems by Incremental Gradient Reinforcement Learning. In 17th
International Joint Conference on Artificial Intelligence, Seattle,
WA, USA, volume 2, pages 833–838, August 2001.
[EF95]
H. Ebbinghaus and J. Flum. Finite Model Thoery. Perspectives
in Mathematical Logic, Omega Series. Springer–Verlag, Heidelberg,
1995.
[EN02]
Gábor Etesi and István Németi. Non-turing computations via
malament-hogarth space-times. International Journal Theoretical
Physics, 41 :341–370, 2002.
group
home
page.
56
[Fag74]
CHAPITRE 9. RÉFÉRENCES
R. Fagin. Generalized first order spectra and polynomial time recognizable sets. In R. Karp, editor, Complexity of Computation, pages
43–73. SIAM-AMS, 1974.
[FDPW01] Thom Frühwirth, Alexandra Di Pierro, and Herbert Wiklicky. Toward probabilistic constraint handling rules. In Slim Abdennadher
and Thom Frühwirth, editors, Proceedings of the third Workshop on
Rule-Based Constraint Reasoning and Programming (RCoRP’01),
Paphos, Cyprus, December 2001. Under the hospice of the International Conferences in Constraint Programming and Logic Programming.
[GG98]
Erich Grädel and Yuri Gurevich. Metafinite model theory. Information and Computation, 140(1) :26–81, 10 January 1998.
[GM95]
Erich Grädel and Klaus Meer. Descriptive complexity theory over
the real numbers. In Proceedings of the Twenty-Seventh Annual
ACM Symposium on the Theory of Computing, pages 315–324, Las
Vegas, Nevada, 29 May–1 June 1995.
[Gol89]
David E. Goldberg. Genetic Algorithms in Search, Optimization,
and Machine Learning. Addison-Wesley, Reading, Massachusetts,
1989.
[Goo94]
J. B. Goode. Accessible telephone directories. The Journal of Symbolic Logic, 59(1) :92–105, March 1994.
[Gro93]
Patrick Gros. Outils géométriques pour la modélisation et la reconnaissance d’objets polyédriques. PhD thesis, Institut National
Polytechnique de Grenoble, 1993.
[Grz57]
A. Grzegorczyk. On the definitions of computable real continuous
functions. Fund. Math., 44 :61–71, 1957.
[GS82]
H. Gaifman and M. Snir. Probabilities over rich languages, testing
and randomness. The journal of symbolic logic, 47(3) :495–548, 1982.
[GS86]
Y. Gurevich and S. Shelah. Fixed-point extensions of first order
logic. Annals of Pure and Applied Logic, 32 :265–280, 1986.
[Gur83]
Y. Gurevich. Algebras of feasible functions. In Twenty Fourth Symposium on Foundations of Computer Science, pages 210–214. IEEE
Computer Society Press, 1983.
[Hal89]
J.Y. Halpern. An analysis of first order logics of probability. In
Proceedings of the International Joint Conference on Artificial Intelligence (IJCAI’89), pages 1375–1381, 1989.
[Hal98]
Joseph Y. Halpern. Discourse, Interaction, and Communication,
chapter A logical approach to reasoning about uncertainty : a tutorial, pages 141–55. Kluwer, 1998.
[Hal03]
Joseph Y. Halpern. Reasoning about Uncertainty. The MIT Press,
Cambridge, Massachusetts, 2003.
[Han94]
H. Hansson. Time and Probability in Formal Design of Distributed
Systems. Series in Real-Time Safety Critical Systems. Elsevier, 1994.
57
[HH78]
P. Hajek and T. Havraknek. Mechanizing Hypothesis Formation
(Mathematical Foundations for a General Theory). Springer-Verlag,
Berlin - Heidelberg - New York, 1978.
[HLMP04] Thomas Hérault, Richard Lassaigne, Frédéric Magniette, and Sylvain Peyronnet. Approximate probabilistic model checking. In VMCAI, pages 73–84, 2004.
[Hog92]
Mark L. Hogarth. Does general relativity allow an observer to view
an eternity in a finite time ? Foundations of Physics Letters, 5 :173–
181, 1992.
[Hoo66]
P. K. Hooper. The undecidability of the turing machine immortality
problem. The journal of symbolic logic, 31(2), June 1966.
[HS85]
Sergiu Hart and Micha Sharir. Concurrent probabilistic programs,
or : How to schedule if you must. SIAM Journal on Computing,
14(4) :991–1012, November 1985.
[HSP83]
Sergiu Hart, Micha Sharir, and Amir Pnueli. Termination of probabilistic concurrent program. ACM Transactions on Programming
Languages and Systems, 5(3) :356–380, July 1983.
[Imm83]
Neil Immerman. Languages which capture complexity classes (preliminary report). In Proceedings of the Fifteenth Annual ACM Symposium on Theory of Computing, pages 347–354, Boston, Massachusetts, 25–27 April 1983.
[Imm86]
Neil Immerman. Relational queries computable in polynomial time.
Information and Control, 68(1–3) :86–104, 1986.
[Imm87]
Neil Immerman. Languages that capture complexity classes. SIAM
Journal of Computing, 16(4) :760–778, 1987.
[Imm91]
N. Immerman. DSP ACE[nk ] = V AR[k + 1]. In Christopher Balcázar, José ; Borodin, Alan ; Gasarch, Bill ; Immerman, Neil ; Papadimitriou, Christos ; Ruzzo, Walter ; Vitányi, Paul ; Wilson, editor,
Proceedings of the 6th Annual Conference on Structure in Complexity Theory (SCTC ’91), pages 334–340, Chicago, IL, USA, June
1991. IEEE Computer Society Press.
[Imm99]
[Kaw05]
N. Immerman. Descriptive Complexity. Springer, 1999.
Akitoshi Kawamura. Type-2 computability and Moore’s recursive
functions. In Vasco Brattka, Ludwig Staiger, and Klaus Weihrauch, editors, Proceedings of the 6th Workshop on Computability
and Complexity in Analysis, volume 120 of Electronic Notes in Theoretical Computer Science, pages 83–95, Amsterdam, 2005. Elsevier.
6th International Workshop, CCA 2004, Wittenberg, Germany, August 16–20, 2004.
[Klo92]
Jan Willem Klop. Term rewriting systems. In S. Abramsky, D. M.
Gabbay, and T. S. E. Maibaum, editors, Handbook of Logic in Computer Science, volume 2, chapter 1, pages 1–117. Oxford University
Press, Oxford, 1992.
58
CHAPITRE 9. RÉFÉRENCES
[KNP02]
Marta Kwiatkowska, Gethin Norman, and David Parker. PRISM :
Probabilistic symbolic model checker. Lecture Notes in Computer
Science, 2324 :200, 2002.
[Ko91]
Ker-I Ko. Complexity Theory of Real Functions. Progress in Theoretical Computer Science. Birkhäuser, Boston, 1991.
[Kwi03]
Marta Z. Kwiatkowska. Model checking for probability and time :
from theory to practice. In LICS, page 351, 2003.
[Lac55]
Daniel Lacombe. Extension de la notion de fonction récursive aux
fonctions d’une ou plusieurs variables réelles iii. Comptes Rendus de
l’Académie des Sciences Paris, 241 :151–153, 1955.
[Lei90]
Daniel Leivant. Inductive definitions over finite structures. Information and Computation, 89(2) :95–108, 1990.
[LM95]
D. Leivant and J-Y Marion. Ramified recurrence and computational
complexity II : substitution and poly-space. In L. Pacholski and
J. Tiuryn, editors, Computer Science Logic, 8th Workshop, CSL ’94,
volume 933 of Lecture Notes in Computer Science, pages 486–500,
Kazimierz,Poland, 1995. Springer.
[LMFZ94] Jane Liu, Joe Mundy, David Forsyth, and Andrew Zisserman. Efficient recognition of rotationally symmetric surfaces and straight
homogeneous generalized cylinders. In Proceedings of CVPR, 1994,
1994.
[LMS95]
P. Lincoln, J. Mitchell, and A. Scedrov. Stochastic interaction and
linear logic. In J.-Y Girard, Y. Lafont, and L. Regnier, editors, Advances in Linear Logic, pages 147–166. Volume 222, London Mathematical Society Lecture Notes, Cambridge University Press, 1995.
[Mes92]
J. Meseguer. Conditional rewriting logic as a unified model of
concurrency. Theoretical Computer Science, 96(1) :73–155, 1992.
[MK98]
Pierre-Etienne Moreau and Hélène Kirchner. A compiler for rewrite
programs in associative-commutative theories. In “Principles of Declarative Programming”, number 1490 in Lecture Notes in Computer
Science, pages 230–249. Springer-Verlag, September 1998. Report
LORIA 98-R-226.
[MMSC95] C. Muller, V. Michel, Gerard Scacchi, and Guy-Marie Côme. Thergas : a computer program for the evaluation of thermochemical data
of molecules and free radicals in the gas phase. Journal Chim Phys,
92 :1154–1178, 1995.
[MOM02]
Narciso Martı́-Oliet and José Meseguer. Rewriting logic : Roadmap
and bibliography. Theoretical Computer Science, 285(2) :121–154,
2002.
[Moo90]
Christopher Moore. Unpredictability and undecidability in dynamical systems. Physical Review Letters, 64(20) :2354–2357, May 1990.
59
[Moo96]
Christopher Moore. Recursion theory on the reals and continuoustime computation. Theoretical Computer Science, 162(1) :23–44,
5 August 1996.
[Mor00]
Pierre-Etienne Moreau. REM (Reduce Elan Machine) : Core of the
New ELAN Compiler. In Leo Bachmair, editor, Rewriting Techniques and Applications, 11th International Conference, RTA 2000,
Norwich, UK, July 10-12, 2000, Proceedings, volume 1833 of Lecture
Notes in Computer Science, pages 265–269. Springer, 2000.
[Mos83]
Y. N. Moschovakis. Abstract recursion as a foundation for the theory
of algorithms. Lecture Notes in Mathematics, Berlin, 1983.
[MR95]
Rajeev Motwani and Prabhaka Raghavan. Randomized Algorithms.
Cambridge University Press, 1995.
[Nil86]
N.J. Nilsson. Probabilistic logic. Artificial Intelligence, 28(1) :71–87,
1986.
[NSMA03] Kumar Nirman, Koushik Sen, Jose Meseguer, and Gul Agha. A rewriting based model for probabilistic distributed object systems. In
Proceedings of 6th IFIP International Conference on Formal Methods for Open Object-based Distributed Systems (FMOODS’03),
volume 2884 of Lecture Notes in Computer Science, pages 32–46.
Springer, Paris, France, November 2003.
[Orp94]
Pekka Orponen. Computational complexity of neural networks : a
survey. Nordic Journal of Computing, 1(1) :94–110, Spring 1994.
[Orp97]
P. Orponen. Algorithms, Languages and Complexity, chapter A survey of continuous-time computational theory, pages 209–224. Kluwer Academic Publishers, 1997.
[Pat70]
M. S. Paterson. Unsolvability in 3x3 matrices. Studies in Applied
Mathematics, XLIX(1) :105–107, March 1970.
[Poi95]
Bruno Poizat. Les petits cailloux. aléas, 1995.
[Pro]
Team Protheo. Elan web site. http ://elan.loria.fr.
[PW98a] Alessandra Di Pierro and Herbert Wiklicky. An operational semantics for probabilistic concurrent constraint programming. In Proceedings of the 1998 International Conference on Computer Languages,
pages 174–183. IEEE Computer Society Press, 1998.
[PW98b] Di Pierro and Wiklicky. A markov model for probabilistic concurrent constraint programming. In APPIA-GULP-PRODE’98, Joint
Conference on Declarative Programming, 1998.
[PW98c] Di Pierro and Wiklicky. Probabilistic concurrent constraint programming : Towards a fully abstract model. In MFCS : Symposium
on Mathematical Foundations of Computer Science, 1998.
[PW00]
Di Pierro and Wiklicky. Concurrent constraint programming : Towards probabilistic abstract interpretation. In 2nd International
ACM SIGPLAN Conference on Principles and Practice of Declarative Programming (PPDP’00), 2000.
60
CHAPITRE 9. RÉFÉRENCES
[Rub89]
L. A. Rubel. A survey of transcendentally transcendental functions.
Amer. Math. Monthly, 96(9) :777–788, 1989.
[Sch77]
P. Schultz. Mortality of 2x2 matrices. American Mathematical
Monthly, 84(2) :463–464, 1977. Correction 85 :p. 263,1978.
[Sha41]
C. E. Shannon. Mathematical theory of the differential analyser.
Journal of Mathematics and Physics MIT, 20 :337–354, 1941.
[Sie95]
Hava T. Siegelmann. Computation beyond the Turing limit. Science,
268 :545–548, 1995.
[Sie96]
Siegelmann. The simple dynamics of super turing theories. TCS :
Theoretical Computer Science, 168, 1996.
[Sie99]
Hava T. Siegelmann. Neural Networks and Analog Computation Beyond the Turing Limit. Birkauser, 1999.
[SK66]
D. Scott and P. Krauss. Assigning Probabilities to Logical Formulas.
North-Holland, Amsterdam, 1966.
[SM01]
William H. Sanders and John F. Meyer. Stochastic activity networks : Formal definitions and concepts. Lecture Notes in Computer
Science, 2090 :315, 2001.
[Son95]
E. Sontag. From linear to nonlinear : Some complexity comparisons.
In IEEE Conference on Decision and Control, pages 2916–2920, New
Orleans, December 1995.
[SS94]
Hava T. Siegelmann and Eduardo D. Sontag. Analog computation
via neural networks. Theoretical Computer Science, 131(2) :331–360,
September 1994.
[Sub01]
V.S. Subrahmanian. Probabilistic databases and logic programming.
In International Conference on Logic Programming, volume 2237 of
Lecture Notes in Computer Science, page 10. Springer-Verlag, 2001.
[Tur36]
Alan Turing. On computable numbers, with an application to the
”Entscheidungsproblem”. Proceedings of the London Mathematical
Society, 42(2) :230–265, 1936.
[Var82]
M. Y. Vardi. The complexity of relational query languages. In
Proceedings of the 14th ACM Symposium on Theory of Computing
(STOC), pages 137–146. ACM Press, 1982.
[Var85]
Moshe Y. Vardi. Automatic verification of probabilistic concurrent
finite-state programs. In 26th Annual Symposium on Foundations of
Computer Science, pages 327–338, Portland, Oregon, 21–23 October
1985.
[Wei00]
Klaus Weihrauch. Computable Analysis. Springer, 2000.
[WM94]
N. Wilson and S. Moral. A logical view of probability. In Proceedings of the 11th European Conference on Artificial Intelligence
(ECAI’94), pages 386–390, 1994.
61
[WWW89] David Weininger, Arthur Weininger, and Joseph L. Weininger.
Smiles. 2. algorithm for generation of unique smiles notation. Journal of Chemical Information and Computer Science, 29 :97–101,
1989.