Autour du cyberespace... ( PDF - 2.7 Mo)

Transcription

Autour du cyberespace... ( PDF - 2.7 Mo)
Autour du cyberespace,
esquisse pour un approfondissement
du dialogue humain-machine
Étude graphique pour une interface de navigation dans le cyberespace – que ce soit dans les documents et
les applications personnels – quart inférieur droit de l’image – ou dans les ressources du réseau ; étude
inspirée par la description du cyberespace de Gibson dans son roman Neuromancer. (Yorick, 1995).
Michaël Thévenet
Mémoire de DEA “Enjeux sociaux et technologies de la communication”
Sous la direction de Messieurs Claude Baltz et Fabrice Papy
Université Paris-8 Vincennes-Saint-Denis
Année universitaire 2002-2003
Ce travail est diffusé sous licence LLDD version 1 (Annexe II)
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
1
Table des matières
Remerciements..........................................................................................................4
Quand on dit “cyberespace”, de quoi parle-t-on!? ..................................... 5
Introduction formelle...............................................................................................5
Intermède contextuel ...............................................................................................7
Rien de plus formel qu’un ordinateur et un réseau ................................. 10
Le calcul ça se simule, signé Turing.....................................................................10
Que de géniteurs au chevet de l’ordinateur ........................................................14
Von Neumann, architecte ès ordinateurs ............................................................17
Information quantifiée, communication théorisée.............................................20
La mise en réseau, un besoin pragmatique .........................................................24
Baran, ange gardien des réseaux de communication.........................................26
D’Arpa à Inter, tout est net...................................................................................29
Visions et visionnaires la force du récit ................................................... 33
Si cybernétique m’était contée/comptée ..............................................................34
Au royaume du calcul règnent modèles et objets...............................................38
Penser et apprendre… bit à bit ............................................................................41
Se reproduire et évoluer… bit à bit......................................................................46
L’humain formalisé du calcul à la mémoire .......................................................51
L’hypertexte, ça lie… les inventeurs....................................................................54
En marche vers l’humain augmenté ....................................................................56
Alors le récit s’inscrivit dans la matière ..............................................................60
Un cyberespace plongé dans l’espace informationnel ............................ 63
Y’a de l’info dans l’infosphère..............................................................................67
L’hypertexte en trame de l’espace informationnel ............................................69
Pour le cyberespace!? Passez par Diderot….......................................................72
Mémoire!! rappelle-moi comment te lire.............................................................77
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
2
Au royaume des scripteurs et des copistes ..........................................................79
L’hypothèse du point de vue de la machine........................................................82
Où le cyberespace est Autre, conclusion temporaire................................ 87
Annexe I Visions de machines de vision .................................................. 89
TouchGraph GoogleBrowser................................................................................89
SimplePaint .............................................................................................................90
SpaceWar! ...............................................................................................................91
ArtMatic ..................................................................................................................92
Network Physics .....................................................................................................93
Annexe!II Licence de Libre Diffusion des Documents!v.!1...................... 94
Bibliographie ........................................................................................... 95
Ouvrages............................................................................................................................ 95
Articles............................................................................................................................... 97
Autres sources ................................................................................................................. 100
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
3
Remerciements
L’image qui sert de fond au texte est une “erreur de lecture” qu’un vieux logiciel graphique a faite d’un
fichier encore plus ancien ; défaut d’interprétation d’un même format par deux applications supposées le
comprendre. En quelque sorte, la machine numérique a été laissée libre de s’exprimer en conservant cette
interprétation imprévue de l’image originale, ci-dessous.
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
4
Quand on dit “cyberespace”, de quoi parle-t-on ? Partie 0
Quand on dit “cyberespace”,
de quoi parle-t-on ?
Introduction formelle
À cette question comment répondre sinon par des volées de questions ? Le mot, la notion,
et tout ce qui leur est lié : calcul, modélisation, simulation ; informatique, réseaux, énergie ;
hypertexte, internet, texte ; société, mondialisation, économie ; fracture, bien commun,
hackers… rien n’est clair, tout se brouille, rien n’éclaire.
1984. William Gibson met en scène Case, un hacker adepte de la navigation dans le
cyberespace, dans Neuromancer. Ce “quelque chose” qu’il appelle cyberespace tire son
nom à la simulation graphique dynamique de l’information dans laquelle se plonge Case
pour opérer ; il doit aussi à Wiener, inventeur du terme cybernétique, en 1948. La fiction de
Gibson ne décrit pas le présent mais un avenir proche où la technoscience est devenue
levier de la domination – sociale, économique, politique, militaire. L’auteur est américain
et, alors, solide trentenaire. Sa compréhension du potentiel exponentiel des ordinateurs mis
en réseau puise dans quarante années d’histoire contemporaine. Celle où le triangle d’acier
“armée-université-industrie”, financé de manière occulte par les gouvernements successifs
des États-Unis, invente l’informatique et les réseaux. Celle où une assemblée cosmopolite
de chercheurs est généreusement accueillie alors qu’ils fuient la guerre ; celle où, depuis,
cette assemblée sert à asseoir la domination américaine par la domination technologique.
En 1942, ils ne sont qu’une poignée, ceux qui assisteront la naissance de la cybernétique :
physiologiste, neuropsychiatre, sociologue des comportements, médecin, et deux
anthropologues. Ce qu’ils veulent ? Abattre les frontières disciplinaires, se dégager du
“piège réductionniste” et pour cela miser sur la similarité entre cerveau et informatique,
entre neurone biologique et neurone formel. Ils ne sont pas seuls à se convaincre que les
avancées récentes des logiciens depuis les communications programmatiques de Hilbert
(1900 et, surtout, 1928) ne sont pas un échec, à peine une désillusion. Gödel, Church et
Turing ruinent pourtant les espoirs de Hilbert, et gâchent la fin de sa vie ; par leurs
démonstrations, les mathématiques ne seront ni complètes, ni cohérentes, ni décidables.
Les curieux de tout – les mathématiciens Wiener, Pitts ou von Neumann ; les ingénieurs
Bush, Shannon, Baran, Engelbart ou Sutherland ; le neuropsychiatre McCulloch, etc. –
travaillent dans d’innombrables directions en se parlant grâce à une lingua franca : le
langage de la logique formelle. Les “fonctions primitives récursives” de Gödel font
merveille dans les logical computing machines de Turing. Elles inspirent et laissent
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
5
Quand on dit “cyberespace”, de quoi parle-t-on ? Partie 0
s’exprimer le feedback de Wiener et l’architecture de von Neumann dans les calculateurs
électroniques binaires. Au-delà du calcul, en voie d’automatisation depuis des siècles, ce
sont des idées, des méthodes qui deviennent mécanisables. Le recensement, la statistique, la
simulation trouvent dans le codage numérique la meilleure représentation fonctionnelle du
langage algorithmique et dans l’informatique le meilleur support opératoire. Ces chercheurs
et beaucoup d’autres créent le substrat – matériel et logiciel – où la quête de l’humain
augmenté devient un objectif raisonné ; la méthode de Engelbart (1962) est prouvée par
l’exemple (1968). Il en sort, entre autres questions nouvelles, celle du cyberespace.
Le sens du terme se brouille au-delà de l’image romanesque. Quelles relations entretient cet
“espace” avec l’information ; et qu’est-ce que l’information ? Et un espace ? Et que
viennent faire communication, dialogue, interaction ? Si les interrogations sont là, l’effort
de définition peine à suivre. Il laisse la place à un discours d’accompagnement destiné à
emporter l’adhésion publique. Les communications prospectives des chercheurs entrent en
écho avec la littérature de fiction. La science-fiction décrit les futurs possibles, et inscrit
l’idée du progrès technoscientifique comme coextensive de la notion de progrès, notion à la
Comte revue sauce Saint-Simon. Les scientifiques puisent dans ces lectures fictionnelles les
images mentales qui les guident dans leurs recherches. Car si le cyberespace est un espace
de nature informationnel, quelle relation entretient-il avec notre espace mental ? Jusqu’à
quel point comprenons-nous la machine numérique, la “machine univers” de Lévy
– jusqu’où pouvons-nous pousser le dialogue que nous avons entamé, chacun
individuellement, avec l’humanité par l’inclusion de ce tiers machinique ?
Le cyberespace est par essence un outil jailli de la mise en réseau des ordinateurs. Un outil
étrange, qui se contient lui-même. Il lit et écrit les langages formels, les code en binaire
pour opérer. Il répond à nos demandes lorsqu’elles sont conformes à ses règles. Il est
capable d’autorégulation, de décision, d’évolution, d’autonomie – tous qualificatifs à
entendre dans un sens très restrictif jugé à l’aune de l’humain mais dans un sens libérateur
du point de vue de l’outil, s’il en avait conscience. Nous demandons à cet outil de nous
aider à gérer l’explosion informationnelle pour en faire une explosion de la connaissance.
Comprendre ce que cyberespace veut dire, c’est dessiner une carte aussi précise que
possible, chausser les meilleures lunettes pour la lire. Déterminer où se trouve
l’information, quelle est sa composition, comment elle s’organise. Percevoir en creux le
“medium is the message” de McLuhan dans une information stockée différemment par le
cyberespace, par notre espace mental, par la matière inerte, par le biologique, et qui passe
d’un code à l’autre. Quelles sont donc les structures, les voies par où la communication
transmet l’information ? Le dialogue s’établit entre l’humanité et la machine évolutive par
l’exploitation du code que nous ne cessons d’inscrire dans ses mémoires. N’y aurait-il pas
des savoirs nouveaux à découvrir dans le point de vue de la machine sur le code, point de
vue que nous découvririons à son insu, incapable qu’elle est de prendre conscience d’ellemême ?
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
6
Quand on dit “cyberespace”, de quoi parle-t-on ? Partie 0
Saisir d’un seul regard tout le cyberespace ; le positionner par rapport à d’autres termes
connexes – espace informationnel, infosphère ; estimer la pertinence du concept ; esquisser
quelques hypothèses sur l’objet, ses règles fonctionnelles, ses caractéristiques… Le
programme est défini.
Intermède contextuel
Cette recherche constitue une première tentative de construction scientifique autour d’une
intuition née d’une longue fréquentation des ordinateurs et des réseaux. Aiguillonnée par la
curiosité elle a resurgi pendant des années, à tout moment : au détour d’une conversation,
devant un écran, à la lecture des médias, en programmant, au cinéma, en rêvant… Une
phrase presque anodine la résumait alors : « L’infosphère, pas un brin d’herbe ne lui
1
échappe. » Nous parlions de cartographie tridimensionnelle de la planète (figure 0.1) ; de
réseaux satellitaires quantifiant en continu la biosphère ; de numérisation intégrale de la
finance ; des conséquences bien réelles des activités immatérielles ; de représentation
numérique de l’individu ; de surveillance orwellienne ; de simulation dynamique de
l’information ; de politique mondiale… Nous parlions aussi de la dépendance croissante de
2
l’humanité envers ce macrosystème technique qu’est devenu l’informatique mise en
réseaux.
Figure 0.1 : Le mont Kilimandjaro tel qu’il a été cartographié en trois dimensions par la mission militaire
américaine Shuttle Radar Topography Mission en février 2000, mission au cours de laquelle l’altitude de
l’ensemble des terres émergées a été numérisée. Les données publiques ont une précision de 60 m ; les
militaires américains se réservent l’usage des données dont la précision est inférieure à 30 m, comme
toujours avec leur quête obsessionnelle de la domination technologique. (Source : site du projet SRTM,
http://srtm.usgs.gov/.)
Trouver quel fil attraper prit plus de temps qu’à un chat pour débrouiller une pelote. À
l’évidence d’une informatique réticulaire omniprésente dans les sociétés occidentalisées, et
avec quelles conséquences, s’oppose un chaos d’approches – crédibles ou non – de légions
Quelques échos de cette période se trouvent en ligne, dans Raccourc(h)istoire de boson2x. URL :
http://www.boson2x.org/article.php3?id_article=2 (dernier accès le 2 septembre 2003).
2 Alain Gras a choisi de traduire les expressions “Large Technical Systems” – de l’américain Tom
P. Hughes – et “Grosstechnische Systeme” – des Allemands Renate Mayntz et Bernward Joerges –
en “macrosystèmes techniques” ou MST, malgré la polysémie ambiguë du sigle. Pour lui, ces
« macrosystèmes techniques ne sont que des intermédiaires, des “grands communicateurs”, comme
transports ferroviaires et aériens, télécommunications, approvisionnement énergétique et alimentaire,
électricité, informatique, demain peut-être transfert d’organes… mais ils s’insèrent dans le social en
imposant une nouvelle dépendance à l’individu qui ne peut vivre que branché sur ce “poumon artificiel” »
(Alain Gras, Le bonheur, produit surgelé, in Gras & Moricot, 1992. p. 17).
1
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
7
Quand on dit “cyberespace”, de quoi parle-t-on ? Partie 0
de scientifiques, philosophes, politiques, artistes, économistes, sociologues, futurologues,
programmeurs, commentateurs… ajoutant au chaos ambiant la confusion des termes, des
définitions et des concepts ; véritable tsunami d’incompréhension mutuelle dispersant les
points de vue. Le retour aux sources s’imposait.
e
La relecture des pères fondateurs à la lumière du XXI siècle – ceux qui pensèrent
l’informatique et les réseaux comme théorie, ceux qui repensèrent ces théories pour les
incorporer dans le réel – fut salvatrice. Il en surgit une image complexe, dense,
multidimensionnelle, fractale où trouver des bases à l’édifice. Encore fallait-il renoncer à
beaucoup pour y découvrir une structure. Des pans entiers de l’histoire des mathématiques,
des langages, de la technique, de la philosophie ont basculé hors du texte mais pas
3
totalement, subsiste un hypertexte tissé autour de lui.
4
Lister les contributeurs à l’éclosion du NewMedia n’aurait pas de sens. Prétendre brosser
ici une histoire complète de l’informatique, des réseaux, d’Internet non plus. La focalisation
sur deux poignées de pionniers a suivi quelques axes régulateurs :
— les mathématiques qui imprègnent cet univers calculatoire mécanisé issu
de notre univers mental, fil conducteur vers la formalisation logique, le
codage automatisé, les langages informatiques, les réseaux ;
— l’information dont la définition s’enroule et s’enfuit, processus ou
résultat ?, mais qui reste soluble dans la communication ;
— la représentation graphique, art ancien de l’icône effacé derrière le texte
linéaire, qui revient habillée en langage symbolique de simulation
5
dynamique par la grâce des “médias électriques” ;
— la fiction et la science-fiction, connexes aux prospectives futuristes des
chercheurs, qui accoutument nos imaginaires à une technoscience aux
vertus discutables mais indiscutablement présente ;
— l’humanité en soi, comme créatrice d’un outil unique à la frontière des
langages et de la technique, et qui y a trouvé un interlocuteur disert.
Le travail d’écriture a débuté par un projet de mémoire (L’infosphère, lieu d’existence de l’objet
numérique, septembre 2002. URL : http://www.boson2x.org/article.php3?id_article=50). Il s’est
poursuivi en ligne avec une recherche sur le vocabulaire, publiée dans le laboratoire de boson2x
(Infosphère ou la quête du mot juste, avec Renaud Bonnet, 20 décembre 2002-3 avril 2003. URL :
http://www.boson2x.org/article.php3?id_article=58). Un certain nombre d’articles connexes (Lévy,
Souchier, Floridi, Quéau, Cuvillier, Diki-Kidiri, Nicolescu…) ont été mis en ligne dans le journal du
site (URL : http://www.boson2x.org/rubrique.php3?id_rubrique=10).
4 Le terme est employé par des chercheurs américains pour désigner, d’une manière très générale
l’histoire des techniques et l’histoire culturelle qui aboutissent à fondre toute communication dans le
“média numérique”.
5 « Nous vivons aujourd’hui dans l’âge de l’information et de la communication parce que les médias
électriques créent instantanément et constamment un champ global d’événements en interaction auquel
tous les hommes participent. Désormais, le monde de l’interaction publique possède le même aspect
englobant d’interaction intégrante qui était jusqu’ici le propre de notre système nerveux individuel. »
(McLuhan, 1968. p. 285)
3
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
8
Quand on dit “cyberespace”, de quoi parle-t-on ? Partie 0
Quelques chercheurs donc, et des visionnaires, ont tracé la voie pluridisciplinaire où s’est
épanoui le cyberespace. L’éclosion théorique ne serait rien sans la volonté politique de
domination militaire par la technologie qui prend corps aux États-Unis dans la période
1940-1945. La bascule unanime de la société américaine dans “l’aventure numérique”
arrive à la fin du conflit ; entraînant avec elle toutes les nations occidentalisées – laquelle
n’a pas eu son “plan Calcul” ? – et aussi l’URSS.
En cinquante ans, la méthode de Engelbart a diffusé partout, elle est opérante et productive.
6
Les théories contemporaines des sciences infocom s’élaborent dans cet espace conceptuel
où la complexité peut être rationalisée à défaut d’être appréhendée. Et si l’humain par ses
ressources propres n’y suffit pas, l’humain augmenté par le dialogue avec le cyberespace y
parviendra éventuellement. L’algorithme de recherche est prêt à fonctionner, récursif à
souhait comme le permettent les “fonctions primitives récursives” de Gödel appliquées à la
mécanisation du calcul. Voici un an, dans la zone de saisie était inscrit “infosphère”. La
liste de résultats a été distillée : renoncer à tout écrire, c’est commencer à écrire.
Si en France nous parlons de sciences de l’information et de la communication ou “sciences
infocom”, les Anglo-Saxons parlent de “media studies” qui héritent en ligne directe des recherches
sur la propagande menées en Allemagne comme aux États-Unis dès les années 1930.
6
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
9
Rien de plus formel qu’un ordinateur et un réseau Partie 1
Rien de plus formel
qu’un ordinateur et un réseau
Comme évoqué précédemment, il n’est pas de cyberespace sans substrat technique et
logique. Nous verrons plus loin que la frontière entre les deux espaces, physique et
numérique, est rien moins que simple à tracer. Mais avant même de songer à la situer, si
tant est que cela soit possible, il s’avère nécessaire de saisir ce qui compose ce substrat. Un
rapide parcours historique dans les travaux des pères de l’informatique et des réseaux
semble le meilleur chemin à suivre pour éclairer le présent.
L’informatique, telle que nous la connaissons aujourd’hui dans son immense diversité,
repose sur très peu d’éléments de base : des architectures matérielles et logicielles conçues
pour opérer des calculs, des algorithmes encodés dans des programmes, des équipements
d’interface pour permettre la communication entre humains et machines, d’une part, et
entre machines, d’autre part. Ces briques élémentaires sont une forme d’aboutissement du
travail de quelques scientifiques. Les fondations théoriques qu’ils ont posées dans les
années 1930 à 1960 portent en germe tout ce que nous connaissons aujourd’hui, et bien
d’autres réalisations qui n’ont pas encore vu – et ne verront peut-être jamais – le jour. Ces
pères de l’informatique et des réseaux ont en commun une très solide culture
mathématique, doublée d’une curiosité insatiable pour d’autres domaines de la
connaissance – mécanique quantique, neurologie, psychologie, linguistique mais aussi
philosophie, éthique, politique… Ce socle mathématique constitue, indéniablement, l’un
des points de repère les plus fiables à l’instant de remonter le temps à la recherche des
origines de l’informatique.
Le calcul ça se simule, signé Turing
Il ne s’agit pas ici de retracer toute l’aventure de la mécanisation du calcul mais de rappeler
les apports essentiels qui aboutirent à la mise au point des calculateurs numériques.
Viennent en tout premier lieu ceux des mathématiciens qui se sont confrontés aux trois
1
questions de David Hilbert , proposées à la réflexion de la communauté des chercheurs lors
Les trois questions rapportées ici (Shallit, 1995) sont moins célèbres que les 23 problèmes
prioritaires à traiter que Hilbert soumit à ses collègues au Deuxième Congrès International des
Mathématiciens de 1900, à Paris. Dans un cas comme dans l’autre, l’influence qu’a exercée Hilbert
sur l’évolution de la recherche en mathématique est majeure. Comme chef de file de l’école de
pensée dite “formaliste”, pour qui la méthode axiomatique joue un rôle essentiel, il s’oppose au
courant “intuitionniste” ou “constructiviste”, pour qui les objets mathématiques doivent être
engendrés par des procédés de construction qui restent contrôlés par l’intuition. Finalement, c’est
l’influence de Hilbert et de la pensée “axiomatique” qui restera prédominante et qui exercera une
influence considérable sur le développement des mathématiques contemporaines.
1
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
10
Rien de plus formel qu’un ordinateur et un réseau Partie 1
du Congrès International des Mathématiciens de 1928. Seraient-elles démontrées que
l’arithmétique tout entière pourrait dériver d’un système logique formel :
1.
les mathématiques sont-elles c o m p l è t e s ? (Soit, tout énoncé
mathématique peut-il être soit prouvé, soit réfuté ?) ;
2.
les mathématiques sont-elles cohérentes ? (Soit, peut-on être sûr que des
raisonnements valides ne conduiront pas à des absurdités ?) ;
3.
les mathématiques sont-elles décidables ? (Soit, existe-t-il un algorithme
pouvant dire de n’importe quel énoncé mathématique s’il est vrai ou
faux ?).
Ces questions de Hilbert vont trouver réponse en deux temps. En 1931, le mathématicien
Kurt Gödel répond négativement aux deux premières en démontrant que tout système
formel suffisamment puissant est soit incohérent, soit incomplet ; il laisse son nom associé
au théorème d’incomplétude : « Il existe des théorèmes, c’est-à-dire des énoncés vrais,
pour lesquels il n’y a pas de preuve. » Il ajoute aussi un outil formel d’une plasticité
2
étonnante, les “fonctions primitives récursives” . La troisième question, aussi nommée
Entscheidungsproblem, est résolue indépendamment en 1936 par deux mathématiciens,
3
Alonzo Church et Alan Turing (Turing, 1937). La démonstration qu’en donne ce dernier
est d’une portée beaucoup plus générale, l’indécidabilité de l’arithmétique, que la
démonstration exposée par Church, qui se limite aux fonctions récursives portant sur les
entiers.
4
Pour la mener à bien, Turing élabore un modèle formel de calculateur au fonctionnement
extrêmement simple. Il décompose les opérations de calcul en actions les plus élémentaires
possible jusqu’à définir un ensemble de règles. Sa machine utilise comme mémoire un
ruban de papier, de longueur infinie, segmenté en cases régulières, qui peut défiler
« Le corps de la preuve du théorème de Gödel est un ensemble de preuves que certaines fonctions et
relations sont primitivement récursives et que certains modes de construction de fonctions et de relations
à partir d'autres fonctions et relations, préserve la récursivité primitive. Nous ne discuterons pas ici
l'intégralité de la preuve et nous nous bornerons à examiner certains passages particulièrement révélateur
de la façon de procéder d'un logicien. […] Exposé de la preuve :
1. Les fonctions Zn(x) = 0, 1, 2, ... sont primitives récursives.
2
2.
Les fonctions obtenues par permutations des variables, spécification des variables,
substitutions des variables par des constantes dans une fonction primitive récursive, sont
primitives récursives.
3.
L'addition, la multiplication, l'exponentiation et une soustraction limitée sont des fonctions
primitives récursives. [etc.] » (Loubière, 1992)
3 Alonzo Church demeure plus connu pour ses travaux sur le langage nommé lambda-calcul,
élaboré dès 1931-1932 pour résoudre des problèmes de logique. Le lambda-calcul « permet trois
opérations grammaticales élémentaires, dont les programmeurs ont découvert ultérieurement qu’elles
étaient à la base de toutes les opérations commandées à un ordinateur : préciser l’adresse des
instructions, préciser l’adresse des données et exécuter » (Basquiat & Jacquemin, 2002). Il est en
quelque sorte le précurseur de tous les langages de programmation fonctionnels et a imposé le
concept d’algorithme.
4 Turing désigne ses machines par l’expression logical computing machines ou, plus souvent, le sigle
LCM. Une simulation de trois de ces machines est proposée sur le site The Alan Turing Internet
Scrapbook (URL : http://www.turing.org.uk/turing/scrapbook/tmjava.html).
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
11
Rien de plus formel qu’un ordinateur et un réseau Partie 1
indifféremment d’une case vers la droite ou vers la gauche. Un curseur indique quelle case
du ruban doit être lue, ou écrite, par la machine. On inscrit la donnée initiale du calcul sur le
ruban, on place le curseur face à la première case de la donnée initiale, puis la machine
fonctionne grâce à ses règles jusqu’à atteindre un état particulier marquant la fin du calcul.
Le résultat est alors lisible sur le ruban.
5
Toute opération calculable peut être conduite à bien avec une machine de Turing construite
avec les règles appropriées. Comme le note Guillaume Watier, « une telle machine est
équivalente à un programme d’ordinateur » (Watier, 2001. p. 35).
Ce calculateur formel permet à Turing de mettre en évidence qu’il existe des problèmes
indécidables. Preuve en est donnée, par exemple, avec le problème de l’arrêt, que l’on peut
formuler ainsi : « Soit un algorithme et une donnée initiale ; l’algorithme lancé avec cette
donnée va-t-il s’arrêter ou s’exécuter indéfiniment ? » Une machine de Turing construite
avec comme seule règle “Si, dans l’état initial, le curseur désigne un blanc, alors conserver
ce blanc, rester dans cet état et décaler le curseur à droite” se bloque dès qu’elle rencontre
une donnée sur le ruban (car aucune règle ne s’applique) ou fonctionne indéfiniment
6
lorsque le ruban est vierge.
Si l’ensemble des machines de Turing sont des équivalents de programmes, alors les
machines universelles constituent les équivalents d’ordinateurs car elles sont capables
d’interpréter ces programmes. La donnée initiale d’une machine universelle regroupe
différentes informations : les règles de la machine de Turing à faire tourner et la donnée
initiale du calcul qu’elle doit mener. Appliquant ses règles propres, la machine universelle
7
lit les règles de la machine décrite et traite en fonction la donnée figurant sur le ruban.
Machines universelles et machines de Turing combinées décrivent, sous forme d’automates
formels, un système complet de traitement automatisé de l’information (même si nous
serions bien en peine de le construire). La machine universelle donne « à la simulation sur
automate calculateur des garanties théoriques de portée universelle » (Pélissier & Tête,
1995. p. XV), ce dont étaient privés tous les calculateurs numériques et analogiques
« Selon la vue mathématique, abstraite, le calcul est la manipulation de symboles grâce à des règles.
Les données du problème, des nombres, sont représentées par des symboles dans des formules et, en
appliquant la suite de règles appropriée, on obtient un résultat que l’on sait interpréter pour avoir une
réponse au problème. Les règles sont des lois bien définies qui permettent de transformer une formule en
une autre ; cette transformation n’est autre qu’une étape du calcul. » (Watier, 2001. p. 5)
6 Incidemment, Turing, avec son théorème de l’arrêt, fixe l’une des limites théoriques de
l’algorithmique : il est impossible d’écrire un programme qui puisse établir la “preuve d’un
programme”, à savoir de montrer que l’exécution d’un programme va bien s’arrêter et, de surcroît,
donner le résultat attendu. Néanmoins, toute une branche de l’informatique s’intéresse à la preuve
des programmes, comme une autre branche se consacre à la démonstration automatique de
théorèmes (Dowek, 2003), malgré la limite posée à la logique par les théorèmes de Gödel.
7 Turing, au cours des années, se référera sans cesse aux LCM et à la ULCM. Ainsi, par exemple, en
1948 : « L’importance de la machine universelle est évidente. Nous n’avons pas besoin d’une infinité de
machines pour réaliser une infinité de tâches. Une seule suffira. Le problème d’ingénierie qui consiste à
concevoir différentes machines pour différentes tâches est remplacé par le travail de bureau qui consiste
à “programmer” la machine universelle pour accomplir ces tâches. » (Turing, 1948. p. 5)
5
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
12
Rien de plus formel qu’un ordinateur et un réseau Partie 1
antérieurs. Le mathématicien en donnera une illustration concrète, à la fin des années 1940,
en dirigeant le développement de l’ordinateur britannique Automatic Computing Engine ou
ACE (devenu Deuce dans sa version commerciale). Mais leur inventeur ne travailla pas
immédiatement sur les conséquences de sa découverte hors du champ mathématique :
« La mécanisation abstraite que Turing avait imaginée dans les années trente
8
pour éprouver la non-calculabilité du nombre diagonal n’était pas à
l’origine destinée à garantir théoriquement l’ingénierie des futurs
ordinateurs. Par quels détours y seraient-ils parvenus si la Seconde Guerre
mondiale n’avait pas précipité les perfectionnements technologiques et
mobilisé les chercheurs dans l’effort de guerre ? » (ibid. p XVI)
Comme Turing, qui mène les recherches sur le cryptage pour le gouvernement anglais et
collabore sur ce sujet avec le gouvernement américain, la plupart des scientifiques vivant
aux États-Unis s’engagent ou sont enrôlés dans les recherches militaires. Ainsi en va-t-il
9
pour Vannevar Bush , John von Neumann, Norbert Wiener et bien d’autres. Les recherches
jugées prioritaires sont directement financées par l’État dans le cadre de l’effort de guerre.
D’autres, estimées moins urgentes, trouvent de généreux donateurs, la fondation Joshua
10
Macy
par exemple. Au total, ce n’est pas seulement le projet Manhattan, pour la
construction de la première bombe atomique, qui se trouve au centre de l’attention des
militaires américains mais tous les développements susceptibles de donner un avantage
11
technologique décisif sur l’adversaire .
Il s’agit ici de la diagonale de Cantor, qui montre qu’aucune liste ne peut comprendre tous les
nombres réels, c’est-à-dire tous les nombres à infinité de décimales.
9 Vannevar Bush peut légitimement être considéré comme le père du complexe militaro-industriel
aux États-Unis. En juin 1940, il convainc Franklin D. Roosevelt de le financer et le soutenir
politiquement pour mettre sur pied une nouvelle forme de collaboration entre les militaires,
l’industrie et le milieu universitaire ; en dehors de tout contrôle extérieur, y compris du Congrès
américain. Bush prend la direction d’une nouvelle agence, baptisée Office of Scientific Research and
Development (OSRD), où il mènera son projet de main de maître : « Son influence, et l’étendue de
cette nouvelle collaboration, crût considérablement au cours des cinq années suivantes. Le résultat fut
appelé “complexe militaro-industriel” par Dwight Eisenhower, mais cette structure serait sans doute plus
justement nommée le “triangle d’acier”, [qui] a joué un rôle décisif dans l’histoire du nouveau média. »
(Wardrip-Fruin & Montfort, 2003. p. 35)
10 La Fondation Joshua Macy consacre son activité à la recherche médicale. On associe la naissance
de la cybernétique à une série de dix conférences qui se sont déroulées, sous ses auspices, de 1946
à 1953. Cette série de conférences n’aurait jamais eu lieu sans la première rencontre de mai 1942,
le “Cerebral Inhibition Meeting”, auquel assistèrent Lawrence K. Frank (sciences humaines), les
anthropologues Margaret Mead et Gregory Bateson, les neuropsychiatres Warren McCulloch et
Lawrence Kubie, le physiologiste Arturo Rosenblueth. Ces participants inauguraux furent de toutes
les conférences Macy, initiées par McCulloch.
11 La doctrine d’alors est toujours d’actualité ; il n’est que de lire la rhétorique des membres
influents du gouvernement américain actuel, ou d’écouter les discours du Président George
W. Bush, pour s’en convaincre.
8
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
13
Rien de plus formel qu’un ordinateur et un réseau Partie 1
Que de géniteurs au chevet de l’ordinateur
Fait remarquable, les études portent aussi bien sur la conception de systèmes de calcul
automatisés que sur la neurophysiologie ou la psychologie. Plus important encore, quelques
scientifiques comprennent l’impérieuse nécessité de partager leurs connaissances et
organisent les rencontres interdisciplinaires qui permettront des avancées théoriques et
appliquées insoupçonnées jusqu’alors. C’est dans ce bouillonnement intellectuel sans
précédent que vont être posées les bases de ce qui deviendra l’informatique.
Les priorités fixées par Bush vont jouer un rôle déterminant sur les recherches conduites
par le mathématicien qu’est Wiener. Celui-ci rédige une note par laquelle il espère
convaincre Bush de lui accorder les moyens de financer le développement des calculateurs
numériques électroniques. Envoyée à l’été 1940, et restée longtemps secrète, cette note
circulera comme document classé “secret défense” pendant des années avant d’être publiée.
Wiener en rappelle les grands principes dans l’introduction de son livre Cybernetics : or
Control and Communication in the Animal and the Machine (1948). Loin d’être le
perfectionnement de l’analyseur différentiel élaboré par Bush, son modèle de calculateur
électronique découle d’une réflexion originale nourrie d’observations variées – des tubes
cathodiques en usage dans les télévisions aux commutateurs des centraux téléphoniques :
« Ainsi, les exigences suivantes furent formulées :
1.
dans la machine à calculer, le dispositif central qui additionne et
multiplie devrait être numérique, comme dans une machine qui
additionne ordinaire plutôt que fonctionnant sur la base de mesures
comme dans l’analyseur différentiel de Bush ;
2.
ces mécanismes, qui sont essentiellement des dispositifs de commutation,
devraient dépendre de tubes électroniques plutôt que d’engrenages ou de
relais mécaniques de façon à assurer une action plus rapide ;
3.
que, en fonction de la politique adoptée dans certains dispositifs
existants des laboratoires de la Bell Telephone, il serait sans doute plus
économique d’adopter pour le dispositif la base deux pour l’addition et
la multiplication plutôt que la base dix ;
4.
que la séquence entière d’opérations soit installée sur la machine ellemême de telle sorte qu’il ne devrait y avoir aucune intervention humaine
à partir du moment où les données sont entrées jusqu’à ce que les
résultats finaux soient obtenus ; et que toutes les décisions logiques
nécessaires pour réaliser cette condition soient intégrées à la machine
elle-même ;
5.
que la machine contienne un dispositif pour le stockage des données qui
les enregistre rapidement, les conserve en sécurité jusqu’à l’effacement,
les lise rapidement et les efface de la même façon et qu’alors, il soit
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
14
Rien de plus formel qu’un ordinateur et un réseau Partie 1
immédiatement disponible pour le stockage de nouvelles données. »
(Wiener, 1948, in Pélissier & Tête, 1995. p. 9)
La deuxième exigence de Wiener pose le principe d’un appareillage intégralement
électronique, proposition en rupture avec les usages d’alors où tous les équipements de
calcul scientifique sont électromécaniques. Leurs circuits, qui représentent analogiquement
les étapes du calcul, doivent être remplacés par le comptage électronique, qui traite des
successions d’événements discontinus, pour des raisons de performance et d’autonomie. Et
la quatrième exigence, qui plaide pour le non-interventionnisme humain dans les processus
de calcul, montre bien ce qui est attendu de l’automatisation du calcul.
Pour gagner en vitesse de traitement, toute intervention humaine en cours de calcul doit être
bannie. Il faut donc rendre la machine la plus autonome possible en la dotant d’une capacité
de décision logique, tout en garantissant à l’opérateur humain l’obtention des résultats
finaux, quels qu’aient été les états intermédiaires franchis par la machine. En somme,
Wiener propose de déléguer des tâches opératoires, qui jusqu’alors ne reposaient que sur les
capacités humaines, au calculateur électronique. Il devient ainsi « totalement autonome
dans l’exploitation des règles nécessaires au déroulement du calcul et dans le stockage et
la disponibilité des informations (alors que l’analyseur différentiel réclame l’intervention
humaine en cours de calcul pour introduire opportunément les décisions logiques) »
(Pélissier & Tête, 1995. p. 4).
Bush ne se laisse pas convaincre par les suggestions de Wiener. Il lui demande en revanche
de s’intéresser à une demande strictement militaire : compte tenu de l’usage du radar, de la
maniabilité et de la vitesse des avions de chasse, comment assurer une défense antiaérienne
efficace ? Il ne s’agit pas ici d’améliorer des techniques existantes mais de s’affronter à un
double questionnement théorique : « d’une part, la prévision d’une trajectoire
curvilinéaire, d’autre part, l’organisation neurologique du système sensori-moteur
humain » (ibid.). Ce qui revient à considérer cette demande de Bush comme une question
de “communication et de contrôle” où la frontière entre le système technique et l’humain
doit s’estomper puisqu’il s’agit de les faire collaborer de manière optimum.
Les travaux, que Wiener mène alors avec l’ingénieur Julian H. Bigelow, portent en
particulier sur la théorie de la prédiction et la construction du dispositif qui concrétiserait
cette théorie. Comme le rapporte Wiener lui-même, « […] pour la deuxième fois, je m’étais
engagé dans l’étude d’un système électromécanique
12
qui était conçu pour usurper une
fonction spécifiquement humaine – dans le premier cas, il s’agissait de l’exécution d’un
En l’occurrence, il s’agit de mettre au point un système de pointage automatique des batteries
antiaériennes susceptible d’épauler l’artilleur. Le problème est bien de nature prédictive : il ne faut
pas envoyer l’obus sur l’avion, mais en avant de l’avion, à un endroit où l’on suppose qu’il pourra
rencontrer son objectif. C’est lorsque cette supposition se révèle exacte qu’il est judicieux de parler
de “prédiction”.
12
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
15
Rien de plus formel qu’un ordinateur et un réseau Partie 1
pattern compliqué de calcul ; et dans le second, la prévision du futur. » (Wiener, 1948, in
Pélissier & Tête, 1995. p. 11)
C’est dans ce contexte de recherches qu’il publie avec Bigelow et Arturo Rosenblueth, en
13
1943, un article fondamental sur la notion de rétroaction : Behavior, Purpose and
Teleology. L’objectif des auteurs est clair : il s’agit de penser le but (purpose) et la
14
téléologie (teleology) sans réintroduire la causalité, initiale ou finale. Reprenant le
15
principe de la “boîte noire” des psychologues béhavioristes, ils postulent l’existence d’un
feedback interne de la sortie sur l’entrée, affecté d’un signe positif ou négatif, pour
expliquer certains comportements (behavior).
Fait essentiel, la notion de rétroaction reçoit dans cet article « une acceptation
informationnelle dont elle était jusque-là dénuée […] : la causalité circulaire n’affecte pas
essentiellement l’énergie d’un système mais l’information qui régule la finalité de son
comportement » (Pélissier & Tête, 1995. p. 5). Il est désormais nécessaire de distinguer,
dans les recherches, la structure informationnelle et la structure matérielle du feedback.
C’est cette double dimension du mécanisme de rétroaction qui va permettre à Wiener d’en
étendre l’application aux machines à calculer automatiques, jusqu’à en proposer un modèle
formel (figure 1.1), publié dans son livre Cybernetics.
Figure 1.1 : Ce diagramme montre le principe d’un appareillage doté d’un système de correction d’erreur
par feedback. Le cercle indique que la réponse réelle obtenue en sortie est comparée à la réponse désirée
(boîte “feedback parameter”), ce qui donne le signal de correction. Lorsque le contre-signal agit pour
réduire le signal en sortie, on parle de feedback négatif ; lorsqu’au contraire le contre-signal agit pour
augmenter le signal en sortie, on parle de feedback positif.
Les mécanismes de rétroaction, ou feedback, ont été formalisés par Clerck Maxwell dans un
article, paru en 1868, consacré aux régulateurs des machines à vapeur de James Watt. Il aura donc
fallu près de quatre-vingts ans pour qu’une généralisation de ces mécanismes soit proposée.
14 La téléologie peut être définie comme une « doctrine qui considère que dans le monde tout être a
une fin, qui conçoit le monde comme un système de relations, de rapports entre des moyens et des fins »
(Trésor de la langue française informatisée, 2003).
15 Selon John B. Watson, père du béhaviorisme, tout comportement ne peut s’observer que de
l’extérieur sous forme d’une liaison entre le stimulus et la réponse ; en conséquence, ce qui se passe
dans l’organisme ne relève pas de l’observation, d’où la notion de boîte noire.
13
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
16
Rien de plus formel qu’un ordinateur et un réseau Partie 1
Von Neumann, architecte ès ordinateurs
Le mathématicien John von Neumann, qui contribue entre autres au projet Manhattan,
étudie durant ces années de guerre aussi bien la neurologie que la mécanisation du calcul
symbolique. Comme Wiener, il est convaincu de la nécessité d’échapper à la
spécialisation ; il appartient d’ailleurs au premier cercle de ceux que l’on appellera les
“cybernéticiens”, tout comme Warren S. McCulloch ou Walter Pitts.
16
Von Neumann écrit, en juin 1945, le First draft of a Report on the EDVAC , qui théorise
les travaux de construction de l’ordinateur Edvac, en cours à la More School of Engineering
de l’Université de Pennsylvanie. Dans ce “brouillon”, von Neumann se réfère explicitement
aux travaux de McCulloch & Pitts, publiés en 1943 dans l’article A logical calculus of the
ideas immanent in nervous activity. L’idée fondatrice des deux auteurs est de traiter le
cerveau comme une machine de Turing. Ils proposent un modèle formel du fonctionnement
et de la structure élémentaire du cerveau qui met en équivalence l’activité nerveuse et la
17
logique propositionnelle. Les auteurs donnent ainsi forme au concept de neurone formel .
La mise en réseau de ces neurones formels revient à mettre en relation des propositions.
McCulloch & Pitts en déduisent qu’un réseau de connexions entre des propositions simples
peut donner lieu à des propositions très complexes. Autrement dit, des éléments simples
connectés en réseau ont un pouvoir calculatoire immense. Cette approche formelle du
cerveau, alors très en vogue, cherchait à estomper la frontière entre l’animal et la machine
jusqu’à la rendre imperceptible.
Le First draft of a Report on the EDVAC s’inspire de la terminologie et du symbolisme de
l’article de McCulloch & Pitts pour décrire les principes architecturaux et fonctionnels d’un
calculateur à programme mémorisé. Von Neumann y formalise la distinction entre matériel
et logiciel. Il pointe aussi l’analogie qui existe entre un tel calculateur et le cerveau humain.
Ce document, largement diffusé par Herman Goldstine aux États-Unis mais aussi en
Grande-Bretagne, deviendra la référence obligée de toutes les équipes qui développent les
Le Premier brouillon pour un rapport sur l’Edvac n’est signé que de John von Neumann. Même s’il
en est bien l’auteur, les résultats qui y sont présentés sont le fruit du travail de l’équipe de la More
School of Engineering qui travaillait à la mise au point de l’Edvac, premier ordinateur à programme
mémorisé ; à savoir J. Presper Eckert, John W. Mauchly, Arthur Burks et Herman Goldstine. Une
polémique s’en est suivie, Eckert et Mauchly contestant la paternité de ces résultats à von
Neumann. Ils tenteront même de déposer un brevet sur cette architecture en 1947, demande de
brevet que le gouvernement américain refusera d’entériner, garantissant ainsi sa diffusion massive.
17 Il s’agit d’un dispositif binaire auquel un seuil est fixé. Il reçoit des entrées de synapses excitatrices,
de poids équivalent, et de synapses inhibitrices, qui agissent de manière absolue. Le temps est pris
en compte dans le modèle, l’intégration synaptique formelle reproduisant le délai synaptique
observé physiologiquement. Son mode de fonctionnement se déroule en trois phases :
–
pendant un quantum de temps, le neurone répond à l’activité de ses synapses, qui reflète
l’activité des cellules présynaptiques ;
–
si aucune synapse inhibitrice n’est active, le neurone somme les entrées synaptiques ;
–
le neurone compare le résultat au seuil fixé. S’il est franchi, le neurone est actif, sinon il
est inactif.
16
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
17
Rien de plus formel qu’un ordinateur et un réseau Partie 1
18
premiers ordinateurs . Il y est décrit une structure universelle de machine à calculer et ses
constituants de base :
— l’unité arithmétique et logique : c’est l’organe de calcul proprement dit,
susceptible d’exécuter les opérations arithmétiques et logiques (addition,
soustraction, multiplication, division ; mais aussi, éventuellement,
interpolations, logarithmes, fonctions trigonométriques, etc.) ;
— la mémoire, ou mémoire centrale : elle sert à la fois à contenir les
programmes décrivant la façon d’arriver aux résultats, les données à
traiter et les résultats intermédiaires ;
— les organes d’entrée-sortie, ou périphériques : ils servent d’organes de
communication avec l’environnement et, en particulier, avec les
humains ;
— l’organe de commande, ou unité de contrôle (control unit) : elle assure le
fonctionnement cohérent des éléments précédents.
L’ensemble formé par l’unité arithmétique et logique, d’une part, et l’organe de commande,
d’autre part, constitue l’“unité centrale” ou “processeur”. L’ensemble des composants
physiques, appelé matériel (hardware), est commandé par un logiciel (software). Les
relations qui existent entre les constituants de base de la machine de von Neumann sont de
deux natures : passage d’une commande, d’une part, et passage de données, d’autre part
(voir figure 1.2). Ces éléments nécessaires s’avèrent suffisants pour donner corps à la
notion de “programme stocké”, apport considérable de von Neumann qui transforme les
machines de Turing en automates fonctionnels.
Certes, l’unité centrale ne peut effectuer qu’un ensemble restreint d’opérations
élémentaires, spécifiées à l’aide d’instructions. L’ensemble des instructions exécutables
19
constitue le jeu d’instructions, qui caractérise une architecture donnée . La puissance de
l’architecture dont von Neumann nous offre la vision synthétique tient dans
l’automatisation de l’enchaînement des processus formels, pivot de la combinaison des
instructions élémentaires en programmes qui pourront être exécutés en parallèle, sans
intervention humaine, plutôt qu’en séquentiel, avec intervention humaine réquisitionnée.
La quasi-totalité des ordinateurs contemporains repose toujours sur cette organisation logique et
matérielle, d’ailleurs appelée “architecture de von Neumann”.
18
La variation du jeu d’instructions d’une unité centrale à l’autre est ce qui impose d’écrire les
programmes spécifiquement pour chaque architecture. Cette contrainte, intrinsèque aux choix faits
lors de la conception des différents ordinateurs, va motiver des recherches nombreuses autour de
la notion d’interopérabilité ; ces recherches sont toujours d’actualité.
19
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
18
Rien de plus formel qu’un ordinateur et un réseau Partie 1
Figure 1.2 : Schéma des relations entre les organes d’un ordinateur à “architecture von Neumann”. Si
l’intégration des composants n’a pas cessé de réduire la taille tout en augmentant la puissance du
processeur, les principes d’organisation – avec périphériques d’entrée et de sortie – sont bien identiques à
ceux que nous connaissons aujourd’hui.
Le document de Von Neumann précise aussi la nature du langage symbolique à mettre en
œuvre dans le calculateur :
« L’arithmétique binaire a une structure logique plus simple et plus
cohérente que toute autre, l’arithmétique décimale en particulier.
Bien entendu, il faut se souvenir que le matériau numérique directement
utilisé par les humains sera le plus probablement exprimé avec le système
décimal. De ce fait, les notations utilisées dans R [qui regroupe les organes I,
input, et O, output, d’entrée-sortie] devraient être décimales. Mais il est
nettement préférable d’utiliser des procédures strictement binaires dans CA
[l’unité arithmétique et logique] comme dans l’unité de contrôle central CC,
quel que soit le matériau numérique qui y pénètre. Du coup, M [la mémoire]
ne devrait stocker que du matériau binaire.
Cela impose d’inclure des convertisseurs décimal-binaire et binaire-décimal
dans I et O. Étant donné que ces conversions requièrent une bonne quantité
de manipulations arithmétiques, il est plus économique d’utiliser CA, et par
conséquent d’utiliser aussi CC pour les fonctions de coordination, en
conjonction avec I et O. L’appel à CA implique, de toutes les façons, que
l’ensemble des fonctions arithmétiques utilisées dans ces deux conversions
soient strictement binaires. » (Von Neumann, 1945. § 5.2)
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
19
Rien de plus formel qu’un ordinateur et un réseau Partie 1
En quelques pages, von Neumann pose les bases de l’informatique : la machine exploite
pour son fonctionnement interne un langage symbolique unique, le binaire, et communique
avec l’extérieur par l’entremise d’interfaces d’entrée, qui convertissent les données initiales
pour les rendre traitables par le processeur, et d’interfaces de sortie, qui convertissent les
résultats calculés de manière à les rendre intelligibles aux humains. Prenant en compte la
20
dimension calculatoire de la rétroaction dans son architecture, von Neumann confirme que
« ces automates d’un nouveau genre […] ne se contentent plus d’opérer des calculs (à la
façon des calculatrices analogiques) mais sont capables de mécaniser universellement la
calculabilité » (Pélissier & Tête, 1995. p. XXIV).
Si l’on sait désormais que tout ce qui est calculable est mécanisable – l’évolution des
ordinateurs, l’apparition des compilateurs, la complexification des langages de
programmation et des logiciels, au fil des décennies, le démontrera amplement –, il reste
encore à mettre en réseau les ordinateurs pour voir émerger ce que l’on appellera le
cyberespace. Et qui dit mettre en réseau induit transmettre de l’information d’un ordinateur
à l’autre. Mais avant même de pouvoir la transporter, encore faut-il s’accorder sur ce qu’est
l’information. Là encore, émergent des travaux théoriques menés en parallèle des
recherches encouragées par l’urgence de dominer technologiquement l’ennemi. En tête de
ceux-ci apparaissent ceux de l’ingénieur électricien et mathématicien Claude Shannon qui,
à l’instar de Turing en Angleterre, travaille comme cryptanalyste pour le gouvernement
américain.
Information quantifiée, communication théorisée
21
La publication de l’article A Mathematical Theory of Communication constitue l’un des
e
événements marquants de l’histoire de la science du XX siècle. Shannon y introduit un
22
« jeu de théorèmes , mais surtout de simples définitions, que beaucoup de chercheurs issus
aussi bien des sciences humaines et que des sciences exactes jugent d’une grande
puissance, d’une grande élégance et d’une grande beauté » (Dion, 1997. p. 11).
« C’est en pensant à la machine de Turing et à la récursivité de sa procédure que McCulloch puis von
Neumann attribuent des algorithmes booléens aux neurones formels. » (Pélissier & Tête, 1995.
p. XXIV).
21 L’histoire de cet article illustre la modestie de son auteur. D’abord publié dans une revue interne
des laboratoires Bell, le Bell System Technical Journal (vol. 27, juillet 1948, p. 379-423), il est republié
en livre à l’initiative de Warren Weaver sous le titre The Mathematical Theory of Communication
(augmenté d’une seconde partie, signée Weaver), University of Illinois Press, 1949. À noter, le
changement intervenu dans le titre entre la première et la deuxième publication, passé “d’une”
théorie à “la” théorie de la communication.
22 La théorie de Shannon compte douze théorèmes principaux, démontrés, et presqu’autant de
définitions.
20
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
20
Rien de plus formel qu’un ordinateur et un réseau Partie 1
Jusqu’alors, la notion d’information était vague et simplement qualitative
24
23
; avec la
25
théorie de Shannon, elle prend un sens précis parce que quantifiée – même si elle est
26
cantonnée au domaine particulier des systèmes fermés – et se dote d’une unité de mesure
nouvelle : le bit – contraction de binary unit ou unité binaire. Dion relativise l’importance
des notions de bruit et de redondance en regard des deux notions fondamentales que sont
l’information et l’entropie. Bien que reproduisant le schéma référentiel du “paradigme de
Shannon” (figure 1.3), il pointe l’intérêt marginal de cette représentation « car le principal
effort de la théorie de l’information consiste surtout à étudier avec précision la capacité de
transport du canal de transmission ainsi défini, et, à cette fin, elle utilise une définition
quantifiée de l’information. » (ibid. p. 53).
Figure 1.3 : Le schéma fondamental d’une communication telle qu’elle est considérée par Shannon dans sa
théorie. La source d’information exploite l’émetteur pour coder son message et l’envoyer sous forme de
signal dans le canal de communication. Le signal arrive au receveur, qui le décode pour le rendre
intelligible à la destination. La source de bruit perturbe, éventuellement, le signal lors de son transit dans le
canal de communication. (Schéma extrait de Shannon, 1948. p. 2)
Avant même l’approche probabiliste de Shannon, une première approche quantitative de
l’information a été introduite par l’astronome et mathématicien Ronald A. Fisher, auteur entre
autres de la méthode du maximum de vraisemblance (1934). Cette méthode assoit la pratique de
l’analyse statistique des populations sur un socle mathématique axiomatique, grâce à des indicateurs
de synthèse fournis par des échantillons de la population étudiée. Plus les données chiffrées que l’on
peut extraire d’un échantillon représentent correctement cette population et plus l’information
contenue dans l’échantillon doit être considérée comme élevée. Fisher tire de cette observation une
valeur de l’information. Et « cette idée, qui est à la racine de toute la théorie de l’estimation et de
l’inférence statistique, est exactement celle que l’on retrouvera vingt ans plus tard chez Shannon,
exprimée cette fois en des termes non plus statistiques mais probabilistes » (Dion, 1997. p. 21).
24 Bien que l’auteur ait choisi d’appeler son travail “théorie de la communication”, l’usage lui a
préféré l’appellation “théorie de l’information”.
25 La quantification réduit la portée de la théorie de Shannon car elle « contraint la théorie de
l’information à se cantonner aux aspects formels de la communication en négligeant tout ce qui pourrait
concerner le contenu des messages » (ibid. p. 15).
26 Jacques Jaffelin pointe les limites de la théorie de Shannon ainsi : « On sait que Claude Shannon
envisagea de définir l’information comme la mesure de l’ordre d’un système fermé. Cet ordre étant
considéré comme la probabilité maximale, pour tout système fermé, de tendre naturellement vers un
équilibre thermique ou à une entropie égale à zéro. […] La théorie de Shannon aboutit, à la toute fin, au
paradoxe suivant : “Plus c’est aléatoire, plus c’est complexe”, ou encore : “Plus c’est insensé (dans les
deux sens du terme) ou entropique, plus c’est improbable”. » (Jaffelin, 1993. p. 19)
23
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
21
Rien de plus formel qu’un ordinateur et un réseau Partie 1
Une information, selon Shannon, désigne un ou plusieurs événements dans un ensemble
fini d’événements possibles. Toutes les mesures informationnelles sont calculées sur les
probabilités qui caractérisent cet ensemble. Une valeur est associée à l’information en
fonction de la réduction d’incertitude qu’elle apporte. L’unité de quantité d’information
– nommée bit mais aussi “logon”, “Hartley” ou “Shannon” – correspond à une réduction de
27
moitié de l’incertitude . Au total, la quantité d’information est un concept statique « qui
permet de jauger une situation finalisée, une production, un résultat » (ibid. p. 64).
C’est ici qu’intervient l’entropie, un concept aussi important que la quantité d’information
transférée et qui provient de la thermodynamique. Shannon s’en sert pour évaluer le
potentiel informationnel d’une situation avant l’apparition de l’événement. Autrement dit,
« c’est la quantité de possibilités d’un événement ou d’une information de trouver sa
réalisation en étant captée par le récepteur. […] Le concept de chaise est une information,
son entropie se compose de toutes les chaises possibles et imaginables. » (Charland, 1998).
À ces deux notions centrales, Shannon ajoute :
–
la redondance, qui désigne le degré de corrélation dans l’apparition des
signes de l’alphabet utilisé (le u qui suit généralement le q en français,
par exemple). Dans un canal efficace, sans bruit, la redondance
correspond à une perte de performance. Dans un canal bruité, elle est
assimilable à un processus de vérification intégré ;
–
l’équivoque du canal, qui mesure l’incertitude demeurant sur le signal
émis après qu’il a été reçu. Cette mesure dépend du seul canal, étant
indépendante du message transmis ;
–
l’ambiguïté, la symétrique exacte de l’équivoque, qui mesure
l’incertitude sur le message reçu du point de vue de l’émetteur ;
–
28
la transinformation du canal, qui mesure la quantité d’information
effectivement transmise par un canal bruyant. Dans un canal efficace, la
transinformation est maximale ; toute l’information est reçue.
Dernière pièce de cette construction calculatoire, la « capacité d’un canal correspond à la
transinformation maximale qu’on peut obtenir avec la loi de probabilité de la source la
plus avantageuse possible » (Dion, 1997. p. 85). Certains des théorèmes de Shannon
démontrent qu’il existe toujours des codes permettant d’utiliser la totalité de la capacité
d’un canal, bruyant ou non ; même si aucun moyen théorique n’est donné par l’auteur pour
déterminer quels sont ces codes.
L’utilisation du logarithme permet de sommer la valeur de deux informations indépendantes. Le
logarithme de base 2 est choisi du fait de cette convention puisque log 2 = 1.
28 Dion apporte cette précision : « Il y a équivoque quand l’émetteur produit deux messages différents
qui peuvent être compris de la même manière, alors qu’il y a ambiguïté quand l’émetteur produit un
message qui peut être compris de deux manières différentes. » (ibid. p. 85).
27
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
22
Rien de plus formel qu’un ordinateur et un réseau Partie 1
La théorie de l’information n’a cessé de nourrir d’innombrables travaux depuis sa
publication. Au centre d’une polémique scientifique pas encore éteinte, elle a débordé le
cadre de la communication téléphonique – qui motivait Shannon initialement – pour
s’étendre à la psychologie (surprise et information), la biologie, la théorie de la complexité
(en particulier, la compression des messages), etc.
Point remarquable, les travaux de Shannon et ceux de Turing convergent sur un certain
nombre d’éléments qui rendent compatibles les applications qui seront tirées de leurs
théories. Les deux chercheurs s’intéressent à des codes et à leur traitement hors la
sémantique. Turing rend calculable par sa machine n’importe quel symbole susceptible
d’être régi par un algorithme ; Shannon définit les limites pour encoder un signal et en
assurer la transmission au mieux de la capacité du canal de communication choisi. L’un et
29
l’autre s’accordent, avec von Neumann et Wiener, sur l’utilisation du binaire .
Par ailleurs, Wiener et Shannon se complètent, là où Ronald A. Fisher fait pont entre eux
avec l’estimation et l’inférence statistiques. Wiener associe les questions de transmission du
signal à la notion de message, vu comme une séquence discrète ou continue d’événements
mesurables distribués dans le temps. Il en déduit que l’information, traitée comme une série
temporelle, relève des mathématiques statistiques et permet la prévision. De leurs travaux
conjoints « sur le codage des informations et sur le rapport signal/bruit va naître un
dispositif théorique radicalement nouveau, susceptible de s’appliquer indifféremment à des
systèmes artificiels ou naturels dès l’instant que s’y posent des questions de contrôle du
comportement d’un système » (Pélissier & Tête, 1995. p. 5).
Cette convergence de vues, en ce qu’elles reposent sur des notions mathématiques
communes, explique la très grande plasticité des outils issus de ces travaux théoriques. Le
pouvoir calculatoire des machines de Turing est immense, le pouvoir de transmission des
canaux de communication de Shannon l’est tout autant ; et leur mise en œuvre commune
est facilitée par Wiener et von Neumann. Tous manipulent le même langage binaire et
opèrent sur lui des calculs, tous processus parfaitement adaptés aux ordinateurs.
Si l’on revient à la définition du calcul en tant que moyen de résolution de problèmes, les
ordinateurs à architecture von Neumann mis en réseau et communiquant conformément aux
principes de Shannon constituent un appareillage technique d’une capacité calculatoire
potentiellement illimitée. Mais les raisons qui ont poussé à relier les premiers ordinateurs
entre eux tiennent beaucoup moins à cette communion mathématique initiale qu’à des
raisons d’ordre pratique et économique.
Au cours de ses travaux pour les laboratoires Bell et avant même d’avoir élaboré sa théorie de la
communication, Shannon a déjà fait appel à la logique booléenne pour analyser et simplifier les
circuits des commutateurs. C’était d’ailleurs le sujet de son mémoire de maîtrise : A Symbolic Analysis
of Relay and Switching Circuits (1937).
29
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
23
Rien de plus formel qu’un ordinateur et un réseau Partie 1
La mise en réseau, un besoin pragmatique
30
Le tout premier réseau informatique est né non pas directement de contraintes militaires
mais d’une raison beaucoup plus pragmatique : relier les ordinateurs des laboratoires
scientifiques américains afin que les chercheurs puissent partager leurs ressources
informatiques était pertinent ; cela permettait surtout de respecter les contraintes
budgétaires fixées par l’Advanced Research Project Agency (Arpa) à son service dédié à la
recherche informatique, l’Information Processing Techniques Office (IPTO). L’ambiguïté
quant à l’intention d’origine dans la création du réseau Arpanet découle en partie de cette
situation particulière, héritée de la guerre, où militaires, universitaires et entreprises privées
travaillent en bonne intelligence.
L’Arpa, créée début 1958 en réponse au lancement du satellite artificiel Sputnik par les
Soviétiques, établit le nouveau contexte de collaboration entre chercheurs du civil et
31
agences gouvernementales ; celles du ministère de la Défense (Department of Defense, ou
DOD) en particulier, dont dépend l’Arpa. Cette agence hérite en grande partie de la
fonction qu’avait remplie l’OSRD dirigé par Bush, même si les liens avec les industriels
sont minorés au profit de la relation des scientifiques avec l’administration. Et c’est à
l’initiative de Robert Taylor, un psychologue nommé à la tête de l’IPTO en 1965, que les
recherches en vue de la création du réseau Arpanet sont entamées dès 1966.
Ici encore, la recherche appliquée s’est fondée sur les constructions théoriques bâties autour
32
de la question de réseau. Comme le note l’épistémologue Daniel Parrochia , « les faits de
base qui s’offrent au chercheur qui tente de prendre la mesure du phénomène réticulaire »
33
(Parrochia, 2001. p. 9) sont aussi nombreux que de nature diverse . Le réseau, ce filet (rete
La réunion des inventeurs d’Arpanet, lors du vingt-cinquième anniversaire de sa naissance, fut
l’occasion pour Robert Taylor (initiateur du projet) de tenter de mettre fin à une légende : celle qui
veut que « l’Arpanet avait été bâti pour renforcer la sécurité nationale, pour mettre le pays à l’abri d’une
attaque nucléaire. Ce n’était qu’une fable mais, faute de démenti, presque tout le monde avait fini par la
prendre au sérieux. » (Hafner & Lyon, 1996. p. 16).
31 La nécessité toujours affirmée par le gouvernement américain de dominer l’adversaire justifie,
selon Ronda Hauben, cette floraison ininterrompue d’agences chargées de mettre les scientifiques
au service de la Nation, et plus particulièrement de son armée. Elle rappelle ainsi : « Alors que la
guerre touchait à sa fin, nombreux furent les membres de la communauté scientifique et du
gouvernement à comprendre le besoin de trouver l’interface scientifiques/administration adaptée aux
temps de paix. Ils réalisèrent qu’une fois la démobilisation prononcée, l’implication des scientifiques civils
dans l’administration des États-Unis, et encore plus dans la collaboration avec le Department of
Defense, serait plus difficile à obtenir. Avec la dévastation de l’Europe par la guerre, savoir quel pays
pourrait assumer, après-guerre, le leadership en sciences et en technologies, plus spécialement dans la
recherche fondamentale, devint une question brûlante. La compétition se jouait entre les États-Unis et
l’Union Soviétique. Sciences et technologies devaient, de ce fait, prendre une importance beaucoup plus
grande dans l’Amérique d’après-guerre. » (Hauben, 1999)
32 Les citations de Parrochia proviennent de sa communication « La rationalité réticulaire », donnée
en ouverture du colloque « Penser les réseaux », qui s’est tenu à Montpellier les 20 et 21 mai 1999.
Les actes du colloque ont été publiés par Champ Vallon sous le même titre (voir bibliographie).
33 Ce que l’auteur qualifie de “rationalité réticulaire” consiste essentiellement en trois éléments
caractéristiques :
1. « Le premier est d’abord qu’un réseau s’identifie à la distribution cohérente et ordonnée d’une
pluralité de liaisons dans l’espace. » (ibid, p. 13) ;
30
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
24
Rien de plus formel qu’un ordinateur et un réseau Partie 1
ou retis, en latin, désigne autant le filet que la technique du tissage) qui enserre les solides
et laisse passer les fluides, qui couvre le corps et le laisse respirer, qui le cache et le révèle à
e
e
la fois, quitte le corps à la charnière des XVIII et XIX siècles ; il peut désormais « être
34
construit comme un artefact mécanisé, une technique autorégulée » (Musso , in Parrochia,
2001. p. 201).
e
Le XIX siècle, c’est le moment où se construisent les premiers réseaux de distribution
d’électricité. C’est aussi le moment où Gustav Robert Kirchoff, alors encore étudiant en
physique, formule, en 1845, deux règles qui gouvernent les flux électriques :
1.
la loi de conservation des flux, qui veut qu’à tout nœud du réseau, la
somme des flux entrants soit égale à la somme des flux sortants ;
2.
la loi qui établit que l’équation associée à la somme des circuits d’un
réseau n’est autre que la somme des équations correspondant aux circuits
35
individuels .
Ces deux lois connaîtront de multiples extensions pour répondre à la complexification de la
notion même de réseau – théorie des flots, théorie des flots à multiplicateur, théorie des
e
multiflots – mais ne seront jamais invalidées. S’y ajoute, au XX siècle, la résolution de
questions connues sous les noms de “problème du flot compatible” (théorème du flot
compatible, établi par Alan J. Hoffman en 1958) et du “problème du flot maximum”
(théorème du flot maximum, démontré par Lester R. Ford & Delbert R. Fulkerson en 1957).
Et, pour paraphraser Pierre Musso (ibid. p. 208), si la révolution industrielle, la machine à
vapeur et l’électricité ont permis d’inventer les réseaux mécaniques autorégulés, la
mutation des techniques de traitement de l’information, qui se fait jour au milieu du
e
XX siècle avec l’invention de l’ordinateur, et les progrès de l’approche axiomatique des
mathématiques rendent possibles les réseaux auto-organisés.
2.
Le deuxième fonde la différence entre graphe et réseau car « il ne suffit […] pas de
prendre en compte le seul espace, la figure ou le site. Il faut considérer également les
mouvements, plus précisément ce qui se déplace de site en site (énergies, denrées, matières,
signaux, etc.). » (ibid, p. 17) ;
3. Le troisième élément est la prise en compte « des problèmes encore plus complexes »,
notamment des problèmes qui font apparaître « un trafic non seulement aléatoire mais de
plus en plus dense, et fait de flux mobiles » et « qui réclament des solutions qui ne peuvent
pas être exprimées sous une forme linéaire, et donc qui ne sont plus directement
transposables dans des programmes mais doivent être étudiés en terme de stratégie. » (ibid,
p. 20-21).
Il précise : « nous dirons qu’il y a stratégie à partir du moment où l’on ne peut plus résoudre un problème
en fixant a priori, une fois pour toutes, un programme de résolution liée à des contraintes graphiques, et
où on doit donc accepter l’idée de compléter progressivement les projets établis à l’avance par de
nouveaux projets inspirés par les circonstances. » (ibid, p. 20)
34 La communication de Pierre Musso, lors du colloque « Penser les réseaux », était intitulée :
« Genèse et critique de la notion de réseau ».
En établissant que les phénomènes électriques au sein d’un réseau sont décrits par des relations
linéaires, Kirchoff introduit une formalisation mathématique qui facilite la conception et la mise au
point des réseaux électriques. De même, la théorie des graphes puis la théorie des réseaux
joueront un rôle essentiel pour l’élaboration des réseaux informatiques.
35
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
25
Rien de plus formel qu’un ordinateur et un réseau Partie 1
Baran, ange gardien des réseaux de communication
La première contribution effective à la constitution de ces réseaux auto-organisés est le fait
de deux chercheurs, Paul Baran et Donald Davies. Chacun de son côté va imaginer un mode
d’organisation du réseau, distribué ou réparti, et un mode de circulation des données dans le
réseau, par commutation de paquets (packet switching).
Figure 1.4 : Historiquement, les réseaux téléphoniques ont toujours été organisés autour de centraux.
L’organisation centralisée (A) est la plus vulnérable de toutes : il suffit de détruire le centre pour rendre le
réseau muet. La version décentralisée (B) améliore la résistance d’ensemble en interconnectant des îlots
centralisés par des liaisons longue distance ; néanmoins, la destruction de quelques nœuds d’interconnexion
suffit à réduire le réseau à néant. La version distribuée (C), que propose Baran, opère un maillage distribué,
ou réparti, entre les différents centraux.
36
Baran intègre la Rand Corporation en 1959, au département informatique de la division
mathématique. Il s’y intéresse à la capacité de survie des systèmes de communication
37
téléphonique en cas d’attaque nucléaire . Dès 1960, il est convaincu que la question ne
peut pas se résoudre par des moyens analogiques et qu’il faut faire appel aux traitements
numériques réalisés par ordinateur – en particulier du fait de la faible dégradation du signal
Fondée en 1946, la Rand est l’une des pièces maîtresses pour conserver, après la Seconde
Guerre mondiale, le potentiel de recherche opérationnelle du “triangle d’acier”. Cet établissement
privé – premier exemple de think tank – laisse ses chercheurs très libres quant à l’objet de leurs
recherches… et trouve son financement au travers de contrats très lucratifs avec l’administration
américaine. Au début des années 1960, l’armée de l’air (l’Air Force) est le principal bailleur de fonds
de la Rand.
37 Là réside sans doute la véritable origine de la confusion sur l’origine d’Internet, outre le
financement des recherches par le Department of Defense. Baran n’aura de cesse de justifier ses
recherches par la nécessité de pouvoir résister à une telle attaque.
36
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
26
Rien de plus formel qu’un ordinateur et un réseau Partie 1
numérique comparée à la rapide dégradation du signal analogique durant la transmission
dans un réseau. Malgré les résistances auxquelles il doit faire face – AT&T, alors seul
opérateur longue distance aux États-Unis, ne croit pas au numérique –, Baran pousse ses
recherches tant vers les structures des réseaux que vers l’exploitation maximale de leur
capacité pour y faire circuler les données.
Il publie ses recommandations dans un article majeur : On Distributed Communications, en
1964. Baran y donne les arguments théoriques et pratiques pour démontrer la supériorité du
concept de réseau distribué sur tout autre mode d’organisation (figure 1.4). Son
argumentation est étayée par l’exploitation optimale de concepts connus, comme la
38
redondance (figure 1.5), et l’introduction de concepts nouveaux, comme le “bloc message
standard” (Standard message block, figure 1.6) ou les tables de routage adaptatif – on dit
aussi routage dynamique.
Figure 1.5 : Le niveau de redondance du réseau – le nombre de nœuds reliés à un nœud – n’est pas
prédéterminé, comme le montre ce schéma. Baran démontre qu’un niveau de redondance de 3 ou 4 suffit à
garantir au réseau un niveau de résistance proche de sa limite théorique.
Cette notion de redondance du réseau ne doit pas être confondue avec la redondance du signal
telle qu’elle est décrite par Shannon dans sa théorie de la communication.
38
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
27
Rien de plus formel qu’un ordinateur et un réseau Partie 1
L’argumentation de Baran en faveur d’un fractionnement des messages en blocs
standardisés est sans équivoque :
« Les réseaux de communication actuels, utilisés pour des transmissions
numériques, reposent sur des liens et des concepts conçus initialement pour
tout autre chose : la voix. […] Un bloc message standard universel pourrait
se composer de 1 024 bits. La plus grande partie serait réservée aux données
à transmettre ; le reste servirait à stocker des informations à usage interne,
comme la détection d’erreur ou les données de routage. […]
Surtout, des blocs de données standardisés permettent à de nombreux
utilisateurs simultanés avec des besoins en bande passante très variés de
partager efficacement un réseau constitué de liens aux débits différents. Le
bloc message standardisé simplifie la construction de routeurs à très haute
vitesse. Chaque utilisateur connecté au réseau peut injecter des données à
n’importe quel rythme, jusqu’à la limite maximale. Les données d’un
utilisateur sont stockées jusqu’à ce qu’un bloc complet de données soit reçu
par la première station. Ce bloc est oblitéré avec un en-tête et une adresse de
retour, ainsi que des informations à usage interne. De là, il est transmis dans
le réseau. » (Baran, 1964. ch. IV)
Figure 1.6 : Baran explicite ici la composition d’un bloc message standard : en-tête, adresse de destination,
adresse de retour, gestion du handover, données proprement dites, fin du message. Il montre aussi comment,
avec des mémoires-tampon (buffers), il est possible de faire voyager un bloc message sur des portions de
réseau aux bandes passantes très différentes.
Baran fiabilise simultanément la structure du réseau et le transport des messages. Avec son
approche, les données deviennent indépendantes du canal de communication. Codés en
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
28
Rien de plus formel qu’un ordinateur et un réseau Partie 1
39
binaire, fractionnés en blocs indifférenciés qui sont glissés dans des enveloppes logiques ,
les messages de toute nature sont assurés d’arriver à destination même si les routes
empruntées sont différentes et inconnues à l’avance.
Alors même que Baran renonce à convaincre ses commanditaires de monter un réseau
expérimental pour valider ses idées, en 1965, Davies fait progresser des idées similaires au
sein du National Physical Laboratory, en Angleterre. Seule différence, de taille, entre les
deux chercheurs, Davies n’a cure des questions militaires : il veut créer un nouveau réseau
de communication public et « exploiter les capacités techniques qu’il distinguait dans les
ordinateurs et les commutateurs numériques pour mettre au point une informatique à
longue distance, décentralisée, hautement réactive, hautement interactive » (Hafner &
Lyon, 1996. p. 79). Conscient de la diversité des matériels et des logiciels en usage dans les
différents centres de ressources informatiques, Davies imagine un ordinateur spécialisé
qu’il chargerait d’assurer la gestion et le transport des paquets
40
au sein du réseau,
indépendamment des ordinateurs qui y sont connectés.
D’Arpa à Inter, tout est net
C’est cette idée que Taylor reprend à son compte, en 1967, pour mettre en place le réseau
Arpanet entre les centres de recherches informatiques des universités américaines. Baptisés
Interface Message Processors (ou IMP), ces ordinateurs dédiés à la gestion du réseau et au
transport des messages sont destinés à fonctionner en permanence et assurer la
communication entre des grands systèmes informatiques par ailleurs incompatibles. Les
IMP n’ont pas vocation à être pilotés en permanence par des humains mais au contraire
41
doivent assumer le bon fonctionnement du réseau de manière autonome .
D’autres étapes vers la constitution d’un réseau de réseaux sont rapidement franchies
(figure 1.7). L’une, plus anecdotique que porteuse d’évolutions majeures, a lieu en 1971
42
lorsque sont interconnectés Arpanet et Alohanet , un réseau sans fil par relais radio mis en
place par Norm Anderson entre les îles hawaiiennes. L’autre, en revanche, a des
implications dont nous ressentons aujourd’hui pleinement les effets.
Outre le segment du message à transporter qui constitue l’essentiel des données, le “bloc
message standard” emporte avec lui des informations à usage interne – début et fin de paquet,
adresses de départ et d’arrivée, etc. – qui constituent l’enveloppe. L’encapsulation des données est
une autre application des machines universelles ; où ce qui importe est de transporter, pas de savoir
ce que l’on transporte.
40 C’est à Donald Davies que l’on doit l’appellation “commutation de paquets”, ou packet switching.
41 Cette tâche de contrôle a été assignée à un programme, le Network Control Program ou NCP, qui
contenait entre autres “un protocole de communication symétrique d’hôte à hôte”. Steve Crocker,
qui dirigeait le développement de NCP, précise : « NCP fut ensuite utilisé pour désigner le protocole
mais, originellement, il désignait le programme qui gérait les connexions au sein du système
d’exploitation » (Crocker, in Reynolds & Postel, 1987).
42 Comme Arpanet, Alohanet a été directement financé par l’IPTO, ce qui explique avec quelle
facilité son concepteur a pu obtenir un IMP dès 1971.
39
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
29
Rien de plus formel qu’un ordinateur et un réseau Partie 1
Figure 1.7 : Au tout début des années 1970, le réseau Arpanet relie les principaux centres de ressources
informatiques universitaires des États-Unis. Tous ont en commun d’être financés, peu ou prou, par la
Darpa. Et tous se distinguent par la nature des grands systèmes (mainframes) ainsi interconnectés : aucun
n’est directement compatible avec les autres. Pourtant, par l’entremise du réseau, il est désormais possible
de faire transiter des données de l’un à l’autre.
Dès 1970, l’informaticien Vinton Cerf et l’ingénieur électricien Robert Kahn anticipent les
limites du protocole de communication NCP implanté dans les IMP. Leur intuition aboutit,
en 1974, à la publication d’un article fondateur, A Protocol for Packet Network
43
Interconnection , qui décrit les principes du Transmission Control Program ou TCP. C’est
dans cet article qu’apparaît pour la première fois le terme “Internet”. Leur objectif est
double : d’une part, apporter toutes les fonctions de transport et de transmission ; d’autre
part, offrir une palette de services, du circuit virtuel aux datagrammes. Le protocole subit
divers ajustements jusqu’à aboutir à une séparation nette entre les fonctions réseau, prises
en charge par le protocole IP (Internet Protocol), et les services réseau, gérés par TCP. La
44
finalisation de l’ensemble des protocoles TCP/IP aboutit à un modèle en couches
(figure 1.8), qui exploite le principe de l’encapsulation à chaque niveau.
Son résumé est explicite sur le sujet : « Un protocole qui gère le partage des ressources qui existent
dans différents réseaux à commutation de paquets est présenté. Le protocole pourvoit aux variations de
la taille des paquets, des erreurs de transmission, du contrôle de séquence des flux, du contrôle d’erreur
de bout en bout et de la création et de la destruction des connexions logiques de process à process dans
les réseaux individuels. Certains aspects de l’implémentation sont pris en compte et les problèmes
interréseaux comme le routage, le comptage et les timeouts sont exposés. » (Cerf & Kahn, 1974)
44 Les rôles des quatre couches du modèle TCP/IP sont les suivants :
–
la couche “accès réseau” spécifie la forme sous laquelle les données doivent être
acheminées quel que soit le type de réseau utilisé ;
–
la couche “Internet” est chargée de fournir le paquet de données (datagramme) ;
–
la couche “transport” assure l’acheminement des données, ainsi que les mécanismes
permettant de connaître l’état de la transmission ;
–
la couche “application” englobe les applications standards du réseau (Telnet, SMTP,
FTP…).
43
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
30
Rien de plus formel qu’un ordinateur et un réseau Partie 1
Figure 1.8 : Lors d’une transmission TCP/IP, les données traversent chacune des couches au niveau de la
machine émettrice. À chaque couche, un en-tête est ajouté au paquet de données. Au niveau de la machine
réceptrice, lors du passage dans chaque couche, l’en-tête correspondant est lu puis supprimé. Après
réception et décodage, le message retrouve son état originel.
Cette formulation des protocoles TCP/IP rencontre une adhésion croissante dans les
milieux universitaires à la fin des années 1970. Alors même que les travaux des instances
45
internationales ont abouti à un autre modèle , entériné par l’Organisation internationale de
normalisation (ISO), c’est finalement TCP/IP qui s’impose comme le standard de fait pour
la mise en place des interréseaux qui vont constituer Internet. Une date plus particulière est
er
considérée comme référentielle : le 1 janvier 1983, lorsque le réseau Arpanet abandonne le
protocole NCP à son profit.
Figure 1.9 : Le nombre de réseaux opérationnels sur Internet – entendu comme l’interréseaux exploitant
l’ensemble de protocoles TCP/IP – croît de manière accélérée dès que le réseau Arpanet abandonne NCP.À
noter, le soutien direct de l’Arpa s’interrompt en 1986. (Source du schéma : Leiner, Cerf & alt., 2000.)
Le modèle ISO compte sept couches et non pas quatre : physique, liaison données, réseau,
transport, session, présentation et application.
45
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
31
Rien de plus formel qu’un ordinateur et un réseau Partie 1
La justesse de vue des théoriciens évoqués jusqu’ici prend corps à la fin des années 1960,
lorsque le réseau Arpanet commence à fonctionner (figure 1.9). Par sa seule existence, ce
réseau montre à quel point les idées de Wiener sur la commande et le contrôle peuvent être
matérialisées dans des ordinateurs à architecture von Neumann et des réseaux distribués
comme Baran les avait imaginés. De manière plus fondamentale, les bases théoriques
posées par Turing s’avèrent applicables à toutes les échelles ; qu’il s’agisse de concevoir un
programme, un ordinateur ou un réseau d’ordinateurs. Et Shannon apporte les outils
théoriques complémentaires pour quantifier l’information et la transporter sans perte en
contraignant le fonctionnement des réseaux dans certaines limites.
Parallèlement à cette élégante construction théorique, progressivement mise en application
46
par des équipes universitaires et des entreprises innovantes , se développe une culture de
plus en plus populaire de l’automate et de l’ordinateur. Il n’y a plus seulement les discours
scientifiques et politiques pour l’alimenter, mais aussi toute une littérature, en particulier de
science-fiction, qui nourrit l’imaginaire commun.
Les unes comme les autres sont financées, directement ou non, par les officines militaires
chargées de la recherche, héritage incontestable de la politique instituée à la demande de Bush en
1940.
46
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
32
Visions et visionnaires la force du récit Partie 2
Visions et visionnaires
la force du récit
La plupart des découvreurs évoqués jusqu’ici ne s’arrêtèrent pas aux recherches théoriques
et appliquées. Turing, Shannon, Bush, von Neumann, Wiener, McCulloch, et aussi
beaucoup d’autres, s’exercèrent à la prospective. Cela se traduisit en articles, en
communications, en ouvrages ; toutes contributions qui tenaient autant de la fiction que de
la science, sans basculer dans la science-fiction. Ces anticipations, pour certaines réalisées,
d’autres en devenir, d’autres encore étiquetées utopie, restent comme des traits du génie de
leurs auteurs. Les motivations qui les ont poussés à s’exprimer sur ce mode prospectif
varient : certains persistent dans leur engagement auprès de l’administration américaine et
orientent à leur convenance les financements publics de la recherche fondamentale (von
Neumann, Licklider), d’autres cherchent à servir l’intérêt général hors du contrôle étatique
(Wiener, Engelbart). La plupart de ces scientifiques tirent un profit financier, direct ou
indirect, de ces relations avec le Department of Defense (Wiener, refuse tout financement
du DOD dès 1943). Le triangle d’acier apparaît inoxydable.
Les récits des pères fondateurs, toujours justifiés par la connaissance déjà acquise et la
croyance dans la puissance de la logique, nous invitent à regarder cet avenir où le bonheur
1
passe par le progrès scientifique et technique . Voici venir l’avènement de l’ordinateur
symbiote, prochaine (ultime ?) étape à franchir pour l’humanité. Les premiers destinataires
de ces récits les réinterprètent alors pour les diffuser : les politiques inventent la société de
l’information ; les militaires théorisent la domination par la technologie ; les scientifiques
orientent leurs recherches pour servir les uns et les autres ; les informaticiens, enfin, créent
une nouvelle industrie. C’est la nation américaine tout entière qui est engagée par ses élites
2
dans l’aventure numérique, avec pour devise “dominer pour ne pas être dominé” .
Mais aux discours officiels s’ajoutent d’autres voix. Intégrant l’irrévocabilité de
l’engagement américain, elles postulent des futurs où l’ordinateur et le réseau servent
Les discours scientifiques de cette époque rappellent aussi bien les théories d’Auguste Comte que
celles de Saint-Simon. La religion saint-simonienne, telle qu’explicitée par Michel Chevalier dans les
années 1832 à 1836, « s’affirme comme celle de la communion par les réseaux de communication »
(Musso, in Parrochia, 2001. p. 206) avec comme objectif, posé par Saint-Simon, que la « société ne
peut se limiter à une communauté d’intérêts ; la condition de sa réussite est de partager un but
commun » (ibid. p. 205).
2 À la fin de la Seconde Guerre mondiale, la menace vient de l’Union Soviétique. Après
l’effondrement du système communiste dans les pays de l’Est, épuisés par une course technologique
inégale, la notion d’adversaire devient plus abstraite. La menace directe cristallisée dans la guerre
froide disparaît, remplacée par une menace diffuse. La doctrine américaine évolue, s’adapte au
contexte, et poursuit imperturbablement sa quête pour la domination technologique.
1
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
33
Visions et visionnaires la force du récit Partie 2
d’autres intérêts que ceux des élites. Les formes qu’elles adoptent pour s’exprimer
appartiennent, pour beaucoup, à la culture. La littérature fourmille d’images annonciatrices,
3
lorsque relue à l’aune du cyberespace (Borges, Oulipo ). La science-fiction, ou plutôt la SF
(comme on dirait “le polar”), décline à l’envi les mondes envahis de machines numériques
(Dick, Heinlein, Gibson, Simmons, Truong… mais aussi Blade Runner, The Matrix, les
pulps et autres sci-fi comic books). Elle alerte aussi sur les conséquences, et les dérives
potentielles, d’un tel engagement dans l’aventure numérique. Ces récits nourrissent
l’imaginaire commun, et suscitent des vocations. Brigitte Chamak en donne une illustration
éclairante :
« La culture science-fiction, que prônent nombre de chercheurs en réalité
virtuelle, nous amène à analyser ce phénomène qui consiste, pour un
chercheur, à utiliser l’imagination des romanciers afin de trouver un sujet de
recherche et élaborer un modèle du monde à venir qu’il veut contribuer à
façonner. […] La possibilité d’une certaine pluralité est-elle remise en cause
par une science qui se veut unifiée et unifiante, et qui place l’ordinateur et
ses logiciels au centre d’un monde ayant une propension à se rapprocher de
certains univers décrits par des romanciers de science-fiction ? » (Chamak,
1996)
4
La fiction envisagée comme comburant d’une science carburant met en résonance les arts
et la science expérimentale. Les visions des artistes et des scientifiques s’inscrivent et
voyagent, prennent corps ou restent à l’état de potentiel. Toutes contribuent à façonner nos
5
désirs , nés du contact répété avec la technoscience, qu’elle soit fictionnelle ou réelle.
Si cybernétique m’était contée/comptée
Les fondateurs de la cybernétique, et leurs proches comme Shannon ou Turing, comptent
parmi les premiers vecteurs de ces récits, Leurs idées ? Un florilège des thèmes de
recherche qu’ils fixèrent avec succès aux générations futures :
— la proximité formelle des processus du cerveau et de l’ordinateur
développée par McCulloch & Pitts et aussi von Neumann et Wiener ;
Une grande part des productions de l’“Ouvroir de Littérature Potentielle” a été conçue grâce à
des dispositifs de contrainte formelle ; certains sont des algorithmes directement codables comme
les Cent Mille Milliards de Poèmes de Raymond Queneau, par exemple.
4 L’hypothèse d’une telle influence de la « culture science-fiction » demanderait à être vérifiée, aussi
séduisante soit-elle. Il est quand même troublant de constater, de manière empirique, que
beaucoup d’informaticiens se disent amateurs du genre “science-fiction”. Il est certain, en revanche,
que les auteurs majeurs du mouvement cyberpunk initié par William Gibson ont étudié les sciences
avant d’écrire, comme Greg Bear, David Brin, Bruce Sterling, Walter John Williams, Orson Scott
Card, etc.
5 “Désirs” plutôt que “besoins”, car même si la confrontation aux objets de la société de
consommation fait naître en nous des besoins, la culture technoscientifique nous conduit à
interroger le monde non seulement à travers ces objets mais d’une manière plus globale.
3
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
34
Visions et visionnaires la force du récit Partie 2
— la pensée vue comme processus formel, défendue par Turing et
Shannon ;
— les machines de Turing vues comme des êtres vivants, démonstration
faite par von Neumann, et vues comme une source de contrôle et de
communication, démonstration conduite par Wiener ;
— la symbiose humain-ordinateur, pronostiquée par J.C.R. Licklider ;
— l’humain augmenté, méthode de recherche et théorie à la fois, formalisée
et expérimentée par Douglas Engelbart ;
— le terminal multimédia comme outil d’accès universel à la connaissance,
en différentes versions signées Bush, Engelbart ou Licklider & Taylor ;
— etc.
Leurs publications s’étalent sur un quart de siècle, de 1943 à 1968. La création d’Internet
quinze ans plus tard concrétise une partie de leur programme. Depuis, le réseau de réseaux
ensevelit la première informatique dans ce qui est devenu le substrat technique du
6
cyberespace . Le néologisme apparaît dans un roman de 1984, Neuromancer de William
Gibson.
« Le cyberespace. Une hallucination consensuelle vécue quotidiennement en
toute légalité par des dizaines de millions d’opérateurs, dans tous les pays,
par des gosses auxquels on enseigne les concepts mathématiques… Une
représentation graphique de données extraites des mémoires de tous les
ordinateurs du système humain. Une complexité impensable. Des traits de
lumière disposés dans le non-espace de l’esprit, des amas et des
constellations de données. Comme les lumières de villes, dans le lointain… »
(Gibson, 1984. p. 63)
L’intention de Gibson : suggérer. Le gouvernail – la racine cyber, dérivée du grec kuber –
laisse entendre que l’individu interfacé au cyberespace a toute liberté de s’y diriger, d’y
contrôler sa navigation dans les données numérisées. En optant pour la racine cyber,
Gibson suit la voie tracée par Wiener, lorsqu’il synthétisa en un livre la plupart des
recherches transdisciplinaires – mêlant indifféremment la psychologie, l’informatique, la
neurophysiologie, les mathématiques, etc. – proliférant depuis 1940 et baptisa l’ensemble
Les anticipations sur les équipements d’interface sont à elles seules un sujet d’étude. Nous n’en
développerons pas les différentes étapes, sinon pour rappeler que l’ordinateur – ou tout autre
équipement d’interface avec le cyberespace – va progressivement glisser tout entier dans une boîte
noire, ce que Pierre Lévy appelle la « virtualisation de l’ordinateur » (Lévy, 1998. p. 44). Tout ce qui
se déroule dans la machine lui appartient, seul l’informaticien est en mesure d’intervenir dans la
boîte noire pour en décoder les mécanismes.
6
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
35
Visions et visionnaires la force du récit Partie 2
7
cybernétique . Une contribution majeure de la nouvelle discipline est d’avoir « créé un
cadre pour étudier des systèmes de contrôle et de communication qui s’étendent à des
entités multiples » (Wardrip-Fruin & Montfort, 2003. p. 65), plaçant l’humain et la machine
– le naturel et l’artificiel – sur un plan d’égalité formelle.
Les apports des cybernéticiens ne s’arrêtent pas là. Les termes “feedback”, “entrée” et
“sortie”, “observateur” dépassent leur contexte technique spécifique pour étayer le propos
cybernétique, qui se veut unificateur. La généralité des concepts développés par cette
discipline nouvelle les rend opérant dans des domaines éloignés, des sciences abstraites aux
sciences humaines aux sciences du vivant. Wiener, en 1954, prophétise par exemple une
nouvelle révolution industrielle :
« La première révolution industrielle représentait le remplacement de
l’énergie humaine et animale par l’énergie des machines. La machine à
vapeur en est le symbole. […] La nouvelle révolution industrielle, qui se
déroule actuellement, consiste principalement à remplacer le discernement et
le jugement humains par le discernement de la machine. La machine
apparaît désormais non comme une source d’énergie mais comme une source
de contrôle et une source de communication. Nous communiquons avec les
machines et les machines communiquent avec nous. Les machines
communiquent les unes avec les autres. » (Wiener, 1954, in Wardrip-Fruin &
Montfort, 2003. p. 71)
L’ambition du programme cybernétique est immense ; c’est une révolution scientifique qui
est en jeu. « L’intuition de Wiener […] fut que le dispositif de feedback, d’une part, était la
source de tout comportement intelligent, d’autre part, était l’apanage aussi bien des
machines évoluées que des êtres vivants. Si cette intuition ne s’est toutefois pas révélée
aussi féconde qu’il l’avait imaginé, elle n’en a pas moins attiré l’attention sur une classe de
problèmes, liés au traitement de l’information, qui n’avait pas été visible jusque-là »
(Breton & Proulx, 2002. p. 128). À ce constat s’ajoute l’importance centrale prise par la
notion d’information dans les sociétés occidentalisées et l’empreinte culturelle profonde
qu’y ont laissé les récits cybernétiques.
Le terme apparaît la première fois sur la couverture du livre Cybernetics, commandé à Wiener en
1948 par l’éditeur nancéien Hermann. L’auteur explique ainsi le titre : « […] je choisis ce nom, parce
que je ressentais que cette combinaison particulière d’idées ne pouvait être laissée trop longtemps
innommée, et le pris du grec kubernan qui signifie gouverner, part essentielle de l’art du timonier. »
(Wiener, 1954, in Wardrip-Fruin & Montfort, 2003. p. 69). Wiener salue Maxwell d’un clin d’œil au
timonier, cet homme de barre secondé par le régulateur à boules de Watt pour piloter la chaudière
de son vapeur. Surtout, il désigne d’un seul mot un champ qui englobe tous les processus
formalisables, qu’ils soient pris dans le vivant ou dans l’artificiel.
Breton & Proulx proposent une lecture étendue de la racine grecque choisie par Wiener, précisant
qu’il « aurait pu tout aussi bien ajouter que cette famille de racines étymologiques conduisait également
au “gouvernement”, comme “forme de pilotage social”. Le choix de ce terme permit en tout cas de situer
un peu plus clairement le nouveau champ de recherche » (Breton & Proulx, 2002. p. 130).
7
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
36
Visions et visionnaires la force du récit Partie 2
Et l’outillage analytique qui nous est légué fonctionne à plein. La boîte noire, cette réponse
« au “jusqu’où faut-il aller trop loin” dans l’analyse d’un système » (Baltz, 1987. p. 79)
des cybernéticiens, cache l’intérieur pour en révéler la production informationnelle. Pour
Claude Baltz, l’emploi de la boîte noire signale « la fixation d’un processus fractal » (ibid.
p. 80). On cesse d’approfondir l’analyse du système en s’arrêtant à un constat empirique
d’une relation entre entrée et sortie (figure 2.1), « ayant (momentanément) abandonné
l’idée de comprendre les microraisons de cette relation » (ibid. p. 80).
Figure 2.1 : La création d’une boîte noire par l’observateur est un renoncement car « en-deça du dernier
niveau d’observation apparaît en effet le noir, l’insondable (ou encore l’insondé) de la matière. Et c’est cette
résistance à l’observation qui permet alors d’avancer que, au moins métaphoriquement, “le réel fait
surface”. » (Baltz, 1987. p. 80)
Baltz souligne le rôle fondamental de la boîte noire pour faire émerger le sens ; il parle pour
cela des « perspectives du sens ». Selon son point de vue, la dimension spatiale des
phénomènes informationnels ne devient sensible qu’en chaussant des « prothèses
8
perceptives » adéquates, des “machines de vision” dont l’observateur règle le niveau de
résolution pour prendre du recul et considérer l’image dans son ensemble ou, à l’inverse,
9
préciser les choses par un zoom sur un point obscur.
Cette approche humaine de l’information numérique assistée par des machines de vision
ramène à la dimension visuelle de la fiction écrite par Gibson. Pour lui, il n’est pas
d’information accessible autrement que dans un espace graphique, partie rendue visible du
cyberespace par la simulation en trois dimensions. Ce processus de modélisation, réalisé
par des algorithmes spécifiques exploitant diverses fonctions géométriques, transforme les
données inscrites dans les mémoires des ordinateurs. Ou, pour reprendre la terminologie
Le concept de machine de vision, proposé par Paul Virilio (La machine de vision, Galilée. 1998) est
généralisé par Baltz pour « interroger rigoureusement et systématiquement la structuration de notre
rapport au monde, selon deux directions au moins, remettant en cause :
8
–
l’opposition biologique/artificiel, en considérant par exemple l’œil comme une “technologie”
particulière, comme le propose Stiegler ;
mais aussi l’opposition matériel/immatériel (cf. Les technologies “intellectuelles” de P. Lévy (1989),
l’analyse factorielle, par exemple, se présentant ainsi comme un moyen de “voir” du sens dans une
multiplicité a priori opaque de données). » (Baltz, 2003)
9 Baltz, filant la métaphore de la machine de vision, retient la notion de zoom pour désigner le
niveau de résolution adopté par l’observateur, qu’il s’agisse de zoom avant ou de zoom arrière.
–
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
37
Visions et visionnaires la force du récit Partie 2
employée précédemment dans la description des machines de Turing, la simulation
interprète les données pour produire une modélisation graphique intelligible.
Au royaume du calcul règnent modèles et objets
Le concept de modèle – cet objet mathématique rendu calculable théoriquement par la
méthode axiomatique de Hilbert et pratiquement par les automates de traitement de
l’information qui dérivent des machines de Turing – s’applique indifféremment dans les
deux directions de la communication humain-ordinateur. C’est en tout cas ce qu’affirme,
10
dès 1960, Joseph Carl Robnett Licklider dans un article prophétique, Man-Computer
Symbiosis. Selon lui, l’ordinateur est appelé à « convertir les hypothèses [conçues par
l’opérateur humain] en modèles testables puis à tester les modèles en fonction des
données » mais aussi à « convertir les équations statiques ou les formulations logiques en
modèles dynamiques pour que l’opérateur humain puisse en observer le comportement »
(Licklider, 1960, in Wardrip-Fruin & Montfort, 2003. p. 77). L’auteur confirme
incidemment la nécessaire autonomisation de la machine pour accélérer ses processus
11
internes de traitement , condition sine qua non pour que cette modélisation à double sens
puisse opérer en “temps réel”.
Licklider note par ailleurs qu’il « sera nécessaire pour l’humain comme pour l’ordinateur
de dessiner des schémas et des images, d’écrire des notes et des équations mathématiques
sur la même surface d’affichage pour que l’interaction humain-machine soit efficiente »
(ibid. p. 80). Ce pronostic se trouve en partie réalisé, dès 1963, avec le système Sketchpad
J.C.R. Licklider, surnommé “Lick” à sa demande, occupe une place prépondérante dans l’histoire
des ordinateurs et des réseaux. Dès 1962, année où il prend la direction de l’IPTO au sein de
l’Arpa, Licklider encourage la mise en réseau des grands systèmes des universités américaines par un
mémo adressé à un groupe qu’il appelle “Members and affiliates of the intergalactic computer
network”. Parmi ses nombreuses contributions, on lui doit le temps partagé (time-sharing) – qui
permet à un groupe d’utilisateurs de partager la capacité de calcul d’un ordinateur –, le financement
des recherches d’hommes-clés comme Engelbart – qui aboutiront aux interfaces graphiques, à
l’hypertexte, au traitement de texte, à la souris, etc. –, mais aussi la création des premières filières
universitaires dédiées à l’informatique.
« La vision de Lick pourvut la recherche en informatique d’une direction à long terme extrêmement
fructueuse. Il choisit les financements initiaux qui étaient nécessaires pour tenir les premières promesses
de cette vision. Et il mit en place les fondations pour un enseignement supérieur dans le nouveau
domaine de l’informatique [computer science]. Tous les utilisateurs d’informatique interactive et toutes
les entreprises qui emploient des informaticiens lui sont particulièrement redevables. » (Taylor, 1990.
p. 6)
11 En cela, Licklider rejoint les propos que tenaient Wiener en 1940 ou von Neumann en 1945.
Pour tous ces chercheurs, les efforts à mener pour réduire les interventions humaines durant les
processus de calcul conduits par l’ordinateur sont prioritaires : l’humain, par sa lenteur à manipuler
les symboles et les communiquer à la machine, constitue le principal goulet d’étranglement dans
l’exécution des processus calculatoires.
10
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
38
Visions et visionnaires la force du récit Partie 2
(figure 2.2). Ivan Sutherland, son créateur, débuta ainsi sa première démonstration
12
publique :
« Le système Sketchpad permet à un humain et un ordinateur de converser
rapidement via le medium du tracé de lignes. Jusqu’à présent, la plupart des
interactions entre humain et ordinateurs ont été ralenties par la nécessité de
réduire toutes les communications à des énonciations écrites qui doivent être
tapées ; dans le passé, nous avons dû écrire des lettres à nos ordinateurs
plutôt que de conférer avec eux. Pour de nombreux types de communication,
comme décrire la forme d’une pièce mécanique ou les connexions d’un
circuit électrique, taper des énonciations est plutôt embarrassant. »
(Sutherland, 1963, in Wardrip-Fruin & Montfort, 2003. p. 101)
Figure 2.2 : Avec Sketchpad, Sutherland donne à voir la modélisation graphique en action. Piloté par un
stylo optique, le logiciel opère sur des images – lignes brisées, et arcs de cercle tracés grossièrement à la
surface de l’écran – qu’il géométrise à la demande – parallélisme, jonction de lignes,
agrandissement/réduction… fonctions attribuées par la colonne de boutons-poussoir à la gauche de l’écran.
L’auteur prouve que « ces images sont des objets et, comme tels, peuvent être manipulés, contraints,
instanciés, représentés par des icônes et copiés, ce opéré récursivement ; et peuvent même être fusionnés
récursivement. » (Wardrip-Fruin & Montfort, 2003. p. 109)
Sutherland, écrivant ce programme de dessin et choisissant avec soin les interfaces
matérielles d’entrée et de sortie, augmente considérablement la complexité des tâches
confiées au système informatique. Il multiplie les couches d’abstraction formelle, codées
selon la logique binaire des machines de Turing, entre l’ordinateur à architecture von
Neumann et l’humain qui le pilote. L’auteur demande, et obtient, de sa machine qu’elle
capture le geste de l’opérateur, qu’elle l’interprète pour en faire un objet géométrique et
qu’elle l’affiche au plus vite. La décision sur l’intérêt de ce que produit l’ordinateur
Cette présentation s’est tenue dans le cadre du Spring Joint Computer Conference de 1963. La plus
ancienne vidéo montrant Sutherland pilotant le système Sketchpad remonte, elle, à l’été 1962. Alan
Kay s’en est servi, en 1977, pour montrer les origines de son Dynabook (Kay fait partie des
quelques chercheurs du Palo Alto Research Center de Xerox convaincus, dès le milieu des années
1970, que le temps partagé sur grands systèmes est une impasse et qu’il vaut mieux parier sur les
ordinateurs personnels, dont le Dynabook est une préfiguration). La vidéo de cette présentation de
Kay est disponible à l’URL http://www.newmediareader.com/cd_samples/Kay/Kay_Talk.mov (dernier
accès le 6 août 2003).
12
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
39
Visions et visionnaires la force du récit Partie 2
appartient toujours à l’opérateur, mais la manière dont l’objet graphique est produit lui
échappe. L’important désormais n’est plus de savoir comment représenter
informatiquement un circuit électrique ou une pièce mécanique mais de les modéliser
directement à l’écran en associant des objets graphiques, puisés dans une bibliothèque ou
13
créés à la volée .
La tentative de Sutherland réussit en grande partie grâce à la vitesse de réponse du système,
« du fait que le feedback était si ponctuel et pertinent, qu’il pouvait être considéré comme
analogue [au] dialogisme de la communication interpersonnelle » (Brennan, 1990. p. 395).
14
La comparaison avec la communication dialogique , même si confortée par le propos de
15
Mikhaïl Bakhtine selon lequel tout énoncé « est le produit de l’interaction des locuteurs » ,
suppose de conférer à l’ordinateur le statut de co-locuteur.
Malgré le trouble provoqué par la démonstration de Sutherland, cette idée d’ordinateur colocuteur se heurte à l’absence de conscience des machines numériques – elles se contentent
d’agir conformément aux instructions fixées par leurs programmes. Néanmoins, elle met au
jour le statut ambigu de l’ordinateur, outil d’un genre nouveau qui s’avère capable
d’accomplir des transformations complexes sur les données qui lui sont confiées, et cela
indépendamment des compétences de l’opérateur puisqu’il ne lui donne à voir que le
résultat de ces transformations sous forme d’une représentation symbolique. Sketchpad
prouve ainsi, par sa seule existence, que l’ordinateur est susceptible de devenir le “coénonciateur”, et donc le “co-producteur du dire”, dans le domaine spécifique du dessin
16
technique .
Que l’ordinateur soit capable de manipuler avec pertinence des symboles intelligibles à
l’humain autres que les chiffres contribue à nourrir le débat non clos de l’accès au sens et
Effet collatéral de son approche, Sutherland pose avec le système Sketchpad toutes les bases de
la programmation objet. Chaque objet élémentaire peut appartenir à une classe, s’associer à
d’autres objets, s’instancier… Une modification opérée sur une instance de l’objet s’applique à
toutes les autres instances, qu’elles soient isolées ou fusionnées avec d’autres éléments graphiques
(équivalent de la notion d’héritage en programmation objet). Etc.
14 « Pour la tradition monologique, toute parole est l’expression de la conscience souveraine du locuteur.
Interprétée dialogiquement, toute communication résulte au contraire d’une mise en relation interlocutive
de deux co-énonciateurs. Cette entrée en relation, garantie par une commune compétence
communicative, fonde la mutuelle reconnaissance des consciences des interlocuteurs et opère la
conversion des individus en personnes. » (“Dialogique (paradoxe–)”, Denis Vernant, Encyclopédie
Philosophique Universelle, Les Notions Philosophiques, dictionnaire 1, PUF. 1990. p. 641). Ici apparaît
une différence importante entre le locuteur, « défini par son profil psychologique et sa place dans le
réseau social », et l’énonciateur « déterminé par sa position dans le jeu dialogique, qui est co-producteur
du dire » (ibid. p. 641).
15 Citation rapportée par Vernant dans la définition de “Dialogisme” (ibid. p. 641).
13
Robert Heinlein évoquait en 1956 un appareillage comparable pour assister les ingénieurs. Le
héros de Une porte sur l’été, ingénieur lui-même, invente le “Robot à tout faire” avant d’être
cryogénisé pour trente ans. À son réveil, il découvre le monde de 2001 et son industrie robotique :
« Je savais que maintenant on se servait de machines à dessiner semi-automatiques ; j’en avais vu des
photos sans avoir eu l’occasion d’en examiner une de près. […] On formait des courbes et des droites en
manipulant des manettes » (Heinlein, 1956. p. 168-169).
16
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
40
Visions et visionnaires la force du récit Partie 2
17
de la nature de la pensée. Ces thèmes, creusés très souvent par les auteurs de SF , ont
motivé quelques-uns des articles considérés, par Pélissier & Tête, comme fondateurs des
sciences cognitives, en général, et de l’intelligence artificielle, en particulier.
Penser et apprendre… bit à bit
La question “les machines peuvent-elles penser ?” a été posée à de maintes reprises dans de
très nombreux contextes au cours de l’histoire humaine, question reformulée à certaines
époques en “sommes-nous des machines ?”. En 1950, Shannon et Turing apportent, par
18
deux simulations , deux réponses distinctes mais convergentes à la question. Le premier
propose une méthode pour programmer un ordinateur de manière à ce qu’il joue
correctement aux échecs ; le second envisage les moyens à mettre en œuvre pour qu’un
19
ordinateur puisse confondre l’interrogateur au “jeu de l’imitation” .
La simulation postulée par Shannon respecte l’ensemble des règles du jeu d’échecs, y
compris la promotion d’un pion, et propose une méthode numérique pour évaluer les
positions (figure 2.3) et les coups possibles. L’auteur introduit aussi des éléments moins
évidemment formalisables comme l’expérience – la connaissance des ouvertures,
l’identification des coups forcés et ceux à étudier en priorité… – ou la variation des coups
Informatique et intelligences artificielles pullulent dans la science-fiction, et ce depuis la fin de la
Seconde Guerre mondiale. On peut, à titre d’exemple, citer des ouvrages parus avant même la
généralisation des ordinateurs :
–
Un logique nommé Joe de Murray Leinster (1946) où un réseau public de bases de données, le
“réservoir”, est accessible depuis chaque foyer grâce à un terminal multimédia, le “logique”.
17
–
Loterie solaire de Philip K. Dick (1955) – directement inspiré par la Théorie des Jeux de
von Neumann et Morgenstern – où une “bouteille” (inspirée des travaux de Werner
Heisenberg) tire au sort le numéro d’une “carte de pouvoir” pour désigner le “Maître du Jeu”,
sorte de Président pour le système des “Neuf Planètes” ;
–
Simulacron 3 de Daniel F. Galouye (1964) où la simulation sur ordinateur d’une ville moyenne
et de toute sa population remplace les sondages d’opinion ;
L’homme qui acheta la Terre de Cordwainer Smith (1964) où le seul ordinateur non
biomécanique de la planète Norstralie, une intelligence artificielle spécialiste de la guerre
économique, aide un adolescent à acheter en « quatre heures et dix-sept minutes environ » la
totalité de la planète Terre ;
Révolte sur la lune de Robert Heinlein (1967) où les colons lunaires gagnent leur indépendance
vis-à-vis de la Terre grâce à l’aide d’une intelligence artificielle qui orchestre leur informatique ;
2001 l’odyssée de l’espace de Arthur C. Clarke (1968) où le destin d’une équipe d’exploration
envoyée vers un satellite de Jupiter repose dans les logiciels de l’ordinateur HAL ;
–
–
–
etc.
La proposition de Shannon apparaît dans l’article A chess-playing machine, paru dans le magazine
Scientific American ; celle de Turing figure dans l’article Computing Machinery and Intelligence, paru
dans la revue Mind.
19 Le jeu de l’imitation « se joue à trois personnes, un homme (A), une femme (B) et un interrogateur
(C) qui peut être de l’un ou l’autre sexe. L’interrogateur ne se trouve pas dans la même pièce que les
deux autres personnes. Le but du jeu pour l’interrogateur est de déterminer qui est l’homme et qui est la
femme. Il les connaît par des étiquettes X et Y, et, à la fin du jeu, il dit soit “X est A et Y est B”, soit “X
est B et Y est A”. […] Le but de A dans le jeu est d’essayer de faire faire à C une fausse identification.
[…] Le but du jeu pour le troisième joueur (B) est d’aider l’interrogateur. » (Turing, 1950, in Pélissier
& Tête, 1995. p. 255-256). Apparaît en filigrane le fait que le joueur A doit utiliser la ruse, y compris
le mensonge, alors que le jouer B a tout intérêt à dire la vérité. Turing induit de la sorte que
l’ordinateur qui saura tromper l’interrogateur devra savoir mentir.
–
18
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
41
Visions et visionnaires la force du récit Partie 2
joués dans des situations identiques – variation résolue par l’introduction de choix
aléatoires entre des coups valués à l’identique par le programme.
Figure 2.3 : Le code suggéré par Shannon est simple : numérotation des lignes et des colonnes, d’une part,
et valorisation des différentes pièces du jeu (1 pour un pion, 4 pour une tour, etc.). Un mouvement est décrit
par les coordonnées de départ et d’arrivée, par exemple pour le cavalier blanc : 01, 22. Shannon ajoute une
troisième donnée qui est toujours à 0, sauf dans le cas de la promotion d’un pion. Le mouvement du cavalier
blanc est alors noté 01, 22, 0 tandis qu’un pion promu en reine sur la colonne 2 est noté 62, 72, 5.
De cet exercice prospectif, Shannon tire une réponse à double détente. Il affirme d’abord
que « d’un point de vue béhavioriste, la machine agit comme si elle pensait » (Shannon,
1950, in Pélissier & Tête, 1995. p. 243). Selon ce point de vue, l’observateur voit la
machine joueuse d’échecs comme une boîte noire dont il ignore le fonctionnement interne,
ce qui le conduit à accepter qu’elle agisse « comme si » elle pensait. Apparaît alors le cas
particulier du concepteur jouant avec sa machine alors même qu’il en connaît le
fonctionnement interne : lui ne peut être victime de l’illusion à laquelle succombe
l’observateur ignorant. Shannon en tire que la machine « fonctionne par essais et erreurs,
mais les essais sont des essais que le programmeur a ordonnés à la machine et les erreurs
sont appelées des erreurs parce que la fonction d’évaluation donne à ces variations des
indices faibles. La machine prend des décisions mais les décisions sont envisagées et
prévues au moment de la conception. En bref, la machine, au sens réel, ne va pas au-delà
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
42
Visions et visionnaires la force du récit Partie 2
de ce pour quoi elle a été construite » (ibid. p. 243). Et de conclure son article en citant
20
Torres y Quevedo
: « Les limites à l’intérieur desquelles la pensée est réellement
nécessaire doivent être mieux définies… l’automate peut faire beaucoup de choses qui sont
populairement catégorisées comme étant du ressort de la pensée. » (ibid. p. 243).
La prudence légendaire de l’ingénieur arrête Shannon là où l’audace du logicien permet à
Turing de s’affranchir des contraintes de son temps. Le premier, avec les échecs, enferme le
jeu dans un système de règles qui ne représente que lui-même ; le second étend le jeu à la
représentation qu’un interlocuteur peut avoir de lui-même dans le monde. La différence
entre les deux chercheurs tient tout entière dans le fait que Shannon « n’ose pas l’hypothèse
d’un calculateur capable d’apprentissage » alors que Turing « le dote de ce pouvoir »
(Pélissier & Tête, 1995. p. 234).
Et c’est cette hypothèse d’une machine capable d’apprentissage, déjà évoquée dans un
21
rapport de 1948 , que Turing soutient et développe longuement dans son article de 1950.
Pour lui, contrairement aux théories de McCulloch et Pitts, il n’est pas possible de réduire
le système nerveux à un système à états discrets. En revanche, il est convaincu que l’on
pourra, avec les progrès de la programmation des machines universelles, s’attacher à
« essayer d’imiter un esprit adulte » (Turing, 1950, in Pélissier & Tête, p. 279). Notant la
difficulté à reproduire directement la complexité de l’esprit adulte, l’auteur réfléchit au
processus qui l’a produit et relève « trois composantes :
–
l’état initial de l’esprit, à la naissance ;
–
l’éducation à laquelle il a été soumis ;
–
un autre type d’expérience, que nous ne rangeons pas sous le terme
éducation, à laquelle il a été confronté. » (ibid. p. 279-280)
Ce découpage l’amène à envisager d’écrire un programme qui simule non pas l’esprit
adulte mais celui de l’enfant ; programme auquel on appliquerait une éducation
comparable, sans être exactement identique, à celle que l’on donne à un enfant. Il imagine
alors de coder les notions de punition et de récompense, de proposition impérative, de fait
Leonardo Torres y Quevedo construit en 1914 son Joueur d’échecs. Cet automate
électromécanique joue avec les blancs, et gagne à tout coup, une fin de partie classique : tour et roi
blancs contre roi noir.
20
Dans ce rapport, titré Intelligent Machinery, le chercheur se propose « d’étudier la question de
savoir s’il est possible pour des machines de montrer un comportement intelligent » (Turing, 1948. p. 1).
Il ajoute que « l’une des principales raisons de croire en la possibilité de concevoir des machines
pensantes tient dans le fait qu’il est possible de faire des machines capables d’imiter n’importe quelle
petite partie d’un humain. » Argumentation qu’il étaie par l’exemple suivant : « Une manière
d’entreprendre notre travail de construction d’une “machine pensante” pourrait être de prendre un
homme comme un tout et d’essayer de remplacer toutes ses parties par des machines. […] Bien que
cette méthode soit probablement une façon “sûre” de produire une machine qui pense, elle semble être
tout à la fois trop lente et impraticable. À la place, nous proposerons d’essayer de voir ce qu’on peut faire
avec un “cerveau” qui n’est que très peu pourvu d’un corps ; au plus les organes de la vue, de la parole et
de l’ouïe. Nous sommes alors confrontés au problème de trouver des sections convenables de pensée
pour que la machine y exerce ses pouvoirs. » (ibid. p. 9).
21
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
43
Visions et visionnaires la force du récit Partie 2
22
“bien établi”, d’impératif adéquat ; et il estime « probablement prudent d’introduire une
composante aléatoire dans la machine qui apprend » (ibid. p. 283). Par combinaison de ces
éléments, Turing offre à son programme, qu’il nomme « machine-enfant », la capacité de
23
réécrire ses règles initiales pour les améliorer et aussi d’en écrire de nouvelles . Enfin,
l’exemple de Helen Keller
24
lui donne confiance dans son projet car il « montre que
l’éducation est possible du moment qu’une communication dans les deux sens existe par un
moyen ou un autre entre le maître et l’élève » (ibid. p. 281).
La machine sans membres imaginée par Turing, limitée dans ses contacts avec le monde
extérieur par ses interfaces rudimentaires, ne peut obéir qu’à « des impératifs de caractère
plutôt intellectuel » (ibid. p. 282), domaine où la logique algorithmique trouve à
s’exprimer. Turing poursuit dans la ligne de ses recherches mathématiques d’avant-guerre.
La bibliographie de Intelligent Machinery (Turing, 1948) mentionne trois publications de
Gödel, Church et Turing (figure 2.4) ; le trio qui porta avec succès la contradiction au
programme de Hilbert. La logique formelle, l’algorithme, la récursivité, la machine
universelle posent les fondations mathématiques sur lesquelles le code va pouvoir se
développer indéfiniment. La dimension logicielle – Turing dit « la programmation » –
représente le principal défi car même si « des progrès en construction mécanique devront
être réalisés aussi, […] il ne semble pas vraisemblable que ceux-ci ne soient pas adéquats
25
aux conditions requises » (ibid. p. 279) .
Sur la notion d’impératifs adéquats, Turing précise qu’ils sont « exprimés à l’intérieur des systèmes
et non pas parties des règles du système » (ibid. p. 282).
23 Les agents logiciels héritent directement de la vision de Turing. Une fois lancés sur le réseau, ils
cherchent à accomplir les tâches pour lesquelles ils sont conçus en sachant s’adapter au contexte
par apprentissage.
24 « Helen Keller perdit la vue et l’ouïe alors qu’elle n’avait pas deux ans. Devenue institutrice, elle parvint
à tirer de son enfermement une fillette autiste. » (Pélissier & Tête, 1995. p. 293)
25 En posant cela, Turing inaugure « théoriquement, à la suite de la découverte empirique de Babbage,
la distinction entre le matériel et le logiciel » (Pignon, 1996. p. 105).
22
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
44
Visions et visionnaires la force du récit Partie 2
Figure 2.4 : Trois articles suffisent pour donner au rapport Intelligent Machinery son assise mathématique.
Le projet de Turing est d’étudier « les voies possibles par lesquelles des machines seraient conçues pour
montrer un comportement intelligent. » (Turing, 1948) L’analogie avec le cerveau humain et son façonnage
par l’éducation servent de guides, dans le plus pur esprit cybernétique. L’idée des « machines inorganisées »
est définie, qui préside à la simulation d’un cortex d’enfant.
La prédominance du logiciel sur le matériel – qu’anticipe Turing à raison – met en exergue
la position particulière du programmeur ; celui-là comprend ce qui se déroule dans la boîte
26
noire lorsque l’ordinateur exécute des calculs . La situation est tout autre lorsque Turing
27
note qu’ « un trait d’importance pour une machine qui apprend est que son professeur
sera très largement ignorant de tout ce qui se passe à l’intérieur bien qu’il puisse être
encore capable dans une certaine mesure de prédire le comportement de l’élève » (ibid.
Même si le mathématicien est conscient que l’ « on ne peut réaliser cet objectif sans effort », il
souligne qu’ « avec la procédure normale d’utilisation d’une machine pour faire des calculs, le problème
est […] d’avoir une représentation mentale claire de l’état de la machine à chaque moment du calcul »
(Turing, 1950, in Pélissier & Tête, 1995. p. 283). La tâche est réalisable à l’époque, les ordinateurs se
programmant encore dans un langage très proche du “code complet” imaginé par von Neumann
pour décrire l’ensemble des fonctions logiques connues de l’ordinateur. Depuis, l’empilement des
langages symboliques a éloigné de plus en plus le programmeur du code complet. L’obtention du
code binaire exécutable par la machine à partir du programme écrit dans un langage symbolique est
assumée par des “traducteurs logiciels”, les compilateurs, qui fonctionnent eux aussi comme des
boîtes noires.
27 Celui que Turing désigne par le terme de professeur possède une attribution particulière qui
découle de la nature de son élève. Le devenir des programmes et de leurs évolutions dépend en
dernier ressort de l’expérimentateur, processus que Turing résume d’une équation : « jugement de
l’expérimentateur = sélection naturelle » (ibid. p. 280). Turing estime cette sélection indispensable car
« la plupart des programmes que nous pouvons mettre dans la machine aboutiront à ce qu’elle fasse
quelque chose auquel nous ne pouvons donner aucune signification ou que nous considérons comme un
comportement totalement aléatoire » (ibid. p. 283).
26
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
45
Visions et visionnaires la force du récit Partie 2
p. 283). Ainsi, la boîte noire se referme aux yeux du programmeur, lui laissant juste un
droit de vie et de mort sur le programme. La machine-enfant s’autonomise : son professeur
ne la juge plus en analysant pas à pas les processus internes d’élaboration des réponses
mais en jaugeant la qualité des réponses qu’elle fournit par ses interfaces de sortie.
Ce droit qui distingue le programmeur du commun des utilisateurs d’ordinateurs se
transforme lorsque l’hypothèse de Turing est rapprochée de la théorie générale et logique
28
des automates , autre contribution de von Neumann (1948) à la cybernétique. Là encore,
29
« la machine de Turing demeure le paradigme logico-mathématique fondamental »
(Pélissier & Tête, 1995. p. 94). Les apports de Wiener et McCulloch sont pris en compte,
mais l’idéal épistémologique « consiste à réintégrer, pour ainsi dire, la machine de Turing
dans la machine cérébrale qui en constitue la possibilité réelle » (ibid.). Ce que Pignon
reformule ainsi : « L’inscription des mathématiques dans un univers réel – réel au sens où
les lois de la logique sont contraintes par leur inscription matérielle à suivre les règles qui
définissent le statut d’existence des objets plongés dans le monde régi par les lois de la
physique – les soumet aux contraintes de l’existence » (Pignon, 1996. p. 123).
Se reproduire et évoluer… bit à bit
La démarche de von Neumann est complémentaire de celle de McCulloch & Pitts. Ceux-ci
établissent une équivalence entre le neurone physique, pris dans sa seule dimension
d’organe en tout ou rien, et le neurone formel. Ils en déduisent une équivalence entre le
fonctionnement cérébral et le fonctionnement de l’automate formel – réalisé par la mise en
réseau des neurones formels. En cantonnant le cerveau à la structure logique du calcul
propositionnel, ils négligent sciemment sa capacité, en tant qu’élément vivant, à se
reproduire. Von Neumann considère pour sa part que la logique du fonctionnement cérébral
est le propre d’un automate qui est simultanément un programme universel de calcul et la
30
reproduction d’un programme génétique . Il pose ainsi que « si le cortex est assimilable à
une machine de Turing, il faut rendre compte du fait que cette machine est vivante et
qu’elle se reproduit » (Pélissier & Tête, 1995. p. 93). Et il s’emploie à en apporter la
31
démonstration .
L’article Theory of Self Reproducing Automata (1947) est repris par von Neumann lors du Hixon
Symposium de septembre 1948. Il en donne une nouvelle lecture, sous le titre The General and
Logical Theory of Automata. Cette version est présentée une seconde fois à l’Université d’Illinois en
décembre 1949 (les actes attendront 1951 pour être publiés). L’édition française (Pélissier & Tête,
1995. p. 93) est suivie de la transcription du débat qui a suivi la communication de 1948.
29 Daniel Pignon souligne que von Neumann imagina « une généralisation des machines [universelles],
qui non seulement calculent mais sont organisées de telle sorte qu’une machine peut engendrer une
autre machine » (Pignon, 1996. p. 110-111).
30 La thèse de von Neumann est d’autant plus audacieuse que la découverte de la structure de
l’ADN et de son rôle dans la réplication du matériel génétique n’aura lieu que cinq plus tard,
lorsque Crick et Watson publieront leurs premiers résultats dans Nature, en 1953.
31 Ce faisant, von Neumann s’affronte une nouvelle fois à la question de la description des systèmes
complexes, classe dans laquelle il range le système nerveux central. Il se demande même « si la
complication du cerveau n’est pas telle que la manière la plus économique de le décrire ne serait pas de
considérer le cerveau lui-même comme sa propre description » (Pignon, 1996. p. 110).
28
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
46
Visions et visionnaires la force du récit Partie 2
Reprenant les résultats de Turing sur les logical calculating machines, et surtout
considérant la puissance du concept de machine universelle, von Neumann constate que
l’ « on peut donner une description complète de tout ce qui est un automate au sens
32
considéré ici . Cette description doit être générale, c’est-à-dire qu’elle contiendra […] des
espaces vides. Ces espaces vides seront remplis par des fonctions qui décrivent la structure
réelle d’un automate. Comme auparavant, la différence entre ces espaces pleins ou vides
est la différence entre la description d’un automate spécifique et la description générale
d’un automate général » (von Neumann, 1951, in Pélissier & Tête, 1995. p. 131) Partant, il
définit un ensemble de cinq automates, certains généraux, d’autres spécifiques, avec
lesquels il montre que l’autoreproduction est – théoriquement – possible.
Cette démonstration est l’occasion pour le mathématicien de mettre en évidence certaines
33
similitudes entre le cerveau et les ordinateurs. Se fondant sur une méthode axiomatique
pour comprendre les processus élémentaires qui affectent le neurone, von Neumann
l’assimile à une boîte noire et postule que la complexité fonctionnelle du système cérébral,
du fait de son caractère molaire, interdit toute réduction analytique. En parallèle de la
complexité structurale du cerveau, il introduit une complexité méthodologique en
soumettant à l’automate turingien des calculs binaires compliqués à l’extrême. Cette
complexité calculatoire, linéaire, est d’ordre analytique et donc ouverte dans ses moindres
34
détails au regard de l’observateur, à l’erreur d’arrondi près .
Symptôme de la rencontre avec la matière, l’erreur d’arrondi révèle les limites du champ
d’application de la logique formelle lorsqu’elle s’inscrit dans l’ordinateur. La machine
universelle fonctionne avec un ruban-mémoire de taille infinie parce qu’elle est un modèle
formel. Pour qu’il soit réalisable, l’automate de von Neumann possède une logique propre
qui « différera du système actuel de la logique formelle sur deux aspects pertinents :
La définition que donne von Neumann de l’automate est la suivante : « D’abord, nous avons à
dresser une liste complète des parties élémentaires à utiliser. Cette liste doit contenir non seulement une
énumération complète mais aussi une définition opérationnelle complète de chaque partie élémentaire.
[…] Un état du nombre de parties élémentaires requises représentera […] un compromis de sens
commun, dans lequel on n’attend rien de trop compliqué d’une partie élémentaire et aucune partie
élémentaire n’est conçue pour réaliser plusieurs fonctions manifestement séparées » (von Neumann,
1951, in Pélissier & Tête, 1995. p. 130).
32
Von Neumann a été élève de Hilbert, il témoigne ainsi son attachement à la pensée et au
vocabulaire de son maître. En optant pour cette approche axiomatique, il choisit délibérément
d’ignorer les « déterminations proprement physiologiques (ou chimiques, ou physico-chimiques) de la
nature et des propriétés des éléments » (ibid. p. 101) que sont le neurone et le cerveau.
33
L’usage de l’arrondi est nécessaire pour ne pas saturer la capacité calculatoire de l’automate dès
lors qu’il accomplit des multiplications et des divisions. Von Neumann souligne cette limite
structurelle de la machine numérique, indiquant que « ce qu’elle produit quand on demande une
multiplication n’est pas le produit lui-même mais le produit plus un petit terme supplémentaire – l’erreur
d’arrondi » et précisant que même si d’un point de vue arithmétique l’erreur d’arrondi est
« complètement déterminée, […] son mode de détermination est si compliqué et ses variations […] si
irrégulières, qu’on peut habituellement la considérer, avec un haut degré d’approximation, comme une
variable aléatoire » (ibid. p. 107).
34
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
47
Visions et visionnaires la force du récit Partie 2
–
la longueur réelle des “chaînes de raisonnement”, c’est-à-dire des
chaînes d’opérations, devra être prise en considération ;
–
les opérations de logique (syllogismes, conjonctions, disjonctions,
négations, etc., c’est-à-dire, selon la terminologie habituellement utilisée
pour les automates, des formes variées d’entrée, de coïncidence,
d’anticoïncidence, de blocage, etc.) devront toutes être traitées par des
procédures qui permettent des exceptions (dysfonctionnements) selon des
probabilités faibles mais non nulles. » (ibid. p. 117)
La maîtrise théorique et expérimentale des ordinateurs donne à von Neumann ce regard
pragmatique, donc simplificateur, qui conduit du modèle à sa représentation. Les capacités
de calcul réelles sont intrinsèquement limitées, il faut en tenir compte. Tout comme ce qui
fonctionne en binaire dans la théorie mathématique – les organes en tout ou rien comme le
neurone formel ou la machine de Turing – doit coexister, dans la pratique, avec
l’analogique du monde physique – les processus humoraux du cerveau ou les
35
dysfonctionnements des tubes à vide .
36
La différence dans le mode de traitement des erreurs, qu’il soit “naturel” ou “artificiel” ,
indique dans quels sens la théorie logique des automates doit agir. « Les automates
artificiels [qui] sont construits pour rendre les erreurs aussi évidentes, aussi désastreuses
que possibles » doivent prendre exemple sur « les organismes naturels [qui] sont conçus de
manière à rendre les erreurs aussi discrètes, aussi inoffensives que possible » (ibid. p. 119).
La voie privilégiée par von Neumann est de caractériser les organes naturels par une
manifestation du type “argument circulaire” « dont la plus simple expression est le fait que
des organismes très complexes peuvent se reproduire » (ibid. p. 127). Poussant le
raisonnement, il constate que l’ « on devrait s’attendre à une certaine tendance à la
dégénérescence, à une diminution de la complexité quand un automate en fabrique un
autre » et précise que « bien que cela soit quelque peu plausible, c’est en contradiction
manifeste avec ce qui se produit dans la nature » (ibid.). En effet, dans la nature, les
organismes se reproduisent sans que leur descendance perde en complexité et, plus étonnant
encore, « il existe de longues périodes de l’évolution pendant lesquelles la complexité a
même augmenté » (ibid.) (figure 2.5).
Pour von Neumann, dès que de la matière entre en jeu, il n’y a pas d’organe en tout ou rien.
Qu’il s’agisse de neurone, de relais électromécanique ou de tube à vide, « aucun de ces organes ne
fonctionne exclusivement en tout ou rien (il n’existe pas grand-chose dans notre expérience technologique
ou physiologique qui indique l’existence d’organes absolument en tout ou rien) ; cela n’est pas pertinent »
(ibid. p. 110).
36 « Le principe de base du traitement des dysfonctionnements dans la nature est de minimiser autant
que possible leurs effets et d’appliquer des corrections, si elles sont réellement nécessaires, en prenant
son temps. D’un autre côté, quand nous avons affaire aux automates artificiels, nous exigeons un
diagnostic immédiat. Par conséquent, nous essayons de concevoir les automates de façon à ce que les
erreurs deviennent le plus manifestes possible et que l’intervention et la correction s’ensuivent
immédiatement. » (ibid. p. 119)
35
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
48
Visions et visionnaires la force du récit Partie 2
Prise dans son ensemble, la théorie générale et logique des automates n’est qu’incidemment
une théorie de l’autoreproduction, comme le soutient Barry McMullin qui affirme « que la
capacité d’autoreproduction, loin d’être l’objet du modèle, est en fait un corollaire incident
– et même trivial, bien que fortuit – de la résolution par von Neumann de certains des
aspects d’un problème bien plus vaste [celui de] la croissance évolutionnaire de la
complexité » (McMullin, 2000, § 2).
Figure 2.5 : Par cette représentation très schématique, McMullin (2000, § 2) représente les degrés croissants
de complexité, du plus simple au centre au plus complexe à l’extérieur. Le dessin de gauche décrit le fruit de
notre expérience en ingénierie : toute construction d’une machine par une autre se fait au prix d’une
complexité décroissante. À l’inverse, le dessin de droite figure l’état théorique de nos connaissances en
biologie évolutionnaire, mettant en évidence qu’il existe des voies qui conduisent à un accroissement de la
complexité dans la descendance de certains organismes.
37
Synthétisant en 1956 l’ensemble de ses travaux cybernétiques , von Neumann creuse plus
38
profondément la voie de la neurologisation de la logique formelle . Outre qu’il confirme le
bien-fondé des travaux d’après-guerre de Turing sur les programmes capables
39
d’apprentissage , il les dote donc de la double capacité – théorique, s’entend –
d’autoreproduction et d’évolution vers une complexité croissante, capacités similaires à
celles des organismes naturels. Actuellement encore, les théories de Turing et von
Neumann n’ont pas encore été concrétisées, même si elles nourrissent de très nombreux
Au départ pensé comme une série de communications pour les Conférences Silliman, ce dernier
texte de von Neumann deviendra l’ouvrage posthume, et testament scientifique, The Computer and
the Brain (1957).
38 La quête pour la compréhension des automates très complexes, en particulier le système
nerveux central, justifie, pour von Neumann, que « la logique ait à subir une “pseudomorphose” vers la
neurologie » (von Neumann, 1951, in Pélissier & Tête, 1995. p. 126).
37
« En fait, la machine, sous le contrôle de ses ordres, peut extraire des nombres (ou des ordres) de la
mémoire, les traiter (comme des nombres !), et les retourner à la mémoire (au même endroit, ou ailleurs),
c’est-à-dire qu’elle peut changer les contenus de la mémoire, et c’est là bien entendu son mode de
fonctionnement normal. Par conséquent, elle peut, en particulier, changer ses ordres (puisqu’ils sont dans
la mémoire !) – les ordres même qui contrôlent ses actions » (von Neumann, 1957. p. 29). Cette
capacité à réécrire au même endroit dans la mémoire est ce qui provoque nombre des blocages
que nous expérimentons avec nos ordinateurs ; problème en partie résolu par les systèmes
d’exploitation à “mémoire protégée”.
39
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
49
Visions et visionnaires la force du récit Partie 2
40
développements tant en intelligence artificielle qu’en vie artificielle . Et c’est encore dans
la fiction que l’on trouve les meilleures illustrations des conséquences pratiques que
pourraient avoir ces théories. Ainsi dans le roman de Jean-Michel Truong, Le successeur de
pierre, où l’on peut lire cette description d’une collectivité d’agents intelligents, autonomes,
autoreproducteurs, évolutifs :
« En fait de sommeil, il avait passé la nuit fébrilement sur les cadavres des
Gnomes. Parmi eux, il avait sans problème reconnu certains types qu’Ada lui
avait présentés, à titre d’illustration, quand elle lui enseignait les rudiments
de son art, comme des Renifleurs – ainsi nommés car ils étaient dressés à
débusquer le gibier – des Arsènes à qui nulle porte ne résistait, ou encore des
Charcutiers, qui débitaient les gros fichiers en petites tranches à emporter,
ou des Facteurs pour livrer ces paquets à destination […]. Mais il y avait
aussi de fabuleuses chimères, qui longtemps l’avaient tenu en respect,
d’autant qu’il n’avait pour en comprendre la nature que des vestiges fort
abîmés. Il finit pourtant par identifier des Passeurs, habiles à tracer dans les
réseaux les chemins les plus discrets : jamais ils n’empruntaient le même
itinéraire ; des Aiguilleurs qui, postés dans les commutateurs du Web,
dirigeaient les Facteurs vers la prochaine adresse ; des Guetteurs qui
avertissaient leurs complices quand survenait un danger – par exemple
lorsque les programmes de surveillance se déclenchaient, ou quand les
responsables de la sécurité du réseau se connectaient : quand ils sifflaient,
chacun faisait le mort ; des Maquilleurs pour camoufler les agents que leur
activité risquait de faire repérer ; des Receleurs pour planquer les Facteurs,
jusqu’à ce qu’un signal leur ordonne de livrer leur colis à l’adresse finale ;
des Balayeurs enfin, censés effacer toute trace d’effraction, mais qui
n’avaient pas complètement rempli leur office, circonstance heureuse sans
laquelle le garçon n’eût pas été en mesure de reconstituer cette fine équipe.
[…] Des foules d’agents logiciels évoluant comme des êtres vivants, par
reproduction sélective des plus aptes… » (Truong, 1999. p. 368-369)
Truong, comme Turing et von Neumann à leur époque, aborde indirectement la question de
41
la position particulière du programmeur. Calvin, son héros, est un hacker , un génie de
« Ajoutons que les systèmes capables d’apprentissage non dirigé peuvent être, avec leurs
environnements, simulés par ordinateur. Les algorithmes génétiques et divers systèmes de “vie artificielle”
laissent imaginer que le logiciel, symbiotiquement lié au milieu technologique et humain du cyberespace,
pourrait bientôt représenter le dernier en date des systèmes darwiniens capables d’apprentissage et
d’autocréation. » (Lévy, 1998. p. 101)
41 Un hacker est « une personne qui prend plaisir à explorer dans le détail les systèmes programmables
et à en tirer le maximum, à l’opposé de la plupart des utilisateurs qui se contentent d’apprendre le
minimum nécessaire ; […] qui programme de manière enthousiaste (voire même obsessionnelle) ; […]
qui programme vite et bien ; […] qui se réjouit du challenge intellectuel que représente le dépassement
ou le contournement créatif des limitations. » (Raymond, 2003). C’est aussi une « personne qui fait ses
délices d’une connaissance intime du fonctionnement d’un système, ordinateurs et réseaux informatiques
en particulier » (RFC1392, The Internet Glossary, janvier 1993. http://www.faqs.org/rfcs/rfc1392.html).
40
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
50
Visions et visionnaires la force du récit Partie 2
l’informatique spécialisé dans la fouille archéologique du web. Seul un hacker est
susceptible d’explorer l’intérieur des boîtes noires que sont les agents logiciels – lointains
héritiers fictionnels des programmes autonomes théorisés par les deux mathématiciens –
pour en analyser l’objet et le mode de fonctionnement. Aux yeux des autres humains, le
web tout entier a glissé dans une boîte noire ; il s’agit juste d’en consommer le contenu et la
production à travers des interfaces ergonomiques qui en masquent presque intégralement la
complexité.
Que de distance avec la vision des pionniers ; celle de von Neumann, par exemple, pour qui
« l’usage des ordinateurs modernes est fondé sur la capacité des utilisateurs à développer
42
et formuler les codes complets nécessaires à tout problème donné que la machine est
supposée résoudre » (von Neumann, 1957. p. 71). La partition de la population des usagers
de l’informatique n’est pas encore soupçonnée – “utiliser un ordinateur” est synonyme de
“programmer un ordinateur”. Pourtant, à cette même époque, d’autres chercheurs – Bush le
premier mais aussi Engelbart – songent à des machines dont l’usage ne relève pas de la
programmation. Leur objectif : préparer l’avènement de l’humain augmenté.
L’humain formalisé du calcul à la mémoire
Bush, alors qu’approche la fin de la Seconde Guerre mondiale, ressent simultanément deux
impératifs. D’une part, la démobilisation à venir nécessite de proposer un nouveau défi
commun aux quelque six mille scientifiques engagés dans l’effort de guerre afin de
préserver et renforcer la domination technologique des États-Unis. D’autre part,
43
l’orientation des recherches demande à être revue en faveur d’objectifs plus humanistes .
Son article As we may think paraît, à quelques semaines d’intervalle, une première fois dans
le magazine Atlantic Monthly, une seconde fois dans le magazine Life – peu avant et juste
après l’attaque nucléaire sur Hiroshima. Même si les technologies décrites paraissent très
datées, les assemblages et les usages évoqués par Bush gardent toute leur actualité. Il
préfigure l’interaction vocale, les appareils de saisie d’information portables, les
« Dans les ordinateurs, des codes complets sont des ensembles d’ordres, donnés avec toutes les
spécifications nécessaires. Si la machine doit résoudre un problème déterminé au moyen d’un calcul, il
faudra la contrôler au moyen d’un code spécifique » (ibid. p. 71). Ce que von Neumann nomme “code
complet” s’appelle “microprogrammation” aujourd’hui. On la rencontre au plus près des machines, à
la frontière de la matière, là où le code binaire définit les capacités fonctionnelles des appareils.
43 « Les applications de la science ont fourni à l’humanité une maison bien équipée et lui enseignent
comment y vivre en bonne santé. Elles lui ont permis de jeter des peuples entiers les uns contre les autres
avec des armes cruelles. Elles pourraient lui permettre désormais d’embrasser réellement tout le savoir et
de grandir en sagesse, grâce à l’expérience de l’espèce. » (Bush, 1945, in Wardrip-Fruin & Montfort,
2003. p. 47)
42
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
51
Visions et visionnaires la force du récit Partie 2
44
communications sans fil, etc. Mais ces descriptions ne sont qu’une introduction pour la
plus fameuse proposition du chercheur : le « memex », « un futur appareil à usage
individuel, une sorte de fichier-bibliothèque personnel et mécanisé », « une extension
intime de sa mémoire » (Bush, 1945, in Wardrip-Fruin & Montfort, 2003. p. 45).
Figure 2.6 : « Le memex, sous la forme d’un bureau, afficherait instantanément fiches et matériau sur tout
sujet, à la commande de l’opérateur. Des écrans translucides inclinés agrandissent les supermicrofilms
indexés par code numérique. À gauche, un mécanisme qui photographie automatiquement notes
manuscrites, images et lettres, puis qui les classe dans le bureau pour référence. » (Life n° 19(11). 1945.
p. 123)
Le memex est pensé comme le moyen de « transformer l’explosion de l’information en une
explosion de la connaissance » (Wardrip-Fruin & Montfort, 2003. p. 35). Bush insiste sur
le caractère associatif de l’esprit humain et souligne l’impermanence des connexions qui
relient entre eux les neurones. S’il doute que nous soyons en mesure de reproduire de
manière artificielle l’intégralité de ce processus mental, il suggère de s’en inspirer pour
mécaniser le processus de sélection par association, plus proche du fonctionnement humain
que celui de sélection par indexation. Bush prend pour hypothèse de travail un appareillage
individuel réalisable avec les moyens techniques de son époque (figure 2.6). La
mécanisation garantit la permanence des liens entre documents établis par l’utilisateur
(figure 2.7). Surtout, les liens consécutifs forment des pistes (« trails ») qui cristallisent
dans la mémoire de la machine l’ensemble de la connaissance construite sur un sujet par les
associations insérées dans les documents – qu’il s’agisse des liens automatiques de
l’indexation ou des liens créés à l’écran par l’opérateur. « C’est exactement comme si les
« On peut s’imaginer un chercheur du futur dans son laboratoire. Ses mains sont
libres, il n’est pas rivé à sa paillasse. Alors qu’il se déplace et observe, il photographie et commente.
L’heure est automatiquement ajoutée pour lier ensemble les deux enregistrements. S’il va sur le terrain, il
peut être connecté par radio à son enregistreur. Lorsqu’il se penche sur ses notes le soir, il dicte à
nouveau ses commentaires et les joint à l’enregistrement. Son texte dactylographié, comme ses photos,
peuvent être stockés en miniature, aussi il les projette pour les examiner. » (Bush, 1945, in WardripFruin & Montfort, 2003. p. 41)
44
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
52
Visions et visionnaires la force du récit Partie 2
éléments physiques venant de sources très distantes avaient été rassemblés puis liés
ensemble pour en faire un nouveau livre. Et c’est même plus que cela, car chaque élément
peut être inséré dans de nombreuses pistes » (ibid. p. 45).
Figure 2.7 : « Le memex montré en action. Sur l’un des écrans transparents, l’opérateur du futur écrit notes
et commentaires se rapportant au document affiché sur l’écran de gauche. L’insertion des bons codes au
bas de l’écran de droite liera le nouvel élément au précédent, après que les notes ont été photographiées sur
supermicrofilm. » (Life n° 19(11). 1945. p. 124)
Bush imagine que « la plupart des contenus pour le memex sont achetés sur microfilm,
prêts à l’insertion » (ibid.). Il prévoit aussi qu’un « recopieur » est mis en fonction à la
demande pour « photographier toute une piste […] pour insertion dans un autre memex »
(ibid. p. 46). Le chercheur esquisse enfin les contours des encyclopédies du futur,
convaincu que « la science peut réaliser les voies par lesquelles l’humain produit,
45
enregistre et consulte la mémoire de l’espèce » (ibid. p. 46).
46
Avec cet article très populaire, l’inventeur avéré et homme public influent qu’est Bush
marque profondément les esprits de son époque. L’auteur use de toutes les ressources à sa
disposition pour orienter la recherche dans les directions qui lui paraissent pertinentes ; et
pour réussir, il persiste à impliquer l’homme de la rue à l’égal du chercheur, du militaire et
du politique – comme depuis la fondation de l’IPTO en 1940 – dans la voie du “bonheur
technoscientifique”. Et quelle meilleure forme donner à la prospective qu’une bonne fiction
pour frapper autant l’imaginaire que la raison ?
Dans la trame de As We May Think apparaît l’hypertexte. Les liens entre documents ; les
pistes, ces arborescences chargées de sens ; l’indexation par association automatisée ; la
Comme les cybernéticiens, Bush perçoit la proximité entre les phénomènes naturels qui prennent
place dans le cortex humain et les opérations des machines de traitement automatisé du
savoir. « Toutes les formes d’informations sonores ou visuelles du monde extérieur ont été réduites à des
variations de courant dans un circuit électrique afin d’être transmises. Il se déroule exactement les mêmes
processus dans le corps humain » (ibid. p. 47).
45
Bush connaît une gloire méritée pour son analyseur différentiel, mis au point dans les années
1930. Son attachement aux machines analogiques, électromécaniques puis électroniques, ne faiblira
pas malgré les applications convaincantes tirées très vite des recherches sur les machines
numériques de Wiener, von Neumann, Turing…
46
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
53
Visions et visionnaires la force du récit Partie 2
navigation aisée dans le réseau des connaissances… Il suffit de remplacer le bureau par un
ordinateur et le supermicrofilm par les fichiers numériques pour transformer la vision de
Bush en un rêve réalisable. Ses héritiers spirituels, Ted Nelson et Engelbart, s’appliqueront
à le concrétiser vingt ans plus tard. Tous deux citent Bush comme une source d’inspiration
majeure, leurs résultats connexes ne peuvent que le confirmer.
L’hypertexte, ça lie… les inventeurs
47
L’hypertexte doit-il avoir un seul géniteur ? S’il en était un , il pourrait s’appeler Jorge
48
Luis Borges. En 1941, il écrit un ensemble de huit fictions sous le titre Le jardin aux
sentiers qui bifurquent. La huitième, qui clôt le recueil, porte le même titre. Il y est fait récit
d’un roman et d’un labyrinthe conçus par un dénommé Ts’ui Pên. L’œuvre du maître
chinois, titrée elle-même Le jardin aux sentiers qui bifurquent, décrit métaphoriquement un
hypertexte « avant même l’invention (ou, à tout le moins la révélation publique) de
l’ordinateur digital électromécanique » (Wardrip-Fruin & Montfort, 2003. p. 29).
Borges nous introduit dans la demeure de Stephen Albert, sinologue anglais et fin
connaisseur de l’œuvre de Ts’ui Pên, qui entre en possession d’une lettre calligraphiée de la
main du Maître. Il tombe en arrêt sur la phrase : « Je laisse aux nombreux avenirs (non à
tous) mon jardin aux sentiers qui bifurquent. » Albert explique à son visiteur impromptu,
un lointain descendant de Ts’ui Pên venu chez lui sans motif apparent, la compréhension
nouvelle qui en résulte :
« Je compris presque sur-le-champ ; le jardin aux sentiers qui bifurquent
était le roman chaotique ; la phrase nombreux avenirs (non à tous) me
suggéra l’image d’une bifurcation dans le temps, non dans l’espace. Une
nouvelle relecture générale de l’ouvrage confirma cette théorie. Dans toutes
les fictions, chaque fois que diverses possibilités se présentent, l’homme en
adopte une et élimine les autres ; dans la fiction du presque inextricable
Ts’ui Pên, il les adopte toutes simultanément. Il crée ainsi divers avenirs,
divers temps qui prolifèrent aussi et bifurquent. De là, les contradictions du
roman. Fang, disons, détient un secret ; un inconnu frappe à sa porte ; Fang
décide de le tuer. Naturellement, il y a plusieurs dénouements possibles :
Fang peut tuer l’intrus, l’intrus peut tuer Fang, tous deux peuvent être saufs,
C’est évidemment impossible ! “Nous sommes des nains juchés les épaules de géants”… En 1658
à Nuremberg paraît le premier ouvrage didactique, en latin, allemand et tchèque, utilisant des
illustrations légendées et numérotées : Orbis selisualium pictus (Le monde des choses sensibles
illustré), signé du pédagogue Amos Comenius.
48 Nick Montfort, dans la présentation qu’il fait du texte, précise : « [Borges] n’a jamais écrit de
roman. Il estimait suffisant d’encoder des idées assez riches pour servir de trame à un roman dans un
format plus court que la nouvelle classique, format qu’il appelait “fiction” » (Wardrip-Fruin & Montfort,
2003. p. 29). L’auteur l’affirmait déjà dans le prologue de son recueil Le jardin… : « Délire laborieux et
appauvrissant que de composer de vastes livres, de développer en cinq cents pages une idée que l’on
peut très bien exposer oralement en quelques minutes. Mieux vaut feindre que ces livres existent déjà »
(Borges, 1983. p. 9).
47
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
54
Visions et visionnaires la force du récit Partie 2
tous deux peuvent mourir, et cætera. Dans l’ouvrage de Ts’ui Pên, tous les
dénouements se produisent ; chacun est le point de départ d’autres
bifurcations. Parfois, les sentiers de ce labyrinthe convergent : par exemple,
vous arrivez chez moi, mais dans l’un des passés possibles, vous êtes mon
ennemi ; dans un autre mon ami. » (Borges, 1983. p. 100-101)
Détail caractéristique de sa manière, Borges emmêle à dessein les différents niveaux du
49
Jardin, tissant la trame de sa fiction jusqu’à y prendre son lecteur . Le tour de passe-passe
réussit parce que l’esprit humain fonctionne par association. « Dès qu’il s’est saisi d’un
objet, il passe instantanément à celui qui lui est suggéré par association d’idées, en accord
50
avec une toile complexe de pistes portée par les cellules du cerveau » (Bush, 1945, in
Wardrip-Fruin & Monfort, 2003. p. 44). Créer les moyens efficaces pour que l’ordinateur
travaille avec les éléments de connaissance comme l’accomplit notre cortex, voilà ce qui
pousse Nelson à conceptualiser l’hypertexte au début des années soixante. Il attendra 1965
51
pour endosser le terme dans une communication :
« Le mot “hypertexte”, tel que je vous le présente, désigne un ensemble de
matériaux textuels et picturaux interconnecté d’une manière si complexe
52
qu’il ne serait pas pratique de le représenter sur papier. » (Nelson, 1965, in
Wardrip-Fruin & Montfort, 2003. p. 144)
L’auteur précise que le préfixe hyper est choisi parce qu’il dénote « l’extension et la
généralité » (ibid), comme dans le terme hyperespace, et qu’il exprime adéquatement l’idée
de lecture/écriture non linéaire sur un support informatique. Cette définition de l’hypertexte
s’appuie sur une “philosophie” – les guillemets sont de Nelson – portée par deux idées :
53
« les structures complexes de fichiers (comme le ELF ) rendent possible la création de
nouveaux médias complexes et significatifs, l’hypertexte et l’hyperfilm » ; « les structures
de fichiers évolutives (comme le ELF) rendent possible la conservation de la trace des
choses qui ont changé, hors de notre conscience, depuis le début. Cela inclut les grandes
Des constructions infinies comparables se retrouvent dans d’autres textes de Borges, Le livre de
sable et La bibliothèque de Babel par exemple, qui figurent aussi dans Fictions (Borges, 1983).
50 Nous verrons plus loin comment Baltz (2003) reprend la définition et propose de généraliser la
notion d’hypertexte, y incluant les échos de ce commentaire de Bush quand il cite Marshall
McLuhan : « l’homme a jeté son système nerveux à la surface du globe » (McLuhan, 1964).
51 A File Structure for the Complex, the Changing, and the Indeterminate est publié en 1965, dans les
actes de la 20e conférence nationale de l’Association for Computing Machinery.
52 Nelson poursuit, précisant que « films, enregistrements sonores et vidéo » peuvent être traités
comme « des systèmes non-linéaires » grâce à l’informatique. Il en donne l’illustration suivante :
« L’hyperfilm – un film navigable ou multiséquencé – est un exemple d’hypermédia qui attire notre
attention » (ibid. p. 144).
53 La structure de fichiers évolutive proposée par Nelson sous le nom de Evolutionary List File (ELF)
fonctionne avec trois éléments de base : les entrées, les listes, les liens. Nelson insiste sur la
dimension abstraite de sa proposition ; il ne s’agit pas d’une machine, « un ELF peut être pensé
comme un lieu » (ibid. p. 139). Par généralisations successives de son système (le processus est
récursif), Nelson franchit des niveaux de complexité : des ajouts, corrections, variantes, etc., liés au
document original jusqu’au réseau global autodocumenté qu’un historien pourrait créer alors qu’il
écrit un livre.
49
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
55
Visions et visionnaires la force du récit Partie 2
catégories de la pensée humaine, qui ne cesseront de changer » (ibid. p. 143). Cette
“philosophie” recouvre en partie les observations de Engelbart lorsqu’il élabore son “cadre
54
conceptuel pour l’augmentation de l’intellect humain”, présenté formellement en 1962 .
En marche vers l’humain augmenté
Synthèse prodigieuse, il s’y mêle les aspects fonctionnels du memex de Bush, la symbiose
humain-ordinateur de Licklider, la logique formelle des cybernéticiens appliquée à l’esprit
humain comme aux ordinateurs, l’architecture de von Neumann, les automates… et
quantité d’apports originaux qui dérivent directement de ce que l’on pourrait nommer la
“méthode de Engelbart” (figure 2.8). Son programme est guidé par une ambition non
55
dénuée de générosité :
« Par “augmenter l’intellect humain”, nous entendons accroître la capacité
de l’humain à aborder des situations complexes problématiques, d’en
acquérir une compréhension pour satisfaire ses besoins particuliers, et d’en
dériver des solutions aux problèmes. […] Nous ne parlons pas des tours
astucieux isolés qui aident dans des situations particulières. Nous nous
référons à une manière de vivre dans un domaine intégré où l’intuition,
l’empirique, l’impondérable et le “sens de la situation” humain coexistent
utilement avec des concepts puissants, une terminologie et une notation
rationalisées, des méthodes élaborées et des assistants électroniques très
puissants. » (Engelbart, 1962. Section I. A.)
Le rapport Augmenting Human Intellect: A Conceptual Framework, élément d’un contrat passé entre
le Stanford Research Institute et l’Air Force Office of Scientific Research, est édité en 1962 par le
SRI. Engelbart travaille à Stanford depuis 1957 où il glane depuis supports et financements pour ses
projets.
55 Jeune ingénieur électricien, Engelbart s’ennuie dans l’industrie. Et il a des “flashs” :
« FLASH-1 La difficulté des problèmes de l’humanité croît plus vite que notre capacité à les traiter. (Nous
avons des soucis !)
54
FLASH-2 Booster la capacité de l’humanité à traiter les problèmes complexes et urgents est un candidat
intéressant dans l’arène où un jeune ingénieur électricien pourrait tenter de “faire le plus la différence”.
[…]
FLASH-3 Haha ! Vision graphique de moi-même devant une console CRT, travaillant avec des moyens qui
évoluent rapidement sous mes yeux. » (Engelbart, A History of Personal Workstations, 1988.)
La “vision graphique” doit être comprise comme une vision de l’avenir « dans le style de la sciencefiction » (Wardrip-Fruin & Monfort, 2003. p. 94). Ce style est d’ailleurs utilisé dans toute la section III
du rapport de 1962.
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
56
Visions et visionnaires la force du récit Partie 2
Figure 2.8 : Pour Engelbart, presque tous les humains sont déjà augmentés (une machine à écrire, par
56
exemple, accélère le processus d’écriture). Le “système H-LAM/T” , qui a pour « seuls composants
physiques l’humain et les artefacts », intègre deux domaines d’activité distincts : « celui représenté par
l’humain, où se déroulent tous les processus formels humains, et celui représenté par l’artefact, où se tiennent
tous les processus formels artificiels ». Au cours de tout processus composite se tient « une interaction
coopérative entre les deux domaines qui nécessite un échange d’énergie (dont la plus grande part à des fins
d’échange d’information) ». L’ “interface humain-machine” « représente la frontière à travers laquelle
l’énergie est échangée entre les deux domaines. […] Les échanges via cette interface ont lieu lorsqu’un
processus formel humain est couplé à un processus formel artificiel. » (Engelbart, 1962. Section II. C. 3).
C’est indépendamment de Nelson qu’Engelbart invente l’hypertexte. Cet apport fonctionnel
n’est, pour lui, qu’une solution particulière donnée à un problème précis ; conséquence
logique de la mise en pratique de son programme par le chercheur. Celui-ci définit un cadre
conceptuel très général pour conduire les recherches, dans quelque domaine que ce soit,
afin qu’elles répondent aux besoins particuliers des individus comme aux besoins de
l’humanité tout entière – une véritable méthode au sens cartésien. Engelbart résume ses
objectifs. « Nous avons donné à ce cadre les spécifications suivantes :
–
qu’il donne une perspective tant pour la recherche à long terme que
pour la recherche qui produira des résultats rapidement ;
H-LAM/T signifie Human using Language, Artifacts, Methodology, in which he is Trained (un humain
utilisant les langages, artefacts et méthodes pour lesquels il est entraîné). Engelbart précise chacun
des concepts :
« 1. Artefacts – objets physiques conçus pour apporter du confort à l’humain, pour la manipulation
d’objets et de matériaux, et pour la manipulation de symboles ;
56
2. Langage – la façon dont chaque individu décompose l’image du monde en concepts que son esprit
utilise pour le modéliser, et les symboles qu’il lie à ces concepts et qu’il utilise pour manipuler
consciemment ces concepts (“penser”) ;
3. Méthodologie – les méthodes, procédures, stratégies, etc. que l’humain utilise pour ses activités
finalistes (résolution de problèmes) ;
4. Entraînement – le conditionnement nécessaire de l’être humain pour qu’il puisse utiliser les moyens 1,
2 et 3 de manière opérationnellement efficace » (Engelbart, 1963. Section II. A.).
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
57
Visions et visionnaires la force du récit Partie 2
–
qu’il indique ce que cette augmentation va effectivement entraîner
comme conséquences pour l’environnement professionnel, la réflexion,
les savoirs et les méthodes de travail ;
–
qu’il serve de base pour évaluer la possible pertinence des travaux et
connaissances provenant de domaines existants et pour assimiler tout ce
qui est pertinent ;
–
qu’il révèle où la recherche est possible et les voies pour conduire cette
recherche ; qu’il serve à choisir les points de départ et qu’il indique
comment développer les méthodologies appropriées aux recherches
nécessaires. » (Engelbart, 1962. Section I. B.)
La construction intellectuelle présentée dans le rapport de 1962, encore très rudimentaire
(figure 2.9), doit impérativement évoluer jusqu’à devenir un programme global
(figure 2.10). Cette “méthode de Engelbart”, mise en application au sein de l’Augmentation
Research Center, donne des résultats stupéfiants en quelques années. Le chercheur, assisté
de William English, le démontrera six ans plus tard lors de la première présentation
57
publique du Online System .
Figure 2.9 : Le programme d’augmentation initial débute par « la dépendance générale aux disciplines
préexistantes, pour leur sujet (flèche pleine) comme pour leurs outils et techniques (flèche pointillée) ».
Engelbart énumère celles des disciplines qui lui paraissent le plus pertinentes : « psychologie,
programmation et technologie physique des ordinateurs, technologies d’affichage, intelligence artificielle,
ingénierie industrielle, science du management, analyse de systèmes et recherche d’information »
(Engelbart, 1962. Section IV. E.).
Le Online System, ou NLS, provient des recherches de l’équipe de Engelbart dans son laboratoire,
l’Augmentation Research Center (ARC), hébergé par le Stanford Research Center (SRI). « Engelbart
est l’un des grands inventeurs du XXe siècle » (Wardrip-Fruin & Monfort, 2003. p. 93). On lui doit les
principes majeurs des interfaces humain-machine : souris, fenêtre, traitement de texte, affichage
graphique/texte, visioconférence, travail coopératif, programmation structurée, etc. La présentation
du NLS en 1968 démontre la puissance créatrice de son Conceptual Framework. La vidéo de
l’événement est en ligne sur le site du SRI (http://sloan.stanford.edu/mousesite/1968Demo.html).
57
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
58
Visions et visionnaires la force du récit Partie 2
Figure 2.10 : La “méthode de Engelbart” est un programme totalisant. Les boucles récursives de la logique
formelle servent à optimiser l’exploitation des savoirs, des outils et des méthodologies. Après la phase
initiale de “numérisation” de tout ce qui est pertinent dans les disciplines préexistantes pour augmenter
l’humain, le programme entre dans un cercle vertueux d’exploitation maximale des innovations, entretenu
par des procédures efficaces de partage des connaissances.
Le contexte dans lequel prend place cette quête de l’humain augmenté, évolutif lui aussi,
est exemplaire des impondérables cités par le chercheur : « Même si notre cadre conceptuel
nous fournissait une analyse de base précise et complète du système d’où provient
l’efficacité intellectuelle humaine, la nature explicite de futurs systèmes améliorés serait
très affectée par des changements (attendus) dans notre technologie ou dans notre
compréhension de l’être humain » (Engelbart, 1962. Section I. B.).
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
59
Visions et visionnaires la force du récit Partie 2
Figure 2.11 : Au cours de la démonstration du NLS, Engelbart manipule les données grâce à un ensemble de
trois périphériques d’entrée : un clavier classique, un clavier à cinq lames métalliques (qui permet la saisie
accélérée des caractères alphanumériques) et une souris. À l’écran, un affichage purement graphique où le
texte est saisi puis édité directement en listes, en arbres, etc. Sutherland avait réifié le symbole graphique,
Engelbart réifie la part hypertextuelle du langage. Vingt-cinq ans seront nécessaires pour que l’industrie
informatique adopte une grande part ces composants matériels et logiciels.
Engelbart, comme Nelson à sa mesure, encourage l’évolution des automates
programmables vers une plus grande complexité. Les couches logicielles se superposent
jusqu’à confier définitivement le traitement des fichiers de données à l’ordinateur – seul
l’informaticien a encore des raisons de s’y intéresser. L’opérateur, qui est alors encore un
programmeur, ne voit plus le contenu de ces fichiers : il manipule l’information à un niveau
d’abstraction supérieur à travers les représentations symboliques produites par l’ordinateur
en réponse à ses demandes.
Alors le récit s’inscrivit dans la matière
La similitude formelle entre cerveau humain et ordinateur, entrevue par les scientifiques
voici une soixantaine d’années, trouve une voie de réalisation dans la délégation d’un
nombre toujours plus important de processus cognitifs à la machinerie informatique. Certes,
la question de la machine pensante reste irrésolue, malgré les nombreuses propositions
58
fictionnelles qui continuent de fleurir . Mais l’engagement de la nation américaine dans
l’aventure numérique au sortir de la Seconde Guerre mondiale, et par entraînement de
toutes les nations occidentalisées, instaure un contexte favorable à l’épanouissement des
ordinateurs. Ce que les visionnaires ont anticipé a été, peu ou prou, accompli. Toutefois,
comme dans tout exercice de prospective, certaines voies privilégiées ont échoué, d’autres
ignorées à tort. Le raté le plus évident, de ce point de vue, touche à la mise en réseau
permanente d’ordinateurs jusqu’à constituer l’interréseaux qu’est Internet ; un autre raté
concerne la miniaturisation des composants électroniques et la possibilité de construire des
ordinateurs individuels.
Les auteurs de science-fiction trouvent dans l’ordinateur pensant un matériau formidable pour
exercer leur imagination. Par exemple dans Câblé de Walter Jon Williams (1986) ; La stratégie Ender
de Orson Scott Card (1989) ; Les Cantos d’Hyperion de Dan Simmons (1989), roman où apparaît
pour la première fois le terme “infosphère” ; Les synthérétiques de Pat Cadigan (1991) ; Gros temps
de Bruce Sterling (1994) ; Les racines du mal de Maurice G. Dantec (1999) ; etc.
58
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
60
Visions et visionnaires la force du récit Partie 2
Des loupés ? Certainement. Mais pas pour tous les auteurs ; ainsi William F. Jenkins qui,
sous le pseudonyme de Murray Leinster, publie en 1946 la nouvelle A logic named Joe. En
une vingtaine de pages, il brosse un portrait saisissant d’une société où « les logiques sont
la civilisation » (Leinster, 1946, in Duvic, 1986. p. 22). Ce qu’il décrit n’a presque rien
pour nous surprendre… aujourd’hui :
« Vous connaissez les logiques. Vous en avez un chez vous. Ça ressemble à
un récepteur d’images, seulement il y a des touches au lieu de cadrans et
vous pianotez pour avoir ce que vous voulez. L’appareil est raccordé au
réservoir de données et c’est là que le circuit Carson est fixé aux relais. Par
exemple, vous tapez “Radio BIDE” sur votre logique. Des relais, dans le
réservoir, prennent la relève, et le programme visuel que BIDE est en train
de diffuser apparaît sur l’écran de votre logique. Ou bien vous tapez le
numéro de téléphone de Sally Handcock, alors l’écran clignote et crachote et
vous voilà raccordé à son logique ; si quelqu’un répond, vous êtes en
communication visiophonique. Mais en plus de ça, vous pouvez avoir les
prévisions météo, apprendre qui a gagné les courses d’aujourd’hui à Hialeah
ou qui était maîtresse de la Maison-Blanche pendant le mandat de Garfield,
ou ce que Illico Presto va vendre aujourd’hui. Ce sont les relais qui font le
travail dans le réservoir. Lui, c’est un grand bâtiment plein des événements
en cours et de toutes les émissions jamais enregistrées – il est branché sur les
réservoirs de tous les autres pays – et vous n’avez qu’à pianoter pour obtenir
tout ce que vous voulez savoir, voir ou entendre. C’est bien commode. Il fait
aussi tous vos calculs et tient votre comptabilité, vous pouvez le consulter en
chimie, en physique, en astronomie, il vous tire les cartes et il a, en prime, un
programme “Conseils aux cœurs solitaires”. » (ibid. p. 10-11)
Cette vision graphique – pour reprendre la terminologie de Engelbart – rappelle à s’y
méprendre les ordinateurs connectés à Internet, le plus souvent aux services proposés sur le
Web. Mais qu’importe, pour l’instant, l’objet de notre rapport à ces classes d’automates
formels inscrites dans le réel. Tout l’édifice tient sur le dispositif technique numérique, ce
mélange intime de matière et d’information qui fait les ordinateurs et les réseaux. Les
directions indiquées par les pionniers produisent des résultats tangibles ; prendre pour
exemple la prégnance de la méthode de Engelbart dans l’esprit de chercheurs, d’artistes, de
programmeurs, d’expérimentateurs de toute sorte, qui la pratiquent comme Monsieur
Jourdain la prose.
Le dispositif technique numérique a d’abord été conçu, développé, déployé et mis en
service pour calculer et pour simuler. « Ultérieurement, on s’est aperçu que les capacités
de traitement de ces machines dépassaient très largement le domaine du calcul numérique
[…]. Cela explique que l’on soit passé historiquement de la notion de “calculatrice” à
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
61
Visions et visionnaires la force du récit Partie 2
celle de “système automatique de traitement de l’information” » (Hebenstreit, 2001). Ce
qui formait l’objet de l’attention aux débuts, cet ordinateur-calculatrice évoqué par
Hebenstreit, a perdu sa position centrale. Il s’est banalisé au point que la puissance de
calcul distribuée dans un grand nombre de petites machines dépasse celle de grands
systèmes. Conséquence prévisible, la proportion d’informaticiens dans la population
59
d’utilisateurs diminue , même s’ils sont une composante vitale pour l’évolution du
système. La diffusion des micro-ordinateurs dépend d’eux : ils empilent les couches
logicielles dans la boîte noire pour que l’utilisateur voie s’afficher sur son “bureau” des
“documents” et des “applications”.
La mise en réseau des ordinateurs d’abord, puis la mise en réseau des réseaux – grâce aux
protocoles TCP/IP – ont transformé notre rapport à ces systèmes automatiques de
60
traitement de l’information. Notre attention quitte le dispositif technique numérique et se
focalise sur ce qu’il produit. « Longtemps polarisée par la “machine”, balkanisée naguère
par les logiciels, l’informatique contemporaine – logiciel et matériel – déconstruit
l’ordinateur au profit d’un espace de communication navigable et transparent centré sur
les flux d’informations » (Lévy, 1998. p. 44).
Lévy, comme d’autres auteurs contemporains, cantonne en quelques mots l’outil
informatique à un rôle strictement fonctionnel pour porter son regard, et concentrer son
discours, sur ce qui est produit par l’exploitation continue du dispositif technique
numérique – les seuls flux d’informations porteurs de sens pour l’être humain. Et si
l’existence de cet “espace de communication” est incontestable, la manière dont il est
qualifié ici de “navigable et transparent” mérite discussion. Surtout, il paraît bien
présomptueux, si ce n’est par une volonté affirmée de simplification, de vouloir étudier ce
monde numérique – qu’on le désigne par cyberespace ou tout autre terme équivalent – en
éludant la question : que se passe-t-il dans la boîte noire ?
À l’échelle française, la dernière tentative d’enseigner la programmation à toute une classe d’âges
remonte à 1985, lorsque Laurent Fabius, alors Premier Ministre, lançait le Plan Informatique pour
Tous (communiqué de presse : http://www.epi.asso.fr/revue/37/b37p023.htm – dernier accès le
18 août 2003). La décennie 1980 a vu la micro-informatique passer des mains des “hobbyistes”, ces
particuliers qui achetaient un micro pour programmer, aux bureaux des entreprises et des
administrations avant de revenir peu à peu dans les foyers comme machine de jeu, d’apprentissage,
de “petite bureautique” et, enfin, de terminal Web.
59
La chose vaut, bien sûr, tant que ça marche ! Un bug, un plantage, et l’attention revient à la part
matérielle de l’interface. D’une manière plus générale, nous ne cessons de nous frotter à la matière
lorsque nous interagissons avec le dispositif technique. L’écran n’est jamais assez grand ni nos doigts
assez rapides sur le clavier, sans parler de cette diablesse de souris…
60
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
62
Où le cyberespace est Autre, conclusion temporaire
Un cyberespace plongé
dans l’espace informationnel
L’onde de choc planétaire engendrée par l’invention, la création et l’emploi continu du
dispositif technique numérique confondent l’observateur. Il suffit pour s’en convaincre de
contempler la prolifération d’ouvrages, d’articles, d’études, de recherches qui sondent les
technologies du numérique dans toutes leurs dimensions – machines, réseaux, logiciels,
documents, usages, impacts, etc. Cette prolifération, sans cesse croissante, illustre la
diversité des questionnements, et l’ampleur des polémiques, concomitants à l’apparition de
ce dispositif technique. Rares sont les champs de la connaissance qui ne soient confrontés,
concernés et affectés par la question des technologies du numérique, en elles-mêmes et ou
pour leurs effets. Et rares sont les commentateurs qui s’accordent sur ce qu’ils observent.
L’hésitation sur le vocabulaire, la difficulté à fixer les définitions, la profusion des concepts
brouillent l’image au point qu’il est impossible d’embrasser l’ensemble d’un coup d’œil.
Cette prolixité fait écho à l’impensable complexité atteinte par le dispositif technique,
appréhendable dès le contact avec une machine numérique. Aujourd’hui, comme le
pronostiquait Turing dès 1950, a disparu l’informaticien susceptible de connaître
l’intégralité des processus en cours dans son ordinateur – c’était encore sa situation normale
voici une vingtaine d’années, encore plus à l’époque d’un von Neumann. Se connecter à
1
Internet, ce n’est pas se connecter à un réseau mais à l’un des milliers de réseaux qui le
constituent. La plasticité du codage binaire répond à la capacité de l’être humain à
2
formaliser ses idées – il s’agit en somme de leur appliquer la méthode de Descartes
augmentée de la méthode de Engelbart. La logique formelle fondatrice de l’édifice assure la
cohérence ou, à tout le moins, la coexistence des codes binaires dans l’espace défini par les
machines qui coopèrent à travers les réseaux.
Tom Leighton débute son cours Topics in Theoretical Computer Science: Internet Research Problems,
qu’il donne au MIT, par la présentation rapide du fonctionnement de l’interréseaux Internet :
« Internet est un réseau de réseaux : il comprend plus de 9 000 réseaux indépendants, qui
communiquent par le protocole IP. […] Pour qu’Internet se comporte comme un véritable réseau global
reliant tout le monde, ces réseaux indépendants doivent être reliés par des liens appelés points de parité
(« peering »). Un point de parité est pour l’essentiel un lien entre deux routeurs situés sur des réseaux
différents. Les données, pour passer de l’un à l’autre, franchissent ce lien. De fait, il y a des milliers de
points de parité sur le Web. Et pour atteindre l’utilisateur, les données doivent passer à travers de
nombreux réseaux indépendants et autant de points de parité. Deux types de protocoles aident à diriger
le trafic sur le Web. Les Interior Gateway Protocols, comme RIP, routent les données au sein d’un réseau
individuel. Plus important pour nous, le Exterior Gateway Protocol, BGP, est utilisé pour router les données
entre les réseaux. Alors que les protocoles IGP utilisent diverses méthodes sophistiquées pour déterminer
le routage optimal – incluant la topologie, la bande passante et la congestion –, BGP ne fait rien de cela.
À la place, BGP détermine les routes simplement en minimisant le nombre de réseaux indépendants que
les données doivent traverser » (Leighton, 2002. § 1.2.1).
2 « Les longues chaînes de zéros et de uns du langage informatique accomplissent, à trois siècles de
distance, le programme tracé par le Discours de la méthode » (Bougnoux, 2001. p. 102).
1
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
63
Où le cyberespace est Autre, conclusion temporaire
L’objet de notre examen contient l’intégralité des codes binaires représentés dans le
3
dispositif technique numérique . Immatériel, cet objet fonde son existence dans la matière,
ce qui permet à chaque individu disposant d’un équipement d’interface – précipité
particulier de matériel et de logiciel – d’interagir avec lui et de communiquer à travers lui
avec tout autre individu pourvu d’un tel équipement. « Le net est un monde d’extrémités.
Vous êtes à une extrémité, et tous les autres et tout le reste sont les autres extrémités. »
(Searls & Weinberger, 2003). La proposition, certes inspirée, est par trop radicale. Elle se
détourne de ce qui se tient entre les extrémités – les processus innombrables nécessaires au
fonctionnement du dispositif technique – ; ignorant sciemment le liant de ce monde
numérique.
L’idée d’un monde d’extrémités induit la notion de frontière, évocatrice de celle
d’interface : chacun se trouve à une extrémité, physiquement hors du réseau mais relié à lui.
Poser l’interface, c’est fixer la frontière entre le dans et le hors numérique. La question de
l’endroit où l’on tente de la tracer est autant débattue que celle de la dénomination de ce
que l’on délimite. Quoi que Searls & Weinberger désignent par le mot “net”, d’autres le
nomment cyberespace, infosphère, espace informationnel ; et sur ces noms construisent
d’autres visions. Exemple. « Ce système technique de connexion entre cerveaux a la
particularité de changer notre vision du monde. Il truffe l’environnement d’un équivalent
du système nerveux, tapisse le réel par de l’information et produit l’espace
informationnel » (Baltz, 2002). Le raccourci, imprégné de culture cybernétique, est
saisissant. Enveloppant d’un geste toutes les interfaces – biologiques, techniques, sociales,
linguistiques –, Baltz relie les cortex de l’humanité. Et glisse une nouvelle interface entre
notre regard et le réel, une machine de vision aux réglages indéfiniment variables.
La machine de vision perturbe le champ de nos perceptions ; à la fois augmentation par la
capacité à zoomer dans l’information et acquisition d’un nouveau point de vue pour, “hors4
soi” , savoir recourir à la machine de vision. Jouer de ses réglages, c’est varier la forme
donnée à la quantité croissante d’informations qui vient en surimpression de nos
perceptions habituelles. C’est aussi choisir le niveau d’abstraction symbolique – du code
Les appareils électroniques, les réseaux, les satellites, les supports de mémoire, etc., interconnectés
ou ayant le potentiel de l’être même temporairement, distribuent dans leur mémoire le contenu du
cyberespace qui « comprend non seulement le “stock” déterritorialisé de textes, d’images, de sons
habituels, mais également des points de vue hypertextuels sur ce stock, des bases de connaissances aux
capacités d’inférence autonome et des modèles numériques pour toutes les simulations » (Lévy, 1998.
p. 113) ; précision utile, tout ce matériau binaire figure soit en stock soit en flux dans le cyberespace.
3
« Pour s’informer et communiquer avec autrui, apparaît de plus en plus pour le sujet la nécessité d’être
d’abord capable de “sortir de soi” (au moins métaphoriquement) ; se voir dans le monde, voir et
interroger notre rapport à l’information et la communication, devenir l’objet de sa propre observation, se
voir voir… ». Le “hors-soi” fait jaillir le sujet à l’extérieur de lui-même, au contact de l’Autre, dans un
espace où « il y a toujours “quelque chose” entre lui et n’importe quelle entité de cet espace et qu’il est
totalement dépendant de technologies de toute nature pour en rendre compte » (Baltz, 2000).
4
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
64
Où le cyberespace est Autre, conclusion temporaire
binaire aux codes alphanumériques aux symboles graphiques dynamiques – auquel la
5
machine de vision fonctionne pour nous informer .
Conséquence de son actualisation comme interface, la machine de vision se frotte à la
6
complexité analogique du monde physique pour rendre perceptible ce qui se déroule au
sein du cyberespace – transformation analogue à celle de la machine de Turing en automate
de von Neumann au contact de la matière. La machine de vision dévoile ainsi, par petites
touches ou grands coups de projecteurs, l’espace informationnel numérique. La former
comme interface, c’est d’abord la décrire, la formaliser, la coder et l’exécuter dans des
7
mémoires d’ordinateur pour qu’elle opère et nous donne à voir. L’activité d’écriture met en
mouvement le cyberespace ; extension et densification à la fois, toutes deux accélérées par
les phénomènes de compression résultant du codage binaire des signaux selon les
théorèmes de Shannon.
L’information rendue disponible dans le cyberespace par l’activité d’écriture prend une
place prépondérante, à tel point que Lévy y discerne un renversement des positions entre
support et contenu :
« Toutes les fonctions de l’informatique (saisie, numérisation, mémoire,
traitement, affichage) sont distribuables et, de plus en plus, distribuées. […]
À la limite, il n’y a plus qu’un seul ordinateur, un seul support pour texte,
mais il est devenu impossible d’en tracer les limites, de fixer son contour.
C’est un ordinateur dont le centre est partout et la circonférence nulle part,
un ordinateur hypertextuel, dispersé, vivant, pullulant, inachevé, virtuel, un
ordinateur de Babel : le cyberespace lui-même. » (Lévy, 1998. p. 45)
L’ordinateur, qualifié d’hypertextuel et de virtuel, ouvrirait le cyberespace à une navigation
contrôlée et sans entrave. L’hypothèse reprend le questionnement de Wiener et le rénove en
intégrant tout le réalisé du programme cybernétique, cette projection dans le réel des
« Les représentations de type cartographique prennent aujourd’hui de plus en plus d’importance dans
les technologies à support informatique, précisément pour résoudre ce problème de construction de
schémas », car « c’est une tâche difficile que de construire des schémas abstrayant et intégrant le sens
d’un texte, ou plus généralement d’une configuration informationnelle complexe » (Lévy, 1990. p. 45).
6 Le potentiel exploratoire de la simulation informatique est limité par la “barrière de la
complexité”. Heinz Pagels illustre la complexité « non simulable » avec les conditions
atmosphériques, exposé qu’il conclut ainsi : « Il existe bien sûr un ordinateur capable de simuler le
temps avec exactitude : le système atmosphérique de la Terre est un parfait calculateur analogique de
son propre développement. Si nous pouvions l’accélérer, nous aurions des prédictions météorologiques
exactes. Cet exemple plutôt banal (tout système est son propre ordinateur analogique) illustre un
important principe : les systèmes non simulables ne peuvent être efficacement modélisés
mathématiquement par un système moins complexe » (Pagels, 1988. p. 235), propos déjà tenu par
von Neumann lorsqu’il évoquait l’impossibilité de simuler le cerveau humain par des moyens
artificiels.
5
L’activité d’écriture, nous verrons plus loin qu’elle est difficilement dissociable de l’activité de
lecture, s’accomplit en permanence dans le cyberespace. Il en résulte indifféremment du code
– produit par les automates et par les informaticiens –, des données numérisées et données
calculées.
7
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
65
Où le cyberespace est Autre, conclusion temporaire
“visions graphiques” de von Neumann et Turing, Licklider et Nelson, Sutherland et
Engelbart.
Lévy considère bien l’ensemble de ses constituants pour définir « le cyberespace comme
l’espace de communication ouvert par l’interconnexion mondiale des ordinateurs et des
8
mémoires informatiques » (Lévy, 1997. p. 107). Il recroise au passage Marshall McLuhan
pour qui « la cybernétique considère le problème de la production comme un système
intégré de manipulation de l’information » au lieu de « s’intéresser à des machines
distinctes » (McLuhan, 1968. p. 285). Et il concentre son attention sur la signification pour
l’humanité de l’émergence du cyberespace, interrogeant essentiellement la résultante de
leur interaction mutuelle. Pour cela, il laisse dans l’ombre d’une boîte noire les
transformations et les créations d’information qui s’accomplissent dans l’espace
informationnel numérique.
À défaut d’aider à en construire une vision nette, cette approche contribue à mettre en
lumière l’un de ses traits saillants : c’est de fractalité qu’il s’agit. Chercher à définir ce
qu’est le cyberespace, c’est se trouver sans cesse en porte-à-faux. Il n’est pas de point
d’appui absolument fiable sur lequel fonder sa réflexion. Derrière chaque concept en
apparence bien défini, et donc stable, se dissimule une nouvelle arborescence, une nouvelle
portion du réseau cognitif que le cyberespace peut emporter et transformer en son sein.
L’exploration hypertextuelle de la connaissance pourrait durer indéfiniment ; le réseau
s’étend et se densifie continûment, conséquence de l’externalisation de nos mémoires par
9
l’entremise des technologies – langage, écriture, imprimerie, informatique…
Lévy précise ainsi : « Cette définition inclut l’ensemble des systèmes de communication électronique (y
compris l’ensemble des réseaux hertziens et téléphoniques classiques) dans la mesure où ils convoient
des informations en provenance de sources numériques ou destinées à la numérisation » (Lévy, 1997.
p. 107-108).
9 Cette question de l’externalisation de la mémoire par les outils, de « libération de la mémoire »
comme le note André Leroi-Gourhan dans l’introduction de La mémoire et les rythmes, second
tome de Le Geste et la parole (Albin Michel, 1965. p. 9), a été abondamment traitée dès les années
1950 (Mauss, Gille, Simondon, Leroi-Gourhan…) et remise en perspective plus récemment par
Stiegler, qui met au jour des « processus évolutifs » et des « lois morphogénétiques » s’appliquant à ces
objets (Stiegler, Leroi-Gourhan : l’inorganique organisé, Cahiers de Médiologie, n° 6. p. 189).
8
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
66
Où le cyberespace est Autre, conclusion temporaire
Y’a de l’info dans l’infosphère
10
Définir l’information ? Le langage courant en fait « une connaissance, un savoir ou un
contenu de sens qu’un locuteur détient, qu’il peut transmettre ou garder pour soi, et dont il
peut se servir pour calculer une action stratégique ». L’information tient un rôle central
dans « les relations de pouvoir, […] le réseau conceptuel sémantique de l’action, […] la
11
communication médiatique de nos sociétés modernes » (Quéré, 1990) – tous domaines où
l’accès au sens joue – et aussi dans le traitement automatisé de l’information – cette fois
indépendamment du contenu sémantique. Chez les chercheurs en sciences de l’information
12
et de la communication, ce joli défi lexicographique déclenche des réflexes-parapluie :
« L’“information”, notion “caméléonesque”, pour reprendre l’expression d’Edgar
Morin » (Breton & Proulx, 2002. p. 91) le dispute à « la notion d’information, [qui]
constitue comme l’a dit Heinz von Foerster un “caméléon conceptuel” particulièrement
vicieux » (Bougnoux, 2001. p. 78). Au-delà de la boutade, et si l’on suit les premiers,
l’information est une « description objective faite en vue d’être communiquée et apporter,
le cas échéant, une nouveauté pour l’auditoire » (Breton & Proulx, 2002. p. 91), la
description étant un procédé concret qui permet de produire une information.
Le mot français information dérive du latin informatio, qui signifie autant l’action
matérielle de façonner, de donner une forme que, suivant le contexte, l’enseignement et
l’instruction ou l’idée, la notion et la représentation. La description est alors « un travail,
une élaboration, une mise en forme [qui] obéit à des règles qui permettent de produire
techniquement une représentation fidèle du réel » (ibid. p. 97). Mais décrire c’est aussi
« mettre en œuvre une clôture, un espace délimité » (ibid. p. 100), action qui s’applique
plus particulièrement à des « “objets à décrire” privilégiés, ceux dont d’autres pratiques
13
ont déjà proposé le caractère discret » (ibid. p. 101). Passant du discret au numérisable, et
soulignant que tout objet discret n’est pas forcément modélisable, les auteurs ajoutent une
autre définition, plus contemporaine, selon laquelle l’information est « la donnée décrite et
En 1987, époque où les sciences de l’information et de la communication tentaient de se définir,
Baltz écrivait : « Il faut bien commencer par là : l’objet inforcom est, à strictement parler, indéfinissable.
Qu’on se le dise, en effet : personne n’est sérieusement capable de préciser ce que signifient
“information” ou “communication”. Leur “être partout” a quelque chose de vertigineux et d’insaisissable.
Avec comme conséquence d’en être le plus souvent réduit à devoir nous contenter d’un sens commun
notoirement insuffisant » (Baltz, 1987. p. 13).
11 “Information”, Louis Quéré, Encyclopédie Philosophique Universelle, Les Notions Philosophiques,
dictionnaire 1, PUF. 1990. p. 1297.
12 Ou comment s’abriter derrière des auteurs prestigieux pour ne pas prêter le flanc à des
accusations d’inexactitude, d’imprécision, d’égarement…
10
Breton & Proulx citent ici Philippe Hamon (Du descriptif, Hachette. 1993. p. 56). Ils explicitent la
notion d’“objets à décrire” en évoquant la liste non exhaustive qu’Hamon en a établi : « [La liste]
comporte les “paysages”, déjà découpés par les lois sur l’héritage et le cadastre, le “corps”, découpé par
le discours anatomique, les “objets manufacturés” qui remplissent les rayons des magasins de détail, les
“paysages urbains”, les “machines”, les “maisons”, les “familles”, et ainsi de suite » (Breton & Proulx,
2002. p. 101).
13
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
67
Où le cyberespace est Autre, conclusion temporaire
14
mise en forme pour être traitée par des ordinateurs et circuler dans des réseaux » (ibid.
p. 98).
Toutes ces nuances dessinent une notion aux contours plutôt flous, où le statut de
l’information change en fonction du contexte. L’information médiatique communiquée de
personne à personne activerait « l’imagination de l’auditoire » (ibid. p. 108) alors que
l’information de commande et de contrôle échangée d’humain à ordinateur se limiterait à
activer la machine. Cette distinction contredit l’expérience de Sutherland avec Sketchpad
qui, comme le souligne Brennan, montre la dimension dialogique de la communication
humain-machine et instaure l’ordinateur comme co-locuteur. Breton & Proulx focalisent
leur regard sur la seule information médiatique évoquée par Quéré parmi d’autres – qui
impose l’accès au sens du message pour les co-locuteurs – et, du coup, ils enferment
l’information trop à l’étroit. Certains travaux récents (Floridi, 2003 ; Baltz, 2003) indiquent
des voies possibles pour s’abstraire du contexte et esquisser une “définition générale de
l’information”.
Luciano Floridi dégage les grandes lignes de cette définition, qu’il abrège en GDI (General
Definition of Information), à partir de nombreux travaux convergents des trois dernières
décennies. Elle pose l’information « comme contenu sémantique en termes de
données+sens » (Floridi, 2003. § 5.2.1). Sur cet axiome, le chercheur bâtit une série de
15
règles, où mathématiques et notation symbolique servent l’argumentation :
« GDI. s est une instance d’information, comprise comme contenu
sémantique, si et seulement si :
GDI.1) s est constitué de n données, pour tout n≥1 ;
GDI.2) les données sont bien formées (wfd) ; [well formed data]
GDI.3) les wfd sont signifiantes (mwfd=d). [meaningful wfd]
GDI est devenu un standard opérationnel tout particulièrement dans les
domaines qui traitent données et informations comme des entités réifiées. »
(ibid.)
Conformément à la GDI, l’information peut se composer de différents types de données.
16
17
Floridi en identifie quatre : primaires, méta, opérationnelles, dérivées . La définition
Dans cette acception, le mot renvoie directement à la Théorie de l’information de Shannon, où
l’information, sous forme de signaux devenus message dans des canaux de communication, se
mesure, se code et se transporte.
15 Cette façon de mêler l’argument dialectique à la notation symbolique situe Floridi dans la lignée
des travaux de McCulloch & Pitts sur le neurone formel (McCulloch & Pitts, 1943). Si la nécessité
d’une telle notation n’a rien d’évident – elle justifie même une certaine circonspection –, elle permet
néanmoins de décrire l’information dans une forme adaptée aussi bien à l’humain qu’à l’ordinateur.
16 L’auteur cite là des travaux antérieurs parus dans Philosophy & Computing, An Introduction
(Routledge, 1999).
14
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
68
Où le cyberespace est Autre, conclusion temporaire
indique qu’une information contient toujours de la donnée, même si elle ne précise pas de
18
quel type. Le cas de l’information à donnée unique, appelée datum (d) , appelle un
commentaire particulier de l’auteur :
« Un datum est réductible à un simple manque d’uniformité entre deux
signes. Aussi, notre définition du datum (Dd) est :
Dd) d=(x≠y) ou x et y sont deux variables non interprétées. » (ibid.)
Précision d’où Floridi tire que « la dépendance de l’information à l’existence de données
bien formées syntaxiquement, et la dépendance des données à l’existence de différences
19
variablement implantables physiquement , explique pourquoi l’information peut être
découplée de son support » (ibid.). Cette fois, le paysage s’éclaircit un peu : la possibilité
d’un espace informationnel détaché, au moins métaphoriquement, de la matière émerge.
Floridi nous le montre peuplé d’informations et de données, jusqu’à ses plus élémentaires
composants. La machine de vision est braquée, zoom avant à fond, sur les briques
fondamentales de l’information. Et c’est en partant du datum, d’un zoom arrière magistral,
que l’on découvre l’approche hypertextuelle de Baltz.
L’hypertexte en trame de l’espace informationnel
20
Dans son paradigme du sens-dictionnaire , Baltz identifie le trajet du lecteur de mot en mot
à une configuration de nœuds et de liens tracée dans l’espace feuilleté du dictionnaire,
espace de toute évidence hypertextuel mais notoirement insuffisant pour étayer l’hypothèse
21
selon laquelle « nous sommes immergés dans un espace de type HT » (Baltz, 2003. § 6).
Par extensions successives de la notion initiale, extensions inspirées par les propositions de
« d.1) données primaires. Ce sont les données principales enregistrées dans les bases de données. Les
systèmes de traitement de l’information sont généralement conçus pour transférer, en premier lieu, ces
données à l’utilisateur.
17
d .2) données méta. Ce sont des indications secondaires sur la nature des données primaires. Elles
décrivent des caractéristiques comme la localisation, le format, la version, la disponibilité, les droits d’accès
limités par le copyright, et ainsi de suite.
d.3) données opérationnelles. Ce sont des données qui concernent le traitement des données ellesmêmes, les processus de l’ensemble du système de données et les performances du système.
d.4) données dérivées. Ce sont les données que l’on peut extraire de 1-3, que ces dernières soient prises
comme source en recherche de structures, d’indices ou de preuves par inférence, par exemple pour
l’analyse horizontale ou l’analyse quantitative. » (Floridi, 2003. § 5.2.1)
18 Le choix de datum comme singulier de data, s’il s’impose naturellement en anglais, pose problème
en français. Le traduire par “donnée” est ambigu, dire “la donnée” peut aussi signifier “l’ensemble de
toutes les données”. Aussi, il lui a été préféré la forme originale.
19 Floridi entend de la sorte que le mode d’inscription physique de la donnée varie suivant le
support d’enregistrement, biologique ou silicium par exemple.
20 « Situation informationnelle basique : chercher le sens d’un mot… Nous nous tournons habituellement
vers le dictionnaire, qui fixe dans notre société le sens des mots… Dans la définition trouvée, il est alors
fréquent d’y trouver des mots eux-mêmes encore à définir. Émerge ainsi un processus de type “expliquemoi”, adressé à nous-même, par lequel se complète progressivement ce qui était initialement obscur,
pour arriver peu à peu à une définition acceptable. » (Baltz, 2003. § 1)
21 Par convention, Baltz note par l’abréviation HT les termes hypertexte, hypertextuel,
hypertextualisant, etc.
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
69
Où le cyberespace est Autre, conclusion temporaire
22
23
Lévy sur l’hypertexte et la “niche écologique” , Baltz introduit trois types d’hypertextes :
« un HT “énergétique” d’inscription sur la matière, divers HT intermédiaires d’inscription
24
“documentaire”
d’énergie négligeable par rapport au précédent et, enfin, l’HT
“neuronal”. Ces HT mettent chacun en jeu des surfaces et des modalités d’inscription
différentes (matière dans toute sa généralité, écrans, documents, “matière neuronale”) »
(ibid. § 4). Précision importante apportée à l’hypothèse, seul l’hypertexte neuronal supporte
l’activité d’élaboration du sens ; ce qui entraîne quelques difficultés théoriques sur « le
difficile rapport de l’hypertexte neuronal aux autres » (ibid. § 6). Cependant, Baltz tire de
sa proposition les définitions suivantes :
« Forme=configuration sur un HT
Événement=variation de configuration
IN-FORMATION : C’est la co-relation, posée par un observateur, entre
DHTE, variation dans un HT ainsi qualifiable d’“émetteur”, et DHTR,
variation dans un HT qualifiable de “récepteur”.
L’INFORMATION, telle qu’on l’entend habituellement, se présente alors
sous deux faces :
— du point de vue dynamique : comme le processus d’in-formation en tant
que tel ;
— du point de vue statique : comme la nouvelle configuration de l’HT
récepteur, résultant du processus, c’est-à-dire le SENS de l’information,
une fois oublié le processus. » (ibid. § 6)
Le processus d’“in-formation” fait image pour le datum de Floridi. Ce « simple manque
d’uniformité entre deux signes » n’est autre qu’une variation de l’hypertexte, la plus infime
qui soit – apparition/disparition d’un nœud ou d’un lien, à l’échelle la plus petite. En retour,
une variation dans un hypertexte se traduit bien par la création de nouvelles données. Ce
que l’un et l’autre chercheurs nomment “information” trouve dans leurs travaux
« L’hypertexte est peut-être une métaphore valant pour toutes les sphères de la réalité où des
significations sont en jeu » (Lévy, 1989. p. 29). C’est en partant de cette hypothèse que Lévy dégage
« les six principes abstraits » (ibid.) qui caractérisent l’hypertexte : métamorphose (c’est un flux),
hétérogénéité (la nature des liens et des nœuds est variable) ; multiplicité et emboîtement des
échelles (organisation sur le mode fractal) ; extériorité (existence et évolution dépendent d’un
extérieur indéterminé) ; topologie (le réseau hypertexte se parcourt ou se modifie) ; mobilité des
centres (plusieurs centres, en mouvement permanent).
23 Dans Les Technologies de l’intelligence, Lévy montre que l’écologie cognitive se propose d’étudier
le rapport entre « la pensée individuelle, les institutions sociales et les techniques de communication »,
éléments disparates qui forment des « collectifs pensants hommes-choses », jusqu’à remettre en cause
les « dualismes massifs » que sont « l’esprit et la matière, le sujet et l’objet, l’homme et la technique,
l’individu et la société » pour leur substituer « des analyses moléculaires et chaque fois singulières en
termes de réseaux d’interfaces » (Lévy, 1990. p. 154-155).
24 Les hypertextes documentaires, pris entre HT énergétique et HT neuronal, s’apparentent à des
hypertextes intermédiaires « qu’on pourrait donc appeler “méso-HT” :
— notre “HT personnel” : environnement immédiat de nos documents, courriers, livres, bases de
données personnelles […] ;
— les HT institués : bibliothèques, centres documentaires, médiathèque, réseaux internes…
22
—
et enfin (et surtout) l’“HT Internet” » (Baltz, 2003. § 3)
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
70
Où le cyberespace est Autre, conclusion temporaire
complémentaires une composition et une structure. À l’assemblage de données bien
formées significatives (mwfd) qui compose l’information correspond une nouvelle
configuration de l’hypertexte récepteur (résultat de la variation DHTR) où les données sont
25
les nœuds affectés et leur assemblage sa nouvelle structure de liens.
L’espace informationnel à structure hypertextuelle, ainsi éclairé par les intuitions
constructives de Baltz et Floridi, prend forme comme objet autonome de pensée.
Cependant, si l’image qu’ils nous en proposent gagne en détail, nous manque encore d’en
percevoir les limites… ou d’en concevoir l’absence. Apparaît pour l’instant la seule
indication que l’espace informationnel contient des espaces spécifiques où s’inscrit de
26
l’information : biosphère , cyberespace, infosphère… Avant de forger la GDI, Floridi s’est
27
penché sur le concept d’infosphère , cet « espace sémantique constitué de la totalité des
28
documents, des agents et de leurs opérations »
mais aussi cet « espace logique,
dynamique, hypertextuel, “plein”, continu, fini mais potentiellement illimité et immatériel »
(Floridi, 2002).
La définition, remarquable par sa généralité, décrit un espace sémantique hors de tout
support matériel, sans réseaux numériques sans neurones sans rien. Les « données,
informations et connaissances » (ibid.) qu’héberge l’infosphère prennent forme, n’importe
quelle, numérique ou non, transitoire ou non. Les agents qui opèrent sur les documents sont
indifféremment « une personne, une organisation ou un robot logiciel » (ibid.). Une telle
Ce processus informationnel n’est pas sans rappeler le triangle sémiotique de Charles Sanders
Peirce qui établit un rapport entre le signe et l’objet via l’interprétant. « L’intérêt de l’approche de
Peirce, c’est que loin d’être émis par une personne, le signe peut émaner de n’importe quoi et ne se
ramène nullement à la classe étroite des messages. […] Cette sémiologie élargit donc les phénomènes
de communication très au-delà des messages émis consciemment de personne à personne […]. La
sémiologie peircienne est illimitée […], et elle est vivante, dynamique. […] Chez Peirce, nous allons de
signe en signe, tout “objet” pouvant servir lui-même de signe pour un autre. La chaîne demeure ouverte à
droite autant qu’à gauche du schéma triangulaire, sans que l’activité sémiotique touche jamais à un
terme final ou à un sol : la meilleure illustration de cette relance est fournie par la recherche d’un mot
dans un dictionnaire » (Bougnoux, 2001. p. 32-33).
26 Si l’on suit les travaux de Richard Dawkins, la génétique et la théorie de l’information de Shannon
entretiennent des rapports très étroits : « l’ADN transporte l’information d’une manière très semblable
aux ordinateurs, et nous pouvons aussi mesurer la capacité du génome en bits. L’ADN n’utilise pas le
code binaire mais un code quaternaire » (Dawkins, 1998). Ils permettent d’imaginer sans peine le
code génétique comme l’un des matériaux support de l’espace informationnel.
27 Comme le cyberespace, l’infosphère vient de la science-fiction ; précisément du cycle des Cantos
d’Hypérion, de l’américain Dan Simmons (Simmons, 1989-1990). Il a été adopté vers 1995 par les
militaires américains qui l’appliquent indifféremment à une planète ou à un individu. Sa définition
varie encore sous la plume d’autres auteurs. Exemple : « Tout humain, disposant d’une interface avec
cet essor de contenus numérisés baignant la planète, aura pour ainsi dire accès en temps réel à une
sphère virtuelle de ressources potentielles illimitées : l’infosphère » (Baptiste, 2000).
25
« Par “documents”, on entend tout type de données, d’informations et de connaissances, codifiées et
implémentées dans n’importe quel format sémiotique, sans aucune limite de taille, de typologie ni de
structure syntaxique. Aujourd’hui, l’intérêt se focalise sur le monde des réseaux numériques, mais
l’infosphère inclut également les récits oraux, les films télévisés, les textes imprimés et les programmes
radiophoniques. Le terme d’“agents” fait référence à tout système capable d’interagir avec un document
de façon autonome, comme par exemple une personne, une organisation ou un robot logiciel sur le Web.
En réalité, un agent dans l’infosphère est un type spécial de document, capable d’interagir de manière
autonome (il suffit de penser à son profil individuel comme client d’une banque). Enfin, par “opérations”,
on doit comprendre tout type d’action, d’interaction et de transformation qui peut être effectué par un
agent et auxquelles peut être soumis un document. » (Floridi, 2002)
28
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
71
Où le cyberespace est Autre, conclusion temporaire
précision dans la description des agents comme les détails fournis sur la nature des
documents établissent l’équivalence entre l’infosphère et l’espace sémantique sécrété par
29
l’activité humaine ; lieu où se déplie l’hypertexte neuronal de Baltz.
Documents, agents et opérations. Informations et données. La terminologie de Floridi
comme les hypertextes de Baltz – trempés aux travaux de Nelson, Engelbart et Lévy –
évoquent irrémédiablement le dispositif technique numérique, ses ordinateurs et ses
réseaux. Jusqu’à souhaiter contraindre l’espace informationnel, ou si cela s’avère trop
difficile l’infosphère, à réintégrer le seul espace des codes binaires. Mais cet espace-là se
nomme cyberespace depuis l’invention de Gibson, le désigner autrement supposerait
comme justification de piètres acrobaties. Alors qu’est donc ce cyberespace, quels rapports
entretient-il avec les autres espaces de l’information ?
Pour le cyberespace ? Passez par Diderot…
La mise en parallèle des hypothèses de Baltz et Floridi dévoile l’emboîtement des espaces
de l’information (figure 3.1). Ce qui fonctionne au niveau de l’espace informationnel se
retrouve dans ses sous-ensembles. Il évolue, et tout ce qu’il contient, par variation de ses
hypertextes ; indifféremment mutation génétique, numérisation des savoirs, art,
urbanisme… Leur nature réticulaire
30
et les communications qui fusent dans les liens
rendent incertaine la position des limites entre sous-ensembles, soumis qu’ils sont au
changement continu. En tout cas, la structure hypertextuelle porteuse d’information se
réplique à tous les niveaux, qu’elle s’inscrive dans l’infosphère ou le cyberespace ;
consultons l’Encyclopédie de Diderot sur la question, qu’elle nous apporte ses lumières.
La notion est employée de manière générique pour désigner la totalité des hypertextes
neuronaux individuels, sans présupposer de leur éventuelle interaction.
30 Le cas du World Wide Web, en est un exemple : « Un élément sur lequel je souhaitais insister, en
cherchant un nom pour un système hypertexte global, était sa forme décentralisée qui laisse n’importe
quoi se lier à n’importe quoi. Cette forme est mathématiquement un graphe, ou un “web”. Il était dessiné
pour être mondial, bien sûr » (Tim Berners-Lee, Spelling WWW dans la FAQ de son site personnel.
URL : http://www.w3.org/People/Berners-Lee/FAQ.html#Spelling – dernier accès le 25 août 2003).
Albert-László Barabási, lui, reconnaît des structures similaires dans tous les systèmes complexes ;
organismes biologiques ou sociaux, informatique, chimie… « Les réseaux sont partout. Tout ce dont
nous avons besoin est d’un œil pour le voir » (Barabási, 2002. Linked: The New Science of Networks,
Introduction disponible en ligne. URL : http://www.nd.edu/~networks/linked/chap1.pdf – dernier
accès le 25 août 2003).
29
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
72
Où le cyberespace est Autre, conclusion temporaire
Figure 3.1 : L’espace informationnel abrite la totalité des informations susceptibles de s’inscrire sur un
quelconque support. L’infosphère représente la part de ces informations dotée de sens par l’activité
neuronale humaine. Le cyberespace contient la totalité des informations codées en numérique ; la biosphère
contient la totalité de celles codées en génétique.
31
Dans sa communication Diderot a-t-il inventé le Web ? , Jean-François Bianco s’empresse,
dès l’introduction, de répondre par la négative. Pour laisser germer une autre hypothèse :
l’idéal de Diderot a trouvé l’outil de sa réalisation dans le Web. L’Encyclopédie, ce travail
raisonné, ne se résume pas à une collecte aléatoire d’informations. Il s’agit d’organiser un
réseau de gens de lettres et d’artistes, contributeurs distribués à la surface du globe – « je
les veux épars » dit Diderot dans l’article Encyclopédie. La somme des informations n’est
pas une fin en soi ; l’œuvre est portée par un idéal de la transmission de la connaissance :
« Le rêve de Leibniz est celui de la pensée combinatoire, du numérique, du
nombre qui traduit l’idée. Diderot a aussi son rêve. C’est moins celui de l’art
combinatoire que celui de l’intuition analogique des “liaisons fines”.
L’utopie du savoir selon Diderot réside plus dans la mise en relation des
idées et des hommes que dans l’ordre des raisons. » (Bianco, 2002. p. 17)
Diderot, conscient de l’impossibilité d’organiser rationnellement le savoir, apporte un
système de liens – les renvois – qui figure les relations entre les idées et multiplie les
parcours pour le lecteur de l’Encyclopédie. Bianco ausculte la nature du lien dans la
structuration de l’Encyclopédie comme dans le discours. « Lorsque Diderot emploie le mot
“lien” ou encore le mot “liaison”, il les leste de toute une charge métaphorique profonde,
de tout un pathos de la relation qui représente pour lui la nature même du savoir » (ibid.
Jean-François Bianco, en ouverture du Colloque L’Encyclopédie en ses nouveaux atours
électroniques : Vices et vertus du virtuel (Université Paris 7, 17 au 18 novembre 2000), a donné
lecture de Diderot a-t-il inventé le Web ? (Bianco, 2002. p. 17).
31
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
73
Où le cyberespace est Autre, conclusion temporaire
p. 21). La part analogique du processus d’“in-formation” prend forme dans les liens,
indépendamment du sens porté par ces liens. C’est au lecteur de l’Encyclopédie, glissant
d’article en article, de retrouver derrière les filiations d’idées l’intention de l’auteur du
renvoi.
L’Encyclopédie s’inscrit dans les cerveaux, s’imprime sur le papier, se commente, induit
des comportements… autant de variations énergétiques, documentaires et neuronales dans
les hypertextes de l’infosphère. Une part de ces variations s’étend, et affecte aussi, le
32
33
cyberespace : l’Encyclopédie numérisée s’enrichit de machines de vision dont certaines
34
dévoilent le sens donné aux mots par Diderot – autres liaisons sémantiques désormais
perceptibles, ajoutées à celles des renvois. Et Bianco, convaincu de la réalisation du rêve
encyclopédique de Diderot dans le cyberespace, de s’exclamer « Le Net est numérique, le
Web analogique » (ibid. p. 18). Le Web, ce graphe mis en code par Tim Berners-Lee, n’est
pas analogique dans son fonctionnement élémentaire, lorsqu’observé dans l’exécution au
pas à pas de ses processus informatiques. Mais vu à travers une interface graphique, le Web
se manifeste à nos sens comme l’interprétation numérique à apparence analogique
– visuelle, sonore, animée… signifiante – d’une partie de l’hypertexte commune à
l’infosphère et au cyberespace.
Du papier à l’écran, de l’infosphère au cyberespace, le processus d’inscription et le support
de l’Encyclopédie changent de nature. Cependant, le lecteur continue d’accéder à la
dimension sémantique de l’information, toujours présente malgré la réplication des données
Deux versions numériques ont été élaborées à la fin des années 1990, « celle qu’a réalisée pour le
Web, sous la direction de Robert Morrisey, l’Université de Chicago […] ; et le cédérom établi par la
société Redon », comme le dit Pierre Chartier dans la présentation des actes du colloque de
novembre 2000 consacré à l’Encyclopédie. Malheureusement, l’accès à l’une et l’autre version est
payant.
33 Dans leur étude Le système de renvois dans l’Encyclopédie : Une cartographie des structures de
connaissances au XVIIIe siècle présentée lors de ce colloque, Gilles Blanchard et Mark Olsen ont
exploité les fonctions de la version Web pour explorer systématiquement, et cartographier, les
renvois de l’Encyclopédie. « Plutôt que de prendre en considération les renvois d’article à article, nous
avons, à partir de cette base de données, compté le nombre de renvois d’une catégorie de connaissance
à une autre » (Blanchard & Olsen, 2002. p. 55). La tentative, considérée comme préliminaire par les
auteurs, a permis de mettre en évidence que « la structure des renvois […] s’avère, dans l’ensemble,
extrêmement cohérente », qu’elle se fonde sur le Système figuré sans y enfermer le lecteur « raisonné
et intelligent », et qu’elle s’ouvre à une navigation moins rigide que « la structure hiérarchique de
l’arbre des connaissances, sans être anarchique : certaines matières se regroupent en systèmes autour de
centres de gravité communs, et ces nébuleuses sont à leur tour reliées les unes aux autres par plusieurs
fils plus ténus, mais nombreux, pour former l’enchaînement indissoluble des connaissances » (ibid. p. 6263).
34 Bianco exemplifie la chose avec « une rapide et simple analyse de l’adjectif “épars” à l’aide des outils
de recherche numériques proposés sur le site de l’Inalf » (Bianco, 2002. p. 23). Les données
quantitatives qu’il extraie de l’Encyclopédie version Web lui « permettent d’inférer que Diderot paraît
apprécier cet adjectif dont les occurrences sont fréquentes dans ses textes » (ibid.). Et aussi que si
« l’épars dérange la beauté » (ibid. p. 24) – trois occurrences d’“éparses” figurent dans l’article
Composition en peinture –, l’épithète “épars” est utilisé une seule fois dans « l’Encyclopédie pour
qualifier des hommes et avec une valeur positive » (ibid.), lorsque Diderot explique dans l’article
Encyclopédie « qu’il n’y a aucune société subsistante d’où l’on puisse tirer toutes les connaissances dont
on a besoin et que si l’on voulait que l’ouvrage se fît toujours et ne s’achevât jamais, il n’y avait qu’à
former une telle société [de gens de lettres et d’artistes épars] » (Diderot, cité par Bianco, 2002. p. 24).
32
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
74
Où le cyberespace est Autre, conclusion temporaire
35
d’un espace dans l’autre . Musarder dans le texte reste la vocation première d’une version
numérique. Mais grâce à des interfaces d’interrogation nouvelles – les masques de saisie
d’un moteur de recherche multicritères, fenêtre ouverte sur la boîte noire de la base de
données – s’initient d’autres navigations dans le corpus, et aussi dans la structure du
document désormais interrogeable par la machine numérique. Quels que soient les réglages
de la machine de vision, la lecture de l’Encyclopédie « comme toute lecture est, en soi et
pour soi, hypertextuelle » (Quintili, 2002. p. 40). L’activité de l’hypertexte neuronal, le
fonctionnement associatif du cerveau qui lie entre elles les informations “données+sens”,
reflète cette nouvelle façon de lire l’hypertexte numérique ; là où données et structures
prennent forme à l’identique, longues séquences de données binaires déposées dans les
mémoires de silicium.
« Jusqu’à hier l’hypertextualité était un événement mental, une relation
textuelle simple qui s’achevait dans l’acte ponctuel de la lecture, dans
l’ordre de l’association du lecteur particulier. Tandis qu’aujourd’hui il
devient possible de rendre évidente cette hypertextualité dans l’objet-texte
lui-même, en signalant les links (liens), comme l’on sait, par les marques du
langage HTML, des marques qui signalent explicitement, avec clarté, la
présence de tel ou tel lien textuel, des relations entre texte et texte.
Cependant, il est question, maintenant, de rapidité et de facilité d’institution
des liens et, chose plus importante, il est question d’autonomie de jugement
36
de celui qui établit les liens […]. » (ibid.)
37
Paolo Quintili aborde ici, sans les développer, des notions de cyberculture : la lecture dans
le cyberespace est conjointe à l’écriture ; l’écriture est conditionnée par l’autonomie du
scripteur ; l’autonomie s’acquiert par la maîtrise croissante de concepts et de langages
informatiques. Réassemblées, ces notions indiquent que le degré de liberté du scripteur
dans le cyberespace dépend de sa capacité à formaliser sa pensée non seulement comme
Les processus de numérisation des documents de l’infosphère sont d’abord pensés comme
devant être suffisamment denses en données pour faire illusion lorsqu’ils sont présentés à un
humain. Une photo numérique comporte moins de points élémentaires qu’une photo argentique,
mais à l’écran elle nous apparaît bonne ; un enregistrement sonore sur CD nous suffit pour en
apprécier l’écoute, malgré le déficit d’informations sonores lorsque comparé au vinyle. De manière
plus générale, et conformément à la théorie de Shannon, il est possible de compresser les signaux
dans des proportions très importantes sans que cela entraîne un risque de perte lors de leur
communication. Les standards utilisés en vidéo comme le MPEG en tirent pleinement parti.
36 Quintili parle ici de la création de liens, une activité qui apparaît très minorée dans le contexte du
Web tel que nous le connaissons. Mais si nous nous plaçons dans la perspective initiale de
l’hypertexte, tel que décrit par Nelson, suivre un lien et créer un lien sont des activités aussi
standards l’une que l’autre – modulo l’expérience du système acquise par l’utilisateur. « La fonction
liens nous donne beaucoup plus que la possibilité de réunir des petites choses. Elle permet une écriture
complètement non-linéaire, l’hypertexte. […] Un système adéquat devrait accepter n’importe quel type
de lien, et il en existe des myriades. Par principe, nous autorisons l’utilisateur expérimenté à définir
n’importe quel type de lien » (Nelson, 1993. p. 2/25-2/27).
37 Lévy, dans l’introduction de son rapport au Conseil de l’Europe, précise que le « néologisme
cyberculture […] désigne ici l’ensemble des techniques (matérielles et intellectuelles), des pratiques, des
attitudes, des modes de pensée et des valeurs qui se développent conjointement à la croissance du
cyberespace » (Lévy, 1997. p. 17).
35
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
75
Où le cyberespace est Autre, conclusion temporaire
38
ensemble d’informations réductibles en données numériques mais aussi comme logiciel
pour traiter ces données et comme interface de présentation des résultats – cette machine de
vision où données et sens se recombinent pour le lecteur. Écrire dans le cyberespace revient
à inscrire les données et les programmes qui automatisent leur traitement dans la mémoire
numérique.
Lorsque Quintili parle de “l’autonomie de jugement de celui qui établit les liens”, il désigne
précisément la capacité effective pour le scripteur d’étendre le texte au-delà de ses limites
initiales – le texte en soi, tel qu’il est dans un volume imprimé et relié ou reproduit tel quel
sur une page Web – pour l’intégrer dans un réseau de textes. Sa remarque, spécifique, vaut
pour toute forme d’écriture, texte – alphabétique ou non –, image, son, logiciel… Le
caractère fractal de la structure des hypertextes informationnels, et ceux du cyberespace en
particulier, établit à toutes les échelles le rapport entre l’autonomie du scripteur et sa
maîtrise des processus informatiques et réticulaires. Or la complexité intrinsèque du
cyberespace, sa complexification croissante par l’inscription permanente de nouveaux
textes, rend illusoire l’espoir d’en maîtriser tous les aspects à tous les niveaux.
À tout instant, le scripteur dépend d’immenses portions de textes dont il n’est pas l’auteur.
39
Les écrits des informaticiens
dotent le cyberespace de sa capacité opératoire.
40
L’empilement des couches sémiotechniques , rappel de la récursivité logique formalisée
dans la machine universelle de Turing, se fonde sur un “métalangage” où l’“alphabet”
binaire forme mots et phrases conformément aux règles d’une “grammaire” faite de
protocoles, de formats, de langages symboliques, de compilateurs, d’API (Application
41
Program Interface) , etc. L’objet de ce “métalangage“ est triple : mémoriser les données
que l’humain lui confie ; procéder aux traitements demandés pour calculer de nouvelles
données ; produire ces résultats dans une forme accessible et porteuse de sens pour
l’humain.
Ainsi, à l’instigation des informaticiens et indépendamment de leur contrôle, le cyberespace
s’écrit pour opérer, comme il s’écrit pour communiquer avec l’humain ; il étend de la sorte
ses hypertextes dans l’espace informationnel, bien au-delà de l’infosphère. Pour la première
Écrire dans un traitement de texte, saisir des chiffres dans un tableur, retoucher une photo, etc.
mais aussi alimenter une base de données, poster un commentaire dans un forum, etc.
39 Il serait juste d’ajouter aux professionnels de l’informatique tous les programmeurs amateurs pour
donner une meilleure approximation de la notion d’auteur de logiciels. Tous contribuent, peu ou
prou, à l’enrichissement de la part opératoire du cyberespace.
40 Le nombre de ces couches sémiotechniques varie suivant les modèles de représentation des
données. Comme vu dans la première partie, les communications par réseau informatique en
utilisent quatre (pour TCP/IP) ou sept (ISO). Des empilements comparables se retrouvent dans la
représentation des données au sein des ordinateurs comme, par exemple, dans le Layered
information model (OAIS, pour Open Archival Information System) qui compte cinq couches.
41 Une application program interface (API, parfois interprété en application programming interface) est
la méthode spécifique, définie par un système d’exploitation ou un logiciel applicatif, qu’un
développeur fait suivre à son programme pour qu’il effectue des requêtes auprès du système
d’exploitation ou du logiciel applicatif. Une API est donc une interface de communication entre des
programmes, ce qui la distingue des interfaces humain-machine comme les interfaces graphiques ou
les interfaces de commande.
38
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
76
Où le cyberespace est Autre, conclusion temporaire
fois de son histoire, l’humanité ne dispose pas d’un accès direct à la totalité des données
produites par l’un de ses outils. Les conséquences de cet état de fait sont immenses,
proprement incalculables, en tout premier lieu pour le devenir de notre mémoire.
Mémoire ! rappelle-moi comment te lire
Citant largement Leroi-Gourhan, et aussi Stiegler, Emmanuël Souchier
42
pose que « la
libération mémorielle et opératoire permise par l’outil n’est rendue possible que par la
mise en place d’une mémoire collective élaborée à travers les langages symboliques »
(Souchier, 2003). La “machine textuelle” ou “machine mémoire”, dernière en date de nos
“mnémotechnologies”, se situe « à la croisée de l’outil et des langages, articulant et
mettant en abîme les dimensions opératoire et symbolique de la mémoire » (ibid.).
Souchier, lorsqu’il parle de texte, englobe tous les actes d’inscription de données – de
l’humain vers la machine et retour – ; ce qui ouvre à l’interrogation phénoménologique de
l’“écrit d’écran”. Trois espaces y sont distingués : celui de la machine mémoire, celui de
l’écran et celui de l’imprimante.
43
La machine mémoire code la “matière mémoire”
dans son langage propre – le
“métalangage” proprement babylonien du cyberespace évoqué précédemment. Les données
échappent à l’humain dès lors qu’il est privé de l’outil idoine sachant les lire, les décrypter,
les transformer – une machine de vision, en somme. Et c’est « cet ensemble d’outils et
d’opérations [qui] permet de convertir par couches “sémiotechniques” successives des
données électroniques invisibles en une écriture lisible à l’écran » (ibid.). Les espaces de la
mémoire et de l’écran sont liés, leurs hypertextes varient de conserve. En revanche, le
troisième espace diverge car l’écrit d’imprimante « renoue avec le lien indéfectible que
l’écriture entretient depuis toujours avec son support » (ibid.), matérialisant les données au
plus près de l’infosphère, en tout cas hors du cyberespace.
Pris entre écran et mémoire, l’humain s’affronte à une écriture devenue ambivalente :
invisible et durable, lisible et fugace. Écriture et texte se placent au cœur des ordinateurs ;
ceux-ci en sont l’objet, car dédiés aux pratiques d’écriture, et l’outil, car les logiciels eux
« Avant d’interroger les écrits de réseaux, j’aimerais tout d’abord revenir sur l’histoire de l’outil, le statut
médiatique de l’objet et la dimension textuelle de la “machine ordinateur” afin d’envisager la spécificité
des pratiques de lecture et d’écriture qu’ils convoquent. De ce programme par trop vaste, je ne retiendrai
toutefois que quelques aspects articulés autour de la question de la mémoire posée par ces nouvelles
“mnémotechnologies”. » C’est en ces termes que Souchier a débuté sa lecture de Lorsque les écrits de
réseaux cristallisent la mémoire des outils, des médias et des pratiques lors du colloque Les défis de la
publication sur le web, thème des Quinzièmes entretiens Jacques Cartier, à Lyon (du 9
au 11 décembre 2002). Il est paru dans la revue électronique Interdisciplines, en février 2003.
43 « L’expression “machine mémoire” couvre ici l’ensemble du matériel informatique et des outils logiciels
qui permettent de faire fonctionner l’ordinateur. Dans cette machine, il y a une “matière mémoire” sur
laquelle on enregistre des données sous forme d’impulsions électroniques. […] On notera alors que la
“matière mémoire” est un support fait pour conserver la trace de l’écriture, or cette trace est pour
l’homme, illisible. À l’écran en revanche, si l’écrit est lisible, il est éphémère, il n’a pas de mémoire. Cet
écrit est un “écrit nomade”, il disparaît une fois l’ordinateur éteint. » (Souchier, 2003).
42
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
77
Où le cyberespace est Autre, conclusion temporaire
44
aussi s’écrivent . Ainsi, « le texte qui apparaît à l’écran est placé dans un autre texte, un
45
architexte qui régit le texte et lui permet d’exister » (ibid.). Le lecteur se confronte par
conséquent à un espace de lecture très complexe, l’écran, qui « ne se contente plus de
cristalliser la mémoire du scripteur et du lecteur, mais également celles relatives aux
pratiques éditoriales qu’il convoque et aux savoirs techniques qu’il mobilise » (ibid.).
La question soulevée par l’existence du cyberespace porte sur l’accès direct à notre écriture
et, à travers elle, à notre mémoire individuelle et collective. Désormais, selon Souchier,
pouvoir lire suppose de remplir deux conditions nécessaires :
–
disposer de machines de vision, opérées par le dispositif technique, pour
transformer les données illisibles de la matière mémoire en texte lisible à
l’écran ;
–
disposer d’une source d’énergie pour alimenter le dispositif technique.
Conditions dont il tire que « sans énergie et sans dispositif technique, l’écriture
informatique n’existe pas ou au mieux peut être considérée comme invisible. Autrement dit,
46
le dispositif technique est arrivé à un tel stade d’“hypertélie” […] qu’il ne peut plus
remplir la fonction à laquelle il est dédié sans une assistance extérieure » (ibid.). Le
constat, pertinent, met en lumière la dépendance du cyberespace à l’électricité, alors même
47
que son existence est devenue une nécessité si vitale pour une part toujours plus grande de
l’humanité que l’on pourrait affirmer, en paraphrasant Souchier, que les sociétés
Ce phénomène s’éclaire avec la possibilité, établie par Turing, de décrire une machine spécifique
avec une machine universelle. Il est ainsi possible d’écrire un émulateur d’ordinateur qui décrit non
seulement ses logiciels mais aussi l’agencement spécifique de son processeur, son code complet, son
système d’exploitation, etc. L’intégralité de la description d’un ordinateur, jusque dans ses plus
humbles composants, est représentable numériquement. Concevoir un ordinateur est devenu une
activité entièrement symbolique, menée conjointement avec le cyberespace ; le fabriquer se réduit à
un exercice complexe de logistique pour “bouger la matière” et assembler l’ordinateur.
45 « Les architextes (du grec archè, origine et commandement) sont les outils qui permettent l’existence
de l’écrit à l’écran et qui, non contents de représenter la structure du texte, en commandent l’exécution et
la réalisation » (Souchier, 2003).
46 Souchier reprend là un concept de Gilbert Simondon, défini en 1958 de la manière suivante :
« L’hypertélie survient lorsque l’adaptation est relative à un donné existant avant le processus
d’adaptation ; une telle adaptation court en effet après les conditions qui la devancent toujours, parce
qu’elle ne réagit pas sur elles et ne les conditionne pas à son tour » (Simondon, Du mode d’existence
des objets techniques, Aubier, 1989. p. 56).
47 Le cyberespace est-il pérenne ? La question transparaît dans l’exposé de Souchier, et l’on peut y
répondre par une autre question : “Hé ! ton cyberespace, comment tu l’arrêtes ?”, où derrière la
pirouette se cache une véritable interrogation…
Arrêter le cyberespace suppose de cesser de l’alimenter en énergie ; hypothèse qui suppose
l’adhésion immédiate et simultanée des trois quarts de la population mondiale à l’idée de se priver
du “confort électrique”. Peu crédible. D’autant qu’il s’agit de se passer de courant le temps de
mettre hors service toutes les machines numériques… Il n’y a qu’un auteur de SF pour imaginer de
telles solutions : Frank Herbert, dans Dune, évoque un lointain “djihad” contre les ordinateurs qui
explique l’apparition des mentats – des ordinateurs biologiques aux apparences humaines.
La panne globale du dispositif technique, accident qui ne peut être totalement exclu, reste très
improbable du fait de sa nature distribuée et redondante de l’infrastructure. L’extrême diversité des
formes prises par l’écriture du cyberespace dans la matière – processeurs, systèmes d’exploitation,
applications, documents coexistent plutôt que de s’éliminer – rend tout aussi improbable l’existence
d’un virus logiciel léthal pour l’ensemble dispositif.
44
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
78
Où le cyberespace est Autre, conclusion temporaire
48
occidentalisées sont arrivées à un tel stade d’hypertélie qu’elles ne peuvent plus remplir
leur fonction sans l’assistance extérieure du cyberespace.
49
Cette dépendance de l’humanité au cyberespace – ou cette symbiose humain-machine
telle que pronostiquée par Licklider – incite et conduit à massifier la numérisation des
données et des traitements. La mémoire – individuelle, collective – se structure et évolue
dans les hypertextes du cyberespace ; hypertextes dont une partie varie en fonction de la
seule activité machinique, in-formation du cyberespace par lui-même.
Au royaume des scripteurs et des copistes
L’humain écrit dans le cyberespace, lequel s’écrit pour opérer. Cette inscription de données
à usage interne découle de l’exécution des programmes codés par nos soins. L’objet d’un
programme n’a pas changé depuis Turing et von Neumann : accomplir sur le jeu de
données initiales une série de traitements et produire les résultats dans une forme accessible
à l’humain. Pour l’opérateur, le programme est une boîte noire qui accomplit la tâche qu’on
lui confie. C’est l’informaticien qui en parcourt l’intérieur muni d’une machine de vision
adaptée aux inscriptions exprimées dans le langage formel spécifique à cette boîte noire,
machine de vision avec laquelle il interprète la piste binaire jusqu’aux dysfonctionnements
pour les corriger. C’est encore l’informaticien qui ferme la boîte noire dès lors que son
50
programme produit des résultats conformes aux attentes de l’opérateur. À cet instant tout
l’architexte disparaît de notre vue, nous en déléguons l’usage exclusif au cyberespace
– jusqu’à la réouverture de la boîte noire par un informaticien, évidemment.
Les données internes, fugaces ou durables traces binaires inscrites durant l’exécution des
processus logiciels, sont constitutives de la mémoire propre du cyberespace. Elles
nourrissent, ou plutôt elles induisent les évolutions de cette part des hypertextes du
cyberespace qui se trouve hors de l’infosphère. Leurs structures sont compréhensibles – car
exploitables – du point de vue de la machine ; comme si elles étaient porteuses d’un
analogue de ce qui constitue le sens dans l’hypertexte neuronal. Y figurent les index et les
tables de jointure des bases de données, les fichiers de log (figure 3.2), les enveloppes des
paquets réseau (Annexe I, Network Physics), les dialogues à travers les API, les échanges
entre microprocesseur et mémoire, etc.
Même si l’essentiel des investissements – humains, intellectuels, financiers – et des profits sont de
leur côté, c’est l’humanité entière qui se représente dans le cyberespace. Les populations les plus
isolées, celles qui ne savent rien des ordinateurs, elles aussi sont connues dans les réseaux :
statistiques des administrations planétaires, organisations non gouvernementales, recherches
universitaires, pages personnelles de passionnés… sont inscrites à leur sujet.
49 Si elle est avérée pour les 10 % connectés au réseau de la population mondiale, elle s’étend bien
au-delà. Exemple : un reflux des investissements dans le capital d’une entreprise met au chômage
des ouvriers, qu’ils aient ou non déjà touché un ordinateur dans leur vie.
50 Deux programmeurs ne codent pas à l’identique un algorithme donné – ce qui explique en
grande partie leur statut d’auteur. Peu importe donc, pour l’opérateur, que l’écriture ligne à ligne des
instructions diffère d’un logiciel à l’autre, tant que la boîte noire vérifie l’équation de Baltz S=R(E).
48
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
79
Où le cyberespace est Autre, conclusion temporaire
Figure 3.2 : Le fichier de log conserve une trace séquentielle de tous les événements traités par un processus
logiciel (on dit aussi “journal des événements”). Les systèmes d’exploitation et les serveurs web sont ceux
dont les fichiers de log sont les plus connus. Les premiers permettent de retrouver l’état précis des
processus en cours sur un ordinateur, après un arrêt accidentel par exemple. Les seconds servent à
construire – nouvelle machine de vision sur l’écriture machinique – les statistiques de fréquentation des
sites web, comme ici.
Humanité et cyberespace traitent de l’information – ils communiquent même par
l’entremise des langages formels – et c’est ce qui les rassemble. Mais ils ne composent pas
l’information avec le même complémentaire des données : pour l’humain c’est le sens ;
pour le cyberespace ce sont les structures de ses hypertextes, dans et hors infosphère. La
question de la compréhension du sens – au sens humain – par le cyberespace reste ouverte,
pour l’instant indécidable. À l’inverse, l’humain occupe une position privilégiée, unique
même, d’observateur sur ce qui fait sens pour le cyberespace. Cela vient du caractère
spécifique de cet espace – devrait-on dire milieu ? – où le formalisme logique détermine les
moyens et les fins, logiciels et structures de données, en fixant les règles de l’activité de
51
“lettrure” . Ainsi, les informaticiens sont en mesure de programmer des machines de vision
qui savent lire et interpréter l’architexte sans perturber les structures ni les données
internes ; car l’observation dans le cyberespace peut s’accomplir sur une copie à l’identique
de l’architexte et non sur la source elle-même.
La notion de copie dans l’infosphère, prise dans le sens du résultat plutôt que dans le sens
du processus, dépend du contexte. Le document – terme générique qu’emploie David
Souchier cite Maud Sissung – traductrice de ABC : l’alphabétisation de l’esprit populaire de Ivan Illich
& Sanders – pour expliciter la réactualisation du terme lettrure : « “la langue française ne possède
pas d’équivalent du mot anglais litteracy, qui désigne la capacité de lire et d’écrire”. Elle précise
toutefois que le français a possédé un mot pour désigner cette capacité, “la lettrure, terme que l’on
rencontre dans des textes du XIIe et XIIIe siècles” » (Souchier, 2003. note 18).
51
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
80
Où le cyberespace est Autre, conclusion temporaire
52
M. Levy
pour désigner tous les objets textuels manuscrits et imprimés mais aussi les
images, les photos, les sons… – est copié lorsque « la copie est fidèle à l’original. La
définition de “fidèle” dépendant des circonstances où la copie est réalisée et de l’usage à
53
laquelle on la destine » (D. Levy, 2000). Projeté dans le cyberespace, le document se
constitue en séquences binaires structurées selon des règles algorithmiques. Là, le
processus le plus élémentaire – la copie bit à bit – réplique à l’identique n’importe quel
document numérique. Et tant qu’il reste dans le cyberespace, le document – entendu cette
fois comme une forme restreinte au numérique du document infosphérique de Floridi – est
instanciable autant de fois que souhaité dans sa formalisation binaire : la fidélité des copies
54
est garantie .
Un retournement de perspective montre le processus de copie comme une caractéristique
fonctionnelle élémentaire du cyberespace. Exemple. En cours d’écriture, le texte loge dans
la mémoire vive de l’ordinateur ; une coupure de courant, le texte disparaît. Enregistrer le
document dans un fichier réplique le texte de la mémoire vive sur un support à durée de vie
longue. Deux instances coexistent, d’abord distinguées par leur pérennité – sans même
songer à leur évolution indépendante. Le document est envoyé à un correspondant, il reçoit
une copie. La copie est le résultat du processus de communication lui-même : le document
est découpé en paquets standards, numérotés et étiquetés individuellement ; chacun entame
son voyage par un chemin indépendant, non prévu, passe de routeur en routeur par
55
réplication ; tous parcourent le réseau de copie en copie jusqu’à destination, sans ordre
d’arrivée prédéterminé ; les paquets réassemblés forment une nouvelle instance du
document.
Où est l’original ? Et d’abord quelle pertinence a cette question ?
56
L’un des objectifs
assignés au dispositif technique numérique, la conservation de nos données, est poursuivi
en faisant d’une apparente faiblesse humaine – la forte redondance du message oral – une
force du cyberespace. La redondance améliore l’espérance de vie de la donnée numérisée
Les citations proviennent de la communication que D. Levy a donnée lors du Council on Library
and Information Resources, à Washington DC, en mai 2000, sous le titre Where’s Waldo? Reflections
on Copies and Authenticity in a Digital Environment.
52
Une note photocopiée suffit à informer un interlocuteur, une copie certifiée sera parfois
nécessaire pour un acte légal. « Le point important, c’est que le document ne peut être identique qu’à
lui-même, si “identique” est pris pour signifier “le même à tous les points de vue” » (ibid.).
54 Certes, comme le souligne D. Levy, le transfert du cyberespace dans l’infosphère d’un document
numérique passe bien par un processus de réplication ; processus décliné du modèle industriel où
des copies toutes identiques sont produites sans original (un moule et tous les objets qui en
sortent). « Comme pour les imprimés ou les enregistrements sonores ou vidéo, les documents
numériques sont fondés sur la distinction entre une source et les copies qui en sont tirées. La source est
une représentation numérique d’un certain type, une accumulation de bits. Les copies sont les impressions
ou les manifestations perceptibles – texte, graphique, son, que sais-je encore – qui passent sur le papier,
à l’écran ou sur les ondes. » (D. Levy, 2000).
55 Imaginons une machine de vision programmée pour montrer le cheminement de chaque paquet
dans le réseau, mais aussi montrer en dynamique la totalité des instances des paquets apparaissant,
coexistant et s’effaçant durant la transmission. Quel sens pourrions-nous donner à ces images ?
56 Une hypothèse radicale consiste à exclure la notion d’original du cyberespace. S’il y a original,
c’est dans l’hypertexte neuronal du ou des auteurs. La “résistance” du gratuit au payant pourrait
trouver là un élément d’explication : le cyberespace n’a pas le sens de la propriété !
53
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
81
Où le cyberespace est Autre, conclusion temporaire
– ce qui ne préjuge pas de la difficulté d’accès aux différentes instances d’un document – ;
une raison nécessaire et suffisante pour avoir fait du cyberespace un scripteur et un copiste
de lui-même en apprenant à la machine numérique, pour commencer, à compter, lire, écrire,
copier.
Cette activité de copie, commandée et contrôlée par logiciel, constitue le processus par
lequel alimenter en données des machines de vision spécifiées pour explorer l’architexte du
cyberespace. L’exploration, une interprétation des structures de données par un logiciel de
simulation, nous donne à voir une représentation signifiante là où, a priori, il n’y avait rien
à percevoir, encore moins à comprendre. Concevoir cette classe particulière de machines de
vision, c’est, hors soi, s’installer à ce poste d’observateur privilégié évoqué plus haut. Celui
où l’on acquiert un point de vue sur l’information numérique similaire à celui de la
machine.
L’hypothèse du point de vue de la machine
Savoir que le substrat technique emporte tous les composants nécessaires à la constitution
de machines de vision qui simulent à notre attention le point de vue machinique sur
l’information numérique est en soi insuffisant. Encore faut-il être convaincu de l’intérêt
qu’il y a à programmer ces machines de vision, qu’il y a effectivement quelque sens à
découvrir pour l’humain dans les hypertextes propres au cyberespace.
Lorsque Dennis Fetterly, Mark Manasse, Marc Najork & Janet Wiener décident de mener la
première étude à grande échelle sur l’évolution des pages web, ils ne savent pas ce qu’ils
vont découvrir. Mais ils savent quel échantillon de données prélever, quels traitements
appliquer et, enfin, comment visualiser les résultats ; ils programment leur machine de
57
vision en conséquence . Les conclusions tirées de leur étude se fondent sur des visions
simulées des “données distillées”, qu’ils analysent et commentent – leur article se compose
à 30 % de graphiques, fenêtres ouvertes pour notre entendement sur les écrits machiniques
interprétés par la machine de vision numérique (figure 3.2).
Dans cette expérience, quatre robots logiciels ont parcouru 151 millions de pages une fois par
semaine pendant onze semaines pour mesurer la fréquence et l’importance des changements
qu’elles connaissent, sauvegardant pour chaque document téléchargé des données pertinentes, y
compris un vecteur de représentation du texte sans son marquage html, et le texte intégral de 1 ‰
des pages téléchargées. « Ensuite, nous distillons les données retenues et les rendons plus maniables
pour l’analyse statistique, puis nous menons des opérations d’extraction [data mining] sur les données
distillées » (Fetterly & alt, 2003. p. 9). À titre indicatif, le volume des données collectées se monte à
1 200 giga-octets, les données distillées à 222 giga-octets.
57
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
82
Où le cyberespace est Autre, conclusion temporaire
Figure 3.2 : La “statistique mathématique” de Fisher a trouvé dans les machines numériques un outil idéal
de traitement des données. La puissance de suggestion des images calculées par les machines de vision
nourrit notre imaginaire comme nos interprétations. Il demeure nécessaire, cependant, de garder à l’esprit
que nos interprétations se basent sur des séries d’interprétations logiques conduites sur les données par le
dispositif technique numérique. (Schémas extraits de Fetterly & alt., 2003. p. 7 et 10.)
Les auteurs mettent en évidence la faible part des changements sur les pages – établissant
l’équivalent web=mémoire –, la corrélation entre domaine internet
58
et fréquence de
changement, celle entre taille de document et importance du changement – plus le
document est gros, plus les changements sont significatifs –, la régularité des cycles de
changement permettant de calculer une probabilité de changement (figure 3.2, schéma de
droite). Le fait le plus marquant, dans le cadre qui nous occupe, c’est que la machine de
vision a mis en évidence « une source de pollution des données, les pages générées par les
machines dans l’intention de spammer les moteurs de recherche » (Fetterly & alt., 2003.
p. 9). Les auteurs parlent pollution ; mais hors soi, regardant la donnée du point de vue de
la machine, quel sens construisons-nous à la visualiser ?
Des automates écrivent des pages web à destination d’autres automates, pour influer sur
leur comportement : obtenir une meilleure position dans les index des grands moteurs de
recherche. Lancer une requête dans l’un des quelconques Google du Web produit une liste
de résultats. Son contenu est l’œuvre des algorithmes de classement du moteur de
recherche, algorithmes qui prennent pour données initiales les pages collectées sur le web
par des robots spécialisés (“crawlers”) ; ces données initiales incluent les données internes
inscrites par des robots “spammeurs de logiciels”. Si du point de vue humain cette écriture
machinique est perçue comme une pollution, du point de vue de la machine elle pourrait
indiquer l’activité d’un écosystème où le comportement d’un “organisme moteur de
recherche” est influencé par des “organismes médiateurs” pour favoriser la fréquentation
d’“organismes sites web” – hypothèse qui conduirait à qualifier la fréquentation comme
l’un des critères de survie et d’évolution des pages web.
Top level Domain ou TLD, l’étude porte sur les domaines com, net, org, edu, gov, et dix-sept
pays parmi les plus actifs sur le Web. L’Afrique et l’Amérique du Sud sont absentes de l’échantillon.
58
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
83
Où le cyberespace est Autre, conclusion temporaire
Quittant d’un zoom arrière le cadre de l’exemple jusqu’à embrasser l’espace informationnel
d’un seul regard, nous devinons un système de systèmes complexes, hypertextuel,
autoréplicant. Certains – Barabási avec l’hypothèse d’une nécessaire science des réseaux
exposée dans Linked, Basarab Nicolescu avec la quantique en support universel du réel où
s’inscrit le « Cyber-Espace-Temps », Baltz avec sa théorie générale de l’hypertexte, Lévy
59
avec sa théorie de l’intelligence collective, etc. – y voient l’opportunité de questionner le
réductionnisme aristotélicien qui nous a enfermés dans l’hyperspécialisation scientifique,
e
caractéristique du XX siècle, et réinterroger l’approche platonicienne où des “lois
fondatrices” très simples trouveraient une infinité de façons de s’insérer dans le réel.
L’évidence assumée ici, sous l’influence bienveillante de tous ces chercheurs, est que ces
“lois” s’in-forment en fonction du milieu – biosphère, infosphère, cyberespace… – et,
surtout, qu’elles coexistent et forment à elles toutes plus que la somme des parties, l’espace
informationnel même.
De cet ensemble d’observations et de conjectures, nous pouvons tirer que :
— le dispositif technique numérique dépend complètement de l’énergie ;
— le dispositif technique numérique est une application de théories de la
logique formelle, qui permettent et conditionnent la production des
algorithmes et du code binaire ;
— le code binaire, seul état de l’information inscriptible sous forme
énergétique dans la mémoire informatique, représente indifféremment les
processus cognitifs, les traitements, les données ; leur combinatoire
produit le système complexe nommé cyberespace ;
— le dispositif technique numérique inscrit une part croissante de notre
mémoire individuelle et collective dans le cyberespace, et nous avons
besoin du dispositif numérique pour la lire ;
— le cyberespace, comme l’infosphère et la biosphère, sont des sousensembles aux intersections non vides de l’espace informationnel ;
— ces sous-ensembles interprètent de manière locale les lois générales de
l’espace informationnel comme sa structure hypertextuelle, l’équation
information=données+sens, etc. ;
— le cyberespace s’inscrit lui-même pour opérer ; l’architexte, situé hors
infosphère, est porteur d’un sens opératoire pour le dispositif technique
numérique ;
— les lois générales de l’espace informationnel s’in-forment dans le
cyberespace, en particulier dans les hypertextes intégrant les données
internes hors de l’infosphère ;
— les machines de vision formalisées sont programmées pour lire les
structures des données internes et le font sans les perturber ;
Barabási : Linked: The New Science of Networks, 2002 ; Nicolescu : Le cyber-espace-temps et
l’imaginaire visionnaire, 2001 ; Baltz : In-formation, 2003 ; Lévy : Les technologies de l’intelligence, 1990.
59
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
84
Où le cyberespace est Autre, conclusion temporaire
— les machines de vision interprètent le résultat de leur lecture pour en
donner une simulation signifiante pour l’humain.
Nous en tirons l’hypothèse du point de vue de la machine selon laquelle :
La machine de vision, formalisée et mise en code dans le dispositif technique
numérique, est une machine universelle, conformable à loisir, qui sert à
sonder et éprouver expérimentalement d’éventuelles lois générales de
l’espace informationnel par l’interprétation et la simulation à notre attention
de leurs formes et de leur dynamique dans le cyberespace ; pour cela, la
machine de vision doit être programmée non pour nous montrer ce que nous
nous attendons à voir (le point de vue humain sur l’information) mais pour
nous montrer ce que nous voulons découvrir (le point de vue de la machine
sur l’information).
Corollaire de cette hypothèse, humanité et cyberespace en réalisant le concept de machine
60
de vision formalisée s’apprêtent à élaborer un nouveau langage symbolique , iconique et
dynamique, rehaussant d’un degré dans l’abstraction le dialogue entre humain et machine.
Et là où la recherche peine à proposer des esquisses, la science-fiction nous offre ses
visions graphiques, comme celle de David Zindell, dans Inexistence, où la fusion des
hypertextes neuronaux et machiniques produit la “multiplicité” – un espace mental dévolu
aux mathématiques où les applications démontrées guident les vaisseaux interstellaires
d’étoile en étoile.
« Je projetai mon esprit vers mon vaisseau et plongeai en temps-ralenti. Les
pensées traversaient mon cerveau tels des flocons de neige chassés par une
tempête. Alors que mes processus mentaux s’accéléraient, les secondes
s’étiraient. Je disposais désormais d’un certain délai pour démontrer des
relations très difficiles à établir. Mais je devais malgré tout agir rapidement,
très rapidement. L’ordinateur modela mes pensées et entreprit de suscrire à
mon cortex visuel des idéoplasts tirés de ma mémoire. Ces symboles
semblables à des cristaux miroitaient devant mes yeux intérieurs ; ils
apparaissaient, se joignaient et s’assemblaient, preuve de mes hypothèses.
Cette quête d’un nouveau langage symbolique fonde une partie des travaux de l’équipe
rassemblée par Lévy : « L’avantage des écritures idéographiques est qu’elles sont indépendantes des
langues naturelles, comme le sont la notation des nombres ou les idéogrammes chinois (qui peuvent être
lus en mandarin ou en cantonais, par exemple). Les idéogrammes de la langue de l’intelligence collective
jouent le rôle de “personnages” élémentaires du monde des idées qui condensent le contenu d’un grand
nombre de liens, de transactions et d’informations ayant des fonctions voisines dans l’écosystème de
l’intelligence collective. Ces idéogrammes représentent des zones sémantiques beaucoup plus vastes que
les mots des langues naturelles, ce sont des sortes de “codes postaux” du cyberespace capables de
visualiser les ressources informationnelles et les dynamiques transactionnelles qui passent par eux. Ils
permettent également de simuler des écologies d’idées. Ces idéogrammes pourront devenir nos
partenaires dans le pilotage de l’intelligence collective à l’époque de la cyberculture, comme les
idéogrammes statiques et les caractères alphabétiques l’avaient été à l’époque des civilisations nées de
l’écriture » (Lévy, 2003).
60
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
85
Où le cyberespace est Autre, conclusion temporaire
Chacun d’eux était beau et unique. La représentation du théorème des points
fixes, par exemple, était semblable à un collier de rubis lové sur lui-même.
Alors que je bâtissais soigneusement ma démonstration, il fusionna avec les
fibres cristallines duveteuses du premier lemme relationnel de Lavi. Je
réfléchissais à une vitesse folle, et les signes se figeaient. Les glyphes
émeraude de l’axiome d’invariance, les runes cunéiformes des connectifs
sententiels et tous les autres formaient désormais un mandala
tridimensionnel ordonné par la logique et l’inspiration. Au fur et à mesure
que mes pensées devenaient plus rapides, de nouveaux idéoplasts
apparaissaient, semblant jaillir hors du néant, et trouvaient leur place dans
la formulation de ma démonstration. Cette manipulation mentale des
symboles dans le but d’établir une preuve porte un nom : nous appelons cela
une tempête numérale parce que la pure pensée mathématique nous assaille
comme le blizzard lors du printemps de la mi-hiver. » (Zindell, 1988. p. 110)
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
86
Où le cyberespace est Autre, conclusion temporaire
Où le cyberespace est Autre,
conclusion temporaire
Le dispositif technique numérique est bien un outil, et celui qui s’en sert augmente sa
capacité d’action à la mesure de la maîtrise qu’il en acquiert. Se voir, s’entendre, se parler,
échanger de tous les points du monde ; s’informer, apprendre, explorer le savoir commun
sans déranger quiconque ; imaginer, écrire, dessiner, modéliser, simuler chaque idée sans
rien manipuler sinon des électrons… L’hypothèse d’une informatique maîtrisée qui émaille
le discours des premiers cybernéticiens a vécu, engloutie dans la boîte noire de
l’informatique utilisée. Ce serait pourtant tellement simple si chacun restait sagement
derrière sa frontière, l’humain ici la machine là. Mais le dispositif technique affleure sans
cesse dans ce que nous persistons à voir comme un “traitement automatisé d’informations
codées sous forme binaire” ; et le cyberespace s’y entend pour brouiller les frontières.
Issu du langage de la logique formelle, le dispositif en dépend pour opérer. L’humain
dialogue avec lui parce qu’il l’instaure en co-producteur du discours. Par accroissement
continu de l’architexte, le dispositif partage un nombre grandissant d’activités
fonctionnelles avec les organismes biologiques alors même que les supports de leurs
hypertextes diffèrent. Le tout montre la puissance productive de la lettrure conjointe
1
(symbiotique) humain-machine. Langage et technique, naturel et artificiel, vivant et
matière inerte, réel et imaginaire… Toutes ces frontières placées, déplacées, négociées,
ajoutées, effacées mais toujours présentes dans nos cultures s’affrontent à une question
ancestrale sous un jour nouveau : “qui est l’autre ?”.
Du fond des temps, nous cherchons un autre vraiment autre pour discuter nos idées, celui
que certains appellent l’Autre. L’autre n’est pas descendu des Cieux. Il n’est pas plus venu
de l’espace profond. Ou alors si, mais de l’espace profond de notre imaginaire. Comme
n’importe lequel de ses outils, l’humanité a conçu et fabriqué l’informatique réticulée
– devenue cet autre par la vertu du dialogue humain-machine – en la tissant de la matière de
ses rêves dans l’espace informationnel. Infosphère, matière inerte, vivant, tous sont saisis
dans le mouvement. Désormais, le cyberespace, tel que le décrit la machine numérique qui
le fait être, s’étend au-delà de l’infosphère, sans conscience mais avec science. Acquérir
son point de vue grâce à des machines de vision, c’est comme simuler ce miroir de conte de
« Il apparaît surtout que les organismes ont une structure interne très complexe qui se forme
épigénétiquement : au sein de celle-ci se déploient des activités fonctionnelles de type intégré et
autorégulateur, dans une relative autonomie par rapport aux déterminations du milieu ambiant. » (“Vie”,
François Duschesneau, Encyclopédie Philosophique Universelle, Les Notions Philosophiques, dictionnaire
2, PUF. 1990. p. 2730)
1
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
87
Où le cyberespace est Autre, conclusion temporaire
fées de la Méchante Reine, neutre et objectif. Quand l’humain s’y regarde, qu’y voit-il ?
Non pas une image de l’humanité mais une image de l’humanité racontée par la machine.
L’humanité s’est engagée dans l’aventure numérique, élan irréversible initié par les
aventuriers du triangle d’acier. Elle a constitué le cyberespace comme son interlocuteur
privilégié. Approfondir le dialogue humain-machine, comme Engelbart nous a invités à le
faire, c’est traquer les structures et les lois de composition de l’espace informationnel à
travers leur inscription dans le cyberespace et peut-être comprendre, par analogie, la
signification de leur inscription dans l’infosphère, la biosphère… C’est aussi se faire
raconter le récit de l’humanité par cette autre voix, de nature si différente.
Le cyberespace accueille tous les discours sans discrimination ; y compris la vieille querelle
2
des anciens et des modernes, retitrée pour l’occasion “hackers contre législateurs” ,
“altermondialistes contre capitalistes”, “artistes contre producteurs”, “individus contre
système”… Tous les récits coexistent, développent leurs structures et conforment
localement le cyberespace à leurs règles : il ne manque décidément pas de matière pour
éprouver la solidité de notre hypothèse, la travailler plus avant du point de vue de la
machine.
Nouveau plongeon dans la fractalité. Les réseaux pullulent de fragments révélateurs ;
exemples de machines de vision réglées au plus près du processus de lettrure du
cyberespace (voir Annexe I, Visions de machines de vision). Partir à leur rencontre, c’est
découvrir de multiples approches, menées d’instinct ou en pleine conscience, des plus
graphiques – aperçus des hypertextes du cyberespace – aux plus virtuelles – descriptions
enfouies dans les textes inscrits dans les réseaux. Affiner le réglage de nos machines de
vision formalisées, c’est poursuivre notre dialogue avec le cyberespace, dialogue où
3
l’humanité est une et où ce qu’elle inscrit son bien commun . Et comme le pronostique
Quéau (Quéau, 1999), de cette évidence du bien commun peut naître une politique du
cyberespace favorable à l’humanité tout entière et non à ses seules élites.
Exemple. Le “mouvement du libre”, côté hackers, le commerce, côté législateurs. Les premiers
prônent la libre copie, la coopération, le bien commun ; les seconds protègent la propriété, le libre
commerce et, plus ou moins directement, la concentration des pouvoirs. Les logiciels qu’écrivent les
hackers diffèrent de ceux qu’écrivent les législateurs ; ils entrent parfois en conflit mais dans la
plupart des cas coexistent. Nous avons à apprendre en parcourant leurs hypertextes, et tous ceux
inscrits dans l’architexte du cyberespace.
3 Philippe Quéau développe depuis plusieurs années une théorie du bien commun mondial, théorie
exposée au cours de colloques (Quéau, 1999) ou dans un ouvrage récent (Quéau, 2000).
2
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
88
Visions de machines de vision Annexe I
Annexe I
Visions de machines de vision
Parcourir le cyberespace, quelle qu’en soit la raison, multiplie les occasions de croiser l’une
de ces manifestations indicatives de machines de vision formalisées pour s’exercer à la
position de “hors-soi”. Échantillonnage pour stimuler l’imagination du lecteur.
TouchGraph GoogleBrowser
Naviguer dans une portion du Web, les rayons d’Amazon ou les weblogs hébergés par
LiveJournal – clic clic clic – c’est commun. S’aventurer dans leur graphe demande une
bonne pratique et de la patience (surtout) pour s’y sentir orienté et en position de contrôle.
« La nature associative du réseau facilite la mémorisation de sa structure mais c’est
l’apparition récurrente d’images stables qui booste la mémoire de l’utilisateur. La capacité
à créer ces images stables et à y naviguer est ce qui rend TouchGraph si spécial, et c’est
1
aussi la clé de l’augmentation tant du designer que de l’utilisateur » (Shapiro, 2001).
Figure 4.1 : Les liens les plus forts entre sites, tels que les algorithmes de Google les construisent, s’affichent
dans le graphe (la requête ici était “google.com”). L’amas qui attire le plus Google, ce sont les autres
moteurs de recherche ; logique. L’étoile du bas, c’est “google.de”, la version germanophone. Et le troisième
sommet du triangle, pont vers l’étoile dense de droite, c’est un moteur de recherche allemand spécialisé
dans la pornographie. Aucune requête dans Google ne pourrait mettre en évidence cette relation ternaire ;
une interface graphique si.
Alex Shapiro est l’auteur du code de TouchGraph, applet Java destinée à la visualisation de
réseaux sous forme de graphes navigables. URL : http://www.touchgraph.com/index.html (dernier
accès le 3 septembre 2003).
1
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
89
Visions de machines de vision Annexe I
SimplePaint
Nicolas Clauss, peintre autodidacte passé temporairement des pinceaux à la toile du net,
installe les visiteurs de son site dans « un espace d'expérimentations présentant plusieurs
pièces où l'interactivité et la dimension ludique sont essentielles. Il est important que
l'utilisateur puisse se les approprier en créant ses propres interprétations à partir de ce qui
2
est donné » (Clauss, 2001). L’artiste-programmeur, avec SimplePaint , confronte
l’utilisateur à l’occupation simultanée de deux positions : peintre à la souris, juge de la
peinture qui évolue simultanément à l’instigation du logiciel.
Figure 4.2 : Le logiciel de Clauss ne comprend que quatre commandes : changer de brosse (clic de souris),
changer de palette (lettre C), changer de couleur de fond (espace), déplacer la brosse (mouvements de la
souris). Le code trace en continu quoi que fasse le “peintre” – jusqu’à le remplacer s’il n’agit pas du tout
(mode “screensaver”). L’association humain-logiciel trouve ici matière à parcourir indéfiniment les boucles
de rétroaction.
Le logiciel de dessin SimplePaint est utilisable directement sur le site de l’artiste. URL :
http://www.flyingpuppet.com/shock/simplepaint.htm (dernier accès le 9 septembre 2003).
2
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
90
Visions de machines de vision Annexe I
SpaceWar!
L’histoire a retenu Spacewar! comme étant le premier jeu vidéo. Imaginé par Martin
Graetz, Stephen Russell et Wayne Wiitanen en 1961, il a été programmé en 1962 sur un
PDP-1 par Stephen Russell, Peter Samson, Dan Edwards, Martin Graetz, Alan Kotok, Steve
3
Piner et Robert A. Saunders. Cette version , programmée par Barry Silverman, Brian
Silverman et Vadim Gerasimov, est conforme à l’original : « Martin Graetz nous a fourni
une version imprimée du code source. Nous l’avons ressaisi – il fait environ 40 pages – et
réassemblé avec un assembleur PDP-1 écrit en PERL. Le code binaire résultant tourne
dans un émulateur de PDP-1 sous forme d’applet Java » (Silverman, Silverman
& Gerasimov, 1999). Outre son aspect ludique, ce qui nous intéresse ici c’est l’ordinateur
PDP-1 intégralement reproduit sous la forme d’un logiciel (l’émulateur) pour que le jeu
puisse être exécuté par un micro-ordinateur actuel avec une machine virtuelle Java.
Figure 4.3 : Le code de la version contemporaine de Spacewar! est extrêmement fidèle à l’original, à deux
exceptions près : la taille des vaisseaux a été augmentée, les temporisations ont été rendues conditionnelles
pour s’adapter à des machines plus ou moins rapides.
La version émulée de Spacewar! est disponible sur le site du Medialab du MIT, tout comme les
codes sources. URL : http://agents.www.media.mit.edu/groups/el/projects/spacewar/ (dernier accès
le 9 septembre 2003).
3
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
91
Visions de machines de vision Annexe I
ArtMatic
Œuvre d’Éric Wenger, un ancien des Arts Déco, ArtMatic cache des fonctions
mathématiques complexes – fractales et réseaux de neurones mais pas seulement – sous une
interface ludique. Une arborescence de tuiles, indifféremment fonction géométrique ou
filtre, règle le flux graphique. Fascinant, et encore plus en produisant simultanément un flux
sonore : celui-ci perturbe les variables exploitées par les réglages de l’arborescence ;
renouvelant le flux graphique de manière imprévisible, véritable mutation de la lignée.
« Notre mission est de fournir aux artistes des outils qui encouragent la découverte et les
libèrent des contraintes des techniques logicielles traditionnelles. Nos applications créent
des environnements qui nourrissent la créativité par l’exploration » (Wenger, 2003).
4
Figure 4.4 : ArtMatic perçoit toutes les entrées comme du signal. Vidéo, fonctions graphiques et son influent
sur le générateur graphique ; l’évolution est la règle ici. Et Wenger avec son logiciel nous montre de belles
images, évidemment, mais surtout il conduit le cyberespace à générer un flux numérique évolutionniste
remis en image et en son en temps réel par sa machine de vision intégrée.
Les logiciels de Éric Wenger sont payants mais en téléchargement libre pour évaluation sur le site
de sa maison d’édition, u&i software. URL : http://www.uisoftware.com/index.html (dernier accès le
9 septembre 2003).
4
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
92
Visions de machines de vision Annexe I
Network Physics
Avec un tel nom, l’entreprise se doit d’être experte ; elle l’est à double titre. L’importation
dans le domaine des réseaux d’une technique d’analyse statistique employée pour distiller
les flots de données générés par les accélérateurs de particules permet d’observer en temps
réel le trafic IP global sur un réseau étendu. L’interprétation des données internes que sont
les enveloppes des paquets TCP/IP suffit à alimenter de multiples machines de vision où les
simulations servent à établir des pronostics – au sens statistique – et rendre le transport des
flux d’information presque indépendants de l’état des réseaux. « Notre vision du réseau
n’est pas celle d’un énorme entassement d’appareils, de liens, de paquets, de files d’attente
mais celle d’un système physique gouverné par un petit nombre de principes
fondamentaux », lit-on sur dans leur documentation technique.
Figure 4.5 : Ce que voit l’administrateur d’un réseau étendu n’est pas ce qui s’y passe. Confrontées à un
système complexe, les approches verticales d’agrégation des données échouent : pas assez de matière
première et trop de calculs. Ici, la complexité est traitée comme telle, la machine de vision l’interprète en de
multiples étapes – schéma à droite – jusqu’à produire des simulations graphiques directement assimilables
par l’humain – un exemple à gauche.
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
93
Licence de Libre Diffusion des Documents Annexe II
Annexe II
Licence de Libre Diffusion des Documents v. 1
Ce document peut être librement lu, stocké, reproduit, diffusé, traduit et cité par tous
moyens et sur tous supports aux conditions suivantes :
1.
tout lecteur ou utilisateur de ce document reconnaît avoir pris connaissance de ce
qu'aucune garantie n'est donnée quant à son contenu, à tout point de vue,
notamment véracité, précision et adéquation pour toute utilisation ;
2.
il n'est procédé à aucune modification autre que cosmétique, changement de
format de représentation, traduction, correction d'une erreur de syntaxe évidente,
ou en accord avec les clauses ci-dessous ;
3.
des commentaires ou additions peuvent êtres insérés à condition d'apparaître
clairement comme tels ;
4.
les traductions ou fragments doivent faire clairement référence à une copie
originale complète, si possible à une copie facilement accessible ;
5.
les traductions et les commentaires ou ajouts insérés doivent être datés et leur(s)
auteur(s) doi(ven)t être identifiable(s) (éventuellement au travers d'un alias) ;
6.
cette licence est préservée et s'applique à l'ensemble du document et des
modifications et ajouts éventuels (sauf en cas de citation courte), quelqu'en est le
format de représentation ;
7.
quel que soit le mode de stockage, reproduction ou diffusion, toute personne ayant
accès à une version numérisée de ce document doit pouvoir en faire une copie
numérisée dans un format directement utilisable et si possible éditable, suivant les
standards publics, et publiquement documentés, en usage ;
8.
la transmission de ce document à un tiers se fait avec transmission de cette licence,
sans modification, et en particulier sans addition de clause ou contrainte nouvelle,
explicite ou implicite, liée ou non à cette transmission. En particulier, en cas
d'inclusion dans une base de données ou une collection, le propriétaire ou
l'exploitant de la base ou de la collection s'interdit tout droit de regard lié à ce
stockage et concernant l'utilisation qui pourrait être faite du document après
extraction de la base ou de la collection, seul ou en relation avec d'autres
documents.
Toute incompatibilité des clauses ci-dessus avec des dispositions ou contraintes légales,
contractuelles ou judiciaires implique une limitation correspondante du droit de lecture,
utilisation ou redistribution verbatim ou modifiée du document.
Auteur de la licence : Bernard Lang.
URL : http://pauillac.inria.fr/~lang/licence/v1/lldd.html
URL bis : http://www.boson2x.org/article.php3?id_article=20
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
94
Bibliographie
Bibliographie
Ouvrages
Henri Atlan. Entre le cristal et la fumée, Éditions du Seuil. 1979.
Claude Baltz. La nébuleuse Inforcom, les espaces de l’information, CNET-CNRS.
Octobre 1987.
Éric Baptiste. L’infosphère : stratégies des médias et rôle de l’État, La Documentation
Française. 2000.
Daniel Bougnoux. Introduction aux sciences de la communication, éditions La Découverte,
nouvelle édition. 2001.
e
Philippe Breton & Serge Proulx. L’explosion de la communication à l’aube du XXI siècle,
éditions La Découverte. 2002.
Jorge Luis Borges. Ficciones, Emecé Editores. 1956 et 1960. Traduction française de
P. Verdevoye, Ibarra et Roger Caillois sous le titre Fictions, Gallimard. 1957 et 1965.
Nouvelle édition augmentée chez Folio, 1983.
Emmanuel Dion. Invitation à la théorie de l’information, Éditions du Seuil. 1997.
Ivar Ekeland. Le Calcul, l’Imprévu, Les figures du temps de Kepler à Thom, Éditions du
Seuil. 1984.
Luciano Floridi (éditeur). The Blackwell Guide to the Philosophy of Computing and
Information, Blackwell Books. 2003. Le chapitre 5 de la section II, Information, est
disponible sur le site de Floridi. URL :
http://www.wolfson.ox.ac.uk/~floridi/blackwell/chapters/chapter5.pdf (dernier accès le
21 août 2003).
William Gibson. Neuromancer, 1984. Traduction française de Jean Bonnefoy sous le titre
Neuromancien, éditions La Découverte, 1985.
Alain Gras & Caroline Moricot (éditeurs). Technologies du quotidien, La complainte du
progrès, Éditions Autrement. 1992.
Katie Hafner & Matthew Lyon. Where wizards stay up late, Simon & Schuster. 1996.
Traduction française de Georges Loudière sous le titre Les sorciers du Net, Calmann-Lévy.
1999.
Robert Heinlein. The Door into Summer, feuilleton paru dans The Magazine of Fantasy
and Science-Fiction. 1956. Traduction française de Régine Vivier sous le titre Une porte
sur l’été, Éditions Rencontre, 1970.
Jacques Jaffelin. Pour une théorie de l’information générale, tractatus logico-ecologicus,
ESF éditeur. 1993.
Derrick de Kerckhove. Connected Intelligence, Sommerville House Publishing. 1997.
Traduction française de Ferry de Kerckhove sous le titre L’intelligence des réseaux,
Éditions Odile Jacob. 2000.
Murray Leinster. A logic named Joe, Street & Smith. 1946. Traduction française de
Monique Lebailly sous le titre Un logique nommé Joe, in Demain les puces de Patrice
Duvic, Denoël, 1986.
Pierre Lévy. Les technologies de l’intelligence, éditions La Découverte. 1990.
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
95
Bibliographie
Pierre Lévy. Cyberculture, Rapport au Conseil de l’Europe, éditions La Découverte.
Novembre 1997.
Pierre Lévy. Qu’est-ce que le virtuel ?, éditions La Découverte. 1998.
Marshall McLuhan. Understanding Media, McGraw Hill. 1964. Traduction française de
Jean Paré sous le titre Pour comprendre les médias, Mame/Seuil, 1968.
Armand Mattelard. Histoire de la société de l’information, éditions La Découverte. 2001.
Theodor Holm Nelson. Literary Machines 93.1, Mindful Press. 1993. La première édition
de Literary Machines remonte à 1981, ouvrage que Nelson a remanié à plusieurs reprises
entretemps.
John von Neumann. The Computer and the Brain, Yale University Press. 1957. Traduction
française de Pascal Engel sous le titre L’ordinateur et le cerveau, Flammarion. 1996.
Daniel Parrochia (éditeur). Penser les réseaux, Éditions Champ Vallon. 2001.
Heinz Pagels. The Dreams Reasons, Simon and Schuster. 1988. Traduction française de
Michèle Garène sous le titre Les rêves de la raison, L’ordinateur et les sciences de la
complexité, InterÉditions. 1990.
Aline Pélissier & Alain Tête. Sciences cognitives textes fondateurs (1943-1950), Presses
Universitaires de France. 1995.
Philippe Quéau. Éloge de la simulation, de la vie des langages à la synthèse des images,
Éditions Champ Vallon. 1986.
Philippe Quéau. La planète des esprits, pour une politique du cyberespace, Éditions Odile
Jacob. 2000.
Eric S. Raymond (éditeur). The Jargon File (version 4.4.3). Première version 1975 ;
version actuelle de mai 2003. URL : http://www.catb.org/~esr/jargon/html/index.html
(dernier accès le 11 août 2003).
J. Reynolds & Jon Postel. The Request for Comments Reference Guide, Network Working
Group. Août 1987. URL : http://rfc.sunsite.dk/rfc/rfc1000.html (dernier accès le 21 juillet
2003).
Doc Searls & David Weinberger. World of ends. 2003. URL : http://worldofends.com
(dernier accès le 11 août 2003).
Dan Simmons. Hyperion et The fall of Hyperion, Doubleday. 1989-1990. Traduction
française de Guy Abadia sous le titre Les cantos d’Hyperion, Pocket. 1991-1992.
Jean-Michel Truong. Le successeur de pierre, Denoël. 1999.
Noah Wardrip-Fruin & Nick Montfort. The NewMedia Reader, MIT Press. 2003. Des
compléments au livre sont accessibles sur le site
Guillaume Watier. Le calcul confié aux machines, Éditions Ellipses. 2001.
Norbert Wiener. Cybernetics : or Control and Communication in the Animal and the
e
Machine, MIT Press (2 édition, 1961). 1948.
David Zindell. Neverness, 1988. Traduction française de Jean-Pierre Pugi sous le titre
Inexistence, J’ai Lu, 1989.
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
96
Bibliographie
Articles
Claude Baltz. In-formation, communication au colloque H2PTM, à paraître chez Hermès.
Septembre 2003.
Paul Baran. On distributed networks, Rand Corporation. Août 1964. URL :
http://www.rand.org/publications/RM/RM3420/index.html (dernier accès le 14 juillet
2003).
Jean-Michel Basquiat & Christophe Jacquemin. À propos de lambda-calcul, Automates
Intelligents. Février 2002. URL :
http://www.automatesintelligents.com/edito/2002/fev/edito.html (dernier accès le 12 juillet
2003).
Jean-François Bianco. Diderot a-t-il inventé le Web ?, Recherches sur Diderot et sur
l’Encyclopédie, n° 31-32. Avril 2002. Actes du Colloque L’Encyclopédie en ses nouveaux
atours électroniques : Vices et vertus du virtuel, Université Paris 7, 17 au 18 novembre
2000.
Gilles Blanchard et Mark Olsen. Le système de renvois dans l’Encyclopédie : Une
e
cartographie des structures de connaissances au XVIII siècle, Recherches sur Diderot et
sur l’Encyclopédie, n° 31-32. Avril 2002. Actes du Colloque L’Encyclopédie en ses
nouveaux atours électroniques : Vices et vertus du virtuel, Université Paris 7, 17 au
18 novembre 2000.
Susan E. Brennan. Conversation as Direct Manipulation: An Iconoclastic View, in The Art
of Human-Computer Interface Design, édité par Brenda Laurel, Addison-Wesley. 1990.
Vannevar Bush. As We May Think, Atlantic Monthly, Boston. Juillet 1945. URL :
http://www.theatlantic.com/unbound/flashbks/computer/bushf.htm (dernier accès le 12 août
2003). Une version condensée et illustrée a ensuite été publiée par Life. 1945. Article
republié dans Wardrip-Fruin & Montfort, 2003. p. 35-47.
Vinton Cerf & Robert Kahn. A Protocol For Packet Network Intercommunication, IEEE
Transactions on Communications, vol. Com-22, n° 5. Mai 1974. URL :
http://www.comsoc.org/livepubs/50_journals/pdf/RightsManagement_eid=138775.pdf
(dernier accès le 21 juillet 2003).
Brigitte Chamak. Ceux qui construisent la “réalité virtuelle”…, Alliage, n° 27. 1996.
URL : http://www.tribunes.com/tribune/alliage/27/cham.htm (dernier accès le 10 juillet
2003).
Roger Charland. Le bibliothécaire n’est pas un animal préhistorique, les musées de
sciences naturelles ne sont pas près de l’acquérir, Hermès n° 1. Printemps 1998. URL :
http://pages.globetrotter.net/charro/HERMES1/roger1.htm (dernier accès le 18 juillet
2003).
B. Jack Copeland. The Church-Turing Thesis, The Stanford Encyclopedia of Philosophy.
Édition automne 2002. URL : http://plato.stanford.edu/archives/fall2002/entries/churchturing/ (dernier accès le 12 juillet 2003).
Richard Dawkins. The Information Challenge, The Skeptic, vol. 18, n° 4. Décembre 1998.
URL : http://www.skeptics.com.au/journal/dawkins1.htm (dernier accès le 22 août 2003).
Gilles Dowek. Le sens du calcul, Futura Sciences. 22 février 2003. http://www.futurasciences.com/decouvrir/d/dossier215-8.php. Transcription mise à jour d’un exposé au
séminaire « Qu’est-ce qu’une logique ? » (9 avril 1996).
Douglas Engelbart. Augmenting Human Intellect: A Conceptual Framework, Stanford
Research Institute. Octobre 1962. URL :
http://sloan.stanford.edu/mousesite/EngelbartPapers/B5_F18_ConceptFrameworkInd.html
(dernier accès le 14 août 2003). In Wardrip-Fruin & Montfort, 2003, p. 95-108.
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
97
Bibliographie
Dennis Fetterly, Mark Manasse, Marc Najork & Janet Wiener. A Large-Scale Study of
the Evolution of Web Pages, communication lors de la Twelfth International World Wide
Web Conference, Prague. Mai 2003. URL :
http://www.research.microsoft.com/aboutmsr/labs/siliconvalley/pubs/p97-fetterly/p97fetterly.pdf (dernier accès, le 30 août 2003).
Luciano Floridi. Infosfera, in Internet & Net Economy, Vito di Bari, Il Sole 25-Ore Libri.
2002. Traduction française sous le titre Infosphère, une définition, boson2x. URL :
http://www.boson2x.org/article.php?id_article=66, (dernier accès le 21 août 2003).
Ronda Hauben. Computer Science and the Role of Government in Creating the Internet :
ARPA/IPTO (1962-1986), Creating the Needed Interface, The University of Michigan
Computer Club. Avril 1999 (dernière mise à jour du document janvier 2000). URL :
http://www.ais.org/~ronda/new.papers/arpa_ipto.txt (dernier accès le 19 juillet 2003).
Jacques Hebenstreit. Informatique–principes, Encyclopædia Universalis. Édition
numérique 2001.
Tom Leighton. Topics in Theoretical Computer Science: Internet Research Problem,
Lecture 1, Massachussets Institute of Technology. Février 2002. URL :
http://sfr.nms.lcs.mit.edu/5aef44d08d08f0386861b770758dc61b1dd0405e (dernier accès le
18 août 2003).
Barry Leiner, Vinton Cerf, David Clark, Robert Kahn, Leonard Kleinrock, Daniel
Lynch, Jon Postel, Larry Roberts, Stephen Wolff. A Brief History of the Internet, version
3.31, Internet Society (Isoc). 4 août 2000. URL :
http://www.isoc.org/internet/history/brief.shtml (dernier accès le 24 juillet 2003).
David M. Levy. Where’s Waldo? Reflections on Copies and Authenticity in a Digital
Environment, in Authenticity in a Digital Environment, Council on Library and Information
Resources. Mai 2000. URL : http://www.clir.org/pubs/reports/pub92/levy.html (dernier
accès le 29 août 2003).
Pierre Lévy. Le futur Web exprimera l’intelligence collective de l’humanité, propos
recueillis par Pierre Lombard, Le Journal du Net. Septembre 2003. URL :
er
http://www.journaldunet.com/printer/it_plevy.shtml (dernier accès le 1 septembre 2003).
Joseph Carl Robnett Licklider. Man-Computer Symbiosis, IRE Transactions on Human
Factors in Electronics, HFE-1:4-11. Mars 1960. Republication dans le Digital SRC
Research Report 61. 7 août 1990. URL :
ftp://gatekeeper.research.compaq.com/pub/DEC/SRC/research-reports/SRC-061.pdf
(dernier accès le 5 août 2003).
Paul Loubière. Fondements épistémologiques de l'ethnométhodologie, application à la
logique, aux mathématiques et à l'informatique, thèse de doctorat, Université Paris VII.
1992. URL : http://perso.club-internet.fr/vadeker/corpus/loubiere/these_loubiere.html
(dernier accès le 9 septembre 2003).
Warren McCulloch & William Pitts. A logical calculus of the ideas immanent in nervous
activity, Bulletin of Mathematical Biophysics. 1943. Traduction française dans Pélissier
& Tête, 1995. p. 57-91.
Barry McMullin. John von Neumann and the Evolutionary Growth of Complexity: Looking
Backwards, Looking Forwards…, in Artificial Life VII: Proceedings of the Seventh
International Conference, Mark A. Bedau, John S. McCaskill, Norman H. Packard et Steen
Rasmussen (éditeurs), MIT Press. 2000. URL : http://www.eeng.dcu.ie/~alife/bmcm-200001/html-single/ (dernier accès le 11 août 2003).
Pierre Musso. Genèse et critique de la notion de réseau, in Penser les réseaux, Parrochia
(éditeur), Éditions Champ Vallon. 2001.
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
98
Bibliographie
Theodor Holm Nelson. A File Structure for the Complex, the Changing, and the
e
Indeterminate, actes de la 20 conférence nationale de l’Association for Computing
Machinery. 1965. In Wardrip-Fruin & Montfort, 2003, p. 134-145.
John von Neumann. First draft of a Report on the EDVAC, in Great Papers in Computer
Science, sous la direction de Philipp Laplante, Burlington County College, IEEE Press,
juin 1945. URL : http://www.cs.colorado.edu/~zathras/csci3155/EDVAC_vonNeumann.pdf
(dernier accès le 14 juillet 2003).
John von Neumann. The General and Logical Theory of Automata, in Cerebral
Mechanisms in Behavior: The Hixon Symposium, Lloyd A. Jeffres (éditeur), John Wiley
and Sons. 1951. Traduction française dans Pélissier & Tête, 1995. p. 93-153.
Basarab Nicolescu. Le cyber-espace-temps et l’imaginaire visionnaire, in Penser les
réseaux, Parrochia (éditeur), Éditions Champ Vallon. 2001.
Daniel Parrochia. La rationalité réticulaire, introduction à Penser les réseaux, Parrochia
(éditeur), Éditions Champ Vallon. 2001.
Philippe Quéau. Du Bien Commun Mondial à l’âge de l’information, séminaire fws,
er
Poitiers. 1 mars 1999. URL : http://2100.org/conf_queau1.html (dernier accès le
2 septembre 2003).
Paolo Quintili. La raison lointaine Internet, rationalité encyclopédique et rationalité
télématique, Recherches sur Diderot et sur l’Encyclopédie, n° 31-32. Avril 2002. Actes du
Colloque L’Encyclopédie en ses nouveaux atours électroniques : Vices et vertus du virtuel,
Université Paris 7, 17 au 18 novembre 2000.
Arturo Rosenblueth, Norbert Wiener & Julian Bigelow. Behavior, Purpose and Teleology,
Philosophy of Science, Williams & Wilkins, vol. X, p. 18-24. 1943.
Jeffrey Shallit. A very brief history of computer science, Université Waterloo, Canada.
1995. http://www.math.uwaterloo.ca/~shallit/Courses/134/history.html (dernier accès le
24 juillet 2003).
Claude E. Shannon. A Chess-Playing Machine, Scientific American, n° 182. Février 1950.
URL : http://www.stanford.edu/class/sts145/Library/shannon1950.pdf (dernier accès le
8 août 2003).
Emmanuël Souchier. Lorsque les écrits de réseaux cristallisent la mémoire des outils, des
médias et des pratiques, in Les défis de la publication Web, Indisciplines. Février 2003.
URL : http://www.interdisciplines.org/defispublicationweb/papers/18/ (dernier accès le
27 août 2003).
Robert W. Taylor. In Memoriam, J.C.R. Licklider, 1915-1990, Digital SRC Research
Report 61. 7 août 1990. URL :
ftp://gatekeeper.research.compaq.com/pub/DEC/SRC/research-reports/SRC-061.pdf
(dernier accès le 5 août 2003).
Alan M. Turing. On Computable Numbers with an Application to the
Entscheidungsproblem, Proceedings of the London Mathematical Society, series 2. vol. 42.
1936-1937. Réédition avec corrections en 1937, ibid. vol. 43. URL :
http://www.abelard.org/turpap2/tp2-ie.asp (dernier accès le 8 août 2003).
Alan M. Turing. Intelligent Machinery, rapport du National Physical Laboratory. 1948.
URL : http://www.alanturing.net/turing_archive/archive/l/l32/L32-001.html (dernier accès
le 8 août 2003).
Alan M. Turing. Computing Machinery and Intelligence, Mind, vol. LIX, n° 236.
Octobre 1950. URL : http://www.abelard.org/turpap/turpap.htm (dernier accès le 8 août
2003). Traduction française dans Pélissier & Tête, 1995. p. 255-285.
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
99
Bibliographie
Autres sources
Claude Baltz. Séminaire Cyberespace, Université Paris-8. 2002-2003.
Claude Baltz. Éléments de cyberculture, 2000 (mise à jour 2002-2003). Fiches descriptives
du cadre de réflexion du Séminaire Cyberculture, Université Paris-8. 2002-2003.
Jean-François Pillou. Site http://www.commentcamarche.net/, « livre ouvert sur
l’informatique ». 1999-2003.
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine
100