Autour du cyberespace... ( PDF - 2.7 Mo)
Transcription
Autour du cyberespace... ( PDF - 2.7 Mo)
Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine Étude graphique pour une interface de navigation dans le cyberespace – que ce soit dans les documents et les applications personnels – quart inférieur droit de l’image – ou dans les ressources du réseau ; étude inspirée par la description du cyberespace de Gibson dans son roman Neuromancer. (Yorick, 1995). Michaël Thévenet Mémoire de DEA “Enjeux sociaux et technologies de la communication” Sous la direction de Messieurs Claude Baltz et Fabrice Papy Université Paris-8 Vincennes-Saint-Denis Année universitaire 2002-2003 Ce travail est diffusé sous licence LLDD version 1 (Annexe II) Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 1 Table des matières Remerciements..........................................................................................................4 Quand on dit “cyberespace”, de quoi parle-t-on!? ..................................... 5 Introduction formelle...............................................................................................5 Intermède contextuel ...............................................................................................7 Rien de plus formel qu’un ordinateur et un réseau ................................. 10 Le calcul ça se simule, signé Turing.....................................................................10 Que de géniteurs au chevet de l’ordinateur ........................................................14 Von Neumann, architecte ès ordinateurs ............................................................17 Information quantifiée, communication théorisée.............................................20 La mise en réseau, un besoin pragmatique .........................................................24 Baran, ange gardien des réseaux de communication.........................................26 D’Arpa à Inter, tout est net...................................................................................29 Visions et visionnaires la force du récit ................................................... 33 Si cybernétique m’était contée/comptée ..............................................................34 Au royaume du calcul règnent modèles et objets...............................................38 Penser et apprendre… bit à bit ............................................................................41 Se reproduire et évoluer… bit à bit......................................................................46 L’humain formalisé du calcul à la mémoire .......................................................51 L’hypertexte, ça lie… les inventeurs....................................................................54 En marche vers l’humain augmenté ....................................................................56 Alors le récit s’inscrivit dans la matière ..............................................................60 Un cyberespace plongé dans l’espace informationnel ............................ 63 Y’a de l’info dans l’infosphère..............................................................................67 L’hypertexte en trame de l’espace informationnel ............................................69 Pour le cyberespace!? Passez par Diderot….......................................................72 Mémoire!! rappelle-moi comment te lire.............................................................77 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 2 Au royaume des scripteurs et des copistes ..........................................................79 L’hypothèse du point de vue de la machine........................................................82 Où le cyberespace est Autre, conclusion temporaire................................ 87 Annexe I Visions de machines de vision .................................................. 89 TouchGraph GoogleBrowser................................................................................89 SimplePaint .............................................................................................................90 SpaceWar! ...............................................................................................................91 ArtMatic ..................................................................................................................92 Network Physics .....................................................................................................93 Annexe!II Licence de Libre Diffusion des Documents!v.!1...................... 94 Bibliographie ........................................................................................... 95 Ouvrages............................................................................................................................ 95 Articles............................................................................................................................... 97 Autres sources ................................................................................................................. 100 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 3 Remerciements L’image qui sert de fond au texte est une “erreur de lecture” qu’un vieux logiciel graphique a faite d’un fichier encore plus ancien ; défaut d’interprétation d’un même format par deux applications supposées le comprendre. En quelque sorte, la machine numérique a été laissée libre de s’exprimer en conservant cette interprétation imprévue de l’image originale, ci-dessous. Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 4 Quand on dit “cyberespace”, de quoi parle-t-on ? Partie 0 Quand on dit “cyberespace”, de quoi parle-t-on ? Introduction formelle À cette question comment répondre sinon par des volées de questions ? Le mot, la notion, et tout ce qui leur est lié : calcul, modélisation, simulation ; informatique, réseaux, énergie ; hypertexte, internet, texte ; société, mondialisation, économie ; fracture, bien commun, hackers… rien n’est clair, tout se brouille, rien n’éclaire. 1984. William Gibson met en scène Case, un hacker adepte de la navigation dans le cyberespace, dans Neuromancer. Ce “quelque chose” qu’il appelle cyberespace tire son nom à la simulation graphique dynamique de l’information dans laquelle se plonge Case pour opérer ; il doit aussi à Wiener, inventeur du terme cybernétique, en 1948. La fiction de Gibson ne décrit pas le présent mais un avenir proche où la technoscience est devenue levier de la domination – sociale, économique, politique, militaire. L’auteur est américain et, alors, solide trentenaire. Sa compréhension du potentiel exponentiel des ordinateurs mis en réseau puise dans quarante années d’histoire contemporaine. Celle où le triangle d’acier “armée-université-industrie”, financé de manière occulte par les gouvernements successifs des États-Unis, invente l’informatique et les réseaux. Celle où une assemblée cosmopolite de chercheurs est généreusement accueillie alors qu’ils fuient la guerre ; celle où, depuis, cette assemblée sert à asseoir la domination américaine par la domination technologique. En 1942, ils ne sont qu’une poignée, ceux qui assisteront la naissance de la cybernétique : physiologiste, neuropsychiatre, sociologue des comportements, médecin, et deux anthropologues. Ce qu’ils veulent ? Abattre les frontières disciplinaires, se dégager du “piège réductionniste” et pour cela miser sur la similarité entre cerveau et informatique, entre neurone biologique et neurone formel. Ils ne sont pas seuls à se convaincre que les avancées récentes des logiciens depuis les communications programmatiques de Hilbert (1900 et, surtout, 1928) ne sont pas un échec, à peine une désillusion. Gödel, Church et Turing ruinent pourtant les espoirs de Hilbert, et gâchent la fin de sa vie ; par leurs démonstrations, les mathématiques ne seront ni complètes, ni cohérentes, ni décidables. Les curieux de tout – les mathématiciens Wiener, Pitts ou von Neumann ; les ingénieurs Bush, Shannon, Baran, Engelbart ou Sutherland ; le neuropsychiatre McCulloch, etc. – travaillent dans d’innombrables directions en se parlant grâce à une lingua franca : le langage de la logique formelle. Les “fonctions primitives récursives” de Gödel font merveille dans les logical computing machines de Turing. Elles inspirent et laissent Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 5 Quand on dit “cyberespace”, de quoi parle-t-on ? Partie 0 s’exprimer le feedback de Wiener et l’architecture de von Neumann dans les calculateurs électroniques binaires. Au-delà du calcul, en voie d’automatisation depuis des siècles, ce sont des idées, des méthodes qui deviennent mécanisables. Le recensement, la statistique, la simulation trouvent dans le codage numérique la meilleure représentation fonctionnelle du langage algorithmique et dans l’informatique le meilleur support opératoire. Ces chercheurs et beaucoup d’autres créent le substrat – matériel et logiciel – où la quête de l’humain augmenté devient un objectif raisonné ; la méthode de Engelbart (1962) est prouvée par l’exemple (1968). Il en sort, entre autres questions nouvelles, celle du cyberespace. Le sens du terme se brouille au-delà de l’image romanesque. Quelles relations entretient cet “espace” avec l’information ; et qu’est-ce que l’information ? Et un espace ? Et que viennent faire communication, dialogue, interaction ? Si les interrogations sont là, l’effort de définition peine à suivre. Il laisse la place à un discours d’accompagnement destiné à emporter l’adhésion publique. Les communications prospectives des chercheurs entrent en écho avec la littérature de fiction. La science-fiction décrit les futurs possibles, et inscrit l’idée du progrès technoscientifique comme coextensive de la notion de progrès, notion à la Comte revue sauce Saint-Simon. Les scientifiques puisent dans ces lectures fictionnelles les images mentales qui les guident dans leurs recherches. Car si le cyberespace est un espace de nature informationnel, quelle relation entretient-il avec notre espace mental ? Jusqu’à quel point comprenons-nous la machine numérique, la “machine univers” de Lévy – jusqu’où pouvons-nous pousser le dialogue que nous avons entamé, chacun individuellement, avec l’humanité par l’inclusion de ce tiers machinique ? Le cyberespace est par essence un outil jailli de la mise en réseau des ordinateurs. Un outil étrange, qui se contient lui-même. Il lit et écrit les langages formels, les code en binaire pour opérer. Il répond à nos demandes lorsqu’elles sont conformes à ses règles. Il est capable d’autorégulation, de décision, d’évolution, d’autonomie – tous qualificatifs à entendre dans un sens très restrictif jugé à l’aune de l’humain mais dans un sens libérateur du point de vue de l’outil, s’il en avait conscience. Nous demandons à cet outil de nous aider à gérer l’explosion informationnelle pour en faire une explosion de la connaissance. Comprendre ce que cyberespace veut dire, c’est dessiner une carte aussi précise que possible, chausser les meilleures lunettes pour la lire. Déterminer où se trouve l’information, quelle est sa composition, comment elle s’organise. Percevoir en creux le “medium is the message” de McLuhan dans une information stockée différemment par le cyberespace, par notre espace mental, par la matière inerte, par le biologique, et qui passe d’un code à l’autre. Quelles sont donc les structures, les voies par où la communication transmet l’information ? Le dialogue s’établit entre l’humanité et la machine évolutive par l’exploitation du code que nous ne cessons d’inscrire dans ses mémoires. N’y aurait-il pas des savoirs nouveaux à découvrir dans le point de vue de la machine sur le code, point de vue que nous découvririons à son insu, incapable qu’elle est de prendre conscience d’ellemême ? Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 6 Quand on dit “cyberespace”, de quoi parle-t-on ? Partie 0 Saisir d’un seul regard tout le cyberespace ; le positionner par rapport à d’autres termes connexes – espace informationnel, infosphère ; estimer la pertinence du concept ; esquisser quelques hypothèses sur l’objet, ses règles fonctionnelles, ses caractéristiques… Le programme est défini. Intermède contextuel Cette recherche constitue une première tentative de construction scientifique autour d’une intuition née d’une longue fréquentation des ordinateurs et des réseaux. Aiguillonnée par la curiosité elle a resurgi pendant des années, à tout moment : au détour d’une conversation, devant un écran, à la lecture des médias, en programmant, au cinéma, en rêvant… Une phrase presque anodine la résumait alors : « L’infosphère, pas un brin d’herbe ne lui 1 échappe. » Nous parlions de cartographie tridimensionnelle de la planète (figure 0.1) ; de réseaux satellitaires quantifiant en continu la biosphère ; de numérisation intégrale de la finance ; des conséquences bien réelles des activités immatérielles ; de représentation numérique de l’individu ; de surveillance orwellienne ; de simulation dynamique de l’information ; de politique mondiale… Nous parlions aussi de la dépendance croissante de 2 l’humanité envers ce macrosystème technique qu’est devenu l’informatique mise en réseaux. Figure 0.1 : Le mont Kilimandjaro tel qu’il a été cartographié en trois dimensions par la mission militaire américaine Shuttle Radar Topography Mission en février 2000, mission au cours de laquelle l’altitude de l’ensemble des terres émergées a été numérisée. Les données publiques ont une précision de 60 m ; les militaires américains se réservent l’usage des données dont la précision est inférieure à 30 m, comme toujours avec leur quête obsessionnelle de la domination technologique. (Source : site du projet SRTM, http://srtm.usgs.gov/.) Trouver quel fil attraper prit plus de temps qu’à un chat pour débrouiller une pelote. À l’évidence d’une informatique réticulaire omniprésente dans les sociétés occidentalisées, et avec quelles conséquences, s’oppose un chaos d’approches – crédibles ou non – de légions Quelques échos de cette période se trouvent en ligne, dans Raccourc(h)istoire de boson2x. URL : http://www.boson2x.org/article.php3?id_article=2 (dernier accès le 2 septembre 2003). 2 Alain Gras a choisi de traduire les expressions “Large Technical Systems” – de l’américain Tom P. Hughes – et “Grosstechnische Systeme” – des Allemands Renate Mayntz et Bernward Joerges – en “macrosystèmes techniques” ou MST, malgré la polysémie ambiguë du sigle. Pour lui, ces « macrosystèmes techniques ne sont que des intermédiaires, des “grands communicateurs”, comme transports ferroviaires et aériens, télécommunications, approvisionnement énergétique et alimentaire, électricité, informatique, demain peut-être transfert d’organes… mais ils s’insèrent dans le social en imposant une nouvelle dépendance à l’individu qui ne peut vivre que branché sur ce “poumon artificiel” » (Alain Gras, Le bonheur, produit surgelé, in Gras & Moricot, 1992. p. 17). 1 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 7 Quand on dit “cyberespace”, de quoi parle-t-on ? Partie 0 de scientifiques, philosophes, politiques, artistes, économistes, sociologues, futurologues, programmeurs, commentateurs… ajoutant au chaos ambiant la confusion des termes, des définitions et des concepts ; véritable tsunami d’incompréhension mutuelle dispersant les points de vue. Le retour aux sources s’imposait. e La relecture des pères fondateurs à la lumière du XXI siècle – ceux qui pensèrent l’informatique et les réseaux comme théorie, ceux qui repensèrent ces théories pour les incorporer dans le réel – fut salvatrice. Il en surgit une image complexe, dense, multidimensionnelle, fractale où trouver des bases à l’édifice. Encore fallait-il renoncer à beaucoup pour y découvrir une structure. Des pans entiers de l’histoire des mathématiques, des langages, de la technique, de la philosophie ont basculé hors du texte mais pas 3 totalement, subsiste un hypertexte tissé autour de lui. 4 Lister les contributeurs à l’éclosion du NewMedia n’aurait pas de sens. Prétendre brosser ici une histoire complète de l’informatique, des réseaux, d’Internet non plus. La focalisation sur deux poignées de pionniers a suivi quelques axes régulateurs : — les mathématiques qui imprègnent cet univers calculatoire mécanisé issu de notre univers mental, fil conducteur vers la formalisation logique, le codage automatisé, les langages informatiques, les réseaux ; — l’information dont la définition s’enroule et s’enfuit, processus ou résultat ?, mais qui reste soluble dans la communication ; — la représentation graphique, art ancien de l’icône effacé derrière le texte linéaire, qui revient habillée en langage symbolique de simulation 5 dynamique par la grâce des “médias électriques” ; — la fiction et la science-fiction, connexes aux prospectives futuristes des chercheurs, qui accoutument nos imaginaires à une technoscience aux vertus discutables mais indiscutablement présente ; — l’humanité en soi, comme créatrice d’un outil unique à la frontière des langages et de la technique, et qui y a trouvé un interlocuteur disert. Le travail d’écriture a débuté par un projet de mémoire (L’infosphère, lieu d’existence de l’objet numérique, septembre 2002. URL : http://www.boson2x.org/article.php3?id_article=50). Il s’est poursuivi en ligne avec une recherche sur le vocabulaire, publiée dans le laboratoire de boson2x (Infosphère ou la quête du mot juste, avec Renaud Bonnet, 20 décembre 2002-3 avril 2003. URL : http://www.boson2x.org/article.php3?id_article=58). Un certain nombre d’articles connexes (Lévy, Souchier, Floridi, Quéau, Cuvillier, Diki-Kidiri, Nicolescu…) ont été mis en ligne dans le journal du site (URL : http://www.boson2x.org/rubrique.php3?id_rubrique=10). 4 Le terme est employé par des chercheurs américains pour désigner, d’une manière très générale l’histoire des techniques et l’histoire culturelle qui aboutissent à fondre toute communication dans le “média numérique”. 5 « Nous vivons aujourd’hui dans l’âge de l’information et de la communication parce que les médias électriques créent instantanément et constamment un champ global d’événements en interaction auquel tous les hommes participent. Désormais, le monde de l’interaction publique possède le même aspect englobant d’interaction intégrante qui était jusqu’ici le propre de notre système nerveux individuel. » (McLuhan, 1968. p. 285) 3 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 8 Quand on dit “cyberespace”, de quoi parle-t-on ? Partie 0 Quelques chercheurs donc, et des visionnaires, ont tracé la voie pluridisciplinaire où s’est épanoui le cyberespace. L’éclosion théorique ne serait rien sans la volonté politique de domination militaire par la technologie qui prend corps aux États-Unis dans la période 1940-1945. La bascule unanime de la société américaine dans “l’aventure numérique” arrive à la fin du conflit ; entraînant avec elle toutes les nations occidentalisées – laquelle n’a pas eu son “plan Calcul” ? – et aussi l’URSS. En cinquante ans, la méthode de Engelbart a diffusé partout, elle est opérante et productive. 6 Les théories contemporaines des sciences infocom s’élaborent dans cet espace conceptuel où la complexité peut être rationalisée à défaut d’être appréhendée. Et si l’humain par ses ressources propres n’y suffit pas, l’humain augmenté par le dialogue avec le cyberespace y parviendra éventuellement. L’algorithme de recherche est prêt à fonctionner, récursif à souhait comme le permettent les “fonctions primitives récursives” de Gödel appliquées à la mécanisation du calcul. Voici un an, dans la zone de saisie était inscrit “infosphère”. La liste de résultats a été distillée : renoncer à tout écrire, c’est commencer à écrire. Si en France nous parlons de sciences de l’information et de la communication ou “sciences infocom”, les Anglo-Saxons parlent de “media studies” qui héritent en ligne directe des recherches sur la propagande menées en Allemagne comme aux États-Unis dès les années 1930. 6 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 9 Rien de plus formel qu’un ordinateur et un réseau Partie 1 Rien de plus formel qu’un ordinateur et un réseau Comme évoqué précédemment, il n’est pas de cyberespace sans substrat technique et logique. Nous verrons plus loin que la frontière entre les deux espaces, physique et numérique, est rien moins que simple à tracer. Mais avant même de songer à la situer, si tant est que cela soit possible, il s’avère nécessaire de saisir ce qui compose ce substrat. Un rapide parcours historique dans les travaux des pères de l’informatique et des réseaux semble le meilleur chemin à suivre pour éclairer le présent. L’informatique, telle que nous la connaissons aujourd’hui dans son immense diversité, repose sur très peu d’éléments de base : des architectures matérielles et logicielles conçues pour opérer des calculs, des algorithmes encodés dans des programmes, des équipements d’interface pour permettre la communication entre humains et machines, d’une part, et entre machines, d’autre part. Ces briques élémentaires sont une forme d’aboutissement du travail de quelques scientifiques. Les fondations théoriques qu’ils ont posées dans les années 1930 à 1960 portent en germe tout ce que nous connaissons aujourd’hui, et bien d’autres réalisations qui n’ont pas encore vu – et ne verront peut-être jamais – le jour. Ces pères de l’informatique et des réseaux ont en commun une très solide culture mathématique, doublée d’une curiosité insatiable pour d’autres domaines de la connaissance – mécanique quantique, neurologie, psychologie, linguistique mais aussi philosophie, éthique, politique… Ce socle mathématique constitue, indéniablement, l’un des points de repère les plus fiables à l’instant de remonter le temps à la recherche des origines de l’informatique. Le calcul ça se simule, signé Turing Il ne s’agit pas ici de retracer toute l’aventure de la mécanisation du calcul mais de rappeler les apports essentiels qui aboutirent à la mise au point des calculateurs numériques. Viennent en tout premier lieu ceux des mathématiciens qui se sont confrontés aux trois 1 questions de David Hilbert , proposées à la réflexion de la communauté des chercheurs lors Les trois questions rapportées ici (Shallit, 1995) sont moins célèbres que les 23 problèmes prioritaires à traiter que Hilbert soumit à ses collègues au Deuxième Congrès International des Mathématiciens de 1900, à Paris. Dans un cas comme dans l’autre, l’influence qu’a exercée Hilbert sur l’évolution de la recherche en mathématique est majeure. Comme chef de file de l’école de pensée dite “formaliste”, pour qui la méthode axiomatique joue un rôle essentiel, il s’oppose au courant “intuitionniste” ou “constructiviste”, pour qui les objets mathématiques doivent être engendrés par des procédés de construction qui restent contrôlés par l’intuition. Finalement, c’est l’influence de Hilbert et de la pensée “axiomatique” qui restera prédominante et qui exercera une influence considérable sur le développement des mathématiques contemporaines. 1 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 10 Rien de plus formel qu’un ordinateur et un réseau Partie 1 du Congrès International des Mathématiciens de 1928. Seraient-elles démontrées que l’arithmétique tout entière pourrait dériver d’un système logique formel : 1. les mathématiques sont-elles c o m p l è t e s ? (Soit, tout énoncé mathématique peut-il être soit prouvé, soit réfuté ?) ; 2. les mathématiques sont-elles cohérentes ? (Soit, peut-on être sûr que des raisonnements valides ne conduiront pas à des absurdités ?) ; 3. les mathématiques sont-elles décidables ? (Soit, existe-t-il un algorithme pouvant dire de n’importe quel énoncé mathématique s’il est vrai ou faux ?). Ces questions de Hilbert vont trouver réponse en deux temps. En 1931, le mathématicien Kurt Gödel répond négativement aux deux premières en démontrant que tout système formel suffisamment puissant est soit incohérent, soit incomplet ; il laisse son nom associé au théorème d’incomplétude : « Il existe des théorèmes, c’est-à-dire des énoncés vrais, pour lesquels il n’y a pas de preuve. » Il ajoute aussi un outil formel d’une plasticité 2 étonnante, les “fonctions primitives récursives” . La troisième question, aussi nommée Entscheidungsproblem, est résolue indépendamment en 1936 par deux mathématiciens, 3 Alonzo Church et Alan Turing (Turing, 1937). La démonstration qu’en donne ce dernier est d’une portée beaucoup plus générale, l’indécidabilité de l’arithmétique, que la démonstration exposée par Church, qui se limite aux fonctions récursives portant sur les entiers. 4 Pour la mener à bien, Turing élabore un modèle formel de calculateur au fonctionnement extrêmement simple. Il décompose les opérations de calcul en actions les plus élémentaires possible jusqu’à définir un ensemble de règles. Sa machine utilise comme mémoire un ruban de papier, de longueur infinie, segmenté en cases régulières, qui peut défiler « Le corps de la preuve du théorème de Gödel est un ensemble de preuves que certaines fonctions et relations sont primitivement récursives et que certains modes de construction de fonctions et de relations à partir d'autres fonctions et relations, préserve la récursivité primitive. Nous ne discuterons pas ici l'intégralité de la preuve et nous nous bornerons à examiner certains passages particulièrement révélateur de la façon de procéder d'un logicien. […] Exposé de la preuve : 1. Les fonctions Zn(x) = 0, 1, 2, ... sont primitives récursives. 2 2. Les fonctions obtenues par permutations des variables, spécification des variables, substitutions des variables par des constantes dans une fonction primitive récursive, sont primitives récursives. 3. L'addition, la multiplication, l'exponentiation et une soustraction limitée sont des fonctions primitives récursives. [etc.] » (Loubière, 1992) 3 Alonzo Church demeure plus connu pour ses travaux sur le langage nommé lambda-calcul, élaboré dès 1931-1932 pour résoudre des problèmes de logique. Le lambda-calcul « permet trois opérations grammaticales élémentaires, dont les programmeurs ont découvert ultérieurement qu’elles étaient à la base de toutes les opérations commandées à un ordinateur : préciser l’adresse des instructions, préciser l’adresse des données et exécuter » (Basquiat & Jacquemin, 2002). Il est en quelque sorte le précurseur de tous les langages de programmation fonctionnels et a imposé le concept d’algorithme. 4 Turing désigne ses machines par l’expression logical computing machines ou, plus souvent, le sigle LCM. Une simulation de trois de ces machines est proposée sur le site The Alan Turing Internet Scrapbook (URL : http://www.turing.org.uk/turing/scrapbook/tmjava.html). Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 11 Rien de plus formel qu’un ordinateur et un réseau Partie 1 indifféremment d’une case vers la droite ou vers la gauche. Un curseur indique quelle case du ruban doit être lue, ou écrite, par la machine. On inscrit la donnée initiale du calcul sur le ruban, on place le curseur face à la première case de la donnée initiale, puis la machine fonctionne grâce à ses règles jusqu’à atteindre un état particulier marquant la fin du calcul. Le résultat est alors lisible sur le ruban. 5 Toute opération calculable peut être conduite à bien avec une machine de Turing construite avec les règles appropriées. Comme le note Guillaume Watier, « une telle machine est équivalente à un programme d’ordinateur » (Watier, 2001. p. 35). Ce calculateur formel permet à Turing de mettre en évidence qu’il existe des problèmes indécidables. Preuve en est donnée, par exemple, avec le problème de l’arrêt, que l’on peut formuler ainsi : « Soit un algorithme et une donnée initiale ; l’algorithme lancé avec cette donnée va-t-il s’arrêter ou s’exécuter indéfiniment ? » Une machine de Turing construite avec comme seule règle “Si, dans l’état initial, le curseur désigne un blanc, alors conserver ce blanc, rester dans cet état et décaler le curseur à droite” se bloque dès qu’elle rencontre une donnée sur le ruban (car aucune règle ne s’applique) ou fonctionne indéfiniment 6 lorsque le ruban est vierge. Si l’ensemble des machines de Turing sont des équivalents de programmes, alors les machines universelles constituent les équivalents d’ordinateurs car elles sont capables d’interpréter ces programmes. La donnée initiale d’une machine universelle regroupe différentes informations : les règles de la machine de Turing à faire tourner et la donnée initiale du calcul qu’elle doit mener. Appliquant ses règles propres, la machine universelle 7 lit les règles de la machine décrite et traite en fonction la donnée figurant sur le ruban. Machines universelles et machines de Turing combinées décrivent, sous forme d’automates formels, un système complet de traitement automatisé de l’information (même si nous serions bien en peine de le construire). La machine universelle donne « à la simulation sur automate calculateur des garanties théoriques de portée universelle » (Pélissier & Tête, 1995. p. XV), ce dont étaient privés tous les calculateurs numériques et analogiques « Selon la vue mathématique, abstraite, le calcul est la manipulation de symboles grâce à des règles. Les données du problème, des nombres, sont représentées par des symboles dans des formules et, en appliquant la suite de règles appropriée, on obtient un résultat que l’on sait interpréter pour avoir une réponse au problème. Les règles sont des lois bien définies qui permettent de transformer une formule en une autre ; cette transformation n’est autre qu’une étape du calcul. » (Watier, 2001. p. 5) 6 Incidemment, Turing, avec son théorème de l’arrêt, fixe l’une des limites théoriques de l’algorithmique : il est impossible d’écrire un programme qui puisse établir la “preuve d’un programme”, à savoir de montrer que l’exécution d’un programme va bien s’arrêter et, de surcroît, donner le résultat attendu. Néanmoins, toute une branche de l’informatique s’intéresse à la preuve des programmes, comme une autre branche se consacre à la démonstration automatique de théorèmes (Dowek, 2003), malgré la limite posée à la logique par les théorèmes de Gödel. 7 Turing, au cours des années, se référera sans cesse aux LCM et à la ULCM. Ainsi, par exemple, en 1948 : « L’importance de la machine universelle est évidente. Nous n’avons pas besoin d’une infinité de machines pour réaliser une infinité de tâches. Une seule suffira. Le problème d’ingénierie qui consiste à concevoir différentes machines pour différentes tâches est remplacé par le travail de bureau qui consiste à “programmer” la machine universelle pour accomplir ces tâches. » (Turing, 1948. p. 5) 5 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 12 Rien de plus formel qu’un ordinateur et un réseau Partie 1 antérieurs. Le mathématicien en donnera une illustration concrète, à la fin des années 1940, en dirigeant le développement de l’ordinateur britannique Automatic Computing Engine ou ACE (devenu Deuce dans sa version commerciale). Mais leur inventeur ne travailla pas immédiatement sur les conséquences de sa découverte hors du champ mathématique : « La mécanisation abstraite que Turing avait imaginée dans les années trente 8 pour éprouver la non-calculabilité du nombre diagonal n’était pas à l’origine destinée à garantir théoriquement l’ingénierie des futurs ordinateurs. Par quels détours y seraient-ils parvenus si la Seconde Guerre mondiale n’avait pas précipité les perfectionnements technologiques et mobilisé les chercheurs dans l’effort de guerre ? » (ibid. p XVI) Comme Turing, qui mène les recherches sur le cryptage pour le gouvernement anglais et collabore sur ce sujet avec le gouvernement américain, la plupart des scientifiques vivant aux États-Unis s’engagent ou sont enrôlés dans les recherches militaires. Ainsi en va-t-il 9 pour Vannevar Bush , John von Neumann, Norbert Wiener et bien d’autres. Les recherches jugées prioritaires sont directement financées par l’État dans le cadre de l’effort de guerre. D’autres, estimées moins urgentes, trouvent de généreux donateurs, la fondation Joshua 10 Macy par exemple. Au total, ce n’est pas seulement le projet Manhattan, pour la construction de la première bombe atomique, qui se trouve au centre de l’attention des militaires américains mais tous les développements susceptibles de donner un avantage 11 technologique décisif sur l’adversaire . Il s’agit ici de la diagonale de Cantor, qui montre qu’aucune liste ne peut comprendre tous les nombres réels, c’est-à-dire tous les nombres à infinité de décimales. 9 Vannevar Bush peut légitimement être considéré comme le père du complexe militaro-industriel aux États-Unis. En juin 1940, il convainc Franklin D. Roosevelt de le financer et le soutenir politiquement pour mettre sur pied une nouvelle forme de collaboration entre les militaires, l’industrie et le milieu universitaire ; en dehors de tout contrôle extérieur, y compris du Congrès américain. Bush prend la direction d’une nouvelle agence, baptisée Office of Scientific Research and Development (OSRD), où il mènera son projet de main de maître : « Son influence, et l’étendue de cette nouvelle collaboration, crût considérablement au cours des cinq années suivantes. Le résultat fut appelé “complexe militaro-industriel” par Dwight Eisenhower, mais cette structure serait sans doute plus justement nommée le “triangle d’acier”, [qui] a joué un rôle décisif dans l’histoire du nouveau média. » (Wardrip-Fruin & Montfort, 2003. p. 35) 10 La Fondation Joshua Macy consacre son activité à la recherche médicale. On associe la naissance de la cybernétique à une série de dix conférences qui se sont déroulées, sous ses auspices, de 1946 à 1953. Cette série de conférences n’aurait jamais eu lieu sans la première rencontre de mai 1942, le “Cerebral Inhibition Meeting”, auquel assistèrent Lawrence K. Frank (sciences humaines), les anthropologues Margaret Mead et Gregory Bateson, les neuropsychiatres Warren McCulloch et Lawrence Kubie, le physiologiste Arturo Rosenblueth. Ces participants inauguraux furent de toutes les conférences Macy, initiées par McCulloch. 11 La doctrine d’alors est toujours d’actualité ; il n’est que de lire la rhétorique des membres influents du gouvernement américain actuel, ou d’écouter les discours du Président George W. Bush, pour s’en convaincre. 8 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 13 Rien de plus formel qu’un ordinateur et un réseau Partie 1 Que de géniteurs au chevet de l’ordinateur Fait remarquable, les études portent aussi bien sur la conception de systèmes de calcul automatisés que sur la neurophysiologie ou la psychologie. Plus important encore, quelques scientifiques comprennent l’impérieuse nécessité de partager leurs connaissances et organisent les rencontres interdisciplinaires qui permettront des avancées théoriques et appliquées insoupçonnées jusqu’alors. C’est dans ce bouillonnement intellectuel sans précédent que vont être posées les bases de ce qui deviendra l’informatique. Les priorités fixées par Bush vont jouer un rôle déterminant sur les recherches conduites par le mathématicien qu’est Wiener. Celui-ci rédige une note par laquelle il espère convaincre Bush de lui accorder les moyens de financer le développement des calculateurs numériques électroniques. Envoyée à l’été 1940, et restée longtemps secrète, cette note circulera comme document classé “secret défense” pendant des années avant d’être publiée. Wiener en rappelle les grands principes dans l’introduction de son livre Cybernetics : or Control and Communication in the Animal and the Machine (1948). Loin d’être le perfectionnement de l’analyseur différentiel élaboré par Bush, son modèle de calculateur électronique découle d’une réflexion originale nourrie d’observations variées – des tubes cathodiques en usage dans les télévisions aux commutateurs des centraux téléphoniques : « Ainsi, les exigences suivantes furent formulées : 1. dans la machine à calculer, le dispositif central qui additionne et multiplie devrait être numérique, comme dans une machine qui additionne ordinaire plutôt que fonctionnant sur la base de mesures comme dans l’analyseur différentiel de Bush ; 2. ces mécanismes, qui sont essentiellement des dispositifs de commutation, devraient dépendre de tubes électroniques plutôt que d’engrenages ou de relais mécaniques de façon à assurer une action plus rapide ; 3. que, en fonction de la politique adoptée dans certains dispositifs existants des laboratoires de la Bell Telephone, il serait sans doute plus économique d’adopter pour le dispositif la base deux pour l’addition et la multiplication plutôt que la base dix ; 4. que la séquence entière d’opérations soit installée sur la machine ellemême de telle sorte qu’il ne devrait y avoir aucune intervention humaine à partir du moment où les données sont entrées jusqu’à ce que les résultats finaux soient obtenus ; et que toutes les décisions logiques nécessaires pour réaliser cette condition soient intégrées à la machine elle-même ; 5. que la machine contienne un dispositif pour le stockage des données qui les enregistre rapidement, les conserve en sécurité jusqu’à l’effacement, les lise rapidement et les efface de la même façon et qu’alors, il soit Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 14 Rien de plus formel qu’un ordinateur et un réseau Partie 1 immédiatement disponible pour le stockage de nouvelles données. » (Wiener, 1948, in Pélissier & Tête, 1995. p. 9) La deuxième exigence de Wiener pose le principe d’un appareillage intégralement électronique, proposition en rupture avec les usages d’alors où tous les équipements de calcul scientifique sont électromécaniques. Leurs circuits, qui représentent analogiquement les étapes du calcul, doivent être remplacés par le comptage électronique, qui traite des successions d’événements discontinus, pour des raisons de performance et d’autonomie. Et la quatrième exigence, qui plaide pour le non-interventionnisme humain dans les processus de calcul, montre bien ce qui est attendu de l’automatisation du calcul. Pour gagner en vitesse de traitement, toute intervention humaine en cours de calcul doit être bannie. Il faut donc rendre la machine la plus autonome possible en la dotant d’une capacité de décision logique, tout en garantissant à l’opérateur humain l’obtention des résultats finaux, quels qu’aient été les états intermédiaires franchis par la machine. En somme, Wiener propose de déléguer des tâches opératoires, qui jusqu’alors ne reposaient que sur les capacités humaines, au calculateur électronique. Il devient ainsi « totalement autonome dans l’exploitation des règles nécessaires au déroulement du calcul et dans le stockage et la disponibilité des informations (alors que l’analyseur différentiel réclame l’intervention humaine en cours de calcul pour introduire opportunément les décisions logiques) » (Pélissier & Tête, 1995. p. 4). Bush ne se laisse pas convaincre par les suggestions de Wiener. Il lui demande en revanche de s’intéresser à une demande strictement militaire : compte tenu de l’usage du radar, de la maniabilité et de la vitesse des avions de chasse, comment assurer une défense antiaérienne efficace ? Il ne s’agit pas ici d’améliorer des techniques existantes mais de s’affronter à un double questionnement théorique : « d’une part, la prévision d’une trajectoire curvilinéaire, d’autre part, l’organisation neurologique du système sensori-moteur humain » (ibid.). Ce qui revient à considérer cette demande de Bush comme une question de “communication et de contrôle” où la frontière entre le système technique et l’humain doit s’estomper puisqu’il s’agit de les faire collaborer de manière optimum. Les travaux, que Wiener mène alors avec l’ingénieur Julian H. Bigelow, portent en particulier sur la théorie de la prédiction et la construction du dispositif qui concrétiserait cette théorie. Comme le rapporte Wiener lui-même, « […] pour la deuxième fois, je m’étais engagé dans l’étude d’un système électromécanique 12 qui était conçu pour usurper une fonction spécifiquement humaine – dans le premier cas, il s’agissait de l’exécution d’un En l’occurrence, il s’agit de mettre au point un système de pointage automatique des batteries antiaériennes susceptible d’épauler l’artilleur. Le problème est bien de nature prédictive : il ne faut pas envoyer l’obus sur l’avion, mais en avant de l’avion, à un endroit où l’on suppose qu’il pourra rencontrer son objectif. C’est lorsque cette supposition se révèle exacte qu’il est judicieux de parler de “prédiction”. 12 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 15 Rien de plus formel qu’un ordinateur et un réseau Partie 1 pattern compliqué de calcul ; et dans le second, la prévision du futur. » (Wiener, 1948, in Pélissier & Tête, 1995. p. 11) C’est dans ce contexte de recherches qu’il publie avec Bigelow et Arturo Rosenblueth, en 13 1943, un article fondamental sur la notion de rétroaction : Behavior, Purpose and Teleology. L’objectif des auteurs est clair : il s’agit de penser le but (purpose) et la 14 téléologie (teleology) sans réintroduire la causalité, initiale ou finale. Reprenant le 15 principe de la “boîte noire” des psychologues béhavioristes, ils postulent l’existence d’un feedback interne de la sortie sur l’entrée, affecté d’un signe positif ou négatif, pour expliquer certains comportements (behavior). Fait essentiel, la notion de rétroaction reçoit dans cet article « une acceptation informationnelle dont elle était jusque-là dénuée […] : la causalité circulaire n’affecte pas essentiellement l’énergie d’un système mais l’information qui régule la finalité de son comportement » (Pélissier & Tête, 1995. p. 5). Il est désormais nécessaire de distinguer, dans les recherches, la structure informationnelle et la structure matérielle du feedback. C’est cette double dimension du mécanisme de rétroaction qui va permettre à Wiener d’en étendre l’application aux machines à calculer automatiques, jusqu’à en proposer un modèle formel (figure 1.1), publié dans son livre Cybernetics. Figure 1.1 : Ce diagramme montre le principe d’un appareillage doté d’un système de correction d’erreur par feedback. Le cercle indique que la réponse réelle obtenue en sortie est comparée à la réponse désirée (boîte “feedback parameter”), ce qui donne le signal de correction. Lorsque le contre-signal agit pour réduire le signal en sortie, on parle de feedback négatif ; lorsqu’au contraire le contre-signal agit pour augmenter le signal en sortie, on parle de feedback positif. Les mécanismes de rétroaction, ou feedback, ont été formalisés par Clerck Maxwell dans un article, paru en 1868, consacré aux régulateurs des machines à vapeur de James Watt. Il aura donc fallu près de quatre-vingts ans pour qu’une généralisation de ces mécanismes soit proposée. 14 La téléologie peut être définie comme une « doctrine qui considère que dans le monde tout être a une fin, qui conçoit le monde comme un système de relations, de rapports entre des moyens et des fins » (Trésor de la langue française informatisée, 2003). 15 Selon John B. Watson, père du béhaviorisme, tout comportement ne peut s’observer que de l’extérieur sous forme d’une liaison entre le stimulus et la réponse ; en conséquence, ce qui se passe dans l’organisme ne relève pas de l’observation, d’où la notion de boîte noire. 13 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 16 Rien de plus formel qu’un ordinateur et un réseau Partie 1 Von Neumann, architecte ès ordinateurs Le mathématicien John von Neumann, qui contribue entre autres au projet Manhattan, étudie durant ces années de guerre aussi bien la neurologie que la mécanisation du calcul symbolique. Comme Wiener, il est convaincu de la nécessité d’échapper à la spécialisation ; il appartient d’ailleurs au premier cercle de ceux que l’on appellera les “cybernéticiens”, tout comme Warren S. McCulloch ou Walter Pitts. 16 Von Neumann écrit, en juin 1945, le First draft of a Report on the EDVAC , qui théorise les travaux de construction de l’ordinateur Edvac, en cours à la More School of Engineering de l’Université de Pennsylvanie. Dans ce “brouillon”, von Neumann se réfère explicitement aux travaux de McCulloch & Pitts, publiés en 1943 dans l’article A logical calculus of the ideas immanent in nervous activity. L’idée fondatrice des deux auteurs est de traiter le cerveau comme une machine de Turing. Ils proposent un modèle formel du fonctionnement et de la structure élémentaire du cerveau qui met en équivalence l’activité nerveuse et la 17 logique propositionnelle. Les auteurs donnent ainsi forme au concept de neurone formel . La mise en réseau de ces neurones formels revient à mettre en relation des propositions. McCulloch & Pitts en déduisent qu’un réseau de connexions entre des propositions simples peut donner lieu à des propositions très complexes. Autrement dit, des éléments simples connectés en réseau ont un pouvoir calculatoire immense. Cette approche formelle du cerveau, alors très en vogue, cherchait à estomper la frontière entre l’animal et la machine jusqu’à la rendre imperceptible. Le First draft of a Report on the EDVAC s’inspire de la terminologie et du symbolisme de l’article de McCulloch & Pitts pour décrire les principes architecturaux et fonctionnels d’un calculateur à programme mémorisé. Von Neumann y formalise la distinction entre matériel et logiciel. Il pointe aussi l’analogie qui existe entre un tel calculateur et le cerveau humain. Ce document, largement diffusé par Herman Goldstine aux États-Unis mais aussi en Grande-Bretagne, deviendra la référence obligée de toutes les équipes qui développent les Le Premier brouillon pour un rapport sur l’Edvac n’est signé que de John von Neumann. Même s’il en est bien l’auteur, les résultats qui y sont présentés sont le fruit du travail de l’équipe de la More School of Engineering qui travaillait à la mise au point de l’Edvac, premier ordinateur à programme mémorisé ; à savoir J. Presper Eckert, John W. Mauchly, Arthur Burks et Herman Goldstine. Une polémique s’en est suivie, Eckert et Mauchly contestant la paternité de ces résultats à von Neumann. Ils tenteront même de déposer un brevet sur cette architecture en 1947, demande de brevet que le gouvernement américain refusera d’entériner, garantissant ainsi sa diffusion massive. 17 Il s’agit d’un dispositif binaire auquel un seuil est fixé. Il reçoit des entrées de synapses excitatrices, de poids équivalent, et de synapses inhibitrices, qui agissent de manière absolue. Le temps est pris en compte dans le modèle, l’intégration synaptique formelle reproduisant le délai synaptique observé physiologiquement. Son mode de fonctionnement se déroule en trois phases : – pendant un quantum de temps, le neurone répond à l’activité de ses synapses, qui reflète l’activité des cellules présynaptiques ; – si aucune synapse inhibitrice n’est active, le neurone somme les entrées synaptiques ; – le neurone compare le résultat au seuil fixé. S’il est franchi, le neurone est actif, sinon il est inactif. 16 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 17 Rien de plus formel qu’un ordinateur et un réseau Partie 1 18 premiers ordinateurs . Il y est décrit une structure universelle de machine à calculer et ses constituants de base : — l’unité arithmétique et logique : c’est l’organe de calcul proprement dit, susceptible d’exécuter les opérations arithmétiques et logiques (addition, soustraction, multiplication, division ; mais aussi, éventuellement, interpolations, logarithmes, fonctions trigonométriques, etc.) ; — la mémoire, ou mémoire centrale : elle sert à la fois à contenir les programmes décrivant la façon d’arriver aux résultats, les données à traiter et les résultats intermédiaires ; — les organes d’entrée-sortie, ou périphériques : ils servent d’organes de communication avec l’environnement et, en particulier, avec les humains ; — l’organe de commande, ou unité de contrôle (control unit) : elle assure le fonctionnement cohérent des éléments précédents. L’ensemble formé par l’unité arithmétique et logique, d’une part, et l’organe de commande, d’autre part, constitue l’“unité centrale” ou “processeur”. L’ensemble des composants physiques, appelé matériel (hardware), est commandé par un logiciel (software). Les relations qui existent entre les constituants de base de la machine de von Neumann sont de deux natures : passage d’une commande, d’une part, et passage de données, d’autre part (voir figure 1.2). Ces éléments nécessaires s’avèrent suffisants pour donner corps à la notion de “programme stocké”, apport considérable de von Neumann qui transforme les machines de Turing en automates fonctionnels. Certes, l’unité centrale ne peut effectuer qu’un ensemble restreint d’opérations élémentaires, spécifiées à l’aide d’instructions. L’ensemble des instructions exécutables 19 constitue le jeu d’instructions, qui caractérise une architecture donnée . La puissance de l’architecture dont von Neumann nous offre la vision synthétique tient dans l’automatisation de l’enchaînement des processus formels, pivot de la combinaison des instructions élémentaires en programmes qui pourront être exécutés en parallèle, sans intervention humaine, plutôt qu’en séquentiel, avec intervention humaine réquisitionnée. La quasi-totalité des ordinateurs contemporains repose toujours sur cette organisation logique et matérielle, d’ailleurs appelée “architecture de von Neumann”. 18 La variation du jeu d’instructions d’une unité centrale à l’autre est ce qui impose d’écrire les programmes spécifiquement pour chaque architecture. Cette contrainte, intrinsèque aux choix faits lors de la conception des différents ordinateurs, va motiver des recherches nombreuses autour de la notion d’interopérabilité ; ces recherches sont toujours d’actualité. 19 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 18 Rien de plus formel qu’un ordinateur et un réseau Partie 1 Figure 1.2 : Schéma des relations entre les organes d’un ordinateur à “architecture von Neumann”. Si l’intégration des composants n’a pas cessé de réduire la taille tout en augmentant la puissance du processeur, les principes d’organisation – avec périphériques d’entrée et de sortie – sont bien identiques à ceux que nous connaissons aujourd’hui. Le document de Von Neumann précise aussi la nature du langage symbolique à mettre en œuvre dans le calculateur : « L’arithmétique binaire a une structure logique plus simple et plus cohérente que toute autre, l’arithmétique décimale en particulier. Bien entendu, il faut se souvenir que le matériau numérique directement utilisé par les humains sera le plus probablement exprimé avec le système décimal. De ce fait, les notations utilisées dans R [qui regroupe les organes I, input, et O, output, d’entrée-sortie] devraient être décimales. Mais il est nettement préférable d’utiliser des procédures strictement binaires dans CA [l’unité arithmétique et logique] comme dans l’unité de contrôle central CC, quel que soit le matériau numérique qui y pénètre. Du coup, M [la mémoire] ne devrait stocker que du matériau binaire. Cela impose d’inclure des convertisseurs décimal-binaire et binaire-décimal dans I et O. Étant donné que ces conversions requièrent une bonne quantité de manipulations arithmétiques, il est plus économique d’utiliser CA, et par conséquent d’utiliser aussi CC pour les fonctions de coordination, en conjonction avec I et O. L’appel à CA implique, de toutes les façons, que l’ensemble des fonctions arithmétiques utilisées dans ces deux conversions soient strictement binaires. » (Von Neumann, 1945. § 5.2) Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 19 Rien de plus formel qu’un ordinateur et un réseau Partie 1 En quelques pages, von Neumann pose les bases de l’informatique : la machine exploite pour son fonctionnement interne un langage symbolique unique, le binaire, et communique avec l’extérieur par l’entremise d’interfaces d’entrée, qui convertissent les données initiales pour les rendre traitables par le processeur, et d’interfaces de sortie, qui convertissent les résultats calculés de manière à les rendre intelligibles aux humains. Prenant en compte la 20 dimension calculatoire de la rétroaction dans son architecture, von Neumann confirme que « ces automates d’un nouveau genre […] ne se contentent plus d’opérer des calculs (à la façon des calculatrices analogiques) mais sont capables de mécaniser universellement la calculabilité » (Pélissier & Tête, 1995. p. XXIV). Si l’on sait désormais que tout ce qui est calculable est mécanisable – l’évolution des ordinateurs, l’apparition des compilateurs, la complexification des langages de programmation et des logiciels, au fil des décennies, le démontrera amplement –, il reste encore à mettre en réseau les ordinateurs pour voir émerger ce que l’on appellera le cyberespace. Et qui dit mettre en réseau induit transmettre de l’information d’un ordinateur à l’autre. Mais avant même de pouvoir la transporter, encore faut-il s’accorder sur ce qu’est l’information. Là encore, émergent des travaux théoriques menés en parallèle des recherches encouragées par l’urgence de dominer technologiquement l’ennemi. En tête de ceux-ci apparaissent ceux de l’ingénieur électricien et mathématicien Claude Shannon qui, à l’instar de Turing en Angleterre, travaille comme cryptanalyste pour le gouvernement américain. Information quantifiée, communication théorisée 21 La publication de l’article A Mathematical Theory of Communication constitue l’un des e événements marquants de l’histoire de la science du XX siècle. Shannon y introduit un 22 « jeu de théorèmes , mais surtout de simples définitions, que beaucoup de chercheurs issus aussi bien des sciences humaines et que des sciences exactes jugent d’une grande puissance, d’une grande élégance et d’une grande beauté » (Dion, 1997. p. 11). « C’est en pensant à la machine de Turing et à la récursivité de sa procédure que McCulloch puis von Neumann attribuent des algorithmes booléens aux neurones formels. » (Pélissier & Tête, 1995. p. XXIV). 21 L’histoire de cet article illustre la modestie de son auteur. D’abord publié dans une revue interne des laboratoires Bell, le Bell System Technical Journal (vol. 27, juillet 1948, p. 379-423), il est republié en livre à l’initiative de Warren Weaver sous le titre The Mathematical Theory of Communication (augmenté d’une seconde partie, signée Weaver), University of Illinois Press, 1949. À noter, le changement intervenu dans le titre entre la première et la deuxième publication, passé “d’une” théorie à “la” théorie de la communication. 22 La théorie de Shannon compte douze théorèmes principaux, démontrés, et presqu’autant de définitions. 20 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 20 Rien de plus formel qu’un ordinateur et un réseau Partie 1 Jusqu’alors, la notion d’information était vague et simplement qualitative 24 23 ; avec la 25 théorie de Shannon, elle prend un sens précis parce que quantifiée – même si elle est 26 cantonnée au domaine particulier des systèmes fermés – et se dote d’une unité de mesure nouvelle : le bit – contraction de binary unit ou unité binaire. Dion relativise l’importance des notions de bruit et de redondance en regard des deux notions fondamentales que sont l’information et l’entropie. Bien que reproduisant le schéma référentiel du “paradigme de Shannon” (figure 1.3), il pointe l’intérêt marginal de cette représentation « car le principal effort de la théorie de l’information consiste surtout à étudier avec précision la capacité de transport du canal de transmission ainsi défini, et, à cette fin, elle utilise une définition quantifiée de l’information. » (ibid. p. 53). Figure 1.3 : Le schéma fondamental d’une communication telle qu’elle est considérée par Shannon dans sa théorie. La source d’information exploite l’émetteur pour coder son message et l’envoyer sous forme de signal dans le canal de communication. Le signal arrive au receveur, qui le décode pour le rendre intelligible à la destination. La source de bruit perturbe, éventuellement, le signal lors de son transit dans le canal de communication. (Schéma extrait de Shannon, 1948. p. 2) Avant même l’approche probabiliste de Shannon, une première approche quantitative de l’information a été introduite par l’astronome et mathématicien Ronald A. Fisher, auteur entre autres de la méthode du maximum de vraisemblance (1934). Cette méthode assoit la pratique de l’analyse statistique des populations sur un socle mathématique axiomatique, grâce à des indicateurs de synthèse fournis par des échantillons de la population étudiée. Plus les données chiffrées que l’on peut extraire d’un échantillon représentent correctement cette population et plus l’information contenue dans l’échantillon doit être considérée comme élevée. Fisher tire de cette observation une valeur de l’information. Et « cette idée, qui est à la racine de toute la théorie de l’estimation et de l’inférence statistique, est exactement celle que l’on retrouvera vingt ans plus tard chez Shannon, exprimée cette fois en des termes non plus statistiques mais probabilistes » (Dion, 1997. p. 21). 24 Bien que l’auteur ait choisi d’appeler son travail “théorie de la communication”, l’usage lui a préféré l’appellation “théorie de l’information”. 25 La quantification réduit la portée de la théorie de Shannon car elle « contraint la théorie de l’information à se cantonner aux aspects formels de la communication en négligeant tout ce qui pourrait concerner le contenu des messages » (ibid. p. 15). 26 Jacques Jaffelin pointe les limites de la théorie de Shannon ainsi : « On sait que Claude Shannon envisagea de définir l’information comme la mesure de l’ordre d’un système fermé. Cet ordre étant considéré comme la probabilité maximale, pour tout système fermé, de tendre naturellement vers un équilibre thermique ou à une entropie égale à zéro. […] La théorie de Shannon aboutit, à la toute fin, au paradoxe suivant : “Plus c’est aléatoire, plus c’est complexe”, ou encore : “Plus c’est insensé (dans les deux sens du terme) ou entropique, plus c’est improbable”. » (Jaffelin, 1993. p. 19) 23 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 21 Rien de plus formel qu’un ordinateur et un réseau Partie 1 Une information, selon Shannon, désigne un ou plusieurs événements dans un ensemble fini d’événements possibles. Toutes les mesures informationnelles sont calculées sur les probabilités qui caractérisent cet ensemble. Une valeur est associée à l’information en fonction de la réduction d’incertitude qu’elle apporte. L’unité de quantité d’information – nommée bit mais aussi “logon”, “Hartley” ou “Shannon” – correspond à une réduction de 27 moitié de l’incertitude . Au total, la quantité d’information est un concept statique « qui permet de jauger une situation finalisée, une production, un résultat » (ibid. p. 64). C’est ici qu’intervient l’entropie, un concept aussi important que la quantité d’information transférée et qui provient de la thermodynamique. Shannon s’en sert pour évaluer le potentiel informationnel d’une situation avant l’apparition de l’événement. Autrement dit, « c’est la quantité de possibilités d’un événement ou d’une information de trouver sa réalisation en étant captée par le récepteur. […] Le concept de chaise est une information, son entropie se compose de toutes les chaises possibles et imaginables. » (Charland, 1998). À ces deux notions centrales, Shannon ajoute : – la redondance, qui désigne le degré de corrélation dans l’apparition des signes de l’alphabet utilisé (le u qui suit généralement le q en français, par exemple). Dans un canal efficace, sans bruit, la redondance correspond à une perte de performance. Dans un canal bruité, elle est assimilable à un processus de vérification intégré ; – l’équivoque du canal, qui mesure l’incertitude demeurant sur le signal émis après qu’il a été reçu. Cette mesure dépend du seul canal, étant indépendante du message transmis ; – l’ambiguïté, la symétrique exacte de l’équivoque, qui mesure l’incertitude sur le message reçu du point de vue de l’émetteur ; – 28 la transinformation du canal, qui mesure la quantité d’information effectivement transmise par un canal bruyant. Dans un canal efficace, la transinformation est maximale ; toute l’information est reçue. Dernière pièce de cette construction calculatoire, la « capacité d’un canal correspond à la transinformation maximale qu’on peut obtenir avec la loi de probabilité de la source la plus avantageuse possible » (Dion, 1997. p. 85). Certains des théorèmes de Shannon démontrent qu’il existe toujours des codes permettant d’utiliser la totalité de la capacité d’un canal, bruyant ou non ; même si aucun moyen théorique n’est donné par l’auteur pour déterminer quels sont ces codes. L’utilisation du logarithme permet de sommer la valeur de deux informations indépendantes. Le logarithme de base 2 est choisi du fait de cette convention puisque log 2 = 1. 28 Dion apporte cette précision : « Il y a équivoque quand l’émetteur produit deux messages différents qui peuvent être compris de la même manière, alors qu’il y a ambiguïté quand l’émetteur produit un message qui peut être compris de deux manières différentes. » (ibid. p. 85). 27 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 22 Rien de plus formel qu’un ordinateur et un réseau Partie 1 La théorie de l’information n’a cessé de nourrir d’innombrables travaux depuis sa publication. Au centre d’une polémique scientifique pas encore éteinte, elle a débordé le cadre de la communication téléphonique – qui motivait Shannon initialement – pour s’étendre à la psychologie (surprise et information), la biologie, la théorie de la complexité (en particulier, la compression des messages), etc. Point remarquable, les travaux de Shannon et ceux de Turing convergent sur un certain nombre d’éléments qui rendent compatibles les applications qui seront tirées de leurs théories. Les deux chercheurs s’intéressent à des codes et à leur traitement hors la sémantique. Turing rend calculable par sa machine n’importe quel symbole susceptible d’être régi par un algorithme ; Shannon définit les limites pour encoder un signal et en assurer la transmission au mieux de la capacité du canal de communication choisi. L’un et 29 l’autre s’accordent, avec von Neumann et Wiener, sur l’utilisation du binaire . Par ailleurs, Wiener et Shannon se complètent, là où Ronald A. Fisher fait pont entre eux avec l’estimation et l’inférence statistiques. Wiener associe les questions de transmission du signal à la notion de message, vu comme une séquence discrète ou continue d’événements mesurables distribués dans le temps. Il en déduit que l’information, traitée comme une série temporelle, relève des mathématiques statistiques et permet la prévision. De leurs travaux conjoints « sur le codage des informations et sur le rapport signal/bruit va naître un dispositif théorique radicalement nouveau, susceptible de s’appliquer indifféremment à des systèmes artificiels ou naturels dès l’instant que s’y posent des questions de contrôle du comportement d’un système » (Pélissier & Tête, 1995. p. 5). Cette convergence de vues, en ce qu’elles reposent sur des notions mathématiques communes, explique la très grande plasticité des outils issus de ces travaux théoriques. Le pouvoir calculatoire des machines de Turing est immense, le pouvoir de transmission des canaux de communication de Shannon l’est tout autant ; et leur mise en œuvre commune est facilitée par Wiener et von Neumann. Tous manipulent le même langage binaire et opèrent sur lui des calculs, tous processus parfaitement adaptés aux ordinateurs. Si l’on revient à la définition du calcul en tant que moyen de résolution de problèmes, les ordinateurs à architecture von Neumann mis en réseau et communiquant conformément aux principes de Shannon constituent un appareillage technique d’une capacité calculatoire potentiellement illimitée. Mais les raisons qui ont poussé à relier les premiers ordinateurs entre eux tiennent beaucoup moins à cette communion mathématique initiale qu’à des raisons d’ordre pratique et économique. Au cours de ses travaux pour les laboratoires Bell et avant même d’avoir élaboré sa théorie de la communication, Shannon a déjà fait appel à la logique booléenne pour analyser et simplifier les circuits des commutateurs. C’était d’ailleurs le sujet de son mémoire de maîtrise : A Symbolic Analysis of Relay and Switching Circuits (1937). 29 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 23 Rien de plus formel qu’un ordinateur et un réseau Partie 1 La mise en réseau, un besoin pragmatique 30 Le tout premier réseau informatique est né non pas directement de contraintes militaires mais d’une raison beaucoup plus pragmatique : relier les ordinateurs des laboratoires scientifiques américains afin que les chercheurs puissent partager leurs ressources informatiques était pertinent ; cela permettait surtout de respecter les contraintes budgétaires fixées par l’Advanced Research Project Agency (Arpa) à son service dédié à la recherche informatique, l’Information Processing Techniques Office (IPTO). L’ambiguïté quant à l’intention d’origine dans la création du réseau Arpanet découle en partie de cette situation particulière, héritée de la guerre, où militaires, universitaires et entreprises privées travaillent en bonne intelligence. L’Arpa, créée début 1958 en réponse au lancement du satellite artificiel Sputnik par les Soviétiques, établit le nouveau contexte de collaboration entre chercheurs du civil et 31 agences gouvernementales ; celles du ministère de la Défense (Department of Defense, ou DOD) en particulier, dont dépend l’Arpa. Cette agence hérite en grande partie de la fonction qu’avait remplie l’OSRD dirigé par Bush, même si les liens avec les industriels sont minorés au profit de la relation des scientifiques avec l’administration. Et c’est à l’initiative de Robert Taylor, un psychologue nommé à la tête de l’IPTO en 1965, que les recherches en vue de la création du réseau Arpanet sont entamées dès 1966. Ici encore, la recherche appliquée s’est fondée sur les constructions théoriques bâties autour 32 de la question de réseau. Comme le note l’épistémologue Daniel Parrochia , « les faits de base qui s’offrent au chercheur qui tente de prendre la mesure du phénomène réticulaire » 33 (Parrochia, 2001. p. 9) sont aussi nombreux que de nature diverse . Le réseau, ce filet (rete La réunion des inventeurs d’Arpanet, lors du vingt-cinquième anniversaire de sa naissance, fut l’occasion pour Robert Taylor (initiateur du projet) de tenter de mettre fin à une légende : celle qui veut que « l’Arpanet avait été bâti pour renforcer la sécurité nationale, pour mettre le pays à l’abri d’une attaque nucléaire. Ce n’était qu’une fable mais, faute de démenti, presque tout le monde avait fini par la prendre au sérieux. » (Hafner & Lyon, 1996. p. 16). 31 La nécessité toujours affirmée par le gouvernement américain de dominer l’adversaire justifie, selon Ronda Hauben, cette floraison ininterrompue d’agences chargées de mettre les scientifiques au service de la Nation, et plus particulièrement de son armée. Elle rappelle ainsi : « Alors que la guerre touchait à sa fin, nombreux furent les membres de la communauté scientifique et du gouvernement à comprendre le besoin de trouver l’interface scientifiques/administration adaptée aux temps de paix. Ils réalisèrent qu’une fois la démobilisation prononcée, l’implication des scientifiques civils dans l’administration des États-Unis, et encore plus dans la collaboration avec le Department of Defense, serait plus difficile à obtenir. Avec la dévastation de l’Europe par la guerre, savoir quel pays pourrait assumer, après-guerre, le leadership en sciences et en technologies, plus spécialement dans la recherche fondamentale, devint une question brûlante. La compétition se jouait entre les États-Unis et l’Union Soviétique. Sciences et technologies devaient, de ce fait, prendre une importance beaucoup plus grande dans l’Amérique d’après-guerre. » (Hauben, 1999) 32 Les citations de Parrochia proviennent de sa communication « La rationalité réticulaire », donnée en ouverture du colloque « Penser les réseaux », qui s’est tenu à Montpellier les 20 et 21 mai 1999. Les actes du colloque ont été publiés par Champ Vallon sous le même titre (voir bibliographie). 33 Ce que l’auteur qualifie de “rationalité réticulaire” consiste essentiellement en trois éléments caractéristiques : 1. « Le premier est d’abord qu’un réseau s’identifie à la distribution cohérente et ordonnée d’une pluralité de liaisons dans l’espace. » (ibid, p. 13) ; 30 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 24 Rien de plus formel qu’un ordinateur et un réseau Partie 1 ou retis, en latin, désigne autant le filet que la technique du tissage) qui enserre les solides et laisse passer les fluides, qui couvre le corps et le laisse respirer, qui le cache et le révèle à e e la fois, quitte le corps à la charnière des XVIII et XIX siècles ; il peut désormais « être 34 construit comme un artefact mécanisé, une technique autorégulée » (Musso , in Parrochia, 2001. p. 201). e Le XIX siècle, c’est le moment où se construisent les premiers réseaux de distribution d’électricité. C’est aussi le moment où Gustav Robert Kirchoff, alors encore étudiant en physique, formule, en 1845, deux règles qui gouvernent les flux électriques : 1. la loi de conservation des flux, qui veut qu’à tout nœud du réseau, la somme des flux entrants soit égale à la somme des flux sortants ; 2. la loi qui établit que l’équation associée à la somme des circuits d’un réseau n’est autre que la somme des équations correspondant aux circuits 35 individuels . Ces deux lois connaîtront de multiples extensions pour répondre à la complexification de la notion même de réseau – théorie des flots, théorie des flots à multiplicateur, théorie des e multiflots – mais ne seront jamais invalidées. S’y ajoute, au XX siècle, la résolution de questions connues sous les noms de “problème du flot compatible” (théorème du flot compatible, établi par Alan J. Hoffman en 1958) et du “problème du flot maximum” (théorème du flot maximum, démontré par Lester R. Ford & Delbert R. Fulkerson en 1957). Et, pour paraphraser Pierre Musso (ibid. p. 208), si la révolution industrielle, la machine à vapeur et l’électricité ont permis d’inventer les réseaux mécaniques autorégulés, la mutation des techniques de traitement de l’information, qui se fait jour au milieu du e XX siècle avec l’invention de l’ordinateur, et les progrès de l’approche axiomatique des mathématiques rendent possibles les réseaux auto-organisés. 2. Le deuxième fonde la différence entre graphe et réseau car « il ne suffit […] pas de prendre en compte le seul espace, la figure ou le site. Il faut considérer également les mouvements, plus précisément ce qui se déplace de site en site (énergies, denrées, matières, signaux, etc.). » (ibid, p. 17) ; 3. Le troisième élément est la prise en compte « des problèmes encore plus complexes », notamment des problèmes qui font apparaître « un trafic non seulement aléatoire mais de plus en plus dense, et fait de flux mobiles » et « qui réclament des solutions qui ne peuvent pas être exprimées sous une forme linéaire, et donc qui ne sont plus directement transposables dans des programmes mais doivent être étudiés en terme de stratégie. » (ibid, p. 20-21). Il précise : « nous dirons qu’il y a stratégie à partir du moment où l’on ne peut plus résoudre un problème en fixant a priori, une fois pour toutes, un programme de résolution liée à des contraintes graphiques, et où on doit donc accepter l’idée de compléter progressivement les projets établis à l’avance par de nouveaux projets inspirés par les circonstances. » (ibid, p. 20) 34 La communication de Pierre Musso, lors du colloque « Penser les réseaux », était intitulée : « Genèse et critique de la notion de réseau ». En établissant que les phénomènes électriques au sein d’un réseau sont décrits par des relations linéaires, Kirchoff introduit une formalisation mathématique qui facilite la conception et la mise au point des réseaux électriques. De même, la théorie des graphes puis la théorie des réseaux joueront un rôle essentiel pour l’élaboration des réseaux informatiques. 35 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 25 Rien de plus formel qu’un ordinateur et un réseau Partie 1 Baran, ange gardien des réseaux de communication La première contribution effective à la constitution de ces réseaux auto-organisés est le fait de deux chercheurs, Paul Baran et Donald Davies. Chacun de son côté va imaginer un mode d’organisation du réseau, distribué ou réparti, et un mode de circulation des données dans le réseau, par commutation de paquets (packet switching). Figure 1.4 : Historiquement, les réseaux téléphoniques ont toujours été organisés autour de centraux. L’organisation centralisée (A) est la plus vulnérable de toutes : il suffit de détruire le centre pour rendre le réseau muet. La version décentralisée (B) améliore la résistance d’ensemble en interconnectant des îlots centralisés par des liaisons longue distance ; néanmoins, la destruction de quelques nœuds d’interconnexion suffit à réduire le réseau à néant. La version distribuée (C), que propose Baran, opère un maillage distribué, ou réparti, entre les différents centraux. 36 Baran intègre la Rand Corporation en 1959, au département informatique de la division mathématique. Il s’y intéresse à la capacité de survie des systèmes de communication 37 téléphonique en cas d’attaque nucléaire . Dès 1960, il est convaincu que la question ne peut pas se résoudre par des moyens analogiques et qu’il faut faire appel aux traitements numériques réalisés par ordinateur – en particulier du fait de la faible dégradation du signal Fondée en 1946, la Rand est l’une des pièces maîtresses pour conserver, après la Seconde Guerre mondiale, le potentiel de recherche opérationnelle du “triangle d’acier”. Cet établissement privé – premier exemple de think tank – laisse ses chercheurs très libres quant à l’objet de leurs recherches… et trouve son financement au travers de contrats très lucratifs avec l’administration américaine. Au début des années 1960, l’armée de l’air (l’Air Force) est le principal bailleur de fonds de la Rand. 37 Là réside sans doute la véritable origine de la confusion sur l’origine d’Internet, outre le financement des recherches par le Department of Defense. Baran n’aura de cesse de justifier ses recherches par la nécessité de pouvoir résister à une telle attaque. 36 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 26 Rien de plus formel qu’un ordinateur et un réseau Partie 1 numérique comparée à la rapide dégradation du signal analogique durant la transmission dans un réseau. Malgré les résistances auxquelles il doit faire face – AT&T, alors seul opérateur longue distance aux États-Unis, ne croit pas au numérique –, Baran pousse ses recherches tant vers les structures des réseaux que vers l’exploitation maximale de leur capacité pour y faire circuler les données. Il publie ses recommandations dans un article majeur : On Distributed Communications, en 1964. Baran y donne les arguments théoriques et pratiques pour démontrer la supériorité du concept de réseau distribué sur tout autre mode d’organisation (figure 1.4). Son argumentation est étayée par l’exploitation optimale de concepts connus, comme la 38 redondance (figure 1.5), et l’introduction de concepts nouveaux, comme le “bloc message standard” (Standard message block, figure 1.6) ou les tables de routage adaptatif – on dit aussi routage dynamique. Figure 1.5 : Le niveau de redondance du réseau – le nombre de nœuds reliés à un nœud – n’est pas prédéterminé, comme le montre ce schéma. Baran démontre qu’un niveau de redondance de 3 ou 4 suffit à garantir au réseau un niveau de résistance proche de sa limite théorique. Cette notion de redondance du réseau ne doit pas être confondue avec la redondance du signal telle qu’elle est décrite par Shannon dans sa théorie de la communication. 38 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 27 Rien de plus formel qu’un ordinateur et un réseau Partie 1 L’argumentation de Baran en faveur d’un fractionnement des messages en blocs standardisés est sans équivoque : « Les réseaux de communication actuels, utilisés pour des transmissions numériques, reposent sur des liens et des concepts conçus initialement pour tout autre chose : la voix. […] Un bloc message standard universel pourrait se composer de 1 024 bits. La plus grande partie serait réservée aux données à transmettre ; le reste servirait à stocker des informations à usage interne, comme la détection d’erreur ou les données de routage. […] Surtout, des blocs de données standardisés permettent à de nombreux utilisateurs simultanés avec des besoins en bande passante très variés de partager efficacement un réseau constitué de liens aux débits différents. Le bloc message standardisé simplifie la construction de routeurs à très haute vitesse. Chaque utilisateur connecté au réseau peut injecter des données à n’importe quel rythme, jusqu’à la limite maximale. Les données d’un utilisateur sont stockées jusqu’à ce qu’un bloc complet de données soit reçu par la première station. Ce bloc est oblitéré avec un en-tête et une adresse de retour, ainsi que des informations à usage interne. De là, il est transmis dans le réseau. » (Baran, 1964. ch. IV) Figure 1.6 : Baran explicite ici la composition d’un bloc message standard : en-tête, adresse de destination, adresse de retour, gestion du handover, données proprement dites, fin du message. Il montre aussi comment, avec des mémoires-tampon (buffers), il est possible de faire voyager un bloc message sur des portions de réseau aux bandes passantes très différentes. Baran fiabilise simultanément la structure du réseau et le transport des messages. Avec son approche, les données deviennent indépendantes du canal de communication. Codés en Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 28 Rien de plus formel qu’un ordinateur et un réseau Partie 1 39 binaire, fractionnés en blocs indifférenciés qui sont glissés dans des enveloppes logiques , les messages de toute nature sont assurés d’arriver à destination même si les routes empruntées sont différentes et inconnues à l’avance. Alors même que Baran renonce à convaincre ses commanditaires de monter un réseau expérimental pour valider ses idées, en 1965, Davies fait progresser des idées similaires au sein du National Physical Laboratory, en Angleterre. Seule différence, de taille, entre les deux chercheurs, Davies n’a cure des questions militaires : il veut créer un nouveau réseau de communication public et « exploiter les capacités techniques qu’il distinguait dans les ordinateurs et les commutateurs numériques pour mettre au point une informatique à longue distance, décentralisée, hautement réactive, hautement interactive » (Hafner & Lyon, 1996. p. 79). Conscient de la diversité des matériels et des logiciels en usage dans les différents centres de ressources informatiques, Davies imagine un ordinateur spécialisé qu’il chargerait d’assurer la gestion et le transport des paquets 40 au sein du réseau, indépendamment des ordinateurs qui y sont connectés. D’Arpa à Inter, tout est net C’est cette idée que Taylor reprend à son compte, en 1967, pour mettre en place le réseau Arpanet entre les centres de recherches informatiques des universités américaines. Baptisés Interface Message Processors (ou IMP), ces ordinateurs dédiés à la gestion du réseau et au transport des messages sont destinés à fonctionner en permanence et assurer la communication entre des grands systèmes informatiques par ailleurs incompatibles. Les IMP n’ont pas vocation à être pilotés en permanence par des humains mais au contraire 41 doivent assumer le bon fonctionnement du réseau de manière autonome . D’autres étapes vers la constitution d’un réseau de réseaux sont rapidement franchies (figure 1.7). L’une, plus anecdotique que porteuse d’évolutions majeures, a lieu en 1971 42 lorsque sont interconnectés Arpanet et Alohanet , un réseau sans fil par relais radio mis en place par Norm Anderson entre les îles hawaiiennes. L’autre, en revanche, a des implications dont nous ressentons aujourd’hui pleinement les effets. Outre le segment du message à transporter qui constitue l’essentiel des données, le “bloc message standard” emporte avec lui des informations à usage interne – début et fin de paquet, adresses de départ et d’arrivée, etc. – qui constituent l’enveloppe. L’encapsulation des données est une autre application des machines universelles ; où ce qui importe est de transporter, pas de savoir ce que l’on transporte. 40 C’est à Donald Davies que l’on doit l’appellation “commutation de paquets”, ou packet switching. 41 Cette tâche de contrôle a été assignée à un programme, le Network Control Program ou NCP, qui contenait entre autres “un protocole de communication symétrique d’hôte à hôte”. Steve Crocker, qui dirigeait le développement de NCP, précise : « NCP fut ensuite utilisé pour désigner le protocole mais, originellement, il désignait le programme qui gérait les connexions au sein du système d’exploitation » (Crocker, in Reynolds & Postel, 1987). 42 Comme Arpanet, Alohanet a été directement financé par l’IPTO, ce qui explique avec quelle facilité son concepteur a pu obtenir un IMP dès 1971. 39 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 29 Rien de plus formel qu’un ordinateur et un réseau Partie 1 Figure 1.7 : Au tout début des années 1970, le réseau Arpanet relie les principaux centres de ressources informatiques universitaires des États-Unis. Tous ont en commun d’être financés, peu ou prou, par la Darpa. Et tous se distinguent par la nature des grands systèmes (mainframes) ainsi interconnectés : aucun n’est directement compatible avec les autres. Pourtant, par l’entremise du réseau, il est désormais possible de faire transiter des données de l’un à l’autre. Dès 1970, l’informaticien Vinton Cerf et l’ingénieur électricien Robert Kahn anticipent les limites du protocole de communication NCP implanté dans les IMP. Leur intuition aboutit, en 1974, à la publication d’un article fondateur, A Protocol for Packet Network 43 Interconnection , qui décrit les principes du Transmission Control Program ou TCP. C’est dans cet article qu’apparaît pour la première fois le terme “Internet”. Leur objectif est double : d’une part, apporter toutes les fonctions de transport et de transmission ; d’autre part, offrir une palette de services, du circuit virtuel aux datagrammes. Le protocole subit divers ajustements jusqu’à aboutir à une séparation nette entre les fonctions réseau, prises en charge par le protocole IP (Internet Protocol), et les services réseau, gérés par TCP. La 44 finalisation de l’ensemble des protocoles TCP/IP aboutit à un modèle en couches (figure 1.8), qui exploite le principe de l’encapsulation à chaque niveau. Son résumé est explicite sur le sujet : « Un protocole qui gère le partage des ressources qui existent dans différents réseaux à commutation de paquets est présenté. Le protocole pourvoit aux variations de la taille des paquets, des erreurs de transmission, du contrôle de séquence des flux, du contrôle d’erreur de bout en bout et de la création et de la destruction des connexions logiques de process à process dans les réseaux individuels. Certains aspects de l’implémentation sont pris en compte et les problèmes interréseaux comme le routage, le comptage et les timeouts sont exposés. » (Cerf & Kahn, 1974) 44 Les rôles des quatre couches du modèle TCP/IP sont les suivants : – la couche “accès réseau” spécifie la forme sous laquelle les données doivent être acheminées quel que soit le type de réseau utilisé ; – la couche “Internet” est chargée de fournir le paquet de données (datagramme) ; – la couche “transport” assure l’acheminement des données, ainsi que les mécanismes permettant de connaître l’état de la transmission ; – la couche “application” englobe les applications standards du réseau (Telnet, SMTP, FTP…). 43 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 30 Rien de plus formel qu’un ordinateur et un réseau Partie 1 Figure 1.8 : Lors d’une transmission TCP/IP, les données traversent chacune des couches au niveau de la machine émettrice. À chaque couche, un en-tête est ajouté au paquet de données. Au niveau de la machine réceptrice, lors du passage dans chaque couche, l’en-tête correspondant est lu puis supprimé. Après réception et décodage, le message retrouve son état originel. Cette formulation des protocoles TCP/IP rencontre une adhésion croissante dans les milieux universitaires à la fin des années 1970. Alors même que les travaux des instances 45 internationales ont abouti à un autre modèle , entériné par l’Organisation internationale de normalisation (ISO), c’est finalement TCP/IP qui s’impose comme le standard de fait pour la mise en place des interréseaux qui vont constituer Internet. Une date plus particulière est er considérée comme référentielle : le 1 janvier 1983, lorsque le réseau Arpanet abandonne le protocole NCP à son profit. Figure 1.9 : Le nombre de réseaux opérationnels sur Internet – entendu comme l’interréseaux exploitant l’ensemble de protocoles TCP/IP – croît de manière accélérée dès que le réseau Arpanet abandonne NCP.À noter, le soutien direct de l’Arpa s’interrompt en 1986. (Source du schéma : Leiner, Cerf & alt., 2000.) Le modèle ISO compte sept couches et non pas quatre : physique, liaison données, réseau, transport, session, présentation et application. 45 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 31 Rien de plus formel qu’un ordinateur et un réseau Partie 1 La justesse de vue des théoriciens évoqués jusqu’ici prend corps à la fin des années 1960, lorsque le réseau Arpanet commence à fonctionner (figure 1.9). Par sa seule existence, ce réseau montre à quel point les idées de Wiener sur la commande et le contrôle peuvent être matérialisées dans des ordinateurs à architecture von Neumann et des réseaux distribués comme Baran les avait imaginés. De manière plus fondamentale, les bases théoriques posées par Turing s’avèrent applicables à toutes les échelles ; qu’il s’agisse de concevoir un programme, un ordinateur ou un réseau d’ordinateurs. Et Shannon apporte les outils théoriques complémentaires pour quantifier l’information et la transporter sans perte en contraignant le fonctionnement des réseaux dans certaines limites. Parallèlement à cette élégante construction théorique, progressivement mise en application 46 par des équipes universitaires et des entreprises innovantes , se développe une culture de plus en plus populaire de l’automate et de l’ordinateur. Il n’y a plus seulement les discours scientifiques et politiques pour l’alimenter, mais aussi toute une littérature, en particulier de science-fiction, qui nourrit l’imaginaire commun. Les unes comme les autres sont financées, directement ou non, par les officines militaires chargées de la recherche, héritage incontestable de la politique instituée à la demande de Bush en 1940. 46 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 32 Visions et visionnaires la force du récit Partie 2 Visions et visionnaires la force du récit La plupart des découvreurs évoqués jusqu’ici ne s’arrêtèrent pas aux recherches théoriques et appliquées. Turing, Shannon, Bush, von Neumann, Wiener, McCulloch, et aussi beaucoup d’autres, s’exercèrent à la prospective. Cela se traduisit en articles, en communications, en ouvrages ; toutes contributions qui tenaient autant de la fiction que de la science, sans basculer dans la science-fiction. Ces anticipations, pour certaines réalisées, d’autres en devenir, d’autres encore étiquetées utopie, restent comme des traits du génie de leurs auteurs. Les motivations qui les ont poussés à s’exprimer sur ce mode prospectif varient : certains persistent dans leur engagement auprès de l’administration américaine et orientent à leur convenance les financements publics de la recherche fondamentale (von Neumann, Licklider), d’autres cherchent à servir l’intérêt général hors du contrôle étatique (Wiener, Engelbart). La plupart de ces scientifiques tirent un profit financier, direct ou indirect, de ces relations avec le Department of Defense (Wiener, refuse tout financement du DOD dès 1943). Le triangle d’acier apparaît inoxydable. Les récits des pères fondateurs, toujours justifiés par la connaissance déjà acquise et la croyance dans la puissance de la logique, nous invitent à regarder cet avenir où le bonheur 1 passe par le progrès scientifique et technique . Voici venir l’avènement de l’ordinateur symbiote, prochaine (ultime ?) étape à franchir pour l’humanité. Les premiers destinataires de ces récits les réinterprètent alors pour les diffuser : les politiques inventent la société de l’information ; les militaires théorisent la domination par la technologie ; les scientifiques orientent leurs recherches pour servir les uns et les autres ; les informaticiens, enfin, créent une nouvelle industrie. C’est la nation américaine tout entière qui est engagée par ses élites 2 dans l’aventure numérique, avec pour devise “dominer pour ne pas être dominé” . Mais aux discours officiels s’ajoutent d’autres voix. Intégrant l’irrévocabilité de l’engagement américain, elles postulent des futurs où l’ordinateur et le réseau servent Les discours scientifiques de cette époque rappellent aussi bien les théories d’Auguste Comte que celles de Saint-Simon. La religion saint-simonienne, telle qu’explicitée par Michel Chevalier dans les années 1832 à 1836, « s’affirme comme celle de la communion par les réseaux de communication » (Musso, in Parrochia, 2001. p. 206) avec comme objectif, posé par Saint-Simon, que la « société ne peut se limiter à une communauté d’intérêts ; la condition de sa réussite est de partager un but commun » (ibid. p. 205). 2 À la fin de la Seconde Guerre mondiale, la menace vient de l’Union Soviétique. Après l’effondrement du système communiste dans les pays de l’Est, épuisés par une course technologique inégale, la notion d’adversaire devient plus abstraite. La menace directe cristallisée dans la guerre froide disparaît, remplacée par une menace diffuse. La doctrine américaine évolue, s’adapte au contexte, et poursuit imperturbablement sa quête pour la domination technologique. 1 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 33 Visions et visionnaires la force du récit Partie 2 d’autres intérêts que ceux des élites. Les formes qu’elles adoptent pour s’exprimer appartiennent, pour beaucoup, à la culture. La littérature fourmille d’images annonciatrices, 3 lorsque relue à l’aune du cyberespace (Borges, Oulipo ). La science-fiction, ou plutôt la SF (comme on dirait “le polar”), décline à l’envi les mondes envahis de machines numériques (Dick, Heinlein, Gibson, Simmons, Truong… mais aussi Blade Runner, The Matrix, les pulps et autres sci-fi comic books). Elle alerte aussi sur les conséquences, et les dérives potentielles, d’un tel engagement dans l’aventure numérique. Ces récits nourrissent l’imaginaire commun, et suscitent des vocations. Brigitte Chamak en donne une illustration éclairante : « La culture science-fiction, que prônent nombre de chercheurs en réalité virtuelle, nous amène à analyser ce phénomène qui consiste, pour un chercheur, à utiliser l’imagination des romanciers afin de trouver un sujet de recherche et élaborer un modèle du monde à venir qu’il veut contribuer à façonner. […] La possibilité d’une certaine pluralité est-elle remise en cause par une science qui se veut unifiée et unifiante, et qui place l’ordinateur et ses logiciels au centre d’un monde ayant une propension à se rapprocher de certains univers décrits par des romanciers de science-fiction ? » (Chamak, 1996) 4 La fiction envisagée comme comburant d’une science carburant met en résonance les arts et la science expérimentale. Les visions des artistes et des scientifiques s’inscrivent et voyagent, prennent corps ou restent à l’état de potentiel. Toutes contribuent à façonner nos 5 désirs , nés du contact répété avec la technoscience, qu’elle soit fictionnelle ou réelle. Si cybernétique m’était contée/comptée Les fondateurs de la cybernétique, et leurs proches comme Shannon ou Turing, comptent parmi les premiers vecteurs de ces récits, Leurs idées ? Un florilège des thèmes de recherche qu’ils fixèrent avec succès aux générations futures : — la proximité formelle des processus du cerveau et de l’ordinateur développée par McCulloch & Pitts et aussi von Neumann et Wiener ; Une grande part des productions de l’“Ouvroir de Littérature Potentielle” a été conçue grâce à des dispositifs de contrainte formelle ; certains sont des algorithmes directement codables comme les Cent Mille Milliards de Poèmes de Raymond Queneau, par exemple. 4 L’hypothèse d’une telle influence de la « culture science-fiction » demanderait à être vérifiée, aussi séduisante soit-elle. Il est quand même troublant de constater, de manière empirique, que beaucoup d’informaticiens se disent amateurs du genre “science-fiction”. Il est certain, en revanche, que les auteurs majeurs du mouvement cyberpunk initié par William Gibson ont étudié les sciences avant d’écrire, comme Greg Bear, David Brin, Bruce Sterling, Walter John Williams, Orson Scott Card, etc. 5 “Désirs” plutôt que “besoins”, car même si la confrontation aux objets de la société de consommation fait naître en nous des besoins, la culture technoscientifique nous conduit à interroger le monde non seulement à travers ces objets mais d’une manière plus globale. 3 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 34 Visions et visionnaires la force du récit Partie 2 — la pensée vue comme processus formel, défendue par Turing et Shannon ; — les machines de Turing vues comme des êtres vivants, démonstration faite par von Neumann, et vues comme une source de contrôle et de communication, démonstration conduite par Wiener ; — la symbiose humain-ordinateur, pronostiquée par J.C.R. Licklider ; — l’humain augmenté, méthode de recherche et théorie à la fois, formalisée et expérimentée par Douglas Engelbart ; — le terminal multimédia comme outil d’accès universel à la connaissance, en différentes versions signées Bush, Engelbart ou Licklider & Taylor ; — etc. Leurs publications s’étalent sur un quart de siècle, de 1943 à 1968. La création d’Internet quinze ans plus tard concrétise une partie de leur programme. Depuis, le réseau de réseaux ensevelit la première informatique dans ce qui est devenu le substrat technique du 6 cyberespace . Le néologisme apparaît dans un roman de 1984, Neuromancer de William Gibson. « Le cyberespace. Une hallucination consensuelle vécue quotidiennement en toute légalité par des dizaines de millions d’opérateurs, dans tous les pays, par des gosses auxquels on enseigne les concepts mathématiques… Une représentation graphique de données extraites des mémoires de tous les ordinateurs du système humain. Une complexité impensable. Des traits de lumière disposés dans le non-espace de l’esprit, des amas et des constellations de données. Comme les lumières de villes, dans le lointain… » (Gibson, 1984. p. 63) L’intention de Gibson : suggérer. Le gouvernail – la racine cyber, dérivée du grec kuber – laisse entendre que l’individu interfacé au cyberespace a toute liberté de s’y diriger, d’y contrôler sa navigation dans les données numérisées. En optant pour la racine cyber, Gibson suit la voie tracée par Wiener, lorsqu’il synthétisa en un livre la plupart des recherches transdisciplinaires – mêlant indifféremment la psychologie, l’informatique, la neurophysiologie, les mathématiques, etc. – proliférant depuis 1940 et baptisa l’ensemble Les anticipations sur les équipements d’interface sont à elles seules un sujet d’étude. Nous n’en développerons pas les différentes étapes, sinon pour rappeler que l’ordinateur – ou tout autre équipement d’interface avec le cyberespace – va progressivement glisser tout entier dans une boîte noire, ce que Pierre Lévy appelle la « virtualisation de l’ordinateur » (Lévy, 1998. p. 44). Tout ce qui se déroule dans la machine lui appartient, seul l’informaticien est en mesure d’intervenir dans la boîte noire pour en décoder les mécanismes. 6 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 35 Visions et visionnaires la force du récit Partie 2 7 cybernétique . Une contribution majeure de la nouvelle discipline est d’avoir « créé un cadre pour étudier des systèmes de contrôle et de communication qui s’étendent à des entités multiples » (Wardrip-Fruin & Montfort, 2003. p. 65), plaçant l’humain et la machine – le naturel et l’artificiel – sur un plan d’égalité formelle. Les apports des cybernéticiens ne s’arrêtent pas là. Les termes “feedback”, “entrée” et “sortie”, “observateur” dépassent leur contexte technique spécifique pour étayer le propos cybernétique, qui se veut unificateur. La généralité des concepts développés par cette discipline nouvelle les rend opérant dans des domaines éloignés, des sciences abstraites aux sciences humaines aux sciences du vivant. Wiener, en 1954, prophétise par exemple une nouvelle révolution industrielle : « La première révolution industrielle représentait le remplacement de l’énergie humaine et animale par l’énergie des machines. La machine à vapeur en est le symbole. […] La nouvelle révolution industrielle, qui se déroule actuellement, consiste principalement à remplacer le discernement et le jugement humains par le discernement de la machine. La machine apparaît désormais non comme une source d’énergie mais comme une source de contrôle et une source de communication. Nous communiquons avec les machines et les machines communiquent avec nous. Les machines communiquent les unes avec les autres. » (Wiener, 1954, in Wardrip-Fruin & Montfort, 2003. p. 71) L’ambition du programme cybernétique est immense ; c’est une révolution scientifique qui est en jeu. « L’intuition de Wiener […] fut que le dispositif de feedback, d’une part, était la source de tout comportement intelligent, d’autre part, était l’apanage aussi bien des machines évoluées que des êtres vivants. Si cette intuition ne s’est toutefois pas révélée aussi féconde qu’il l’avait imaginé, elle n’en a pas moins attiré l’attention sur une classe de problèmes, liés au traitement de l’information, qui n’avait pas été visible jusque-là » (Breton & Proulx, 2002. p. 128). À ce constat s’ajoute l’importance centrale prise par la notion d’information dans les sociétés occidentalisées et l’empreinte culturelle profonde qu’y ont laissé les récits cybernétiques. Le terme apparaît la première fois sur la couverture du livre Cybernetics, commandé à Wiener en 1948 par l’éditeur nancéien Hermann. L’auteur explique ainsi le titre : « […] je choisis ce nom, parce que je ressentais que cette combinaison particulière d’idées ne pouvait être laissée trop longtemps innommée, et le pris du grec kubernan qui signifie gouverner, part essentielle de l’art du timonier. » (Wiener, 1954, in Wardrip-Fruin & Montfort, 2003. p. 69). Wiener salue Maxwell d’un clin d’œil au timonier, cet homme de barre secondé par le régulateur à boules de Watt pour piloter la chaudière de son vapeur. Surtout, il désigne d’un seul mot un champ qui englobe tous les processus formalisables, qu’ils soient pris dans le vivant ou dans l’artificiel. Breton & Proulx proposent une lecture étendue de la racine grecque choisie par Wiener, précisant qu’il « aurait pu tout aussi bien ajouter que cette famille de racines étymologiques conduisait également au “gouvernement”, comme “forme de pilotage social”. Le choix de ce terme permit en tout cas de situer un peu plus clairement le nouveau champ de recherche » (Breton & Proulx, 2002. p. 130). 7 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 36 Visions et visionnaires la force du récit Partie 2 Et l’outillage analytique qui nous est légué fonctionne à plein. La boîte noire, cette réponse « au “jusqu’où faut-il aller trop loin” dans l’analyse d’un système » (Baltz, 1987. p. 79) des cybernéticiens, cache l’intérieur pour en révéler la production informationnelle. Pour Claude Baltz, l’emploi de la boîte noire signale « la fixation d’un processus fractal » (ibid. p. 80). On cesse d’approfondir l’analyse du système en s’arrêtant à un constat empirique d’une relation entre entrée et sortie (figure 2.1), « ayant (momentanément) abandonné l’idée de comprendre les microraisons de cette relation » (ibid. p. 80). Figure 2.1 : La création d’une boîte noire par l’observateur est un renoncement car « en-deça du dernier niveau d’observation apparaît en effet le noir, l’insondable (ou encore l’insondé) de la matière. Et c’est cette résistance à l’observation qui permet alors d’avancer que, au moins métaphoriquement, “le réel fait surface”. » (Baltz, 1987. p. 80) Baltz souligne le rôle fondamental de la boîte noire pour faire émerger le sens ; il parle pour cela des « perspectives du sens ». Selon son point de vue, la dimension spatiale des phénomènes informationnels ne devient sensible qu’en chaussant des « prothèses 8 perceptives » adéquates, des “machines de vision” dont l’observateur règle le niveau de résolution pour prendre du recul et considérer l’image dans son ensemble ou, à l’inverse, 9 préciser les choses par un zoom sur un point obscur. Cette approche humaine de l’information numérique assistée par des machines de vision ramène à la dimension visuelle de la fiction écrite par Gibson. Pour lui, il n’est pas d’information accessible autrement que dans un espace graphique, partie rendue visible du cyberespace par la simulation en trois dimensions. Ce processus de modélisation, réalisé par des algorithmes spécifiques exploitant diverses fonctions géométriques, transforme les données inscrites dans les mémoires des ordinateurs. Ou, pour reprendre la terminologie Le concept de machine de vision, proposé par Paul Virilio (La machine de vision, Galilée. 1998) est généralisé par Baltz pour « interroger rigoureusement et systématiquement la structuration de notre rapport au monde, selon deux directions au moins, remettant en cause : 8 – l’opposition biologique/artificiel, en considérant par exemple l’œil comme une “technologie” particulière, comme le propose Stiegler ; mais aussi l’opposition matériel/immatériel (cf. Les technologies “intellectuelles” de P. Lévy (1989), l’analyse factorielle, par exemple, se présentant ainsi comme un moyen de “voir” du sens dans une multiplicité a priori opaque de données). » (Baltz, 2003) 9 Baltz, filant la métaphore de la machine de vision, retient la notion de zoom pour désigner le niveau de résolution adopté par l’observateur, qu’il s’agisse de zoom avant ou de zoom arrière. – Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 37 Visions et visionnaires la force du récit Partie 2 employée précédemment dans la description des machines de Turing, la simulation interprète les données pour produire une modélisation graphique intelligible. Au royaume du calcul règnent modèles et objets Le concept de modèle – cet objet mathématique rendu calculable théoriquement par la méthode axiomatique de Hilbert et pratiquement par les automates de traitement de l’information qui dérivent des machines de Turing – s’applique indifféremment dans les deux directions de la communication humain-ordinateur. C’est en tout cas ce qu’affirme, 10 dès 1960, Joseph Carl Robnett Licklider dans un article prophétique, Man-Computer Symbiosis. Selon lui, l’ordinateur est appelé à « convertir les hypothèses [conçues par l’opérateur humain] en modèles testables puis à tester les modèles en fonction des données » mais aussi à « convertir les équations statiques ou les formulations logiques en modèles dynamiques pour que l’opérateur humain puisse en observer le comportement » (Licklider, 1960, in Wardrip-Fruin & Montfort, 2003. p. 77). L’auteur confirme incidemment la nécessaire autonomisation de la machine pour accélérer ses processus 11 internes de traitement , condition sine qua non pour que cette modélisation à double sens puisse opérer en “temps réel”. Licklider note par ailleurs qu’il « sera nécessaire pour l’humain comme pour l’ordinateur de dessiner des schémas et des images, d’écrire des notes et des équations mathématiques sur la même surface d’affichage pour que l’interaction humain-machine soit efficiente » (ibid. p. 80). Ce pronostic se trouve en partie réalisé, dès 1963, avec le système Sketchpad J.C.R. Licklider, surnommé “Lick” à sa demande, occupe une place prépondérante dans l’histoire des ordinateurs et des réseaux. Dès 1962, année où il prend la direction de l’IPTO au sein de l’Arpa, Licklider encourage la mise en réseau des grands systèmes des universités américaines par un mémo adressé à un groupe qu’il appelle “Members and affiliates of the intergalactic computer network”. Parmi ses nombreuses contributions, on lui doit le temps partagé (time-sharing) – qui permet à un groupe d’utilisateurs de partager la capacité de calcul d’un ordinateur –, le financement des recherches d’hommes-clés comme Engelbart – qui aboutiront aux interfaces graphiques, à l’hypertexte, au traitement de texte, à la souris, etc. –, mais aussi la création des premières filières universitaires dédiées à l’informatique. « La vision de Lick pourvut la recherche en informatique d’une direction à long terme extrêmement fructueuse. Il choisit les financements initiaux qui étaient nécessaires pour tenir les premières promesses de cette vision. Et il mit en place les fondations pour un enseignement supérieur dans le nouveau domaine de l’informatique [computer science]. Tous les utilisateurs d’informatique interactive et toutes les entreprises qui emploient des informaticiens lui sont particulièrement redevables. » (Taylor, 1990. p. 6) 11 En cela, Licklider rejoint les propos que tenaient Wiener en 1940 ou von Neumann en 1945. Pour tous ces chercheurs, les efforts à mener pour réduire les interventions humaines durant les processus de calcul conduits par l’ordinateur sont prioritaires : l’humain, par sa lenteur à manipuler les symboles et les communiquer à la machine, constitue le principal goulet d’étranglement dans l’exécution des processus calculatoires. 10 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 38 Visions et visionnaires la force du récit Partie 2 (figure 2.2). Ivan Sutherland, son créateur, débuta ainsi sa première démonstration 12 publique : « Le système Sketchpad permet à un humain et un ordinateur de converser rapidement via le medium du tracé de lignes. Jusqu’à présent, la plupart des interactions entre humain et ordinateurs ont été ralenties par la nécessité de réduire toutes les communications à des énonciations écrites qui doivent être tapées ; dans le passé, nous avons dû écrire des lettres à nos ordinateurs plutôt que de conférer avec eux. Pour de nombreux types de communication, comme décrire la forme d’une pièce mécanique ou les connexions d’un circuit électrique, taper des énonciations est plutôt embarrassant. » (Sutherland, 1963, in Wardrip-Fruin & Montfort, 2003. p. 101) Figure 2.2 : Avec Sketchpad, Sutherland donne à voir la modélisation graphique en action. Piloté par un stylo optique, le logiciel opère sur des images – lignes brisées, et arcs de cercle tracés grossièrement à la surface de l’écran – qu’il géométrise à la demande – parallélisme, jonction de lignes, agrandissement/réduction… fonctions attribuées par la colonne de boutons-poussoir à la gauche de l’écran. L’auteur prouve que « ces images sont des objets et, comme tels, peuvent être manipulés, contraints, instanciés, représentés par des icônes et copiés, ce opéré récursivement ; et peuvent même être fusionnés récursivement. » (Wardrip-Fruin & Montfort, 2003. p. 109) Sutherland, écrivant ce programme de dessin et choisissant avec soin les interfaces matérielles d’entrée et de sortie, augmente considérablement la complexité des tâches confiées au système informatique. Il multiplie les couches d’abstraction formelle, codées selon la logique binaire des machines de Turing, entre l’ordinateur à architecture von Neumann et l’humain qui le pilote. L’auteur demande, et obtient, de sa machine qu’elle capture le geste de l’opérateur, qu’elle l’interprète pour en faire un objet géométrique et qu’elle l’affiche au plus vite. La décision sur l’intérêt de ce que produit l’ordinateur Cette présentation s’est tenue dans le cadre du Spring Joint Computer Conference de 1963. La plus ancienne vidéo montrant Sutherland pilotant le système Sketchpad remonte, elle, à l’été 1962. Alan Kay s’en est servi, en 1977, pour montrer les origines de son Dynabook (Kay fait partie des quelques chercheurs du Palo Alto Research Center de Xerox convaincus, dès le milieu des années 1970, que le temps partagé sur grands systèmes est une impasse et qu’il vaut mieux parier sur les ordinateurs personnels, dont le Dynabook est une préfiguration). La vidéo de cette présentation de Kay est disponible à l’URL http://www.newmediareader.com/cd_samples/Kay/Kay_Talk.mov (dernier accès le 6 août 2003). 12 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 39 Visions et visionnaires la force du récit Partie 2 appartient toujours à l’opérateur, mais la manière dont l’objet graphique est produit lui échappe. L’important désormais n’est plus de savoir comment représenter informatiquement un circuit électrique ou une pièce mécanique mais de les modéliser directement à l’écran en associant des objets graphiques, puisés dans une bibliothèque ou 13 créés à la volée . La tentative de Sutherland réussit en grande partie grâce à la vitesse de réponse du système, « du fait que le feedback était si ponctuel et pertinent, qu’il pouvait être considéré comme analogue [au] dialogisme de la communication interpersonnelle » (Brennan, 1990. p. 395). 14 La comparaison avec la communication dialogique , même si confortée par le propos de 15 Mikhaïl Bakhtine selon lequel tout énoncé « est le produit de l’interaction des locuteurs » , suppose de conférer à l’ordinateur le statut de co-locuteur. Malgré le trouble provoqué par la démonstration de Sutherland, cette idée d’ordinateur colocuteur se heurte à l’absence de conscience des machines numériques – elles se contentent d’agir conformément aux instructions fixées par leurs programmes. Néanmoins, elle met au jour le statut ambigu de l’ordinateur, outil d’un genre nouveau qui s’avère capable d’accomplir des transformations complexes sur les données qui lui sont confiées, et cela indépendamment des compétences de l’opérateur puisqu’il ne lui donne à voir que le résultat de ces transformations sous forme d’une représentation symbolique. Sketchpad prouve ainsi, par sa seule existence, que l’ordinateur est susceptible de devenir le “coénonciateur”, et donc le “co-producteur du dire”, dans le domaine spécifique du dessin 16 technique . Que l’ordinateur soit capable de manipuler avec pertinence des symboles intelligibles à l’humain autres que les chiffres contribue à nourrir le débat non clos de l’accès au sens et Effet collatéral de son approche, Sutherland pose avec le système Sketchpad toutes les bases de la programmation objet. Chaque objet élémentaire peut appartenir à une classe, s’associer à d’autres objets, s’instancier… Une modification opérée sur une instance de l’objet s’applique à toutes les autres instances, qu’elles soient isolées ou fusionnées avec d’autres éléments graphiques (équivalent de la notion d’héritage en programmation objet). Etc. 14 « Pour la tradition monologique, toute parole est l’expression de la conscience souveraine du locuteur. Interprétée dialogiquement, toute communication résulte au contraire d’une mise en relation interlocutive de deux co-énonciateurs. Cette entrée en relation, garantie par une commune compétence communicative, fonde la mutuelle reconnaissance des consciences des interlocuteurs et opère la conversion des individus en personnes. » (“Dialogique (paradoxe–)”, Denis Vernant, Encyclopédie Philosophique Universelle, Les Notions Philosophiques, dictionnaire 1, PUF. 1990. p. 641). Ici apparaît une différence importante entre le locuteur, « défini par son profil psychologique et sa place dans le réseau social », et l’énonciateur « déterminé par sa position dans le jeu dialogique, qui est co-producteur du dire » (ibid. p. 641). 15 Citation rapportée par Vernant dans la définition de “Dialogisme” (ibid. p. 641). 13 Robert Heinlein évoquait en 1956 un appareillage comparable pour assister les ingénieurs. Le héros de Une porte sur l’été, ingénieur lui-même, invente le “Robot à tout faire” avant d’être cryogénisé pour trente ans. À son réveil, il découvre le monde de 2001 et son industrie robotique : « Je savais que maintenant on se servait de machines à dessiner semi-automatiques ; j’en avais vu des photos sans avoir eu l’occasion d’en examiner une de près. […] On formait des courbes et des droites en manipulant des manettes » (Heinlein, 1956. p. 168-169). 16 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 40 Visions et visionnaires la force du récit Partie 2 17 de la nature de la pensée. Ces thèmes, creusés très souvent par les auteurs de SF , ont motivé quelques-uns des articles considérés, par Pélissier & Tête, comme fondateurs des sciences cognitives, en général, et de l’intelligence artificielle, en particulier. Penser et apprendre… bit à bit La question “les machines peuvent-elles penser ?” a été posée à de maintes reprises dans de très nombreux contextes au cours de l’histoire humaine, question reformulée à certaines époques en “sommes-nous des machines ?”. En 1950, Shannon et Turing apportent, par 18 deux simulations , deux réponses distinctes mais convergentes à la question. Le premier propose une méthode pour programmer un ordinateur de manière à ce qu’il joue correctement aux échecs ; le second envisage les moyens à mettre en œuvre pour qu’un 19 ordinateur puisse confondre l’interrogateur au “jeu de l’imitation” . La simulation postulée par Shannon respecte l’ensemble des règles du jeu d’échecs, y compris la promotion d’un pion, et propose une méthode numérique pour évaluer les positions (figure 2.3) et les coups possibles. L’auteur introduit aussi des éléments moins évidemment formalisables comme l’expérience – la connaissance des ouvertures, l’identification des coups forcés et ceux à étudier en priorité… – ou la variation des coups Informatique et intelligences artificielles pullulent dans la science-fiction, et ce depuis la fin de la Seconde Guerre mondiale. On peut, à titre d’exemple, citer des ouvrages parus avant même la généralisation des ordinateurs : – Un logique nommé Joe de Murray Leinster (1946) où un réseau public de bases de données, le “réservoir”, est accessible depuis chaque foyer grâce à un terminal multimédia, le “logique”. 17 – Loterie solaire de Philip K. Dick (1955) – directement inspiré par la Théorie des Jeux de von Neumann et Morgenstern – où une “bouteille” (inspirée des travaux de Werner Heisenberg) tire au sort le numéro d’une “carte de pouvoir” pour désigner le “Maître du Jeu”, sorte de Président pour le système des “Neuf Planètes” ; – Simulacron 3 de Daniel F. Galouye (1964) où la simulation sur ordinateur d’une ville moyenne et de toute sa population remplace les sondages d’opinion ; L’homme qui acheta la Terre de Cordwainer Smith (1964) où le seul ordinateur non biomécanique de la planète Norstralie, une intelligence artificielle spécialiste de la guerre économique, aide un adolescent à acheter en « quatre heures et dix-sept minutes environ » la totalité de la planète Terre ; Révolte sur la lune de Robert Heinlein (1967) où les colons lunaires gagnent leur indépendance vis-à-vis de la Terre grâce à l’aide d’une intelligence artificielle qui orchestre leur informatique ; 2001 l’odyssée de l’espace de Arthur C. Clarke (1968) où le destin d’une équipe d’exploration envoyée vers un satellite de Jupiter repose dans les logiciels de l’ordinateur HAL ; – – – etc. La proposition de Shannon apparaît dans l’article A chess-playing machine, paru dans le magazine Scientific American ; celle de Turing figure dans l’article Computing Machinery and Intelligence, paru dans la revue Mind. 19 Le jeu de l’imitation « se joue à trois personnes, un homme (A), une femme (B) et un interrogateur (C) qui peut être de l’un ou l’autre sexe. L’interrogateur ne se trouve pas dans la même pièce que les deux autres personnes. Le but du jeu pour l’interrogateur est de déterminer qui est l’homme et qui est la femme. Il les connaît par des étiquettes X et Y, et, à la fin du jeu, il dit soit “X est A et Y est B”, soit “X est B et Y est A”. […] Le but de A dans le jeu est d’essayer de faire faire à C une fausse identification. […] Le but du jeu pour le troisième joueur (B) est d’aider l’interrogateur. » (Turing, 1950, in Pélissier & Tête, 1995. p. 255-256). Apparaît en filigrane le fait que le joueur A doit utiliser la ruse, y compris le mensonge, alors que le jouer B a tout intérêt à dire la vérité. Turing induit de la sorte que l’ordinateur qui saura tromper l’interrogateur devra savoir mentir. – 18 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 41 Visions et visionnaires la force du récit Partie 2 joués dans des situations identiques – variation résolue par l’introduction de choix aléatoires entre des coups valués à l’identique par le programme. Figure 2.3 : Le code suggéré par Shannon est simple : numérotation des lignes et des colonnes, d’une part, et valorisation des différentes pièces du jeu (1 pour un pion, 4 pour une tour, etc.). Un mouvement est décrit par les coordonnées de départ et d’arrivée, par exemple pour le cavalier blanc : 01, 22. Shannon ajoute une troisième donnée qui est toujours à 0, sauf dans le cas de la promotion d’un pion. Le mouvement du cavalier blanc est alors noté 01, 22, 0 tandis qu’un pion promu en reine sur la colonne 2 est noté 62, 72, 5. De cet exercice prospectif, Shannon tire une réponse à double détente. Il affirme d’abord que « d’un point de vue béhavioriste, la machine agit comme si elle pensait » (Shannon, 1950, in Pélissier & Tête, 1995. p. 243). Selon ce point de vue, l’observateur voit la machine joueuse d’échecs comme une boîte noire dont il ignore le fonctionnement interne, ce qui le conduit à accepter qu’elle agisse « comme si » elle pensait. Apparaît alors le cas particulier du concepteur jouant avec sa machine alors même qu’il en connaît le fonctionnement interne : lui ne peut être victime de l’illusion à laquelle succombe l’observateur ignorant. Shannon en tire que la machine « fonctionne par essais et erreurs, mais les essais sont des essais que le programmeur a ordonnés à la machine et les erreurs sont appelées des erreurs parce que la fonction d’évaluation donne à ces variations des indices faibles. La machine prend des décisions mais les décisions sont envisagées et prévues au moment de la conception. En bref, la machine, au sens réel, ne va pas au-delà Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 42 Visions et visionnaires la force du récit Partie 2 de ce pour quoi elle a été construite » (ibid. p. 243). Et de conclure son article en citant 20 Torres y Quevedo : « Les limites à l’intérieur desquelles la pensée est réellement nécessaire doivent être mieux définies… l’automate peut faire beaucoup de choses qui sont populairement catégorisées comme étant du ressort de la pensée. » (ibid. p. 243). La prudence légendaire de l’ingénieur arrête Shannon là où l’audace du logicien permet à Turing de s’affranchir des contraintes de son temps. Le premier, avec les échecs, enferme le jeu dans un système de règles qui ne représente que lui-même ; le second étend le jeu à la représentation qu’un interlocuteur peut avoir de lui-même dans le monde. La différence entre les deux chercheurs tient tout entière dans le fait que Shannon « n’ose pas l’hypothèse d’un calculateur capable d’apprentissage » alors que Turing « le dote de ce pouvoir » (Pélissier & Tête, 1995. p. 234). Et c’est cette hypothèse d’une machine capable d’apprentissage, déjà évoquée dans un 21 rapport de 1948 , que Turing soutient et développe longuement dans son article de 1950. Pour lui, contrairement aux théories de McCulloch et Pitts, il n’est pas possible de réduire le système nerveux à un système à états discrets. En revanche, il est convaincu que l’on pourra, avec les progrès de la programmation des machines universelles, s’attacher à « essayer d’imiter un esprit adulte » (Turing, 1950, in Pélissier & Tête, p. 279). Notant la difficulté à reproduire directement la complexité de l’esprit adulte, l’auteur réfléchit au processus qui l’a produit et relève « trois composantes : – l’état initial de l’esprit, à la naissance ; – l’éducation à laquelle il a été soumis ; – un autre type d’expérience, que nous ne rangeons pas sous le terme éducation, à laquelle il a été confronté. » (ibid. p. 279-280) Ce découpage l’amène à envisager d’écrire un programme qui simule non pas l’esprit adulte mais celui de l’enfant ; programme auquel on appliquerait une éducation comparable, sans être exactement identique, à celle que l’on donne à un enfant. Il imagine alors de coder les notions de punition et de récompense, de proposition impérative, de fait Leonardo Torres y Quevedo construit en 1914 son Joueur d’échecs. Cet automate électromécanique joue avec les blancs, et gagne à tout coup, une fin de partie classique : tour et roi blancs contre roi noir. 20 Dans ce rapport, titré Intelligent Machinery, le chercheur se propose « d’étudier la question de savoir s’il est possible pour des machines de montrer un comportement intelligent » (Turing, 1948. p. 1). Il ajoute que « l’une des principales raisons de croire en la possibilité de concevoir des machines pensantes tient dans le fait qu’il est possible de faire des machines capables d’imiter n’importe quelle petite partie d’un humain. » Argumentation qu’il étaie par l’exemple suivant : « Une manière d’entreprendre notre travail de construction d’une “machine pensante” pourrait être de prendre un homme comme un tout et d’essayer de remplacer toutes ses parties par des machines. […] Bien que cette méthode soit probablement une façon “sûre” de produire une machine qui pense, elle semble être tout à la fois trop lente et impraticable. À la place, nous proposerons d’essayer de voir ce qu’on peut faire avec un “cerveau” qui n’est que très peu pourvu d’un corps ; au plus les organes de la vue, de la parole et de l’ouïe. Nous sommes alors confrontés au problème de trouver des sections convenables de pensée pour que la machine y exerce ses pouvoirs. » (ibid. p. 9). 21 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 43 Visions et visionnaires la force du récit Partie 2 22 “bien établi”, d’impératif adéquat ; et il estime « probablement prudent d’introduire une composante aléatoire dans la machine qui apprend » (ibid. p. 283). Par combinaison de ces éléments, Turing offre à son programme, qu’il nomme « machine-enfant », la capacité de 23 réécrire ses règles initiales pour les améliorer et aussi d’en écrire de nouvelles . Enfin, l’exemple de Helen Keller 24 lui donne confiance dans son projet car il « montre que l’éducation est possible du moment qu’une communication dans les deux sens existe par un moyen ou un autre entre le maître et l’élève » (ibid. p. 281). La machine sans membres imaginée par Turing, limitée dans ses contacts avec le monde extérieur par ses interfaces rudimentaires, ne peut obéir qu’à « des impératifs de caractère plutôt intellectuel » (ibid. p. 282), domaine où la logique algorithmique trouve à s’exprimer. Turing poursuit dans la ligne de ses recherches mathématiques d’avant-guerre. La bibliographie de Intelligent Machinery (Turing, 1948) mentionne trois publications de Gödel, Church et Turing (figure 2.4) ; le trio qui porta avec succès la contradiction au programme de Hilbert. La logique formelle, l’algorithme, la récursivité, la machine universelle posent les fondations mathématiques sur lesquelles le code va pouvoir se développer indéfiniment. La dimension logicielle – Turing dit « la programmation » – représente le principal défi car même si « des progrès en construction mécanique devront être réalisés aussi, […] il ne semble pas vraisemblable que ceux-ci ne soient pas adéquats 25 aux conditions requises » (ibid. p. 279) . Sur la notion d’impératifs adéquats, Turing précise qu’ils sont « exprimés à l’intérieur des systèmes et non pas parties des règles du système » (ibid. p. 282). 23 Les agents logiciels héritent directement de la vision de Turing. Une fois lancés sur le réseau, ils cherchent à accomplir les tâches pour lesquelles ils sont conçus en sachant s’adapter au contexte par apprentissage. 24 « Helen Keller perdit la vue et l’ouïe alors qu’elle n’avait pas deux ans. Devenue institutrice, elle parvint à tirer de son enfermement une fillette autiste. » (Pélissier & Tête, 1995. p. 293) 25 En posant cela, Turing inaugure « théoriquement, à la suite de la découverte empirique de Babbage, la distinction entre le matériel et le logiciel » (Pignon, 1996. p. 105). 22 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 44 Visions et visionnaires la force du récit Partie 2 Figure 2.4 : Trois articles suffisent pour donner au rapport Intelligent Machinery son assise mathématique. Le projet de Turing est d’étudier « les voies possibles par lesquelles des machines seraient conçues pour montrer un comportement intelligent. » (Turing, 1948) L’analogie avec le cerveau humain et son façonnage par l’éducation servent de guides, dans le plus pur esprit cybernétique. L’idée des « machines inorganisées » est définie, qui préside à la simulation d’un cortex d’enfant. La prédominance du logiciel sur le matériel – qu’anticipe Turing à raison – met en exergue la position particulière du programmeur ; celui-là comprend ce qui se déroule dans la boîte 26 noire lorsque l’ordinateur exécute des calculs . La situation est tout autre lorsque Turing 27 note qu’ « un trait d’importance pour une machine qui apprend est que son professeur sera très largement ignorant de tout ce qui se passe à l’intérieur bien qu’il puisse être encore capable dans une certaine mesure de prédire le comportement de l’élève » (ibid. Même si le mathématicien est conscient que l’ « on ne peut réaliser cet objectif sans effort », il souligne qu’ « avec la procédure normale d’utilisation d’une machine pour faire des calculs, le problème est […] d’avoir une représentation mentale claire de l’état de la machine à chaque moment du calcul » (Turing, 1950, in Pélissier & Tête, 1995. p. 283). La tâche est réalisable à l’époque, les ordinateurs se programmant encore dans un langage très proche du “code complet” imaginé par von Neumann pour décrire l’ensemble des fonctions logiques connues de l’ordinateur. Depuis, l’empilement des langages symboliques a éloigné de plus en plus le programmeur du code complet. L’obtention du code binaire exécutable par la machine à partir du programme écrit dans un langage symbolique est assumée par des “traducteurs logiciels”, les compilateurs, qui fonctionnent eux aussi comme des boîtes noires. 27 Celui que Turing désigne par le terme de professeur possède une attribution particulière qui découle de la nature de son élève. Le devenir des programmes et de leurs évolutions dépend en dernier ressort de l’expérimentateur, processus que Turing résume d’une équation : « jugement de l’expérimentateur = sélection naturelle » (ibid. p. 280). Turing estime cette sélection indispensable car « la plupart des programmes que nous pouvons mettre dans la machine aboutiront à ce qu’elle fasse quelque chose auquel nous ne pouvons donner aucune signification ou que nous considérons comme un comportement totalement aléatoire » (ibid. p. 283). 26 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 45 Visions et visionnaires la force du récit Partie 2 p. 283). Ainsi, la boîte noire se referme aux yeux du programmeur, lui laissant juste un droit de vie et de mort sur le programme. La machine-enfant s’autonomise : son professeur ne la juge plus en analysant pas à pas les processus internes d’élaboration des réponses mais en jaugeant la qualité des réponses qu’elle fournit par ses interfaces de sortie. Ce droit qui distingue le programmeur du commun des utilisateurs d’ordinateurs se transforme lorsque l’hypothèse de Turing est rapprochée de la théorie générale et logique 28 des automates , autre contribution de von Neumann (1948) à la cybernétique. Là encore, 29 « la machine de Turing demeure le paradigme logico-mathématique fondamental » (Pélissier & Tête, 1995. p. 94). Les apports de Wiener et McCulloch sont pris en compte, mais l’idéal épistémologique « consiste à réintégrer, pour ainsi dire, la machine de Turing dans la machine cérébrale qui en constitue la possibilité réelle » (ibid.). Ce que Pignon reformule ainsi : « L’inscription des mathématiques dans un univers réel – réel au sens où les lois de la logique sont contraintes par leur inscription matérielle à suivre les règles qui définissent le statut d’existence des objets plongés dans le monde régi par les lois de la physique – les soumet aux contraintes de l’existence » (Pignon, 1996. p. 123). Se reproduire et évoluer… bit à bit La démarche de von Neumann est complémentaire de celle de McCulloch & Pitts. Ceux-ci établissent une équivalence entre le neurone physique, pris dans sa seule dimension d’organe en tout ou rien, et le neurone formel. Ils en déduisent une équivalence entre le fonctionnement cérébral et le fonctionnement de l’automate formel – réalisé par la mise en réseau des neurones formels. En cantonnant le cerveau à la structure logique du calcul propositionnel, ils négligent sciemment sa capacité, en tant qu’élément vivant, à se reproduire. Von Neumann considère pour sa part que la logique du fonctionnement cérébral est le propre d’un automate qui est simultanément un programme universel de calcul et la 30 reproduction d’un programme génétique . Il pose ainsi que « si le cortex est assimilable à une machine de Turing, il faut rendre compte du fait que cette machine est vivante et qu’elle se reproduit » (Pélissier & Tête, 1995. p. 93). Et il s’emploie à en apporter la 31 démonstration . L’article Theory of Self Reproducing Automata (1947) est repris par von Neumann lors du Hixon Symposium de septembre 1948. Il en donne une nouvelle lecture, sous le titre The General and Logical Theory of Automata. Cette version est présentée une seconde fois à l’Université d’Illinois en décembre 1949 (les actes attendront 1951 pour être publiés). L’édition française (Pélissier & Tête, 1995. p. 93) est suivie de la transcription du débat qui a suivi la communication de 1948. 29 Daniel Pignon souligne que von Neumann imagina « une généralisation des machines [universelles], qui non seulement calculent mais sont organisées de telle sorte qu’une machine peut engendrer une autre machine » (Pignon, 1996. p. 110-111). 30 La thèse de von Neumann est d’autant plus audacieuse que la découverte de la structure de l’ADN et de son rôle dans la réplication du matériel génétique n’aura lieu que cinq plus tard, lorsque Crick et Watson publieront leurs premiers résultats dans Nature, en 1953. 31 Ce faisant, von Neumann s’affronte une nouvelle fois à la question de la description des systèmes complexes, classe dans laquelle il range le système nerveux central. Il se demande même « si la complication du cerveau n’est pas telle que la manière la plus économique de le décrire ne serait pas de considérer le cerveau lui-même comme sa propre description » (Pignon, 1996. p. 110). 28 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 46 Visions et visionnaires la force du récit Partie 2 Reprenant les résultats de Turing sur les logical calculating machines, et surtout considérant la puissance du concept de machine universelle, von Neumann constate que l’ « on peut donner une description complète de tout ce qui est un automate au sens 32 considéré ici . Cette description doit être générale, c’est-à-dire qu’elle contiendra […] des espaces vides. Ces espaces vides seront remplis par des fonctions qui décrivent la structure réelle d’un automate. Comme auparavant, la différence entre ces espaces pleins ou vides est la différence entre la description d’un automate spécifique et la description générale d’un automate général » (von Neumann, 1951, in Pélissier & Tête, 1995. p. 131) Partant, il définit un ensemble de cinq automates, certains généraux, d’autres spécifiques, avec lesquels il montre que l’autoreproduction est – théoriquement – possible. Cette démonstration est l’occasion pour le mathématicien de mettre en évidence certaines 33 similitudes entre le cerveau et les ordinateurs. Se fondant sur une méthode axiomatique pour comprendre les processus élémentaires qui affectent le neurone, von Neumann l’assimile à une boîte noire et postule que la complexité fonctionnelle du système cérébral, du fait de son caractère molaire, interdit toute réduction analytique. En parallèle de la complexité structurale du cerveau, il introduit une complexité méthodologique en soumettant à l’automate turingien des calculs binaires compliqués à l’extrême. Cette complexité calculatoire, linéaire, est d’ordre analytique et donc ouverte dans ses moindres 34 détails au regard de l’observateur, à l’erreur d’arrondi près . Symptôme de la rencontre avec la matière, l’erreur d’arrondi révèle les limites du champ d’application de la logique formelle lorsqu’elle s’inscrit dans l’ordinateur. La machine universelle fonctionne avec un ruban-mémoire de taille infinie parce qu’elle est un modèle formel. Pour qu’il soit réalisable, l’automate de von Neumann possède une logique propre qui « différera du système actuel de la logique formelle sur deux aspects pertinents : La définition que donne von Neumann de l’automate est la suivante : « D’abord, nous avons à dresser une liste complète des parties élémentaires à utiliser. Cette liste doit contenir non seulement une énumération complète mais aussi une définition opérationnelle complète de chaque partie élémentaire. […] Un état du nombre de parties élémentaires requises représentera […] un compromis de sens commun, dans lequel on n’attend rien de trop compliqué d’une partie élémentaire et aucune partie élémentaire n’est conçue pour réaliser plusieurs fonctions manifestement séparées » (von Neumann, 1951, in Pélissier & Tête, 1995. p. 130). 32 Von Neumann a été élève de Hilbert, il témoigne ainsi son attachement à la pensée et au vocabulaire de son maître. En optant pour cette approche axiomatique, il choisit délibérément d’ignorer les « déterminations proprement physiologiques (ou chimiques, ou physico-chimiques) de la nature et des propriétés des éléments » (ibid. p. 101) que sont le neurone et le cerveau. 33 L’usage de l’arrondi est nécessaire pour ne pas saturer la capacité calculatoire de l’automate dès lors qu’il accomplit des multiplications et des divisions. Von Neumann souligne cette limite structurelle de la machine numérique, indiquant que « ce qu’elle produit quand on demande une multiplication n’est pas le produit lui-même mais le produit plus un petit terme supplémentaire – l’erreur d’arrondi » et précisant que même si d’un point de vue arithmétique l’erreur d’arrondi est « complètement déterminée, […] son mode de détermination est si compliqué et ses variations […] si irrégulières, qu’on peut habituellement la considérer, avec un haut degré d’approximation, comme une variable aléatoire » (ibid. p. 107). 34 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 47 Visions et visionnaires la force du récit Partie 2 – la longueur réelle des “chaînes de raisonnement”, c’est-à-dire des chaînes d’opérations, devra être prise en considération ; – les opérations de logique (syllogismes, conjonctions, disjonctions, négations, etc., c’est-à-dire, selon la terminologie habituellement utilisée pour les automates, des formes variées d’entrée, de coïncidence, d’anticoïncidence, de blocage, etc.) devront toutes être traitées par des procédures qui permettent des exceptions (dysfonctionnements) selon des probabilités faibles mais non nulles. » (ibid. p. 117) La maîtrise théorique et expérimentale des ordinateurs donne à von Neumann ce regard pragmatique, donc simplificateur, qui conduit du modèle à sa représentation. Les capacités de calcul réelles sont intrinsèquement limitées, il faut en tenir compte. Tout comme ce qui fonctionne en binaire dans la théorie mathématique – les organes en tout ou rien comme le neurone formel ou la machine de Turing – doit coexister, dans la pratique, avec l’analogique du monde physique – les processus humoraux du cerveau ou les 35 dysfonctionnements des tubes à vide . 36 La différence dans le mode de traitement des erreurs, qu’il soit “naturel” ou “artificiel” , indique dans quels sens la théorie logique des automates doit agir. « Les automates artificiels [qui] sont construits pour rendre les erreurs aussi évidentes, aussi désastreuses que possibles » doivent prendre exemple sur « les organismes naturels [qui] sont conçus de manière à rendre les erreurs aussi discrètes, aussi inoffensives que possible » (ibid. p. 119). La voie privilégiée par von Neumann est de caractériser les organes naturels par une manifestation du type “argument circulaire” « dont la plus simple expression est le fait que des organismes très complexes peuvent se reproduire » (ibid. p. 127). Poussant le raisonnement, il constate que l’ « on devrait s’attendre à une certaine tendance à la dégénérescence, à une diminution de la complexité quand un automate en fabrique un autre » et précise que « bien que cela soit quelque peu plausible, c’est en contradiction manifeste avec ce qui se produit dans la nature » (ibid.). En effet, dans la nature, les organismes se reproduisent sans que leur descendance perde en complexité et, plus étonnant encore, « il existe de longues périodes de l’évolution pendant lesquelles la complexité a même augmenté » (ibid.) (figure 2.5). Pour von Neumann, dès que de la matière entre en jeu, il n’y a pas d’organe en tout ou rien. Qu’il s’agisse de neurone, de relais électromécanique ou de tube à vide, « aucun de ces organes ne fonctionne exclusivement en tout ou rien (il n’existe pas grand-chose dans notre expérience technologique ou physiologique qui indique l’existence d’organes absolument en tout ou rien) ; cela n’est pas pertinent » (ibid. p. 110). 36 « Le principe de base du traitement des dysfonctionnements dans la nature est de minimiser autant que possible leurs effets et d’appliquer des corrections, si elles sont réellement nécessaires, en prenant son temps. D’un autre côté, quand nous avons affaire aux automates artificiels, nous exigeons un diagnostic immédiat. Par conséquent, nous essayons de concevoir les automates de façon à ce que les erreurs deviennent le plus manifestes possible et que l’intervention et la correction s’ensuivent immédiatement. » (ibid. p. 119) 35 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 48 Visions et visionnaires la force du récit Partie 2 Prise dans son ensemble, la théorie générale et logique des automates n’est qu’incidemment une théorie de l’autoreproduction, comme le soutient Barry McMullin qui affirme « que la capacité d’autoreproduction, loin d’être l’objet du modèle, est en fait un corollaire incident – et même trivial, bien que fortuit – de la résolution par von Neumann de certains des aspects d’un problème bien plus vaste [celui de] la croissance évolutionnaire de la complexité » (McMullin, 2000, § 2). Figure 2.5 : Par cette représentation très schématique, McMullin (2000, § 2) représente les degrés croissants de complexité, du plus simple au centre au plus complexe à l’extérieur. Le dessin de gauche décrit le fruit de notre expérience en ingénierie : toute construction d’une machine par une autre se fait au prix d’une complexité décroissante. À l’inverse, le dessin de droite figure l’état théorique de nos connaissances en biologie évolutionnaire, mettant en évidence qu’il existe des voies qui conduisent à un accroissement de la complexité dans la descendance de certains organismes. 37 Synthétisant en 1956 l’ensemble de ses travaux cybernétiques , von Neumann creuse plus 38 profondément la voie de la neurologisation de la logique formelle . Outre qu’il confirme le bien-fondé des travaux d’après-guerre de Turing sur les programmes capables 39 d’apprentissage , il les dote donc de la double capacité – théorique, s’entend – d’autoreproduction et d’évolution vers une complexité croissante, capacités similaires à celles des organismes naturels. Actuellement encore, les théories de Turing et von Neumann n’ont pas encore été concrétisées, même si elles nourrissent de très nombreux Au départ pensé comme une série de communications pour les Conférences Silliman, ce dernier texte de von Neumann deviendra l’ouvrage posthume, et testament scientifique, The Computer and the Brain (1957). 38 La quête pour la compréhension des automates très complexes, en particulier le système nerveux central, justifie, pour von Neumann, que « la logique ait à subir une “pseudomorphose” vers la neurologie » (von Neumann, 1951, in Pélissier & Tête, 1995. p. 126). 37 « En fait, la machine, sous le contrôle de ses ordres, peut extraire des nombres (ou des ordres) de la mémoire, les traiter (comme des nombres !), et les retourner à la mémoire (au même endroit, ou ailleurs), c’est-à-dire qu’elle peut changer les contenus de la mémoire, et c’est là bien entendu son mode de fonctionnement normal. Par conséquent, elle peut, en particulier, changer ses ordres (puisqu’ils sont dans la mémoire !) – les ordres même qui contrôlent ses actions » (von Neumann, 1957. p. 29). Cette capacité à réécrire au même endroit dans la mémoire est ce qui provoque nombre des blocages que nous expérimentons avec nos ordinateurs ; problème en partie résolu par les systèmes d’exploitation à “mémoire protégée”. 39 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 49 Visions et visionnaires la force du récit Partie 2 40 développements tant en intelligence artificielle qu’en vie artificielle . Et c’est encore dans la fiction que l’on trouve les meilleures illustrations des conséquences pratiques que pourraient avoir ces théories. Ainsi dans le roman de Jean-Michel Truong, Le successeur de pierre, où l’on peut lire cette description d’une collectivité d’agents intelligents, autonomes, autoreproducteurs, évolutifs : « En fait de sommeil, il avait passé la nuit fébrilement sur les cadavres des Gnomes. Parmi eux, il avait sans problème reconnu certains types qu’Ada lui avait présentés, à titre d’illustration, quand elle lui enseignait les rudiments de son art, comme des Renifleurs – ainsi nommés car ils étaient dressés à débusquer le gibier – des Arsènes à qui nulle porte ne résistait, ou encore des Charcutiers, qui débitaient les gros fichiers en petites tranches à emporter, ou des Facteurs pour livrer ces paquets à destination […]. Mais il y avait aussi de fabuleuses chimères, qui longtemps l’avaient tenu en respect, d’autant qu’il n’avait pour en comprendre la nature que des vestiges fort abîmés. Il finit pourtant par identifier des Passeurs, habiles à tracer dans les réseaux les chemins les plus discrets : jamais ils n’empruntaient le même itinéraire ; des Aiguilleurs qui, postés dans les commutateurs du Web, dirigeaient les Facteurs vers la prochaine adresse ; des Guetteurs qui avertissaient leurs complices quand survenait un danger – par exemple lorsque les programmes de surveillance se déclenchaient, ou quand les responsables de la sécurité du réseau se connectaient : quand ils sifflaient, chacun faisait le mort ; des Maquilleurs pour camoufler les agents que leur activité risquait de faire repérer ; des Receleurs pour planquer les Facteurs, jusqu’à ce qu’un signal leur ordonne de livrer leur colis à l’adresse finale ; des Balayeurs enfin, censés effacer toute trace d’effraction, mais qui n’avaient pas complètement rempli leur office, circonstance heureuse sans laquelle le garçon n’eût pas été en mesure de reconstituer cette fine équipe. […] Des foules d’agents logiciels évoluant comme des êtres vivants, par reproduction sélective des plus aptes… » (Truong, 1999. p. 368-369) Truong, comme Turing et von Neumann à leur époque, aborde indirectement la question de 41 la position particulière du programmeur. Calvin, son héros, est un hacker , un génie de « Ajoutons que les systèmes capables d’apprentissage non dirigé peuvent être, avec leurs environnements, simulés par ordinateur. Les algorithmes génétiques et divers systèmes de “vie artificielle” laissent imaginer que le logiciel, symbiotiquement lié au milieu technologique et humain du cyberespace, pourrait bientôt représenter le dernier en date des systèmes darwiniens capables d’apprentissage et d’autocréation. » (Lévy, 1998. p. 101) 41 Un hacker est « une personne qui prend plaisir à explorer dans le détail les systèmes programmables et à en tirer le maximum, à l’opposé de la plupart des utilisateurs qui se contentent d’apprendre le minimum nécessaire ; […] qui programme de manière enthousiaste (voire même obsessionnelle) ; […] qui programme vite et bien ; […] qui se réjouit du challenge intellectuel que représente le dépassement ou le contournement créatif des limitations. » (Raymond, 2003). C’est aussi une « personne qui fait ses délices d’une connaissance intime du fonctionnement d’un système, ordinateurs et réseaux informatiques en particulier » (RFC1392, The Internet Glossary, janvier 1993. http://www.faqs.org/rfcs/rfc1392.html). 40 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 50 Visions et visionnaires la force du récit Partie 2 l’informatique spécialisé dans la fouille archéologique du web. Seul un hacker est susceptible d’explorer l’intérieur des boîtes noires que sont les agents logiciels – lointains héritiers fictionnels des programmes autonomes théorisés par les deux mathématiciens – pour en analyser l’objet et le mode de fonctionnement. Aux yeux des autres humains, le web tout entier a glissé dans une boîte noire ; il s’agit juste d’en consommer le contenu et la production à travers des interfaces ergonomiques qui en masquent presque intégralement la complexité. Que de distance avec la vision des pionniers ; celle de von Neumann, par exemple, pour qui « l’usage des ordinateurs modernes est fondé sur la capacité des utilisateurs à développer 42 et formuler les codes complets nécessaires à tout problème donné que la machine est supposée résoudre » (von Neumann, 1957. p. 71). La partition de la population des usagers de l’informatique n’est pas encore soupçonnée – “utiliser un ordinateur” est synonyme de “programmer un ordinateur”. Pourtant, à cette même époque, d’autres chercheurs – Bush le premier mais aussi Engelbart – songent à des machines dont l’usage ne relève pas de la programmation. Leur objectif : préparer l’avènement de l’humain augmenté. L’humain formalisé du calcul à la mémoire Bush, alors qu’approche la fin de la Seconde Guerre mondiale, ressent simultanément deux impératifs. D’une part, la démobilisation à venir nécessite de proposer un nouveau défi commun aux quelque six mille scientifiques engagés dans l’effort de guerre afin de préserver et renforcer la domination technologique des États-Unis. D’autre part, 43 l’orientation des recherches demande à être revue en faveur d’objectifs plus humanistes . Son article As we may think paraît, à quelques semaines d’intervalle, une première fois dans le magazine Atlantic Monthly, une seconde fois dans le magazine Life – peu avant et juste après l’attaque nucléaire sur Hiroshima. Même si les technologies décrites paraissent très datées, les assemblages et les usages évoqués par Bush gardent toute leur actualité. Il préfigure l’interaction vocale, les appareils de saisie d’information portables, les « Dans les ordinateurs, des codes complets sont des ensembles d’ordres, donnés avec toutes les spécifications nécessaires. Si la machine doit résoudre un problème déterminé au moyen d’un calcul, il faudra la contrôler au moyen d’un code spécifique » (ibid. p. 71). Ce que von Neumann nomme “code complet” s’appelle “microprogrammation” aujourd’hui. On la rencontre au plus près des machines, à la frontière de la matière, là où le code binaire définit les capacités fonctionnelles des appareils. 43 « Les applications de la science ont fourni à l’humanité une maison bien équipée et lui enseignent comment y vivre en bonne santé. Elles lui ont permis de jeter des peuples entiers les uns contre les autres avec des armes cruelles. Elles pourraient lui permettre désormais d’embrasser réellement tout le savoir et de grandir en sagesse, grâce à l’expérience de l’espèce. » (Bush, 1945, in Wardrip-Fruin & Montfort, 2003. p. 47) 42 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 51 Visions et visionnaires la force du récit Partie 2 44 communications sans fil, etc. Mais ces descriptions ne sont qu’une introduction pour la plus fameuse proposition du chercheur : le « memex », « un futur appareil à usage individuel, une sorte de fichier-bibliothèque personnel et mécanisé », « une extension intime de sa mémoire » (Bush, 1945, in Wardrip-Fruin & Montfort, 2003. p. 45). Figure 2.6 : « Le memex, sous la forme d’un bureau, afficherait instantanément fiches et matériau sur tout sujet, à la commande de l’opérateur. Des écrans translucides inclinés agrandissent les supermicrofilms indexés par code numérique. À gauche, un mécanisme qui photographie automatiquement notes manuscrites, images et lettres, puis qui les classe dans le bureau pour référence. » (Life n° 19(11). 1945. p. 123) Le memex est pensé comme le moyen de « transformer l’explosion de l’information en une explosion de la connaissance » (Wardrip-Fruin & Montfort, 2003. p. 35). Bush insiste sur le caractère associatif de l’esprit humain et souligne l’impermanence des connexions qui relient entre eux les neurones. S’il doute que nous soyons en mesure de reproduire de manière artificielle l’intégralité de ce processus mental, il suggère de s’en inspirer pour mécaniser le processus de sélection par association, plus proche du fonctionnement humain que celui de sélection par indexation. Bush prend pour hypothèse de travail un appareillage individuel réalisable avec les moyens techniques de son époque (figure 2.6). La mécanisation garantit la permanence des liens entre documents établis par l’utilisateur (figure 2.7). Surtout, les liens consécutifs forment des pistes (« trails ») qui cristallisent dans la mémoire de la machine l’ensemble de la connaissance construite sur un sujet par les associations insérées dans les documents – qu’il s’agisse des liens automatiques de l’indexation ou des liens créés à l’écran par l’opérateur. « C’est exactement comme si les « On peut s’imaginer un chercheur du futur dans son laboratoire. Ses mains sont libres, il n’est pas rivé à sa paillasse. Alors qu’il se déplace et observe, il photographie et commente. L’heure est automatiquement ajoutée pour lier ensemble les deux enregistrements. S’il va sur le terrain, il peut être connecté par radio à son enregistreur. Lorsqu’il se penche sur ses notes le soir, il dicte à nouveau ses commentaires et les joint à l’enregistrement. Son texte dactylographié, comme ses photos, peuvent être stockés en miniature, aussi il les projette pour les examiner. » (Bush, 1945, in WardripFruin & Montfort, 2003. p. 41) 44 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 52 Visions et visionnaires la force du récit Partie 2 éléments physiques venant de sources très distantes avaient été rassemblés puis liés ensemble pour en faire un nouveau livre. Et c’est même plus que cela, car chaque élément peut être inséré dans de nombreuses pistes » (ibid. p. 45). Figure 2.7 : « Le memex montré en action. Sur l’un des écrans transparents, l’opérateur du futur écrit notes et commentaires se rapportant au document affiché sur l’écran de gauche. L’insertion des bons codes au bas de l’écran de droite liera le nouvel élément au précédent, après que les notes ont été photographiées sur supermicrofilm. » (Life n° 19(11). 1945. p. 124) Bush imagine que « la plupart des contenus pour le memex sont achetés sur microfilm, prêts à l’insertion » (ibid.). Il prévoit aussi qu’un « recopieur » est mis en fonction à la demande pour « photographier toute une piste […] pour insertion dans un autre memex » (ibid. p. 46). Le chercheur esquisse enfin les contours des encyclopédies du futur, convaincu que « la science peut réaliser les voies par lesquelles l’humain produit, 45 enregistre et consulte la mémoire de l’espèce » (ibid. p. 46). 46 Avec cet article très populaire, l’inventeur avéré et homme public influent qu’est Bush marque profondément les esprits de son époque. L’auteur use de toutes les ressources à sa disposition pour orienter la recherche dans les directions qui lui paraissent pertinentes ; et pour réussir, il persiste à impliquer l’homme de la rue à l’égal du chercheur, du militaire et du politique – comme depuis la fondation de l’IPTO en 1940 – dans la voie du “bonheur technoscientifique”. Et quelle meilleure forme donner à la prospective qu’une bonne fiction pour frapper autant l’imaginaire que la raison ? Dans la trame de As We May Think apparaît l’hypertexte. Les liens entre documents ; les pistes, ces arborescences chargées de sens ; l’indexation par association automatisée ; la Comme les cybernéticiens, Bush perçoit la proximité entre les phénomènes naturels qui prennent place dans le cortex humain et les opérations des machines de traitement automatisé du savoir. « Toutes les formes d’informations sonores ou visuelles du monde extérieur ont été réduites à des variations de courant dans un circuit électrique afin d’être transmises. Il se déroule exactement les mêmes processus dans le corps humain » (ibid. p. 47). 45 Bush connaît une gloire méritée pour son analyseur différentiel, mis au point dans les années 1930. Son attachement aux machines analogiques, électromécaniques puis électroniques, ne faiblira pas malgré les applications convaincantes tirées très vite des recherches sur les machines numériques de Wiener, von Neumann, Turing… 46 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 53 Visions et visionnaires la force du récit Partie 2 navigation aisée dans le réseau des connaissances… Il suffit de remplacer le bureau par un ordinateur et le supermicrofilm par les fichiers numériques pour transformer la vision de Bush en un rêve réalisable. Ses héritiers spirituels, Ted Nelson et Engelbart, s’appliqueront à le concrétiser vingt ans plus tard. Tous deux citent Bush comme une source d’inspiration majeure, leurs résultats connexes ne peuvent que le confirmer. L’hypertexte, ça lie… les inventeurs 47 L’hypertexte doit-il avoir un seul géniteur ? S’il en était un , il pourrait s’appeler Jorge 48 Luis Borges. En 1941, il écrit un ensemble de huit fictions sous le titre Le jardin aux sentiers qui bifurquent. La huitième, qui clôt le recueil, porte le même titre. Il y est fait récit d’un roman et d’un labyrinthe conçus par un dénommé Ts’ui Pên. L’œuvre du maître chinois, titrée elle-même Le jardin aux sentiers qui bifurquent, décrit métaphoriquement un hypertexte « avant même l’invention (ou, à tout le moins la révélation publique) de l’ordinateur digital électromécanique » (Wardrip-Fruin & Montfort, 2003. p. 29). Borges nous introduit dans la demeure de Stephen Albert, sinologue anglais et fin connaisseur de l’œuvre de Ts’ui Pên, qui entre en possession d’une lettre calligraphiée de la main du Maître. Il tombe en arrêt sur la phrase : « Je laisse aux nombreux avenirs (non à tous) mon jardin aux sentiers qui bifurquent. » Albert explique à son visiteur impromptu, un lointain descendant de Ts’ui Pên venu chez lui sans motif apparent, la compréhension nouvelle qui en résulte : « Je compris presque sur-le-champ ; le jardin aux sentiers qui bifurquent était le roman chaotique ; la phrase nombreux avenirs (non à tous) me suggéra l’image d’une bifurcation dans le temps, non dans l’espace. Une nouvelle relecture générale de l’ouvrage confirma cette théorie. Dans toutes les fictions, chaque fois que diverses possibilités se présentent, l’homme en adopte une et élimine les autres ; dans la fiction du presque inextricable Ts’ui Pên, il les adopte toutes simultanément. Il crée ainsi divers avenirs, divers temps qui prolifèrent aussi et bifurquent. De là, les contradictions du roman. Fang, disons, détient un secret ; un inconnu frappe à sa porte ; Fang décide de le tuer. Naturellement, il y a plusieurs dénouements possibles : Fang peut tuer l’intrus, l’intrus peut tuer Fang, tous deux peuvent être saufs, C’est évidemment impossible ! “Nous sommes des nains juchés les épaules de géants”… En 1658 à Nuremberg paraît le premier ouvrage didactique, en latin, allemand et tchèque, utilisant des illustrations légendées et numérotées : Orbis selisualium pictus (Le monde des choses sensibles illustré), signé du pédagogue Amos Comenius. 48 Nick Montfort, dans la présentation qu’il fait du texte, précise : « [Borges] n’a jamais écrit de roman. Il estimait suffisant d’encoder des idées assez riches pour servir de trame à un roman dans un format plus court que la nouvelle classique, format qu’il appelait “fiction” » (Wardrip-Fruin & Montfort, 2003. p. 29). L’auteur l’affirmait déjà dans le prologue de son recueil Le jardin… : « Délire laborieux et appauvrissant que de composer de vastes livres, de développer en cinq cents pages une idée que l’on peut très bien exposer oralement en quelques minutes. Mieux vaut feindre que ces livres existent déjà » (Borges, 1983. p. 9). 47 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 54 Visions et visionnaires la force du récit Partie 2 tous deux peuvent mourir, et cætera. Dans l’ouvrage de Ts’ui Pên, tous les dénouements se produisent ; chacun est le point de départ d’autres bifurcations. Parfois, les sentiers de ce labyrinthe convergent : par exemple, vous arrivez chez moi, mais dans l’un des passés possibles, vous êtes mon ennemi ; dans un autre mon ami. » (Borges, 1983. p. 100-101) Détail caractéristique de sa manière, Borges emmêle à dessein les différents niveaux du 49 Jardin, tissant la trame de sa fiction jusqu’à y prendre son lecteur . Le tour de passe-passe réussit parce que l’esprit humain fonctionne par association. « Dès qu’il s’est saisi d’un objet, il passe instantanément à celui qui lui est suggéré par association d’idées, en accord 50 avec une toile complexe de pistes portée par les cellules du cerveau » (Bush, 1945, in Wardrip-Fruin & Monfort, 2003. p. 44). Créer les moyens efficaces pour que l’ordinateur travaille avec les éléments de connaissance comme l’accomplit notre cortex, voilà ce qui pousse Nelson à conceptualiser l’hypertexte au début des années soixante. Il attendra 1965 51 pour endosser le terme dans une communication : « Le mot “hypertexte”, tel que je vous le présente, désigne un ensemble de matériaux textuels et picturaux interconnecté d’une manière si complexe 52 qu’il ne serait pas pratique de le représenter sur papier. » (Nelson, 1965, in Wardrip-Fruin & Montfort, 2003. p. 144) L’auteur précise que le préfixe hyper est choisi parce qu’il dénote « l’extension et la généralité » (ibid), comme dans le terme hyperespace, et qu’il exprime adéquatement l’idée de lecture/écriture non linéaire sur un support informatique. Cette définition de l’hypertexte s’appuie sur une “philosophie” – les guillemets sont de Nelson – portée par deux idées : 53 « les structures complexes de fichiers (comme le ELF ) rendent possible la création de nouveaux médias complexes et significatifs, l’hypertexte et l’hyperfilm » ; « les structures de fichiers évolutives (comme le ELF) rendent possible la conservation de la trace des choses qui ont changé, hors de notre conscience, depuis le début. Cela inclut les grandes Des constructions infinies comparables se retrouvent dans d’autres textes de Borges, Le livre de sable et La bibliothèque de Babel par exemple, qui figurent aussi dans Fictions (Borges, 1983). 50 Nous verrons plus loin comment Baltz (2003) reprend la définition et propose de généraliser la notion d’hypertexte, y incluant les échos de ce commentaire de Bush quand il cite Marshall McLuhan : « l’homme a jeté son système nerveux à la surface du globe » (McLuhan, 1964). 51 A File Structure for the Complex, the Changing, and the Indeterminate est publié en 1965, dans les actes de la 20e conférence nationale de l’Association for Computing Machinery. 52 Nelson poursuit, précisant que « films, enregistrements sonores et vidéo » peuvent être traités comme « des systèmes non-linéaires » grâce à l’informatique. Il en donne l’illustration suivante : « L’hyperfilm – un film navigable ou multiséquencé – est un exemple d’hypermédia qui attire notre attention » (ibid. p. 144). 53 La structure de fichiers évolutive proposée par Nelson sous le nom de Evolutionary List File (ELF) fonctionne avec trois éléments de base : les entrées, les listes, les liens. Nelson insiste sur la dimension abstraite de sa proposition ; il ne s’agit pas d’une machine, « un ELF peut être pensé comme un lieu » (ibid. p. 139). Par généralisations successives de son système (le processus est récursif), Nelson franchit des niveaux de complexité : des ajouts, corrections, variantes, etc., liés au document original jusqu’au réseau global autodocumenté qu’un historien pourrait créer alors qu’il écrit un livre. 49 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 55 Visions et visionnaires la force du récit Partie 2 catégories de la pensée humaine, qui ne cesseront de changer » (ibid. p. 143). Cette “philosophie” recouvre en partie les observations de Engelbart lorsqu’il élabore son “cadre 54 conceptuel pour l’augmentation de l’intellect humain”, présenté formellement en 1962 . En marche vers l’humain augmenté Synthèse prodigieuse, il s’y mêle les aspects fonctionnels du memex de Bush, la symbiose humain-ordinateur de Licklider, la logique formelle des cybernéticiens appliquée à l’esprit humain comme aux ordinateurs, l’architecture de von Neumann, les automates… et quantité d’apports originaux qui dérivent directement de ce que l’on pourrait nommer la “méthode de Engelbart” (figure 2.8). Son programme est guidé par une ambition non 55 dénuée de générosité : « Par “augmenter l’intellect humain”, nous entendons accroître la capacité de l’humain à aborder des situations complexes problématiques, d’en acquérir une compréhension pour satisfaire ses besoins particuliers, et d’en dériver des solutions aux problèmes. […] Nous ne parlons pas des tours astucieux isolés qui aident dans des situations particulières. Nous nous référons à une manière de vivre dans un domaine intégré où l’intuition, l’empirique, l’impondérable et le “sens de la situation” humain coexistent utilement avec des concepts puissants, une terminologie et une notation rationalisées, des méthodes élaborées et des assistants électroniques très puissants. » (Engelbart, 1962. Section I. A.) Le rapport Augmenting Human Intellect: A Conceptual Framework, élément d’un contrat passé entre le Stanford Research Institute et l’Air Force Office of Scientific Research, est édité en 1962 par le SRI. Engelbart travaille à Stanford depuis 1957 où il glane depuis supports et financements pour ses projets. 55 Jeune ingénieur électricien, Engelbart s’ennuie dans l’industrie. Et il a des “flashs” : « FLASH-1 La difficulté des problèmes de l’humanité croît plus vite que notre capacité à les traiter. (Nous avons des soucis !) 54 FLASH-2 Booster la capacité de l’humanité à traiter les problèmes complexes et urgents est un candidat intéressant dans l’arène où un jeune ingénieur électricien pourrait tenter de “faire le plus la différence”. […] FLASH-3 Haha ! Vision graphique de moi-même devant une console CRT, travaillant avec des moyens qui évoluent rapidement sous mes yeux. » (Engelbart, A History of Personal Workstations, 1988.) La “vision graphique” doit être comprise comme une vision de l’avenir « dans le style de la sciencefiction » (Wardrip-Fruin & Monfort, 2003. p. 94). Ce style est d’ailleurs utilisé dans toute la section III du rapport de 1962. Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 56 Visions et visionnaires la force du récit Partie 2 Figure 2.8 : Pour Engelbart, presque tous les humains sont déjà augmentés (une machine à écrire, par 56 exemple, accélère le processus d’écriture). Le “système H-LAM/T” , qui a pour « seuls composants physiques l’humain et les artefacts », intègre deux domaines d’activité distincts : « celui représenté par l’humain, où se déroulent tous les processus formels humains, et celui représenté par l’artefact, où se tiennent tous les processus formels artificiels ». Au cours de tout processus composite se tient « une interaction coopérative entre les deux domaines qui nécessite un échange d’énergie (dont la plus grande part à des fins d’échange d’information) ». L’ “interface humain-machine” « représente la frontière à travers laquelle l’énergie est échangée entre les deux domaines. […] Les échanges via cette interface ont lieu lorsqu’un processus formel humain est couplé à un processus formel artificiel. » (Engelbart, 1962. Section II. C. 3). C’est indépendamment de Nelson qu’Engelbart invente l’hypertexte. Cet apport fonctionnel n’est, pour lui, qu’une solution particulière donnée à un problème précis ; conséquence logique de la mise en pratique de son programme par le chercheur. Celui-ci définit un cadre conceptuel très général pour conduire les recherches, dans quelque domaine que ce soit, afin qu’elles répondent aux besoins particuliers des individus comme aux besoins de l’humanité tout entière – une véritable méthode au sens cartésien. Engelbart résume ses objectifs. « Nous avons donné à ce cadre les spécifications suivantes : – qu’il donne une perspective tant pour la recherche à long terme que pour la recherche qui produira des résultats rapidement ; H-LAM/T signifie Human using Language, Artifacts, Methodology, in which he is Trained (un humain utilisant les langages, artefacts et méthodes pour lesquels il est entraîné). Engelbart précise chacun des concepts : « 1. Artefacts – objets physiques conçus pour apporter du confort à l’humain, pour la manipulation d’objets et de matériaux, et pour la manipulation de symboles ; 56 2. Langage – la façon dont chaque individu décompose l’image du monde en concepts que son esprit utilise pour le modéliser, et les symboles qu’il lie à ces concepts et qu’il utilise pour manipuler consciemment ces concepts (“penser”) ; 3. Méthodologie – les méthodes, procédures, stratégies, etc. que l’humain utilise pour ses activités finalistes (résolution de problèmes) ; 4. Entraînement – le conditionnement nécessaire de l’être humain pour qu’il puisse utiliser les moyens 1, 2 et 3 de manière opérationnellement efficace » (Engelbart, 1963. Section II. A.). Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 57 Visions et visionnaires la force du récit Partie 2 – qu’il indique ce que cette augmentation va effectivement entraîner comme conséquences pour l’environnement professionnel, la réflexion, les savoirs et les méthodes de travail ; – qu’il serve de base pour évaluer la possible pertinence des travaux et connaissances provenant de domaines existants et pour assimiler tout ce qui est pertinent ; – qu’il révèle où la recherche est possible et les voies pour conduire cette recherche ; qu’il serve à choisir les points de départ et qu’il indique comment développer les méthodologies appropriées aux recherches nécessaires. » (Engelbart, 1962. Section I. B.) La construction intellectuelle présentée dans le rapport de 1962, encore très rudimentaire (figure 2.9), doit impérativement évoluer jusqu’à devenir un programme global (figure 2.10). Cette “méthode de Engelbart”, mise en application au sein de l’Augmentation Research Center, donne des résultats stupéfiants en quelques années. Le chercheur, assisté de William English, le démontrera six ans plus tard lors de la première présentation 57 publique du Online System . Figure 2.9 : Le programme d’augmentation initial débute par « la dépendance générale aux disciplines préexistantes, pour leur sujet (flèche pleine) comme pour leurs outils et techniques (flèche pointillée) ». Engelbart énumère celles des disciplines qui lui paraissent le plus pertinentes : « psychologie, programmation et technologie physique des ordinateurs, technologies d’affichage, intelligence artificielle, ingénierie industrielle, science du management, analyse de systèmes et recherche d’information » (Engelbart, 1962. Section IV. E.). Le Online System, ou NLS, provient des recherches de l’équipe de Engelbart dans son laboratoire, l’Augmentation Research Center (ARC), hébergé par le Stanford Research Center (SRI). « Engelbart est l’un des grands inventeurs du XXe siècle » (Wardrip-Fruin & Monfort, 2003. p. 93). On lui doit les principes majeurs des interfaces humain-machine : souris, fenêtre, traitement de texte, affichage graphique/texte, visioconférence, travail coopératif, programmation structurée, etc. La présentation du NLS en 1968 démontre la puissance créatrice de son Conceptual Framework. La vidéo de l’événement est en ligne sur le site du SRI (http://sloan.stanford.edu/mousesite/1968Demo.html). 57 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 58 Visions et visionnaires la force du récit Partie 2 Figure 2.10 : La “méthode de Engelbart” est un programme totalisant. Les boucles récursives de la logique formelle servent à optimiser l’exploitation des savoirs, des outils et des méthodologies. Après la phase initiale de “numérisation” de tout ce qui est pertinent dans les disciplines préexistantes pour augmenter l’humain, le programme entre dans un cercle vertueux d’exploitation maximale des innovations, entretenu par des procédures efficaces de partage des connaissances. Le contexte dans lequel prend place cette quête de l’humain augmenté, évolutif lui aussi, est exemplaire des impondérables cités par le chercheur : « Même si notre cadre conceptuel nous fournissait une analyse de base précise et complète du système d’où provient l’efficacité intellectuelle humaine, la nature explicite de futurs systèmes améliorés serait très affectée par des changements (attendus) dans notre technologie ou dans notre compréhension de l’être humain » (Engelbart, 1962. Section I. B.). Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 59 Visions et visionnaires la force du récit Partie 2 Figure 2.11 : Au cours de la démonstration du NLS, Engelbart manipule les données grâce à un ensemble de trois périphériques d’entrée : un clavier classique, un clavier à cinq lames métalliques (qui permet la saisie accélérée des caractères alphanumériques) et une souris. À l’écran, un affichage purement graphique où le texte est saisi puis édité directement en listes, en arbres, etc. Sutherland avait réifié le symbole graphique, Engelbart réifie la part hypertextuelle du langage. Vingt-cinq ans seront nécessaires pour que l’industrie informatique adopte une grande part ces composants matériels et logiciels. Engelbart, comme Nelson à sa mesure, encourage l’évolution des automates programmables vers une plus grande complexité. Les couches logicielles se superposent jusqu’à confier définitivement le traitement des fichiers de données à l’ordinateur – seul l’informaticien a encore des raisons de s’y intéresser. L’opérateur, qui est alors encore un programmeur, ne voit plus le contenu de ces fichiers : il manipule l’information à un niveau d’abstraction supérieur à travers les représentations symboliques produites par l’ordinateur en réponse à ses demandes. Alors le récit s’inscrivit dans la matière La similitude formelle entre cerveau humain et ordinateur, entrevue par les scientifiques voici une soixantaine d’années, trouve une voie de réalisation dans la délégation d’un nombre toujours plus important de processus cognitifs à la machinerie informatique. Certes, la question de la machine pensante reste irrésolue, malgré les nombreuses propositions 58 fictionnelles qui continuent de fleurir . Mais l’engagement de la nation américaine dans l’aventure numérique au sortir de la Seconde Guerre mondiale, et par entraînement de toutes les nations occidentalisées, instaure un contexte favorable à l’épanouissement des ordinateurs. Ce que les visionnaires ont anticipé a été, peu ou prou, accompli. Toutefois, comme dans tout exercice de prospective, certaines voies privilégiées ont échoué, d’autres ignorées à tort. Le raté le plus évident, de ce point de vue, touche à la mise en réseau permanente d’ordinateurs jusqu’à constituer l’interréseaux qu’est Internet ; un autre raté concerne la miniaturisation des composants électroniques et la possibilité de construire des ordinateurs individuels. Les auteurs de science-fiction trouvent dans l’ordinateur pensant un matériau formidable pour exercer leur imagination. Par exemple dans Câblé de Walter Jon Williams (1986) ; La stratégie Ender de Orson Scott Card (1989) ; Les Cantos d’Hyperion de Dan Simmons (1989), roman où apparaît pour la première fois le terme “infosphère” ; Les synthérétiques de Pat Cadigan (1991) ; Gros temps de Bruce Sterling (1994) ; Les racines du mal de Maurice G. Dantec (1999) ; etc. 58 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 60 Visions et visionnaires la force du récit Partie 2 Des loupés ? Certainement. Mais pas pour tous les auteurs ; ainsi William F. Jenkins qui, sous le pseudonyme de Murray Leinster, publie en 1946 la nouvelle A logic named Joe. En une vingtaine de pages, il brosse un portrait saisissant d’une société où « les logiques sont la civilisation » (Leinster, 1946, in Duvic, 1986. p. 22). Ce qu’il décrit n’a presque rien pour nous surprendre… aujourd’hui : « Vous connaissez les logiques. Vous en avez un chez vous. Ça ressemble à un récepteur d’images, seulement il y a des touches au lieu de cadrans et vous pianotez pour avoir ce que vous voulez. L’appareil est raccordé au réservoir de données et c’est là que le circuit Carson est fixé aux relais. Par exemple, vous tapez “Radio BIDE” sur votre logique. Des relais, dans le réservoir, prennent la relève, et le programme visuel que BIDE est en train de diffuser apparaît sur l’écran de votre logique. Ou bien vous tapez le numéro de téléphone de Sally Handcock, alors l’écran clignote et crachote et vous voilà raccordé à son logique ; si quelqu’un répond, vous êtes en communication visiophonique. Mais en plus de ça, vous pouvez avoir les prévisions météo, apprendre qui a gagné les courses d’aujourd’hui à Hialeah ou qui était maîtresse de la Maison-Blanche pendant le mandat de Garfield, ou ce que Illico Presto va vendre aujourd’hui. Ce sont les relais qui font le travail dans le réservoir. Lui, c’est un grand bâtiment plein des événements en cours et de toutes les émissions jamais enregistrées – il est branché sur les réservoirs de tous les autres pays – et vous n’avez qu’à pianoter pour obtenir tout ce que vous voulez savoir, voir ou entendre. C’est bien commode. Il fait aussi tous vos calculs et tient votre comptabilité, vous pouvez le consulter en chimie, en physique, en astronomie, il vous tire les cartes et il a, en prime, un programme “Conseils aux cœurs solitaires”. » (ibid. p. 10-11) Cette vision graphique – pour reprendre la terminologie de Engelbart – rappelle à s’y méprendre les ordinateurs connectés à Internet, le plus souvent aux services proposés sur le Web. Mais qu’importe, pour l’instant, l’objet de notre rapport à ces classes d’automates formels inscrites dans le réel. Tout l’édifice tient sur le dispositif technique numérique, ce mélange intime de matière et d’information qui fait les ordinateurs et les réseaux. Les directions indiquées par les pionniers produisent des résultats tangibles ; prendre pour exemple la prégnance de la méthode de Engelbart dans l’esprit de chercheurs, d’artistes, de programmeurs, d’expérimentateurs de toute sorte, qui la pratiquent comme Monsieur Jourdain la prose. Le dispositif technique numérique a d’abord été conçu, développé, déployé et mis en service pour calculer et pour simuler. « Ultérieurement, on s’est aperçu que les capacités de traitement de ces machines dépassaient très largement le domaine du calcul numérique […]. Cela explique que l’on soit passé historiquement de la notion de “calculatrice” à Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 61 Visions et visionnaires la force du récit Partie 2 celle de “système automatique de traitement de l’information” » (Hebenstreit, 2001). Ce qui formait l’objet de l’attention aux débuts, cet ordinateur-calculatrice évoqué par Hebenstreit, a perdu sa position centrale. Il s’est banalisé au point que la puissance de calcul distribuée dans un grand nombre de petites machines dépasse celle de grands systèmes. Conséquence prévisible, la proportion d’informaticiens dans la population 59 d’utilisateurs diminue , même s’ils sont une composante vitale pour l’évolution du système. La diffusion des micro-ordinateurs dépend d’eux : ils empilent les couches logicielles dans la boîte noire pour que l’utilisateur voie s’afficher sur son “bureau” des “documents” et des “applications”. La mise en réseau des ordinateurs d’abord, puis la mise en réseau des réseaux – grâce aux protocoles TCP/IP – ont transformé notre rapport à ces systèmes automatiques de 60 traitement de l’information. Notre attention quitte le dispositif technique numérique et se focalise sur ce qu’il produit. « Longtemps polarisée par la “machine”, balkanisée naguère par les logiciels, l’informatique contemporaine – logiciel et matériel – déconstruit l’ordinateur au profit d’un espace de communication navigable et transparent centré sur les flux d’informations » (Lévy, 1998. p. 44). Lévy, comme d’autres auteurs contemporains, cantonne en quelques mots l’outil informatique à un rôle strictement fonctionnel pour porter son regard, et concentrer son discours, sur ce qui est produit par l’exploitation continue du dispositif technique numérique – les seuls flux d’informations porteurs de sens pour l’être humain. Et si l’existence de cet “espace de communication” est incontestable, la manière dont il est qualifié ici de “navigable et transparent” mérite discussion. Surtout, il paraît bien présomptueux, si ce n’est par une volonté affirmée de simplification, de vouloir étudier ce monde numérique – qu’on le désigne par cyberespace ou tout autre terme équivalent – en éludant la question : que se passe-t-il dans la boîte noire ? À l’échelle française, la dernière tentative d’enseigner la programmation à toute une classe d’âges remonte à 1985, lorsque Laurent Fabius, alors Premier Ministre, lançait le Plan Informatique pour Tous (communiqué de presse : http://www.epi.asso.fr/revue/37/b37p023.htm – dernier accès le 18 août 2003). La décennie 1980 a vu la micro-informatique passer des mains des “hobbyistes”, ces particuliers qui achetaient un micro pour programmer, aux bureaux des entreprises et des administrations avant de revenir peu à peu dans les foyers comme machine de jeu, d’apprentissage, de “petite bureautique” et, enfin, de terminal Web. 59 La chose vaut, bien sûr, tant que ça marche ! Un bug, un plantage, et l’attention revient à la part matérielle de l’interface. D’une manière plus générale, nous ne cessons de nous frotter à la matière lorsque nous interagissons avec le dispositif technique. L’écran n’est jamais assez grand ni nos doigts assez rapides sur le clavier, sans parler de cette diablesse de souris… 60 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 62 Où le cyberespace est Autre, conclusion temporaire Un cyberespace plongé dans l’espace informationnel L’onde de choc planétaire engendrée par l’invention, la création et l’emploi continu du dispositif technique numérique confondent l’observateur. Il suffit pour s’en convaincre de contempler la prolifération d’ouvrages, d’articles, d’études, de recherches qui sondent les technologies du numérique dans toutes leurs dimensions – machines, réseaux, logiciels, documents, usages, impacts, etc. Cette prolifération, sans cesse croissante, illustre la diversité des questionnements, et l’ampleur des polémiques, concomitants à l’apparition de ce dispositif technique. Rares sont les champs de la connaissance qui ne soient confrontés, concernés et affectés par la question des technologies du numérique, en elles-mêmes et ou pour leurs effets. Et rares sont les commentateurs qui s’accordent sur ce qu’ils observent. L’hésitation sur le vocabulaire, la difficulté à fixer les définitions, la profusion des concepts brouillent l’image au point qu’il est impossible d’embrasser l’ensemble d’un coup d’œil. Cette prolixité fait écho à l’impensable complexité atteinte par le dispositif technique, appréhendable dès le contact avec une machine numérique. Aujourd’hui, comme le pronostiquait Turing dès 1950, a disparu l’informaticien susceptible de connaître l’intégralité des processus en cours dans son ordinateur – c’était encore sa situation normale voici une vingtaine d’années, encore plus à l’époque d’un von Neumann. Se connecter à 1 Internet, ce n’est pas se connecter à un réseau mais à l’un des milliers de réseaux qui le constituent. La plasticité du codage binaire répond à la capacité de l’être humain à 2 formaliser ses idées – il s’agit en somme de leur appliquer la méthode de Descartes augmentée de la méthode de Engelbart. La logique formelle fondatrice de l’édifice assure la cohérence ou, à tout le moins, la coexistence des codes binaires dans l’espace défini par les machines qui coopèrent à travers les réseaux. Tom Leighton débute son cours Topics in Theoretical Computer Science: Internet Research Problems, qu’il donne au MIT, par la présentation rapide du fonctionnement de l’interréseaux Internet : « Internet est un réseau de réseaux : il comprend plus de 9 000 réseaux indépendants, qui communiquent par le protocole IP. […] Pour qu’Internet se comporte comme un véritable réseau global reliant tout le monde, ces réseaux indépendants doivent être reliés par des liens appelés points de parité (« peering »). Un point de parité est pour l’essentiel un lien entre deux routeurs situés sur des réseaux différents. Les données, pour passer de l’un à l’autre, franchissent ce lien. De fait, il y a des milliers de points de parité sur le Web. Et pour atteindre l’utilisateur, les données doivent passer à travers de nombreux réseaux indépendants et autant de points de parité. Deux types de protocoles aident à diriger le trafic sur le Web. Les Interior Gateway Protocols, comme RIP, routent les données au sein d’un réseau individuel. Plus important pour nous, le Exterior Gateway Protocol, BGP, est utilisé pour router les données entre les réseaux. Alors que les protocoles IGP utilisent diverses méthodes sophistiquées pour déterminer le routage optimal – incluant la topologie, la bande passante et la congestion –, BGP ne fait rien de cela. À la place, BGP détermine les routes simplement en minimisant le nombre de réseaux indépendants que les données doivent traverser » (Leighton, 2002. § 1.2.1). 2 « Les longues chaînes de zéros et de uns du langage informatique accomplissent, à trois siècles de distance, le programme tracé par le Discours de la méthode » (Bougnoux, 2001. p. 102). 1 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 63 Où le cyberespace est Autre, conclusion temporaire L’objet de notre examen contient l’intégralité des codes binaires représentés dans le 3 dispositif technique numérique . Immatériel, cet objet fonde son existence dans la matière, ce qui permet à chaque individu disposant d’un équipement d’interface – précipité particulier de matériel et de logiciel – d’interagir avec lui et de communiquer à travers lui avec tout autre individu pourvu d’un tel équipement. « Le net est un monde d’extrémités. Vous êtes à une extrémité, et tous les autres et tout le reste sont les autres extrémités. » (Searls & Weinberger, 2003). La proposition, certes inspirée, est par trop radicale. Elle se détourne de ce qui se tient entre les extrémités – les processus innombrables nécessaires au fonctionnement du dispositif technique – ; ignorant sciemment le liant de ce monde numérique. L’idée d’un monde d’extrémités induit la notion de frontière, évocatrice de celle d’interface : chacun se trouve à une extrémité, physiquement hors du réseau mais relié à lui. Poser l’interface, c’est fixer la frontière entre le dans et le hors numérique. La question de l’endroit où l’on tente de la tracer est autant débattue que celle de la dénomination de ce que l’on délimite. Quoi que Searls & Weinberger désignent par le mot “net”, d’autres le nomment cyberespace, infosphère, espace informationnel ; et sur ces noms construisent d’autres visions. Exemple. « Ce système technique de connexion entre cerveaux a la particularité de changer notre vision du monde. Il truffe l’environnement d’un équivalent du système nerveux, tapisse le réel par de l’information et produit l’espace informationnel » (Baltz, 2002). Le raccourci, imprégné de culture cybernétique, est saisissant. Enveloppant d’un geste toutes les interfaces – biologiques, techniques, sociales, linguistiques –, Baltz relie les cortex de l’humanité. Et glisse une nouvelle interface entre notre regard et le réel, une machine de vision aux réglages indéfiniment variables. La machine de vision perturbe le champ de nos perceptions ; à la fois augmentation par la capacité à zoomer dans l’information et acquisition d’un nouveau point de vue pour, “hors4 soi” , savoir recourir à la machine de vision. Jouer de ses réglages, c’est varier la forme donnée à la quantité croissante d’informations qui vient en surimpression de nos perceptions habituelles. C’est aussi choisir le niveau d’abstraction symbolique – du code Les appareils électroniques, les réseaux, les satellites, les supports de mémoire, etc., interconnectés ou ayant le potentiel de l’être même temporairement, distribuent dans leur mémoire le contenu du cyberespace qui « comprend non seulement le “stock” déterritorialisé de textes, d’images, de sons habituels, mais également des points de vue hypertextuels sur ce stock, des bases de connaissances aux capacités d’inférence autonome et des modèles numériques pour toutes les simulations » (Lévy, 1998. p. 113) ; précision utile, tout ce matériau binaire figure soit en stock soit en flux dans le cyberespace. 3 « Pour s’informer et communiquer avec autrui, apparaît de plus en plus pour le sujet la nécessité d’être d’abord capable de “sortir de soi” (au moins métaphoriquement) ; se voir dans le monde, voir et interroger notre rapport à l’information et la communication, devenir l’objet de sa propre observation, se voir voir… ». Le “hors-soi” fait jaillir le sujet à l’extérieur de lui-même, au contact de l’Autre, dans un espace où « il y a toujours “quelque chose” entre lui et n’importe quelle entité de cet espace et qu’il est totalement dépendant de technologies de toute nature pour en rendre compte » (Baltz, 2000). 4 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 64 Où le cyberespace est Autre, conclusion temporaire binaire aux codes alphanumériques aux symboles graphiques dynamiques – auquel la 5 machine de vision fonctionne pour nous informer . Conséquence de son actualisation comme interface, la machine de vision se frotte à la 6 complexité analogique du monde physique pour rendre perceptible ce qui se déroule au sein du cyberespace – transformation analogue à celle de la machine de Turing en automate de von Neumann au contact de la matière. La machine de vision dévoile ainsi, par petites touches ou grands coups de projecteurs, l’espace informationnel numérique. La former comme interface, c’est d’abord la décrire, la formaliser, la coder et l’exécuter dans des 7 mémoires d’ordinateur pour qu’elle opère et nous donne à voir. L’activité d’écriture met en mouvement le cyberespace ; extension et densification à la fois, toutes deux accélérées par les phénomènes de compression résultant du codage binaire des signaux selon les théorèmes de Shannon. L’information rendue disponible dans le cyberespace par l’activité d’écriture prend une place prépondérante, à tel point que Lévy y discerne un renversement des positions entre support et contenu : « Toutes les fonctions de l’informatique (saisie, numérisation, mémoire, traitement, affichage) sont distribuables et, de plus en plus, distribuées. […] À la limite, il n’y a plus qu’un seul ordinateur, un seul support pour texte, mais il est devenu impossible d’en tracer les limites, de fixer son contour. C’est un ordinateur dont le centre est partout et la circonférence nulle part, un ordinateur hypertextuel, dispersé, vivant, pullulant, inachevé, virtuel, un ordinateur de Babel : le cyberespace lui-même. » (Lévy, 1998. p. 45) L’ordinateur, qualifié d’hypertextuel et de virtuel, ouvrirait le cyberespace à une navigation contrôlée et sans entrave. L’hypothèse reprend le questionnement de Wiener et le rénove en intégrant tout le réalisé du programme cybernétique, cette projection dans le réel des « Les représentations de type cartographique prennent aujourd’hui de plus en plus d’importance dans les technologies à support informatique, précisément pour résoudre ce problème de construction de schémas », car « c’est une tâche difficile que de construire des schémas abstrayant et intégrant le sens d’un texte, ou plus généralement d’une configuration informationnelle complexe » (Lévy, 1990. p. 45). 6 Le potentiel exploratoire de la simulation informatique est limité par la “barrière de la complexité”. Heinz Pagels illustre la complexité « non simulable » avec les conditions atmosphériques, exposé qu’il conclut ainsi : « Il existe bien sûr un ordinateur capable de simuler le temps avec exactitude : le système atmosphérique de la Terre est un parfait calculateur analogique de son propre développement. Si nous pouvions l’accélérer, nous aurions des prédictions météorologiques exactes. Cet exemple plutôt banal (tout système est son propre ordinateur analogique) illustre un important principe : les systèmes non simulables ne peuvent être efficacement modélisés mathématiquement par un système moins complexe » (Pagels, 1988. p. 235), propos déjà tenu par von Neumann lorsqu’il évoquait l’impossibilité de simuler le cerveau humain par des moyens artificiels. 5 L’activité d’écriture, nous verrons plus loin qu’elle est difficilement dissociable de l’activité de lecture, s’accomplit en permanence dans le cyberespace. Il en résulte indifféremment du code – produit par les automates et par les informaticiens –, des données numérisées et données calculées. 7 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 65 Où le cyberespace est Autre, conclusion temporaire “visions graphiques” de von Neumann et Turing, Licklider et Nelson, Sutherland et Engelbart. Lévy considère bien l’ensemble de ses constituants pour définir « le cyberespace comme l’espace de communication ouvert par l’interconnexion mondiale des ordinateurs et des 8 mémoires informatiques » (Lévy, 1997. p. 107). Il recroise au passage Marshall McLuhan pour qui « la cybernétique considère le problème de la production comme un système intégré de manipulation de l’information » au lieu de « s’intéresser à des machines distinctes » (McLuhan, 1968. p. 285). Et il concentre son attention sur la signification pour l’humanité de l’émergence du cyberespace, interrogeant essentiellement la résultante de leur interaction mutuelle. Pour cela, il laisse dans l’ombre d’une boîte noire les transformations et les créations d’information qui s’accomplissent dans l’espace informationnel numérique. À défaut d’aider à en construire une vision nette, cette approche contribue à mettre en lumière l’un de ses traits saillants : c’est de fractalité qu’il s’agit. Chercher à définir ce qu’est le cyberespace, c’est se trouver sans cesse en porte-à-faux. Il n’est pas de point d’appui absolument fiable sur lequel fonder sa réflexion. Derrière chaque concept en apparence bien défini, et donc stable, se dissimule une nouvelle arborescence, une nouvelle portion du réseau cognitif que le cyberespace peut emporter et transformer en son sein. L’exploration hypertextuelle de la connaissance pourrait durer indéfiniment ; le réseau s’étend et se densifie continûment, conséquence de l’externalisation de nos mémoires par 9 l’entremise des technologies – langage, écriture, imprimerie, informatique… Lévy précise ainsi : « Cette définition inclut l’ensemble des systèmes de communication électronique (y compris l’ensemble des réseaux hertziens et téléphoniques classiques) dans la mesure où ils convoient des informations en provenance de sources numériques ou destinées à la numérisation » (Lévy, 1997. p. 107-108). 9 Cette question de l’externalisation de la mémoire par les outils, de « libération de la mémoire » comme le note André Leroi-Gourhan dans l’introduction de La mémoire et les rythmes, second tome de Le Geste et la parole (Albin Michel, 1965. p. 9), a été abondamment traitée dès les années 1950 (Mauss, Gille, Simondon, Leroi-Gourhan…) et remise en perspective plus récemment par Stiegler, qui met au jour des « processus évolutifs » et des « lois morphogénétiques » s’appliquant à ces objets (Stiegler, Leroi-Gourhan : l’inorganique organisé, Cahiers de Médiologie, n° 6. p. 189). 8 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 66 Où le cyberespace est Autre, conclusion temporaire Y’a de l’info dans l’infosphère 10 Définir l’information ? Le langage courant en fait « une connaissance, un savoir ou un contenu de sens qu’un locuteur détient, qu’il peut transmettre ou garder pour soi, et dont il peut se servir pour calculer une action stratégique ». L’information tient un rôle central dans « les relations de pouvoir, […] le réseau conceptuel sémantique de l’action, […] la 11 communication médiatique de nos sociétés modernes » (Quéré, 1990) – tous domaines où l’accès au sens joue – et aussi dans le traitement automatisé de l’information – cette fois indépendamment du contenu sémantique. Chez les chercheurs en sciences de l’information 12 et de la communication, ce joli défi lexicographique déclenche des réflexes-parapluie : « L’“information”, notion “caméléonesque”, pour reprendre l’expression d’Edgar Morin » (Breton & Proulx, 2002. p. 91) le dispute à « la notion d’information, [qui] constitue comme l’a dit Heinz von Foerster un “caméléon conceptuel” particulièrement vicieux » (Bougnoux, 2001. p. 78). Au-delà de la boutade, et si l’on suit les premiers, l’information est une « description objective faite en vue d’être communiquée et apporter, le cas échéant, une nouveauté pour l’auditoire » (Breton & Proulx, 2002. p. 91), la description étant un procédé concret qui permet de produire une information. Le mot français information dérive du latin informatio, qui signifie autant l’action matérielle de façonner, de donner une forme que, suivant le contexte, l’enseignement et l’instruction ou l’idée, la notion et la représentation. La description est alors « un travail, une élaboration, une mise en forme [qui] obéit à des règles qui permettent de produire techniquement une représentation fidèle du réel » (ibid. p. 97). Mais décrire c’est aussi « mettre en œuvre une clôture, un espace délimité » (ibid. p. 100), action qui s’applique plus particulièrement à des « “objets à décrire” privilégiés, ceux dont d’autres pratiques 13 ont déjà proposé le caractère discret » (ibid. p. 101). Passant du discret au numérisable, et soulignant que tout objet discret n’est pas forcément modélisable, les auteurs ajoutent une autre définition, plus contemporaine, selon laquelle l’information est « la donnée décrite et En 1987, époque où les sciences de l’information et de la communication tentaient de se définir, Baltz écrivait : « Il faut bien commencer par là : l’objet inforcom est, à strictement parler, indéfinissable. Qu’on se le dise, en effet : personne n’est sérieusement capable de préciser ce que signifient “information” ou “communication”. Leur “être partout” a quelque chose de vertigineux et d’insaisissable. Avec comme conséquence d’en être le plus souvent réduit à devoir nous contenter d’un sens commun notoirement insuffisant » (Baltz, 1987. p. 13). 11 “Information”, Louis Quéré, Encyclopédie Philosophique Universelle, Les Notions Philosophiques, dictionnaire 1, PUF. 1990. p. 1297. 12 Ou comment s’abriter derrière des auteurs prestigieux pour ne pas prêter le flanc à des accusations d’inexactitude, d’imprécision, d’égarement… 10 Breton & Proulx citent ici Philippe Hamon (Du descriptif, Hachette. 1993. p. 56). Ils explicitent la notion d’“objets à décrire” en évoquant la liste non exhaustive qu’Hamon en a établi : « [La liste] comporte les “paysages”, déjà découpés par les lois sur l’héritage et le cadastre, le “corps”, découpé par le discours anatomique, les “objets manufacturés” qui remplissent les rayons des magasins de détail, les “paysages urbains”, les “machines”, les “maisons”, les “familles”, et ainsi de suite » (Breton & Proulx, 2002. p. 101). 13 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 67 Où le cyberespace est Autre, conclusion temporaire 14 mise en forme pour être traitée par des ordinateurs et circuler dans des réseaux » (ibid. p. 98). Toutes ces nuances dessinent une notion aux contours plutôt flous, où le statut de l’information change en fonction du contexte. L’information médiatique communiquée de personne à personne activerait « l’imagination de l’auditoire » (ibid. p. 108) alors que l’information de commande et de contrôle échangée d’humain à ordinateur se limiterait à activer la machine. Cette distinction contredit l’expérience de Sutherland avec Sketchpad qui, comme le souligne Brennan, montre la dimension dialogique de la communication humain-machine et instaure l’ordinateur comme co-locuteur. Breton & Proulx focalisent leur regard sur la seule information médiatique évoquée par Quéré parmi d’autres – qui impose l’accès au sens du message pour les co-locuteurs – et, du coup, ils enferment l’information trop à l’étroit. Certains travaux récents (Floridi, 2003 ; Baltz, 2003) indiquent des voies possibles pour s’abstraire du contexte et esquisser une “définition générale de l’information”. Luciano Floridi dégage les grandes lignes de cette définition, qu’il abrège en GDI (General Definition of Information), à partir de nombreux travaux convergents des trois dernières décennies. Elle pose l’information « comme contenu sémantique en termes de données+sens » (Floridi, 2003. § 5.2.1). Sur cet axiome, le chercheur bâtit une série de 15 règles, où mathématiques et notation symbolique servent l’argumentation : « GDI. s est une instance d’information, comprise comme contenu sémantique, si et seulement si : GDI.1) s est constitué de n données, pour tout n≥1 ; GDI.2) les données sont bien formées (wfd) ; [well formed data] GDI.3) les wfd sont signifiantes (mwfd=d). [meaningful wfd] GDI est devenu un standard opérationnel tout particulièrement dans les domaines qui traitent données et informations comme des entités réifiées. » (ibid.) Conformément à la GDI, l’information peut se composer de différents types de données. 16 17 Floridi en identifie quatre : primaires, méta, opérationnelles, dérivées . La définition Dans cette acception, le mot renvoie directement à la Théorie de l’information de Shannon, où l’information, sous forme de signaux devenus message dans des canaux de communication, se mesure, se code et se transporte. 15 Cette façon de mêler l’argument dialectique à la notation symbolique situe Floridi dans la lignée des travaux de McCulloch & Pitts sur le neurone formel (McCulloch & Pitts, 1943). Si la nécessité d’une telle notation n’a rien d’évident – elle justifie même une certaine circonspection –, elle permet néanmoins de décrire l’information dans une forme adaptée aussi bien à l’humain qu’à l’ordinateur. 16 L’auteur cite là des travaux antérieurs parus dans Philosophy & Computing, An Introduction (Routledge, 1999). 14 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 68 Où le cyberespace est Autre, conclusion temporaire indique qu’une information contient toujours de la donnée, même si elle ne précise pas de 18 quel type. Le cas de l’information à donnée unique, appelée datum (d) , appelle un commentaire particulier de l’auteur : « Un datum est réductible à un simple manque d’uniformité entre deux signes. Aussi, notre définition du datum (Dd) est : Dd) d=(x≠y) ou x et y sont deux variables non interprétées. » (ibid.) Précision d’où Floridi tire que « la dépendance de l’information à l’existence de données bien formées syntaxiquement, et la dépendance des données à l’existence de différences 19 variablement implantables physiquement , explique pourquoi l’information peut être découplée de son support » (ibid.). Cette fois, le paysage s’éclaircit un peu : la possibilité d’un espace informationnel détaché, au moins métaphoriquement, de la matière émerge. Floridi nous le montre peuplé d’informations et de données, jusqu’à ses plus élémentaires composants. La machine de vision est braquée, zoom avant à fond, sur les briques fondamentales de l’information. Et c’est en partant du datum, d’un zoom arrière magistral, que l’on découvre l’approche hypertextuelle de Baltz. L’hypertexte en trame de l’espace informationnel 20 Dans son paradigme du sens-dictionnaire , Baltz identifie le trajet du lecteur de mot en mot à une configuration de nœuds et de liens tracée dans l’espace feuilleté du dictionnaire, espace de toute évidence hypertextuel mais notoirement insuffisant pour étayer l’hypothèse 21 selon laquelle « nous sommes immergés dans un espace de type HT » (Baltz, 2003. § 6). Par extensions successives de la notion initiale, extensions inspirées par les propositions de « d.1) données primaires. Ce sont les données principales enregistrées dans les bases de données. Les systèmes de traitement de l’information sont généralement conçus pour transférer, en premier lieu, ces données à l’utilisateur. 17 d .2) données méta. Ce sont des indications secondaires sur la nature des données primaires. Elles décrivent des caractéristiques comme la localisation, le format, la version, la disponibilité, les droits d’accès limités par le copyright, et ainsi de suite. d.3) données opérationnelles. Ce sont des données qui concernent le traitement des données ellesmêmes, les processus de l’ensemble du système de données et les performances du système. d.4) données dérivées. Ce sont les données que l’on peut extraire de 1-3, que ces dernières soient prises comme source en recherche de structures, d’indices ou de preuves par inférence, par exemple pour l’analyse horizontale ou l’analyse quantitative. » (Floridi, 2003. § 5.2.1) 18 Le choix de datum comme singulier de data, s’il s’impose naturellement en anglais, pose problème en français. Le traduire par “donnée” est ambigu, dire “la donnée” peut aussi signifier “l’ensemble de toutes les données”. Aussi, il lui a été préféré la forme originale. 19 Floridi entend de la sorte que le mode d’inscription physique de la donnée varie suivant le support d’enregistrement, biologique ou silicium par exemple. 20 « Situation informationnelle basique : chercher le sens d’un mot… Nous nous tournons habituellement vers le dictionnaire, qui fixe dans notre société le sens des mots… Dans la définition trouvée, il est alors fréquent d’y trouver des mots eux-mêmes encore à définir. Émerge ainsi un processus de type “expliquemoi”, adressé à nous-même, par lequel se complète progressivement ce qui était initialement obscur, pour arriver peu à peu à une définition acceptable. » (Baltz, 2003. § 1) 21 Par convention, Baltz note par l’abréviation HT les termes hypertexte, hypertextuel, hypertextualisant, etc. Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 69 Où le cyberespace est Autre, conclusion temporaire 22 23 Lévy sur l’hypertexte et la “niche écologique” , Baltz introduit trois types d’hypertextes : « un HT “énergétique” d’inscription sur la matière, divers HT intermédiaires d’inscription 24 “documentaire” d’énergie négligeable par rapport au précédent et, enfin, l’HT “neuronal”. Ces HT mettent chacun en jeu des surfaces et des modalités d’inscription différentes (matière dans toute sa généralité, écrans, documents, “matière neuronale”) » (ibid. § 4). Précision importante apportée à l’hypothèse, seul l’hypertexte neuronal supporte l’activité d’élaboration du sens ; ce qui entraîne quelques difficultés théoriques sur « le difficile rapport de l’hypertexte neuronal aux autres » (ibid. § 6). Cependant, Baltz tire de sa proposition les définitions suivantes : « Forme=configuration sur un HT Événement=variation de configuration IN-FORMATION : C’est la co-relation, posée par un observateur, entre DHTE, variation dans un HT ainsi qualifiable d’“émetteur”, et DHTR, variation dans un HT qualifiable de “récepteur”. L’INFORMATION, telle qu’on l’entend habituellement, se présente alors sous deux faces : — du point de vue dynamique : comme le processus d’in-formation en tant que tel ; — du point de vue statique : comme la nouvelle configuration de l’HT récepteur, résultant du processus, c’est-à-dire le SENS de l’information, une fois oublié le processus. » (ibid. § 6) Le processus d’“in-formation” fait image pour le datum de Floridi. Ce « simple manque d’uniformité entre deux signes » n’est autre qu’une variation de l’hypertexte, la plus infime qui soit – apparition/disparition d’un nœud ou d’un lien, à l’échelle la plus petite. En retour, une variation dans un hypertexte se traduit bien par la création de nouvelles données. Ce que l’un et l’autre chercheurs nomment “information” trouve dans leurs travaux « L’hypertexte est peut-être une métaphore valant pour toutes les sphères de la réalité où des significations sont en jeu » (Lévy, 1989. p. 29). C’est en partant de cette hypothèse que Lévy dégage « les six principes abstraits » (ibid.) qui caractérisent l’hypertexte : métamorphose (c’est un flux), hétérogénéité (la nature des liens et des nœuds est variable) ; multiplicité et emboîtement des échelles (organisation sur le mode fractal) ; extériorité (existence et évolution dépendent d’un extérieur indéterminé) ; topologie (le réseau hypertexte se parcourt ou se modifie) ; mobilité des centres (plusieurs centres, en mouvement permanent). 23 Dans Les Technologies de l’intelligence, Lévy montre que l’écologie cognitive se propose d’étudier le rapport entre « la pensée individuelle, les institutions sociales et les techniques de communication », éléments disparates qui forment des « collectifs pensants hommes-choses », jusqu’à remettre en cause les « dualismes massifs » que sont « l’esprit et la matière, le sujet et l’objet, l’homme et la technique, l’individu et la société » pour leur substituer « des analyses moléculaires et chaque fois singulières en termes de réseaux d’interfaces » (Lévy, 1990. p. 154-155). 24 Les hypertextes documentaires, pris entre HT énergétique et HT neuronal, s’apparentent à des hypertextes intermédiaires « qu’on pourrait donc appeler “méso-HT” : — notre “HT personnel” : environnement immédiat de nos documents, courriers, livres, bases de données personnelles […] ; — les HT institués : bibliothèques, centres documentaires, médiathèque, réseaux internes… 22 — et enfin (et surtout) l’“HT Internet” » (Baltz, 2003. § 3) Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 70 Où le cyberespace est Autre, conclusion temporaire complémentaires une composition et une structure. À l’assemblage de données bien formées significatives (mwfd) qui compose l’information correspond une nouvelle configuration de l’hypertexte récepteur (résultat de la variation DHTR) où les données sont 25 les nœuds affectés et leur assemblage sa nouvelle structure de liens. L’espace informationnel à structure hypertextuelle, ainsi éclairé par les intuitions constructives de Baltz et Floridi, prend forme comme objet autonome de pensée. Cependant, si l’image qu’ils nous en proposent gagne en détail, nous manque encore d’en percevoir les limites… ou d’en concevoir l’absence. Apparaît pour l’instant la seule indication que l’espace informationnel contient des espaces spécifiques où s’inscrit de 26 l’information : biosphère , cyberespace, infosphère… Avant de forger la GDI, Floridi s’est 27 penché sur le concept d’infosphère , cet « espace sémantique constitué de la totalité des 28 documents, des agents et de leurs opérations » mais aussi cet « espace logique, dynamique, hypertextuel, “plein”, continu, fini mais potentiellement illimité et immatériel » (Floridi, 2002). La définition, remarquable par sa généralité, décrit un espace sémantique hors de tout support matériel, sans réseaux numériques sans neurones sans rien. Les « données, informations et connaissances » (ibid.) qu’héberge l’infosphère prennent forme, n’importe quelle, numérique ou non, transitoire ou non. Les agents qui opèrent sur les documents sont indifféremment « une personne, une organisation ou un robot logiciel » (ibid.). Une telle Ce processus informationnel n’est pas sans rappeler le triangle sémiotique de Charles Sanders Peirce qui établit un rapport entre le signe et l’objet via l’interprétant. « L’intérêt de l’approche de Peirce, c’est que loin d’être émis par une personne, le signe peut émaner de n’importe quoi et ne se ramène nullement à la classe étroite des messages. […] Cette sémiologie élargit donc les phénomènes de communication très au-delà des messages émis consciemment de personne à personne […]. La sémiologie peircienne est illimitée […], et elle est vivante, dynamique. […] Chez Peirce, nous allons de signe en signe, tout “objet” pouvant servir lui-même de signe pour un autre. La chaîne demeure ouverte à droite autant qu’à gauche du schéma triangulaire, sans que l’activité sémiotique touche jamais à un terme final ou à un sol : la meilleure illustration de cette relance est fournie par la recherche d’un mot dans un dictionnaire » (Bougnoux, 2001. p. 32-33). 26 Si l’on suit les travaux de Richard Dawkins, la génétique et la théorie de l’information de Shannon entretiennent des rapports très étroits : « l’ADN transporte l’information d’une manière très semblable aux ordinateurs, et nous pouvons aussi mesurer la capacité du génome en bits. L’ADN n’utilise pas le code binaire mais un code quaternaire » (Dawkins, 1998). Ils permettent d’imaginer sans peine le code génétique comme l’un des matériaux support de l’espace informationnel. 27 Comme le cyberespace, l’infosphère vient de la science-fiction ; précisément du cycle des Cantos d’Hypérion, de l’américain Dan Simmons (Simmons, 1989-1990). Il a été adopté vers 1995 par les militaires américains qui l’appliquent indifféremment à une planète ou à un individu. Sa définition varie encore sous la plume d’autres auteurs. Exemple : « Tout humain, disposant d’une interface avec cet essor de contenus numérisés baignant la planète, aura pour ainsi dire accès en temps réel à une sphère virtuelle de ressources potentielles illimitées : l’infosphère » (Baptiste, 2000). 25 « Par “documents”, on entend tout type de données, d’informations et de connaissances, codifiées et implémentées dans n’importe quel format sémiotique, sans aucune limite de taille, de typologie ni de structure syntaxique. Aujourd’hui, l’intérêt se focalise sur le monde des réseaux numériques, mais l’infosphère inclut également les récits oraux, les films télévisés, les textes imprimés et les programmes radiophoniques. Le terme d’“agents” fait référence à tout système capable d’interagir avec un document de façon autonome, comme par exemple une personne, une organisation ou un robot logiciel sur le Web. En réalité, un agent dans l’infosphère est un type spécial de document, capable d’interagir de manière autonome (il suffit de penser à son profil individuel comme client d’une banque). Enfin, par “opérations”, on doit comprendre tout type d’action, d’interaction et de transformation qui peut être effectué par un agent et auxquelles peut être soumis un document. » (Floridi, 2002) 28 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 71 Où le cyberespace est Autre, conclusion temporaire précision dans la description des agents comme les détails fournis sur la nature des documents établissent l’équivalence entre l’infosphère et l’espace sémantique sécrété par 29 l’activité humaine ; lieu où se déplie l’hypertexte neuronal de Baltz. Documents, agents et opérations. Informations et données. La terminologie de Floridi comme les hypertextes de Baltz – trempés aux travaux de Nelson, Engelbart et Lévy – évoquent irrémédiablement le dispositif technique numérique, ses ordinateurs et ses réseaux. Jusqu’à souhaiter contraindre l’espace informationnel, ou si cela s’avère trop difficile l’infosphère, à réintégrer le seul espace des codes binaires. Mais cet espace-là se nomme cyberespace depuis l’invention de Gibson, le désigner autrement supposerait comme justification de piètres acrobaties. Alors qu’est donc ce cyberespace, quels rapports entretient-il avec les autres espaces de l’information ? Pour le cyberespace ? Passez par Diderot… La mise en parallèle des hypothèses de Baltz et Floridi dévoile l’emboîtement des espaces de l’information (figure 3.1). Ce qui fonctionne au niveau de l’espace informationnel se retrouve dans ses sous-ensembles. Il évolue, et tout ce qu’il contient, par variation de ses hypertextes ; indifféremment mutation génétique, numérisation des savoirs, art, urbanisme… Leur nature réticulaire 30 et les communications qui fusent dans les liens rendent incertaine la position des limites entre sous-ensembles, soumis qu’ils sont au changement continu. En tout cas, la structure hypertextuelle porteuse d’information se réplique à tous les niveaux, qu’elle s’inscrive dans l’infosphère ou le cyberespace ; consultons l’Encyclopédie de Diderot sur la question, qu’elle nous apporte ses lumières. La notion est employée de manière générique pour désigner la totalité des hypertextes neuronaux individuels, sans présupposer de leur éventuelle interaction. 30 Le cas du World Wide Web, en est un exemple : « Un élément sur lequel je souhaitais insister, en cherchant un nom pour un système hypertexte global, était sa forme décentralisée qui laisse n’importe quoi se lier à n’importe quoi. Cette forme est mathématiquement un graphe, ou un “web”. Il était dessiné pour être mondial, bien sûr » (Tim Berners-Lee, Spelling WWW dans la FAQ de son site personnel. URL : http://www.w3.org/People/Berners-Lee/FAQ.html#Spelling – dernier accès le 25 août 2003). Albert-László Barabási, lui, reconnaît des structures similaires dans tous les systèmes complexes ; organismes biologiques ou sociaux, informatique, chimie… « Les réseaux sont partout. Tout ce dont nous avons besoin est d’un œil pour le voir » (Barabási, 2002. Linked: The New Science of Networks, Introduction disponible en ligne. URL : http://www.nd.edu/~networks/linked/chap1.pdf – dernier accès le 25 août 2003). 29 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 72 Où le cyberespace est Autre, conclusion temporaire Figure 3.1 : L’espace informationnel abrite la totalité des informations susceptibles de s’inscrire sur un quelconque support. L’infosphère représente la part de ces informations dotée de sens par l’activité neuronale humaine. Le cyberespace contient la totalité des informations codées en numérique ; la biosphère contient la totalité de celles codées en génétique. 31 Dans sa communication Diderot a-t-il inventé le Web ? , Jean-François Bianco s’empresse, dès l’introduction, de répondre par la négative. Pour laisser germer une autre hypothèse : l’idéal de Diderot a trouvé l’outil de sa réalisation dans le Web. L’Encyclopédie, ce travail raisonné, ne se résume pas à une collecte aléatoire d’informations. Il s’agit d’organiser un réseau de gens de lettres et d’artistes, contributeurs distribués à la surface du globe – « je les veux épars » dit Diderot dans l’article Encyclopédie. La somme des informations n’est pas une fin en soi ; l’œuvre est portée par un idéal de la transmission de la connaissance : « Le rêve de Leibniz est celui de la pensée combinatoire, du numérique, du nombre qui traduit l’idée. Diderot a aussi son rêve. C’est moins celui de l’art combinatoire que celui de l’intuition analogique des “liaisons fines”. L’utopie du savoir selon Diderot réside plus dans la mise en relation des idées et des hommes que dans l’ordre des raisons. » (Bianco, 2002. p. 17) Diderot, conscient de l’impossibilité d’organiser rationnellement le savoir, apporte un système de liens – les renvois – qui figure les relations entre les idées et multiplie les parcours pour le lecteur de l’Encyclopédie. Bianco ausculte la nature du lien dans la structuration de l’Encyclopédie comme dans le discours. « Lorsque Diderot emploie le mot “lien” ou encore le mot “liaison”, il les leste de toute une charge métaphorique profonde, de tout un pathos de la relation qui représente pour lui la nature même du savoir » (ibid. Jean-François Bianco, en ouverture du Colloque L’Encyclopédie en ses nouveaux atours électroniques : Vices et vertus du virtuel (Université Paris 7, 17 au 18 novembre 2000), a donné lecture de Diderot a-t-il inventé le Web ? (Bianco, 2002. p. 17). 31 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 73 Où le cyberespace est Autre, conclusion temporaire p. 21). La part analogique du processus d’“in-formation” prend forme dans les liens, indépendamment du sens porté par ces liens. C’est au lecteur de l’Encyclopédie, glissant d’article en article, de retrouver derrière les filiations d’idées l’intention de l’auteur du renvoi. L’Encyclopédie s’inscrit dans les cerveaux, s’imprime sur le papier, se commente, induit des comportements… autant de variations énergétiques, documentaires et neuronales dans les hypertextes de l’infosphère. Une part de ces variations s’étend, et affecte aussi, le 32 33 cyberespace : l’Encyclopédie numérisée s’enrichit de machines de vision dont certaines 34 dévoilent le sens donné aux mots par Diderot – autres liaisons sémantiques désormais perceptibles, ajoutées à celles des renvois. Et Bianco, convaincu de la réalisation du rêve encyclopédique de Diderot dans le cyberespace, de s’exclamer « Le Net est numérique, le Web analogique » (ibid. p. 18). Le Web, ce graphe mis en code par Tim Berners-Lee, n’est pas analogique dans son fonctionnement élémentaire, lorsqu’observé dans l’exécution au pas à pas de ses processus informatiques. Mais vu à travers une interface graphique, le Web se manifeste à nos sens comme l’interprétation numérique à apparence analogique – visuelle, sonore, animée… signifiante – d’une partie de l’hypertexte commune à l’infosphère et au cyberespace. Du papier à l’écran, de l’infosphère au cyberespace, le processus d’inscription et le support de l’Encyclopédie changent de nature. Cependant, le lecteur continue d’accéder à la dimension sémantique de l’information, toujours présente malgré la réplication des données Deux versions numériques ont été élaborées à la fin des années 1990, « celle qu’a réalisée pour le Web, sous la direction de Robert Morrisey, l’Université de Chicago […] ; et le cédérom établi par la société Redon », comme le dit Pierre Chartier dans la présentation des actes du colloque de novembre 2000 consacré à l’Encyclopédie. Malheureusement, l’accès à l’une et l’autre version est payant. 33 Dans leur étude Le système de renvois dans l’Encyclopédie : Une cartographie des structures de connaissances au XVIIIe siècle présentée lors de ce colloque, Gilles Blanchard et Mark Olsen ont exploité les fonctions de la version Web pour explorer systématiquement, et cartographier, les renvois de l’Encyclopédie. « Plutôt que de prendre en considération les renvois d’article à article, nous avons, à partir de cette base de données, compté le nombre de renvois d’une catégorie de connaissance à une autre » (Blanchard & Olsen, 2002. p. 55). La tentative, considérée comme préliminaire par les auteurs, a permis de mettre en évidence que « la structure des renvois […] s’avère, dans l’ensemble, extrêmement cohérente », qu’elle se fonde sur le Système figuré sans y enfermer le lecteur « raisonné et intelligent », et qu’elle s’ouvre à une navigation moins rigide que « la structure hiérarchique de l’arbre des connaissances, sans être anarchique : certaines matières se regroupent en systèmes autour de centres de gravité communs, et ces nébuleuses sont à leur tour reliées les unes aux autres par plusieurs fils plus ténus, mais nombreux, pour former l’enchaînement indissoluble des connaissances » (ibid. p. 6263). 34 Bianco exemplifie la chose avec « une rapide et simple analyse de l’adjectif “épars” à l’aide des outils de recherche numériques proposés sur le site de l’Inalf » (Bianco, 2002. p. 23). Les données quantitatives qu’il extraie de l’Encyclopédie version Web lui « permettent d’inférer que Diderot paraît apprécier cet adjectif dont les occurrences sont fréquentes dans ses textes » (ibid.). Et aussi que si « l’épars dérange la beauté » (ibid. p. 24) – trois occurrences d’“éparses” figurent dans l’article Composition en peinture –, l’épithète “épars” est utilisé une seule fois dans « l’Encyclopédie pour qualifier des hommes et avec une valeur positive » (ibid.), lorsque Diderot explique dans l’article Encyclopédie « qu’il n’y a aucune société subsistante d’où l’on puisse tirer toutes les connaissances dont on a besoin et que si l’on voulait que l’ouvrage se fît toujours et ne s’achevât jamais, il n’y avait qu’à former une telle société [de gens de lettres et d’artistes épars] » (Diderot, cité par Bianco, 2002. p. 24). 32 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 74 Où le cyberespace est Autre, conclusion temporaire 35 d’un espace dans l’autre . Musarder dans le texte reste la vocation première d’une version numérique. Mais grâce à des interfaces d’interrogation nouvelles – les masques de saisie d’un moteur de recherche multicritères, fenêtre ouverte sur la boîte noire de la base de données – s’initient d’autres navigations dans le corpus, et aussi dans la structure du document désormais interrogeable par la machine numérique. Quels que soient les réglages de la machine de vision, la lecture de l’Encyclopédie « comme toute lecture est, en soi et pour soi, hypertextuelle » (Quintili, 2002. p. 40). L’activité de l’hypertexte neuronal, le fonctionnement associatif du cerveau qui lie entre elles les informations “données+sens”, reflète cette nouvelle façon de lire l’hypertexte numérique ; là où données et structures prennent forme à l’identique, longues séquences de données binaires déposées dans les mémoires de silicium. « Jusqu’à hier l’hypertextualité était un événement mental, une relation textuelle simple qui s’achevait dans l’acte ponctuel de la lecture, dans l’ordre de l’association du lecteur particulier. Tandis qu’aujourd’hui il devient possible de rendre évidente cette hypertextualité dans l’objet-texte lui-même, en signalant les links (liens), comme l’on sait, par les marques du langage HTML, des marques qui signalent explicitement, avec clarté, la présence de tel ou tel lien textuel, des relations entre texte et texte. Cependant, il est question, maintenant, de rapidité et de facilité d’institution des liens et, chose plus importante, il est question d’autonomie de jugement 36 de celui qui établit les liens […]. » (ibid.) 37 Paolo Quintili aborde ici, sans les développer, des notions de cyberculture : la lecture dans le cyberespace est conjointe à l’écriture ; l’écriture est conditionnée par l’autonomie du scripteur ; l’autonomie s’acquiert par la maîtrise croissante de concepts et de langages informatiques. Réassemblées, ces notions indiquent que le degré de liberté du scripteur dans le cyberespace dépend de sa capacité à formaliser sa pensée non seulement comme Les processus de numérisation des documents de l’infosphère sont d’abord pensés comme devant être suffisamment denses en données pour faire illusion lorsqu’ils sont présentés à un humain. Une photo numérique comporte moins de points élémentaires qu’une photo argentique, mais à l’écran elle nous apparaît bonne ; un enregistrement sonore sur CD nous suffit pour en apprécier l’écoute, malgré le déficit d’informations sonores lorsque comparé au vinyle. De manière plus générale, et conformément à la théorie de Shannon, il est possible de compresser les signaux dans des proportions très importantes sans que cela entraîne un risque de perte lors de leur communication. Les standards utilisés en vidéo comme le MPEG en tirent pleinement parti. 36 Quintili parle ici de la création de liens, une activité qui apparaît très minorée dans le contexte du Web tel que nous le connaissons. Mais si nous nous plaçons dans la perspective initiale de l’hypertexte, tel que décrit par Nelson, suivre un lien et créer un lien sont des activités aussi standards l’une que l’autre – modulo l’expérience du système acquise par l’utilisateur. « La fonction liens nous donne beaucoup plus que la possibilité de réunir des petites choses. Elle permet une écriture complètement non-linéaire, l’hypertexte. […] Un système adéquat devrait accepter n’importe quel type de lien, et il en existe des myriades. Par principe, nous autorisons l’utilisateur expérimenté à définir n’importe quel type de lien » (Nelson, 1993. p. 2/25-2/27). 37 Lévy, dans l’introduction de son rapport au Conseil de l’Europe, précise que le « néologisme cyberculture […] désigne ici l’ensemble des techniques (matérielles et intellectuelles), des pratiques, des attitudes, des modes de pensée et des valeurs qui se développent conjointement à la croissance du cyberespace » (Lévy, 1997. p. 17). 35 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 75 Où le cyberespace est Autre, conclusion temporaire 38 ensemble d’informations réductibles en données numériques mais aussi comme logiciel pour traiter ces données et comme interface de présentation des résultats – cette machine de vision où données et sens se recombinent pour le lecteur. Écrire dans le cyberespace revient à inscrire les données et les programmes qui automatisent leur traitement dans la mémoire numérique. Lorsque Quintili parle de “l’autonomie de jugement de celui qui établit les liens”, il désigne précisément la capacité effective pour le scripteur d’étendre le texte au-delà de ses limites initiales – le texte en soi, tel qu’il est dans un volume imprimé et relié ou reproduit tel quel sur une page Web – pour l’intégrer dans un réseau de textes. Sa remarque, spécifique, vaut pour toute forme d’écriture, texte – alphabétique ou non –, image, son, logiciel… Le caractère fractal de la structure des hypertextes informationnels, et ceux du cyberespace en particulier, établit à toutes les échelles le rapport entre l’autonomie du scripteur et sa maîtrise des processus informatiques et réticulaires. Or la complexité intrinsèque du cyberespace, sa complexification croissante par l’inscription permanente de nouveaux textes, rend illusoire l’espoir d’en maîtriser tous les aspects à tous les niveaux. À tout instant, le scripteur dépend d’immenses portions de textes dont il n’est pas l’auteur. 39 Les écrits des informaticiens dotent le cyberespace de sa capacité opératoire. 40 L’empilement des couches sémiotechniques , rappel de la récursivité logique formalisée dans la machine universelle de Turing, se fonde sur un “métalangage” où l’“alphabet” binaire forme mots et phrases conformément aux règles d’une “grammaire” faite de protocoles, de formats, de langages symboliques, de compilateurs, d’API (Application 41 Program Interface) , etc. L’objet de ce “métalangage“ est triple : mémoriser les données que l’humain lui confie ; procéder aux traitements demandés pour calculer de nouvelles données ; produire ces résultats dans une forme accessible et porteuse de sens pour l’humain. Ainsi, à l’instigation des informaticiens et indépendamment de leur contrôle, le cyberespace s’écrit pour opérer, comme il s’écrit pour communiquer avec l’humain ; il étend de la sorte ses hypertextes dans l’espace informationnel, bien au-delà de l’infosphère. Pour la première Écrire dans un traitement de texte, saisir des chiffres dans un tableur, retoucher une photo, etc. mais aussi alimenter une base de données, poster un commentaire dans un forum, etc. 39 Il serait juste d’ajouter aux professionnels de l’informatique tous les programmeurs amateurs pour donner une meilleure approximation de la notion d’auteur de logiciels. Tous contribuent, peu ou prou, à l’enrichissement de la part opératoire du cyberespace. 40 Le nombre de ces couches sémiotechniques varie suivant les modèles de représentation des données. Comme vu dans la première partie, les communications par réseau informatique en utilisent quatre (pour TCP/IP) ou sept (ISO). Des empilements comparables se retrouvent dans la représentation des données au sein des ordinateurs comme, par exemple, dans le Layered information model (OAIS, pour Open Archival Information System) qui compte cinq couches. 41 Une application program interface (API, parfois interprété en application programming interface) est la méthode spécifique, définie par un système d’exploitation ou un logiciel applicatif, qu’un développeur fait suivre à son programme pour qu’il effectue des requêtes auprès du système d’exploitation ou du logiciel applicatif. Une API est donc une interface de communication entre des programmes, ce qui la distingue des interfaces humain-machine comme les interfaces graphiques ou les interfaces de commande. 38 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 76 Où le cyberespace est Autre, conclusion temporaire fois de son histoire, l’humanité ne dispose pas d’un accès direct à la totalité des données produites par l’un de ses outils. Les conséquences de cet état de fait sont immenses, proprement incalculables, en tout premier lieu pour le devenir de notre mémoire. Mémoire ! rappelle-moi comment te lire Citant largement Leroi-Gourhan, et aussi Stiegler, Emmanuël Souchier 42 pose que « la libération mémorielle et opératoire permise par l’outil n’est rendue possible que par la mise en place d’une mémoire collective élaborée à travers les langages symboliques » (Souchier, 2003). La “machine textuelle” ou “machine mémoire”, dernière en date de nos “mnémotechnologies”, se situe « à la croisée de l’outil et des langages, articulant et mettant en abîme les dimensions opératoire et symbolique de la mémoire » (ibid.). Souchier, lorsqu’il parle de texte, englobe tous les actes d’inscription de données – de l’humain vers la machine et retour – ; ce qui ouvre à l’interrogation phénoménologique de l’“écrit d’écran”. Trois espaces y sont distingués : celui de la machine mémoire, celui de l’écran et celui de l’imprimante. 43 La machine mémoire code la “matière mémoire” dans son langage propre – le “métalangage” proprement babylonien du cyberespace évoqué précédemment. Les données échappent à l’humain dès lors qu’il est privé de l’outil idoine sachant les lire, les décrypter, les transformer – une machine de vision, en somme. Et c’est « cet ensemble d’outils et d’opérations [qui] permet de convertir par couches “sémiotechniques” successives des données électroniques invisibles en une écriture lisible à l’écran » (ibid.). Les espaces de la mémoire et de l’écran sont liés, leurs hypertextes varient de conserve. En revanche, le troisième espace diverge car l’écrit d’imprimante « renoue avec le lien indéfectible que l’écriture entretient depuis toujours avec son support » (ibid.), matérialisant les données au plus près de l’infosphère, en tout cas hors du cyberespace. Pris entre écran et mémoire, l’humain s’affronte à une écriture devenue ambivalente : invisible et durable, lisible et fugace. Écriture et texte se placent au cœur des ordinateurs ; ceux-ci en sont l’objet, car dédiés aux pratiques d’écriture, et l’outil, car les logiciels eux « Avant d’interroger les écrits de réseaux, j’aimerais tout d’abord revenir sur l’histoire de l’outil, le statut médiatique de l’objet et la dimension textuelle de la “machine ordinateur” afin d’envisager la spécificité des pratiques de lecture et d’écriture qu’ils convoquent. De ce programme par trop vaste, je ne retiendrai toutefois que quelques aspects articulés autour de la question de la mémoire posée par ces nouvelles “mnémotechnologies”. » C’est en ces termes que Souchier a débuté sa lecture de Lorsque les écrits de réseaux cristallisent la mémoire des outils, des médias et des pratiques lors du colloque Les défis de la publication sur le web, thème des Quinzièmes entretiens Jacques Cartier, à Lyon (du 9 au 11 décembre 2002). Il est paru dans la revue électronique Interdisciplines, en février 2003. 43 « L’expression “machine mémoire” couvre ici l’ensemble du matériel informatique et des outils logiciels qui permettent de faire fonctionner l’ordinateur. Dans cette machine, il y a une “matière mémoire” sur laquelle on enregistre des données sous forme d’impulsions électroniques. […] On notera alors que la “matière mémoire” est un support fait pour conserver la trace de l’écriture, or cette trace est pour l’homme, illisible. À l’écran en revanche, si l’écrit est lisible, il est éphémère, il n’a pas de mémoire. Cet écrit est un “écrit nomade”, il disparaît une fois l’ordinateur éteint. » (Souchier, 2003). 42 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 77 Où le cyberespace est Autre, conclusion temporaire 44 aussi s’écrivent . Ainsi, « le texte qui apparaît à l’écran est placé dans un autre texte, un 45 architexte qui régit le texte et lui permet d’exister » (ibid.). Le lecteur se confronte par conséquent à un espace de lecture très complexe, l’écran, qui « ne se contente plus de cristalliser la mémoire du scripteur et du lecteur, mais également celles relatives aux pratiques éditoriales qu’il convoque et aux savoirs techniques qu’il mobilise » (ibid.). La question soulevée par l’existence du cyberespace porte sur l’accès direct à notre écriture et, à travers elle, à notre mémoire individuelle et collective. Désormais, selon Souchier, pouvoir lire suppose de remplir deux conditions nécessaires : – disposer de machines de vision, opérées par le dispositif technique, pour transformer les données illisibles de la matière mémoire en texte lisible à l’écran ; – disposer d’une source d’énergie pour alimenter le dispositif technique. Conditions dont il tire que « sans énergie et sans dispositif technique, l’écriture informatique n’existe pas ou au mieux peut être considérée comme invisible. Autrement dit, 46 le dispositif technique est arrivé à un tel stade d’“hypertélie” […] qu’il ne peut plus remplir la fonction à laquelle il est dédié sans une assistance extérieure » (ibid.). Le constat, pertinent, met en lumière la dépendance du cyberespace à l’électricité, alors même 47 que son existence est devenue une nécessité si vitale pour une part toujours plus grande de l’humanité que l’on pourrait affirmer, en paraphrasant Souchier, que les sociétés Ce phénomène s’éclaire avec la possibilité, établie par Turing, de décrire une machine spécifique avec une machine universelle. Il est ainsi possible d’écrire un émulateur d’ordinateur qui décrit non seulement ses logiciels mais aussi l’agencement spécifique de son processeur, son code complet, son système d’exploitation, etc. L’intégralité de la description d’un ordinateur, jusque dans ses plus humbles composants, est représentable numériquement. Concevoir un ordinateur est devenu une activité entièrement symbolique, menée conjointement avec le cyberespace ; le fabriquer se réduit à un exercice complexe de logistique pour “bouger la matière” et assembler l’ordinateur. 45 « Les architextes (du grec archè, origine et commandement) sont les outils qui permettent l’existence de l’écrit à l’écran et qui, non contents de représenter la structure du texte, en commandent l’exécution et la réalisation » (Souchier, 2003). 46 Souchier reprend là un concept de Gilbert Simondon, défini en 1958 de la manière suivante : « L’hypertélie survient lorsque l’adaptation est relative à un donné existant avant le processus d’adaptation ; une telle adaptation court en effet après les conditions qui la devancent toujours, parce qu’elle ne réagit pas sur elles et ne les conditionne pas à son tour » (Simondon, Du mode d’existence des objets techniques, Aubier, 1989. p. 56). 47 Le cyberespace est-il pérenne ? La question transparaît dans l’exposé de Souchier, et l’on peut y répondre par une autre question : “Hé ! ton cyberespace, comment tu l’arrêtes ?”, où derrière la pirouette se cache une véritable interrogation… Arrêter le cyberespace suppose de cesser de l’alimenter en énergie ; hypothèse qui suppose l’adhésion immédiate et simultanée des trois quarts de la population mondiale à l’idée de se priver du “confort électrique”. Peu crédible. D’autant qu’il s’agit de se passer de courant le temps de mettre hors service toutes les machines numériques… Il n’y a qu’un auteur de SF pour imaginer de telles solutions : Frank Herbert, dans Dune, évoque un lointain “djihad” contre les ordinateurs qui explique l’apparition des mentats – des ordinateurs biologiques aux apparences humaines. La panne globale du dispositif technique, accident qui ne peut être totalement exclu, reste très improbable du fait de sa nature distribuée et redondante de l’infrastructure. L’extrême diversité des formes prises par l’écriture du cyberespace dans la matière – processeurs, systèmes d’exploitation, applications, documents coexistent plutôt que de s’éliminer – rend tout aussi improbable l’existence d’un virus logiciel léthal pour l’ensemble dispositif. 44 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 78 Où le cyberespace est Autre, conclusion temporaire 48 occidentalisées sont arrivées à un tel stade d’hypertélie qu’elles ne peuvent plus remplir leur fonction sans l’assistance extérieure du cyberespace. 49 Cette dépendance de l’humanité au cyberespace – ou cette symbiose humain-machine telle que pronostiquée par Licklider – incite et conduit à massifier la numérisation des données et des traitements. La mémoire – individuelle, collective – se structure et évolue dans les hypertextes du cyberespace ; hypertextes dont une partie varie en fonction de la seule activité machinique, in-formation du cyberespace par lui-même. Au royaume des scripteurs et des copistes L’humain écrit dans le cyberespace, lequel s’écrit pour opérer. Cette inscription de données à usage interne découle de l’exécution des programmes codés par nos soins. L’objet d’un programme n’a pas changé depuis Turing et von Neumann : accomplir sur le jeu de données initiales une série de traitements et produire les résultats dans une forme accessible à l’humain. Pour l’opérateur, le programme est une boîte noire qui accomplit la tâche qu’on lui confie. C’est l’informaticien qui en parcourt l’intérieur muni d’une machine de vision adaptée aux inscriptions exprimées dans le langage formel spécifique à cette boîte noire, machine de vision avec laquelle il interprète la piste binaire jusqu’aux dysfonctionnements pour les corriger. C’est encore l’informaticien qui ferme la boîte noire dès lors que son 50 programme produit des résultats conformes aux attentes de l’opérateur. À cet instant tout l’architexte disparaît de notre vue, nous en déléguons l’usage exclusif au cyberespace – jusqu’à la réouverture de la boîte noire par un informaticien, évidemment. Les données internes, fugaces ou durables traces binaires inscrites durant l’exécution des processus logiciels, sont constitutives de la mémoire propre du cyberespace. Elles nourrissent, ou plutôt elles induisent les évolutions de cette part des hypertextes du cyberespace qui se trouve hors de l’infosphère. Leurs structures sont compréhensibles – car exploitables – du point de vue de la machine ; comme si elles étaient porteuses d’un analogue de ce qui constitue le sens dans l’hypertexte neuronal. Y figurent les index et les tables de jointure des bases de données, les fichiers de log (figure 3.2), les enveloppes des paquets réseau (Annexe I, Network Physics), les dialogues à travers les API, les échanges entre microprocesseur et mémoire, etc. Même si l’essentiel des investissements – humains, intellectuels, financiers – et des profits sont de leur côté, c’est l’humanité entière qui se représente dans le cyberespace. Les populations les plus isolées, celles qui ne savent rien des ordinateurs, elles aussi sont connues dans les réseaux : statistiques des administrations planétaires, organisations non gouvernementales, recherches universitaires, pages personnelles de passionnés… sont inscrites à leur sujet. 49 Si elle est avérée pour les 10 % connectés au réseau de la population mondiale, elle s’étend bien au-delà. Exemple : un reflux des investissements dans le capital d’une entreprise met au chômage des ouvriers, qu’ils aient ou non déjà touché un ordinateur dans leur vie. 50 Deux programmeurs ne codent pas à l’identique un algorithme donné – ce qui explique en grande partie leur statut d’auteur. Peu importe donc, pour l’opérateur, que l’écriture ligne à ligne des instructions diffère d’un logiciel à l’autre, tant que la boîte noire vérifie l’équation de Baltz S=R(E). 48 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 79 Où le cyberespace est Autre, conclusion temporaire Figure 3.2 : Le fichier de log conserve une trace séquentielle de tous les événements traités par un processus logiciel (on dit aussi “journal des événements”). Les systèmes d’exploitation et les serveurs web sont ceux dont les fichiers de log sont les plus connus. Les premiers permettent de retrouver l’état précis des processus en cours sur un ordinateur, après un arrêt accidentel par exemple. Les seconds servent à construire – nouvelle machine de vision sur l’écriture machinique – les statistiques de fréquentation des sites web, comme ici. Humanité et cyberespace traitent de l’information – ils communiquent même par l’entremise des langages formels – et c’est ce qui les rassemble. Mais ils ne composent pas l’information avec le même complémentaire des données : pour l’humain c’est le sens ; pour le cyberespace ce sont les structures de ses hypertextes, dans et hors infosphère. La question de la compréhension du sens – au sens humain – par le cyberespace reste ouverte, pour l’instant indécidable. À l’inverse, l’humain occupe une position privilégiée, unique même, d’observateur sur ce qui fait sens pour le cyberespace. Cela vient du caractère spécifique de cet espace – devrait-on dire milieu ? – où le formalisme logique détermine les moyens et les fins, logiciels et structures de données, en fixant les règles de l’activité de 51 “lettrure” . Ainsi, les informaticiens sont en mesure de programmer des machines de vision qui savent lire et interpréter l’architexte sans perturber les structures ni les données internes ; car l’observation dans le cyberespace peut s’accomplir sur une copie à l’identique de l’architexte et non sur la source elle-même. La notion de copie dans l’infosphère, prise dans le sens du résultat plutôt que dans le sens du processus, dépend du contexte. Le document – terme générique qu’emploie David Souchier cite Maud Sissung – traductrice de ABC : l’alphabétisation de l’esprit populaire de Ivan Illich & Sanders – pour expliciter la réactualisation du terme lettrure : « “la langue française ne possède pas d’équivalent du mot anglais litteracy, qui désigne la capacité de lire et d’écrire”. Elle précise toutefois que le français a possédé un mot pour désigner cette capacité, “la lettrure, terme que l’on rencontre dans des textes du XIIe et XIIIe siècles” » (Souchier, 2003. note 18). 51 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 80 Où le cyberespace est Autre, conclusion temporaire 52 M. Levy pour désigner tous les objets textuels manuscrits et imprimés mais aussi les images, les photos, les sons… – est copié lorsque « la copie est fidèle à l’original. La définition de “fidèle” dépendant des circonstances où la copie est réalisée et de l’usage à 53 laquelle on la destine » (D. Levy, 2000). Projeté dans le cyberespace, le document se constitue en séquences binaires structurées selon des règles algorithmiques. Là, le processus le plus élémentaire – la copie bit à bit – réplique à l’identique n’importe quel document numérique. Et tant qu’il reste dans le cyberespace, le document – entendu cette fois comme une forme restreinte au numérique du document infosphérique de Floridi – est instanciable autant de fois que souhaité dans sa formalisation binaire : la fidélité des copies 54 est garantie . Un retournement de perspective montre le processus de copie comme une caractéristique fonctionnelle élémentaire du cyberespace. Exemple. En cours d’écriture, le texte loge dans la mémoire vive de l’ordinateur ; une coupure de courant, le texte disparaît. Enregistrer le document dans un fichier réplique le texte de la mémoire vive sur un support à durée de vie longue. Deux instances coexistent, d’abord distinguées par leur pérennité – sans même songer à leur évolution indépendante. Le document est envoyé à un correspondant, il reçoit une copie. La copie est le résultat du processus de communication lui-même : le document est découpé en paquets standards, numérotés et étiquetés individuellement ; chacun entame son voyage par un chemin indépendant, non prévu, passe de routeur en routeur par 55 réplication ; tous parcourent le réseau de copie en copie jusqu’à destination, sans ordre d’arrivée prédéterminé ; les paquets réassemblés forment une nouvelle instance du document. Où est l’original ? Et d’abord quelle pertinence a cette question ? 56 L’un des objectifs assignés au dispositif technique numérique, la conservation de nos données, est poursuivi en faisant d’une apparente faiblesse humaine – la forte redondance du message oral – une force du cyberespace. La redondance améliore l’espérance de vie de la donnée numérisée Les citations proviennent de la communication que D. Levy a donnée lors du Council on Library and Information Resources, à Washington DC, en mai 2000, sous le titre Where’s Waldo? Reflections on Copies and Authenticity in a Digital Environment. 52 Une note photocopiée suffit à informer un interlocuteur, une copie certifiée sera parfois nécessaire pour un acte légal. « Le point important, c’est que le document ne peut être identique qu’à lui-même, si “identique” est pris pour signifier “le même à tous les points de vue” » (ibid.). 54 Certes, comme le souligne D. Levy, le transfert du cyberespace dans l’infosphère d’un document numérique passe bien par un processus de réplication ; processus décliné du modèle industriel où des copies toutes identiques sont produites sans original (un moule et tous les objets qui en sortent). « Comme pour les imprimés ou les enregistrements sonores ou vidéo, les documents numériques sont fondés sur la distinction entre une source et les copies qui en sont tirées. La source est une représentation numérique d’un certain type, une accumulation de bits. Les copies sont les impressions ou les manifestations perceptibles – texte, graphique, son, que sais-je encore – qui passent sur le papier, à l’écran ou sur les ondes. » (D. Levy, 2000). 55 Imaginons une machine de vision programmée pour montrer le cheminement de chaque paquet dans le réseau, mais aussi montrer en dynamique la totalité des instances des paquets apparaissant, coexistant et s’effaçant durant la transmission. Quel sens pourrions-nous donner à ces images ? 56 Une hypothèse radicale consiste à exclure la notion d’original du cyberespace. S’il y a original, c’est dans l’hypertexte neuronal du ou des auteurs. La “résistance” du gratuit au payant pourrait trouver là un élément d’explication : le cyberespace n’a pas le sens de la propriété ! 53 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 81 Où le cyberespace est Autre, conclusion temporaire – ce qui ne préjuge pas de la difficulté d’accès aux différentes instances d’un document – ; une raison nécessaire et suffisante pour avoir fait du cyberespace un scripteur et un copiste de lui-même en apprenant à la machine numérique, pour commencer, à compter, lire, écrire, copier. Cette activité de copie, commandée et contrôlée par logiciel, constitue le processus par lequel alimenter en données des machines de vision spécifiées pour explorer l’architexte du cyberespace. L’exploration, une interprétation des structures de données par un logiciel de simulation, nous donne à voir une représentation signifiante là où, a priori, il n’y avait rien à percevoir, encore moins à comprendre. Concevoir cette classe particulière de machines de vision, c’est, hors soi, s’installer à ce poste d’observateur privilégié évoqué plus haut. Celui où l’on acquiert un point de vue sur l’information numérique similaire à celui de la machine. L’hypothèse du point de vue de la machine Savoir que le substrat technique emporte tous les composants nécessaires à la constitution de machines de vision qui simulent à notre attention le point de vue machinique sur l’information numérique est en soi insuffisant. Encore faut-il être convaincu de l’intérêt qu’il y a à programmer ces machines de vision, qu’il y a effectivement quelque sens à découvrir pour l’humain dans les hypertextes propres au cyberespace. Lorsque Dennis Fetterly, Mark Manasse, Marc Najork & Janet Wiener décident de mener la première étude à grande échelle sur l’évolution des pages web, ils ne savent pas ce qu’ils vont découvrir. Mais ils savent quel échantillon de données prélever, quels traitements appliquer et, enfin, comment visualiser les résultats ; ils programment leur machine de 57 vision en conséquence . Les conclusions tirées de leur étude se fondent sur des visions simulées des “données distillées”, qu’ils analysent et commentent – leur article se compose à 30 % de graphiques, fenêtres ouvertes pour notre entendement sur les écrits machiniques interprétés par la machine de vision numérique (figure 3.2). Dans cette expérience, quatre robots logiciels ont parcouru 151 millions de pages une fois par semaine pendant onze semaines pour mesurer la fréquence et l’importance des changements qu’elles connaissent, sauvegardant pour chaque document téléchargé des données pertinentes, y compris un vecteur de représentation du texte sans son marquage html, et le texte intégral de 1 ‰ des pages téléchargées. « Ensuite, nous distillons les données retenues et les rendons plus maniables pour l’analyse statistique, puis nous menons des opérations d’extraction [data mining] sur les données distillées » (Fetterly & alt, 2003. p. 9). À titre indicatif, le volume des données collectées se monte à 1 200 giga-octets, les données distillées à 222 giga-octets. 57 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 82 Où le cyberespace est Autre, conclusion temporaire Figure 3.2 : La “statistique mathématique” de Fisher a trouvé dans les machines numériques un outil idéal de traitement des données. La puissance de suggestion des images calculées par les machines de vision nourrit notre imaginaire comme nos interprétations. Il demeure nécessaire, cependant, de garder à l’esprit que nos interprétations se basent sur des séries d’interprétations logiques conduites sur les données par le dispositif technique numérique. (Schémas extraits de Fetterly & alt., 2003. p. 7 et 10.) Les auteurs mettent en évidence la faible part des changements sur les pages – établissant l’équivalent web=mémoire –, la corrélation entre domaine internet 58 et fréquence de changement, celle entre taille de document et importance du changement – plus le document est gros, plus les changements sont significatifs –, la régularité des cycles de changement permettant de calculer une probabilité de changement (figure 3.2, schéma de droite). Le fait le plus marquant, dans le cadre qui nous occupe, c’est que la machine de vision a mis en évidence « une source de pollution des données, les pages générées par les machines dans l’intention de spammer les moteurs de recherche » (Fetterly & alt., 2003. p. 9). Les auteurs parlent pollution ; mais hors soi, regardant la donnée du point de vue de la machine, quel sens construisons-nous à la visualiser ? Des automates écrivent des pages web à destination d’autres automates, pour influer sur leur comportement : obtenir une meilleure position dans les index des grands moteurs de recherche. Lancer une requête dans l’un des quelconques Google du Web produit une liste de résultats. Son contenu est l’œuvre des algorithmes de classement du moteur de recherche, algorithmes qui prennent pour données initiales les pages collectées sur le web par des robots spécialisés (“crawlers”) ; ces données initiales incluent les données internes inscrites par des robots “spammeurs de logiciels”. Si du point de vue humain cette écriture machinique est perçue comme une pollution, du point de vue de la machine elle pourrait indiquer l’activité d’un écosystème où le comportement d’un “organisme moteur de recherche” est influencé par des “organismes médiateurs” pour favoriser la fréquentation d’“organismes sites web” – hypothèse qui conduirait à qualifier la fréquentation comme l’un des critères de survie et d’évolution des pages web. Top level Domain ou TLD, l’étude porte sur les domaines com, net, org, edu, gov, et dix-sept pays parmi les plus actifs sur le Web. L’Afrique et l’Amérique du Sud sont absentes de l’échantillon. 58 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 83 Où le cyberespace est Autre, conclusion temporaire Quittant d’un zoom arrière le cadre de l’exemple jusqu’à embrasser l’espace informationnel d’un seul regard, nous devinons un système de systèmes complexes, hypertextuel, autoréplicant. Certains – Barabási avec l’hypothèse d’une nécessaire science des réseaux exposée dans Linked, Basarab Nicolescu avec la quantique en support universel du réel où s’inscrit le « Cyber-Espace-Temps », Baltz avec sa théorie générale de l’hypertexte, Lévy 59 avec sa théorie de l’intelligence collective, etc. – y voient l’opportunité de questionner le réductionnisme aristotélicien qui nous a enfermés dans l’hyperspécialisation scientifique, e caractéristique du XX siècle, et réinterroger l’approche platonicienne où des “lois fondatrices” très simples trouveraient une infinité de façons de s’insérer dans le réel. L’évidence assumée ici, sous l’influence bienveillante de tous ces chercheurs, est que ces “lois” s’in-forment en fonction du milieu – biosphère, infosphère, cyberespace… – et, surtout, qu’elles coexistent et forment à elles toutes plus que la somme des parties, l’espace informationnel même. De cet ensemble d’observations et de conjectures, nous pouvons tirer que : — le dispositif technique numérique dépend complètement de l’énergie ; — le dispositif technique numérique est une application de théories de la logique formelle, qui permettent et conditionnent la production des algorithmes et du code binaire ; — le code binaire, seul état de l’information inscriptible sous forme énergétique dans la mémoire informatique, représente indifféremment les processus cognitifs, les traitements, les données ; leur combinatoire produit le système complexe nommé cyberespace ; — le dispositif technique numérique inscrit une part croissante de notre mémoire individuelle et collective dans le cyberespace, et nous avons besoin du dispositif numérique pour la lire ; — le cyberespace, comme l’infosphère et la biosphère, sont des sousensembles aux intersections non vides de l’espace informationnel ; — ces sous-ensembles interprètent de manière locale les lois générales de l’espace informationnel comme sa structure hypertextuelle, l’équation information=données+sens, etc. ; — le cyberespace s’inscrit lui-même pour opérer ; l’architexte, situé hors infosphère, est porteur d’un sens opératoire pour le dispositif technique numérique ; — les lois générales de l’espace informationnel s’in-forment dans le cyberespace, en particulier dans les hypertextes intégrant les données internes hors de l’infosphère ; — les machines de vision formalisées sont programmées pour lire les structures des données internes et le font sans les perturber ; Barabási : Linked: The New Science of Networks, 2002 ; Nicolescu : Le cyber-espace-temps et l’imaginaire visionnaire, 2001 ; Baltz : In-formation, 2003 ; Lévy : Les technologies de l’intelligence, 1990. 59 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 84 Où le cyberespace est Autre, conclusion temporaire — les machines de vision interprètent le résultat de leur lecture pour en donner une simulation signifiante pour l’humain. Nous en tirons l’hypothèse du point de vue de la machine selon laquelle : La machine de vision, formalisée et mise en code dans le dispositif technique numérique, est une machine universelle, conformable à loisir, qui sert à sonder et éprouver expérimentalement d’éventuelles lois générales de l’espace informationnel par l’interprétation et la simulation à notre attention de leurs formes et de leur dynamique dans le cyberespace ; pour cela, la machine de vision doit être programmée non pour nous montrer ce que nous nous attendons à voir (le point de vue humain sur l’information) mais pour nous montrer ce que nous voulons découvrir (le point de vue de la machine sur l’information). Corollaire de cette hypothèse, humanité et cyberespace en réalisant le concept de machine 60 de vision formalisée s’apprêtent à élaborer un nouveau langage symbolique , iconique et dynamique, rehaussant d’un degré dans l’abstraction le dialogue entre humain et machine. Et là où la recherche peine à proposer des esquisses, la science-fiction nous offre ses visions graphiques, comme celle de David Zindell, dans Inexistence, où la fusion des hypertextes neuronaux et machiniques produit la “multiplicité” – un espace mental dévolu aux mathématiques où les applications démontrées guident les vaisseaux interstellaires d’étoile en étoile. « Je projetai mon esprit vers mon vaisseau et plongeai en temps-ralenti. Les pensées traversaient mon cerveau tels des flocons de neige chassés par une tempête. Alors que mes processus mentaux s’accéléraient, les secondes s’étiraient. Je disposais désormais d’un certain délai pour démontrer des relations très difficiles à établir. Mais je devais malgré tout agir rapidement, très rapidement. L’ordinateur modela mes pensées et entreprit de suscrire à mon cortex visuel des idéoplasts tirés de ma mémoire. Ces symboles semblables à des cristaux miroitaient devant mes yeux intérieurs ; ils apparaissaient, se joignaient et s’assemblaient, preuve de mes hypothèses. Cette quête d’un nouveau langage symbolique fonde une partie des travaux de l’équipe rassemblée par Lévy : « L’avantage des écritures idéographiques est qu’elles sont indépendantes des langues naturelles, comme le sont la notation des nombres ou les idéogrammes chinois (qui peuvent être lus en mandarin ou en cantonais, par exemple). Les idéogrammes de la langue de l’intelligence collective jouent le rôle de “personnages” élémentaires du monde des idées qui condensent le contenu d’un grand nombre de liens, de transactions et d’informations ayant des fonctions voisines dans l’écosystème de l’intelligence collective. Ces idéogrammes représentent des zones sémantiques beaucoup plus vastes que les mots des langues naturelles, ce sont des sortes de “codes postaux” du cyberespace capables de visualiser les ressources informationnelles et les dynamiques transactionnelles qui passent par eux. Ils permettent également de simuler des écologies d’idées. Ces idéogrammes pourront devenir nos partenaires dans le pilotage de l’intelligence collective à l’époque de la cyberculture, comme les idéogrammes statiques et les caractères alphabétiques l’avaient été à l’époque des civilisations nées de l’écriture » (Lévy, 2003). 60 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 85 Où le cyberespace est Autre, conclusion temporaire Chacun d’eux était beau et unique. La représentation du théorème des points fixes, par exemple, était semblable à un collier de rubis lové sur lui-même. Alors que je bâtissais soigneusement ma démonstration, il fusionna avec les fibres cristallines duveteuses du premier lemme relationnel de Lavi. Je réfléchissais à une vitesse folle, et les signes se figeaient. Les glyphes émeraude de l’axiome d’invariance, les runes cunéiformes des connectifs sententiels et tous les autres formaient désormais un mandala tridimensionnel ordonné par la logique et l’inspiration. Au fur et à mesure que mes pensées devenaient plus rapides, de nouveaux idéoplasts apparaissaient, semblant jaillir hors du néant, et trouvaient leur place dans la formulation de ma démonstration. Cette manipulation mentale des symboles dans le but d’établir une preuve porte un nom : nous appelons cela une tempête numérale parce que la pure pensée mathématique nous assaille comme le blizzard lors du printemps de la mi-hiver. » (Zindell, 1988. p. 110) Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 86 Où le cyberespace est Autre, conclusion temporaire Où le cyberespace est Autre, conclusion temporaire Le dispositif technique numérique est bien un outil, et celui qui s’en sert augmente sa capacité d’action à la mesure de la maîtrise qu’il en acquiert. Se voir, s’entendre, se parler, échanger de tous les points du monde ; s’informer, apprendre, explorer le savoir commun sans déranger quiconque ; imaginer, écrire, dessiner, modéliser, simuler chaque idée sans rien manipuler sinon des électrons… L’hypothèse d’une informatique maîtrisée qui émaille le discours des premiers cybernéticiens a vécu, engloutie dans la boîte noire de l’informatique utilisée. Ce serait pourtant tellement simple si chacun restait sagement derrière sa frontière, l’humain ici la machine là. Mais le dispositif technique affleure sans cesse dans ce que nous persistons à voir comme un “traitement automatisé d’informations codées sous forme binaire” ; et le cyberespace s’y entend pour brouiller les frontières. Issu du langage de la logique formelle, le dispositif en dépend pour opérer. L’humain dialogue avec lui parce qu’il l’instaure en co-producteur du discours. Par accroissement continu de l’architexte, le dispositif partage un nombre grandissant d’activités fonctionnelles avec les organismes biologiques alors même que les supports de leurs hypertextes diffèrent. Le tout montre la puissance productive de la lettrure conjointe 1 (symbiotique) humain-machine. Langage et technique, naturel et artificiel, vivant et matière inerte, réel et imaginaire… Toutes ces frontières placées, déplacées, négociées, ajoutées, effacées mais toujours présentes dans nos cultures s’affrontent à une question ancestrale sous un jour nouveau : “qui est l’autre ?”. Du fond des temps, nous cherchons un autre vraiment autre pour discuter nos idées, celui que certains appellent l’Autre. L’autre n’est pas descendu des Cieux. Il n’est pas plus venu de l’espace profond. Ou alors si, mais de l’espace profond de notre imaginaire. Comme n’importe lequel de ses outils, l’humanité a conçu et fabriqué l’informatique réticulée – devenue cet autre par la vertu du dialogue humain-machine – en la tissant de la matière de ses rêves dans l’espace informationnel. Infosphère, matière inerte, vivant, tous sont saisis dans le mouvement. Désormais, le cyberespace, tel que le décrit la machine numérique qui le fait être, s’étend au-delà de l’infosphère, sans conscience mais avec science. Acquérir son point de vue grâce à des machines de vision, c’est comme simuler ce miroir de conte de « Il apparaît surtout que les organismes ont une structure interne très complexe qui se forme épigénétiquement : au sein de celle-ci se déploient des activités fonctionnelles de type intégré et autorégulateur, dans une relative autonomie par rapport aux déterminations du milieu ambiant. » (“Vie”, François Duschesneau, Encyclopédie Philosophique Universelle, Les Notions Philosophiques, dictionnaire 2, PUF. 1990. p. 2730) 1 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 87 Où le cyberespace est Autre, conclusion temporaire fées de la Méchante Reine, neutre et objectif. Quand l’humain s’y regarde, qu’y voit-il ? Non pas une image de l’humanité mais une image de l’humanité racontée par la machine. L’humanité s’est engagée dans l’aventure numérique, élan irréversible initié par les aventuriers du triangle d’acier. Elle a constitué le cyberespace comme son interlocuteur privilégié. Approfondir le dialogue humain-machine, comme Engelbart nous a invités à le faire, c’est traquer les structures et les lois de composition de l’espace informationnel à travers leur inscription dans le cyberespace et peut-être comprendre, par analogie, la signification de leur inscription dans l’infosphère, la biosphère… C’est aussi se faire raconter le récit de l’humanité par cette autre voix, de nature si différente. Le cyberespace accueille tous les discours sans discrimination ; y compris la vieille querelle 2 des anciens et des modernes, retitrée pour l’occasion “hackers contre législateurs” , “altermondialistes contre capitalistes”, “artistes contre producteurs”, “individus contre système”… Tous les récits coexistent, développent leurs structures et conforment localement le cyberespace à leurs règles : il ne manque décidément pas de matière pour éprouver la solidité de notre hypothèse, la travailler plus avant du point de vue de la machine. Nouveau plongeon dans la fractalité. Les réseaux pullulent de fragments révélateurs ; exemples de machines de vision réglées au plus près du processus de lettrure du cyberespace (voir Annexe I, Visions de machines de vision). Partir à leur rencontre, c’est découvrir de multiples approches, menées d’instinct ou en pleine conscience, des plus graphiques – aperçus des hypertextes du cyberespace – aux plus virtuelles – descriptions enfouies dans les textes inscrits dans les réseaux. Affiner le réglage de nos machines de vision formalisées, c’est poursuivre notre dialogue avec le cyberespace, dialogue où 3 l’humanité est une et où ce qu’elle inscrit son bien commun . Et comme le pronostique Quéau (Quéau, 1999), de cette évidence du bien commun peut naître une politique du cyberespace favorable à l’humanité tout entière et non à ses seules élites. Exemple. Le “mouvement du libre”, côté hackers, le commerce, côté législateurs. Les premiers prônent la libre copie, la coopération, le bien commun ; les seconds protègent la propriété, le libre commerce et, plus ou moins directement, la concentration des pouvoirs. Les logiciels qu’écrivent les hackers diffèrent de ceux qu’écrivent les législateurs ; ils entrent parfois en conflit mais dans la plupart des cas coexistent. Nous avons à apprendre en parcourant leurs hypertextes, et tous ceux inscrits dans l’architexte du cyberespace. 3 Philippe Quéau développe depuis plusieurs années une théorie du bien commun mondial, théorie exposée au cours de colloques (Quéau, 1999) ou dans un ouvrage récent (Quéau, 2000). 2 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 88 Visions de machines de vision Annexe I Annexe I Visions de machines de vision Parcourir le cyberespace, quelle qu’en soit la raison, multiplie les occasions de croiser l’une de ces manifestations indicatives de machines de vision formalisées pour s’exercer à la position de “hors-soi”. Échantillonnage pour stimuler l’imagination du lecteur. TouchGraph GoogleBrowser Naviguer dans une portion du Web, les rayons d’Amazon ou les weblogs hébergés par LiveJournal – clic clic clic – c’est commun. S’aventurer dans leur graphe demande une bonne pratique et de la patience (surtout) pour s’y sentir orienté et en position de contrôle. « La nature associative du réseau facilite la mémorisation de sa structure mais c’est l’apparition récurrente d’images stables qui booste la mémoire de l’utilisateur. La capacité à créer ces images stables et à y naviguer est ce qui rend TouchGraph si spécial, et c’est 1 aussi la clé de l’augmentation tant du designer que de l’utilisateur » (Shapiro, 2001). Figure 4.1 : Les liens les plus forts entre sites, tels que les algorithmes de Google les construisent, s’affichent dans le graphe (la requête ici était “google.com”). L’amas qui attire le plus Google, ce sont les autres moteurs de recherche ; logique. L’étoile du bas, c’est “google.de”, la version germanophone. Et le troisième sommet du triangle, pont vers l’étoile dense de droite, c’est un moteur de recherche allemand spécialisé dans la pornographie. Aucune requête dans Google ne pourrait mettre en évidence cette relation ternaire ; une interface graphique si. Alex Shapiro est l’auteur du code de TouchGraph, applet Java destinée à la visualisation de réseaux sous forme de graphes navigables. URL : http://www.touchgraph.com/index.html (dernier accès le 3 septembre 2003). 1 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 89 Visions de machines de vision Annexe I SimplePaint Nicolas Clauss, peintre autodidacte passé temporairement des pinceaux à la toile du net, installe les visiteurs de son site dans « un espace d'expérimentations présentant plusieurs pièces où l'interactivité et la dimension ludique sont essentielles. Il est important que l'utilisateur puisse se les approprier en créant ses propres interprétations à partir de ce qui 2 est donné » (Clauss, 2001). L’artiste-programmeur, avec SimplePaint , confronte l’utilisateur à l’occupation simultanée de deux positions : peintre à la souris, juge de la peinture qui évolue simultanément à l’instigation du logiciel. Figure 4.2 : Le logiciel de Clauss ne comprend que quatre commandes : changer de brosse (clic de souris), changer de palette (lettre C), changer de couleur de fond (espace), déplacer la brosse (mouvements de la souris). Le code trace en continu quoi que fasse le “peintre” – jusqu’à le remplacer s’il n’agit pas du tout (mode “screensaver”). L’association humain-logiciel trouve ici matière à parcourir indéfiniment les boucles de rétroaction. Le logiciel de dessin SimplePaint est utilisable directement sur le site de l’artiste. URL : http://www.flyingpuppet.com/shock/simplepaint.htm (dernier accès le 9 septembre 2003). 2 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 90 Visions de machines de vision Annexe I SpaceWar! L’histoire a retenu Spacewar! comme étant le premier jeu vidéo. Imaginé par Martin Graetz, Stephen Russell et Wayne Wiitanen en 1961, il a été programmé en 1962 sur un PDP-1 par Stephen Russell, Peter Samson, Dan Edwards, Martin Graetz, Alan Kotok, Steve 3 Piner et Robert A. Saunders. Cette version , programmée par Barry Silverman, Brian Silverman et Vadim Gerasimov, est conforme à l’original : « Martin Graetz nous a fourni une version imprimée du code source. Nous l’avons ressaisi – il fait environ 40 pages – et réassemblé avec un assembleur PDP-1 écrit en PERL. Le code binaire résultant tourne dans un émulateur de PDP-1 sous forme d’applet Java » (Silverman, Silverman & Gerasimov, 1999). Outre son aspect ludique, ce qui nous intéresse ici c’est l’ordinateur PDP-1 intégralement reproduit sous la forme d’un logiciel (l’émulateur) pour que le jeu puisse être exécuté par un micro-ordinateur actuel avec une machine virtuelle Java. Figure 4.3 : Le code de la version contemporaine de Spacewar! est extrêmement fidèle à l’original, à deux exceptions près : la taille des vaisseaux a été augmentée, les temporisations ont été rendues conditionnelles pour s’adapter à des machines plus ou moins rapides. La version émulée de Spacewar! est disponible sur le site du Medialab du MIT, tout comme les codes sources. URL : http://agents.www.media.mit.edu/groups/el/projects/spacewar/ (dernier accès le 9 septembre 2003). 3 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 91 Visions de machines de vision Annexe I ArtMatic Œuvre d’Éric Wenger, un ancien des Arts Déco, ArtMatic cache des fonctions mathématiques complexes – fractales et réseaux de neurones mais pas seulement – sous une interface ludique. Une arborescence de tuiles, indifféremment fonction géométrique ou filtre, règle le flux graphique. Fascinant, et encore plus en produisant simultanément un flux sonore : celui-ci perturbe les variables exploitées par les réglages de l’arborescence ; renouvelant le flux graphique de manière imprévisible, véritable mutation de la lignée. « Notre mission est de fournir aux artistes des outils qui encouragent la découverte et les libèrent des contraintes des techniques logicielles traditionnelles. Nos applications créent des environnements qui nourrissent la créativité par l’exploration » (Wenger, 2003). 4 Figure 4.4 : ArtMatic perçoit toutes les entrées comme du signal. Vidéo, fonctions graphiques et son influent sur le générateur graphique ; l’évolution est la règle ici. Et Wenger avec son logiciel nous montre de belles images, évidemment, mais surtout il conduit le cyberespace à générer un flux numérique évolutionniste remis en image et en son en temps réel par sa machine de vision intégrée. Les logiciels de Éric Wenger sont payants mais en téléchargement libre pour évaluation sur le site de sa maison d’édition, u&i software. URL : http://www.uisoftware.com/index.html (dernier accès le 9 septembre 2003). 4 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 92 Visions de machines de vision Annexe I Network Physics Avec un tel nom, l’entreprise se doit d’être experte ; elle l’est à double titre. L’importation dans le domaine des réseaux d’une technique d’analyse statistique employée pour distiller les flots de données générés par les accélérateurs de particules permet d’observer en temps réel le trafic IP global sur un réseau étendu. L’interprétation des données internes que sont les enveloppes des paquets TCP/IP suffit à alimenter de multiples machines de vision où les simulations servent à établir des pronostics – au sens statistique – et rendre le transport des flux d’information presque indépendants de l’état des réseaux. « Notre vision du réseau n’est pas celle d’un énorme entassement d’appareils, de liens, de paquets, de files d’attente mais celle d’un système physique gouverné par un petit nombre de principes fondamentaux », lit-on sur dans leur documentation technique. Figure 4.5 : Ce que voit l’administrateur d’un réseau étendu n’est pas ce qui s’y passe. Confrontées à un système complexe, les approches verticales d’agrégation des données échouent : pas assez de matière première et trop de calculs. Ici, la complexité est traitée comme telle, la machine de vision l’interprète en de multiples étapes – schéma à droite – jusqu’à produire des simulations graphiques directement assimilables par l’humain – un exemple à gauche. Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 93 Licence de Libre Diffusion des Documents Annexe II Annexe II Licence de Libre Diffusion des Documents v. 1 Ce document peut être librement lu, stocké, reproduit, diffusé, traduit et cité par tous moyens et sur tous supports aux conditions suivantes : 1. tout lecteur ou utilisateur de ce document reconnaît avoir pris connaissance de ce qu'aucune garantie n'est donnée quant à son contenu, à tout point de vue, notamment véracité, précision et adéquation pour toute utilisation ; 2. il n'est procédé à aucune modification autre que cosmétique, changement de format de représentation, traduction, correction d'une erreur de syntaxe évidente, ou en accord avec les clauses ci-dessous ; 3. des commentaires ou additions peuvent êtres insérés à condition d'apparaître clairement comme tels ; 4. les traductions ou fragments doivent faire clairement référence à une copie originale complète, si possible à une copie facilement accessible ; 5. les traductions et les commentaires ou ajouts insérés doivent être datés et leur(s) auteur(s) doi(ven)t être identifiable(s) (éventuellement au travers d'un alias) ; 6. cette licence est préservée et s'applique à l'ensemble du document et des modifications et ajouts éventuels (sauf en cas de citation courte), quelqu'en est le format de représentation ; 7. quel que soit le mode de stockage, reproduction ou diffusion, toute personne ayant accès à une version numérisée de ce document doit pouvoir en faire une copie numérisée dans un format directement utilisable et si possible éditable, suivant les standards publics, et publiquement documentés, en usage ; 8. la transmission de ce document à un tiers se fait avec transmission de cette licence, sans modification, et en particulier sans addition de clause ou contrainte nouvelle, explicite ou implicite, liée ou non à cette transmission. En particulier, en cas d'inclusion dans une base de données ou une collection, le propriétaire ou l'exploitant de la base ou de la collection s'interdit tout droit de regard lié à ce stockage et concernant l'utilisation qui pourrait être faite du document après extraction de la base ou de la collection, seul ou en relation avec d'autres documents. Toute incompatibilité des clauses ci-dessus avec des dispositions ou contraintes légales, contractuelles ou judiciaires implique une limitation correspondante du droit de lecture, utilisation ou redistribution verbatim ou modifiée du document. Auteur de la licence : Bernard Lang. URL : http://pauillac.inria.fr/~lang/licence/v1/lldd.html URL bis : http://www.boson2x.org/article.php3?id_article=20 Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 94 Bibliographie Bibliographie Ouvrages Henri Atlan. Entre le cristal et la fumée, Éditions du Seuil. 1979. Claude Baltz. La nébuleuse Inforcom, les espaces de l’information, CNET-CNRS. Octobre 1987. Éric Baptiste. L’infosphère : stratégies des médias et rôle de l’État, La Documentation Française. 2000. Daniel Bougnoux. Introduction aux sciences de la communication, éditions La Découverte, nouvelle édition. 2001. e Philippe Breton & Serge Proulx. L’explosion de la communication à l’aube du XXI siècle, éditions La Découverte. 2002. Jorge Luis Borges. Ficciones, Emecé Editores. 1956 et 1960. Traduction française de P. Verdevoye, Ibarra et Roger Caillois sous le titre Fictions, Gallimard. 1957 et 1965. Nouvelle édition augmentée chez Folio, 1983. Emmanuel Dion. Invitation à la théorie de l’information, Éditions du Seuil. 1997. Ivar Ekeland. Le Calcul, l’Imprévu, Les figures du temps de Kepler à Thom, Éditions du Seuil. 1984. Luciano Floridi (éditeur). The Blackwell Guide to the Philosophy of Computing and Information, Blackwell Books. 2003. Le chapitre 5 de la section II, Information, est disponible sur le site de Floridi. URL : http://www.wolfson.ox.ac.uk/~floridi/blackwell/chapters/chapter5.pdf (dernier accès le 21 août 2003). William Gibson. Neuromancer, 1984. Traduction française de Jean Bonnefoy sous le titre Neuromancien, éditions La Découverte, 1985. Alain Gras & Caroline Moricot (éditeurs). Technologies du quotidien, La complainte du progrès, Éditions Autrement. 1992. Katie Hafner & Matthew Lyon. Where wizards stay up late, Simon & Schuster. 1996. Traduction française de Georges Loudière sous le titre Les sorciers du Net, Calmann-Lévy. 1999. Robert Heinlein. The Door into Summer, feuilleton paru dans The Magazine of Fantasy and Science-Fiction. 1956. Traduction française de Régine Vivier sous le titre Une porte sur l’été, Éditions Rencontre, 1970. Jacques Jaffelin. Pour une théorie de l’information générale, tractatus logico-ecologicus, ESF éditeur. 1993. Derrick de Kerckhove. Connected Intelligence, Sommerville House Publishing. 1997. Traduction française de Ferry de Kerckhove sous le titre L’intelligence des réseaux, Éditions Odile Jacob. 2000. Murray Leinster. A logic named Joe, Street & Smith. 1946. Traduction française de Monique Lebailly sous le titre Un logique nommé Joe, in Demain les puces de Patrice Duvic, Denoël, 1986. Pierre Lévy. Les technologies de l’intelligence, éditions La Découverte. 1990. Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 95 Bibliographie Pierre Lévy. Cyberculture, Rapport au Conseil de l’Europe, éditions La Découverte. Novembre 1997. Pierre Lévy. Qu’est-ce que le virtuel ?, éditions La Découverte. 1998. Marshall McLuhan. Understanding Media, McGraw Hill. 1964. Traduction française de Jean Paré sous le titre Pour comprendre les médias, Mame/Seuil, 1968. Armand Mattelard. Histoire de la société de l’information, éditions La Découverte. 2001. Theodor Holm Nelson. Literary Machines 93.1, Mindful Press. 1993. La première édition de Literary Machines remonte à 1981, ouvrage que Nelson a remanié à plusieurs reprises entretemps. John von Neumann. The Computer and the Brain, Yale University Press. 1957. Traduction française de Pascal Engel sous le titre L’ordinateur et le cerveau, Flammarion. 1996. Daniel Parrochia (éditeur). Penser les réseaux, Éditions Champ Vallon. 2001. Heinz Pagels. The Dreams Reasons, Simon and Schuster. 1988. Traduction française de Michèle Garène sous le titre Les rêves de la raison, L’ordinateur et les sciences de la complexité, InterÉditions. 1990. Aline Pélissier & Alain Tête. Sciences cognitives textes fondateurs (1943-1950), Presses Universitaires de France. 1995. Philippe Quéau. Éloge de la simulation, de la vie des langages à la synthèse des images, Éditions Champ Vallon. 1986. Philippe Quéau. La planète des esprits, pour une politique du cyberespace, Éditions Odile Jacob. 2000. Eric S. Raymond (éditeur). The Jargon File (version 4.4.3). Première version 1975 ; version actuelle de mai 2003. URL : http://www.catb.org/~esr/jargon/html/index.html (dernier accès le 11 août 2003). J. Reynolds & Jon Postel. The Request for Comments Reference Guide, Network Working Group. Août 1987. URL : http://rfc.sunsite.dk/rfc/rfc1000.html (dernier accès le 21 juillet 2003). Doc Searls & David Weinberger. World of ends. 2003. URL : http://worldofends.com (dernier accès le 11 août 2003). Dan Simmons. Hyperion et The fall of Hyperion, Doubleday. 1989-1990. Traduction française de Guy Abadia sous le titre Les cantos d’Hyperion, Pocket. 1991-1992. Jean-Michel Truong. Le successeur de pierre, Denoël. 1999. Noah Wardrip-Fruin & Nick Montfort. The NewMedia Reader, MIT Press. 2003. Des compléments au livre sont accessibles sur le site Guillaume Watier. Le calcul confié aux machines, Éditions Ellipses. 2001. Norbert Wiener. Cybernetics : or Control and Communication in the Animal and the e Machine, MIT Press (2 édition, 1961). 1948. David Zindell. Neverness, 1988. Traduction française de Jean-Pierre Pugi sous le titre Inexistence, J’ai Lu, 1989. Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 96 Bibliographie Articles Claude Baltz. In-formation, communication au colloque H2PTM, à paraître chez Hermès. Septembre 2003. Paul Baran. On distributed networks, Rand Corporation. Août 1964. URL : http://www.rand.org/publications/RM/RM3420/index.html (dernier accès le 14 juillet 2003). Jean-Michel Basquiat & Christophe Jacquemin. À propos de lambda-calcul, Automates Intelligents. Février 2002. URL : http://www.automatesintelligents.com/edito/2002/fev/edito.html (dernier accès le 12 juillet 2003). Jean-François Bianco. Diderot a-t-il inventé le Web ?, Recherches sur Diderot et sur l’Encyclopédie, n° 31-32. Avril 2002. Actes du Colloque L’Encyclopédie en ses nouveaux atours électroniques : Vices et vertus du virtuel, Université Paris 7, 17 au 18 novembre 2000. Gilles Blanchard et Mark Olsen. Le système de renvois dans l’Encyclopédie : Une e cartographie des structures de connaissances au XVIII siècle, Recherches sur Diderot et sur l’Encyclopédie, n° 31-32. Avril 2002. Actes du Colloque L’Encyclopédie en ses nouveaux atours électroniques : Vices et vertus du virtuel, Université Paris 7, 17 au 18 novembre 2000. Susan E. Brennan. Conversation as Direct Manipulation: An Iconoclastic View, in The Art of Human-Computer Interface Design, édité par Brenda Laurel, Addison-Wesley. 1990. Vannevar Bush. As We May Think, Atlantic Monthly, Boston. Juillet 1945. URL : http://www.theatlantic.com/unbound/flashbks/computer/bushf.htm (dernier accès le 12 août 2003). Une version condensée et illustrée a ensuite été publiée par Life. 1945. Article republié dans Wardrip-Fruin & Montfort, 2003. p. 35-47. Vinton Cerf & Robert Kahn. A Protocol For Packet Network Intercommunication, IEEE Transactions on Communications, vol. Com-22, n° 5. Mai 1974. URL : http://www.comsoc.org/livepubs/50_journals/pdf/RightsManagement_eid=138775.pdf (dernier accès le 21 juillet 2003). Brigitte Chamak. Ceux qui construisent la “réalité virtuelle”…, Alliage, n° 27. 1996. URL : http://www.tribunes.com/tribune/alliage/27/cham.htm (dernier accès le 10 juillet 2003). Roger Charland. Le bibliothécaire n’est pas un animal préhistorique, les musées de sciences naturelles ne sont pas près de l’acquérir, Hermès n° 1. Printemps 1998. URL : http://pages.globetrotter.net/charro/HERMES1/roger1.htm (dernier accès le 18 juillet 2003). B. Jack Copeland. The Church-Turing Thesis, The Stanford Encyclopedia of Philosophy. Édition automne 2002. URL : http://plato.stanford.edu/archives/fall2002/entries/churchturing/ (dernier accès le 12 juillet 2003). Richard Dawkins. The Information Challenge, The Skeptic, vol. 18, n° 4. Décembre 1998. URL : http://www.skeptics.com.au/journal/dawkins1.htm (dernier accès le 22 août 2003). Gilles Dowek. Le sens du calcul, Futura Sciences. 22 février 2003. http://www.futurasciences.com/decouvrir/d/dossier215-8.php. Transcription mise à jour d’un exposé au séminaire « Qu’est-ce qu’une logique ? » (9 avril 1996). Douglas Engelbart. Augmenting Human Intellect: A Conceptual Framework, Stanford Research Institute. Octobre 1962. URL : http://sloan.stanford.edu/mousesite/EngelbartPapers/B5_F18_ConceptFrameworkInd.html (dernier accès le 14 août 2003). In Wardrip-Fruin & Montfort, 2003, p. 95-108. Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 97 Bibliographie Dennis Fetterly, Mark Manasse, Marc Najork & Janet Wiener. A Large-Scale Study of the Evolution of Web Pages, communication lors de la Twelfth International World Wide Web Conference, Prague. Mai 2003. URL : http://www.research.microsoft.com/aboutmsr/labs/siliconvalley/pubs/p97-fetterly/p97fetterly.pdf (dernier accès, le 30 août 2003). Luciano Floridi. Infosfera, in Internet & Net Economy, Vito di Bari, Il Sole 25-Ore Libri. 2002. Traduction française sous le titre Infosphère, une définition, boson2x. URL : http://www.boson2x.org/article.php?id_article=66, (dernier accès le 21 août 2003). Ronda Hauben. Computer Science and the Role of Government in Creating the Internet : ARPA/IPTO (1962-1986), Creating the Needed Interface, The University of Michigan Computer Club. Avril 1999 (dernière mise à jour du document janvier 2000). URL : http://www.ais.org/~ronda/new.papers/arpa_ipto.txt (dernier accès le 19 juillet 2003). Jacques Hebenstreit. Informatique–principes, Encyclopædia Universalis. Édition numérique 2001. Tom Leighton. Topics in Theoretical Computer Science: Internet Research Problem, Lecture 1, Massachussets Institute of Technology. Février 2002. URL : http://sfr.nms.lcs.mit.edu/5aef44d08d08f0386861b770758dc61b1dd0405e (dernier accès le 18 août 2003). Barry Leiner, Vinton Cerf, David Clark, Robert Kahn, Leonard Kleinrock, Daniel Lynch, Jon Postel, Larry Roberts, Stephen Wolff. A Brief History of the Internet, version 3.31, Internet Society (Isoc). 4 août 2000. URL : http://www.isoc.org/internet/history/brief.shtml (dernier accès le 24 juillet 2003). David M. Levy. Where’s Waldo? Reflections on Copies and Authenticity in a Digital Environment, in Authenticity in a Digital Environment, Council on Library and Information Resources. Mai 2000. URL : http://www.clir.org/pubs/reports/pub92/levy.html (dernier accès le 29 août 2003). Pierre Lévy. Le futur Web exprimera l’intelligence collective de l’humanité, propos recueillis par Pierre Lombard, Le Journal du Net. Septembre 2003. URL : er http://www.journaldunet.com/printer/it_plevy.shtml (dernier accès le 1 septembre 2003). Joseph Carl Robnett Licklider. Man-Computer Symbiosis, IRE Transactions on Human Factors in Electronics, HFE-1:4-11. Mars 1960. Republication dans le Digital SRC Research Report 61. 7 août 1990. URL : ftp://gatekeeper.research.compaq.com/pub/DEC/SRC/research-reports/SRC-061.pdf (dernier accès le 5 août 2003). Paul Loubière. Fondements épistémologiques de l'ethnométhodologie, application à la logique, aux mathématiques et à l'informatique, thèse de doctorat, Université Paris VII. 1992. URL : http://perso.club-internet.fr/vadeker/corpus/loubiere/these_loubiere.html (dernier accès le 9 septembre 2003). Warren McCulloch & William Pitts. A logical calculus of the ideas immanent in nervous activity, Bulletin of Mathematical Biophysics. 1943. Traduction française dans Pélissier & Tête, 1995. p. 57-91. Barry McMullin. John von Neumann and the Evolutionary Growth of Complexity: Looking Backwards, Looking Forwards…, in Artificial Life VII: Proceedings of the Seventh International Conference, Mark A. Bedau, John S. McCaskill, Norman H. Packard et Steen Rasmussen (éditeurs), MIT Press. 2000. URL : http://www.eeng.dcu.ie/~alife/bmcm-200001/html-single/ (dernier accès le 11 août 2003). Pierre Musso. Genèse et critique de la notion de réseau, in Penser les réseaux, Parrochia (éditeur), Éditions Champ Vallon. 2001. Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 98 Bibliographie Theodor Holm Nelson. A File Structure for the Complex, the Changing, and the e Indeterminate, actes de la 20 conférence nationale de l’Association for Computing Machinery. 1965. In Wardrip-Fruin & Montfort, 2003, p. 134-145. John von Neumann. First draft of a Report on the EDVAC, in Great Papers in Computer Science, sous la direction de Philipp Laplante, Burlington County College, IEEE Press, juin 1945. URL : http://www.cs.colorado.edu/~zathras/csci3155/EDVAC_vonNeumann.pdf (dernier accès le 14 juillet 2003). John von Neumann. The General and Logical Theory of Automata, in Cerebral Mechanisms in Behavior: The Hixon Symposium, Lloyd A. Jeffres (éditeur), John Wiley and Sons. 1951. Traduction française dans Pélissier & Tête, 1995. p. 93-153. Basarab Nicolescu. Le cyber-espace-temps et l’imaginaire visionnaire, in Penser les réseaux, Parrochia (éditeur), Éditions Champ Vallon. 2001. Daniel Parrochia. La rationalité réticulaire, introduction à Penser les réseaux, Parrochia (éditeur), Éditions Champ Vallon. 2001. Philippe Quéau. Du Bien Commun Mondial à l’âge de l’information, séminaire fws, er Poitiers. 1 mars 1999. URL : http://2100.org/conf_queau1.html (dernier accès le 2 septembre 2003). Paolo Quintili. La raison lointaine Internet, rationalité encyclopédique et rationalité télématique, Recherches sur Diderot et sur l’Encyclopédie, n° 31-32. Avril 2002. Actes du Colloque L’Encyclopédie en ses nouveaux atours électroniques : Vices et vertus du virtuel, Université Paris 7, 17 au 18 novembre 2000. Arturo Rosenblueth, Norbert Wiener & Julian Bigelow. Behavior, Purpose and Teleology, Philosophy of Science, Williams & Wilkins, vol. X, p. 18-24. 1943. Jeffrey Shallit. A very brief history of computer science, Université Waterloo, Canada. 1995. http://www.math.uwaterloo.ca/~shallit/Courses/134/history.html (dernier accès le 24 juillet 2003). Claude E. Shannon. A Chess-Playing Machine, Scientific American, n° 182. Février 1950. URL : http://www.stanford.edu/class/sts145/Library/shannon1950.pdf (dernier accès le 8 août 2003). Emmanuël Souchier. Lorsque les écrits de réseaux cristallisent la mémoire des outils, des médias et des pratiques, in Les défis de la publication Web, Indisciplines. Février 2003. URL : http://www.interdisciplines.org/defispublicationweb/papers/18/ (dernier accès le 27 août 2003). Robert W. Taylor. In Memoriam, J.C.R. Licklider, 1915-1990, Digital SRC Research Report 61. 7 août 1990. URL : ftp://gatekeeper.research.compaq.com/pub/DEC/SRC/research-reports/SRC-061.pdf (dernier accès le 5 août 2003). Alan M. Turing. On Computable Numbers with an Application to the Entscheidungsproblem, Proceedings of the London Mathematical Society, series 2. vol. 42. 1936-1937. Réédition avec corrections en 1937, ibid. vol. 43. URL : http://www.abelard.org/turpap2/tp2-ie.asp (dernier accès le 8 août 2003). Alan M. Turing. Intelligent Machinery, rapport du National Physical Laboratory. 1948. URL : http://www.alanturing.net/turing_archive/archive/l/l32/L32-001.html (dernier accès le 8 août 2003). Alan M. Turing. Computing Machinery and Intelligence, Mind, vol. LIX, n° 236. Octobre 1950. URL : http://www.abelard.org/turpap/turpap.htm (dernier accès le 8 août 2003). Traduction française dans Pélissier & Tête, 1995. p. 255-285. Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 99 Bibliographie Autres sources Claude Baltz. Séminaire Cyberespace, Université Paris-8. 2002-2003. Claude Baltz. Éléments de cyberculture, 2000 (mise à jour 2002-2003). Fiches descriptives du cadre de réflexion du Séminaire Cyberculture, Université Paris-8. 2002-2003. Jean-François Pillou. Site http://www.commentcamarche.net/, « livre ouvert sur l’informatique ». 1999-2003. Autour du cyberespace, esquisse pour un approfondissement du dialogue humain-machine 100