La culture : une dynamique entre uniformité et diversité Jean
Transcription
La culture : une dynamique entre uniformité et diversité Jean
La culture : une dynamique entre uniformité et diversité Jean-Pierre Asselin de Beauville Chargé de mission auprès du recteur de l’Agence universitaire de la Francophonie (AUF) Ex Vice-recteur aux programmes de l’AUF Colloque du Centre interuniversitaire d’études sur les lettres, les arts et les traditions (CELAT, Université Laval) « Francophonie et francophonies : quel avenir, quels enjeux?» Université Laval, Canada-Québec, 14-17 octobre 2008 ________________________ La « diversité » selon le dictionnaire Robert, s’attache aux caractères de nature et de qualité différentes, variées. Elle a rapport avec les notions de pluralité, de différence ou d’opposition. Définir la diversité peut aussi se faire en référence au concept antinomique, « d’uniformité » : est divers ce qui n’est pas uniforme et réciproquement. Par ailleurs, une situation uniforme est souvent perçue comme statique à l’exemple d’un mouvement effectué à vitesse constante. Ce type de mouvement, exempt d’accélération, pourra donner à l’observateur qui se déplace, la sensation d’être immobile. A contrario, la diversité, comme l’indique l’étymologie latine « diversitas », a aussi à voir avec la notion de divergence et donc de mouvement. Passer de l’uniformité à la diversité et réciproquement, peut donc aussi être interprété comme une mise en mouvement et présente donc un aspect dynamique. En ce qui concerne la culture, nous adopterons une définition très générale. Nous conviendrons qu'elle englobe les connaissances, l'histoire, les langues, les pratiques sociales, les croyances, les idées qui s'expriment dans les comportements, les goûts, les jugements, aussi bien que dans les objets techniques que dans la littérature, la danse,la musique et, plus généralement, les arts. Cette notion de diversité dépend aussi de celle de dimension. On comprendra aisément que la probabilité d’observer de la diversité doit généralement augmenter avec la dimension du champ d’observation. Effectivement, plus ce champ englobe d’informations et plus on aura de chances d’y détecter des différences. C’est ainsi que l’on parle souvent de « particularismes » pour distinguer les différences à un niveau d’observation plus limité. S’agissant, par exemple, de l’ensemble de 68 Etats et Gouvernements rassemblés au sein de l’entité politique dénommée « Francophonie », il est naturel de s’attendre à y trouver plus de diversité que dans un groupe plus restreint de pays. 1 Diversité et humanité Notre premier point, sera de rappeler que la diversité est une condition essentielle, sinon vitale, de survie de l’humanité. Autrement dit : l’Homme (ou la personne humaine) éprouve un besoin fondamental de diversité. La fin de la diversité risquerait de conduire l’humanité à sa perte. L’argumentaire, sans prétendre à l’exhaustivité, s’appuie au moins sur deux points : - La génétique humaine d’abord, qui nous apprend (cf. Albert Jacquard, « Eloge de la différence, la génétique et les hommes », Ed. du Seuil, Paris, 1978, pages 18-19) que « l’enfant n’est la reproduction de personne, il est une création définitivement unique. Cette unicité résulte du nombre fabuleux d’enfants différents qui pourraient être procréés par un même couple : imaginons que pour un caractère donné, par exemple le système sanguin Rhésus, le père et la mère soient chacun dotés de deux gènes distincts, « a » et « b » ; les enfants qu’ils procréent peuvent recevoir soit deux gènes « a », soit deux gènes « b », soit un gène « a » et un gène « b » ; pour chaque caractère, 3 combinaisons de gènes sont ainsi possibles ; pour un ensemble de deux caractères, ce sont donc 32 = 9 combinaisons qui sont potentiellement réalisables et pour un ensemble de n caractères ce sont 3n combinaisons qui deviennent possibles ; ce dernier chiffre est « astronomique » dès que n dépasse quelques dizaines ; ainsi, pour un ensemble de n = 200 caractères, ce nombre est égal à 3200 , ce qui est pratiquement infini… Cette possibilité de diversité est l’apport propre de la reproduction sexuée : le réel est unique mais les possibles sont infiniment nombreux ». Pour mieux percevoir cette infinité de possibles, il suffit de rappeler que chaque être humain reçoit plusieurs centaines de milliers de paires de gènes, chaque paire étant chargée de gouverner une fonction élémentaire, par exemple la synthèse d’une enzyme. Dans un livre récent, (« L’Humanité au pluriel- la génétique et la question des races », Ed. du Seuil, collection « Science ouverte », Paris, 2008) Bertrand Jordan, montre que la diversité génétique humaine doit être considérée comme une richesse et que c’est précisément parce que les êtres humains sont différents qu’il est nécessaire de les proclamer égaux. Les chercheurs étatsuniens R. Lewontin (« The Genetic Basis of Evolutionary Change », Columbia University Press, 1974) et M. Nei (« Molecular Population Genetics and Evolution », Amsterdam, North-Holland, 1975) ont montré qu’on ne diminue en moyenne que de 15% la diversité génétique constatée entre les humains si, au lieu de l’ensemble de l’humanité, on ne considère que les humains appartenant à une même nation. On observe donc ici que, même l’effet de dimension mentionné plus haut, ne suffit pas à réduire sensiblement la diversité génétique humaine tant celle-ci semble intrinsèque à l’être humain. A. Jacquard, dans le livre déjà cité (page 204), indique, que « l’avenir d’un groupe humain dans son ensemble, sa capacité à se renouveler, à lutter, de génération en génération, contre l’érosion du temps, cette lutte est d’autant plus efficace que les possibilités de transformation, d’adaptation à un milieu changeant sont plus larges, donc que la collection de gènes est plus variée… Un « bon » patrimoine génétique collectif est un patrimoine divers ». Edgard Morin (« Le Paradigme perdu : la nature humaine », Ed. du Seuil, Paris, 1973), utilise une formule imagée remarquable : « la richesse d’un groupe est faîte de ses mutins et de ses mutants ». - Sur un autre plan, l’individu humain est plongé dans un environnement géophysique et biologique (climat, géographie, paysages, faune, flore,…) qui, lui aussi, est extrêmement diversifié. On connaît notamment aujourd’hui toute l’importance de la biodiversité pour 2 qu’il ne soit pas besoin d’en rappeler ici le rôle fondamental au regard de la survie de l’humanité. Le nombre d’espèces vivantes répertoriées sur la Terre est de l’ordre du million et demi et la diversité de leurs apparences et de leurs fonctions n’est plus à démontrer. Il est tout aussi remarquable qu’en trois milliards d’années, grâce au processus d’évolution darwinien, les êtres vivants aient manifesté une capacité de différenciation extraordinaire, passant de quelques molécules à une prolifération d’organismes, parfois d’une grande complexité, dotés de pouvoirs et de fonctions multiples. On sait aujourd’hui, par la génétique des populations, que la nature a eu pour effet, au cours de l’évolution, de préserver la diversité plutôt que de modeler les êtres vivants autour d’un même type « idéal ». Ainsi, lorsqu’on observe l’humanité à l’échelle de l’individu, il apparaît nettement qu’elle est sous l’emprise d’un processus de diversification qui intervient au moins à deux niveaux : la « diversification génétique humaine » d’une part, qui influe sur la constitution humaine ellemême, et la « bio diversification environnementale » d’autre part, qui plonge l’individu humain dans un milieu lui même très différentié. Dans ces conditions, il nous apparaît presque logique et naturel que les productions humaines, qu'elles soient matérielles, intellectuelles et, notamment les productions culturelles et « civilisationnelles » soient, elles aussi, de nature diversifiée. Il est d’ailleurs aujourd’hui admis par tous que la richesse de chacun de nous est, en grande partie, gouvernée par la diversité des cultures qui habitent notre planète. Si maintenant on se donne la peine d’observer les phénomènes non plus à l’échelle de l’individu, mais à une échelle beaucoup plus large, celle d’ensembles d’humains, on constate alors que des contre-processus (ou processus contraires) sont à l’œuvre. Ces processus sont de nature à s’opposer à la diversité des productions humaines. L’être humain est, en effet, un être social vivant en société et cette vie en collectivité est à l’origine de la mise en place de ces tendances opposées à la diversification des productions culturelles et civilisationnelles notamment. Nous désignerons donc ce type de processus par « processus uniformisant ». Le caractère uniformisant de la mondialisation peut en partie s’expliquer par les nécessités du marché en matière de standardisation, de normalisation, afin de faciliter la circulation des biens matériels et immatériels. Cette tendance à l’uniformisation s’est accrue avec le développement de la mondialisation car cette dernière tend à constituer des groupements humains de plus en plus inter connectés, au point qu’aujourd’hui, certains considèrent que l’ensemble de la population terrestre appartient à un même « village planétaire »… Cette situation favorise la diffusion des connaissances et des informations à travers la planète et peut donc aussi peser en faveur de la diversité en offrant aux citoyens un choix dans une palette élargie. Ainsi, comme l’indique Frédéric Lenoir en page 240 de son livre « Le Christ philosophe », paru aux éditions Plon en 2007 : « …le processus de mondialisation, a considérablement élargi l’offre religieuse. Un individu européen peut aujourd’hui pratiquer la méditation zen, la kabbale juive ou s’initier à l’islam sans avoir à quitter son quartier ». Cependant, nous retiendrons surtout l’effet prépondérant sur les sociétés humaines qui est de produire un certain « lissage » de la diversité de leurs productions. Cependant, les processus uniformisants peuvent aussi résulter des comportements individuels des humains. Chacun de nous possède, en effet, non seulement un désir profond de différentiation comme cela a été montré plus avant, mais aussi un désir de se fondre dans la masse en ressemblant le plus possible à la société environnante ou à une partie de celle-ci. Ce type de comportement grégaire est flagrant, si l’on considère, par exemple, la mode vestimentaire des adolescents. D’une façon plus générale, les phénomènes de modes relèvent 3 souvent de ce type d’attitude. Les scientifiques, eux-mêmes, en cherchant à cloner les êtres vivants, manifesteraient ce désir de l’être humain de reproduction à l’identique. La convergence éventuelle de l’aspect uniformisant de la mondialisation et de ce caractère grégaire des humains, ne peut donc que renforcer le processus uniformisant. Lorsque les sociétés humaines communiquaient peu entre elles, se limitant à vivre sur des territoires géographiques limités et, lorsque les échanges entre les humains, même s’ils ont toujours existé, restaient circonscrits, cette tendance à l’uniformisation culturelle demeurait, elle aussi, limitée. Cependant, le monde actuel, en s’appuyant surtout sur un développement sans précédent des moyens de communication (technologies de la communication et de l’information, transports rapides,…), sur la constitution d’entreprises ou d’organisations multinationales d'une part, ou multilatérales d'autre part, pour qui les frontières politiques ou géographiques n’ont que peu d’effet, sur la mise en place de grands marchés internationaux soumis à l’économie libérale (Union européenne, ASEAN, ALENA, UMEAO,…), sur la création d’entités politiques multilatérales (ONU, OTAN, UE, OIF, UA,…), ce monde a libéré des synergies dont on commence à peine à mesurer les conséquences. Celles-ci ont pour noms : dérégulation ou déréglementation nationales, normalisation ou standardisation, délocalisation économique, pensée unique, métissage culturel, créolisation linguistique, monolinguisme, intégrismes religieux… De façon générale, ces orientations dans le monde actuel sont très liées à la domination actuelle de l’idéologie libérale dont le credo est celui de la constitution de marchés mondiaux de plus en plus étendus avec l’objectif annoncé d’atteindre une plus grande liberté individuelle dans les domaines économiques et politiques tout en limitant le plus possible l’intervention des Etats. Selon la plupart des économistes contemporains, la mondialisation est une chance pour la croissance mondiale même si des difficultés récentes (pression de l’émigration dans les pays riches, crise des sub primes aux USA, croissance exponentielle du prix du pétrole, échec récent des négociations à l’OMC, récession économique, croissance du prix des denrées alimentaires,…) viennent parfois tempérer cette opinion et justifier une tendance au repli sur soi au nom d’un certain « patriotisme économique ». Il faut noter que cette convergence vers l’uniformité n’est pas récente puisque déjà en 1955, Claude Levi-Strauss dans son ouvrage célèbre « Tristes Tropiques » (Ed. Plon, Reéd. Pocket, coll. « Terre humaine », 2001) faisait état d’un désenchantement produit par la diminution de la diversité dans le monde, par la « mort de l’exotisme », par la fin des voyages qui existaient autrefois, au temps où il y avait des « autres ». En résumé, on peut mettre en évidence au sein des sociétés humaines, deux types de tendances contradictoires : une tendance des êtres humains à favoriser la diversification de leurs productions et une force plutôt en faveur de l’uniformisation de ces mêmes productions. Compte tenu de l’importance primordiale de la diversité pour la survie de l’humanité, on comprendra l’intérêt qu’il y a à maintenir au minimum un relatif équilibre, sinon une certaine dominance, du processus diversifiant sur la tendance uniformisante. Comme nous l'avons vu, le processus diversifiant est de nature biologique (génétique, biologie animale et végétale) et géophysique. De ce fait, il apparaît très difficile, sinon impossible, à contrôler. Il en résulte que le seul vrai levier d’action dont dispose l’humanité en vue de maintenir un degré de diversité suffisant à sa survie, c’est le contrôle du processus uniformisant, qui agit sur des périodes de temps plus en rapport avec la durée d’une vie humaine et qui dépend plus de l’intervention des groupements humains. 4 Illustrations concrètes de la dynamique de la diversité Dans ce qui suit, je voudrais illustrer l’existence de ces deux processus antagonistes, de diversification et d’uniformisation, à partir de quelques exemples concrets, tout en mettant en évidence le rôle essentiel de l’équilibre relatif qui s’établit entre ces deux tendances. - Je commencerai par une analogie avec le monde de la matière. Au début du XIXè siècle, le physicien français Sadi Carnot énonce les deux principes de la Thermodynamique. Le second de ces principes constate la dégradation nécessaire de toute forme d’énergie dans un système fini (système isolé du monde extérieur). Pour les physiciens, ce principe s’énonce « l’entropie de l’univers est croissante » (ce qui peut aussi s’exprimer en disant que le degré de désordre de l’univers augmente constamment, l’entropie étant une sorte de mesure du désordre). Ce principe permet de préciser, à très long terme, un effondrement général de l’Univers dans une « grisaille » où toute structure aura disparue (puisque le désordre sera maximal). Pour mieux comprendre ce principe on peut imaginer l’expérience suivante : un récipient contient deux bacs séparés par une cloison. Dans le premier bac on place de l’eau chaude et dans le second de l’eau froide, la cloison étant supposée interdire tout transfert d’énergie thermique entre les deux bacs. Dans cette configuration, les molécules d’eau chaude sont bien séparées des molécules d’eau froide. On dit que l’ordre du système est maximal ou que son entropie est minimale. Si maintenant, on permet le passage de l’eau entre les deux bacs (en pratiquant par exemple, une petite ouverture dans la cloison), on constate, qu’au bout d’un temps suffisant, le récipient est tout entier rempli d’une eau tiède. Autrement dit, les molécules d’eau chaude et froide se sont mélangées et le désordre ou l’entropie du système est maximal. De plus la transformation est irréversible, en ce sens que les molécules d’eau chaude et froide ne pourront pas se séparer de nouveau sans un apport d’énergie de l’extérieur vers le système. On constate donc que le monde inanimé (non vivant ou de la matière) est régi par une sorte de processus uniformisant qui est celui de l’augmentation de l’entropie. En effet, même s’il n’existe pas une correspondance biunivoque entre les notions d’ordre, d’entropie et de diversité, on comprend que l’augmentation de l’entropie (ou du désordre) ne peut que contribuer à la diminution de la diversité (dans l’exemple de l’eau, la diversité est maximale au début de l’expérience lorsque l’eau froide est séparée de l’eau chaude et devient minimale lorsque le mélange est accompli, puisqu’il n’y a plus dans le bac que de l’eau tiède). On pourrait donc dire que la croissance de l’entropie d’un ensemble de molécules contribue à en diminuer la diversité. Cependant, plus récemment, le physicien Belgo-etatsunien Ilya Prigogine (« L’ordre par fluctuations et le système social », dans A. Lichnerovitcz et F. Perroux, « L’idée de régulation dans les sciences », Ed. Maloine-Douin, Paris, 1977, pages 153-191) a montré que le second principe de la Thermodynamique souffre de certaines insuffisances : dès que les systèmes matériels sont suffisamment complexes, ils manifestent une tendance à se structurer spontanément de façon à minimiser la croissance de l’entropie, ce qui les rapproche du comportement du monde vivant. Prigogine a donc mis en évidence, dans le monde de la matière, un processus résistant à la croissance de l’entropie, ceci en améliorant la prise en compte de la complexité de la matière. Ces résultats indiquent que, si l’on change l’échelle d’observation de la matière, alors le « processus uniformisant de croissance de l’entropie » est accompagné d’un « processus contraire de minimisation de cette croissance » ou d’un processus spontané de structuration de la matière que nous assimilerons ici, de façon sans doute un peu abusive, à un « processus de diversification » de la matière, dans la 5 mesure où la structuration d’ensembles moléculaires accroît la diversité de ces ensembles. On voit donc l’analogie annoncée plus haut entre le monde de la matière et celui des humains : ces mondes sont, en effet, tous les deux soumis à un « double processus de type diversification-uniformisation ». Il est notable, par ailleurs, que le processus de résistance à la croissance de l’entropie et même de décroissance de celle-ci, soit également à l’œuvre pour la matière vivante qui est capable de maintenir sa structure, voire d’évoluer vers plus de complexité comme nous l’avons vu avec la génétique humaine. Enfin, dans le cas de la matière, c’est la complexité qui produit la résistance à l’uniformité et, par analogie, on pourrait considérer que la grande complexité vers laquelle a évolué l’espèce humaine, pourrait expliquer son goût pour la diversité… - Changeons maintenant de champ d’observation pour aborder celui des langages de programmation en informatique, un domaine récent des productions intellectuelles humaines. A l’origine des langages de programmation se trouvent les langages « Assembleurs » ; un Assembleur est constitué d’un ensemble limité de codes symboliques décrivant les différentes opérations élémentaires exécutables par un processeur informatique donné. Un tel « langage d’assemblage » permet potentiellement de réaliser toutes sortes de calculs, y compris les plus complexes, mais au prix d’un très gros effort d’analyse de la part du programmeur et d’une grande difficulté à relire les programmes ainsi écrits. Il faut rappeler ici que l’unique « langage » compréhensible par un processeur informatique est un code binaire composé des deux symboles zéro et un. Pour être exécuté sur un processeur, un programme écrit en langage d’assemblage doit donc auparavant être traduit en code binaire. Etant donné la proximité entre les codes de l’assembleur et le langage binaire, cette opération de traduction est généralement relativement simple. Très rapidement, le besoin s’est fait sentir de produire des programmes plus faciles à écrire et à lire et donc écrits dans un langage proche du langage naturel (par opposition à langage formel). Parmi les premières tentatives, on doit citer celle du britannique Alan Turing (1912-1954) qui proposa un langage constitué de cinquante instructions (facile à comprendre pour un être humain) qui étaient automatiquement transcrites en binaire par l’ordinateur. Il faut aussi citer Grace Murray Hopper (1906-1992), des Etats-Unis d’Amérique, qui développa un programme qui transformait les instructions de l’utilisateur humain en instructions-machines codées en binaire. Ce fut la naissance de ce que l’on désigne aujourd’hui par « système de compilation » ou « compilateur ». Le premier véritable langage de programmation symbolique dit de « haut niveau » car plus proche d’une langue humaine, (en l’occurrence la langue anglaise) fut le FORTRAN (FORmula TRANslator). Il naquit en 1953. L’ordinateur n’était pas conçu pour en lire ou en exécuter directement les instructions, il fallait au préalable faire appel à un programme de traduction (le compilateur), initialement écrit dans le langage binaire de la machine. Le FORTRAN pouvait donc fonctionner sur n’importe quel type d’ordinateur mais pour chacun, il fallait un compilateur approprié. A compter de cette date, il apparut sur le marché une quantité impressionnante de langages s’annonçant chacun plus performant que les autres. Sans prétendre à l’exhaustivité, on peut citer : COBOL (Common Business-Oriented Language), LOGO, ALGOL (ALGOrithmic Language), LISP, TRAC, SNOBOL, PROLOG, PASCAL, BASIC (Beginner’s All-purpose Symbolic Instruction Code), ADA, SMALLTALK, SIMULA, C, CAML, DELPHI, ERLANG, FLASH, C++, C#, JAVA, JAVAScript, REXX, PERL (Practical Extraction and Report Language), GCL, PHP, GCL, PL/1, TRAC, APL, MACSYMA, MAPLE, FORTH, HTML, 6 MATHEMATICA, PYTHON, SCHEME, VBSCRIPT, VISUALBASIC, RUBY, TCL/TK (Tool Command Language), XML…. Mais comme si cette diversité conceptuelle ne suffisait pas, chacun de ces langages a donné naissance à un nombre important de versions successives. Pourtant la plupart de ces langages formels (par opposition au langage naturel) ont en commun au moins trois objectifs : être aussi universel que possible (dans le sens où ils peuvent être utilisés pour traiter n’importe quel type d’application), être de haut niveau (dans le sens où ils sont proches d’une langue naturelle telle, par exemple, que l’anglais ou le français), être portable (dans le sens où ils peuvent fonctionner sur n’importe quel type d’ordinateur). Dès lors, il est normal de s’interroger sur les raisons qui font, qu’en partant d’objectifs communs on ait pu aboutir à un tel foisonnement de produits. Les avancées de la recherche en informatique, l’élargissement des types d’applications visés et la nécessité d’améliorer la fiabilité de la programmation, ne suffisent pas à justifier cette prolifération. Tout se passe comme si, tout en affichant le désir de trouver les fondations d’un véritable code universel, chaque profession, chaque communauté, inventait son propre dialecte ! On aboutit même à l’inverse de l’un des objectifs recherchés qui était de permettre aux machines de communiquer facilement entre elles, puisque ces différents langages sont souvent incompatibles entre eux, chaque code étant dans l’impossibilité d’être interprété directement (c’est à dire sans l’aide d’une interface logicielle) par son concurrent. Les langages informatiques en devenant plus symboliques (c’est à dire plus proches du langage naturel) ont donc une tendance affirmée à se diversifier. La généralisation de l’Internet ne doit pas laisser croire que tout est résolu. Il suffit de penser aux difficultés actuelles dans le domaine des normes et des protocoles de communication. La multiplicité de ces langages va à l’encontre de la transparence envers l’utilisateur, qui était affichée à l’origine des langages formels symboliques. Le marketing seul, ne peut expliquer cette situation. En effet, face à une offre de produits aussi vaste, comment expliquer le choix diversifié des utilisateurs ? Ceux-ci auraient pu convenir de privilégier tel ou tel langage avec la conséquence de « contraindre» les fabricants de logiciels de programmation à restreindre leur gamme de produits. Même en se restreignant à une classe particulière d’utilisateurs, les enseignants du supérieur par exemple, on ne peut que constater la pluralité des choix effectués pour la formation des étudiants. Cette communauté n’est pourtant pas partie prenante de la compétition que se livrent les grandes sociétés productrices de logiciels. Il semble donc que l’utilisateur, qu’il soit informaticien ou utilisateur final, ressent la nécessité de pouvoir choisir son langage de programmation parmi une offre suffisamment abondante. C’est une observation qui vaut, plus généralement, pour beaucoup d’autres produits mis sur le marché à disposition des consommateurs. Nous pensons qu’il s’agit là de l’effet du processus diversifiant dont il a été question ci-dessus. D’un autre coté, la distribution des produits de génie logiciel par les grandes entreprises internationales s’inscrit dans les règles générales de commerce mondialisé où les entreprises hyperdominantes tendent à uniformiser les biens dans leur composition (recherche et développement) et dans leur conditionnement. C’est ainsi que se constituent, par regroupements d’entreprises, des consortiums multilatéraux qui tentent d’imposer leurs standards au marché. A titre d’exemples on pourrait citer « World Wide Web consortium » dans le domaine de la technologie du web et pour les applications distribuées dans des environnements hétérogènes ou encore « Object Management Group » pour toutes les applications orientées objet. Ces groupements tendent à uniformiser les produits par la production de normes et de standards. On trouve donc là, une illustration de la mise en place d’un processus uniformisant du type de 7 ceux indiqués plus haut. On assiste donc à la compétition entre deux tendances antagonistes : la créativité humaine d’une part qui a tendance à produire de la diversité, et le marché économique d’autre part qui tend à standardiser les produits. Même si de nos jours, la programmation est devenue une activité de spécialistes d'informatique, on peut constater le maintien de ces deux tendances dans le domaine des logiciels à destination des utilisateurs (tentatives hégémoniques de Microsoft face, par exemple, à la résistance des « logiciels ouverts »). On peut désormais mieux comprendre le rôle important de l’adoption de règlements internationaux et nationaux susceptibles de permettre la survie de la créativité et donc de la diversité si l’on veut éviter que l’avenir puisse donner le jour à une unique entreprise qui contrôlerait alors à elle seule l’ensemble du marché mondial en matière de génie logiciel. - − Abordons maintenant l’étude des langues artificielles. Si l’on voit apparaître très tôt des références littéraires à des langues inventées1, l’intérêt pour une langue rationnelle se développe à partir de la notion de langue philosophique universelle au moment où le latin ne joue plus un rôle véhiculaire. Descartes y croit en restant sceptique sur sa diffusion, Comenius qui innove en matière de technique d’enseignement des langues en associant les mots et l’image, y pense avec d’autres et l’Europe intellectuelle du milieu du XVIIe siècle en fait un thème de débats2. Il faut cependant attendre le XIXe siècle pour que des propositions complètes de langues artificielles voient le jour : le volapük en 1879, l’espéranto, le balta en 1887, l’espéranto réformé en 1894, l’idiom neutral en 1898, l’ido et la lingua european en 1907, l’interlingua en 1957 et l’europanto3 dans les années 1990. L’idée qui se développe alors, n’est plus celle d’une langue universelle car les racines utilisées empruntent peu aux langues slaves comme le russe, ni au langues sémitiques comme l’arabe ou l’hébreu, ni aux langues asiatiques comme le mandarin. Ce qui est visé, c’est la construction de langues internationales. Or, comme pour les langages informatiques, bien qu’elles aient été construites de façon rationnelle, quelles que soient leurs qualités d’élaboration, chacune de ces langues artificielles a ensuite donné naissance à des dizaines de variétés. Dès lors, on peut se demander si le processus de création de langues artificielles, n’aboutit pas finalement à une nécessité de diversification linguistique qui serait supérieure à celle de l’unification linguistique. Ce que pourrait également confirmer l’avenir des langues dominantes qui, à partir d’un certain seuil se divisent en variétés (le latin en fut un exemple pour les langues romanes, l’anglais mondialisé commence à connaître des mutations variées en Asie, en Afrique et en Amérique du nord, autant dans son usage que dans son enseignement / apprentissage). Comme le dit Edgar Morin (La Méthode, tome III, La connaissance de la connaissance, Ed. du Seuil, 1986), tout se passe comme si l’Homme cherchait à créer de nouvelles tours de Babel pour le dominer. Cet exemple illustre le cas où le processus de diversification a pris le dessus sur le processus uniformisant, là encore par suite du défaut d’entente entre les humains au niveau international. Contrairement à une idée répandue selon laquelle la mondialisation aurait pour seul effet d’atténuer les différences culturelles en uniformisant les cultures sur le modèle 1 La lingua adamica prébalélienne de Platon, les jargons de Rabelais, les langues de J. Swift, le Tetrastichon dans l’Utopia de Thomas More 2 YAGUELLO, M., 1984, Les fous du langage, Seuil, pp.51-62. 3 Créé sur le mode ludique par un traducteur de l’administration de l’Union Européenne à partir d’articles rédigés dans un quotidien belge. 8 du pays dominant (actuellement les USA), que l’on assiste aussi à une exacerbation de ces différences culturelles au cœur même des pays d’accueil des émigrants… Dans les pays riches, la pression de l’émigration en provenance des pays les plus démunis provoque, au sein des grandes villes notamment, des « poches de ghettoïsation » qui alimentent la résistance à l’uniformisation culturelle et à la mondialisation libérale. En effet, les populations les plus pauvres (des pays du Sud essentiellement) qui se déplacent vers les pays les plus riches (du Nord en général) afin de tenter d’y améliorer leurs conditions de vie ainsi que celles de leurs proches (même lorsque ceux-ci restent dans le pays d’origine), une fois parvenues au Nord, ont tendance à y constituer des communautés-ghettos afin de mieux se protéger d’un environnement socio-économique et culturel qu’elles ne comprennent pas et qui, souvent, ne fait pas grand effort pour les accueillir et les comprendre. Au sein de ces communautés, elles tendent à renforcer leur identité culturelle et sociale afin d’être plus fortes et de faire davantage pression sur le pays d’accueil pour qu’il prenne mieux en compte leurs besoins (sur les problèmes d’emploi, de logement, de discrimination,…). Ce « renforcement identitaire » n’est d’ailleurs pas que défensif et peut aussi avoir des côtés plus constructifs. Il permet souvent à ces communautés par comparaison, d’approfondir leur propre culture, de prendre conscience de ses richesses, de la faire progresser et de la faire rayonner dans le monde. Nombre d’Antillais, par exemple, ont approfondi leur propre culture une fois qu’ils s’étaient déplacés en France hexagonale pour y chercher du travail. A. Césaire et L.S. Senghor, eux-mêmes, reconnaissent devoir beaucoup à l’auteur allemand Léo Frobenius qui par son ouvrage « Histoire de la civilisation africaine », (Editions Gallimard, Paris, 1933), les a amenés à jeter un regard différent sur leurs propres cultures et a formuler le concept de négritude. Le regard de l’autre sur soi peut donc être positif et contribuer à la construction du soi. Néanmoins, ce phénomène de « différentiation » des communautés culturelles émigrantes au sein des pays d’accueil pose aujourd’hui de plus en plus de problèmes à ces pays qui, par ailleurs, traversent souvent une crise économique plus ou moins sévère. Le « mal des banlieues » en France, le grand déballage auquel ont donné lieu les audiences publiques de la Commission mise en place par le Gouvernement du Québec afin d’établir un rapport sur la question des « accommodements raisonnables » (sorte de compromis réglementaire destiné à adapter le droit québécois à la demande spécifique d’un membre d’une communauté culturelle), le renforcement des protections aux frontières du Sud des USA ou aux frontières de l’Union européenne, l’affaire des caricatures de Mahomet au Danemark, les refus français et néerlandais du Traité constitutionnel européen… Tous ces exemples témoignent des conséquences de cette différentiation. Il est d’ailleurs paradoxal de constater que les pays qui prônent le plus le développement de la mondialisation des échanges et du libéralisme, sont pour la plupart les pays riches, que ces mêmes pays soient ceux qui tentent par tous les moyens (construction de barrières de protection aux frontières, politique restrictive d’attribution de visas, restriction des quotas d’émigrants, réglementations professionnelles conservatrices,…) de se protéger des effets de cette même mondialisation sur les populations du monde… Dans les pays les plus pauvres, la résistance s’organise notamment au travers d’alliances politiques visant à contrer les diktats des pays du Nord en matière d’échanges et de commerce. Les difficultés de l’Organisation mondiale du commerce (OMC) dans le domaine de la politique agricole et l’échec récent du « cycle de Doha », par exemple, en sont un témoignage. Cette résistance, sous l’effet de la crise économique actuelle, s’étend à l’ensemble des pays qui, au Nord comme au Sud, se retranchent derrière une sorte de « patriotisme économique », un repli sur soi, un protectionnisme de plus en plus marqué. Ainsi, l’offre de rachat du brasseur des Etats-Unis d’Amériques Anheuser-Bush (AB) pour 9 46,3 milliards de dollars par la société belgo-brésilienne InBev, a suscité un tollé aux USA. Une pétition nationale pour « sauver ce fleuron américain » a même été lancée. Les récentes difficultés de la vente d’avions de ravitaillement européens Airbus à l’armée des USA en est une autre illustration… Tous ces mouvements de résistance visent, selon notre perspective, à réduire les effets des processus uniformisant et à laisser s’exprimer les processus de diversification. Tout se passe donc comme si la mondialisation accélérée des échanges produisait deux effets inverses : par la diffusion, des produits culturels notamment, les citoyens des différents pays apprennent à connaître, à aimer ou haïr les cultures, les valeurs et les identités des autres. Ainsi les Etats-Unis d’Amérique exportent leurs industries de l’imaginaire et améliorent donc leur balance commerciale en diffusant leurs valeurs et leur mode de vie mais contribuent par ailleurs à alimenter le rejet de leur modèle culturel par une partie de la population du monde. - En France, des amendements proposés récemment par les députés de la majorité parlementaire, lors de l’examen du projet de loi de modernisation de l’économie, ont ouvert un large débat sur la loi du 10 août 1981, dite « Loi Lang », relative au prix de vente des livres. La dérégulation envisagée soulève notamment l’inquiétude des libraires indépendants notamment car elle vise à imposer un modèle commercial basé sur une volonté de monopôle et une stratégie financière au profit des éditeurs et des diffuseurs les plus puissants (voir « Pour le livre, contre la dérégulation », Journal Le Monde, 2 juillet 2008). - Dans l’hôtellerie de luxe, on observe, après une période de standardisation poussée de l’offre, un mouvement de résistance à l’uniformité. Les hôtels qui avaient tendance à proposer à leurs clients un décor semblable partout dans le monde, font maintenant appel à des « designers » pour donner un cachet plus particulier à leurs établissements ( voir Joël Morio, « Hôtels de luxe : la fin de l’uniformité », Journal Le Monde, 20 juin 2008). - Le développement de l’agriculture industrielle s’est accompagné d’une perte de la biodiversité agroalimentaire (processus uniformisant). Au Canada, par exemple, alors qu’il existe près de 5000 espèces de tomates recensées dans le monde, quatre variétés représentent, à elles seules, 80% du marché. De la même façon, deux variétés de blé dominent le marché mondial alors qu’il en existe au moins 10000 espèces. Oeuvrant dans le cadre du processus uniformisant de libéralisation économique, la société étatsuniennes Cargill produit le quart des céréales dans le monde… En face de ces tendances fortes, la résistance (processus diversifiant) s’organise autour du désir de variété du consommateur, de son désir de consommer des produits frais, de diversifier sa consommation alimentaire… - L’adoption en octobre 2005 par l’UNESCO de la « Convention sur la protection et la promotion de la diversité des expressions culturelles », relève, elle aussi de la résistance aux effets uniformisant de la mondialisation. Cet événement est d’autant plus significatif que la Convention a reçu 146 signatures sur 154 pays potentiellement signataires (les USA ayant refusé de signer). Dans ce document, les Etats et Gouvernements s’engagent à mettre en place toutes les dispositions susceptibles de permettre l’épanouissement des cultures des pays qu’ils représentent. 1 - Les évolutions de la vie politique sont, elles aussi, sujettes à ce type de dynamique. Elles sont, en effet, partagées entre le culte du chef et la tendance à promouvoir le pluralisme des points de vue par les règles de le démocratie. Cette dynamique oscille entre l’uniformisation des opinions derrière un leader investi par le groupe et la diversité, qui conduit au multipartisme et à l’alternance. Sans prolonger la démonstration, cette analyse conduit à considérer que la diversité est une protection vitale pour l'humanité, que la création de diversité est comme une expression naturelle de la liberté de l'être humain, mais que cette tendance naturelle est souvent contre-balancée par des phénomènes uniformisants créés par la vie en société. Cette dernière produit, en effet, pour des raisons d'efficacité ou de grégarisme, des règlements, des lois, des normes, des standards qui sont appliqués, de façon contrainte ou consentie, par les collectivités humaines. Les quelques exemples donnés ci-dessus pourraient facilement être complétés par d'autres dans des domaines divers : musical, vestimentaire, architectural, littéraire,... Si, par une analogie hardie, on assimile les humains et leurs cultures à des ensembles moléculaires, on peut comprendre que, en rendant les contacts inter culturels plus fréquents (notamment au moyen des technologies de l'information et des communications), la mondialisation va tendre à l'accroissement du métissage culturel, risquant de produire une sorte d'augmentation de l'entropie qui pourrait déboucher sur une culture uniforme et unique et donc vers une humanité affadie et affaiblie. Cependant, au sein des sociétés contemporaines, des processus résistant à l'uniformisation sont déjà à l'oeuvre sous des formes diverses ; à mon avis, ils sont la conséquence directe du processus de diversification propre à l'être humain. Il ne faut cependant pas se tromper dans l’interprétation de la tendance uniformisante. En effet, celle-ci ne se produit généralement pas en respectant les différentes cultures en présence, c'est à dire en procédant par métissage et créolisation de ces cultures. Même si cet aspect n’est pas totalement absent, l’uniformisation se réalise essentiellement par imposition au monde d’un même modèle culturel, qui est celui de l’hyper puissance économique, actuellement les USA. Le cas particulier de la diversité linguistique Abordons, la question de la diversité dans le domaine des langues naturelles, un champ plus en rapport avec la francophonie notamment. On peut supposer qu’à l’origine de l’humanité, le petit groupe de nos premiers ancêtres communiquait à l’aide d’un langage adapté à leur situation. Cependant le langage n’est pas un don, il apparaît avec sa nécessité. Les langues actuelles seraient donc toutes issues moins d’un proto langage que d’une même nécessité de communiquer pour organiser le groupe. Cette nécessité se serait ensuite progressivement diversifiée à cause de la naissance des cultures diverses accompagnant les migrations géographiques et les évolutions biologiques des êtres humains (processus diversifiant). L’hypothèse selon laquelle l’homme ne serait pas apparu en un seul lieu mais en différents lieux ne change pas la nature du processus imaginé ici puisqu’il suffirait alors d’en imaginer autant en parallèle. Dans cette dernière hypothèse, la diversité linguistique serait présente dès les origines… Le processus de différentiation de la variation dialectale à la créolisation est en outre, rendu plus complexe par le phénomène de l’amplification des contacts entre langues et de leurs 1 effets sur celles-ci (emprunts, créolisation, porteurs de nouvelles langues à l’interface de celles existantes) et sur les individus (alternances, mélanges de langues). Faut-il voir dans ce processus de métissage des langues un phénomène pouvant, à long terme, conduire à la disparition de la diversité linguistique ? La réponse à cette question est certes difficile ; cependant, on peut observer que si, depuis l’origine de l’humanité, un grand nombre de langues et de cultures ont disparu (souvent pour d’autres raisons que le métissage), nous n’en sommes toujours pas arrivés à une situation d’uniformité et qu’en outre, l’interculturation4 et l’interlinguisme ont favorisé des partenariats productifs. Comme le fait justement remarquer Michèle Gendreau-Massaloux5 « …si l’on insiste beaucoup sur la « mort » des langues, personne ne fait allusion à la « naissance » de nouvelles langues dont témoignent pourtant de nombreux travaux de terrain ». On sait aujourd’hui que les mélanges de langues produisent de nouvelles langues et que ce phénomène concerne toute langue en contact avec une autre. Le « Chiac » du Nouveau-Brunswick au Canada et le « Spanglish », un hybride de l’anglais et de l’espagnol qui se répand aux EUA, sont des exemples contemporains. On peut aussi observer que de "petites langues"6 sont plus présentes au monde qu’elles ne l’étaient il y a une cinquantaine d’années comme par exemple le créole des Antilles françaises pour lequel le métissage s’est plutôt accompagné d’un certain renforcement de la langue. Il devient alors possible d’imaginer un processus génératif des langues susceptible de garantir le maintien d’un principe fonctionnel de diversité car « même dans des régions du monde où l’attirance de grandes langues de communication internationale peut faire concurrence aux langues locales, des mouvements de création se produisent, qui témoignent d’un essor de variétés linguistiques nouvelles »7. S’il en est ainsi, on devrait être en mesure d’affirmer que toute tentative pour une langue de s’imposer au monde comme langue de communication universelle (processus d’uniformisation actuellement joué par l'anglo-américain) est vouée à l’échec du fait de la tendance naturelle de l’Homme à construire de la complexité, à bâtir des paradigmes même lorsqu’il affiche rechercher un objectif général de communication sans contrainte. « La fin des distances physiques révèle l’importance des distances culturelles….Plus il y a de communication, d’échanges, d’interaction, et donc de mobilité, plus il y a, simultanément, un besoin d’identité»8 (voir aussi JP Asselin de Beauville et JL Hiribarren, « L'identité francophone : utopie ou réalité », Edition spéciale de la Lettre d'information aux membres de l'AUF, n°19, avril 2008). Cette dynamique cependant ne doit pas nous faire oublier que pour que soit assuré, sur le long terme, un bon niveau de diversification linguistique, il est essentiel qu’au cours du temps, et donc sur des échelles de temps plus courtes, perdure suffisamment d’hétérogénéité culturelle afin de pouvoir nourrir en permanence le processus de diversification. A cette dernière échelle de temps, qui correspond globalement à la durée de quelques vies humaines, il est donc important de prendre des mesures de défense des cultures locales et régionales, dans chaque pays, pour que le processus de survie de la diversité culturelle et linguistique puisse se poursuivre à long terme. Il est clair que cet exposé n’écarte aucune culture ou langue particulière, signifiant ainsi que cette analyse s’applique à toutes les langues et cultures humaines à des degrés divers et, notamment à la francophonie. La culture des EUA elle-même subit de l’intérieur les effets diversifiants dus aux émigrants. Il est connu des philosophes que chaque langue, chaque 4 5 DEMORGON, J., 2000, L’interculturation du monde, Anthropos. 2004, "Les langues, ni anges, ni démons", Hermès 40, Francophonie et mondialisation - éditions du CNRS. 6 En nombre de locuteurs. GENDREAU-MASSALOUX, M., 2004, "Les langues, ni anges, ni démons", Hermes numéro 40, Francophonie et mondialisation, Ed. du CNRS, pp. 275-279. 8 WOLTON, D., 2003, L’autre mondialisation, Flammarion. 7 1 culture, est imprégnée de l’histoire du ou des peuples qui la porte. Une langue implique une vision du monde spécifique (voir par exemple, B. Cassin « Le vocabulaire européen des philosophes-Dictionnaire des intraduisibles », Ed. Le seuil, Paris, 2004). Mais cela ne nous semble pas impliquer, comme on peut par exemple le lire dans l’appel à communication pour ce Colloque, que « …la langue française peut être garante de la diversité dans un monde menacé d’unilatéralisme culturel, elle permet d’exprimer des situations variées en luttant contre l’uniformisation… ». Cela ne me semble pas aller de soi car, si cela était vrai on devrait s’attendre à plus de résistance au processus d’uniformisation mondial dans un contexte francophone que dans un autre espace linguistique. Or cette démonstration nous paraît devoir encore être faite. Le double processus qui nous paraît régir la diversité humaine s’applique à tous les contextes culturels, comme nous l’avons montré plus haut. En d’autres termes, la francophonie n’est pas à l’abri des effets de ce double processus de diversification- uniformisation. Illustrons brièvement, les principaux effets uniformisants à l’œuvre dans l’espace francophone, en nous concentrant sur les aspects linguistiques qui en font la spécificité. Il est aujourd’hui bien connu que la position de la langue française est affaiblie comme langue de communication internationale et ceci au profit de la langue hyper centrale qu’est devenu l’anglo-américain. Cette dernière langue s’impose de plus en plus dans le monde comme première langue étrangère dans les systèmes éducatifs. Le français voit sa position décliner, même dans des pays où, historiquement, il occupait dans l’éducation le premier rang parmi les langues étrangères. C’est par exemple le cas à Madagascar. Dans les espaces publics, de nombreux pays de la Francophonie, donnent une place prépondérante à l’anglais comme on peut le voir au Vietnam ou même au Québec et en France en matière d’affichage commercial. Ainsi, un simple voyage dans un pays comme la France suffit à percevoir ces effets de mode liés à la diffusion de la culture anglo-américaine : le programme de fidélisation de la Compagnie Air-France s’intitule « Flying Blue », comme si cette locution anglaise était plus porteuse de clients qu’une dénomination française qui elle, au moins, aurait pu contribuer au dépaysement recherché par les touristes étrangers. Le même programme pour la Société Nationale des Chemins de Fer français permet aux clients d’accumuler des « S’Miles » au lieu de kilomètres. Le plan d'affaires de France-Télécom s'intitule « Next »... Il est difficile de trouver une affiche ou un film publicitaire qui ne comporte pas au moins un mot anglais. Dans les cafés et restaurants, la sonorisation d’ambiance est le plus souvent à base de musique et de chansons anglo-américaines… Les scientifiques et la communication scientifique s’expriment désormais presque exclusivement en anglo-américain, contribuant ainsi à l’étiolement des cultures concernées. Les salles de cinéma sont de plus en plus envahies par les films en provenance des USA, n’offrant plus aux spectateurs la possibilité de découvrir d’autres cultures. En France, par exemple, les films français n’occupent plus que 35% des écrans, alors que les films des Etats-Unis en occupent presque 50%. Selon l’Institut de statistiques du Québec, en 2006, 44,2% des recettes cinématographiques en France provenaient de films des EUA, alors que la proportion est de 77,2% pour le Québec. Ce phénomène a d’ailleurs pour effet de nourrir l’imaginaire des jeunes générations, notamment en entretenant le « mythe américain » et en participant à l’effet uniformisant de la mondialisation. 1 Dans les documents soumis aux services de traduction de la Commission européenne, on constate qu’entre 1996 et 2007, la part de l’anglais est passée de 45,7% à 73,5%, tandis que celle du français diminuait de 38% à 12,3%. Nous pensons, en outre, que certaines positions des défenseurs de la langue française, visant à placer cette langue dans une sorte de position hégémonique par rapport aux autres langues, contribuent elles aussi à l’affaiblissement du français et donc, d’une certaine manière, renforcent l’action du processus uniformisant dans l’espace francophone. Citons, en appui à cette remarque, l’opinion du linguiste Pierre Dumont qui, dans un ouvrage intitulé « L’interculturel dans l’espace francophone » (Editions l’Harmattan, 2001), écrit en page 180 : « Nous refusons également le discours mille fois rebattu selon lequel la langue française serait l’instrument privilégié d’un patrimoine culturel universel. Ce type de discours ne conduit à rien et ne convaincra que les convaincus d’avance. Il y a simplement que cette langue vit et se développe dans un certain nombre de situations francophones très différentes les unes des autres et qu’elle déborde très largement le cadre étroit de la Francophonie. Que ce soit en francophonie ou dans des contextes internationaux autres, le français nous intéresse par les contacts qu’il entretient avec les autres langues, les liens qu’il a tissé avec les cultures du monde entier et les rapports particuliers qu’entretiennent avec lui tous ses locuteurs ». Face à cette tendance vers l’uniformisation linguistique du monde contemporain, il nous semble utile d’adopter, non pas une position frileuse de repli défensif, mais plutôt une attitude rationnelle et ouverte. Ce comportement repose sur la reconnaissance et l’acceptation de l’existence du processus de diversification linguistique qui agit en francophonie comme dans tout autre espace linguistique. Dans leur ouvrage « La plus belle histoire du langage (Editions du Seuil, Paris 2008), les auteurs (Pascal Pieq, Laurent Sagart, Ghislaine Dehaene et Cécile Lestienne) écrivent en page 84 : « le destin courant des langues est d’évoluer et de se diversifier. En un ou deux milliers d’années, une même langue parlée dans deux régions différentes, se modifie tellement que les locuteurs ne se comprennent plus ». Cette évolution a été celle du latin qui s’est différentié en français, italien, espagnol, portugais, roumain… C’est aussi le cas du chinois avec la langue de la dynastie Han, parlée il y a 2000 ans dans le nord de la Chine. Cette langue s’est fragmentée en mandarin, cantonais, min, hakka,… Plus loin (page 121) dans ce même livre, on peut lire : « la domination d’une culture au niveau mondial ne dure pas assez longtemps pour qu’elle puisse imposer sa langue au monde entier ! Beaucoup de langues vont disparaître, on l’a vu, et le poids des plus parlées va encore augmenter. Mais la plupart des langues protégées par un Etat et probablement une bonne partie de celles qui ont une écriture vont s’en sortir ». Citons aussi Pierre Dumont qui, dans l’ouvrage déjà cité écrit en page 38 : « Il faut accepter l’idée que le français peut s’enrichir au contact d’autres langues. Mais pour que cette hybridation n’aboutisse pas à une pure et simple assimilation de la langue française à telle ou telle autre langue, il faut donc que cette hybridation soit codifiée, stabilisée, normée… Le français peut être l’expression de cultures autres que française : c’est un signe de vitalité, pas un facteur de désintégration comme on l’entend dire trop souvent… ». Tous ces arguments plaident vivement en faveur de la mise en place de réglementations en matière linguistique. Faute de cela on peut voir disparaître une langue en quelques dizaines d’années. C’est par exemple, ce qui s’est produit avec le quasi remplacement du français par l’anglo-américain en matière de communication scientifique ou dans le domaine du commerce international. A contrario, on peut citer la « Loi 101 » au Québec qui a contribué à pérenniser la langue française dans cette province canadienne. Ma conviction est qu’une attitude passive en matière de sauvegarde de la diversité culturelle et linguistique est dangereuse. Seule une attitude pro-active me semble capable d’atténuer les effets uniformisants au profit du maintien d’un certain degré de 1 diversité. La législation est d’autant plus nécessaire que le français lui-même évolue et que cette évolution, pour rester acceptable, se doit, comme l’indique Pierre Dumont, d’être contrôlée, maîtrisée en intégrant le plus possible des cultures dont cette langue est aujourd’hui le vecteur. Dans ce contexte, il n’est pas surprenant que l’enseignement et la recherche soient appelés à jouer des rôles déterminants. L’enseignement et l’éducation des jeunes constituent un couple indissociable sur lequel pourra s’appuyer le renforcement de la diversité culturelle et linguistique. L’apprentissage, dès le plus jeune âge, de langues, dont bien entendu le français, à l’aide de méthodes modernes, adaptées aux différents environnements culturels, est recommandé pour tous les espaces linguistiques. Il serait souhaitable d’accorder une importance similaire à chaque langue de façon à ne pas privilégier la seule langue anglaise comme c’est actuellement le cas. Les méthodes d’intercompréhension entre langues, susceptibles de permettre aux personnes de se comprendre alors qu’elles ne parlent pas la même langue, sont évidemment à introduire dans l’enseignement. Dans l’éducation des enfants, mais aussi des adultes, le rôle des langues, leur portée culturelle et philosophique par rapport à l’ouverture aux autres et à l’histoire des civilisations, sont autant de leviers d’action. La recherche, comme cela a été souligné plus haut, devra permettre de réaliser des avancées au plan des méthodes d’apprentissage des langues mais aussi sur les questions liées à l’intercompréhension, à la traduction et à l’évolution des langues. Dans le monde contemporain soumis à l’intensité de la mondialisation des échanges et dont l’inter connectivité ne cesse de croître sous l’effet des développements technologiques, il est surprenant et même anormal qu’il ne soit pas accordé plus d’importance à toutes ces questions en relation avec les langues. La francophonie et toutes les autres aires linguistiques, ont tout à gagner au développement des identités culturelles des peuples et à leur meilleure connaissance mutuelle. Les peuples d’une même aire linguistique, en se connaissant mieux, y gagneront un sentiment de confiance renforcée en l’avenir ainsi qu’un apaisement des tensions lorsqu’elles existent. La Francophonie institutionnelle, notamment, devrait se faire un devoir d’aider toutes les « poches » de francophonie isolée, où qu’elles se trouvent. De tels « îlots francophones » existent en Amérique du nord (USA, Canada) mais aussi ailleurs (Brésil,…), partout où le désir de français s’exprime. Bien entendu, cette politique de croissance suppose des outils et des ressources. Un certain nombre d’outils existent déjà et pourraient être renforcés et étendus par leur mutualisation. Je pense aux Lycées français, aux Alliances françaises, aux Départements d’études québécoises, aux Département universitaires d’études françaises, aux Filières universitaires francophones et aux Instituts de la Francophonie gérés par l’AUF, aux bourses de mobilités francophones etc… Les ressources financières, actuellement insuffisantes, pourraient cependant être facilement trouvées. Il suffirait, par exemple, que chaque Etat ou Gouvernement membre de l’OIF contribue à l’Organisation, ce qui est loin d’être le cas aujourd’hui puisque seuls quelques pays du Nord le font. 55 Etats versant chacun 100 000 euros par an apporteraient déjà 5,5 millions d’euros, soit l’équivalent du budget annuel réservé aux mobilités par l’AUF. Conclusion 1 Pour finir, nous pouvons résumer la situation par un modèle planétaire qui, d’une part, serait constitué d’un ensemble de grands marchés contrôlés par des entreprises multinationales ayant pour objectif le profit à court terme, ces entreprises étant ainsi conduites à uniformiser le plus possible les réactions des « consommateurs » de façon à diminuer leurs coûts de production et d’exploitation tout en assurant une diffusion maximale de leurs produits. D’autre part, ce modèle planétaire serait composé d’êtres humains attachés à leur personnalité propre, à leur créativité et à leur liberté de choix, pour qui la diversité resterait un besoin vital tout en demeurant sensibles aux effets de modes et au désir de se reproduire à l’identique. La dynamique de fonctionnement de ce modèle hypothétique pourrait alors se résumer par un conflit entre ces deux nécessités : la standardisation des marchés et le besoin de diversification des personnes humaines. L’avenir dépendra donc de la capacité des êtres humains et, notamment des Etats et Gouvernements, à contrôler ce conflit de façon à maintenir le degré de diversité des productions humaines à un niveau compatible avec les besoins de l’humanité… Montréal le 8 octobre 2008 Remerciements : L’auteur remercie, Madame Michèle Gendreau-Massaloux, rectrice honoraire de l’AUF, André Rouillon et Jean-Louis Hiribarren, Maîtres de conférences à l’Université François Rabelais, Patrick Chardenet, Directeur de programmes délégué à l’AUF, pour les améliorations qu’ils ont suggérées à la première version de ce texte. 1