La culture : une dynamique entre uniformité et diversité Jean

Transcription

La culture : une dynamique entre uniformité et diversité Jean
La culture : une dynamique entre uniformité et diversité
Jean-Pierre Asselin de Beauville
Chargé de mission auprès du recteur de l’Agence universitaire de la
Francophonie (AUF)
Ex Vice-recteur aux programmes de l’AUF
Colloque du Centre interuniversitaire d’études sur les lettres, les arts et
les traditions (CELAT, Université Laval) « Francophonie et francophonies
: quel avenir, quels enjeux?»
Université Laval, Canada-Québec, 14-17 octobre 2008
________________________
La « diversité » selon le dictionnaire Robert, s’attache aux caractères de nature et de qualité
différentes, variées. Elle a rapport avec les notions de pluralité, de différence ou d’opposition.
Définir la diversité peut aussi se faire en référence au concept antinomique, « d’uniformité » :
est divers ce qui n’est pas uniforme et réciproquement. Par ailleurs, une situation uniforme est
souvent perçue comme statique à l’exemple d’un mouvement effectué à vitesse constante. Ce
type de mouvement, exempt d’accélération, pourra donner à l’observateur qui se déplace, la
sensation d’être immobile. A contrario, la diversité, comme l’indique l’étymologie latine
« diversitas », a aussi à voir avec la notion de divergence et donc de mouvement. Passer de
l’uniformité à la diversité et réciproquement, peut donc aussi être interprété comme une mise
en mouvement et présente donc un aspect dynamique.
En ce qui concerne la culture, nous adopterons une définition très générale. Nous
conviendrons qu'elle englobe les connaissances, l'histoire, les langues, les pratiques sociales,
les croyances, les idées qui s'expriment dans les comportements, les goûts, les jugements,
aussi bien que dans les objets techniques que dans la littérature, la danse,la musique et, plus
généralement, les arts.
Cette notion de diversité dépend aussi de celle de dimension. On comprendra aisément que la
probabilité d’observer de la diversité doit généralement augmenter avec la dimension du
champ d’observation. Effectivement, plus ce champ englobe d’informations et plus on aura de
chances d’y détecter des différences. C’est ainsi que l’on parle souvent de « particularismes »
pour distinguer les différences à un niveau d’observation plus limité. S’agissant, par exemple,
de l’ensemble de 68 Etats et Gouvernements rassemblés au sein de l’entité politique
dénommée « Francophonie », il est naturel de s’attendre à y trouver plus de diversité que dans
un groupe plus restreint de pays.
1
Diversité et humanité
Notre premier point, sera de rappeler que la diversité est une condition essentielle, sinon
vitale, de survie de l’humanité. Autrement dit : l’Homme (ou la personne humaine) éprouve
un besoin fondamental de diversité. La fin de la diversité risquerait de conduire l’humanité à
sa perte.
L’argumentaire, sans prétendre à l’exhaustivité, s’appuie au moins sur deux points :
-
La génétique humaine d’abord, qui nous apprend (cf. Albert Jacquard, « Eloge de la
différence, la génétique et les hommes », Ed. du Seuil, Paris, 1978, pages 18-19) que
« l’enfant n’est la reproduction de personne, il est une création définitivement unique.
Cette unicité résulte du nombre fabuleux d’enfants différents qui pourraient être procréés
par un même couple : imaginons que pour un caractère donné, par exemple le système
sanguin Rhésus, le père et la mère soient chacun dotés de deux gènes distincts, « a » et
« b » ; les enfants qu’ils procréent peuvent recevoir soit deux gènes « a », soit deux gènes
« b », soit un gène « a » et un gène « b » ; pour chaque caractère, 3 combinaisons de gènes
sont ainsi possibles ; pour un ensemble de deux caractères, ce sont donc 32 = 9
combinaisons qui sont potentiellement réalisables et pour un ensemble de n caractères ce
sont 3n combinaisons qui deviennent possibles ; ce dernier chiffre est « astronomique »
dès que n dépasse quelques dizaines ; ainsi, pour un ensemble de n = 200 caractères, ce
nombre est égal à 3200 , ce qui est pratiquement infini… Cette possibilité de diversité est
l’apport propre de la reproduction sexuée : le réel est unique mais les possibles sont
infiniment nombreux ». Pour mieux percevoir cette infinité de possibles, il suffit de
rappeler que chaque être humain reçoit plusieurs centaines de milliers de paires de gènes,
chaque paire étant chargée de gouverner une fonction élémentaire, par exemple la
synthèse d’une enzyme. Dans un livre récent, (« L’Humanité au pluriel- la génétique et la
question des races », Ed. du Seuil, collection « Science ouverte », Paris, 2008) Bertrand
Jordan, montre que la diversité génétique humaine doit être considérée comme une
richesse et que c’est précisément parce que les êtres humains sont différents qu’il est
nécessaire de les proclamer égaux. Les chercheurs étatsuniens R. Lewontin (« The
Genetic Basis of Evolutionary Change », Columbia University Press, 1974) et M. Nei
(« Molecular Population Genetics and Evolution », Amsterdam, North-Holland, 1975) ont
montré qu’on ne diminue en moyenne que de 15% la diversité génétique constatée entre
les humains si, au lieu de l’ensemble de l’humanité, on ne considère que les humains
appartenant à une même nation. On observe donc ici que, même l’effet de dimension
mentionné plus haut, ne suffit pas à réduire sensiblement la diversité génétique humaine
tant celle-ci semble intrinsèque à l’être humain. A. Jacquard, dans le livre déjà cité (page
204), indique, que « l’avenir d’un groupe humain dans son ensemble, sa capacité à se
renouveler, à lutter, de génération en génération, contre l’érosion du temps, cette lutte est
d’autant plus efficace que les possibilités de transformation, d’adaptation à un milieu
changeant sont plus larges, donc que la collection de gènes est plus variée… Un « bon »
patrimoine génétique collectif est un patrimoine divers ». Edgard Morin (« Le Paradigme
perdu : la nature humaine », Ed. du Seuil, Paris, 1973), utilise une formule imagée
remarquable : « la richesse d’un groupe est faîte de ses mutins et de ses mutants ».
-
Sur un autre plan, l’individu humain est plongé dans un environnement géophysique et
biologique (climat, géographie, paysages, faune, flore,…) qui, lui aussi, est extrêmement
diversifié. On connaît notamment aujourd’hui toute l’importance de la biodiversité pour
2
qu’il ne soit pas besoin d’en rappeler ici le rôle fondamental au regard de la survie de
l’humanité. Le nombre d’espèces vivantes répertoriées sur la Terre est de l’ordre du
million et demi et la diversité de leurs apparences et de leurs fonctions n’est plus à
démontrer. Il est tout aussi remarquable qu’en trois milliards d’années, grâce au processus
d’évolution darwinien, les êtres vivants aient manifesté une capacité de différenciation
extraordinaire, passant de quelques molécules à une prolifération d’organismes, parfois
d’une grande complexité, dotés de pouvoirs et de fonctions multiples. On sait aujourd’hui,
par la génétique des populations, que la nature a eu pour effet, au cours de l’évolution, de
préserver la diversité plutôt que de modeler les êtres vivants autour d’un même type
« idéal ».
Ainsi, lorsqu’on observe l’humanité à l’échelle de l’individu, il apparaît nettement qu’elle est
sous l’emprise d’un processus de diversification qui intervient au moins à deux niveaux : la
« diversification génétique humaine » d’une part, qui influe sur la constitution humaine ellemême, et la « bio diversification environnementale » d’autre part, qui plonge l’individu
humain dans un milieu lui même très différentié. Dans ces conditions, il nous apparaît
presque logique et naturel que les productions humaines, qu'elles soient matérielles,
intellectuelles et, notamment les productions culturelles et « civilisationnelles » soient,
elles aussi, de nature diversifiée. Il est d’ailleurs aujourd’hui admis par tous que la richesse
de chacun de nous est, en grande partie, gouvernée par la diversité des cultures qui habitent
notre planète.
Si maintenant on se donne la peine d’observer les phénomènes non plus à l’échelle de
l’individu, mais à une échelle beaucoup plus large, celle d’ensembles d’humains, on constate
alors que des contre-processus (ou processus contraires) sont à l’œuvre. Ces processus sont de
nature à s’opposer à la diversité des productions humaines. L’être humain est, en effet, un être
social vivant en société et cette vie en collectivité est à l’origine de la mise en place de ces
tendances opposées à la diversification des productions culturelles et civilisationnelles
notamment. Nous désignerons donc ce type de processus par « processus uniformisant ». Le
caractère uniformisant de la mondialisation peut en partie s’expliquer par les nécessités
du marché en matière de standardisation, de normalisation, afin de faciliter la
circulation des biens matériels et immatériels. Cette tendance à l’uniformisation s’est
accrue avec le développement de la mondialisation car cette dernière tend à constituer des
groupements humains de plus en plus inter connectés, au point qu’aujourd’hui, certains
considèrent que l’ensemble de la population terrestre appartient à un même « village
planétaire »… Cette situation favorise la diffusion des connaissances et des informations à
travers la planète et peut donc aussi peser en faveur de la diversité en offrant aux citoyens un
choix dans une palette élargie. Ainsi, comme l’indique Frédéric Lenoir en page 240 de son
livre « Le Christ philosophe », paru aux éditions Plon en 2007 : « …le processus de
mondialisation, a considérablement élargi l’offre religieuse. Un individu européen peut
aujourd’hui pratiquer la méditation zen, la kabbale juive ou s’initier à l’islam sans avoir à
quitter son quartier ». Cependant, nous retiendrons surtout l’effet prépondérant sur les sociétés
humaines qui est de produire un certain « lissage » de la diversité de leurs productions.
Cependant, les processus uniformisants peuvent aussi résulter des comportements
individuels des humains. Chacun de nous possède, en effet, non seulement un désir profond
de différentiation comme cela a été montré plus avant, mais aussi un désir de se fondre dans la
masse en ressemblant le plus possible à la société environnante ou à une partie de celle-ci. Ce
type de comportement grégaire est flagrant, si l’on considère, par exemple, la mode
vestimentaire des adolescents. D’une façon plus générale, les phénomènes de modes relèvent
3
souvent de ce type d’attitude. Les scientifiques, eux-mêmes, en cherchant à cloner les êtres
vivants, manifesteraient ce désir de l’être humain de reproduction à l’identique. La
convergence éventuelle de l’aspect uniformisant de la mondialisation et de ce caractère
grégaire des humains, ne peut donc que renforcer le processus uniformisant.
Lorsque les sociétés humaines communiquaient peu entre elles, se limitant à vivre sur des
territoires géographiques limités et, lorsque les échanges entre les humains, même s’ils ont
toujours existé, restaient circonscrits, cette tendance à l’uniformisation culturelle demeurait,
elle aussi, limitée. Cependant, le monde actuel, en s’appuyant surtout sur un développement
sans précédent des moyens de communication (technologies de la communication et de
l’information, transports rapides,…), sur la constitution d’entreprises ou d’organisations
multinationales d'une part, ou multilatérales d'autre part, pour qui les frontières politiques ou
géographiques n’ont que peu d’effet, sur la mise en place de grands marchés internationaux
soumis à l’économie libérale (Union européenne, ASEAN, ALENA, UMEAO,…), sur la
création d’entités politiques multilatérales (ONU, OTAN, UE, OIF, UA,…), ce monde a
libéré des synergies dont on commence à peine à mesurer les conséquences. Celles-ci ont pour
noms : dérégulation ou déréglementation nationales, normalisation ou standardisation,
délocalisation économique, pensée unique, métissage culturel, créolisation linguistique,
monolinguisme, intégrismes religieux… De façon générale, ces orientations dans le monde
actuel sont très liées à la domination actuelle de l’idéologie libérale dont le credo est celui de
la constitution de marchés mondiaux de plus en plus étendus avec l’objectif annoncé
d’atteindre une plus grande liberté individuelle dans les domaines économiques et politiques
tout en limitant le plus possible l’intervention des Etats. Selon la plupart des économistes
contemporains, la mondialisation est une chance pour la croissance mondiale même si des
difficultés récentes (pression de l’émigration dans les pays riches, crise des sub primes aux
USA, croissance exponentielle du prix du pétrole, échec récent des négociations à l’OMC,
récession économique, croissance du prix des denrées alimentaires,…) viennent parfois
tempérer cette opinion et justifier une tendance au repli sur soi au nom d’un certain
« patriotisme économique ». Il faut noter que cette convergence vers l’uniformité n’est pas
récente puisque déjà en 1955, Claude Levi-Strauss dans son ouvrage célèbre « Tristes
Tropiques » (Ed. Plon, Reéd. Pocket, coll. « Terre humaine », 2001) faisait état d’un
désenchantement produit par la diminution de la diversité dans le monde, par la « mort de
l’exotisme », par la fin des voyages qui existaient autrefois, au temps où il y avait des
« autres ».
En résumé, on peut mettre en évidence au sein des sociétés humaines, deux types
de tendances contradictoires : une tendance des êtres humains à favoriser la
diversification de leurs productions et une force plutôt en faveur de
l’uniformisation de ces mêmes productions.
Compte tenu de l’importance primordiale de la diversité pour la survie de l’humanité, on
comprendra l’intérêt qu’il y a à maintenir au minimum un relatif équilibre, sinon une
certaine dominance, du processus diversifiant sur la tendance uniformisante. Comme
nous l'avons vu, le processus diversifiant est de nature biologique (génétique, biologie
animale et végétale) et géophysique. De ce fait, il apparaît très difficile, sinon impossible, à
contrôler. Il en résulte que le seul vrai levier d’action dont dispose l’humanité en vue de
maintenir un degré de diversité suffisant à sa survie, c’est le contrôle du processus
uniformisant, qui agit sur des périodes de temps plus en rapport avec la durée d’une vie
humaine et qui dépend plus de l’intervention des groupements humains.
4
Illustrations concrètes de la dynamique de la diversité
Dans ce qui suit, je voudrais illustrer l’existence de ces deux processus antagonistes, de
diversification et d’uniformisation, à partir de quelques exemples concrets, tout en mettant en
évidence le rôle essentiel de l’équilibre relatif qui s’établit entre ces deux tendances.
-
Je commencerai par une analogie avec le monde de la matière. Au début du XIXè siècle,
le physicien français Sadi Carnot énonce les deux principes de la Thermodynamique. Le
second de ces principes constate la dégradation nécessaire de toute forme d’énergie dans
un système fini (système isolé du monde extérieur). Pour les physiciens, ce principe
s’énonce « l’entropie de l’univers est croissante » (ce qui peut aussi s’exprimer en disant
que le degré de désordre de l’univers augmente constamment, l’entropie étant une sorte de
mesure du désordre). Ce principe permet de préciser, à très long terme, un effondrement
général de l’Univers dans une « grisaille » où toute structure aura disparue (puisque le
désordre sera maximal). Pour mieux comprendre ce principe on peut imaginer
l’expérience suivante : un récipient contient deux bacs séparés par une cloison. Dans le
premier bac on place de l’eau chaude et dans le second de l’eau froide, la cloison étant
supposée interdire tout transfert d’énergie thermique entre les deux bacs. Dans cette
configuration, les molécules d’eau chaude sont bien séparées des molécules d’eau froide.
On dit que l’ordre du système est maximal ou que son entropie est minimale. Si
maintenant, on permet le passage de l’eau entre les deux bacs (en pratiquant par exemple,
une petite ouverture dans la cloison), on constate, qu’au bout d’un temps suffisant, le
récipient est tout entier rempli d’une eau tiède. Autrement dit, les molécules d’eau chaude
et froide se sont mélangées et le désordre ou l’entropie du système est maximal. De plus la
transformation est irréversible, en ce sens que les molécules d’eau chaude et froide ne
pourront pas se séparer de nouveau sans un apport d’énergie de l’extérieur vers le
système. On constate donc que le monde inanimé (non vivant ou de la matière) est régi
par une sorte de processus uniformisant qui est celui de l’augmentation de
l’entropie. En effet, même s’il n’existe pas une correspondance biunivoque entre les
notions d’ordre, d’entropie et de diversité, on comprend que l’augmentation de l’entropie
(ou du désordre) ne peut que contribuer à la diminution de la diversité (dans l’exemple de
l’eau, la diversité est maximale au début de l’expérience lorsque l’eau froide est séparée
de l’eau chaude et devient minimale lorsque le mélange est accompli, puisqu’il n’y a plus
dans le bac que de l’eau tiède). On pourrait donc dire que la croissance de l’entropie
d’un ensemble de molécules contribue à en diminuer la diversité.
Cependant, plus récemment, le physicien Belgo-etatsunien Ilya Prigogine (« L’ordre par
fluctuations et le système social », dans A. Lichnerovitcz et F. Perroux, « L’idée de
régulation dans les sciences », Ed. Maloine-Douin, Paris, 1977, pages 153-191) a montré
que le second principe de la Thermodynamique souffre de certaines insuffisances : dès
que les systèmes matériels sont suffisamment complexes, ils manifestent une
tendance à se structurer spontanément de façon à minimiser la croissance de
l’entropie, ce qui les rapproche du comportement du monde vivant. Prigogine a donc mis
en évidence, dans le monde de la matière, un processus résistant à la croissance de
l’entropie, ceci en améliorant la prise en compte de la complexité de la matière. Ces
résultats indiquent que, si l’on change l’échelle d’observation de la matière, alors le
« processus uniformisant de croissance de l’entropie » est accompagné d’un
« processus contraire de minimisation de cette croissance » ou d’un processus
spontané de structuration de la matière que nous assimilerons ici, de façon sans
doute un peu abusive, à un « processus de diversification » de la matière, dans la
5
mesure où la structuration d’ensembles moléculaires accroît la diversité de ces
ensembles.
On voit donc l’analogie annoncée plus haut entre le monde de la matière et celui des
humains : ces mondes sont, en effet, tous les deux soumis à un « double processus de
type diversification-uniformisation ». Il est notable, par ailleurs, que le processus de
résistance à la croissance de l’entropie et même de décroissance de celle-ci, soit également
à l’œuvre pour la matière vivante qui est capable de maintenir sa structure, voire d’évoluer
vers plus de complexité comme nous l’avons vu avec la génétique humaine.
Enfin, dans le cas de la matière, c’est la complexité qui produit la résistance à l’uniformité
et, par analogie, on pourrait considérer que la grande complexité vers laquelle a évolué
l’espèce humaine, pourrait expliquer son goût pour la diversité…
-
Changeons maintenant de champ d’observation pour aborder celui des langages de
programmation en informatique, un domaine récent des productions intellectuelles
humaines.
A l’origine des langages de programmation se trouvent les langages « Assembleurs » ; un
Assembleur est constitué d’un ensemble limité de codes symboliques décrivant les
différentes opérations élémentaires exécutables par un processeur informatique donné. Un
tel « langage d’assemblage » permet potentiellement de réaliser toutes sortes de calculs, y
compris les plus complexes, mais au prix d’un très gros effort d’analyse de la part du
programmeur et d’une grande difficulté à relire les programmes ainsi écrits. Il faut
rappeler ici que l’unique « langage » compréhensible par un processeur informatique est
un code binaire composé des deux symboles zéro et un. Pour être exécuté sur un
processeur, un programme écrit en langage d’assemblage doit donc auparavant être traduit
en code binaire. Etant donné la proximité entre les codes de l’assembleur et le langage
binaire, cette opération de traduction est généralement relativement simple. Très
rapidement, le besoin s’est fait sentir de produire des programmes plus faciles à écrire et à
lire et donc écrits dans un langage proche du langage naturel (par opposition à langage
formel). Parmi les premières tentatives, on doit citer celle du britannique Alan Turing
(1912-1954) qui proposa un langage constitué de cinquante instructions (facile à
comprendre pour un être humain) qui étaient automatiquement transcrites en binaire par
l’ordinateur. Il faut aussi citer Grace Murray Hopper (1906-1992), des Etats-Unis
d’Amérique, qui développa un programme qui transformait les instructions de l’utilisateur
humain en instructions-machines codées en binaire. Ce fut la naissance de ce que l’on
désigne aujourd’hui par « système de compilation » ou « compilateur ». Le premier
véritable langage de programmation symbolique dit de « haut niveau » car plus proche
d’une langue humaine, (en l’occurrence la langue anglaise) fut le FORTRAN (FORmula
TRANslator). Il naquit en 1953. L’ordinateur n’était pas conçu pour en lire ou en exécuter
directement les instructions, il fallait au préalable faire appel à un programme de
traduction (le compilateur), initialement écrit dans le langage binaire de la machine. Le
FORTRAN pouvait donc fonctionner sur n’importe quel type d’ordinateur mais pour
chacun, il fallait un compilateur approprié. A compter de cette date, il apparut sur le
marché une quantité impressionnante de langages s’annonçant chacun plus performant
que les autres. Sans prétendre à l’exhaustivité, on peut citer : COBOL (Common
Business-Oriented Language), LOGO, ALGOL (ALGOrithmic Language), LISP, TRAC,
SNOBOL, PROLOG, PASCAL, BASIC (Beginner’s All-purpose Symbolic Instruction
Code), ADA, SMALLTALK, SIMULA, C, CAML, DELPHI, ERLANG, FLASH, C++,
C#, JAVA, JAVAScript, REXX, PERL (Practical Extraction and Report Language), GCL,
PHP, GCL, PL/1, TRAC, APL, MACSYMA, MAPLE, FORTH, HTML,
6
MATHEMATICA, PYTHON, SCHEME,
VBSCRIPT, VISUALBASIC, RUBY,
TCL/TK (Tool Command Language), XML…. Mais comme si cette diversité
conceptuelle ne suffisait pas, chacun de ces langages a donné naissance à un nombre
important de versions successives. Pourtant la plupart de ces langages formels (par
opposition au langage naturel) ont en commun au moins trois objectifs : être aussi
universel que possible (dans le sens où ils peuvent être utilisés pour traiter n’importe quel
type d’application), être de haut niveau (dans le sens où ils sont proches d’une langue
naturelle telle, par exemple, que l’anglais ou le français), être portable (dans le sens où ils
peuvent fonctionner sur n’importe quel type d’ordinateur). Dès lors, il est normal de
s’interroger sur les raisons qui font, qu’en partant d’objectifs communs on ait pu
aboutir à un tel foisonnement de produits. Les avancées de la recherche en
informatique, l’élargissement des types d’applications visés et la nécessité d’améliorer la
fiabilité de la programmation, ne suffisent pas à justifier cette prolifération. Tout se passe
comme si, tout en affichant le désir de trouver les fondations d’un véritable code
universel, chaque profession, chaque communauté, inventait son propre dialecte ! On
aboutit même à l’inverse de l’un des objectifs recherchés qui était de permettre aux
machines de communiquer facilement entre elles, puisque ces différents langages sont
souvent incompatibles entre eux, chaque code étant dans l’impossibilité d’être interprété
directement (c’est à dire sans l’aide d’une interface logicielle) par son concurrent. Les
langages informatiques en devenant plus symboliques (c’est à dire plus proches du
langage naturel) ont donc une tendance affirmée à se diversifier. La généralisation de
l’Internet ne doit pas laisser croire que tout est résolu. Il suffit de penser aux difficultés
actuelles dans le domaine des normes et des protocoles de communication. La multiplicité
de ces langages va à l’encontre de la transparence envers l’utilisateur, qui était affichée à
l’origine des langages formels symboliques. Le marketing seul, ne peut expliquer cette
situation. En effet, face à une offre de produits aussi vaste, comment expliquer le choix
diversifié des utilisateurs ? Ceux-ci auraient pu convenir de privilégier tel ou tel langage
avec la conséquence de « contraindre» les fabricants de logiciels de programmation à
restreindre leur gamme de produits. Même en se restreignant à une classe particulière
d’utilisateurs, les enseignants du supérieur par exemple, on ne peut que constater la
pluralité des choix effectués pour la formation des étudiants. Cette communauté n’est
pourtant pas partie prenante de la compétition que se livrent les grandes sociétés
productrices de logiciels. Il semble donc que l’utilisateur, qu’il soit informaticien ou
utilisateur final, ressent la nécessité de pouvoir choisir son langage de
programmation parmi une offre suffisamment abondante. C’est une observation qui
vaut, plus généralement, pour beaucoup d’autres produits mis sur le marché à disposition
des consommateurs. Nous pensons qu’il s’agit là de l’effet du processus diversifiant dont
il a été question ci-dessus.
D’un autre coté, la distribution des produits de génie logiciel par les grandes entreprises
internationales s’inscrit dans les règles générales de commerce mondialisé où les
entreprises hyperdominantes tendent à uniformiser les biens dans leur composition
(recherche et développement) et dans leur conditionnement. C’est ainsi que se
constituent, par regroupements d’entreprises, des consortiums multilatéraux qui
tentent d’imposer leurs standards au marché. A titre d’exemples on pourrait citer
« World Wide Web consortium » dans le domaine de la technologie du web et pour les
applications distribuées dans des environnements hétérogènes ou encore « Object
Management Group » pour toutes les applications orientées objet. Ces groupements
tendent à uniformiser les produits par la production de normes et de standards. On
trouve donc là, une illustration de la mise en place d’un processus uniformisant du type de
7
ceux indiqués plus haut. On assiste donc à la compétition entre deux tendances
antagonistes : la créativité humaine d’une part qui a tendance à produire de la
diversité, et le marché économique d’autre part qui tend à standardiser les produits.
Même si de nos jours, la programmation est devenue une activité de spécialistes
d'informatique, on peut constater le maintien de ces deux tendances dans le domaine des
logiciels à destination des utilisateurs (tentatives hégémoniques de Microsoft face, par
exemple, à la résistance des « logiciels ouverts »). On peut désormais mieux
comprendre le rôle important de l’adoption de règlements internationaux et
nationaux susceptibles de permettre la survie de la créativité et donc de la diversité si
l’on veut éviter que l’avenir puisse donner le jour à une unique entreprise qui
contrôlerait alors à elle seule l’ensemble du marché mondial en matière de génie
logiciel.
-
−
Abordons maintenant l’étude des langues artificielles. Si l’on voit apparaître très tôt des
références littéraires à des langues inventées1, l’intérêt pour une langue rationnelle se
développe à partir de la notion de langue philosophique universelle au moment où le latin
ne joue plus un rôle véhiculaire. Descartes y croit en restant sceptique sur sa diffusion,
Comenius qui innove en matière de technique d’enseignement des langues en associant les
mots et l’image, y pense avec d’autres et l’Europe intellectuelle du milieu du XVIIe
siècle en fait un thème de débats2. Il faut cependant attendre le XIXe siècle pour que des
propositions complètes de langues artificielles voient le jour : le volapük en 1879,
l’espéranto, le balta en 1887, l’espéranto réformé en 1894, l’idiom neutral en 1898, l’ido
et la lingua european en 1907, l’interlingua en 1957 et l’europanto3 dans les années 1990.
L’idée qui se développe alors, n’est plus celle d’une langue universelle car les racines
utilisées empruntent peu aux langues slaves comme le russe, ni au langues sémitiques
comme l’arabe ou l’hébreu, ni aux langues asiatiques comme le mandarin. Ce qui est visé,
c’est la construction de langues internationales. Or, comme pour les langages
informatiques, bien qu’elles aient été construites de façon rationnelle, quelles que soient
leurs qualités d’élaboration, chacune de ces langues artificielles a ensuite donné naissance
à des dizaines de variétés. Dès lors, on peut se demander si le processus de création de
langues artificielles, n’aboutit pas finalement à une nécessité de diversification
linguistique qui serait supérieure à celle de l’unification linguistique. Ce que pourrait
également confirmer l’avenir des langues dominantes qui, à partir d’un certain seuil se
divisent en variétés (le latin en fut un exemple pour les langues romanes, l’anglais
mondialisé commence à connaître des mutations variées en Asie, en Afrique et en
Amérique du nord, autant dans son usage que dans son enseignement / apprentissage).
Comme le dit Edgar Morin (La Méthode, tome III, La connaissance de la connaissance,
Ed. du Seuil, 1986), tout se passe comme si l’Homme cherchait à créer de nouvelles
tours de Babel pour le dominer. Cet exemple illustre le cas où le processus de
diversification a pris le dessus sur le processus uniformisant, là encore par suite du défaut
d’entente entre les humains au niveau international.
Contrairement à une idée répandue selon laquelle la mondialisation aurait pour seul
effet d’atténuer les différences culturelles en uniformisant les cultures sur le modèle
1
La lingua adamica prébalélienne de Platon, les jargons de Rabelais, les langues de J. Swift, le
Tetrastichon dans l’Utopia de Thomas More
2
YAGUELLO, M., 1984, Les fous du langage, Seuil, pp.51-62.
3
Créé sur le mode ludique par un traducteur de l’administration de l’Union Européenne à partir
d’articles rédigés dans un quotidien belge.
8
du pays dominant (actuellement les USA), que l’on assiste aussi à une exacerbation
de ces différences culturelles au cœur même des pays d’accueil des émigrants…
Dans les pays riches, la pression de l’émigration en provenance des pays les plus démunis
provoque, au sein des grandes villes notamment, des « poches de ghettoïsation » qui
alimentent la résistance à l’uniformisation culturelle et à la mondialisation libérale. En
effet, les populations les plus pauvres (des pays du Sud essentiellement) qui se déplacent
vers les pays les plus riches (du Nord en général) afin de tenter d’y améliorer leurs
conditions de vie ainsi que celles de leurs proches (même lorsque ceux-ci restent dans le
pays d’origine), une fois parvenues au Nord, ont tendance à y constituer des
communautés-ghettos afin de mieux se protéger d’un environnement socio-économique et
culturel qu’elles ne comprennent pas et qui, souvent, ne fait pas grand effort pour les
accueillir et les comprendre. Au sein de ces communautés, elles tendent à renforcer leur
identité culturelle et sociale afin d’être plus fortes et de faire davantage pression sur le
pays d’accueil pour qu’il prenne mieux en compte leurs besoins (sur les problèmes
d’emploi, de logement, de discrimination,…). Ce « renforcement identitaire » n’est
d’ailleurs pas que défensif et peut aussi avoir des côtés plus constructifs. Il permet souvent
à ces communautés par comparaison, d’approfondir leur propre culture, de prendre
conscience de ses richesses, de la faire progresser et de la faire rayonner dans le monde.
Nombre d’Antillais, par exemple, ont approfondi leur propre culture une fois qu’ils
s’étaient déplacés en France hexagonale pour y chercher du travail. A. Césaire et L.S.
Senghor, eux-mêmes, reconnaissent devoir beaucoup à l’auteur allemand Léo Frobenius
qui par son ouvrage « Histoire de la civilisation africaine », (Editions Gallimard, Paris,
1933), les a amenés à jeter un regard différent sur leurs propres cultures et a formuler le
concept de négritude. Le regard de l’autre sur soi peut donc être positif et contribuer à la
construction du soi.
Néanmoins, ce phénomène de « différentiation » des communautés culturelles émigrantes au
sein des pays d’accueil pose aujourd’hui de plus en plus de problèmes à ces pays qui, par
ailleurs, traversent souvent une crise économique plus ou moins sévère. Le « mal des
banlieues » en France, le grand déballage auquel ont donné lieu les audiences publiques de la
Commission mise en place par le Gouvernement du Québec afin d’établir un rapport sur la
question des « accommodements raisonnables » (sorte de compromis réglementaire destiné à
adapter le droit québécois à la demande spécifique d’un membre d’une communauté
culturelle), le renforcement des protections aux frontières du Sud des USA ou aux frontières
de l’Union européenne, l’affaire des caricatures de Mahomet au Danemark, les refus français
et néerlandais du Traité constitutionnel européen… Tous ces exemples témoignent des
conséquences de cette différentiation.
Il est d’ailleurs paradoxal de constater que les pays qui prônent le plus le développement de la
mondialisation des échanges et du libéralisme, sont pour la plupart les pays riches, que ces
mêmes pays soient ceux qui tentent par tous les moyens (construction de barrières de
protection aux frontières, politique restrictive d’attribution de visas, restriction des quotas
d’émigrants, réglementations professionnelles conservatrices,…) de se protéger des effets de
cette même mondialisation sur les populations du monde…
Dans les pays les plus pauvres, la résistance s’organise notamment au travers d’alliances
politiques visant à contrer les diktats des pays du Nord en matière d’échanges et de
commerce. Les difficultés de l’Organisation mondiale du commerce (OMC) dans le domaine
de la politique agricole et l’échec récent du « cycle de Doha », par exemple, en sont un
témoignage. Cette résistance, sous l’effet de la crise économique actuelle, s’étend à
l’ensemble des pays qui, au Nord comme au Sud, se retranchent derrière une sorte de
« patriotisme économique », un repli sur soi, un protectionnisme de plus en plus marqué.
Ainsi, l’offre de rachat du brasseur des Etats-Unis d’Amériques Anheuser-Bush (AB) pour
9
46,3 milliards de dollars par la société belgo-brésilienne InBev, a suscité un tollé aux USA.
Une pétition nationale pour « sauver ce fleuron américain » a même été lancée. Les récentes
difficultés de la vente d’avions de ravitaillement européens Airbus à l’armée des USA en est
une autre illustration… Tous ces mouvements de résistance visent, selon notre
perspective, à réduire les effets des processus uniformisant et à laisser s’exprimer les
processus de diversification.
Tout se passe donc comme si la mondialisation accélérée des échanges produisait deux
effets inverses : par la diffusion, des produits culturels notamment, les citoyens des
différents pays apprennent à connaître, à aimer ou haïr les cultures, les valeurs et les
identités des autres. Ainsi les Etats-Unis d’Amérique exportent leurs industries de
l’imaginaire et améliorent donc leur balance commerciale en diffusant leurs valeurs et
leur mode de vie mais contribuent par ailleurs à alimenter le rejet de leur modèle
culturel par une partie de la population du monde.
-
En France, des amendements proposés récemment par les députés de la majorité
parlementaire, lors de l’examen du projet de loi de modernisation de l’économie, ont
ouvert un large débat sur la loi du 10 août 1981, dite « Loi Lang », relative au prix de
vente des livres. La dérégulation envisagée soulève notamment l’inquiétude des libraires
indépendants notamment car elle vise à imposer un modèle commercial basé sur une
volonté de monopôle et une stratégie financière au profit des éditeurs et des diffuseurs les
plus puissants (voir « Pour le livre, contre la dérégulation », Journal Le Monde, 2 juillet
2008).
-
Dans l’hôtellerie de luxe, on observe, après une période de standardisation poussée de
l’offre, un mouvement de résistance à l’uniformité. Les hôtels qui avaient tendance à
proposer à leurs clients un décor semblable partout dans le monde, font maintenant appel à
des « designers » pour donner un cachet plus particulier à leurs établissements ( voir Joël
Morio, « Hôtels de luxe : la fin de l’uniformité », Journal Le Monde, 20 juin 2008).
-
Le développement de l’agriculture industrielle s’est accompagné d’une perte de la
biodiversité agroalimentaire (processus uniformisant). Au Canada, par exemple, alors
qu’il existe près de 5000 espèces de tomates recensées dans le monde, quatre variétés
représentent, à elles seules, 80% du marché. De la même façon, deux variétés de blé
dominent le marché mondial alors qu’il en existe au moins 10000 espèces. Oeuvrant dans
le cadre du processus uniformisant de libéralisation économique, la société étatsuniennes
Cargill produit le quart des céréales dans le monde… En face de ces tendances fortes, la
résistance (processus diversifiant) s’organise autour du désir de variété du consommateur,
de son désir de consommer des produits frais, de diversifier sa consommation
alimentaire…
-
L’adoption en octobre 2005 par l’UNESCO de la « Convention sur la protection et la
promotion de la diversité des expressions culturelles », relève, elle aussi de la
résistance aux effets uniformisant de la mondialisation. Cet événement est d’autant plus
significatif que la Convention a reçu 146 signatures sur 154 pays potentiellement
signataires (les USA ayant refusé de signer). Dans ce document, les Etats et
Gouvernements s’engagent à mettre en place toutes les dispositions susceptibles de
permettre l’épanouissement des cultures des pays qu’ils représentent.
1
-
Les évolutions de la vie politique sont, elles aussi, sujettes à ce type de dynamique. Elles
sont, en effet, partagées entre le culte du chef et la tendance à promouvoir le pluralisme
des points de vue par les règles de le démocratie. Cette dynamique oscille entre
l’uniformisation des opinions derrière un leader investi par le groupe et la diversité, qui
conduit au multipartisme et à l’alternance.
Sans prolonger la démonstration, cette analyse conduit à considérer que la diversité est
une protection vitale pour l'humanité, que la création de diversité est comme une
expression naturelle de la liberté de l'être humain, mais que cette tendance naturelle
est souvent contre-balancée par des phénomènes uniformisants créés par la vie en
société. Cette dernière produit, en effet, pour des raisons d'efficacité ou de grégarisme, des
règlements, des lois, des normes, des standards qui sont appliqués, de façon contrainte ou
consentie, par les collectivités humaines. Les quelques exemples donnés ci-dessus
pourraient facilement être complétés par d'autres dans des domaines divers : musical,
vestimentaire, architectural, littéraire,...
Si, par une analogie hardie, on assimile les humains et leurs cultures à des ensembles
moléculaires, on peut comprendre que, en rendant les contacts inter culturels plus
fréquents (notamment au moyen des technologies de l'information et des
communications), la mondialisation va tendre à l'accroissement du métissage culturel,
risquant de produire une sorte d'augmentation de l'entropie qui pourrait déboucher
sur une culture uniforme et unique et donc vers une humanité affadie et affaiblie.
Cependant, au sein des sociétés contemporaines, des processus résistant à
l'uniformisation sont déjà à l'oeuvre sous des formes diverses ; à mon avis, ils sont la
conséquence directe du processus de diversification propre à l'être humain. Il ne faut
cependant pas se tromper dans l’interprétation de la tendance uniformisante. En effet,
celle-ci ne se produit généralement pas en respectant les différentes cultures en présence,
c'est à dire en procédant par métissage et créolisation de ces cultures. Même si cet aspect
n’est pas totalement absent, l’uniformisation se réalise essentiellement par imposition
au monde d’un même modèle culturel, qui est celui de l’hyper puissance économique,
actuellement les USA.
Le cas particulier de la diversité linguistique
Abordons, la question de la diversité dans le domaine des langues naturelles, un champ plus
en rapport avec la francophonie notamment. On peut supposer qu’à l’origine de l’humanité, le
petit groupe de nos premiers ancêtres communiquait à l’aide d’un langage adapté à leur
situation. Cependant le langage n’est pas un don, il apparaît avec sa nécessité. Les langues
actuelles seraient donc toutes issues moins d’un proto langage que d’une même nécessité de
communiquer pour organiser le groupe. Cette nécessité se serait ensuite progressivement
diversifiée à cause de la naissance des cultures diverses accompagnant les migrations
géographiques et les évolutions biologiques des êtres humains (processus diversifiant).
L’hypothèse selon laquelle l’homme ne serait pas apparu en un seul lieu mais en différents
lieux ne change pas la nature du processus imaginé ici puisqu’il suffirait alors d’en imaginer
autant en parallèle. Dans cette dernière hypothèse, la diversité linguistique serait présente dès
les origines…
Le processus de différentiation de la variation dialectale à la créolisation est en outre, rendu
plus complexe par le phénomène de l’amplification des contacts entre langues et de leurs
1
effets sur celles-ci (emprunts, créolisation, porteurs de nouvelles langues à l’interface de
celles existantes) et sur les individus (alternances, mélanges de langues). Faut-il voir dans ce
processus de métissage des langues un phénomène pouvant, à long terme, conduire à la
disparition de la diversité linguistique ? La réponse à cette question est certes difficile ;
cependant, on peut observer que si, depuis l’origine de l’humanité, un grand nombre de
langues et de cultures ont disparu (souvent pour d’autres raisons que le métissage), nous n’en
sommes toujours pas arrivés à une situation d’uniformité et qu’en outre, l’interculturation4 et
l’interlinguisme ont favorisé des partenariats productifs. Comme le fait justement remarquer
Michèle Gendreau-Massaloux5 « …si l’on insiste beaucoup sur la « mort » des langues,
personne ne fait allusion à la « naissance » de nouvelles langues dont témoignent pourtant de
nombreux travaux de terrain ». On sait aujourd’hui que les mélanges de langues produisent de
nouvelles langues et que ce phénomène concerne toute langue en contact avec une autre. Le
« Chiac » du Nouveau-Brunswick au Canada et le « Spanglish », un hybride de l’anglais et de
l’espagnol qui se répand aux EUA, sont des exemples contemporains. On peut aussi observer
que de "petites langues"6 sont plus présentes au monde qu’elles ne l’étaient il y a une
cinquantaine d’années comme par exemple le créole des Antilles françaises pour lequel le
métissage s’est plutôt accompagné d’un certain renforcement de la langue. Il devient alors
possible d’imaginer un processus génératif des langues susceptible de garantir le maintien
d’un principe fonctionnel de diversité car « même dans des régions du monde où l’attirance de
grandes langues de communication internationale peut faire concurrence aux langues locales,
des mouvements de création se produisent, qui témoignent d’un essor de variétés linguistiques
nouvelles »7. S’il en est ainsi, on devrait être en mesure d’affirmer que toute tentative
pour une langue de s’imposer au monde comme langue de communication universelle
(processus d’uniformisation actuellement joué par l'anglo-américain) est vouée à l’échec
du fait de la tendance naturelle de l’Homme à construire de la complexité, à bâtir des
paradigmes même lorsqu’il affiche rechercher un objectif général de communication
sans contrainte. « La fin des distances physiques révèle l’importance des distances
culturelles….Plus il y a de communication, d’échanges, d’interaction, et donc de mobilité,
plus il y a, simultanément, un besoin d’identité»8 (voir aussi JP Asselin de Beauville et JL
Hiribarren, « L'identité francophone : utopie ou réalité », Edition spéciale de la Lettre
d'information aux membres de l'AUF, n°19, avril 2008). Cette dynamique cependant ne doit
pas nous faire oublier que pour que soit assuré, sur le long terme, un bon niveau de
diversification linguistique, il est essentiel qu’au cours du temps, et donc sur des échelles
de temps plus courtes, perdure suffisamment d’hétérogénéité culturelle afin de pouvoir
nourrir en permanence le processus de diversification. A cette dernière échelle de temps,
qui correspond globalement à la durée de quelques vies humaines, il est donc important de
prendre des mesures de défense des cultures locales et régionales, dans chaque pays, pour que
le processus de survie de la diversité culturelle et linguistique puisse se poursuivre à long
terme.
Il est clair que cet exposé n’écarte aucune culture ou langue particulière, signifiant ainsi que
cette analyse s’applique à toutes les langues et cultures humaines à des degrés divers et,
notamment à la francophonie. La culture des EUA elle-même subit de l’intérieur les effets
diversifiants dus aux émigrants. Il est connu des philosophes que chaque langue, chaque
4
5
DEMORGON, J., 2000, L’interculturation du monde, Anthropos.
2004, "Les langues, ni anges, ni démons", Hermès 40, Francophonie et mondialisation - éditions du
CNRS.
6
En nombre de locuteurs.
GENDREAU-MASSALOUX, M., 2004, "Les langues, ni anges, ni démons", Hermes numéro 40,
Francophonie et mondialisation, Ed. du CNRS, pp. 275-279.
8
WOLTON, D., 2003, L’autre mondialisation, Flammarion.
7
1
culture, est imprégnée de l’histoire du ou des peuples qui la porte. Une langue implique une
vision du monde spécifique (voir par exemple, B. Cassin « Le vocabulaire européen des
philosophes-Dictionnaire des intraduisibles », Ed. Le seuil, Paris, 2004). Mais cela ne nous
semble pas impliquer, comme on peut par exemple le lire dans l’appel à communication pour
ce Colloque, que « …la langue française peut être garante de la diversité dans un monde
menacé d’unilatéralisme culturel, elle permet d’exprimer des situations variées en luttant
contre l’uniformisation… ». Cela ne me semble pas aller de soi car, si cela était vrai on
devrait s’attendre à plus de résistance au processus d’uniformisation mondial dans un contexte
francophone que dans un autre espace linguistique. Or cette démonstration nous paraît devoir
encore être faite. Le double processus qui nous paraît régir la diversité humaine
s’applique à tous les contextes culturels, comme nous l’avons montré plus haut. En
d’autres termes, la francophonie n’est pas à l’abri des effets de ce double processus de
diversification- uniformisation.
Illustrons brièvement, les principaux effets uniformisants à l’œuvre dans l’espace
francophone, en nous concentrant sur les aspects linguistiques qui en font la spécificité.
Il est aujourd’hui bien connu que la position de la langue française est affaiblie comme
langue de communication internationale et ceci au profit de la langue hyper centrale
qu’est devenu l’anglo-américain. Cette dernière langue s’impose de plus en plus dans le
monde comme première langue étrangère dans les systèmes éducatifs. Le français voit sa
position décliner, même dans des pays où, historiquement, il occupait dans l’éducation le
premier rang parmi les langues étrangères. C’est par exemple le cas à Madagascar. Dans les
espaces publics, de nombreux pays de la Francophonie, donnent une place prépondérante à
l’anglais comme on peut le voir au Vietnam ou même au Québec et en France en matière
d’affichage commercial. Ainsi, un simple voyage dans un pays comme la France suffit à
percevoir ces effets de mode liés à la diffusion de la culture anglo-américaine : le programme
de fidélisation de la Compagnie Air-France s’intitule « Flying Blue », comme si cette locution
anglaise était plus porteuse de clients qu’une dénomination française qui elle, au moins, aurait
pu contribuer au dépaysement recherché par les touristes étrangers. Le même programme pour
la Société Nationale des Chemins de Fer français permet aux clients d’accumuler des
« S’Miles » au lieu de kilomètres. Le plan d'affaires de France-Télécom s'intitule « Next »... Il
est difficile de trouver une affiche ou un film publicitaire qui ne comporte pas au moins un
mot anglais. Dans les cafés et restaurants, la sonorisation d’ambiance est le plus souvent à
base de musique et de chansons anglo-américaines…
Les scientifiques et la communication scientifique s’expriment désormais presque
exclusivement en anglo-américain, contribuant ainsi à l’étiolement des cultures
concernées.
Les salles de cinéma sont de plus en plus envahies par les films en provenance des USA,
n’offrant plus aux spectateurs la possibilité de découvrir d’autres cultures. En France,
par exemple, les films français n’occupent plus que 35% des écrans, alors que les films des
Etats-Unis en occupent presque 50%. Selon l’Institut de statistiques du Québec, en 2006,
44,2% des recettes cinématographiques en France provenaient de films des EUA, alors que la
proportion est de 77,2% pour le Québec. Ce phénomène a d’ailleurs pour effet de nourrir
l’imaginaire des jeunes générations, notamment en entretenant le « mythe américain » et en
participant à l’effet uniformisant de la mondialisation.
1
Dans les documents soumis aux services de traduction de la Commission européenne, on
constate qu’entre 1996 et 2007, la part de l’anglais est passée de 45,7% à 73,5%, tandis que
celle du français diminuait de 38% à 12,3%.
Nous pensons, en outre, que certaines positions des défenseurs de la langue française,
visant à placer cette langue dans une sorte de position hégémonique par rapport aux
autres langues, contribuent elles aussi à l’affaiblissement du français et donc, d’une
certaine manière, renforcent l’action du processus uniformisant dans l’espace francophone.
Citons, en appui à cette remarque, l’opinion du linguiste Pierre Dumont qui, dans un ouvrage
intitulé « L’interculturel dans l’espace francophone » (Editions l’Harmattan, 2001), écrit en
page 180 : « Nous refusons également le discours mille fois rebattu selon lequel la langue
française serait l’instrument privilégié d’un patrimoine culturel universel. Ce type de discours
ne conduit à rien et ne convaincra que les convaincus d’avance. Il y a simplement que cette
langue vit et se développe dans un certain nombre de situations francophones très différentes
les unes des autres et qu’elle déborde très largement le cadre étroit de la Francophonie. Que ce
soit en francophonie ou dans des contextes internationaux autres, le français nous intéresse
par les contacts qu’il entretient avec les autres langues, les liens qu’il a tissé avec les cultures
du monde entier et les rapports particuliers qu’entretiennent avec lui tous ses locuteurs ».
Face à cette tendance vers l’uniformisation linguistique du monde contemporain, il nous
semble utile d’adopter, non pas une position frileuse de repli défensif, mais plutôt une
attitude rationnelle et ouverte. Ce comportement repose sur la reconnaissance et
l’acceptation de l’existence du processus de diversification linguistique qui agit en
francophonie comme dans tout autre espace linguistique. Dans leur ouvrage « La plus belle
histoire du langage (Editions du Seuil, Paris 2008), les auteurs (Pascal Pieq, Laurent Sagart,
Ghislaine Dehaene et Cécile Lestienne) écrivent en page 84 : « le destin courant des langues
est d’évoluer et de se diversifier. En un ou deux milliers d’années, une même langue parlée
dans deux régions différentes, se modifie tellement que les locuteurs ne se comprennent
plus ». Cette évolution a été celle du latin qui s’est différentié en français, italien, espagnol,
portugais, roumain… C’est aussi le cas du chinois avec la langue de la dynastie Han, parlée il
y a 2000 ans dans le nord de la Chine. Cette langue s’est fragmentée en mandarin, cantonais,
min, hakka,… Plus loin (page 121) dans ce même livre, on peut lire : « la domination d’une
culture au niveau mondial ne dure pas assez longtemps pour qu’elle puisse imposer sa langue
au monde entier ! Beaucoup de langues vont disparaître, on l’a vu, et le poids des plus parlées
va encore augmenter. Mais la plupart des langues protégées par un Etat et probablement une
bonne partie de celles qui ont une écriture vont s’en sortir ». Citons aussi Pierre Dumont qui,
dans l’ouvrage déjà cité écrit en page 38 : « Il faut accepter l’idée que le français peut
s’enrichir au contact d’autres langues. Mais pour que cette hybridation n’aboutisse pas à une
pure et simple assimilation de la langue française à telle ou telle autre langue, il faut donc que
cette hybridation soit codifiée, stabilisée, normée… Le français peut être l’expression de
cultures autres que française : c’est un signe de vitalité, pas un facteur de désintégration
comme on l’entend dire trop souvent… ». Tous ces arguments plaident vivement en faveur
de la mise en place de réglementations en matière linguistique. Faute de cela on peut voir
disparaître une langue en quelques dizaines d’années. C’est par exemple, ce qui s’est produit
avec le quasi remplacement du français par l’anglo-américain en matière de communication
scientifique ou dans le domaine du commerce international. A contrario, on peut citer la « Loi
101 » au Québec qui a contribué à pérenniser la langue française dans cette province
canadienne. Ma conviction est qu’une attitude passive en matière de sauvegarde de la
diversité culturelle et linguistique est dangereuse. Seule une attitude pro-active me semble
capable d’atténuer les effets uniformisants au profit du maintien d’un certain degré de
1
diversité. La législation est d’autant plus nécessaire que le français lui-même évolue et que
cette évolution, pour rester acceptable, se doit, comme l’indique Pierre Dumont, d’être
contrôlée, maîtrisée en intégrant le plus possible des cultures dont cette langue est aujourd’hui
le vecteur.
Dans ce contexte, il n’est pas surprenant que l’enseignement et la recherche soient appelés
à jouer des rôles déterminants. L’enseignement et l’éducation des jeunes constituent un
couple indissociable sur lequel pourra s’appuyer le renforcement de la diversité culturelle et
linguistique. L’apprentissage, dès le plus jeune âge, de langues, dont bien entendu le français,
à l’aide de méthodes modernes, adaptées aux différents environnements culturels, est
recommandé pour tous les espaces linguistiques. Il serait souhaitable d’accorder une
importance similaire à chaque langue de façon à ne pas privilégier la seule langue anglaise
comme c’est actuellement le cas. Les méthodes d’intercompréhension entre langues,
susceptibles de permettre aux personnes de se comprendre alors qu’elles ne parlent pas la
même langue, sont évidemment à introduire dans l’enseignement. Dans l’éducation des
enfants, mais aussi des adultes, le rôle des langues, leur portée culturelle et philosophique par
rapport à l’ouverture aux autres et à l’histoire des civilisations, sont autant de leviers d’action.
La recherche, comme cela a été souligné plus haut, devra permettre de réaliser des avancées
au plan des méthodes d’apprentissage des langues mais aussi sur les questions liées à
l’intercompréhension, à la traduction et à l’évolution des langues. Dans le monde
contemporain soumis à l’intensité de la mondialisation des échanges et dont l’inter
connectivité ne cesse de croître sous l’effet des développements technologiques, il est
surprenant et même anormal qu’il ne soit pas accordé plus d’importance à toutes ces
questions en relation avec les langues.
La francophonie et toutes les autres aires linguistiques, ont tout à gagner au développement
des identités culturelles des peuples et à leur meilleure connaissance mutuelle. Les peuples
d’une même aire linguistique, en se connaissant mieux, y gagneront un sentiment de
confiance renforcée en l’avenir ainsi qu’un apaisement des tensions lorsqu’elles existent.
La Francophonie institutionnelle, notamment, devrait se faire un devoir d’aider toutes les
« poches » de francophonie isolée, où qu’elles se trouvent. De tels « îlots francophones »
existent en Amérique du nord (USA, Canada) mais aussi ailleurs (Brésil,…), partout où le
désir de français s’exprime. Bien entendu, cette politique de croissance suppose des outils et
des ressources.
Un certain nombre d’outils existent déjà et pourraient être renforcés et étendus par leur
mutualisation. Je pense aux Lycées français, aux Alliances françaises, aux Départements
d’études québécoises, aux Département universitaires d’études françaises, aux Filières
universitaires francophones et aux Instituts de la Francophonie gérés par l’AUF, aux bourses
de mobilités francophones etc…
Les ressources financières, actuellement insuffisantes, pourraient cependant être facilement
trouvées. Il suffirait, par exemple, que chaque Etat ou Gouvernement membre de l’OIF
contribue à l’Organisation, ce qui est loin d’être le cas aujourd’hui puisque seuls quelques
pays du Nord le font. 55 Etats versant chacun 100 000 euros par an apporteraient déjà 5,5
millions d’euros, soit l’équivalent du budget annuel réservé aux mobilités par l’AUF.
Conclusion
1
Pour finir, nous pouvons résumer la situation par un modèle planétaire qui, d’une part, serait
constitué d’un ensemble de grands marchés contrôlés par des entreprises multinationales
ayant pour objectif le profit à court terme, ces entreprises étant ainsi conduites à uniformiser
le plus possible les réactions des « consommateurs » de façon à diminuer leurs coûts de
production et d’exploitation tout en assurant une diffusion maximale de leurs produits.
D’autre part, ce modèle planétaire serait composé d’êtres humains attachés à leur personnalité
propre, à leur créativité et à leur liberté de choix, pour qui la diversité resterait un besoin vital
tout en demeurant sensibles aux effets de modes et au désir de se reproduire à l’identique. La
dynamique de fonctionnement de ce modèle hypothétique pourrait alors se résumer par
un conflit entre ces deux nécessités : la standardisation des marchés et le besoin de
diversification des personnes humaines. L’avenir dépendra donc de la capacité des êtres
humains et, notamment des Etats et Gouvernements, à contrôler ce conflit de façon à
maintenir le degré de diversité des productions humaines à un niveau compatible avec
les besoins de l’humanité…
Montréal le 8 octobre 2008
Remerciements : L’auteur remercie, Madame Michèle Gendreau-Massaloux, rectrice
honoraire de l’AUF, André Rouillon et Jean-Louis Hiribarren, Maîtres de conférences à
l’Université François Rabelais, Patrick Chardenet, Directeur de programmes délégué à l’AUF,
pour les améliorations qu’ils ont suggérées à la première version de ce texte.
1