N° 254 - Octobre 2009 ( - 3094 Ko)

Transcription

N° 254 - Octobre 2009 ( - 3094 Ko)
Bureau de dépôt Bruxelles X - Mensuel ne paraissant pas en juillet et août - 254 - Octobre 2009
ATHENA
Recherche et développement technologique
L’avion polymère
La voiture à
air comprimé
Sommaire
63
La théorie du Big Bang, plus actuelle que jamais. À l’occasion de l’année de l’astronomie, de nombreuses activités - dont une pièce de théâtre - ont été programmées un
peu partout dans le monde sur la théorie du Big Bang, telle qu’elle a été définie par
le belge Georges Lemaître. Il fut le premier à avancer l’idée révolutionnaire pour
l’époque d’un commencement de l’Univers. Des explications de Jean-Luc Léonard
72
La quête d’un vaccin thérapeutique. Le système immunitaire pourrait-il être mobilisé
76
Dépression: inflammation et neuroplasticité. Plusieurs études ont mis en évidence des
78
84
87
91
93
pour éliminer les cellules tumorales comme il élimine les cellules infectées par un
virus ou une bactérie ? Aujourd’hui, l’on sait qu’il existe des antigènes reconnus par
le système immunitaire, dont notamment les lymphocytes T, et capables d’engendrer une réponse immunitaire. Philippe Lambert nous présente les recherches
effectuées à ce sujet et leur contribution dans la lutte contre le cancer.
lésions neurologiques spécifiques de la dépression qui se traduisent notamment par
une atrophie de l’hippocampe, impliquée entre autres dans la modulation des réponses émotionnelles. Philippe Lambert en explique les différents mécanismes ainsi
que les processus inflammatoires à prendre en considération.
Histoire… d’une préférence. Tel un miroir à deux faces, une population de neurones du
striatum, les neurones striatopallidaux, joueraient un rôle à la fois dans l’activité
locomotrice et dans l’assuétude aux drogues. Suite à de récentes expérimentations,
de nouvelles solutions thérapeutiques dans le traitement de la maladie de Parkinson
et les dépendances aux drogues, se profilent à l’horizon. Un article de Philippe
Lambert.
Répertorier le savoir. Dans cette seconde partie, Christian Vanden Berghen explique
en quoi le monde digital change notre regard sur le classement et l’infinité des possibilités offertes en la matière. Les objets peuvent désormais se trouver dans plusieurs catégories, chose impossible dans le monde physique. Il expose les différents
types de classements, les avantages et les inconvénients.
L’avion polymère. Il a la taille d’un Airbus, le poids d’une voiture de tourisme et la
puissance d’un scooter. Son défi: voler jour et nuit sans carburant, uniquement grâce
à l’énergie du soleil. Mais si le projet est innovant, la plupart des matériaux utilisés
existent déjà. La difficulté a été de les adapter afin d’obtenir un avion léger, mais sûr.
C’est une présentation d’Alain de Fooz.
La voiture à air comprimé: mythe ou réalité ? Il y a la voiture à essence ou diesel. Il y a
aussi la voiture électrique. D’autres pistes non-polluantes sont depuis envisagées,
dont la très peu connue voiture à air comprimé que Michel Wautelet et Damien
Duvivier nous font découvrir ici. Les avantages sont nombreux: écologique, économique, simplicité, légèreté. Ses performances sont limitées à un usage restreint mais
c’est sans aucun doute un pas de plus dans la lutte contre la pollution.
Vous pouvez
consulter
la revue Athena
sur le site
http://recherchetechnologie.wallonie.be
Si vous désirez
un abonnement,
vous pouvez
vous adresser :
soit par courrier
Place de la Wallonie,1
Bât. III
5100 Jambes
soit par téléphone
au 081/33.44.76.
soit par courriel
à l’adresse
geraldine.tran@
spw.wallonie.be
ou encore via
le site repris ci-dessus.
Un défi pour l’humanité. Il est aujourd’hui avéré que la principale cause du réchauffe-
ment planétaire est l’émission des gaz à effet de serre induite par les activités
humaines. Paul Devuyst expose dans cet article les efforts qui devront être fournis
dans les prochaines années, efforts qui feront avant tout l’objet d’un consensus
international.
Sans oublier les rubriques :
Actualités, de Jean-Claude Quintart, pp. 55-61, et de Henri Dupuis, p. 62;
Info-Bio, de Jean-Michel Debry, pp. 67-71;
Info-Physique, de Henri Dupuis, pp. 81-83;
Astronomie, de Paul Devuyst, p. 96, et de Yaël Nazé, p. 97;
Espace, de Théo Pirard, pp. 98-102.
Athena 254 / Octobre 2009
54
Première
de couverture:
photomontage de
Nathalie Bodart.
Une idée,
une Université !
Le 20 novembre 1834, l’Université libre de Bruxelles (ULB) ouvrait sa première année académique
dans la salle gothique de l’Hôtel de ville de Bruxelles. Une initiative lancée par Pierre-Théodore
Verhaegen (1796-1862), avocat bruxellois qui souhaitait doter le jeune royaume d’une université
libre de tous les pouvoirs politiques et religieux. Une audace à l’époque dont le bien-fondé a traversé
toutes les vicissitudes rencontrées par notre pays en 175 ans !
onstruite sur l’idée du libre-examen, l’ULB
rejette tous les dogmes et arguments d’autorité.
Sur base de ce principe, «le libre-exaministe
s’engage à mettre ses paroles et ses actes en accord avec
ce qu’il tient pour vrai. Sa vérité, il a le courage de la dire
et de la défendre. La tolérance que nous proclamons est
le respect de la personne et de la liberté d’autrui». Cette
philosophie sera appliquée à la lettre. L’ULB témoignera
toujours de son esprit d’indépendance, allant même jusqu’à fermer ses portes, en 1941, afin de ne pas devoir collaborer avec l’occupant !
structurelle et fonctionnelle de la cellule. Enfin, Ilya
Prigogine (1917-2003), prix Nobel de chimie en 1977,
pour ses travaux en thermodynamique. De plus, 22 prix
Francqui, 14 prix quinquennaux du Fonds national de la
recherche scientifique (FNRS), une médaille Fields, trois
prix Wolf et deux Marie Curie Award.
C
Les prochains mois feront l’objet de manifestations diverses. Conférences, colloques, expositions, publications et
spectacles invitent les visiteurs à découvrir les multiples
facettes de ULB. Parmi les points forts: une création théâtrale fera revivre les débats philosophiques et politiques
de la période 1820-1840; la Nuit des lumières, réunira les
anciens lors d’une grande soirée au Mont des Arts, à
Bruxelles, et la semaine des Nobel durant laquelle quinze
prix Nobel dialogueront avec les chercheurs et recevront
leur insigne de Docteur Honoris Causa.
Des partenariats privilégiés
À ses débuts, en 1834, l’Université comptait quatre facultés, 38 professeurs, 96 étudiants et deux administratifs !
Aujourd’hui, elle comprend sept facultés, quatre instituts,
un hôpital académique, trois campus à Bruxelles et deux en
Wallonie. Elle emploie près de 3 500 personnes et dispense
ses cours à quelque 21 000 étudiants !
La création de la fondation ULB, consacrée à la recherche, aura pour objectif de collecter des fonds pour porter
des projets et renforcer les pôles d’excellence de
l’Université. Elle sera dirigée par le Conseil d’administration, assisté d’externes et d’un Comité scientifique
international de premier plan. «Cette fondation sera l’instrument qui nous permettra d’apporter aux chercheurs
l’environnement dont ils ont besoin pour s’épanouir»,
explique le recteur, Philippe Vincke.
Elle entretient actuellement des partenariats privilégiés
avec les plus grands noms du monde académique. Citons
l’University of California (Berkeley), l’Université de
Montréal, l’University of British Columbia (Vancouver),
la Fudan University (Shangai), le Collège de France,
l’Université Pierre et Marie Curie (Paris VI), l’Université
d’Oxford, l’Université de Cambridge et l’Université de
Waseda (Japon).
175 ans et plus que jamais tournée vers l’avenir: tel est
l’esprit de l’ULB, consciente de son rôle académique et
économique au sein de la collectivité. Pour Philippe
Vincke, «l’Université apparaît comme une communauté
de connaissances… Un ensemble d’acteurs qui met en
commun savoir et savoir-faire et les transforme collectivement au bénéfice de leurs besoins particuliers, de la
communauté et de la société en général.»
http://www.ulb.ac.be et http://www.ulb175.be
Au fil des années, les professeurs ont amassé une foule de
prix, notamment trois Nobel: Jules Bordet (1870-1961),
prix Nobel de médecine en 1919, pour ses travaux sur les
mécanismes de l’immunité; Albert Claude (1899-1983),
prix Nobel de médecine en 1974, qu’il partagea avec un
autre belge, Christian de Duve et George E. Palade (ÉtatsUnis), pour leurs découvertes concernant l'organisation
55
Athena 254 / Octobre 2009
Actualités
Construire
votre avenir
aviez-vous ce que vous vouliez devenir
à 17 ans ? Cette question reste difficile
pour la plupart des adolescents. Le 18
mars 2010, DREAM (1) propose de partager
pendant deux heures une expérience professionnelle avec des jeunes de 16 à 19 ans pour
les aider à y voir plus clair.
S
Comment aider les jeunes à entreprendre leur
avenir professionnel en devenant témoin
DREAM ? Peu d’adolescents ont déjà une idée
de leur futur métier. Ils sont souvent découragés
par le faible pourcentage de réussite dans l’enseignement supérieur et par les statistiques du
chômage, mais ils ne disposent pas toujours
d’informations correctes et de modèles positifs
pour effectuer un choix réfléchi et pertinent.
Le but de DREAM est de permettre au jeune de
faire un choix professionnel conscient. En plus
d’une réflexion outillée, le DREAM Day lui permet de rentrer en contact avec un professionnel
passionné, afin de le guider, de lui faire prendre
conscience de ses propres possibilités et opportunités et de l’inciter à prendre sa vie en main de
manière entreprenante.
Les quatre objectifs de DREAM sont: guider
les jeunes; développer chez eux des compétences; leur inculquer dynamisme et esprit
d’entreprendre; enfin, renforcer les contacts
entre les écoles et le monde professionnel.
de toutes les orientations (général, technique et
professionnel) du troisième degré du secondaire.
Vous pouvez nous aider dans cette démarche !
En tant que professionnels motivés, vous êtes
passionnés par votre secteur. En partageant
votre passion pour les métiers scientifiques, les
nouvelles technologies et la recherche, vous
ouvrez le large champ de possibilités souvent
méconnues et investissez dans l’avenir de ces
métiers.
Anne-Lise Girboux, chimiste cosmétologue
chez Dow Corning, à Seneffe, a déjà participé
plusieurs fois à l’action. Elle témoigne: «Je
garde de la rencontre un sentiment très positif
car elle fut interactive et le groupe était intéressé. J'ai voulu partager avec eux le genre
d'informations que je n'ai pas eu la chance
d'avoir à leur âge.»
Le prochain DREAM Day aura lieu le 18 mars
2010. Pendant deux heures, professionnels et
jeunes auront ainsi l’occasion de se rencontrer
pour discuter, comprendre, expliquer et découvrir une expérience enrichissante pour les deux
parties !
Inscriptions et informations sur
http://www.dreamday.be Christine Évrard:
Téléphone: 02/739.38.70. ou
[email protected]
Depuis 11 ans, 115 000 jeunes ont participé à
DREAM ! La raison de ce succès tient au fait
que le projet répond à un besoin qui se fait sentir aussi bien au niveau de l’enseignement qu’à
celui des entreprises. Beaucoup ont du mal à se
faire une idée de leur avenir professionnel, tandis que de nombreuses entreprises et organisations (hôpitaux, instituts de recherche) éprouvent des difficultés à trouver des collaborateurs
fiables et tentent de faire connaître leur secteur
et leur entreprise de manière positive auprès des
futurs candidats à l’emploi. Chaque année,
DREAM rassemble 6 000 jeunes et 300 professionnels wallons: les élèves, en petits groupes,
se rendent sur le lieu de travail du professionnel
choisi. Ceux-ci sont issus de tous les réseaux et
Athena 254 / Octobre 2009
56
(1) Projet destiné
aux jeunes de 16 à
19 ans et à leurs
professeurs.
L'objectif de
DREAM est d'aider
les jeunes à
construire leur
avenir
professionnel sur
base de leurs
talents, de leurs
passions et de
leurs rêves. Car
«la passion, c'est le
plus beau métier
du monde».
Actualités
Les brèves...
Les brèves...
co et rien d’autre ! Parler vert, c’est bien !
agir c’est mieux. Si notre région n’est pas
en reste dans le domaine de l’écologie, la
province de Namur vient de franchir un pas de
plus en lançant un parc d’activités dédié uniquement à l’éco-construction. Une première
initiée par le Bureau économique de la province
de Namur (Bep) à qui la Wallonie doit déjà le
parc Créalys©, consacré aux sciences du
vivant, aux technologies de l’information et de
la communication et à la qualité. Et, c’est justement le succès de ce parc à thèmes qui a poussé
le Bep à développer Ecolys©, parc centré sur la
thématique de l’éco-construction. Dans cette
perspective, Namur capitalise les atouts en
matière de développement durable avec Énergie
et Habitat qui organise le salon éponyme tous
les deux ans et la présence de deux clusters:
Éco-Construction: http://www.ecoconstruction.be et
Cap 2020: [email protected]
É
Ecolys© sera situé dans le prolongement de la
zone industrielle de Namur-Nord-Rhisnes. Un
parc, trois zones, tel est le concept retenu par les
promoteurs. Il comprendra une zone de services, véritable vitrine de l’éco-construction, une
zone industrielle et une zone mixte. Au-delà de
sa fonction première, Ecolys© entend servir
d’exemple dans la manière dont seront conçues
les zones industrielles de demain. Le parc sera
situé à quelques centaines de mètres de la gare
de Rhisnes, desservie par les bus des Transports
en commun (Tec). La gestion des ordures s’intégrera quant à elle, dans un système de gestion
environnemental. Bref, une initiative à suivre et
dont on reparlera certainement dans les prochains mois. http://www.ecolys.be
La société Iris surfe plus que
Ide jamais
sur les succès. Après avoir remporté
nouvelles références commerciales lors des
ris à la Fnac !
trimestres écoulés, Iris annonce aujourd’hui
qu’elle collabore avec le site FNAC.com pour le
lancement d’une action spéciale «bundle» sur le
thème de la gestion documentaire.
Pour présenter des paquets attractifs sur le plan
prix et technologies, FNAC.com a décidé de coupler une large panoplie d’imprimantes/scanners
des plus grandes marques avec Readiris™ Pro
12, la dernière version du logiciel de reconnaissance de texte d’Iris. En effet, ce produit répond
tant aux attentes de gestion documentaire des
professionnels que des particuliers. Il permet
notamment de gagner un temps considérable
lors de la conversion de tout document papier,
Pdf ou image en fichiers numériques pouvant
être ensuite édités, partagés et sauvegardés.
Avec ce contrat, Iris grimpe encore d’un cran !
«Cette offre nous permet d’asseoir davantage
notre position dans le canal retail français. Un
réseau dont nous sommes particulièrement heureux du très fort développement. Ce succès
récompense tous les efforts entrepris cette
année pour étendre nos partenariats avec les
leaders de l’Hexagone. Grâce à cette position,
nous continuerons à offrir de nouveaux produits
toujours plus innovants avec l’ambition de rester le leader incontesté en solutions de numérisation mobiles en France, Europe, MoyenOrient et Afrique», déclare Bernard de Fabribeckers, directeur des ventes d’Iris.
L'agriculture bio
fixe rendez-vous
à Bio-Eglantine,
au Hall des
expositions
de La Louvière,
les 14 et 15 novembre.
http://www.natpro.be
Lancé par de bonnes technologies, un excellent
plan d’affaires et le soutien de la Région wallonne, Iris est désormais la référence lorsqu’il
s’agit d’accroître la productivité et les connaissances des entreprises grâce une meilleure ges-
Le temps passe vite
ynamisme fête ses 20 ans. «Lancer un magazine comme Dynamisme comme l’a fait
l’un de mes illustres prédécesseurs il y 20 ans était un projet fou. 20 ans déjà et
encore pour au moins 20 ans», déclare avec enthousiasme Eric Domb, président de
l’Union wallonne des entreprises (Uwe). En 20 ans, Dynamisme n’a cessé de mettre en
exergue les succès wallons, d’informer ses lecteurs sur les législations, les nouveautés
technologiques utiles aux entreprises.
D
Ainsi, quelques années à peine après son lancement, Dynamisme s’est imposé comme
la référence en matière d’informations entrepreneuriales. Aujourd’hui plus que
jamais, Dynamisme se veut au service de l’entreprise face aux aléas d’une basse
conjoncture. Présenter des pistes, des idées, donner des informations pertinentes
quant aux problèmes économiques actuels, voilà comment se profile Dynamisme. Sa
devise: l’entreprise par ceux qui la font. Un slogan qui en dit long sur la qualité du
rédactionnel offert par cette revue, l’un des bras de levier de l’Uwe.
http://www.uwe.be
57
Athena 254 / Octobre 2009
Actualités
tion des documents, données et informations.
Actuellement Iris emploie plus de 600 personnes réparties entre son quartier général de
Louvain-la-Neuve, Vilvorde et Anvers, Orly
(France), Windhof (grand-duché du Luxembourg), Amstelveen et Maastricht (Pays-Bas),
Aachen (Allemagne), Delray Beach (Floride),
Hong-Kong et enfin Oslo (Norvège). En 2008,
Iris a réalisé un chiffre d’affaires de 109,3
millions d’euros. http://www.irislink.com
ler dans un espace de quelque 400 m², l’usage
de salles, de tous les logiciels Microsoft, l’utilisation des serveurs du Mic, un accès Internet à
100 MB et 1 GB pour les applications IP TV.
500 euros sont demandés, mais des bourses
peuvent être accordées aux étudiants et entreprises en phase de création.
http://www.mic-belgique.be
. Le professeur
D
Thierry Grisar, de l’Université de Liège
(ULg) et ses partenaires américains, viennent de
écouverte prometteuse
Alors
V
c’est le moment d’adresser votre projet au
Microsoft Innovation Center, plus connu sous
ous avez des idées en informatique.
Les 21 et 22 octobre
se tiendra
à la Foire
internationale
de Liège,
le Forum des
Entrepreneurs by
Initiatives.
Infos sur ce salon
du service et
du conseil
aux entreprises :
http://www.enjeu.be
Mic. En effet, depuis le début septembre et jusqu’à la mi-novembre, le Mic organise, dans ses
installations du parc Initialis de Mons, une session pour les porteurs de projets innovants
concernant les technologies de l’information et
de la communication (Tic). Ce camp de lancement s’adresse à tout entrepreneur, inventeur,
étudiant, porteur d’un projet Tic orienté sur,
entre-autres, l’e-santé.
À l’occasion de cette période dite bootcamp, les
candidats disposeront de moyens pour peaufiner ou améliorer encore leur projet, le faire
grandir dans un certain nombre de dimensions.
La formation s’appuie sur une dizaine d’ateliers, vers les compétences de la Maison de
l’entreprise (LME) avec des formateurs experts
indépendants.
Ensuite, le Mic et ses partenaires mettent à
disposition un ensemble de ressources pour
pousser le projet durant le bootcamp. Citons la
possibilité pour le porteur de projet de s’instal-
publier dans Nature Neurosciences les propriétés
du gène EFHC1 ou myoclonine dont certaines
mutations sont à l’origine d’un syndrome épileptique fréquent: l’épilepsie myoclonique ou syndrome de Janz. Ce nouveau gène est identifié
comme jou-ant un rôle régulateur important dans
la division cellulaire et la migration des neurones
corticaux du développement précoce du cerveau.
Plus concrètement, les chercheurs montrent que
le gène EFHC1 code une protéine qui, en se
fixant sur des microtubules, participe au contrôle de la migration neuronale précoce lors du
développement cérébral. «Notre hypothèse est
de considérer désormais ce syndrome épileptique décrit dans le passé comme non lésionnel,
mais résultant en fait de micro-dysgénésies
dues à des troubles subtils intra-cortical. Cet
exemple pourrait d’ailleurs s’appliquer à d’autres pathologies plus sévères du système
nerveux, comme la schizophrénie», explique
Thierry Grisar.
Pour rappel, l’épilepsie myoclonique qui touche
l’adolescent est une des formes les plus fréquentes d’épilepsies généralisées idiopathiques.
Si les facteurs génétiques jouent un rôle important dans le développement de la maladie, associée à des altérations subtiles de l’architecture
corticale et sub-cortical, en revanche, le mécanisme pathologique sous-jacent demeure toujours largement méconnu.
http://www.nature.com et [email protected]
Le 3 septemP
bre dernier, l’Université catholique de
Louvain (UCL) a signé, avec AGC Glass
artenariat entreprise-université.
Europe une convention de partenariat en vue de
soutenir la mobilité des étudiants ingénieurs.
Selon les termes de l’accord, dix bourses permettront aux étudiants en masters belges et
étrangers d’effectuer des stages académiques à
l’UCL ou dans des universités étrangères. Ces
bourses visent en priorité les étudiants se spécialisant dans des disciplines liées aux activités
du groupe AGC, à savoir le développement de
procédés et produits verriers en phase avec le
défi climatique et l’éclairage du futur.
Athena 254 / Octobre 2009
58
Actualités
Agissant dans le cadre de sa politique Corporate Social Responsability (CSR), AGC Glass
Europe mise ainsi sur l’éducation et la formation dans des domaines scientifiquement affectés par un déficit d’intérêt et d’image. Pour
Jean-François Heris, président et administrateur
délégué d’AGC Glass Europe, «dans une
optique d’ouverture sur l’Europe, cette action
entend contribuer à la valorisation des métiers
industriels tournés vers l’innovation. Par l’offre
de stages en entreprises, elle apporte par
ailleurs le complément nécessaire à la formation académique des jeunes talents.»
Innovation et excellence opérationnelle sont à
la base des valeurs d’AGC Glass Europe, qui
produit, chez nous et dans le monde, du verre
plat pour la construction et les industries spécialisées. Premier producteur de verre plat au
monde, le groupe s’attache, avec son centre de
R&D de Jumet (Charleroi), à préparer les produits verriers haute technologie de demain.
http://www.agc-flatglass.eu
. Intégrateur de serN
vices dans les Technologies de l’information et de la communication (Tic), le Win vient
ouveau succès pour le WIN
de se voir confier le projet d’équipement en
Wireless LAN Haut débit du Centre hospitalier
Hornu-Frameries, près de Mons. Au programme: installation d’antennes Wifi et, à tous
les étages, d’une technologie Tic parmi les plus
récentes et les plus innovantes. Grâce à celle-ci,
le personnel de l’hôpital travaillera en réseau et
échangera des données, même très importantes,
dans un niveau optimal de confort et de sécurité
en accord avec le traitement de l’information
médicale.
Sur le plan pratique, les médecins et le personnel
consulteront le dossier des patients ou toute
information nécessaire à leurs traitements depuis
la chambre d’hôpital via un ordinateur portable
relié au système central de données. Par la suite,
le système pourra également offrir un accès
Internet aux patients sur simple délivrance d’un
code d’entrée individuel. Évitant les travaux de
câblage onéreux, ce projet apporte au Centre
hospitalier Hornu-Frameries une réponse concrète aux besoins croissants de mobilité. Il
confirme aussi la parfaite maîtrise du Win en
matière de développement et d’implémentation
de projets complexes. http://www.win.be
. C’est à Bruxelles,
A
dans les locaux de la Haute école Léonard
de Vinci, que s’est tenue la 4 édition de l’Accu
contrer d’autres utilisateurs et développeurs
tout en découvrant ce que sera demain la plateforme Claroline. Est-il encore utile de rappeler
que Claroline est une plate-forme Open Source
qui permet, actuellement, à des centaines d’institutions dans quelque 95 pays, de créer gratuitement des espaces de cours en ligne. Via cette
solution, chaque formateur dispose d’outils lui
permettant, par exemple, de rédiger la description d’un cours, de publier des documents sous
différents formats, d’élaborer des parcours pédagogiques, de composer des exercices, de proposer des travaux à remettre en ligne... Ces atouts
combinés à une grande souplesse, expliquent
pourquoi cette plate-forme est utilisée non seulement pas les écoles et universités mais également
par des centres de formation, des associations et
même des entreprises. D’où le développement
d’une version 2, complètement intégrée au Web
2.0, qui fera de Claroline l’une des meilleures
plates-formes techniques et techno-pédagogiques de l’univers Open Source.
Energie+
Le salon
des économies
d'énergie
fixe rendez-vous
à ses visiteurs
au Wex de
Marche-en-Famenne,
du 13 au 15 novembre.
http://www.mapcom.be
Durant trois jours, les participants ont non seulement fait le point sur leur outil et son devenir,
mais ils se sont également penchés sur la
manière d’enseigner avec l’aide des Technologies de l’information et de la communication
(Tic). Ils ont tenté de répondre à la question qui
leur est fondamentale: comment arriver à des
espaces de cours générateurs de valeur ajoutée
durant l’apprentissage ? Bref, tout un programme qui, loin d’être épuisé, fera certainement la Une de la conférence Accu 2010, qui se
tiendra à Rimouski, dans les locaux de l’Université du Québec. http://www.claroline.net
pprendre via l’Open Source
e
ou Annual Conference of Claroline Unsers.
Extrêmement enrichissante, cette manifestation
a été l’occasion pour chaque participant de ren-
pour Innovatech qui entend
N
de la sorte être encore plus proche de la
réalité des besoins des entreprises wallonnes en
ouveau site Web
matière d’informations. Par exemple, sous l’on-
59
Athena 254 / Octobre 2009
Actualités
glet Innovation, le surfeur découvrira et téléchargera gratuitement des fiches conseils sur tout
processus d’innovation technologique. Le nouveau site passe également en revue les actualités,
les métiers, les services, les conditions, les événements et les formations d’Innovatech. D’une
navigation conviviale, ce site est incontournable
à celles et ceux qui font de l’innovation la stratégie essentielle de leur raison sociale.
Soutenu par la Région wallonne et le Fonds
social européen (FSE), Innovatech aide les porteurs de projets de petites et moyennes entreprises wallonnes (Pme). Au-delà de cette activité,
l’entreprise se profile aussi comme le communicateur des Pme en se tenant à leur disposition
pour les orienter vers les acteurs de l’innovation
technologique en Wallonie: centres de recherche, laboratoires universitaires, entreprises hi-tech et acteurs de l’intermédiation scientifique membres de son
réseau. En bref, Innovatech s’active
sans ménagement à rendre les entreprises wallonnes plus innovantes pour
qu’elles deviennent encore plus compétitives ! http://www.innovatech.be/
,
«Les
Lcera transports
du futur», se déplaà la Maison Folie, à Mons, du
’exposition
ittinérante
30 janvier au 14 février 2010, dans
le cadre de l'opération «Penser le
futur». Cette exposition est également mise à la disposition des
centres culturels et des écoles qui
le désirent. Elle est organisée avec le
soutien du Service public de
Wallonie. Des activités (conférences,
animations, démonstrations, etc.)
autour du thème de l'exposition seront
organisées. Un livret accompagnera
cette manifestation.
Contact: [email protected]
Il tue encore un enfant
S
toutes les 30 secondes en Afrique ! Et
pourtant, cette maladie est oubliée dans la fouus au paludisme !
lée de nos préoccupations légitimes à l’égard
de la grippe A(H1N1). Aussi, pour pallier cette
situation, la société wallonne Propharex, de
Courcelles, près de Charleroi, a décidé de
créer un nouveau générique plus efficace dans
cette lutte contre le fléau qu’est toujours le
paludisme. Et le moins qu’on puisse dire est
que la Pme a fait réellement preuve d’originalité dans sa démarche.
En effet, se référant aux dosages préconisés
par l’Organisation mondiale de la santé
(OMS), en prise unique, Propharex a élaboré
Athena 254 / Octobre 2009
60
un premier comprimé tricouche le Trimalarex
400 mg: la première couche contenant 400 mg
de chlorhydrate d’amodiaquine, la seconde un
placébo et la dernière 100 mg d’artesunate. Via
cette structure tricouche, la société sépare les
deux principes actifs incompatibles entre eux
par une couche placébo, supprimant toutes les
interactions de surface entre les principes
actifs, entraînant de la sorte une meilleure stabilité. À noter, qu’un second comprimé tricouche, le Trimalarex 100 mg a été développé à
l’intention des nourrissons et petits enfants.
Le Trimalarex offre de nombreux avantages.
Tout d’abord, sa formule tricouche utilise une
technologie complexe difficilement falsifiable.
La solution fait appel à du chlorhydrate
d’amodiaquine au lieu de l’amodiaquine base,
ce qui apporte une meilleure solubilité au principe actif d’où une bonne biodisponibilité. La
combinaison galénique des excipients permet
une dégradation du comprimé en moins de
trois minutes. Enfin, avec sa forme oblongue
biconcave, le comprimé est très facile à avaler.
Concrètement, il ne s’agit pas d’une simple
copie d’un brevet rentré dans le domaine
public mais d’un nouveau médicament associant les principes actifs de deux molécules
jusqu’à présent peu compatibles. Né en 1998,
Propharex comprend deux pôles d’activité:
l’ingénierie et le pharmaceutique. Au niveau
Une vieille maladie !
Déjà connu en Chine en l’an 186 avant Jésus-Christ, le
paludisme ou malaria est aujourd'hui l'une des trois
maladies les plus importantes de l'Afrique, avec le
sida et la tuberculose. On estime que deux milliards
de personnes sont exposées et 300 à 500 millions de
personnes déjà victimes de la maladie avec de 1,5 à
2,7 millions de décès par an !
Responsables de la maladie, les parasites plasmodium sont transmis par la piqûre d'un moustique
femelle appelé anophèle. Les parasites injectés par
le vecteur moustique migrent rapidement, via la circulation sanguine vers le foie. Là, le parasite se
divise pour donner très rapidement, dans des conditions propices, des dizaines de milliers de nouveaux
parasites.
Les symptômes sont très divers. La maladie débute
par une fièvre huit à trente jours après l'infection qui
peut s'accompagner de perte d'appétit, fatigue
généralisée, vertige, céphalée, vomissement, diarrhée, tremblement, etc.
Actualités
de son pôle ingénierie, Propharex conçoit des
usines modulaires pour l’industrie pharmaceutique (salles blanches aux normes internationale de l’OMS et Good Manufacturing
Practices), l’industrie cosmétique et l’agroalimentaire. S’ajoutent de l’assistance technique (expertise pour production locale, formation et gestion) et de la logistique (centrale
d’achat). Avec le pôle pharmaceutique,
Propharex développe des produits pharmaceutiques et cosmétiques, fabrique des produits
propres ou à façon, assure de la logistique,
commercialise des produits et forme des
clients du pôle ingénierie.
Aerofleet, l'artisan des composites
a Pme familiale Aerofleet (http://www.aerofleet.be), au cœur du village de
Soumagne, sur le plateau de Herve, s'est spécialisée dans la fabrication «sur
mesure» de structures en matériaux composites: coques de bateaux, coupoles pour
télescopes, piscines aux formes diverses…Elle est par ailleurs réputée dans le monde
entier pour son procédé de thermolaquage des surfaces métalliques les rendant à la
fois esthétiques et résistantes à la corrosion. Celui-ci consiste à revêtir les métaux avec
de la résine thermodurcissable (polyester ou époxy) par poudrage électrostatique et
cuisson à 190 °C.
L
En 2008, l’entreprise a réalisé un chiffre d’affaires de 2,6 millions d’euros. Actuellement,
elle occupe 23 personnes, hautement qualifiées. Le développement du Trimalarex devrait
permettre d’engager cinq personnes par an. Le
secteur pharmaceutique wallon conforte une
position déjà bien établie. Avec ce succès, la
Région confirme, une fois de plus, sa volonté
d’investir dans les secteurs qui composeront
l’avenir. Plus d’infos: [email protected]
L
e prix Triennal Jean Teghem a été attribué à
l'astrophysicienne Yaël Nazé, pour ses activités de vulagrisation. Collaboratrice au magazine Athena, Yaël Nazé donne des conférences
grand public et est aussi l’auteure de nombreux
ouvrages, notamment, en cette année internationale de l’astronomie: Histoire du télescope,
Vuibert; Astronomie des anciens, Belin; Cahier
d’exploration du ciel, Réjouisciences.
http://www.astro.ulg.ac.be/~naze/
http://www.astro.ulg.ac.be/%7Enaze/
4000 euros en espèces ! Voilà le
À
montant du prix annuellement décerné par
le RI Europlanet en reconnaissance à l'excelne pas rater.
Raphaël et Marc Van Vlodorp, les créateurs d'Aerofleet, ont surtout développé l'emploi
des composites dans la construction artisanale (aménagement intérieur) de bateaux
performants, sous la forme de monocoques (Endurance-38, Aero-660) et de catamarans
(Aero-45). Dans la famille Van Vlodorp, on a le pied marin et on est passionné de navigation de plaisance. Aerofleet avait besoin d'un port fluvial pour y tester ses produits.
La société s'est donc installée sur les bords de Meuse, à l'entrée de Givet. À 1 km de la
Belgique, elle vient de construire un superbe bâtiment pour réaliser les coques, assembler et aménager les navires, effectuer des réparations et procéder à des améliorations. Cette infrastructure devait être inaugurée ce 10 octobre en présence des autorités de Givet et de Champagne-Ardenne.
La famille a un autre projet, en Suisse cette fois, sur le Lac Léman. Aerofleet a en effet
conçu un frein de bôme très sécurisé qui permet la délicate manœuvre d'empannage
(passage de la voilure d'un côté à l'autre) sans encourir de dommages matériels ni de
risques corporels. Breveté sous le nom d'Aero-bôme, en cas de succès, il sera produit
dans un atelier à construire près de Saint-Gingolph.
lence de la communication grand public de la
science planétaire par un individu ou une institution. Le dossier de candidature, téléchargeable, doit être renvoyé avant le 11 janvier 2010.
ne exposition scientifique organisée par
l’asbl Science et Culture, en collaboration
avec les départements de physique et de chimie de l’Université de Liège (ULg) et avec le
soutien de la Région wallonne, se tiendra du
12 au 30 octobre et du 9 au 20 novembre, sur
le site du Sart Tilman de l’ULg. Des expériences extraordinaires, adaptées aux élèves des
deux dernières années de l’enseignement
secondaire, seront présentées par des scientifiques de l’ULg. Plus d’infos sur
http://www.sci-cult.ulg.ac.be/Expo2009.html
U
Le RI Europlanet octroie également des fonds
pour de petits projets novateurs favorisant la
science planétaire en Europe. Ouvert à toutes et
à tous, y compris les organismes de recherche,
les associations, les musées, etc. à l'exception
des projets d'éducation formelle, les bourses
varient de 5 000 à 15 000 euros.
Informations sur le prix et les bourses:
http://www.europlanet-eu.org/demo/
La réservation est indispensable
par téléphone au 04/366.35.85.
De 9h30 à 12h30 et de 13h30 à 17h.
Jean-Claude QUINTART
[email protected]
61
Athena 254 / Octobre 2009
Actualités
Comprendre le
réchauffement climatique
ans la foulée de C’est notre Terre !, exposition
qui a connu un imposant succès à Bruxelles l’an
dernier, en voici une nouvelle, C’est notre Terre
2 !, consacrée au réchauffement climatique. À visiter
pour comprendre les enjeux du prochain sommet de
Copenhague.
Copenhague, à travers un échiquier dont les cases s’animent pour présenter la position de certains protagonistes.
Puis, vient un rappel de ce qui a déjà été fait, tant au
niveau scientifique que politique dans la lutte contre le
réchauffement climatique depuis un siècle environ. C’est
ensuite à lui d’agir et de prendre conscience de la difficulté de s’engager collectivement, au niveau des États ou
des entreprises. Il sera en effet appelé à se prononcer sur
l’opportunité de diverses solutions: la taxe carbone, le
développement ou non de l’énergie nucléaire, le permis
de polluer, etc. Chacun pourra voter à propos d’arguments qui seront proposés en faveur ou défaveur de ces
solutions. Enfin, il pourra établir son propre bilan
d’émissions de gaz à effet de serre et surtout, prendre des
engagements pour le réduire à travers des actes quotidiens très simples qui ne diminuent en
rien son confort de vie.
D
En décembre prochain, des représentants de presque tous
les pays du monde se réuniront au Danemark pour décider de nouveaux engagements à prendre en matière de
réduction des gaz à effet de serre. L’enjeu est important
car il demande que l’on saisisse toutes les occasions pour
s’informer sur le processus de changement de notre climat actuellement en cours.
L’exposition C’est notre Terre 2 !, de
Kyoto à Copenhague est une bonne introduction au sujet, mêlant parcours scientifique et artistique. Le parcours scientifique fait appel à toutes les ressources de
la muséologie moderne: multimédias,
interacativité, jeux, films, textes, mettant
en œuvre tous les sens. Quant au parcours
artistique, il permet de découvrir le regard
que des artistes contemporains posent sur
le réchauffement climatique.
Tout au long du parcours, approches
scientifiques et œuvres d’art alternent au
point que le public visite deux expositions en une. Ce n’est pas là simple artifice, encore moins une coquetterie gratuite. La science et l’art étant deux
manières de saisir le monde, de le rendre
lisible, l’exposition a recours aux deux.
Conçu pour structurer un parcours cohérent, se répondant l’un à l’autre et se
complétant l’un l’autre, le mélange des
genres s’avère formidablement efficace
Le temps qu’il fait
Après un prologue qui montre les menaces
dues au réchauffement climatique pesant
sur la biodiversité, le visiteur, à travers des
expériences simples de physique ou la
vision de films d’animation, est amené à découvrir l’effet
de serre naturel, son fonctionnement et son importance
pour notre climat. C’est l’effet de serre vital, celui sans
lequel la vie telle que nous la connaissons aujourd’hui ne
se serait sans doute pas développée. Dans un second
espace, il en apprendra davantage sur les gaz à effet de
serre d’origine anthropique cette fois, ceux que nos activités les plus diverses produisent: la consommation
d’énergie fossile surtout, ainsi que l’agriculture, l’élevage
et certains processus industriels.
Cette nouvelle exposition, C’est notre
Terre 2 !, prend place après les deux
premiers espaces de la précédente C’est
notre Terre ! - Le temps de la Terre, Le temps des
Hommes -, que le public peut (re)visiter gratuitement. Ils
constituent en effet une base commune à toutes les déclinaisons du thème «développement durable». Cette nouvelle exposition a été conçue dans le même esprit que la
précédente: humanisme, foi dans le progrès et refus de
toute culpabilisation. À Bruxelles, site de Tour et Taxis,
jusqu’au 28 mars 2010. http://www.expo-terra.be
Après avoir pris connaissance de ce que sont les gaz à
effet de serre et les causes de leurs émissions, le visiteur
découvre tout d’abord les enjeux du sommet de
Athena 254 / Octobre 2009
Henri DUPUIS
[email protected]
62
La théorie du Big Bang,
plus actuelle que jamais
Pour les passionnés de science, 2009 est à la fois l’année Darwin et l’année de l’astronomie.
On célèbre l’origine des espèces vivantes et l’observation de l’Univers. C’est aussi
l’occasion de rappeler l’œuvre de celui qui fut le premier à ébaucher une théorie de l’origine
de l’Univers. Connue aujourd’hui sous le nom de Big Bang, elle a été formulée
dès 1927 par Georges Lemaître, un physicien, mathématicien et prêtre originaire de Charleroi
é le 17 juillet 1894, d’une famille bourgeoise du pays noir, Georges Lemaître
révèle une intelligence brillante dès les
humanités gréco-latines, qu’il termine avant son
16e anniversaire, au collège des Jésuites de sa
ville natale. Après une «spéciale math», il entreprend des études d’ingénieur interrompues en
1914 par la guerre, qu’il vit comme engagé
volontaire dans l’artillerie. Après l’Armistice, il
reprend des études de sciences physiques et
mathématiques, à l’Université de Louvain
(UCL), qui lui valent un doctorat en 1920, puis
un programme de formation religieuse accélérée,
réservé aux vocations tardives, au séminaire de
Malines où il est ordonné prêtre en 1923.
N
Une nouvelle vision de l’Univers
Georges Lemaître part ensuite pour l’Angleterre et les États-Unis, où il rencontre les plus
grands astronomes de son temps. Il fait la
connaissance d’Albert Einstein, auteur de la
relativité générale, dont il exploite les équations au-delà de ce que leur auteur avait imaginé. Nommé chargé de cours à l’UCL en
1925, il obtient en 1927 un titre de PhD
(Doctor of Philosophy), au Massachusetts
Institute of Technology (MIT). La même année,
il publie dans une revue scientifique de
Bruxelles, un article où il décrit l’Univers en
expansion sous le titre: «Un Univers homogène
de masse constante et de rayon croissant rendant compte de la vitesse radiale des nébuleuses extra-galactiques».
«C’est sa première intuition géniale, explique le
professeur Dominique Lambert des Facultés universitaires Notre-Dame de la Paix de Namur et
de l’UCL, meilleur connaisseur de la vie et de
l’œuvre de Georges Lemaître. Il a appris, en rendant visite à l’astronome américain Edwin
Hubble au tout nouvel observatoire du Mont
Wilson, en Californie, que la plupart des objets
célestes ont une couleur décalée vers le rouge, ce
qui indique qu’ils s’éloignent (les objets qui se
rapprochent étant décalés vers le bleu). Il établit
alors, en vertu de la relativité
générale, une relation à
laquelle personne ne pouvait
croire à l’époque.» Il est
d’ailleurs remarquable que,
dans cette note de 1927,
Lemaître propose une formulation anticipée de la loi de
Hubble qui sera publiée
quelques années plus tard et
qui dit que la plupart des
galaxies de l’Univers s’éloignent les unes des autres à une
vitesse d’autant plus grande
qu’elles sont éloignées.
En 1931, en réaction à
Eddington qui refusait de
donner un statut physique à la
notion de commencement de
l’Univers, Lemaître rédige
pour la revue Nature, un bref
article qui, sous un nom
quelque peu nébuleux («The beginning of the
world from the point of view of quantum
theory»), explique, en résumé, que l’Univers a
une histoire, que la matière dont il est fait
devait être présente au départ, sous la forme
d’un unique quantum, mais que son évolution
n’était pas écrite d’avance «comme une chanson sur le disque d’un phonographe». Cette
conception du monde allait être, trente ans plus
tard, au cœur de la pensée d’Ilya Prigogine,
physicien de l’Université libre de Bruxelles
(ULB) et prix Nobel de chimie, pour qui la
«flèche du temps» est une donnée capitale de la
cosmologie.
63
Georges Lemaître
a construit
les fondations
de la théorie
du Big Bang
en passant
au crible
les observations
astronomiques
de la relativité
générale.
Athena 254 / Octobre 2009
Actualités
Attention: l’expansion de l’Univers ne signifie
pas que les galaxies se dispersent dans l’espace.
Nous sommes dans un espace qui s’élargit et
qui entraîne dans ce mouvement les galaxies
qui le peuplent. Elles sont comme des raisins
secs dans un gâteau qui gonfle à la chaleur du
four. Si les raisins s’éloignent les uns des autres,
c’est parce que l’ensemble du gâteau grossit. Et
Lemaître, audacieux, fait un pas conceptuel de
plus: si l’Univers est en expansion, c’est qu’il a
été auparavant plus condensé. En «rembobinant
le film» de l’expansion, on arrive donc forcément au début de cette expansion, à un moment
où l’Univers est dans un état très dense qu’il
appelle l’atome primitif. «Nous pouvons concevoir, écrira-t-il plus tard, que l’espace a commencé avec l’atome primi-tif et
que le commencement de l’espace
a marqué le commencement du
temps.»
La création du monde
«C’est sa deuxième grande intuition», dit Dominique Lambert.
C’est l’idée d’une singularité
initiale, d’un commencement du
monde. Une idée plus révolutionnaire encore que l’expansion de
l’Univers car, dans les années
1930, les esprits sont encore
nourris de la vision philosophique
classique de l’Univers, conçu
comme éternel et immuable.
L’idée d’un commencement
paraît aussi trop proche de la
conception religieuse de la création du monde pour être scientifiquement crédible.
Dominique
Lambert
a beaucoup écrit
sur la vie et
l’œuvre de
Lemaître.
Voir sa
bibliographie
complète à
l’adresse:
http://fr.wikipedia.
org/wiki/
Dominique_Lambert
Eddington, en particulier, trouve cette notion
«répugnante». Le chanoine Lemaître pouvait
évidemment paraître suspect à cet égard, bien
qu’il se soit efforcé, avec constance, de séparer
son travail scientifique de sa foi chrétienne. Il
écrit en 1936, dans un rapport destiné à un
congrès catholique à Malines, que le chercheur
chrétien «fait abstraction de sa foi dans sa
recherche, non pas parce que sa foi pourrait
l’encombrer, mais parce qu’elle n’a directement
rien à faire avec son activité scientifique.»
Il y a, aujourd’hui encore, des intégrismes qui
considéreraient une telle position comme
blasphématoire. Et que dire de cette autre
tirade, extraite de la conclusion d’un exposé de
sa théorie de l’atome primitif: «La Science n’a
pas à capituler devant l’Univers et quand
Pascal essaye de déduire l’existence de Dieu à
partir de l’infinité supposée de la Nature, on
peut penser qu’il ne s’engage pas dans la bonne
Athena 254 / Octobre 2009
64
direction. Il n’y a pas de limitation naturelle à
la puissance de la pensée. L’Univers ne fait pas
exception. Il n’échappe pas à son emprise.»
L’Inquisition avait condamné des gens à mort
pour beaucoup moins que cela.
La troisième grande intuition de Lemaître, issue
d’une controverse jamais résolue avec Albert
Einstein, est la constante cosmologique. Cette
constante avait été introduite par Einstein pour
assurer la stabilité de l’Univers dans ses équations de la relativité générale. Lemaître et d’autres l’avaient finalement convaincu que
l’Univers était en mouvement, donc instable, et
Einstein avait alors renié cette constante cosmologique, la qualifiant même de «plus grande
erreur de sa vie». Mais Lemaître tenait à la
conserver, lui, cette constante. Non pour stabiliser l’Univers, mais pour lui permettre au
contraire de poursuivre son expansion.
Il concevait cette expansion en trois phases: une
phase d’expansion décélérée après le Big Bang,
suivie d’une phase quasi statique durant
laquelle l’évotion de l’Univers semble stagnée
hésitant entre expansion et contraction, puis
d’une troisième phase d’accélération dans
laquelle nous nous trouvons aujourd’hui. Cette
accélération exigeait, dans l’esprit de Lemaître,
«l’intervention d’une force de répulsion qui ne
devient vraiment active qu’à grande distance»,
explique Dominique Lambert, «car sous la
constante cosmologique, il y a cette force de
répulsion liée à ce que l’on appelle plutôt
aujourd’hui l’énergie du vide. Un vide qui, en
théorie quantique des champs, ne signifie pas
qu’il n’y a rien», précise-t-il. Lemaître confirmait ainsi l’intuition - déjà exprimée dans sa
lettre à Nature de 1931 - de l’importance des
phénomènes quantiques.
Un triomphe posthume
La cosmologie de Lemaître, très en vogue dans
les années 1930, lui vaudra de recevoir la plus
haute distinction scientifique belge, le prix
Francqui, en 1934, et d’être nommé Associate
Fellow de la Royal Astronomical Society of
London, en 1939. Après la guerre 40-45, ayant
survécu au bombardement qui a détruit son
appartement à Louvain, il publie une synthèse
de ses travaux sous le titre L’hypothèse de
l’atome primitif. Nommé doyen de la Faculté
des sciences de l’UCL en 1948, il se passionne
alors pour le calcul numérique et devient un des
pionniers de l’informatique en Belgique. Il intégrera l’Académie pontificale des Sciences, dont
il sera nommé président six ans avant sa mort,
en 1966, des suites d’une leucémie. Entretemps, son hypothèse cosmologique avait
connu une longue éclipse, au profit de la théo-
Actualités
rie d’un Univers stationnaire, défendue par les
Britanniques Fred Hoyle, Tom Gold et
Hermann Bondi.
Mais peu de temps avant sa mort, Lemaître
avait eu la joie d’apprendre, par son fidèle assistant Odon Godart, que deux physiciens américains de la Bell Telephone, Arno Penzias et Bob
Wilson, avaient détecté, par leur radiotélescope,
un rayonnement très ancien, presque totalement
refroidi (à 3 ° Kelvin, l’échelle qui mesure les
températures au départ du zéro absolu), qui baigne tout l’Univers.
Ce rayonnement universel ne pouvait être interprété que comme un lointain écho du Big Bang.
Lemaître l’avait cherché en vain dans les
rayons cosmiques qu’il interprétait comme
«l’éclat disparu de la formation des mondes».
On sait aujourd’hui que les rayons cosmiques
sont produits au sein de la galaxie. Mais l’initiateur du Big Bang avait été bien inspiré en
recherchant obstinément ce rayonnement fossile universel, témoin d’un événement marquant du jeune Univers: la séparation de la
matière et de la lumière, survenue 300 000 ans
après le Big Bang.
Les rides du temps
De ce même événement sont nées de légères
irrégularités de densité qui donneront lieu, bien
plus tard, à la naissance des galaxies. Ces irrégularités ont été cartographiées au début des
années 1990 par l’observatoire satellitaire
COBE (Cosmic Background Explorer), dont la
mission a valu un prix Nobel à son concepteur
principal George Smoot. Une deuxième sonde,
appelée WMAP (Wilkinson Microwave Anisotropy Probe) a affiné le travail au début des
années 2000. Et cet été, un troisième engin,
Planck, a été tiré par une fusée Ariane en même
temps que le télescope spatial Herschel, pour
préciser encore les détails de ces irrégularités
du rayonnement fossile que Smoot avait joliment appelées «les rides du temps». On notera
que les détecteurs de Planck sont 30 fois plus
sensibles que ceux de WMAP et 1 000 fois plus
que ceux de COBE, ce qui donne la mesure des
progrès technologiques effectués en moins de
vingt ans.
La découverte du rayonnement fossile et la
détection de ses irrégularités ont remis fermement en selle la théorie du Big Bang, aujourd’hui confortée par un faisceau d’observations
qui la rendent incontournable. Cette cosmologie
a certes beaucoup évolué depuis que Lemaître
en a jeté les fondations. Il s’est parfois trompé.
Par exemple en développant, contrairement à
son successeur américain George Gamow,
Confrontation avec Hoyle
au théâtre Jean Vilar
a vie et l’œuvre de Georges Lemaître
ont inspiré un jeune auteur brabançon, Jean-François Viot. Il a imaginé, sur
une base très bien documentée, une rencontre entre le cosmologiste belge et son
plus farouche adversaire scientifique:
l’astronome et physicien Britannique
Fred Hoyle (celui qui, par dérision, a
inventé l’expression «Big Bang»).
L
Intitulée «Sur la route de Montalcino», la
pièce a été couronnée en 2008 par
l’Académie qui lui a décerné le prix VerdiktRijdams récompensant une œuvre mettant en rapport les arts et les sciences. Elle
a été créée en août 2009 au festival de Spa,
dans une mise en scène d’Olivier Leborgne.
Elle sera de nouveau proposée du 5 au 13
novembre 2009 au théâtre Jean Vilar, à
Louvain-la-Neuve. Le chanoine Lemaître y
est incarné par Alexandre von Sivers et
c’est François Sikivie qui fait revivre Fred Hoyle, les autres comédiens étant Maud
Pelgrims, Grégoire Baldari et Michaël Manconi. Le spectacle, qui dure une heure trente
sans entracte, est annoncé comme un régal pour les spectateurs un tant soit peu initiés à
la science. La représentation du 12 novembre sera suivie d’un débat scientifique.
Renseignements et réservations: http://www.atjv.be. Le texte de Jean-François Viot,
qui sera bientôt édité en anglais, peut être téléchargé via le site http://viotart.eu
l’idée d’un Big Bang froid, alors que l’Univers
du début était chaud et s’est progressivement
refroidi en se structurant. Il a aussi trop simplifié les choses en concevant un Univers sphérique, alors qu’on le considère aujourd’hui
comme plutôt «plat». Mais il avait eu de bons
réflexes, comme de revoir à l’envers le film de
l’expansion, de chercher un rayonnement fossile et de croire en l’existence d’une valeur nonnulle de la constante cosmologique.
Sur l’âge de l’Univers aussi, il avait formulé
une estimation assez juste de l’ordre de 10
milliards d’années. Depuis 2003, grâce aux
observations de la sonde WMAP, on estime que
l’Univers est âgé de 13,7 milliards d’années.
Mais on n’est pas à quelques mois près. Bref,
nous conclurons avec Dominique Lambert que
«même s’il s’est parfois trompé sur la nature
des choses, Georges Lemaître a eu toutes les
bonnes intuitions» et qu’elles sont toujours
valables, quatre-vingt ans après.
Alexandre
von Sivers
tient le rôle
du chanoine
Lemaître dans
cette intrigue
pleine de science
et d’humour,
qui se déroule
en 1951, dans
une auberge
de Toscane.
(Photo Véronique
Vercheval).
Jean-Luc LÉONARD
[email protected]
65
Athena 254 / Octobre 2009
Actualités
La mémoire de Lemaître
l faut bien reconnaître que la mémoire de
Georges Lemaître n'est pas cultivée avec
trop de ferveur dans son université d'origine, où la conservation des ses archives repose
essentiellement sur du bénévolat. C'est Liliane
Moens, secrétaire retraitée de l'Institut d'astronomie et de géophysique Georges Lemaître essentiellement voué aujourd'hui à la climatologie - qui a pris, dès les années 1970, l'initiative
de rassembler les documents et les objets
témoins de la vie et de l'œuvre de l'initiateur du
Big Bang. Elle les avait d'abord réunis dans un
petit musée perdu à la lisière du campus de
Louvain-la-Neuve, dont le bâtiment devait être
ensuite affecté à d'autres fonctions.
I
Liliane Moens
près d'une photo
en grandeur nature
du chanoine
Lemaître, réalisée
en 1994, année
du centenaire
de sa naissance,
pour le Palais
des Expositions
de Charleroi.
À l'avant-plan,
la Burroughs E-101,
première calculatrice
électronique
de l'UCL
qu'il utilisait
en virtuose.
Aujourd'hui, les archives sont conservées dans
un modeste bureau et les objets sont très bien
mis en valeur derrière la grande paroi vitrée
d'un auditoire de la place des Sciences. Cet
Espace Lemaître évoque quatre aspects de la
vie du grand scientifique (la famille, l'étudiant
brillant, le prêtre, le temps de la gloire) et les
trois axes de son activité débordante (le professeur, le cosmologiste et le calculateur). Il rappelle aussi que le nom de Lemaître a été donné
à un astéroïde ainsi qu'à un cratère de la Lune.
Le petit musée fait la légitime fierté de Liliane
Moens et de son mari, Michel, docteur en
sciences, qui ont travaillé obstinément à sa
réalisation. Ce sont eux également qui gèrent
l'accès aux archives de Georges Lemaître, lesquelles font l'objet de demandes de consultations assez fréquentes de l'étranger.
Ils ont ainsi pu apporter une contribution substantielle à de nombreux travaux, dont, entre autres, le livre d'un auteur américain, John Farrel,
joliment intitulé The Day Without Yesterday Lemaître, Einstein, and the Birth of Modern
Cosmology, publié en 2005 et traduit en japonais. Ils ont été sollicités plus récemment pour
une exposition itinérante et un concours de dissertation à Lisbonne, pour une traduction en
allemand des textes de Lemaître, et pour l'exposition itinérante Lumières sur le Ciel, inaugurée à Troyes à l'occasion de l'année astronomique internationale. Ces contacts internationaux permettent aussi aux Archives
Lemaître de s'enrichir.
Ainsi, à la fin septembre 2009, Liliane Moens a
eu le bonheur de trouver dans sa boîte aux lettres, un envoi venant d'Amsterdam, qui contenait notamment la copie de l'article de Lemaître
de 1927, annoté par Eddington et envoyé à de
Sitter. L'annotation de l'astronome britannique à
son confrère hollandais dit: "This seems a complete answer to the problem we were discussing» (Ceci paraît être un réponse complète au
problème dont nous discutions). Pour en savoir
plus sur les archives Lemaître, voir le site
http://www.uclouvain.be/204119.html
Jean-Luc LÉONARD
[email protected]
Contributions bienvenues
Les personnes désireuses de contribuer à la conservation
des archives de Mgr Lemaître peuvent faire un don
au compte 271-0366366-29 d'UCL-Mécénats,
place de l'Université, 1, à 1348 Louvain-la-Neuve
avec la mention «Pour ASTR2751 - Mécénats Lemaître».
Les donateurs de plus de 30 euros recevront
une attestation d'exonération fiscale.
Athena 254 / Octobre 2009
66
Info-Bio
D’où viennent ces
membres nouveaux ?
a régénération est liée à la vie elle-même
qui connaît, chez les organismes pluricellulaires en particulier, une usure
permanente. Mais si, chez l’homme, ce renouvellement concerne essentiellement des cellules
isolées ou, au mieux, des fragments de tissus en
cas de grande blessure, elle peut s’avérer nettement plus importante chez les plantes mais aussi
chez nombre de groupes animaux, principalement inférieurs. Cela peut toutefois aussi être le
cas des vertébrés tels que la salamandre, le triton
ou l’axolotl. En tant que vertébrés, il s’agit par
conséquent d’animaux assez haut placés dans
l’échelle évolutive et on peut regretter que si la
régénération d’un organe ou d’un membre entier
leur soit coutumière - ou au moins accessible l’évolution n’ait pas trouvé utile de conserver
l’aptitude chez les animaux plus évolués encore,
ainsi que chez l’homme. Soit.
L
L’axolotl - pour ceux qui l’ignorent - est un
amphibien d’origine mexicaine qui a la particularité d’être néoténique; en d’autres termes, il
peut rester toute sa vie à l’état larvaire et se
reproduire sans obligatoirement passer par un
stade adulte. Son allure est globalement celle
d’une salamandre et répond au nom d’Amblystoma mexicanum. S’il est connu, c’est pour sa
particularité évoquée, mais aussi parce qu’il a
depuis longtemps sa place dans les laboratoires.
Cette présence a permis d’étudier la néoténie
qui le caractérise, mais surtout ses facultés
exceptionnelles de régénérer membres et organes (y compris une partie du cerveau !) ainsi
que sa grande habilité à accepter les greffes. On
peut aisément comprendre que les scientifiques
lui ont trouvé quelque intérêt.
Si on coupe un membre entier à l’axolotl, il
repousse à l’identique. Fabuleux et bien connu
depuis longtemps si bien que les Aztèques pensaient que leur dieu de la mort se réincarnait
dans cet animal doté de pouvoirs à ce point
«divins». Si le processus a perdu ce caractère
magique aux yeux des scientifiques d’aujourd’hui, ces derniers - pragmatiques - se demandent toutefois si les cellules qui régénèrent le
membre sont d’emblée spécialisées ou si, issues
du moignon, elles redeviennent d’abord pluripotentes avant d’accéder à nouveau à la spécialisa-
tion. Une expérience assez élégante a donc été
tentée pour le savoir. On a d’abord produit un
animal transgénique pour le gène qui confère la
fluorescence, l’intention n’étant autre que de
disposer d’un marqueur cellulaire. On lui a
ensuite prélevé un fragment de tissu qui a été
greffé à son équivalent «normal» destiné à
l’amputation. Dès que les chercheurs ont été
assurés de la reprise de la greffe (très facile,
comme on l’a rappelé), ils ont sectionné la
patte concernée à hauteur de cette greffe, ce
qui a eu comme conséquence immédiate de
«mar-quer» à la fluorescence le moignon,
origine de la régénération du membre.
Un premier bourgeon le blastème - s’est
d’abord normalement
formé, lui aussi fluorescent. Puis le membre s’est reconstitué,
menant comme attendu à une réparation
complète. Des examens cellulaires ont
évidemment été réalisés tout au long de la
reconstitution et il est clairement apparu que les
cellules étaient d’emblée spécialisées, sans passer par un stade intermédiaire de pluri-potence.
Une seule exception à l’ensemble: les cellules
de la peau, qui contribuent autant à la régénération osseuse qu’à celle du tissu - la peau, par
conséquent - dont elles sont issues.
Tout n’est évidemment pas encore éclairci dans
le processus. On ignore par exemple quel est le
statut de spécialisation des fibroblastes, ces cellules qui assurent le «remplissage» de la plupart
des tissus. Bref, on cherche et il n’y a pas de
raison qu’on ne trouve pas d’ici peu. Les sceptiques vont évidemment se demander à quoi peuvent bien servir des recherches de ce genre. Si
l’intérêt relève encore de la recherche fondamentale, il est tout aussi évident que la possibilité de
régénérer un jour un organe - ou partie d’organe - humain est en perspective. Lointaine encore,
évidemment. Mais il n’est pas interdit de voir
loin… Nature 2009; 460: 39-40 et 60-65.
67
Amblystoma
mexicanum
ou axolotl
peut rester
toute sa vie à
l’état larvaire
mais aussi il a
la faculté
de régénérer
membres et organes,
y compris une
partie du cerveau !
Athena 254 / Octobre 2009
Info-Bio
Je me mange,
tu te manges…
ous n’en avons évidemment pas conscience au quotidien, mais à chaque
moment de l’existence, de la conception jusqu’à la mort, nous pratiquons l’autophagie. L’étymologie du terme parle d’elle-même:
il s’agit d’autoconsommation. Pas question bien
sûr de se mutiler pour assurer sa subsistance; le
processus est cellulaire et a pour fonction essentielle d’assurer la régulation métabolique et la
défense immunitaire, notamment.
N
Le terme est né il y a un demi siècle environ
lorsque Christian de Duve a découvert des
organites chargés de cette digestion auxquels il
a donné le nom de lysosomes. Ceux-ci sont de
petites vésicules qui, dans des conditions de
nécessité métabolique, sont déchargées dans
une autre inclusion cellulaire - l’autophagosome - dont elles digèrent le contenu, mettant
à la disposition de la cellule de l’énergie nouvelle. Le contenu ? Ce sont des «aliments»
qui ont été absorbés, ou des structures cellulaires anormales ou devenues inopérantes. La
cellule sait faire feu de tout bois lorsqu’il est
question de trouver l’énergie nécessaire à son
fonctionnement. On a remarqué au passage
qu’elle fait aussi office de vide-grenier pour ce
qui lui est devenu inutile. C’est «recyclage» et
«développement durable» permanent, le tout
dans un contexte d’économie de moyens et
d’énergie.
Mais il y a aussi des phases de l’existence où ce
mode de fonctionnement est tout à fait
indispensable. Au tout début du développement
embryonnaire, en particulier. Le génome du
jeune produit de conception n’ayant pas encore
eu l’occasion de s’exprimer, les premières
cellules fonctionnent grâce au contenu de
l’ovule originel, c’est-à-dire des composants
exclusivement d’origine maternelle. Il va de soi
que ces éléments risquent de rentrer tôt ou tard
- soit après le 4e jour de développement - en
conflit avec leur équivalent d’origine strictement embryonnaire. Dans ce contexte de possible incompatibilité, on comprend que la recherche d’énergie de fonctionnement offre aussi une
bonne occasion de «faire le ménage».
Athena 254 / Octobre 2009
68
Même problématique neuf mois plus tard.
Lorsque l’enfant naît, il a besoin d’un regain
d’énergie pour assurer sa vie désormais autonome. Il en profite donc, dans un registre cellulaire, pour éliminer tout ce qui lui reste de la
«nutrition» maternelle via le placenta. Même
s’il est allaité, cette étape de son existence correspond à une phase de jeûne qui justifie la
petite perte de poids observée juste après la
naissance.
Et la phagocytose se poursuit toute la vie, jusqu’au dernier souffle. Elle permet notamment,
en faisant - toujours - «le ménage» dans les cellules, de réduire l’impact de certaines maladies
comme le diabète de type II ou les processus
neuro-dégénératifs. Évidemment, elle ne peut
pas réellement les empêcher. Mais puisqu’elle
se montre efficace dans ces contextes, elle offre
des perspectives thérapeutiques d’avenir.
Accroître l’autophagie dans des cellules ciblées
(du cerveau, du foie ou d’un autre organe selon
la maladie à traiter) pourrait être une possibilité
de contraindre certains développements pathologiques; quitte à le renforcer, au besoin, d’un
complément pharmacologique.
Une fois de plus, c’est un processus naturel
qu’il s’agit de modifier dans un sens «utilitariste». Puisqu’il est ubiquitaire dans toutes nos
cellules, il s’agira de le faire en prenant toutes
les précautions d’usage. Afin que d’éventuels
effets secondaires observés ne soient pas plus
dommageables que le mal à traiter.
m/s n° 4, vol. 25: 323-324.
Un peu de
longévité
en plus ?
L
es inhibiteurs de conversion du système
rénine/angiotensine sont des médicaments aujourd’hui bien entrés dans la
routine du traitement de l’hypertension. Pourquoi évoquer cette réalité qui relève plutôt de la
pratique médicale ? Pour deux raisons essentielles. La première est que l’hypertension artérielle, qui concerne une partie importante de la
population (passé la quarantaine, souvent), reste
la principale cause des maladies cardiovasculai-
Info-Bio
res et celles-ci ont une fâcheuse tendance à
réduire la durée de vie. Elle mérite donc une
attention permanente.
Une autre raison tient au fait que cette angiotensine bénéficie toujours d’une attention
appuyée pour tenter d’en déjouer les effets vasculaires, comme le démontrent des travaux
récemment publiés. Cette molécule se fixe à des
récepteurs cellulaires qui lui sont propres, appelés AT1. Or, des recherches menées chez la souris ont conduit à inhiber la formation de ces
récepteurs. Résultat: l’angiotensine n’a pu agir
sur les parois artérielles et les souris traitées ont
vécu significativement bien plus longtemps que
des témoins «sauvages». À l’autopsie, elles ne
présentaient en outre que peu de fibrose cardiaque et d’artériosclérose aortique.
On a également observé dans l’un ou l’autre de
leurs tissus ciblés que certains gènes étaient
davantage exprimés, tel celui qui code pour la
sirtuine 3 (Sirt3) dans le rein. Il s’agit d’une
enzyme qui régule le métabolisme cellulaire sur
un mode épigénétique, c’est-à-dire en affectant
le niveau d’expression de certains gènes sans
modifier ces derniers. Des tests d’inhibition
spécifique de Sirt3 ont confirmé que ce gène
était effectivement impliqué dans la régulation
de l’angiotensine et, par conséquent, dans le
vieillissement cellulaire et général.
pour bénéficier des effets associés, dont… la
régulation de la tension artérielle et de la présence des radicaux oxydants avec, en perspective, une longévité accrue qui en est la conséquence indirecte. Chez la souris d’abord, on l’a
bien compris. Allez savoir s’ils ne penseront pas
à trouver des applications chez l’homme
aussi…
La suite, on la pressent: les chercheurs vont tenter d’agir directement sur l’expression du gène
À l’évidence, la vie prolongée reste un objectif
permanent. J. Clin. Invest. 119: 524-530.
Le diabète en marche…
O
présume que l’incidence de ces maladies devrait s’accroître aussi considérablement dans les pays émergents pour lesquels les données épidémiologiques sont
encore lacunaires aujourd’hui.
Les valeurs disponibles - et les projections réalisées - concernent pour le moment préférentiellement les populations des pays occidentaux, mais on
Si on dispose de quelques pistes «environnementales»
pour expliquer cet accroissement, on constate qu’il
existe des variations parfois importantes d’une nation
à l’autre, ce qui devrait permettre d’affiner l’évaluation des causes possibles. Ce qu’on peut déjà suspecter, sans grand risque de se tromper, c’est que les
malades plus nombreux aujourd’hui, et qui le sont de
surcroît à un âge de plus en plus précoce, devront
compter avec la maladie plus longtemps, avec tout le
cortège des altérations corollaires que cela implique.
Avec, par ailleurs, une majoration considérable des
coûts pour les soins de santé, associés à leur prise en
charge… The Lancet 373: 1999-2000.
n le pressentait depuis plusieurs années:
l’incidence du diabète de type I - insulinodépendant - connaît une progression sans
précédent qui semble loin encore d’avoir atteint son
niveau de croissance optimale. On estime par exemple qu’entre 2005 et 2020, la proportion de nouveaux cas chez des enfants de moins de 5 ans devrait
doubler et que la prévalence des cas chez les moins
de 15 ans devrait s’accroître de 70%. Dans le même
temps, on observe aussi que le diabète de type II
concerne un nombre croissant de jeunes - et en particulier d’enfants aussi - ce qui commence à poser
de sérieux problèmes de prise en charge par les
instances médicales de nombreux pays.
69
Athena 254 / Octobre 2009
Info-Bio
Le virus de la miniaturisation
lus personne aujourd’hui ne s’étonne de voir tenir dans quelques
centimètres cubes toutes les fonctions d’un dispositif électronique,
qu’il s’agisse d’un smartphone, d’un MP3 ou d’un quelconque autre
appareil qui agrémente notre quotidien. Pourtant, cette réduction de
volume n’est possible que grâce à la miniaturisation simultanée de tous
les organes nécessaires aux fonctions à assurer.
P
Parmi ceux-ci, les batteries occupent une place importante. Entre les
«piles plates» de jadis et les pastilles au lithium d’aujourd’hui, on
mesure tout l’effort de réduction de volume qui a été consenti et on
pressent qu’on n’est pas encore au bout de nos surprises. Pour preuve,
cette publication récente qui fait reposer l’ossature d’électrodes sur les
liens de cohésion de nanotubes de carbones et de… virus !
Il ne s’agit pas de mettre à la peine le A (H1N1) dont il est si souvent
question. On lui a préféré un virus de bactéries (ou bactériophage)
moins problématique et sans doute mieux maîtrisé, le E4. On l’a modifié en lui adjoignant un peptide qui lui permet d’assurer les jonctions
avec les nanotubes évoqués. Le tout sert de support aux échanges
d’ions, générateurs de (dé)charges électriques. Plus que la réalisation,
c’est surtout l’intention qui frappe: celle qui consiste à faire de virus des
sources d’énergie. On aura tout vu ! Science 324: 1051-1055.
Épigénétique et infertilité
énétique et fertilité entretiennent un
lien très étroit. Ce n'est pas réellement
un scoop. Le sexe est génétiquement
déterminé et certaines anomalies chromosomiques ou géniques sont associées à des hypofertilités plus ou moins sévères, voire à des stérilités définitives. Mais qu'en est-il de l'épigénétique ? (Voir Athena n° 218, pp. 283-286).
G
Déjà, un petit rappel s'impose. Si chacun perçoit
bien aujourd'hui les grands principes du fonctionnement de la génétique, ce n'est peut-être
pas le cas de l'épigénétique. Il s'agit tout
simplement d'un «système» de régulation des
gènes. Disposer de ces derniers est une chose,
les voir s'exprimer en est une autre. La spécialisation de nos cellules (cœur, foie, cerveau, os,
etc.) est une première preuve de la régulation
épigénétique, chacun des types cellulaires ne
retenant des gènes que ceux qui leur sont utiles.
C'est donc que les autres ont une expression
bloquée et c'est l'épigénétique qui s'en charge.
L'âge qui progresse peut être une autre cause de
régulation (ou dérégulation). Bref, ce processus
est inhérent à la vie elle-même et procède de
Athena 254 / Octobre 2009
70
deux mécanismes: le dépôt de radicaux à
certains endroits «stratégiques» des gènes dont
il fait moduler le fonctionnement ou une modification de la structure de la chromatine, cet
ensemble formé par la molécule d'ADN et les
protéines, les histones, qui y sont associées.
Il existe pourtant un moment de la vie où cette
régulation est levée: le tout premier, lorsque le
jeune embryon est constitué au départ des deux
cellules germinales originelles. C'est ce qui fait
que les premiers stades de développement
embryonnaires sont dits «totipotents», puisqu'ils disposent de toutes les potentialités. Or, il
apparaît de plus en plus évident aujourd'hui que
cette reprogrammation nécessaire ne serait
qu'imparfaite dans certains cas, rendant compte,
bien plus tard, d'une hypofertilité chez ceux qui
en sont l'objet.
Comment ? En interférant avec l'«empreinte
parentale», une autre particularité de la génétique. Alors que les gènes issus des deux parents
sont redistribués en principe de façon aléatoire
chez le nouvel embryon formé, il y en a qui ne
Info-Bio
peuvent être hérités que du père ou de la mère,
sous peine d'apparition d'anomalies et même de
syndromes assez graves. C'est ce qu'on appelle
précisément l'empreinte parentale. C'est ce
mécanisme de transmission préférentielle qui
risquerait d'être perturbé, comme des études
comparatives entre sujets fertiles et infertiles
l'ont récemment montré.
Cela pose évidemment question lorsque l'infertilité du couple est traitée par ICSI (voir Athena
n° 247, pp. 221-225) - la méthode qui consiste
en l'introduction forcée d'un spermatozoïde
dans chaque ovule. Si l'anomalie épigénétique
est responsable ou associée à l'infertilité du
conjoint, elle est évidemment transmise à l'enfant conçu, avec le risque de faire apparaître
chez lui une des pathologies connues de l'empreinte parentale (les syndromes de PraderWilli, Angelmann ou Beckwith-Wiedemann).
À l'évidence, la quête d'une conception respectant la filière génétique parentale trouve, avec
l'épigénétique aussi, une autre source de questionnement. Andrologie 2009: 19: 121.
Ah !
votre bon
cœur…
S
’il est bien convenu que nos cellules en
général se renouvellent, on a aussi
coutume de dire que le cœur avec lequel
on naît est aussi celui avec lequel on meurt; sauf
bien entendu dans le chef, toujours marginal, de
ceux qui bénéficient d’une greffe cardiaque, ça
va de soi. C’est donc que s’il se renouvelle, cet
organe unique ne le fait que partiellement. Ce
qui restait à prouver.
C’est désormais chose faite grâce à une étude
récemment publiée qui a établi la proportion
des cardiomyocytes - les cellules musculaires qui assurent leur remplacement. La méthode
exploratoire utilisée est complexe et mériterait à
elle seule un long développement. Pour faire
court, précisons qu’elle repose sur l’intégration,
par les cellules, du carbone 14 (14C) dont la
proportion dans l’air a fortement augmenté au
cours du XXe siècle, et plus précisément
pendant cette période qui correspond à la
«guerre froide» et à ce bras de fer américanosoviétique qui a mené l’un et l’autre des protagonistes à multiplier les essais nucléaires. Ces
démonstrations de force à intention dissuasive
ont singulièrement enrichi l’atmosphère en
dérivés radioactifs utilement mis à profit
aujourd’hui par les chercheurs en général et les
épidémiologistes en particulier pour dater des
processus physiologiques en cours chez les
contemporains de ces essais militaro-politiques.
Ces contemporains - un certain nombre d’entre
nous, au demeurant - ont donc notamment intégré dans l’ADN de leurs cellules en formation
du 14C dont l’abondance relative permet aujourd’hui une datation assez précise. Comme
évoqué, le calcul est complexe et doit évidemment recouper d’autres données cliniques. Mais
il a notamment permis d’établir le taux moyen
de renouvellement des cellules cardiaques chez
une cohorte d’individus pris en considération.
Il apparaît, assez clairement, que ce renouvellement est de l’ordre de 1% par an chez l’homme
de 25 ans, mais diminue progressivement
ensuite pour n’être plus que de 0,45% vers l’âge
de 75 ans. Au total et sur la durée d’une vie, on
peut par conséquent en déduire que moins de la
moitié des cardiomyocytes se renouvellent dans
notre cœur. L’information le confirme: le cœur
est donc un organe à ménager à tout prix si on
veut le faire durer…
Les données apportées par cette étude vont
évidemment un peu plus loin et débordent
nécessairement sur la thérapeutique d’avenir:
puisqu’on maîtrise de plus en plus les mécanismes de biologie cellulaire et notamment ceux
qui contribuent à la formation et à la spécialisation des cellules souches, on va peut-être axer la
thérapie cardiaque de demain dans un sens
préventif en accroissant le renouvellement
spontané des cellules myocardiques. Cela
suffira-t-il à réduire l’incidence des accidents
cardiaques ? Cela reste évidemment à démontrer… Science 324: 98-102.
Jean-Michel DEBRY
[email protected]
71
Athena 254 / Octobre 2009
Oncologie
La quête d'un
vaccin thérapeutique
Est-il possible de «doper» notre système immunitaire pour qu'il soit capable d'éliminer une tumeur
maligne? C'est l'espoir que l'oncologie place dans l'immunothérapie du cancer. Après de premiers
résultats encourageants, les essais cliniques de vaccination thérapeutique n'ont cependant plus enregistré
de réels progrès. Aujourd'hui, les raisons de ces échecs commencent à être élucidées, notamment grâce
aux travaux du professeur Pierre van der Bruggen de l'Institut Ludwig contre le cancer
ès le début du XXe siècle, les biologistes s'interrogèrent sur la présence éventuelle d'antigènes spécifiques à la surface des cellules cancéreuses. Oui ou non, se
demandaient-ils, les tumeurs expriment-elles
certaines substances particulières reflétant le
dérèglement qui s'est emparé de la machinerie
cellulaire ? Autrement dit, le système immunitaire pourrait-il être mobilisé pour éliminer les
cellules tumorales comme il élimine les cellules
infectées par un virus ou une bactérie ?
D
Pierre van der
Bruggen,
professeur
à l'Université
catholique de
Louvain (UCL)
et responsable
d'un groupe
de recherche
au sein de
l'Institut Ludwig.
Courriel: pierre.
vanderbruggen@
bru.licr.org
La question demeura longtemps
sans réponse, avant de rebondir
dans les années 1940-50. Deux
chercheurs américains, Richard
Prehn et Marjorie Main, avaient
mis en lumière un phénomène
étonnant: si l'on induit chimiquement un cancer chez une
souris, qu'on le lui ôte ensuite
chirurgicalement, puis qu'on le
lui réimplante, elle peut rejeter
spontanément la greffe tumorale. Il apparut en outre que ces
rejets reposaient sur l'«action»
du système immunitaire, en
particulier des lymphocytes T. «L'espoir se précisait donc, à condition que ce qui était observé
avec les tumeurs de souris se vérifie avec des
cellules cancéreuses humaines et, surtout, que
l'on comprenne comment les lymphocytes T
peuvent distinguer les cellules tumorales des
cellules normales», lit-on dans un article récent
intitulé Principes généraux et premiers essais
cliniques de vaccination thérapeutique contre le
cancer (1).
La vague d'optimisme ne tarda pourtant pas à
être écrêtée, car, soumises à un protocole expérimental similaire, les tumeurs spontanées de
souris ne faisaient pas l'objet d'une réaction de
Athena 254 / Octobre 2009
72
même nature que les tumeurs provoquées chimiquement - pas de rejet. N'exprimeraient-elles
donc pas d'antigènes ? Dès 1972, les travaux de
l'équipe du professeur Thierry Boon, directeur
de l'unité bruxelloise de l'Institut Ludwig contre
le cancer, permirent de trancher le débat: ces
tumeurs spontanées ne sont pas dépourvues
d'antigènes à leur surface. Mieux: elles peuvent
servir de cible à une réponse immunitaire
suscitée artificiellement, dont la traduction est
une destruction des cellules cancéreuses par les
lymphocytes T.
La découverte des MAGE
Il y a à peine plus de vingt ans, on ignorait cependant encore s'il existe des antigènes spécifiques
sur les tumeurs humaines et, partant, si les lymphocytes T humains sont capables de distinguer
les cellules tumorales des cellules normales.
Question cruciale s'il en est puisque, en l'absence
d'antigènes, toute stimulation artificielle du système immunitaire, toute immunothérapie, serait
vouée à l'échec, les lymphocytes tueurs ne discernant aucun «ennemi».
En 1986, le biologiste anglais Alain Townsend,
de l'Université d'Oxford, démontra que les
lymphocytes T reconnaissent les protéines
virales même lorsqu'elles n'apparaissent pas à la
surface de la cellule. Ces protéines peuvent en
effet être fragmentées en petits peptides.
Transportés dans le réticulum endoplasmique,
ceux-ci se lient à des antigènes particuliers
présents sur les globules blancs du sang et sur
toutes les cellules nucléées de l'organisme: en
l'occurrence, des molécules de classe 1 codées
par le complexe majeur d'histocompatibilité
(système HLA - Human Leucocyte Antigens)
découvert en 1958 par le professeur Jean
Oncologie
Dausset, prix Nobel de médecine en 1980. Se
forment ainsi des entités «peptides-antigènes
d'histocompatibilité de classe 1» qui migrent
vers la surface de la cellule, où ils sont identifiés par les récepteurs des lymphocytes T.
MAGE-3 présenté à la surface de leurs cellules
cancéreuses par la molécule d'histocompatibilité HLA-A1. Elles reçurent des injections du
peptide MAGE-3, petit fragment de neuf acides
aminés issu de la protéine MAGE-3.
On sait maintenant que ce processus n'est pas
l'apanage des protéines virales, mais s'applique
aussi à toute protéine anormale résultant d'une
mutation ponctuelle dans un gène. «Il est acquis
aujourd'hui que de nombreuses cellules tumorales humaines portent à leur surface des peptides antigéniques qui peuvent être reconnus
par des lymphocytes T, en particulier des lymphocytes T cytolytiques (CTL), qui expriment
les molécules CD8 (2)», précise Pierre van der
Bruggen, professeur à l'Université catholique
de Louvain (UCL) et responsable d'un groupe
de recherche au sein de l'Institut Ludwig.
Premier constat: le traitement d'immunothérapie ainsi dispensé ne présenta aucune toxicité et
s'avéra indolore. Deuxièmement, une régression significative des tumeurs fut observée chez
sept patients. Elle fut même complète chez trois
d'entre eux, ces personnes ayant éliminé totalement leurs métastases, et la rémission persista
durant plusieurs années chez deux autres répondeurs. Les régressions spontanées n'étant que de
0,5% environ dans les mélanomes métastatiques, les résultats positifs obtenus paraissaient
prometteurs.
En 1991, Pierre van der Bruggen et Catia
Traversari, de l'équipe de Thierry Boon, identifièrent, dans le cadre du mélanome, un premier
antigène spécifique d'une tumeur cancéreuse
humaine: MAGE-1 (M pour mélanome, AGE
pour antigène). Pour l'heure, plusieurs dizaines
d'antigènes tumoraux, la plupart reconnus par
des lymphocytes T cytolytiques, ont été
découverts. Comme l'indique Pierre van der
Bruggen, certains d'entre eux présentent d'ores et
déjà des caractéristiques qui en font d'excellents
candidats pour le développement d'une thérapie
(vaccination thérapeutique) basée sur l'activation
de lymphocytes T antitumoraux.
Les chercheurs de l'Institut Ludwig se sont
particulièrement intéressés à la famille des
antigènes de type MAGE, lesquels sont
exprimés dans beaucoup de tumeurs mais non
dans des tissus sains. Cette spécificité offre
l'avantage de prévenir tout effet secondaire
néfaste sur les cellules normales, tandis que la
présence des antigènes MAGE dans une grande
variété de cancers autorise en principe l'utilisation d'un même vaccin thérapeutique chez
beaucoup de patients. Depuis ces découvertes,
de nombreux laboratoires se sont engagés sur la
piste de l'immunothérapie du cancer.
Diverses techniques de vaccination furent testées par la suite. Les unes mettaient en œuvre
d'autres antigènes MAGE avec ou sans adjuvants immunologiques, d'autres associaient plusieurs antigènes «Nous avons notamment procédé à des vaccinations où furent injectés dix
peptides antigéniques différents», rapporte
Pierre van der Bruggen. D'autres encore faisaient appel non plus à des peptides mais à la
protéine antigénique MAGE-3 elle-même.
On notera que la firme pharmaceutique
GlaxoSmithKline Biologicals va précisément
débuter un important essai de phase 3 (plus de
2 000 patients répartis dans le monde entier)
centré sur des malades ayant subi la résection
complète d'un cancer du poumon non à petites
cellules et auxquels sera administré un vaccin
thérapeutique anti-MAGE 3. Sera étudié l'impact de la vaccination sur le risque de récidive.
Par ailleurs, un typage génétique des patients
sera effectué par la technique des microdamiers
(puces à ADN), afin d'identifier une signature
génétique caractéristique des «bons répondeurs» au traitement.
«Il est acquis
aujourd'hui que
de nombreuses
cellules tumorales
humaines portent
à leur surface
des peptides
antigéniques
qui peuvent être
reconnus par
des lymphocytes T.»
Le lymphocyte T
reconnaît les cellules
via son récepteur T.
Des succès mitigés
Au cours des quinze dernières années, l'unité
bruxelloise de l'Institut Ludwig a initié, en
collaboration avec d'autres centres belges et
étrangers, un programme de vaccinations thérapeutiques visant à tester divers types de vaccin.
Les résultats d'un premier essai clinique impliquant vingt-six patients atteints d'un mélanome
avec métastases fut jugé encourageant. Ces
personnes étaient porteuses de l'antigène
73
Athena 254 / Octobre 2009
Oncologie
Il existe plusieurs autres voies thérapeutiques
que celles exposées ci-dessus. Elles font appel,
par exemple, à des cellules dendritiques ou à
des virus recombinants.
Cancer Vaccine
Collaborative (ENG)
http://bit.ly/CTvnI
Une section d'un site
collaboratif
consacrée aux essais
cliniques
dans le cadre
des vaccins.
Cancer Vaccines (ENG)
http://bit.ly/cKCJF
Questions et réponses
sur le vaccin
contre le cancer.
«Au début de notre programme clinique, nous
pensions que le système immunitaire d'un
malade cancéreux restait le plus souvent
“endormi” face aux antigènes exprimés par la
tumeur mais qu'un vaccin contenant les bons
ingrédients pourrait induire de fortes réponses
de lymphocytes T qui détruiraient les cellules
cancéreuses», indique Pierre van der Bruggen.
Il fallut déchanter. Peu importait le vaccin
proposé, la technique employée et les équipes
de recherche impliquées, les succès demeuraient circonscrits à un faible pourcentage. Et la
situation n'a pas évolué: aujourd'hui encore, les
vaccinations thérapeutiques échouent dans la
majorité des cas. Selon l'article susmentionné (3), les vaccins, quels qu'ils soient, et toutes études confondues, induisent des régressions tumorales chez 5 à 20% des malades
vaccinés. Toutefois, le taux de réponses cliniques objectives (complètes ou partielles),
basé sur les critères officiels WHO, est de l'ordre de 5% seulement.
Certes, il y a des exceptions récentes. Mais les
techniques utilisées empruntent alors des
chemins plus abrupts: elles sont extrêmement
lourdes, avec des effets secondaires importants.
(1) Principes généraux et premiers essais cliniques de vaccination
thérapeutique contre le cancer, par Jean-François Baurain, Pierre van der
Bruggen, Benoît J. Van den Eynde, Pierre G. Coulie, Nicolas Van Baren,
dans Bull Cancer, 2008.
(2) Les lymphocytes T se partagent en deux sous-populations, qui expriment
soit le récepteur CD4, soit le récepteur CD8. Les lymphocytes T CD4 sont
principalement des lymphocytes producteurs de cytokines régulatrices de la
réponse immune, tandis que les lymphocytes T CD8 possèdent essentiellement des capacités cytotoxiques.
(3) Op. cit.
(4) Op. cit.
(5) L'apprêtement de l'antigène est un mécanisme, réalisé à l'intérieur des
cellules, qui coupe la protéine antigénique en petits fragments (peptides) et
qui associe ceux-ci aux molécules HLA pour présenter les complexes au
niveau de la membrane cellulaire.
(6) Mort cellulaire programmée («suicide» de la cellule en cas de dommages trop importants à son ADN).
(7) Restoring the association of the T cell receptor with CD8 reverses anergy
in human tumor-infiltrating lymphocytes, par Demotte N., Stroobant V.,
Courtoy P.J., Van Der Smissen P., Colau D., Luescher I.F., Hivroz C., Nicaise
J., Squifflet J.L., Mourad M., Godelaine D., Boon T., van der Bruggen P.,
dans Immunity, 2008.
Athena 254 / Octobre 2009
74
Si des essais cliniques sont poursuivis par différents laboratoires à travers le monde, les
chercheurs de l'unité bruxelloise de l'Institut
Ludwig ont ralenti provisoirement les leurs
pour essayer préalablement de démêler l'écheveau: pourquoi les vaccinations thérapeutiques
aboutissent-elles à des résultats relativement
décevants ? et pourquoi fonctionnent-elles
malgré tout chez certains patients ? Des études
réalisées à Bruxelles ont notamment mis en
évidence une fréquence élevée de lymphocytes
T cytolytiques dans le sang et dans des prélèvements tumoraux émanant de patients cancéreux,
et ce avant même toute vaccination. La vision
initiale selon laquelle les tumeurs malignes
s'avéraient peu antigéniques a donc été battue
en brèche. Au contraire, les cancers ne sont pas
«transparents» pour le système immunitaire,
mais sans doute les CTL deviennent-ils généralement inactifs après un certain temps.
Lymphocytes épuisés
Sur le plan théorique, de multiples raisons
peuvent expliquer pourquoi les cellules cancéreuses échappent le plus souvent à la destruction
par les CTL. Les auteurs de Principes généraux
et premiers essais cliniques de vaccination thérapeutique contre le cancer (4) en donnent
quelques exemples: la perte de l'antigène par les
cellules tumorales, la perte d'expression des
molécules HLA ou d'autres molécules impliquées dans l'apprêtement (5) des antigènes, la
résistance des cellules tumorales à l'apoptose
(6), la production de facteurs pouvant interférer
avec la réponse immunitaire...
En 2003, l'équipe du professeur Benoît Van den
Eynde (Institut de Duve, Institut Ludwig) a
montré que beaucoup de cellules cancéreuses
produisent dans l'environnement tumoral une
enzyme, l'indoleamine 2,3-dioxygénase (IDO),
qui dégrade le tryptophane, acide aminé nécessaire à la prolifération des lymphocytes T - le
manque de tryptophane provoque l'arrêt de leur
cycle cellulaire. L'efficacité des vaccins thérapeutiques pourrait-elle être améliorée si, concomitamment à leur administration, on réussissait
à enrayer la destruction du tryptophane ? La
logique et les résultats d'expérimentations
animales (souris transgéniques) incitent à le
croire. Aussi la possibilité d'inhiber par des
moyens pharmacologiques l'activité de l'IDO
chez le patient cancéreux est-elle actuellement à
l'étude.
Pierre van der Bruggen, lui, s'est penché sur une
autre question: la présence constante de l'antigène ne pourrait-elle entraîner un phénomène
d'épuisement des CTL et leur dysfonctionnement ? Les réponses apportées lui ont valu de
Oncologie
recevoir, le 25 juin dernier, le prix AllardJanssen 2009, lequel couronne tous les trois ans
des recherches scientifiques de pointe dans le
domaine du cancer.
Dans un premier temps, le chercheur et son
équipe ont montré in vitro, à partir d'une population clonale de lymphocytes T cytolytiques
mis en culture, que la capacité de ces lymphocytes à être activés diminue au fil du temps au
contact trop fréquent de l'antigène. Il en va de
même de leur aptitude à tuer les cellules
présentant l'antigène pour lequel ils sont
compétents et à produire de l'interféron gamma.
Encore fallait-il comprendre ce phénomène
d'épuisement qualifié d'anergie des lymphocytes T. «On sait qu'un CTL a besoin au minimum
de deux récepteurs, le TCR (ou récepteur T) et
le CD8, pour reconnaître l'antigène et être
activé, indique le professeur van der Bruggen.
Or nous avons établi que les deux récepteurs
sont proches l'un de l'autre à la surface des lymphocytes fonctionnels, alors qu'ils sont distants
à la surface des lymphocytes anergiques.»
Une pincée de sucres
Comme dans un jeu de ricochets, la question
avait rebondi et il convenait à présent d'élucider
le phénomène observé. Fut ainsi émise l'hypothèse que les TCR et CD8 soient retenus à des
endroits différents de la membrane cellulaire.
La plupart des molécules qui siègent à la
surface d'un lymphocyte T sont «décorées» de
sucres, mais il semble, dans le cas du TCR, que
la qualité ou la quantité des sucres dont il se
charge se modifie au contact prolongé de l'antigène. C'est ici qu'un nouvel acteur entre en
scène: galectine-3. Cette protéine, qui peut être
produite abondamment par les cellules cancéreuses elles-mêmes, se lie à certains sucres. Et,
de fait, elle se lierait aux sucres présents sur les
TCR des lymphocytes activés et formeraient
des réseaux qui immobiliseraient lesdits TCR et
les empêcheraient d'interagir avec l'autre récepteur, le CD8.
«Pour tester cette hypothèse d'une absence de
mobilité du TCR à la surface des lymphocytes
T anergiques, ces derniers ont été mis en présence d'un sucre qui se lie à la galectine-3,
le LacNAc (N-acetyllactosamine), rapporte
Pierre van der Bruggen. Deux heures de ce
traitement ont permis de récupérer une grande
partie de la colocalisation du TCR et du CD8.
Par ailleurs, les lymphocytes T traités au
LacNAc avaient également recouvré leur
capacité de produire de l'interféron gamma en
réponse à une stimulation avec l'antigène.» Et
d'ajouter: «Par contre, si l'on employait un
autre sucre, réputé ne pas se lier à la galectine-3, rien de tel ne se produisait.»
Les lymphocytes T cultivés en laboratoire sont
une chose, les lymphocytes infiltrant des
cancers de patients en sont une autre. Grâce à
une collaboration avec les Cliniques universitaires Saint-Luc, Pierre van der Bruggen put
récolter des échantillons de tumeurs provenant
de malades atteints d'un carcinome de l'ovaire.
Il y isola ensuite des lymphocytes T.
Qu'observa-t-il ? Que les TCR et CD8 présents
à leur surface n'étaient pas proches et que les
lymphocytes se révélaient incapables de produire de l'interféron gamma en réponse à une
stimulation par des cellules tumorales. Autrement dit, l'anergie des lymphocytes T infiltrant
les tumeurs est corrélée, elle aussi, avec une
absence de colocalisation des TCR et CD8.
Élément capital: à l'instar de leurs homologues
cultivés in vitro, ces lymphocytes peuvent retrouver leur vigueur si on leur applique un traitement
adéquat (7). En effet, quelques heures d'incubation en présence de LacNAc restaurent à leur surface la colocalisation du TRC et du CD8 et leur
rendent la capacité de produire de l'interféron
gamma. D'où ce nouvel espoir: «Ces résultats
obtenus ex vivo nous permettent de suggérer
qu'injecter dans les tumeurs du LacNAc, ou d'autres sucres qui se lieraient à la galectine-3, pourrait restaurer au moins temporairement les fonctions des lymphocytes T et créer des conditions
favorables à une réponse antitumorale efficace,
fait remarquer Pierre van der Bruggen. Combiné
avec des vaccinations thérapeutiques, un traitement avec ce type de sucre conduirait peut-être à
des régressions tumorales chez un plus grand
nombre de patients.»
TCR et CD8
ne colocalisent
pas sur des
lymphocytes T
anergiques.
« Des études réalisées
à Bruxelles ont
notamment mis en
évidence une
fréquence élevée
de lymphocytes T
cytolytiques dans
le sang et dans des
prélèvements
tumoraux émanant
de patients cancéreux,
et ce avant même
toute vaccination.
La vision initiale
selon laquelle
les tumeurs
malignes s'avéraient
peu antigéniques a
donc été battue
en brèche.»
Philippe LAMBERT
[email protected]
75
Athena 254 / Octobre 2009
Neuropsychiatrie
Dépression : inflammation
et neuroplasticité
Depuis quelques années, des découvertes
neuroanatomiques ont balisé une voie nouvelle dans
la compréhension de la dépression et du mode d'action
des antidépresseurs. Sommes-nous face à une
maladie inflammatoire et neurodégénérative ?
ur le plan biochimique, l'action des antidépresseurs conventionnels est quasi
immédiate. Or plus de 30 à 45% des
patients déprimés ne répondent pas à ces médicaments ou n'y répondent que partiellement. En
outre, lorsque le traitement est
efficace, plusieurs semaines
sont néanmoins nécessaires à
une amélioration de la symptomatologie. Comment expliquer cet hiatus ?
S
Marc Ansseau,
responsable
du service
de psychiatrie et
de psychologie
médicale de
l’Université de Liège
Courriel:
[email protected]
Plusieurs hypothèses ont été
avancées mais, jusqu'il y a peu,
aucune n'était totalement satisfaisante. Ces dernières années,
cependant, une approche qui
pourrait se révéler plus
féconde semble gagner du terrain. Elle applique le concept
de plasticité neuronale à la
dépression. En effet, comme
l'écrivent William Pitchot,
Marie-Hélène Polis, Shibeshih Belachew et
Marc Ansseau dans un article récent (1), «les études neuroanatomiques basées sur l'imagerie
médicale ont mis en évidence des lésions neurologiques spécifiques de la dépression de même
qu'une tendance à la récupération volumétrique
de certaines régions après traitement antidépresseur.» Ces données sont corroborées par les études histopathologiques.
Atrophie de l'hippocampe
Quelles sont les régions concernées ? L'hippocampe, l'amygdale, le noyau caudé, le putamen et le cortex frontal, structures interconnectées formant le circuit limbico-corticostriato-pallido-thalamique. Toutefois, la majeu-
Athena 254 / Octobre 2009
76
re partie des travaux de recherche se sont focalisés sur l'hippocampe, structure à propos de
laquelle se sont ainsi dégagées des certitudes.
L'amygdale, par exemple, est difficile à mesurer. Cet écueil méthodologique explique sans
doute pourquoi les études volumétriques dont
elle a fait l'objet aboutissent à des résultats
divergents. Cela étant, des travaux d'histopathologie post-mortem concluent à une réduction
des cellules gliales de l'amygdale dans la
dépression, sans modification du nombre de
neurones (2).
Selon une méta-analyse réalisée par Stéphanie
Campbell et Glenda MacQueen, la réduction
volumétrique de l'hippocampe chez le déprimé
serait en moyenne de 8% dans l'hémisphère
gauche et de 10% dans l'hémisphère droit par
comparaison avec des sujets sains. Par ailleurs,
son «rétrécissement» apparaît proportionnel à la
durée de la dépression - plus les épisodes
dépressifs ont été nombreux, plus l'atrophie est
importante.
L'hippocampe, rappelons-le, est une structure
sous-corticale bilatérale dont les principales
fonctions ont trait à l'apprentissage, à la
mémoire et à l'analyse des informations. Son
implication dans la modulation des réponses
émotionnelles est également établie. Et c'est
probablement ce dernier élément qui fait de lui
une cible de dégénérescences neuronales qui se
situeraient au confluent de facteurs environnementaux, dont principalement le stress, et d'une
prédisposition génétique.
Plusieurs mécanismes peuvent expliquer la
réduction de volume de l'hippocampe chez
certains déprimés. D'abord, la dépression
s'accompagne d'une élévation des taux plasmatiques de glucocorticoïdes. Or, au même titre
que d'autres structures, l'hippocampe est très
sensible à de fortes concentrations prolongées
de ces substances, qui y engendrent des dommages neuroanatomiques. Autre mécanisme: la
diminution, sous l'impact de stress chroniques,
des concentrations de Brain Derived Neurotropic Factor (BNDF), substance protectrice des
neurones contre les agressions neurotoxiques.
Neuropsychiatrie
La neurotoxicité du glutamate, neurotransmetteur excitateur par excellence, qui se lie aux
récepteurs N-méthyl-D-aspartate (NMDA), est
également mise en cause. L'hippocampe est
riche en neurones dopaminergiques. À l'occasion d'un stress sévère, d'une hypoglycémie ou
d'une hypoxie, le neurotransmetteur se retrouve
en excès dans la fente synaptique (3). S'ensuit
une cascade biochimique susceptible d'engendrer un processus d'apoptose (mort programmée) neuronale.
Maladie inflammatoire
On le voit, il existe différents mécanismes qui,
en réponse à un stress sévère ou prolongé, sont
de nature à occasionner une mort de neurones
dans l'hippocampe. Cette destruction concourrait à faire le lit de la dépression. En outre, il
apparaît aujourd'hui que des processus inflammatoires sont également à prendre en considération. «La dépression a été associée à des
signes d'inflammation susceptibles de favoriser les pathologies somatiques souvent associées aux troubles de l'humeur et les lésions
cérébrales observées chez certains patients
déprimés, notamment une diminution du
volume de l'hippocampe, précisent William
Pitchot et Marc Ansseau. (...) Certaines études
ont montré que des patients souffrant de
dépression majeure présentent des taux élevés
de cytokines ou de facteurs de nécrose tumorale. Ces cytokines tendent à induire certaines
modifications, telle une production accrue de
l'hormone de libération de la corticotrophine,
laquelle favorise l'apoptose neuronale. Ces
observations soulèvent l'hypothèse que la
dépression pourrait être une forme de maladie
inflammatoire, voire une affection neurodégénérative (4).»
Neurodégénérative, mais réversible dans la
mesure où les antidépresseurs peuvent favoriser une neurogenèse hippocampique. «On a
montré, dans le cerveau adulte, l'influence
d'antidépresseurs sérotoninergiques (5) - entre
autres des inhibiteurs de la recapture de la
sérotonine - sur la régulation de la neurogenèse du gyrus dentelé de l'hippocampe», rapporte le professeur Ansseau. La logique est
respectée, car il semble acquis que la sérotonine intervient de façon cruciale dans le
contrôle de la prolifération des précurseurs
neuronaux à l'âge adulte.
De surcroît, les travaux de René Hen et de ses
collaborateurs, à l'Université Columbia, ont
permis de montrer chez la souris le lien existant
entre la neurogenèse hippocampique et les
effets comportementaux induits par les antidépresseurs.
(1) William Pitchot, Marie-Hélène. Polis, Shibeshih Belachew et Marc
Ansseau, Dépression et neuroplasticité, dans La Revue Médicale de Liège,
2007.
(2) Jusqu'au début des années 90, on considérait que chacun d'entre nous naît
avec son quota de neurones, appelé à s'éroder au fil du temps sans espoir de
régénération. Désormais, il est acquis que les mammifères, y compris l'homme,
sont à même de former de nouveaux neurones. Deux régions cérébrales sont
concernées: la zone sous-ventriculaire, où «éclosent» des neurones appelés à
migrer vers le bulbe olfactif, et le gyrus dentelé, une des deux fines couches de
neurones - la seconde est la corne d'Ammon - qui, repliées l'une sur l'autre,
constituent l'hippocampe.
(3) La fente synaptique est l'espace de communication électrochimique entre
deux neurones.
(4) William Pitchot et Marc Ansseau, Actualité thérapeutique en psychiatrie,
dans La Revue Médicale de Liège, 2007.
(5) La sérotonine est un neurotransmetteur dont la diminution de concentration cérébrale joue un rôle important dans l'émergence et le maintien d'états
dépressifs. D'où des médicaments, les antidépresseurs sérotoninergiques,
visant à pallier ce déficit.
La théorie présentant la dépression comme une
maladie inflammatoire et neurodégénérative
dévoile évidemment de nouvelles perspectives
thérapeutiques. Par exemple, on pourrait délivrer des substances antagonistes des récepteurs
NMDA, afin de contrer l'action du glutamate.
En fait, un large spectre s'ouvre à la recherche.
«Le but serait d'obtenir des médicaments plus
efficaces et qui agiraient plus vite que les antidépresseurs actuels, commente le professeur
Ansseau. Pour ce faire, ils devraient courtcircuiter la cascade d'événements biochimiques par laquelle doivent passer les antidépresseurs connus pour aboutir à une action
régénératrice. La souffrance du patient, ainsi
que le risque de passage à l'acte suicidaire,
s'en trouveraient plus rapidement diminués,
tandis que la compliance serait améliorée.»
Des questions restent cependant en suspens.
Celle-ci, par exemple: tous les types de dépression s'accompagnent-ils de modifications
neuroanatomiques ? En revanche, un vieux
débat s'éclaire d'un jour nouveau: on comprend
désormais pourquoi les antidépresseurs, dont
l'action biochimique est quasi immédiate,
n'induisent une amélioration de la symptomatologie dépressive qu'après plusieurs semaines de
traitement. À ce propos, Marc Ansseau s'en
remet à une métaphore: «Ils agissent un peu
comme un engrais.» Une fois le terrain «ensemencé», il faut un certain temps pour que de
nouveaux neurones soient générés et établissent
les connexions qui les rendront fonctionnels.
Dépression (FR)
Symptômes,
thérapies,
rôle de
l'entourage, etc.
Un guide gratuit
à télécharger.
http://www.infodepression.fr/
Philippe LAMBERT
[email protected]
77
Athena 254 / Octobre 2009
Neurobiologie
Histoire...
d'une préférence
Le 8 mars 2009, la revue Nature Neuroscience publiait
les résultats étonnants d'une étude réalisée par des
chercheurs de l'Université libre de Bruxelles. Tel un
miroir à deux faces, une population de neurones
du striatum, les neurones striatopallidaux, jouerait
un rôle à la fois dans l'activité locomotrice et dans
l'assuétude aux drogues. De nouvelles voies
thérapeutiques se dessinent-elles pour traiter la maladie
de Parkinson et les addictions à ces substances ?
n Europe, l'assuétude à l'alcool et aux
drogues illicites touche 9 millions de
personnes et, selon les estimations,
coûte 57 milliards d'euros par an à la communauté. La prévalence de la maladie de
Parkinson, elle, est de 1,2 million d'individus.
Coût annuel: 11 milliards d'euros. Entre l'affection neurologique et les addictions aux substances existent deux importants traits d'union: la
dopamine, neurotransmetteur déficitaire dans le
premier cas, excédentaire dans le second, et le
striatum, noyau sous-cortical dont la partie dorsale est impliquée dans le contrôle moteur et la
partie ventrale - plus spécifiquement le noyau
accumbens (1) -, dans le traitement des informations relatives à la «récompense» et au «plaisir» et, partant, dans l'addiction aux drogues.
E
Alban de Kerchove
d'Exaerde,
chercheur qualifié
du Fonds national
de la recherche
scientifique (FNRS)
travaillant au sein
du laboratoire
de neurophysiologie
de la Faculté
de médecine
de l'ULB.
Courriel:
adekerch@
ulb.ac.be
Sans entrer dans les méandres de «circuiteries
complexes», rappelons que le Parkinson est
défini comme la résultante d'une carence en
dopamine dans le système extrapyramidal, entité vouée au contrôle
des mouvements et dont les composantes sont, d'une part, les
noyaux gris de la base (ou ganglions de la base) et, d'autre part,
les connexions qui les unissent.
Parmi lesdits noyaux figurent
notamment la substance noire
(locus niger) principalement composée de neurones dopaminergiques (2), le pallidum, le noyau
sous-thalamique et le striatum. Au
départ, la maladie se traduit par une
perte des neurones dopaminergiques du locus niger et de leurs
projections vers le striatum.
Athena 254 / Octobre 2009
78
Le circuit de la récompense, quant à lui, a pour
pièce maîtresse le noyau accumbens (striatum
ventral). Y aboutissent notamment des afférences dopaminergiques en provenance de l'aire
tegmentale ventrale (VTA), structure active
dans le contrôle de la récompense et du renforcement et qui, par là même, pèse de tout son
poids dans les phénomènes d'assuétude. Selon
Alban de Kerchove d'Exaerde, chercheur qualifié du Fonds national de la recherche scientifique (FNRS) travaillant au sein du laboratoire
de Neurophysiologie de la Faculté de médecine
de l'Université libre de Bruxelles (ULB), avoir
beaucoup de plaisir n'implique cependant pas
une forte libération de dopamine. «Cette dernière, dit-il, est davantage liée à la recherche
ou à l'anticipation du plaisir qu'au plaisir luimême. La valeur de celui-ci, en tant que tel, est
plutôt traitée, entre autres, au niveau du cortex
orbitofrontal.»
Destruction spécifique
Le striatum est composé pour 90 à 95% de deux
populations distinctes de neurones entremêlées
et équivalentes en nombre: les neurones striatonigraux et leurs homologues striatopallidaux.
Quels sont leurs rôles respectifs ? Jusqu'il y a
peu, la réponse à cette question demeurait voilée
d'un certain mystère, d'autant que la plupart des
travaux s'étaient concentrés sur la seule population des neurones striatonigraux. Pourquoi ?
Principalement parce qu'on avait observé que la
délivrance de cocaïne ou d'amphétamines à une
souris aboutissait à une augmentation rapide de
l'expression de gènes précoces (c-fos, Zif) dans
ces neurones, lesquels focalisèrent dès lors l'attention des chercheurs. Leur rôle dans l'assuétude aux drogues est bien démontré aujourd'hui.
Mais cela signifie-t-il que les neurones striatopallidaux n'ont aucune implication dans les phénomènes de dépendance ? C'est ce que se sont
proposé d'étudier les équipes d'Alban de
Kerchove d'Exaerde et de Serge Schiffmann au
sein du laboratoire de neurophysiologie de la
Faculté de médecine de l'ULB.
Pour réaliser leur objectif, les neurobiologistes
bruxellois entreprirent l'étape préalable de la
Neurobiologie
destruction spécifique des neurones striatopallidaux, le but étant de déterminer ensuite les
conséquences fonctionnelles de leur inactivation. Or ces neurones, nous l'avons signalé, sont
mélangés aux neurones striatonigraux dans le
striatum. «Une inactivation par chirurgie ou
par injection était donc impossible, commente
Alban de Kerchove d'Exaerde. Par conséquent,
nous devions les cibler en recourant à un outil
génétique.»
Les deux grands types de neurones du striatum se
distinguent entre autres par le fait qu'ils expriment
des gènes différents. Dans le cas des neurones
striatonigraux: notamment le récepteur D1 à la
dopamine, la substance P, neuropeptide bien
connu dans le domaine de la transmission de la
douleur, et la dynorphine, une endorphine. Dans
le cas des neurones striatopallidaux, citons les
gènes de l'enképhaline, une autre endorphine, du
récepteur D2 à la dopamine et du récepteur A2A
à l'adénosine. «Plusieurs équipes ont voulu se
servir du promoteur du gène D2 pour cibler les
neurones striatopallidaux, mais cette technique
ne nous est pas apparue assez fine, explique
Alban de Kerchove d'Exaerde. En effet, le récepteur D2 est également exprimé par les neurones
dopaminergiques qui se projettent sur les neurones striatonigraux ou striatopallidaux, ce qui ne
permet pas de distinguer l'implication présynaptique dopaminergique d'avec la partie postsynaptique des neurones striatopallidaux.» De même,
les interneurones cholinergiques (3) présents dans
le striatum à côté de ces deux catégories de neurones, mais en plus petit nombre, expriment eux
aussi le récepteur D2 à la dopamine.
Pour éviter tout risque de se heurter à des facteurs confondants, les chercheurs de l'ULB
choisirent de se concentrer sur le promoteur du
gène du récepteur A2A à l'adénosine. De fait, ce
récepteur est exprimé de façon quasi spécifique
par les neurones striatopallidaux - on le retrouve dans d'autres régions cérébrales, mais il y est
beaucoup moins exprimé.
Toxine diphtérique
En s'appuyant sur la technique de recombinaison homologue des BAC (Bacterial Artificial
Chromosomes), qui permet d'insérer des gènes
dans d'importants fragments d'ADN génomique, les équipes d'Alban de Kerchove
d'Exaerde et de Serge Schiffmann ont élaboré
une souris transgénique qui, in fine, après croisement avec une autre souris transgénique,
exprime le récepteur de la toxine diphtérique (4)
à la surface des seuls neurones striatopallidaux.
Une injection stéréotaxique (5) de la toxine dans
le cerveau de l'animal conduit alors à la destruction sélective desdits neurones.
«Une partie importante de notre travail
consista à valider le système, rapporte Alban de
Kerchove d'Exaerde. Ainsi, nous avons notamment montré dans un hémistriatum, l'autre nous
servant de structure de contrôle, que si une
injection de toxine diphtérique y entraînait la
perte des marqueurs caractéristiques des
neurones striatopallidaux (récepteurs D2 à la
dopamine et A2A à l'adénosine, enképhaline),
les marqueurs des neurones striatonigraux
(substance P, récepteur D1 à la dopamine,
dynorphine) y étaient préservés. Autrement dit,
les neurones striatonigraux - de même
d'ailleurs que les interneurones cholinergiques
et les autres populations d'interneurones du
striatum - n'étaient pas touchés par l'injection,
ni les neurones dopaminergiques présynaptiques. Nous disposions donc bien d'un outil
autorisant une destruction sélective des neurones striatopallidaux.»
Mon lieu préféré
L'étape suivante fut l'étude du comportement
des souris transgéniques en réponse à la destruction de leurs neurones striatopallidaux,
laquelle commence à s'opérer six à sept jours
après l'injection de toxine diphtérique. Que
constata-t-on ? Que les animaux privés de ces
neurones devenaient hyperactifs sur le plan
locomoteur. Il s'agissait là de la première
démonstration in vivo des prédictions du
modèle théorique en vigueur: les neurones striatopallidaux ont in fine, c'est-à-dire au terme
d'une cascade de projections en aval impliquant
plusieurs autres populations de neurones successives, un effet inhibiteur sur l'activité locomotrice. D'où l'idée de possibles perspectives
thérapeutiques en médecine humaine dans le
cadre de la maladie de Parkinson. Les patients
concernés ont un déficit de dopamine dans le
système extrapyramidal, à la suite de la mort de
ses neurones dopaminergiques. L'annihilation
de l'activité des neurones striatopallidaux, en
aval, ne pourrait-elle les aider à se mouvoir plus
aisément ? La question mérite d'être posée.
Cela étant, la principale cible des travaux
d'Alban de Kerchove d'Exaerde et de Serge
Schiffmann est l'assuétude aux drogues. Aussi,
dans une étape ultérieure de leurs recherches
expérimentales, ont-ils détruit spécifiquement,
dans leurs souris transgéniques, les neurones
striatopallidaux du striatum ventral (noyau
accumbens), structure étroitement associée,
nous le savons, aux concepts de renforcement,
de récompense et, par là même, d'apprentissage.
Ils ont ensuite soumis ces animaux et des animaux contrôles (normaux) à un «test de préférence de place» (Conditional Place Preference
Test - CPP) après leur avoir administré de l'am-
79
(1) Le nucleus
accumbens est
le centre
du renforcement et
de la récompense.
(2) Producteurs
de dopamine.
(3) Producteurs
d'acétylcholine.
(4) La toxine
diphtérique est
une exotoxine
produite par le
Corynebacterium
diphteriæ,
responsable
de la diphtérie,
maladie qui fut une
des causes majeures
de mortalité
infantile jusque
dans les années
1930. Grâce à
la vaccination
systématique, elle
a pratiquement
disparu aujourd'hui
des pays
occidentaux.
(5) La stéréotaxie
est une technique
de repérage fin
des structures
intracrâniennes
au moyen d'un
dispositif placé
à l'extérieur
du crâne et
de coordonnées
dans les trois
dimensions.
Athena 254 / Octobre 2009
Neurobiologie
phétamine.«Pourquoi
cette substance ? Parce
que l'effet moléculaire de
l'amphétamine est parfaitement connu: elle augmente la libération de
dopamine au niveau des
terminaisons des neurones dopaminergiques qui
se projettent entre autres
sur les neurones striatopallidaux», précise notre
interlocuteur.
Neurones
striatopallidaux
exprimant la GFP
(Green Fluorescent
Protein).
(6) La mémoire
déclarative est
constituée
de connaissances
explicites (épisodes
personnellement
vécus,
connaissances
générales sur
le monde) que l'on
peut évoquer de
façon conscience
sous la forme
de mots ou
d'images.
(7) La mémoire
procédurale est
impliquée dans
l'apprentissage
de nouvelles
habiletés
perceptives,
motrices ou
cognitives.
Difficilement
accessibles à
la verbalisation,
les connaissances
qui y sont stockées
reposeraient sur
des apprentissages
ne pouvant
s'acquérir que
par l'action.
Imaginons une boîte comportant deux compartiments de taille identique
auxquels des souris peuvent accéder en empruntant un petit couloir en plexiglas. Le premier
compartiment est doté d'un sol lisse et de parois
verticales où alternent des lignes blanches et
des lignes noires; le second est pourvu d'un sol
rugueux et ses parois sont décorées de points
noirs sur un fond blanc. De la sorte, les souris
peuvent les distinguer. Pour éviter tout biais
méthodologique, le pourcentage de blanc et de
noir est égal dans les deux «pièces», car les
souris manifestent un penchant pour les lieux
sombres.
Le premier jour de l'expérience, on laisse les
deux populations de souris (les souris contrôles,
à savoir celles qui ont toujours les neurones
striatopallidaux, et les souris sans neurones
striatopallidaux dans leur noyau accumbens)
déambuler librement dans les deux compartiments sous l'œil d'une caméra vidéo. Au cours
des jours 2, 4 et 6, elles reçoivent une injection
de drogue (amphétamine) dans le compartiment
1, par exemple celui où les parois sont zébrées
de noir et de blanc.
nouvelle fois au test de préférence de place. Il
apparut que les souris contrôles commençaient
à «oublier» leur préférence, contrairement aux
souris sans neurones striatopallidaux, qui continuaient à privilégier nettement le compartiment
où leur avaient été administrées des amphétamines. En résumé, non seulement les souris
dépourvues de neurones striatopallidaux
avaient une préférence plus forte pour cet
endroit, mais la mémoire de cette préférence se
révélait en outre de plus longue durée.
Ici encore, des perspectives thérapeutiques en
médecine humaine pourraient se profiler à l'horizon. Il ne s'agirait plus d'inhiber les neurones
striatopallidaux, comme on pourrait le concevoir dans la prise en charge de la maladie de
Parkinson, mais, à l'inverse, de les stimuler
chez les patients présentant une assuétude aux
drogues, des personnes ayant donc des excès de
dopamine dans le striatum ventral après prise de
telles substances. Le but serait d'entraver leur
addiction en diminuant l'effet «récompensant»
de cette prise de drogue et la mémorisation de
cet effet, et de limiter ainsi les risques de
rechute après sevrage.
À l'échelle des gènes
Pour les neurobiologistes de l'ULB, l'exploration continue. L'étape suivante de leurs recherches est génétique. En effet, au lieu de détruire
purement et simplement les neurones striatopallidaux, ils s'attellent à présent à élaborer des
modèles de souris transgéniques knock-out
«population spécifique», où des gènes exprimés
par ces neurones seront sélectivement inactivés
à l'intérieur de ceux-ci et uniquement de ceuxci. Le but est double: mieux comprendre les
mécanismes moléculaires mis en œuvre dans
les phénomènes révélés par le test de préférence
de place et trouver, si faire se peut, de nouvelles
cibles thérapeutiques, parfaitement circonscrites, pour la prise en charge des patients parkinsoniens ou des personnes en proie à une assuétude aux drogues.
Les jours 3, 5 et 7, eux, sont réservés à une
injection de sérum physiologique, effectuée
dans l'autre compartiment. Qu'observe-t-on le
huitième jour, lorsqu’aucune injection n'est pratiquée et qu'on laisse à nouveau les rongeurs se
promener librement entre les deux compartiments ? Si les souris contrôles, c’est à dire sans
perte de neurones striatopallidaux, passent plus
de temps dans le compartiment où de la drogue
leur a été administrée les jours précédents, les
souris dépourvues de neurones striatopallidaux
y séjournent encore bien davantage. «Conclusion: ces souris ont une préférence plus affirmée pour l'endroit où elles reçoivent de la drogue», indique Alban de Kerchove d'Exaerde.
«Deux des gènes qui nous intéressent sont
impliqués dans la plasticité synaptique,
explique Alban de Kerchove d'Exaerde. Celleci est potentiellement un des mécanismes moléculaires de la mémorisation, tant en mémoire
déclarative (6) (hippocampe) qu'en mémoire
procédure (7) (striatum). Elle sous-tend donc
l'apprentissage et le renforcement des comportements. De ce fait, elle peut baliser la voie
conduisant aux assuétudes.»
L'expérience n'était pas terminée pour autant.
Les animaux furent remis dans leur cage habituelle durant cinq jours; ensuite, soumis une
Philippe LAMBERT
[email protected]
Athena 254 / Octobre 2009
80
Info-Physique
De l'intérêt
des atomes froids...
Lorsque des particules atteignent des vitesses proches de celle de la lumière, elles deviennent
relativistes. C'est ce qui se passe dans les grands accélérateurs comme le LHC (Grand
collisionneur de hadrons - Voir Athena n° 229, pp. 352 et 353). Peut-on simuler de tels
systèmes en laboratoire ? Oui, grâce aux atomes froids. Plongeons, avec Nathan Goldman,
de l'Université libre de Bruxelles (ULB), dans le monde de la physique statistique quantique
es travaux de Nathan Goldman, chercheur au service des systèmes complexes
et de mécanique statistique, de l’ULB,
(photo ci-contre) s'inscrivent dans le champ de la
mécanique statistique quantique. L'idée générale
est de pouvoir observer, à l'échelle macroscopique, quasiment à l'œil nu, des phénomènes
qu'on appelle quantiques et qui diffèrent radicalement des comportements observés dans la vie
de tous les jours. Ces phénomènes exotiques sont
dits quantiques car ils sont décrits par la mécanique quantique, contrairement aux systèmes
physiques habituels où les effets sont compris sur
base de la théorie classique newtonienne.
L’apparition d’effets quantiques à grande échelle
peut paraître étonnante à première vue, puisque
la mécanique quantique a justement été introduite pour pouvoir rendre compte des
phénomènes microscopiques !
L
Cette physique est dite statistique car les
chercheurs y étudient un grand nombre de
particules puis utilisent tous les outils de la
statistique (moyennes, variantes, etc.) pour
caractériser un système entier. «On ne va plus
s'intéresser, explique Nathan Goldman, à la position exacte d'une particule dans le temps, par
exemple, comme en mécanique classique, mais à
la position moyenne dans le temps ou à l'énergie
moyenne du système. Et toutes ces moyennes
vont permettre d'étudier les grandeurs macroscopiques alors qu'au départ la description des
particules est bien microscopique.»
Cette physique est aussi dite quantique parce
qu'elle considère que les particules qui composent un système, un gaz par exemple, sont
décrites par la mécanique quantique. «Dans les
environnements habituels, il n'est pas nécessaire de regarder la description quantique d'un
système car en faisant la moyenne, on lisse tous
les effets quantiques. Les particules d'une
boisson contenue dans une bouteille sont
quantiques, mais l'ensemble ne l'est évidemment pas», rappelle Nathan
Goldman.
Mais que faut-il faire pour
avoir des effets quantiques au
niveau macroscopique ? Il
faut quitter les environnements traditionnels, par exemple la température ambiante.
Quand on descend à très basse
température, proche du zéro
absolu, les effets quantiques
ne sont plus lissés. Il est dès
lors possible de les observer
à l'échelle macroscopique
«C'est pour cela, s'enthousiasme Nathan Goldman,
qu'on s'intéresse à la physique
des atomes froids ou des très
basses températures.»
Piège à atomes
Pour comprendre les résultats obtenus par
Nathan Goldman et les physiciens qui ont travaillé avec lui - Maciej Lewenstein (Barcelone)
et Miguel A. Martin-Delgado (Madrid) -, ce qui
leur vaut aujourd'hui d'être publiés dans
Physical Review Letters (1), il faut dire un mot
de travaux plus anciens.
Pour refroidir les atomes, il faut les piéger, les
immobiliser. Une fois piégés, ils sont refroidis
et réciproquement, pourrait-on dire, puisque les
deux opérations sont concomitantes: en piégeant les atomes, ils se refroidissent et en les
refroidissant, on les piège. L'intérêt de ces piè-
81
(1) Non-Abelian
optical lattices:
Anomalous
quantum Hall effect
and Dirac fermions
N. Goldman et al.,
Phys. Rev. Lett.
103, 035301
(2009).
Athena 254 / Octobre 2009
Info-Physique
ges est qu'ils créent des réseaux. Ainsi, le système utilisé par Nathan Goldman et ses
collègues est constitué de nombreux petits pièges qui, ensemble, forment une structure périodique, comme un emballage d'œufs (voir le
schéma ci-dessous). Si vous jetez des petites
billes sur un tel emballage, elles vont se répartir
dans les petits trous, qui seront autant de pièges
pour elles. C'est ce qui se passe avec les atomes.
Piège
à atomes
en forme
d'emballage
à œufs.
Un tel système est un réseau puisque c'est une
structure périodique. Et il est optique puisque
c'est grâce à la lumière - des lasers - qu'on va
pouvoir créer les bassins d'attractions, les
«creux». En effet, les atomes réagissent avec la
lumière. Celle-ci permet de les exciter ou les désexciter, c'est-à-dire les faire passer dans des
niveaux d'énergie plus élevés ou plus bas. Quand
on plonge le gaz d'atomes à refroidir dans une
lumière très particulière, le laser monochromatique, on peut les exciter de manière très précise
L'effet Hall quantique
'effet Hall quantique est la généralisation quantique de l'effet Hall. L'effet Hall,
du nom du physicien américain (1855-1938) qui l'a découvert en 1879, est un phénomène physique simple à observer: lorsqu'on soumet un conducteur à un champ
magnétique, le champ dévie les électrons et une différence de potentiel apparaît dans
la direction perpendiculaire au courant et au champ. La mesure de cette différence de
potentiel transverse fournit ce qu'on appelle la résistance de Hall, qui est devenue une
caractéristique des matériaux.
L
À notre échelle, les valeurs de cette résistance en fonction du champ magnétique
s'inscrivent sur une droite parfaite. Mais dans le monde quantique, aux très basses
températures et lorsque le champ magnétique est très élevé, ces valeurs se regroupent
par paliers. C'est l'effet Hall quantique. Notons que ces paliers apparaissent à des
valeurs précises de résistance, quel que soit le matériau utilisé. La résistivité de Hall est
donnée par h/ne² où e est la charge de l'électron et h la constante de Planck; n prend
différentes valeurs qui correspondent aux différents plateaux. C'est ce qui explique la
robustesse des paliers, peu importent la géométrie du matériau, la présence ou non
d'impuretés, etc. L'effet est dit effet Hall quantique entier lorsque n est un entier,
fractionnaire dans le cas contraire. Dans le graphène, l’existence de cônes de Dirac
modifie de façon considérable l’effet Hall quantique, ce qui lui vaut l’adjectif anormal
dans ce contexte.
Athena 254 / Octobre 2009
82
pour les piéger. Avec deux jeux de lasers croisés,
il sera possible de créer un réseau, chaque laser
piégeant dans une direction.
Les particules élémentaires
Les premiers travaux effectués dans ce domaine
(voici plus de dix ans déjà) ont permis d'étudier
avec une grande précision, des systèmesréseaux difficiles à examiner d'une autre façon:
les systèmes électroniques, les métaux. Un
métal, c'est un réseau d'atomes et d’électrons
qui se baladent d'un atome à l'autre. La reproduction de ce système en laboratoire, grâce à
des atomes froids piégés en réseau, a permis de
mieux comprendre ce qu'est un isolant, un
semi-conducteur, et aujourd'hui ce qu'est un
supraconducteur. «Pouvoir étudier comment
des particules se déplacent sur un réseau avec
un système simple, qu'on arrive à manipuler
avec une grande précision en laboratoire, a été
important, explique Nathan Goldman. Aujourd'hui, beaucoup de propriétés électroniques
sont simulées en laboratoire grâce aux systèmes
d'atomes froids, notamment les transitions entre
phase conductrice et phase isolante.»
Depuis 4-5 ans, les physiciens essaient de
simuler davantage que des métaux: ils tentent
de reproduire la dynamique des particules
élémentaires étudiées en physique des hautes
énergies. Ce qui nécessite de simuler la
présence de champs de jauge non-abéliens sur
des particules neutres… Le modèle standard
unifie toutes les forces fondamentales sauf la
gravitation. Mais il demande encore à être
validé d'où, notamment, les expériences qui ont
lieu dans le LHC. Il faut confirmer l'existence
d'un certain nombre d'ingrédients qui ont été
postulés dans le cadre du modèle, et notamment
celle des champs de jauge non-abéliens.
Le champ magnétique est un cas particulier
d'une famille générale de champs, les champs
de jauge. Et le champ magnétique est abélien,
c'est-à-dire que la structure mathématique sousjacente satisfait à la loi de commutation (ab =
ba); les autres types de champs sont nonabéliens. Or dans la théorie qui décrit les
quarks, ces particules interagissent les unes
avec les autres grâce aux gluons, particules
médiatrices qui sont associées à des champs de
jauge non-abéliens. Autrement dit, si l'on
s'intéresse à la dynamique des quarks et qu'on
n'a pas envie d'accélérer des protons et des antiprotons dans d'énormes machines comme le
LHC, une alternative consiste à simuler la
présence de champs non-abéliens dans un
système d'atomes froids ! Les atomes reproduisent alors la dynamique des quarks et simulent
ainsi un ingrédient fondamental du modèle
Info-Physique
standard. La réalisation d'un tel système concrétise l’intuition magistrale du grand physicien
Richard Feynman qui avait émis l'idée qu'un
jour on simulerait un système quantique avec
un autre système quantique plutôt que d'utiliser
un ordinateur puissant.
La première étape a consisté à simuler l'effet
d'un champ magnétique sur des particules
neutres. Normal puisque le champ magnétique
appartient bien à la grande famille des champs
de jauge. L'ennui, c'est qu'il s'agit ici de
particules neutres, d'atomes et plus d'électrons
comme dans le cas du métal étudié précédemment. L'électron est une particule chargée,
donc il est facile de lui appliquer un champ et
d'en simuler les effets: ils se mettent à tourner
sous l'impulsion de la force dite de Lorentz.
Mais des atomes ou des particules neutres
peuvent aussi ressentir la présence d'un champ.
«Une première réalisation expérimentale a vu
le jour cette année, explique Nathan Goldman.
Des physiciens ont repéré des signatures de
présence de champ magnétique artificiel. Ce
n'est pas un vrai champ, c'est un dispositif qui
simule la présence d'un champ.» Comment
faire croire aux particules qu'elles sont soumises à un champ magnétique ? À nouveau grâce
à des lasers, pas ceux qui créent le réseau
optique, mais des lasers supplémentaires qui,
dans la façon dont ils vont interagir avec les
particules, vont les affecter de la même manière
qu'un champ magnétique affecte les électrons.
Champ de jauge non-abélien
Deuxième étape: simuler cette fois un champ de
jauge non-abélien. Il a été possible de généraliser les propositions théoriques qui permettaient
de simuler un champ magnétique pour simuler
des champs non-abéliens dans le système des
atomes froids. De cette façon, les atomes froids
ne signifient plus des électrons dans un champ
électromagnétique, mais ils décrivent des
quarks soumis à des champs non-abéliens.
Cette simulation a déjà porté ses fruits: on entre
ici au cœur même des travaux de Nathan
Goldman. Lui et les autres signataires de l'article
qui vient d'être publié ont observé que dans une
configuration particulière du système d'atomes
froids soumis à un champ non-abélien, apparaissent des cônes de Dirac. La présence de ces
cônes dans des spectres d'énergie signifie que le
système se comporte comme les systèmes de
particules décrits par l'équation de Dirac.
Schrödinger - les fonctions d'onde qui décrivent
les objets quantiques - mais vérifiant en plus les
contraintes «imposées» par Einstein dans le
cadre de la relativité restreinte.
Autrement dit, l'équation de Dirac permet de
décrire des particules non seulement quantiques
mais aussi relativistes, comme elles le sont par
exemple dans les accélérateurs lorsqu'elles
atteignent des vitesses très proches de celle de
la lumière. «Cette équation est importante,
poursuit Nathan Goldman, puisqu'elle décrit le
monde des particules. Nous avons pu montrer
que dans notre système, les particules a priori
décrites par l'équation de Schrödinger, tout
d'un coup, rentrent dans un régime où elles sont
décrites par des équations de type Dirac. Cela
se produit pour une configuration particulière
du système. Cela veut dire qu'on dispose en
laboratoire d'un système qui reproduit bien la
physique relativiste, celle qu'on essaie d'étudier
dans les accélérateurs de particules: on peut
reproduire la physique de type Dirac avec des
atomes froids !».
L'équipe de Nathan Goldman a été plus loin
encore, modélisant un phénomène particulier
dans le graphène: l'effet Hall quantique anormal. Le graphène est ce matériau constitué de
feuilles de carbone à deux dimensions qui portent des réseaux hexagonaux. Quand on les
replie sur elles-mêmes, on obtient les célèbres
nanotubes de carbone. On sait qu'un grand
nombre de phénomènes de conduction qui se
produisent dans le graphène sont expliqués par
des équations de type Dirac. C'est le cas
notamment de l'effet Hall quantique anormal
(voir encadré de la p. 82). Nathan Goldman a
mis en évidence que son système d'atomes
froids présentait un effet Hall quantique anormal dans ce type de matériau, effet qu’il étudie
sur base de la théorie relativiste sous-jacente.
Dès 1928, le physicien anglais Paul Dirac proposait une équation décrivant des particules
normalement représentées par les équations de
Représentation
des cônes
de Dirac.
Pour en
savoir plus:
Nathan Goldman,
Nonlinear Physics and
Statistical Mechanics,
campus Plaine - CP 231,
ULB - 1050 Bruxelles
Téléphone:
02/650.57.97.
[email protected]
http://homepages.
ulb.ac.be/~ngoldman/
Henri DUPUIS
[email protected]
83
Athena 254 / Octobre 2009
Internet
Répertorier le savoir
Nous consacrons énormément de temps à ranger,
d'abord parce que le désordre est généralement
contre-productif, ensuite parce qu’il a mauvaise
réputation. Or, cette bataille permanente est inutile
dans le monde digital. Comment change-t-il notre
regard sur le classement ? C'est l'objet de la seconde
partie de ce dossier (voir Athena n° 253, pp. 25-28)
’endroit où sont stockées les photos
digitales contient probablement plus de
mille photos prises en quelques années
avec un nouvel appareil numérique. Et la situation va inévitablement s'aggraver. Les premiers
appareils sont apparus vers 2003 et ont commencé à se répandre dans le monde en 2004. Cette
année-là, 150 millions de téléphones portables
équipés d'une caméra ont été vendus, soit
environ quatre fois le nombre d'appareils photos
numériques. Leur coût étant
quasi nul, nous sommes
tentés de prendre de plus en
plus de photos, espérant
simplement que l'une d'entre
elles sera réussie.
L
Les photos sont automatiquement affublées d'un nom du
genre DSC00426.jpg. Qu’il y
ait deux, cinq ou vingt mille
photos sur votre disque dur,
celle de votre jardin portant la
référence DSC00426.jpg est
virtuellement perdue car celle-ci ne vous dit évidemment
rien et vous ne la retrouverez
plus.
Neil Armstrong,
le premier homme
marchant
sur la Lune.
C’était il y a
quaranate ans déjà !
(Photo Nasa).
Le nombre de photos numériques - pour ne parler
que d'elles - augmente presqu’à notre insu. La
technologie nous permettra-t-elle un jour d'identifier automatiquement où a été prise telle photo
et qui y figure dessus ? Leur classement deviendra-t-il une activité sociale ? Ce phénomène se
développe sur un site de partage de photos
comme Flickr (http://www.flickr.com/). Sur ce site
«collaboratif», né du Web 2.0, chacun peut
déposer ses photos et les taguer (c'est-à-dire y
associer des tags, des labels) pour les retrouver
plus facilement. De plus, chaque visiteur peut à
Athena 254 / Octobre 2009
84
son tour taguer des photos - même si elles ne lui
appartiennent pas - et les rassembler dans des
albums virtuels.
Résoudre le problème de la surabondance des
photos ne sera possible qu'en y ajoutant de
l'information. En d'autres termes, la solution à
ce problème passe par de l'information supplémentaire.
Une autre manière de classer
Dans le monde physique, nous faisons d'ailleurs
la même chose: nous collons des étiquettes sur
les bocaux de confiture ou nous surlignons
certains passages d'un rapport. Mais ce monde
limite le volume d'informations que nous
pourrions ajouter: il ne faut pas que l'étiquette
masque le dossier sur l'étagère. Et si nous
surlignons l'ensemble d’un texte, nous perdons
tout le bénéfice du travail. Dans le monde
digital, cette limitation disparaît. Notre ordinateur peut contenir plus d'informations décrivant
un dossier que d'informations contenues dans ce
dossier. Et si un texte numérisé a déjà été
surligné par des dizaines de lecteurs, l'ordinateur peut nous dire très facilement quels passages ils ont surligné, à quelle date ou provenant de quel pays.
Tout ceci modifie profondément notre manière
de classer l'information. Une photo représentant
Amandine et Sébastien, jouant au ballon sur la
plage de Blankenberge en 1997, avec une planche à voile à l'arrière plan, peut être désormais
indifféremment classée selon toute une série de
critères: photo des enfants, d'Amandine, de
Sébastien, de 1997, de plage, de Blankenberge,
de ballon, de planche à voile, mais également
taguée par des mots tels que vacances, sports,
jeux, etc. Nous pourrons alors demander à
l'ordinateur de sortir toutes les photos sur
lesquelles figurent les deux enfants, mais uniquement celles qui ont été prises en 1997.
Le monde digital permet ainsi de dépasser la
règle fondamentale de tout classement dans le
monde physique: chaque chose occupe simultanément plusieurs places. Un album photos digi-
Internet
tal est constitué comme une liste de lecture de
morceaux de musique dans un iPod: un simple
moyen de récupérer un assemblage particulier
d'éléments. Une photo peut se retrouver dans des
centaines d'albums pour un coût virtuellement
nul. Par contre, le monde physique impose des
choix permanents. Si l’on crée un album photos
à l'occasion d’un anniversaire de mariage, certaines devront être sélectionnées. Cet album constituera une sorte de référence et entraînera inévitablement un choix dans la mémoire familiale en
faisant ressurgir certaines d’entres elles. Le tri
dans le monde physique provoque toujours une
hiérarchisation des éléments.
Mais il serait faux de croire que ces changements n'affectent que notre vie privée. De
nombreuses institutions - les bibliothèques
nationales par exemple - sont chargées de
maintenir un classement dans notre mémoire.
La bibliothèque du Congrès, à Washington, aux
États-Unis, possède environ 142 millions
d'éléments (livres, gravures, documents divers),
disposés sur plus de 1 000 km de rayons.
Chaque jour, elle reçoit 22 000 nouveaux
éléments et en conserve environ 10 000
(http://www.loc.gov/about/facts.html). Les nouveaux
livres sont rapidement triés par thèmes et placés
dans des caisses envoyées ensuite à 300 ou 400
personnes représentant 80 spécialités, chargées
de les examiner un par un et de les classer dans
une des 285 000 catégories. Tout cela pour éviter que le savoir s'embrouille...
Plusieurs types de rangement
Fondée en 1936 par Otto Bettmann (19031998), la Bettmann Archive est une banque de
photographies et d'images, certaines remontant
à la période de la Guerre de Sécession (18611865) et comprenant des images historiques les
plus célèbres de l'histoire des États-Unis, mais
aussi provenant du monde entier.
En 1981, lorsque Otto Bettmann la vend à la
Kraus-Thomson Organization, la collection est
composée de 5 millions de photos, tirages,
posters, gravures et autres supports graphiques
retraçant l'histoire du XXe siècle. En 1990,
Kraus-Thomson achète 11,5 millions d'images,
la plupart provenant de la United Press International et de Reuters. Nombreuses d'entre elles
sont célèbres comme celle de Winston Churchill
faisant le V de la victoire, un astronaute sur la
Lune, Albert Einstein tirant la langue, ou encore
des ouvriers assis sur une poutrelle suspendue
dans les airs, Marilyn Monroe retenant sa robe
au-dessus d'une bouche de métro.
En 1995, les archives sont revendues à Corbis,
une banque d'images créée par Bill Gates dans
le but de construire une immense photothèque
numérique à but commercial
(http://fr.wikipedia.org/wiki/Bettmann_Archive).
En 2001, Bill Gates loue 90 camions
pour transporter la collection de
Manhattan vers une grotte calcaire, à
une profondeur de 70 m, au centre de
la Pennsylvanie où elles seront désormais à l'abri. Les 11 millions de
photos et de négatifs sont rangés par
ordre chronologique.
Dans le premier type de classement
sont rangés les objets eux-mêmes, les
livres sur des étagères, les photos
dans des albums. Mais la Bettmann
Archive comporte un second type de
classement: dans une pièce attenante
se trouve un catalogue de fiches
contenant des informations sur chacune des 11 millions de photos. Ce
catalogue sépare donc l'information sur l'objet
de l'objet lui-même. Les fiches sont rangées
par ordre alphabétique et par sujet, permettant
par exemple de trouver toutes les photos de
soldats. Un code sur chaque fiche du catalogue
renvoie vers l'endroit physique où se trouve
une photo.
Albert Einstein
(1879-1955)
tirant la
langue.
Ce type de classement du deuxième ordre
fonctionne, mais il coûte extrêmement cher et la
recherche est lente. Car c'est précisément là que
se situe la faiblesse du second type de classement: toute l'information concernant l'objet
n'est pas enregistrée.
Imaginons une photo représentant des soldats
durant la Guerre de Sécession: ils sont assis
devant un feu, prennent leur repas et bavardent.
La fiche correspondante comportera certainement les mots-clés «soldats», «guerre civile»,
mais sans doute pas d’informations sur le lieu
où la photo a été prise, ni les mots-clés «repas»,
«feu de camp», «uniformes», etc. Cela signifie
que pour rechercher une photo montrant des
soldats de la guerre civile prenant un repas
dehors autour d'un feu, il sera nécessaire de passer en revue des milliers de photos. Et si cette
information manquante était ajoutée aux fiches,
c'est le stockage de celles-ci qui créerait un nouveau problème.
La difficulté des deux premiers types de classement est qu'ils rangent des atomes. Ces atomes
occupent de l'espace. Une grande collection de
photographies oblige à créer un volumineux
catalogue pour nous permettre de retrouver une
photo bien précise. Et de plus, un élément
constitué d'atomes ne peut se trouver qu'à un
endroit à la fois. Il faut donc décider où classer
la photo «des soldats assis autour du feu».
85
Ceux qui
contrôlaient
l'organisation
de l'information
avaient ainsi plus
de pouvoir que
ceux qui la créaient.
Les éditeurs sont plus
puissants que
les reporters.
La façon dont tous
les obscurantismes
tentent de gérer
l'accès au savoir
leur permet de
disposer du pouvoir
de le diffuser
ou non.
Athena 254 / Octobre 2009
Internet
Tout change dans le monde numérique car le
contenu des photos est digitalisé sous forme de
bits et l'information les concernant également.
C'est le troisième type de classement. Le
monde digital ignore par exemple la limitation
de la taille des étiquettes. Et une librairie en
ligne comme Amazon (http://www.amazon.fr) peut
ajouter autant d'informations qu'elle le souhaite
à un livre: un résumé, une bibliographie, une
biographie de l'auteur, des évaluations de lecteurs, des commentaires, etc.
Ce classement porte le nom de métadonnées,
c'est-à-dire d'informations sur l'information. Ce
type de classement d'une collection n'autorise sa
consultation que par des experts. Corbis, la
banque d'images de Bill Gates, a réalisé un classement du troisième type de la collection
Bettmann qui est désormais consultable par tout
le monde. Corbis a numérisé toutes les images,
les rendant ainsi insensibles au temps qui passe.
Rappelons-nous la fameuse «encyclopédie chinoise» citée par Borgès selon laquelle «les
animaux se divisent en: a) appartenant à
l’Empereur, b) embaumés, c) apprivoisés, d)
cochons de lait, e) sirènes, f) fabuleux, g) chiens
en liberté, h) inclus dans la présente classification, i) qui s’agitent comme des fous, j) innombrables, k) dessinés avec un pinceau très fin en
poils de chameau, l) et cætera, m) qui viennent
de casser la cruche, n) qui de loin semblent des
mouches».
Un regard différent
En bons Occidentaux, nous éprouvons une
certaine difficulté à comprendre la logique de ce
classement qui échappe à tout ce que nous
connaissons.
Face à une telle hétérogénéité - mais en est-ce
réellement une ?-, nous sommes immédiatement enclins à nous demander si l'auteur a utilisé suffisamment d'informations. Si je range
dans une même catégorie les grands ducs
d'Europe et les baleines, je dois ajouter comme
information que tous deux sont des espèces
menacées, c'est ce qui les unit. Mais si je les
range dans une catégorie «divers» avec les criquets et les sauterelles, je perds ce lien; notons
au passage le remarquable projet de répertorisation du monde vivant entrepris par Wikispecies
(http://species.wikimedia.org).
Ainsi pouvons-nous être légitimement surpris
lorsque Linné (voir Athena n° 228, p. 266)
classe les animaux en deux catégories aussi déséquilibrées que les vertébrés et les invertébrés.
Il divise les vertébrés (40 000 espèces) en quatre sous-catégories et les invertébrés (1 million
Athena 254 / Octobre 2009
86
d'espèces) en seulement deux catégories: les
insectes et les «vers» (vermes en latin), une
sorte de masse indifférenciée où Linné a tout
mélangé, les vers de terre et les méduses. C'est
Lamarck qui a corrigé la taxinomie de Linné en
classant beaucoup plus précisément les «vers».
Que chacun classe selon ses besoins. Linné,
Lamarck ou un pêcheur à la ligne portent nécessairement un regard différent sur les vers.
Pour comprendre un classement, nous avons
besoin de métadonnées. Soyons conscients que
les limitations physiques du classement des éléments ne se bornent pas qu’à notre vision du
monde. Ceux qui contrôlaient l'organisation de
l'information avaient ainsi plus de pouvoir que
ceux qui la créaient. Les éditeurs sont plus
puissants que les reporters. La façon dont tous
les obscurantismes tentent de gérer l'accès au
savoir leur permet de disposer du pouvoir de le
diffuser ou non.
C'est vrai dans le premier et le second type de
classement. Dans le troisième, c'est beaucoup
plus compliqué. On comprend dès lors beaucoup mieux pourquoi certains régimes interdisent l'accès à Internet (Corée du Nord) ou le
contrôlent (Cuba, Tunisie, Chine). Les deux
premiers types sont une lutte pour le pouvoir
car il s'agit d'imposer un choix, il doit y avoir un
vainqueur. Le troisième libère le territoire
emprisonné dans le classement. Plutôt que de
faire entrer des éléments au chausse-pied dans
des catégories, il les tague. Ce qui permet à
l'utilisateur d'ajouter quelques mots-clés sur un
élément (page Web, photo) pour le retrouver
plus tard. C'est ce que font les systèmes
sociaux de signets (social bookmarking)
comme Delicious (http://delicious.com/) ou Diigo
(http://www.diigo.com/).
Une page sur Namur peut être taguée «Namur»,
«Namen», «ville», «Wallonie», etc. selon les
besoins, la sensibilité et les envies de chaque
visiteur. Les anciens systèmes de gestion de
signets obligeaient à créer des catégories pour y
placer des pages Web qu'on ne retrouvait plus au
bout de quelques jours. Gmail - le génial
système de messagerie en ligne de Google - a
également adopté les tags pour classer les
messages.
Voilà comment le désordre libère notre travail et
d'une certaine manière notre liberté de penser.
Christian VANDEN BERGHEN
[email protected]
http://www.brainsfeed.com/
L’avion polymère
La taille d’un Airbus, le poids d’une voiture de tourisme, la puissance d’un scooter. Et, surtout,
la force d’une vision: voler jour et nuit sans carburant ni pollution. Un défi suisse… et belge
par l’apport technologique du groupe Solvay. Si le projet est futuriste, la plupart des matériaux
utilisés existent déjà sur le marché
ême s’il a l’envergure d’un A340, le
Solar Impulse n’a pas d’ambition
commerciale; il ne remplacera jamais
nos Airbus et autres Boeing. Le projet n’est pas
davantage sportif: le défi n’est pas de signer un
nouveau record en faisant le tour du monde avec
la seule énergie solaire. En revanche, ses promoteurs - les Suisses Bertrand Piccard et André
Borschberg - sont bien décidés à repousser les
limites de l'impossible à l’instar, en leur temps,
de Blériot ou des frères Wright. Objectif: réaliser
en 2012 le tour du monde, en étapes, avec un
avion habité, mû uniquement par l’énergie
solaire, à l’exclusion de toute autre source
d’énergie, sans aucune émission polluante.
Premier décollage dans les semaines à venir.
M
D’emblée, c’est la taille de l’avion qui suscite la
fascination: 63,4 mètres ! Soit encore 200 m2 de
cellules photovoltaïques - en réalité, 12 000 cellules en place en silicium monocristallin de 130
microns d’épaisseur… C’est gigantesque. Et, en
même temps, à peine suffisant pour faire voler
l’engin.
Wright en 1903 lorsqu’ils ont réalisé le premier
vol motorisé. Et c’est avec cette énergie-là,
optimisée du panneau solaire à l’hélice par le
travail de toute une équipe, que Solar Impulse
ambitionne de voler jour et nuit sans carburant !
Le problème, ce sont les batteries. Par nature,
elles pèsent lourd. Avec une densité énergétique
légèrement supérieure à 200 Wh/kg, la masse
d’accumulateurs de type lithium-polymère
nécessaire pour un vol de nuit se monte à 400
kg, soit plus du quart de la masse totale de
tl’avion. Conséquence: il a fallu réduire le poids
du reste de l’avion, optimiser toute la chaîne
énergétique et maximiser le rendement aérodynamique par un grand allongement et un profil
d’aile conçu pour les basses vitesses, moins
gourmandes en énergie.
Ces batteries fourniront l’énergie pour voler.
Chacune - constituée de 70 accumulateurs et
d’un système de gestion contrôlant le seuil de
charge et de température - actionne un moteur.
Chaque moteur a une puissance de pointe de
Quelque
11 628 cellules
solaires très
exactement
recouvrent
la surface
des ailes
de Solar Impulse.
Ce sont elles qui
produisent l’énergie
pour faire voler
l’avion de jour…
et de nuit.
Tout l’enjeu a été
de les fixer et
de les protéger.
Des films plastiques
spéciaux à hautes
performances
ont été utilisés.
Optimiser les énergies
On s’en doute, la question énergétique conditionne l’ensemble du projet, des dimensions de
la structure aux contraintes extrêmes de masse.
À midi, chaque m2 de surface terrestre reçoit
l’équivalent de 1 000 Watts, soit 1,3 CV de
puissance lumineuse. Répartie sur 24 heures,
l’énergie du Soleil ne fournit qu’une moyenne
de 250 W/m2. Avec 200 m2 de cellules photovoltaïques et 12% de rendement total de la
chaîne de propulsion, la puissance moyenne
produite par les moteurs de l’avion n’atteint
plus que 8 CV ou 6 kW.
Les batteries, un quart du poids total, c’est à peu
de choses près ce dont disposaient les frères
87
Athena 254 / Octobre 2009
Technologie
Oublié le métal,
remisé le titane !
S
olvay apporte au total 6 000 pièces du
Solar Impulse, 12 produits et 15 applications. Dans tous les domaines: pour alléger l’avion, pour accroître son efficience énergétique, pour renforcer l’isolation, pour tester la
résistance des pièces…
Cette libellule
géante, d’une
envergure
de 63,40 m et
d’un poids
de 1 600 kg,
est mû par
quatre moteurs
d’une puissance
variant entre
4 et 10 CV
maximum.
Ses batteries
représentent
à elles seules
un quart
du poids total.
Le stockage
de l’énergie a été
le plus grand défi.
Si la plupart des matériaux utilisés sont déjà
commercialisés, certains ont été optimisés.
Exemple, l’encapsulation des cellules photovoltaïques. Assemblées par plaques de 3 m², les
cellules en silicium monocristallin de
l’Américain Sun Power (au rendement de 22%)
ont été emprisonnées dans des couches plastiques développées par Solvay. Ce sont elles qui
encaissent les déformations. Restait à tester
cette solution. La validation s’est déroulée au
sol, toujours chez Solvay. Une masse de 5 tonnes a été répartie sur ses ailes pour simuler une
accélération de 3g.
Alléger les composants
Solvay Advanced Polymers possède, à l’échelle
mondiale, une gamme unique de matières plastiques à hautes performances, utilisées notamment dans des applications de remplacement
des métaux. Ces produits offrant des résistances
chimiques en milieu agressif, ou encore ayant
des propriétés de frottement remarquables, sans
être visibles, sont présents dans la vie courante
sous forme de pièces sous capots moteur ou
dans l’habitacle, dans nos appareils portables
(téléphones, ordinateurs), dans les avions et
dans de nombreuses applications de sécurité.
Ces matières participent ainsi à la réduction de
poids extrêmement importante pour limiter la
consommation d’énergie.
L’objectif a été de remettre en question l’utilisation du métal, ce qui devait permettre de
réduire le poids d’un certain nombre de composants. Plusieurs applications furent détectées et
analysées. L’une d’entre elles concerne les
coussinets et les manchons entre pièces en mouvement l’une par rapport à l’autre. En aéronautique, on utilise généralement du titane, dont la
densité est de 4,5 gr/cm3; avec des matériaux
comme le Torlon 4435 ou le Ketaspire KT 820
SL30, on atteint un niveau de densité de 1,59
gr/cm3 pour le premier et 1,45 gr/cm3 pour le
second.
Le partenariat technologique de Solvay, avec
Solar Impulse, qui couvre les domaines de la
chimie et des plastiques, se matérialise dans:
Athena 254 / Octobre 2009
88
la recherche de solutions et de matériaux
optimaux, notamment par la définition de
matériaux de structure hybride;
la production et/ou sélection de polymères à
hautes performances destinés à des applications critiques (joints d’étanchéité, lubrification);
les méthodes d’encapsulation et d’assemblage de cellules photovoltaïques avec le
matériau de structure sélectionné pour
l’avion;
la recherche concernant la production et
l’utilisation de matériaux photovoltaïques
adéquats;
la recherche concernant les batteries répondant aux besoins du projet;
la sélection de matériaux d’isolation thermique haute performance;
la modélisation technique et simulation avec
des logiciels adaptés particulièrement aux
pièces de grande taille et aux conditions
extrêmes et
l’évaluation mécanique et des tests de matériaux en conditions extrêmes.
Technologie
10 CV et est muni d’un réducteur limitant à
200-400 tours/minute la rotation d’une hélice
bipale de 3,5 mètres de diamètre. L’avion doit
être capable de voler à des vitesses aussi réduites que 45 km/h (au sol) en vol de nuit où
l’économie d’énergie sera vitale, tandis que sa
vitesse moyenne de croisière sera de l’ordre de
75 km/h.
Si l’énergie solaire est au cœur du projet, le défi
a été de gérer et d’optimiser tout à la fois
l’énergie lumineuse dans le rayonnement
solaire, l’énergie électrique au niveau des cellules photovoltaïques, des batteries et des
moteurs, l’énergie chimique dans les batteries,
mais aussi l’énergie mécanique via le système
de propulsion, l’énergie cinétique lorsque
l’avion prend de la vitesse, l’énergie thermique
pour toutes les pertes (frottement, échauffement) que l’on cherche à minimiser à tout prix.
Une «peau» de cellules
Dans un avion, tout est équilibre, tout est compromis. Le Solar Impulse pourrait être plus
puissant, mais il serait alors plus lourd. Ses
promoteurs l’ont conçu autour d’une ossature
en matériaux composites constitués de fibres de
carbone et de nids d’abeilles assemblés en sandwich. L’aile est recouverte sur l’intrados (partie
inférieure) d’un film flexible et, sur l’extrados
(partie supérieure), d’une «peau» composée de
cellules solaires encapsulées dans un film en
polymère fluoré, appelé à les protéger et à
maintenir leur rendement dans les conditions
les plus extrêmes rencontrées en vol, sans présenter de dégradations suite à l’exposition aux
rayons UV. Quelque 120 nervures en fibres de
carbone, réparties tous les 50 cm, profilent ces
deux couches pour donner à l’ensemble sa
forme aérodynamique.
Atteindre 61 m d’envergure pour 1 500 kg tout
équipé est un défi jamais réalisé à ce jour en
termes de rigidité, de légèreté et de contrôlabilité en vol. L’intégration des cellules solaires
encapsulées (fragiles et rigides) sur l’aile qui
devra subir des contraintes diverses en torsion
et en flexion, a fait l’objet de recherches très
longues et approfondies.
C’est là que Solvay a fait la différence en proposant, non seulement avec des cellules photovoltaïques, mais aussi en remplaçant, partout où
cela était possible, des pièces métalliques à hautes contraintes mécaniques par des ultra-polymères et autres polymères techniques, tels des
polyamide-imides (PAI), des polyetheretherkétones (PEEK), des polyphénylènes auto-renforcés (SRP), des polyphénylsulfones (PPSU) ou
des polyarylamides (PA MXD6).
Ambassadeur du futur
De nouvelles cellules solaires offrant un meilleur rapport efficacité-poids, des systèmes intelligents de gestion d'énergie, des matériaux aussi légers que résistants, un
système de stockage des plus performants…
Les solutions développées pour l'avion solaire trouveront d'autres applications
notamment dans la médecine ou dans la construction, où efficacité et fiabilité sont
des facteurs déterminants.
Solar Impulse est à ce titre une formidable plate-forme éducative, dont l'importance culminera pendant les missions. Lors de chaque vol, à partir de 2010, le pilote
et l'équipe seront en contact avec le public. De plus, en faisant une escale sur chaque
continent, ils iront à la rencontre des autorités et des populations locales afin de
promouvoir les technologies indispensables pour assurer l'avenir énergétique de la
planète.
Le projet a valeur de symbole. De fait, sur Terre, nous sommes tous dans la situation
du pilote de Solar Impulse. Si ce dernier n'a pas les bonnes technologies ou gaspille
son énergie, il devra atterrir avant que le lever de soleil ne lui permette de poursuivre son vol. Si nous n'investissons pas dans les moyens scientifiques pour permettre
de développer de nouvelles sources d'énergie, nous nous trouverons face à une crise
majeure, qui nous empêchera de transmettre la planète à la génération suivante.
Un même effort d’optimisation poids-efficacité
a été réalisé en matière de matériaux d’isolation, nécessaires pour que le pilote et certains
composants tels que batteries et modules
électroniques puissent affronter les températures extrêmes (- 40 °C à + 60 °C) en vol, notamment par l’utilisation de gaz fluoré dernière
génération pour le moussage de résines PUR.
C’est ainsi que toute la face avant du cockpit,
protégeant le pilote, est accrochée à la structure
et est constituée d’une mousse de résine très
légère, peu épaisse, mais présentant cependant
des propriétés d’isolation particulièrement
élevées.
Pour en
savoir plus:
[email protected]
Pour les équipes de Solvay, ce ne fut pas une
chasse aux kilos, mais aux grammes. Il était
nécessaire d’«aller chercher» ces quelques
grammes partout: dans la structure, la chaîne
énergétique, l’isolation thermique… Un travail
de fourmi, un exercice d’extrême patience qui a
débuté en octobre 2004 pour aboutir aujourd’hui. Et tout penser, tout concevoir, tout tester.
Jusqu’à la lubrification des pièces mobiles. Un
mauvais frottement peut en effet faire perdre
5% d’énergie, ajouter un lubrifiant aurait coûté
en poids. Dans Solar Impulse, les composants
sont donc autolubrifiants !
Alain de FOOZ
[email protected]
89
Athena 254 / Octobre 2009
Technologie
Concevoir et développer
de nouveaux produits
«A travers ce projet, nous lançons un message fort aux
scientifiques et à l’industrie: il est urgent de rassembler
nos expertises !», explique Claude Michel, Senior Vice
President, Head of Solvay / Solar Impulse partnership
ourquoi investir dans l’aéronautique ? Un nouveau
débouché pour Solvay ?
P
Oubliez l’avion ! Ce
n’est pas lui qui compte; c’est le projet, l’ambition qu’il représente et le message qu’il porte:
peut-on imaginer un monde moins dépendant de
l’énergie fossile ? L’idée est née lors du tour du
monde en ballon de Bertrand Piccard fin des
années 90. Pour le réaliser, il a décollé avec 4
tonnes de propane en nacelle; il lui en restait à
peine 40 kg à l’atterrissage. Son exploit était
donc intimement lié à l’énergie fossile…
Demain, les performances devront contribuer à
protéger les ressources de la planète et à entrer
dans une logique de durabilité.
e projet, on ne peut plus ambitieux, est risqué. Pourquoi
l’avoir relevé ?
Claude Michel,
Senior
Vice President,
Head of Solvay /
Solar Impulse
partnership.
Courriel:
claude.michel@
solvay.com
Ccontenait, à nosDèsyeuxsond’industriel
annonce, Solar Impulse
chimiste et
pharmacien, les éléments fondamentaux du formidable défi humain qui se dresse devant nous.
Nous savons tous que nous allons manquer de
pétrole; nous sommes conscients de notre
dépendance et, tout autant, de ses conséquences
sur l’environnement. Il est urgent de réagir. À
travers ce projet, nous lançons un message fort
aux scientifiques et à l’industrie: rassemblons
nos expertises.
otre engagement est concret: apport technologique,
ressources humaines, fonds… Attendez-vous un retour
sur investissement ? C’est évident. Et ce retour se
V
matérialisera sous différentes formes. Participer
au défi permet au groupe de renforcer son
savoir-faire dans les nouveaux matériaux, la plupart dérivés de l’or noir. Le retour sur investissement se concrétise déjà au niveau humain: nos
collaborateurs sont particulièrement fiers de
participer à ce projet. De fait, par-delà l’exploit
de faire voler un avion autour du monde avec la
seule énergie solaire, on peut imaginer la
conception et la fabrication de nouveaux produits issus du développement durable.
L’Histoire se perpétue
Toutefois, il ne s’agit pas d’imaginer de nouveaux concepts. Nous voulons montrer que les
technologies existantes sont déjà des bonnes
solutions à nos problèmes énergétiques et qu’elles sont immédiatement disponibles pour des
utilisations à grande échelle. Comme il est quasi
impensable que la population accepte de diminuer son niveau de vie, nous devrons développer
des équipements efficaces consommant moins et
des sources d’énergie alternatives dont, en premier lieu, l’énergie solaire.
es liens tissés voici près d’un siècle entre Ernest Solvay,
fondateur du groupe, et Auguste Piccard, le grand-père
de Bertrand Piccard, ont-ils pesé dans la balance ? Nous
L
avons tout de suite cru dans le projet de Bertrand
comme Ernest Solvay a cru dans les projets de
son grand-père. Et nous sommes heureux de
prolonger ainsi une amitié qui traverse les générations… S’il est mené en Suisse, et si Bertrand
Piccard est Suisse, ce projet est également belge.
Pour l’anecdote, Auguste Piccard inspira le professeur Tournesol à Hergé ! Plus sérieusement, il
faisait partie de l’Institut international de physique de Solvay; il a maintes fois séjourné à La
Hulpe, chez Ernest Solvay, avec Albert Einstein,
Pierre et Marie Curie pour ne citer qu’eux.
L’Histoire, avec un grand «H», se perpétue.
Alain de FOOZ
[email protected]
Athena 254 / Octobre 2009
90
Technologie
La voiture à air comprimé :
mythe ou réalité ?
Que ferions-nous sans notre voiture ? Synonyme de liberté, nous l'utilisons tous les jours pour
aller au travail, effectuer des achats, conduire les enfants à l'école, dire bonjour à la famille,
partir en vacances. La voiture, et les transports en général, sont un des points névralgiques
d'une société développée. On en compte aujourd'hui un milliard dans le monde
es voitures à essence et diesel classiques
vivent actuellement leurs dernières
années. Tout le monde s'accorde en effet
à dire que l'ère du pétrole abondant et bon marché est bientôt révolue. De plus, l'utilisation
massive de ce type de transport pollue considérablement l'air que nous respirons et, à plus
grande échelle, notre planète entière. Alors
quelles solutions pourrions-nous trouver ?
Quelle sera la voiture du futur ?
L
Depuis des dizaines d'années, les scientifiques
travaillent avec acharnement sur des nouveaux
types de voitures: électriques, à hydrogène, au
biocarburant, solaires ou encore au gaz. Il y a un
autre type de voiture dont on parle peu: la voiture à air comprimé. Mais cette solution est-elle
crédible ?
L'utilisation de la détente de l'air comprimé
comme force motrice remonte à l'époque du
développement des chemins de fer où, dans le
cas des réseaux miniers et urbains, il était
nécessaire d'éviter les risques et pollutions inhérents à la locomotive à vapeur. Les premières
applications pratiques de véhicules à moteur à
air comprimé, sur rail, datent du percement de
tunnels ferroviaires (1872) et de quelques expérimentations de tramways.
ment sur l'application du moteur à air comprimé
pour l'automobile. Citons Energine, au Japon,
ou MDI (Motor Development International),
une société française installée à Carros, près de
Nice, et menée par Guy Nègre.
Son principe de fonctionnement repose sur de
l'air comprimé qui entraîne les pistons du
moteur, et donc fait avancer le véhicule. L'idée
est venue au départ d'une pratique bien connue
en sport automobile, qui consiste à utiliser une
injection d'air comprimé dans les cylindres pour
faire démarrer un moteur récalcitrant.
Le moteur de base fonctionne selon un cycle
thermodynamique différent des moteurs actuels
à 4 et à 2 temps. Le moteur à air comprimé est
un moteur à 5 temps et à 3 chambres séparées:
2 chambres d'aspiration et d'expansion et
1 chambre de compression reliée par un
injecteur électronique à deux réserves d'air
comprimé de 300 litres à 300 bars. Avec ces
3 chambres, on dispose donc des différentes
étapes: aspiration, compression, injection d'air
comprimé additionnel, expansion, détente,
échappement.
L’AIRpod de MDI,
première voiture
à air comprimée
commercialisée.
Un moteur à cinq temps
Aujourd'hui, l'air comprimé est surtout utilisé
dans divers instruments comme les fraises de
dentiste, les marteaux burineurs, les boulonneuses, agrafeuses et marteaux, visseuses, tournevis, foreuses et meuleuses pneumatiques, pinces
coupantes, etc.
La mise en œuvre sur les voitures a fait l'objet
de quelques réalisations. Mais le concept
semblait avoir été oublié. L'idée revient à la
mode. Plusieurs sociétés travaillent actuelle-
91
Athena 254 / Octobre 2009
Technologie
Ainsi, par le jeu du piston, le premier cylindre
aspire l'air extérieur à travers un filtre et
l'envoie dans la chambre de compression où,
au même moment, un jet d'air comprimé est
introduit. Aussitôt relâché dans le cylindre
d'expansion, l'air pousse le deuxième piston qui
va actionner la roue du moteur.
(1) Selon
nos calculs,
l’autonomie est
plutôt de 135 km
à 45 km/h.
Prenons l'exemple de la voiture AIRpod proposée
par MDI. Elle a un moteur bicylindre, roule à
maximum 45 km/h ou 70 km/h selon la version
(c'est donc une voiture exclusivement urbaine).
Elle offre, selon le constructeur (1), une autonomie de 220 kilomètres grâce à un réservoir en
fibres de carbone contenant 200 litres d'air comprimé à une pression de 350 bars. Contrairement
à la propulsion électrique qui demande beaucoup
de temps pour la recharge, ici 1,5 minute suffit
pour recharger le véhicule à l'aide d'un compresseur. Le coût d'un plein (220 km) est estimé à
moins de 1 euro. Pour ceux qui n'ont pas de station à proximité, les ingénieurs ont prévu un petit
compresseur, monté en série sur la voiture, permettant de la recharger en 4 h chez soi, en la
branchant sur une prise électrique. Selon MDI, le
prix estimé de la AIRpod serait de 6 000 euros.
Consommer moins, polluer moins
Pour en
savoir plus
Michel Wautelet,
Damien Duvivier,
«Sciences,
technologies
et société.
Guide pratique en
250 questions»,
troisième édition,
De Boeck,
Bruxelles, 2009.
http://www.mdi.lu
http://www.energine.
com/e_main.php
La voiture à air comprimé est écologique. On
n'utilise pas exclusivement de l'air comprimé
pour faire rouler le véhicule, mais également
l'air extérieur, qui est aspiré, filtré et rejeté.
Cette voiture ne pollue pas, mais en plus, elle
filtre l'air ambiant ! C’est aussi un véhicule simple, peu coûteux et économique à l'entretien,
grâce notamment à la température modérée de
fonctionnement du moteur (pas de combustion).
Du point de vue de la climatisation, la voiture
électrique doit consommer une part importante
de son énergie afin de refroidir l'habitacle, alors
que la voiture de MDI n'a qu'à récupérer
l'air froid qui sort du tuyau d'échappement.
Le temps de charge est également très réduit:
quelques minutes contre 6 à 8 heures pour les
batteries.
Ce qui nous amène la question piège, celle que
brandissent les adversaires du moteur à air
comprimé. «Pourquoi utiliser de l'électricité
pour compresser de l'air (avec un rendement
assez mauvais) au lieu de prendre cette même
électricité pour charger directement des batteries ?». Les supporters du moteur à air comprimé rétorquent que le poids excessif des batteries des voitures électriques vient plomber
leurs performances et entraîne une consommation d'énergie plus importante pour une prestation équivalente et ce, malgré leur rendement
théoriquement supérieur.
Athena 254 / Octobre 2009
92
L'intérêt majeur du moteur à air réside surtout
dans la possibilité de remplacer les batteries au
lithium dans les véhicules hybrides futurs. Les
batteries au lithium sont coûteuses, lourdes et
ont un temps de vie limité. Dans le cas de la
voiture à air, seul le volume important du réservoir pose problème. On pourrait ainsi avoir une
voiture hybride avec un moteur à combustion et
un moteur à air comprimé, consommant moins,
polluant moins, et sans les désavantages de la
batterie au lithium (prix, durée de vie, temps de
charge).
Des voitures intelligentes
De plus, avec les batteries au lithium, certains
pensent que nous pourrions passer d'une dépendance au pétrole à une dépendance au lithium.
Sur Terre, le lithium n'est pas présent sous sa
forme métallique à cause de sa grande réactivité. On le trouve principalement comme impureté dans les sels de métaux alcalins. Bien que
très abondant dans la nature (33e élément le plus
abondant sur Terre), il n'existe, en concentration
permettant une exploitation économiquement
rentable, qu'en très peu d'endroits. Le plus
grand gisement au monde est le Salar de Uyuni,
un désert de sel au sud-ouest de la Bolivie. Ce
gisement représente un tiers des ressources
mondiales.
Demain, les voitures devront être beaucoup plus
sobres, et plus optimisées pour un certain type
de déplacement. D'où des véhicules différents
pour la conduite en ville et sur autoroute. Cela
permettra de disposer de voitures mieux adaptées, plus sobres, mais plus intelligentes. Il est
possible, on l’a dit, de faire rouler une voiture à
l'air comprimé. Les performances sont cependant assez limitées et ne permettent, et ne permettront, que d'avoir un petit véhicule léger et
lent, uniquement destiné à une utilisation
urbaine ou pour de petits déplacements. La
société MDI va d'ailleurs livrer ses premiers
AIRPod dans les aéroports parisiens et hollandais. La commercialisation est prévue pour la
fin de l'année 2009.
Notons que, contrairement à une voiture électrique, la voiture à air fait du bruit. Ce qui n'est
pas forcément un désavantage (on l'entend arriver), mais cela limite ce genre de véhicule à une
utilisation en extérieur, comme les aéroports.
Les petits véhicules électriques seront eux plus
appropriés pour les centres commerciaux, par
exemple.
Damien DUVIVIER
[email protected]
Michel WAUTELET
[email protected]
U n défi p o u r l ’ humanité
Les dirigeants du monde entier devront parvenir à surmonter leurs divergences d’intérêts
pour se rassembler autour d’un projet politique fondé sur un constat scientifique objectif.
Parvenir fin 2009 à un nouveau traité intergouvernemental ambitieux pour poursuivre
la réduction des émissions de gaz à effet de serre (GES) au-delà du 1er janvier 2013,
tel est l’objectif que s’est fixé la Convention des Nations unies sur le réchauffement climatique
l semble qu’il y a une énorme bonne
volonté en ce sens. La nouvelle administration américaine est favorable à des mesures
fortes sur le plan intérieur. La Chine se fixe des
objectifs ambitieux en termes d’économie
d’énergie et procède déjà à d’importants investissements dans les énergies renouvelables.
L’Inde a dressé son propre plan d’action et
l’Europe s’est fixé comme objectif d’atteindre
en 2020 un niveau d’émission inférieur de 30%
à celui de 1990. Ainsi, un peu partout à travers
le monde, les engagements se font de plus en
plus nombreux.
I
Les scientifiques et les politiques souhaitent
qu’en 2050, après un pic qui devrait être atteint
vers 2020, la totalité des émissions de GES de
la planète soit inférieure de moitié à ce qu’elle
était en 1990. Or les émissions de l’ensemble
des pays en voie de développement sont
inférieures à celles du monde industrialisé et,
à court terme, il serait nécessaire qu’elles
restent à la hausse de manière à maintenir la
croissance économique et réduire la pauvreté !
Il faut par conséquent qu’en 2050 les pays
industrialisés aient baissé leurs émissions d’au
moins 80% par rapport à 1990 avec une mise en
œuvre des principales mesures en ce sens lors
de la prochaine décennie.
Instabilité du climat
Au cours de son histoire, la Terre a connu
plusieurs bouleversements climatiques, les plus
importants étant les périodes glaciaires. Cellesci se sont produites par cycles d’environ
100 000 ans séparés par des périodes plus
chaudes. L’analyse des carottes de glace prélevées jusqu’à une profondeur de 3 260 mètres en
Antarctique a mis en évidence les neuf cycles
glaciaires que notre planète a connu au cours
des 800 000 dernières années. Or le rythme de
ces cycles s’est brutalement modifié il y a
420 000 ans. Si les périodes chaudes les plus
récentes sont caractérisées par des températures
comparables à celles que nous connaissons
actuellement, avant 420 000 ans, elles étaient
moins chaudes mais duraient plus longtemps.
D’autre part, sur un site situé au Groenland, les
chercheurs ont repéré des variations rapides
(c’est-à-dire des élévations abruptes de température suivies de lents refroidissements) du
climat jusqu’il y a 123 000 ans. Au vu des
changements climatiques que nous connaissons
aujourd’hui, la compréhension de ces instabilités est un enjeu majeur pour les climatologues.
À Neem (North Greenland Eemian Ice Drilling
- un projet impliquant 14 pays dont l’Université
libre de Bruxelles (ULB) et s’étendant de 2007
à 2011), les scientifiques se sont intéressés à la
période interglaciaire dénommée Eémien, un
bref répit entre deux glaciations et qui aurait
débuté il y a 130 000 ans pour s’achever il y a
93
Voilà l'océan Arctique
tel que l'a croqué
le satellite ICESat
à l'hiver 2008.
Les zones les
plus pâles sont
les couches de glace
les plus épaisses
(5 mètres) et
les plus foncées,
celles où la glace
est la plus fine
(moins d'un mètre).
(Photo: Nasa).
Dans le titre:
l’ouragan Humberto
s’enroule au nord
des Bermudes
le 24 septembre 2001.
(Photo: Nasa).
Athena 254 / Octobre 2009
Climat
Faire parler la glace
L’analyse d’une carotte glaciaire repose sur
deux éléments principaux: l’eau et l’air. Le
dosage isotopique (mesure de la concentration des isotopes d’un élément) de l’hydrogène présent dans l’eau de la glace permet de
reconstituer les températures. Il s’agit de
déterminer la teneur en deutérium, dont on
sait qu’elle est d’autant plus faible que la
température qui règne pendant les précipitations est basse.
Quant à l’analyse de l’air piégé dans la glace,
elle renseigne la composition atmosphérique
de l’époque, par exemple la concentration
des gaz à effet de serre.
115 000 ans, lors de la dernière glaciation.
L’analyse des carottes de glace révèle que dans
l’Arctique les températures ont été jusqu’à 5 °C
plus élevées qu’aujourd’hui pendant cette période, présentant une situation proche de celle
vers laquelle nous semblons nous diriger à
cause du réchauffement climatique.
Il est donc évident que le climat a toujours subi
des variations sous l’influence de facteurs
naturels, et ceci bien avant que l’espèce
humaine ne commence à utiliser des combustibles fossiles tels que le charbon, le pétrole et le
gaz. En effet, de nombreux indices laissent à
penser que l’activité solaire a une incidence sur
le climat de la planète, outre le fait indiscutable
que le Soleil est la source de la quasi-totalité de
l’énergie présente sur Terre.
Qui est responsable ?
La chasse aux six gaz
C
e sont des gaz dont la particularité est d’être transparents à la lumière visible mais
opaques pour une majeure partie du rayonnement infrarouge émis par la Terre. Le
taux d’absorption dépend du gaz considéré en raison de la structure électronique des
molécules qui le composent.
Les GES visés par le protocole de Kyoto (émis par les activités humaines) sont:
le dioxyde de carbone (CO2), d’une durée de vie de 5 à 200 ans, principal responsable
du réchauffement climatique (70%) est le résultat de la combustion des énergies fossiles (pétrole, charbon) et de la biomasse;
le protoxyde d’azote (N²0), d’une durée de vie de 114 ans, responsable pour 14% du
réchauffement, produit des activités agricoles, de la combustion de la biomasse et
des produits chimiques comme l’acide nitrique;
le méthane (CH4), pour 12%, produit par l’agriculture (rizières et élevage), la production et la distribution de gaz et de pétrole, l’extraction du charbon et les décharges
publiques;
les gaz fluorés (hydrofluorocarbures, perfluorocarbures et hexafluorure de soufre)
pour 4% proviennent des systèmes de réfrigération et sont employés dans les aérosols et les mousses isolantes ainsi que dans l’industrie des semi-conducteurs. Les gaz
fluorés ont un pouvoir de réchauffement 1 300 à 24 000 fois supérieur à celui du
dioxyde de carbone et une très longue durée de vie. C’est pourquoi ils représentent
un réel danger malgré leur modeste part dans les émissions totales de GES.
La part relative des activités humaines dans les émissions de GES en Europe est
(environ): pour le transport (27%), l’Industrie (21%), le bâtiment (20%), l’agriculture
(16%), l’énergie (13%) et les déchets (4%).
Breaking the deadlock (Sortir de l'impasse)
Ce projet, initié par l’ancien premier ministre britannique Tony Blair, vise à mobiliser
toutes les parties prenantes face au problème climatique. «Il est possible de parvenir
à 70% des réductions prévues pour 2020, estime Tony Blair, en investissant dans trois
domaines: l’augmentation du rendement énergétique, la réduction de la déforestation et l’utilisation de sources d’énergie à faible émission de carbone.»
Athena 254 / Octobre 2009
94
L’activité solaire (voir Athena n° 253, pp. 8 et
9) fluctue en fonction d’un cycle d’une durée
approximative de 11 ans et le nombre de taches
solaires permet de se situer au sein de ce cycle
(nous sommes actuellement dans un minimum)
qui a vraisemblablement un effet sur le climat
de la planète. Cet effet semble toutefois relativement limité si on le compare à celui des gaz à
effet de serre anthropiques.
Les scientifiques pensent qu’à l’ère préhistorique de violentes éruptions volcaniques ou
d’autres incidents géologiques sont la cause de
sérieux effets sur le climat. Ils en prennent pour
preuve l’éruption du Pinatubo en 1991 qui a été
d’une telle puissance que l’on a enregistré au
cours des deux années suivantes une chute
mesurable de la température moyenne à la
surface de la Terre. Cette baisse s’explique par
la projection d’une énorme quantité de
particules solides dans l’atmosphère durant
l’éruption, qui ont eu un effet refroidissant.
Et il y a ces gaz à effet de serre ! L’effet de serre
est un phénomène naturel qui contribue à
retenir la chaleur émise par la surface terrestre.
À l’heure actuelle, la température moyenne à la
surface de la Terre est d’environ 14 °C mais
sans l’effet de serre, elle serait d’environ
-19 °C. Différents gaz présents dans l’atmosphère terrestre contribuent à ce phénomène,
le principal étant la vapeur d’eau suivie par
le CO2. La teneur atmosphérique en GES,
notamment en CO2, et ses conséquences sur le
climat font l’objet de débats car l’accroissement
des concentrations de GES dans l’atmosphère a
été considérable depuis environ 250 ans et plus
particulièrement au cours des 50 dernières
années.
Climat
À l’heure actuelle, les concentrations atmosphériques de CO2 sont d’environ 385 ppm
(parties par million). Avant l’ère industrielle, la
concentration était d’environ 280 ppm. Des
analyses de bulles d’air emprisonnées dans les
glaces antarctiques montrent que les concentrations de CO2 sont bien plus élevées aujourd’hui
qu’elles ne l’ont jamais été pendant les 650 000
années écoulées.
Des faits récents
Les dernières recherches
Ces dernières années, les recherches sur le climat adhèrent dans leur quasi-totalité aux
conclusions du dernier rapport de synthèse du
GIEC (Groupe d'experts intergouvernemental
sur l'évolution du climat). Ses conclusions montrent que le réchauffement planétaire est une
réalité et que le facteur le plus important y
contribuant est l’émission de GES induite par
les activités humaines. L’un des exemples allant
dans ce sens est la fonte des glaces de l’océan
Arctique, produite ces dernières années à un
rythme beaucoup plus rapide que ce qu’avait
prévu le dernier rapport de synthèse du GIEC. Il
en va de même de la quantité de glace ayant
fondu dans l’inlandsis groenlandais.
La concentration en CO2 atteignait au mois de mai 2009 le sommet de 390 ppm
(partie par million) alors qu’en 1958 à Mauna Loa (Hawaï) elle n’était encore que de
316 ppm. Cette valeur est la plus élevée relevée depuis les dernières deux millions
d’années.
2008 figure parmi les dix années les plus chaudes observées depuis le début des
observations en 1850: en deuxième place derrière 2007 ! La température moyenne
annuelle est de 0,49 °C plus élevée que la température moyenne du XXe siècle.
L’étendue des glaces de l’Arctique (entre la Russie et le Canada) a atteint, à une
année près (2007), leur minimum d’extension depuis le début des observations par
satellite en 1979.
Au cours de la saison 2008 les ouragans furent particulièrement dévastateurs. Entre
janvier 2009 et août 2009, les États-Unis enregistrèrent 1 489 tornades, un record
depuis le début des relevés en 1953.
Jamais la fonte des glaciers ne fut aussi importante en volume et, au rythme actuel,
la majorité d’entre eux aura disparu pour la fin du XXIe siècle.
Chaque année plus de 13 millions d’hectares de forêt disparaissent, soit l’équivalent
de 1 400 terrains de foot chaque… heure. Et malgré les efforts de reboisement,
7 millions d’hectares sont perdus.
Depuis 2000 le niveau moyen de la surface des mers s’est élevé en moyenne de 3 mm
par an. Selon une projection de l’IPCC, cette élévation devrait atteindre 80 cm entre
2000 et 2100.
Entre 20 et 30% de toutes les espèces végétales et animales risquent de disparaître
si la température moyenne de la Terre devait augmenter de 1 à 2 °C.
Un exemple est le «budget carbone mondial»
compilé chaque année par l’organisation Global
Carbon Project. Ce budget récapitule la quantité de GES émise durant l’année et la quantité
absorbée par la mer (voir Athena n° 253,
pp. 36-37) ou disparaissant de l’atmosphère par
d’autres moyens.
Une autre tendance pousse de plus en plus la
recherche sur le climat à empiéter sur des
domaines autres que les sciences naturelles, la
technologie et l’économie. Alors que le réchauffement climatique se trouve désormais au cœur
des débats politiques et économiques dans le
monde entier, les sciences sociales et humaines
commencent de plus en plus à se pencher sur les
conséquences du changement climatique sur
l’homme et la société.
Le rapport présenté à l’issue de la réunion de
L’Aquila montre qu’il est possible de parvenir à
des réductions drastiques déjà à l’horizon 2020
si nous concentrons notre action sur certaines
technologies-clés, si nous mettons en œuvre des
mesures dont l’efficacité est avérée et si nous
investissons dès maintenant dans le développement de technologies du futur qui nécessiteront
du temps pour parvenir à maturité.
Il est clair que ces mesures (ou une partie) sont
déjà appliquées avec succès dans plusieurs pays
un peu partout dans le monde mais il est
indispensable de leur donner de l’envergure et,
dans la perspective de la réunion de
Copenhague, des initiatives d’investissement
devront être étudiées afin d’en récolter les bénéfices au moment opportun.
Depuis des années, on a voulu, à juste titre,
persuader la population d’avoir la volonté de
réagir face au réchauffement climatique.
C'estseulement en combinant la volonté populaire et celle des dirigeants que l'on réussira.
Heureusement il existe une solution - elle constitue un énorme défi, mais elle est réalisable.
La multiplication
des situations
extrêmes inquiète
les climatologues:
pics de pollution,
tempêtes, cyclones,
orages et inondations
atteignent parfois
une violence
inattendue.
(Photo Lamiot).
Paul DEVUYST
95
Athena 254 / Octobre 2009
Le ciel depuis la Terre
en novembre 2009
16 novembre. À 19h14, nouvelle Lune.
Les heures indiquées sont celles d’Uccle exprimées en temps officiel
pour les manifestations du mois et en temps universel (TU),
soit une heure de moins pour les événements astronomiques.
17 novembre. À 12h21, Mercure est à l’aphélie (distance
maximale au Soleil) soit à 0,46670 unité astronomique
(1 unité astronomique = 149 597 870 km).
Les jours décroissent de 1 heure 20 minutes du 31 octobre au 30 novembre.
20 novembre. Après le coucher du Soleil, l’étoile variable
2 novembre. À 21h14, pleine Lune.
Mira (constellation de la Baleine) sera visible à l’œil nu
juste au-dessus de l’horizon.
7 novembre. À 07h24, la Lune est au périgée (distance
minimale à la Terre), soit à 368 903 km.
22 novembre. À 20h06, la Lune est à l’apogée (distance
maximale à la Terre), soit à 404 733 km.
9 novembre. À 15h56, dernier quartier de Lune.
10 novembre. À 10h37, Mercure est à l’apogée (distance
23 novembre. Juste avant le coucher du Soleil, Jupiter sera
visible à 3° du croissant lunaire.
minimale à la Terre), soit à 1,44544 unité astronomique
(1 unité astronomique = 149 597 870 km).
24 novembre. À 21h39, premier quartier de Lune. Il y a
150 ans, Darwin publie «Sur l’origine des espèces»,
ouvrage dans lequel il explique le mécanisme présidant,
selon lui, à l'évolution graduelle des espèces vivantes
dans la nature. Il est aujourd’hui considéré comme le
fondateur de la théorie de l'évolution.
11 novembre 1572, Tycho Brahé (1546-1601), astronome
danois, aperçoit dans la constellation Cassiopée une
étoile temporaire (une supernova) qui devint aussi
brillante que Vénus et qu’il put observer pendant 17 mois.
15 novembre. Vénus sera observable juste au-dessus de
l’horizon, à 7° à gauche du fin croissant lunaire.
Paul DEVUYST
À voir ou à écouter en Wallonie
Du 17 au 19 novembre, la Terre traversera l’essaim de poussières
associé à la comète périodique 55P/Tempel-Tuttle. Ces étoiles
filantes se situent dans la constellation du Lion et ont
été baptisées Léonides. (Photo Nasa).
Athena 254 / Octobre 2009
96
16 novembre, à 20h00, conférence sur Le fond cosmique micro-onde:
une fenêtre vers l’Univers primordial, donnée par Ruth Durrer, de
l’Université de Genève, auditoire Adam Smith, Facultés Notre-Dame
de la Paix (FUNDP), rempart de la Vierge, 8 à 5000 Namur.
http://perso.fundp.ac.be/~alemaitr/IYA2009/
18 novembre, à 20h, conférence sur Énergie noire et matière sombre,
donnée par Jean-Michel Alimi, directeur du laboratoire Univers et
théories, de l’Observatoire de Paris-Meudon, aux grands amphithéâtres de l’Université de Mons-Hainaut, avenue du Champ de
Mars, à Mons. http://olympus.umh.ac.be
30 novembre, conférence donnée par Sophie Van Eck de l’Université
libre de Bruxelles sur Les étoiles au plomb, auditoire Adam Smith,
FUNDP, rempart de la Vierge, 8 à 5000 Namur.
http://perso.fundp.ac.be/~alemaitr/IYA2009/
Astronomie
Pour la première fois, un robot
a pris des photos des traces laissées
il y a quarante ans par les missions
Apollo : ce ne sont pas les pas
de Neil Armstrong que l'on peut
voir, mais les étages les plus bas
des modules de descente.
En juillet, notez qu'une vente aux
enchères organisée par la Nasa,
a permis au public fortuné
d'acquérir des souvenirs
de ces missions historiques...
(Photo Nasa).
À la Une
du... Cosmos
À gauche: un des plus grands télescopes au monde vient d'être inauguré: le GTC (Gran Telescopio Canarias). Il a coûté 130 millions
d'euros, soit moins de la moitié du coût du stade «Allianz Arena» de Munich dont la construction a employé plus de 1 000 personnes
depuis 1987. (Photo Zyance). À droite: quinze ans après l'impact de la comète Shoemaker-Levy 9, un autre objet vient de rentrer en collision avec la planète géante, y créant des taches sombres comme son prédécesseur. Il faut souligner que cette découverte a été faite non
par un professionnel mais bien par un astronome amateur australien ! Comme par jalousie, Vénus s'est parée presque en même temps
d'une tache brillante, d'origine encore inconnue (nuages ? éruption volcanique ?). (Photo Gemini).
L'étoile Bételgeuse
dans Orion a été
observée en détails par
les grands télescopes
européens: si sa taille
énorme était déjà
connue (l'étoilepourrait remplir
l'orbite de Jupiter !),
les nouvelles données
montrent la présence
de gigantesques
plumes de gaz,
certaines aussi
grandes que le système
solaire tout entier.
Ces structures
seraient liées à des
mouvements dans
l'atmosphère de
l'étoile. (Photo Eso).
97
Au mois de juillet, les
observateurs attentifs ont pu
remarquer de nombreux
nuages noctulescents ou
noctiluques, des nuages
brillants apparaissant au
crépuscule. Certains seraient
associés aux lancers de
navettes spatiales - ou plus
précisément à la vapeur
d'eau émise lors du
lancement... Comme on en a
vu beaucoup en 1908, après
l'impact de Tungunska, cela
renforce l'idée que le bolide
de 1908 était une comète.
(Photo Mika Yrjölä/licence
Creative Commons).
Yaël NAZÉ
[email protected]
Athena 254 / Octobre 2009
Espions
a u tour de la
Terre
Plus question de dissimuler une piscine ou un cabanon aux
administrations du cadastre et de l'urbanisme. Impossible
de continuer l'exploitation d'une terre qui devait être mise
en friche suite à des subventions européennes. On peut désormais
suivre les déplacements des véhicules, surveiller les prisonniers
en congé pénitentiaire, retrouver des malades égarés ou des
navires piratés. Depuis l'espace, les satellites prennent des images
détaillées, captent et localisent des signaux. Leurs observations et
leur écoute permettent ainsi d'améliorer la sécurité de tous.
Mais en même temps, l'intimité de chacun est mise à mal.
De là-haut, vous êtes espionnés sans le savoir !
omment cet espionnage de nos faits et gestes
a-t-il commencé ? Depuis les années 60, notre
planète est en permanence auscultée par des
satellites dont les performances n'ont cessé de
s'améliorer. Le premier à avoir été «espionné»
est le temps (météorologique). Chaque jour, le
téléspectateur a droit à des images animées à l'échelle du continent. Les Meteosat, réalisés par
l'industrie européenne et exploités par Eumetsat
(organisation intergouvernementale dont sont
membres 30 États d'Europe), donnent tous les
quarts d'heure une vue en plusieurs couleurs
(images multispectrales) de tout un hémisphère
depuis 35 800 km d'altitude, complétés par les
observations et sondages du satellite Metop qui
survole le globe sur une orbite quasi-polaire.
Les satellites météo permettent ainsi le suivi des
pollutions, feux de forêts, inondations…
C
(1) Le 8 octobre,
la société
américaine
DigitalGlobe
prévoyait
de lancer
de Californie
son satellite
WorldView-2
capable de voir
des détails de
46 cm partout
sur le globe.
Lors de la guerre froide, les militaires américains et soviétiques, avaient bien compris l'importance des satellites pour s'épier mutuellement. Les systèmes spatiaux se sont révélés des
outils efficaces d'informations, d'observations,
de surveillances, d'écoutes. Sur orbite, de puissants télescopes, de grandes antennes servent à
prévenir les crises, à intervenir dans des situations d'urgence, à aider les troupes sur le terrain… La France a d'ailleurs déployé des
satellites d'espionnage optique, tandis que
Athena 254 / Octobre 2009
98
l'Allemagne et l'Italie exploitent secrètement des
constellations de satellites-radars.
es sociétés privées sont-elles capables de tout
observer et tout surveiller grâce à des satellites ?
Les récents satellites commerciaux d'observation développés par des sociétés privées aux
États-Unis (DigitalGlobe (1), GeoEye), en Israël
(Imagesat), en Inde (Antrix), prennent des images ayant une résolution de moins d'un mètre au
sol. À condition que le ciel soit dégagé, certains
peuvent déjà distinguer des éléments d'un demimètre ! Des radars sur orbite - les TerraSAR-X
d'Infoterra et Cosmo-SkyMed d'e-Geos - sont
même capables de voir la surface terrestre
durant la nuit et à travers les nuages, avec une
précision métrique. Ils permettent aussi d'étudier
des zones polluées sur les océans et le long des
côtes, et d'identifier les pollueurs. Mieux, le traitement de leurs signaux parvient à déterminer la
vitesse des véhicules sur les autoroutes !
D
usqu'où peut-on mettre en question le respect de la
vie privée ? L'emploi des satellites pose un
sérieux problème d'éthique, lié aux aspects personnels d'intimité et de confidentialité. Des
images Google Earth de la ville de La Haye,
aux Pays-Bas, réalisées depuis l'espace, ont par
exemple «dévoilé» des personnes qui pratiquaient le naturisme sur la plate-forme d'un
immeuble… Les instances du Pentagone, pour
des raisons de sûreté militaire, ont exigé que les
prises de vues ultra-précises des observatoires
américains soient dégradées jusqu'au demimètre de résolution. Par ailleurs, des satellites
d'écoute parviennent à intercepter les communications et à collecter des signaux d'identification. Si cette technologie est intéressante à bien
des égards, elle pose la question de la vie privée. À l'heure actuelle, aucune législation ni
juridiction internationale n'est en mesure de
contrecarrer le phénomène Big Brother, symbole de l'État policier qui veut tout connaître sur
ses citoyens. J
L a plus-value
de l'imagerie spatiale
e 10 septembre, dans le cadre de sa
World Satellite Business Week, à Paris,
la société d'analyse des marchés spatiaux Euroconsult organisait son premier symposium sur le business de l'observation de la
Terre. C'était l'occasion d'un échange d'informations entre les constructeurs, les opérateurs, les
utilisateurs des satellites de télédétection, les
distributeurs de produits et services à valeur
ajoutée. «Le secteur de l'observation par satellites est en train de connaître une métamorphose avec une croissance des ventes commerciales de données qui est de 16% par année et
qui va dépasser les 2,5 milliards d'euros dans
dix ans», constate le président-directeur général, Pacôme Revillon. Déjà cette année, le chiffre d'affaires du marché de la télédétection spatiale devrait atteindre les 550 millions d'euros.
L
La Wallonie en bonne position
Le nombre des satellites d'observation va augmenter de façon substantielle. Alors que 101
satellites ont été mis en service par 24 opérateurs publics et privés entre 1999 et 2008, on
peut s'attendre à ce que 206 soient lancés par 34
opérateurs au cours de la prochaine décennie.
Cet essor de l'imagerie spatiale s'explique par le
fait que le coût du satellite de télédétection
placé sur orbite sera moins élevé, passant de
115 à 65 millions d'euros. Les pays à l'économie
émergente souhaitent d'ailleurs se mettre aussi à
la mode des systèmes spatiaux: ils s'équipent de
petits satellites optiques pour assurer la gestion
de leurs ressources et pour garantir la sécurité
de leur territoire. En Europe, 5 teams industriels
proposent à l'exportation de tels satellites:
Astrium Satellites, pour la France, Thales
Alenia Space/Telespazio, pour l’Italie/France,
Surrey Satellite Technology Ltd, pour le
Royaume-Uni, Ohb-System, pour l’Allemagne
et Verhaert Space/Spacebel, pour la Belgique.
Dans les dix prochaines années, il y aura, en
Europe, une cinquantaine de satellites opérationnels d'observation. L'Union européenne, en
entreprenant le «système des systèmes» Gmes
(Global Monitoring for Environment and
Security), a décidé de miser sur les observatoires spatiaux - avec la famille des Sentinel de
l'Esa et d'Eumetsat - afin d'assurer un suivi
durable de l'environnement et de la sécurité de
notre planète. L’Europe veut aller de l'avant
avec le projet Musis (Multinational Spacebased Imaging System) et ses satellites optiques
et radars pour effectuer des observations à très
haute résolution (de l'ordre de la dizaine de cm).
Ils seront lancés à partir de 2015. La Belgique,
intéressée par les images dans le cadre de ses
opérations militaires, a octroyé 140 millions
d'euros aux chercheurs et aux industriels.
L’imagerie spatiale connaît aussi un beau succès auprès du grand public. Les fournisseurs de
services Internet - tels Google Earth et
Microsoft Virtual Earth 3D - proposent l'accès à
des vues et cartes résultant de la photographie
aérienne et des observations, de plus en plus
précises, depuis l'espace. On demande que les
banques de données de télédétection soient
mises à jour rapidement et disponibles facilement par le biais de logiciels d'interconnexion,
dans le cadre de systèmes de géo-information.
Le satellite permet,
grâce au traitement
3D de ses images,
d'étudier le relief.
Ici, la région
montagneuse
du Tibet avec
la ville de Lhassa.
(Doc. Spot Image).
L'Europe compte une demi-douzaine d'opérateurs de satellites d'observation: l'organisation
intergouvernementale Eumetsat (météorologie),
les sociétés Astrium Services (et ses filiales Spot
Image pour les satellites optiques et Infoterra
pour les satellites radar), Dmcii (Disaster
Monitoring Constellation International Imaging), Rapid-Eye (suivi optique de la végétation),
e-Geos (satellites radar). En Wallonie, avec la
collaboration d'équipes scientifiques des
Universités de Liège et de Louvain-la-Neuve,
des sociétés ont développé des compétences,
reconnues sur le plan international, dans le traitement de l'imagerie spatiale: KeyObs (Liège),
Image Consult (Namur) et Walphot (Namur). Au
sein du groupe Erdas, Ionic Software (Liège)
réalise des outils informatiques performants qui
permettent aux banques de données de dialoguer
entre elles avec beaucoup de flexibilité.
Théo PIRARD
99
Athena 254 / Octobre 2009
Espace
En bref...
En bref...
Frank De Winne
a commencé à tester
l'expérience
Foam Stability
de l’ULg,
apportée par la
navette Discovery
en septembre.
(Photo Esa/Nasa).
À
Fun bord
de l'Iss (International Space Station),
ensemble de 305 tonnes à 350 km autour de
rank De Winne sur orbite : pilote et professeur.
belge est le premier commandant de bord, nonaméricain et non-russe, de la station.
la Terre, Frank De Winne, très actif, tant pour
les tâches de maintenance que pour les expériences scientifiques et technologiques trouve
encore le temps de rapprocher le monde de
l'espace de la communauté éducative et du
grand public. Il établit chaque semaine des
contacts «en direct» avec les étudiants et les
jeunes grâce au réseau des radioamateurs: c'est
le groupe de travail Ariss (Amateur Radio on
the International Space Station), animé en
Europe par le dynamique octogénaire Gaston
Bertels, qui veille à établir l'agenda et à organiser les liaisons avec la station. Il se veut pédagogue via des transmissions vidéo: il réalise en
microgravité des leçons d'enseignants pour des
classes d'élèves du secondaire.
bien placés pour des révélations sur l'Univers. Lancés avec succès
H
par une Ariane 5-ECA le 14 mai dernier, les
erschel et Planck
satellites scientifiques Herschel et Planck sont
arrivés à destination, chacun suivant sa trajectoire. Les premiers résultats de Herschel (images de phénomènes célestes dans l'infrarouge)
et de Planck (mesures du bruit de fond cosmique) se révèlent très prometteurs. On peut
s'attendre à ce que le traitement de leurs données se traduise par une autre vision de l'infiniment grand, depuis ses origines jusqu'à son
devenir. Pour rappel, les deux observatoires de
l'Esa ont été testés à des températures proches
du zéro absolu, par le Csl (Centre spatial de
Liège) avec le support technique de l'entreprise
liégeoise Amos.
«made in Belgium» sera lancé le 2
Lfabrication
novembre. Le second satellite européen de
belge est arrivé sur le cosmodrome
e Proba-2
russe de Plesetsk pour son lancement avec une
fusée Rockot. La mission Proba-2, dont le maître d'œuvre est Verhaert Space, près d'Anvers,
est principalement financée par le Service fédéral belge de la Politique scientifique (Belspo).
Le logiciel de bord et le centre de contrôle à la
station Esa, de Redu sont quant à eux réalisés
par Spacebel. Ces deux grandes expériences
scientifiques - observations du Soleil et recherches de «météo spatiale» - sont dues au Centre
spatial de Liège et à l'Observatoire royal de
Belgique, pour un coût de quelque 18 millions
d'euros auxquels il faut ajouter les frais de lancement et des opérations sur orbite.
Le 2 octobre, l'Iss devait recevoir l'équipage du
Soyouz TMA-16 comprenant deux membres de
l'expédition 21 de longue durée, ainsi que l'artiste québécois Guy Laliberté, pour effectuer un
vol spatial de dix jours. À bord, sous le siège
d'un cosmonaute, se trouvaient les cinq plaquettes de l'expérience liégeoise Foam Stability
(étude du comportement des mousses en impesanteur). Depuis le 11 octobre, l'astronaute
Athena 254 / Octobre 2009
100
Proba-2, de 130 kg, tire parti de l'expérience
acquise durant huit années avec Proba-1, qui
continue de prendre des images de la surface
terrestre. La miniaturisation est au cœur de ce
modèle de microsatellite compact qui a les
dimensions d'une machine à laver avec un
volume de moins d'1 m³. Il fait partie des plus
petits satellites lancés à ce jour par l'Agence
spatiale européenne. Ses dimensions réduites
contribuent à diminuer la complexité et le coût.
Espace
Et on peut tirer parti de possibilités bon marché
de lancement «sur les épaules» en compagnie
d'un satellite plus important. Fruit de l'engagement de l'Esa à stimuler l'innovation technologique, Proba-2 servira également de banc d'essais pour de nouvelles technologies (17 au total)
en vue d'autres missions dans l'espace.
sur l'orbite géostationLla télévision
naire. L'essor des télécommunications et de
par satellite ne laisse pas indiffées trois prochains pays
rents les pays qui veulent garantir leur développement jusque dans l'espace. En 2008, le
Vietnam (avec Vinasat-1 de fabrication américaine) et le Venezuela (avec Venesat-1 fourni
par la Chine) ont mis en service un satellite sur
leur position géostationnaire (à quelques
35 800 km au-dessus de l'Équateur). Dans les
trois prochaines années, trois nouveaux pays
feront de même: l'Angola avec Angosat-1 commandé à la Russie, l'Ukraine avec Libid-1
réalisé avec le soutien du Canada, et
l'Azerbaïdjan avec Azersat-1, de fabrication
américaine.
Cet
P
été, une vidéo sur YouTube
(
) a présenté le lancement
rale de Lausanne). Ils n'ont pas voulu attendre
le vol inaugural (prévu fin 2010) du lanceur
européen Vega pour placer autour de la Terre
leur premier Cubesat, baptisé SwissCube (la
photo). Ce nanosatellite de 1 kg, destiné à des
observations de l'horizon atmosphérique, lancé
par la fusée indienne Pslv-C14.
etit pas de travers pour le Congo spatial.
http://www.youtube.com
discret de la fusée congolaise Troposphère V,
qui a eu lieu le 29 mars dernier devant un parterre de personnalités, dont Joseph Litityo
Afata, ministre de la recherche scientifique de
la République démocratique du Congo.
Les médias congolais ont salué ce retour du
pays aux affaires spatiales, après la tentative
avortée des fusées modulaires à liquides du projet privé allemand Otrag dans les années 70. Ils
ont parlé de grand succès pour la fusée à poudre
de 560 kg baptisée Soso pembe (Coq blanc):
cette fusée à deux étages - le 1er étage combinant quatre pains de poudre explosive pour une
poussée de 7 tonnes - était la troisième lancée
par la société Dta (Développement tous azimuts). Avec le rat Kavira enfermé dans sa coiffe
récupérable, elle devait monter à une altitude de
36 km et atteindre trois fois la vitesse du son !
Le reportage TV, réalisé par la chaîne
InfôAfrique, montrait les préparatifs avec des
outils modestes, le rudimentaire centre de
contrôle, puis un brillant feu d'artifice en guise
de lancement…
la Suisse est en orbite. La
A
Confédération Helvétique avait déjà un premier astronaute (Claude Nicollier), mais pas
vec SwissCube-1,
a Nasa… grippée ! Il y a quarante ans, la Nasa
Ltion)(National
Aeronautics & Space Administrabrillait par son dynamisme, en ayant réussi
les premiers pas sur la Lune.
Dans les années 60, à une époque où il n'y avait
ni portables ni Internet, il fallut 98 mois, à partir de la déclaration - le 25 mai 1961 - du président Kennedy, pour tenir le pari du programme
Apollo !
En 2009, la Nasa a plutôt grise mine. Cette
agence s'est lourdement bureaucratisée et s'essouflle à rendre des comptes aux politiciens sur
lesquels les industriels exercent des pressions.
Elle est atteinte du mal de l'indécision et de l'incertitude pour son programme d'exploration de
l'espace avec des engins automatiques et des
vaisseaux habités.
Luxspace
pour le suivi
du trafic
maritime.
Le fabricant
luxembourgeois
de systèmes
spatiaux
est en train
de tester
l'identification
des navires depuis
l'espace grâce à
des équipements
sur micro-satellites
et à bord
de la station
spatiale.
C'est un mal contagieux qui guette ses partenaires dans l'exploitation de la Station spatiale
internationale (ISS): la Russie, le Canada,
l'Europe, avec l'Esa (Agence spatiale Européenne), l'Asi (Agenzia Spaziale Italiana) ainsi
que le Japon risquent, à force de s'interroger
sur la suite qu'il convient de donner au
programme, d'être touchés par une sinistre pandémie appelée léthargie.
encore de satellite dans l'espace. C'est chose
faite depuis le 23 septembre grâce à l'équipe
d'étudiants de l'Epfl (École polytechnique fédé-
Théo PIRARD
[email protected]
101
Athena 254 / Octobre 2009
Espace
Prolifération
des centres spatiaux
L
a construction de satellites n'est plus
l'apanage des grands ! Suivant l'exemple
de l'Algérie et son programme Alsat, la
Turquie, les Émirats Arabes Unis et le Kazakhstan affichent leurs ambitions dans le développement, sur leur territoire, de satellites de petite
taille pour des missions gouvernementales.
La Corée du Sud
a de grandes
ambitions
spatiales pour
sa microélectronique et
sa robotique.
Elle s'est dotée,
avec le Naro
Space Center,
(près de Goehung)
d'une installation
de préparation,
d'intégration et
de lancement
pour petits
satellites
(Photo KARI).
La Turquie est en train de se doter, à Ankara,
d'un centre de développement de satellites de
télécommunications Türksat et d'observation
Goktürk. Elle entend se doter d'une industrie
nationale des systèmes spatiaux qui sera capable de tester et d'intégrer des satellites dès 2015.
Dubaï, dans les Émirats Arabes Unis et le
Kazakhstan, en Asie centrale, ont décidé d'avoir
eux aussi leurs propres installations, y compris
des simulateurs d'environnement spatial,
destinés à la conception et à la réalisation
de systèmes spatiaux.
À Dubaï, l'Eiast
(Emirates Institution
for Advanced Science
and Technology) veut
se positionner dans la
fabrication de petits
satellites sur mesure.
Dubaisat-1, premier
minisatellite destiné
à de l'imagerie de
haute résolution, a été fourni par l'entreprise
sud-coréenne Satrec Initiative. Il a été mis en
orbite le 29 juillet dernier par un lanceur russe
Dnepr à partir de Baïkonour. Dubaï s'est également doté d'une station de contrôle, d'un centre
de réception et de traitement des images. Pour
développer Dubaisat-2, qui sera le premier
d'une famille de satellites compacts de 200 kg,
l'Eiast s'équipera d'installations d'essais et d'intégration.
Le Kazakhstan est une terre historique pour l'astronautique. C'est là que se trouve son berceau,
le cosmodrome de Baïkonour qui a permis, à
l'heure soviétique, de lancer les premiers
Spoutniks (des sondes d'exploration de la Lune,
Vénus et Mars), ainsi que les vols spatiaux
Athena 254 / Octobre 2009
102
habités. Le pays veut dans le futur devenir un
acteur dans le lancement et le développement
de satellites. Avec la Russie, il a conclu un
accord de coopération pour mettre en œuvre à
Baïkonour - en modifiant l'un des ensembles de
lancement Proton - le système de transport spatial Baïterek, dérivé du lanceur modulaire
Angara (version moyenne), développé par le
centre spatial Khrounitchev à Moscou. Le système Kazsat a fait appel à ce centre pour ses
deux premiers satellites, équipés de propulseurs
électriques à plasma. Alors que Kazsat-1, lancé
en juin 2006, est tombé en panne et a dû être
expédié sur l'orbite «cimetière», Kazsat-2, de
1 330 kg en orbite géostationnaire, est en préparation pour être lancé en 2011. Le 19 mai, la
société Jsc Kazakhstan Gharysh Sapary signait
avec Astrium un
accord de partenariat
stratégique pour la
technologie spatiale.
Dans le cadre de ce
partenariat francokazakh, dans lequel le
Cnes (Centre national
d'études spatiales) a
joué un rôle, Astrium
fournira des images
des satellites d'observation Spot et TerraSar-X/TanDem-X et
installera des stations
de réception. Outre la formation d'une centaine
d'ingénieurs kazakhs, il y aura la création d'une
société commune pour la mise en œuvre d'un
centre de tests et d'intégration de satellites à
Astana, capitale du Kazakhstan. Deux satellites
d'observation de la Terre vont être commandés
à Astrium: un Astrobus 250, de 500 à 600 kg
(images de 2,5 m de résolution) et un Astrobus
100, de 50 à 100 kg. La technologie spatiale,
avec ses études et carrières à valeur ajoutée, est
considérée comme l'une des portes vers le
monde du futur.
Théo PIRARD
[email protected]
Inhaltsübersicht
Die Theorie vom Urknall (auch Big Bang genannt) ist aktueller denn je. Sie stammt
von dem Belgier Georges Lemaître, der als erster diese für seine Zeit revolutionäre Idee von der Entstehung des Universums vorbrachte. Jean-Luc
Léonard schildert den unglaublichen Werdegang dieses Denkers, von dem ein
Theaterstück handelt, das gegenwärtig in den Schauspielhäusern läuft.
Auf der Suche nach einem therapeutischen Impfstoff. Lässt sich das Immunsystem
möglicherweise dazu anregen, Tumorzellen zu bekämpfen, so wie es virenoder bakterieninfizierte Zellen beseitigt? Inzwischen weiß man, dass es
Antigene gibt, die das Immunsystem erkennt, insbesondere T-Lymphozyten,
die eine Immunantwort generieren können. Philippe Lambert stellt die
Forschung-sergebnisse in diesem Bereich und ihren Nutzen im Kampf gegen
den Krebs vor.
Depression: Entzündung und neuronale Plastizität. Mehrere Studien haben neuro-
logische Schädigungen aufgedeckt, die spezifisch bei Depressionen auftreten,
und zwar in Form einer Atrophie des Hippocampus, das unter anderem bei der
Modulation emotionaler Antworten eine Rolle spielt. Philippe Lambert
erläutert die einzelnen Mechanismen und die hier relevanten Entzündungsprozesse.
Athena n° 254
Octobre 2009
Ce mensuel d'information, tiré
à 13 500 exemplaires, est édité par le
Département
du développement
technologique,
Service public wallon
Spw - DGO6
Place de la Wallonie 1, Bât. III
à 5100 Jambes.
Téléphone vert:
0800/11 901 (appel gratuit).
http://recherche-technologie.wallonie.be/
Geschichte … einer Präferenz. Wie ein zweiseitiger Spiegel beeinflusst eine
Neuronenpopulation des Striatums, die striatopallidalen Neuronen, sowohl die
lokomotorische Aktivität als auch die Drogenabhängigkeit. Im Zuge jüngster
Experimente zeichnen sich jetzt neue Therapiemöglichkeiten zur Behandlung
der Parkinsonschen Krankheit und der Drogensucht ab. Ein Artikel von
Philippe Lambert.
Michel CHARLIER,
Ir. Inspecteur général
Ligne directe: 081/33.45.01.
Katalogisiertes Wissen. In diesem zweiten Teil erklärt Christian Vanden
Assistante de rédaction
Berghen, inwiefern die digitale Welt unser Verständnis von Kategorien und
Denkmustern verändert und welch unbegrenzte Möglichkeiten sich hier bieten. Gegenstände können jetzt mehreren Kategorien angehören, was in der
realen Welt nicht denkbar wäre. Christian Vanden Berghen erläutert die
verschiedenen Klassierungsarten mit ihren jeweiligen Vor- und Nachteilen.
Ein Flugzeug aus Polymer. Es hat die Größe eines Airbus, das Gewicht eines
Personenwagens und die Antriebskraft eines Motorrollers. Ziel ist es, Tag und
Nacht ohne Treibstoff fliegen zu können, allein mit Solarenergie. Ein innovatives Projekt mit überwiegend bekannten Materialien. Die Schwierigkeit bestand jedoch darin, die Werkstoffe so anzupassen, dass ein leichtes, aber sicheres Fluggerät daraus entsteht. Eine Präsentation von Alain de Fooz.
Éditeur responsable:
[email protected]
Marie-Claude SOUPART
[email protected]
Graphiste
Nathalie Bodart
Ligne directe: 081/33.44.91.
Impression:
Les Éditions européennes
Rue Thiefry, 82 à 1030 Bruxelles
ISSN 0772 - 4683
Das Pressluftauto: Mythos oder Realität? Nach dem Benziner und Diesel gibt es
Ont collaboré à ce numéro:
inzwischen das Elektroauto. Doch es wurden noch weitere umweltschonende
Antriebssysteme erforscht, unter anderem das kaum bekannte Pressluftauto,
das Michel Wautelet uns hier vorstellt. Es bietet eine ganze Reihe von
Vorteilen: umweltfreundlich, sparsam, unkompliziert und leichtgewichtig. Die
Leistungen begrenzen allerdings die Einsatzmöglichkeiten. Dennoch ist das
Pressluftauto ein weiterer Schritt auf dem Weg zu einem saubereren Planeten.
Jean-Michel Debry; Alain de Fooz;
Paul Devuyst; Henri Dupuis;
Damien Duvivier; Philippe Lambert;
Jean-Luc Léonard;
Yaël Nazé; Théo Pirard;
Jean-Claude Quintart;
Géraldine Tran;
Christian Vanden Berghen
et Michel Wautelet.
Traduction: Europaco.
Eine Herausforderung für die Menschheit. Hauptursache der globalen Erwärmung
ist nachweislich der Ausstoß von Treibhausgasen durch die Tätigkeiten und
Techniken des Menschen. Paul Devuyst führt in diesem Artikel vor Augen,
welche Anstrengungen der Mensch hierzu in den nächsten Jahren unternehmen muss. Dies setzt allerdings einen internationalen Konsens voraus.
Dessinateurs:
Olivier Saive et Vince.
Comité de rédaction:
Weitere lesenswerte Rubriken:
News, von Jean-Claude Quintart, S. 55 - 61, und Henri Dupuis, S. 62;
Bio-Info, von Jean-Michel Debry, S. 67 - 71;
Physik-Info, von Henri Dupuis, S. 81 - 83;
Astronomie, von Paul Devuyst, S. 96, und Yaël Nazé, S. 97;
Weltraum, von Théo Pirard, S. 98 - 102.
103
Michel Charlier; Marc Debruxelles;
Jacques Moisse; Jacques Quivy;
Marie-Claude Soupart et
Michel Van Cromphaut.
Athena 254 / Octobre 2009

Documents pareils