N° 265 - Novembre 2010 - Portail de la Recherche et des

Transcription

N° 265 - Novembre 2010 - Portail de la Recherche et des
Recherche et développement technologique
265
Novembre
2010
Le mag’ scientifique
www.athena.wallonie.be · Mensuel ne paraissant pas en juillet et août · Bureau de dépôt Bruxelles X
Quand de jeunes wallons
carburent au futur !
La forêt,
l’or vert des hommes
ATHENA 265 · Novembre 2010
> ÉDITO
Édito
Biture express...
D
Texte: Géraldine TRAN • Rédac’chef
+
Plus d’infos
ww.iph.fgov.be
http://www.jeunesetalcool.be
2
http://www.sante.cfwb.be
http://www.univers-sante.ucl.ac.be
http://envoye-special.france2.fr/
Photo: [Q]/Flickr
epuis quelques jours, les baptêmes estudiantins sèment le chaos
dans les centre-villes belges et laissent à leurs pavés, des séquelles qui en disent long sur ce qui a été consommé la veille et sur les
gueules de bois qui ont dû en découler. Ce n’est pas des baptêmes
en eux-mêmes dont j’ai envie de vous parler, mais d’un phénomène
«annexe» qui n’a cessé de prendre de l’ampleur depuis plusieurs années déjà: le «binge
drinking». Les traductions sont multiples: «orgie alcoolique», «hyperalcoolisation»,
«chaos éthylique»,… mais un seul principe: boire le plus possible en un minimum de
temps. L’alcoolisme est bien entendu une addiction qui a existé de tout temps mais
qui ne concernait, jusqu’alors, pas les jeunes, encore moins les très jeunes. Selon l’enquête de Santé 2008 de l’Institut de Santé Publique (ISP), un jeune belge sur huit âgé
de 15 à 24 ans boit au moins six verres d’alcool par soirée, chaque semaine ! Dans la
réalité et pour l’avoir observé, c’est souvent beaucoup plus.
Même s’il faut que jeunesse se passe et s’il ne faut pas diaboliser la consommation
­d’alcool, pour enrayer cette nouvelle façon de se droguer, car oui, il s’agit d’une
­drogue, les bonnes questions doivent être posées: pourquoi ces jeunes éprouventils l’absolue nécessité de s’enivrer à ce point ? Que veulent-ils oublier ? Quel SOS
lancent-ils à la société ? Est-ce seulement un effet de mode ? Le mal-être doit être
profond pour que des adolescents, sans problèmes apparents, veuillent à tout prix
perdre pied avec la réalité… Il s’agit d’une véritable question de santé publique à laquelle la science et la recherche doivent répondre, à l’image de l’UCL
qui organisera une conférence gratuite sur le sujet le 23 novembre prochain
(http://www.uclouvain.be/ipsy). Les fêtes de fin d’année approchant, même si
de tels prétextes ne sont plus nécessaires pour boire un «coup de
trop», j’espère avoir attiré votre attention sur une assuétude sournoise, car a priori festive et occasionnelle, mais qui peut entraîner
de graves conséquences physiques, physiologiques ou psychologiques pour ceux qui en sont victimes et sur les autres,
victimes potentielles de leur état d’inconscience… 
ATHENA 265 · Novembre 2010
Tirée à 14 000 exemplaires, Athena est une revue
de vulgarisation scientifique du Service Public de
Wallonie
éditée par le Département du Développement technologique
de la Direction générale opérationnelle Économie,
Emploi
et Recherche (DGO6).
Place de la Wallonie 1, Bât. III - 5100 JAMBES
Elle est consultable en ligne sur http://athena.
wallonie.be
Abonnement (gratuit)
Vous souhaitez vous inscrire ou obtenir gratuitement
un ou plusieurs exemplaires, contactez-nous !
·par courrier
Place de la Wallonie 1, Bât.III - 5100 JAMBES
·par téléphone
au 081/33.44.76
·par courriel à l’adresse
[email protected]
SOMMAIRE
SOMMAIRE
10
Actualités
04
Événement - DGO6
Quand de jeunes wallons
carburent au futur
10
Technologie
Cherche matériaux rares
pour technologies gourmandes
13
L’ADN de ...
Maxime ROLLET
18
Société
Le périlleux exercice
de la communication scientifique
20
Internet
Le Web pour les Nuls et les Professionnels
Comment les Trouveurs trouvent
22
Médecine
L’ocytocine, une hormone altruiste...
26
Environnement
La forêt, l’or vert des hommes
30
Biologie
34
Santé
BESEP, le sport contre la sclérose
38
Physique
42
Astronomie
44
Espace
46
Agenda
50
13
26
28
Éditeur responsable
Michel CHARLIER,
Inspecteur général
Ligne directe: 081/33.45.01
[email protected]
Impression
Les Éditions européennes
Rue Thiefry, 82 à 1030 Bruxelles
Rédactrice en chef
Géraldine TRAN
Ligne directe: 081/33.44.76
[email protected]
Collaborateurs
Jean-Michel Debry
Paul Devuyst
Henri Dupuis
Philippe Lambert
Jean-Luc Léonard
Yaël Nazé
Théo Pirard
Jean-Claude Quintart
Graphiste
Nathalie BODART
Ligne directe: 081/33.44.91
[email protected]
ISSN 0772 - 4683
Christian Vanden Berghen
Patrick Veillard
Michel Wautelet
Dessinateurs
Olivier Saive
Vince
Comité de rédaction
Laurent Antoine
Michel Charlier
Jean-Marie Cordewener
Couverture
Première
Crédit: By Corsu
Quatrième
Vue d’artiste du lanceur italo-européen
Vega.
Crédit: Esa
3
ATHENA 265 · Novembre 2010
> ACTUALITÉS
pas
Un
plus loin !
Texte: Jean-Claude QUINTART
Savoir-faire et perspicacité scientifique
sont les ingrédients de la recherche wallonne
qui permet ici de comprendre comment
les Néandertaliens se déplaçaient !
«Notre problème majeur dans cette
reconstruction était le manque de spécimens complets, car à ce jour, aucun n’a
été retrouvé… Ni même un nombre d’os
suffisant pour la reconstruction d’un membre entier !» Pour pallier cette difficulté,
le LABO a créé un modèle 3D de membres inférieurs néandertaliens au départ
de restes découverts sur différents sites.
Compliquant le travail, cette situation l’a
obligé à développer une méthode pour
que les différents os disponibles puissent
être mis à la même échelle de manière
validée afin d’éviter que les mesures ultérieures ne soient entachées de sérieux
biais expérimentaux. Le modèle 3D ainsi
développé a ensuite été fusionné avec
des données de mouvements effectués
par des volontaires vivants dans le but
de déterminer si les caractéristiques du
squelette obtenu étaient compatibles
avec la locomotion moderne ou non.
[email protected]
Photo: ULB
4
Alors que personne ne pense à
ses pas en marchant, le Laboratoire d’Anatomie, Biomécanique
et Organogénèse (LABO) de la
Faculté de Médecine de l’Université libre de Bruxelles (ULB)
s’est pourtant demandé si la
marche des Néandertaliens était
­semblable à la nôtre !
Si la ­question n’est pas nouvelle,
personne ne voyait comment y
répondre...
A
ujourd’hui, grâce à une
nouvelle plate-forme TIC
(Technologie de l’Information et de la Communication), développée à
Bruxelles, quelques clics de souris apportent déjà et pour la première fois, des éléments objectifs à la question.
«L’analyse de la locomotion chez les Néandertaliens n’est pas aisée. Espèce disparue
il y a plus de trente mille ans, il est donc
impossible d’observer directement la
manière dont ils marchaient. On admettait généralement que leur morphologie
squelettique leur permettait de marcher de
la même façon que nous, mais peu de données quantifiables venaient étayer cette
hypothèse», explique Serge Van Sint Jan,
directeur du projet et professeur à l’ULB.
De fait, du début du 20e siècle à la fin des
années 50, on voyait les Néandertaliens
comme des créatures velues d’apparence simiesque et aux genoux pliés lors
de la marche !
On comprend donc l’intérêt des nouvelles techniques scientifiques mitonnées
par le LABO de l’ULB qui, en fusionnant
des données de natures différentes, permettent aux scientifiques d’avancer d’un
pas. Dans les grandes lignes, la méthode
de fusion repose ici sur la combinaison
de données morphologiques obtenues
au départ de l’imagerie médicale avec
des données physiologiques récoltées
à partir de systèmes d’analyses de mouvement. Le LABO a d’ailleurs été l’un des
précurseurs dans le développement et
l’application de cette technologie pour le
traitement de patients souffrant de problèmes liés à la locomotion. Son adaptation lui a permis de collaborer, avec
l’Institut royal des Sciences naturelles de
Belgique, à la reconstruction virtuelle du
squelette complet d’une paire de membres inférieurs de Néandertaliens. Une
première !
Sur le plan pratique, la reconstruction des
membres inférieurs a fait appel à l’imagerie médicale (CT-Scan) et à la reconstruction 3D par infographie. Les modèles
3D virtuels ont été traités, reconstruits
et analysés par le logiciel IhpFusionBox,
conçu au LABO; les outils scientifiques
intégrés au logiciel ont eux dressé un
modèle des membres inférieurs aussi
proche que possible des dimensions du
spécimen retrouvé à Spy. Enfin, des données relatives aux muscles ont été ajoutées au modèle dans le but de répondre
à la question: «Jusqu’à quel point l’architecture robuste du squelette néandertalien
confère-t-elle un avantage mécanique aux
muscles s’y attachant par rapport au squelette humain moderne ?»
Résultats ? Le squelette néandertalien
affiche une bonne adéquation avec les
exigences de la locomotion moderne et
à taille égale, le modèle recréé virtuellement montre une robustesse plus élevée
que celui de l’humain moderne; sans
doute pour davantage d’efficacité dans
l’hostilité de l’environnement européen
de l’époque. Bref, un excellent travail
publié dans la revue scientifique internationale Palevol sous le titre de Reconstruction virtuelle des membres inférieurs
Néandertaliens et estimation des bras de
levier des muscles ischio-jambiers. 
Infos: [email protected]
Jean-Claude QUINTART · ACTUALITÉS
Actus...
d’ici et d’ailleurs
Texte: Jean-Claude QUINTART • [email protected]
Photos: CERN (p.5), UCL (p.6), DOW CORNING (p.7), D. ASCHER (p.7), 1suisse.ch/Flickr (p.8), Fle {S}/Flickr (p.9)
De Charleroi
à Chennai
NOUVELLES TECHNOLOGIES
Distribution
optimale
T
oujours mieux, toujours plus fort,
urologues et radio-oncologues
traitent désormais plus efficacement leurs patients grâce à SmartSeed®.
«Via cette nouvelle solution, ils contrôlent
le montage de la configuration du brin
radioactif de manière individuelle en utilisant un espacement variable des grains
radioactifs, essentiellement lors d’implantations mini-invasives de grains dans
la prostate, afin de réaliser la distribution
optimale de la dose», explique Edgar Löffler, administrateur délégué d’IBt Bebig.
Progrès encore avec SmartLoader® qui
permet à l’entreprise wallonne d’offrir
une configuration SmartSeed® personnalisable en brachythérapie permanente.
Assemblage plus facile, protection contre
la radiation entièrement intégrée, vitesse
de manipulation accélérée en salle d’opération et disponibilité d’un outil de simulation de traitement interactif via iPad ou
d’autres plates-formes sont les atouts de
ce dernier développement du pro de la
brachythérapie. 
Infos: http://www.smartseed.eu
et http://www.ibt-bebig.eu
R&D
Des wallons au
cœur du Big Bang !
L
a
communauté
scientifique
l’espérait ! Six mois après son entrée
en service, le LHC (Large Hadron Collider/grand collisionneur de hadrons) livre
ses premières réponses et pose d’autres
questions ! En effet, l’analyse des premières collisions proton-proton à très haute
énergie, où plus d’une centaine de particules chargées sont produites, révèle des
indices d’une corrélation entre des particules, une sorte d’association par paire
engendrée au moment de la création des
particules au point de collision.
Le phénomène est subtil et comporte
des similitudes avec des phénomènes
observés dans des collisions de noyaux
lourds au Laboratoire national de Broo-
khaven (États-Unis) où a été observé un
état qui pourrait avoir été celui de notre
Univers quelques instant après le Big
Bang ! Toutefois, c’est la première fois
qu’on observe un tel phénomène dans
des interactions de protons. D’où de
nouvelles conjectures !
Ces observations ont été notées par le
programme d’expériences CMS (Compact Muon Solenoid/solénoïde compact
pour muons) dont les travaux vont de
la recherche du boson de Higgs à celle
d’autres dimensions en passant par la
quête de particules pouvant former la
matière noire. Un programme essentiel
auquel participent plusieurs chercheurs
de l’Université de Mons (UMons), de
l’Université catholique de Louvain (UCL)
et de l’Université libre de ­Bruxelles
(ULB). 
Infos : http://www.cern.ch
A
lstom Transport annonce avoir
remporté une commande de 188
voitures pour le métro de Chennai, en Inde. Un ordre pour lequel Alstom
Charleroi sera responsable de la conception
du convertisseur et de sa production pour
les neuf premières rames. La fabrication
étant ensuite assurée par le site indien. 
Infos: http://www.transport.alstom.com
et http://www.chennaimetrorail.gov.in
5
ATHENA 265 · Novembre 2010
> ACTUALITÉS
En avant toute vers de nouveaux ­progrès
dans le traitement du cancer,
des m
­ aladies cardiovasculaires,
du diabète ­et de l’obésité !
L’arme fatale !
6
L
es atouts se suivent et se dépassent toujours en matière d’outils
à disposition de la recherche wallonne. Ainsi, l’Université catholique de
Louvain (UCL) s’est dotée d’un appareil
d’imagerie par résonance magnétique
(IRM) ultra-puissant, unique en Belgique
et qui servira à la recherche et au développement de traitements innovants
pour des maladies telles que le cancer,
l’obésité ou le diabète.
Plus précisément, il sera exploité par le
Laboratoire IRM de l’Université, dont les
acteurs ont acquis une expérience unique avec cette technologie, notamment
dans l’identification des facteurs du
micro-environnement tumoral, conditionnant la réponse à un traitement anticancéreux. Pour mener à bonne fortune
ce type de recherche, les équipes doivent
disposer d’un matériel à la pointe de
l’art particulièrement onéreux. Aussi, le
Fond national de la Recherche scientifique
(FNRS) a financé deux nouveaux outils
IRM: le premier installé à Mons en vue
de travaux sur les produits de contraste
intelligents; le second (de 11,7 Tesla,
soit plus de 200.000 fois le champ
magnétique terrestre) à l’UCL pour des
recherches en imagerie fonctionnelle
et métabolique. Cette puissance place
l’appareil de l’UCL en quatrième position
mondiale !
«Jusqu’ici, les travaux sur des systèmes opérant avec de très hauts champs
magnétiques étaient cantonnés en neurologie. Tout en pouvant rencontrer ce
type de recherche, notre orientation est
clairement pharmacologique et thérapeutique. Aussi, grâce aux capacités uniques du nouveau système, une dizaines
de nos chercheurs pourront visualiser en
temps réel l’évolution de la fonction et du
métabolisme des tissus malades en cours
de traitement», explique Bernard Gallez,
responsable du Laboratoire de résonance
magnétique biomédicale. La nouvelle
arme de l’UCL pointera donc l’optimisation de nouveaux traitements du cancer
par des recherches dont le but est de
rendre les tumeurs moins résistantes à
leur traitement; l’optimisation de la délivrance d’agents anticancéreux au niveau
de la cible; et le développement de
bio-marqueurs prédictifs de la réponse
thérapeutique.
Mais, les travaux ne s’arrêteront pas
là. D’autres projets jouiront de la puissance du nouvel outil. Des spécialistes
en maladies cardiovasculaires évalueront avec lui la morphologie, la fonction contractile et la perfusion du tissu
myocardique de façon non-invasive.
Côté greffes, seront étudiées des techniques visant à accroître la vascularisation et le statut métabolique des greffons. Des recherches seront lancées
afin d’améliorer les stratégies de régénération des nerfs lors de section de la
mœlle épinière. Enfin, en diabétologie
et obésité, les spécialistes étudieront
les modulations métaboliques induites
par ­certains aliments en vue de corriger
une série de problèmes du syndrome
métabolique. 
Infos: [email protected]
Le chiffre
... au premier
semestre 2010 !
«Jamais la Wallonie n’avait connu
aussi forte progression de ses
exportations, depuis le premier
semestre 2000», déclare Philippe
Suinen, administrateur général de
l’Agence wallonne à l’Exportation (Awex). 
Infos : http://www.awex.be
Jean-Claude QUINTART · ACTUALITÉS
Le coup d’crayon
Illustration : O. SAIVE
Bien vu,
Alexandra !
Ce singe noir, à la face blanche et aux narines largement ouvertes, vit au nord
du Myanmar, ex-Birmanie. Il n’avait jamais été décrit par les ­zoologistes.
Pourtant, sur place, on sait depuis longtemps qu’il existe…
Son nom ? Rhinopithecus Strykeri et il éternue quand il pleut !
Dow Corning
crée son futur
en Wallonie
S
i le site Seneffe était, depuis quarante ans, un des maillons forts
de la R&D du géant américain,
d’ici quelque mois, il sera le creuset de
son avenir ! Avec 13 millions de dollars
et 7,5 millions de subventions du Gouvernement wallon, Dow Corning fera de
Seneffe son Centre d’exploitation et de
développement de l’énergie solaire ou,
en version originale, SEED (Solar Energy
Exploration ans Development Center). «Par
cet investissement, nous renforçons notre
support aux fabricants européens dans
pratiquement toutes les industries», explique Jean-Marc Gilson, Executive Vice
President, General Manager, Speciality
Chemicals. Et ajoute: «La mondialisation
et l’intégration de cultures différentes est
une source de richesse pour notre société.
Ici à Seneffe travaillent en harmonie plus
de trente nationalités, parlant 20 langues
différentes !»
Le SEED comprendra, en première ­partie,
le Centre de synthèse chimique pour la
zone européenne, où les spécialistes en
chimie du silicium auront un champ de
travail pratiquement illimité, allant du
solaire à l’électronique, en passant par la
santé, la construction et les sciences de
la vie. Armés d’équipements de pointe,
ils se focaliseront sur le durable. Une collaboration rapprochée avec les clients
permettra de commercialiser toujours
plus vite le fruit des recherches et de
réinvestir dans l’avenir.
La seconde partie de l’investissement
gravitera autour du Centre européen
d’application pour l’industrie solaire, dont
les moyens combineront l’expertise de
Dow Corning en matériaux solaires au
savoir-faire des producteurs de panneaux photovoltaïques de l’Union européenne. «Nous pensons que l’Europe doit
être un centre mondial de recherche et
­développement en produits et applications
durables et cet investissement nous aidera
à croître à travers l’innovation», conclut
Jean-Marc Gilson. Un programme qui
sied à merveille à la Wallonie, dont les
ambitions sociétales sont confortées
­grâce à ce ténor des silicones et technologies innovantes à base de silicium. Fondée en 1930 et installée à Midland, dans le
Michigan, la société compte 9.000 salariés, 7.000 produits et 25.000 clients ! 
Infos: http://www.dowcorning.com
L
’Université du Doudou avait
raison ! Un consortium international de huit laboratoires
vient en effet de valider le modèle
du professeur Alexandra Belayew, du
Laboratoire de Biologie Moléculaire de
l’Université de Mons (UMons), quant
à l’explication du déclenchement de
la dystrophie facio-scapulo-humérale, maladie génétique conne sous
l’acronyme FSHD.
Dans son travail, l’équipe montoise
émettait l’hypothèse que la FSHD
débutait par activation d’un gène
toxique de l’ADN dit poubelle sur le
chromosome 4. Un bégaiement de
l’ADN, découvert en 1999 par Alexandra Belayew et dont l’idée d’un gène
fonctionnel dans des éléments répétés était alors considérée comme totalement farfelue ! C’était mal connaître
son obstination qui, après dix années
de travail et de subsides du Téléthon,
voit aujourd’hui sa théorie acceptée
par ses pairs et reconnue comme
«modèle montois» !
Caractérisée par une dégénérescence
irréversible plus ou moins rapide de
certains muscles, la FSHD fait partie
des dystrophies musculaires héréditaires. Touchant une personne sur
17.000, elle s’inscrit immédiatement
après les maladies de Duchenne et
de Steinert. La FSHD reflète bien la
­progression de la maladie qui démarre
par les muscles de la face, des épaules puis des membres. La découverte
d’Alexandra Belayew porte bien des
espoirs car il n’existe actuellement
aucun traitement... 
Infos: [email protected]
7
ATHENA 265 · Novembre 2010
> ACTUALITÉS
Front commun
L
e nucléaire pose question et les
interrogations sur ses tenants
et aboutissants ne datent pas
d’aujourd’hui. Mais, discipline multifacettes, le monde ne peut se passer de
ses applications. Le besoin d’une feuille
de route claire et précise est la raison
pour laquelle le Commissariat à l’Énergie ­Atomique (CEA) en France, Nuclear
Research & Consultancy Group (NRG) au
Pays-Bas et le Centre d’Études de l’Énergie
Nucléaire belge (SCK-CEN) viennent de
déposer une proposition commune dans
le domaine des réacteurs de recherche.
Signé à l’occasion de l’assemblée générale de la Plate-forme technologique
européenne sur l’énergie nucléaire durable, ce document met l’accent sur l’essentiel: maintenir des moyens de recherche
performants pour la sûreté des réacteurs
nucléaires, la gestion du parc actuel
et le développement des réacteurs de
demain; la disposition d’instal­lations
de recherche souples pour garantir la
compétitivité de l’Europe en énergie
nucléaire durable; et la pérennité dans
la fourniture de radioéléments pour
la médecine nucléaire, enjeu de santé
publique.
Des axes importants sachant qu’en
Europe, les réacteurs expérimentaux de
première génération arrivent en fin de
vie. Lorsqu’on sait que ce type de réacteur
est incontournable au dévelop­pement
des modèles de la prochaine génération,
qui permettront de plus grandes économies du combustible et une réduction
des déchets de haute activité, on comprend l’intérêt de la démarche des trois
grands opérateurs en faveur de l’Espace
européen des réacteurs de recherche, la
meilleure voie pour assurer la compétitivité du vieux continent dans les technologies nucléaires, garantir la sécurité
énergétique et l’efficacité de la médecine nucléaire. 
Infos: http://www.snetp.eu
8
SANTÉ
Tout bon
pour le cœur !
N
ous savons tous qu’il a y a le mauvais cholestérol, dit LDL, et le bon
cholestérol (HDL), celui dont plus
sa concentration est importante, moins
il y a de risques de développer de maladies cardiovasculaires. Dès lors, la question est: comment pallier les carences en
bon cholestérol ? Jusqu’à ce jour, le seul
moyen d’en accroître la concentration
est un traitement à base d’acide nicotinique. Une «médecine» pas tout à fait
miraculeuse, compte tenu de ses effets
secondaires marqués par un rougissement de la peau du visage et de la
partie supérieure du torse du
patient ainsi que
de sensations
de chaleur
et de brûlure
comparable au coup
de soleil. Bref,
s’il n’est absolu-
ment pas dangereux pour la peau, ce traitement dissuade rapidement la plupart
des patients !
Julien Hanson, chercheur en chimie pharmaceutique au département de pharmacie de l’Université de Liège (ULg) a profité
d’un séjour post doctoral à l’Université de
Heidelberg, puis au Max Planck Institute
for Heart and Lung Research en Allemagne, pour s’attaquer à la compréhension
des mécanismes à l’origine de ce rougissement. Partant du principe déjà connu
que l’effet bénéfique de l’acide nicotinique est un récepteur présent dans le
corps, Julien Hanson et son équipe ont
développé des tests sur des souris en vue
d’appréhender l’origine de l’effet indésirable. Lors de ces travaux, les chercheurs
ont neutralisé le gène de ce récepteur et
ont conclu que celui-ci était également
à l’origine du phénomène de rougissement. «Ce récepteur est présent dans
deux types de cellules: les keratinocytes,
présents dans la couche superficielle de
la peau - l’épiderme -, et les cellules de
Langerhans, qui jouent un rôle immunologique et sont aussi présentes dans l’épiderme», explique Julien Hanson.
Ces travaux ont montré que l’activation
des cellules de Langerhans provoquait
le rougissement dans un premier temps
puis, dans une phase plus longue, l’activation des keratinocytes. «Ces deux étapes étaient accompagnées de la formation
de deux types de prostaglandines, dont la
formation se révèle être la cause directe de
l’effet non désiré. Il nous est donc possible de
parer au rougissement en accompagnant
la prise d’acide nicotinique d’un inhibiteur
de la formation des prostaglandines ou en
bloquant les récepteurs de chaque prostaglandine incriminée dans la peau. Dans
les deux cas, cela n’altère en rien les effets
bénéfiques du traitement sur le métabolisme lipidique», conclut Julien Hanson.
Aussi, plusieurs firmes pharmaceutiques
se sont-elles déjà lancées dans la réalisation de médicaments empêchant ce
rougis­sement. Les résultats de ces travaux
ont fait l’objet d’une publication dans The
Journal of clinical investigation. 
Infos: [email protected]
et http://www.jci.org
Jean-Claude QUINTART · ACTUALITÉS
EMPLOI & FORMATION
DATE À RETENIR
À Mons en 2013
B
Langues bien
pendues
G
lobalisation
économique,
partenariats, collaborations,
Internet, bouquets TV, voyages d’affaires ou de plaisir, être multilingue aujourd’hui n’est plus un luxe,
mais presqu’une nécessité ! Et pourtant, trouver la bonne porte pour pallier Babel relève du miracle. Jusqu’à ce
jour du moins, car la Vrij Universiteit
Brussels (VUB) et l’Université libre de
Bruxelles (ULB) ont créé la Brussels
University Alliance, un label commun
pour des formations multilingues.
Au top !
Objectif ? Attirer étudiants et professeurs internationaux à travers une
offre élargie de programmes principalement en anglais, voire multilingues.
Première étape, dès la rentrée 201112, une offre de masters en anglais
commune aux facultés de sciences
appliquées (ULB) et ingenieurswetenschappen (VUB) dans le cadre du
Bruface (Brussels Faculty of Engineering). D’autres projets étofferont cette
initiative de bon aloi. 
Infos: http://www.vub.be
et http://www.ulb.ac.be
management international en deuxième
place mondiale.
e Financial Times (FT), dont on
connaît la rigueur, vient de classer la Louvain School of Management (LSM) à la première place de son
hit parade des écoles de gestion belges !
Une récompense obtenue par la qualité
du programme ingénieur de gestion dispensé à Louvain-la-Neuve.
Qualité des cours,
ouverture à l’international, satisfaction des alumni,
rémunérations obtenues par les diplômés, qualité­/coûts
des prog­rammes ont
retenu l’attention du
célèbre quotidien. 
Cette première met la LSM dans le top
20 des meilleures écoles de gestion au
niveau mondial et place son Master en
Infos: http://www.uclouvain.be/lsm
L
onne nouvelle pour la ­Wallonie
qui accueillera, en août 2013,
la conférence internationale
Atomic Spectra and Oscillator Strenghts for Astrophysical and Laboratory
Plasmas. Organisée tous les trois ans
alternativement en Amérique du Nord
et en Europe, cette conférence réunit
un aréopage international formé des
meilleurs spécialistes de la physique
atomique, travaillant dans des domaines aussi variés que la spectroscopie
de laboratoire, l’astrophysique, la
fusion nucléaire contrôlée, la physique des plasmas, etc.
Après l’Université de Berkley (Californie) cette année, c’est donc l’Université de Mons (UMons) qui organisera
la prochaine édition, par l’intermédiaire de son service d’astrophysique et de spectrométrie. Au-delà de
­l’organisation de cet événement
international et de l’honneur qui
lui est fait, l’Université montoise ne
pourra que bénéficier de retombées
scientifiques extraordinaires ! 
Infos : [email protected]
À partir du 20/01/2011: 9e édition
de la formation continue en gestion
de l’innovation. Infos & inscriptions:
[email protected] http://www.louvaininnovation.be
9
ATHENA 265 · Novembre 2010
> ÉVÉNEMENT
Durant 3 jours, des centaines d’écoliers ont pu découvrir les
enjeux des carburants du futur, le tout sur un lieu exceptionnel
et avec en apothéose, une soirée animée par Fred & Jamy !
Quand de jeunes Wallons
10
carburent au futur
Texte: Jean-Luc LÉONARD · [email protected] · Photos: C. CORTIER
Jean-Luc LÉONARD · ÉVÉNEMENT
Des centaines de jeunes ont
«carburé au futur», les 6, 7 et
8 octobre derniers, sur la base
aérienne de Florennes. C’est en
effet le 2e Wing qui accueillait des
élèves de classes primaires (10-12
ans) et secondaires (15-18 ans)
des provinces de Hainaut, Namur
et Brabant wallon, à l’invitation
de la DG06 du Service public de
Wallonie. Objectif de cette manifestation bisannuelle: sensibiliser
les jeunes à la recherche scientifique et technologique
C
omme c’est désormais une
coutume, l’opération s’est
clôturée au soir du vendredi 8 octobre par une
animation menée sur les
chapeaux de roue par Fred et Jamy, de
l’émission télé «C’est pas sorcier». À ­l’issue
de cette performance, le colonel Luc
Gennart, commandant du 2e Wing Tactique et Michel Van Cromphaut, organisateur de l’événement pour la DG06, pouvaient se congratuler chaleureusement.
C’était une belle réussite, organisée avec
une précision militaire, sans le moindre
accroc.
Le nombreux public, rassemblé sur les
gradins montés dans le vaste hangar qui
sert d’ordinaire à l’entretien des chasseurs-bombardiers F-16, a vu défiler, sur
le tarmac et sur écran géant, quelques
contributions wallonnes aux énergies du
futur. Il y avait, pêle-mêle, l’avion Solar
Impulse qui n’aurait
jamais pu voler sans
les chimistes de Solvay;
un kart électrique du
campus automobile
de Spa, un étrange
véhicule solaire
d’Umicore,
une
voiture mue par une pile à combustible,
un bus du TEC qui roule au bioéthanol,
une voiture hybride et bien sûr, un F-16...
Lequel, il faut l’avouer, n’est pas vraiment le moyen de transport le plus vert
puisqu’il brûle la bagatelle de 3.000 litres
de kérosène à l’heure mais n’en reste pas
moins un exceptionnel bijou technologique (Voir Athena n° 264, pp. 14-17).
Avant cette instructif divertissement, les
classes inscrites à «Je carbure au futur»
avaient participé à des ateliers d’initiation scientifique pour les élèves du
­primaire et à des rencontres sur le thème
des technologies et métiers pour leurs
aînés du secondaire.
De belles promesses...
Parmi les nouvelles technologies présentées aux jeunes, on peut citer celles
de Materia Nova, le centre de recherche
montois, qui a récemment fusionné avec
le laboratoire Natiss de Ghislenghien.
Parmi les nombreux domaines d’expertise de ce centre, représenté à Florennes
par Karl Berlier, directeur des projets, il y
a le développement de biopolymères.
Les recherches menées dans ce domaine
ont amené Materia Nova à participer au
développement de la première usine
prototype de production de PLA (polylactide, un plastique biodégradable à
base de sucre) en Europe par un partenariat de Total Pétrochemicals et du groupe
Galactic.
Soutenue par la Région wallonne au titre
du plan Marshall, cette usine-pilote, baptisée Futerro (http://www.futerro.com), est
installée sur le site de l’ancienne sucrerie
d’Escanaffles. Elle représente un investissement de 30 millions d’euros
et produit depuis le printemps
de cette année, des bioplastiques
comparables en qualité et en prix aux
produits classiques à base de pétrole.
Au-delà du secteur de l’emballage,
l’acide polylactique entre aussi dans
la composition de pièces automobiles,
de tissus, de nanocomposites et de
nanoparticules qui devraient doter bientôt certains matériaux de propriétés
performantes.
Autre participant aux ateliers technologiques de Florennes, la firme liégeoise
Green Propulsion, que les lecteurs
d’Athena connaissent bien, qui a construit
en 10 ans une quinzaine de prototypes
de véhicules novateur mus par des biocarburants, des piles à combustible ou
encore, des moteurs hybrides électriques
ou électriques purs. Gilles Philippart de
Foy, Project Manager, précise que le business principal de la société est de produire des prototypes de motorisation sur
mesure. Il peut s’agir aussi bien d’un petit
go-kart électrique capable d’atteindre
les 100 km/h en 2,5 secondes que d’une
benne-poubelle à moteur hybride.
Le projet le plus ambitieux de la spin-off de
l’ULg est l’Impéria, qui devrait commencer à sortir de la chaîne ­d’assemblage à la
fin de l’an prochain. Impéria (http://www.
imperia-auto.be) est une ancienne société
pionnière de l’automobile, ressuscitée en
2008 pour produire une voiture hybride
essence/électrique de luxe, capable de
respecter la norme sévère de 50 g de CO2
par km tout en permettant une accélération de 0 à 100 km/h en 4 secondes et le
kilomètre départ arrêté en 22,5 secondes.
Ce petit bijou de puissance (136 cv) et
d’écologie (consommation: 1,9 l ­d’essence
+ 11,5 kWh électriques aux 100 km)
­coûtera tout de même à l’achat quelque
90.000 euros. Il sera produit par une usine
distincte de Green Propulsion, dont la première pierre a été posée en août dernier
au parc scientifique du Sart Tilman.
11
ATHENA 265 · Novembre 2010
> ÉVÉNEMENT
2
3
1
12
1. Le Ministre Jean-Marc Nollet a fait
une entrée triomphante en Segway.
2. Un prototype de kart fonctionnant
à l’hydrogène, proposé par le campus
automobile de Spa-Francorchamp.
3. La soirée avait lieu dans un hangar
de la base aérienne de Florennes.
4. Une voiture hybride, fonctionnant à
l’électricité et au diesel.
... Mais aussi d’amères
déceptions
Mais tout n’est pas rose - car les roses
ont des épines - au pays des énergies du
futur. Si des succès notables sont déjà
établis, certains ont encore à tenir leurs
promesses dans la vie réelle tandis que
d’autres encore sont voués à l’échec.
Ni Fred et Jamy, ni les animateurs
technologiques invités à communiquer
avec les jeunes à la base de Florennes
n’ont caché le revers de la médaille. Il y
a des filières du futur dont on sait déjà
qu’elles auront quelque difficulté à
prospérer, du moins dans l’état actuel de
leur développement.
Par exemple, le gros handicap des
voitures électriques pures est leur
autonomie limitée, le prix encore
très élevé des batteries lithium-
4
polymères et, dans la plupart des
cas, un temps de recharge trop long.
Chères à l’achat, elles sont cependant
très économiques à l’usage, puisque la
plupart des constructeurs situent leur
coût d’utilisation entre 1 et 2 euros aux
100 km. Leur silence et leur caractère nonpolluant en feront sans doute - quand la
fabrication en série aura atteint un niveau
réellement commercial - la voiture idéale
des parcours urbains et des courts trajets.
Les biocarburants ont par contre un
futur plus incertain. Tant qu’ils entrent
en faible proportion dans les carburants
classiques, ils contribuent à réduire
quelque peu leur bilan carbonique et la
dépendance de notre parc automobile
vis-à-vis du pétrole. Mais en utilisation
exclusive, ils posent des problèmes. Le
TEC de Namur-Luxembourg teste depuis
l’an dernier trois autobus construits en
série en Suède et roulant au bioéthanol;
et l’on sait déjà que cette expérience
sera sans lendemain. Censés réduire
les émissions CO2, ces bus cumulent en
effet un lourd passif d’inconvénients.
Le premier est d’ordre éthique: les
biocarburants de première génération
sont fabriqués à base de produits
agricoles et entrent donc en concurrence
avec les applications alimentaires.
Affamer des gens sous prétexte de
sauver la planète n’est pas très indiqué.
Outre qu’ils coûtent nettement plus cher
à l’achat qu’un véhicule classique au
diesel, les bus au bioéthanol sont aussi
d’une utilisation plus onéreuse. Ainsi,
les chauffeurs doivent recevoir une
formation spéciale et l’entretien ne peut
se faire que sur fosse ventilée, parce
que l’éthanol est plus lourd que l’air
et qu’une fuite éventuelle mettrait le
personnel en danger. Les injecteurs de
carburant doivent être démontés tous
les 5.000 km et la culasse remplacée
tous les 15.000 km. Enfin, argument
décisif: le prix de l’éthanol (produit
par Biowanze) est de 1,30 euro/l et la
consommation des bus expérimentaux
est proche de 100 l au km, soit plus du
double des bus classiques au diesel.
Il paraît d’ores et déjà certain que ces
bus seront reconvertis au diesel à la
fin de l’expérience. Un autre essai non
concluant avait déjà été réalisé au TEC
Charleroi, où des véhicules roulant au
gaz naturel se sont révélés très polluants
et d’une fiabilité douteuse. Quand on
sait que les 360 bus du TEC NamurLuxembourg couvrent 15,5 millions
de km par an, qu’ils consomment en
moyenne un peu plus de 41 l aux 100 et
qu’un bus parcourra quelque 1,5 million
de km tout au long de sa «vie active»,
on comprend que les arguments
économiques auront toujours le dernier
mot. Écologie et économie doivent se
conjuguer... 
Michel WAUTELET · TECHNOLOGIE
Le salar d’Uyuni, en Bolivie, le plus grand désert
de sel de la planète contient le tiers des réserves
mondiales connues de sels de Lithium.
Cherche
matériaux
rares ...
... pour technologies
gourmandes
Texte: Michel WAUTELET • [email protected] • Photos: L. GALUZZI (p.16), MARSHMAN (p.18)
Selon une idée bien ancrée dans notre société, notre développement
dépend du progrès technologique, qui dépend de mesures incitatives,
économiques et politiques. On oublie que le progrès fait partie d’un
tout, dont on ne doit pas sous-estimer le poids des parties, comme celui
de la disponibilité «géologique» des matériaux. Tout ce que nous utilisons dans notre vie quotidienne est fait de matériaux tirés de notre
Terre, souvent disponibles en quantités limitées. Et nombre de technologies, actuelles et futures, ont et auront besoin de matériaux qui
­risquent de s’épuiser bientôt. Selon plusieurs experts, les stocks de
­certains métaux apparaissent insuffisants pour fournir le niveau de vie
du monde développé moderne à toute l’humanité, avec les techno­logies
­contemporaines. Même la révolution «verte» réclamée par ­certains
aura besoin de matériaux aux réserves incertaines. Notre futur est-il
menacé par une pénurie de ressources minérales importantes ?
D
ans notre société techno­
logique, certains oublient
facilement
que
nous
­sommes sur Terre et que
son volume n’est pas infini. La récente
crise pétrolière a rappelé que les
réserves sont limitées. Or, TOUS les
objets de notre quotidien sont faits
de matériaux extraits de notre Terre,
­souvent trans­formés physiquement ou
chimiquement.
Pendant des millénaires, les hommes
ont utilisé ce que la nature mettait directement à leur disposition. Aujourd’hui,
à côté du fer et du cuivre, ce sont nombre d’autres minéraux qui sont extraits
chaque année. Comme indiqué dans le
tableau 1 (p. 14), les tonnages extraits
annuellement sont très variables, de 500
millions de tonnes pour le fer à 200 tonnes pour le platine. Les technologies de
l’information et de la communication
(TIC) en contiennent beaucoup. Les équipements électroniques actuels consomment 3% de l’or et de l’argent récoltés
chaque année, 13% du palladium et 15%
du cobalt. Et cela ne fait que croître.
De nombreuses technologies du futur
(comme les transports), voire les technologies «vertes», feront appel à des
­ressources dont le volume disponible
n’est pas actuellement certain, comme le
platine des piles à combustible, le lithium
des batteries, les terres rares des TIC et des
éoliennes. Sans oublier le fait que, nous,
européens, sommes très dépendants de
l’extérieur pour la fourniture de matériaux stratégiques, comme repris dans le
tableau 1 (p. 14).
Des réserves
incertaines et limitées
Face à une utilisation de plus en plus intensive de certains éléments dans les technologies actuelles et futures, la question des
réserves disponibles se pose à nous. Elles
sont généralement estimées en années.
Si «R» sont les réserves connues actuelles
(en tonnes), utilisées au taux de production actuel (en tonnes par an), «P», alors
les réserves en années sont données par
«R/P» années. Il s’agit donc d’une estimation qui varie avec le temps.
13
ATHENA 265 · Novembre 2010
> TECHNOLOGIE
Pépite de platine natif, provenant de la
mine Konder, Kraï de Khabarovsk (Russie).
Taille: 35 × 23 × 14 mm,
masse: 112g
La Renault Scenic ZEV H2 (Renault - Nissan)
utilisant une pile à combustible hydrogène.
Le problème subsiste le volume des équipements par rapport à l’espace disponible.
14
Estimer les réserves n’est pas chose facile.
Le plus souvent, les données sont considérées comme stratégiques par les entreprises minières intéressées et ne sont
donc pas révélées. Les gouvernements et
les chercheurs commencent seulement à
se rendre compte de l’importance de ces
données pour notre futur. Les réserves de
matériaux «stratégiques», estimées par
divers chercheurs, sont données dans le
tableau 2 (p. 15).
Ces estimations des réserves ne sont pas
à prendre au pied de la lettre. Il ne faut
pas en conclure qu’après R/P années,
il n’y aura plus de matériau donné. De
Tableau 1. Quantité d’éléments extraits annuellement et dépendance de l’UE
Elément
Ag
Al
Au
Co
Cr
Cu
Fe
Mg
Mn
Mo
Nb
Ni
Pb
Pd
Pt
Rh
Sb
Sn
Terres rares
Ta
Ti
V
W
Zn
Zr
Tonnages extraits annuellement
15.000
20.000.000
2.500
40.000
4.000.000
10.000.000
500.000.000
350.000
8.000.000
150.000
20.000
1.000.000
3.000.000
130
200
60
100.000
200.000
80.000
500
70.000
35.000
7.000.000
5.000
Dépendance de l’UE (1997)
82%
100%
50%
78%
82%
100%
100%
100%
56%
100%
100%
100%
100%
100%
100%
100%
48%
82%
­ ouvelles découvertes sont possibles, des
n
usages plus rationnels sont souvent envisageables. Certains éléments peuvent
disparaître de certains usages, comme
le plomb qui, nécessaire dans l’essence
il y a quelques décennies, a aujourd’hui
­disparu de nos réservoirs.
Quoiqu’il en soit, de nombreux géologues
pensent qu’il n’y a pas assez de ressources minérales sur Terre pour continuer
encore longtemps à nous développer.
Dans certains cas, il est même probable
que nous devions abandonner certaines
technologies, par manque de matériau
disponible.
Un exemple interpellant concerne le
cas du gallium (Ga). Avec l’indium (In) et
­l’arsenic (As), il est utilisé pour fabriquer le
semiconducteur InGaAs, à la base d’une
nouvelle génération de cellules photovoltaïques, avec un rendement double de
celui du silicium (Si). Selon ­certaines études, les réserves connues actuellement
de Ga et In ne permettront guère que de
remplacer 1% des cellules solaires au Si.
Ce type de cellules ne contribuera alors
pas de manière substantielle à la fourniture d’électricité solaire. Même si tout le
monde n’est pas aussi catégorique, les
incertitudes sont telles qu’il faut au moins
tenir compte de l’argument.
Prenons le cas du platine (Pt). Il est présent dans les pots catalytiques des voi-
Michel WAUTELET · TECHNOLOGIE
tures et est
un élément clé
des piles à combustible
(PAC) des futures (?) voitures
à hydrogène. Les réserves sont importantes (360 ans) si nous continuons à
l’exploiter comme aujourd’hui. Mais si
le parc automobile mondial actuel était
équipé de PAC, il pourrait être épuisé en
15 ans. Un ­problème est qu’aujourd’hui,
le platine usé n’est pas recyclé.
Des réserves
inégalement
réparties
La majorité du Pt (88%) est produite
dans deux mines d’Afrique du Sud,
alors que la plupart du reste (8%) provient d’une seule autre mine en Russie.
Et le taux de production n’est pas infini
(environ 200 tonnes par an). Dès lors,
si tout le Pt servait dans les PAC des
voitures, il n’y en aurait que pour équiper deux millions de voitures, soit bien
moins que les 700 millions de véhicules
prévus en 2028.
Le fait que les réserves soient localisées géographiquement ne devrait pas
manquer d’interpeller les responsables
industriels et politiques. Un autre cas
flagrant est celui des terres rares (au
sens du tableau de Mendeleev). Ces éléments sont la clé des TIC et de ­certaines
technologies «vertes». Ils sont dans les
iPods, Blackberrys, écrans plasma, etc.
Une terre rare, le néodyme (Nd), est
un élément clé des aimants présents
dans les turbines des éoliennes. Dans
les années 1970 et 1980, le principal
producteur de terres rares était les
USA. Aujourd’hui, 97% proviennent de
Chine, qui a récemment pris le contrôle
de mines au Brésil et en Australie, éliminant ainsi des concurrents majeurs.
Selon certains analystes, sa stratégie
est claire: rendre le monde dépendant,
comme les pays de l’OPEP l’ont fait avec
le pétrole. De plus, leurs exportations
de terres rares diminuent. De 60.000
tonnes en 2002, elles sont descendues
à 45.000 tonnes en
2008. Il ne faut pas être
grand clerc pour imaginer les conséquences d’une
crise commerciale avec la
Chine sur les technologies
occidentales. Notamment lorsque l’on sait que, par exemple, les
USA importent 90% de leurs terres
rares de Chine.
Un autre exemple concerne le lithium
(Li), élément de base des batteries
des véhicules électriques en cours de
dévelop­pement. Très abondant sur
Terre, il n’existe en concentration suffisante pour une exploitation rentable
qu’en peu d’endroits. Les principaux
gisements sont situés en Amérique
du Sud (Bolivie, Chili, Argentine), au
Tibet, ainsi qu’en Russie, en Australie
et aux USA. Le plus grand gisement
actuel est situé au sud-ouest de la Bolivie et représente un tiers des réserves
mondiales. Il y a actuellement une
­dispute entre experts sur l’estimation
des réserves utiles. Selon le ­cabinet
Meridian International Research, elles
seraient insuffisantes pour une utilisation massive dans les batteries des
véhicules. Leur raisonnement est basé
sur une analyse de la composition
chimique des sites exploitables, de
leur disponibilité et du coût d’extrac-
tion. Selon d’autres, le quart des réserves mondiales de base serait suffisant
pour équiper un milliard de véhicules
à l’horizon 2025. Quoiqu’il en soit, il
est évident que l’Amérique du Sud et
la Chine risquent de devenir ­bientôt
des régions incontournables pour
l’industrie
automobile
mondiale.
Certains industriels l’ont bien compris.
Ainsi, les gisements boliviens et argentins intéressent le groupe français Bolloré, très actif dans le développement
des voitures électriques. Et c’est une
compagnie allemande, Chemettall, qui
est l’opérateur principal des gisements
du Chili, premier exportateur mondial.
Tous les éléments chimiques ne sont
pas appelés à être de plus en plus utilisés. Ainsi, le fer est-il en régression dans
les pays développés, comme les USA.
Selon Tom Graedel, de l’université de
Yale (USA), la consommation par habitant décroît depuis les années 1980 aux
USA. Selon lui, «cela suggère qu’il y a
suffisamment de ponts, de bâtiments, de
véhicules pour les besoins d’une société
développée comme la nôtre». Reste
à étudier si la situation est la même
dans les autres pays développés. Cette
diminution n’est évidemment pas valable pour tous les éléments. Ainsi, la
demande de cuivre croît toujours et ne
montre aucun signe de tassement.
Tableau 2. Réserves mondiales et utilisations de quelques éléments
chimiques technologiquement importants
Elément
Aluminium (Al)
Arsenic (As)
Antimoine (Sb)
Argent (Ag)
Cadmium (Cd)
Chrome (Cr)
Cuivre (Cu)
Etain (Sn)
Gallium (Ga)
Germanium (Ge)
Hafnium (Hf)
Indium (In)
Nickel (Ni)
Or (Au)
Phosphore (P)
Platine (Pt)
Plomb (Pb)
Sélénium (Se)
Tantale (Ta)
Thallium (Tl)
Terbium (Tb)
Uranium (U)
Zinc (Zn)
Réserves
estimées
en 2008
(années)*
1027
20
30
29
70
143
61
40
5-8
5
20
13
90
45
345
360
42
120
116
65
15
59
46
% de matériau
recyclé dans la
consommation **
49
Non connu
16
25
31
26
0
35
Non connu
0
35
43
0
0
72
20
0
26
Utilisations
Transports, TIC, emballages
Electronique, photovoltaïque
Pharmacie, catalyse
Bijouterie, catalyse
Batteries NiCd
Revêtements
Conducteurs électriques, monnaie
Cannettes, soudure, écrans plats
Electronique, photovoltaïque, ...
Electronique, photovoltaïque
Electronique, nucléaire
Photovoltaïque, LEDs
Batteries, turbines
Bijouterie, électronique
Agriculture
Bijouterie, catalyse, pots catalytiques, piles à combustible
Batteries
Electronique, photovoltaïque
GSM, caméras
Réactifs organiques
Lampes « économiques »
Nucléaire
Galvanisation
15
ATHENA 265 · Novembre 2010
+
> TECHNOLOGIE
Des solutions
diverses
Plus d’infos:
Tableau 1: adapté de
www.encyclopedie-dd.org
Face aux risques de pénuries de matériaux majeurs pour notre survie «technologique», ainsi que notre forte
dépendance vis-à-vis des pays hors UE,
la réaction des divers acteurs est nécessaire. À tous les stades de la vie des matériaux, des mesures doivent être prises,
depuis l’extraction jusqu’aux utilisateurs
finaux (nous).
Tableau 2:
d’après * C. Rhodes, Chemistry and
Industry, August 25, 2008 ;
** D. Cohen, New Scientist, 2605
(23 mai 2007))
Le premier stade de la vie technologique
d’un matériau est son extraction. Les
déchets de nombreuses mines contiennent des quantités non négligeables de
minéraux intéressants. Les extraire ou
pas est souvent une question de coût
économique et énergétique. Comme
certains le disent, on peut aller chercher
des matériaux précieux sur la Lune, mais
le jeu en vaut-il la chandelle ? Cela risque
de ne jamais être rentable. Avec la diminution des réserves, de nouvelles méthodes d’extraction deviennent rentables.
­Certains vont même plus loin. Ainsi, des
chercheurs de l’université de Birmingham
(GB), Prichard et Macaskie, ont trouvé
que le platine est présent à des concentrations de 1,5 ppm (parties par million)
dans la poussière des bords des routes. Ils
étudient un procédé à base de bactéries
pour extraire le platine de la poussière.
1. Les déchets électroniques
contiennent 17 métaux
différents, dont 7 métaux
précieux.
2. Mine de cuivre à ciel ouvert,
Chino Copper Mine, NouveauMexique, États-Unis.
16
1
Une partie plus ou moins importante
du coût de l’extraction est liée à celui de
l’énergie, souvent le pétrole. Il n’est pas
2
exclu que, dans certains cas, le coût du
pétrole soit le facteur qui déterminera la
disponibilité réelle de minerais.
L’étape suivante concerne la fabrication
des produits manufacturés. Ici, deux
voies principales existent. La première
consiste à remplacer les éléments par
des matériaux moins chers, comme remplacer le cuivre des canalisations par des
plastiques. De nombreuses recherches
étudient aussi des alternatives au Pt dans
les PAC. Il ne se passe guère de mois sans
que quelqu’un annonce avoir trouvé une
alternative. Jusqu’ici, on n’en est qu’à
l’étape de la recherche et des promesses.
Il faut encore démontrer que la technologie permet une durée de vie suffisante
des PAC. D’où des années de travaux entre
l’annonce dans les médias et la mise en
pratique.
L’autre voie consiste à mettre au point
des procédés employant les matériaux
en quantités moins importantes pour le
même effet. Par exemple, on pourrait utiliser le Pt sous forme de nanoparticules. En
effet, dans les PAC, l’action catalytique du
Pt se passe à la couche atomique superficielle, qui contient très peu d’atomes
par rapport au matériau employé. Dans
les nanoparticules, à quantité de matière
égale, le nombre d’atomes en surface est
beaucoup plus grand que dans la matière
ordinaire (voir encart p. 17). La mise au
point de tels procédés nanotechnologiques permettrait de diminuer considérablement la demande de Pt pour les
PAC. Ce qui aurait pour conséquence un
accroissement considérable des réserves
Michel WAUTELET · TECHNOLOGIE
Les Nano­
particules
(en années) et une demande moindre,
d’où des prix moindres. Ce serait un bénéfice pour tous.
Dans certaines applications, toutes les
parties ne vieillissent pas de la même
manière. C’est le cas bien connu des
automobiles, ordinateurs, etc. Prévoir des
procédés avec des pièces aisément détachables et réutilisables sur de nouveaux
objets est, de plus en plus, considéré
comme vital.
Une autre manière d’économiser les
matériaux est du ressort du consom­
mateur: utiliser moins et plus efficacement les technologies. Ainsi, aujourd’hui,
la durée de vie des GSM, ipod, etc. est
de quelques années. Et ce, alors que les
objets fonctionnent encore très bien. Il y a
là de quoi conscientiser le consommateur
à un usage plus réfléchi des technologies
modernes. Et une fois un appareil devenu
obsolète, pourquoi ne pas le donner à
un organisme de «seconde main», qui le
réparera et lui donnera une seconde vie.
Reste enfin le recyclage des matériaux.
Les pourcentages de matériaux recyclés
dans la consommation totale actuelle
sont donnés dans le tableau 2 (p. 15).
Alors que l’aluminium et l’or sont presque pour moitié des éléments recyclés,
il n’y en a pas pour le platine, le gallium
et ­l’indium. Cela s’explique principalement par la difficulté du recyclage. Dans
une puce électronique, il y a du gallium
et de l’indium en si faibles quantités que
les recycler se ferait à un prix prohibitif.
Cela ne signifie pas que cela ne soit pas
rentable pour certains. À Hoboken, près
d’Anvers, se trouve la plus importante
­installation au monde pour la récupération de métaux précieux à partir de
déchets électroniques. Chaque année,
ce sont près de 30.000 tonnes de déchets
électriques et électroniques qui passent
par cette usine, propriété de la société
Umicore, qui en extrait 17 métaux différents, dont 7 précieux. À titre indicatif, on
peut extraire 1 kg d’or et 10 kg d’argent à
partir de 50.000 GSM. Dans certains cas,
le recyclage est un fait incontournable.
Par exemple, aujourd’hui, 72% du plomb
utilisé dans les batteries et autres est du
plomb recyclé. S’il ne l’était pas, nous n’en
aurions tout simplement pas assez pour
équiper nos voitures !
Il en est de même avec le nickel des
actuelles batteries des voitures hybrides.
Il en sera vraisemblablement ainsi avec le
lithium des batteries des futures voitures
électriques. D’autant plus qu’avec un taux
de recyclage potentiel annoncé de 98%,
le recyclage du Li serait économiquement
très rentable. Le fait que le recyclage
ait lieu chez nous devrait aussi, à
terme, diminuer considérablement notre dépendance vis-àvis des pays producteurs.
Des
matériaux
divers
entrent dans la composition de tous les objets de
notre société. Même les
technologies vertes dépendent de matériaux aux réserves incertaines. Les économiser
est une nécessité. Diverses voies
existent, qui impliquent les industriels,
mais aussi notre mode de consommation. Autant savoir ! 
L
es nanoparticules sont des
particules ou grains dont la
dimension est de quelques
nanomètres (nm) à quelques
centaines de nm (1 nm = un
millardième de mètre = un millionième de millimètre). Prenons
une poudre de masse déterminée
(par exemple un gramme). Plus
les particules dont la poudre est
constituée sont petites, plus la
somme des aires des surfaces des
particules est importante.
L’aire spécifique (aire par unité
de masse) peut être très grande.
Ainsi, si une poudre de platine
est constituée de nanoparti­cules
sphériques de rayon égal
à 10 nm, l’aire spécifique
sera de 13 m2/g.
Ceci est important lorsque les
processus se
passent à la
surface des
particules,
comme la
­catalyse hétérogène (dans
les PAC) ou
l’absorption de gaz
(masques à gaz).
17
ATHENA 265 · Novembre 2010
> PORTRAIT
L’ADN de...
Propos recueillis par Géraldine TRAN • [email protected]
Photos: BSIP/REPORTERS (fond)
Côté pile
Nom: ROLLET
Prénom: Maxime
Âge: 32 ans
État civil: Célibataire
(en couple)
Enfants: 1, une fille
Profession: Programmeur
et concepteur de jeux
vidéo
18
Formation: Bac STI génie
mécanique au Lycée ­
Carnot
de Roanne (France), puis
un BTS en informatique
industrielle au Lycée
Édouard Branly de Lyon
(France).
Adresse(s):
Fishing Cactus
Parc Initialis
Rue Descartes, 1
7000 Mons
Tél.: 065/22.58.86
[email protected]
Créateur de jeux vidéo, c’est une vocation que vous avez depuis tout petit ?
Comment l’idée vous est-elle venue,
l’envie de faire de votre passion, votre
vie ?
À l’école je programmais des jeux sur les
calculatrices de mes camarades de classe,
ils m’ont poussé à franchir le cap et à
découvrir la programmation sur PC. J’ai
monté ma première machine avec leurs
vieilles pièces, en échange d’un jeu de rôle
que je devais leur programmer (et que je
n’ai jamais terminé d’ailleurs !). La passion
était née ! C’est bien entendu une passion
qui se découvre avec l’âge mais je pense
qu’il faut être au départ quelqu’un qui joue
beaucoup (et pas uniquement aux jeux
vidéos).
Comment devient-on programmeur
de jeu vidéo?
J’ai étudié à Lyon, en France, un Bac
techno­logique (automatisme,... ) d’abord
puis ensuite un BTS en informatique industrielle. Les formations pour le jeu vidéo
n’existaient pas encore lorsque j’étudiais.
Ensuite j’ai eu la chance de travailler dans
ce milieu dès la fin de mes études car la
région offrait beaucoup d’offres d’emplois
(Infogrames, Eden Studio,... ). Il s’agit
encore d’un métier qui s’acquiert principalement avec l’expérience sur le terrain.
Quels sont vos rapports avec la science
et les techniques ? Quels sont vos
premiers souvenirs «technologicoscientifiques» ?
J’étais très attiré par les robots étant enfant.
Je rêvais de concevoir un «Trans­formers»
réel, mais je me contentais de dessiner
des plans par faute de connaissance et
de matériel. Maintenant avec l’âge et les
moyens, je m’y remets doucement.
Quelle est la plus grande difficulté
rencontrée dans l’exercice de votre
métier ?
Le nombre d’heures parfois irréalistes
qu’il faut faire pour boucler un projet. Les
dates de livraison sont vitales dans notre
métier si on veut sortir un produit pendant
les bons créneaux (Noël,...). Cela crée une
fatigue qui à la longue, peut être difficile
à gérer. Par contre les challenges techniques ne me font pas peur et créent souvent
l’excitation.
Quelle est votre plus grande réussite
professionnelle jusqu’à ce jour ?
Le démarrage de Fishing Cactus ! Même
si je suis moins impliqué que les autres
fonda­teurs dans la phase de création de
l’entreprise, c’est une grande fierté pour
moi.
Vous planchez actuellement sur plusieurs projets pour l’iPhone et le Serious
Gaming. Quelles sont les grandes étapes dans la création d’un jeu vidéo ?
Il y a d’abord la phase de conception du jeu
par les Game Designers. Ensuite l’équipe
technique réalise le programme du jeu
pendant que les artistes créent les ressources graphiques et sonores du jeu (3D/2D).
Les game designers ainsi que les programmeurs font l’assemblage des deux parties.
Ensuite c’est la phase de test et de correction du programme, avant l’envoi en validation du jeu par les fabricants (Nintendo,
Apple,...). Les Serious Games ont moins
de contraintes d’un point de vue fabricant
puisqu’ils sont destinés principalement
aux entreprises. Par contre le programme
doit absolument remplir les besoins du
client qui, dans ce domaine, s’avèrent très
spécifiques.
Géraldine TRAN · PORTRAIT
Maxime ROLLET
Côté face
Lorsqu’on dit «jeu vidéo», on pense
directement au côté ludique mais
c’est aussi devenu un outil de plus
en plus utilisé de manière «scientifique» (dans le milieu médical, l’armée,…). Quels sont vos projets à ce
niveau-là ?
Nous travaillons actuellement sur un
Serious Game médical pour les personnes handicapées ou qui ont besoin de
rééducation suite à une maladie (Alzheimer) ou accident par exemple (on parle
de cérébrolésés). Le jeu ­utilise le Microsoft Kinect - une camera 3D qui se branche sur la Xbox 360 - et qui détecte les
mouvements du joueur, pas besoin d’une
manette, ni d’un clavier. Fishing Cactus,
en collaboration avec le Microsoft Innovation Center, est un des rares studios
de jeu dans le monde à faire cela dans
ce domaine d’activité. Pour parler plus
concrètement du projet: sur les conseils
de son médecin, le patient doit réaliser
diverses actions dans le programme qui
mélangent jeux et exercices de mobilité
dans une maison virtuelle. On est donc
loin d’un projet purement ludique ­malgré
l’utilisation des techniques du jeu vidéo.
Celles-ci nous permettent de proposer
des solutions innovantes et intéressantes
pour le monde professionnel.
Quels conseils donneriez-vous à un
jeune qui aurait envie de suivre vos
traces ?
Maîtriser l’anglais est très important.
Pour les programmeurs, de solides
bases de programmation en
C++ sont nécessaires. Mais
suivre une filière scolaire
spécialisée est désormais
un avantage pour débuter
une carrière.
Je vous offre une vie parallèle, quel
métier choisiriez-vous ?
Joueur de football professionnel, ou membre des Rolling Stones ! Pas très original...
Je vous offre un super pouvoir, ce serait
lequel et qu’en feriez-vous ?
Voyager dans le temps, pour voir si l’Homme
rencontre un jour des extraterrestres et enfin
savoir qui a vraiment construit la pyramide
de Ramsès II!
Je vous offre un auditoire, quel cours
donneriez-vous ?
La programmation pour le jeu vidéo. On
organise d’ailleurs très bientôt une session
de formation généraliste incluant une initiation à la programmation à la Technocité
de Mons.
Je vous offre un laboratoire, vous plancheriez sur quoi en priorité ?
Les exo-squelettes et la robotique en
général.
Je vous transforme en un objet, ce serait
lequel et pourquoi ?
Un vaisseau spatial pour explorer l’Univers,
voir de quoi regorge le monde. 
+
Plus d’infos:
http://www.fishingcactus.com/
http://blog.fishingcactus.com
http://www.infographie-sup.be
(Haute école Albert Jacquard de
Namur)
http://www.technocite.be
(Centre de compétence de Hornu)
19
ATHENA 265 · Novembre 2010
> SOCIÉTÉ
Malgré son âge avancé, ce bon
vieux Frankenstein reste toujours
aussi fringuant ! Le mythe du
­savant fou et plus généralement
les peurs liées aux avancées
scientifiques, sont en effet plus
que jamais à la mode. Il suffit
d’observer les craintes suscitées
par les OGM, les nanotechno­
logies ou encore les ondes, pour
se demander si les polémiques
ne tournent pas parfois à la
­psychose collective. Face à ces
critiques, de nombreux acteurs
de la recherche scientifique
­prônent une communication
accrue des sciences
20
Le périlleux exercice
de la communication
Texte :Patrick VEILLARD
[email protected]
D
’après eux, il faut «alphabétiser» les citoyens aux
sciences, selon l’axiome
«to know me is to love
me». La diffusion et la
vulgarisation des sciences seraient ainsi
des activités essentielles pour rétablir la
confiance du grand public. Elles seraient
également un préalable essentiel à l’instauration d’un vrai dialogue entre les
acteurs de la recherche et les citoyens
consommateurs de technologie.
Au delà de son aspect contestable, ce postulat soulève une question sous-jacente:
qui doit s’occuper de la communication?
Est-ce le travail des journalistes ou bien
celui des scientifiques eux-mêmes ?
Aucun des deux, serait-on tenté de dire.
Car comme le souligne Géraldine Tran,
rédacteur en chef d’Athena, «les scientifiques sont trop scientifiques, les journa­listes
trop journalistiques». D’après elle, «les
deux mondes restent très cloisonnés» et les
scientifique
relations entre les deux professions ambivalentes voire conflictuelles, la ­«rigueur
s’opposant à la liberté». La presse, cette
«machine à news» a en effet pour habitude ou le devoir de donner en même
temps les faits et une opinion sur ces faits.
Ce qui constitue un problème majeur
pour les chercheurs, qui se doivent d’être
rigoureux et ne pas exagérer par exemple
la portée ou le sens de leur recherche.
Prudence et crème
brulée
scientifique chargé des expériences à la
surface de Titan, John Zarnecki, décrit la
surface du satellite en ces termes: «Nous
pensons qu’il s’agit d’un matériau recouvert d’une fine pellicule, sous laquelle se
trouve une couche d’une consistance relativement uniforme». Prudence et ­langage
on ne peut plus scientifiques, que les
journalistes et médias s’empressent,
sous la suggestion d’un des collègues de
Zarnecki, d’altérer en comparant cette
texture à de la «crème brûlée». Indignation immédiate de nombreux scientifiques, pour qui ce rapprochement n’est
pas valide scientifiquement.
Michel Claessens, rédacteur en chef
de la revue Research de la Commission
Européenne, donne à ce sujet dans son
ouvrage Science et communication: pour
le meilleur et pour le pire, un exemple que
l’on pourrait qualifier de «croustillant».
Lors du survol du satellite de Jupiter Titan
par la sonde Cassini en janvier 2005, le
Des deux côtés, se fait donc sentir un
manque cruel de connaissances, les
scientifiques étant peu formés à la communication, les journalistes sans doute
encore moins aux sciences. Il existe bien
quelques journalistes scientifiques en
Belgique mais ils sont très rares, ultra
spécialisés dans leur discipline et le plus
Patrick VEILLARD · SOCIÉTÉ
souvent pigistes donc avec un statut
très précaire. Face à ce problème, certaines universités ont mis en place des
programmes de communication pour
les scientifiques (ULB) ou à l’inverse, des
formations scientifiques pour les journalistes (ULg). Il existe également des
bourses, au niveau européen notamment, permettant à des journalistes de
passer une semaine dans un laboratoire de recherche ou au contraire à des
scientifiques de travailler dans une salle
de presse. Des enquêtes de satisfaction
suite à ces programmes ont systématiquement montré une meilleure compréhension des difficultés respectives de
chacun des métiers et in fine, un meilleur
contact entre les deux mondes.
Une communication
trop vulgaire
Ces tentatives restent néanmoins limitées et font de plus face à une certaine
réticence des chercheurs. Beaucoup
jugent en effet que la communication
ne fait pas partie de leurs fonctions.
Une étude de 2006 effectuée auprès de
1.500 scientifiques britanniques par la
Royal Society de Londres montre qu’un
quart d’entre eux considère la vulgarisation comme «indigne d’une carrière
académique». Voilà qui a le mérite d’être
clair. Tous ne sont cependant pas aussi
catégoriques.
À titre d’exemple, le magazine scientifique belge EOS a récemment ouvert
sur son site un portail de blogs écrits
par des scientifiques. D’après l’un de
ses journalistes et webmaster, Reinout
Verbeke, la plupart sont de «grande
qualité». Ce format présente de plus
l’énorme avantage de donner des points
de vue scientifiques très différents sur
un même sujet: «Comparez les points de
vue d’un ethnologue, d’un biologiste ou
d’un archéologue sur une problématique
de biodiversité et vous obtenez potentiellement un maximum d’idées !».
Autre solution, le recours de plus en
plus fréquent à des communicateurs et
attachés de presse, dont la mission est
d’établir un lien entre la communauté
scientifique et le public non spécialisé.
Cette professionnalisation de la médiation scientifique démontre la reconnaissance par les scientifiques des difficultés
à communiquer les sciences et la nécessité de faire appel à des professionnels
formés à ce type de tâche.
Un facebook des
sciences
Une autre question sous-jacente à la
problématique est l’implication des
citoyens dans le processus. Notre société
fait-elle le maximum pour partager les
avancées de la technoscience avec le
public et permettre son appropriation
sociétale ? D’après Michel Claessens, la
réponse est clairement «non». Pour lui,
de «graves lacunes existent en Europe,
lacunes qui doivent être comblées de
façon urgente». Son argument ? «Une
science privée de réflexion sur elle-même
ne peut avoir conscience de son rôle dans
la société». L’enjeu serait ainsi de «contribuer à l’émergence d’une science plus
complète et plus citoyenne». Pour MarieJosé Gama, directrice de la cellule de
diffusion scientifique de l’ULB Inforsciences, ce questionnement de la recherche
ne doit concerner que les «applications
et non la recherche fondamentale» qui
n’a selon elle pas besoin d’avis citoyen
puisqu’étant, par définition, «immuable
et motivée uniquement par une avancée
générale des connaissances».
Un concours de dissertation organisé
en 2005 par Inforsciences est à ce titre
assez symptomatique. À la question de
savoir si le principe de précaution en
sciences était un moteur ou un frein au
développement, une grande partie des
étudiants a exprimé ses inquiétudes,
en demandant notamment davantage
de concertation citoyenne dans les
stratégies de recherche. Face à cette
demande, apparait depuis quelques
années le concept de «conférences
citoyennes». Cette méthode consiste
à réunir quelques dizaines de citoyens
sous l’égide d’experts, pour discuter
de sujets scientifiques de société. Une
consultation citoyenne de ce type a
ainsi été organisée en 2005 en Belgique
par l’ONDRAF (organisme national des
déchets radioactifs et des matières fissiles
enrichies), en collaboration avec la Fondation Roi Baudouin. Cette consultation
avait pour but d’obtenir un avis citoyen
sur la question de l’enfouissement
des déchets nucléaires. Les résultats,
publiés en février dernier, ont montré
de manière surprenante un avis plutôt
clément vis-à-vis du nucléaire.
D’après Michel Claessens, ces conférences citoyennes sont un moyen idéal de
rétablir la confiance entre grand public
et acteurs de la recherche scientifique.
Les nouveaux médias ont à ce titre un
rôle potentiellement important à jouer
puisqu’ils pourraient permettent d’améliorer considérablement la communication entre les deux parties. Ils touchent
potentiellement davantage de personnes tout en augmentant l’interactivité
de la communication, par exemple par
l’intermédiaire de forums. L’instauration
de conférences citoyennes scientifiques
sur différents réseaux sociaux pourrait à
ce titre constituer une expérience intéressante. Facebook comme nouvel outil
de communication scientifique ? L’avenir nous le dira… n
21
+
Le p’tit plus
de la rédac’
La communication
scientifique:
Discours, figures,
modèles,
de Daniel Jacobi,
aux Éditions
Broché
ATHENA 265 · Novembre 2010
> INTERNET
Le Web
pour les Nuls
et les Professionnels
22
Comment les Trouveurs trouvent
Texte : Christian VANDEN BERGHEN • http://www.brainsfeed.com • [email protected]
Illustrations : VINCE
Quand les choses sont bien
­rangées, on les retrouve plus
­facilement ! Bien que le Web ne
soit pas un modèle de rangement,
les ­trouveurs trouvent. Pourquoi ?
Parce qu’ils disposent d’une
­méthode de ­recherche et parce
que d’autres ont rangé le Web
à leur place. Ces autres, ce sont
les moteurs, les ­annuaires et les
­métamoteurs dont nous avons
parlé dans l’article du mois d’octobre. Et heureusement, grâce à ces
trois classes d’outils de ­recherche,
il est possible de ­trouver à peu
près tout sur le Web.
L
e problème est donc ­simple:
il suffit de c­omprendre
le fonctionnement et la
logique des moteurs, des
annuaires et des métamoteurs pour devenir un professionnel du
Web. Enfin pas tout à fait parce que la
différence entre Google - moteur généraliste - et SlideShare - site de partage de
présentations - est immense. Un professionnel du Web est capable d’identifier
et d’utiliser l’outil de recherche le plus
adapté pour trouver (rapidement si
­possible) la réponse la plus pertinente à
la question posée.
Identifier
le bon outil
de recherche
Google, l’outil de recherche le plus utilisé au monde est un moteur capable
de trouver des mots sur des pages
Web. Certains débutants croient que
Google = le Web. Malheureusement pas !
Il n’a indexé qu’une petite partie du Web
et d’innombrables pages ne figurent pas
dans sa base de données. Nous avons
examiné les causes de cette situation
dans l’article précédent. Les conséquences sont évidentes: tout ne se trouve pas
dans Google. Loin de là !
Il existe des milliers de moteurs. En quoi
sont-ils différents ?
›› chaque moteur possède sa propre
base de données. Et il est évident que
la probabilité de trouver une information dans une base de données
volumineuse est plus importante que
dans une plus petite;
›› chaque moteur a sa propre manière
de classer les résultats car leurs critères de pertinence sont différents. En
d’autres termes si Google,
Bing (http://www.bing.com/),
Exalead (http://www.exalead.com/search/),
Ask (http://www.ask.com/) et d’autres
possédaient la même base de
Christian VANDEN BERGHEN · INTERNET
­ onnées, nous obtiendrions autant
d
de résultats différents qu’il y a de
moteurs, simplement parce que leur
mode de classement varie;
›› chaque moteur propose des méthodes pour affiner les recherches.
Tous les moteurs cités ci-dessus sont
des moteurs généralistes. Leur ambition est de collecter le plus grand
nombre possible de pages (tout en
se fixant des limites) susceptibles
d’intéresser le plus de monde possible.
Le choix des documents indexés tient
donc compte des préférences du plus
grand nombre. Un document technique et scientifique intéresse sans doute
moins qu’une page relatant la succession d’événements palpitants de la vie
d’une chanteuse à la mode.
À côté de ces moteurs généralistes existe une multitude de moteurs
­spécialisés. Pour trouver des moteurs de
recherche scientifiques, il est ­possible
d’utiliser Google en tapant une requête
de type «scientific searchengine».
Google a lui aussi compris le problème
des documents scientifiques: comme
ils intéressent un nombre limité de
­personnes, il est très difficile de les faire
«remonter» avec un moteur généraliste.
C’est pour solutionner ce problème
que Google Scholar (http://www.scholar.
google.fr) a été créé.
Outre la recherche de moteurs
­spécialisés par le biais d’un moteur de
recherche généraliste, il existe des listes
de moteurs de recherche. Pour les trouver, essayez par exemple une requête du
genre «list of specialized search engines».
Après s’être demandé si la réponse peut
se trouver sur le Web, une des premières questions que se pose un Trouveur
est celle-ci: qui (et il peut s’agir d’un
outil de recherche) pourrait posséder la
réponse à la question que je me pose ?
Si la réponse est «probablement un
moteur de recherche», il se demande
si un moteur de recherche généraliste
comme Google pourrait la posséder.
Sinon, il va essayer d’utiliser un moteur
généraliste pour trouver un moteur
spécialisé.
Sans oublier que la réponse peut être
détenue par un annuaire, un expert à
identifier en ligne, une base de données
ou parfois un collègue de travail.
Utiliser correctement
un outil de recherche
À l’instar de chaque être humain, chaque
moteur de recherche, chaque annuaire,
chaque métamoteur, chaque base de
données possède ses petites manies et
habitudes. Et comme d’un être humain,
pour en tirer le meilleur, il est préférable
de savoir «comment le prendre».
Ces petites manies sont des manières de
classer l’information, de la présenter sur
la page de résultats et des méthodes de
recherche spécifiques.
Les annuaires par exemple - et cela
provient de la manière dont ils sont
élaborés - ne sont pas capables de
répondre à une recherche par motclé. Il faut impérativement les interroger en entrant dans la logique de leur
taxinomie propre. Ainsi la taxinomie de
­l’annuaire de Yahoo! (http://dir.yahoo.
com/)
­ iffère-t-elle de celle de DMOZ
d
(http://www.dmoz.org/) par exemple.
Pour bien utiliser un annuaire, il faut
donc comprendre la logique de classement des sites pour savoir dans quelle
catégorie est traité tel sujet et ensuite
descendre dans l’arborescence.
Les moteurs sont plus compliqués car
la recherche doit se faire par mot-clé. Il
s’agit donc de bien formuler sa requête
pour obtenir des résultats pertinents.
Mais n’oublions jamais que la meilleure
méthode est souvent de formuler tout
simplement ce qu’on cherche. Le principe est que la réponse à ma question
a fort probablement déjà été formulée
quelque part sur le Web. Cela demande
simplement un petit exercice mental
pour convertir une question en phrase
positive. En effet, celui qui a répondu à
la question que je me pose a sans doute
utilisé une tournure de phrase positive
et pas interrogative.
Exemple:
• Pour répondre à la question:
«En quelle année Marie Curie a-t-elle
obtenu ses deux prix Nobel ?»,
le plus simple est d’écrire une phrase
du type «Marie Curie a obtenu le prix
Nobel de... en...».
Le moteur de recherche complétera
les blancs.
23
ATHENA 265 · Novembre 2010
> INTERNET
division (/), multiplication (*). Google
peut réaliser beaucoup de choses. Le
site Soople (http://www.soople.com/)
présente sur une page Web l’ensemble des fonctions mathématiques de
Google. Pour les afficher, cliquez sur
l’onglet «Calculator».
›› tous comprennent les trois opérateurs booléens de base: AND, OR et
NOT.
Exemples:
• chien AND chat rapporte les pages
contenant l’un et l’autre des deux termes. Le AND est implicite et ne doit
donc pas être utilisé avec les moteurs
actuels.
• chien OR chat ramène les pages
contenant l’un ou l’autre des deux
termes ou les deux à la fois. C’est
donc la syntaxe qui rapporte le plus
grand nombre de résultats.
• chien NOT chat rapporte les pages
contenant le mot chien mais pas le
mot chat.
24
Pour gagner en rapidité et éviter la noyade,
­chaque moteur de
recherche possède sa
propre syntaxe, qui
­permettant ainsi
d’affiner ses recherches et/ou limiter les
résultats.
+
Pour en
savoir plus
Quelques moteurs
de recherche en temps réel:
http://www.soople.com
http://www/socialmention.com
http://www.yauba.com
• «Où et en quelle année est née la
­première femme cosmonaute soviétique ?» , pourquoi ne pas essayer
«la première femme cosmonaute soviétique est née à... en...».
Autre manière d’obtenir très facilement
la réponse à une question: se demander sous quelle forme la réponse est
formulée.
Exemple:
«Qui était président de la République
française en 1915 ?»
Dans ce cas, une phrase du genre
«...était président de la République
française en 1915» a peu de chance
de fournir la réponse. Par contre, il
doit exister des listes des Présidents
français. La bonne requête sera donc
«liste des présidents de la République
française». Une fois la liste trouvée, il
suffira de la parcourir pour trouver la
réponse.
Les points communs
Les moteurs possèdent un certain nombre de points communs dont les trois
principaux sont les suivants:
›› tous sont capables d’effectuer les
quatre opérations mathématiques
de base: addition (+), soustraction (-),
Attention que les opérateurs booléens
doivent impérativement être écrits en
lettres capitales et les mots recherchés
en lettres minuscules pour que le moteur
les interprète comme des opérateurs et
ne les confonde pas avec l’objet de la
recherche.
›› tous les moteurs comprennent
l’usage des guillemets pour créer
une expression. Pourquoi créer une
expression ? Pour imposer au moteur
la recherche d’une chaîne groupée de
caractères.
Exemple:
Je suis à la recherche d’un document
dont le titre est «Être dans le grand
âge et être quelqu’un». Si je n’utilise
pas les guillemets, le risque est grand
de voir le moteur chercher des pages
contenant tous les mots de ce titre,
mais répartis n’importe où sur les
pages. Les guillemets lui imposent
de rechercher uniquement les pages
contenant l’expression exacte «être
dans le grand âge et être quelqu’un».
Les syntaxes
Chaque moteur propose un certain
nombre de syntaxes permettant d’affiner ou de limiter les résultats. Même si
la plupart des moteurs sont par exemple
Christian VANDEN BERGHEN · INTERNET
capables de limiter la recherche à un format particulier de fichier, tous n’utilisent
pas la même syntaxe pour y arriver.
Il est donc important de connaître
les syntaxes particulières de chaque
moteur. Elles sont expliquées dans leur
page d’aide à la recherche respective.
Des spécialistes du Web publient régulièrement sur leur blog les nouveautés
et modifications survenues dans les
syntaxes. BrainsFeed (http://www.brainsfeed.com/)
propose un abonnement gratuit à ses
conseils quotidiens.
Sans entrer dans les détails, les syntaxes essentielles de Google sont les
suivantes:
›› pour limiter la recherche à un
domaine (au sens Web du terme:
com, be, edu...): site: domaine
Exemples:
• Quelles sont les pages du domaine
belge parlant du CERN ?
site:be CERN
• Le rotavirus est-il plus évoqué
sur le Web Suisse que sur le Web
allemand ?
site:ch rotavirus et ensuite site:de
rotavirus
›› pour limiter la recherche à un site
Web site:www.adresse-du-site.xxx
mot
Exemple:
• site:www.ulg.ac.be «laboratoire de
physique» permet de savoir si des
pages du site de l’ULg comportent ­l’expression «laboratoire de
physique». Attention: cette syntaxe
ne ­s’applique évidemment qu’aux
pages indexées par Google.
Il est possible que d’autres pages du
site de l’ULg possèdent cette
expression mais que Google ne les
ait pas indexées.
›› pour limiter la recherche au titre des
pages intitle:mot
Exemple:
• intitle:«histoire des sciences» trouve
toutes les pages présentes dans la
base de données de Google comportant l’expression «histoire des
sciences» dans leur titre.
›› pour limiter la recherche à l’adresse
des pages inurl:mot
Exemple:
• inurl:alzheimer trouve uniquement
les pages ayant le mot Alzheimer
dans leur adresse
›› pour limiter la recherche à un
format de fichier (pdf, doc, xls, ppt)
filetype:format-de-fichier mot
Exemple:
• filetype:pdf «financement de la
recherche scientifique» trouve les
documents au format PDF comportant l’expression «financement de la
recherche scientifique».
Tenir compte
du temps
Le Trouveur sait qu’une information ne
se trouve pas n’importe où et n’importe
quand. Les annuaires sont de «vieilles
dames» peu réactives: il leur faut du
temps pour ajouter un nouveau site à
leur collection. Les moteurs sont plus
rapides mais ils ont du mal à prendre
en compte l’information publiée sur
des réseaux sociaux et seront toujours
en retard.
Prenons un événement d’actualité
comme un sommet du G20:
›› les informations immédiates sur ce
qui se passe dans les manifestations
en temps réel se trouvent sur des
moteurs construits autour de Twitter. C’est là que publient ceux qui
assistent aux manifestations;
›› quelques heures plus tard, une information plus fiable (?) sera disponible
sur les sites des journaux en ligne;
›› quelques jours plus tard, les sites
des hebdomadaires publieront des
articles avec plus de recul;
›› plus tard encore, on trouvera des
analyses dans des mémoires, des
thèses, des livres, etc.
Conclusion
Ces 5 syntaxes peuvent être combinées
pour former des requêtes complexes
comme par exemple site:be filetype:pdf
intitle:science inurl:ulb, qui rapportera les
pages du domaine belge, au format PDF,
ayant le mot «science» dans leur titre et
le mot «ulb» dans leur adresse.
Les Trouveurs ne disposent pas d’un
Google secret connu des seuls enfants
du Web... Par contre, ils utilisent les
outils de recherche que tout le monde
connaît mais en étant conscients de
leurs limites et en les poussant jusqu’à
ces limites.
Remarques:
 il n’y a jamais d’espace avant ou après
les deux points au sein de la syntaxe;
 les syntaxes s’écrivent toujours intégralement en lettres minuscules;
 si plusieurs syntaxes sont combinées, elles sont séparées par un
espace.
Le prochain article sera consacré aux
Receveurs qui occupent la marche
juste au-dessus des Trouveurs. 
Les métamoteurs présentent
moins de syntaxes que les moteurs
et sont de toute façon généralement moins intéressants. Les Trouveurs les utilisent finalement assez
peu.
25
ATHENA 265 · Novembre 2010
> MÈDECINE
I
N
T
E
R
V
I
E
W
L’ocytocine,
une
hormone
Tantôt elle facilite l’accouchement en provoquant la contraction des
muscles de l’utérus et suscite la montée du lait maternel. Tantôt elle
«s’implique» dans la sphère sociale en sous-tendant la confiance envers
autrui, l’empathie, l’altruisme. Elle contribue même à assurer la cohésion des couples. «Hormone de l’amour», «hormone de la confiance»,
l’ocytocine porte assurément de jolis surnoms mais que cache-t-elle ?
26
Propos recueillis par Philippe LAMBERT • [email protected]
Photos: Ph. LAMBERT (p.26), REPORTERS (p.27)
O
Moïra Mikolajczak , Professeur
à la faculté de psychologie
et des sciences de l’éducation
de l’Université catholique
de Louvain (UCL)
n l’appelle communément «love hormone»,
«liquid trust» ou hormone de la confiance.
Son vrai patronyme ?
Ocytocine (OT). Synthétisé au niveau des
noyaux paraventriculaires et supraoptiques de l’hypothalamus, ce peptide
est connu depuis longtemps pour provoquer la contraction des muscles de
l’utérus au cours de l’accouchement
et la montée du lait chez la mère. Ces
dernières années, elle vit une seconde
naissance, puisque les neurosciences
lui ont découvert un rôle majeur dans le
comportement social.
Elle apparaît en effet comme l’hormone de l’attachement, de la confiance
envers l’autre; de surcroît, elle favoriserait ­l’empathie, la générosité, l’altruisme
et renforcerait la cohésion sociale. Un
manque d’ocytocine et vous éprouvez des difficultés à entrer en contact
avec autrui. Un taux élevé, et vous
voilà confiant et généreux ! Il n’en fallait pas plus pour qu’éclose sur Internet un ­commerce juteux, très en vogue
outre-Atlantique, où l’on vous assure
qu’un simple «puff» d’OT administré à
la bonne personne suffira à vous rendre
irrésistible auprès d’elle, que ce soit sur
le plan sentimental ou en affaires.
Depuis les travaux menés à l’Université
de Liège par le professeur Jean-Jacques
Legros, l’ocytocine est également considérée comme une «hormone antistress» aux propriétés antidépressives,
sédatives et analgésiques. Aujourd’hui,
elle est au cœur d’une floraison d’études expérimentales. Chez l’être humain,
celles-ci portent presque exclusivement sur des hommes, dans la mesure
où il est problématique sur le plan éthique d’y inclure des femmes, lesquelles devraient immanquablement être
soumises à un test de grossesse préalable afin d’éviter tout risque de fausse
couche.
Philippe LAMBERT· MÉDECINE
Professeur à la faculté de psychologie et
des sciences de l’éducation de l’Université
catholique de Louvain (UCL), Moïra Mikolajczak s’intéresse de près aux comportements prosociaux favorisés par l’ocytocine. Elle nous parle de cette question et
de ses propres recherches.
C
omment s’est-on aperçu des ­effets
psychologiques de l’ocytocine ?
Lors d’études réalisées chez le rat il y a
une vingtaine d’années, on a constaté
que si l’on administrait à la femelle un
antagoniste de l’OT, non seulement la
montée du lait était bloquée, mais les
comportements d’attachement de la
mère à l’égard de ses petits se réduisaient très significativement. Des résultats similaires furent obtenus chez la
brebis. À l’inverse, on a observé que
l’administration d’ocytocine à des rates
vierges suscitait chez elles des comportements maternels vis-à-vis de nouveaunés d’autres femelles, ce qui n’est pas le
cas dans des circonstances normales.
De même, la brebis, animal réputé très
­chaleureux vis-à-vis de sa progéniture
mais fort agressif avec les petits dont elle
n’est pas la mère, devient très maternelle
à l’égard de ces derniers dès qu’elle se
voit donner de l’ocytocine.
Les recherches relatives aux effets psychologiques de l’OT chez l’être humain
ont débuté à la fin des années 1990 et
véritablement explosé depuis le début
des années 2000. Qu’ont mis en évidence psychiatres et psychologues ? Que
­l’hormone possède une multitude de
fonctions qui, toutes, concourent a priori
à renforcer la cohésion sociale. Ainsi, elle
nous permet de reconnaître nos pairs et
de nous y attacher; elle favorise le désir
d’aller vers l’autre, la confiance qu’on lui
témoigne, l’empathie et les comportements altruistes; elle contribue à améliorer la qualité des liens sociaux, etc.
Le ciment
du couple ?
L
’OT intervient aussi au niveau des
préférences sexuelles ?
Elle joue effectivement un rôle dans le
choix du partenaire. Mais ici, les expériences se sont limitées à la sphère animale,
dans la mesure où elles n’étaient pas éthi-
quement concevables chez l’Homme.
Cela étant, on sait que l’être humain,
tout comme l’animal, sécrète beaucoup
d’ocytocine au moment de l’orgasme,
ce qui affermit la confiance et l’attachement des deux partenaires l’un envers
l’autre. Faire l’amour ou, à tout le moins,
se témoigner physiquement de la tendresse est donc biologiquement nécessaire à la solidité du couple.
On remarque par ailleurs que l’OT favorise la résolution positive des conflits au
sein des couples. Au cours d’une expérience réalisée en 2009 à l’Université
de Zurich, on a demandé à des couples
hétérosexuels de discuter d’un sujet qui
provoque généralement des disputes.
Certains d’entre eux ont reçu de l’ocytocine par spray nasal (1), d’autres un
placebo. Il a ensuite été proposé à des
«juges» ignorant tout de la manipulation expérimentale de s’exprimer sur les
comportements des couples en visuali-
sant les enregistrements vidéo de leurs
­discussions. Ils relevèrent que les couples
sous ocytocine recouraient plus souvent
à l’humour pour désamorcer le problème
et avaient moins d’interactions négatives
et plus d’interactions positives que ceux
sous placebo. Alors que ces derniers prononçaient des phrases telles que «Avec
toi, c’est toujours comme ça, il est impossible de discuter», les couples sous ocytocine avaient plutôt tendance à tenir des
propos apaisants - «Ce n’est quand même
pas si grave» ou «On va essayer de dépasser cette situation».
Top secret
P
rochainement, deux de vos études
vont être publiées ­respectivement
dans Biological ­Psychology et
­Psychological Science. La première
27
ATHENA 265 · Novembre 2010
> MÈDECINE
28
montre que l’ocytocine accroît la
confiance de l’individu ­envers autrui
non seulement quand de l’argent est
en jeu, comme cela a été mis en évidence précédemment, mais aussi
dans d’autres situations. Quelle a été
votre méthodologie ?
Nous avons sélectionné 60 étudiants
de l’UCL, que nous avons divisé en deux
groupes: 30 sous ocytocine, 30 sous placebo. Avant d’administrer ces produits
par spray nasal, nous avions demandé aux
participants de remplir un questionnaire
portant sur des informations relatives
à leurs pratiques sexuelles - sadomasochisme, sexe anal, utilisation de sex-toys,
etc. Bref, des données très privées qu’ils
n’auraient pas souhaité voir divulguer.
Quarante-cinq minutes après avoir donné
l’ocytocine ou le placebo, temps nécessaire pour que l’hormone agisse pleinement, nous avons soumis une deuxième
fois le questionnaire aux 60 étudiants,
afin de vérifier que l’ocytocine n’avait pas
d’effet désinhibant général. Ce n’était pas
le cas, puisqu’il est apparu plus tard que
les réponses étaient cohérentes entre
les deux sessions. Nous avions préalablement précisé que l’enquête était anonyme et que les résultats seraient lus par
lecture optique. Quand le questionnaire
a été complété une seconde fois, nous
avons suggéré aux participants d’en glisser les deux exemplaires dans une enveloppe et de la confier à l’expérimentateur,
lequel, rappelons-le, était censé ne pas
avoir le droit de consulter les réponses.
Nous avons cependant précisé: «Si vous le
souhaitez, vous pouvez fermer l’enveloppe
et même la sceller avec du papier collant
que nous mettons à votre disposition.»
E
t les résultats ?
80% des étudiants sous placebo
ont fermé et scellé ­l’enveloppe avec du
papier collant, contre 6,7% seulement
de ceux qui avaient inhalé de l’ocytocine. Parmi ces derniers, 33,3% se sont
contentés de fermer l’enveloppe (16,7%
dans le groupe «placebo»), mais, surtout,
60% l’ont laissée ouverte, contre à peine
3,3% dans l’autre groupe.
La plupart des études antérieures, en
particulier celles des psycho-économistes de l’Université de Zurich coordon-
nées par Markus Heinrichs, s’attachaient
essentiellement à démontrer la propension des personnes sous OT à accorder
leur confiance à des conseillers en investissements financiers et, partant, à opérer les placements recommandés. Par
notre expérience, nous voulions nous
assurer que ce qui était perçu comme
la manifestation d’une confiance accrue
envers autrui sous l’effet de l’ocytocine
ne reflétait pas, en fait, une simple modification du rapport que les individus
entretenaient avec l’argent.
La perfection faite
hormone ?
D
ifférents travaux montrent que
les personnes à qui l’on administre de l’ocytocine identifient plus facilement les émotions présentes dans
les expressions faciales ?...
Absolument. Le premier syndrome sur
lequel l’hormone a été testée est d’ailleurs
l’autisme, dont on sait qu’il se caractérise
notamment par un manque d’empathie.
Philippe LAMBERT· MÉDECINE
Lorsqu’on administre de l’ocytocine aux
personnes autistes, on observe que leurs
capacités de reconnaissance des émotions est significativement améliorée et
que certains symptômes de leur trouble
se réduisent. C’est le cas, par exemple,
des stéréotypies motrices, tel le fait de se
balancer d’avant en arrière.
D
’autres recherches se sont intéressées à la phobie sociale ?
Elles ont malheureusement péché par
leur méthodologie. En effet, elles étaient
basées sur la comparaison entre deux
groupes: l’un bénéficiait d’une thérapie cognitivo-comportementale, l’autre
de la même thérapie à laquelle était
adjointe l’administration d’ocytocine.
Les patients du second groupe éprouvaient davantage l’impression d’une
amélioration de leur état mais dans les
faits, leurs comportements lors des interactions sociales ne se révélaient pas
forcément meilleurs que dans l’autre
groupe. Peut-être la thérapie psychologique avait-elle apporté à elle seule tous
les gains possibles... Aujourd’hui sont en
cours des travaux rassemblant des individus auxquels n’est dispensé aucun traitement (groupe contrôle), des individus
en thérapie cognitivo-comportementale
et des individus recevant uniquement
de l’ocytocine. De la sorte, l’écueil du
chevauchement des variables pourra
être contourné.
Des recherches sur l’anxiété et la
dépression ont en outre été initiées
récemment.
P
etite retouche à apporter au portrait de l’ocytocine: deux études
très récentes font apparaître que,
dans l’univers des relations humaines, l’ocytocine n’apporte finalement
pas que des bénéfices ?...
De fait. Selon la première, menée en
2009 à l’Université de Haïfa, en Israël,
l’ocytocine accroîtrait, dans certains
contextes, cette émotion qu’on appelle
«schadenfreude» en allemand, la petite
joie qu’on peut éprouver face au malheur
de quelqu’un. Dans d’autres circonstances, l’OT renforcerait le sentiment
d’envie devant la réussite ou le bonheur
d’autrui.
Réalisée à l’Université d’Amsterdam,
la seconde étude, elle, conclut que si
l’ocytocine favorise l’altruisme vis-à-
vis des membres de l’«in-groupe», elle
augmente les comportements défensifs par rapport aux individus de l’«outgroupe». Bien entendu, ces deux notions
­d’«in-groupe» et d’«out-groupe» sont
éminemment contextuelles. Imaginons
un ingénieur noir. Pour un ingénieur
blanc, il fera partie de son «in-groupe» si
l’on rend saillante la profession, mais de
son «out-groupe» si c’est la nationalité
qui est mise en exergue.
Pas des
gogos !
L
es expériences des psycho­économistes suggéraient que,
même abusé ou trahi, un individu
sous ocytocine accorde volontiers sa
confiance. Vous avez voulu ­savoir si
l’hormone agit effectivement de la
même manière dans tous les contextes. D’où votre étude appelée à
­paraître bientôt dans Psycholo­gical
Science ?...
L’ocytocine est une «glu sociale» qui a
permis à l’Homme une meilleure adaptation à son environnement. Nous nous
sommes dit que cet avantage adaptatif
perdrait son sens si elle nous rendait
naïfs et crédules au point de favoriser le
maintien dans notre groupe d’individus
qui, objectivement, devraient en être
bannis.
Dans les études des psycho-économistes
de l’Université de Zurich, les participants
sous ocytocine faisaient confiance tant
à des «banquiers» honnêtes qu’à des
«banquiers» véreux. Toutefois, durant
les différentes sessions du jeu de rôle,
ils n’étaient jamais confrontés deux fois
au même banquier et, par ailleurs, ils
ignoraient tout de lui à l’entame du jeu.
Dès lors, peut-on affirmer qu’ils étaient
d’une grande candeur parce que, même
dupés par un conseiller véreux, ils refaisaient ensuite confiance à d’autres banquiers ? Non. Manions l’analogie: ce n’est
pas parce qu’on a été roulé un jour dans
une boutique qu’on ne fréquentera plus
aucun magasin...
Dans notre expérience, comme dans
celle de nos collègues suisses, des étudiants étaient engagés dans un «trust
game» où, par le biais d’un ordinateur,
ils interagissaient successivement avec
différents partenaires remplissant le rôle
de banquier. À l’occasion de chacune des
sessions, ils décidaient d’investir tout ou
partie d’une somme qui leur avait été
allouée et le banquier partenaire leur
rétrocédait un bénéfice plus ou moins
important, ou, cas extrême, se l’appropriait totalement.
Avant chaque «round», le participant
concerné recevait une description du
banquier, laquelle avait été conçue
pour induire de la confiance (Xavier,
23 ans, infirmier, adore la guitare)
ou de la méfiance (Bertrand, 24 ans,
­étudiant en sciences politiques, adore
les jeux ­d’argent). Il existait également
une condition neutre, où le retour sur
investis­sement était déterminé aléatoirement par ­l’ordinateur. Deux groupes d’étudiants ont été engagés dans
­l’expérience: 30 sous ocytocine, 30 sous
placebo; chacun ignorant évidemment
dans quel groupe il se trouvait.
Que dévoilent les résultats ? Que les
étudiants sous ocytocine se livrent
à des transferts d’argent nettement
plus importants que les étudiants sous
­placebo, mais ce uniquement dans deux
conditions: quand ils ont affaire à un
partenaire neutre (le hasard) ou jugé
digne de confiance. Par contre, face à un
interlocuteur perçu comme peu fiable,
la réaction est identique dans les deux
groupes, et même un peu plus sévère
dans le groupe «ocytocine»: baisse drastique des investissements. Autrement
dit, si l’ocytocine rend confiant, elle ne
rend pas crédule. 
(1) Sur le plan technique,
­l’administration d’ocytocine
se réalise quelquefois par
intraveineuse chez l’humain,
mais presque toujours par
spray nasal, ce qui favorise
le passage de la barrière
hémato-encéphalique. Chez
l’animal, elle est habituel­
lement administrée directement dans le cerveau.
29
ATHENA 265 · Novembre 2010
> ENVIRONNEMENT
La forêt,
l’or vert
des hommes ?
Texte : Paul DEVUYST
Photo : K. ARBORICOLE (p.30)
30
La forêt telle que nous la concevons
et la gérons aujourd’hui sera celle dont
nos petits-enfants hériteront en 2100 !
La forêt a pour chacun d’entre
nous un parfum de rêve d’enfance. Touffue, variée, mystérieuse,
habitée de mille vies discrètes,
la forêt de Brocéliande est par
exemple légende. Dans l’Antiquité, l’Europe entière en était couverte et la nature y régnait sans
partage. Et si aujourd’hui il n’en
reste que bien peu d’exemples,
elle est toujours ressentie comme
un monde hors du temps, un lieu
de paix et de refuge à préserver...
C
’est pourquoi «Protéger,
gérer et exploiter durablement» ont été les principaux thèmes choisis
et développés par des
experts de renom au cours du 21e Festival International de Géographie qui s’est
déroulé à Saint-Dié-des-Vosges (France).
Pendant quatre jours, scientifiques et
grand public ont débattu sur les enseignements que nous sommes aujourd’hui
capables de tirer de la forêt pour agir
favorablement sur les conditions d’existence à la surface de la planète. Questions d’autant plus opportunes après les
incendies catastrophiques qui ont meurtri les forêts de Russie… le pays invité
d’honneur de la cité vosgienne !
Un enjeu climatique
majeur
Dans la lutte contre le changement
­climatique, la protection de la forêt est
devenue essentielle car la déforestation
représente 20% des émissions mondiales des gaz à effet de serre, devaient rappeler plusieurs scientifiques présents,
reprenant ainsi un chiffre avancé par le
Groupe intergouvernemental d’experts sur
le climat (Giec).
En décembre dernier, lors du sommet de
Copenhague sur le climat, les pays développés se sont engagés à verser 30 milliards de dollars sur la période 2010-2012
afin d’aider les pays en développement
à financer les mesures d’adaptation au
réchauffement climatique, dont 20%
pour lutter contre la déforestation. Cet
accord est une étape très importante.
Heureusement, la lutte contre la
défores­tation et la vente illégale de
bois engrange ses premiers résultats: au
cours des dix dernières années, l’exploitation forestière illicite a diminué de 50%
au Cameroun, de 50 à 75% dans la forêt
amazonienne brésilienne et de 75% en
Indonésie. Cela a empêché la dégradation de quelque 17 millions d’hectares
de forêt, soit une superficie plus grande
que l’Angleterre et le pays de Galle
­réunis. À terme, le combat entamé dans
ces trois pays peut supprimer, à un coût
relativement faible, l’émission de près de
14,6 milliards de tonnes de CO2, soit la
moitié de celles provenant des activités
humaines chaque année dans le monde.
De son côté, le Parlement européen a
adopté, à la mi-juillet 2009, un texte
qui prévoit d’interdire l’introduction
sur le marché européen du bois abattu
de façon illégale, mais encore faut-il
que cela s’accompagne de sanctions
Paul DEVUYST · ENVIRONNEMENT
Détruire une forêt, c’est détruire ses hôtes
imaginaires comme les fées et les sorcières,
et ses hôtes réels, les derniers charbonniers
et les derniers ermites.
s­ ignificatives, ce qui, pour l’heure, n’est
absolument pas le cas.
Un peu d’histoire...
Parmi les exposés scientifiques ­présentés
à Saint-Dié-des-Vosges, celui de Madame
Bernadette Mérenne-Schoumaker, professeur de géographie économique à
l’Université de Liège, fut très remarqué.
«Le bois est une des sources d’énergie les
plus anciennement utilisées», devait-elle
rappeler et au cours de la préhistoire,
ce fut même la seule source d’énergie
pour le chauffage et pour la cuisson des
aliments. Du Moyen Âge jusqu’à l’époque moderne, le bois était aussi utilisé
par certaines industries qui travaillaient
à des températures élevées, comme la
sidérurgie et la verrerie; à cet effet, le
bois était transformé en charbon par les
charbonniers.
À partir du 19e siècle, le bois entre en
concurrence très forte avec le charbon
«de terre» puis au 20e siècle, avec le
pétrole, le gaz et l’électricité, ce qui explique son déclin essentiellement dans les
pays développés car, dans beaucoup
de pays du Sud, on continue à l’utiliser
pour le feu. Depuis la Seconde geurre
mondiale, il connaît des hauts et des
bas. Toutefois, depuis une bonne dizaine
d’années, ce bois-énergie retrouve une
seconde jeunesse, trois facteurs pouvant
l’expliquer: la hausse des prix des énergies ­fossiles, la disponibilité de la ressource et ses vertus écologiques.
On peut distinguer trois grands types
d’usages du bois-énergie, poursuit
madame Mérenne:
• les usages domestiques, c’est-àdire les appareils indépendants et
les chaudières à eau chaude pour les
particuliers;
• les usages collectifs, c’est-à-dire les
chaufferies à alimentation automatique fournissant le chauffage et/
ou l’eau chaude sanitaire à plusieurs
logements ou chaufferie centrale desservant un quartier d’une ville ou un
bourg rural;
• les usages industriels ou l’auto­consommation de déchets de bois
par une entreprise pour ses propres
besoins industriels (production de
chaleur et/ou de vapeur).
Importance et
évolution
L’Observatoire des Énergies renouvelables
(EurObserv’ER) est en Europe un organisme majeur en termes de données
relatives aux énergies renouvelables. Il
mesure, depuis 1998, les progrès réalisés dans chaque pays et chaque secteur
et ­produit un baromètre annuel ainsi
qu’une étude sur un secteur particulier
tous les deux mois (http://www.eurobserv-er.org/).
Selon cette source, la consommation
d’énergie primaire venant de la ­biomasse
solide dans l’UE en 2008 représente les
2/3 de la part des énergies renouvelables mais 5,4% seulement de l’énergie
­primaire totale consommée. Quant à la
production (ou consommation) d’électricité venant de la biomasse, dont
62,6% sont produits dans des centrales
de cogénération, sa part est plus faible
en raison du poids de l’hydraulique:
17,1% du total des énergies renouvelables et 2,8% du total de l’électricité.
En 2008, Eur’Observ’ER estime la
­production d’énergie primaire issue
de la biomasse solide à 70,3 Mtep (1)
après réajustement des chiffres de l’Italie et de l’Estonie, ce qui représente un
accroissement de plus 24 Mtep depuis
1995, valeur qui représente plus que
la consommation totale d’énergie primaire du Danemark (20 Mtep). Pour
l’électricité, la croissance est plus spectaculaire encore puisque la production
brute a été pratiquement multipliée par
3 depuis 2001 !
Quel bois utiliser ?
Le potentiel de bois «mobilisable» est
souvent difficile à estimer sans des
études très précises. Certes, il est aisé
d’en parler en théorie puisqu’il s’agit de
faire la différence entre les productions
de matières premières ligneuses (bois
forestiers, bocagers et urbains, produits
connexes des industries du bois, bois de
rebut...) et les quantités déjà ­mobilisées
pour divers usages (sciage, pâte à papier,
panneaux, chauffage ­domestique,
­collectif ou industriel...). Mais le potentiel est souvent moindre car il existe
un certain nombre de ­paramètres restrictifs: techniques (accès difficile à
certaines forêts), ­économiques (coût
d’exploitation et prix du bois sur pied),
sociaux (blocage de certains propriétaires forestiers) et environnementaux
(nécessité de conserver les biotopes et
la biodiversité comme de maintenir la
fertilité des sols).
31
ATHENA 265 · Novembre 2010
> ENVIRONNEMENT
En outre, quels sont les bois pris en
compte ? Se limite-t-on aux forêts ou
prend-on aussi en compte des bosquets
ou des haies ? Retient-on seulement le
bois industrie (provenant du tronc de
l’arbre) et le bois-énergie (branches
jusqu’à 7 cm de diamètre) ou également
les menus bois (petites branches) ?
Certains estiment qu’environ 35% de la
croissance annuelle des forêts de l’UE
seraient inexploités.
32
Bon pour la santé ?
Le bois-énergie est l’une des énergies
les moins émettrices de CO2. C’est sans
doute un de ses avantages majeurs. Les
émissions rejetées lors de la combustion
du bois résultent de l’accumulation
de CO2, utilisé par les arbres lors de
leur croissance. En comptabilisant
l’énergie consommée du «puits» à la
chaleur produite (notamment par les
équipements à énergie fossile utilisés
pour la coupe, le débitage et le transport
de la ressource, y compris les étapes de
transport et raffinage), le chauffage au
bois émet 40 kg de CO2 par MWh de
chaleur utile alors que les chaufferies au
gaz, au fioul et à l’électricité émettent
respectivement 222 kg, 466 kg et 180 kg
de CO2 par MWh. En outre, le boisénergie n’émet pas de soufre.
Toutefois, la combustion de bois libère
des polluants selon l’équipement de
chauffage, du combustible utilisé et
d’autres facteurs comme les conditions
climatiques
ou
la
topographie.
Ces polluants proviennent d’une
combustion incomplète due à un
mauvais réglage des appareils, de
l’utilisation du bois trop humide ou
sont dus à une médiocre qualité du
combustible (bois souillés ou traités).
Ces pollutions peuvent engendrer des
risques sanitaires importants.
Quel impact économique et
sur la forêt?
Un des avantages généralement avancé
pour le bois-énergie s’avère être ses
retombées économiques sur l’économie
locale. Qu’en est-il réellement ? D’après
une enquête dans 14 pays de l’UE, la
biomasse engendrerait 13,5 milliards
d’euros de chiffre d’affaires et
195.545 emplois directs et indirects, soit
15% du total du chiffre d’affaires généré
par les énergies renouvelables et 30% de
l’emploi.
Deux autres avantages économiques
sont souvent cités: la réduction des
importations de combustibles fossiles
et par là, une amélioration de la balance
commerciale du pays et, pour le
Bio express
Nom: Mérenne-Schoumaker
Prénom: Bernadette
État civil: mariée
Enfant(s): 1
Profession: Docteur en
l­ ’énergie, acteurs, lieux et enjeux aux éditions Belin (Paris),
• Très forte implication dans la vie régionale belge et wallonne,
Sciences géographiques
• Administrateur de la Fondation Roi
Baudouin,
Curriculum vitae:
• Membre du Collège régional de prospective de la Région wallonne,
• Professeur invité à l’ULg, (Géographie
économique et Didactique de la géographie) et à l’ Institut de Formation et de
Recherche en Enseignement supérieur
(IFRES),
• Prix Bologne-Lemaire du Wallon de
­l’année 2007.
• Directeur-fondateur du Service d’étude
en géographie économique fondamentale et appliquée (SEGEFA),
Email: [email protected]
• Plus de 320 publications, dont actuellement en réédition Géographie de
Tél.: 04/366.53.24 - 04/366.53.25
• Professeur ordinaire honoraire de l’ULg.
Contact:
http://www.segefa.be/bms/bm.htm
Bât. B11 Département de géographie
allée du 6 Août 2 à 4000 Liège
Paul DEVUYST · ENVIRONNEMENT
consommateur final, un prix fluctuant
moindre que celui des autres énergies.
Quant à l’impact sur la forêt elle-même,
tout montre que la production de
combustibles bois permet la valorisation
des ressources ligneuses d’un territoire
et contribue de la sorte à l’entretien des
espaces boisés (peuplement forestier,
bocage, parc et alignement urbain...).
Cette production a en fait de multiples
effets: préservation des espaces et
de la biodiversité, sécurisation des
zones boisées, lutte préventive contre
les incendies, les inondations et le
développement des parasites, maintien
d’activité locale et de lien social. La
valorisation des rebuts permet de son
côté le désencombrement des décharges
(6.000 m3 libérés pour 1.000 tonnes de
bois) et la contribution à la lutte contre
les brûlages à l’air libre. Bernadette Mérenne. Ses filières sont
diversifiées en termes de ressources, de
techniques de valorisation et d’usages
(individuels et collectifs). Il est en
croissance en Europe avec quelques
pays «phares» en raison de leurs
ressources et de leurs politiques. À son
avantage: un bon bilan environnemental
si on sait contrôler les polluants et des
opportunités certaines en termes de
développement économique et gestion
des territoires, à la fois au niveau de la
forêt et des zones d’utilisation, surtout si
on recourt à du chauffage urbain et à la
cogénération. Toutefois, cette croissance
semble insuffisante si on veut atteindre
les objectifs des directives européennes
en matière d’énergies renouvelables.
Consommer mieux
avec moins
Mais la ressource, malgré des
potentialités de développement, reste
une ressource limitée qu’il s’agit de
gérer avec parcimonie en cherchant à
obtenir les meilleurs rendements et en
évitant des gaspillages inutiles. En outre,
il semble difficile d’augmenter de façon
substantielle les surfaces consacrées à
la forêt et aux cultures énergétiques du
type taillis à courte rotation, ce qui limite
à son tour la transformation massive
de bois en agro-carburants. Un recours
accru au bois-énergie pour fabriquer
des biocarburants semble ainsi peu
envisageable.
Le bois-énergie est une des énergies
renouvelables au même titre que
l’hydraulique, le vent ou le Soleil, conclut
L’énergie-bois a donc sa place dans un
bouquet énergétique diversifié mais
ne peut satisfaire la soif de plus en plus
Enfin, face aux critiques adressées
aux agro-carburants de 1e génération
utilisant des produits alimentaires, une
2e génération d’agro-carburants utilisant
la filière lignocellulosique est en voie de
développement.
grande en énergie. Consommer mieux
avec moins reste dès lors la voie par
excellence d’un développement durable,
termine la scientifique. 
(1) La
tonne
d’équivalent
pétrole (symbole tep) est
une unité d’énergie d’un
point de vue économique et
industriel. Elle vaut, par définition, 41,868 GJ (10 Gcal), ce
qui correspond au pouvoir
calorifique d’une tonne de
pétrole. Une tep ­correspond
aussi à environ 1,5 tonne de
charbon de haute qualité ou
à 2,2 tonnes de bois bien sec
(1 stère = 0,147 tep).
Elle sert aux économistes
de l’énergie pour comparer
entre elles des formes d’énergie différentes. ).
La forêt en chiffres
›› 30% de la surface émergée de la ­planète,
soit 3 870 millions d’hectares: c’est l’estimation de l’étendue des forêts dans le
monde;
›› 3: c’est le nombre des grands bassins
forestiers mondiaux. Ils se trouvent en
Asie, en Afrique centrale et en Amazonie,
soit le Brésil, l’Argentine, l’Indonésie, la
Birmanie, le Mexique, le Congo-Kin­shasa,
la République du Congo, le Nigeria, le
Soudan, la Zambie et le Zimbabwe;
›› 13 millions d’hectares: c’est l’étendue
du territoire que couvre la déforestation
tous les ans (entre 2000 et 2010) selon
l’Organisation des Nations Unies pour
­l’alimentation et l’agriculture (FAO).
Ce rythme ralentit étant donné que dans
les années 1990, 16 millions d’hectares
disparaissaient chaque année;
›› 880.000 hectares de forêt en plus en
Europe chaque année, même si les
incendies et la pollution atmosphérique
les abîment au même rythme;
›› 94,9 millions d’hectares en Europe:
les plus grandes forêts sont situées en
Suède (24,4 millions d’hectares), ­Finlande
(20 millions d’hectares), France (15 millions d’hectares), Allemagne (10,7 millions d’hectares), Espagne (8,4 millions
d’hectares), Grèce (6,5 millions d’hectares), Autriche (3,9 millions d’hectares), Portugal (2,9 millions d’hectares),
Royaume-Uni (2,4 millions d’hectares) et
en ­Belgique (0,7 million d’hectares);
›› 544.800 hectares est la superficie couverte par la forêt wallonne, soit 32,3% de
la superficie totale de la Région wallonne.
Elle est en expansion: de 355.314 ha en
1846, elle est passée à 315.645 en 1866
(minimum historique);
›› 52,4% de feuillus et 47,6% de résineux
composent la forêt wallonne. Les essences les plus répandues sont l’épicéa, le
chêne et le hêtre;
• 3.800 entreprises de la «filière bois»
wallonne occupent environ 12.000
personnes.
33
ATHENA 265 · Novembre 2010
> BIOLOGIE
Vu d’en haut, tout paraît
petit...
Texte : Jean-Michel DEBRY • [email protected]
Photos :B. SMITH/Flickr (p.34), O. Leillinger (p.35), Prof. I. Das/ Inst. of Biodiversity
and Environmental Conser­vation (p.36), Minikti/Flickr (p.36)
34
La fin des mammouths
O
n peut le regretter de façon
rétrospective, compte-tenu de
l’attrait qu’ils représentent: les
mammouths ont bel et bien disparu il y
a un peu plus de dix mille ans. Les éléphants - leurs proches parents - demeurent quant à eux bien présents; pourtant,
en dépit d’une taille hors norme, ils sont
bien plus petits et n’ont pas ces longs
poils ni ces défenses démesurées. Et puis
les regrets ne portent forcément que sur
ce qu’on n’a plus.
Une question qui taraude quelques spécialistes depuis une trentaine d’années
porte sur la cause de la disparition de
ces géants. Jusque-là, on y voyait l’effet
conjugué d’un refroidissement durable
et d’une chasse acharnée, opérée par les
hommes d’alors. Mais quelques géologues ont récemment émis l’idée que des
évènements «externes» auraient pu précipiter leur disparition; en l’occurrence
des bombardements cosmiques et l’impact d’une ou plusieurs météorites, plus
précisément sur le nord du territoire
américain.
Ils se sont par conséquent mis à la recherche de traces géologiques laissées par
ces cataclysmes, usant de tous les signes
connus en la matière: présence de microdiamants cubiques et autre dépôts de
carbone dans les strates du sol pour ne
citer que ceux-là.
Cette recherche de plusieurs années
vient de livrer ce qui devrait constituer
un point final: aucune trace tangible de
tels phénomènes ne semble pouvoir
étayer l’hypothèse. La longue recherche
internationale menée à ce sujet a notamment impliqué des spécialistes belges,
chercheurs aux universités de Bruxelles
(ULB) et d’Anvers.
Il faudra par conséquent en rester aux
explications classiquement retenues jusque-là. Il est vrai qu’il y a un peu moins
de 13.000 ans, une phase de refroidis-
sement intense mais brève (1.300 ans
tout de même !) est survenue, marquant
le début d’une ère que les spécialistes
appellent le Dryas récent. Or, qui dit
refroidissement dit avancée des glaciers
dans certaines zones du globe et réduction de croissance de la strate végétale.
Est-il nécessaire de le rappeler, les mammouths avaient un appétit proportionnel
à leur taille… Si on ajoute à ce tableau le
fait que les hommes de l’époque, armés
d’outils devenus performants, ont perçu
la bonne fortune alimentaire que représentaient ces montagnes de viande, on
aura identifié des explications réalistes à
cette disparition. Y ajouter quelques évènements d’ordre planétaire est-il donc
encore nécessaire ?
Il semble ainsi avéré aujourd’hui - mais
sans doute pas encore pour tout le
monde - qu’il faut désormais s’en tenir à
des implications strictement terriennes.
Science 2010. 329/ 113-114 
Jean-Michel DEBRY · BIOLOGIE
O
Opération camouflage
n ne répètera jamais assez
que le vivant est par essence
dynamique et hautement
adaptatif. Cette faculté doit tout au
hasard des mutations qui, «tombant
bien» parfois, constituent un élément
favorable à l’espèce concernée. En
la matière, le phalène du bouleau
constitue un exemple aujourd’hui
très connu. Ce lépidoptère (ou
papillon) blanc a trouvé opportun,
pour échapper à ses prédateurs,
de se poser sur les troncs tout aussi
blancs des bouleaux. L’homochromie
est parfaite et il faut parfois faire un
réel effort pour distinguer l’animal
de l’écorce. Le problème est que la
pollution - dans les zones à forte densité industrielle en tout cas - a généré
de grandes quantités de fumerons
qui ont noirci les troncs en question. Qu’importe. Avec le temps, une
mutation est survenue, qui a rendu la
livrée de l’insecte tout aussi noire. Un
triomphe d’adaptation !
D’autres exemples de ce type ont,
depuis, été décrits. Le dernier en
date concerne le pou des plumes
qui, comme son nom l’indique assez
clairement, est un ectoparasite des
oiseaux. Des observations très orientées ont permis de constater que le
pou en question a su, avec le temps
et grâce à quelques mutations bienvenues, adapter sa couleur à celle des
plumes; dans un registre blanc ou noir
en tout cas. L’animal échappe donc à
l’œil scrutateur de l’hôte.
C’est en tout cas ce qui peut apparaître en première observation anthropomorphique. On peut en effet se
demander si la survie du parasite ne
tient pas davantage au fait qu’il sait se
nicher en des endroits où le bec et les
pattes de l’oiseau
parasité n’ont pas
accès. Par ailleurs, la
vue de celui-ci est-elle
réellement
bernée
par cette homochromie ? On peut
en douter. Les oiseaux ont en général
une bonne vue, avec une perception
des couleurs à plus large spectre que
la nôtre. La couleur, telle que nous la
percevons joue-t-elle encore totalement dans ce cas ? On serait tenté d’en
douter.
Du coup, rien n’interdit de penser que
l’adaptation de la livrée de ces poux à
celle des hôtes leur sert à autre chose
qui n’est pas directement du domaine
de la dissimulation. Mais à quoi ? C’est
évidemment ce qui reste à établir...
Nature 2010 ; 466 : 1024. 
35
Une centenaire particulièrement alerte
C
’est sans doute une des créatures les plus insignifiantes qui
soit; pourtant, la science lui doit
énormément et nous en sommes tous
tributaires. Elle ? La mouche drosophile; un insecte long de 3 mm à peine
qui se nourrit de matières organiques
en décomposition et qui hante parfois
nos poubelles les jours d’été… Mais
c’est aussi un outil de recherche dont
on fête cette année le centenaire d’une
assistance aussi déterminante qu’involontaire à la science.
La génétique - et plus particulièrement
la cytogénétique, celle qui repose sur
l’examen des chromosomes - a connu
un début discret avec les travaux de
Gregor Mendel, dans la seconde moitié
du 19e siècle. Ces travaux ont sombré
ensuite dans un relatif oubli avant
d’être «redécouverts» simultanément
par trois savants. Cette seconde naissance était la bonne; depuis, la génétique n’a plus jamais quitté l’avantscène de la connaissance scientifique
et on sait assez à quel point c’est encore
le cas aujourd’hui.
Après les plantes utilisées au début, au
rythme de multiplication annuel, on a
utilisé des modèles à reproduction plus
rapide: rats et souris. Mais les semaines
à attendre pour observer d’éventuels
résultats étaient, à certains égards, trop
longues encore. D’où l’idée d’un chercheur américain, Thomas Hunt Morgan
(1866-1945), de miser sur Drosophila
melanogater, insecte d’une affligeante
banalité, mais capable néanmoins d’assurer 30 générations par an !
Dès 1907, il l’a mis en élevage dans
l’espoir de voir apparaître des mutations
qu’il pouvait ensuite mettre à profit
pour vérifier les lois de la transmission
héréditaire.
Pendant 3 ans, il a vainement attendu
l’apparition d’une de ces modifications,
de plus en plus improbable. Puis, un
matin d’avril 1910: victoire ! Un mâle est
apparu, porteur d’yeux blancs, en lieu et
place des yeux rouges habituels. Il restait alors au chercheur à déterminer de
quelle façon le caractère était transmis
de génération en génération en usant
d’une reproduction très orientée. Le
savant entrait dans l’histoire et méritait
le prix Nobel de médecine 23 ans plus
tard. Quant à la drosophile, elle faisait
elle aussi une entrée déterminante dans
les laboratoires où elle est toujours;
porteuse de mutations répertoriées par
dizaines aujourd’hui.
ATHENA 265 · Novembre 2010
> BIOLOGIE
La question
du mois
Q
u’est-ce qui
­mesure 10 à
12 mm, qui a une
­couleur brune et un air
plutôt sympathique,
qui est capable de
franchir d’un saut une
distance plusieurs fois
supérieure à la longueur de son corps, mais
qui n’est pas une sauterelle
(ni d’ailleurs un insecte) ?
36
Microhyla nepenthicola, le plus petit
batracien connu de l’ancien monde.
L’espèce vit à Bornéo et si on peut
identifier l’animal dans la nature,
c’est surtout en raison de son cri
d’appel qui surprend - paraît-il - par
sa puissance compte tenu de la
taille de celui qui l’émet. Deux réserves, toutefois: la femelle est - tout
de même - deux fois plus grande
que le mâle et l’espèce n’est pas la
plus petite du monde: il en existe
une autre en Amérique latine, dont
la taille ­n’excède pas 9,8 mm ! Petit,
petit… 
Mini-Kermit photographiée sur un penny
et sur la pointe d’un crayon…
Un petit insecte pour la Nature, un grand
modèle pour la science; un modèle qui
fête donc cette année un étourdissant
centenaire au service - involontaire - de
la connaissance universelle ! 
L’ADN dans un souffle
S
i les études géniques ont une
cote de plus en plus affirmée
dans les évaluations de tous
genres, elles imposent tout de même
une contrainte: on doit disposer de
cellules pour les réaliser. Pour les
humains en quête d’un diagnostic
quelconque, les choses sont simples:
une prise de sang ou, moins traumatique, un frottis buccal suffit pour
disposer du matériel nécessaire. En
matière de criminalistique, on sait
que les choses sont plus complexes:
il est parfois nécessaire de débusquer
les traces là où elles se nichent et leur
rareté pousse les conclusions tirées
parfois à leurs limites d’exploitabilité.
Pour les animaux sauvages, la problématique est à géométrie hautement
variable et tient à leur accessibilité,
à leur taille et à divers autres paramètres. Des dispositifs permettent
parfois d’effectuer à distance des
prélèvements plus ou moins traumatiques. Dans ce registre, des flèches à
prélèvement dermique sont en particulier mises à profit chez les mammifères dont l’approche est délicate;
elles sont efficaces et forcément un
peu traumatiques aussi puisqu’elles
permettent un carottage tissulaire.
Cela n’empêche évidemment pas
de rechercher à exploiter d’autres
sources. Le dauphin devrait à ce titre
bientôt bénéficier d’une approche
nouvelle qui ne lui laisserait aucune
séquelle visible. On sait que l’animal,
revenu en surface, éjecte l’air pulmonaire par l’évent qu’il porte au-dessus
de la tête. Or, on vient de remarquer
que l’orifice ne rejette pas que de l’air
et de la vapeur d’eau; le flux contient
également du mucus dans lequel
des cellules du tractus respiratoire
se trouvent emprisonnées. Un réel
bonus pour les études de biologie
moléculaire ! Prélever une fraction du
rejet en surface permet donc aussi de
récupérer des cellules. Cette source
de matériel a été testée et validée
récemment en Australie grâce à des
animaux en bassin. Il va bien sûr falloir mettre en œuvre la même technique en milieu ouvert. D’après les
spécialistes, cela ne devrait pas poser
trop de problèmes car les dauphins,
conviviaux, ont ­l’habitude de suivre
de près les bateaux.
Cela ne vaudra dans un premier
temps que pour ces animaux-là - et
encore, sans doute pas pour toutes
les espèces - avant qu’on ne cherche
à adapter la méthode à tous les cétacés dotés du même évent. Voilà donc
une avancée qui ne manquera pas de
satisfaire les amis des animaux; surtout dans la mesure où elle concerne
en priorité ce dauphin, pour lequel
la charge affective est spécialement
élevée… Et il n’y a pas de doute que
les dauphins seront contents aussi,
mais comment vont-ils donc nous le
faire savoir ?
Science 2010 ; 329 : 1131 
Jean-Michel DEBRY · BIOLOGIE
Un bon marcheur, ce Néandertal ?
O
n a beaucoup fantasmé sur ce lointain cousin
­depuis la découverte de ses premiers vestiges.
Alors qu’on en a initialement fait une espèce de
chaînon manquant – mais c’était au 19e siècle - on s’est
­ensuite rendu compte que sur un plan évolutif, il était bien
plus proche de nous que ce qu’on pouvait penser. Certes
plutôt massif, grand, ossu et doté d’une boîte crânienne
au moins aussi développée que la nôtre, il est apparu de
plus en plus «humain» et moderne, notamment capable de
rites mortuaires. Était-il doté d’un langage articulé ? Il semble que non, bien que la problématique reste ouverte. Se
mouvait-il comme les Homo sapiens que nous ­­sommes ?
On pense depuis longtemps que oui, encore fallait-il en
­apporter une preuve validée à l’aide des outils dont ­dispose
la recherche actuelle.
C’est précisément ce que vient de faire une équipe de
chercheurs de l’ULB. Ces derniers se sont appuyés sur les
vestiges de membres inférieurs disponibles, les ont passés
au crible des appareils d’imagerie médicale les plus performants et ont reconstruit sur un mode tridimensionnel les
images réalisées grâce à un logiciel conçu tout exprès. Ils
ont bien entendu aussi tenu compte des insertions musculaires afin de vérifier si ces êtres vigoureux d’un autre âge
n’était pas des surdoués de la puissance ostéo-musculaire;
pour les membres inférieurs en tout cas.
Rien ne semble établir que ces êtres-là se mouvaient
autrement que nous le faisons aujourd’hui. Pour autant
bien ­entendu qu’on puisse tirer des conclusions définitives à ­partir de vestiges incomplets. Ces cousins disparus
il y a un peu plus de 30.000 ans devaient donc se mouvoir
comme nous. Avec une souplesse identique ? Ça, ça reste
à voir, le ­cerveau étant à ce titre un élément intégrateur
déterminant.
Plus grands et puissants que les humains modernes, les
Néandertaliens ont pourtant été les victimes des glaciations auxquelles l’Homo sapiens a plutôt bien résisté. Être
grand et costaud impose quelques contraintes, notamment énergétiques ou alimentaires. Or, les glaciations se
sont avérées particulièrement pénalisantes de ce point de
vue, surtout pour les individus – comme eux - préférentiellement carnivores. On sait dorénavant que ces parents
aujourd’hui disparus avaient de bonnes jambes. Ça n’a visiblement pas suffi pour échapper aux caprices d’une météo
défavorable. 
Alzheimer, maladie à prions: même combat ?
L
a dégénérescence des neurones
corticaux dans la maladie d’Alzheimer est liée aux dépôts progressifs
de la protéine β-amyloïde - associée aux
protéines Tau - sur le cortex. Bien. On a
associé une maladie et une réalité histologique. Mais le lien est-il si immédiat ?
Une observation récente - en attente de
confirmation - tendrait à démontrer que
le tableau est un peu plus complexe. Des
chercheurs ont en effet mis en lumière, à
l’occasion d’expériences menées chez la
souris, que ce sont les prions, des protéines normalement présentes sur la membrane des cellules nerveuses qui, «excitées» par la présence des β-amyloïdes,
joueraient le rôle de récepteurs et
déclencheraient des réactions en chaîne
menant à la destruction des neurones.
Jusqu’à présent, il semble qu’on ait largement focalisé sur le dépôt progressif des
protéines insolubles dont on a récemment montré qu’elles étaient (surtout ?)
liées à un processus naturel de vieillissement. Dans la lutte contre l’Alzheimer, on
aurait donc intérêt à davantage viser les
prions…
C’est une piste nouvelle que des chercheurs semblent vouloir privilégier. Mais
ils ne font pas l’unanimité. L’injection
de β-amyloïdes à des souris sans prions
aurait mené à des déficits neuronaux…
Là encore, il n’y a pas matière à généralisation: il faut d’abord uniformiser les
protocoles expérimentaux pour les rendre superposables, ce qui ne semble pas
encore être le cas aujourd’hui. Lorsqu’on
aura enfin passé ce cap, on pourra alors -
ou non - suspecter l’intervention du prion
et agir en conséquence, en bloquant par
exemple celui-ci avec des anticorps. En
espérant (enfin !) avoir définitivement
débusqué la bonne cible.
Nature 2010 ; 466 : 1031 
37
ATHENA 265 · Novembre 2010
> SANTÉ
BESEP,
38
le sport
contre
la
sclérose
L
a sclérose en plaques (SEP)
est considérée comme
une pathologie du jeune
adulte. Chez deux tiers des
patients, les premiers symptômes de la maladie se manifestent en
effet entre 15 et 45 ans - le plus souvent,
entre 20 et 35 ans. En Belgique, quelque
12.000 personnes souffrent de SEP et, à
l’échelle mondiale, plus d’un million. En
outre, l’affection est à prépondérance
féminine, les femmes y étant deux fois
plus exposées que les hommes.
Dans sa conception classique, la sclérose en plaques est décrite comme une
affection du système nerveux central
caractérisée par une agression autoimmune (1) de l’oligodendrocyte (2) et
de ce qu’il produit, la gaine de myéline
entourant les axones (3). À la suite de
cette démyélinisation, la bonne vitesse
de conduction de l’influx nerveux
n’est plus assurée. Quant aux axones
­dénudés, ils finissent par dégénérer.
Si l’existence d’un tel processus
­secondaire de dégénérescence ­axonale
est irréfutable, tant les données
­anatomo-pathologiques que celles de
l’imagerie par résonance magnétique
(IRM) ­incitent à croire qu’une atteinte
­primaire de l’axone et des neurones
serait ­également à l’œuvre dans la maladie. De sorte qu’il semble fondé d’avancer que la SEP est une maladie tout
autant de la myéline que de l’axone et
que la dégénérescence ­axonale ­précoce
BESEP, une affaire de biceps ?
Pas seulement. Une affaire
de sport en tout cas. Et un
programme original destiné
aux malades atteints de sclérose
en plaques. Plusieurs études
récentes ont souligné
les bienfaits de la pratique sportive en endurance chez
ces patients. Est-ce en partie
parce qu’elle exercerait un effet
discret sur leur système immunitaire «rebelle» ? Des données
biologiques peuvent le laisser
supposer...
Texte : Philippe LAMBERT
[email protected]
Photos :REPORTERS (p.38),
Ph. LAMBERT (pp.39 à 41)
pourrait être de nature immunitaire elle
aussi.
La cartographie des lésions occasionnées par la SEP (les «plaques» de démyélinisation) est très variable, ce qui explique le polymorphisme des symptômes
présentés par les patients, la pathologie
se traduisant in fine chez chacun d’eux
par une empreinte symptomatique spécifique: atteintes au niveau du système
moteur (la marche est souvent affectée
en premier lieu) ou du système sensitif, névrite optique, diplopie (vision
double), pertes d’équilibre, vertiges,
troubles urinaires, troubles du sphincter anal, névralgie du trijumeau, etc.
En outre, toutes les combinaisons sont
possibles.
Philippe LAMBERT · SANTÉ
De nouveaux
horizons
Dans sa forme la plus fréquente, appelée rémittente-récurrente (environ 85%
des cas), la SEP se caractérise initialement par des poussées (4) et rémissions
successives qui laissent la place, après
de nombreuses années, à une accumulation lente et insidieuse d’un déficit
indépendamment de toute nouvelle
exacerbation aiguë. La maladie est alors
entrée dans sa forme dite secondaire
progressive.
Dans la forme rémittente-récurrente, l’administration de corticoïdes
demeure le traitement universellement
utilisé contre les poussées. Toutefois, à
la lumière des connaissances actuelles,
son efficacité paraît sujette à caution.
Les progrès thérapeutiques récents
concernent les traitements de fond. En
première ligne, ils s’appuient essentiellement sur deux immunomodulateurs les interférons de type ß1 et l’acétate de
glatiramer - et, en seconde ligne, sur un
anticorps monoclonal, le natalizumab.
«Chez les mauvais répondeurs à une thérapie de première ligne, le natalizumab,
utilisé en seconde intention, s’avère d’une
grande efficacité: parmi les patients traités, 80% ne feront plus de poussée, 40 à
60% n’auront plus ni poussée ni ­nouvelle
lésion», rapporte le professeur Shibeshih
Belachew, chef de clinique au sein du
service de neurologie du CHU de Liège.
Pour 10 à 15% des patients, le scénario est différent de celui de la SEP
rémittente-récurrente. Chez eux, il
n’est pas question de poussées, mais
d’une pathologie évoluant à bas bruit
de manière constante, la SEP primaire
progressive qui, dès l’apparition des
premiers signes cliniques, est responsable d’une progression lente et insidieuse de la symptomatologie. Cette
forme de sclérose en plaques possède
probablement une physiopatho­logie
distincte de celle de la SEP rémittente-récurrente. Sans doute est-ce
pour cette raison qu’elle ne répond
pas aux thérapies efficaces dans cette
dernière. Actuellement, elle ne jouit
d’ailleurs d’aucun traitement validé par
l’évidence.
Au-delà de ses composantes psychologique et sociopsychologique ainsi
que de ses bienfaits sur différents systèmes, dont en particulier le système
cardiovasculaire, l’exercice physique en
endurance pourrait-il influencer favorablement le décours des affections autoimmunes ? Les données biologiques
relatives à l’impact de ce type d’exercice
sur les fonctions immunitaires permettent d’en soutenir l’hypothèse.
Ainsi que le souligne Shibeshih Belachew, le développement de l’arsenal
thérapeutique contre la SEP rémittenterécurrente permet désormais d’obtenir
un nombre croissant de rémissions
apparentes et durables, à condition de
traiter l’affection tôt et efficacement.
«Pour ces raisons, dit-il, la réadaptation
fonctionnelle devra intégrer dans un
futur proche l’émergence de ce nouveau
profil de pronostic afin de rencontrer les
objectifs personnels et ­professionnels des
malades.»
Développé au sein du CHU de Liège
à l’initiative de Shibeshih Belachew,
un programme pilote baptisé BESEP
(BE your Sporting hEalth Partner –
www.besep.org) a donné lieu, le
6 novembre 2007, à la création d’une
ASBL sous l’impulsion d’un groupe de
patients, dont en particulier Franck
Duboisse. Le principe fondateur du programme BESEP est simple: des patients
atteints de SEP sont invités à pratiquer
des séances d’exercices physiques aérobies sur une base régulière en présence
d’un coach dont la mission est, d’une
part, de définir et d’adapter le contenu
de l’activité à l’évolution des
performances
de
chaque patient
et, d’autre part,
de stimuler son
assiduité et sa
motivation.
Aussi, à côté de la kinésithérapie classique, où l’accent est principalement mis
sur un travail qualitatif d’équilibre et de
renforcement musculaire, prône-t-il la
pratique régulière de l’exercice physique en endurance (aérobie (5)), dont
plusieurs études récentes ont souligné les bienfaits sur la capacité cardiorespiratoire, la fatigue et la qualité de vie des patients atteints de
SEP dont le handicap est estimé
léger à modéré.
BESEP: la griffe
du coach
39
ATHENA 265 · Novembre 2010
> SANTÉ
1
1. Le professeur Shibeshih
Belachew, chef de clinique au
sein du service de neurologie
du CHU de Liège.
2. Franck Duboisse est la principale
cheville ouvrière de l’asbl BESEP
où il exerce par ailleurs
des activités de coach.
40
La nature de la tâche qui leur incombe
suppose que les coaches reçoivent une
formation sur mesure. Celle-ci comporte notamment une initiation à la
communication mettant l’accent sur les
outils comportementaux requis pour
un accompagnement optimal de malades chroniques dans leur pratique de
réadaptation. Cette facette essentielle
de la ­formation est dispensée par la
société Krauthammer, spécialisée dans
le coaching. Et cela, en outre, avec une
plus-value: le vécu personnel du formateur, Frédéric Meuris, lui-même atteint
de sclérose en plaques. Autre aspect: les
coaches se voient également enseigner
les fondements de l’entraînement au running par les instructeurs du ­programme
Je cours pour ma forme (6), un des deux
modules proposés aux patients ayant
trait à la course à pied et à la marche
­nordique. Enfin, l’équipe de It’s 4 fit, active
dans le secteur de la préparation et de la
mise en condition physique, inculque
aux coaches des méthodes de prise en
charge sportive très pointues.
Quels sont les patients concernés par le
programme BESEP ? «Toutes les formes
de SEP (rémittente-récurrente, secondaire
progressive et primaire progressive) sont
éligibles, dit Shibeshih Belachew. Le seul
facteur de sélection est constitué par les
scores d’invalidité, ce qui, par extrapolation, signifie que 35 à 50% des patients
belges pourraient être candidats à un programme d’entraînement comparable à
celui que nous avons élaboré.»
Une des clés de voûte du programme
BESEP est de permettre aux malades
de pratiquer un sport en endurance
dans un environnement extrahospitalier (salle de fitness, espace de plein
air). Le neurologue estime d’ailleurs que
l’évolution des soins dans la SEP doit
tendre vers une relative dichotomie
entre la ­personne en chaise roulante et
celle qui dispose encore de la capacité,
aussi ténue soit-elle, de se tenir debout.
«Cette frontière est essentielle à mes yeux,
affirme-t-il. Dans son esprit, on est debout
ou on ne l’est plus. Dès lors, sur le plan
psychologique, il n’est pas profitable aux
patients encore capables de se tenir sur
leurs ­jambes de fréquenter des structures
où ils côtoient d’autres patients en chaise
car ces derniers leur renvoient leur image
future potentielle, c’est-à-dire celle qu’ils
veulent fuir à tout prix.»
Deux
programmes
Dans la pratique, le programme BESEP, qui
a rassemblé en permanence 50 à 70 Besepers depuis sa création, s’adresse à des
patients chez qui demeure au minimum la
faculté de marcher 100 mètres sans aide.
Cela ne signifie pas qu’il est impossible
d’envisager une prise en charge similaire
pour les patients en chaise. Ces derniers
2
constitueraient alors une filière distincte,
avec des exercices adaptés.
Les Besepers ont le choix entre deux
programmes: le BESEP Running, en plein
air, et le BESEP Light, dans une salle de
fitness ouverte à tous. Chaque groupe
confié à un coach compte 5 à 8 patients.
Les séances de running (course à pied
ou marche nordique (7)) ont lieu trois
fois par semaine pendant 90 minutes
et se déroulent en trois temps – échauffement, exercices de l’appareil locomoteur à des intensités variables imposées
alternant avec des exercices en atelier
(maintien, équilibre, coordination, renforcement musculaire) et enfin retour
au calme (étirements, relaxation autogène). Les séances de fitness, elles,
adoptent la même périodicité, s’étendent sur 90 minutes également, mais
comportent cinq étapes: échauffement
cardiovasculaire sur vélo ergométrique;
échauffement articulaire; renforcement
musculaire; exercices en aérobie (à 70%
de la fréquence cardiaque maximale)
sur vélo, tapis roulant, rotex, rameur ou
step; étirements.
«Un de nos espoirs est de voir les Besepers évoluer vers une autonomie croissante dans la gestion de leur sport au
quotidien, indique Shibeshih Belachew.
Idéalement, certains pourraient quitter
les séances coachées après six à douze
mois et adopter une attitude proactive,
par exemple en convainquant des membres de leur famille ou des amis de prendre part à leur activité sportive. Afin de
ne pas rompre définitivement le lien et
de maintenir un esprit de club chez le
patient, nous lui offrons la possibilité de
revenir fréquenter nos séances “à la carte”
Philippe LAMBERT · SANTÉ
s’il en éprouve le besoin et le convions à
nous retrouver en participant à des événements tels qu’une manche de l’Urban
Tour, programme de quatre épreuves de
course à pied se déroulant successivement à Liège, Charleroi et Bruxelles ainsi
que dans une “ville invitée”.»
Retombées
socioprofessionnelles
Le programme BESEP a reçu en mars
2010 un avis favorable du comité
consultatif de l’INAMI compétent en
matière de dispensation de soins aux
malades chroniques, en vue de son
intégration dans le plan «maladies
chroniques» (ministère de la santé)
sous la forme d’une étude scientifique
visant à évaluer l’influence du sport
en aérobie sur le décours de la SEP.
«Le service de neurologie du CHU de Liège
appréciera, d’une part, les répercussions
fonctionnelles d’un programme sportif
soutenu par un coach par comparaison
avec les performances de la kinésithérapie classique de revalidation et, d’autre
part, l’impact du sport sur l’évolution de
la maladie, tant au niveau clinique que
sur la charge lésionnelle en IRM», souligne Shibeshih Belachew. Cette étude,
qui se dénommera CARE-MS (Coached
Aerobic Regular Exercice in Multiple Sclerosis) est d’autant plus importante que,
potentiellement, la prise en charge
d’autres pathologies auto-immunes ou
neurodégénératives pourrait tirer profit
d’une initiative similaire à celle proposée par le programme BESEP. L’Association Parkinson l’a compris et a déjà
saisi la balle au bond, avec des résultats
encourageants.
La plainte la plus fréquemment émise
par les patients souffrant de SEP a trait
à la difficulté de marcher et à la perte
d’autonomie dont elle est le bras armé.
Viennent ensuite les plaintes relatives à une détérioration des fonctions
cognitives. BESEP s’efforce d’apporter
sa pierre à l’édifice de la lutte contre les
problèmes locomoteurs des patients
et, partant, contre la fatigabilité liée à
la marche. Mais l’équipe du professeur
Belachew a également un autre fer au
feu: en ­collaboration avec le neuropsychologue Gaël Delrue, elle est occupée
à poser les bases d’un programme de
coaching neuropsychologique ­baptisé
MIND MS (Managing Impairment through
Neuropsychological Drills in Multiple
Sclerosis).
«Au-delà des bénéfices concrets induits
sur le terrain des performances physiques, le projet BESEP a dès à présent
l’ambition d’améliorer l’indice d’insertion
du malade chronique dans le circuit professionnel. Cette retombée indirecte peut
s’inter­préter comme une conséquence
de ­l’impact du programme sur les composantes physique, cognitive et psycho­
sociale de la fatigue et sur la qualité de
vie», conclut le professeur Belachew. 
(1) Les maladies autoimmunes résultent d’une
hyperactivité du système
immunitaire qui s’attaque
à certains constituants de
son propre hôte comme
s’ils étaient des substances
étrangères.
(2) Cellule gliale qui est à la
base de la formation des
gaines de myéline des
axones, isolant ceux-ci et
favorisant la transmission
de l’influx nerveux.
(3) Câble de sortie partant
du corps cellulaire du
neurone par lequel
ce dernier transmet
l’information aux cellules
cibles.
(4) La poussée est une
période au cours de
laquelle se manifestent
des signes d’atteinte
neurologique nouveaux
ou la réapparition
d’anciens symptômes.
Il faut cependant que le
phénomène subsiste au
moins 24 heures et ait lieu
en dehors d’un épisode
infectieux pour que l’on
puisse parler de poussée.
(5) L’activité physique
aérobie est une activité
nécessitant l’oxygène
comme source principale
de combustion des sucres
fournissant l’énergie à
l’organisme.
(6) Sites Internet:
www.jecourspourmaforme.
be
www.ikloopgezond.be/NL
(7) En marche nordique
(marche avec bâtons),
30% de l’«effort
locomoteur» est fourni par
la ceinture scapulaire et
les membres supérieurs.
41
ATHENA 265 · Novembre 2010
> PHYSIQUE
Tic, tac, tic, tac ...
42
Texte : Henri DUPUIS • [email protected] • Photo : REPORTERS (p.42), J. BURRUS/NIST (p.43)
Le temps ne s’écoule pas de la
même manière à la côte que dans
les Ardennes. La dilatation du
temps vient d’être mesurée avec
une précision inégalée. Même la
physique se mêle de vouloir séparer Flandre et Wallonie !
L
’article (1) publié le 24 septembre dernier dans Science
par des chercheurs du
NIST (National Institute of
Standards and Technology,
agence qui dépend du ministère américain du commerce), montre que nous
avons atteint une précision extraordinaire en matière de mesure du temps.
À tel point que les effets relativistes sur
le temps, imperceptibles dans notre vie
quotidienne, sont devenus parfaitement
mesurables aux échelles qui nous sont
habituelles: un déplacement effectué
à 30 km/h ou la montée d’une marche
d’escalier de 30 cm de hauteur !
Dilatation des durées
Pour apprécier le caractère exceptionnel des performances réalisées par les
chercheurs du NIST, revenons un instant
sur les théories d’Einstein. En 1905, la
théorie de la relativité restreinte a montré que la vitesse de la lumière dans le
vide est un absolu, une constante indépendante de la vitesse de sa source et,
surtout, que le temps perd son caractère
absolu: il y a relation entre le temps et la
vitesse d’un signal. Ce chambardement
sans précédent et contre intuitif dans
notre manière de penser le monde, a
deux conséquences, aujourd’hui bien
connues: la contraction des longueurs et
la dilatation des durées.
C’est le second phénomène qui nous
intéresse particulièrement ici. Encore
faut-il s’entendre sur le sens du mot
durée. Il en existe un, plus «valable» que
d’autres: c’est la durée (ou temps) «propre», c’est-à-dire la durée mesurée par
un observateur qui accompagne le processus. ­Prenons l’exemple bien connu
des muons, particules qui se ­forment par
interaction du rayon­nement cosmique
avec l’atmosphère, soit environ à une
quinzaine de kilomètres d’altitude. Ils ont
une durée de vie de 2,2 ­millionièmes de
seconde (donc, au bout de cette période,
la moitié de ces particules se sont désintégrées). Comme ils voyagent à une
vitesse proche de celle de la lumière,
un calcul simple montre qu’ils devraient
être tous désintégrés avant d’arriver
jusqu’à nous. Or nous les détectons en
grand nombre, nous sommes constamment traversés par de telles particules !
L’explication est très simple: la durée de
vie citée plus haut est celle mesurée «sur
le muon», la durée de vie propre.
Le même phénomène mesuré depuis
la Terre aboutit à un autre résultat en
application de la théorie de la relativité
et la durée de vie est cette fois bien plus
importante, ce qui «permet» aux muons
de nous atteindre. Et les équations de la
relativité permettent de pousser l’appa-
Henri DUPUIS · PHYSIQUE
rent paradoxe jusqu’au bout: si le muon
avait une masse nulle, et donc pouvait se
déplacer à la vitesse de la lumière (et non
plus à une vitesse proche), la durée propre serait égale à 0 ! C’est le cas avec les
photons: la durée propre du trajet d’un
photon entre une lointaine galaxie et la
Terre est nulle. Pourtant, il a mis des milliards d’années à nous parvenir ! Autre
exemple: une horloge constituée de
deux miroirs entre lesquels un faisceau
lumineux fait l’aller-retour est à bord
d’un train animé d’un mouvement rectiligne et uniforme. Lorsqu’une personne
qui est dans le train regarde ce qui se
passe, elle voit le faisceau lumineux qui
parcourt une certaine distance: un allerretour qui équivaut, par convention, à
une unité de temps (par exemple, une
seconde mais ce chiffre est évidemment
fantaisiste). Du fait du déplacement du
train, pour un observateur resté sur le
quai, cette distance est plus grande.
Donc, comme la vitesse de la lumière
est constante, le temps mis pour faire le
­trajet entre les deux miroirs est plus long,
deux secondes par exemple: le temps
s’écoule moins vite pour quelqu’un qui
est dans le train que pour quelqu’un qui
est sur le quai.
La gravitation aussi
Deux ans plus tard, en 1907, Einstein établissait le principe d’équivalence entre
accélération et gravitation, qui étend en
quelque sorte la relativité restreinte aux
systèmes accélérés les uns par rapport
aux autres et qui allait donner lieu quelques années plus tard à la relativité générale. Autrement dit, une horloge placée
dans un champ de gravitation se comporte comme une horloge placée dans
un référentiel accéléré: il y a le même
effet de dilatation des durées. Et si l’on
place deux horloges dans des champs de
gravitation différents, on doit enregistrer une différence. C’est ce
qui a été mesuré dès 1960: le
temps ne s’écoule pas de la
même manière au rez-dechaussée d’un building ou
à son sommet, puisque le
champ de gravitation diminue quand on s’éloigne du
centre de la Terre.
Le temps universel n’existe
donc pas. Deux horloges ne
mesurent jamais que leur
temps propre et rien d’autre. Bien sûr,
nous ne nous déplaçons jamais à des
vitesses proches de la lumière et nous ne
nous échappons pas dans l’espace à la
recherche de champs de gravitation élevés. Tout ceci n’influence donc pas notre
vie quotidienne. Pourtant, la relativité y
est valable et donc ses effets devraient
pouvoir être mesurés si nous disposons
d’horloges très précises.
Mais comment mesurer de tels phénomènes à notre échelle ? Une fois de plus,
c’est Einstein qui a suggéré le moyen d’y
parvenir: utiliser les atomes comme horloges ! Ou plus exactement, les fréquences d’oscillation des atomes comme
unité de temps. D’où le terme d’«horloges atomiques». En effet, les oscillations
atomiques sont aisément repérables (on
analyse leur spectre), rigoureusement
immuables et surtout, tous les atomes
d’un même élément étant identiques,
cela permet d’avoir des horloges identiques, donc comparables, ce qui n’est
évidemment jamais le cas avec des horloges basées sur des systèmes mécaniques. Pour mesurer ­l’effet relativiste sur
le temps, le principe est donc simple:
on compare la fréquence propre d’un
atome au repos et celle d’un atome identique mais animé d’un mouvement rectiligne uniforme. On constate effectivement que les raies spectrales de l’atome
en mouvement sont décalées vers les
basses fréquences. Mais, pour déceler
quelque chose, il fallait tout de même
conférer des vitesses assez importantes
à l’horloge en mouvement (on la plaçait
par exemple dans un avion supersonique, un satellite ou une fusée). Ce n’est
plus le cas depuis ces dernières années
et aujourd’hui, on peut mesurer les
effets relativistes dans notre vie quotidienne grâce à la précision atteinte: une
seconde sur 3,7 milliards d’années !
Pour y arriver, les chercheurs du NIST ont
fabriqué une horloge constituée
d’un ion d’aluminium enfermé
dans des champs électriques
et excités par un rayon laser.
On fait ainsi sauter un de
ses électrons d’un niveau
d’énergie à un autre en un
millionième de milliardième
de seconde. Deux de ces horloges ont été construites. Lors
d’une première expérience,
l’une a été déplacée à une
vitesse de 33 km/h; dans
une autre, elle a été suréle-
James Chin-wen Chou, chercheur
au NIST, devant l’horloge la plus
précise jamais construite.
L’ion d’aluminium dont la vibration
sert d’étalon de mesure du temps est
contenu dans le cylindre métallique
au centre -gauche de la photo.
vée de 30 cm (donc un champ gravitationnel infiniment moins élevé que pour
celle restée 30 cm plus bas). Verdict: dans
les deux cas, le temps mesuré n’est plus
le même par rapport au temps mesuré
par l’horloge qui n’a pas bougé. La différence ? Si l’expérience avait duré 80 ans
(une vie !), elle aurait été de 90 milliardièmes de seconde ! 90 milliardièmes
en moins pour celui qui se déplace ou
pour celui qui vit 30 cm plus bas que les
autres ! Mieux vaut vivre à la côte que
dans les Ardennes ! 
(1) C.W. Chou, D.B. Hume,
T. Rosenband and D.J.
Wineland. Optical Clocks
and Relativity. Science.
Sept. 24, 2010.
+
Pour en
savoir plus
http://www.nist.gov/
physlab/div847/
aluminum-atomic-clock_092310.cfm
43
ATHENA 265 · Novembre 2010
> ASTRONOMIE
À la Une
du Cosmos
Texte: Yael NAZÉ · Photos: Esa, Eso et Nasa
Des planètes dans des systèmes ­composés
de deux étoiles, c’est possible, mais
à certaines conditions. Cependant,
des objets découverts ce mois-ci dans
de tels systèmes défient toutes les théories
actuelles de formation planétaire !
Photo: Univ. Sheffield
Début novembre, la sonde Epoxi (ex-Deep Impact)
a survolé à 700km d’altitude la comète Hartley 2,
que l’on a pu observer en octobre depuis le ciel belge
(quand il n’était pas couvert).
Le noyau a une forme de cacahuète et présente quelques jets.
Photo: Nasa
44
Vénus aurait-elle dévoilé une part de son
mystère ? Une nouvelle analyse des données
de la sonde Magellan (active dans les
années 90) suggère que des coulées de lave
sont récentes - le volcanisme serait donc
bien encore actif sur la planète. Hélas, les
preuves sont minces et la sonde européenne
Venus Express ne peut confirmer la chose
car son orbite ne lui permet pas d’observer la
région en question.
Photo: Nasa
Rififi exoplanétaire... L’annonce très
médiatisée d’une exoplanète habitable
dans Gliese 581 doit être revue : de nouvelles
données mettent en doute l’existence même
de la chose ! Pas de panique - la vérification de résultats constitue bien une partie
indispensable de la science. Par contre, il
semble certain qu’une exoplanète en sursis
a été découverte : elle tourne de plus en plus
vite autour de son étoile, s’en rapprochant
inexorablement. Elle sera déchiquetée par
les marées stellaires d’ici peu (quelques
millions d’années quand même).
Photo: Eso
Yael NAZÉ · ASTRONOMIE
Une galaxie très très lointaine, c’est ce qu’a
­observé un des télescopes européen VLT. Record
en son genre, sa lumière a été émise alors que
l’Univers avait à peine 600 millions d’années et
était alors empli d’un brouillard assez opaque.
Photo: Eso
La détection directe de la matière noire prend un tour inattendu.
Depuis plusieurs mois déjà, la communauté «gamma»
vibre de rumeurs insistantes.
Cette fois, ce sont les observations du centre galactique
par le télescope spatial Fermi qui semblent indiquer
que les rayons gamma proviennent de la désintégration
de matière noire.
Photo: Nasa
[email protected]
http://www.astro.ulg.ac.be/news/
45
ATHENA 265 · Novembre 2010
> ESPACE
D
iscrets, aux formes étranges, «ils» évoluent au-dessus de
nos têtes. Ce sont des blocs de pierre, faits de crevasses et
cratères, autour du Soleil. On les appelle astéroïdes.
Hergé en a mis un en scène dans l’aventure lunaire de Tintin et
de ses compagnons: il s’appelait Adonis et il avait failli happer
le capitaine Haddock en scaphandre qui vagabondait à l’extérieur
de la fusée… L’étude des astéroïdes suscite de plus en plus d’intérêt
dans le monde. C’est sur l’astéroïde Itokawa que le Japon a signé son
plus bel exploit spatial grâce à la sonde Hayabusa-1 utilisant la
propulsion électrique: elle a effleuré sa surface pour collecter des
grains de poussière dans une micro-capsule...
Texte: Théo PIRARD · Photo: Jaxa/Akihiro Ikeshita
Q
46
uel intérêt d’aller voir de plus près
les astéroïdes ?
On en dénombre près de 400.000, mais
leur recensement est loin d’être terminé.
Vu leur grande diversité, ces rochers monstrueux qui sillonnent le système solaire ont
de quoi éveiller la curiosité. D’abord, ce
sont des vestiges d’éléments qui ont participé, il y a plus de 4,5 milliards d’années, à
la formation du système solaire. Leur étude
permet de mieux comprendre comment
ont pris forme les planètes et leurs lunes.
Puis, ces spécimens peuvent contenir des
ressources de type carboné (chondrites)
ou métallique (fer, nickel, magnésium…).
Leur exploitation constitue une entreprise
osée: il faut pouvoir détourner l’astéroïde
vers la Terre. Enfin, certains sont inquiétants, vu qu’ils s’approchent de notre planète. Ces «géocroiseurs», ou encore Neo
(Near Earth Objects), croisent régulièrement l’orbite solaire de la Terre.
Y
a-t-il des risques pour la vie
terrestre ?
Dans le passé, des «géocroiseurs» de
grande taille ont heurté notre Terre. On
pense que l’explosion de l’un d’entre eux
dans notre atmosphère est à l’origine
de la période glaciaire… Les astéroïdes
de plus de 100 m qui nous «frôlent» à
moins de 7,5 millions de km de distance
sont considérés comme dangereux. Un
tel astéroïde, en cas de collision, peut
détruire une ville, provoquer un ­tsunami,
faire fondre la banquise… Redoutant cet
accident dans les 30 prochaines années,
des groupements alarment l’opinion
publique mondiale. La Fondation B612,
de l’astronaute Rusty Schweickart, a
financé l’étude d’un engin spatial capable de dévier un «géocroiseur» à hauts
risques.
O
ù en est l’exploration des astéroïdes ?
La Nasa (National Aeronautics & Space
Administration) et la Jaxa (Japan Aerospace
Exploration Agency) ont chacune envoyé
une sonde toucher le sol d’un astéroïde.
Near (Near Earth Asteroid Rendezvous) Shoemaker a exploré Eros du 14 février
2000 (fête de la Saint Valentin pour sa
mise en orbite) au 12 février 2001 (arrivée
en douceur à sa surface). Hayabusa-1 a
manœuvré près d’Itokawa entre septembre et décembre 2005. La sonde japonaise
a eu un contact in situ et des nano-particules ont dû être récoltées dans une microcapsule. Celle-ci est revenue intacte dans
le désert australien le 13 juin dernier. De
son côté, l’Esa (Agence spatiale européenne)
a survolé et photographié les astéroïdes
Steins (septembre 2008) et Lutetia (juillet
2010) avec sa sonde Rosetta en route vers
le noyau d’une comète. La Nasa a déjà inscrit à son programme d’exploration une
mission d’astronautes vers un astéroïde en
2025. Reste à en trouver le financement. 
Cette vue d’artiste très réaliste montre
la sonde Hayabusa en train d’aspirer dans
sa capsule des nano-poussières
de l’astéroïde Itokaw.
Théo PIRARD · ESPACE
Cap sur
orbite,
via
Charleroi !
Texte : Théo PIRARD · [email protected]
Photos : T. PIRARD (p.47), ESA (p.48)
C
harleroi avait mis les petits
plats dans les grands pour
accueillir les invités des
27 membres de Wallonie
Espace, issus des mondes
de la recherche (universités, instituts
scientifiques) et de l’industrie (électronique, informatique, optique, mécanique…). Ces 27 acteurs représentent
quelque 1.400 emplois pour un chiffre
d’affaires que l’on estime à 170 ­millions
d’euros. Des visites d’entreprises, une
conférence avec table ronde, des
­sessions techniques et des animations
pour les groupes scolaires ont permis
de faire le point sur les défis qui attendent le transport spatial européen et la
conception de modèles sur ordinateur.
Elles ont également levé le voile sur des
équipements à la pointe du progrès:
›› chez Thales Alenia Space Etca:
­l’avionique spatiale, ­notamment
dans la case à équipements
d’Ariane 5. La société carolorégienne
est présente sur les trois fusées
qui vont, dès l’an prochain, offrir à
­l’Europe l’accès à l’espace;
›› chez Sabca: la réalisation de structures essentielles des lanceurs Ariane 5
et Vega, ainsi que les ­systèmes de
servo-commandes qui assurent le
pilotage correct des étages. À bord
de Vega, ­l’entreprise bruxelloise
assure, comme sous-systémier, le
développement complet de tous les
actuateurs électro-mécaniques;
›› chez Techspace Aero (Herstal): le
développement et la production des
vannes du propulseur cryogénique
Vulcain d’Ariane 5;
›› chez Samtech: la famille Samcef des
logiciels de modélisation qui servent
à concevoir et étudier les éléments
critiques de systèmes pour l’espace.
On a surtout fait le point sur les services
proposés par l’opérateur commercial de
transport spatial en Europe. Un ­nouvel
Arianespace - comme l’a annoncé Michel
Doubovick, son vice-président pour les
Du 11 au 13 octobre, le pôle
de compétitivité du secteur
aérospatial Skywin Wallonie,
avec son cluster Wallonie Espace,
a organisé à Charleroi,
des Journées de l’Espace très
réussies. Destinées à promouvoir les compétences des acteurs
wallons du spatial européen et à
sensibiliser le public spécialement les jeunes sur les défis, études et carrières
de l’astronautique (satellites,
applications, exploration…), ces
3e journées avaient pour thèmes
les lanceurs pour l’accès à l’espace en Europe, leur avenir et le rôle
de la modélisation numérique
dans leur réalisation. Il s’agissait
de mieux connaître le savoir-faire
de Thales Alenia Space Etca
(Charleroi) et
du Groupe Samtech (Liège).
affaires gouvernementales - va, dès l’an
prochain, amorcer la prochaine décennie
avec l’exploitation simultanée de trois
lanceurs complémentaires qui élargissent
son éventail de services: l’Ariane 5-ECA
est rejoint au Port spatial de l’Europe par
le Soyouz ST russe à ­partir d’avril et par
le Vega italo-européen durant l’été. Ce
sont, en tout, 68 lanceurs qui ont déjà été
commandés par Arianespace: 39 Ariane 5,
24 Soyouz et 5 Vega pour répondre aux
besoins, tant ­commerciaux qu’institutionnels. L’utilisation de l’espace tant par
les pouvoirs publics que par des sociétés
­privées a atteint la maturité qui exige un
accès stable et sûr à l’orbite. Le transport
spatial doit être fiable en évitant que les
anomalies de conception et de production aient un impact sur sa disponi­bilité.
Et il doit être compétitif grâce à une
réduction des coûts. Mais cette année ne
s’annonce pas prometteuse chez Ariane­
space, vu qu’un problème industriel, dû à
un vice de conception, a perturbé le planning des lancements Ariane 5 durant le
premier semestre.
47
ATHENA 265 · Novembre 2010
> ESPACE
LANCEUR
ARIANE 5 ECA
SOYOUZ ST
VEGA
12 février 2005
4 octobre 1957
-
Eads Astrium Space
Transportation (France)
Centre Spatial Samara/Progress
(Russie)
Elv (Italie)
9,5 t / 15 t ? / 20 t
3 t / 4,9 t / 8 t ?
- / 1,8 t / 4,5 t
11 décembre 2002 (échec)
[avril 2011]
[juin 2011]
ELA-3 Kourou
ELS Sinnamary
SLV Kourou
Thales Alenia Space Etca, Sabca,
Techspace Aero
Thales Alenia Space Etca
Sabca, Thales Alenia Space Etca,
Spacebel
1er vol réussi
Maître d’œuvre (Pays)
Performances GTO/SSO/LEO
1er vol en Guyane
Infrastructure
Participation belge
Évolution vers une
révolution
48
Chez Eads Astrium Space Transportation,
on est conscient qu’il faudra, dans les
années à venir, adopter des formules
innovantes pour la gestion du design et
du business. Hervé Gilibert, chef des programmes de développement Ariane 5,
n’a pas hésité à prendre comme modèle
le constructeur américain SpaceX et son
lanceur Falcon 9. «Nous entrons dans une
autre ère de management des lanceurs.
Nous sommes en train d’abandonner la
gestion sous la tutelle d’agences gouvernementales afin de la transférer au niveau
industriel». S’inscrivant dans la stratégie
d’Arianespace, qui a comme priorités la
fiabilité technique et la rentabilité financière, Eads Astrium Space Transportation
avec la version Ariane 5 ME (qui doit
remplacer les Ariane 5 ECA et Ariane 5 ES
à partir de 2017), puis avec Ngl (Next
Generation Launcher ou Ariane 6 qui doit
apparaître à l’horizon 2025) veut privilégier une nouvelle philosophie qui donne
à l’industrie une plus grande autonomie pour garantir la fiabilité et davantage de responsabilité comme autorité
de conception. Cette philosophie, qui
­s’apparente à une révolution, doit se
faire de façon progressive. «Il ne s’agit pas
de remplacer l’Esa mais de l’adapter à un
nouveau modèle de relations avec les partenaires industriels pour qu’ils aient plus de
responsabilité dans le cadre d’un nouveau
management, pleinement responsable, du
lanceur et de chacun de ses composants.»
Pour Hervé Gilibert, il faut revenir à un
lanceur qui soit facile à produire, à mettre
en œuvre, à lancer, fiable et peu coûteux.
Au sujet du projet Ngl, qui doit être mis
en œuvre durant les année 2010, il n’a
pas hésité à évoquer la famille des lanceurs modulaires Ariane 4, qui fut l’œuvre
des pionniers européens du transport
spatial à des fins commerciales. Rappelant qu’Ariane 5, conçu à partir du Space
Shuttle en vue de lancer la navette Hermès,
a fait naître une génération d’ingénieurs
ayant recours aux nouvelles méthodes de
modélisation numérique pour optimiser
les performances, il a conclu: «Pour les
lanceurs à venir, il est temps d’intégrer de
nouveaux modes de fabrication».
Vega proche de la
qualification
Les Space Days 2010 ont permis d’en savoir
plus sur l’état de développement du lanceur italo-européen Vega. Constitué de
trois étages à poudre et d’un quatrième
à propulsion liquide, il a une hauteur de
30 m et une masse de 138 t. Il doit être
capable de satelliser 1,8 t en orbite héliosynchrone à 1.500 km ou 4,5 t en orbite
équatoriale à 300 km. On annonce un coût
de lancement aux environs de 36 millions
d’euros. Francesco De ­Pasquale, président
directeur général de la société Elv (Groupe
Avio), a fait le point sur les essais de qualification des différentes composantes du
lanceur. Il a souligné la qualité de la technologie conçue, développée et qualifiée
par la société belge Sabca pour les actua-
teurs électro-mécaniques qui servent
au pilotage de chaque étage: «c’est un
système à la pointe du progrès, désormais
disponible pour piloter le lanceur de la prochaine génération».
Quand Vega pourra-t-il effectuer son vol
inaugural ? Pour Francesco De ­Pasquale,
la date du premier lancement - il doit
satelliser le Cubesat liégeois Oufti-1 sera déterminée à l’issue des tests de
recette du Slv (Site de lancement Vega)
en Guyane. «On vise la fin du premier
semestre de 2011, c’est-à-dire juin.» Le vol
de démonstration emploiera un logiciel
français de vol «classé confidentiel» dont
l’emploi a été autorisé pour ce premier
lancement. Les vols suivants mettront
en œuvre un logiciel développé par une
équipe européenne dont fait partie la
société Spacebel, spécialiste belge d’informatique spatiale.
Au sujet des retards du développement
du lanceur Vega, Francesco De ­Pasquale y
voit la cause dans la sous-estimation du
programme: un budget limité (350 millions d’euros) et un planning serré
(4 à 5 ans). Il voit dans le lanceur un réel
banc d’essais pour des technologies qu’il
faudra appliquer pour le premier étage
standardisé et le pilotage précis (avec des
servo-vérins électro-mécaniques) du projet Ngl, alias Ariane 6, des années 2020. Et
­d’annoncer la couleur: «Un propulseur
à poudre est moins coûteux et plus aisé à
produire qu’un étage à propulsion cryo­
génique». 
Théo PIRARD · ESPACE
Brèves
spatiales...
d’ici et d’ailleurs
Texte: Théo PIRARD · Photos: Esa, Nrf/T. ABBOTT
A
gence spatiale africaine, un projet
de longue haleine. Depuis cet été,
l’Afrique se trouve plus présente dans
l’espace, grâce aux lancements de trois
satellites. Le 12 juillet, la fusée indienne
Pslv C15 a lancé Alsat-2A, petit satellite
d’observation, réalisé par Astrium pour
l’Algérie. Le 4 août, Ariane 5, pour son 38e
succès d’affilée, a lancé pour le continent
africain les satellites Nilesat 201 (Égypte)
et Rascom-Qaf1R (organisation panafricaine) commandés à Thales Alenia Space.
Sa filiale européenne Etca a équipé ces
deux satellites de télécommunications
et de télévision se trouvant en orbite
géostationnaire.
Avec la Coupe du Monde de football, les
pays africains ont pris conscience, pour
leurs populations, de l’importance des
systèmes spatiaux pour les technologies de l’information et de la communication. Lors de leur 3e conférence dans
le cadre de l’Union Africaine, qui s’est
tenue à Abuja (Nigéria) du 3 au 7 août,
les Ministres en charge des TIC se sont
mis ­d’accord pour lancer le processus de
création d’une agence intergouvernementale de l’espace. Une étude de faisabilité, avec le soutien de l’UIT (Union Internationale des Télécommunications), a été
décidée avec évaluation des initiatives
existantes et élaboration d’une politique
spatiale africaine. «L’Afrique est arrivée à
un point de développement, à une ambition
légitime où l’accès à l’espace n’est plus un
luxe, une question de prestige, mais un vecteur supplémentaire de développement»,
notait le président du Conseil européen,
­Herman Van Rompuy, dans son message
lu par son représentant, Michel Praet, à la
conférence à haut niveau «L’espace pour
le citoyen africain», organisée par la Présidence belge de l’Union.
De son côté, Antonio Tajani, le «Monsieur Espace» de la Commission, insistait
sur deux grands défis pour l’Afrique qui
devaient avoir le soutien de l’Europe:
l’organisation d’une Agence spatiale
africaine (projet étudié par l’Union africaine) et l’Institut des sciences de l’espace au sein de l’Université panafricaine
(en chantier). Après avoir noté l’impact
des programmes Gmes (télédétection)
et d’Egnos (navigation) pour le développement socio-économique du continent africain, il a conclu: «L’espace est une
nécessité pour l’Afrique. On a l’obligation
de réussir son accès aux systèmes spatiaux.
Pour cela, on a besoin d’une forte volonté
politique.» 
C
oup double pour Spacebel avec
Galileo et Vega. Le spécialiste
belge d’ingénierie logicielle des systèmes spatiaux a été retenu pour deux
importants programmes de l’Esa.
D’une part, le lanceur Vega et d’autre
part, le système de positionnement
Galileo.
Spacebel a été sélectionnée par la
société Elv à Rome (Italie), la maître
d’œuvre du programme Vega: avec
le savoir-faire acquis dans les microsatellites Proba, elle va contribuer au
développement du logiciel de bord
qui pilotera le lanceur ainsi que dans
les activités d’ingénierie logicielle
relatives au guidage, à la navigation
et au contrôle de Vega. Spacebel est
également responsable du logiciel
de simulation destiné à vérifier et à
valider les différentes fonctions du
logiciel embarqué. Ce nouveau projet
représente un chiffre d’affaires d’environ 1,2 million d’euros.
Par ailleurs, la Pme liégeoise a récemment été choisie pour participer à la
mise en œuvre des 14 premiers satellites opérationnels de la constellation
Galileo. Elle contribuera aux services
standards à bord de chaque satellite
dans le cadre des opérations au sol.
Il s’agira de développer le logiciel de
manipulation des données à bord, qui
va servir au contrôle et à la gestion de
l’ensemble des processus pour le bon
fonctionnement des satellites européens de navigation. 
Observatoire de radioastronomie
à Hartebeesthoek (Afrique du Sud)
49
ATHENA 265 · Novembre 2010
> AGENDA
Sorti de PRESSE...
Information et désinformation au Moyen Âge
Jean VERDON
Éditions Perrin
L
’information est souvent considérée comme l’apanage de notre
époque. Ne parle-t-on pas de
société de ­l’information ? Certes, grâce
aux moyens techniques actuels, elle se
transmet beaucoup plus vite et peut toucher beaucoup plus de personnes dans le
monde entier que par le passé. En réalité,
l’information a existé de tout temps et est
même une nécessité: sans elle, il n’y aurait
pas ­d’histoire, d’activité ou de progrès.
50
Jean Verdon, grand historien de la vie
quotidienne et des mentalités au Moyen
Âge, montre que la société médiévale
ne vit pas repliée sur elle-même. Dans
les cours royales et princières, les milieux
d’affaires, les foires, les monastères, les
universités et les grandes villes, les informations se créent, se transforment, circulent, se croisent. Les décideurs politiques
doivent posséder les données permettant
de prendre les décisions «adéquates» et
de les faire connaître ou exécuter. Les marchands, dans le but de faire des affaires
rentables et sans risques démesurés, doivent s’informer des échanges existants, de
la situation des ports et des marchés, des
conflits éventuels. Les paysans, quant à
eux, se contentent de nouvelles locales et
ne prêtent attention au monde extérieur
qu’en cas de troubles (guerres, épidémies,
famines,…).
(et donc du Moyen Âge) que la ­fiabilité
des infor­mations augmente (dans une
­certaine mesure…), grâce à l’imprimerie
et à l’écrit reproduit.
À l’époque, on trouve déjà des professionnels de l’information: les crieurs publics,
les hérauts (qui annoncent les tournois,
faits de guerre et proclamations solennelles), les messagers et les prédicateurs.
C’est qu’au Moyen Âge, l’information se
diffuse encore oralement, avec
toutes les déformations que
cela permet. Il existe ainsi une
source souvent inquiétante
d’informations: la rumeur.
Jean Verdon aide à démêler le vrai du
faux et nous fait mesurer la différence
d’échelle et de moyens techniques entre
notre monde et celui du passé: le nôtre
est dominé (voire «tyrannisé») par l’infor­
mation et ses technologies, contrairement
au monde médiéval qui ne
l’est pas, même s’il a déjà une
bonne dose ­d’informations.
Mais il fait aussi ressortir
les constantes du concept
d’information: nécessité,
fragilité et manipulations,
que l’on retrouve à toutes
les époques, y compris à la
nôtre !
Difficile à évaluer, reposet-elle sur des faits réels ou
fictifs ? On arrive donc à l’un
des corollaires de l’information: la désinformation, émanant de nouvelles ­erronées,
falsifiées, déséquilibrées ou
encore cryptées (transformées
pour être rendues illisibles sans le code
­correspondant), comme la propagande,
la calomnie, le mensonge, l’espionnage,… Ce n’est qu’à la fin du 15e siècle
Texte: Christiane DE CRAECKER-DUSSART
[email protected]
À vos AGENDAS !
PRIX REINE PAOLA POUR L’ENSEIGNEMENT 2010-2011
Inscrivez-vous!
Date de clôture: le 31 janvier 2011
C
et appel à projets a
pour objectif de mieux
faire connaître des projets
pédagogiques exemplaires
et d’encourager des enseignants et des associations
qui travaillent en liaison
avec les écoles.
Pour qui ?
Pour le Prix «Sciences,
maths et techno, une clé
pour notre avenir»: les enseignants du
fondamental ou du secondaire qui ont
conçu un projet pédagogique destiné
à rendre les disciplines scientifiques
plus attrayantes et à éveiller l’intérêt
des élèves pour les carrières scientifiques.
Pour le Prix «Soutien extra-scolaire aux
jeunes et à leur école»: les ­associations
et personnes qui organisent des activités extra-scolaires destinées à améliorer le développement des talents et
des potentialités des jeunes, à réduire
le retard scolaire et à améliorer l’intégration, la solidarité et la citoyenneté.
Les prix ?
Chacun récompensera trois lauréats par
communauté. Ils (6.500, 4.000 et 2.500
euros) seront remis par S.M. la Reine lors
d’une cérémonie officielle.
Infos et inscriptions ?
Fondation Reine Paola, Avenue Slegers,
356, bte 17 à 1200 Bruxelles.
Tél.: 02/762.92.51
Email: [email protected]
Site Internet: www.prixpaola.be
Géraldine TRAN · AGENDA
Concours «Faites le pont» et «Ça plane pour toi»
Inscrivez-vous!
Date de clôture: 24 janvier 2011
L
a faculté des Sciences Appliquées
de l’Université de Liège organise
comme chaque année deux concours
ouverts à l’ensemble de la communauté
étudiante. Ces deux concours ont un
objectif pédagogique et sont destinés,
à travers la réalisation d’un pont en carton ou d’un planeur en balsa, à
sensibiliser les étudiants au métier
­d’ingénieur.
Outre l’aspect didactique de ces
concours, ils représentent également une opportunité pour les étudiants
du secondaire de découvrir l’environ­
nement technique universitaire. Aussi,
la réalisation d’une maquette pour l’une
ou l’autre de ces manifestations pourrait
s’intégrer idéalement dans le cadre d’un
cours de mathématiques, ou de sciences.
Quand ? Lundi 24 janvier 2011:
clôture des inscriptions;
À partir du lundi 31 janvier 2011:
retrait du matériel;
Lundi 25 avril 2011: remise des
maquettes au laboratoire;
Mercredi 27 avril 2011: essai des ponts.
Tarif ? Gratuit
(matériaux fournis par l’Université)
Infos et inscriptions ?
Vincent Denoël
ULg - Dép. ArGEnCo - SE
Chemin des Chevreuils 1, Bât B 52/3 à
4000 Liège
Tél: 04/366.29.30
[email protected]
http://w w w.argenco.ulg.ac.be/
ConcoursPont/MainPage.htm
• «Faites le pont» (construction d’une
maquette de pont en carton, colle et
­ficelle).
• «Ça plane pour toi»
Pour qui ? Les élèves du secondaire et
du supérieur en formation d’ingénieur
et architecte
Pour qui ? Les élèves du secondaire
supérieur et du supérieur
Quand ?
du mardi 1er février au vendredi 8 avril
2011: inscriptions et retrait du matériel
Tarif ? Gratuit
(matériaux fournis par l’Université)
Infos et inscriptions ?
Ludovic Noels
Université de Liège, Dép. A&M - CM3
Chemin des Chevreuils 1, Bât B 52/3,
B-4000 Liège
Tél : 04 366 48 26
[email protected]
http://www.ltas.ulg.ac.be/ planeurs
Ces deux événements se dérouleront
le 27 avril 2011 sur le site du SartTilman.
51
(design d’un p
­ laneur en balsa).
Ouverture du musée de l’histoire du livre: LIBRARIUM
L
e 20 octobre 2010, la Bibliothèque royale de Belgique inaugurait ­LIBRARIUM, espace permanent
de ­découverte des cultures du livre
et de l’écrit. LIBRARIUM est né d’un
constat: il n’existe pas, en Belgique,
­d’espace d’exposition présentant des
documents authentiques, consacré à
toute l’histoire du
livre et de l’écrit.
logique, mais également thématique,
donnant ainsi au parcours plusieurs
niveaux de lecture qui satisferont aussi
bien le profane que le connaisseur.
La
Bibliothèque,
qui conserve un
­patrimoine aussi diversifié qu’illustre,
se devait donc de mettre à disposition du grand public une partie de ses
­documents tout en les recontextualisant.
À travers une scénographie originale,
LIBRARIUM présente un contenu scientifique non seulement de façon chrono-
Pour les parents et leurs enfants, un
projet original a été mis au point, en
collaboration avec l’illustrateur Geertjan
Tillmans. À travers un parcours familial
ludique, et en compagnie d’une bande
de Mange-Mots bien sympathiques, les
enfants découvriront l’exposition autrement. Un joli petit guide illustré et une
valise les aideront dans leur visite.
Que vous soyez simple curieux ou spécialiste, jeune ou plus âgé, que vous veniez
seul ou en groupe, LIBRARIUM répondra
à vos attentes… À chaque groupe, une
activité sur mesure !
À Bruxelles...
Où? Bibliothèque
royale de Belgique.
Entrée via le Mont
des Arts ou le Boulevard de l’Empereur 2
à 1000 Bruxelles
Quand ?
Du lundi au samedi
de 10h à 17h
Tarif ?
Entrée gratuite
Plus d’infos ?
Site Internet: www.kbr.be
Tél.: 02/519.53.11
Visitez nos sites :
http://athena.wallonie.be
http://recherche -technologie.wallonie.be/
http://difst.wallonie.be/
DIRECTION GÉNÉRALE OPÉRATIONNELLE
DE L’ÉCONOMIE, DE L’EMPLOI ET DE LA RECHERCHE

Documents pareils