N° 267 - Janvier 2011 ( - 5081 Ko)

Transcription

N° 267 - Janvier 2011 ( - 5081 Ko)
Recherche et développement technologique
...
267
... 2010
Janvier
2011
Le mag’ scientifique
www.athena.wallonie.be · Mensuel ne paraissant pas en juillet et août · Bureau de dépôt Bruxelles X
...
Fracture
...
numérique:
deuxième round !
...
...
Anorexie, boulimie:
les ados en danger
...
...
...
...
ATHENA 267 · Janvier 2011
> EDITO
Edito
Un peu, beaucoup, à la folie, pas du tout
Texte: Géraldine TRAN • Rédac’chef • Photo: REPORTERS (Isabelle Caro)
2
L
e champagne cuvé et les cotillons remisés, c’est l’heure des «fameuses»
bonnes résolutions. Sur le podium : arrêter de fumer, faire du sport et…
perdre du poids! Il n’y a bien entendu rien de mal à cela mais si cela
peut paraître anodin, cela peut aussi amener à des troubles sérieux de
conduite alimentaire. Cet «enthousiasme» de janvier correspond étrangement à la parution d’un article de Philippe Lambert (pp. 26-29) et tristement aussi,
au décès d’Isabelle Caro, mannequin et comédienne française devenue «célèbre»
pour avoir posé nue dans une publicité alors qu’elle luttait contre la maladie et ne
pesait qu’une trentaine de kilos. Cet événement a vivement relancé le débat sur la
communication faite autour des troubles alimentaires maladifs. Si l’on comprend
aisément qu’Isabelle Caro ait eu envie de parler de sa maladie pour décourager les
tentations et clairement afficher les conséquences de celle-ci, il s’en est suivi un effet
pervers dans le sens où elle a cessé d’être une victime pour devenir une icône. Oui,
une icône, le mot n’est pas trop fort, pour les anorexiques non désireuses de s’en
sortir. La campagne anti-anorexie est ainsi devenue une publicité pro-anorexie
pour celles qui se sont dit: «Je peux aller encore plus loin et pourquoi pas, devenir
célèbre grâce à ma maigreur». Pervers…
Tout autant que de se dire ou dire d’un proche: «Je ne suis (il/elle n’est) pas comme
ça, donc je ne suis (il/elle n’est) pas anorexique»… Trop peu de place pour vous
parler ici des causes potentielles (problème de l’image, canons de beauté, malêtre, instabilité psychologique,…) de ces revers de médaille qui ­s’effaceront,
j’en suis sûre, derrière l’angle strictement médical choisi par ­Philippe Lambert,
pour tout simplement délivrer une information et nous ­inciter à être vigilant
car les signaux sont parfois difficilement détectables: les anorexiques ne sont
pas forcément maigres et les boulimiques obèses… 
ATHENA 267 · Janvier 2011
Tirée à 14 500 exemplaires, Athena est une revue
de vulgarisation scientifique du Service Public de Wallonie
éditée par le Département du Développement technologique
de la Direction générale opérationnelle Économie, Emploi
et Recherche (DGO6).
Place de la Wallonie 1, Bât. III - 5100 JAMBES
Elle est consultable en ligne sur http://athena.wallonie.be
Abonnement (gratuit)
Vous souhaitez vous inscrire ou obtenir gratuitement plusieurs
exemplaires, contactez-nous !
· par courrier
Place de la Wallonie 1, Bât.III - 5100 JAMBES
· par téléphone
au 081/33.44.76
· par courriel à l’adresse
[email protected]
SOMMAIRE
10
26
34
SOMMAIRE
Actualités
04
Actualités
Pour transmettre un monde habitable
10
Dossier
Bilan de la Présidence belge de l’Union
européenne en matière de Recherche
Œuvrer à la simplification
pour booster l’innovation
12
L’ADN de ...
Julian Richard, archéologue
16
Technologie
Fracture numérique: deuxième round !
18
Internet
Le Web pour les Nuls et les Professionnels
Comment les Trouveurs trouvent
22
Santé
Anorexie, boulimie: les ados en danger
26
Biologie
30
Médecine
Les émotions préferent le bleu...
34
Physique
Alice au pays des gluons
38
Physique
42
Astronomie
44
Espace
46
Agenda
50
38
Éditeur responsable
Impression
Michel CHARLIER,
Inspecteur général
Ligne directe: 081/33.45.01
[email protected]
Les Éditions européennes
Rue Thiefry, 82 à 1030 Bruxelles
Rédactrice en chef
Collaborateurs
Géraldine TRAN
Ligne directe: 081/33.44.76
[email protected]
Graphiste
Nathalie BODART
Ligne directe: 081/33.44.91
[email protected]
ISSN 0772 - 4683
Jean-Michel Debry
Alain de Fooz
Paul Devuyst
Julie Dohet
Henri Dupuis
Philippe Lambert
Yaël Nazé
Théo Pirard
Jean-Claude Quintart
Christian Vanden Berghen
Dessinateurs
Olivier Saive
Vince
Comité de rédaction
Laurent Antoine
Michel Charlier
Jean-Marie Cordewener
Couverture
Première
Crédit: REPORTERS
Quatrième
Crédit: I.SHVECOV
3
ATHENA 267 · Janvier 2011
> ACTUALITÉS
Ici
commence
le
4
futur
N
ous ne sommes pas aux
États-Unis, ni au Japon,
mais bien à Mons en
­Wallonie, où Luc ­Langer,
directeur général de
Materia Nova donne le ton ! Dix ans
déjà, dix ans seulement mais le même
enthousiasme, la même passion pour
le futur ! Double anniversaire et double
succès pour Materia Nova et Multitel,
deux fleurons lancés sous l’initiative de
l’Université de Mons (UMons) et soutenus par l’Objectif 1 Hainaut. À l’époque,
les ­cassandres parlaient de trucs en plus,
d’investissements douteux, voués à
l’échec. Aujourd’hui, succès total. Le centre de R&D a déjà signé 10.000 contrats
entreprises, 2.000 contrats et prestations d’expertise, 10 contrats européens
et publié plus de 600 communications
scientifiques. Dans le même temps,
Multitel empochait 5.900 contrats
­d’entreprise, 950 contrats avec l’industrie
et 30 contrats européens. Comme quoi,
en Wallonie, investissements publics
riment avec réussite !
Dédié aux matériaux innovants, Materia
Nova a trois missions: recherche, valorisation des résultats en applications et
formation de chercheurs qualifiés. Pour
ne point dissiper ses efforts, l’institution a
retenu quatre axes parfaitement ciblés: la
chimie des surfaces, l’électronique plasti-
que, les polymères et nano-composites et
enfin, la chimie verte. Avec la même philosophie, Multitel a quant à lui sélectionné
la photonique appliquée en conception
et prototypage de lasers à fibre optique,
de composants passifs et de capteurs
optiques; le traitement du signal et de la
parole dans le développement d’inter­
faces homme/machine multimodales et
le suivi d’objets et de personnes en temps
réel; le traitement de l’image, l’analyse de
scènes et la vision industrielle; la certifi­
cation, notamment en matière ferroviaire;
et les réseaux informatiques, sites Wifi et
téléphonie IP.
Des résultats pour
tous
L’impact des deux acteurs dépasse la
Wallonie. Les vitrages «basse émis­
sivité» les plus performants au monde
résultent des travaux de Materia Nova !
Qui, en matière d’analyse des surfaces
polymères et verres, dispose de ­l’outil
le plus sophistiqué d’Europe ! L’âme
porteuse des câbles haute tension
­traversant l’Amérique latine est encore
le fruit d’une matière composite conçue
par Materia Nova ! De même que le biopolymère du tapis rouge du Festival du
cinéma de Cannes et bleu de la Conférence de Copenhague !
«Demain, vous ne laverez plus
votre voiture, elle se nettoiera
­elle-même grâce à un revêtement
autonettoyant. Elle n’aura plus
d’essuie-glaces, la nano-structuration du pare-brise les aura
rendus inutiles. Le four de ­ ­votre
cuisine reconnaîtra la nature du
plat à réchauffer et adaptera
­automatiquement la cuisson
via des senseurs d’odeurs. Nos
­fenêtres seront des générateurs
d’énergie électrique, grâce à des
cellules photovoltaïques intégrées. Ce monde futuriste est celui
dans ­lequel travaillent nos quatrevingt chercheurs, chimistes, biologistes et physiciens. Ces sujets
bien réels ne sont que quelques
exemples de leur quotidien !»
Texte: Jean-Claude QUINTART
[email protected]
Photo: D. LECUYER
Le Feature Selection, méthode qui synthétise la parole est de Multitel. Ainsi que le
Pulsed Laser, mesures optiques non destructives et d’analyses pour du profil de
dopage d’une couche active d’un semiconducteur; la réalisation d’une source
à émission d’ondes dans les domaines
infrarouge et ultraviolet pour applications en imagerie médicale, métrologie
et spectroscopie; la définition d’un procédé de lecture automatique de bandes
d’enregistrement de données graphiques, notamment axé sur la reconnaissance des données graphiques représentant des événements survenus dans
l’environnement des conducteurs de
locomotives; etc.
Au-delà de ces résultats et de la fertilisation croisée entre les deux unités
de recherche et l’industrie, s’ajoutent
des spin-offs comme IT Optics en logiciels libres; ACIC, solutions logicielles
d’analyse vidéo; SMATWEAR, positionnement et suivi en temps réel du trafic
et des personnes; TECH4RAIL, logiciels et
matériels pour le ferroviaire; et M2PHOTONIX, lasers pour demandes très
spécifiques. 
http://www.materia-nova.com
et http://www.multitel.be
Jean-Claude QUINTART · ACTUALITÉS
Actus...
d’ici et d’ailleurs
Texte: Jean-Claude QUINTART • [email protected]
Photos: ULg/Globalview (p.5), L. VIATOUR (p.6), J-M. BYL (p.8)
R&D
L
Au cœur du pli
es rides de notre peau nous chagrinent, les empreintes digitales
nous confondent, les montagnes
nous fascinent et le cerveau nous émerveille. Que peuvent avoir en commun ces
éléments si opposés les uns aux autres ?
Apparemment rien, sinon que leur structure est le fruit d’un même processus: la
compression d’une «feuille rigide». Tel
est l’un des mystères de la formation des
structures plissées que révèle une équipe
de chercheurs du Laboratoire interfaces &
fluides complexes de l’Université de Mons
(UMONS). Un travail conduit en collaboration avec le Laboratoire de physique des
solides de l’Université de Paris-Sud 11.
«Si vous comprimez une feuille mince
d’un matériau solide, papier ou plastique,
de manière à ce qu’elle reste plane, vous
n’y arriverez pas. Elle se courbera systématiquement sur toute sa longueur, suite
à ce que nous appelons le flambage»,
explique Pascal Damman, professeur
à l’UMONS. «Maintenant, si vous collez
cette feuille sur un substrat mou et épais,
que vous la comprimez à nouveau de la
même manière, il se formera de petites
ondulations extrêmement régulières
caractérisées par une certaine distance,
dites périodes». Pour vous en convaincre,
il suffit de comprimer, entre le pouce et
l’index, la peau du dessus de la main ou
de laisser sécher un fruit !
«En comprimant encore la feuille, les plis
formés se sépareront en deux familles: l’une
verra son amplitude augmenter et l’autre
diminuer ! Bref, un pli sur deux concentre
toute l’énergie de déformation, créant
ainsi une structure avec une période double de la période initiale. Si vous augmentez à nouveau la compression, le même
processus recommencera, conduisant à
un quadruplement de la période initiale et
ainsi de suite !»
De manière inattendue, les chercheurs
de l’UMONS montrent qu’un même
mécanisme régit l’apparition de ces
doublements de période dans les structures plissées et dans les oscillations de
systèmes oscillants comme un pendule
de longueur variable (l’encensoir géant
de Saint-Jacques-de-Compostelle, par
exemple). Et de prouver qu’il existe une
similitude entre les équations décrivant
les oscillations dans l’espace et celles
dans le temps. «Ceci explique la morphogenèse induite par une instabilité mécanique, phénomène fréquent dans la nature à
la fois en physique des matériaux comme
dans les systèmes biologiques dont les
tissus en contact ont des taux de croissance
différents», termine Pascal Damman.
Au-delà d’une meilleure compréhension
dans l’apparition des structures plissées,
ces travaux laissent entrevoir de nombreuses retombées technologiques,
notamment dans le dévelop­pement
de nouvelles méthodes de micro-fabrication pour modeler la matière en
créant des structures micrométriques
régulières. 
http://www.umons.ac.be
et http://www.lps.u-psud.fr
5
Plus d’espace
J
ean-Claude Marcourt, Ministre
de l’Économie et des Nouvelles Technologies du Gouvernement wallon a donné son feu vert à
­l’extension du parc scientifique du
Sart-­Tilman (Liège). La nouvelle zone
devra accueillir en priorité des entreprises à fort potentiel de recherche
susceptibles de collaborer avec les
laboratoires de l’Université de Liège
(ULg). Selon l’entourage du Ministre, la concréti­sation de cette zone
­permettra la création de quelque
2.200 emplois directs et indirects. 
http://marcourt.wallonie.be
ATHENA 267 · Janvier 2011
> ACTUALITÉS
Merci le chien
Q
ui est vraiment notre meilleur
ami ! Grâce à lui, une équipe
du Groupe Interdisciplinaire de
Génoprotéomique Appliquée (GIGA) de
l’Université de Liège (ULg) en sait plus
sur les origines génétiques de la dyskinésie ciliaire primaire (DCP). Avec le chien
comme modèle, dans le cadre du projet
européen LUPA, les chercheurs du GIGA
ont mis en évidence de nouvelles mutations d’un gène spécifique responsable
de cette maladie chez l’homme.
6
Affectant une personne sur 20.000, la
DCP est une maladie génétique rare,
caractérisée par un défaut de mobilité des
micro-cils cellulaires, dont le ­battement
permet d’évacuer les micro-organismes
contenus dans l’air. Aussi, cette entrave
est responsable d’infections respiratoires chroniques. «Si plusieurs mutations
dans une dizaine de gènes sont à l’origine
de cette maladie, elles ­n’expliquent pas
60% des cas chez l’homme. C’est pourquoi, nous nous sommes tournés vers le
chien qui souffre de nombreuses maladies communes, ayant probablement
une même origine génétique. Recourir au
chien malade, à titre d’étude en vue de
repérer les gènes pouvant être également
Tomates tout-terrain
A
vec ou sans crevettes, nous les
aimons bien rouges et bien
juteuses ! Mais comment récolter
de belles tomates là où l’eau est rare et
les sols peu ou pas exploitables ? Michel
Ghanem du Earth and Life Insti­tute de
l’Université catholique de Louvain (UCL)
vient de mitonner une recette nouvelle
par une intervention génétique sur les
impliqués dans l’occurrence d’une même
maladie chez l’homme, est une des dernières tendances en recherche biomédicale»,
explique Anne-Sophie Lequarré, docteur
en charge du projet LUPA.
L’ADN de chiots de race bobtail, souffrant
de bronchites chroniques, a été ­comparé
à celui de bobtails sains. Quelque 40.000
marqueurs génétiques ont permis à
cette analyse d’identifier une région du
chromosome 34 canin associé à la maladie, notamment une mutation au sein
du gène CCDC39. ­Restait alors aux chercheurs à vérifier, avec une ­cinquantaine
d’échantillons, si ces mutations pouvaient expliquer la DCP chez l’homme.
15 mutations différentes de ce gène ont
été relevées, expliquant la moitié des
cas étudiés, soit près de 5% des patients
atteints dans le monde ! «La démonstration de l’implication de ce gène dans
cette pathologie va permettre d’affiner les
conseils aux familles affectées. Au-delà,
ce résultat confirme aussi l’utilité du chien
dans le décryptage rapide de maladies
génétiques humaines complexes», conclut
Anne-Sophie Lequarré. 
http://www.eurolupa.org
racines des plants de tomates résistants
à des stress intenses. Le génie de son
idée saute aux yeux ! En ne s’attaquant
qu’à la modification génétique des racines de la plante, on obtient des tomates
totalement naturelles.
«Jusqu’à ce jour, on ne s’intéressait au stress
qu’au niveau de la plante entière ou de sa
partie aérienne: les feuilles, les tiges et les
fruits», déclare Michel Edmond Ghanem.
En planchant sur leurs racines, l’équipe
de l’UCL faisait œuvre pionnière ! «Une
plante qui est en manque d’eau ou mal
traitée par un sol inadéquat développe
un stress dont ­l’information est transmise via les ­cellules vivantes des racines aux ­parties
aériennes.
Celles-ci développent des mécanismes de
défense, réduction de la consom­mation
en eau, la plante s’épuise et produit moins
de fruits. En revanche, si les racines ont
davantage d’hormones de cytokinine,
elles réagissent mieux au stress, envoyant
un message plus rassurant et plus adapté
aux parties aériennes. La plante lutte plus
efficacement et reste plus longtemps en
vie», poursuit Edmond Ghanem.
Parallèlement, les chercheurs ont noté
que la cytokinine influence favorablement la maturité et la quantité de fruits
produits. Lors de tests menés dans le sud
de l’Espagne sur une centaine de plants
ils ont constaté un rendement de 30%
supplémentaire. Si les plants classiques
donnaient 3 kg de fruits, les plants aux
racines modifiées en produisaient 3,6 !
Et en condition de stress, ils ont prelevé
800 gr de fruits sur les plants classiques
et 1,2 kg sur les plants modifiés. 
http://www.uclouvain.be
Jean-Claude QUINTART · ACTUALITÉS
«Nous allons vers des traitements sélectifs
d’immunociblage qui épargneront
les tissus sains pour se concentrer sur
les seules cellules cancéreuses»,
explique le professeur Vincent Castronovo.
7
Attaque frontale
L
e cancer «y en a marre !». Déclarée
depuis longtemps, la guerre contre
l’ennemi N°1 de l’humanité prend
une nouvelle dimension avec la montée
au combat de Targatome, dernière spinoff de l’Université de liège (ULg) et première de son Groupe Interdisci­plinaire de
Génoprotéomique Appliquée (GIGA) qui
exploite une nouvelle technique d’identification de biomarqueurs spécifiquement surexprimés dans certains cancers
et métastases cancéreuses. «Avec cette
approche, la médecine peut, à terme, envisager de mener une guerre ­propre, ciblée
et personnalisée contre certains types de
cancer», explique avec la passion qu’on
lui connaît Vincent Castronovo, professeur à l’ULg qui vient de breveter cette
nouvelle technique.
Par rapport aux moyens antérieurs,
­l’approche dite «in-vitro method for
screening accessible biological markers
in pathologic tissues» identifie des biomarqueurs aux trois qualités essentielles
d’une cible utile à haute valeur ajoutée: abondance, spécificité et surtout
accessibilité. «Une technique unique qui
identifie des cibles thérapeutiques potentielles par la voie qui sera in fine exploitée
pour l’administration de thérapie ciblée, à
savoir la voie sanguine», précise Vincent
Castronovo. À ce jour, cette méthode a
permis d’identifier une cinquantaine de
biomarqueurs surexprimés et en partie
validés, dans six types de cancer: cancer
du sein, lymphome hodgkinien (tumeur
du système lymphatique), ­glioblastome
(cancer du cerveau), métastases
osseuses, métastases hépatiques et
cancer du pancréas.
Des résultats prometteurs sachant
que ces biomarqueurs sont des cibles
pour les nouveaux programmes
­d’immunociblage au moyen d’anticorps monocionaux adaptés à l’imagerie (anticorps marqués avec un isotope
radioactif pour servir de traceurs et
préciser de manière inégalée le diagnostic) ou pour une thérapie ciblée
(anticorps construits pour délivrer des
substances anticancéreuses exclusivement dans les cellules malades). «Les
traceurs d’imagerie et les anticorps pour
la thérapie ciblée développée au départ
des biomarqueurs de ­Targetome sont une
révolution en oncologie. L’offre d’une réelle
thérapie ­personnalisée concentrera d’un
facteur 100 l’agent toxique uniquement
au niveau des ­cellules cancéreuses du
malade», conclut Vincent Castronovo,
plus heureux que jamais de ne s’être
jamais découragé face au cancer !
Société de R&D en biotechnologie,
­Targetome concédera des licences sur les
cibles validées et brevetées à des entreprises pharmaceutiques. Jeune pousse
qui en veut, elle participe au ­projet
Radiotarget de Biowin pour la mise au
point d’un outil de production de Rhénium-188 pour le marquage d’anticorps
thérapeutiques de nouvelles cibles validées par Targetome dans le traitement
des métastases hépatiques. 
http://www.giga.ulg.ac.be
ATHENA 267 · Janvier 2011
> ACTUALITÉS
Prix Fondation ULB:
cuvée 2010
«L
8
es marchés ne tombent pas
du ciel, ils sont créés et s’adaptent aux évolutions de leur
environnement et selon les besoins des
acteurs économiques», constate Estelle
Cantillon, Prix Fondation ULB 2010 en
Sciences humaines et ­sociales. Et de
s’interroger. Comment sont-ils créés ?
Crée-t-on les bons types de marché ?
S’adaptent-ils de manière optimale
aux évolutions de leur environnement
ou évoluent-ils sous la contrainte ?
D’où son idée d’analyse, par des cas
d’étude des mécanismes de création
et d’évolution de certains marchés.
Pour trouver ses réponses, Estelle
Cantillon articulera ses recherches
autour de trois axes: la documentation de cas de création de marché;
la constitution de modèles mathématiques pour étudier les propriétés de
certaines ­formes d’organisation de
marchés et prévoir leur évolution; le
dévelop­pement de nouvelles méthodes économétriques en vue d’analyser
les données issues de la création et de
l’évolution de certains marchés.
Prix Fondation ULB 2010 en Sciences
de la vie, Cédric Blanpain entend comprendre le rôle des cellules souches cancéreuses dans la croissance tumorale et
la résistance aux traitements médicaux.
En marquant et en isolant les cellules
souches de la peau, il est aujourd’hui
À la conquête du
monde!
I
l s’appelle chitine-glucan, développé
par la société wallonne KitoZyme de
Liège dans le cadre du projet WalNut-20, il part à l’international grâce à
un partenariat stratégique conclu avec
la société américaine Stratum Nutrition,
du groupe Novus International de Saint
Charles (Missouri).
Le chitine-glucan est un copolymère,
obtenu au départ d’une source fongique,
le Mycelium Aspergillus Niger, de la famille
des Ascomycètes, dont il est le constituant principal des parois cellulaires de
possible d’étudier la relation entre les
cellules souches normales et les types
de cancers cutanés. Par son projet,
Cédric Blanpain veut «connaître le rôle
des cellules souches de la peau dans l’initiation et la croissance tumorale». Plus
précisément, il souhaite «déterminer si
les cellules souches de la peau sont les
cellules cibles initialement mutées dans le
développement des cancers cutanés, si les
cancers cutanés contiennent des cellules
souches cancéreuses et si ces dernières
contribuent à la croissance tumorale et
aux récidives après traitement».
Son projet se situe en topologie symplectique et de contact, discipline spécialisée de la géométrie différentielle.
«La géométrie de contact est l’étude
­d’espaces géométriques munis de structures particulières dites de contact. C’est
en particulier le cadre naturel de ­l’optique
géométrique», explique Frédéric Bourgeois, Prix Fondation ULB 2010 en
Sciences exactes et naturelles. «Les sousvariétés legendriennes sont des objets
remarquables et importants en géométrie de contact et qui correspondent aux
fronts d’onde en optique», précise Frédéric Bourgeois qui étudie deux invariants
sophistiqués pour les sous-variétés
legendriennes: l’homologie de contact
legendrienne et ­l’homologie pour
familles génératrices. «Le but principal
est d’établir un lien précis et fort entre ces
invariants, pour étudier les sous-variétés legendriennes, voire d’en ébaucher la
géographie. De ce lien entre invariants de
types différents obtenir des informations
pour mieux saisir l’homologie de contact.
ce champignon microscopique. À partir
de cette source naturelle, renouvelable et
non allergène, KitoZyme a développé un
bio-polymère innovant et fabriqué dans
le respect de l’environnement. Activité au
niveau des problèmes cardiovasculaires
et prévention des stress oxydatifs sont les
grands atouts de cette molécule que Stratum Nutrition intègrera à sa panoplie de
produits finis destinés à la santé du cœur
et au bien-être.
Entreprise fondée en 2000, KitoZyme
développe des ingrédients de spécialité
Cancer et cellules souches…
vie et passion de Cédric Blanpain
dont la perspicacité des questions
a soulevé l’enthousiasme
de la Fondation ULB.
Le tout en espérant arriver à de nouvelles
avancées en géométrie de contact».
Ces trois projets ne pouvaient que retenir l’attention de la Fondation ULB dont
l’ambition est de développer des écoles
de pensée du futur autour de jeunes
talents qui, grâce à ce Prix, réaliseront un
saut quantique dans leur domaine. 
http://www.fondation-ulb.org
d’origine végétale pour produits nutraceutiques, boissons, produits pharmaceutiques et médicaux. L’entreprise est
une référence du Pôle WagrAlim, qui
fédère aujourd’hui plus de 180 acteurs
wallons autour de projets construits en
réseau collaboratif. Son programme WalNut-20 a ainsi mobilisé une vingtaine
de partenaires, soit plus de 100 salariés
pendant quatre ans, dans le but de soutenir des allégations santé sur les matières grasses polyinsaturées, les fibres et
les polyphénols. 
http://www.kitozyne.com;
http://www.stratumnutrition.com
et http://www.wagralim.be
Jean-Claude QUINTART · ACTUALITÉS
Coup d’crayon
Illustration : Olivier SAIVE/CartoonBase
Le chiffre
... ans déjà que, Nicolas Hulot
créait sa Fondation Nicolas Hulot
pour la nature et l’homme.
L’hiver a commencé dès novembre avec des quantités de neige
que l’on avait plus vues depuis des dizaines d’années,
avec des conséquences assez catastrophiques et pour certains,
qui n’ont pas eu la chance de migrer, un confinement forcé !
Dans le top mondial !
C’
est la crise, tout va mal, etc. ne sont finalement que
des impressions dues au changement de paradigme
que vit notre économie. Ainsi, pour Nature Reviews,
avec 200 entreprises pharmaceutiques et biotechnologiques,
notre pays constitue un véritable bassin biopharmaceutique.
Et dans son édition de novembre 2010, la célèbre revue d’aller
plus loin encore en affirmant que la Belgique figure parmi les
dix bio «pharma valleys» les plus innovantes au monde !
Elle relève aussi l’importance de la contribution de la pharmacie belge quant à l’origine des brevets des médicaments auto-
Son but: défendre le climat
et les économies d’énergie; ­l’alimentation durable et
­solidaire; la biodiversité et les
territoires; la gestion durable du
littoral et des milieux marins.
http://www.fondationnicolas-hulot.org
risés sur le marché américain. Avec 26 mentions de brevets, la
Belgique occupe la 8e place du classement mondial, après des
pays dits pharmaceutiques comme la Suisse (30), la France (46),
la Suède (60), l’Allemagne (67), le Japon (100) et le RoyaumeUni (115); les États-Unis, avec 838 mentions, se taillant la part
du lion.
L’excellente collaboration entre le monde médical et les entreprises du pharma est la clé de voûte de ce succès. Des firmes
qui ne rechignent jamais à l’investissement de masse en R&D.
Actuellement, 5.000 salariés travaillent à plein temps en R&D,
dont 3.400 scientifiques. 
http://www.nature.com
Petites fioles pour grosses retombées,
le pharma booste aujourd’hui
notre essor économique !
9
ATHENA 267 · Janvier 2011
> ACTUALITÉS
Texte : Paul DEVUYST • Photo: Saga Photo/REPORTERS
Pour
transmettre
un monde habitable
10
Paul DEVUYST · ACTUALITÉS
U
ne certaine confusion
des esprits règne encore
sur les contours d’une
notion présentée il y a
une vingtaine d’années
comme une innovation majeure de la
pensée et de l’action quant au devenir
des sociétés humaines. Beaucoup de
personnes ont encore aujourd’hui une
perception du développement durable uniquement liée à l’environnement
alors que ce concept cherche en réalité à améliorer les liens entre l’activité
depuis cette époque, il s’est développé
petit à petit au sein du monde politique,
scientifique, associatif, économique
et social belge. Néanmoins, il semble,
d’après les échanges de vue, que pour
certains, la notion de développement
durable révèle principalement une
équité au sein des générations et entre
elles, tandis que d’autres inscrivent
cette notion au sein de différents problèmes tels que la santé, la pauvreté, le
chômage, l’environnement, l’éducation,
les crises économiques.
La Fondation pour les Générations Futures
et ses partenaires entend développer
une série de Prix d’excellence
à l’intention des chercheurs
en faveur d’un développement durable
économique, les conditions de vie des
citoyens et l’évolution de leur environ­
nement naturel. Il se structure donc
sur ces trois piliers sans donner plus
­d’importance à l’un par rapport à l’autre
mais en tenant compte des éléments
temporels (aujourd’hui et demain) et
spatial (ici et ailleurs).
Tel était le point de départ du débat
organisé en décembre dernier par la
Fondation pour les Générations Futures sur le thème de «L’intégration des
­principes de développement durable dans la recherche scientifique et
­l’enseignement supérieur» et auquel
participaient les Ministres Nollet,
­Marcourt et Cerexhe (ou leur représentant), chargés de la recherche scientifique, des nouvelles technologies ou de
­l’enseignement supérieur; des représentants du monde académique (les Professeurs Éric ­Lambin de l’UCL, ­Jacques
Defourny de l’ULg et Marc Labie de
l’UMONS) ainsi que des responsables
de la société civile.
Une notion bien
assimilée
Le concept du développement durable
a été défini pour la première fois lors du
«Sommet de la Terre» à Rio en 1992 et
«La recherche et la formation sont les clés
pour mettre en œuvre de nécessaires innovations soutenables et créer une évolution
vers de nouveaux paradigmes afin de faire
émerger des réponses soutenables aux
enjeux multiples et complexes auxquels
devront faire face les générations futures»,
devait déclarer Benoît Derenne, directeur de la Fondation pour les Générations
futures.
Dans le cadre des «Higher Education
& Research Awards for Future Generations» (HERA), trois Prix ont été créés
à ­l’intention d’étudiants ayant intégré
l’approche transversale et systémique
d’un développement durable. Il s’agit
de recompenser un «Master’s Thesis
Award for Future Generations», un «PhD
Starter Scholarship Award for Future
Generations» et enfin, un «Doctoral Thesis Award for Future Generations». Dans
un premier temps, ce dernier couvre
l’ensemble des institutions universitaires
en ­Belgique francophone et cette bourse
sera ­destinée à soutenir la diffusion des
résultats de la thèse au sein du monde
­académique et de la société civile.
L’appel à candidature est ouvert
jusqu’au 1er mars 2011 et le Prix sera
attribué en mai 2011. 
L
a F ondation pour les Géné­
rations Futures (fon­da­tion
d’utilité publique), est née en
1998, avec la volonté d’appuyer
l’émergence et le développement
de projets concrets et de réflexions
liés au concept de développement
soutenable, dans ses aspects de
changements de société: justice
sociale, solidarité, égalité des
chances, équilibres écologiques,
maîtrise démocratique des choix.
La Fondation a conçu HERA,
une initiative qui a pour but
d’encourager la prise en compte
des principes du développement
durable dans les parcours de
formation et de recherche des
étudiants et doctorants ainsi
qu’auprès des promoteurs de
travaux de recherche.
Pour plus d’infos
http://www.fgf.be
Benoît Derenne, directeur,
0474/756 206 ou
[email protected]
11
ATHENA 267 · Janvier 2011
> Dossier
I
N
T
E
R
V
I
E
W
Bilan de la Présidence belge de l’Union
européenne en matière de Recherche
Œuvrer à la
simplification
pour booster
l’innovation
Les six mois de Présidence belge de l’Union européenne, ­entamés
en juillet dernier, se soldent par une note globalement ­positive.
Dans le domaine de la Recherche, les débats visaient avant
toute ­chose à dégager des pistes tendant à encourager
­davantage ­encore les passerelles entre recherche, innovation et
­enseignement supérieur, avec pour objectif premier de ­développer le
potentiel européen pour, à terme, transposer les résultats en ­retombées
économiques et en emplois
12
Propos recueillis par: Julie DOHET · Photos: M.VANHULST/MRBC (pp.12 et 13), I.SHVECOV (p.14)
E
En 6 mois, la Présidence belge,
sous la houlette
de Benoît Cerexhe,
Ministre de la Recherche de la
Région Bruxelles-Capitale,
a organisé près de 35 événements liés à la thématique de
la Recherche et de l’Innovation
n se penchant sur un nouveau Plan européen pour
la Recherche et l’Inno­
vation, les 27 ont dégagé
des ­pistes qu’ils ont voulues très concrètes et, pour certaines,
entrant en application dès aujourd’hui,
dans le cadre du 7e Programme-cadre de
l’Union européenne. Les mots-clés sont:
cohérence, synergie, simplification, libre
circulation des connaissances et innovation. Le point avec Benoît Cerexhe,
Ministre de la Recherche pour la Région
de Bruxelles-Capitale, chargé de mener
les débats.
Q
uels ont été les éléments phares
de la Présidence belge en matière de Recherche ?
Nous avons eu deux opportunités
extraordinaires puisque c’est sous Présidence belge que la Commission a
développé son Plan pour l’Innovation
qui est la vision qu’a l’Union euro-
péenne de la politique à mener pour
la Recherche et l’Innovation dans les
dix prochaines années dans toute l’Europe. C’est sous notre présidence qu’on
a eu l’occasion de débattre de manière
commune et pour la première fois entre
les 54 ministres concernés. Ministres de
la Recherche et de l’Industrie (NDLR:
avec la co-présidence du Ministre JeanClaude Marcourt) ont ainsi travaillé sur
les applications économiques des politiques de Recherche puisqu’on se rend
compte qu’en Europe, les répercussions
économiques des ­travaux de recherche
sont moindres que dans d’autres pays
comme les États-Unis ou la Chine.
La seconde opportunité, c’est que
­Herman Van Rompuy, Président du
Conseil européen en exercice, a décidé,
pour février, de programmer un Conseil
d’État des chefs et des gouvernements
spécifiquement dédicacé à l’innovation.
Donc, au plus haut niveau européen,
on va enfin se projeter dans l’avenir.
Julie DOHET · Dossier
Nous avons eu, sous Présidence belge,
­l’opportunité de préparer ce Conseil
européen. Je trouve très positif qu’au
plus haut niveau, on décide de consacrer du temps aux politiques à mener
dans ces secteurs.
C
oncrètement, qu’est-ce qui sera
mis en place à l’échelon européen,
malgré les inégalités entre les pays ?
Aujourd’hui, il est vrai que les pays
européens ne sont pas au même niveau
en matière de recherche. L’objectif des
3% du PIB prévu à la fin 2010 dans le
cadre de la stratégie de Lisbonne (1) n’a
pas été atteint. Il y a un certain nombre
de pays, essentiellement les pays nordiques, qui dépassent parfois ce cap des
3% mais la moyenne européenne est
de 1,9% du PIB (la Belgique se situant
dans cette moyenne). Si l’on voulait
arriver à ces 3% dans les dix prochaines
années, ce qui reste notre objectif, nous
devrions doubler les budgets publics
octroyés à la recherche ! Il y a donc des
efforts considérables à effectuer. Nous
ne sommes pas tous au même niveau
mais lorsque l’on considère la concurrence avec les autres pays comme les
États-Unis, l’Inde, le Japon, la Chine, on
se rend compte que si on n’intègre pas
davantage nos politiques en matière de
recherche, si on ne développe pas plus
de collaborations, plus de synergies,
nous ne parviendrons pas à jouer dans
la cour des grands.
I
l faut donc changer radicalement
de méthodes...
Nous savons qu’une entreprise qui
­n’innove pas a deux fois moins de chances de survivre qu’une entreprise innovante. Nous sommes face à ­l’enjeu de
demain ! Nous nous devons de ­collaborer
davantage, de développer des ponts,
des partenariats, de partager des infra­
structures entre partenaires européens.
Aujoud’hui, plus personne ne pourrait se
permettre de financer seul les grandes
infrastructures en matière de recherche !
Or, lorsque l’on fait l’addition de tous les
budgets des pays et qu’on compare le
résultat au budget européen consacré
à la recherche, on remarque qu’actuellement, 95% des moyens sont dans les
mains des pays (NDLR: ou des Régions)
et 5% seulement dans les mains de
­l’Europe. Il y a une réelle nécessité ­d’aller
de l’avant dans cette intégration, dans
cette nouvelle collaboration des différents pays au sein des projets européens. Je pense qu’il faut que l’on puisse
émettre des propositions qui suscitent
l’adhésion de la population mais également celle du monde de l’entreprise et
du monde scientifique, afin que ce Plan
pour ­l’Innovation, au-delà de ses principes, soit réellement mobilisateur.
Q
uelles sont les propositions qui
ont été envisagées ?
Les ministres ont donné leur accord de
principe sur le développement de par-
tenariats dans le domaine du vieillis­
sement de la population en poursuivant
l’objectif qu’en Europe, dans dix ans, on
puisse vivre en moyenne deux ans de
plus qu’actuellement. Comment faire
pour atteindre cet objectif en incluant
les différents intervenants en matière
de santé en Europe ? En développant
des partenariats soutenus par des fonds
européens entre les infrastructures, les
milieux de recherche et les entreprises.
Autre exemple, touchant les PME: à
l’heure actuelle, les jeunes entreprises
innovantes ont des difficultés à obtenir du capital à risque. Nous avons proposé de créer un fonds de financement
européen.
Enfin, en ce qui concerne le monde
scientifique, il est évident qu’il y a encore
dans l’Europe actuelle trop d’obstacles à
la mobilité des chercheurs, notamment
parce que les statuts en matière de sécurité sociale ne sont pas identiques. Il y a
aujourd’hui une volonté d’harmoniser
les choses, comme dans le cas des pensions des chercheurs, par exemple.
Ces principes, au travers de ce nouveau
Plan pour l’Innovation qui plaide donc
pour plus d’intégration, plus de complémentarité, plus de synergie, nous allons
les décliner dans des mesures concrètes
et, en tant que ministres de la Recherche
et ministres de l’Industrie, nous avons
décidé d’une road map indiquant ce que,
13
ATHENA 267 · Janvier 2011
> Dossier
tion du monde scientifique et du monde
de l’entreprise pour déterminer ce qu’il
faut impérativement changer pour le
prochain Programme-cadre débutant
en 2014. Il s’agira notamment de faire
davantage confiance aux chercheurs
et de mener une politique axée sur les
résultats, tout en restant prudent afin
que les chercheurs ne soient pas tentés
de présenter des projets peu risqués par
peur d’une évaluation négative de leur
travail de recherche.
C
oncrètement, quels seront les
changements notoires ?
Aujourd’hui, il y a des contrôles et des
audits en permanence, qui ne tolèrent
quasiment aucune marge d’erreur et qui
ne tiennent pas compte des résultats.
Demain, nous devrions avoir un système
de financement qui pourrait s’envisager
de manière forfaitaire, qui devrait tenir
compte des résultats et qui devrait pouvoir accepter des marges d’erreur financières d’un pourcentage plus généreux que
ce qui est d’application actuellement. On
doit pouvoir contrôler les deniers publics,
évidemment, mais il faudra veiller à ne pas
tomber dans l’excès contraire qui pourrait
être que l’on ne dépose plus de projets ou
que l’on doit sans cesse se justifier au lieu
de se consacrer à sa recherche.
14
+
Pour en
savoir plus
http://www.cerexhe.irisnet.be/
http://www.eutrio.be/
http://www.rib.irisnet.be/
(1)
Porter à 3% du PIB le
niveau cumulé des investissements publics et
privés dans le secteur de
la Recherche.
année après année, nous souhaitons qui
soit entrepris. Il ne s’agit donc pas d’une
simple lettre d’intention: nous ferons un
bilan semestriel.
L
a simplification était également
au cœur des débats...
Nous avons travaillé en deux étapes sur
ce projet de simplification. Nous avons
fait adopter au Conseil européen du mois
d’octobre quinze mesures de simplification des programmes européens. Il s’agit
de mesures très simples qui vont de la
réduction des délais à la non obligation
d’ouvrir un compte porteur ­d’intérêts au
profit de la Commission, en passant par
la réglementation des contrôles effectués, dans le but de les rendre un peu
plus souples. Ces améliorations sont déjà
d’application dès maintenant, elles sont
en train d’être implémentées par la Commission dans le cadre du 7e Programmecadre. Nous avons également mandaté la
Commission de faire une large consulta-
Cette volonté de simplification devrait
donc permettre de booster les résultats
et les retombées économiques sous
forme, notamment, de création de startup dans le paysage européen.
A
vez-vous posé des balises au
­niveau des objectifs à atteindre ?
Nous avons reconfirmé l’objectif en
terme de pourcentage du PIB affecté à
la recherche. L’objectif des 3% tel qu’il
était prévu et tel qu’il n’a pas été atteint
figure de nouveau dans les objectifs
pour les dix prochaines années.
Pourquoi atteindrions-nous à l’avenir
cet objectif alors que certains pays européens n’y sont pas parvenu ? Premièrement, la volonté politique aujourd’hui,
elle est là autour de la table et elle
concerne tous les pays. Elle était sans
doute moins prégnante il y a dix ans
qu’elle ne l’est maintenant. Même en
période de crise, où la plupart des états
doivent faire des économies, s’il y a bien
un domaine dans lequel il ne faudra pas
Julie DOHET · Dossier
opérer de réductions de budget, c’est
celui de la Recherche et de l’Innovation. L’Allemagne et la France l’ont très
bien compris or, je ne suis pas persuadé
qu’ils auraient eu le même type de politique il y a dix ans. Ils ont fait leur plan
de restructuration, leur plan d’assainissement en boostant les secteurs de la
Recherche et de l’Innovation ! De plus,
si les chefs d’état consacrent, en février
prochain, un sommet à cette problématique, c’est parce que, même si l’on
s’en rend compte avec un peu de retard,
c’est devenu un enjeu fondamental du
développement de l’Europe. Celle-ci
demandera aussi, au travers des plans
nationaux de Recherche, de déterminer
par quels moyens on pourra atteindre
cet objectif. Un monitoring, un suivi
de la manière dont chaque état implémente cet objectif des 3% est prévu.
V
ous plaidez pour plus de
­cohérence et de synergie.
Le revers de la ­médaille de cet
­encouragement fait aux chercheurs
à travailler ­davantage encore
­ensemble ne ­serait-il pas, ­justement,
une ­complexification des conditions
d’obtention des subsides et des
conditions de travail ?
L’objectif n’est certainement pas de
complexifier les choses. Il y a un consensus, une unanimité, que ce soit au Parlement, à la Commission ou dans les États,
pour dire qu’on est allé trop loin et qu’on
ne va pas rajouter une couche de complexité. L’objectif n’est pas de créer des
difficultés ou des entraves supplémentaires... bien au contraire ! Si l’on considère la difficulté que nous rencontrons
pour travailler ensemble en Belgique au
niveau des centres de recherche parce
qu’il y a des divergences linguistiques,
­communautaires ou philosophiques
entre les réseaux dans nos universités,
il paraît évident que pour avancer, nous
devons parvenir à transcender tout
Leur redonner
le goût
des sciences
cela, chez nous comme en Europe, pour
devenir compétitifs au niveau mondial. Le protectionnisme et le «chacun
pour soi» en recherche n’ont pas de
sens dans une concurrence à l’échelon
international.
D
es collaborations avec l’Afrique
et l’Asie ont également été mentionnées...
Nous ne souhaitons pas, au niveau européen, que la recherche soit l’apanage des
pays riches. Nous souhaitons proposer
notre aide à un certain nombre de pays
africains afin qu’ils puissent collaborer à
des recherches et développer de nouveaux projets, au travers d’un soutien de
l’Europe à la formation des chercheurs
et au développement de collaborations
sur des projets de recherche menés ici
ou dans ces pays. C’est la volonté, dans
le chef de l’Europe, de les aider à trouver des moyens pour s’en sortir avec,
notamment, des impulsions envisagées
dans des secteurs utiles pour le développement de l’Afrique. Les conclusions du
Sommet Union européenne-Afrique de
novembre 2010 ont été alimentées par
une recommandation qui plaide notamment pour une meilleure complémentarité entre la coopération bilatérale et
bi-régionale.
D’autre part, le Sommet Inde-UE, qui
s’est tenu en décembre, a convenu que
les deux parties se coordonneraient
davantage pour faire face aux grands
défis sociétaux. Ceci devrait déboucher
sur un projet pilote de coopération dans
le domaine de la gestion des ressources
aquatiques. 
N
ous sommes confrontés, en
Europe et plus spécifiquement
en Belgique et en Communauté française, à une diminution du nombre de
jeunes entamant des études scientifiques pouvant découler sur des carrières consacrées à la recherche. En
Région bruxelloise, sous l’impulsion
de Benoît Cerexhe, plusieurs actions
de communication ont été menées,
ces derniers mois, pour sensibiliser
les candidats
potentiels de
demain.
Déclinée sur le
thème «Plus
tard, je serai…
scientifique»,
cette
vaste
campagne de sensibilisation aux
métiers de la science s’ouvre sur un
espace de parole et de rêve où chacun
peut laisser voguer son imagination et
se projeter en réparateur de la couche
d’ozone, exterminateur de virus ou
encore activateur de neurones.
Un appel à micro-projets a été lancé
auprès des écoles, des mouvements
de jeunesse et du monde associatif
avec pour cible la mise sur pied de
petits projets nourris par l’objectif de
sensibiliser les plus jeunes aux enjeux
et défis technologiques de demain.
Pas moins de 25 projets ont reçu un
soutien, parmi lesquels un poulailler
pédagogique, une pièce de théâtre
mettant Darwin en scène ou encore
un laboratoire de microchimie des
gaz.
Enfin, l’exposition de photos grand
format (voir ci-contre) intitulée
«euREKA, 48 chercheurs sous la
loupe», accrochée aux grilles du Parc
Royal et à la Gare Centrale de Bruxelles, dressait le portrait d’une petite
cinquantaine de scientifiques, tous
domaines confondus, dans le but de
démystifier la figure du chercheur
auprès du grand public.
Toutes les infos sur:
http://www.plustardjeserai.eu/
15
ATHENA 267 · Janvier 2011
> PORTRAIT
L’ADN de...
Propos recueillis par Géraldine TRAN • [email protected]
Photos: BSIP/REPORTERS (fond), L. BATY © SPW-DGO4 (Sigillée)
Côté pile
Nom: RICHARD
Prénom: Julian
Âge: 29 ans
État civil: Célibataire
Enfants: aucun
16
Profession: Archéologue.
Chercheur en post-doctorat (FWO) à la Katholieke Universiteit Leuven (KUL), Julian est
spécialisé en architecture romaine du ProcheOrient.
Formation:Études
secondaires à l’Institut
Saint-Joseph de Ciney.
Candidatures en histoire
de l’art, archéologie et
musicologie aux Facultés
Universitaires NotreDame de la Paix de
Namur. Licence en
histoire de l’art,
archéologie et musicologie à l’Université
Catholique de Louvain
Adresse(s):
Sagalassos Archaeo­
logical Research Project
Blijde-Inkomststraat, 21
Bus 3314
3000 Leuven
Tél.: 016/32.47.19
Archéologue, c’est une vocation que
vous avez depuis tout petit ? Comment l’idée d’exercer ce métier vous
est-elle venue ?
Aussi loin que je me souvienne, archéologue a toujours été LE métier que j’ai eu
envie d’exercer. C’est une bande dessinée
ayant pour cadre l’Égypte ancienne qui a
tout déclenché. Les histoires de momies,
pharaons, dieux et déesses animaient
mes séances de dessin à l’école primaire,
au grand désespoir de mes professeurs
qui auraient parfois voulu m’entendre
parler d’autre chose !
Comment devient-on archéologue ?
La découverte du latin et du grec en
secondaire a aussi été une vraie révélation pour moi. Au moment d’entrer à
l’université, mon choix s’est tout de suite
porté sur l’histoire de l’art et l’archéo­
logie, une formation dispensée dans la
plupart des universités belges. Contrairement à ce qu’on pourrait penser, ces études ne nécessitent pas obligatoirement
un profil «littéraire». Des sciences exactes
telles que la géologie, la botanique, la
zoologie ou la chimie sont des disciplines auxquelles l’archéologue est souvent
confronté.
Quels sont vos rapports avec la
science ? Quels sont vos premiers souvenirs «scientifiques» ?
L’archéologue d’aujourd’hui a pour objectif de reconstituer la vie du passé dans
tous ses aspects. Nous ne sommes plus
des découvreurs de beaux objets qui finissent dans des musées. Notre démarche est
purement scientifique, dans le sens où elle
consiste à d’abord poser des questions,
à définir des problèmes et à les résoudre
en appliquant toute une série de techniques rigoureuses. La fouille et le travail
de terrain restent la base de notre métier,
même si cela n’occupe qu’une partie de
notre temps. L’archéologue passe beau-
coup plus de temps derrière son bureau
à effectuer ses recherches et publier ses
résultats. C’est quelque chose dont on ne
se rend pas toujours compte. Mes premiers souvenirs «scientifiques» se rapportent précisément à cela: passer des heures
en bibliothèque pour rechercher des infos
sur une statuette égyptienne, en première
année. Ce n’est pas forcément ce à quoi on
s’attend en entamant des études avec le
goût de l’aventure.
Quelle est la plus grande difficulté
rencontrée dans l’exercice de votre
métier ?
Soyons honnêtes, il s’agit d’une filière
dans laquelle il est plus difficile d’avoir
une carrière stable. La recherche universitaire, surtout dans des domaines perçus
comme plus «littéraires» ou «traditionnels» dépend de financements souvent
aléatoires. On reste tributaire de contrats
de recherche à durée déterminée pour lesquels il y a une grande concurrence. Beaucoup d’appelés, peu d’élus…
Quelle est votre plus grande réussite
professionnelle jusqu’à ce jour ?
Ma thèse de doctorat, sans aucun doute.
Parce que j’y ai investi quatre années de
ma vie.
Vous êtes régulièrement amené à travailler à l’étranger, notamment en Turquie, les voyages, ça devait faire partie
du «package» d’emblée ou c’est une
chose indépendante qui est venue de
fil en aiguille ?
Voir du paysage est évidemment une
des motivations premières des passionnés d’archéologie. J’ai la chance de travailler depuis 2004 pour le Sagalassos
­Archaeological Research Project de la
Katholieke Universiteit Leuven. Tous les
étés, notre équipe passe deux mois à
fouiller et restaurer une ville romaine de
Turquie. Il est clair que sans ce dépayse-
Géraldine TRAN · PORTRAIT
Julian RICHARD
ment et la confrontation avec d’autres
cultures, le métier aurait pour moi beaucoup moins d’attraits.
Quels conseils donneriez-vous à un
jeune qui aurait envie de suivre vos
traces ?
Faire ce qu’on a envie de faire. Même si
les possibilités de carrière sont limitées,
je n’ai jamais regretté d’avoir fait des
études si passionnantes. Elles apportent
un solide bagage culturel et préparent
à toute une série de métiers autres que
l’archéologie en tant que telle. Le secteur
culturel, le journalisme, le monde de l’édition, les musées et galeries d’art regorgent
d’anciens étudiants en histoire de l’art et
archéologie. 
Côté face
Je vous offre une seconde vie, quel
métier choisiriez-vous ?
Peut-être grand reporter. L’appel du
voyage, toujours… Je peux m’émerveiller
pendant de longues minutes devant un
long article de journal bien écrit.
Je vous offre un super pouvoir, ce
serait lequel et qu’en feriez-vous ?
Utiliser une machine à remonter le
temps, cela va de soi ! Avec une petite
préférence pour un voyage dans l’Égypte
pharaonique.
Je vous offre un auditoire, quel cours
donneriez-vous ?
J’aimerais beaucoup être à la place
­d’Indiana Jones quand il dit à ses étudiants «un X n’indique jamais, jamais
l’emplacement d’un trésor».
Je vous offre un laboratoire, vous plancheriez sur quoi en priorité ?
Je reste persuadé que l’archéologie est
quelque part un «luxe» pour notre société.
Même si comprendre le passé reste essentiel pour fonder notre vie présente et
future, je privilégierais la recherche sur le
cancer. Question de priorités…
+
Plus d’infos:
http://www.sagalassos.be
http://www.kuleuven.be/
[email protected]
Je vous transforme en un objet, ce
serait lequel et pourquoi ?
En truelle bien sûr, la vieille compagne
indispensable et inséparable de l’archéologue… et non pas le fouet ou le chapeau
comme certains le pensent ! 
17
ATHENA 267 · Janvier 2011
> TECHNOLOGIE
18
Fracture
numérique:
deuxième round !
Texte : Alain de FOOZ • [email protected]
Photos: REPORTERS (pp.18 et 20), TR ROBERTS (p.20) TECHNOFUTUR TIC (p.21)
Alain de FOOZ ·TECHNOLOGIE
«
Vos enfants sont régulièrement sur Facebook, font de
la musique ou du théâtre ?
Bien. Et si, par ailleurs, ils
sont ouverts à la philosophie et aux mathématiques, démontrant
par là leur intérêt pour l’abstraction, c’est
encore mieux, s’exclame Bruno Schröder,
Expert en Technologie chez Microsoft
Belgique. Ils éviteront la fracture numérique. Et auront, demain, plus de chance de
s’insérer dans le monde du travail.»
La fracture numérique apparue au
début des années nonante n’auraitelle donc pas disparu ? Elle a changé
de nature, répondent IDC et Microsoft.
Hier, elle était liée à la capacité d’accéder financièrement à la technologie;
aujourd’hui, elle est davantage sociale
dans le sens où elle concerne la capacité à s’impliquer dans des dynamiques
«participatives» ou «collaboratives»,
dont les réseaux Facebook ou Twitter
sont les meilleurs exemples.
La fracture numérique
toujours là
Tous sur Facebook?
Dans cinq ans, 90% des emplois belges
nécessiteront des connaissances infor­
matiques, affirment en chœur Microsoft
et l’institut de recherche IDC. À l’origine
de cet ordre de grandeur, une vaste
enquête menée en Europe démontrant
que la crise économique accélère le
besoin de combler le fossé qui sépare les
compétences disponibles sur le marché
du travail et les besoins des entreprises.
«Demain, assure Bruno Schröder, nous
devrons tous afficher des connaissances
informatiques dans notre C.V. !»
N’importe qui peut publier sur Twitter
ou mettre à jour son profil sur Facebook. Mais tout le monde ne le fait pas.
Ce ne serait d’ailleurs pas une question de génération. Ici et là, à travers
diverses études, on a pu démontrer
que tous les «digital natives» (natifs
numériques) ne sont pas hyperconnectés, alors que certains seniors sont
de vraies locomotives ! En fait, la fracture numérique est davantage liée à la
personnalité de chacun, à notre capacité à nous inscrire dans de nouveaux
usages.
Dans cinq ans, 90% des emplois belges nécessiteront
des connaissances informatiques.
Nos jeunes y sont-ils préparés?
Non, assurent les spécialistes qui voient se dessiner
une nouvelle ­fracture numérique, liée non plus à l’accès
à la technologie, mais à ses usages.
En Belgique ou ailleurs, près d’un tiers des
emplois (31%) exigeront de pouvoir utiliser des terminaux technologiques, 28%
réclameront des connaissances informatiques de base et 19% des connaissances
informatiques avancées… Nos jeunes
sont-ils prêts ? Pas sûr. Si la pratique des
réseaux sociaux et l’ouverture aux mathématiques et plus encore à la philosophie
prônées par Bruno Schröder favoriseront
leur insertion dans le monde du travail,
on ne peut négliger les «laissés-pourcompte» du numérique, plus nombreux
qu’on ne l’imagine.
L’étude «Les jeunes off-line et la fracture
numérique - Les risques d’inégalités
dans la génération des natifs numériques» de la Fondation Travail-Université
de Namur présentée fin 2009 fait le
même constat: de par leurs usages, les
jeunes ne sont pas égaux face aux TIC
(Technologies de l’Information et de la
Communication).
Pour les auteurs, Périne Brotcorne, Luc
Mertens et Gérard Valenduc, il faut se
méfier de l’emphase médiatique habituelle qui présente les jeunes comme
une génération homogène capable
d’adaptabilité et de compétences
multi-usages des technologies. À peine
5% des jeunes seraient totalement «offline», mais 9% le seraient «quasiment».
Il faut comprendre par là que 14% n’utilisent pas du tout Internet ou rarement,
voire de manière intermittente ou limitée à quelques usages élémentaires.
Qui sont ces jeunes dits «off-line» ? Des
personnes ayant vécu un décrochage
scolaire, une inégalité sociale très marquée chez les 20-24 ans - les jeunes
primo-arrivants et les illettrés sont évidemment sur-représentés; le niveau
d’instruction faible ou moyen est une
composante essentielle d’exclusion des
nouvelles technologies.
Les TIC seraient-ils
misogynes ?
Les usages d’Internet de ces jeunes
sont révélateurs. Clavardage, recherche d’informations et enregistrement
de musique sont les usages les plus
répandus. Un tiers (36%) seulement
des jeunes s’estiment capables de réaliser des tâches élémentaires; les usages
commerciaux et administratifs, comme
le simple fait de remplir un formulaire
en ligne, étant plus rares. D’ailleurs,
quel que soit le degré de familiarité des
jeunes avec les TIC, ils sont nombreux à
considérer que leurs compétences ne
sont pas suffisantes par rapport aux
exigences du marché du travail.
L’apprentissage par la pratique et
l’aide du réseau de relations sont
des
­modalités
très
fréquentes
­d’apprentissage, à côté des canaux
­formels d’enseignement, nous apprend
encore la Fondation Travail-Université.
Connaissances, amis et famille jouent
un rôle prépondérant dans l’acquisition de compétences. Ce qui veut dire
aussi que le rapport des parents à la
culture numérique contemporaine est
prépondérant dans les situations de
quasi-déconnexion des jeunes, tout
comme le fonctionnement familial est
un facteur explicatif de nombreuses
situations de quasi-déconnexion - en
particulier des jeunes filles: seuls les
garçons sont autorisés à fréquenter les
cyber-cafés !
19
ATHENA 267 · Janvier 2011
> TECHNOLOGIE
La culture numérique des parents
et les relations entre les parents et
les enfants jouent un rôle
fondamental.
«La pomme ne tombe jamais loin
de l’arbre» dit-on, c’est on ne peut
plus vrai en ce qui concerne les
technologies.
sentent qu’une minorité au sein de leur
génération.
Les risques d’exclusion se situent dans
les quatre grands domaines pris en
compte dans le plan d’action national
contre la fracture numérique: l’emploi,
la formation et le développement professionnel; l’accès à l’information et aux
services en ligne; la participation à de
nouveaux modes de communication et
d’échange; la participation à la vie culturelle et citoyenne.
20
La culture numérique des parents et les
relations entre les parents et les enfants
jouent un rôle fondamental, s’accordent
à reconnaître aussi bien les promoteurs
de l’étude universitaire que Microsoft et
IDC. Ces jeunes «off-line» sont d’autant
plus exposés à des risques de marginalisation ou d’exclusion qu’ils ne repré-
Les enjeux sociétaux et politiques de
­l’exclusion numérique parmi les jeunes
sont d’autant plus importants que les
établissements d’enseignement et de
formation professionnelle, les institutions du marché du travail, les administrations, les employeurs attendent
implicitement de tous les jeunes un
­comportement conforme aux stéréo­
types de la «génération Internet». 
Réflexions sur la génération des «natifs numériques»
(source: Fondation Travail-Université)
» La fracture numérique est d’autant
plus difficile à déceler qu’elle ne
tient plus au seul nombre de PC par
famille. L’accès à la technologie peut
passer par d’autres outils, comme le
téléphone portable qui sert autant
d’appareil photo, de plate-forme
de téléchargement que de console
de jeux.
» Le lieu d’accès influence fortement
la qualité de l’accès. La capacité des
jeunes à faire un usage autonome
et pertinent des contenus numériques ne constitue pas une évidence;
le contexte cognitif, social et culturel jouant à plein dans les pratiques
numériques observées.
» Les inégalités numériques chez les
jeunes tendent à se superposer à
d’autres d’inégalités sociales existantes et les renforcent. Insérés socialement, certains jeunes se voient sanctionnés sur le plan professionnel du
fait de leurs usages limités des TIC.
» Bien que les «enfants du web» réalisent leurs recherches plus rapidement que leurs aînés, ils consacrent
peu de temps à évaluer la qualité de
l’information, sa pertinence et son
exactitude. En parallèle, il apparaît
que la culture de l’information
des jeunes ne s’est pas améliorée avec un accès élargi à la
technologie.
» Le problème se situe
dans le décalage
Alain de FOOZ ·TECHNOLOGIE
«Si l’accès au numérique n’est plus la question du moment,
ce sont désormais les usages qui posent problème…»
Interview de Pierre Lelong,
Manager - Pôle Ressources & Diffusion, TechnoFutur TIC
L
a Semaine numérique s’est tenue du 5 mars au 12 mars
2010. Plus de 200 activités partout en Wallonie: activités d’animation, de sensibilisation, de formation autour
de l’Internet et du numérique. Est-ce encore utile près de
trente ans après l’avènement de l’ordinateur personnel ?
«Plus que jamais ! D’abord pour réduire la fracture numérique en
permettant l’accès de tous au numérique en encourageant des
opérateurs à inviter les non initiés à en découvrir les richesses et
les spécificités. Ensuite, pour offrir une vitrine aux activités d’initiation, aux rencontres et colloques en développant une approche
critique de l’outil et des usages. Enfin, pour valoriser les opérateurs
locaux: associations diverses, centres culturels, bibliothèques qui
visent à populariser l’Internet… Si l’accès au numérique n’est plus
la question du moment, ce sont désormais les usages qui posent
problème. Internet, oui. Mais pour que faire ?»
D
iscuter, s’informer, se documenter, travailler…
N’est-ce pas suffisant ?
«Ce n’est pas si évident. Si l’on écoute les jeunes, Internet est synonyme de chat, de téléchargement, de jeux en ligne… Ce ne sont
pas forcément les compétences attendues par l’école, les entreprises et les autorités publiques et qui sont nécessaires pour vivre
de façon autonome dans la société actuelle. D’un autre côté, il
ne s’agit pas de dénigrer ces usages, qui impacteront à coup sûr
l’économie de demain. Les jeunes qui ont l’habitude de "chater"
abordent le marché de l’emploi autrement: ils ont un sens plus
exacerbé de la communication, de la collaboration. Les entreprises commencent à s’en rendre compte: à l’instar des Facebook ou
Twitter, certaines tentent de mettre en place des réseaux pour
développer la connaissance interne, identifier les compétences,
créer des groupes de travail virtuel…»
Néanmoins, il y a des «exclus»…
«Disons "décalés"… Il s’agit de porter davantage l’attention sur
la spécificité des inégalités numériques des jeunes, une nécessité
d’autant plus grande que celles-ci présagent des difficultés d’usages
des adultes de demain. Il ne faudrait pas que ce décalage grandisse.
La Semaine numérique ou les Rewics (Rencontres wallonnes de
l’Internet citoyen), qui fêtent cette année leur dixième anniversaire,
sont l’occasion de faire le point, de dresser un bilan des intérêts et
des compétences, de préciser les bonnes pratiques d’utilisation de
la Toile, ses opportunités et ses dangers.»
Les jeunes sont-ils demandeurs?
«Absolument! Ils sont très clairement en quête d’usages, l’étude de
la Fondation Travail-Université l’a prouvé: 33% des jeunes estiment leurs compétences informatiques insuffisantes par rapport
aux exigences du marché de l’emploi… Le travail est donc considérable pour insérer des mesures d’"e-inclusion" qui prennent en
compte la nature des inégalités numériques chez les jeunes. Tout
le monde a un rôle à jouer: les autorités fédérales et régionales, les
employeurs, l’enseignement et les services d’aide à la jeunesse. À
propos de ces derniers, on peut s’étonner que le métier d’animateur
multimédia ne soit toujours pas reconnu officiellement - la plupart,
il est vrai, sont bénévoles. C’est d’ailleurs profondément injuste
face au travail remarquable accompli. Sans eux, le pourcentage
­d’"exclus" ou "décalés" serait bien supérieur…» 
+
entre l’expérience numérique des jeunes et les
compétences TIC que
la société attend d’eux.
Pour les jeunes, ne pas
avoir de connexion
Internet ne signifie pas
être par définition «off
line». ­L’Internet est
vécu comme une
expérience
individuelle.
» L’absence de connexion domestique
n’est pas seulement due à des facteurs
économiques. Souvent, les parents
n’en voient pas l’utilité. Ce sont surtout les parents qui sont «off-line»,
pas les enfants. Car pour échapper au
contrôle familial, les jeunes cherchent des subterfuges et vont sur
Internet à l’insu des parents. 
Pour en
savoir plus
Technofutur TIC:
http://www.technofuturtic.be
Fondation Travail-Université :
http://www.ftu.be
IDC: http://www.idc.fr
21
ATHENA 267 · Janvier 2011
> INTERNET
Le Web
pour les Nuls
et les Professionnels
22
Comment les Trouveurs trouvent
Texte : Christian VANDEN BERGHEN • http://www.brainsfeed.com • [email protected]
Illustrations : VINCE
Nous avons commencé une
série d’articles consacrés aux
quatre ­profils d’utilisateurs
du Web: les Chercheurs, qui
cherchent sans méthode et qui
sont obligés de se contenter de
ce que le Web leur propose; les
Trouveurs, qui ont acquis une
méthode de recherche, utilisent
d’autres moteurs que Google
et qui sont capables d’évaluer
l’information trouvée. Dans
le présent article, nous
poursuivons l’examen des
méthodes et outils utilisés par
les Trouveurs.
Q
uoi qu’on cherche sur
le Web, qu’il s’agisse de
documents
textuels,
de photos, de vidéos,
de livres, de résultats
de Twitter ou de profils de personnes, il n’y a que trois types d’outils: les
moteurs de recherche, les annuaires
et les métamoteurs. Ils ont été décrits
­sommairement dans le second article
de la série.
Quelques
notions
doivent
être
bien comprises pour les exploiter
pleinement:
Un moteur de recherche
» est une machine
(aucune intervention humaine)
» capable de trouver des mots (des
chaînes de caractères)
» sur des pages (un moteur de
recherche - Google par exemple - ne
trouve pas des sites, mais des pages
Web)
Un annuaire
» est un travail de classement de sites
» en fonction de leur contenu
» dans une hiérarchie (taxonomie) de
catégories et sous-catégories
» réalisé par des bibliothécaires (des
êtres humains)
Un métamoteur
» est un moteur de recherche
» fonctionnant comme un moteur
classique
» mais ne disposant pas d’une base
de données propre et sollicitant
les bases de données des autres
moteurs.
Aucun des ces trois types d’outils n’est
complet, et de très loin: les moteurs de
recherche n’ont indexé qu’une infime
partie des pages Web disponibles. Les
annuaires sont encore bien plus petits
car les humains - contrairement aux
moteurs de recherche - ne travaillent
Christian VANDEN BERGHEN · INTERNET
qu’un certain nombre d’heures par jour.
Quant aux métamoteurs, ils sont très
incomplets car les moteurs de recherche
ne les autorisent à accéder qu’à une très
petite partie de leurs bases de données.
Les Trouveurs font assez rarement appel
aux métamoteurs.
Quelques chiffres sur le Web:
» près de 2 milliards de personnes
utilisent Internet, dont 42% sont
asiatiques.
» le Web comporte 5 millions de terabytes d’informations, dont Google a
indexé 0,004% (200 terabytes). Un
cerveau humain peut emmagasiner
de 1 à 10 terabytes d’informations.
» 193 millions de noms de domaine
sont en circulation, dont 46% sont
des .com.
» plus de 2 milliards de vidéos sont
vues quotidiennement sur YouTube.
Pour davantage de chiffres sur Facebook,
Twitter, etc., rendez- vous à l’adresse The
Awesome Size Of The Internet http://bit.ly/aC6wd3
Ces quelques chiffres devraient nous
faire réfléchir à la relativité des choses:
Google, le grand Google, le moteur
omniprésent et qui a pratiquement réussi
à évincer tous les autres, ne représente
en réalité qu’une infime partie du Web.
Où est passé tout le reste ? Il ne faudrait
surtout pas croire que les quelques
autres moteurs luttant encore pour leur
survie face au géant ont indexé plus de
pages Web. La partie du Web indexée
par les moteurs de recherche s’appelle le
Web superficiel ou visible. Tout le reste,
les 99% du Web manquant à l’appel,
est appelé le Web profond ou invisible.
Il se trouve dans les bases de données
gigantesques des instituts de recherche,
des entreprises et des États, dans les
pages «invisibles» aux yeux des moteurs
de recherche parce que mal conçues
(ce qui empêche leur indexation), dans
le contenu des vidéos, etc. C’est-à-dire
dans tout ce que les moteurs ne peuvent
pas ou ne veulent pas indexer.
> Pourquoi les moteurs de recherche
n’indexent-ils que si peu de données ?
Les réponses sont multiples:
» parce que la plupart des gens ne
savent déjà pas comment trouver
de l’information dans les données
disponibles. En leur proposant
davantage de pages, on ne ferait
qu’aggraver de problème;
» parce que le stockage des
données coûte très cher et que
l’investissement n’en vaut sans
doute pas la peine;
» parce que la quantité d’électricité
nécessaire au refroidissement des
serveurs est immense (Google
consomme autant d’électricité
que les Pays-Bas ou l’Argentine).
Notons au passage que l’immersion
envisagée des serveurs de Google
risque de provoquer de graves
dommages écologiques.
> Comment distinguer au premier
regard un moteur d’un annuaire ?
Un annuaire présente immédiatement
une hiérarchie de catégories et de souscatégories. Voir par exemple DMOZ
(http://www.dmoz.org/).
Un moteur de recherche ne présente
qu’un champ de recherche en proposant
éventuellement de chercher dans le Web,
dans l’actualité, dans les vidéos, etc.
Bien utiliser un
annuaire
Les annuaires ont eu leur heure de
gloire mais l’arrivée des moteurs
performants comme Google et Bing ont
fortement réduit leur utilisation. Le plus
connu des annuaires est évidemment
Yahoo! qui a été créé par David Filo et
Jerry Yang à l’université de Stanford,
en janvier 1994, suivi de l’entreprise
fondée en mars 1995. Son siège social
est situé à Sunnyvale en Californie.
Selon Alexa Internet, Yahoo! était le
site Web le plus visité en 2004. Son
réseau de sites a servi plus de trois
milliards de pages par jour en octobre
2004. Sa popularité augmentant,
de nouveaux services sont offerts,
transformant petit à petit l’annuaire
Web en portail d’où l’utilisateur
peut s’adonner à toutes les activités
associées à l’Internet. On y trouve le
service Yahoo! Mail (comportant un
carnet d’adresses, un calendrier et un
bloc-notes), un client de messagerie
instantanée, l’hébergement de listes
de diffusion, des jeux en ligne, des
23
ATHENA 267 · Janvier 2011
> INTERNET
Un annuaire ne sert donc pas à trouver
des mots sur des pages, mais des
sites. On réservera donc l’utilisation
des annuaires à des recherches sur
des concepts comme l’acupuncture,
l’histoire de la décolonisation ou la
pensée de Voltaire. Ils sont utiles pour
débroussailler le terrain mais pas pour
trouver des détails. Ils sont également
utiles pour trouver les concurrents
d’une entreprise. Mais il ne faut jamais
perdre de vue que pour figurer dans un
annuaire, une démarche volontariste
est nécessaire. On y trouvera donc plus
volontiers des grandes entreprises que
des PME.
Face à Google, la survie des annuaires est
très difficile. Deux annuaires résistent
encore et toujours: Yahoo! (http://dir.
yahoo.com/) et DMOZ (http://www.dmoz.
org/).
24
Il est extrêmement compliqué
pour un novice de savoir
où trouver une information
dans les méandres de la Toile.
Vous trouverez ici les notions
et étapes clés afin d’aller
directement au but
sans perdre son temps.
+
Astuce !
Si vous cherchez de l’information
sur la qualité d’un smartphone
comme le Blackberry par exemple, vous ne souhaitez sans doute
pas recevoir des pages provenant
du site officiel. Comment éliminer ces pages?
Essayez d’abord blackberry
Essayez maintenant
blackberry -www.blackberry.com
Vous pouvez éliminer les informations provenant d’autres sites.
Attention: un espace avant le
signe «-», mais pas après !
weblogs et des chats, mais aussi des
portails d’informations variés (économie,
actualités, sports, etc.).
C’est sans doute cette politique de portail
et de «touche-à-tout» qui a provoqué le
déclin de Yahoo! car en face, la politique
de Google a toujours été de ne pas
mélanger les genres. Il suffit de se rendre
sur la page http://www.yahoo.com/ pour
constater immédiatement que le but d’un
tel portail n’est pas réellement d’informer
mais de retenir captif le visiteur égaré.
L’autre erreur de Yahoo! a sans doute
été de vouloir devenir un moteur de
recherche pour concurrencer Google.
Plutôt que de construire son propre
moteur, sa politique a été d’acheter des
moteurs existants comme AltaVista,
AllTheWeb et une série d’autres. Tout
cela a provoqué de la confusion chez
les utilisateurs, davantage attirés par la
simplicité de Google. Dernière péripétie
en date: Yahoo! a annoncé il y a quelques
semaines qu’il faisait désormais appel au
moteur Bing, développé par Microsoft.
Contrairement à un moteur de recherche,
il vaut mieux éviter d’utiliser le champ
de recherche d’un annuaire car il ne
fonctionne pas par mots-clés. Il faut
commencer par se demander dans quelle
catégorie principale pourrait se trouver la
sous-catégorie dans laquelle pourraient
se trouver les sites recherchés...
Bien utiliser un
moteur
Nous avons déjà expliqué à plusieurs
reprises comment il convient d’utiliser
un moteur de recherche. Nous nous
contenterons donc de ces quelques
rappels:
»
évitez absolument les recherches
sur un mot. Imaginez-vous à la
place d’un bibliothécaire si un
visiteur vous disait «peinture».
Sans autre information, vous
seriez contraint de lui apporter
tous les documents comportant
le mot «peinture»: peinture dans
le domaine artistique, mais aussi
la chimie, les catalogues de
fabricants de peinture murale, etc.
Essayez plutôt d’inclure dans
votre requête tous les mots qui
permettent de circonscrire le sujet
pour que les résultats soient les
plus contextualisés possibles;
»
essayez de deviner la manière dont
la réponse sera formulée, partant du
principe que quelqu’un a déjà écrit
le document qui vous intéresse.
Plutôt que d’écrire «découverte
globules rouges», essayez «les
globules rouges ont été découverts
par en». Le moteur se chargera de
trouver un document comportant
une phrase identique et complètera
si possible les blancs;
Christian VANDEN BERGHEN · INTERNET
»
si les résultats sont trop nombreux
et pas assez pertinents, essayer
de placer certaines expressions
entre guillemets, ce qui force le
moteur à ne ramener que des
pages comportant cette expression
Exemple : la «théorie de la relativité»
d’Einstein explique
»
essayez de deviner dans quel
format le document recherché a
été écrit. S’il s’agit d’un document
officiel, il est fort probable qu’il sera
disponible au format PDF. Dans
ce cas, avec Google, essayez par
exemple filetype:pdf «gestion des
déchets»
> Comment identifient-ils d’autres
sources ?
de chance d’être mise en ligne
directement par son auteur. Par
contre, la plupart des universités
proposent des bases de données
des thèses réalisées. Ils vont donc
essayer une requête du genre
«base de données de thèses en ligne
online thesis». Une fois les nouvelles
sources trouvées, ils chercheront
eux-mêmes à l’intérieur de ces
bases de données. Pourquoi cette
stratégie de recherche ? Parce que
les moteurs de recherche sont
incapables d’indexer le contenu
des bases de données. Ils peuvent
donc être utilisés pour trouver les
bases de données mais il faudra
ensuite chercher soi-même dans
celles-ci.
»
Les Trouveurs ne disposent pas d’un
Google secret, connu des seuls enfants
du Web ! Ils savent par contre comment
utiliser les outils de recherche pour
accéder à des sources d’informations
nouvelles. Ils commencent toujours par
se demander qui pourrait disposer de
l’information qu’ils recherchent et/ou
qui pourrait avoir intérêt à mettre cette
information en ligne.
Quelques exemples:
»
S’ils doivent trouver une thèse
sur un sujet donné, les Trouveurs
ne vont pas perdre du temps à
taper quelques mots dans un
moteur de recherche car ils savent
qu’une thèse a relativement peu
»
S’ils doivent dresser la liste des
boulangers de Marseille, les
Trouveurs ne vont certainement
pas taper «liste des boulangers
de Marseille» dans un moteur de
recherche car ils savent que tous
les boulangers n’ont pas de site
Web. Ils savent que par contre, tous
les boulangers ont le téléphone. Ils
vont donc se mettre à la recherche
des Pages Jaunes françaises en
ligne et y lancer une recherche. Ils
noteront au passage que tous les
annuaires de téléphone du monde
sont rassemblés dans un même
site: Infobel (http://www.infobel.
com/).
S’ils recherchent une présentation
sur l’énergie verte, ils essaieront
sans doute une recherche dans
Google avec une syntaxe du genre
«filetype:ppt énergie verte». S’ils ne
sont pas satisfaits, ils s’adresseront
à des sites comme SlideShare (http://
www.slideshare.com/) qui rassemble
des présentations sur des tas de
sujets et dans des tas de langues.
»
S’ils veulent savoir ce que les
utilisateurs pensent de l’iPad, ils
commenceront par taper une
expression comme ipad sucks dans
un moteur de recherche pour
découvrir les problèmes rencontrés
par les propriétaires de la tablette.
S’ils ne trouvent pas ce qu’ils
cherchent, ils iront voir dans des
forums ipad ou chercheront dans
les réseaux sociaux comme Twitter.
Une méthode !
Les Trouveurs ne se lancent pas tête
baissée sur leur clavier. C’est en cela
qu’ils se démarquent des Chercheurs:
ils préfèrent prendre quelques minutes
pour réfléchir à la question essentielle
qui est «qui possède ce que je cherche ?»
Après, tout devient plus simple.
En d’autres termes, ils ajoutent une étape
entre eux et la réponse. Ils n’attendent
pas du moteur qu’il leur fournisse la
réponse mais plutôt la source de la
réponse. 
+
Pour en
savoir plus
Pour trouver des listes
de journaux du monde entier,
il suffit de taper une requête comme
online newspapers
dans un moteur de recherche.
Voici quelques résultats intéressants:
Online Newspapers
http://www.onlinenewspapers.com/
Newspapers24
http://www.newspapers24.com/
Newspapers Index
http://www.newspaperindex.com/
25
ATHENA 267 · Janvier 2011
> SANTÉ
Anorexie,
boulimie:
les ados en danger
26
Texte : Philippe LAMBERT • [email protected]
Photos: J. BERKOPEC/Flickr (p.26), M. DIRLEA (p.28), ·S/Flickr (p.28)
Refuser de manger, engloutir des aliments de façon compulsive mais
essayer ensuite de ne pas grossir en se faisant vomir ou en prenant
des laxatifs, par exemple, consommer des quantités «monstrueuses»
de nourriture en un court laps de temps sans se soucier de la prise de
poids, les troubles du comportement alimentaire font partie des plaies
de l’adolescence. Ils constituent une cause importante de morbidité,
et même de mortalité
L
es troubles du comportement alimentaire (TCA)
débutent souvent par la pratique d’un régime. Ainsi, une
étude publiée dans Pediatrics
en 2003 aboutit à la conclusion que les
adolescentes qui s’adonnent régulièrement à des régimes ont 12 fois plus de
chance de devenir boulimiques que celles
qui ne restreignent pas leur alimentation.
Le régime n’est cependant pas la cause
des TCA, mais il en dessine la voie, constitue le signe avant-coureur d’une possible
entrée dans la pathologie.
Une étude canadienne datant de 2004
dévoile que 24,5% des garçons et 30%
des filles âgés de 10 à 14 ans se plient à
la loi des régimes amaigrissants quand
bien même leur poids serait normal.
­Statistiquement, ces jeunes ont un risque
accru de dériver vers l’anorexie mentale,
la boulimie ou un désordre ressortissant
à la catégorie résiduelle des troubles alimentaires dits «non autrement spécifiés»
(NOS).
L’épidémiologie nous apprend que les
TCA sont à large prédominance féminine,
puisqu’ils touchent neuf femmes pour
un homme. La valorisation de la minceur
remonte au début du 19e siècle et s’est
fortement intensifiée à partir des années
1950-60. Dans ce contexte, l’insatisfaction
corporelle est devenue la norme. Selon
nombre de travaux, notre société, très
individualiste, a détourné le contrôle de
soi, qui s’exerçait auparavant au sein des
groupes d’appartenance, pour l’orienter
vers le corps. «Certains y voient l’expression d’une violence à l’égard des femmes,
dans la mesure où on les oblige à exercer
une contrainte sur leur corps», commente
le docteur Yves Simon, chef de service
Philippe LAMBERT ·SANTÉ
de l’Unité des troubles alimentaires et
directeur du programme anorexie/boulimie au centre psychiatrique Le Domaine
­(Université libre de Bruxelles), à Brainel’Alleud. Il ajoute: «La sociologue marocaine Fatema Mernissi décrit l’enfermement
de la femme occidentale dans ce qu’elle
appelle le harem de la taille 38. Elle écrit en
substance que “pour faire obéir une femme,
il ne faut pas lui mettre un policier dans le
dos, mais il suffit de lui présenter des images”. L’intériorisation des images de minceur
et de maîtrise véhiculées par notre société
conduit les jeunes filles et les jeunes femmes
à rechercher la réussite à tous les niveaux contrôle du poids, études, profession... - et
donc à s’imposer une énorme pression.»
Orgies alimentaires
Quels sont les différents visages des troubles de l’alimentation ? La quatrième édition révisée (2000) du Diagnostic and Statistical Manual of Mental Disorders (DSM
IV-R) met en exergue deux TCA, l’anorexie
mentale et la boulimie, et reconnaît l’existence d’une catégorie résiduelle, les NOS,
pour lesquels elle ne fournit aucun critère
de diagnostic.
Dans l’anorexie mentale, le sujet adopte
un comportement de restriction alimentaire traduisant sa crainte ou un refus de
maintenir son poids corporel à un niveau
minimal normal pour son âge et sa taille.
Au bout d’un moment, l’amaigrissement
qui s’ensuit ne peut passer inaperçu. À ce
propos, le décès du mannequin brésilien
Carolina Reston, en 2006, a marqué les
esprits. Cette jeune femme de 21 ans ne
pesait plus que 40 kilos, pour 1,74 m.
La boulimie, elle, se manifeste par des
épisodes de suralimentation auxquels
succèdent des comportements destinés à éviter la prise de poids. Durant
la crise, l’individu consomme de
manière compulsive, parfois sans
préparation ni cuisson, les aliments
qu’il cherche à éviter habituellement.
Cette tyranie de la minceur est entre
autres fortement induite par
les séries télévisées dans lesquelles
les jeunes filles s’affichent systématiquement minces. Les adolescentes
s’identifient et font tout pour leur
ressembler.....
Il arrive que la crise soit anticipée, que les
aliments soient sélectionnés à l’avance.
Ensuite, après quelques heures d’orgie
alimentaire, le boulimique se fait vomir,
prend des laxatifs ou des diurétiques,
s’impose un jeûne drastique ou se livre à
une activité physique excessive. Ces stratégies compensatoires lui permettent de
maintenir son poids à un niveau plus ou
moins constant, de sorte que, contrairement à l’anorexie, les accès boulimiques,
accomplis en secret, peuvent passer inaperçus pendant des années et demeurer
longtemps compatibles avec une vie normale sur les plans familial, social et professionnel. In fine, l’épisode boulimique
s’achève généralement dans la honte, la
culpabilité, le dégoût de soi-même et un
profond sentiment de solitude.
Parmi les critères diagnostiques énoncés
dans le DSM IV-R, certains ne reposent sur
aucune évidence empirique et prêtent
donc le flanc à la critique. C’est notamment le cas de l’arrêt du cycle menstruel,
symptôme classiquement considéré
comme indispensable au diagnostic
d’anorexie mentale. «En fait, l’aménorrhée est liée à la sévérité de la dénutrition,
indique Yves Simon. Attendre l’arrêt des
règles pour poser le diagnostic n’a d’autre
effet que de retarder l’engagement dans un
traitement.»
NOS: la part du lion
À côté de l’anorexie mentale et de la
boulimie cohabite donc une catégorie
de troubles baptisés «troubles alimentaires non autrement spécifiés», qui ne
répondent pas à tous les critères de diagnostic des deux affections précitées. Ces
troubles peuvent être ventilés en
plusieurs catégories.
» On y recense d’abord des formes subcliniques ou débutantes de l’anorexie
et de la boulimie. Le docteur Simon cite
l’exemple d’individus qui s’adonnent à
des régimes de manière chronique et
ne se font vomir qu’après l’ingestion
d’aliments censés les faire grossir. Une
autre illustration nous est donnée
par les personnes caractérisées par
des comportements d’anorexiques,
mais qui maintiennent leur poids à un
niveau proche de la normale.
»Deuxième type de troubles NOS:
ceux dont la principale propriété est
­d’associer les caractéristiques ­cliniques
de l’anorexie mentale et de la boulimie - on parlera de formes mixtes.
»Quant à la troisième catégorie,
­l’hyperphagie
boulimique,
elle
concerne des personnes qui, ­perdant
le contrôle de leur alimentation,
consomment de grandes quantité de
nourriture en un court laps de temps,
sans recourir à des comportements
compensatoires en vue d’éviter la prise
de poids.
Rassemblant sous leur bannière 30 à
50% des individus souffrant d’un TCA essentiellement des enfants et des adolescents -, les troubles NOS apparaissent
comme les plus fréquents (1), mais sont
assez rarement diagnostiqués. Depuis une
dizaine d’années, l’incidence des formes
subcliniques de l’anorexie mentale et de
la boulimie s’inscrit même sur une courbe
résolument ascendante. Or qu’observet-on ? Que 60% des jeunes filles ou des
femmes qui y sont confrontées consulteront dix ans plus tard pour des altérations significatives de leur santé physique
ou de leur équilibre psychosocial. D’où
­l’intérêt actuel de la recherche pour
les troubles NOS.
27
ATHENA 267 · Janvier 2011
> SANTÉ
(1) Dix à quinze pour cent
des jeunes âgés de 12 à
18 ans présentent des
conduites de régime
problématiques - anorexie
mentale (0,5 à 1%),
boulimie (1 à 2%), troubles
NOS (5 à 10%, dont 2%
relatifs à l’hyperphagie
boulimique).
Des comportements alimentaires problématiques sont présents dans d’autres
affections psychiatriques - troubles
anxieux, dépression et trouble de la
person­nalité de type «borderline»...‑,
ainsi que dans l’addiction à la drogue ou
à l’alcool. «En outre, on observe souvent
de l’automutilation, notamment chez les
adolescentes boulimiques, souligne Yves
Simon. Regarder couler le sang les apaise,
évacue leur tension, leur anxiété. Les caractéristiques des automutilations peuvent
aussi orienter vers d’autres diagnostics en
relation avec l’abus, la violence, y compris la
violence sexuelle, mais aussi vers des formes
de troubles de la personnalité, voire une
schizophrénie débutante.»
Un taux très élevé de tentatives de suicide est également associé aux TCA,
­spécialement à l’anorexie mentale. Les
personnes les plus à risque sont les jeunes femmes anorexiques d’environ 35 ans
se jugeant dans une impasse de vie, en
­particulier quand leur trouble alimentaire
est compli­qué par l’abus d’alcool.
28
Le culte du corps
L’étiologie des TCA demeure assez floue.
Toutefois, leur origine multifactorielle
ne fait plus aucun doute. L’interaction
de facteurs génétiques et de facteurs
environnementaux semble établie. Une
chose est claire: il n’existe pas un gène
de l’anorexie, un autre de la boulimie,
un autre encore de l’hyperphagie bouli­
mique. Non, ici, une constellation de
gènes (aujourd’hui mal définie) serait
impliquée, ainsi que d’autres facteurs
biologiques et un ensemble de facteurs
psychologiques, culturels, sociaux, familiaux, etc.
Certains traits de personnalité se trouvent
aussi au cœur du débat. Ainsi, comme le
rappelle Yves Simon, «les patients anorexiques ont des problèmes avec les émotions négatives, fortement associées avec
le perfectionnisme, l’anxiété obsessionnelle
et le surcontrôle des impulsions et, dans la
boulimie, on montre une dysrégulation des
émotions, une sensibilité au rejet et un souscontrôle des impulsions et des émotions.»
Pour le psychiatre, le pragmatisme conduit
à considérer que les TCA sont orchestrés
par des facteurs de prédisposition, des
facteurs déclencheurs et des facteurs de
maintien du trouble. Parmi les premiers,
dont une trentaine ont été identifiés,
citons le sexe (féminin), l’âge (l’adolescence), la dotation génétique, l’ethnie (les
populations occidentales sont beaucoup
plus touchées que les populations asiatiques, par exemple), des antécédents de
coercition psychologique ou de violences
physiques subies. La plupart des facteurs
déclencheurs semblent ordinaires, tels un
décès, le divorce des parents, une pression psychologique pouvant notamment
résulter de remarques désobligeantes
relatives au poids et à la silhouette..., mais
ils peuvent également avoir trait à des
situations de compétition avec les pairs
(sur la minceur et le contrôle de soi), voire
à une situation banale ­d’insécurité. Par
surcroît, le culte du corps et de la maîtrise
véhiculé par les médias, mais souvent
aussi par les parents et les autres adolescents, représente de nos jours un facteur puissant d’intériorisation de valeurs
Philippe LAMBERT · SANTÉ
susceptibles de déclencher un trouble
alimentaire.
Le revers de la
médaille
Dans la perspective d’une prise en charge
thérapeutique, les facteurs de maintien
sont néanmoins les plus importants aux
yeux de notre interlocuteur, certains
facteurs impliqués dans la genèse du
trouble pouvant d’ailleurs avoir disparu
au moment de l’initiation du traitement.
De plus, les anciens ­programmes de
­prévention primaire de type psycho-éducationnel à destination des adolescents
ont montré leurs limites et, générant des
effets pervers inattendus, ont fréquemment abouti à une inversion de leur
finalité.
De fait, la prévalence des troubles
­alimentaires n’a pas diminué au sein des
populations ayant reçu un programme
d’information et d’éducation. Pis: ayant
pris conscience de pratiques qu’elles
ignoraient, certaines jeunes filles en sont
venues à recourir à des comportements
dangereux - vomissements, prise de laxatifs, etc. - dans le but de contrôler leur
poids. Désormais, les programmes de
prévention primaire ciblent de manière
conjointe les troubles alimentaires et
l’obésité et ont pour objectif de diminuer
le niveau d’insatisfaction corporelle des
jeunes. Les résultats sont encourageants
et dénués d’effets négatifs.
Les facteurs de maintien des TCA sont
essentiellement la dénutrition, les problèmes interpersonnels, l’isolement ainsi
que les gains secondaires que le trouble
peut procurer - l’attention des proches et
de l’entourage, mais aussi la diminution
de leurs attentes; le sentiment de performance, de supériorité et de contrôle;
l’apaisement émotionnel; la distraction
par rapport aux autres problèmes; le
maintien de la relation de dépendance à
l’égard de la famille d’origine; l’évitement
des conflits et celui de l’intimité et de la
sexualité.
La famille, partenaire
privilégié
Yves Simon insiste sur l’importance de
la famille dans la gestion des TCA. Informer les proches est primordial, car leur
méconnaissance de la maladie est de
nature à engendrer chez eux une détresse
qui contribuera au maintien du trouble
alimentaire. «Autrement dit, il est capital
que la famille soit à même de se réorganiser afin de se ménager des ressources et
des mécanismes adaptatifs qui l’autoriseront à exercer ses compétences dans une
situation de crise et à offrir à la personne
malade un environnement stable et sécurisant lui permettant d’activer ses ressources
personnelles.»
Face à l’adolescent en difficulté, les
parents doivent notamment accorder de
l’importance aux repas familiaux et veiller
à ce qu’y règne une ambiance conviviale;
ils doivent également s’abstenir de toute
critique à l’égard du jeune confronté à un
TCA. «Observer, prendre position sur des
faits sans interpréter, mais ne pas juger ni
blâmer», précise encore le docteur Simon.
Toujours selon lui, les parents et la fratrie
sont appelés à tenir le rôle de partenaires dans la prise en charge thérapeutique des troubles alimentaires. Ainsi, les
parents auront en charge la réalimentation du jeune dans le cas de l’anorexie
mentale, selon les modalités d’une
­thérapie familiale ou multifamiliale.
L’hospitalisation ne sera à l’ordre du jour
que si le traitement ambulatoire aboutit
dans une impasse. Ou alors en présence
d’un danger somatique, de problèmes
psychologiques induisant de la dépression ou un risque suicidaire, ou lorsque
le contexte familial ou professionnel
est délétère. «En outre, l’hospitalisation
paraît souvent intéressante chez le patient
adulte, car il ne jouit plus du même soutien
parental teinté d’autorité que l’enfant ou
l’adolescent», ajoute Yves Simon.
Au niveau du traitement proprement
dit, les interventions sont généralement
de type psychothérapeutique. Et plus
­particulièrement cognitivo-comportementales pour la boulimie et l’hyperphagie boulimique. En revanche, dans
l’anorexie mentale, l’accent sera mis sur la
renutrition, les relations interpersonnelles, la communication familiale et l’autonomie émotionnelle.
La durée moyenne des TCA est de 6 ans,
mais ils peuvent persister toute une
vie. Parmi les 80% de malades qui en
guérissent, 50% continueront malgré
tout à entretenir des préoccupations
pour leur poids, leur silhouette et leur
alimentation. 
+
Le p’tit plus
de la rédac’
Comment sortir de la boulimie
et se réconcilier avec soi-même,
par Yves Simon et François Nef,
Éditions Odile Jacob, 2004.
Comment aider votre fille à
sortir de l’anorexie, par Yves
Simon et Isabelle Simon-Baïssas, Éditions Odile Jacob, 2009.
29
+
Pour en
savoir plus
Besoin d’écoute
ou de conseils?
ASBL MIATA
Maison d’information et
d’accueil des troubles de
l’alimentation
Rue de la Goëtte, 85
1420 Braine-l’Alleud.
Tél.:02/385.09.40
www.mitata.be
Permanence téléphonique
et accueil : le mardi et jeudi
de 14h à 17h.
Accueil de préférence sur
rendez-vous
LE DOMAINE - ULB
http://www.domaine-ulb.be
02/386.09.78
[email protected]
ATHENA 267 · Janvier 2011
> BIOLOGIE
Les bons
et les mauvais
poisons
Ce mois-ci dans votre rubrique bio: une île presque paradisiaque
pour oublier le froid de l’hiver, une once de royauté en souvenir
de la galette, un potentiel nouveau cousin tout droit sorti d’un
lointain passé et quelques suggestions de bonnes résolutions
pour bien commencer l’année !
Texte : Jean-Michel DEBRY
[email protected]
Photos : CDOROBEK/Flickr (p.30),
M. DVORAK (p.30)
E. BRUNEAU/CARI (p.31)
30
Victime de son succès
T
ous ceux qui s’intéressent à la vie
sauvage connaissent les Galapagos, ce chapelet d’îles du Pacifique visité en son temps par Charles
Darwin, sur lesquelles il a fait les observations qui lui ont permis de bâtir ensuite
sa théorie de l’évolution. L’évocation est
raccourcie, mais c’est pour situer. Lieu
culte, musée animalier ou simple idée
originale de vacances, ces îles ont été
massivement visitées depuis, avec tous
les désagréments que l’on peut imaginer. Résultat: des dégâts majeurs et des
restrictions nécessaires à l’afflux de visiteurs ont dû être imposées.
Entre autres dégâts collatéraux, des
­animaux «domestiques» ont été importés qui ont perturbé les sites et hypothéqué la survie d’une faune locale. Dans
un autre registre, des rats ont également
suivi les marins et se sont significativement implantés sur quelques îles de
­l’archipel jusqu’à précariser la ­survie
d’autres espèces, parmi lesquelles
­certains oiseaux. Omnivores, les rats
aiment en effet à se délecter des œufs
qu’ils trouvent dans des nids trop accessi-
bles. Quelques espèces en ont fait les frais
et sont aujourd’hui en danger ­certain.
C’est notamment le cas du pinson des
mangroves dont on pense qu’il n’existerait plus qu’une centaine d’individus.
Les ornithologues ont donc jugé qu’il
était grand temps d’agir; ils ont prélevé
une dizaine de sujets et les ont déplacés
vers une île distante de 25 Km, connue
pour ne pas abriter les redoutables prédateurs. L’idée est bien entendu de sauvegarder l’espèce en lui permettant de
se reproduire en toute
quiétude, quitte à la
réimplanter plus tard
en partie au moins,
dans son berceau
d’origine.
L’opération n’est pas
gagnée pour autant.
D’abord elle repose
sur un très faible
nombre d’individus; il faut qu’ils
survivent premièrement, pensent
à se reproduire ensuite et à reconstituer
une population enfin avec une base
génétique finalement peu diversifiée.
Par ailleurs, il faut bien constater que
même réduit, ce «prélèvement» représente tout de même 10% de la population résiduelle, ce qui n’est pas négligeable. Or on sait qu’il existe, pour chaque
espèce, un nombre minimal en-dessous
duquel la survie n’est plus assurée. Enfin,
il faut vérifier que les individus déplacés
ne vont pas aiguiser les appétits d’autres
prédateurs locaux ravis ou, au contraire,
ne vont pas occuper la niche d’une
espèce proche qui serait précarisée à son
tour. Bref rien n’est simple. Voilà en tout
cas un aspect de l’évolution des espèces
que Darwin n’avait sans
doute pas imaginé. 
Science 2010; 329: 17
Le Camarhynchus
heliobates, l’une des
13 ou 14 espèces
de pinsons recensées
par Charles Darwin
lors de son expédition
sur les îles Galapagos.
Jean-Michel DEBRY · BIOLOGIE
La reine et ses servantes
L
orsqu’au sein de la ruche, la reine
pond ses œufs, elle le fait sans
distinction, chacun d’entre eux,
déposé dans une alvéole et nourri de
miel, donnant une nouvelle abeille,
laborieuse comme les autres. Sans
exception ? Si; une alvéole est remplie
de gelée royale et permet l’éclosion
d’une future reine; une abeille dont la
taille mais surtout la fonction diffère
puisqu’elle seule est fertile et appelée à
assurer la survie de la colonie. Evoquée
de cette façon, la réalité paraît simple:
une larve ingère une nourriture particulière et devient un insecte fertile. Pourtant tout processus physiologique - et
la reproduction est un des plus importants - est guidé par ­l’action de gènes.
Comment donc une alimentation particulière agit-elle sur des gènes ?
La réponse est encore simple: elle ne le
fait pas. La reine dispose en effet exactement des mêmes gènes que toutes
ses collègues de ponte. Or, certains de
ces gènes fonctionnent à l’évidence
autrement pour elle. L’explication ? Elle
est épigénétique. On l’a déjà expliqué:
si nous disposons des mêmes gènes de
la conception à la mort, ceux-ci ne fonctionnent pas de la même façon en permanence, à tous les âges, en fonction
de notre état de santé, etc. C’est donc
qu’il existe un système de régulation
fin qui en contrôle le fonction­nement.
C’est tout le principe de l’épigénétique.
Le mode de fonctionnement est biochimique: des petits radicaux - méthyles
- se fixent en des endroits stratégiques
de ­certains gènes et agissent comme
interrupteurs; d’autres s’attachent à des
protéines - les histones - autours desquelles l’ADN s’enroule étroitement, etc.
Et c’est précisément sur ces processus
épigénétiques qu’agit l’alimentation
sélective de la future reine.
Prodigieux d’astuce ? Certes, mais finalement banal. Nombre de paramètres
qui constituent notre «environ­nement»
(aliments, boissons, médicaments polluants) agissent de la même façon pour
notre plus grand bien mais parfois aussi
pour notre mal. Ce qui existe pour la
reine des abeilles est donc vrai pour
le reste du monde animal, mais aussi
végétal. Chez elle, le processus prend
simplement une dimension particulièrement visible, essentielle et déterminante. En d’autres termes, elle est exactement ce qu’elle mange… Ne dit-on
pas parfois la même chose de certains
humains ? 
Nature 2010; 468: 348
Cellule royale
On a identifié le processus
épigénétique responsable de la
transformation chez la reine.
Il s’agit d’une modification de
l’implantation de radicaux
­méthyles sur l’ADN à des
­endroits qui mènent à un remaniement des ARN produits (les
ARN sont les molécules-messagers qui assurent le transfert
de ­l’information de l’ADN en
­dehors du noyau où les protéines sont produites). Modifiés,
ces ARN mènent donc, dans ce
cas-là, à des produits métaboliques qui rendent ­possible la
fonction repro­ductive.
Alors, finalement: néandertaliens, ou pas ?
S
’ils ont longtemps été considérés
comme des êtres massifs et frustes,
les Néandertaliens ont, au cours
des trois dernières décennies, ­regagné
en humanité. Non seulement on en a fait
des êtres finalement assez proches de
nous, mais on leur a découvert une série
d’attitudes qui les rapproche incontestablement de la culture «sapiens»: ensevelissement rituel des morts, élaboration
de bijoux, etc. À ce tableau ne manque
toujours que la parole, pour laquelle des
doutes subsistent.
Disparus il y a 35.000 ans environ, ces
lointains cousins ne nous sont connus
que par ce qu’ils ont bien voulu nous
laisser et que l’homme d’aujourd’hui
exhume de sites de fouilles. Les vesti-
ges osseux ne laissent en général planer aucun doute quant à leur origine en
raison de leur taille et de leur morphologie. Quant aux outils et parements,
ils ont le plus souvent été assimilés à la
culture néandertalienne en raison de la
strate de sol où ils ont été découverts
et en fonction d’une datation établie.
Le ­problème est que des sites ont pu
être occupés de façon quasi simultanée
par les Homo neandertalensis et sapiens
et que les datations effectuées dans le
passé n’étaient pas toujours de la plus
grande précision.
Ce n’est plus le cas aujourd’hui et c’est
bien gênant. Quelques objets dénotant une relative «finesse» tels que des
parures faites par exemple d’os sculptés,
initialement attribués à notre lointain
cousin disparu, viennent d’être datés de
périodes allant de -49000 à -21000 ans.
Si la date la plus ancienne «colle» avec
la présence des auteurs présumés, ce
n’est plus le cas pour la seconde. Gênant.
Voilà donc un sujet de discorde supplé-
31
ATHENA 267 · Janvier 2011
> BIOLOGIE
La question
du mois
Q
uel est l’organisme
­vivant dont le
­génome compte le plus
de paires de bases (ou de
nucléotides, ce qui revient
globalement au même) ?
Un GROS animal ?
32
Non. Une modeste plante japonaise
appelé Paris (ça doit être pour ça
qu’elle a la «grosse tête» !). Paris japonica, même, pour être précis. Si le
génome humain - l’ADN, par conséquent - compte 3 milliards de paires de
bases, ce qui n’est déjà pas rien, celui
de cette petite plante en compte près
de … 50 fois plus, exactement 149 milliards. Un record; pour le moment en
tout cas, en attendant sans doute
mieux. Contrairement à ce qu’on
pourrait a priori penser, un matériel
héréditaire d’une telle taille ne constitue pas ­forcément un avantage. La
division ­cellulaire (et par conséquent
la croissance) est forcément plus
lente compte-tenu de la nécessité de
dupliquer d’abord un «matériel» aussi
conséquent pour le mettre à disposition de chacune des nouvelles cellules
filles. Partant, l’organisme qui le renferme est aussi plus sensible aux éléments externes et notamment - dans
le cas présent - aux polluants.
Il est parfois préférable de se faire petit
et discret… 
http://scim.ag/big-genome
mentaire entre les archéologues qui n’en
manquaient pas. Les objets litigieux,
pour être précis, sont ceux qui ont été
exhumés par André Leroi-Gourhan à la
Grotte du Renne à Arcy-sur-Cure, un site
bien connu des amateurs. Voilà donc la
strate du «châtelperronien» marquée
dorénavant et pour un certain temps, du
sceau du doute. Cela va en énerver quelques-uns. Les autres, je n’en doute pas,
recevront cette information ­cruciale avec
une indifférence plus que relative… 
Science 2010 : 439.
Le tabac dans les gènes
L
e tabagisme est une des causes
de pathologies parmi les mieux
documentées aujourd’hui. Cela
n’empêche que très modérément les
femmes et les hommes de succomber à
la cigarette puisque dans notre pays en
tout cas, l’incidence ne semble guère
évoluer en dépit des risques désormais
connus. On a bien compris que fumer
ou non est inféodé au libre choix de
chacun et toute contrainte pourrait être
assimilée à une atteinte à la liberté individuelle. Il n’empêche que le résultat est
là, qui peut être traduit en prévalences
diverses, puisque les pathologies associées sont multiples.
Les chercheurs n’en sont évidemment
pas restés à ce constat et ont tenté
d’en savoir un peu plus sur les facteurs d’éventuelles prédispositions;
basant leur étude sur le génome
humain disponible, ils ont cherché à
identifier d’éventuels signes de plus
grande dépendance à l’assuétude.
Ils ont entrepris une de ces études à
large spectre, connue désormais sous
l’appellation GWAS (genomewide association study), en comparant l’ADN de
fumeurs à celui de non-fumeurs. Cette
étude comparée ramène de façon
unidirectionnelle à un locus (site) de
l’ADN qui correspond à la portion 25
du bras long du chromosome 15. On
y a identifié trois gènes en particulier
(CHRNA3, 4 et 5) dont on sait qu’ils
codent pour les sous-unités du récepteur nicotinique neuronal à l’acétylcholine, un neuromédiateur.
Des variations ponctuelles du génome
(les SNP ou single nucleotide polymorphisms) ont également été mises
en évidence entre fumeurs et non
fumeurs, l’abondance de ces variations
étant liée à la quantité de cigarettes
consommées. Un de ces SNP apparaît
même particulièrement «sensible»
de ce point de vue; il est situé dans la
région promotrice du gène CHRNA5,
évoqué plus haut. Le même locus a
aussi été associé à plusieurs pathologies telles que le cancer du poumon,
les affections artérielles périphériques
et les atteintes pulmonaires obstructives et chroniques. Inutile de préciser que le lien de cause à effet entre
le tabagisme et ces pathologies s’en
trouve renforcé par ADN associé.
L’objet de cette démarche est de pouvoir un jour cibler quelques-uns de
ces marqueurs pour aider les accros à
échapper à leur assuétude. Pour autant
qu’ils le souhaitent, bien entendu. Or,
en dépit de sages intentions souvent
affirmées, on sait que la volonté n’y
est pas toujours. Sauf, souvent, quand
cela n’en vaut définitivement plus la
peine… 
Nature genetics 2010; 42(5): 436-439
Jean-Michel DEBRY · BIOLOGIE
En route vers l’exposome !
N
ous sommes tous, en fonction de ce que nous touchons, respirons et consommons, soumis à des facteurs d’environnement qui peuvent générer, sur le
moyen et le long terme, des maladies chroniques; certaines
d’entre elles pouvant dégénérer ensuite en maux plus sévères.
Les épidémiologistes le savent évidemment et font, à travers
des études menées depuis longtemps, le lien entre les effecteurs externes - les «polluants», par conséquent - et notre état
de santé.
Plus récemment, les études extensives du génome (les GWAS,
pour Genomewide association studies déjà citées) ont montré
que pour chacune des maladies explorées, 5 à 10% en général
de la population présente des facteurs génétiques de prédisposition. On pense par conséquent posséder tous les facteurs
de risque pour chaque individu. De tous, vraiment ? Non. Les
«effecteurs» externes (les électrophiles réactifs, les perturbateurs endocriniens, les modulateurs de réponse immunitaire,
les liants aux récepteurs cellulaires et les métaux), tous issus de
l’environnement, doivent d’abord trouver un site d’action dans
l’organisme. Partant, ils provoquent localement ou de façon
diffuse, une inflammation, un stress oxydatif, une peroxydation
des graisses, une infection, une perturbation de la microflore
intestinale ou une altération d’un processus particulier. Bref, si
cela fait un peu savant, cela signifie surtout qu’il y a d’abord un
relai obligé avec un élément de notre métabolisme avant qu’un
quelconque effet négatif se manifeste; et cet élément-là aussi
fait toute la différence. Il nous distingue les uns des autres, mais
aussi d’un moment à l’autre de notre vie: nous ne sommes en
effet pas réactifs de la même façon à un agent externe «polluant» à 5 ou à 50 ans, si nous sommes un homme ou une
femme, détendus ou en état de stress…
Tous ces éléments réunis définissent ce qui constitue notre exposome, un état qui nous correspond en
propre à un moment donné et qui définit finalement
notre facteur permanent de risque de développer
une maladie. Le reconnaître est évidemment déjà une
étape importante. Le mesurer, l’identifier est encore
bien mieux. Et c’est bien sûr à cette tâche que se sont
attelés des scientifiques qui ont commencé à rechercher, dans le cadre d’une médecine prédictive hautement personnalisée, quelles pouvaient bien être
les «signatures» physiologiques de ces états de
prédisposition. Des pistes existent bien entendu. Celles de la
génétique font l’objet de recherches importantes; elles visent
à identifier les modifications perceptibles grâce aux études du
génome, à celle des télomères - les extrémités des chromo­
somes dont la longueur peut traduire un état de vieillissement
cellulaire prématuré – à la production de radicaux oxygènes
délétères ainsi qu’à toute synthèse «anormale» de protéines ou
autres résidus du métabolisme. L’objectif est bien entendu de
pouvoir rendre tout ça mesurable de façon peu traumatique;
au niveau des cellules sanguines par exemple.
Quand toutes ces informations seront acquises et validées,
nous connaîtrons plus précisément nos facteurs individuels
de risque. Il faudra encore les confronter à une série de paramètres personnels comme l’âge, la masse corporelle, le tabagisme, la prise de médicaments et les excès en tous genres.
On l’imagine clairement, si la connaissance s’accroît, on est
encore loin du compte. D’ici-là, prévention et hygiène de vie
restent les meilleurs recours, en veillant
autant que possible à varier nos «poisons»
quotidiens… 
Science 2010; 330: 460-461
33
ATHENA 267 · Janvier 2011
> MÉDECINE
I
N
T
E
R
V
I
E
W
Les
préfèrent
le
bleu...
La plupart des individus se sentent de meilleure humeur lorsque la
­luminosité est élevée. La lumière bleue, à laquelle sont particuliè­
rement sensibles certains photorécepteurs rétiniens, les cellules
­ganglionnaires, semble au cœur du phénomène. Mais quels sont les
mécanismes cérébraux sous-jacents ? Des chercheurs de l’Université de
Liège ont essayé d’y voir plus clair
34
Propos recueillis par Philippe LAMBERT • [email protected]
Photos: Ph. LAMBERT (p.34), ULg-CRC (p.37), LUCIMED (p.37)
O
Gilles Vandewalle, chargé
de recherches du FNRS au sein
du Centre de recherches
du cyclotron de l’Université
de Liège
n connaît depuis longtemps les deux types
de
photorécepteurs
rétiniens
impliqués
dans la vision: les cônes
et les bâtonnets. Il y a un peu plus de dix
ans, les travaux d’Ignacio Provencio, du
département de biologie de l’Université
de Virginie, ont révélé l’existence d’un
troisième type de photorécepteurs: les
cellules ganglionnaires qui, non affectées à la vision, servent notamment
de base à une transmission directe de
l’information lumineuse vers le noyau
suprachiasmatique, notre «horloge
biologique».
Au sein de l’équipe de Pierre Maquet, du
Centre de recherches du cyclotron (CRC)
de l’Université de Liège (ULg), Gilles Vandewalle, chargé de recherches au Fonds
national de la recherche scientifique
(FNRS), s’intéresse à l’impact «non visuel»
de la lumière sur l’activité cérébrale et
plus particulièrement sur la régulation
de l’éveil, du sommeil, de la cognition
ou encore des émotions. Il s’efforce donc
d’élucider les mécanismes sous-jacents
en s’appuyant principalement sur l’imagerie par résonance magnétique fonctionnelle (IRMf ).
En octobre, la revue Proceedings of
the National Academy of Science of the
USA (PNAS) a publié les résultats d’une
étude consacrée à l’effet immédiat de
la lumière, et de sa couleur, sur le traitement cérébral des émotions. Réalisés
par des chercheurs du CRC de l’Université de Liège, du Surrey Sleep Research
Centre (Université du Surrey), ainsi que
du Genova Center for Neuroscience et du
Swiss Center for Affective Sciences (Université de Genève), ces travaux montrent
que la couleur de la lumière ambiante
influence la manière dont le cerveau
traite les stimulations émotionnelles. La
couleur bleue, celle à laquelle les cellules
ganglionnaires sont les plus sensibles,
augmente les ­réponses à ces stimuli.
Philippe LAMBERT · MÉDECINE
Mécanisme
alternatif ?
Il ne faut pas être grand clerc pour
constater que la plupart des personnes
se sentent de meilleure humeur en été,
mieux dans leur peau, plus enjouées,
de sorte que l’on établit intuitivement
un lien entre la luminosité et l’humeur.
Plus éloquent encore: un certain nombre d’entre nous souffrent d’un syndrome dépressif récurrent qui prend
corps habituellement vers octobre et
s’efface avec l’arrivée des beaux jours:
le trouble affectif saisonnier (TAS). Sa
«version édulcorée», le blues de l’hiver,
qui se traduit par de la fatigue, un manque de moral, un sommeil contrarié, de
­l’irritabilité, etc., touche environ 15% des
individus au sein de nos populations.
Tout indique donc que la lumière joue
sur l’humeur. Et la luminothérapie nous
conforte dans cette idée, puisqu’il a été
démontré que l’exposition de la rétine à
une lumière blanche de haute intensité
est bénéfique pour lutter contre le TAS
et le blues de l’hiver. Plus récemment,
divers travaux ont cependant souligné la
supériorité de la lumière bleue pour ce
type de prise en charge.
Si la lumière influe sur l’humeur, on
ignore exactement par l’entremise de
quels mécanismes cérébraux. L’hypothèse communément admise est que
l’effet observé résulte de son impact
indirect sur la régulation des rythmes
biologiques. Selon quel processus ? On
sait que l’information lumineuse est
transmise au noyau suprachiasmatique
(horloge biologique interne) par les cellules ganglionnaires. Une fois «stimulé»,
ce noyau agit sur différentes structures cérébrales, dont l’hypothalamus et
l’hypophyse, mais aussi, au terme d’un
cheminement complexe, sur l’épiphyse,
structure qui produit la mélatonine au
niveau cérébral. Surnommée l’«hormone
de la nuit», celle-ci facilite le déclenchement du sommeil. Or l’obscurité ou une
faible luminosité induisent sa sécrétion,
tandis qu’une lumière supérieure à 2.500
lux la bloque. Par ailleurs, la mélatonine
modifierait la périodicité de notre horloge biologique. Durant l’hiver, saison
vouée à une obscurité prolongée, elle en
allongerait la période, alors qu’elle la raccourcirait en été. «Ceci demeure toutefois
hypothétique», dit Gilles Vandewalle.
De toute de façon, une question mérite
d’être posée: ce mécanisme indirect, qui
conduirait l’individu à mieux se sentir en
été parce que ses rythmes biologiques y
sont meilleurs, serait-il le seul par lequel la
lumière influe sur l’humeur ? Ne pourraitil exister un mécanisme (direct) alternatif
ou, à tout le moins, complémentaire ?
C’est ce qu’ont essayé de déterminer
Gilles Vandewalle et les autres auteurs
belges, suisses et anglais de l’article paru
en octobre 2010 dans la revue PNAS. Cette
question était d’autant plus pertinente
que certains d’entre eux avaient préalablement mis en évidence l’impact direct
de la lumière bleue sur certaines régions
cérébrales impliquées respectivement
dans l’éveil, la vigilance et la mémoire de
travail.
«Nous nous sommes dit qu’il serait intéressant de voir s’il existait un effet direct de la
lumière bleue sur le traitement des stimuli
émotionnels, d’autant que la nature des
émotions peut déteindre sur l’humeur et,
inversement, que cette dernière peut affecter la perception des émotions, rapporte
Gilles Vandewalle. En outre, les substrats
neuronaux qui sous-tendent l’humeur sont
assez proches de ceux qui sous-tendent les
émotions.»
Le chercheur de l’ULg nous a parlé de
­l’expérience qu’il a coordonnée, ainsi
que des données empiriques relatives à
­l’impact de la lumière bleue sur l’humeur.
Sur le terrain
O
utre-Manche, des recherches
en entreprise ont évalué les
­possibles bienfaits d’un éclairage
i­ ntérieur enrichi en bleu, plus proche de la lumière du jour. Avec quels
­résultats ?
Tout d’abord, rappelons que la lumière
qui nous apparaît blanche possède différentes longueurs d’onde qui correspondent à des couleurs. Autrement dit,
la lumière blanche contient de la lumière
verte, de la lumière bleue, de la lumière
jaune, etc. Tout cela pour préciser que
dans l’expérience anglaise, la lumière
diffusée par l’éclairage enrichi en bleu
apparaissait blanche malgré tout, mais
d’un blanc assez froid comparé à celui
de la lumière émise par les ampoules à
filament, qui est plus riche en longueurs
d’onde caractéristiques du jaune.
Un étage de bureaux a été éclairé de
façon classique, un autre avec de la
lumière enrichie en bleu. Au départ,
cette lumière froide a été jugée assez
désagréable par les personnes qui en
avaient hérité, mais elles ont changé
d’avis après quelques heures d’exposition. Quand, plus tard, les chercheurs
ont demandé aux employés des deux
étages de remplir un questionnaire relatif à leur humeur et à plusieurs paramètres concernant leur santé et leur bienêtre, les réponses de ceux qui avaient
été soumis à l’éclairage «dopé» en
lumière bleue faisaient apparaître des
personnes globalement de meilleure
humeur, qui éprouvaient le sentiment
de mieux travailler, de mieux dormir la
nuit, etc.
En milieu hospitalier, on s’était déjà rendu
compte qu’il était préférable de travailler
avec une lumière se rapprochant de la
lumière du jour: elle semblait assurer
une meilleure vigilance au personnel
médical et paramédical. Dans l’expé-
35
ATHENA 267 · Janvier 2011
> MÉDECINE
rience anglaise, le choix s’était porté sur
une lumière un peu plus froide encore.
Voie que suit d’ailleurs la luminothérapie, où plusieurs études ont souligné la
supériorité de la lumière bleue.
D
ans votre expérience relative
à l’impact de la lumière sur le
traitement des stimuli émotionnels, c’est de la lumière bleue «pure»
que vous avez utilisée, et non de la
­lumière blanche enrichie en bleu ?
Effectivement. Les cellules ganglionnaires étant particulièrement sensibles
à la lumière bleue dans les longueurs
d’onde voisines de 480 nanomètres,
nous avons utilisés cette lumière
monochromatique afin de nous donner les meilleures chances sur le plan
expérimental.
Des voix
chargées d’émotion
36
C
omment s’est articulée l’expérience ?
Nous avons sélectionné 17 volontaires
sains, hommes et femmes âgés de 18 à
30 ans, sans antécédents médicaux ou
psychiatriques. L’expérience consistait
à leur faire entendre des voix neutres
sur le plan émotionnel et d’autres véhiculant une émotion négative, la colère,
tandis qu’ils étaient exposés alternativement, chaque fois durant 40 secondes, à
une lumière d’ambiance bleue ou verte.
Parallèlement, nous enregistrions leur
activité cérébrale par IRMf, avec pour
centre d’intérêt ­principal l’organisation
­fonctionnelle des régions du cerveau
qui traitent ­l’information émotionnelle.
Pour des raisons méthodologiques,
les participants devaient préciser s’ils
entendaient une voix d’homme ou
une voix de femme, les deux étant
­représentées en nombre égal. ­Pourquoi
cette tâche ? D’une part, pour nous
assurer que les sujets demeuraient
­vigilants dans le ­scanner. D’autre part,
pour éviter qu’ils ­focalisent toute leur
attention sur le seul caractère émotionnel des stimuli, ce qui aurait amplifié les
réponses cérébrales. La tâche demandée nous ­servait donc de «ligne de
base» à laquelle s’additionnait ­l’impact
­émotionnel des stimuli.
A
utre aspect méthodologique, les voix impliquées dans
l­ ’expérience ne prononçaient pas
des mots ?...
Non, elles véhiculaient des sons
humains dépourvus de signification
lexicale. Pourquoi ? Parce que nous
voulions éviter tout traitement sémantique qui aurait pu biaiser les résultats.
Par exemple, le mot «chaise», censé
être neutre, pourrait en fait revêtir
une connotation émotionnelle chez
­certaines personnes, en fonction de
leur vécu. Nous nous en sommes
remis à l’expertise de nos collègues
de ­l’Université de Genève pour la validation de la tâche auditive que nous
avons utilisée. Non seulement il fallait
que les sons apparaissent neutres ou
porteurs d’émotions négatives, mais
aussi qu’ils soient tous similaires sur
le plan de l’énergie acoustique dégagée. En effet, des sons qui diffèrent par
leurs propriétés physiques peuvent
également différer par leur impact sur
le cerveau.
En outre, si nous avons opté pour la
diffusion de sons plutôt que d’images,
bien qu’il soit plus aisé de générer des
émotions visuellement qu’auditivement, c’est parce que la projection
d’images aurait été synonyme d’émission de lumière, ce qui aurait rendu difficile le contrôle de l’influence exacte
de la lumière bleue.
V
ous avez retenu des stimuli
sans coloration émotionnelle
et d’autres à connotation négative.
Pourquoi avoir fait l’impasse sur les
émotions positives, telle la joie ?
Parce que les émotions positives sont
plus malaisées à contrôler, surtout à
partir de stimuli auditifs. Si quelqu’un
vous enguirlande ou braque sur vous
un revolver, il ne fait aucun doute que
vous éprouverez une émotion négative. Par contre, un beau ciel bleu procurera une émotion positive à certains,
mais laissera d’autres indifférents.
Nous savons par ailleurs que les sub­
strats neuronaux sous-tendant les
émotions positives sont assez semblables à ceux qui servent de support
aux émotions négatives. L’amygdale,
par exemple, intervient dans les deux
cas. L’activation des substrats cérébraux concernés est cependant plus
forte pour les émotions négatives. Sans
Philippe LAMBERT · MÉDECINE
1
2
1. Une lumière ambiante bleue augmente la réactivité du cerveau à des sons émotionnels dans un réseau de régions comprenant
la «voice area» (1,2), l’amygdale (3) et l’hypothalamus (4).
2. La luminothérapie (ici, la Luminette de la société liégeoise Lucimed) est employée avec succès pour lutter, entre autres, contre le trouble affectif saisonnier et le «blues de l’hiver». Des travaux récents ont souligné la supériorité de la lumière bleue sur la lumière blanche
pour ce type d’applications.
doute faut-il y voir l’empreinte de l’évolution, être poussé à fuir prestement
en cas de menace s’avérant assurément plus important pour la survie que
­s’extasier devant des petits bonheurs
de l’existence.
La réponse
du cerveau
V
enons-en aux résultats de l’étude. Dans quelle mesure ­l’effet
supposé de la lumière bleue sur le
traitement cérébral des émotions
est-il confirmé ?
Notre expérience démontre ce que
nous pressentions: la lumière bleue,
dont nous avions déjà découvert
­l’impact sur l’activation de régions
cérébrales intervenant respectivement
dans l’éveil, dans la vigilance et dans la
mémoire de travail, affecte bel et bien
l’organisation fonctionnelle du cerveau
lors du traitement des émotions.
Comparée à la lumière verte, elle
­augmente la réponse aux stimuli auditifs émotionnels dans la voice area (en
français, l’aire de la voix), région située
au sein du cortex tem­poral chargée
de décoder l’information vocale et les
émotions y afférentes, et dans l’hippocampe, structure sous-­tendant certains
aspects de nos réactions émotionnelles et de la mémoire. De surcroît, lors
du traitement des émotions, la lumière
bleue renforce sélectivement la connec­
tivité ­fonctionnelle entre la voice area,
l’amygdale et ­l’hypothalamus. L’amygdale est une structure de grande importance pour les réponses émotionnelles
et la régulation de l’humeur, tandis que
­l’hypothalamus est impliqué non seulement dans la réponse émotionnelle,
mais également dans la régulation des
rythmes biologiques et du sommeil. Il
existe donc un réseau unique qui intègre les informations émotionnelle et
lumineuse.
Q
ue nous apprennent ces résultats au sujet de l’influence de la
lumière ambiante sur l’humeur ?
On savait que la lumière, en particulier
la lumière bleue, a un impact positif
sur l’humeur. Aussi peut-on émettre
l’hypothèse suivante: cet effet bénéfique serait obtenu en partie grâce à
un meilleur traitement des émotions,
lequel résulterait d’une optimisation
du dialogue entre les régions cérébrales concernées.
N
éanmoins, n’est-il pas concevable qu’un traitement plus fin
des émotions négatives puisse avoir
des conséquences délétères sur
­l’humeur ?
Dans notre expérience, nous n’avons
pas évalué ce que ressentaient les
­participants. Dès lors, il est théoriquement possible qu’un traitement
plus approfondi d’émotions négatives
nuise à l’humeur. Toutefois, il est bien
établi aujourd’hui qu’une exposition
répétée à la lumière bleue l’influence
positivement. D’où notre hypothèse.
Afin ­d’approfondir la question, nous
étudions actuellement l’effet de la
lumière sur le traitement émotionnel
cérébral chez des personnes souffrant
de dépression saisonnière. À plus long
terme, notre ambition est de déterminer avec précision par quels mécanismes la lumière modifie l’humeur.
Dans la ­foulée, nous visons à apporter notre pierre à l’édifice du traitement des maladies psychiatriques par
luminothérapie.
Il est acquis qu’améliorer la qualité de
notre éclairage intérieur pourrait nous
aider à être plus éveillés, à nous ­sentir
mieux, à être de meilleur humeur...
D’autant que nous venons de prouver
que quelque chose se passe bel et bien
dans le cerveau. 
+
Pour en savoir
plus
Centre de Recherche du
cyclotron
http://www2.ulg.ac.be/crc
37
ATHENA 267 · Janvier 2011
> PHYSIQUE
Au cœur d’une salle qui pourrait
­contenir une cathédrale, un détecteur
de 26 mètres de long, 16 mètres
de large, 16 mètres de haut et pesant
10 000 tonnes baptisé Alice (A Large
Ion Collider Experiment) fera entrer
en collision des ions de plomb afin de
recréer en laboratoire les conditions qui
régnaient juste après le Big Bang.
Les données obtenues permettront
d’étudier l’évolution de la matière
de la naissance de l’Univers à nos jours
38
Il y a 14 milliards d’années,
moins de 10 microsecondes
après le Big Bang, l’Univers
était trop chaud et trop dense
pour que les particules qui
composent les noyaux
atomiques, à savoir les protons
et les neutrons, puissent
se former. Leurs constituants,
les quarks (particules élémentaires de la matière) et les gluons
(particules porteuses de force),
se déplaçaient donc librement
dans une «soupe primordiale»
appelée plasma de quarks et de
gluons. C’est ce postulat que les
physiciens essayèrent de vérifier
au Cern (voir encadré p.41) dès
1986. Les dernières expériences
réalisées à Genève, au sein
de l’accélérateur de particules,
ouvrent de nouveaux horizons
sur l’Univers primordial
ALICE
au pays des
gluons
P
Texte : Paul DEVUYST • Photos: A.SABA (p.38), Cern (p.40)
our ce faire, il était nécessaire de «déconfiner», en
laboratoire, les quarks et
les gluons des protons et
des neutrons. Cette opération était concevable en accélérant un
faisceau d’ions (atomes auxquels on a
enlevé les électrons) et en l’envoyant sur
une cible fixe. Lors du démarrage du programme d’ions lourds du Cern, on utilisa
des noyaux d’oxygène et de soufre relativement légers.
Après avoir affiné les techniques expérimentales, le Cern fut en mesure, en 1994,
d’utiliser des ions véritablement lourds,
des ions de plomb. Dans le cadre du programme cible fixe pour les ions du super
synchrotron à protons (SPS), les chercheurs mirent au point plusieurs expériences pour déceler les signaux que la
théorie prédisait en cas de formation
du plasma. En 2000, le Centre annonça
la découverte d’un «nouvel état» de la
matière. Cependant, ces mesures ne permettaient pas de savoir si ce nouvel état
était vraiment le plasma des quarks et de
gluons ou uniquement un état précurseur. Il fut donc décidé de pousser plus
en avant les investigations...
Toujours plus
puissants
Pour atteindre cet infiniment petit, il faut
déployer des énergies énormes et donc
construire des accélérateurs de particules et des «collisionneurs» toujours plus
puissants. C’est ainsi que le Cern inaugurait, en 1957, un synchrocyclotron de
600 Mev; en 1959, un synchrotron à protons (PS) de 28 Gev et en 1971, un super-
Paul DEVUYST · PHYSIQUE
synchrotron à protons (SPS) de 300 Gev
dont l’énergie fut portée à 500 Gev fin
1978. Et puis ce fut le LEP (Large electron-positron collider), une machine de
200 Gev où les électrons et les positons
(des particules insécables) se rencontraient grâce à de super-aimants qui
guidaient, accéléraient et courbaient les
faisceaux de particules avec une précision extrême. Si les expériences réalisées
au LEP confirmèrent les théories d’unification et de classification des particules
élémentaires, son énergie s’est avérée
encore insuffisante et il fut arrêté en
2001.
En décembre 1991, les délégués au
Conseil du Cern avaient déjà convenu à
l’unanimité que le grand collisionneur
de hadrons (LHC pour Large Hadron
Collider) était la machine qui convenait
pour assurer de nouveaux progrès dans
le domaine de la recherche en physique
des hautes énergies. Il ne s’agissait plus
d’accélérer et de faire se heurter des électrons et des positons mais bien des protons à des énergies bien plus élevées.
Pour les accélérer et les maintenir confinés en d’étroits faisceaux, des champs
magnétiques extrêmement intenses
étaient nécessaires. Comme les aimants
classiques ne pouvaient plus satisfaire
à ces deux objectifs, les chercheurs ont
eu recours à des aimants fabriqués en
un alliage de niobium / titane, un matériau supraconducteur, capables de faire
tourner les protons sans dissiper de chaleur. En contrepartie, les 1.300 aimants
devaient être refroidis en permanence
à -271°C grâce à 700.000 litres d’hélium
liquide qui circulent dans une ligne
cryogénique attenante composée de
3.000 éléments soudés bout à bout et
qui constitue bel et bien le plus grand
congélateur du monde puisqu’elle est
longue de 27 km. Elle est alimentée par
d’énormes compresseurs d’une puissance de 17 mégawatts.
À ce jour, le LHC est le plus puissant
accélérateur de particules au monde et
dépasse, en terme d’énergie, son grand
rival américain, le «Tevatron», basé dans
l’Illinois. Les protons pourront y être
accélérés jusqu’à une énergie de 7 TeV,
soit près de 7.500 fois leur énergie de
masse; l’énergie totale de deux protons
incidents sera ainsi de 14 TeV. À l’avenir,
le LHC sera également utilisé pour accélérer des ions lourds comme le plomb
avec une énergie totale de collision
de 1.150 TeV pour le noyau dans son
ensemble, soit un peu plus de 2,75 TeV
par nucléon qu’il contient.
Le LHC est donc censé «révolutionner»
le monde de la physique en apportant
des précisions sur les premiers instants
de l’Univers et aussi identifier le fameux
boson de Higgs. Son coût: 3,9 milliards
d’euros. Des fuites d’hélium dans la première installation avaient malheureusement fait perdre un an au chantier mais
le planning est désormais parfaitement
maîtrisé.
Quatre expériences majeures nécessitant cet appareillage colossal doivent
être réalisées dans la caverne artificielle
située à 100 mètres de profondeur sous
les frontières suisse et française: ATLAS
qui réunit 1.800 scientifiques de 34
pays pour détecter le boson de Higgs;
CMS qui vise également à enregistrer la
trace du boson de Higgs mais selon une
technologie différente; ALICE qui devrait
recréer en laboratoire les conditions du
Big Bang avec des plasmas de quarks et
de gluons; et LHCb qui tentera de comprendre pourquoi l’Univers est constitué
de matière qui n’a pas été annihilée par
l’antimatière après le Big Bang.
La belle anatomie
d’Alice
Si la physique théorique est en mesure de
décrire le plasma initial, seules des expériences pouvaient valider ou invalider
ces hypothèses. L’objectif du détecteur
ALICE (A Large Ion Collider Experiment)
est donc d’étudier la matière nucléaire
dans un état extrême de température
et de densité, la «soupe primordiale»
de quarks et de gluons et ainsi apporter
des éclairages nouveaux sur les questions fondamentales telles que l’organisation ultime de la matière soumise à
l’interaction forte, une des quatre forces
fondamentales.
Plus de 1.000 physiciens et ingénieurs
de 30 pays différents ont contribué à la
construction de ce détecteur qui mesure
16 m de haut, 26 m de long et pèse plus
de 10.000 t. L’optimisation et la conception d’Alice ont été dictées par des critères différents de ceux des autres expériences LHC: le détecteur doit en effet
pouvoir séparer les nombreuses particules produites à chaque collision plomb-
+
Pour info
La masse des particules
subatomiques ne s’exprime
pas en grammes mais en
électronvolts (masse et énergie
sont équivalentes, selon la
formule d’Einstein: E=mc2).
L’électronvolt (eV) est donc une
unité de mesure d’énergie dont
la valeur, obtenue expéri­men­
talement, est définie comme
étant l’énergie cinétique d’un
électron accéléré depuis le
repos pour une différence de
potentiel d’un volt:
1 eV = 1,602.10-19J.
1 MeV = 106 électronvolts
(1 mégaélectronvolt =
1 million d’électronvolts),
1 GeV = 109 électronvolts
(1 gigaélectronvolt =
1 milliard d’électronvolts),
1 TeV = 1012 électronvolts
(1 téraélectronvolt =
1 000 milliards
d’électronvolts).
39
ATHENA 267 · Janvier 2011
> PHYSIQUE
1
plomb - jusqu’à 20.000 - et identifier leur
nature.
Alice est constitué de plusieurs systèmes de détection plongés dans un
champ magnétique produit par un
imposant électroaimant solénoïdal.
Un spectromètre de muons complète
­l’expérience. Alice utilise la quasi-totalité des techniques connues pour la
détection des ­particules. Certains événements peuvent contenir des dizaines
de milliers de ­traces. Ainsi, une grande
segmentation des détecteurs est nécessaire ainsi qu’une très grande puissance
de calcul pour la reconstruction des particules. Les flux de données produits par
l’expérience Alice sont les plus importants de toutes les expériences LHC.
1. Un anneau souterrain dans lequel
le LHC devrait permettre de
recréer les conditions primor­diales
de la matière.
40
2. ALICE au pays des gluons :
l’expérience vise à recréer
en laboratoire les conditions
du Big Bang avec des plasmas
de quarks et de gluons.
3. La collision de particules
élémentaires de matière et
de particules porteuses de force
enregistrée par ALICE.
3
Des matériaux
espions
La très grande quantité de particules
produites est une des caractéristiques de
ces collisions d’ions lourds, environ 100
fois plus que dans une collision typique
proton-proton. Ces très nombreuses particules ont imposé de fortes contraintes
de construction du détecteur, particulièrement au niveau de la trajectographie
des particules et l’un des éléments les
plus importants d’Alice est le détecteur
à pixels au silicium, clé de la mesure des
trajectoires des particules.
Au plus proche du point d’impact, le «trajectographe» est constitué de capteurs en
silicium, résultat de nombreuses années
de développement. Une seule puce de
2
1,8 cm2 renferme plus de 8.000 pixels,
reliés à des câbles miniaturisés. Une telle
granularité permet de distinguer la trace
de chacune des particules créées dans la
collision.
Pour éviter une pollution de l’information
récoltée par le bruit électromagnétique
environnant, les signaux sont transformés en impulsions lumineuses acheminées par fibres optiques vers les systèmes
d’acquisition informatiques. En tout, plus
de 10 millions de cellules sensibles au
passage des particules entourent le point
d’impact à moins de 50 cm.
Une nouvelle
recette ?
Au cours des mois de novembre et de
décembre et pour la première fois de la
courte histoire du LHC, des collisions de
plomb ont été réalisées, c’est-à-dire que
des particules (protons, électrons, ions)
se sont fracassées les unes contre les
autres à une vitesse proche de celle de
la lumière. Lors du choc frontal de deux
ions de plomb, il peut y avoir «déconfinement» des quarks et des gluons qui
constituent les nucléons (protons et
neutrons) des deux noyaux de plomb
en collision. Ce qui reproduit la «soupe
primordiale» qui a dû exister quelques
microsecondes après le Big Bang. En
fondant, les noyaux de plomb forment
ce que les physiciens appellent de la
«soupe quarks et gluons». La température qu’atteint la matière formée lors
du choc entre deux noyaux de plomb
fut de l’ordre de 2 milliards de degrés,
Paul DEVUYST · PHYSIQUE
Le C E R N
L
’idée de créer le Cern (Centre européen pour la
recherche nucléaire) remonte aux années 40,
lorsque quelques scientifiques clairvoyants ont
compris la nécessité pour l’Europe de posséder un
centre de recherche en physique de classe mondiale. Ils
aspiraient tout à la fois à enrayer la fuite des cerveaux
vers l’Amérique et à donner une impulsion unificatrice à
l’Europe d’après-guerre. Le Cern a brillamment réalisé ces
deux objectifs et constitue aujourd’hui un magnifique
exemple de collaboration internationale.
En 1952, avec le soutien de l’UNESCO, 11 gouvernements
européens (dont la Belgique) décidèrent de créer un
«Conseil Européen pour la Recherche Nucléaire» qui
devait s’installer sur la frontière franco-suisse, près de
Genève. Les premiers travaux pour la construction du
laboratoire et de son accélérateur commencèrent au
mois de mai 1954 et le 29 septembre 1954 fut signée la
convention instituant le Cern.
Actuellement, il compte 20 états membres (dont
la Belgique), 8 états ou organisations ont le statut
d’observateur et 28 états non-membres participent
actuellement à ses programmes.
Trois scientifiques - Carlo Rubbia et Simon van der Meer
en 1984, Georges Charpak en 1992 - ont reçu le prix Nobel
de Physique pour des travaux entrepris au Cern et trois
autres lauréats du prix Nobel participent aux programmes
de recherche. Environ 8.000 scientifiques visiteurs, soit la
moitié des physiciens des particules du monde, viennent
au Cern pour mener des recherches, 580 instituts et
universités de 85 nationalités différentes utilisent ses
installations. Le Cern emploie environ 2.500 personnes.
41
Véritable « cathédrale du savoir », le plus grand accélérateur
de particules au monde (LHC pour Large Hadron Collider) est
un anneau de 27 km de circonférence enfoui à 100 m sous
terre à la frontière franco-suisse, près de Genève.
soit plus de 100.000 fois celle régnant
au cœur du Soleil !
Les premiers résultats de ces expériences sont prometteurs. Ainsi lors des
collisions d’ions de plomb (constitués
de 208 protons et neutrons), le nombre
de particules produites est beaucoup
plus important que pour une succession de 208 collisions entre protons. «Les
­expériences prouvent que ces collisions ont
produit une matière d’une densité et d’une
température encore jamais atteintes et
montrent également que les particules qui
la forment ont un comportement ­collectif
faisant penser à un liquide de très faible
viscosité», devait déclarer Yves Schutz,
porte-parole adjoint de l’expérience
Alice.
Cet état liquide constitue une véritable
surprise pour les chercheurs du Cern
car la théorie suggérait jusqu’ici que le
cocktail originel devait plutôt être…
gazeux. La théorie va donc devoir être
révisée !
Sachant que l’acquisition de données
s’est poursuivie pendant plusieurs
semaines et que le LHC a déjà fourni la
quantité de données programmée pour
2010, la communauté de la recherche
sur les ions lourds au LHC attend beaucoup de la poursuite de l’analyse des
données, qui pourrait contribuer de
façon importante à l’émergence d’un
modèle plus complet du plasma quarksgluons et par conséquent, de l’Univers
primordial.
Les scientifiques doivent maintenant
analyser ces résultats afin de déterminer
si les collisions ont bien reproduit ce qui
a existé quelques microsecondes après
le début de l’Univers, un travail qui leur
demandera plusieurs mois compte tenu
du fait que l’acquisition de ­données s’est
poursuivie pendant plusieurs semaines
et qu’elle est… énorme ! 
+
Pour en
savoir plus
http://www.cern.ch
ATHENA 267 · Janvier 2011
> PHYSIQUE
MYRRHA
l’alchimiste
42
Le 29 novembre 2010,
le Forum stratégique européen
sur les infrastructures de
recherche (ESFRI) retenait
le projet MYRRHA comme
l’un de ses projets prioritaires.
Une reconnaissance pour
ce programme belge unique
au monde dont un des objectifs
est la transmutation
des déchets nucléaires
I
nfrastructure de recherche du
CEN (Centre d’étude de l’énergie
nucléaire) de Mol, MYRRHA (Multipurpose hYbrid Research Reactor
for High-tech Applications) est un
projet de démonstration d’une nouvelle
classe de systèmes nucléaires pilotés
par accélérateur de particules (appelés
systèmes ADS, acronyme de l’anglais
Accelerator Driven System). Il est le fruit
d’une collaboration entre le CEN et le
CNRS (Centre national de la recherche
scientifique/Institut national de la physique nucléaire et de la physique des particules - France), mais il s’inscrit dans le
7e programme-cadre de la Commission
européenne et s’est étendu au-delà des
frontières européennes puisque la Corée
du Sud et la Chine ont également rejoint
le projet.
Entamées à Mol voici plus de dix ans, ces
recherches doivent permettre d’étudier
les déchets nucléaires et le comportement de matériaux et combustibles
utilisés dans des réacteurs de fission et
Texte : Henri DUPUIS • [email protected] • Photo : SCK•CEN (p.43)
pour l’avenir, de fusion. Le projet prévoit - à l’horizon 2023 - la construction
à Mol d’un réacteur ADS d’une puissance d’environ 50 MW qui permettra de réduire la toxicité à long terme
des déchets nucléaires par le biais de
la séparation et de la transmutation.
Une phrase dont chaque composante
demande une explication.
Réacteurs souscritiques
Les réacteurs ADS ne ressemblent guère
aux réacteurs actuels. Ils sont constitués
de deux parties bien distinctes: un accélérateur de particules qui fournit à un
réacteur des neutrons permettant à la
réaction de se produire. C’est pour cette
raison que ces réacteurs sont qualifiés de
sous-critiques: la réaction nucléaire ne
peut s’entretenir en chaîne comme dans
des réacteurs classiques. Si on coupe
l’approvisionnement en neutrons (c’est-
à-dire lorsqu’on interrompt l’accélérateur), le réacteur s’éteint également.
L’accélérateur (par exemple un cyclotron) accélère des protons jusqu’à une
énergie assez élevée. Ces protons sont
ensuite précipités sur une cible de métal
lourd (en général du plomb fondu ou du
plomb-bismuth), située dans le réacteur
et dans laquelle se produit alors une
réaction (dite de spallation) qui génère
un flux important de neutrons rapides.
Ces neutrons vont alors interagir avec
le combustible contenu dans le cœur
du réacteur et provoquer les réactions
de fission, mais en nombre limité. Un
tel système pourrait bien sûr produire
de l’énergie (en plus de celle nécessaire
à l’alimentation de l’accélérateur), mais
son principal intérêt est qu’il permet
­l’utilisation de combustibles différents
de l’uranium 235 ou du plutonium 239.
Cela pourrait par exemple être du thorium (plus abondant que l’uranium)
enrichi en plutonium produit par les
­centrales actuelles.
Henri DUPUIS · PHYSIQUE
Si une telle installation ne sera fonctionnelle à Mol qu’au-delà de 2020, un
«modèle réduit» y a été inauguré en
mars 2010. Celui-ci, appelé GUINEVERE,
consiste en un petit accélérateur de particules, construit par des équipes fran­
çaises, qui a été couplé au VENUS, réacteur de recherches du CEN.
Déchets nucléaires
et transmutation
Outre le plutonium et l’uranium recyclables comme combustibles, la décharge
d’un réacteur comme ceux que nous
utilisons chez nous représente environ
50 kg de déchets radioactifs par tonne de
combustible usé. Ces déchets se répartissent en deux catégories, les produits
de fission et les actinides. Les premiers
sont le résultat direct de la fission des
noyaux lourds du combustible (uranium
et plutonium) par les neutrons. La plupart d’entre eux (environ 46 kg sur les 50
de déchets) sont à vie courte, c’est-à-dire
ont une période radioactive (voir encadré) inférieure ou de l’ordre de 30 ans;
c’est le cas du césium 137 et du strontium 90. Les autres produits de fission
(environ 3 kg) sont à vie longue; c’est le
cas par exemple du technétium 99, de
l’iode 129 et du césium 135.
Mais la capture de neutrons par les
noyaux du combustible des réacteurs
n’est pas toujours suivie d’une fission,
loin de là. Ces captures produisent simplement des noyaux plus lourds que
ceux d’uranium, appelés actinides dont
le plus connu est le plutonium 239, qui
est fissile et sert aussi de combustible.
Les autres, appelés actinides mineurs
(le dernier de nos 50 kg de déchets)
sont par exemple des isotopes du neptunium, de l’américium et du curium.
Ils sont instables et ont des durées de
vie souvent longues, restant ainsi nocifs
pendant des milliers d’années.
La transmutation est la réalisation du
vieux rêve des alchimistes: changer une
matière en une autre. Plus scientifiquement, il s’agit de transformer un noyau
en un autre par une réaction nucléaire
provoquée par des particules avec lesquelles on le bombarde. On voit de
suite l’intérêt du processus: transformer des isotopes radioactifs de longue
durée en isotopes à vie nettement plus
courte ou, pourquoi pas, en éléments
stables, ne dégageant donc plus aucune
radioactivité. Est-ce possible ? En théorie, oui. En pratique, les difficultés à franchir sont encore énormes, la moindre
n’étant pas de réussir à trier, séparer les
différents types de déchets de manière
industrielle.
La particule qui convient le mieux pour
réaliser les réactions de transmutation
est évidemment le neutron puisqu’il
n’est pas chargé électriquement et qu’il
est déjà disponible dans les réacteurs
où il induit en permanence des transmutations... la plupart non recherchées
comme nous l’avons vu. La meilleure
voie de recyclage consiste donc à réinjecter les déchets dans une installation
du même type que celle qui les a produits. Mais cette fois, en ne laissant plus
faire la nature mais bien en la guidant.
C’est le cas des réacteurs ADS parce qu’il
est possible d’y calibrer le flux de neutrons. Du travail... d’orfèvre en quelque
sorte ! Ainsi, par exemple, le technétium 99 dont la demi-vie est de 200.000
ans pourra, par absorption d’un neutron,
être transformé en technétium 100 qui
a une demi-vie de quelques secondes
et se transforme en ruthénium stable.
Une réaction semblable transformera
l’iode 129 en xénon stable. Dans d’autres
cas, les transmutations ne conduisent
pas à des éléments stables mais permettent de réduire les durées de vie, donc le
temps de stockage. 
Insertion de la ligne verticale
de l’accélérateur GENEPI
(qui produit les protons
accélérés) dans le cœur
du réacteur de GUINEVERE,
le modèle réduit
du futur MYRRHA, à Mol.
+
La radioactivité
Rappelons que la radio­
activité est la transformation
des noyaux d’atomes qui
­s’accompagne d’une émission
de corpuscules. Elle peut être
naturelle (l’uranium) ou artificielle lorsqu’on bombarde
des noyaux stables avec des
particules (protons, photons,
neutrons, etc.) pour les rendre
instables.
La période (ou demi-vie)
d’un atome radioactif est une
notion statistique; c’est la
durée à l’issue de laquelle le
noyau de l’atome a une chance
sur deux de se désintégrer.
Pour un ensemble ­d’atomes
(matière), la période est le
temps nécessaire pour que la
moitié des atomes se désintègrent naturellement.
43
ATHENA 267 · Janvier 2011
> ASTRONOMIE
À la Une
du Cosmos
Texte : Yaël NAZÉ • [email protected] • http://www.astro.ulg.ac.be/news
Étoiles en plus ! Tout d’abord, il y a plus d’étoiles petites et rouges que prévu - jusqu’à
20 fois plus pour certaines galaxies, ces «grosses boules» dites elliptiques: le nombre
total d’étoiles dans l’Univers triplerait donc ! D’autre part, les sages affirmaient que ces
mêmes galaxies elliptiques n’avaient pas d’étoiles jeunes, mais ils se trompaient!
Photo: HST


La sonde solaire SoHO a découvert sa 2000e
comète ! Depuis 1995, la sonde observe le
­Soleil et les comètes qui le frôlent - et elle
bat du même coup les pauvres Terriens qui
en sont toujours à une trentaine de comètes
­découvertes «à l’œil»...
Photo: SoHO
44

Le LHC (Large Hadron Collider) a des
rivaux célestes ! Ce sont les rayons gamma
en provenance de l’étoile Eta Carinae
(et leur étude par des astronomes
­notamment liégeois) qui le révèlent.
Ils sont dus à des protons de très haute
énergie accélérés dans les vents stellaires
des deux étoiles massives formant Eta Car.
Photo: Science

La sonde japonaise Akatsuki a bien atteint
Vénus, mais il y a eu un problème (panne
des moteurs?): elle pourra réessayer de se
mettre en orbite autour de la planète dans
7 ans. En attendant, Vénus se consolera
avec un autre satellite, naturel cette fois:
s’il n’existe pas de lune vénusienne, un
petit astéroïde, 2002 VE68, est devenu
un «quasi-satellite» de la planète: son
orbite est actuellement en résonance
avec celle de «l’Étoile du Berger».
Photo: JAXA
Yael NAZÉ · ASTRONOMIE

Si les volcans terrestres éjectent de la lave
rocheuse, les cryovolcans sont eux censés
éjecter... de la glace.
On vient de trouver le premier sur Titan:
baptisé Sotra Facula, il a un petit air
de volcan terrien.
Photo: Cassini

Utiliser la Lune pour détecter des neutrinos, c’est possible...
L’idée est d’observer le bord de la Lune en quête de «flashs» radios
produits lorsque les neutrinos énergétiques interagissent avec la matière
lunaire. Hélas, aucune détection jusqu’ici: les astronomes ne peuvent
que mettre des limites sur le flux de neutrinos célestes...
Photo: NRAO
45

De la vie exotique, c’est possible ? Certainement sur Terre ! Outre celle des lacs antarctiques, coincés sous la banquise, il y en a dans les inclusions
cristallines et dans des lacs riches en arsenic, poison notoire. Cette dernière nouvelle, annoncée par la NASA, avait fait bruire le web de rumeurs
affolantes (découvertes d’aliens) mais avait également déclenché une controverse scientifique: si elle vit bien dans des conditions extrêmes,
il n’y aurait pas assez de preuves que cette bestiole exotique utilise l’arsenic à la place du phosphate !
Photo: CLR/Flickr

On se demande souvent «à quoi ça sert» de
faire du spatial. La recherche fondamentale
ne sert «à rien» (sauf à améliorer nos connaissances) par nature même...
mais cela ne l’empêche pas
d’avoir des retombées bien
concrètes: en Belgique, par exemple, plus d’un millier d’emplois, sans
oublier un rendement intéressant
(un euro investi = des emplois = ­création
de plus d’un euro de produits et ­services
ailleurs dans l’économie belge)!

«Faire du spatial», c’est possible.
Oubliez les arnaques bien connues
où l’on vous vend un terrain martien
ou un nom d’étoile: vous pouvez soit
faire du tourisme (mais ce n’est pas
pour 2011), soit envoyer votre photo
au-dessus de la limite symbolique
des 100 km (pour 5 dollars), soit...
faire de la science en cherchant des bulles ou en lançant (virtuellement) des astéroïdes sur la Terre...
Plus d’infos sur http://www.milkywayproject.org/
et http://www.purdue.edu/impactearth
ATHENA 267 · Janvier 2011
> ESPACE
I
l y a 30 ans, la Nasa (National Aeronautics & Space Administration) inaugurait l’ère du Space Shuttle, avec des navettes réutilisables qui vont et viennent autour de la Terre. Son vol inaugural,
le 12 avril 1981, a coïncidé avec la journée du 20e anniversaire
de la mission historique du premier Homme dans l’espace
(le cosmonaute Youri Gagarine). 2011 marque la fin de l’odyssée des
navettes spatiales américaines (1). Au nombre de trois (Atlantis, Discovery, Endeavour), elles doivent encore décoller et évoluer, cette année,
pour trois missions destinées à l’agrandissement et la maintenance de
l’Iss (International Space Station). Mises hors service à cause de leur
exploitation coûteuse – un demi milliard d’euros par expédition -, elles
vont être vendues pour prendre place dans trois musées américains de
l’astronautique
Texte: Théo PIRARD · Photo: Nasa
D
46
ans les années 70, lorsque le
­Président Nixon (1913-1994)
mit fin au programme Apollo pour
­donner la priorité au programme
Space Shuttle, la Nasa prétendait
«révolutionner» le transport spatial. En quoi ce système devait-il être
­révolutionnaire ?
Le Space Shuttle reste à ce jour le seul
avion-fusée réutilisable avec équipage.
D’une masse de 105 tonnes sur orbite,
il peut transporter jusqu’à 20 tonnes
dans sa soute. Il a fallu neuf années - de
1972 à 1981 - pour mettre au point cette
machine complexe qui devait faire office
de «bonne à tout faire» au-dessus de
nos têtes. En tout, six navettes qui sont
allées dans l’espace ont été construites
en Californie sous la responsabilité de
Rockwell (aujourd’hui Boeing). En trente
ans (jusqu’à la fin de 2010), elles ont servi
à 133 missions réussies, dont 1/3 pour la
construction de l’Iss.
Mais deux vols - avec Challenger, lors de
son lancement le 27 janvier 1986, puis
avec Columbia, à son retour sur Terre le
1er février 2003 - ont montré combien
ce système à haut risque était délicat à
exploiter et réclamait de grands soins
pour sa mise en œuvre. Quatorze astronautes ont trouvé la mort dans l’explosion des deux navettes. C’est ce bilan dramatique qui a, en janvier 2004, poussé le
Président Bush Junior à planifier l’arrêt
du Space Shuttle pour 2010.
F
aut-il en déduire que ce programme, audacieux et ambitieux, s’est
soldé par un échec pour les contribuables américains ?
Il faut bien admettre que le retrait
­prématuré des navettes - chacune d’elles aurait dû être employée cent fois !
- constitue l’échec d’une prouesse technologique. L’objectif de rendre l’espace
plus accessible et moins coûteux n’a pu
être atteint. Les mille et une précautions
que la Nasa a dû prendre pour renforcer
la sécurité se sont traduites par une flambée des frais d’exploitation. Au lieu de
voler une fois par mois, le Space Shuttle
ne peut, aujourd’hui, réaliser que 3 à
4 missions par an. Et dire que l’Amérique
(1) La seule maquette de la navette
en ­grandeur réelle se trouve à
l’Euro Space Center à Libin-Transinne et offre la possibilité aux
jeunes de se mettre dans la peau
d’astronautes. Réalisée en 1991
par une firme de Floride, Amicitia
est aménagée avec une réplique
des instruments que Dirk Frimout a utilisés durant sa mission
spatiale..
a tenté de convaincre l’Europe d’abandonner le projet du lanceur Ariane
pour jouer la carte des navettes ! Même
l’Union Soviétique a voulu imiter cette
Amérique en développant son ­planeur
habité, Bourane, mais sa faillite mit fin au
programme.
L
es deux tragédies humaines qui
ont frappé durement le Space
Shuttle ne peuvent faire oublier le
­bilan remarquable de ses réussites ?
Le bel oiseau noir et blanc, qui vole à près
de 28.000 km/h avec une soute ouverte,
a donné lieu à beaucoup de rêves et
fait naître de grands espoirs. Avec ses
133 succès, il a montré ce qu’hommes
et femmes sont capables de réaliser
là-haut, dans le vide et en impesanteur.
Sans ce vaisseau piloté polyvalent, qui
peut accueillir jusqu’à huit astronautes,
la réalisation de l’Iss eût été une entreprise impossible. Font partie de l’histoire
récente, ces images spectaculaires de largage, de réparation, d’entretien, de récupération de satellites, puis ­d’astronautes
en scaphandre évoluant et travaillant
dans un environnement dangereux,
ainsi que de chercheurs au travail dans
des laboratoires polyvalents, comme les
modules européens Spacelab. La Belgique a eu sa part de rêve avec son premier
astronaute, Dirk Frimout, qui effectua un
vol spatial dans la navette Atlantis du 21
mars au 2 avril 1992 pour étudier le changement global dans notre atmosphère.
Les trois derniers vols du Space Shuttle
sont programmés pour février, avril et
juin 2011. 
Théo PIRARD · ESPACE
L’Europe
spatiale
L
crise
es deux programmes ­phares
de l’Union dans l’espace,
faute d’investissements sur
le long terme, se trouvent
compromis pour donner
lieu, durant la décennie, à des systèmes
opérationnels d’envergure globale: ni la
constellation Galileo de satellites civils
de navigation, ni l’initiative Gmes (Global
Monitoring for Environment & Security)
n’ont obtenu le financement des satel­
lites supplémentaires et récurrents.
Aux yeux du monde, l’Union manque
de sérieux dans son développement
d’applications spatiales. Plus grave: c’est
­l’absence, dans les faits, d’une vision
technologique dans l’espace, qui ­permet
l’éclosion d’entreprises nouvelles avec
des produits, services et emplois à
grande valeur ajoutée. Les jeunes générations d’Européens ­risquent de rater le
coche des innovations que les satellites
pourraient amener rapidement dans le
domaine des techniques de l’information et de la communication. Alors que
les puissances émergentes que sont la
Chine et l’Inde amplifient leurs efforts
­budgétaires en sciences et technologies spatiales, l’Europe, frappée par la
crise financière, réduit la voilure de ses
engagements pour l’espace. Ce que
déplorent quelques députés du Parlement européen qui reprochent à leurs
politiciens nationaux une approche
à courte vue. Ils vont jusqu’à regretter que les opérateurs, constructeurs
et ­utilisateurs de systèmes spatiaux
ne soient pas davantage une force de
conviction grâce à une présentation
plus «sexy» de leur impact sur le quotidien du citoyen ! Le projet d’une grève
de satellites ­pendant une heure suffirait
à ébranler les instances politiques qui
sont tentées de relâcher leurs investissements pour le futur.
Un tabouret ou plutôt,
une chaise
Pourtant, le 25 novembre dernier, le
7e Conseil européen de l’espace qui s’est
«Ne tuez pas la poule aux œufs
d’or !» C’est le cri d’alarme
que lancent à l’envi
quelques parlementaires européens qui, au sein du Groupe
«Ciel & Espace», sont acquis
à la cause du spatial européen.
Ils sont inquiets devant
la tournure des événements
concernant les ressources
budgétaires de l’Union
pour les trois prochaines années
Texte: Théo PIRARD · Photos: Nasa, DLR
tenu à Bruxelles sous présidence belge
augurait tous les espoirs. Il a adopté, à
l’unanimité, une résolution qui est une
nouvelle déclaration de politique générale sur les objectifs stratégiques de
l’Union dans l’espace. Intitulée «Défis globaux: saisir tout le bénéfice des ­systèmes
spatiaux européens», elle donne lieu à
une démarche conciliante, à petits pas,
de ce que doit être l’Europe spatiale pour
ses propres besoins et pour le monde.
Notant l’urgence de déployer les infrastructures opérationnelles de Galileo et de
Gmes, elle demande que la Commission
examine leur support financier pour la
période 2011-2013.
Il fut question au Conseil de l’espace de
la gouvernance des activités spatiales
en Europe, pour insister sur un renforcement des partenariats entre l’Union,
l’Esa (Agence Spatiale Européenne) et les
États membres et leurs institutions respectives. La Ministre Sabine Laruelle, qui
présidait le Conseil comme responsable de la Politique scientifique fédérale
et du programme spatial belge, a noté:
47
ATHENA 267 · Janvier 2011
> ESPACE
«On a avancé sur ce problème sensible
qui fait que le programme spatial européen ­ressemble à un tabouret qui doit
être ­stable sur ses trois pieds.» En fait, on
a affaire à une chaise, avec ce quatrième
acteur qui est Eumetsat, l’organisation
intergouvernementale pour l’exploitation des satellites météorologiques. Les
prévisionnistes du temps, pour affiner
leur diagnostic sur plusieurs jours, ont
plus que jamais besoin des observations
et informations de ces satellites. Eumetsat vient avec l’industrie européenne de
passer commande de six Météosat de
troisième génération qui garantissent
ses services au-delà de 2035!
48
Le 15 décembre, le Parlement européen
s’est rallié à la volonté des 27 États membres (notamment du Royaume-Uni) de
bloquer le budget 2011 de l’Union à son
niveau 2010. Pas de rallonge donc pour
financer les commandes supplémen­taires
de satellites Galileo et Gmes afin qu’on
dispose de systèmes vraiment opérationnels dès 2015. Le manque d’ambition de
ce budget 2011 montre que l’intérêt de
chaque nation, en cette période de crise,
prévaut sur ce que doit être l’esprit communautaire européen.
Une «pole position»
à sécuriser
Il y a cinquante ans, des Européens
médusés vivaient les exploits de l’Union
Soviétique et des États-Unis dans la
conquête de l’espace. Aujourd’hui, ces
mêmes Européens, en réunissant leurs
ressources, sont parvenus à s’imposer
dans le business spatial. Comme ils
avaient décidé de privilégier la recherche et la technologie spatiales à des fins
civiles et pacifiques, il leur restait à réussir sur le plan commercial. Les contrats
gouvernementaux ne pouvaient pas,
à eux seuls, justifier la pérennité d’une
industrie compétitive des lanceurs et
des satellites en Europe.
Il fallait donc à cette industrie gagner
des contrats de lancements pour les
fusées Ariane et réussir la vente des
systèmes spatiaux dans le monde. La
mission paraissait impossible face à
une Amérique qui investit six fois plus
que ­l’Europe dans des activités pour
­l’espace. Surtout que les États-Unis pouvaient compter sur la manne céleste du
programme spatial militaire. Le budget
européen pour des applications militaires dans l’espace - développées en
France, au Royaume-Uni, en Allemagne,
en Italie et en Espagne - représente à
peine 1/20e de ce qui se dépense OutreAtlantique.
Alors que chaque citoyen européen,
pour sa présence dans l’espace, paie par
mois l’équivalent d’une tasse de café ou
de thé, l’Europe a réussi à s’affirmer sur
la scène du spatial. Elle est devenue une
référence globale et a acquis la «pole
position»:
• pour la mise en œuvre des satellites
de télécommunications et de télévision. Plus de la moitié de leurs revenus sont générés par les principaux
opérateurs implantés en Europe,
que sont Ses (Luxembourg), Eutelsat
(France), Inmarsat (Royaume-Uni), et
Hispasat (Espagne);
• dans la vente des satellites d’observation dans le monde. Astrium Satellites
et Sstl (Surrey Satellite Technology Ltd)
sont les acteurs clés de ce créneau
d’affaires dans lequel l’industrie américaine est pratiquement absente;
• dans l’offre «sur mesure» des lance-
ments de satellites depuis le port spatial européen en Guyane française.
Plus d’un satellite sur deux en orbite
géostationnaire (à quelque 35.800 km
à l’aplomb de l’équateur) a été lancé
par une Ariane !
Ce magnifique palmarès de l’Europe
spatiale doit être en permanence consolidé grâce à de nouvelles applications:
la navigation, le haut débit et les services
mobiles par satellites. Face à la concurrence et aux autres puissances, il faut
que l’Union défende son patrimoine
de ­l’espace. D’abord, en préservant son
accès indépendant à cette dimension:
il est impératif d’investir dans un ­système
de transport spatial qui soit ­fiable, flexible et économique (projet NGL/Next
Generation Launcher, alias Ariane 6).
Puis en garantissant le parfait fonctionnement de ses systèmes spatiaux: ses
satellites, devenus des outils incontournables, doivent être protégés des radiations, des météorites, d’interférences et
d’attaques provoquées par des nations
hostiles. À cet égard, tout reste à faire en
Europe. 
Pour la cartographie 3D
de l’environnement terrestre,
l’Europe dispose de systèmes spatiaux
civils les plus performants au monde.
Comme ce satellite allemand de télédétection radar, le Terrasar-X,
réalisé par Eads Astrium:
il peut observer de jour comme
de nuit, à travers la couverture
nuageuse, fournir une vision en relief,
mesurer la vitesse des véhicules
sur les autoroutes…
Théo PIRARD · ESPACE
Brèves
spatiales...
d’ici et d’ailleurs
À lire...
Texte: Théo PIRARD · Photos: Nasa, Esa, Espace et Exploration
habitable de 360 m³. Son alimentation électrique, grâce à 8 panneaux de
­cellules ­solaires, a­ tteint les 84 kW.
I
ss habitée depuis 10 ans sans
i­ nterruption ! Depuis le 2 ­novembre
2000, la Station spatiale ­internationale,
à quelque 350 km ­autour de la Terre, est
habitée en permanence. Le 31 ­octobre
2000, le vaisseau russe Soyouz TM-31
était lancé avec l’astronaute William
Shepherd (commandant de bord), les
cosmonautes Sergei Krikalev et Youri
Gidzenko. Ils furent, du 2 novembre au
21 mars 2001, les premiers résidents de
la Station, ­formée de modules russes et
américains. À l’époque, l’Iss représentait quelque 89 t. À présent, c’est une
­infrastructure de plus de 370 t, habitée
par six personnes. Elle a les dimensions
d’un terrain de football pour un ­volume
G
alileo à bout de souffle ! La
­ ommission européenne continue
C
à promouvoir le système Galileo pour des
activités R&D du 7e programme-cadre.
Le 22 septembre dernier, lors du 3e appel
à projets, un responsable de l’unité de la
navigation par satellites, a reconnu un
sérieux problème de financement pour
le déploiement complet de la constel­
lation et pour le ­développement de nouvelles applications.
Les autorités
politiques
sont
À la date du 2 novembre et depuis la mise
en orbite de son premier élément en
1998, la station a effectué 68.519 tours
du globe, soit un ­parcours orbital de plus
de 2,7 milliards de km ! Il a fallu 103 lancements pour la construire, l’exploiter,
la ravitailler: 67 vaisseaux russes, 34 vols
Space Shuttle, 1 ravitailleur européen
et 1 ravitailleur japonais. L’Administration Obama a annoncé que son exploitation serait poursuivie jusqu’en 2020.
Et la Russie s’est engagée à assurer son
­occupation et sa maintenance jusqu’à
la fin de cette décennie. Ce que doivent
encore confirmer leurs partenaires européen, japonais et canadien. 
L
e
nouveau
magazine
Espace & Exploration. Le
22 décembre, la francophonie a
­retrouvé une superbe revue sur
­l’exploration spatiale, réalisée par
des fans ­d’astronautique. En 2008, le
­bimestriel Espace Magazine ­cessait
d’exister, par décision de son éditeur.
Espace & ­Exploration (100 pages fort
bien ­illustrées) prend la relève : il est
réalisé par la même équipe rédactionnelle de l’association PromEspace et
A. Capella Éditions, sous la houlette de
Marie-Ange Sanguy, par.
Au sommaire du n°1: la mise à la
retraite des navettes américaines, la
station spatiale chinoise, des interviews d’astronautes, la deuxième vie
du lanceur Soyouz… 
Pour en savoir plus:
www.espace-exploration.com
i­nvitées à placer Galileo parmi les priorités budgétaires de l’Union. Mais, dans
­l’attente d’argent frais, le calendrier a dû
être revu.
Quatre satellites pratiquement opérationnels doivent être lancés fin 2011 et
début 2012 (avec quatre ans de retard !).
En 2014-2015, 18 satellites permettront
les premiers services (accès pour tous,
sécurité, service ­commercial) à l’échelle
globale. Il faudra attendre 2016-2017
pour que la constellation de 30 satellites
soit en place afin d’assurer tous les services, y compris ­l’accès réglementé des
instances publiques pour une localisation d’une grande précision... 
49
ATHENA 267 · Janvier 2011
> AGENDA
Sortis de PRESSE
L’histoire de l’électricité. De l’ambre à l’électron
Vuibert
É
50
manation, fluide, particule,
onde.... quelle est l’identité de
cette chose insaisissable mais
bien présente dont
la quête remonte
à 25 siècles et
dont la réalité
nous
échappe
dès qu’on pense
l’avoir cernée?
des applications spectaculaires - nous
croiserons des dizaines de savants,
d’inventeurs et de chercheurs dont
les noms nous sont déjà familiers:
­d’Ampère à Watt et de Thalès de Milet à
Pierre et Marie Curie, ce sont aussi Volta
et Hertz, Ohm et Joule, Franklin et Bell,
Galvani et Siemens ou Edison et Marconi qui, entre autres, viennent peupler
cette aventure.
Au fil d’un récit
imagé - celui
d’une succession de phénomènes généralement
discrets
qui, sous le
regard d’observateurs avertis, débouchèrent sur
On y verra l’ambre conduire au paratonnerre, les contradictions d’une cuisse de
grenouille déboucher sur la pile électrique, l’action d’un courant sur une boussole annoncer: le téléphone, les ondes
hertziennes et les moteurs électriques,
ou encore la lumière emplissant un tube
à vide produire le rayonnement cathodique. Bien entendu, les rayons X et la
radioactivité sont aussi de la partie.
Les origines des grandes entreprises de l’électricité.
Douze pionniers belges
Gérard BORVON
De découvertes heureuses en expériences dramatiques, l’élecricité reste une
force naturelle qui n’a pas fini de susciter des recherches et de soulever des
passions.
Un ouvrage passionnant et très complet sur un phénomène tellement ancré
dans nos habitudes qu’il semble aller
de soi. On appuye sur un interrupteur
et tout s’éclaire, on tourne une clé et
le moteur se met en marche. ! Pourquoi? Comment? C’est à découvrir de
toute urgence par les passionnés et les
curieux !
Collection «Va savoir !»
http://www.vuibert.fr
Collectif
Cercle d’histoire de l’électricté
D
ans la même veine, cet ouvrage
collectif retrace les grandes
étapes du développement des
applications de l’électricité en Belgique
et à l’étranger. À l’origine de cet essor,
on trouve les initiatives de nombreux
ingénieurs, techniciens et entrepreneurs belges dont les contributions de
12 d’entre eux font l’objet de ce livre.
Leur rôle fut en effet significatif et parfois déterminant dans l’invention, le
­perfectionnement ou la mise en œuvre
de techniques innovantes dont les
applications ont modifié, quelques fois
radicalement, aussi bien les méthodes
de production industrielle ou d’exploitation commerciale que les modes de
vie dans toutes les sociétés développées du 19e siècle et du début du 20e.
C’est par le récit de la vie de ces pionniers que l’on peut mieux reconstituer
la parcours de ce que furent l’évolution
technique et les transformations socia-
les suscitées par l’électricité industrielle.
Plusieurs tableaux synoptiques en
donnent des vues d’ensemble, chrono­
logique et alphabétique.
Neuf praticiens de l’industrie, ingénieurs pour la plupart, se sont partagés le travail de recherche et d’écriture
de cet ouvrage dont l’intérêt est triple.
Il sauve de l’oubli ceux-là mêmes sans
qui la vie individuelle et la vie sociale ne
seraient pas ce qu’elles sont devenues
aujourd’hui.
Il décrit les aléas de la recherche, du
développement et de la mise en œuvre
industrielle en analysant leurs réussites
comme leurs échecs. Les entreprises ne
naissent jamais grandes mais grandissent petit à petit.
Enfin, il montre les qualités humaines
et techniques dont ont fait preuve
ces entrepreneurs novateurs en agissant d’initiative, en assumant seuls les
risques.
Le livre est disponible à la Bibliothèque des Sciences et Technologies de
Louvain-la-Neuve et peut être obtenu
sur commande au prix de 25 euros
(+ 7 euros de frais d’envoi):
• en envoyant un courriel à
[email protected]
• ou par courrier
à Jean Charlent,
Chemin des
Hayes, 10 à
1380 Lasne.
Géraldine TRAN · AGENDA
À vos AGENDAS !
L’homme et l’espace
À Mettet...
Du 14 janvier au 27 février 2011
L
’ASBL «Abbaye de Brogne» organise une exposition sur le thème de
l’espace.
Venez découvrir le monde de
­l’espace au travers de supports
didactiques et intercatifs. Voyagez grâce aux maquettes
de l’Esa et de l’Euro Space
Center.
Des conférences grand
public et éducatives sur
­différents thèmes données
par des orateurs de renom:
l’Esa, ses différentes activités
et programmes; vols paraboliques Esa; observation de la
planète Terre, changements
climatiques et de la végétation;
l‘homme en apesanteur; l’astronomie; ou encore sur les programmes éducatifs de l’Esa.
Pour les jeunes visiteurs: un super
concours ! Observez attentivement
l’exposition et gagnez de nombreux
cadeaux, notamment une visite de l’Esa/
Estec, de l’Euro Space Center, du site Esa
de Redu, des livres et fascicules.
La Fédération francophone d’astronomes
amateurs de Belgique (FFAAB) participe
à l’organisation de cette exposition et a
pour missions principales de vulgariser
l’astronomie, d’organiser des activités
et de protéger le ciel nocturne.
Il s’agit d’une initiative de Thierry
Dewandre (Ingénieur à l’Agence spatiale
européenne) et de Jean-Pierre Meunier
(Administrateur de l’asbl) avec le soutien de la DGO6.
Tarif ?
Adultes: 2.50 €; en-dessous de 12 ans:
gratuit ; de 12 à 18 ans: 1 € ;
Groupes sur réservation: 2 €/personne;
­Guidance: 25 €/20 personnes;
Écoles (entité): gratuit;
Écoles (hors entité): 1 €.
Prix entrée conférences ?
Adultes: 7 €; Enfants de –de 12 ans
accompagnant les parents: gratuit
Infos et réservations ?
(souhaitée pour les conférences)
Tél.: 071/79.70.70
E-mail: [email protected].
http://www.homme-espace.eu
Où ? Abbaye Saint-Gérard de Brogne,
Place de Brogne, 3 à 5640 Saint-Gérard
(Mettet)
51
Pour qui ? Tous publics, les jeunes
et les moins jeunes, les amateurs et les
pros!
6 milliards d’Autres
À Bruxelles...
Jusqu’au 3 avril 2011
A
près Paris, Rennes, Apt, Rangoon,
Shanghaï, Marseille, Bordeaux
et Rome, l’exposition vidéo de Yann
Arthus-­Bertrand, «6 milliards d’Autres»,
s’installe à Bruxelles, sur le site de Tour
& Taxis.
Vous y découvrirez le résultat du travail
des 6 reporters partis à la rencontre des
«Autres» dans 78 pays durant 5 ans.
5.600 personnes ont été filmées et interviewées. Du pêcheur brésilien à l’avocate australienne, de l’artiste allemande
à l’agriculteur afghan, tous ont répondu
aux mêmes questions: «Qu’avez-vous
appris de vos parents ? Que souhaitez-vous transmettre à vos enfants ?
­Quelles épreuves avez-vous traversées ?
Que représente pour vous l’amour ?...».
Tarif ?
À travers une quarantaine de questions
essentielles, l’équipe de cette exposition
multiculturelle et universelle a souhaité
suivre d’autres chemins de vie, découvrir ce qui nous sépare, ce qui nous lie et
simplement, apprendre de l’expérience
des autres.
Où ? Tour & Taxis, Avenue du Port, 86c
à 1000 Bruxelles
Pour qui ? Pour tous
Quand ? Du lundi au vendredi de
9h00 à 17h00; Samedi, dimanche et
jours fériés de 10h00 à 19h00.
Vacances scolaires: de 10h00 à 19h00
• Plein tarif: 10 €;
• Seniors, chômeurs, étudiants,
­personnes avec un handicap: 8 €;
• Groupes adultes (à partir de 15 pers.):
8 €;
• Enfants (de 6 à 18 ans): 8 €;
• Enseignants: 6 €;
• Groupes scolaires: 6 €; Groupes de
jeunes entre 6 et 18 ans (à partir de 15
pers.): 6 €; Enfants en-dessous de 6 ans:
gratuit.
Infos et réservations ? (obligatoire
pour les écoles et les groupes)
Tél.: 02/549.60.49 (du lundi au vendredi
de 9h30 à 12h30 et de 13h30 à 17h00)
E-mail : [email protected]
http://www.6milliardsdautres.be
Visitez nos sites :
http://athena.wallonie.be
http://recherche -technologie.wallonie.be/
http://difst.wallonie.be/
DIRECTION GÉNÉRALE OPÉRATIONNELLE
DE L’ÉCONOMIE, DE L’EMPLOI ET DE LA RECHERCHE

Documents pareils