N° 260 - Portail de la Recherche et des Technologies en Wallonie

Transcription

N° 260 - Portail de la Recherche et des Technologies en Wallonie
Bureau de dépôt Bruxelles X - Mensuel ne paraissant pas en juillet et août - 260 - Avril 2010
Recherche et développement technologique
I n n ovat i o n:
un concept innovant
Le radon
sous surveillance
Édito
(Photo: photl.com)
É d i t o. . .
J
e vous parlais, le mois dernier, du concept (un peu «fourre-tout») de dévelop-
pement durable. On en parle partout et tout le temps mais ce qu'il définit et
ce qu'il implique n'est pas si évident qu'il n'y paraît. Voici une autre «poupée
russe» et un concept tout aussi abstrait: l'innovation. Que cache-t-elle ? Où
commence-t-elle ? Où finit-elle ? Qui concerne-t-elle? Le premier réflexe
serait de la réduire à l'invention, à l'idée géniale. Or, et j'avoue que je l'ignorais, une
invention n'est pas nécessairement amenée à devenir une innovation. L'attribution du
«titre» implique en effet une dimension économique, une application à relativement
grande échelle, les technologies pour la développer, un marché pour l'accueillir et au
final, une adhésion massive. L'innovation est un long processus, fastidieux, qui doit
contribuer à changer l’état des choses, la manière de les voir ou de les faire.
Joseph Schumpeter (1883-1950), célèbre économiste autrichien, distingue cinq types
d'innovation: • la fabrication de biens nouveaux, • les nouvelles méthodes de production, • l'ouverture d'un nouveau débouché, • l'utilisation de nouvelles matières
premières et • la réalisation d'une nouvelle organisation de travail. On parle encore
d’innovation de produit, de procédé, d'organisation ou de marketing ; matérielle ou
virtuelle, elle peut être dite de rupture, incrémentale, perturbatrice ou encore sociale.
Elle s'inscrit dans un contexte bien déterminé qui en influence le destin. Quoi qu'il en
soit, elle a des conséquences non seulement sur ceux qui la mettent en œuvre mais
aussi sur ceux qui la reçoivent et ceux qui sont passés à côté. Tous les secteurs sont
concernés: les entreprises commerciales, petites ou grandes, doivent sans cesse répondre au challenge de la différenciation pour se développer et pérenniser ; les institutions publiques ou les asbl cherchent quant à elles à améliorer leurs services, à
toucher et aider plus de gens…
(Photo: Laurent Hamels / PhotoAlto / Reporters)
Innover est donc indispensable pour rester dans la course, progresser,
répondre aux besoins. C'est dans la nature humaine: l'Homme,
éternel insatisfait, est viscéralement mû par le désir d'innover,
d'aller toujours plus loin, toujours plus haut, toujours plus fort.
Plus qu'un élan vital et loin d'être une mode, l'innovation
correspond à une vision, une philosophie de vie, une manière
d'être et de faire, inscrite dans une société effrénément en
mouvement. Et pas besoin de moyens financiers colossaux,
c'est à la portée de chacun. Mais une chose est sûre: lancezvous sans hésiter dans la course à l'innovation car innover,
c'est créer de la valeur… Ces quelques lignes ne sont qu'une
mise en bouche, censée vous ouvrir l’appétit d’apprendre, en
attendant le plat principal, en page 10.
Géraldine TRAN
Rédactrice en chef
Athena 258 / Février 2010
2
Sommaire
10
15
18
21
25
32
36
44
L'innovation, un concept innovant ! Dans un contexte sociétal et économique en crise,
l'innovation apparaît comme la panacée. Au centre de toutes les politiques (sociale, économique, environnementale, scientifique,…), elle est aujourd'hui devenue indispensable, tant pour
l'entreprise qui doit rester compétitive que pour le chercheur qui a à cœur de faire avancer la
science et le monde. Ce dossier collégial (en deux parties) nous explique les tenants et aboutissants de l'innovation, ce qu'elle est et ce qu'elle n'est pas, ce qu'elle a été et ce qu'elle devra être.
Comme si on y était… Une neurochirurgie à la Avatar, en mieux ! Et ça s'est passé à Liège,
décidément capitale de la 3D. Une opération neurochirurgicale effectuée au CHU a été retransmise en direct et en 3D full HD au cinéma Sauvenière, qui a d'ailleurs fait salle comble. Vous
l'imaginez, cette prouesse technique multidisciplinaire a impliqué de nombreuses entreprises,
autant de fleurons représentant la Wallonie. Pour en savoir plus, lisez cet article de Jean-Luc
Léonard sans attendre !
Le financement public de la recherche en Région wallonne. Vous l'aurez certainement déjà
compris en lisant le dossier «Innovation» mais la recherche et l'innovation sont plus que jamais
au centre des efforts en matière de relance économique. La Région wallonne, avec plus de 4%
de son budget total consacré à la R&D, en est consciente. Athena présente son bilan sur les
CBPRD (crédits budgétaires publics de R&D).
Internet ou le do it yourself. Christian Vanden Berghen le compare au monstre du Loch Ness,
animal mythique dont tout le monde a entendu parler mais que personne n'a réellement vu ou
touché: le Web 2.0 constitue une (r)évolution extraordinaire offrant d'innombrables possibilités
de collaboration grâce à des technologies désormais disponibles en ligne. Il est en marche et en
train de changer notre manière de travailler, de penser et de vivre. D'où vient-il ? Qu'offre-t-il ?
Qu'implique-t-il ? C'est tout l'objet de la 1ère partie de cet article.
Les promesses d'un paradoxe. À l'instar de toute entité vivante sur Terre, la tumeur a besoin
d'oxygène et de nourriture pour croître. En effet, son développement va de pair avec la
formation de nouveaux vaisseaux sanguins. En bloquant ce processus - l'angiogenèse tumorale-, la tumeur s'asphyxierait et resterait sagement tapie au fond de son lit. Or le manque
d'oxygène la rend plus agressive, invasive et résistante. La solution consisterait en une
combinaison anti-angiogéniques/chimio ou radiothérapie. C'est toute la difficulté de ce
paradoxe, expliqué par Philippe Lambert.
Regards intérieurs. Avoir conscience de soi-même, ça peut paraître évident et pourtant, ça ne
l'est pas tant que ça. La preuve en est que de nombreuses expériences scientifiques sont en
cours afin de déterminer les composantes du phénomène. Beaucoup de facteurs entrent en
ligne de compte: psychologiques, neurologiques, sociaux, contextuels, culturels,… Quelle
représentation a-t-on de soi ? C'est une question fondamentale posée par Philippe Lambert.
Le radon sous surveillance. «Radioactivité», voilà un mot qui fait peur. Il s'agit pourtant d'un
phénomène tout à fait naturel. Provenant des sous-sols ainsi que de certains matériaux de
construction, le radon est d'ailleurs présent partout à la surface du globe. Il représente aussi la
principale source d'exposition de la population à la radioactivité. À fortes doses, il est cancérigène, mais qu'en est-il de sa concentration en milieu domestique ? Paul Devuyst fait le point
sur le plus lourd des gaz rares.
Vous pouvez
consulter
la revue Athena
sur le site
http://athena.
wallonie.be
Si vous désirez
un abonnement,
vous pouvez
vous adresser:
l soit par courrier:
Place de la Wallonie, 1 Bât.III
5100 Jambes
l
soit par téléphone
au 081/33.44.76.
l
soit par courriel
à l’adresse:
geraldine.tran@
spw.wallonie.be
ou encore via
le site repris ci-dessus.
Vénus version Express. Comme son homonyme mythologique, Vénus est séduisante au
premier regard. Elle n'est pourtant pas aussi angélique qu'il n'y paraît: sous son chapeau de
nuages, la demoiselle cache l'enfer. Une température brûlante, une atmosphère sulfurique et
carbonique, un sol volcanique, un épais manteau rocheux, c'est ce qu'a observé la discrète
exploratrice Venus Express. Cinq ans après son lancement, Yaël Nazé fait le point sur ce que
la sonde nous a déjà offert comme connaissances.
Sans oublier les rubriques:
Actualités, de Jean-Claude Quintart, pp. 4-9 ;
Info-Bio, de Jean-Michel Debry, pp. 29-31 ;
Physique, d'Henri Dupuis, pp. 40-41 ;
Cosmos, de Yaël Nazé, pp. 42-43 ;
Espace, de Théo Pirard, pp. 47-49 ;
Et l'agenda, pp. 50-51.
3
Première
de couverture:
Sparking light bulb.
(Photo: Reporters/
Victor de Schwanberg/
Science Photo Library)
Quatrième:
La planète Vénus
(Photo: Esa)
Athena 258 / Février 2010
(Photo: Belgocontrol)
Actualités
1 2 t o n n e s d ’a c i e r,
73 consoles !
Ces deux chiffres résument l’importance de la
contribution de Symbio, petite et moyenne
entreprise wallonne, au programme d’investissements de la tour de contrôle de BruxellesNational et du nouveau site Canac 2 de
Belgocontrol, le centre de contrôle le plus
moderne d’Europe !
C
entre de contrôle aérien, Canac 2 est également un
système de gestion du trafic aérien, équipant les
tours de contrôle des cinq aéroports belges:
Bruxelles National, Charleroi, Anvers, Ostende et
Liège. Construit sur base d’un concept opérationnel innovant, axé sur la gestion tactique des flux de trafic aérien,
Canac 2 améliore les performances en termes de sécurité, capacité, ponctualité, efficacité économique et environnementale
dans l’espace aérien le plus complexe d’Europe. Les atouts de
cette infrastructure consistent en une gestion dynamique de la
capacité permettant de mieux adapter les ressources en
personnel aux conditions de trafic, une disponibilité maximale
des outils et informations de contrôle, auxquelles s’ajoutent
encore un accroissement de la sécurité aérienne, une gestion
tactique des flux de trafic aérien grâce à une vision à la fois
globale et précise du trafic pour les contrôleurs, la possibilité de
créer de nouveaux secteurs et de gérer de nouveaux espaces
aériens ou encore, la coordination étendue avec les centres adjacents, etc.
Symbio, pro du design
Pour la pme wallonne Symbio, tout commence en 2004, avec
son principe de «design participatif», qui associe un groupe de
travail représentant les 350 contrôleurs concernés par la
nouvelle infrastructure, en vue de connaître les contraintes et
souhaits de chacun. Cette étape montre que pour une disponibilité maximale des données et informations opérationnelles, il
fallait une console en triptyque avec un seul point d’accès à tous
les outils du contrôle aérien. Une maquette a donc été réalisée
afin d’affiner le positionnement des outils (écrans, hautparleurs, micros, etc). Toujours avec l’aide des contrôleurs,
Symbio s’est également penchée sur la problématique globale
de la salle. Pour améliorer la communication verbale et
Athena 260 / Avril 2010
4
gestuelle entre les contrôleurs, une configuration «en pétale» a
été retenue. Ce ne sera qu’à la fin de cette longue procédure
qu’elle lancera la fabrication et l’installation des 73 consoles et
planchers techniques pour un poids total de quelque 12 tonnes
d’acier ! Avec ce contrat, elle savait qu’elle n’avait pas droit à
l’erreur ! Une fois encore la petite entreprise s’est montrée à la
hauteur des attentes particulièrement complexes de son donneur
d’ordre. Pour Michel Dascotte, chef du projet Canac 2 chez
Belgocontrol, «Il s’agissait d’un très beau défi: analyser les
schémas de communication, déterminer le nombre de consoles
et étudier l’ergonomie et l’implémentation, avec en toile de
fond, l’organisation de la salle et sa réalisation dans les délais
et standards de qualité. En relevant ces étapes avec brio,
Symbio nous dote aujourd’hui d’un outil de grande tenue !»
Mais il est vrai que Symbio n’en était pas à son premier coup
d’essai ! En effet, fondée en 2007, l’entreprise de Bassenge (en
province de Liège) compte sur les vingt années de compétence
de ses fondateurs: Patrick Vanderstraeten et Georges Vroonen,
designers industriels et Denis Javaux, ergonome. Par la fertilisation croisée de ces trois talents, Symbio offre une approche
intégrée de l’étude ergonomique à l’implémentation. Les
domaines d’activité de l’entreprise sont entre autres les consoles, salles de contrôle, espaces de vie, interfaces hommemachine, l’ergonomie cognitive, etc. Le tout avec de belles références commerciales: Belgocontrol, Eurocontrol, Thales, Airbus
Industrie, ArcelorMittal, Electrabel, etc. Symbio montre qu’à
l’heure de la globalisation, il est toujours possible pour une
petite entreprise d’empocher des contrats remarquables. La
recette est simple: se focaliser sur une niche, investir en R&D,
être professionnel dans ses démarches et y croire !
http://www.symbio.pro
Jean-Claude QUINTART
[email protected]
Actualités
Les brèves...
Les brèves...
Nouvelles technologies
S idérurgie et écologie.
À première vue,
les deux sont inconciliables ! Qui dit acier
pense poussière ! Pourtant, le 3 mars dernier,
de nouvelles initiatives ont été annoncées par
le monde de la sidérurgie afin de rencontrer les
objectifs d'une société à faibles émissions de
dioxyde de carbone. À l'occasion de sa
dernière réunion, la Plateforme technologique
européenne de l'acier/European Steel Technology Platform (ESTEP) a rappelé que l'acier
contribue de manière unique à la mise en place
d'une société plus durable grâce aux propriétés
de ses produits économisant l'énergie et indéfiniment recyclables. Une réalité que nous
oublions bien souvent !
Dans la foulée, l'ESTEP a également insisté sur
les améliorations déployées au niveau des procédés, notamment via la mise en œuvre de
technologies de pointe en vue de réduire les
émissions de CO2 de 50% à long terme, sur base
du projet ULCOS (Ultra-Low Carbon dioxide
Steelmaking). Ce consortium rassemble aujourd'hui pas moins de 48 entreprises et organisations issues de 15 pays, autour d'une initiative
de coopération en R&D visant à réduire drastiquement (-50%) les émissions de CO2 lors de la
production d'acier. Pour relever ce défi, quatre
approches susceptibles de générer une telle
diminution ont été retenues.
nent à ArcelorMittal. • La deuxième approche
étudiée, HIsarna, repose sur un bain de fusion.
Trois technologies entrent en jeu: le préchauffage du charbon et la pyrolyse, la fusion du
minerai dans un cyclone de fusion et la réduction du minerai et production de fer dans une
cuve de fusion. • De son côté, la solution
ULCOREA produit du fer au départ de minerai
de fer en morceaux ou en pellets et dont la
fusion s'opère via des fours à arc électrique.
• Enfin, la dernière approche, ULCOWIN, table
sur la production de fer par électrolyse, ce qui
permettrait d'exclure les fours à coke et les réacteurs des processus de réduction du minerai.
Le consortium ESTEP n'entend pas relever que
ses propres défis, il souhaite aussi aider ses
clients à relever les leurs. Ainsi, les nouvelles
solutions avancées sur le plan de l'acier
peuvent aider à la mise au point d'une nouvelle
génération de centrales électriques et au
développement d'équipements de production
d'énergie solaire et éolienne. Bref, la sidérurgie change et d'ici quelques années, elle
devrait présenter un nouveau visage, répondant aux futurs défis de l'économie européenne à faibles émissions de dioxyde de
carbone, ainsi que sur la création de valeur
basée sur les connaissances et la nécessité de
créer une société compétitive, connectée et
plus verte.
http://cordis.europa.eu/estep/ et
Haut-fourneau
du site d’Ougrée,
en province de Liège.
(Photo: Noé Lecocq)
http://www.ulcos.org
• La technologie la plus perfectionnée actuellement au niveau de ces quatre concepts sera
mise en œuvre à une échelle permettant d'en
apprécier, de manière fiable, les conditions
d'exploitation. Ce nouveau procédé pour haut
fourneau à recyclage des gaz de gueulard
s'accompagnera de la capture et du stockage de
dioxyde de carbone. Ébauchée sur un haut fourneau de taille moyenne, la solution fera ensuite
l'objet d'un démonstrateur industriel associé à
une expérience de stockage du dioxyde de
carbone dans des sites souterrains de Lorraine.
Les deux sites concernés par ce projet appartien-
5
Athena 260 / Avril 2010
Actualités
U
Pour en
savoir plus
http://www.
hamon.com
et
http://www.
southerncompany.com
n wallon aux States !
Le groupe
Hamon annonce avoir empoché un
contrat de 95 millions de dollars pour le développement et la construction de deux tours de
refroidissement pour la centrale nucléaire de
Waynesboro, en Géorgie (États-Unis).
L'extension de cette facilité, avec deux réacteurs nucléaires AP 1000 de Westinghouse, est
le premier investissement réalisé en matière
d'énergie nucléaire depuis trente ans ! Elle
s'inscrit dans le cadre d'un prêt de 8,3 millions
de dollars couvert par le Gouvernement fédéral et octroyé à la Southern Nuclear Co, pour
son site de Vogtle. Cet investissement rencontre aussi la volonté politique du Président
Obama en matière d'indépendance énergétique
des États-Unis, sachant que d'ici 2030, la
consommation d'électricité aura augmenté de
21% dans le Southeast (Sud-Est).
Le groupe Hamon, dont les origines remontent
à 1890 avec les Ateliers D'Hondt, est un acteur
mondial en matière de systèmes de refroidissement, échangeurs de chaleur, récupération
d'énergie, dépollution de l'air et cheminées
industrielles jusqu'à 300 m de hauteur.
Installée à Mont-Saint-Guibert, l’entreprise
puise ses clients parmi les producteurs d'électricité, de gaz et de pétrole, la métallurgie, la
verrerie et la chimie.
R&D
La construction
des nouvelles unités
3 et 4 de la centrale
nucléaire de Votgle,
à laquelle est associé
le groupe wallon
Hamon, représente
un investissement
en capital de quelque
14 milliards
de dollars.
Ces réacteurs
entreront
respectivement
en service
en 2016 et 2017.
E n grande pompe !
L'occasion le justifiait. C'est donc en présence de Paul
Magnette, ministre fédéral du Climat et de
l'Énergie, et de Sabine Laruelle, ministre fédérale
de la Politique scientifique, que le Centre belge
d'études de l'énergie nucléaire (CEN) a inauguré
sa nouvelle infrastructure de recherche nommée
Guinevere (Generator of Uninterrupted Intense
Neutrons at the lead of Venus Reactor). Une
première mondiale belge ! En effet, Guinevere
est la maquette du premier démonstrateur
mondial de «systèmes pilotés par accélérateurs»
(ADS - Accelerator Driven System en anglais)
dédiés à l'incinération des déchets nucléaires. Ce
Athena 260 / Avril 2010
6
programme s'inscrit en prélude du projet Myrrha
(Multipurpose hYbrid Research Reactor for
High-tech Applications).
Celui-ci, qui sera également construit au CEN
de Mol, devra démontrer sa capacité à transmuter des déchets radioactifs en éléments à
durée de vie beaucoup plus courte, voire même
en éléments stables ! En parallèle, Myrrha sera
un réacteur multifonctionnel pour l'étude des
matériaux des réacteurs de fission et pour la
fusion. Il contribuera aussi, dans le futur, à
l'approvisionnement continu en radio-isotopes à
usage médical, industriel et même à la production de silicium dopé, composant essentiel des
circuits électroniques utilisés dans des applications d'énergies renouvelables.
Les ADS comme Myrrha peuvent produire des
neutrons rapides permettant d'incinérer les
sous-déchets nucléaires. Ils sont intrinsèquement sûrs et facilement contrôlables. En
outre, ils possèdent un cœur dit «sous-critique»:
en effet, le réacteur d'un ADS a besoin d'une
source externe de neutrons, créée par un accélérateur de particules faisant fonctionner le réacteur. Ce dispositif réduit le risque potentiel
d'accident d'emballement.
Grâce aux expériences conduites avec
Guinevere, on pourra comprendre le comportement spécifique d'un ADS. Ces travaux cibleront notamment la mise en place et la qualification d'une méthodologie permettant de suivre,
en cours de fonctionnement, les variations de la
réactivité, paramètre caractérisant la sécurité
d'un système couplé accélérateur/réacteur,
spécificité d'un ADS et de Myrrha en particulier. Ces expériences présentent également un
grand intérêt pour tester certains aspects
d'autres filières du nucléaire sur maquette.
Au-delà de son rôle, dans la recherche, sur la
diminution de la durée de vie et de la quantité des
déchets les plus radiotoxiques, Myrrha
provoquera un impact socio-économique estimé,
sur la période 2010-2050, à près de 13 milliards
d'euros dont 11 milliards en Belgique ! En fait,
pour chaque euro investi dans le projet, le retour
économique serait de près de douze euros en
Actualités
potentiel d'emballement des réactions. Un accélérateur de particules bombarde une cible de
protons: par réaction de spallation, cette cible
génère alors le flux de neutrons nécessaire.
http://www.sckcen.be
L e cœur à l'ouvrage.
L'expression sied à
merveille à Cardio3 BioSciences, jeune
entreprise wallonne qui peut se féliciter des
résultats prometteurs enregistrés lors d'une étude
préclinique relative au C-Cath®, le cathéter
qu'elle développe actuellement et visant
l'administration d'une panoplie de biothérapies
ciblant le cœur. Ce produit est conçu pour prendre en compte la structure tissulaire des organes
afin d’optimiser la sécurité des patients, améliorer la performance et augmenter la confiance des
médecins lors des procédures d'injection. C’est là
que se trouve le principal atout de C-Cath®, dont
la performance s'appuie sur la conception unique
de l'aiguille, qui améliore la pénétration et la
rétention dans le tissu cible et renforce la
dynamique des fluides.
Véritable avancée dans la recherche sur
l'incinération des déchets nucléaires, le ticket
Guinevere/Myrrha est le fruit d'une collaboration européenne entre le Centre belge d'étude
de l'énergie nucléaire (CEN) et les français du
Commissariat à l'énergie atomique (CEA) et
du Centre national de recherche scientifique
(CNRS) (Photo: SCK•CEN).
Belgique ! Programme fédéral, avec coopération
européenne, Guinevere/Myrrha sera aussi une
bouffée d'oxygène pour la recherche wallonne,
notamment pour l'Institut national des radioéléments (IRE) de Fleurus, dans le cadre de son
volet de médecine nucléaire.
Pour rappel, la transmutation est une réaction
nucléaire induite par des neutrons, conduisant à
la transformation d'un élément chimique en un
autre. Il faut savoir que dans un réacteur
nucléaire, la fission des noyaux, généralement
d'uranium, est réalisée par un bombardement de
neutrons. Chaque fission libère elle-même des
neutrons réutilisés pour produire de nouvelles
fissions: la réaction en chaîne est maintenue.
Pour empêcher que la réaction ne s'emballe, on
fait en sorte qu'un seul neutron provoque une
nouvelle fission: le réacteur est critique et le facteur de multiplication des neutrons, noté «keff»
(facteur de multiplication effectif), est égal à 1.
Dans le cas d'un ADS, moins d'un neutron
libéré produit une nouvelle fission: le réacteur
est sous-critique. Afin de maintenir la réaction,
l'alimentation en neutrons se fait par une source
externe, limitant considérablement le risque
Réalisée au Canada, l'étude a
consisté en une comparaison par
substitution entre la référence
actuelle du marché en matière de
cathéter et C-Cath®. Concrètement, des cellules souches
mésenchymateuses provenant
de la mœlle ont été injectées
dans un modèle animal largement exploité en recherche
cardiologique. À la grande satisfaction de Cardio3 BioSciences, les résultats de l'étude
montrent que la rétention cellulaire au sein du muscle cardiaque
est près de trois fois supérieure avec
C-Cath®. Ce qui signifie que dans
un environnement clinique, un taux
de rétention accru réduirait la dose administrée tout en augmentant la puissance du
produit, renforçant ainsi l'efficacité et diminuant
les effets secondaires du traitement ainsi que les
coûts financiers puisque la dose administrée
serait moindre.
Le développement de C-Cath® illustre
l'excellence de notre recherche associée à la
puissance publique de la Région. Animées par
les scientifiques de Cardio3 BioSciences et
leurs partenaires cliniques du Centre
cardiovasculaire d'Alost, les recherches sur le
C-Cath® ont été financées en grande partie
par la Région wallonne via la DGO6. Basée à
Mont-Saint-Guibert et fondée en 2007,
l’entreprise opère en tant que spécialiste des
thérapies cellulaires pour le traitement des
maladies cardiovasculaires sur la niche
pointue de la biotechnologie.
7
Athena 260 / Avril 2010
Actualités
Neurotech
a actuellement
deux projets dans
ses armoires:
l DEEP
(Drug-releasing
electrode with
enhanced
properties)
l IMANE
(Implantable
multicontact
active nerve
electrode)
À découvrir sur le
site de Neurotech
http://neurotech.be
Il faut encore rappeller qu’avec C-Cure®, son
premier produit, Cardio3 BioSciences avait déjà
frappé fort ! Produit phare de l'entreprise, il se
profile comme une approche particulièrement
innovante dans le traitement de l'insuffisance
cardiaque, l'un des problèmes médicaux non
résolus les plus pressants dans le monde ! Basé
sur une stratégie initiée par les fondateurs de
Cardio3 BioSciences et tirant profit d'une technologie de la Mayo Clinic de Rochester, aux
États-Unis, C-Cure® permet la différenciation
des cellules propres du patient en cellules
cardiopoïétiques qui se développent ensuite
pour donner de nouvelles cellules cardiaques et
réparer le myocarde.
http://www.c3bs.com et http://www.mayoclinic.org
Santé
A ppel de fonds...
pour Neurotech qui lève
six millions d'euros en vue de lancer la
phase commerciale de son stimulateur du nerf
vague: ADNS 300. Cette technique de stimulation du nerf vague est utilisée chez les patients
(enfants et adultes) souffrant d'épilepsie
partielle et complexe malgré un traitement
normal de la maladie.
Le principe repose sur l'implantation, sous la
peau de la cage thoracique, d'un générateur
d'impulsions à pile. Un fil, également logé sous
la peau, est connecté au nerf vague gauche dans
le cou. Les données de stimulation sont
mémorisées sur ordinateur ou PDA…
Patients ou soignants peuvent ainsi
activer ou désactiver le stimulateur
pour une durée prédéterminée en
passant le contrôleur sur le générateur. Cette technologie de
stimulation contribue à réduire
les crises d'épilepsie dans les
cas les plus graves.
(Photo: Neurotech)
Spin off de l'Université catholique de Louvain (UCL), installée à Louvain-la-Neuve, Neurotech conçoit, développe, fabrique
et commercialise des
appareils médicaux actifs implantables en vue
de traiter les maladies par la neurostimulation.
Depuis sa création en 1996, la société a notamment développé des électrodes d'enregistrement
et de stimulation utilisés in vivo sur les nerfs
crâniens, des connecteurs implantables ou
encore une prothèse visuelle par stimulation du
nerf optique.
http://neurotech.be
D u cash pour l'avenir.
Fondation d'utilité
publique créée en 1971 mais opérant
comme une entreprise privée, l'Institut national
des radioéléments (IRE) est l'un des grands
acteurs de la médecine nucléaire en diagnostic
et thérapie. Ainsi, par la nature de ses activités,
il contribue à sauver, chaque année, plusieurs
millions de vies ! Installé à Fleurus (Charleroi),
l'IRE déploie ses travaux sur trois axes: la radiochimie, la radio-pharmacie et la protection/
surveillance de l'environnement. Plus en détails,
les radioéléments produits par l'IRE sont le
Molybdène-99, l'Iode-131, l'Yttrium-90 et le
Rhénium-188. Le reste de l'activité gravite
autour du développement et de la mise en œuvre
de techniques de surveillance et de mesure des
radioéléments ; de la décontamination, gestion
et caractérisation des sources et déchets radioactifs ; et de la valorisation de ses outils et des
compétences de ses équipes.
La panne inopinée du réacteur canadien NRU,
en mai 2009, créant depuis une grave pénurie
dans l'approvisionnement de la médecine
nucléaire, a mis en exergue l'importance de
l'IRE, qui s'efforce de pallier l'impact de cette
crise pour les patients en attente de soins, sur
tous les continents ! Conscient du rôle
mondial de l’institut sur la scène de la médecine nucléaire, le pouvoir politique vient
d'octroyer un financement public de
20 millions d'euros, planifié sur cinq ans, afin
qu’il puisse investir dans une diversification
de l'approvisionnement en radio-isotopes, en
sécurité et en R&D.
Grâce à cette manne fédérale, l'IRE pourra
diversifier ses sources d'approvisionnement en
matière première pour ses activités de médecine nucléaire ; investir dans l'infrastructure et
dans une nouvelle phase de renforcement de la
sécurité de son site de Fleurus ; et lancer de
nouveaux programmes de recherche. Ici, il se
focalisera essentiellement sur les processus
chimiques de purification de l'uranium et des
radio-isotopes produits et utilisés en médecine
nucléaire. À ces perspectives s'ajoute encore
un programme de développement d'applications thérapeutiques nouvelles en collaboration avec plusieurs universités et partenaires
du pays.
http://www.ire.eu
Athena 260 / Avril 2010
8
(Photo: photl.com)
Actualités
Une première belge...
our l'Université de Mons (UMons) et l'Organisation des nations unies (ONU)
qui, au terme d'un accord signé le 4 mars dernier, deviennent partenaires
dans la formation des futurs traducteurs et interprètes. Concrètement, cela
signifie que l'ONU accepte désormais des étudiants de l'UMons en stage, leur
procure du matériel pédagogique (discours, enregistrements sonores d'interventions, guides terminologiques, etc.) et détache du personnel pour dispenser des formations ou pour faire office d’observateur aux examens de fin
d'année. De son côté, la Faculté de traduction et interprétation - École d'interprètes internationaux (FTI-EII) - de l'Umons profite de l'expertise onusienne
pour améliorer encore ses programmes de formation.
P
Emploi, formation
Q uestion de s'y faire !
S'il est bon de voir
l’univ' accueillir toujours plus d'étudiants,
le nombre de «busés» en première année laisse
en revanche un goût amer ! Il est vrai que
passer du collège au campus universitaire équivaut presqu’à changer de planète ! D'où l'idée
de l'Université catholique de Louvain (UCL) de
lancer le site E-mentorat censé préparer la
transition du «bleu» vers sa future université.
Le concept est simple: donner l'occasion aux
futurs néo-louvanistes de communiquer en
ligne avec des étudiants «mentors» pour les
aider à mieux appréhender les réalités de l'univers académique. En d'autres termes, ce projet
permet aux élèves du secondaire sensibilisés
par l'université d'entrer en relation, via une
plate-forme informatique, avec des étudiants
volontaires autour de thèmes tels que l'adaptation aux études universitaires, les pré-requis,
l’organisation des cursus, le rythme de la vie
estudiantine, l’environnement des campus, etc.
Agissant de la sorte, l'UCL souhaite adoucir la
transition secondaire-supérieur aux futurs
étudiants en atténuant la distance géographique et psychologique entre les deux
mondes ; donner à l'élève l'occasion de
s'approprier les us et coutumes de la formation
universitaire ; et soutenir la motivation dans le
secondaire par une lutte contre le décrochage.
Selon Calogero Conti, recteur de l'UMons, «L'accord passé avec l'ONU s'inscrit
pleinement dans les missions d'une université qui, parallèlement à ses
charges classiques d'enseignement et de recherche, se doit d'interagir avec le
monde qui l'entoure en poursuivant des objectifs d'ouverture et de service à la
société.» Pour la FTI-EII, cet accord est une reconnaissance de plus envers un
enseignement dont la qualité est internationalement reconnue. Ainsi, elle
travaille déjà avec les différents sièges de l'ONU mais aussi des communautés
européennes, l'Organisation du traité de l'Atlantique Nord (OTAN), etc.
http://portail.umons.ac.be
Sur le plan pratique, le futur étudiant, appelé
ici «élève mentoré», s'identifie en ligne, choisit un étudiant mentor qui répond à ses
messages et relance l'échange. À noter que les
échanges entre mentor et «mentoré» ne sont
visibles que d'eux seuls, hormis l'administrateur bien entendu, qui valide les inscriptions
et tient le rôle de médiateur en cas de blocages
dans les conversations en ligne.
http://www.uclouvain.be/devenir-etudiant
Jean-Claude QUINTART
[email protected]
9
Athena 260 / Avril 2010
Innovation
(Photo: Yves Dethier / Reporters)
L’innovation:
un concept innovant
Innovation = création de valeur:
quelques mots qui pourraient bien
résumer la définition, pas si simple
que ça, d’un concept de plus en plus
à la mode. Qu’est-ce que
l’innovation? Qu’est-ce que l’innovation n’est pas ?
I
nventer c’est voir les choses différemment. Innover c’est faire les choses
différemment. De Thomas Edison à
Steve Job, les personnes et les organisations qui ont maîtrisé avec succès cette
nuance importante sont sources de progrès et de
développement économique. Plus près de chez
nous, d’Adolphe Sax à Leo Baekeland (inventeur de la bakélite) en passant par Ernest Solvay,
la Belgique a une longue tradition de développement de nouvelles activités basées sur
l’innovation.
mettre en évidence leurs recherches, dont les
meilleures sont récompensées. Pas moins de 406
projets ont été soumis pour l’édition 2009, impliquant plus de 2 700 participants ! L’intérêt d’un
tel événement est d’orienter l’innovation par
rapport à des priorités telles que le développement durable et autres défis sociétaux. La
première édition du SIT, en 1999, avait déjà mis
en évidence un produit Solvay radicalement innovant, le Vinyloop®, qui a montré que le PVC
pouvait être entièrement recyclable à l’échelle
industrielle. Un pas décisif à l’heure où les plastiques doivent impérativement s’adapter à une
approche durable !
Un concept polymorphique
Comprendre de quoi il s’agit et maîtriser les
enjeux de l’innovation est critique pour nos
industries si nous voulons maintenir la qualité de
notre modèle social et faire face aux défis démographiques, sociaux et environnementaux qui
nous attendent. L’innovation prend en effet
différentes formes, au-delà du mythe de l’idée
géniale découverte spontanément (la pomme de
Newton) et adoptée instantanément par tous. Les
récents lauréats du Solvay Innovation Trophy
(SIT), dont la dernière édition s’est clôturée en
décembre 2009, en sont la parfaite illustration.
• La première forme que peut prendre l’innovation, et sans doute la plus «médiatique», c’est
bien sûr le nouveau produit, service ou modèle
d’affaires («business model») issu de la recherche scientifique et généralement lié à la
technologie: le disque compact (laser), le GSM,
l’e-commerce… Les nouveaux produits peuvent
aussi être issus des demandes et attentes des
clients, qui orientent les projets de recherche et de
développement: par exemple les produits «light»,
«bio» ou «responsables». En réponse à la recherche d’allègement des avions afin d’en réduire la
consommation en kérosène, Solvay a ainsi développé un polymère spécial permettant la conception d’une nouvelle gamme de chariots de service
à bord, ultralégers, durables et totalement
recyclables.
Tous les trois ans dorénavant, cette initiative est
l’occasion pour les innovateurs de Solvay de
• Mais l’innovation, ce n’est pas que ça. La
majorité des innovations ont en réalité lieu au
Athena 260 / Avril 2010
10
Innovation
L’innovation c’est donc changer ce que l’on fait
(nouveau produit, nouveau service, nouveau
modèle d’affaires…) et/ou comment on le fait
(nouvelle technologie, nouveau mode d’organisation...). C’est essayer de le faire en mettant en
œuvre des idées nouvelles («push») et/ou en
répondant à de nouvelles attentes («pull»).
Une vision, une attitude
• Mais au-delà de mieux faire ce que l’on faisait
déjà (innovations incrémentales), innover c’est
parfois remettre en cause fondamentalement sa
manière d’être et de faire (innovations radicales). À nouveau, il peut s’agir de créer ou
d’explorer de nouveaux marchés (développement de nouveaux business) ou repenser ses
modes de fonctionnement (révolutionner
l’organisation). Des exemples chez Solvay sont
le développement d’un polymère (PVDF) destinés aux batteries lithium-ion pour les nouvelles
voitures hybrides ou électriques, ainsi que
l’expansion des activités de réduction catalytiques sélectives dans des applications de dépollution de fumées de centrales énergétiques aux
États-Unis. Dans un autre registre, citons le
lancement, au sein de l’entreprise, d’un festival
du film éthique comme nouveau mode de sensibilisation et de formation.
L’innovation incrémentale n’est pas en reste chez
Solvay: un projet lauréat de l’édition 2000 du SIT
a conduit, par la conjugaison de 150 différentes
«petites» idées, à une diminution drastique du
temps d’arrêt de production nécessaire à l’entretien de certaines usines, occasionnant des économies conséquentes.
• Enfin, gérer l’innovation ne signifie pas
toujours inventer soi-même ! De Sony à
Microsoft, nombreuses sont les entreprises qui
ont pu intégrer (transposer) au sein de leurs activités, des concepts inventés par d’autres.
S’ouvrir à l’extérieur, accepter ce qui ne vient
pas de chez soi, faire du neuf avec de l’ancien,
c’est aussi innover. Solvay s’intéresse de plus en
plus à cette dimension d’«innovation ouverte»,
en développant notamment des partenariats afin
d’intégrer de nouvelles technologies issues de
l’électronique organique (OLED).
Finalement, n’oublions pas que l’innovation ne
constitue pas une fin en soi. C’est un moyen
d’atteindre les objectifs que l’on s’est fixé, en
fonction de l’environnement (politique, social,
économique, technologique) dans lequel on
opère et des ressources (matérielles, intellectuelles, humaines et financières) dont on dispose.
Au-delà de l’invention du chercheur solitaire
dans son laboratoire, l’innovation est un phénomène complexe et multiforme: à chaque entreprise, à chaque organisation, à chaque région
d’identifier et de développer celle qui lui
convient et qui créera une valeur ajoutée.
Benoît GAILLY
[email protected]
Brigitte LAURENT
[email protected]
11
Athena 260 / Avril 2010
(Photo: Yves Dethier / Reporters)
sein même des organisations: nouveaux modes
de fabrication et d’organisation, améliorations
continues, recherche de qualité… souvent sans
que les clients ou usagers en aient conscience.
Cette seconde forme d’innovation, «de
procédé» ou «organisationnelle» peut être,
elle aussi, issue de développements scientifiques (nouvelles technologies) dans l’entreprise mais aussi des évolutions de son environnement (nouveaux défis). On citera parmi les
récents lauréats du SIT, le développement d’un
nouveau catalyseur au palladium pour la
production d’H2O2 mais aussi un nouveau
processus de fabrication de PVC à base de sel et
d’éthylène dérivé de la canne à sucre.
Innovation
Interview
’innovation est aujourd’hui présentée dans
tous les cénacles comme le seul moyen de
Lmaintenir
à terme une activité industrielle forte
en Europe. Vous êtes tous deux membres de
sociétés industrielles importantes. Que signifie
pour vous et pour votre entreprise, le mot «innovation» ?
Roger Hubert, coach
innovation au centre
de recherche OCAS,
d’Arcelor Mittal.
Roger Hubert (RH): C’est peut-être plus facile pour
moi d’expliquer ce que l’innovation
n’est pas… Une innovation n’est ni
une bonne idée, ni même une invention géniale ! Prenons un exemple:
le laser. La bonne idée (la théorie
quantique des radiations) est émise
par Albert Einstein en 1917.
Différents laboratoires de recherches s’en emparent et travaillent
d’arrache-pied pour démontrer
expérimentalement la théorie
d’Einstein. Mais il faudra attendre
plus de 40 ans pour que le premier
prototype soit construit. Le laser est
donc inventé en 1960… mais la
première vraie innovation basée sur
le laser n’apparaîtra qu’en 1982:
cette année-là, Sony commercialise
le premier lecteur de CD intégrant
un laser. Et on peut parler d’innovation uniquement parce que le CD est devenu un
succès commercial… sinon, cette bonne idée
aurait bien vite été oubliée...
Richard Thommeret (RT): Oui, beaucoup de gens s’imaginent qu’une
très bonne idée peut facilement se
transformer en innovation qui va
révolutionner la société. Il n’en va
hélas pas ainsi: beaucoup de bonnes
idées meurent prématurément
notamment parce qu’elles sont difficilement industrialisables, pas
rentables ou simplement parce que
le marché n’est pas «mûr». Une
innovation, c’est donc une bonne
idée qui a pu être transformée en
produit ou en service susceptible de
«créer de la valeur». On voit aussi
que dans le processus d’innovation,
la recherche scientifique, même si
elle constitue souvent un maillon
important, n’est à elle seule pas
suffisante pour garantir le succès.
Richard Thommeret,
Marketing Manager
chez Solvin, filiale
du groupe Solvay.
lus concrètement, dans quels domaines vos
innovent-elles ?
P entreprises
RT: Nous produisons des matières plastiques et
ArcelorMittal produit de l’acier, mais comme ce
sont des marchés matures, nos sociétés sont
assez comparables du point de vue innovation.
Athena 260 / Avril 2010
12
Typiquement, les innovations concernent l’amélioration des procédés, l’introduction de produits
nouveaux et la recherche de «solutions» pour nos
clients.
RH: L’innovation dans les procédés est sans doute
la moins visible pour le grand public, pourtant
c’est certainement la plus importante car elle vise
à maintenir la compétitivité de nos entreprises.
Comme la main d’œuvre européenne est très
chère, il importe que la productivité soit très
élevée pour maintenir les coûts de production à
des niveaux acceptables. Les innovations concernent notamment l’automatisation de la production, l’augmentation de la vitesse des lignes,
l’amélioration de la qualité des produits et de la
sécurité, les économies d’énergie, et la protection
de l’environnement. Juste un petit exemple qui
montre l’ampleur des défis à relever: une tôle
d’acier, laminée dans un laminoir à chaud, doit
suivre un chemin thermomécanique parfaitement
contrôlé. Ceci implique des mesures de la
température à quelques degrés près, permettant
d’activer des systèmes de refroidissement très
précis. Le tout est piloté par un modèle mathématique très complexe qui effectue, en temps
réel, les réglages permettant de garantir la qualité, tout cela alors que la bande acier défile à
plus de 60 km/h. La plupart de ces développements (modèles, capteurs, systèmes d’asservissement, etc.) sont des innovations d’une
grande valeur mais qui ne sont pas rendues
publiques car elles procurent un avantage
concurrentiel très important.
RT: De nouveaux procédés sont bien souvent
indispensables pour développer de nouveaux
produits mis au point en laboratoire. Dans nos
secteurs, l’industrialisation d’un nouveau produit
est un long processus. Comme dans le cas du
laser, de nombreuses années peuvent s’écouler
entre la première ébauche réalisée en laboratoire
et la production de masse car entre-temps, il aura
fallu construire une ligne pilote, effectuer une
série d’essais et puis, souvent, concevoir une
toute nouvelle usine capable de produire le
produit à un prix abordable.
our vos entreprises, amener un nouveau
produit sur le marché semble s’apparenter à
Pun long
chemin semé d’embûches…
RT: Effectivement, notre «Time-to-Market» est
généralement très long. Nous devons faire face à
des contraintes de tous ordres: techniques, industrielles, financières, commerciales et même
conjoncturelles. Beaucoup de bonnes idées
sortent des laboratoires et tous les chercheurs
rêvent d’aboutir à des projets «en rupture»
(«breakthrough» en anglais). Mais les chances
Innovation
RH: On comprend donc que le processus est très
long. D’autant que ce n’est pas tout, il faut
encore tenir compte des cycles conjoncturels. En
période de crise, il n’y a évidemment pas
d’argent, donc on hésite à lancer des breakthrough. Puis, cela reprend et on investit. Le projet suit son cours et après 3-4-5 ans, on est prêt
pour l’industrialisation qui coûte le plus souvent
quelques dizaines ou même centaines de millions
d’euros… mais à ce moment, la conjoncture est
de nouveau mauvaise et on décide alors de geler
le processus. C’est ainsi que pas mal de projets
techniquement très valables sont arrêtés, parce
que trop chers ou prêts au mauvais moment !
n est loin des entreprises IT (Information
Technologies) qui sortent un nouveau
Oproduit
(GSM, appareil photo,…) tous les trois
mois ! Pourquoi si peu de renouvellement ?
RH: C’est vrai qu’il y a peu de grandes révolutions dans nos secteurs, mais il y a énormément
de petites évolutions ! Les produits ont une durée
de vie assez longue, mais ils évoluent sans cesse.
Ils deviennent plus performants, moins chers,
plus sûrs et chaque évolution est basée sur de
nombreuses innovations. Si je prends l’exemple
de la tôle galvanisée (acier revêtu de zinc) qui
existe depuis des décennies, elle n’a pratiquement plus rien à voir avec l’originale: le revêtement est aujourd’hui plus mince, plus uniforme
et son aspect est plus lisse. Les tôles livrées à
l’industrie automobile sont aussi plus minces et
beaucoup plus résistantes, ce qui permet de diminuer le poids des voitures et de les rendre moins
polluantes… pourtant, ce sont toujours des tôles
galvanisées !
RT: Dans le cas des matières plastiques, c’est un
peu la même chose: nous sommes très en amont
par rapport au consommateur final et nos nouveaux produits sont souvent des améliorations
d’une ou plusieurs propriétés. Prenons l’exemple
des composites qui sont l’association d’un polymère avec une fibre (en verre ou en
carbone) qui agit comme
renfort et qui servent à fabriquer des objets
comme des raquettes de tennis. Un jour, l’idée
est venue de remplacer ce genre de fibre par des
fibres naturelles, comme celles de bois. Elles ont
été incorporées dans du PVC afin d’en faire des
profilés qui pourraient servir à faire des recouvrements de mur ou bien des terrasses. Ainsi sont
nés les «Wood Plastic Composites» (WPC). Ces
nouveaux plastiques ont des propriétés esthétiques remarquables et rivalisent de rigidité avec
le bois, tout en apportant une bien meilleure
tenue dans le temps… mais ce sont toujours des
composites !
ous parliez plus haut de «solutions».
par là ?
V Qu’entendez-vous
RT: Ici, l’idée est de s’intéresser aux produits de
nos clients et de voir avec eux comment ils peuvent évoluer. C’est le «co-engineering». La
problématique de la fin de vie des objets que
nous consommons est de plus en plus d’actualité, et les différents acteurs du marché recherchent des solutions leur permettant de conserver
leur activité à long terme. Prenons l’exemple
des bâches publicitaires en vinyle, alliant résistance aux intempéries, solidité et grande facilité
d’impression. Leur durée de vie, de quelques
semaines, a fini par poser question à ceux qui
les achetaient. Ils se demandaient ce qu’ils pouvaient en faire une fois arrivées en fin de vie ?
Pas question de les mettre en décharge, mais
comment les recycler ? En effet, ce sont des textiles enduits, et désolidariser le tissu en polyester du revêtement en vinyle n’est pas possible.
Les méthodes classiques de broyage, couramment utilisées dans le recyclage des matières
plastiques sont dans ce cas inopérantes. Nous
avons donc développé un procédé unique qui,
grâce à la mise en solution sélective du PVC,
permet de le séparer du polyester. Aujourd’hui,
nous avons une usine en Italie qui recycle
10 000 t de ce genre de produits en fin de vie.
Elle les transforme en PVC recyclé et en fibres
de PET recyclé qui sont à leur tour utilisés dans
des objets, dont l’impact environnemental
est très fortement réduit, grâce à
l’énergie épargnée et aux matériaux réutilisés. Les bâches publicitaires ont désormais un avenir durable devant elles , car
nous avons apporté une
solution à nos
clients.
13
Athena 260 / Avril 2010
(Photo: photl.com)
de succès ne sont pas très élevées. Il faut d’abord
convaincre la production d’effectuer des essais
industriels coûteux et nécessitant parfois d’aménager l’outil. Ensuite le marketing doit identifier
un marché suffisamment large pour pouvoir
amortir rapidement les investissements. Enfin,
certains marchés, comme le bâtiment, sont très
réglementés et assez conservateurs: un travail de
certification et beaucoup de lobbying sont donc
indispensables.
(Photo: photl.com)
Innovation
Le temps
de la bonbonne
de gaz en métal,
très lourde, est révolu.
L’innovation:
un acier plus mince
dérivé de
l’automobile !
RH: Nous avons également de nombreux exemples de co-engineering innovant. L’idée consiste
à analyser comment nos clients utilisent nos
produits dans leurs applications. Souvent, nous
pouvons proposer d’autres qualités d’acier
permettant d’améliorer les performances du
produit. Un exemple récent est celui de la bonne
vieille bonbonne de gaz, bien lourde, que tout le
monde connaît. Les producteurs
s’apprêtaient à lancer de nouvelles
bouteilles deux fois plus légères en
matériaux composites. Nous avons pu
proposer une solution acier alternative
en adaptant un acier développé à
l’origine pour le marché automobile et
permettant une réduction de poids
encore supérieure à la solution composite. L’effort de recherche lié au produit
(une qualité d’acier) a donc été limité,
mais il a fallu développer des trésors de
créativité pour montrer que la solution
proposée offrait toutes les garanties de
sécurité, comme résistance à l’éclatement par exemple. Il a également fallu
prouver que la nouvelle bouteille, fabriquée avec un acier aussi mince, satisfaisait aux
normes et règlements existants. Toutes ces opérations ont été effectuées en étroite collaboration
avec le client.
ans la pratique, comment gérez-vous le
d’innovation ?
D processus
RT: Nous gérons principalement deux aspects du
processus. Il faut tout d’abord pouvoir apporter
des réponses adéquates aux nouveaux besoins du
marché et aux problèmes rencontrés par nos
clients ou nos usines. Ensuite, nous proposons
des nouveautés ou des améliorations issues de la
génération spontanée d’idées ou de la veille technologique (recherches bibliographiques, conférences...).
RH: Dans tous les cas, il est important de capter
toutes les idées, même les plus farfelues, car ces
dernières peuvent être à la source d’autres
bonnes idées. Vient ensuite un processus de
sélection dont les critères sont à la fois stratégiques, techniques et économiques. Les idées
Athena 260 / Avril 2010
14
sélectionnées sont
alors testées en laboratoire à
petite échelle et les meilleures deviennent de véritables projets de recherche qui, au
mieux, deviennent des innovations.
RT: Certains projets font aussi l’objet de coopérations externes avec des universités (notamment
via la prise en charge de thèses de doctorat), des
clients, des fournisseurs et même des concurrents lorsqu’il s’agit de travaux assez fondamentaux. Ici, nous sommes sur le terrain de l’Open
Innovation.
’est tout un programme ! Quel est le profil
des innovateurs ?
C idéal
RH: Il est vrai que nos sociétés recrutent principalement des spécialistes dans les différents
domaines où l’expertise technique est un
élément clé et que les formations en innovation
ne sont pas légion. Cependant, nous recrutons
des innovateurs ayant une base technique, voire
scientifique, leur permettant de bien maîtriser
les possibilités et les limites, tant du produit que
de la société. Parmi ces personnes, nous choisissons préférentiellement celles ayant une certaine
sensibilité marketing tout en étant au fait des
réalités économiques. Tout ceci constitue une
bonne base mais n’est pas suffisant.
RT: Effectivement, l’autre atout majeur que ces
personnes doivent posséder, c’est la créativité.
Elles doivent être capables d’imaginer des solutions nouvelles, parfois en remettant en question
certaines façons de faire, sans s’imposer ni
donner l’impression de vouloir faire table rase,
au risque de ne pas être écoutées. Elles sont
souvent en charge d’organiser des brainstorming
mettant différentes compétences autour de la
même table. Et là, des formations en créativité
sont utiles. Mais ces oiseaux sont rares ! Le
secret du succès réside essentiellement dans une
équipe pluridisciplinaire, constituée d’éléments
aux personnalités complémentaires, car faire
rêver ne suffit hélas pas...
Propos recueillis par
Géraldine TRAN
Technologie
(Photo: photl.com)
Comme si on y était ...
Une n e u r o c h i r u r g i e
à la Avatar, ... en mieux !
Liège confirme sa vocation d'excellence dans les technologies de l'image 3D.
En décembre 2009, et c'était une première, la ville mosane avait déjà accueilli un festival
et un colloque sur ce thème. En mars 2010, elle a pu s'enorgueillir d'une nouvelle première,
avec la retransmission simultanée d'une résection de tumeur crânienne
en images 3D de haute définition
D
ans les deux événements, on
retrouve la trace d'un même inspirateur: le professeur Jacques Verly.
Son équipe du Laboratoire
d'exploitation des signaux et des
images (Intelsig) de l'Institut Montefiore département d'électricité, électronique et informatique de l'Université de Liège (ULg) -, a
conçu l'architecture de la chaîne de captation,
de transmission et de projection de l'opération
chirurgicale et en a assuré la direction technique. Avec la jeune société innovante IntoPIX,
de Louvain-la-Neuve, elle a développé pour
l'occasion une solution de transmission 3D en
haute définition (full HD dans le jargon) et en
format Jpeg 2000, ce qui a assuré une qualité
de visualisation inédite. Le résultat a été
«meilleur qu'Avatar», selon une spectatrice
enthousiaste, interrogée par la RTBF.
La retransmission de l'opération, organisée le
18 mars dernier dans le cadre du festival
ImageSanté, était une première européenne. Si
l'on prend en compte la spécificité inédite du
codage des images, c'était aussi une première
mondiale. En effet, selon le réseau TWIST
(Technologies wallonnes de l'image, du son et
du texte, autrement dit le cluster wallon des
technologies audiovisuelles et multimédia), les
cartes électroniques d'IntoPix et les ordinateurs mis au point à l'ULg «ont permis
d'effectuer la transmission en gardant les flux
stéréoscopiques gauche et droit séparés, et en
les comprimant simultanément pour un débit
total de transmission de 500 Mbit/s, c'est-àdire 500 millions de bits par seconde. Cela
correspond à la moitié de la capacité de
chaque fibre optique utilisée. Il est utile de
préciser que, par exemple, le débit à l'entrée
de la carte d'encodage, donc avant compression, est de l'ordre de 2,6 Gbit/s. Il faut noter
que la stratégie conventionnelle pour ce type
de transmission en direct et en 3D est de
mélanger les deux flux (en réduisant leur
résolution) de façon à pouvoir utiliser les
canaux de transmission traditionnels, ce qui
n'a pas été le cas ici», précise-t-on encore chez
TWIST.
15
La salle d'opération
est prête
pour le tournage
(Photo:
Rudy Ramaekers
for APEX - Festival
Imagésanté 2010)
Athena 260 / Avril 2010
Technologie
Le professeur Martin étudie les instantanés
de l'imagerie médicale.
Impressionnante aussi,
la table de mixage.
en images...
L’opération en images...
L'opération a commencé.
(Photos: Rudy Ramaekers, Stanislas Tevesz, Donat Mailleux, Jacques Verly)
Une caméra 3D à bras articulé est particulièrement encombrante.
Athena 260 / Avril 2010
16
Technologie
L'opération chirurgicale, dirigée par le professeur Didier Martin, président de la Société belge
de neurochirurgie, avait lieu au Centre hospitalier universitaire (CHU) de Liège pour être
retransmise à 16 km de là, sur l'écran de la salle
archi-comble du cinéma Sauvenière. Un duplex
son reliait les deux sites, ce qui rendait possible
les conversations entre la salle d'opération et la
salle de cinéma. «Cette réussite est le fruit d'une
étroite collaboration entre un ensemble dynamique de 16 sociétés et une université, majoritairement wallonnes et membres de TWIST»,
souligne le réseau wallon.
Il va sans dire que cet exploit technologique
liégeois a mobilisé une vaste palette de compétences. La retransmission des images numériques ne pouvait être envisagée sans un réseau
à large bande. C'est la Sofico qui a mis à disposition du festival son réseau de fibres optiques.
La connexion physique du cinéma Sauvenière
au CHU a exigé le creusement d'une tranchée
de 300 m et la dépose d'un câble optique capable d'atteindre une vitesse de transfert d'un gigabit par seconde... Pour mémoire, la Sofico
contribue, depuis 2002 et en collaboration avec
l'opérateur fédéral BelNet, à l'interconnexion
des universités francophones vers le réseau
mondial de la recherche. Elle assure aussi, avec
des partenaires tels que l'intranet wallon WIN, le
câblage de 17 centres hospitaliers.
Parmi les partenaires impliqués dans l'événement, l'un des acteurs majeurs était sans
conteste la société française Binocle.
Spécialisée en prise de vue stéréoscopique, elle
était chargée de l'acquisition des images 3D. Ce
n'était pas simple d'installer et de mettre en
œuvre l'encombrant matériel de prise de vue et
de son, avec un éclairage tenant compte des
lampes très puissantes utilisées en chirurgie.
Car il ne fallait en aucun cas gêner l'équipe
chirurgicale de sept personnes qui entourait le
professeur Martin. La coordination devait être
parfaite avec la firme Arc-Cinevideo, qui a
fourni les outils de prise de vue, la machinerie
et l'éclairage. La régie était assurée par un car
de la télévision régionale tournaisienne Notele,
installé cinq étages plus bas que le bloc opératoire, dans un parking du CHU.
Pour le réalisateur français Dominique Durand,
la 3D n'était certes pas une nouveauté, mais la
captation d'une opération chirurgicale en était
une. Sur un tournage télé, le réalisateur est le
patron incontesté mais dans une salle «d'op'», le
patron, c'est le chirurgien. Pour l'équipe de
captation, l'impératif était donc de travailler le
plus discrètement possible. Les images stéréoscopiques étaient enregistrées par une équipe
d'EVS, grand spécialiste mondial de l'image
numérique. La responsabilité du son étant
Un Gb/sec, mais encore ?
uand on parle d'une vitesse de transfert d'un gigabit par seconde,
garantie par la Sofico à travers son réseau de fibres optiques, on veut
dire qu'un milliard d'informations élémentaires (des bits - binary digits
en anglais - soit une chaîne de 0 et de 1) sont expédiés à chaque seconde. Cette
performance correspond à peu près à 200 fois la capacité d'une bonne ligne
internet ADSL domestique. Pour fixer les idées, le moteur de recherche Google
explique que la vitesse (démodée) d'un kilobit par seconde (1 000 bit) correspond à l'envoi d'une ligne de texte par seconde, un mégabit (1 million de
bits) à l'envoi de 50 pages de texte par seconde et un gigabit, à l'expédition du
contenu de 300 livres par seconde. Il faut naturellement tenir compte de la
nature de l'information transmise. Des textes prennent peu de place dans la
mémoire d'un ordinateur. Par contre, les sons et les images sont nettement
plus volumineux. Surtout en 3D, full HD, stereo surround, etc...
Q
confiée à WNM, une connexion redondante
étant assurée par APEX. «Le système de transmission a réussi à maintenir le débit requis de
500 Mbit/s de façon continue durant les trois
heures de l'événement», souligne le réseau
TWIST.
Au cinéma Sauvenière, où un public nombreux
assistait à cette grande première, les images 3D
étaient générées par un projecteur de la société
flamande Barco, fourni par la firme liégeoise
XDC, la filiale d'EVS spécialisée dans le cinéma
numérique. Les spectateurs étaient munis de
lunettes actives fournies par la société slovène
XpanD. Citons aussi l'intervention des firmes
ACQI (gestion technique de la projection 3D) et
EVS (synchronisation des flux stéréoscopiques)
qui s'est par ailleurs chargée, en collaboration
avec la télévision locale RTC Liège, de composer des clips de «décrochages» tournés lors
d'une précédente opération de neurochirurgie
enregistrée au CHU le 23 février et qui avait
servi, en quelque sorte, de répétition générale.
Tout cela était orchestré par une production et
une coordination logistique confiées conjointement à Buena Onda Pictures et à Injoy
Productions.
Le festival international du film de
santé, ImagéSanté,
a lieu tous les deux
ans à Liège et en était,
cette année, à
sa 9e édition. Il est
présidé par le
professeur Philippe
Kolh, de la Faculté de
médecine de l'ULg.
Plus d’infos:
http://www.
imagesante.org
Le succès de cette entreprise complexe, menée
à bien au terme d'une préparation de plusieurs
mois, justifie le «cocorico» final du réseau
TWIST: «La Wallonie peut être fière du savoirfaire des sociétés et université qui ont pris part
à ce projet unique et relevé ce défi technologique: la majorité de la chaîne de transmission complète a en effet été concrétisée par des
acteurs et talents wallons», dont la plupart,
faut-il le dire, sont membres de TWIST.
http://www.twist-cluster.com
Jean-Luc LÉONARD
[email protected]
17
Athena 260 / Avril 2010
Recherche
Le financement public
de la recherche en
Région wallonne
L
es crédits budgétaires publics de
R&D (CBPRD) représentent l’ensemble des moyens consacrés par une
autorité publique à des activités de
R&D. En Région wallonne, ces
crédits représentaient, en 2009, un peu plus de
4% du total du budget des dépenses (1).
Les moyens affectés au budget de la Région
wallonne sont répartis en programmes opérationnels comprenant chacun l'ensemble des
moyens consacrés à un domaine d'action.
Évolution des crédits publics de R&D en Région wallonne (en milliers d'€)
nement et les ressources naturelles, l'emploi et
la formation, l'aménagement du territoire et
l'urbanisme pour les principaux, comprennent
également une proportion de crédits consacrés
à la recherche.
Après avoir diminué au cours de l'année 2004,
les crédits budgétaires publics de R&D de la
Région wallonne connaissent, depuis 2005, une
progression importante (près de 95% entre
2005 et 2008). En 2009, sur base des crédits
initiaux, leur montant s’est stabilisé par rapport
au montant observé en 2008. Cette constatation
devra toutefois faire l'objet d'une confirmation
sur base des chiffres du budget exécuté.
Les crédits budgétaires affectés
au soutien de la recherche
Intéressons-nous plus spécifiquement aux
programmes de soutien de la recherche industrielle et du développement de produits,
procédés et services innovants (2). La progression des crédits à charge de ces programmes au
cours des dernières années suit très logiquement la même tendance que le total des crédits
publics de R&D étant donné qu’ils en constituent la majeure partie.
Sont ainsi inclus dans les CBPRD, les moyens
consacrés aux programmes «Recherche»
(18.31), «Aides R&D aux entreprises» (18.32)
ainsi que les moyens mobilisés sur le «Fonds de
la recherche» (18.34). Ces moyens représentent
plus de 80% du total des CBPRD.
D'autres programmes, relevant de domaines
tels que l'énergie, l'agriculture, l'environ-
Le tableau et le graphique repris ci-après
mettent en évidence cette progression ainsi
que la contribution de chaque grande catégorie
de moyens de financement: les crédits dit
«ordinaires», les moyens consacrés au
cofinancement d’actions relevant des fonds
structurels européens et les moyens mobilisés
dans le cadre du plan d’actions prioritaires
pour l’avenir wallon (Plan Marshall).
Crédits budgétaires affectés au soutien de la R&D (2)
Budget ajusté, milliers d'euros
Crédits ordinaires
Cofinancements fonds structurels
2001
2002
2003
2004
2005
2006
2007
2008
2009
124 382
138 471
145 496
123 079
132 541
149 549
155 389
163 532
162 603
54 013
39 174
30 556
13 173
13 612
Plan d'actions prioritaires
Total des crédits
178 395
Athena 260 / Avril 2010
177 645
176 052
136 252
18
146 153
1 108
3 330
93 891
34 306
35 065
97 372
54 602
127 814
185 722
256 091
312 025
324 723
(Photo: photl.com)
Évolution des crédits budgétaires affectés au soutien de la R&D (2)
À partir de 2006, les moyens complémentaires
issus du Plan Marshall ont permis aux crédits
budgétaires affectés à la R&D de retrouver et
ensuite de dépasser le niveau atteint au début des
années 2000.
La progression observée en 2008 est, quant à
elle, essentiellement due au démarrage de la
dernière programmation des fonds structurels
européens. En 2009, à nouveau, les moyens
mobilisés dans le cadre du Plan Marshall ont
largement contribué à maintenir le niveau des
crédits «Recherche».
Comment ces crédits
sont-ils utilisés ?
Le tableau et le graphique ci-après nous donnent
une vision d’ensemble de l’utilisation des crédits
relevant des programmes de soutien à la recherche en Région wallonne.
Les programmes de recherche des pôles de
compétitivité ainsi que les programmes d'excellence universitaires constituent les deux principa-
les actions vers lesquelles ont été orientés les
moyens complémentaires affectés à la R&D au
cours des dernières années.
(1) Estimation
basée sur les
crédits initiaux
de 2009.
La forte progression des montants engagés dans
des projets cofinancés par les fonds structurels
européens, qui a pu être observée en 2008, est
caractéristique en début de période de programmation, moment où la sélection des projets est
organisée. Elle est cependant nettement plus
importante que celle observée en 2001, lors du
démarrage de la précédente programmation.
(2) Programmes
18.31, 18.32 et
18.34 du budget
des dépenses de
la Région
wallonne,
selon la nouvelle
nomenclature
introduite en 2009.
En 2009, le cofinancement des projets relevant
des fonds structurels s'est poursuivi mais dans
une moindre mesure. Cette diminution a toutefois été compensée par la croissance des moyens
affectés au financement des projets de recherche
des pôles de compétitivité et des programmes
d'excellence universitaires.
(3) Ils s’agit des
montants engagés
à charge des
programmes 18.31,
18.32 et 18.34
du budget des
dépenses de la
Région wallonne.
La mise en place d'un institut de recherche
d'excellence dans le domaine des sciences de la
vie et des biotechnologies, WELBIO, vient
également accroître, de façon significative, le
montant des moyens repris sous le libellé
Montants engagés par type d’action en milliers d’euros
Actions
2001
2002
2003
2004
2005
Soutien des projets de R&D des pôles de compétitivité
74 199
49 686
2007
2008
2009
51 653
35 553
80 130
62 660
68 452
71 537
65 486
29 235
Soutien des projets de R&D des entreprises (hors pôles)
44 711
53 530
Soutien des projets de R&D des institutions
de recherche dans le cadre des fonds structurels
38 844
28 720
9 155
9 167
1 685
952
2 402
91 872
Programmes mobilisateurs
28 937
30 848
30 538
33 290
20 449
31 309
16 500
23 328
27 703
3 271
6 059
20 827
10 472
21 645
Programmes d'excellence universitaires
65 918
2006
20 298
Soutien des projets de R&D des institutions
de recherche dans le cadre d'autres programmes
7 181
4 395
10 598
4 750
9 267
5 644
6 181
6 924
16 499
Programmes First
9 820
7 668
9 040
6 420
13 258
14 727
17 517
18 316
9 835
2 500
3 966
3 816
3 633
5 497
7 999
62
3 956
4 262
6 214
12 316
17 618
19 032
16 869
1 083
Programmes d’excellence en partenariat public privé (PPP)
Recherche collective
Valorisation de la recherche
et accompagnement de l'innovation
Soutien de la participation aux programmes
de recherche européens
Autres actions
TOTAL
1 119
2 871
9 554
15 496
3 355
11 253
7 820
10 181
93
91
20
1 294
4 127
4 482
4 337
2 118
417
1 283
23 090
5 776
1 562
2 500
333
5 452
140676
144902
167893
124058
133684
164825
213409
294363
19
282698
Athena 260 / Avril 2010
Recherche
Évolution des montants engagés par type d'action, en milliers d'euros
Évolution des montants engagés par type d'organisation, en milliers d’euros
«Soutien des projets de R&D des institutions
de recherche dans le cadre d'autres programmes».
À qui ces crédits
sont-ils octroyés ?
Le graphique ci-contre nous donne une vision
d’ensemble de la répartition des moyens octroyés
par grande catégorie de bénéficiaires. Par rapport
à la situation de 2004, l’augmentation des crédits
a bénéficié à chacune des trois grandes catégories de bénéficiaires: entreprises, centres de
recherche et universités/hautes écoles. Pour les
entreprises, l'augmentation résulte essentiellement du financement des projets de recherche
des pôles de compétitivité.
Nouveau rapport
sur l'état des lieux du système
d'innovation en Wallonie
D
epuis quelques années, la Région publie, en partenariat avec le Bureau fédéral du
Plan, un tableau de bord de la recherche et de l'innovation en Région wallonne.
Le tableau de bord de la recherche et de l'innovation sert également de base à la publication annuelle d'un état des lieux du système d'innovation régional.
Ce rapport compare les performances du système d'innovation wallon aux performances des systèmes d'autres pays et régions d'Europe, en vue d'en mettre en évidence
tant les points forts que les difficultés constituant les défis à relever pour assurer un
développement efficace de la recherche et de l'innovation en Wallonie.
La nouvelle édition de ce rapport peut être consultée sur le site
http://recherche-technologe.wallonie.be.
L'augmentation des fonds octroyés aux universités, constatée à partir de 2006, provient
également de leur participation aux projets des
pôles de compétitivité et, dans une moindre
mesure, des programmes d'excellence. À partir
de 2008, le financement des projets cofinancés
par les fonds structurels européens contribue
également à cette progression. Les fortes
augmentations de la part dévolue aux centres de
recherche collective correspondent aux années
de démarrage des programmations de fonds
structurels. Les crédits budgétaires affectés au
financement de la recherche des centres sont, en
effet, encore fortement dépendants des moyens
issus des fonds structurels européens même si les
crédits ordinaires ont connu une évolution positive au cours des dernières années.
Un rapport complet sur l'utilisation des crédits
budgétaires affectés au soutien, à la promotion et
à la valorisation de la recherche peut être
consulté sur le site
http://recherche-technologe.wallonie.be.
Isabelle PIERRE
[email protected]
Athena 260 / Avril 2010
20
Internet
Internet
ou le do it yourself
Souvenez-vous, avant l'arrivée de l'ordinateur individuel, des actes aussi simples que taper une
lettre proprement sur une machine à écrire était complexe et ennuyeux: pas de choix de police
de caractère, un calvaire pour créer des colonnes, réservation d'un espace
suffisant pour des illustrations, numérotation des pages (en espérant ne pas avoir à insérer
une page par la suite), numérotation des notes et pages en prévoyant suffisamment de place,
pas de couleur, aucun effet spécial comme un filigrane ou un texte vertical... Bref, l'arrivée
du traitement de texte a permis à chacun de rédiger un mémoire ou un article sans avoir eu
à suivre une formation de dactylographe. Avec les programmes classiques et courants disponibles aujourd’hui, tout le monde est apte à publier des rapports avec une mise en page soignée
D
epuis les années 90, Internet prend
de plus en plus de place dans nos
vies professionnelle et privée. Au
début, on a découvert avec émerveillement le courrier électronique
et le bonheur de pouvoir consulter des sites de
n'importe où et à n'importe quelle heure du jour
et de la nuit. Mais le début des années 2000
nous a apporté une nouvelle révolution dont
beaucoup de gens ignorent encore les résultats
et surtout les bienfaits: le Web 2.0. C'est cette
nouvelle conception du Web qui nous permet à
tous, sans aucune qualification, sans aucune
formation, mais avec un peu d'imagination et
de logique, de créer en ligne et chez soi des
choses qui semblaient totalement inaccessibles
à la majorité d'entre nous voici 15 ans. Pour
bien comprendre ce qui va suivre, un rappel est
toutefois nécessaire...
Le Web 2.0, c’est le monstre du Loch Ness, tout
le monde en a entendu parler, rares sont ceux
qui l’ont aperçu et encore moins touché, mais
chacun pense savoir à quoi il ressemble. Si
c’est avant tout une philosophie technologique
sur Internet, c’est aussi - et peut-être surtout la partie matérielle, le support en quelque sorte,
d’une révolution dans la manière de concevoir
l’entreprise et sa gestion. Même si ses contours
en sont encore mal définis, le Web 2.0 constitue
une évolution remarquable vers un World Wide
Web offrant davantage de possibilités de colla-
boration grâce à des technologies disponibles
en ligne qui devraient, très probablement, remplacer rapidement les outils classiques (traitement de texte, tableur…) de nos ordinateurs.
Son développement
est inéluctable, il
est en marche et
s’accélère. Il est en
train de modifier
profondément notre
manière de travailler, de réfléchir et
de vivre. Les entreprises européennes
en général, et belges en particulier,
seraient d'ailleurs
bien inspirées de ne pas manquer ce train.
D’où vient la notion
de Web 2.0 ?
Le terme «Web 2.0» est un concept inventé par
Dale Dougherty, de la société O'Reilly Media,
durant une séance de brainstorming avec Craig
Cline de MediaLive. À cette époque (2004), le
monde (boursier surtout) se remettait difficilement de ce que l’on a appelé «l’explosion de la
bulle Internet», survenue quelques années plus
tôt.
21
Athena 260 / Avril 2010
Internet
Dale Doherty était
le collaborateur
de Tim O'Reilly,
mais il est surtout
connu pour avoir
créé, en 1993,
GNN, le Global
Network
Navigator,
le premier portail
Web entièrement
financé par
la publicité.
Dale Dougherty nota que les entreprises ayant
survécu à ce désastre financier avaient toutes en
commun de proposer des technologies ou des
services favorisant la collaboration en ligne.
Selon lui, la débâcle de 2000 était une étape
normale dans tout processus industriel et
marquait simplement la fin d'une époque, celle
de la première version du Web (inventé par Tim
Berners-Lee en 1993), depuis désignée par le
nom de Web 1.0 et fondue désormais dans le Web
2.0. Le texte généralement considéré comme
fondateur de ce dernier est accessible en ligne et
dans sa version originale à l'adresse http://snipurl.com/ictw. Ce document a été traduit en français et est également disponible en ligne sur
http://snipurl.com/v2gk.
Qu’est-ce que le Web 2.0 ?
Ce n'est ni une norme (définie par un organisme
tel que le W3C - http://www.w3.org/), ni un label
décerné selon des critères précis par un organisme officiel ou non. Le Web 2.0 n'est pas
davantage un standard. Il s'agit plutôt d'une série
de principes d'utilisation de technologies existantes. Si celles-ci peuvent être facilement définies et décrites (par exemple la technologie
XML), le Web 2.0 est au contraire un concept
flou qui regroupe un certain nombre de tendances. Chacun semble en avoir sa propre définition
et il suffit, pour s'en convaincre, de considérer le
nombre d'articles décrivant «ce qu'est le Web
2.0».
Dale Doherty
a inventé
le terme
«Web 2.0».
(Photo:
James Duncan
Davidson/O'Reilly
Media, Inc.)
Au fil du temps et par un phénomène classique
de mode, le Web a vu rapidement se répandre
toute une série d'outils, de sites et de comportements en ligne revendiquant l'étiquette «Web
2.0». Ce qui a amené les rédacteurs du document
fondateur à préciser les caractéristiques
permettant de déterminer les applications en ligne pouvant être qualifiées
de Web 2.0. Nous y reviendrons.
Dans un article publié en juillet 2006
sous le titre Levels of the Game: The
Hierarchy of Web 2.0 Applications, Tim O'Reilly revient sur
l'impossible définition du Web
2.0. Il commence par
rappeler qu'il ne suffit pas
qu'une application utilise
la technologie Ajax pour
se voir qualifiée de
Web 2.0. Ensuite,
O'Reilly propose,
pour la première
fois, une hiérarchie du Web 2.0
en quatre niveaux
(de 3 à 0):
Athena 260 / Avril 2010
22
• Niveau 3
Ce niveau comprend des applications qui ne
peuvent exister que parce qu'elles sont en ligne et
qui tirent leur force du réseau et des connexions
établies entre personnes ou applications. Ces
applications se portent d'autant mieux que le
nombre de leurs utilisateurs augmente. Quelques
exemples: Ebay (site de vente aux enchères),
Skype (téléphonie gratuite d'ordinateur à ordinateur). Ce niveau comporte également deux applications emblématiques du Web 2.0: Wikipedia et
Del.icio.us.
Wikipedia (http://fr.wikipedia.org/), comme son
nom l'indique, est un wiki. Il s'agit d'une encyclopédie dont l'ensemble du contenu est rédigé,
annoté, complété et corrigé par les lecteurs, tous
bénévoles, qui peuvent eux-mêmes éditer les
pages existantes ou en créer de nouvelles. Cette
encyclopédie existe en plusieurs dizaines de
langues, mais chaque version est originale,
c'est-à-dire que les articles ne sont pas des
traductions. En d'autres termes, toutes les
versions sont différentes. Dans le bas de la page
d'accueil sont proposés des liens vers d'autres
productions du même type, comme WikiSpecies
(en anglais) (http://species.wikimedia.org/) qui a pour
but de recenser le monde vivant.
Del.icio.us (http://del.icio.us/) est un autre exemple
emblématique du monde du Web 2.0. Il s'agit
d'un gestionnaire de signets (favoris) en ligne. Le
système de gestion des favoris proposé par les
navigateurs (Chrome, Internet Explorer, FireFox
ou autres) ne convient pas pour un usage professionnel: pas de commentaire possible, pas de
possibilité de recherche dans les favoris, etc.
Avec Del.icio.us, plus de catégories, mais chaque
page est taguée, c'est-à-dire que l'utilisateur y
«colle» des mots-clés. Del.icio.us permet de
partager ses signets, de lancer une recherche à
partir d'un tag, de savoir quels utilisateurs ont
sauvé la même page (et de trouver ainsi des gens
partageant les mêmes centres d'intérêt). Certains
parleront de création d'intelligence collective.
Dans l'article précédent, nous avons évoqué un
nouveau système de gestion des favoris (signets)
connu sous le nom de Diigo
(http://www.diigo.com/), supérieur à Del.icio.us, qui
n'en demeure pas moins intéressant et qui a réellement ouvert la voie du social bookmarking.
• Niveau 2
Les applications du niveau 2 peuvent exister
hors connexion, mais le fait qu'elles soient en
ligne décuple leur efficacité. Un des meilleurs
exemples est Flickr (http://www.flickr.com/).
Connu de tous les amateurs de photo, il s’agit
d’un outil de partage et de stockage de photos en
Internet
ligne. Créé en février
2004, racheté par
Yahoo! en mars 2005,
Flickr compte aujourd'hui plusieurs millions d'abonnés. Le total des
photographies téléchargées se compte par centaines de millions. Cette réussite exemplaire
tient au principe même sur lequel
repose cet outil: créer de l'interaction avec les images. Ce n’est en
effet pas un simple outil de stockage de données comme il en
existe des dizaines sur Internet. Sur
Flickr, les photos sont classées,
partagées et peuvent être commentées et taguées. Le site s'est développé sur le modèle des anciens
clubs de photographes amateurs,
lieux d'échanges, de conseils et
d'émulation. Mais ici, les membres
bénéficient d'un outil à l'échelle du
monde, avec des contributeurs
provenant des quatre coins du
monde et parlant toutes les langues.
On a connu des outils de gestion
locale de photos comme iPhoto
(http://snipurl.com/v34p), mais il est
évident que Flickr bénéficie grandement de la puissance de la communauté des utilisateurs en ligne.
Le Web 2.0 a donc mis à la disposition de
chacun d'entre nous une série d'outils que nous
sommes tous capables d'utiliser. Il nous permet
de développer et de partager (en d'autres termes, de faire connaître) nos compétences et/ou
aspirations à écrire, de prendre des photos, de
communiquer, d'animer des communautés, de
commercer, de publier des vidéos,
d'organiser des conférences en
direct, de créer - pourquoi pas ? un reportage et de le diffuser. Le
Web 2.0 a déplacé la frontière
entre le possible et l'impossible
vers les limites de notre propre
imagination. Vous avez une bonne
idée ? Réalisez-là ! N'attendez
plus que les choses soient parfaites pour les publier. Le premier
mérite d'une chose est d'exister !
Vous faire connaître
Une des principales conséquences de l'émergence du Web (et en
particulier du Web 2.0) est que
chacun d'entre nous - personne
morale ou personne physique dispose de tout ce dont il a besoin
pour se faire connaître.
Chercher un emploi aujourd'hui
ne se fait plus en envoyant des
dizaines de curriculum vitae qui
ont tendance à finir dans la
corbeille (électronique ou à
papier). «Ne dites pas que vous
êtes compétent, montrez-le».
Plutôt que de se proclamer
spécialiste de la recherche
d'informations, spécialiste de
l'assistance aux personnes en fin
de vie ou ébéniste hors pair, n'estil pas préférable de le
démontrer ? Comment ? Par
exemple en créant un blog sur
lequel vous publierez des
réflexions, des photos de vos
réalisations, des commentaires
sur des articles parus dans la
presse spécialisée, en offrant des
astuces, en partageant votre
savoir... Vous laisserez des
commentaires (toujours) constructifs sur d'autres blogs en
songeant à indiquer qui vous êtes
et l'adresse du vôtre.
• Niveau 1
Les applications classées au
niveau 1 peuvent fonctionner - et
fonctionnent d'ailleurs avec succès hors connexion, mais gagneront à
être mises en ligne. L'un des exemples les plus connus est Google
Documents (http://docs.google.com/),
un traitement de texte en ligne, mais
aussi un tableur et un outil de
présentation. Si on l'emploie pour
collaborer à la rédaction d'un document, c'est un outil formidable,
mais si on l'utilise simplement
comme traitement de texte, l'avantage est minime par rapport à une
suite logicielle comme Open Office
(http://fr.openoffice.org/).
• Niveau 0
On classe ici des applications
primitivement apparues en ligne,
mais qui fonctionneraient tout aussi
bien hors connexion si on disposait
de la base de données localement.
C'est le cas par exemple de Google Maps
(http://maps.google.com/) ou Google Earth
(http://earth.google.com/intl/fr/).
Pour en savoir
davantage
sur l'e-réputation:
Une définition http://bit.ly/aWSMU
Un livre blanc http://bit.ly/biFiuV
Un dossier http://bit.ly/cGjHW
Un moteur spécialisé http://bit.ly/GjiHo
Vous créerez également un profil dans des
réseaux sociaux à usage professionnel comme
LinkedIn (http://www.linkedin.com/) permettant
de générer, petit à petit, un réseau qui sera
23
Athena 260 / Avril 2010
(Photo: PhotoAlto / Reporters)
(«e-réputation») soit cohérente: ne racontez
pas de choses différentes d'un profil à l'autre.
Et pour être encore plus visible sur Google,
pensez aussi à créer votre profil sur Google
Profiles (http://www.google.com/profiles).
Identité
numérique
Une réputation numérique se crée et se gère.
Elle se compose de toutes les traces virtuelles
que vous laissez traîner: adresses électroniques, photos, curriculum vitae divers et
parfois obsolètes, noms apparaissant dans des
documents officiels (procès-verbaux d'assemblées générales), etc. Mais elle se compose
aussi de tout ce que les autres disent de vous.
Si vous n'occupez pas le terrain, d'autres le
feront à votre place. Vous multipliez ainsi les
«scènes» sur lesquelles vous montrez votre
savoir-faire et par là même, vos chances
d’être repéré.
Soyez généreux, partagez vos idées.
N'attendez pas qu'on vienne vous chercher,
montrez-vous. Le Web 2.0 nous permet de
réaliser un rêve universel: l'ubiquité. Vous
penserez évidemment à ajouter des liens vers
vos différentes «scènes» dans la signature de
vos emails. Et tout cela, sans débourser un
centime d'euro !
utile tôt ou tard, par exemple lors d’une recherche d’emploi. Il n'est jamais trop tôt pour
entreprendre la création d'un tel réseau car il
vous permettra de maintenir le contact avec
toutes les personnes rencontrées au cours de
vos études, en stage, dans la vie professionnelle, etc. N’attendez pas forcément d’en avoir
besoin pour créer un réseau ! Une assurance
incendie se contracte quand la maison est en
bon état. Ensuite, il est facile de diffuser le
contenu de votre blog par d'autres canaux
comme Facebook ou Twitter.
Écrivez un article et publiez-le sur des sites de
journalisme citoyen comme AgoraVox
(http://www.agoravox.fr/) ou sur des sites comme
Scribd (http://www.scribd.com/). Plus vous multiplierez les moyens de communication (blogs,
profils en ligne, réseaux sociaux, etc.), plus
vous serez présent dans les moteurs de recherche. Car n'oubliez jamais que votre futur
patron va forcément lancer une recherche sur
votre nom dans Google pour savoir si ce que
vous allez lui raconter en entretien correspond
à ce qui se dit de vous sur le Web. Il est
indispensable que votre identité numérique
Athena 260 / Avril 2010
24
Dans la première partie de cet article nous
n'avons pu examiner que la possibilité de se
faire connaître. Mais n'est-ce pas là le premier
bénéfice à retirer du Web ? Grâce à lui, nous
pouvons exister en tant qu'individu. Avant l'ère
du Web, il était extrêmement difficile et
coûteux de sortir de l'anonymat. Il était très
compliqué, pour un jeune journaliste, de se
faire remarquer par un patron de presse, pour
un poète de faire connaître son travail ou
encore, pour un professeur de maths de faire
savoir qu'il donnait des cours particuliers sinon
en collant des petites annonces sur les valves
des grandes surfaces ?
Le Web permet le développement d'un tas de
nouveaux métiers et de possibilités: organiser
une vidéo-conférence, créer un journal personnalisé, créer une télévision privée ou visiter
des endroits sans même se déplacer...
Magique !
Christian VANDEN BERGHEN
[email protected]
http://www.brainsfeed.com/
(Photo: photl.com)
Cancérologie
Les p r o m e s s e s
d'un p a r a d o x e
Pour croître, une tumeur cancéreuse a besoin d'induire la formation de nouveaux vaisseaux
sanguins qui lui apporteront l'oxygène et les éléments nutritifs indispensables à son
développement. Depuis les travaux de l'Américain Judas Folkman, ce phénomène qualifié
d'angiogenèse tumorale est au centre des recherches de nombreux laboratoires.
Aux premiers espoirs déçus en thérapie humaine a répondu un paradoxe,
qui dessine une nouvelle voie prometteuse
T
out commence en 1971 par un article publié dans le New England
Journal of Medicine. Selon son
auteur, Judas Folkman, les tumeurs
ont besoin de nouveaux vaisseaux
sanguins pour se développer et se disséminer
et de la sorte, former des métastases.
En mettant ainsi en exergue le concept
d'angiogenèse tumorale, Folkman ouvrait une
voie inédite de recherche
en cancérologie. Et à
l'heure
actuelle,
les
spécialistes sont unanimes
pour considérer que la
croissance d'une tumeur
cancéreuse au-delà de
quelques mm3 serait
impossible si des vaisseaux sanguins nouvellement formés ne lui
apportaient l'oxygène et
les éléments nutritifs
nécessaires à son développement. Au départ, la
tumeur grandit sans
angiogenèse, les éléments
nutritifs et l'oxygène
diffusant directement à partir des vaisseaux
avoisinants. Dans un second temps, cette
diffusion devient insuffisante dans la tumeur
grandissante et des zones d'hypoxie (manque
d'oxygène) y apparaissent. Les cellules tumorales réagissent à l'hypoxie en initiant un
programme d'adaptation qui induit l'expression et la sécrétion de facteurs favorisant
l'angiogenèse, les facteurs pro-angiogéniques.
En outre, comme l'indique le professeur Agnès
Noël, codirectrice du Laboratoire de biologie des
tumeurs et du développement (LBTD) au sein du
GIGA-Cancer de l'Université de Liège, les
modèles expérimentaux utilisés dans les études
précliniques ont montré que la néoformation de
vaisseaux sanguins n'était pas seulement impliquée dans la croissance des tumeurs, mais les
rendait aussi plus agressives et plus invasives. De
fait, ces néovaisseaux sont très immatures et
faiblement fonctionnels ; ils laissent de larges
plages hypoxiques au sein de la tumeur. Or
l’hypoxie tumorale est reconnue depuis longtemps comme un facteur péjoratif car elle rend la
tumeur plus résistante aux traitements anticancéreux, comme la chimiothérapie et la radiothérapie. Elle favorise également l’agressivité de
la tumeur, ainsi que l’invasion tumorale et la
propension à former des métastases.
25
Une tumeur n’est pas
uniquement
constituée de cellules
tumorales, mais
comprend également
des cellules provenant
des tissus avoisinants
(cellules de l’hôte)
qui constituent le
microenvironnement
tumoral. Les tumeurs
induisent la
formation de
nouveaux vaisseaux
sanguins (angiogenèse) qui favorisent
leur croissance et
leur offre un accès
aux vaisseaux par
lesquels les cellules
tumorales se
disséminent à
distance pour former
des foyers secondaires
ou métastases. Au
cours de leur périple,
les cellules doivent
franchir des obstacles,
notamment un réseau
complexe de
protéines, la matrice
extracellulaire.
Athena 260 / Avril 2010
Cancérologie
Dans les années 1980, l'accent fut mis sur l'identification des facteurs angiogéniques, ceux-là
mêmes qui s'expriment en réponse à l'hypoxie
pour stimuler l'apparition de nouveaux vaisseaux. C'est ainsi que furent découverts le VEGF
(vascular endothelial growth factor), le bFGF
(basic fibroblast growth factor) et plus tard, le
PDGF (platelet-derived growth factor).
Très vite, le VEGF polarisa toutes les attentions,
ou presque, car il semblait être le facteur potentiellement le plus angiogénique. L'idée était
donc: pour faire obstacle à l'angiogenèse, il faut
bloquer le VEGF.
(Photo: photl.com)
Stratégies anti-VEGF
À la charnière des années 1980 et 1990, les
mécanismes d'action du VEGF étaient déjà bien
élucidés. D'une part, confirmation était donnée
de l'importance de son rôle dans l'angiogenèse.
D'autre part, deux stratégies purent être élaborées
pour annihiler son action. La première consiste à
diriger un anticorps contre lui. La seconde tente
de bloquer les récepteurs au VEGF, soit en empêchant la liaison entre le VEGF et son récepteur,
soit en inhibant la partie activatrice du récepteur
(qui est de type «tyrosine kinase»), réduisant
ainsi au silence la cascade d’événements qu'il
engendre. «Un problème se pose néanmoins: le
manque de spécificité de l'inhibition des récepteurs de type tyrosine kinase, cette famille de
récepteurs n'étant pas dédiée au seul VEGF, dit
Agnès Noël. En d'autres termes, nous ne
connaissons pas toutes les conséquences de cette
stratégie.» Quoi qu'il en soit, les deux principales approches susmentionnées pour bloquer
l'action du VEGF se sont révélées efficaces
dans tous les modèles de tumeurs induites chez
la souris, démontrant qu'une monothérapie antiVEGF peut guérir les souris porteuses de
tumeurs.
C'est dans ce contexte qu’en
2004, la Food and Drug
Administration (FDA - ÉtatsUnis) donna son approbation
à l'utilisation, en médecine
humaine, d'un premier anticorps anti-angiogénique, le
bevacizumab (Avastin®),
pour le traitement du
cancer
colorectal
métastatique. Par la
suite, ce médicament fut également testé dans
d'autres
types
de tumeur. Si
l'Avastin®, en
monothérapie,
Athena 260 / Avril 2010
26
procure certains bénéfices dans quelques cancers (côlon, rein), il en est dépourvu dans d'autres. Après plusieurs études cliniques, il ne
semble pas avoir d'avenir en monothérapie,
mais seulement en combinaison avec une
radiothérapie ou une chimiothérapie. «Chez
l'homme, les bénéfices sont mineurs par rapport aux espoirs de départ», commente Agnès
Noël.
Pourquoi cette discordance entre les résultats
précliniques (animal) et les observations
cliniques ? C'est ce qu'essaient de comprendre
les laboratoires. Durant la première phase des
études sur l'angiogenèse, soit pendant plus de
trente ans, tous les regards se sont focalisés sur
les cellules endothéliales (1). De la sorte, la
recherche s'est inscrite dans une vision parcellaire du phénomène de l'angiogenèse. À
l'opposé de la lumière sanguine, la paroi des
vaisseaux est en effet tapissée de «cellules
murales», les péricytes, qui assurent la maturation et la stabilité de ceux-ci.
Une nouvelle voie
Dans les tumeurs, les vaisseaux nouvellement
formés sont généralement plus tortueux, moins
fonctionnels et plus perméables que des vaisseaux «normaux». Ils sont moins recouverts de
péricytes et donc moins stables. Aujourd'hui, on
sait que bloquer le VEGF aboutit à une
meilleure maturation des vaisseaux et, par
conséquent, à une «normalisation de la vascularisation tumorale». Cette situation tient du paradoxe, puisqu’au départ, le but était d'empêcher
la croissance de la tumeur en provoquant son
asphyxie et en la privant de nutriments.
Ce paradoxe a néanmoins ouvert une nouvelle
voie. La normalisation de la vascularisation
tumorale induite par un traitement anti-angiogénique homogénéise la perfusion tumorale.
Cela permet une meilleure distribution des
drogues de chimiothérapie au sein de la tumeur
et favorise en outre l’oxygénation tumorale. Or,
si l’oxygène est indispensable à la survie cellulaire, il l’est également à l’efficacité de la
chimiothérapie et de la radiothérapie. Ainsi,
l’hypoxie rend les cellules tumorales trois fois
plus résistantes à la radiothérapie. «Si ces
concepts de normalisation et de synergie entre
les anti-angiogéniques et les traitements anticancéreux sont bien documentés dans les
modèles animaux, la preuve formelle reste à
faire chez l'homme», insiste le professeur
Philippe Coucke, chef du service de radiothérapie du CHU de Liège.
Agnès Noël indique pour sa part que, chez
l'homme, le couplage d'un traitement anti-
Cancérologie
VEGF et d'une chimiothérapie ne représente
aujourd'hui une plus-value que dans certains
types de cancers, principalement ceux pour
lesquels les traitements existants sont peu
efficaces, et que, globalement, cette stratégie
s'est révélée plutôt décevante. Le concept qui la
sous-tend est-il voué à l'échec pour autant ?
«Non, estime-t-elle. Jusqu'à présent, nous
avons travaillé sur des modèles trop simples en
nous focalisant sur les seules cellules endothéliales. Désormais, nous devons notamment
nous atteler à élucider le dialogue qu'elles
entretiennent avec les péricytes et considérer la
tumeur comme un écosystème complexe.»
Pour l'heure, aucune direction précise ne se
dessine. Et d'ailleurs, la fenêtre temporelle en
question est-elle identique pour chaque type de
tumeur et pour chaque type de patient ? Non,
sans doute. «De surcroît, si l'on considère le coût
d'une molécule comme l'Avastin®, on conçoit
aisément la nécessité absolue de définir des
critères très stricts qui permettront de sélectionner a priori les patients susceptibles de bien
répondre à ce type de thérapie», déclare Philippe
Coucke.
Se référant à la radiothérapie, Philippe Coucke
explique qu'une normalisation de la vascularisation tumorale devrait théoriquement
permettre de contourner un des grands écueils
auxquels se heurte cette technique: la radiorésistance (2) des régions tumorales hypoxiques. Il ajoute: «Malgré le traitement antiangiogénique, il restera des régions hypoxiques
dans la tumeur. Fractionner la radiothérapie en
de multiples séances permet d’éradiquer en premier les cellules tumorales localisées dans les
zones les mieux vascularisées, ce qui favorise
une reperfusion et une réoxygénation des
régions tumorales initialement peu oxygénées
et, dès lors, dans un deuxième temps (lors des
séances de radiothérapie suivantes), leur
réponse aux rayons.»
Au CHU de Liège, le docteur Philippe
Martinive coordonne un essai clinique où
est associé de façon synchrone, en
préopératoire, un anti-angiogénique de la
famille des inhibiteurs «tyrosine kinase»,
le sunitinib (Sutent®), à des séances de
radiothérapie et ce, dans le cadre du
cancer du rectum. S'offre ainsi l'opportunité de réaliser, parallèlement à ce
traitement bicéphale, des évaluations
successives du métabolisme tumoral par
imagerie fonctionnelle (PET scan, IRM
fonctionnelle). Ensuite, après l'excision
chirurgicale, il sera procédé à l'examen
anatomopathologique de chaque pièce
opératoire afin d'y déceler d'éventuelles
modifications dans la vascularisation
tumorale et de les mettre en relation avec
les résultats fournis préalablement par
l'imagerie fonctionnelle.
Le bon timing
Malheureusement, on n'a pas encore pu déterminer chez l'être humain la manière optimale
d'associer les molécules anti-angiogéniques et
la radiothérapie. La question est délicate,
d'autant que l'administration d'un anti-VEGF
induit probablement une augmentation transitoire de l'hypoxie, en raison de l'élimination
d'un certain nombre de vaisseaux en formation,
fussent-ils tortueux et peu adéquats. Il convient
donc de déterminer la séquence optimale
(ordre, délai, durée) de mise en œuvre des traitements combinés. Quelques essais cliniques
ont porté sur l'association d'une chimiothérapie
et d'un traitement anti-angiogénique, en particulier dans le cancer du poumon. Ces essais furent
peu probants, voire délétères. Selon le professeur Coucke, la raison de ces échecs tient probablement au fait que les deux drogues ont été
délivrées simultanément. Des essais ultérieurs,
où l'anti-angiogénique a été donné après la chimiothérapie, se sont révélés plus prometteurs.
Il est donc impératif de trouver la fenêtre
temporelle la plus appropriée pour combiner la
chimiothérapie ou la radiothérapie, d'une part, et
un traitement anti-angiogénique, d'autre part.
Résistance aux anti-VEGF
«Actuellement, on voit fleurir des essais
cliniques où sont associés la chimiothérapie, la radiothérapie et l'emploi de
molécules anti-angiogéniques, fait
remarquer Philippe Coucke. Ces initiatives me paraissent prématurées. Dans la
mesure où l'on ignore les interactions
entre ces modalités prises deux par
deux, on peut difficilement démêler
l'écheveau lorsqu'on s'intéresse à la
combinaison des trois. Dans le même ordre
d'idées, l'étude des interactions entre la chimiothérapie et l'administration de médicaments
anti-angiogéniques se complique du fait que la
chimiothérapie adopte souvent le profil d'une
polychimiothérapie.»
Le problème se pose de façon d'autant plus aiguë
que les anti-angiogéniques, comme le bevacizumab (Avastin®), ne sont pas dépourvus d'effets
secondaires. Des problèmes d'hypertension,
éventuellement d'hémorragie, ont été décrits
chez certains patients. Il résulte parfois de ces
multiples associations médicamenteuses, une
toxicité tellement importante qu’elle oblitère le
bénéfice d’un traitement anti-angiogénique.
27
Le professeur
Agnès Noël,
codirectrice
du Laboratoire de
biologie des tumeurs
et du développement
(LBTD) au sein du
GIGA-Cancer
de l'ULg.
(Photo: Ph.Lambert)
Philippe Coucke,
chef du service
de radiothérapie
du CHU de Liège.
(Photo: Ph.Lambert)
(1) Cellules qui
tapissent la
lumière des
vaisseaux
sanguins.
(2) Résistance à la
radiothérapie.
Athena 260 / Avril 2010
Cancérologie
Une découverte importante
our la plupart des types de cancers, on ignore quelle est la cellule à l'origine de l'initiation tumorale. En mars, l'équipe du docteur Cédric
Blanpain, chercheur qualifié du FNRS au sein de l'Institut de recherche interdisciplinaire en biologie humaine et moléculaire (IRIBHM) de l'ULB,
a bénéficié d'une publication dans Nature Cell Biology pour un article intitulé Identification of the cell lineage at the origin of basal cell carcinoma, dont le premier auteur est Khalil Kass Youssef, boursier FRIA. Non seulement les chercheurs de l'ULB ont identifié les cellules à l'origine du
carcinome basocellulaire (BCC), le cancer de la peau le plus fréquent chez l'homme, mais ils ont aussi balisé une voie nouvelle, applicable à l'ensemble
des tumeurs malignes, pour l'élucidation des mécanismes moléculaires se manifestant à chaque étape de la cancérisation.
P
Sur le plan histologique, le BCC ressemble à des follicules pileux désorganisés. Par ailleurs, il exprime les marqueurs folliculaires. «Aussi la communauté
scientifique a-t-elle cru, en toute bonne foi, que le carcinome basocellulaire trouvait son origine au niveau du follicule pileux» , rapporte Cédric
Blanpain. Misant sur une approche génétique ingénieuse permettant d'activer le gène (SmoM2) responsable du BCC dans différents sous-compartiments de la peau de souris transgéniques, les biologistes de l'ULB ont montré que cette attribution était erronée.
L'équipe de Cédric Blanpain a conçu et mis au point une nouvelle méthodologie, l'analyse clonale de l'origine des cancers, qui lui
permit d'activer le gène responsable du BCC dans des cellules épidermiques isolées et de suivre leur devenir au cours du temps.
«Applicable également aux autres cancers, cet outil est très puissant pour comprendre les mécanismes qui sous-tendent la
progression tumorale», commente Cédric Blanpain. Couplée à des analyses tridimensionnelles de la peau, cette technique
révéla que le carcinome basocellulaire n'avait pas pour point de départ les cellules souches du follicule pileux, mais celles de
l'épiderme interfolliculaire, dans 93% des cas, et celles de la jonction entre ce dernier et le follicule dans les autres cas.
Un autre élément intéressant mis en exergue par Cédric Blanpain, Khalil Kass Youssef et leurs collègues est que les progéniteurs issus des cellules souches mutées de l'épiderme interfolliculaire doivent avoir arrêté de se différencier et acquis une
identité folliculaire avant de permettre le développement d'un cancer invasif. Ce qui, d'une part, explique pourquoi le BCC
exprime les marqueurs folliculaires et, d'autre part, rend compte du fait que les caractéristiques de différenciation d'une
tumeur ne portent pas nécessairement la signature de son origine cellulaire.
Au-delà des travaux relatés dans Nature Cell Biology, l'équipe bruxelloise s'investit depuis plusieurs mois dans la caractérisation des événements moléculaires qui, étape après étape, conduisent de la mutation initiale de la cellule souche interfolliculaire au développement d'un cancer invasif. L'espoir est de trouver, dans un second temps, des molécules capables d'inhiber telle ou telle
protéine critique du processus de cancérisation afin d'en provoquer l'arrêt.
Plusieurs molécules actuellement en cours
d'étude seraient de nature, on l'espère, à réduire
les risques de type cardiovasculaire. «De toute
façon, il existe un large consensus pour considérer que les anti-angiogéniques devront être
combinés avec d'autres modalités thérapeutiques
et délivrés dans une fenêtre temporelle bien
précise, mais encore à définir», commente
Agnès Noël.
(3) Cellules
participant à la
synthèse des
constituants du
tissu conjonctif.
La chercheuse insiste sur un autre problème: les
tumeurs développent une résistance envers les
traitements anti-VEGF. Comme l'eau qui se joue
des obstacles jalonnant sa route, elles semblent
contourner la difficulté au bout d'un moment en
induisant l'expression d'autres facteurs angiogéniques que le VEGF, qui prennent le relais.
Toujours selon elle, «il est probable qu'on ne
pourra pas se limiter à utiliser un seul antiangiogénique, mais qu'il faudra bloquer différentes voies inductrices de l'angiogenèse.»
Précisément, le LBTD a entrepris des travaux
ayant pour objectif d'élucider les mécanismes de
résistance des tumeurs vis-à-vis des anti-VEGF.
Ces recherches (l’un des axes du programme
Athena 260 / Avril 2010
28
d’excellence NeoAngio), qui viennent à peine
d'être initiées, en sont au stade du développement de modèles expérimentaux. Une hypothèse fait néanmoins son chemin: il se pourrait
que ce soient les fibroblastes (3) présents dans
les tumeurs qui, au terme du «dialogue» qu'ils
entretiennent avec les cellules cancéreuses,
induisent la résistance à l'égard des anti-VEGF
en produisant des facteurs angiogéniques alternatifs.
Pour clore, signalons que les recherches sur
l'angiogenèse, initialement polarisées sur le
seul cancer, sont susceptibles de se forger des
débouchés dans d'autres pathologies. Ainsi,
depuis cinq ans environ, les anti-angiogéniques sont employés avec un certain succès
pour traiter la dégénérescence maculaire liée à
l'âge. «C'est le seul traitement qui fait montre
d'une réelle efficacité avec, dans certains cas,
une récupération de l'acuité visuelle», signale
le professeur Noël en guise de conclusion.
Philippe LAMBERT
[email protected]
Info-Bio
Ciel, terre et mer
au programme...
L’humain volant, le poisson pédestre, la souris boulimique ou encore le cheval-gazelle:
non, ce ne sont pas des titres de films fantastiques mais bien les sujets, toujours étonnants,
à découvrir dans cette rubrique !
es amateurs de sport extrême connaissent
Félix Baumgartner. Ce parachutiste autrichien, aujourd'hui âgé de 41 ans, s'est fait
connaître par des sauts de l'impossible: depuis
les tours les plus hautes du monde et, plus
récemment (en 2003), par sa traversée de la
Manche, muni d'une combinaison dotée d'une
aile spécialement profilée.
L
Comme il est difficile de
rester sur un succès, il envisage de battre, cette année,
un nouveau record: celui de
la chute libre entamée de la
plus haute altitude jamais
tentée par un humain. En
l'occurrence 125 000 pieds,
soit plus de 36 000 m, ou
36 km si on préfère. Pour
rappel, les avions commerciaux naviguent entre 10 et
12 000 pieds, soit trois fois
moins haut, mais déjà largement au-dessus des nuages. Il
y a donc de l'exploit dans l'air pour autant bien
entendu que l'essai aboutisse. Et de ce point de
vue, il n'y a rien de garanti. Tout dépend de la
position de chute libre qu'il va adopter, mais il
devrait de toute façon passer le «mur du son».
Une première pour un humain hors d'un avion et
dont on ne connaît pas les répercussions métaboliques.
Il va de soi que ce type d'exploit est très sérieusement encadré par une équipe de spécialistes.
Dans leurs rangs se trouve notamment Joseph
Kittinger, un militaire américain retraité (il a
aujourd'hui 82 ans !) qui détient toujours le
record pour ce genre de saut, avec un départ à
102 800 pieds ! Pour l'un comme pour l'autre, le
secret de la réussite a tenu et tiendra en une
combinaison pressurisée et - normalement - très
bien isolée. Il n'empêche que pour Kittinger, qui
a réalisé son exploit en 1960 déjà, un petit défaut
dans son gant droit a fait doubler le volume de la
main correspondante. Détail important en ce qui
le concerne, il n'a chuté qu'à une vitesse de…
988 km/h, soit Mach 0,9 et n'a donc pas passé ce
mythique mur du son, qui reste dorénavant la
grande inconnue.
Baumgartner est certes un peu casse-cou, mais
n'est pas pour autant une tête brûlée. Il est en
effet évident qu'un exploit ne vaut vraiment que
si on y survit. Il doit le savoir… n
Science 2010; 327: 627
29
Athena 260 / Avril 2010
(Photo: divemasterking2000)
Le saut de trop ?
Il faut aussi se souvenir que la température à cette
altitude stratosphérique est particulièrement
basse, de l'ordre de -100 °C. Pour peu que le parachutiste transpire un peu, il risque de voir sa peau
givrer. Enfin, en général, la pression partielle en
oxygène et en gaz est faible. Son sang ne risquet-il pas tout simplement de libérer
ses gaz dissous sous forme de
bulles, ce qui correspond pratiquement à une ébullition ? En outre, la
raréfaction en oxygène devrait forcer le
sportif à s'offrir une apnée de plus de
quatre minutes ; pour s'y préparer, il a
déjà convenu de respirer, au cours des
deux heures qui précèdent son saut, un
air enrichi en ce gaz.
Info-Bio
Obésité
et cancer ?
De l'apparition des pattes
e surpoids et a fortiori l'obésité ont mauvaise presse. Quelle que soit leur
origine, on sait qu'ils peuvent mener à une incidence accrue - par rapport
à des témoins de poids normal - d'un certain nombre de pathologies telles
que les affections cardiovasculaires et le diabète de type 2 pour ne citer que les
plus documentées. L'obésité vient également de se voir associée à un risque
augmenté de cancer, ce qui n'est évidemment pas surprenant lorsqu'on voit à
quels dérèglements métaboliques elle est déjà étroitement liée. Et grâce à des
expériences menées chez l'animal - en l'occurrence chez la souris - on vient de
démonter les mécanismes par lesquels le lien est possible.
L
On a d'abord constaté que les animaux obèses candidats à un cancer produisent
davantage de STAT3, une protéine connue pour être, de loin et indirectement,
promotrice de cancer. Ensuite, on a constaté que la concentration d'une
cytokine, l'interleukine IL-6, est également plus élevée que chez les témoins.
Enfin, une constatation identique a été faite pour le TNF, une protéine proinflammatoire. Ces trois éléments sont liés: tant IL-6 que TNF sont nécessaires
pour activer STAT3, laquelle accroît à son tour la transcription de gènes spécifiques dans des états pathologiques. C'est dans ce cadre que, chez les souris
obèses, on la trouve associée à des états inflammatoires du foie, antichambres
d'altérations plus graves et en l'occurrence - aussi - de cancers.
Le lien n'est évidemment pas immédiat: il s'agit bien d'un facteur de risque. Mais
il semble valoir tant pour les obésités liées à des prédispositions génétiques qu'à
une alimentation trop riche en graisses. Le savoir constitue peut-être déjà un
encouragement à modifier son alimentation si on le peut. Après tout et sans
brandir ce risque-là, il existe d'autres bonnes raisons de le faire pour se soustraire autant que possible aux inconvénients multiples liés à la surcharge
pondérale.
En aucun cas, ceci ne constitue une incitation: c'est une simple information. Il
revient à chacun(e), en toute autonomie évidemment, de le débriefer comme il
l'entend. n
Cell 2010; 140: 197-208
es mammifères évolués que nous sommes
ont des ancêtres, certes très lointains, qui
ont eu cette idée étonnante de sortir de
l'eau, leur milieu de vie jusqu’alors. Nous
sommes par conséquent les descendants de
poissons dont les nageoires se sont progressivement transformées en
pattes articulées susceptibles à la fois de les porter et
de leur permettre de progresser sur la terre ferme.
L
Cette réalité n'est évidemment pas neuve et contribue très étroitement à l'élaboration de l'arbre évolutif
qui mène jusqu'à nous. Il
reste encore à définir la
période pendant laquelle Le Tiktaalik a permis de situer
au Givetien, soit entre 391
cet important «changement» s'est produit et
quelles sont les espèces - bien entendu fossiles qui en ont connu les premières manifestations.
Pour ce qui est de la période, on l'a fixée plus ou
moins étroitement; il s'agit du Dévonien qui dans les grandes lignes - s'est étendu de 420 à
350 millions d'années d'ici. Pour ce qui est de la
datation plus précise, on ne peut compter que sur
la découverte de fossiles de l'époque dont l'âge
peut être déterminé par les méthodes physiques
disponibles aujourd'hui.
À chaque découverte, on précise donc un peu
mieux, si c'est possible bien sûr, l'époque à
laquelle le premier tétrapode est sorti de l'eau. Ce
fut par exemple le cas, il y a quelques années, de
Tiktaalik, ce fossile dont on a fait une sorte de
«chaînon manquant» permettant de situer l'apparition des poissons «tétrapodomorphes» au
Givetien, soit entre 391 et 385 millions d'années.
La lente élaboration de l'arbre évolutif s'est
contentée de cette datation qui confortait ce
qu'on avait établi jusque-là. Or voilà qu'une
découverte toute récente ferait remonter cette
apparition 18 millions d'années plus tôt, soit vers
397 millions d'années.
Certes l'information ne change pas grand-chose
à notre vie quotidienne, mais pour les scientifiques attachés à ce domaine, c'est un réel
scoop. Ce que des paléontologues ont découvert
dans un sol pétrifié à Zachelmie, en Pologne, ce
sont des traces, datées de cette époque, où on
identifie non seulement la marque de pattes,
Athena 260 / Avril 2010
30
(Photo: Marc Hanauer)
mais aussi des doigts. Il s'agissait par conséquent déjà de membres évolués.
La première intention a logiquement été de vérifier la datation et d'exclure la possibilité
d'empreintes laissées par des arthropodes
(ancêtres des insectes actuels) dont quelques
espèces avaient, à l'époque, une taille importante.
Les traces mettant en alternance l'empreinte de la
patte gauche et de la droite ont suffi à éteindre
cette possibilité. Pour autant, on ne sait pas
encore si l'animal concerné pesait de tout son
poids sur ses membres en cours d'élaboration. Le
sol pétrifié où les traces ont été identifiées est
celui d'un lagon peu
profond ; le «poisson»
concerné a simplement pu
s'approcher très fort du
bord et laisser ses empreintes dans le sol vaseux.
Ce qui gène un peu les
scientifiques, c'est que le
même sol n'ait pas permis
que le corps d'animaux de
cette époque soit lui aussi
les poissons tétrapodomorphes conservé ; en tout cas n'en
1 et 385 millions d’années
a-t-on pas encore découvert. Cela viendra peutêtre. De quoi conforter une nouvelle étape du
cheminement lointain de cette partie du vivant
qui a donné, 400 millions d'années plus tard,
l'étonnant bipède que nous sommes. n
Nature 2010; 40-41
Ce qui fait courir
les chevaux
our le commun des mortels, le cheval est
surtout un bel animal, noble et fier. Pour
d'autres, il est en plus un placement,
l'objet de spéculations multiples en termes de
résultats notamment obtenus sur les champs de
courses. Jusqu'il y a peu, les qualités d'un poulain
étaient celles dont la génétique l'avait doté, au
hasard généreusement orienté de saillies souvent
chèrement acquises.
P
L'avenir pourrait bien voir les choses se présenter autrement. Tout est parti du séquençage du
génome équin et de l'identification plus précise
des gènes et de leurs variantes respectives. Pour
le cheval, certains gènes ont obligatoirement plus
d'importance que d'autres et en particulier ceux
qui définissent la performance sportive. Parmi
eux, ceux qui codent pour la myostatine, une
protéine associée au développement musculaire.
Une étude menée dans un laboratoire irlandais a
identifié les allèles qui codent pour cette protéine
et les a associés à un type particulier de masse
musculaire et de performances. L'idée a donné
naissance à une société - Equinome - qui propose
dorénavant un test permettant, dès le plus jeune
âge du poulain, de savoir de quel type de musculature il sera doté. Trois groupes ont été définis:
CC, CT et TT, selon les allèles (ou variantes)
identifiés chez le jeune sujet pour le gène en
question.
À en croire les initiateurs, cette simple identification ne permet évidemment pas de prédire ce
que le cheval va gagner, mais simplement de
l'orienter vers des types d'épreuves dans
lesquelles il a plus de chances de briller. Pour
CC, les distances les plus courtes (1 300 m) sont
à favoriser: l'animal est un sprinter. Pour TT, des
distances plus longues (2 230 m, par exemple)
sont préférables. Quant à CT, on aura compris
qu'il est plutôt destiné à des parcours intermédiaires, de l'ordre de 1 830 m. Tout cela a été
vérifié lors de courses où il apparaît qu'il existe
en effet une excellente adéquation entre les
allèles présents chez les chevaux au départ et les
performances observées dans les distances
respectives ensuite.
La société espère évidemment faire de confortables profits dans le monde du turf (courses
hippiques) ; il est également probable qu’elle ne
va pas s'arrêter à ce seul test et devrait en
produire d'autres qui soient en rapport avec des
caractères additionnels et discriminants de ces
merveilleuses machines à courir. Il va de soi que,
de plus en plus, des tests prédictifs entrent dans
le quotidien; que ce soit dans le monde animal,
comme dans l'exemple repris ici, mais aussi chez
l'humain. Pour l'heure et en ce qui nous concerne,
seule la santé - a priori en tout cas - est le
domaine où les tests disponibles sont mis en
pratique. Mais allez savoir si dans un avenir
proche, quelques dispositions particulières, à
l'instar de la fonction musculaire du cheval, ne
seront pas précocement identifiées chez des
petits d'homme non plus ?
Science 2010; 327: 627
Les courses belges,
régies par la
Fédération belge des
courses hippiques,
comprennent le trot
et le galop.
Le secteur, existant
depuis 180 ans, était
prospère et d’un bon
niveau international
jusque dans les
années 90. Financé
par la marge que
prenaient les sociétés
de course sur les paris.
il relève de l’agriculture mais peu de
textes légaux le
régissent. Les régions
touchent le revenu
des taxes sur les paris.
Depuis une dizaine
d’années, le secteur
hippique connaît un
déclin dramatique,
conséquence d’un
cercle vicieux: moins
de paris entraîne une
baisse des bénéfices et
du chiffre d’affaires,
qui amène à une
baisse des price
money, du niveau et
finalement, de la
qualité des courses et
ainsi de suite...
Infos:
www.trotting.be
Jean-Michel DEBRY
[email protected]
31
Athena 260 / Avril 2010
Psychologie
(Photo: Marie-Line Cau / Photononstop / Reporters)
Regards
in térieurs
Baptisée par certains auteurs le
«soi autobiographique», la représentation de soi est une facette
essentielle de la conscience de soi.
Plurielle, évolutive, elle se nourrit
des souvenirs que nous avons
engrangés dans deux réservoirs: la
mémoire épisodique et la mémoire
sémantique. Mais quelles sont les
régions cérébrales impliquées dans
notre capacité à nous forger une
représentation de nous-mêmes ?
Le cortex préfrontal médian semble
en être la clé de voûte...
S
elon Antonio Damasio, directeur du
Brain and Creativity Institute de
l'Université de Californie du Sud, à
Los Angeles, la conscience de soi
comporte deux composantes essentielles: le «soi central» et le «soi autobiographique». Constamment recréé dans le
présent, le premier se réfère à la conscience
immédiate d'exister ici et maintenant, et
comprend plusieurs facettes. Deux d'entre elles
sont, par exemple, le sentiment d'être acteur de
sa propre vie - si je bouge la main, je conçois
que c'est bien moi qui la bouge - et le sentiment
d'être localisé, d'«habiter» dans son corps.
A priori, cela peut paraître évident, mais la
clinique et l'expérimentation sont là pour tempérer cette opinion. Ainsi, dans la schizophrénie,
certains individus sont persuadés d'être contrôlés dans leurs pensées et leurs actes par une
entité extérieure. De même, à la suite de certaines manipulations expérimentales, des sujets
«normaux» peuvent éprouver l'impression de se
trouver dans un autre corps que le leur.
L'expérience dite de «l'illusion de la main en
caoutchouc» fut la première à rendre compte de
ce phénomène. Un écran est placé entre le sujet
et une de ses mains. Elle lui est donc cachée. En
Athena 260 / Avril 2010
32
revanche, il voit une main en caoutchouc posée
sur une table. Au moyen d'un pinceau, les expérimentateurs touchent simultanément la vraie
main, dissimulée, et la fausse main. La manœuvre est répétée et, au bout d'un moment, le sujet
finit par prendre la main en caoutchouc pour sa
propre main. «La synchronisation des informations visuelles et tactiles est à la base de cette
confusion», explique Arnaud D'Argembeau,
psychologue, chercheur qualifié du Fonds national de la recherche scientifique (F.R.S.-FNRS)
Psychologie
au sein du service de psychopathologie cognitive
de l'Université de Liège (ULg).
Plus impressionnantes encore, les études de
Henrik Ehrsson, de l'Institut Karolinska, en
Suède. Ici, le volontaire est debout, la tête inclinée vers le bas, dans une position susceptible de
lui permettre d'observer son corps. Toutefois, il
est équipé de lunettes spécialement conçues
pour que ce ne soient pas son buste et ses
jambes qui lui apparaissent mais, dans une perspective rigoureusement identique, l'image du
buste et des jambes d'un mannequin.
L'expérimentateur va alors toucher l'abdomen
du sujet, par exemple, à l'instant précis où ce
dernier voit un bâtonnet heurter l'abdomen du
mannequin. Ce type d'événements est reproduit
à plusieurs reprises et, après un certain temps, le
volontaire a réellement le sentiment de se situer
dans le corps de l'être fictif. Des mesures objectives s'allient aux réponses fournies par les
participants à des questionnaires d'autoévaluation pour l'attester. «À la fin de l'expérience,
les chercheurs ont même menacé le mannequin
avec un couteau, rapporte Arnaud D'Argembeau. La réponse émotionnelle des sujets, mesurée par la conductance cutanée, se révéla similaire à celle qu'on aurait pu attendre d'individus
qui auraient été personnellement menacés.» Il
faut déduire de ces recherches que le sentiment
communément éprouvé de «résider» dans son
propre corps est le fruit d'une construction.
Un vase de Chine
Dans le modèle de Damasio, la seconde composante de la conscience de soi est le «soi autobiographique». C'est de loin la plus élaborée, puisqu'elle reflète les représentations de soi que
chacun a stockées en mémoire à long terme. Les
psychologues Stanley Klein et Judith Loftus, de
l'Université de Californie, à Santa Barbara,
considèrent d'ailleurs que les connaissances sur
lesquelles se forge notre identité sont organisées
sur le même mode que toutes nos autres connaissances. Aussi la conscience de soi puiserait-elle
largement sa substance dans ces deux réservoirs
que sont la mémoire épisodique (1), relative aux
épisodes que nous avons personnellement vécus,
et la mémoire sémantique (2), qui concerne nos
connaissances générales sur le monde et sur
nous-mêmes.
teur ?»...), les rôles sociaux (dans les sphères
familiale, professionnelle, amicale...), etc. C'est
donc autour de toute une collection de connaissances que se forme la représentation de soi. Et
ce que les autres nous renvoient de nous-mêmes
est primordial.
Le caractère pluriel de la représentation de soi
tient aussi à d'autres éléments, dont l'un des principaux est le fait, nous l'avons signalé, qu'elle
s'abreuve à deux sources: la mémoire épisodique
et la mémoire sémantique. Ainsi, la conviction
d'être maladroit pourra s'enraciner dans le souvenir d'événements précis personnellement vécus,
comme avoir renversé la veille un verre dans un
restaurant ou cassé un vase de Chine chez un
ami. Cette facette de l'image de soi (la
maladresse) pourra également s'élaborer à partir
d'un ensemble de connaissances relativement
abstraites qui se seront constituées à travers une
accumulation d'expériences passées. «Dans ce
cas, il n'est pas nécessaire de se souvenir de ces
épisodes, souligne Arnaud D'Argembeau. Les
représentations sémantiques ne dépendent plus
de la mémoire épisodique, même si elles sont en
quelque sorte des résumés décontextualisés
d'une série d'expériences personnelles.»
Cortex préfrontal médian
Comment sait-on que cette dissociation est
bien réelle ? Notamment parce qu'il ressort
d'études portant sur des patients amnésiques
que ces derniers conservent une image d'euxmêmes. Or, par définition, ils sont en proie à
des problèmes massifs de mémoire épisodique.
Stanley Klein fut l'un des premiers à montrer
que si on demande à ces personnes d'évaluer
divers traits de leur personnalité, elles fournissent des appréciations très similaires à
plusieurs semaines d'intervalle, alors qu'elles
n'ont pas le moindre souvenir de s'être jamais
soumises à un quelconque test de ce
type. Un des rôles essentiels de la
mémoire épisodique est de
contribuer à la mise à jour de la
représentation de soi, de
permettre à cette dernière
d'évoluer avec l'individu.
On sait, par exemple, que
les patients Alzheimer
(2) La mémoire
sémantique sert
à l'acquisition
de connaissances
générales sur
le monde et
sur nous-mêmes.
Grâce à elle,
nous savons
par exemple que
Rome est la
capitale de l'Italie,
mais aussi que,
dans un restaurant,
il convient
de s'asseoir,
de consulter le
menu, de manger,
de réclamer
l'addition et de
payer. Ce système
de mémoire
renfermerait
également
une carte cognitive
des lieux connus villes, maisons, etc.
(Photo: photl.com)
La représentation de soi, le «soi autobiographique», n'est pas une entité unitaire. Les
caractéristiques personnelles sur lesquelles l'individu bâtit l'image qu'il a de lui-même ressortissent à différents registres: les traits de personnalité («Suis-je plus ou moins sociable ?»...), les
préférences (Thé ou café ? Cinéma ou
lecture ?...), les capacités («Suis-je bon conduc-
(1) La mémoire
épisodique permet
le stockage et la
prise de conscience
d'épisodes
personnellement
vécus par le sujet.
En quelque sorte,
elle est le support
de son histoire
individuelle. Lésée,
elle conduit
à l'amnésie.
33
Psychologie
conservent des représentations d'eux-mêmes,
mais qu'elles demeurent figées lorsque les
difficultés de mémoire épisodique inhérentes à
la maladie deviennent sévères.
Arnaud D’Argembeau
a.dargembeau
@ulg.ac.be
(Photo: Ph.Lambert)
(3) Selon une étude
réalisée en 2010
par Michael
Lombardo,
de l'Université
de Cambridge,
cette différence
s'estompe chez
les autistes,
témoignant ainsi
de probables
perturbations dans
la faculté d'opérer
la distinction entre
soi et autrui.
(4) La durée de
chacun des scans
étaient de
90 secondes.
L'avènement de la neuroimagerie fonctionnelle
a ensemencé le champ des neurosciences sociales, dont l'objectif est de déterminer les bases
biologiques de comportements et représentations classiquement étudiés par la
psychologie sociale. C'est ainsi que,
depuis une dizaine d'années, de plus en
plus de travaux s'intéressent aux
régions cérébrales impliquées dans la
capacité de se représenter ses propres
caractéristiques, de réfléchir à
soi-même, etc. L'attention s'est d'abord
orientée vers les aspects sémantiques
de la représentation de soi. Dans ce
cadre, la première étude (2002) réalisée en imagerie par résonance magnétique fonctionnelle (IRMf) fut l'œuvre
de William Kelley, du Dartmouth
College, aux États-Unis. En quoi
consistait-elle ? Des adjectifs décrivant des traits de personnalité («sympathique», «maladroit», etc.) étaient
présentés visuellement à des volontaires,
lesquels devaient évaluer, d'une part, dans
quelle mesure ces adjectifs leur correspondaient bien et, d'autre part, s'ils étaient en
accord avec la personnalité de George Bush,
alors président des États-Unis. «En comparant
les deux conditions, Kelley observa que le cortex préfrontal médian s'activait davantage chez
les participants à son expérience lorsqu'ils
réfléchissaient à eux-mêmes» (3), rapporte
Arnaud D'Argembeau.
En réalité, le cortex préfrontal médian fait partie
de ce qu'il est convenu d'appeler le «réseau
cérébral par défaut». Ce concept renvoie à l'idée,
émise initialement par Marcus Raichle, de
l'Université de Washington, qu'il existe une
activité spontanée du cerveau chez le sujet
éveillé au repos. À vrai dire, cela ne doit pas
étonner, puisqu'une personne immobile dans un
scanner, les yeux fermés et ne recevant aucune
consigne, pense immanquablement à certaines
choses.
Quoi qu'il en soit, les méta-analyses s'accordent
toutes sur le fait que le réseau cérébral par défaut
est actif chez le sujet au repos et tend à se désactiver (activité moindre) lorsqu'une tâche cognitive est en cours de traitement. Dans le contexte
expérimental qui nous occupe, le cortex préfrontal médian est désactivé, par rapport à la condition de repos, quand l'individu doit évaluer des
traits de personnalité, mais cette désactivation est
moindre quand l'évaluation est centrée sur soi
plutôt que sur une autre personne.
Athena 260 / Avril 2010
34
Aussi, Arnaud D'Argembeau et le professeur
Éric Salmon, neurologue, directeur médical du
Centre de recherches du cyclotron de l'ULg, ontils voulu vérifier qu'une partie de l'activité cérébrale par défaut (default resting state) est bien
liée à la représentation de soi, comme ils en
avaient émis l'hypothèse. Au moyen de la tomographie par émission de positons (PET scan), ils
ont enregistré l'activité cérébrale de volontaires
dans trois situations: au repos, lorsqu'ils
évaluaient des traits de personnalité en pensant à
eux-mêmes ou alors en pensant à des célébrités,
tel Johnny Hallyday. «Les conditions expérimentales étaient totalement similaires dans les trois
modalités - yeux fermés, pas de réponse à fournir
pendant les scans (4)...-, la seule différence étant
l'activité mentale des sujets (centrée sur soi, sur
des célébrités ou «au repos»), dit Arnaud
D'Argembeau. Immédiatement après chaque
session d'enregistrement des images, nous
demandions aux participants de décrire à quoi
ils avaient pensé au moment où ils étaient
scannés et de préciser sur des échelles d'autoévaluation dans quelle mesure ils avaient réfléchi à eux-mêmes, réfléchi à d'autres personnes,
eu des images visuelles, des sensations
physiques, etc.»
Les résultats de l'expérience liégeoise sont en
adéquation avec les conclusions de William
Kelley, puisqu'ils font état d'une plus forte activation du cortex préfrontal médian lorsque les
participants évaluent la pertinence de certains
traits de caractère par rapport à eux-mêmes
plutôt que par rapport à des personnalités
connues. Il apparaît par ailleurs qu'il leur arrive
de penser à eux-mêmes durant les scans de repos,
avec une assiduité variable selon les individus, et
qu'il existe une corrélation positive entre la
production de ces pensées et l'activité du cortex
préfrontal médian.
Le regard des autres
Les représentations que l'on a de soi sont multiples et leur coloration est probablement fonction
du contexte - en famille, je suis plutôt comme
ceci; au travail, je suis plutôt comme cela...
L'Homme étant un être éminemment social, une
fraction importante de nos représentations se
réfèrent, dans la plupart des contextes, à la
manière dont nous jugeons que les autres nous
perçoivent. D'où la question que se sont posée les
chercheurs de l'ULg: le cortex préfrontal médian
est-il activé de manière identique quand on pense
à soi en s'autoévaluant ou quand on «se regarde»
en se plaçant dans la peau d'une autre personne ?
Comme dans l'expérience de Kelley, des traits de
personnalité étaient présentés aux volontaires,
qui devaient déterminer s'ils leur correspondaient
ou non et s'ils correspondaient ou non à une autre
Psychologie
personne bien identifiée, en l'occurrence un ami.
De surcroît, pour chaque trait (sympathique,
intelligent, timide...), les participants devaient
s'interroger sur eux-mêmes en adoptant le point
de vue supposé de leur ami et, dernière modalité,
imaginer la manière dont ce dernier était censé se
percevoir lui-même - «Thierry se considère-t-il
comme timide ?», par exemple.
Résultats clés: le cortex préfrontal médian est
impliqué dans les différentes formes de représentation de soi, qu'elles soient liées à la façon dont
nous nous voyons personnellement ou à celle
dont nous pensons que les autres nous perçoivent. «On sait qu'un des éléments cardinaux de
la phobie sociale réside dans la peur d'être
évalué négativement par autrui, rappelle Arnaud
D'Argembeau. Une étude récente dirigée par
Karina Blair, du National Institute of Mental
Health, aux États-Unis, montre que les personnes en proie à une forte anxiété sociale activent
de façon excessive leur cortex préfrontal médian
spécifiquement quand elles doivent se prononcer
sur la manière dont une autre personne les
évalue au regard de caractéristiques peu flatteuses pour l'image de soi - “Mon patron penset-il que je suis idiot ?”...»
Différences culturelles
Dans une de leurs études, Arnaud D'Argembeau
et Éric Salmon se sont intéressés aux aspects
épisodiques de la représentation de soi. Sachant
que se souvenir d'expériences personnellement
vécues ou se projeter dans des scènes précises
ayant le futur pour théâtre activent un certain
nombre de régions cérébrales identiques, dont le
cortex préfrontal médian, les deux scientifiques
ont demandé à des volontaires d'imaginer des
événements susceptibles de se produire dans
l'avenir, les uns en lien direct avec leurs projets
personnels (par exemple, être reçu dans le bureau
de leur supérieur hiérarchique pour y recevoir
une promotion), les autres, plausibles mais sans
réelle importance à leurs yeux (par exemple,
assister à un rallye automobile). Qu'ont dévoilé
ces travaux ? Que le cortex préfrontal médian
s'activait davantage dans le premier cas.
Ce résultat plaide en faveur d'une des hypothèses
émises par les chercheurs de l'ULg concernant le
rôle fondamental de cette région du cerveau. En
effet, selon eux, elle pourrait avoir pour fonction
principale d'attribuer une valeur personnelle plus
ou moins grande à toute information se présentant à l'esprit de l'individu.
Les travaux de psychologie sociale éveillèrent, au
sein de l'équipe liégeoise, l'idée d'une expérience
de nature à conforter encore leur hypothèse. De
fait, de nombreuses données attestent que le
passage des études secondaires à l'université
s'accompagne généralement d'un remaniement
de la représentation de soi. L'individu change de
type d'enseignement, il est vrai, acquiert plus
d'indépendance, est parfois amené à déménager, etc. En conséquence de quoi il aura
tendance à se distancier de son image de soi
passée, à adopter à l'égard de celle-ci le
point de vue d'un observateur extérieur.
«Recourant de nouveau au paradigme expérimental dont William Kelley fut l'initiateur, nous
avons mis en exergue que l'activation du cortex
préfrontal médian était supérieure quand nous
demandions à des étudiants d'évaluer des traits
de personnalité en relation avec l'image qu'ils
avaient d'eux-mêmes dans le présent,
explique Arnaud D'Argembeau. En revanche, quand nous leur donnions pour
consigne de revisiter leur image passée,
l'activation était similaire à celle obtenue
lorsqu'ils devaient évaluer la pertinence des
traits de personnalité proposés par rapport à la
représentation qu'ils avaient d'un ami.» Une
étude identique dans sa conception, mais qui
impliquait aussi une projection dans le futur,
livra des résultats similaires. «Il se pourrait donc que le cortex préfrontal
médian serve entre autres à définir à
quel point une information nous
concerne sur le plan de la représentation
de soi actuelle», conclut notre interlocuteur.
Autre facette du problème: selon plusieurs
études, la différence d'activation de ce cortex
quand on pense à soi versus une personne
proche, personnellement connue, est moindre
que lorsqu'on pense à soi versus une personne
non familière. Ces données semblent emboîter le
pas aux théories de psychologie sociale selon
lesquelles nos intimes sont inclus, à des degrés
divers, dans la conception que chacun de nous a
de soi. Les différences culturelles relevées par
d'autres travaux confortent d'ailleurs cette hypothèse. De ces expériences, il ressort en effet que,
chez les Chinois, le cortex préfrontal médian est
autant activé quand l'individu pense à sa mère
que quand il pense à lui-même, ce qui n'est pas le
cas chez les Américains. Toutefois, on ne
constate aucune différence entre les deux
groupes quand les deux éléments de la comparaison sont penser à soi et penser à une personne
célèbre: l'activation est toujours plus forte dans le
premier cas. Pour Arnaud D'Argembeau, ces
données reflètent plus que probablement le fait
que les Orientaux se sentent en symbiose avec
leur proches, tandis que les Occidentaux
s'avèrent plus individualistes.
Philippe LAMBERT
[email protected]
35
Athena 260 / Avril 2010
(Photo: photl.com)
Radioactivité
Le r a d o n
sous s u r v e i l l a n c e
Les expositions aux sources naturelles
de rayonnement ont longtemps été considérées
comme un bruit de fond dans lequel l’homme a toujours vécu, la question de son «contrôle» ne se
posant pas. Au cours de ce dernier demi-siècle, il est apparu que certaines actions modifiaient son
niveau et l’augmentaient parfois de façon significative. C’est notamment le cas du radon qui
contribue en moyenne pour l’homme à environ la moitié de la dose résultant de l’ensemble des
sources naturelles de rayonnement (avec des variations locales importantes). Dans les habitations,
bien que sa présence ne puisse être complètement évitée, il est cependant possible de la limiter
a radioactivité fait peur alors qu’il
s’agit là d’un phénomène naturel
d’une importance capitale: sans elle,
nous n’existerions pas ! Les forces qui
s’agitent dans la fournaise du Soleil et
le font briller sont celles-là même qui interviennent dans les phénomènes radioactifs. La radioactivité étant un dégagement d’énergie produit
lors de la «cassure» d’un atome. Tous les atomes
ne sont pas spontanément radioactifs. Certains
sont très stables et ne peuvent se «casser» tout
seuls mais d’autres sont naturellement plus instables et changent de «forme» pour tenter de devenir plus stables. Le dégagement d’énergie peut se
faire de trois manières (dites alpha, bêta et
gamma) selon que la «cassure», plus ou moins
«forte», émet des noyaux d’hélium, des électrons
ou des photons (des «grains» de lumière).
L
Le gaz radon
provient de
la désintégration
de l’uranium 238
et émane
principalement des
sols granitiques
et volcaniques.
Ainsi, par exemple, l’uranium 238 va inexorablement, et en un grand nombre d’étapes, finir
par se transformer en plomb. Pourquoi trouve-ton encore de l’uranium 238 sur Terre ? Présent
depuis la formation de notre planète, il y a
quelque 4,5 milliards d’années, il devrait, depuis
le temps, s’être totalement transformé en plomb.
Mais il est une véritable tortue atomique. Sa
demi-vie, c’est-à-dire le temps nécessaire pour
que la moitié de ses atomes se soient transformés, est de… 4,5 milliards d’années. Il a donc
encore de belles années devant lui. Le doyen des
atomes radioactifs, le thorium 232 (se transformant lui aussi en plomb), a quant à lui une
demi-vie de… 14 milliards d’années. On n’est
donc pas encore près d’en être débarrassé,
surtout qu’il est trois à quatre fois plus abondant
dans la croûte terrestre que l’uranium.
Athena 260 / Avril 2010
36
La radioactivité naturelle dite «tellurique», c’està-dire qui vient du sol, est due pour un tiers au
thorium 232 et à ses descendants, un autre tiers à
l’uranium 238, le dernier tiers étant attribuable
au potassium 40 (demi-vie d’1,3 milliard
d’années). Selon l’endroit où l’on vit et la
richesse relative de ces trois éléments dans le sol,
on «baignera» donc dans des radioactivités
différentes.
D’autres sources de radioactivité naturelles existent et sont dues aux rayonnements cosmiques
qui, en bombardant certains atomes, les rendent
instables et les cassent. C’est le cas, par exemple,
du carbone (en carbone 14) et de l’hydrogène (en
tritium). Cela explique que, selon l’altitude à
laquelle on se trouve, on soit plus ou moins
exposé à la radioactivité d’origine cosmique: à
1 500 m d’altitude, elle est 1,5 fois plus élevée
qu’au niveau de la mer. Enfin, sachez qu’un
régime végétarien est plus radioactif qu’un autre
puisqu’il apporte, via les légumes, trois fois plus
de potassium 40 (un autre atome radioactif
«originel»). Mais que les végétariens se rassurent, la différence reste négligeable et le régime
sans danger.
Un élément, trois familles !
Avec ses trois isotopes, le radon appartient au
groupe VIII A de la classification périodique.
Comme les autres éléments de ce groupe, il
s’agit d’un gaz monoatomique, inodore, incolore et sans saveur, qui ne réagit chimiquement
avec aucun autre corps et qui se dégage du sol à
partir de l’uranium et du thorium, contenus dans
Radioactivité
la croûte terrestre. Pour mieux comprendre leur
abondance relative dans l’environnement, il
convient de rappeler (très brièvement) que
chacun des trois isotopes fait partie d’une famille
naturelle radioactive:
• l’actinon (Rn219), de la famille de l’actinium,
est de loin le moins abondant. Sa période de
décroissance radioactive très courte (3,96 s)
explique qu’il soit pratiquement non mesurable dans l’atmosphère ;
• le thoron (Rn220), de la famille du thorium, est
le plus abondant mais il disparaît également
très vite de l’atmosphère en raison de sa
période de décroissance radioactive courte
(55,6 s). Aussi sa contribution à la dose de
rayonnement est bien moins importante que
celle du dernier isotope, mais ne peut cependant pas être négligée ;
• le radon (Rn222), de la famille de l’uranium
238, présente la période de décroissance la
plus longue (3,8 j). Bien qu’émanant du sol en
quantité environ cent fois moindre que celle du
thoron, sa période de décroissance lui confère
une
plus
large
distribution
dans
l’atmosphère. Il est présent partout à la surface
de la planète et provient surtout des sous-sols
granitiques et volcaniques ainsi que de
certains matériaux de construction. Il donne à
son tour naissance à des descendants, émetteurs «alpha» ayant des périodes beaucoup
plus courtes que lui (le polonium 218, le
plomb 214, le bismuth 214 et le polonium
214). Il s’agit d’éléments métalliques qui, à
l’état ionisé, se condensent sur les poussières
en suspension dans l’air pour former des aérosols radioactifs naturels.
Ses effets sur la santé
Émetteurs bêta et surtout alpha, le
radon et ses produits de filiation irradient localement les cellules au
contact desquelles ils se trouvent.
Bien que leur concentration dans l’air
extérieur soit faible, ils pénètrent dans
les habitations par diffusion (différence de
concentration) ou par convexion (différence
de température ou de pression entre l’air
extérieur et intérieur). Des concentrations élevées en radon sont retrouvées dans des milieux
fermés: habitations, surtout si elles sont isolées,
sous-sol (caves) ou plus généralement, dans tout
milieu confiné (mines de fond par exemple).
Un peu d’histoire...
n 1899, R. B. Owens (ingénieur américain) et E. Rutherford (physicien anglais,
prix Nobel de chimie en 1908) observèrent un comportement erratique de leur
électromètre en effectuant des mesures sur des sels de thorium. La cause de ces
lectures inattendues fut bientôt découverte: elles résultaient de la présence d’une substance radioactive. Un peu plus tard, l’actinium, qui venait d’être isolé de la pechblende, s’avérait donner naissance lui aussi à une émanation radioactive. L’année suivante, le physicien allemand F.E. Dorn découvrait que les sels de radium émettaient
également un gaz comparable à ceux dus au thorium et à l’actinium. Les trois isotopes
d’un même corps venaient d’être identifiés. En 1902, E. Rutherford et F. Soddy (radiochimiste britannique, prix Nobel de Chimie en 1921) parvenaient à le condenser et cinq
ans plus tard, Soddy était en mesure de prouver qu’il faisait partie de la famille des gaz
inertes. Quelques années s’écoulèrent encore avant que deux des isotopes du radon,
ainsi que leurs descendants, soient mesurés et identifiés dans l’atmosphère.
E
Si la radio-toxicité du radon fut rapidement étudiée, au contraire, les expériences
visant à démontrer l’utilité des rayonnements X et gamma de ce gaz dans le traitement
des affections malignes se multiplièrent. En 1924 naissait et se développait l’hypothèse que la forte mortalité par cancer du poumon observée chez les travailleurs des
mines d’uranium de Schneeberg (Allemagne) et de Joachimsthal (République tchèque)
pouvait être attribuée entre autres au radon. L’idée de deux modalités d’action de ce
gaz, bénéfique et toxique, persiste encore de nos jours.
activité, derrière la radiographie médicale (41%)
mais très loin devant les rayons cosmiques
(11%), l’industrie et les essais nucléaires (1%).
En tant que gaz, le radon est inhalé mais comme
il ne séjourne que peu de temps dans les
poumons, d’où il est exhalé, les désintégrations
durant le temps de transit sont peu
nombreuses. En revanche, dans l’air ambiant, ses
produits de désintégration (polonium 214 et 218,
bismuth 214 et plomb 214) se fixent sur les
particules de l’aérosol atmosphérique et les
descendants peuvent être retenus au niveau de
l’appareil broncho-pulmonaire. Ce sont
donc ces émetteurs alpha qui, en se
déposant sur les bronches, sont
Le radon représente, selon une étude publiée en
2007 dans le Bulletin épidémiologique
hebdomadaire français, 34% de l’exposition
moyenne de la population française à la radio-
37
Athena 260 / Avril 2010
Radioactivité
L
'Agence fédérale de Contrôle nucléaire (AFCN) est un
établissement public doté de personnalité juridique (organisme d'intérêt
public de la catégorie C), établi par la loi du 15 avril 1994 relative à la
protection de la population et de l'environnement contre les dangers résultant
des rayonnements ionisants. Ce statut lui octroie une large indépendance,
indispensable à l'exercice impartial de sa responsabilité envers la société.
L'Agence est active en matière de non-prolifération et de sécurité nucléaire et a
comme mission de veiller à ce que la population et l'environnement soient
protégés de manière efficace contre les rayonnements ionisants. Les principales
matières couvertes sont les normes de base de radioprotection, la réglementation des établissements classés, le contrôle des installations, le transport et
l'importation des substances radioactives, la surveillance radiologique du territoire et les plans d'urgence, les applications médicales des rayonnements ionisants et la radioactivité naturelle.
L’AFCN distribue une brochure reprenant les réponses aux questions les plus
fréquemment posées sur le thème du radon ainsi qu’un autre document
détaillant les mesures de protection à prendre.
Pour plus d’informations: www.fanc.fgov.be
Grâce à ce site, chacun peut poser ses questions sur la problématique du radon et
y trouvera une carte interactive de la Belgique qui reprend, pour chaque
commune, les données disponibles. On y trouve également une liste des architectes et entrepreneurs qui ont déjà suivi la formation de l’AFCN concernant les
techniques de prévention.
AFCN, rue Ravenstein 36, 1000 Bruxelles
Tél.: 02/289.21.11ou [email protected]
responsables de l’irradiation et provoquent (audelà d’une certaine exposition) des cancers broncho-pulmonaires. Ce phénomène est accentué par
la présence depolluants atmosphériques, notamment la fumée de
tabac.
Du radon peut entrer
chez vous par les
fissures (1), les joints
entre les parois (2),
le vide sanitaire (3),
les perforations de
la dalle (4), l'air
extérieur ou les eaux
à usage sanitaire (5).
(Doc.: AFCN)
Le radon a été
classé en 1987
par le CIRC
(Centre international de
recherche sur
le
cancer)
comme un
cancérogène
certain pour l’homme et l’Organisation
mondiale de la Santé (OMS) a confirmé
récemment qu’il constituait la première
cause de cancer des poumons chez les nonfumeurs et la deuxième chez les anciens fumeurs.
Celle-ci insiste fortement sur la nécessité de conscientiser la population sur l’utilité de mesurer le
taux de radon présent dans les logements et de
prendre des mesures préventives. Cette recommandation cadre parfaitement avec les actions
menées depuis 1995 par l’Agence fédérale de
contrôle nucléaire (AFCN) dans les régions
sensibles de notre pays, c’est-à-dire le Sud et
le Sud-Est (voir encadré).
Athena 260 / Avril 2010
38
De nombreuses évaluations du risque de cancer
du poumon associé à l’exposition domestique au
radon ont été effectuées à travers le monde,
notamment aux États-Unis, au Canada, en
Grande-Bretagne et en France. Une étude publiée
il y a quelques années par l’Institut de médecine
environnementale
suédois
dans
la
prestigieuse revue scientifique britannique New
England Journal of Medecine et portant sur plus
de 4 000 personnes révèle que plus de 1 300
d’entre elles souffraient d’un cancer pulmonaire.
L’apparition de cette maladie a ainsi pu être
étudiée et corrélée à l’existence de certains
facteurs à risques, dont l’exposition au radon.
Près de 9 000 habitations ont ainsi été examinées
et le taux de radioactivité mesuré en becquerel 1 becquerel (Bq) correspond à une désintégration
par seconde. Le Bq/m3 est l’unité de mesure de la
concentration en radon dans l’air. Par rapport à
des concentrations moyennes inférieures à
50 Bq/m3, le risque relatif de cancer pulmonaire
est multiplié par un facteur 1,3 lorsque l’exposition se situe entre 140 Bq/m3 et 400 Bq/m3, et par
1,8 lorsque le taux est supérieur à 400 Bq/m3.
Pour donner à ces chiffres un impact plus compréhensible, précisons que le fait de fumer deux
paquets de cigarettes par jour multiplie le même
facteur par 6 à 8. Une corrélation existe donc bel
et bien, même si l’impact semble faible.
Toutefois, le cumul, bien involontaire, d’une
exposition domestique au radon et d’un tabagisme actif, provoque un risque supérieur,
proche d’un facteur multiplicateur.
En France, le cancer du poumon est responsable
d’environ 25 000 décès chaque année (Réf.:
données nationales de mortalité en 1999). Une
évaluation quantitative des risques sanitaires
associés à l’exposition domestique du radon
pourrait jouer un rôle dans la survenue de
certains décès par cancer du poumon dans une
proportion qui pourrait atteindre les 10%. Ces
estimations tiennent compte de la variabilité des
expositions au radon sur l’ensemble du territoire,
de l’interaction entre l’exposition au radon et la
consommation tabagique ainsi que des incertitudes inhérentes à ces types de calculs. Des
travaux de recherche sont en cours au niveau
européen pour réduire ces incertitudes notamment en ce qui concerne la quantification de
l’interaction entre le tabac et le radon.
Dans les habitations
L’atmosphère des habitations n’a été étudiée que
tardivement, contrairement à celle des mines
d’uranium et les premières mesures de radon ne
sont rapportées que vers le début des années
cinquante. La concentration en radon et ses
descendants dans l’air des habitations dépend
Radioactivité
Comment s’en protéger ?
our commencer, le simple fait d’aérer son logis une à deux fois par jour,
contribue à diviser par deux la concentration en radon. Sur le plan des
aménagements, l’installation d’une ventilation mécanique double
flux permet de diluer le gaz et d’empêcher sa pénétration dans l’habitat en
créant une surpression. L’étanchéité du plancher évite la remontée du
radon depuis le sous-sol.
P
Dans le cas d’un bâtiment neuf, un vide sanitaire peut se révéler très efficace ou,
par un réseau de puisards connectés à un extracteur, on peut pomper le radon
venu du sous-sol vers l’extérieur. Tout aussi efficace sera de placer, dans le
soubassement, un film plastique dont l’étanchéité doit être assurée sur
l’ensemble de l’assise de la maison. Ce petit dispositif (bon marché) permettra de
faire définitivement obstacle au radon en provenance du sous-sol.
Le taux de radon dans votre commune
(Doc.: AFCN)
non seulement de son degré d’infiltration à partir
des sources (matériaux de construction, sol sousjacent, eau et gaz naturel) et de sa concentration
dans l’air extérieur, mais aussi de la ventilation
des pièces, des conditions météorologiques
(pression atmosphérique, température et vent) et
du mode de vie des occupants. Cela dit, les
concentrations peuvent varier dans des proportions considérables sur un très petit périmètre.
Une maison située au-dessus d’une faille peut
contenir jusqu’à vingt fois plus de radon que sa
voisine bâtie sur de la roche compacte… À
l’intérieur d’un même bâtiment, elles peuvent
déjà varier selon les pièces. D’autre part, les
habitations étant plus confinées en hiver qu’en
été, les concentrations en radon seront logiquement plus élevées durant la mauvaise saison.
Même constatation par temps humide: le radon
étant soluble dans l’eau, celle-ci facilite sa diffusion. Seule une analyse dosimétrique permet
d’en avoir le cœur net (se renseigner auprès de
l’AFCN).
La Belgique, explique l’AFCN, prend en compte
les valeurs visées dans les recommandations
européennes 90/143/EURATO et 96/29/EURATOM. Le niveau d’action de 200 Bq/m3 qu’elle
préconise pour les nouvelles constructions est
conforme aux valeurs recommandées par l’OMS.
Sur base d’études épidémiologiques récentes et
dans un contexte européen, un groupe de travail
dont fait partie la Belgique planche sur la révision des normes de base de la radioprotection
contre les sources naturelles. À long terme, le
plan d’action radon en Belgique prévoit de
réduire l’exposition moyenne de la population à
des valeurs optimalisées (53 Bq/m3). Pour cela,
précise l’AFCN, les nouvelles constructions
doivent être conçues en intégrant une protection
contre le radon. Cette approche s’inscrit dans le
droit fil des recommandations de l’OMS.
Après le tragique tremblement de terre du 6 avril
2009 à L'Aquila (Italie), une polémique s’est
engagée en Italie à la suite d’informations sur la
prédiction de ce séisme par un scientifique
travaillant à l'Observatoire national du Gran
Sasso, sur la base de mesures de la teneur en
radon. L'Institut français de radioprotection et de
sûreté nucléaire (IRSN), dont des travaux déjà
anciens ont été évoqués dans le débat suscité par
cette prédiction, a présenté son point de vue sur
les relations entre dégagement de radon et
activité sismique, à la lumière des éléments
publiés à ce sujet (1).
Annonciateur d’un séisme ?
Les variations des teneurs en radon enregistrées
dans les zones sismiques indiquent clairement
que la circulation des fluides souterrains gazeux
ou liquides - et du radon qu'ils transportent - est
affectée par les contraintes et les déformations
qui préparent ou accompagnent les tremblements
de terre. Mais, passer de ce constat à une véritable prévision supposerait que l'on sache associer
à l’observation d’un signal «radon», la profondeur du foyer, l'épicentre et la magnitude du
séisme qu'il pourrait annoncer, le tout dans une
fenêtre temporelle suffisamment étroite pour
permettre aux pouvoirs publics de prendre des
mesures adéquates. Hélas, rien de tout cela
n'apparaît actuellement à la portée des scientifiques qui œuvrent pour mettre en évidence des
corrélations utilisables entre teneur en radon et
activité sismique. Les mécanismes physiques à
l'origine des teneurs inhabituelles en radon ne
sont encore que partiellement connus, de même
que les caractéristiques qui font qu'un site de
mesure est sensible aux perturbations induites
par un séisme qui se prépare, alors qu'un site
voisin ne l'est pas.
(1) Richon P.,
Sabroux J.C.,
Halbwachs M.,
Vandemeulebrouck
J., Poussielgue N.,
Tabbagh J. and
Punongbayan R.,
2003.
«Radon anomaly
in the soil
of Taal volcano,
the Philippines: A
likely precursor of
the M 7.1 Mindoro
Earthquake
(1994)».
Geophysical
Research Letters,
30/9: 1481 (4 pp.);
Richon P.,
Perrier F., Pili E.
and Sabroux J.C.,
2008.
«Detectability and
significance
of 12 hr barometric
tide in radon-222
signal, dripwater
flow rate,
air temperature
and carbon dioxide
concentration in an
underground
Tunnel».
Geophysical
Journal
International,
176/3: 683-694.
Paul DEVUYST
39
Athena 260 / Avril 2010
Physique
En e x p a n s i o n
de plus en plus r a p i d e ...
(Photo: Nasa)
Une nouvelle preuve de l'accélération de l'expansion de l'Univers
vient d'être apportée par une équipe
d'astrophysiciens. Ce sont, une fois
de plus, des données fournies par le
télescope spatial Hubble qui ont
permis cette avancée
C
ela fait un siècle environ que l'on
sait que l'Univers est en expansion.
C'est en 1912 que l'astronome
américain Vesto Slipher a analysé
le spectre (la décomposition de la
lumière en ses différentes longueurs d'onde, ce
qui donne un ensemble de raies) des galaxies les
plus brillantes que l’on pouvait percevoir à
l'époque. À son grand étonnement, les raies
n'occupaient pas leurs places théoriques sur le
spectre, mais étaient décalées. La plupart l’étaient
vers le rouge, ce qui signifiait que les galaxies dont
les spectres présentaient
cette particularité s'éloignaient de nous. Mais
comme l'échantillon n'était
pas représentatif (quinze
galaxies étudiées !), cette
découverte n'eut guère de
retentissement.
Trajet de la lumière
(en turquoise) qui
vient de la galaxie
d'arrière-plan, tel que
perçu par le télescope
spatial Hubble. Les
rayons lumineux sont
courbés par le champ
gravitationnel de la
masse de matière présente à l'avant-plan et
semblent provenir
d'autres directions
(en gris).
(Source: in2p3)
Quelques années plus tard, dans les années 1920,
grâce au grand télescope du Mont Wilson,
l'astronome américain Edwin Hubble confirma
non seulement ce qui semblait bien être une loi
(les galaxies s'éloignent de nous) mais il précisa
en outre la manière dont cette fuite se produit: la
vitesse de fuite (de récession) d'une galaxie est
proportionnelle à sa distance par rapport à nous.
Une galaxie deux fois plus éloignée s'éloigne
donc deux fois plus vite. Présentée ainsi, la loi de
Hubble pourrait induire deux erreurs qu'il faut
éviter. Tout d'abord, ce décalage vers le rouge,
comme on l'appelle, ne signifie pas que les
galaxies se déplacent véritablement. Pour expliquer cela, les physiciens ont l'habitude de pren-
Athena 260 / Avril 2010
40
dre l'analogie du ballon en plastique. Si on inscrit
par exemple quatre points équidistants (A-B-CD) sur ce ballon puis qu'on le gonfle, on voit que
les points s'éloignent les uns par rapport aux
autres mais sans se déplacer par rapport à l'enveloppe du ballon: les galaxies ne se déplacent pas
par rapport à l'espace. L'autre erreur à éviter
serait de croire que notre Terre (ou système
solaire ou même voie lactée) serait le centre de
l'Univers par rapport duquel tout s'éloigne. Notre
vanité dût-elle en souffrir, nous ne sommes pas le
nombril du monde et ce n'est pas nous qui faisons
fuir tous les astres ! Pour une raison bien simple,
mais souvent ignorée: l'Univers n'a pas de
centre ! Pour s'en convaincre, il suffit de revenir
au ballon et s'imaginer observer le phénomène
successivement depuis les différents points: on
verra exactement le même phénomène se
produire depuis l'un ou l'autre point. Imaginons
maintenant un ballon couvert d'une multitude de
points: quelle que soit la position choisie, la
situation observée sera toujours la même, une
fuite éperdue des galaxies.
Expansion accélérée
Ainsi donc, l'Univers n'est pas statique comme
on le croyait fermement avant les observations
d'Edwin Hubble. Cette «croyance» était
d'ailleurs tellement répandue qu'elle a joué un
tour à Einstein lui-même. Lorsqu'il met au
point sa théorie de la relativité générale au
début du XXe siècle, il constate que ses équations ne s'appliquent pas à un Univers statique
mais bien à un Univers en contraction ou en
expansion. Comme il pense que celui-ci est
statique, il utilise ce qu'on appelle parfois un
«chausse-pied» pour que les résultats soient
conformes à ce qu'on attend. Autrement dit, il
introduit dans ses équations une constante,
appelée constante cosmologique. Celle-ci
s'interprétait comme une force mystérieuse qui
faisait se repousser tous les astres. Et Einstein
lui avait donné une valeur telle qu'elle contrebalançait exactement la gravitation. Donc les
deux forces s'annulaient, plus rien ne bougeait
et l'Univers était bien statique. Le tour était
Physique
joué. Lorsqu’après les travaux de Hubble,
Einstein a découvert que ses équations étaient
correctes sans cette constante, puisque l'Univers
est en expansion, il se serait écrié que l'introduction de cette constante cosmologique était la
bêtise la plus grosse de sa vie !
En étudiant toutes les déformations provoquées
par les lentilles gravitationnelles, les astrophysiciens européens sont parvenus à reconstituer une carte tridimensionnelle de la matière
(y compris la noire) contenue dans la portion
d'espace observée par Hubble.
L'expansion de l'Univers allait prendre une
nouvelle dimension bien des années plus tard, en
1998. Cette année-là, l'observation d'une supernova conduit à une découverte fracassante: non
seulement il est en expansion, mais celle-ci
s'accélère ! Ces premiers résultats furent encore
le fait d'observations terrestres. Le lancement du
télescope spatial Hubble, le bien nommé, allait
donner un essor considérable à l'observation des
galaxies et astres les plus lointains. Dès le début,
les données envoyées par Hubble ont confirmé le
phénomène: l'Univers était bien en expansion
accélérée. Et cette accélération serait due à une
force répulsive à grande échelle... capable de
contrebalancer la force gravitationnelle.
Exactement ce qu'Einstein avait imaginé pour
«arranger», si l'on ose utiliser ce terme, ses résultats. Une force mystérieuse à laquelle on a donné
le nom d'énergie sombre, qui composerait
environ 73% de la masse de l'Univers aux côtés
de la matière ordinaire et de la matière exotique.
Une déformation du trajet lumineux implique
en effet la présence d'un amas de matière. Selon
la déformation, on peut déduire beaucoup
d'informations sur l'amas qui en est responsable. Y compris supputer l'existence de telle
masse de matière non visible directement, mais
sans doute présente puisque
responsable de déviations de la
lumière (voir les deux photos
ci-contre).
Lentille gravitationnelle
L'étude qui vient d'être publiée (1) renforce cette
hypothèse grâce au recours aux lentilles gravitationnelles. Un travail qui aurait été impossible
sans le télescope spatial Hubble. Les données ont
en effet été collectées sur 446 000 galaxies
(chiffre à comparer avec les 15 galaxies observées lors des premières observations de l'expansion !), ce qui représente près de 1 000 heures
d'observation, soit 600 orbites du télescope. Les
chercheurs ont mesuré la déformation de la
lumière observée due aux effets de lentilles
gravitationnelles. On sait que durant son voyage
jusqu'à nous, la lumière en provenance des
galaxies est perturbée par la gravitation exercée
par la matière. C'est une application bien connue
de la relativité générale (encore elle !). En effet,
selon cette théorie, une masse dévie les rayons
lumineux qui passent à proximité d'elle. Et le
phénomène est d'autant plus important que la
masse est importante, comme c'est le cas avec
une galaxie ou un amas de galaxies. Ainsi, si l'on
suppose qu'un quasar (source d'ondes lumineuses
et radio) et une galaxie se trouvent alignés sur
une même ligne (voir schéma), les rayons en
provenance du quasar seront fortement déviés;
l'observateur verra donc deux images (ou même
beaucoup plus) du même quasar. En outre, la
galaxie va concentrer la lumière et le quasar va
donc apparaître plus lumineux qu'il ne l'est. La
galaxie joue donc bien le rôle d'une lentille.
(1) Evidence for
the accelerated
expansion of
the Universe from
weak lensing
tomography with
COSMOS.
Tim Schrabback,
al. Astronomy &
Astrophysics.
Avril 2010.
L'étude de cette carte a permis
aux chercheurs de constater
que la structuration de la
matière lointaine (c'est-à-dire
la plus vieille) n'était pas la
même que celle de la matière
proche (la plus jeune). Et que
cette différence s'expliquait par
l'accélération de l'expansion.
Outre une preuve supplémentaire de l'accélération de
l'expansion de l'Univers, cette
étude débouche aussi sur deux
autres
conclusions.
La
première est la validité du
recours aux lentilles gravitationnelles (ou mieux, à l'étude
de leurs effets) comme
méthode de reconstruction
tomographique de l'espace. La
seconde conclusion est que, de
plus en plus, il semble
qu'Einstein... a eu tort d'avoir
cru s'être trompé ! Et que sa
constante cosmologique est
malgré tout bien utile, il a donc
eu tort aussi de considérer
qu'elle n'avait plus lieu d'être
après les observations d'Edwin
Hubble. Des théories actuelles
la reprennent en compte et
l'une d'elles montre même que
pour une valeur un peu différente de celle imaginée par
Einstein, l'Univers aurait connu
une phase d'expansion ralentie
après le Big Bang, puis une
phase d'expansion accélérée
par la suite ! On y revient.
Distribution de masse dans le champ
d'observation COSMOS du télescope
spatial Hubble. Cette image montre une
reconstruction lissée de la distribution de
matière totale dans le relevé COSMOS.
Elle est constituée presqu'entièrement
de matière noire. (Photo:
P. Simon, Schrabback, Nasa/Esa)
Une vue de la matière visible dans le
même relevé COSMOS que sur la photo
précédente: il y a bien moins de matière !
(Photo: Esa/Hubble
& Digitized Sky Survey 2.)
Henri DUPUIS
[email protected]
41
Athena 260 / Avril 2010
Astronomie
Une lune de Jupiter, S/2000
J11, avait disparu: à la place,
la sonde New Horizons a
découvert un anneau
supplémentaire... la lune aurait
donc disparu dans une collision
avec sa consoeur Himalia.
(Photo: Nasa )
À la Une
du... Cosmos
Avec le temps, certaines découvertes exoplanétaires
commencent à devenir moins exotiques.
Corot 9b est ainsi un Jupiter pas très chaud, bien plus
éloigné de son étoile que les «Jupiter chauds» découverts
jusqu'ici mais pas encore aussi distant
que notre Jupiter...
(Photo: Inst. Canarias)
On pensait les côtes arctiques
bien gelées et immuables,
mais voilà qu'on découvre
qu'elles ne restent pas figées:
elles émettent du méthane,
le gaz naturel, en grandes
quantités. La concentration
de méthane arctique atteint
d'ailleurs des sommets.
Comme il s'agit d'un
puissant gaz à effet de serre,
cela ne va pas aider à
refroidir l'atmosphère, bien
au contraire, cela amplifie
le phénomène !
(Photo: Igor Semiletov /
University of Alaska
Fairbanks)
Gros plan sur la lune martienne Phobos,
grâce à la sonde européenne Mars Express.
Phobos ressemble à un astéroïde,
mais il est difficile d'expliquer comment
la planète rouge l'aurait capturé.
La mission russe Phobos-Grunt tentera
de trouver une solution dès 2011.
(Photo: Esa)
Athena 260 / Avril 2010
42
Astronomie
En fond:
Sonder l'Univers lointain
n'est pas simple: un recensement
précis avec les télescopes européens
VLT vient de montrer que 90% des
galaxies lointaines ne sont pas découvertes par les relevés habituels, tout
simplement parce que les nuages
situés sur le chemin absorbent la
lumière !(Photo: Eso)
Vous voulez participer à l'aventure astronomique ?
Après le «galaxy zoo» et l'étude publique de Mars,
voici «solar stormwatch», la possibilité d'étudier
le Soleil offerte à tout un chacun: http://solarstormwatch.com/
Des sondages martiens indiquent de grandes couches de glace
sous du gravier, probablement un reste de calotte polaire
lorsque celle-ci s'étendait jusque là.
(Photo: Mro)
L'observatoire européen Herschel vient de dévoiler
des données inédites sur la nébuleuse d'Orion,
montrant son riche contenu en molécules
organiques précuseurs de vie.
(Photo: Esa)
Du neuf sur les cataclysmes célestes. Après un examen global de l'ensemble des données, il se confirme que c'est bien un impact météoritique (ou cométaire) qui causa la fameuse extinction KT, et donc la fin des dinosaures... On a également trouvé une structure circulaire
au Congo qui serait un cratère d'impact, ainsi qu'un ensemble de débris au-dessus de l'Antarctique qui témoignent de l'explosion d'une
météorite de 100 000 tonnes dans la haute atmosphère (un phénomène semblable à celui de 1908 en Sibérie, à Tunguska). En outre, il
semblerait que des étoiles passent parfois très près du bord de notre système
solaire - assez près pour influencer l'orbite de Sedna, astéroïde lointain,
mais aussi pour envoyer valdinguer des comètes dans notre voisinage...
avec le risque de collision que cela suppose. Enfin, signalons que l'option
«hollywoodienne» de bombardement nucléaire d'un astéroïde menaçant la
Terre est bien fantaisiste: soit les fragments sont bien séparés et les dégâts
produits par cette multitude dépassent ceux d'un impact isolé; soit les fragments restent ensemble et l'astéroïde peut se reconstituer...
(Photo: Folco et al. )
Yaël NAZÉ
[email protected]
http://www.astro.ulg.ac.be/news/
43
Athena 260 / Avril 2010
Astronomie
Vénus, version Express
E
n avril 2006, Vénus captura un objet d’un genre particulier: une sonde robotique européenne, baptisée
Venus Express et destinée à scruter la planète sous tous
les angles. Bilan cinq ans après le lancement de la
sonde, dont quatre ans d’observations vénusiennes (1).
Les voiles de Vénus
Déesse de la beauté, Vénus séduit en un clin d’œil. Elle est
pourtant loin d’être aussi angélique qu’il n’y paraît au premier
abord. Vénus, la planète, ressemble à ce cliché mythologique:
bel astre brillant qui enchante nos matinées ou nos soirées, il
cache un véritable enfer sous un voile de nuages denses.
En surface, la température moyenne s’élève à 465 °C, ce qui
permettrait de faire fondre du plomb ; la pression est de 93 fois
la pression atmosphérique terrestre, une valeur à laquelle seuls
de bons sous-marins résistent… Et on vous passe les nuages
d’acide sulfurique et les volcans à gogo parsemant le sol vénusien ! Ces propriétés étonnantes nous ont été dévoilées par les
quelque 25 sondes qui ont exploré la planète depuis les années
1960. Toutefois, si l’on connaît les bases, les détails nous échappent: activité de la surface, quantité d’eau originelle, météorologie. C’est justement pour cela que les Européens ont construit une sonde vénusienne armée de sept instruments différents.
Discrète, cette exploratrice, appelée Venus Express (Image 1), a
permis de grandes avancées dans notre connaissance de cette
planète infernale. «Bien que nombre des découvertes de la
sonde soient un rien hermétiques pour le commun des mortels,
certaines nouvelles facettes vénusiennes méritent d’être souli-
gnées», souligne J.-C. Gérard, directeur du LPAP de l’ULg
(Laboratoire de physique atmosphérique et planétaire de
l’Université de Liège).
Atmosphère, atmosphère
Les instruments de Venus Express sont
particulièrement doués pour révéler les
détails atmosphériques. Les scientifiques
européens ont ainsi vu arriver dans leurs
labos des milliers de mesures d’une précision inégalée comme par exemple l’évolution de la température avec l’altitude et la
latitude ou le suivi de l’abondance de
certaines molécules (eau, dioxyde de
soufre, acide chlorhydrique, monoxyde de
carbone,…) avec le temps, ou encore l’altitude et la position géographique. La sonde
a également suivi des milliers de nuages
d’altitude moyenne: morphologie, vitesse
de déplacement, composition et dimension
des particules - tout y est passé ! Un résultat parmi d’autres: «À des latitudes moyennes, comme la Belgique sur Terre, les vents
atteignent 210 km/h à 45 km d’altitude et
370 km/h à 66 km d’altitude, et ces vents
sont plus forts le soir», explique le
chercheur. (Image 2)
Image 2: Les vents et les
suivis dans plusieurs
sonder plusieurs altitudes
bleu pour la couche
Ces données sont extrêmement importantes pour les théoriciens
modélisant les atmosphères, car elles leur permettent de vérifier
en détails leurs modèles, avec bien sûr la
question sous-jacente de savoir si l’on comprend
vraiment les processus atmosphériques…
«N’oublions pas que si nous voulons comprendre
l’évolution de l’atmosphère terrestre, il ne faut
pas se limiter à la situation hic et nunc: tester
nos théories sur l’effet de serre vénusien et la
fine atmosphère martienne permet donc de
mieux connaître notre planète !», insiste Pierre
Drossart (Observatoire Paris-Meudon, France).
(1) Cet article paraît simultanément
dans la revue L’Astronomie,
avec l'aimable autorisation
de la rédactrice en chef.
Image 1: La sonde Venus Express. (Photo: Esa)
Athena 260 / Avril 2010
44
Il est une particularité bien mystérieuse de l’atmosphère
vénusienne: plutôt uniforme lorsqu’on la regarde en visible,
Vénus se pare de grandes marques sombres si on l’observe
dans l’ultraviolet. Leur origine est toujours inconnue,
mais Venus Express a ici aussi levé un coin du voile. Ces
marques ne sont dues ni à un changement d’altitude ni
à une température différente des nuages voisins. Il
s’agit «simplement» de zones où se produit un mélange
intense: des molécules encore non identifiées remontent depuis la basse atmosphère et absorbent les rayons
UV. (Image 3)
Plus impressionnant encore: l’ouragan polaire. En soi, il
n’a rien étonnant: la Terre en possède aussi dans ses
zones polaires, et Venus Express n’est d’ailleurs pas la
première à en détecter un sur Vénus… sauf que pour la
première fois, on peut étudier cette structure en détails. «Pour
se la représenter, remplissez votre baignoire et tirez la bonde
- le petit tourbillon qui se crée n’est pas
sans similitude avec ce vortex polaire»,
explique Cédric Cox, chercheur au LPAP.
Large de 1 500 km, cette structure montre une dynamique étonnante, qui a surpris tous les scientifiques. Ses changements de forme, par exemple, sont
particulièrement impressionnants: l’ouragan ressemble parfois à un «œil» simple,
parfois à un «8», et parfois il est de forme
trilobée. (Image 4)
Lumière atmosphérique
Image3: Vénus apparaît uniforme dans le visible, mais possède
des marques sombres en ultraviolet.(Photo: Esa)
Sans champ magnétique, Vénus n’est pas aussi protégée que
la Terre contre les effets néfastes du vent solaire. Celui-ci
arrache les molécules de l’atmosphère, et serait notamment
responsable de la disparition de l’eau vénusienne. L’étude de
la vapeur d’eau atmosphérique permet de mieux comprendre
ce processus. Les Européens se sont notamment intéressés
de plus près au rapport entre les molécules d’eau «normale»
et celles d’eau lourde (2). «Venus Express a montré que la
haute atmosphère comprenait deux fois plus d’eau lourde
que la basse atmosphère, ce qui s’explique par le fait qu’une
molécule plus lourde a plus de mal à quitter l’atmosphère
vénusienne», précise Pierre Drossart. La sonde européenne a
également pu mesurer la perte de gaz par la planète, du côté
opposé au Soleil. En rassemblant toutes les informations, il
semble que «Vénus aurait eu un océan peu profond, 30 m de
profondeur et non 3 km comme sur Terre, mais il reste à
déterminer quand la planète a perdu cet océan - ce sera
bientôt chose faite en combinant les
données précises de Venus Express et
les meilleurs modèles atmosphériques», continue le chercheur.
Toujours côté vent, Vénus possède une
haute atmosphère un peu particulière,
avec une température et des vents très
nuages de Vénus sont
différents de ceux des couches situées
«couleurs» pour pouvoir
plus bas (qui sont en rotation rapide
(IR pour la couche basse,
autour de la planète, avec une tempérahaute). (Photo: Esa)
ture constante). Les molécules de la
haute atmosphère sont partiellement
brisées par le rayonnement solaire de
haute énergie. Les atomes ainsi formés, guidés par le simple
contraste thermique, quittent la face
éclairée pour la fraîcheur du côté nuit.
Ils s’y recombinent en émettant de la
lumière au passage: Venus Express
permet d’étudier ce phénomène assez
unique via les émissions lumineuses
(les «airglows») générées par ces
processus chimiques - et c’est justement une spécialité du LPAP. En principe, ces airglows devraient se
produire exactement à minuit, soit du
côté opposé au Soleil… mais ce n’est
pas le cas pour tous. «Les lueurs associées à l’oxygène et à l’oxyde d’azote
sont décalées, et c’est une découverte
importante de Venus Express, mais
aussi un grand mystère, puisque cela
est inexpliqué à ce jour», précise
Image 4: L’ouragan du pôle sud vénusien.
(Photo: Esa)
Lauriane Soret, également du LPAP.
45
(2) L’eau normale s’écrit H2O,
l’eau lourde D2O: ces deux formes
sont composées de deux isotopes
différents de l’hydrogène, H et D.
H est la forme la plus fréquente
d’hydrogène, avec un noyau
composé d’un seul proton,
alors que D est le deuterium,
de l’hydrogène dont le noyau est
composé d’un proton et d’un neutron.
Athena 260 / Avril 2010
Astronomie
Des réponses…
et de nouvelles questions
Autres découvertes, plus anecdotiques. Tout d’abord, la
détection claire d’une émission due au radical hydroxyle
(OH, soit… une partie de l’eau) pour la première fois sur
une autre planète. Tout indique que l’hydrogène et l’ozone
soient les précurseurs de ce radical, et Venus Express vient
d’ailleurs de détecter la molécule oxygénée, qui n’est donc
pas un apanage terrestre. Ensuite, l’exploratrice a
enregistré la présence de foudre, en fait assez fréquente sur
la planète, ce qui clôture une controverse vieille de
plusieurs décennies. Oui, en plus des gouttes d’acide sulfurique, de la chaleur et de la pression énormes, le tonnerre
gronde aussi sur Vénus, ce qui peut générer une chimie
intéressante !
Grâce aux milliers d’images prises par sa caméra VIRTIS,
Venus Express a dressé une carte infrarouge précise de
l’hémisphère sud de la planète. À ces longueurs d’onde
où les nuages deviennent transparents, Vénus livre son
vrai visage: dépressions, vallées, volcans, plateaux,…
Bizarrement, les plateaux rocheux (aussi appelés continents)
apparaissent plus clairs et plus anciens que le sol basaltique
des vallées, explorées autrefois par les sondes russes.
L'interprétation de ces résultats reste encore incertaine:
composition différente des roches (granite/basalte ?) ou
érosion des roches plus anciennes sont deux explications
possibles. En parallèle, ces données impliquent aussi un rôle
non négligeable des processus tectoniques: «Vénus et la Terre
se ressemblaient donc bien par le passé, bien plus qu’on
ne l’imaginait jusqu’ici…», explique Pierre Drossart.
(Image 5).
Image 6: Venus Express a observé la Terre: si les instruments
ne voient aucun détail de notre planète (elle occupe
un seul pixel sur les caméras ! L’image du dessus
est donc une reconstitution), ils peuvent néanmoins enregistrer
les détails de la composition atmosphérique
(présence d’eau et d’oxygène) et les variations au cours du temps
(alors que la météo terrestre et/ou la portion de planète
observée change). (Photo: Esa)
Athena 260 / Avril 2010
46
Image5: Le sol vénusien, imagé en infrarouge
(le rouge correspond aux altitudes les plus basses
et aux températures les plus hautes, ici 442 °C,
le bleu aux sommets froids, soit ici 422 °C).
(Photo: Esa)
Jusqu’ici cependant, les planétologues européens n’ont pas
obtenu le trophée tant espéré: dénicher un volcan vénusien
en éruption. Malgré une patiente comparaison des données
(avec les autres missions, mais aussi depuis le début de la
mission), aucune signature directe d’une éruption n’a pu être
trouvée. Par contre, plusieurs phénomènes étranges ont été
découverts: des variations de l'émissivité de la surface
entre des régions voisines, qui indiquent une composition ou une rugosité variable, peut-être selon l'âge de la
surface, et des quantités variables de dioxyde de soufre
(SO2) dans la haute atmosphère (70 à 90 km d’altitude).
Cette variabilité trouve peut-être son origine dans une
éruption - reste à savoir si elle serait récente ou daterait
de quelques millions d’années… Les scientifiques espèrent toutefois trouver une preuve concrète de volcanisme
actif, sorte de «graal» vénusien, d’ici la fin de la mission
prévue dans deux ans environ.
Terminons enfin sur un clin d’œil: Venus Express a aussi
observé… la Terre ! Cela peut a priori sembler stupide,
mais c’est loin d’être le cas. L’idée sous-jacente est
d’essayer de trouver, à distance, des indices permettant
de dire si la planète est habitée, et cela sans voir de
détails ! À l’heure où fleurissent les découvertes d’exoplanètes, que nous ne sommes pas prêts d’explorer, ce genre
d’observation prend tout son sens… (Image 6)
Yaël NAZÉ (FNRS)
[email protected]
Espace
E
n décidant l'arrêt brutal du programme
Constellation d'exploration humaine de
l'espace, qui passait par un retour des astronautes sur la Lune, le Président Obama
réoriente le programme de la Nasa.
L'Amérique fait certes un pas en arrière mais pour mieux
prendre son élan technologique et bondir dans le système
solaire avec une expédition internationale vers Mars,
comme premier objectif. Ce faisant, la Maison Blanche a
relancé l'épineux débat homme contre machine. Qui, de
l'être humain ou du robot intelligent, doit-on privilégier
pour découvrir les autres mondes autour du Soleil ?
pas des robots à la place d'êtres humains
pour poursuivre l'exploration spatiale ?
P ourquoi
Le prix à payer pour les vols spatiaux habités est le coût de mise
en œuvre de systèmes très fiables et hautement sécurisés. C'est
à la fois un défi technologique et un pari économique. D'où
l'avantage de recourir aux robots dans le milieu spatial, décrit
comme un environnement hostile. Les automates, aujourd'hui,
sont toujours plus performants avec leur intelligence artificielle
(logiciels embarqués) (1) et plus habiles avec leurs mécanismes microminiaturisés (nano-systèmes). Ils sont
à même de rivaliser avec les engins
habités dans l'espace, surtout pour
l'exploration de mondes lointains.
Jupiter et de Saturne. Une plaque dorée illustrait un homme et
une femme nus, notre système solaire et sa position. Outre
Pioneer-10 et Pioneer-11, lancées en mars 1972 et avril 1973,
il y a également Voyager-1 qui, partie en septembre 1977, a
frôlé Jupiter puis Saturne et se trouve à plus de 30 heureslumière de nous ! Il lui faudra des années-lumière pour passer
près d'une étoile. Voyager-2, lancée en août 1977, a réalisé le
«grand tour» en survolant et en photographiant Jupiter, Saturne,
Uranus et Neptune. Chaque Voyager
emporte un disque de cuivre plaqué or,
avec une cellule et une aiguille pour le
lire: il contient des images, des sons,
des extraits de musique ainsi que des
messages dans différentes langues
informant d’une vie sur Terre.
Mais le robot prive l'espace d’une
dimension humaine. Il est loin d'avoir
ourquoi continuer à faire
l’autonomie de réflexion d’un astrovoyager des hommes dans ce
naute. Les hommes et femmes de
milieu hostile qu’est l'espace ?
l'espace, entraînés pour réagir prompCette présence de chercheurs et d'ingétement lors de situations dramatiques,
nieurs dans l'environnement spatial
ont démontré leur aptitude à faire face
permet l'étude, dans une approche
aux imprévus. Par exemple, la toilette
nouvelle et sous d'autres angles, de
américaine ou le système de recyclage
phénomènes physiques, chimiques,
des eaux et urines de l'Iss
biologiques, médicaux... L'espace
(International Space Station), régulièstimule la curiosité, car il pousse à une
rement en panne, peuvent être réparés
remise en question des connaissances
par l’équipage qui dispose de matériels
dans bien des disciplines. Notamment
Huygens largué par la sonde Cassini
apportés par le Space Shuttle. Même
celle de la physiologie humaine:
(Photo: Nasa)
s’il est possible de télécharger un logidepuis le comportement des muscles
ciel permettant de modifier leur comporde la main et de la jambe jusqu'au fonctement loin de la Terre, les robots ne sont pas encore conçus tionnement de l'appareil cardio-pulmonaire, en passant par
avec la capacité de s'auto-réparer lors de situations impré- l'évolution du système osseux… Les hommes et les femmes sur
visibles.
orbite sont le prolongement des yeux, des bras, des réflexes de
ceux et celles restés au sol. Le dialogue entre eux est indispenes robots ont exploré les huit planètes du système sable. Un entraînement, de plusieurs années, contribue à ce que
solaire… Mais se sont-ils déjà aventurés au-delà ?
leur collaboration se passe de la façon la plus fructueuse.
Quatre sondes de la Nasa, équipées de générateurs thermo-électriques à base de plutonium, se sont «évadées» du système
(1) La société Spacebel à Liège est le spécialiste belge de l'inforsolaire pour mettre le cap sur d'autres étoiles. Ces «bouteilles»
matique spatiale embarquée; elle assure l'autonomie des satellites
jetées dans l'océan de l'Univers sont équipées d’un témoignage
Proba.
indiquant l'existence de l'espèce humaine. La première a
Théo PIRARD
survolé Jupiter, tandis que la seconde est passée à proximité de
[email protected]
P
L
47
Athena 260 / Avril 2010
Espace
Satellite 2010 :
le pouls du business spatial
C
haque année, à Washington, D.C., la conférenceexposition Satellite réunit la communauté des
acteurs du «business» spatial. C'est le secteur des
télécommunications et de la télévision par satellites qui se révèle le plus rentable. Pourtant, les
systèmes au sol, avec les relais hertziens et les réseaux câblés,
stimulés par les pouvoirs publics pour passer à la mode numérique, leur font concurrence avec des performances sans cesse
accrues et ce, jusque sur les mobilophones ! Satellite 2010,
qui s’est tenu du 15 au 18 mars et a accueilli quelque 9 500
spécialistes et entrepreneurs du monde des satellites, fut
l'occasion de faire le point sur les tendances et les nouveautés
d'un marché tirant parti de la flexibilité numérique et se révélant peu affecté par la crise économique: connexions haut
débit, produits d'applications de plus en plus diversifiées (télévision 3D, services mobiles, usage militaire), interopérabilité
des systèmes, ambitions d'opérateurs régionaux, réponses
appropriées aux besoins des pays émergents…
Lors de la session d'ouverture animée par les quatre grands
opérateurs de systèmes spatiaux de télécommunications et de
télévision (Intelsat, Ses, Eutelsat et Telesat), Michel de Rosen,
nouveau directeur général d'Eutelsat, a d'emblée planté le
décor: «En venant du secteur pharmaceutique, ce qui m'a
frappé, c’est la santé économique de l'industrie du satellite.
C'est fort insolite en 2009 d'avoir une industrie qui réalise des
profits et qui continue de croître». Il a insisté sur le fait que
l'opérateur Eutelsat, avec sa flotte de 22 satellites sur l'orbite
géostationnaire (à 35 800 km au-dessus de l'équateur), reste
avant tout un acteur régional, proche des besoins de ses utilisateurs. Mais il ambitionne de se développer en Russie et du côté
asiatique. Pas question cependant d'une fusion avec Hispasat,
dont il est actionnaire et qui a une position dominante en
Amérique latine avec ses satellites Amazonas.
Boudé par les pouvoirs
publics
relais de plus en plus performants et tire parti de sa disponibilité (au moyen d'«occasions» déjà en orbite) ainsi que d'une souplesse d'utilisation. L'Afrique, l'Amérique latine et l'Australie,
avec de grandes étendues à couvrir et à cause de la forte
demande à satisfaire rapidement, continuent d'être les meilleures opportunités pour l'emploi des satellites en orbite géostationnaire et sous la forme de constellations.
Mais le satellite, s'il a largement fait ses preuves, reste un outil
technologique dont la mise en œuvre dépend fortement des
instances politiques et du bon vouloir des institutions gouvernementales. Le 16 mars, jour de l'ouverture de Satellite 2010, la
Fcc américaine (Federal Communications Commission)
communiquait son plan national, Connecting America, au
Congrès. L'objectif est de connecter tout le pays, jusque dans les
coins les plus reculés, à l'Internet haut débit et ce, à l'horizon
2020. Ainsi en assurant l'accès de 100 millions de foyers à un
service de 100 Mbps, les États-Unis projettent de réaliser le plus
grand marché au monde des utilisateurs des systèmes à large
bande. Dans ce plan, il n'y a aucune reconnaissance du rôle
spécifique que le satellite doit jouer aux côtés de l'infrastructure
terrestre pour les technologies de la société de l'information. Un
coup de pouce institutionnel aurait pu relancer l'intérêt des
financiers à investir davantage dans les connexions satellitaires
à large bande et ainsi réduire la fracture numérique.
La bande Ka en point de mire
De même, dans l'Union européenne, les autorités de Bruxelles
ne semblent pas convaincues par l'atout de la dimension spatiale
pour proposer le haut débit dans les régions mal desservies par
les communications. En tout cas, elles ne facilitent guère l'usage
du satellite, sans interférences,
au spectre
Le satellite, grâce à
une fiabilité accrue sa durée de vie sur
orbite atteint les
vingt ans -, continue
de prendre des parts
de marché: il est
remplacé par des
Athena 260 / Avril 2010
48
Walter E. Washington Convention Center
Espace
L’imposant Ka-Sat d’Eutelsat
pour des connexions
à haut débit en Europe.
(Photo: Astrium)
Clés
pour le bidirectionnel
par satellite
des fréquences
de télécommunications. Jusqu'ici, on
s'est servi des bandes L (1400-1600
MHz) et S (2000-2500 MHz), notamment pour les services avec les
mobiles. Puis on a exploité les bandes
C (6/4 GHz - fréquence montante du
sol vers le satellite/fréquence descendante du satellite vers le sol) et Ku
(18/10-12 GHz) pour les télécommunications et la télévision.
Aujourd'hui, pour les connexions de
grande capacité, on vise la bande Ka
(30/20 GHz) qui permet la transmission de flux élevés de données entre
des terminaux compacts chez les
utilisateurs, mais qui est sensible aux
fortes pluies et intempéries neigeuses.
’est bien beau de placer un satellite autour de la Terre pour assurer des services de télécommunications à haut débit. Mais les performances de ce relais sur
orbite dépendent essentiellement de l'optimisation des terminaux professionnels au sol et de leur organisation en réseaux terrestres. Lors d'une session Gvf
(Global Vsat Forum) de Satellite 2010, Thierry Eltges et Fulvio Sansone, deux
ingénieurs de la Pme bruxelloise Sea&Space Exploration, spécialisée dans la consultance pour la mise en œuvre d'applications spatiales, ont présenté les résultats
d'une étude du marché, en plein développement, des systèmes bidirectionnels par
satellite.
C
Cette étude, réalisée pour l'Esa, identifie les besoins en hausse des utilisateurs pour
des produits innovants et moins coûteux, ainsi que leur souci d'un accès indépendant à des services compétitifs. Elle met l'accent sur la plus grande flexibilité du
satellite pour le développement des réseaux, sur la meilleure exploitation des
fréquences, au moyen d'une modulation efficace et grâce à leur réutilisation selon
des faisceaux à la demande. C'est ce qu'a bien compris la société belge Newtec, avec
des terminaux et équipements sur mesure qui tirent le mieux parti de l'offre des
répéteurs à bord des satellites. http://www.seaandspace.com/
Déjà aux USA, plusieurs systèmes de
satellites à forte puissance exploitent
cette bande Ka: HughesNet met en
œuvre une flotte de trois satellites Spaceway (pour un demi
million d'abonnés) et prépare son puissant Jupiter-1 (à lancer en
2012); Viasat a acquis WildBlue Communications et son
satellite WildBlue-1 (400 000 clients) et mettra en service
Viasat-1 durant 2011.
Une constellation en bande Ka prend forme sur l'île anglonormande de Jersey: en 2012, O3b (Other 3 billion) prévoit de
déployer, grâce à deux lancements Soyouz depuis la Guyane,
huit satellites-relais de 700 kg en bande Ka sur orbite équatoriale à 8 063 km d'altitude. Ce système à haut débit intéresse
les 3 milliards d'habitants de la zone intertropicale: Afrique,
Amérique latine, péninsule indienne, archipel indonésien et
Océanie. Romain Bausch, directeur général de la Ses (Société
européenne des satellites), qui est aussi l'un des actionnaires de
la société O3b, se montre confiant pour que cette entreprise
réussisse une percée significative dès 2015 avec le déploiement
d'une vingtaine de satellites.
L’embarras du choix
Les satellites géostationnaires, offrant de la capacité haut débit
en bande Ka, vont se multiplier dans les trois années à venir.
Une nouvelle génération, dite Hts (High Troughout Satellite),
vise à optimiser leur capacité et leur efficacité par la réutilisation des fréquences sur plusieurs faisceaux pour une grande
variété de missions (connexions Internet, diffusion TV,…). Ce
49
qui permet de réduire le prix du byte par satellite et de rivaliser
avec le tarif du byte terrestre. En Europe, Eutelsat mise beaucoup sur la flexibilité et les performances de son satellite Ka-Sat
(normalement disponible dès 2011), en coopération avec
Viasat, pour le service de terminaux TooWay: l'objectif est
d'atteindre rapidement les 750 000 utilisateurs. Eutelsat prévoit
l'emploi de Ka-Sat pour diffuser la télé régionale et locale dans
toute l'Europe et le bassin méditerranéen.
L'approche du concurrent d'Eutelsat, le luxembourgeois Ses
Astra, se veut moins audacieuse et plus graduelle: au lieu
d'un satellite complet, il recourt, en fonction des besoins, à
des charges additionnelles en bande Ka sur ses prochains
satellites. Il privilégie l'emploi de la bande Ku avec les
terminaux Sat3Play - pour les services, via satellite, de télévision, téléphonie et Internet à domicile - de la firme belge
Newtec. Ils sont plus de 80 000 abonnés à cette technologie
sur le continent européen. La concurrence va être vive sur
l'Europe, le Moyen-Orient et le Nord de l'Afrique.
L'opérateur britannique Avanti Communications compte bien
quant à lui lancer son satellite Hylas-1 cette année ; il a déjà
commandé Hylas-2 pour un lancement Arianespace en 2012.
D'autres projets de satellites en bande Ka sont à l'étude: le
Megasat français et le Heinrich Hertz allemand. Dans les
années à venir, les citoyens européens auront l'embarras du
choix pour l'Internet par satellite.
Théo PIRARD
[email protected]
Athena 260 / Avril 2010
Agenda
Agenda
Agenda...
ÉVÉNEMENTS, EXPOS ...
À Bruxelles ...
Le règne animal et son évolution
Du 23 avril au 30 juin
Voici 175 ans, le premier cours de zoologie était donné à l’ULB. 25 ans plus tard, Darwin publiait son livre L’origine des espèces
par la sélection naturelle et lançait une version révolutionnaire de l’histoire de la vie. L’occasion pour l’ULB de revenir, sur
l’histoire de l’évolution animale et sur les relations entre humains et animaux... http:/www./ulb175.be
• Les expositions
Les relations animales ou Le bestiaire revisité:
Quand ? À partir du 30 avril, du lundi au vendredi de 13h à 17h. Le samedi de 11h à 16h.
Où ? Musée de zoologie et d’anthropologie - Avenue F.D. Roosevelt 50 à 1050 Bruxelles
Tarif ? Entrée libre. Visites guidées sur réservation (12 personnes maximum - 30 euros/groupe)
Contact ? [email protected] - 02/650.22.62
Selbsdarstellung. Portraits de Grands Singes: (Photographies, peintures et sculptures de Chriz Herzfeld)
Quand ? Du 23 avril au 30 juiin 2010
Où ? Salle Allende - Campus du Solbosch - Avenue P. Héger, 22-24 à 1000 Bruxelles
Tarif ? Entrée libre
Contact ? [email protected] - 02/650.37.65 ou [email protected]
• Les conférences
«La zoologie à l’Université de Bruxelles: petites Histoires et grandes Passions», de Michel Jangnoux
Le jeudi 29 avril à 17h30, Auditoire Guillissen (Campus du Solbosch, Bâtiment U)
«Un siècle après Darwin: l’Homme face à son évolution», de Pascal Pick
Le mardi 4 mai à 20h, Salle Dupréel (Campus du Solbosch, Bâtiment S, Avenue Jeannne 44).
«Humains et animaux, regards croisés», de Dominique Lestel
Le jeudi 6 mai à 14h30 au Studio 4 (Centre culturel Flagey, 1050 Bruxelles).
À Liège ...
Partager le Savoir. Deux siècles de vulgarisation
scientifique au pays de Liège
Du vendredi 23 avril au vendredi 28 mai
Exposition organisée par le Centre d'Histoire des Sciences et Techniques de l’ULg. (http://chst.european-is.net/)
Où ? Embarcadère du Savoir - Institut Zoologique - Quai Van Beneden, 22 à 4020 Liège
Pour qui ? Grand public
Infos: Embarcadère du Savoir - 04/366.96.50
50
Agenda
À Namur ...
Exp’osons
Les 29 et 30 avril
Athena n° 260
Exp'Osons 2010 est une vaste exposition de projets
scientifiques pour les jeunes de l'enseignement
primaire et secondaire. Par le biais de ce concours,
Ose La Science propose aux jeunes de s'investir dans
le projet de recherche qui les intéresse, de communiquer leur passion, d'échanger leurs idées ou leurs
questions avec d'autres jeunes. Chaque année,
l'exposition regroupe plus de 130 projets présentés
par en moyenne 400 jeunes.
Ouverte au public, le contact doit y être cordial,
dynamique et permettre des échanges fructueux.
Même si Exp'Osons est un concours de projets scientifiques dont la
qualité et la rigueur sont souvent remarquables, il est avant tout un lieu
d'échanges, de communication et de respect des uns et des autres. Chacun
y a donc sa place et un jeune enfant expliquant ses ennuis avec son
poisson rouge ou avec son élevage de vers de terre peut tenir en haleine
pas mal de monde...
Où ? CAMET, Boulevard du Nord, 8 à 5000 Namur (derrière la Gare)
Tarif ? Gratuit
Infos: www.oselascience.be - 081/43.53.23 ou [email protected]
Avril 2010
Ce mensuel d'information, tiré
à 14 000 exemplaires, est édité par la
DGO6,
Département du
développement technologique,
Service public de Wallonie - SPW
Place de la Wallonie 1, Bât. III
à 5100 Jambes
Téléphone: 0800/11 901 (appel gratuit)
http://athena.wallonie.be/
Éditeur responsable:
Michel CHARLIER,
Ir. Inspecteur général
Ligne directe: 081/33.45.01
[email protected]
Rédactrice en chef:
Géraldine TRAN
Ligne directe: 081/33.44.76
[email protected]
Toujours à Bruxelles ...
Expo-Sciences
Les 23 et 24 avril
Graphiste:
Nathalie BODART
Ligne directe: 081/33.44.91
[email protected]
Expo-Sciences, c'est l'incontournable rendez-vous des
petits et jeunes chercheurs en herbe, issus de l'enseignement maternel, primaire, secondaire, technique et
supérieur. Depuis le début de l'année scolaire, ils ont
élaboré un projet scientifique ou technologique qu'ils
auront la fierté et l'enthousiasme de présenter devant
un jury de scientifiques, leurs camarades de classe,
leurs amis, leur famille ainsi que le grand public. Avec
pour thème la biodiversité, l’événement a pour objectif de mettre en évidence l’importance de la démarche
scientifique, le côté ludique des sciences mais aussi
les espoirs qu’elles portent en elles pour l’avenir.
Carrefour national et international des jeunes, l’expo offrira également de
nombreuses activités en espérant, qui sait, voir naître des vocations!
Impression:
Les Éditions européennes
Rue Thiefry, 82 à 1030 Bruxelles
ISSN 0772 - 4683
Ont collaboré à ce numéro:
Jean-Michel Debry;
Paul Devuyst; Henri Dupuis;
Benoît Gailly;Philippe Lambert;
Brigitte Laurent; Jean-Luc Léonard;
Yaël Nazé; Isabelle Pierre; Théo Pirard;
Jean-Claude Quintart;
Michel Van Cromphaut
et Christian Vanden Berghen.
Dessinateurs:
Où ? À Tour & Taxis - Avenue du port, 86c à 1000 Bruxelles
(sheds 3 et 4). De 10 à 17 heures.
Olivier Saive et Vince.
Tarif ? Pour visiter l’Expo-sciences, il suffit d’être membre des
Jeunesses scientifiques de Belgique ou de Jeugd, Cultuur en
wetenschap. Il sera possible de s’affilier sur place pour 2,5 euros
et d’ainsi avoir accès à l’exposition.
Michel Charlier; Marc Debruxelles;
Jacques Moisse; Jacques Quivy.
Comité de rédaction:
Infos: www.jsb.be ou www.jcweb.be
51
Athena 260 / Avril 2010
Visitez nos sites:
http://athena.wallonie.be
http://recherche-technologie.wallonie.be/
http://difst.wallonie.be/
Service public de Wallonie - DGO6
Département du développement technologique
Place de la Wallonie 1, Bât.III à 5100 Jambes • Tél.: 081 333 111 • Fax: 081 33 46 21

Documents pareils