N° 265 - Novembre 2010 - Portail de la Recherche et des
Transcription
N° 265 - Novembre 2010 - Portail de la Recherche et des
Recherche et développement technologique 265 Novembre 2010 Le mag’ scientifique www.athena.wallonie.be · Mensuel ne paraissant pas en juillet et août · Bureau de dépôt Bruxelles X Quand de jeunes wallons carburent au futur ! La forêt, l’or vert des hommes ATHENA 265 · Novembre 2010 > ÉDITO Édito Biture express... D Texte: Géraldine TRAN • Rédac’chef + Plus d’infos ww.iph.fgov.be http://www.jeunesetalcool.be 2 http://www.sante.cfwb.be http://www.univers-sante.ucl.ac.be http://envoye-special.france2.fr/ Photo: [Q]/Flickr epuis quelques jours, les baptêmes estudiantins sèment le chaos dans les centre-villes belges et laissent à leurs pavés, des séquelles qui en disent long sur ce qui a été consommé la veille et sur les gueules de bois qui ont dû en découler. Ce n’est pas des baptêmes en eux-mêmes dont j’ai envie de vous parler, mais d’un phénomène «annexe» qui n’a cessé de prendre de l’ampleur depuis plusieurs années déjà: le «binge drinking». Les traductions sont multiples: «orgie alcoolique», «hyperalcoolisation», «chaos éthylique»,… mais un seul principe: boire le plus possible en un minimum de temps. L’alcoolisme est bien entendu une addiction qui a existé de tout temps mais qui ne concernait, jusqu’alors, pas les jeunes, encore moins les très jeunes. Selon l’enquête de Santé 2008 de l’Institut de Santé Publique (ISP), un jeune belge sur huit âgé de 15 à 24 ans boit au moins six verres d’alcool par soirée, chaque semaine ! Dans la réalité et pour l’avoir observé, c’est souvent beaucoup plus. Même s’il faut que jeunesse se passe et s’il ne faut pas diaboliser la consommation d’alcool, pour enrayer cette nouvelle façon de se droguer, car oui, il s’agit d’une drogue, les bonnes questions doivent être posées: pourquoi ces jeunes éprouventils l’absolue nécessité de s’enivrer à ce point ? Que veulent-ils oublier ? Quel SOS lancent-ils à la société ? Est-ce seulement un effet de mode ? Le mal-être doit être profond pour que des adolescents, sans problèmes apparents, veuillent à tout prix perdre pied avec la réalité… Il s’agit d’une véritable question de santé publique à laquelle la science et la recherche doivent répondre, à l’image de l’UCL qui organisera une conférence gratuite sur le sujet le 23 novembre prochain (http://www.uclouvain.be/ipsy). Les fêtes de fin d’année approchant, même si de tels prétextes ne sont plus nécessaires pour boire un «coup de trop», j’espère avoir attiré votre attention sur une assuétude sournoise, car a priori festive et occasionnelle, mais qui peut entraîner de graves conséquences physiques, physiologiques ou psychologiques pour ceux qui en sont victimes et sur les autres, victimes potentielles de leur état d’inconscience… ATHENA 265 · Novembre 2010 Tirée à 14 000 exemplaires, Athena est une revue de vulgarisation scientifique du Service Public de Wallonie éditée par le Département du Développement technologique de la Direction générale opérationnelle Économie, Emploi et Recherche (DGO6). Place de la Wallonie 1, Bât. III - 5100 JAMBES Elle est consultable en ligne sur http://athena. wallonie.be Abonnement (gratuit) Vous souhaitez vous inscrire ou obtenir gratuitement un ou plusieurs exemplaires, contactez-nous ! ·par courrier Place de la Wallonie 1, Bât.III - 5100 JAMBES ·par téléphone au 081/33.44.76 ·par courriel à l’adresse [email protected] SOMMAIRE SOMMAIRE 10 Actualités 04 Événement - DGO6 Quand de jeunes wallons carburent au futur 10 Technologie Cherche matériaux rares pour technologies gourmandes 13 L’ADN de ... Maxime ROLLET 18 Société Le périlleux exercice de la communication scientifique 20 Internet Le Web pour les Nuls et les Professionnels Comment les Trouveurs trouvent 22 Médecine L’ocytocine, une hormone altruiste... 26 Environnement La forêt, l’or vert des hommes 30 Biologie 34 Santé BESEP, le sport contre la sclérose 38 Physique 42 Astronomie 44 Espace 46 Agenda 50 13 26 28 Éditeur responsable Michel CHARLIER, Inspecteur général Ligne directe: 081/33.45.01 [email protected] Impression Les Éditions européennes Rue Thiefry, 82 à 1030 Bruxelles Rédactrice en chef Géraldine TRAN Ligne directe: 081/33.44.76 [email protected] Collaborateurs Jean-Michel Debry Paul Devuyst Henri Dupuis Philippe Lambert Jean-Luc Léonard Yaël Nazé Théo Pirard Jean-Claude Quintart Graphiste Nathalie BODART Ligne directe: 081/33.44.91 [email protected] ISSN 0772 - 4683 Christian Vanden Berghen Patrick Veillard Michel Wautelet Dessinateurs Olivier Saive Vince Comité de rédaction Laurent Antoine Michel Charlier Jean-Marie Cordewener Couverture Première Crédit: By Corsu Quatrième Vue d’artiste du lanceur italo-européen Vega. Crédit: Esa 3 ATHENA 265 · Novembre 2010 > ACTUALITÉS pas Un plus loin ! Texte: Jean-Claude QUINTART Savoir-faire et perspicacité scientifique sont les ingrédients de la recherche wallonne qui permet ici de comprendre comment les Néandertaliens se déplaçaient ! «Notre problème majeur dans cette reconstruction était le manque de spécimens complets, car à ce jour, aucun n’a été retrouvé… Ni même un nombre d’os suffisant pour la reconstruction d’un membre entier !» Pour pallier cette difficulté, le LABO a créé un modèle 3D de membres inférieurs néandertaliens au départ de restes découverts sur différents sites. Compliquant le travail, cette situation l’a obligé à développer une méthode pour que les différents os disponibles puissent être mis à la même échelle de manière validée afin d’éviter que les mesures ultérieures ne soient entachées de sérieux biais expérimentaux. Le modèle 3D ainsi développé a ensuite été fusionné avec des données de mouvements effectués par des volontaires vivants dans le but de déterminer si les caractéristiques du squelette obtenu étaient compatibles avec la locomotion moderne ou non. [email protected] Photo: ULB 4 Alors que personne ne pense à ses pas en marchant, le Laboratoire d’Anatomie, Biomécanique et Organogénèse (LABO) de la Faculté de Médecine de l’Université libre de Bruxelles (ULB) s’est pourtant demandé si la marche des Néandertaliens était semblable à la nôtre ! Si la question n’est pas nouvelle, personne ne voyait comment y répondre... A ujourd’hui, grâce à une nouvelle plate-forme TIC (Technologie de l’Information et de la Communication), développée à Bruxelles, quelques clics de souris apportent déjà et pour la première fois, des éléments objectifs à la question. «L’analyse de la locomotion chez les Néandertaliens n’est pas aisée. Espèce disparue il y a plus de trente mille ans, il est donc impossible d’observer directement la manière dont ils marchaient. On admettait généralement que leur morphologie squelettique leur permettait de marcher de la même façon que nous, mais peu de données quantifiables venaient étayer cette hypothèse», explique Serge Van Sint Jan, directeur du projet et professeur à l’ULB. De fait, du début du 20e siècle à la fin des années 50, on voyait les Néandertaliens comme des créatures velues d’apparence simiesque et aux genoux pliés lors de la marche ! On comprend donc l’intérêt des nouvelles techniques scientifiques mitonnées par le LABO de l’ULB qui, en fusionnant des données de natures différentes, permettent aux scientifiques d’avancer d’un pas. Dans les grandes lignes, la méthode de fusion repose ici sur la combinaison de données morphologiques obtenues au départ de l’imagerie médicale avec des données physiologiques récoltées à partir de systèmes d’analyses de mouvement. Le LABO a d’ailleurs été l’un des précurseurs dans le développement et l’application de cette technologie pour le traitement de patients souffrant de problèmes liés à la locomotion. Son adaptation lui a permis de collaborer, avec l’Institut royal des Sciences naturelles de Belgique, à la reconstruction virtuelle du squelette complet d’une paire de membres inférieurs de Néandertaliens. Une première ! Sur le plan pratique, la reconstruction des membres inférieurs a fait appel à l’imagerie médicale (CT-Scan) et à la reconstruction 3D par infographie. Les modèles 3D virtuels ont été traités, reconstruits et analysés par le logiciel IhpFusionBox, conçu au LABO; les outils scientifiques intégrés au logiciel ont eux dressé un modèle des membres inférieurs aussi proche que possible des dimensions du spécimen retrouvé à Spy. Enfin, des données relatives aux muscles ont été ajoutées au modèle dans le but de répondre à la question: «Jusqu’à quel point l’architecture robuste du squelette néandertalien confère-t-elle un avantage mécanique aux muscles s’y attachant par rapport au squelette humain moderne ?» Résultats ? Le squelette néandertalien affiche une bonne adéquation avec les exigences de la locomotion moderne et à taille égale, le modèle recréé virtuellement montre une robustesse plus élevée que celui de l’humain moderne; sans doute pour davantage d’efficacité dans l’hostilité de l’environnement européen de l’époque. Bref, un excellent travail publié dans la revue scientifique internationale Palevol sous le titre de Reconstruction virtuelle des membres inférieurs Néandertaliens et estimation des bras de levier des muscles ischio-jambiers. Infos: [email protected] Jean-Claude QUINTART · ACTUALITÉS Actus... d’ici et d’ailleurs Texte: Jean-Claude QUINTART • [email protected] Photos: CERN (p.5), UCL (p.6), DOW CORNING (p.7), D. ASCHER (p.7), 1suisse.ch/Flickr (p.8), Fle {S}/Flickr (p.9) De Charleroi à Chennai NOUVELLES TECHNOLOGIES Distribution optimale T oujours mieux, toujours plus fort, urologues et radio-oncologues traitent désormais plus efficacement leurs patients grâce à SmartSeed®. «Via cette nouvelle solution, ils contrôlent le montage de la configuration du brin radioactif de manière individuelle en utilisant un espacement variable des grains radioactifs, essentiellement lors d’implantations mini-invasives de grains dans la prostate, afin de réaliser la distribution optimale de la dose», explique Edgar Löffler, administrateur délégué d’IBt Bebig. Progrès encore avec SmartLoader® qui permet à l’entreprise wallonne d’offrir une configuration SmartSeed® personnalisable en brachythérapie permanente. Assemblage plus facile, protection contre la radiation entièrement intégrée, vitesse de manipulation accélérée en salle d’opération et disponibilité d’un outil de simulation de traitement interactif via iPad ou d’autres plates-formes sont les atouts de ce dernier développement du pro de la brachythérapie. Infos: http://www.smartseed.eu et http://www.ibt-bebig.eu R&D Des wallons au cœur du Big Bang ! L a communauté scientifique l’espérait ! Six mois après son entrée en service, le LHC (Large Hadron Collider/grand collisionneur de hadrons) livre ses premières réponses et pose d’autres questions ! En effet, l’analyse des premières collisions proton-proton à très haute énergie, où plus d’une centaine de particules chargées sont produites, révèle des indices d’une corrélation entre des particules, une sorte d’association par paire engendrée au moment de la création des particules au point de collision. Le phénomène est subtil et comporte des similitudes avec des phénomènes observés dans des collisions de noyaux lourds au Laboratoire national de Broo- khaven (États-Unis) où a été observé un état qui pourrait avoir été celui de notre Univers quelques instant après le Big Bang ! Toutefois, c’est la première fois qu’on observe un tel phénomène dans des interactions de protons. D’où de nouvelles conjectures ! Ces observations ont été notées par le programme d’expériences CMS (Compact Muon Solenoid/solénoïde compact pour muons) dont les travaux vont de la recherche du boson de Higgs à celle d’autres dimensions en passant par la quête de particules pouvant former la matière noire. Un programme essentiel auquel participent plusieurs chercheurs de l’Université de Mons (UMons), de l’Université catholique de Louvain (UCL) et de l’Université libre de Bruxelles (ULB). Infos : http://www.cern.ch A lstom Transport annonce avoir remporté une commande de 188 voitures pour le métro de Chennai, en Inde. Un ordre pour lequel Alstom Charleroi sera responsable de la conception du convertisseur et de sa production pour les neuf premières rames. La fabrication étant ensuite assurée par le site indien. Infos: http://www.transport.alstom.com et http://www.chennaimetrorail.gov.in 5 ATHENA 265 · Novembre 2010 > ACTUALITÉS En avant toute vers de nouveaux progrès dans le traitement du cancer, des m aladies cardiovasculaires, du diabète et de l’obésité ! L’arme fatale ! 6 L es atouts se suivent et se dépassent toujours en matière d’outils à disposition de la recherche wallonne. Ainsi, l’Université catholique de Louvain (UCL) s’est dotée d’un appareil d’imagerie par résonance magnétique (IRM) ultra-puissant, unique en Belgique et qui servira à la recherche et au développement de traitements innovants pour des maladies telles que le cancer, l’obésité ou le diabète. Plus précisément, il sera exploité par le Laboratoire IRM de l’Université, dont les acteurs ont acquis une expérience unique avec cette technologie, notamment dans l’identification des facteurs du micro-environnement tumoral, conditionnant la réponse à un traitement anticancéreux. Pour mener à bonne fortune ce type de recherche, les équipes doivent disposer d’un matériel à la pointe de l’art particulièrement onéreux. Aussi, le Fond national de la Recherche scientifique (FNRS) a financé deux nouveaux outils IRM: le premier installé à Mons en vue de travaux sur les produits de contraste intelligents; le second (de 11,7 Tesla, soit plus de 200.000 fois le champ magnétique terrestre) à l’UCL pour des recherches en imagerie fonctionnelle et métabolique. Cette puissance place l’appareil de l’UCL en quatrième position mondiale ! «Jusqu’ici, les travaux sur des systèmes opérant avec de très hauts champs magnétiques étaient cantonnés en neurologie. Tout en pouvant rencontrer ce type de recherche, notre orientation est clairement pharmacologique et thérapeutique. Aussi, grâce aux capacités uniques du nouveau système, une dizaines de nos chercheurs pourront visualiser en temps réel l’évolution de la fonction et du métabolisme des tissus malades en cours de traitement», explique Bernard Gallez, responsable du Laboratoire de résonance magnétique biomédicale. La nouvelle arme de l’UCL pointera donc l’optimisation de nouveaux traitements du cancer par des recherches dont le but est de rendre les tumeurs moins résistantes à leur traitement; l’optimisation de la délivrance d’agents anticancéreux au niveau de la cible; et le développement de bio-marqueurs prédictifs de la réponse thérapeutique. Mais, les travaux ne s’arrêteront pas là. D’autres projets jouiront de la puissance du nouvel outil. Des spécialistes en maladies cardiovasculaires évalueront avec lui la morphologie, la fonction contractile et la perfusion du tissu myocardique de façon non-invasive. Côté greffes, seront étudiées des techniques visant à accroître la vascularisation et le statut métabolique des greffons. Des recherches seront lancées afin d’améliorer les stratégies de régénération des nerfs lors de section de la mœlle épinière. Enfin, en diabétologie et obésité, les spécialistes étudieront les modulations métaboliques induites par certains aliments en vue de corriger une série de problèmes du syndrome métabolique. Infos: [email protected] Le chiffre ... au premier semestre 2010 ! «Jamais la Wallonie n’avait connu aussi forte progression de ses exportations, depuis le premier semestre 2000», déclare Philippe Suinen, administrateur général de l’Agence wallonne à l’Exportation (Awex). Infos : http://www.awex.be Jean-Claude QUINTART · ACTUALITÉS Le coup d’crayon Illustration : O. SAIVE Bien vu, Alexandra ! Ce singe noir, à la face blanche et aux narines largement ouvertes, vit au nord du Myanmar, ex-Birmanie. Il n’avait jamais été décrit par les zoologistes. Pourtant, sur place, on sait depuis longtemps qu’il existe… Son nom ? Rhinopithecus Strykeri et il éternue quand il pleut ! Dow Corning crée son futur en Wallonie S i le site Seneffe était, depuis quarante ans, un des maillons forts de la R&D du géant américain, d’ici quelque mois, il sera le creuset de son avenir ! Avec 13 millions de dollars et 7,5 millions de subventions du Gouvernement wallon, Dow Corning fera de Seneffe son Centre d’exploitation et de développement de l’énergie solaire ou, en version originale, SEED (Solar Energy Exploration ans Development Center). «Par cet investissement, nous renforçons notre support aux fabricants européens dans pratiquement toutes les industries», explique Jean-Marc Gilson, Executive Vice President, General Manager, Speciality Chemicals. Et ajoute: «La mondialisation et l’intégration de cultures différentes est une source de richesse pour notre société. Ici à Seneffe travaillent en harmonie plus de trente nationalités, parlant 20 langues différentes !» Le SEED comprendra, en première partie, le Centre de synthèse chimique pour la zone européenne, où les spécialistes en chimie du silicium auront un champ de travail pratiquement illimité, allant du solaire à l’électronique, en passant par la santé, la construction et les sciences de la vie. Armés d’équipements de pointe, ils se focaliseront sur le durable. Une collaboration rapprochée avec les clients permettra de commercialiser toujours plus vite le fruit des recherches et de réinvestir dans l’avenir. La seconde partie de l’investissement gravitera autour du Centre européen d’application pour l’industrie solaire, dont les moyens combineront l’expertise de Dow Corning en matériaux solaires au savoir-faire des producteurs de panneaux photovoltaïques de l’Union européenne. «Nous pensons que l’Europe doit être un centre mondial de recherche et développement en produits et applications durables et cet investissement nous aidera à croître à travers l’innovation», conclut Jean-Marc Gilson. Un programme qui sied à merveille à la Wallonie, dont les ambitions sociétales sont confortées grâce à ce ténor des silicones et technologies innovantes à base de silicium. Fondée en 1930 et installée à Midland, dans le Michigan, la société compte 9.000 salariés, 7.000 produits et 25.000 clients ! Infos: http://www.dowcorning.com L ’Université du Doudou avait raison ! Un consortium international de huit laboratoires vient en effet de valider le modèle du professeur Alexandra Belayew, du Laboratoire de Biologie Moléculaire de l’Université de Mons (UMons), quant à l’explication du déclenchement de la dystrophie facio-scapulo-humérale, maladie génétique conne sous l’acronyme FSHD. Dans son travail, l’équipe montoise émettait l’hypothèse que la FSHD débutait par activation d’un gène toxique de l’ADN dit poubelle sur le chromosome 4. Un bégaiement de l’ADN, découvert en 1999 par Alexandra Belayew et dont l’idée d’un gène fonctionnel dans des éléments répétés était alors considérée comme totalement farfelue ! C’était mal connaître son obstination qui, après dix années de travail et de subsides du Téléthon, voit aujourd’hui sa théorie acceptée par ses pairs et reconnue comme «modèle montois» ! Caractérisée par une dégénérescence irréversible plus ou moins rapide de certains muscles, la FSHD fait partie des dystrophies musculaires héréditaires. Touchant une personne sur 17.000, elle s’inscrit immédiatement après les maladies de Duchenne et de Steinert. La FSHD reflète bien la progression de la maladie qui démarre par les muscles de la face, des épaules puis des membres. La découverte d’Alexandra Belayew porte bien des espoirs car il n’existe actuellement aucun traitement... Infos: [email protected] 7 ATHENA 265 · Novembre 2010 > ACTUALITÉS Front commun L e nucléaire pose question et les interrogations sur ses tenants et aboutissants ne datent pas d’aujourd’hui. Mais, discipline multifacettes, le monde ne peut se passer de ses applications. Le besoin d’une feuille de route claire et précise est la raison pour laquelle le Commissariat à l’Énergie Atomique (CEA) en France, Nuclear Research & Consultancy Group (NRG) au Pays-Bas et le Centre d’Études de l’Énergie Nucléaire belge (SCK-CEN) viennent de déposer une proposition commune dans le domaine des réacteurs de recherche. Signé à l’occasion de l’assemblée générale de la Plate-forme technologique européenne sur l’énergie nucléaire durable, ce document met l’accent sur l’essentiel: maintenir des moyens de recherche performants pour la sûreté des réacteurs nucléaires, la gestion du parc actuel et le développement des réacteurs de demain; la disposition d’installations de recherche souples pour garantir la compétitivité de l’Europe en énergie nucléaire durable; et la pérennité dans la fourniture de radioéléments pour la médecine nucléaire, enjeu de santé publique. Des axes importants sachant qu’en Europe, les réacteurs expérimentaux de première génération arrivent en fin de vie. Lorsqu’on sait que ce type de réacteur est incontournable au développement des modèles de la prochaine génération, qui permettront de plus grandes économies du combustible et une réduction des déchets de haute activité, on comprend l’intérêt de la démarche des trois grands opérateurs en faveur de l’Espace européen des réacteurs de recherche, la meilleure voie pour assurer la compétitivité du vieux continent dans les technologies nucléaires, garantir la sécurité énergétique et l’efficacité de la médecine nucléaire. Infos: http://www.snetp.eu 8 SANTÉ Tout bon pour le cœur ! N ous savons tous qu’il a y a le mauvais cholestérol, dit LDL, et le bon cholestérol (HDL), celui dont plus sa concentration est importante, moins il y a de risques de développer de maladies cardiovasculaires. Dès lors, la question est: comment pallier les carences en bon cholestérol ? Jusqu’à ce jour, le seul moyen d’en accroître la concentration est un traitement à base d’acide nicotinique. Une «médecine» pas tout à fait miraculeuse, compte tenu de ses effets secondaires marqués par un rougissement de la peau du visage et de la partie supérieure du torse du patient ainsi que de sensations de chaleur et de brûlure comparable au coup de soleil. Bref, s’il n’est absolu- ment pas dangereux pour la peau, ce traitement dissuade rapidement la plupart des patients ! Julien Hanson, chercheur en chimie pharmaceutique au département de pharmacie de l’Université de Liège (ULg) a profité d’un séjour post doctoral à l’Université de Heidelberg, puis au Max Planck Institute for Heart and Lung Research en Allemagne, pour s’attaquer à la compréhension des mécanismes à l’origine de ce rougissement. Partant du principe déjà connu que l’effet bénéfique de l’acide nicotinique est un récepteur présent dans le corps, Julien Hanson et son équipe ont développé des tests sur des souris en vue d’appréhender l’origine de l’effet indésirable. Lors de ces travaux, les chercheurs ont neutralisé le gène de ce récepteur et ont conclu que celui-ci était également à l’origine du phénomène de rougissement. «Ce récepteur est présent dans deux types de cellules: les keratinocytes, présents dans la couche superficielle de la peau - l’épiderme -, et les cellules de Langerhans, qui jouent un rôle immunologique et sont aussi présentes dans l’épiderme», explique Julien Hanson. Ces travaux ont montré que l’activation des cellules de Langerhans provoquait le rougissement dans un premier temps puis, dans une phase plus longue, l’activation des keratinocytes. «Ces deux étapes étaient accompagnées de la formation de deux types de prostaglandines, dont la formation se révèle être la cause directe de l’effet non désiré. Il nous est donc possible de parer au rougissement en accompagnant la prise d’acide nicotinique d’un inhibiteur de la formation des prostaglandines ou en bloquant les récepteurs de chaque prostaglandine incriminée dans la peau. Dans les deux cas, cela n’altère en rien les effets bénéfiques du traitement sur le métabolisme lipidique», conclut Julien Hanson. Aussi, plusieurs firmes pharmaceutiques se sont-elles déjà lancées dans la réalisation de médicaments empêchant ce rougissement. Les résultats de ces travaux ont fait l’objet d’une publication dans The Journal of clinical investigation. Infos: [email protected] et http://www.jci.org Jean-Claude QUINTART · ACTUALITÉS EMPLOI & FORMATION DATE À RETENIR À Mons en 2013 B Langues bien pendues G lobalisation économique, partenariats, collaborations, Internet, bouquets TV, voyages d’affaires ou de plaisir, être multilingue aujourd’hui n’est plus un luxe, mais presqu’une nécessité ! Et pourtant, trouver la bonne porte pour pallier Babel relève du miracle. Jusqu’à ce jour du moins, car la Vrij Universiteit Brussels (VUB) et l’Université libre de Bruxelles (ULB) ont créé la Brussels University Alliance, un label commun pour des formations multilingues. Au top ! Objectif ? Attirer étudiants et professeurs internationaux à travers une offre élargie de programmes principalement en anglais, voire multilingues. Première étape, dès la rentrée 201112, une offre de masters en anglais commune aux facultés de sciences appliquées (ULB) et ingenieurswetenschappen (VUB) dans le cadre du Bruface (Brussels Faculty of Engineering). D’autres projets étofferont cette initiative de bon aloi. Infos: http://www.vub.be et http://www.ulb.ac.be management international en deuxième place mondiale. e Financial Times (FT), dont on connaît la rigueur, vient de classer la Louvain School of Management (LSM) à la première place de son hit parade des écoles de gestion belges ! Une récompense obtenue par la qualité du programme ingénieur de gestion dispensé à Louvain-la-Neuve. Qualité des cours, ouverture à l’international, satisfaction des alumni, rémunérations obtenues par les diplômés, qualité/coûts des programmes ont retenu l’attention du célèbre quotidien. Cette première met la LSM dans le top 20 des meilleures écoles de gestion au niveau mondial et place son Master en Infos: http://www.uclouvain.be/lsm L onne nouvelle pour la Wallonie qui accueillera, en août 2013, la conférence internationale Atomic Spectra and Oscillator Strenghts for Astrophysical and Laboratory Plasmas. Organisée tous les trois ans alternativement en Amérique du Nord et en Europe, cette conférence réunit un aréopage international formé des meilleurs spécialistes de la physique atomique, travaillant dans des domaines aussi variés que la spectroscopie de laboratoire, l’astrophysique, la fusion nucléaire contrôlée, la physique des plasmas, etc. Après l’Université de Berkley (Californie) cette année, c’est donc l’Université de Mons (UMons) qui organisera la prochaine édition, par l’intermédiaire de son service d’astrophysique et de spectrométrie. Au-delà de l’organisation de cet événement international et de l’honneur qui lui est fait, l’Université montoise ne pourra que bénéficier de retombées scientifiques extraordinaires ! Infos : [email protected] À partir du 20/01/2011: 9e édition de la formation continue en gestion de l’innovation. Infos & inscriptions: [email protected] http://www.louvaininnovation.be 9 ATHENA 265 · Novembre 2010 > ÉVÉNEMENT Durant 3 jours, des centaines d’écoliers ont pu découvrir les enjeux des carburants du futur, le tout sur un lieu exceptionnel et avec en apothéose, une soirée animée par Fred & Jamy ! Quand de jeunes Wallons 10 carburent au futur Texte: Jean-Luc LÉONARD · [email protected] · Photos: C. CORTIER Jean-Luc LÉONARD · ÉVÉNEMENT Des centaines de jeunes ont «carburé au futur», les 6, 7 et 8 octobre derniers, sur la base aérienne de Florennes. C’est en effet le 2e Wing qui accueillait des élèves de classes primaires (10-12 ans) et secondaires (15-18 ans) des provinces de Hainaut, Namur et Brabant wallon, à l’invitation de la DG06 du Service public de Wallonie. Objectif de cette manifestation bisannuelle: sensibiliser les jeunes à la recherche scientifique et technologique C omme c’est désormais une coutume, l’opération s’est clôturée au soir du vendredi 8 octobre par une animation menée sur les chapeaux de roue par Fred et Jamy, de l’émission télé «C’est pas sorcier». À l’issue de cette performance, le colonel Luc Gennart, commandant du 2e Wing Tactique et Michel Van Cromphaut, organisateur de l’événement pour la DG06, pouvaient se congratuler chaleureusement. C’était une belle réussite, organisée avec une précision militaire, sans le moindre accroc. Le nombreux public, rassemblé sur les gradins montés dans le vaste hangar qui sert d’ordinaire à l’entretien des chasseurs-bombardiers F-16, a vu défiler, sur le tarmac et sur écran géant, quelques contributions wallonnes aux énergies du futur. Il y avait, pêle-mêle, l’avion Solar Impulse qui n’aurait jamais pu voler sans les chimistes de Solvay; un kart électrique du campus automobile de Spa, un étrange véhicule solaire d’Umicore, une voiture mue par une pile à combustible, un bus du TEC qui roule au bioéthanol, une voiture hybride et bien sûr, un F-16... Lequel, il faut l’avouer, n’est pas vraiment le moyen de transport le plus vert puisqu’il brûle la bagatelle de 3.000 litres de kérosène à l’heure mais n’en reste pas moins un exceptionnel bijou technologique (Voir Athena n° 264, pp. 14-17). Avant cette instructif divertissement, les classes inscrites à «Je carbure au futur» avaient participé à des ateliers d’initiation scientifique pour les élèves du primaire et à des rencontres sur le thème des technologies et métiers pour leurs aînés du secondaire. De belles promesses... Parmi les nouvelles technologies présentées aux jeunes, on peut citer celles de Materia Nova, le centre de recherche montois, qui a récemment fusionné avec le laboratoire Natiss de Ghislenghien. Parmi les nombreux domaines d’expertise de ce centre, représenté à Florennes par Karl Berlier, directeur des projets, il y a le développement de biopolymères. Les recherches menées dans ce domaine ont amené Materia Nova à participer au développement de la première usine prototype de production de PLA (polylactide, un plastique biodégradable à base de sucre) en Europe par un partenariat de Total Pétrochemicals et du groupe Galactic. Soutenue par la Région wallonne au titre du plan Marshall, cette usine-pilote, baptisée Futerro (http://www.futerro.com), est installée sur le site de l’ancienne sucrerie d’Escanaffles. Elle représente un investissement de 30 millions d’euros et produit depuis le printemps de cette année, des bioplastiques comparables en qualité et en prix aux produits classiques à base de pétrole. Au-delà du secteur de l’emballage, l’acide polylactique entre aussi dans la composition de pièces automobiles, de tissus, de nanocomposites et de nanoparticules qui devraient doter bientôt certains matériaux de propriétés performantes. Autre participant aux ateliers technologiques de Florennes, la firme liégeoise Green Propulsion, que les lecteurs d’Athena connaissent bien, qui a construit en 10 ans une quinzaine de prototypes de véhicules novateur mus par des biocarburants, des piles à combustible ou encore, des moteurs hybrides électriques ou électriques purs. Gilles Philippart de Foy, Project Manager, précise que le business principal de la société est de produire des prototypes de motorisation sur mesure. Il peut s’agir aussi bien d’un petit go-kart électrique capable d’atteindre les 100 km/h en 2,5 secondes que d’une benne-poubelle à moteur hybride. Le projet le plus ambitieux de la spin-off de l’ULg est l’Impéria, qui devrait commencer à sortir de la chaîne d’assemblage à la fin de l’an prochain. Impéria (http://www. imperia-auto.be) est une ancienne société pionnière de l’automobile, ressuscitée en 2008 pour produire une voiture hybride essence/électrique de luxe, capable de respecter la norme sévère de 50 g de CO2 par km tout en permettant une accélération de 0 à 100 km/h en 4 secondes et le kilomètre départ arrêté en 22,5 secondes. Ce petit bijou de puissance (136 cv) et d’écologie (consommation: 1,9 l d’essence + 11,5 kWh électriques aux 100 km) coûtera tout de même à l’achat quelque 90.000 euros. Il sera produit par une usine distincte de Green Propulsion, dont la première pierre a été posée en août dernier au parc scientifique du Sart Tilman. 11 ATHENA 265 · Novembre 2010 > ÉVÉNEMENT 2 3 1 12 1. Le Ministre Jean-Marc Nollet a fait une entrée triomphante en Segway. 2. Un prototype de kart fonctionnant à l’hydrogène, proposé par le campus automobile de Spa-Francorchamp. 3. La soirée avait lieu dans un hangar de la base aérienne de Florennes. 4. Une voiture hybride, fonctionnant à l’électricité et au diesel. ... Mais aussi d’amères déceptions Mais tout n’est pas rose - car les roses ont des épines - au pays des énergies du futur. Si des succès notables sont déjà établis, certains ont encore à tenir leurs promesses dans la vie réelle tandis que d’autres encore sont voués à l’échec. Ni Fred et Jamy, ni les animateurs technologiques invités à communiquer avec les jeunes à la base de Florennes n’ont caché le revers de la médaille. Il y a des filières du futur dont on sait déjà qu’elles auront quelque difficulté à prospérer, du moins dans l’état actuel de leur développement. Par exemple, le gros handicap des voitures électriques pures est leur autonomie limitée, le prix encore très élevé des batteries lithium- 4 polymères et, dans la plupart des cas, un temps de recharge trop long. Chères à l’achat, elles sont cependant très économiques à l’usage, puisque la plupart des constructeurs situent leur coût d’utilisation entre 1 et 2 euros aux 100 km. Leur silence et leur caractère nonpolluant en feront sans doute - quand la fabrication en série aura atteint un niveau réellement commercial - la voiture idéale des parcours urbains et des courts trajets. Les biocarburants ont par contre un futur plus incertain. Tant qu’ils entrent en faible proportion dans les carburants classiques, ils contribuent à réduire quelque peu leur bilan carbonique et la dépendance de notre parc automobile vis-à-vis du pétrole. Mais en utilisation exclusive, ils posent des problèmes. Le TEC de Namur-Luxembourg teste depuis l’an dernier trois autobus construits en série en Suède et roulant au bioéthanol; et l’on sait déjà que cette expérience sera sans lendemain. Censés réduire les émissions CO2, ces bus cumulent en effet un lourd passif d’inconvénients. Le premier est d’ordre éthique: les biocarburants de première génération sont fabriqués à base de produits agricoles et entrent donc en concurrence avec les applications alimentaires. Affamer des gens sous prétexte de sauver la planète n’est pas très indiqué. Outre qu’ils coûtent nettement plus cher à l’achat qu’un véhicule classique au diesel, les bus au bioéthanol sont aussi d’une utilisation plus onéreuse. Ainsi, les chauffeurs doivent recevoir une formation spéciale et l’entretien ne peut se faire que sur fosse ventilée, parce que l’éthanol est plus lourd que l’air et qu’une fuite éventuelle mettrait le personnel en danger. Les injecteurs de carburant doivent être démontés tous les 5.000 km et la culasse remplacée tous les 15.000 km. Enfin, argument décisif: le prix de l’éthanol (produit par Biowanze) est de 1,30 euro/l et la consommation des bus expérimentaux est proche de 100 l au km, soit plus du double des bus classiques au diesel. Il paraît d’ores et déjà certain que ces bus seront reconvertis au diesel à la fin de l’expérience. Un autre essai non concluant avait déjà été réalisé au TEC Charleroi, où des véhicules roulant au gaz naturel se sont révélés très polluants et d’une fiabilité douteuse. Quand on sait que les 360 bus du TEC NamurLuxembourg couvrent 15,5 millions de km par an, qu’ils consomment en moyenne un peu plus de 41 l aux 100 et qu’un bus parcourra quelque 1,5 million de km tout au long de sa «vie active», on comprend que les arguments économiques auront toujours le dernier mot. Écologie et économie doivent se conjuguer... Michel WAUTELET · TECHNOLOGIE Le salar d’Uyuni, en Bolivie, le plus grand désert de sel de la planète contient le tiers des réserves mondiales connues de sels de Lithium. Cherche matériaux rares ... ... pour technologies gourmandes Texte: Michel WAUTELET • [email protected] • Photos: L. GALUZZI (p.16), MARSHMAN (p.18) Selon une idée bien ancrée dans notre société, notre développement dépend du progrès technologique, qui dépend de mesures incitatives, économiques et politiques. On oublie que le progrès fait partie d’un tout, dont on ne doit pas sous-estimer le poids des parties, comme celui de la disponibilité «géologique» des matériaux. Tout ce que nous utilisons dans notre vie quotidienne est fait de matériaux tirés de notre Terre, souvent disponibles en quantités limitées. Et nombre de technologies, actuelles et futures, ont et auront besoin de matériaux qui risquent de s’épuiser bientôt. Selon plusieurs experts, les stocks de certains métaux apparaissent insuffisants pour fournir le niveau de vie du monde développé moderne à toute l’humanité, avec les technologies contemporaines. Même la révolution «verte» réclamée par certains aura besoin de matériaux aux réserves incertaines. Notre futur est-il menacé par une pénurie de ressources minérales importantes ? D ans notre société techno logique, certains oublient facilement que nous sommes sur Terre et que son volume n’est pas infini. La récente crise pétrolière a rappelé que les réserves sont limitées. Or, TOUS les objets de notre quotidien sont faits de matériaux extraits de notre Terre, souvent transformés physiquement ou chimiquement. Pendant des millénaires, les hommes ont utilisé ce que la nature mettait directement à leur disposition. Aujourd’hui, à côté du fer et du cuivre, ce sont nombre d’autres minéraux qui sont extraits chaque année. Comme indiqué dans le tableau 1 (p. 14), les tonnages extraits annuellement sont très variables, de 500 millions de tonnes pour le fer à 200 tonnes pour le platine. Les technologies de l’information et de la communication (TIC) en contiennent beaucoup. Les équipements électroniques actuels consomment 3% de l’or et de l’argent récoltés chaque année, 13% du palladium et 15% du cobalt. Et cela ne fait que croître. De nombreuses technologies du futur (comme les transports), voire les technologies «vertes», feront appel à des ressources dont le volume disponible n’est pas actuellement certain, comme le platine des piles à combustible, le lithium des batteries, les terres rares des TIC et des éoliennes. Sans oublier le fait que, nous, européens, sommes très dépendants de l’extérieur pour la fourniture de matériaux stratégiques, comme repris dans le tableau 1 (p. 14). Des réserves incertaines et limitées Face à une utilisation de plus en plus intensive de certains éléments dans les technologies actuelles et futures, la question des réserves disponibles se pose à nous. Elles sont généralement estimées en années. Si «R» sont les réserves connues actuelles (en tonnes), utilisées au taux de production actuel (en tonnes par an), «P», alors les réserves en années sont données par «R/P» années. Il s’agit donc d’une estimation qui varie avec le temps. 13 ATHENA 265 · Novembre 2010 > TECHNOLOGIE Pépite de platine natif, provenant de la mine Konder, Kraï de Khabarovsk (Russie). Taille: 35 × 23 × 14 mm, masse: 112g La Renault Scenic ZEV H2 (Renault - Nissan) utilisant une pile à combustible hydrogène. Le problème subsiste le volume des équipements par rapport à l’espace disponible. 14 Estimer les réserves n’est pas chose facile. Le plus souvent, les données sont considérées comme stratégiques par les entreprises minières intéressées et ne sont donc pas révélées. Les gouvernements et les chercheurs commencent seulement à se rendre compte de l’importance de ces données pour notre futur. Les réserves de matériaux «stratégiques», estimées par divers chercheurs, sont données dans le tableau 2 (p. 15). Ces estimations des réserves ne sont pas à prendre au pied de la lettre. Il ne faut pas en conclure qu’après R/P années, il n’y aura plus de matériau donné. De Tableau 1. Quantité d’éléments extraits annuellement et dépendance de l’UE Elément Ag Al Au Co Cr Cu Fe Mg Mn Mo Nb Ni Pb Pd Pt Rh Sb Sn Terres rares Ta Ti V W Zn Zr Tonnages extraits annuellement 15.000 20.000.000 2.500 40.000 4.000.000 10.000.000 500.000.000 350.000 8.000.000 150.000 20.000 1.000.000 3.000.000 130 200 60 100.000 200.000 80.000 500 70.000 35.000 7.000.000 5.000 Dépendance de l’UE (1997) 82% 100% 50% 78% 82% 100% 100% 100% 56% 100% 100% 100% 100% 100% 100% 100% 48% 82% ouvelles découvertes sont possibles, des n usages plus rationnels sont souvent envisageables. Certains éléments peuvent disparaître de certains usages, comme le plomb qui, nécessaire dans l’essence il y a quelques décennies, a aujourd’hui disparu de nos réservoirs. Quoiqu’il en soit, de nombreux géologues pensent qu’il n’y a pas assez de ressources minérales sur Terre pour continuer encore longtemps à nous développer. Dans certains cas, il est même probable que nous devions abandonner certaines technologies, par manque de matériau disponible. Un exemple interpellant concerne le cas du gallium (Ga). Avec l’indium (In) et l’arsenic (As), il est utilisé pour fabriquer le semiconducteur InGaAs, à la base d’une nouvelle génération de cellules photovoltaïques, avec un rendement double de celui du silicium (Si). Selon certaines études, les réserves connues actuellement de Ga et In ne permettront guère que de remplacer 1% des cellules solaires au Si. Ce type de cellules ne contribuera alors pas de manière substantielle à la fourniture d’électricité solaire. Même si tout le monde n’est pas aussi catégorique, les incertitudes sont telles qu’il faut au moins tenir compte de l’argument. Prenons le cas du platine (Pt). Il est présent dans les pots catalytiques des voi- Michel WAUTELET · TECHNOLOGIE tures et est un élément clé des piles à combustible (PAC) des futures (?) voitures à hydrogène. Les réserves sont importantes (360 ans) si nous continuons à l’exploiter comme aujourd’hui. Mais si le parc automobile mondial actuel était équipé de PAC, il pourrait être épuisé en 15 ans. Un problème est qu’aujourd’hui, le platine usé n’est pas recyclé. Des réserves inégalement réparties La majorité du Pt (88%) est produite dans deux mines d’Afrique du Sud, alors que la plupart du reste (8%) provient d’une seule autre mine en Russie. Et le taux de production n’est pas infini (environ 200 tonnes par an). Dès lors, si tout le Pt servait dans les PAC des voitures, il n’y en aurait que pour équiper deux millions de voitures, soit bien moins que les 700 millions de véhicules prévus en 2028. Le fait que les réserves soient localisées géographiquement ne devrait pas manquer d’interpeller les responsables industriels et politiques. Un autre cas flagrant est celui des terres rares (au sens du tableau de Mendeleev). Ces éléments sont la clé des TIC et de certaines technologies «vertes». Ils sont dans les iPods, Blackberrys, écrans plasma, etc. Une terre rare, le néodyme (Nd), est un élément clé des aimants présents dans les turbines des éoliennes. Dans les années 1970 et 1980, le principal producteur de terres rares était les USA. Aujourd’hui, 97% proviennent de Chine, qui a récemment pris le contrôle de mines au Brésil et en Australie, éliminant ainsi des concurrents majeurs. Selon certains analystes, sa stratégie est claire: rendre le monde dépendant, comme les pays de l’OPEP l’ont fait avec le pétrole. De plus, leurs exportations de terres rares diminuent. De 60.000 tonnes en 2002, elles sont descendues à 45.000 tonnes en 2008. Il ne faut pas être grand clerc pour imaginer les conséquences d’une crise commerciale avec la Chine sur les technologies occidentales. Notamment lorsque l’on sait que, par exemple, les USA importent 90% de leurs terres rares de Chine. Un autre exemple concerne le lithium (Li), élément de base des batteries des véhicules électriques en cours de développement. Très abondant sur Terre, il n’existe en concentration suffisante pour une exploitation rentable qu’en peu d’endroits. Les principaux gisements sont situés en Amérique du Sud (Bolivie, Chili, Argentine), au Tibet, ainsi qu’en Russie, en Australie et aux USA. Le plus grand gisement actuel est situé au sud-ouest de la Bolivie et représente un tiers des réserves mondiales. Il y a actuellement une dispute entre experts sur l’estimation des réserves utiles. Selon le cabinet Meridian International Research, elles seraient insuffisantes pour une utilisation massive dans les batteries des véhicules. Leur raisonnement est basé sur une analyse de la composition chimique des sites exploitables, de leur disponibilité et du coût d’extrac- tion. Selon d’autres, le quart des réserves mondiales de base serait suffisant pour équiper un milliard de véhicules à l’horizon 2025. Quoiqu’il en soit, il est évident que l’Amérique du Sud et la Chine risquent de devenir bientôt des régions incontournables pour l’industrie automobile mondiale. Certains industriels l’ont bien compris. Ainsi, les gisements boliviens et argentins intéressent le groupe français Bolloré, très actif dans le développement des voitures électriques. Et c’est une compagnie allemande, Chemettall, qui est l’opérateur principal des gisements du Chili, premier exportateur mondial. Tous les éléments chimiques ne sont pas appelés à être de plus en plus utilisés. Ainsi, le fer est-il en régression dans les pays développés, comme les USA. Selon Tom Graedel, de l’université de Yale (USA), la consommation par habitant décroît depuis les années 1980 aux USA. Selon lui, «cela suggère qu’il y a suffisamment de ponts, de bâtiments, de véhicules pour les besoins d’une société développée comme la nôtre». Reste à étudier si la situation est la même dans les autres pays développés. Cette diminution n’est évidemment pas valable pour tous les éléments. Ainsi, la demande de cuivre croît toujours et ne montre aucun signe de tassement. Tableau 2. Réserves mondiales et utilisations de quelques éléments chimiques technologiquement importants Elément Aluminium (Al) Arsenic (As) Antimoine (Sb) Argent (Ag) Cadmium (Cd) Chrome (Cr) Cuivre (Cu) Etain (Sn) Gallium (Ga) Germanium (Ge) Hafnium (Hf) Indium (In) Nickel (Ni) Or (Au) Phosphore (P) Platine (Pt) Plomb (Pb) Sélénium (Se) Tantale (Ta) Thallium (Tl) Terbium (Tb) Uranium (U) Zinc (Zn) Réserves estimées en 2008 (années)* 1027 20 30 29 70 143 61 40 5-8 5 20 13 90 45 345 360 42 120 116 65 15 59 46 % de matériau recyclé dans la consommation ** 49 Non connu 16 25 31 26 0 35 Non connu 0 35 43 0 0 72 20 0 26 Utilisations Transports, TIC, emballages Electronique, photovoltaïque Pharmacie, catalyse Bijouterie, catalyse Batteries NiCd Revêtements Conducteurs électriques, monnaie Cannettes, soudure, écrans plats Electronique, photovoltaïque, ... Electronique, photovoltaïque Electronique, nucléaire Photovoltaïque, LEDs Batteries, turbines Bijouterie, électronique Agriculture Bijouterie, catalyse, pots catalytiques, piles à combustible Batteries Electronique, photovoltaïque GSM, caméras Réactifs organiques Lampes « économiques » Nucléaire Galvanisation 15 ATHENA 265 · Novembre 2010 + > TECHNOLOGIE Des solutions diverses Plus d’infos: Tableau 1: adapté de www.encyclopedie-dd.org Face aux risques de pénuries de matériaux majeurs pour notre survie «technologique», ainsi que notre forte dépendance vis-à-vis des pays hors UE, la réaction des divers acteurs est nécessaire. À tous les stades de la vie des matériaux, des mesures doivent être prises, depuis l’extraction jusqu’aux utilisateurs finaux (nous). Tableau 2: d’après * C. Rhodes, Chemistry and Industry, August 25, 2008 ; ** D. Cohen, New Scientist, 2605 (23 mai 2007)) Le premier stade de la vie technologique d’un matériau est son extraction. Les déchets de nombreuses mines contiennent des quantités non négligeables de minéraux intéressants. Les extraire ou pas est souvent une question de coût économique et énergétique. Comme certains le disent, on peut aller chercher des matériaux précieux sur la Lune, mais le jeu en vaut-il la chandelle ? Cela risque de ne jamais être rentable. Avec la diminution des réserves, de nouvelles méthodes d’extraction deviennent rentables. Certains vont même plus loin. Ainsi, des chercheurs de l’université de Birmingham (GB), Prichard et Macaskie, ont trouvé que le platine est présent à des concentrations de 1,5 ppm (parties par million) dans la poussière des bords des routes. Ils étudient un procédé à base de bactéries pour extraire le platine de la poussière. 1. Les déchets électroniques contiennent 17 métaux différents, dont 7 métaux précieux. 2. Mine de cuivre à ciel ouvert, Chino Copper Mine, NouveauMexique, États-Unis. 16 1 Une partie plus ou moins importante du coût de l’extraction est liée à celui de l’énergie, souvent le pétrole. Il n’est pas 2 exclu que, dans certains cas, le coût du pétrole soit le facteur qui déterminera la disponibilité réelle de minerais. L’étape suivante concerne la fabrication des produits manufacturés. Ici, deux voies principales existent. La première consiste à remplacer les éléments par des matériaux moins chers, comme remplacer le cuivre des canalisations par des plastiques. De nombreuses recherches étudient aussi des alternatives au Pt dans les PAC. Il ne se passe guère de mois sans que quelqu’un annonce avoir trouvé une alternative. Jusqu’ici, on n’en est qu’à l’étape de la recherche et des promesses. Il faut encore démontrer que la technologie permet une durée de vie suffisante des PAC. D’où des années de travaux entre l’annonce dans les médias et la mise en pratique. L’autre voie consiste à mettre au point des procédés employant les matériaux en quantités moins importantes pour le même effet. Par exemple, on pourrait utiliser le Pt sous forme de nanoparticules. En effet, dans les PAC, l’action catalytique du Pt se passe à la couche atomique superficielle, qui contient très peu d’atomes par rapport au matériau employé. Dans les nanoparticules, à quantité de matière égale, le nombre d’atomes en surface est beaucoup plus grand que dans la matière ordinaire (voir encart p. 17). La mise au point de tels procédés nanotechnologiques permettrait de diminuer considérablement la demande de Pt pour les PAC. Ce qui aurait pour conséquence un accroissement considérable des réserves Michel WAUTELET · TECHNOLOGIE Les Nano particules (en années) et une demande moindre, d’où des prix moindres. Ce serait un bénéfice pour tous. Dans certaines applications, toutes les parties ne vieillissent pas de la même manière. C’est le cas bien connu des automobiles, ordinateurs, etc. Prévoir des procédés avec des pièces aisément détachables et réutilisables sur de nouveaux objets est, de plus en plus, considéré comme vital. Une autre manière d’économiser les matériaux est du ressort du consom mateur: utiliser moins et plus efficacement les technologies. Ainsi, aujourd’hui, la durée de vie des GSM, ipod, etc. est de quelques années. Et ce, alors que les objets fonctionnent encore très bien. Il y a là de quoi conscientiser le consommateur à un usage plus réfléchi des technologies modernes. Et une fois un appareil devenu obsolète, pourquoi ne pas le donner à un organisme de «seconde main», qui le réparera et lui donnera une seconde vie. Reste enfin le recyclage des matériaux. Les pourcentages de matériaux recyclés dans la consommation totale actuelle sont donnés dans le tableau 2 (p. 15). Alors que l’aluminium et l’or sont presque pour moitié des éléments recyclés, il n’y en a pas pour le platine, le gallium et l’indium. Cela s’explique principalement par la difficulté du recyclage. Dans une puce électronique, il y a du gallium et de l’indium en si faibles quantités que les recycler se ferait à un prix prohibitif. Cela ne signifie pas que cela ne soit pas rentable pour certains. À Hoboken, près d’Anvers, se trouve la plus importante installation au monde pour la récupération de métaux précieux à partir de déchets électroniques. Chaque année, ce sont près de 30.000 tonnes de déchets électriques et électroniques qui passent par cette usine, propriété de la société Umicore, qui en extrait 17 métaux différents, dont 7 précieux. À titre indicatif, on peut extraire 1 kg d’or et 10 kg d’argent à partir de 50.000 GSM. Dans certains cas, le recyclage est un fait incontournable. Par exemple, aujourd’hui, 72% du plomb utilisé dans les batteries et autres est du plomb recyclé. S’il ne l’était pas, nous n’en aurions tout simplement pas assez pour équiper nos voitures ! Il en est de même avec le nickel des actuelles batteries des voitures hybrides. Il en sera vraisemblablement ainsi avec le lithium des batteries des futures voitures électriques. D’autant plus qu’avec un taux de recyclage potentiel annoncé de 98%, le recyclage du Li serait économiquement très rentable. Le fait que le recyclage ait lieu chez nous devrait aussi, à terme, diminuer considérablement notre dépendance vis-àvis des pays producteurs. Des matériaux divers entrent dans la composition de tous les objets de notre société. Même les technologies vertes dépendent de matériaux aux réserves incertaines. Les économiser est une nécessité. Diverses voies existent, qui impliquent les industriels, mais aussi notre mode de consommation. Autant savoir ! L es nanoparticules sont des particules ou grains dont la dimension est de quelques nanomètres (nm) à quelques centaines de nm (1 nm = un millardième de mètre = un millionième de millimètre). Prenons une poudre de masse déterminée (par exemple un gramme). Plus les particules dont la poudre est constituée sont petites, plus la somme des aires des surfaces des particules est importante. L’aire spécifique (aire par unité de masse) peut être très grande. Ainsi, si une poudre de platine est constituée de nanoparticules sphériques de rayon égal à 10 nm, l’aire spécifique sera de 13 m2/g. Ceci est important lorsque les processus se passent à la surface des particules, comme la catalyse hétérogène (dans les PAC) ou l’absorption de gaz (masques à gaz). 17 ATHENA 265 · Novembre 2010 > PORTRAIT L’ADN de... Propos recueillis par Géraldine TRAN • [email protected] Photos: BSIP/REPORTERS (fond) Côté pile Nom: ROLLET Prénom: Maxime Âge: 32 ans État civil: Célibataire (en couple) Enfants: 1, une fille Profession: Programmeur et concepteur de jeux vidéo 18 Formation: Bac STI génie mécanique au Lycée Carnot de Roanne (France), puis un BTS en informatique industrielle au Lycée Édouard Branly de Lyon (France). Adresse(s): Fishing Cactus Parc Initialis Rue Descartes, 1 7000 Mons Tél.: 065/22.58.86 [email protected] Créateur de jeux vidéo, c’est une vocation que vous avez depuis tout petit ? Comment l’idée vous est-elle venue, l’envie de faire de votre passion, votre vie ? À l’école je programmais des jeux sur les calculatrices de mes camarades de classe, ils m’ont poussé à franchir le cap et à découvrir la programmation sur PC. J’ai monté ma première machine avec leurs vieilles pièces, en échange d’un jeu de rôle que je devais leur programmer (et que je n’ai jamais terminé d’ailleurs !). La passion était née ! C’est bien entendu une passion qui se découvre avec l’âge mais je pense qu’il faut être au départ quelqu’un qui joue beaucoup (et pas uniquement aux jeux vidéos). Comment devient-on programmeur de jeu vidéo? J’ai étudié à Lyon, en France, un Bac technologique (automatisme,... ) d’abord puis ensuite un BTS en informatique industrielle. Les formations pour le jeu vidéo n’existaient pas encore lorsque j’étudiais. Ensuite j’ai eu la chance de travailler dans ce milieu dès la fin de mes études car la région offrait beaucoup d’offres d’emplois (Infogrames, Eden Studio,... ). Il s’agit encore d’un métier qui s’acquiert principalement avec l’expérience sur le terrain. Quels sont vos rapports avec la science et les techniques ? Quels sont vos premiers souvenirs «technologicoscientifiques» ? J’étais très attiré par les robots étant enfant. Je rêvais de concevoir un «Transformers» réel, mais je me contentais de dessiner des plans par faute de connaissance et de matériel. Maintenant avec l’âge et les moyens, je m’y remets doucement. Quelle est la plus grande difficulté rencontrée dans l’exercice de votre métier ? Le nombre d’heures parfois irréalistes qu’il faut faire pour boucler un projet. Les dates de livraison sont vitales dans notre métier si on veut sortir un produit pendant les bons créneaux (Noël,...). Cela crée une fatigue qui à la longue, peut être difficile à gérer. Par contre les challenges techniques ne me font pas peur et créent souvent l’excitation. Quelle est votre plus grande réussite professionnelle jusqu’à ce jour ? Le démarrage de Fishing Cactus ! Même si je suis moins impliqué que les autres fondateurs dans la phase de création de l’entreprise, c’est une grande fierté pour moi. Vous planchez actuellement sur plusieurs projets pour l’iPhone et le Serious Gaming. Quelles sont les grandes étapes dans la création d’un jeu vidéo ? Il y a d’abord la phase de conception du jeu par les Game Designers. Ensuite l’équipe technique réalise le programme du jeu pendant que les artistes créent les ressources graphiques et sonores du jeu (3D/2D). Les game designers ainsi que les programmeurs font l’assemblage des deux parties. Ensuite c’est la phase de test et de correction du programme, avant l’envoi en validation du jeu par les fabricants (Nintendo, Apple,...). Les Serious Games ont moins de contraintes d’un point de vue fabricant puisqu’ils sont destinés principalement aux entreprises. Par contre le programme doit absolument remplir les besoins du client qui, dans ce domaine, s’avèrent très spécifiques. Géraldine TRAN · PORTRAIT Maxime ROLLET Côté face Lorsqu’on dit «jeu vidéo», on pense directement au côté ludique mais c’est aussi devenu un outil de plus en plus utilisé de manière «scientifique» (dans le milieu médical, l’armée,…). Quels sont vos projets à ce niveau-là ? Nous travaillons actuellement sur un Serious Game médical pour les personnes handicapées ou qui ont besoin de rééducation suite à une maladie (Alzheimer) ou accident par exemple (on parle de cérébrolésés). Le jeu utilise le Microsoft Kinect - une camera 3D qui se branche sur la Xbox 360 - et qui détecte les mouvements du joueur, pas besoin d’une manette, ni d’un clavier. Fishing Cactus, en collaboration avec le Microsoft Innovation Center, est un des rares studios de jeu dans le monde à faire cela dans ce domaine d’activité. Pour parler plus concrètement du projet: sur les conseils de son médecin, le patient doit réaliser diverses actions dans le programme qui mélangent jeux et exercices de mobilité dans une maison virtuelle. On est donc loin d’un projet purement ludique malgré l’utilisation des techniques du jeu vidéo. Celles-ci nous permettent de proposer des solutions innovantes et intéressantes pour le monde professionnel. Quels conseils donneriez-vous à un jeune qui aurait envie de suivre vos traces ? Maîtriser l’anglais est très important. Pour les programmeurs, de solides bases de programmation en C++ sont nécessaires. Mais suivre une filière scolaire spécialisée est désormais un avantage pour débuter une carrière. Je vous offre une vie parallèle, quel métier choisiriez-vous ? Joueur de football professionnel, ou membre des Rolling Stones ! Pas très original... Je vous offre un super pouvoir, ce serait lequel et qu’en feriez-vous ? Voyager dans le temps, pour voir si l’Homme rencontre un jour des extraterrestres et enfin savoir qui a vraiment construit la pyramide de Ramsès II! Je vous offre un auditoire, quel cours donneriez-vous ? La programmation pour le jeu vidéo. On organise d’ailleurs très bientôt une session de formation généraliste incluant une initiation à la programmation à la Technocité de Mons. Je vous offre un laboratoire, vous plancheriez sur quoi en priorité ? Les exo-squelettes et la robotique en général. Je vous transforme en un objet, ce serait lequel et pourquoi ? Un vaisseau spatial pour explorer l’Univers, voir de quoi regorge le monde. + Plus d’infos: http://www.fishingcactus.com/ http://blog.fishingcactus.com http://www.infographie-sup.be (Haute école Albert Jacquard de Namur) http://www.technocite.be (Centre de compétence de Hornu) 19 ATHENA 265 · Novembre 2010 > SOCIÉTÉ Malgré son âge avancé, ce bon vieux Frankenstein reste toujours aussi fringuant ! Le mythe du savant fou et plus généralement les peurs liées aux avancées scientifiques, sont en effet plus que jamais à la mode. Il suffit d’observer les craintes suscitées par les OGM, les nanotechno logies ou encore les ondes, pour se demander si les polémiques ne tournent pas parfois à la psychose collective. Face à ces critiques, de nombreux acteurs de la recherche scientifique prônent une communication accrue des sciences 20 Le périlleux exercice de la communication Texte :Patrick VEILLARD [email protected] D ’après eux, il faut «alphabétiser» les citoyens aux sciences, selon l’axiome «to know me is to love me». La diffusion et la vulgarisation des sciences seraient ainsi des activités essentielles pour rétablir la confiance du grand public. Elles seraient également un préalable essentiel à l’instauration d’un vrai dialogue entre les acteurs de la recherche et les citoyens consommateurs de technologie. Au delà de son aspect contestable, ce postulat soulève une question sous-jacente: qui doit s’occuper de la communication? Est-ce le travail des journalistes ou bien celui des scientifiques eux-mêmes ? Aucun des deux, serait-on tenté de dire. Car comme le souligne Géraldine Tran, rédacteur en chef d’Athena, «les scientifiques sont trop scientifiques, les journalistes trop journalistiques». D’après elle, «les deux mondes restent très cloisonnés» et les scientifique relations entre les deux professions ambivalentes voire conflictuelles, la «rigueur s’opposant à la liberté». La presse, cette «machine à news» a en effet pour habitude ou le devoir de donner en même temps les faits et une opinion sur ces faits. Ce qui constitue un problème majeur pour les chercheurs, qui se doivent d’être rigoureux et ne pas exagérer par exemple la portée ou le sens de leur recherche. Prudence et crème brulée scientifique chargé des expériences à la surface de Titan, John Zarnecki, décrit la surface du satellite en ces termes: «Nous pensons qu’il s’agit d’un matériau recouvert d’une fine pellicule, sous laquelle se trouve une couche d’une consistance relativement uniforme». Prudence et langage on ne peut plus scientifiques, que les journalistes et médias s’empressent, sous la suggestion d’un des collègues de Zarnecki, d’altérer en comparant cette texture à de la «crème brûlée». Indignation immédiate de nombreux scientifiques, pour qui ce rapprochement n’est pas valide scientifiquement. Michel Claessens, rédacteur en chef de la revue Research de la Commission Européenne, donne à ce sujet dans son ouvrage Science et communication: pour le meilleur et pour le pire, un exemple que l’on pourrait qualifier de «croustillant». Lors du survol du satellite de Jupiter Titan par la sonde Cassini en janvier 2005, le Des deux côtés, se fait donc sentir un manque cruel de connaissances, les scientifiques étant peu formés à la communication, les journalistes sans doute encore moins aux sciences. Il existe bien quelques journalistes scientifiques en Belgique mais ils sont très rares, ultra spécialisés dans leur discipline et le plus Patrick VEILLARD · SOCIÉTÉ souvent pigistes donc avec un statut très précaire. Face à ce problème, certaines universités ont mis en place des programmes de communication pour les scientifiques (ULB) ou à l’inverse, des formations scientifiques pour les journalistes (ULg). Il existe également des bourses, au niveau européen notamment, permettant à des journalistes de passer une semaine dans un laboratoire de recherche ou au contraire à des scientifiques de travailler dans une salle de presse. Des enquêtes de satisfaction suite à ces programmes ont systématiquement montré une meilleure compréhension des difficultés respectives de chacun des métiers et in fine, un meilleur contact entre les deux mondes. Une communication trop vulgaire Ces tentatives restent néanmoins limitées et font de plus face à une certaine réticence des chercheurs. Beaucoup jugent en effet que la communication ne fait pas partie de leurs fonctions. Une étude de 2006 effectuée auprès de 1.500 scientifiques britanniques par la Royal Society de Londres montre qu’un quart d’entre eux considère la vulgarisation comme «indigne d’une carrière académique». Voilà qui a le mérite d’être clair. Tous ne sont cependant pas aussi catégoriques. À titre d’exemple, le magazine scientifique belge EOS a récemment ouvert sur son site un portail de blogs écrits par des scientifiques. D’après l’un de ses journalistes et webmaster, Reinout Verbeke, la plupart sont de «grande qualité». Ce format présente de plus l’énorme avantage de donner des points de vue scientifiques très différents sur un même sujet: «Comparez les points de vue d’un ethnologue, d’un biologiste ou d’un archéologue sur une problématique de biodiversité et vous obtenez potentiellement un maximum d’idées !». Autre solution, le recours de plus en plus fréquent à des communicateurs et attachés de presse, dont la mission est d’établir un lien entre la communauté scientifique et le public non spécialisé. Cette professionnalisation de la médiation scientifique démontre la reconnaissance par les scientifiques des difficultés à communiquer les sciences et la nécessité de faire appel à des professionnels formés à ce type de tâche. Un facebook des sciences Une autre question sous-jacente à la problématique est l’implication des citoyens dans le processus. Notre société fait-elle le maximum pour partager les avancées de la technoscience avec le public et permettre son appropriation sociétale ? D’après Michel Claessens, la réponse est clairement «non». Pour lui, de «graves lacunes existent en Europe, lacunes qui doivent être comblées de façon urgente». Son argument ? «Une science privée de réflexion sur elle-même ne peut avoir conscience de son rôle dans la société». L’enjeu serait ainsi de «contribuer à l’émergence d’une science plus complète et plus citoyenne». Pour MarieJosé Gama, directrice de la cellule de diffusion scientifique de l’ULB Inforsciences, ce questionnement de la recherche ne doit concerner que les «applications et non la recherche fondamentale» qui n’a selon elle pas besoin d’avis citoyen puisqu’étant, par définition, «immuable et motivée uniquement par une avancée générale des connaissances». Un concours de dissertation organisé en 2005 par Inforsciences est à ce titre assez symptomatique. À la question de savoir si le principe de précaution en sciences était un moteur ou un frein au développement, une grande partie des étudiants a exprimé ses inquiétudes, en demandant notamment davantage de concertation citoyenne dans les stratégies de recherche. Face à cette demande, apparait depuis quelques années le concept de «conférences citoyennes». Cette méthode consiste à réunir quelques dizaines de citoyens sous l’égide d’experts, pour discuter de sujets scientifiques de société. Une consultation citoyenne de ce type a ainsi été organisée en 2005 en Belgique par l’ONDRAF (organisme national des déchets radioactifs et des matières fissiles enrichies), en collaboration avec la Fondation Roi Baudouin. Cette consultation avait pour but d’obtenir un avis citoyen sur la question de l’enfouissement des déchets nucléaires. Les résultats, publiés en février dernier, ont montré de manière surprenante un avis plutôt clément vis-à-vis du nucléaire. D’après Michel Claessens, ces conférences citoyennes sont un moyen idéal de rétablir la confiance entre grand public et acteurs de la recherche scientifique. Les nouveaux médias ont à ce titre un rôle potentiellement important à jouer puisqu’ils pourraient permettent d’améliorer considérablement la communication entre les deux parties. Ils touchent potentiellement davantage de personnes tout en augmentant l’interactivité de la communication, par exemple par l’intermédiaire de forums. L’instauration de conférences citoyennes scientifiques sur différents réseaux sociaux pourrait à ce titre constituer une expérience intéressante. Facebook comme nouvel outil de communication scientifique ? L’avenir nous le dira… n 21 + Le p’tit plus de la rédac’ La communication scientifique: Discours, figures, modèles, de Daniel Jacobi, aux Éditions Broché ATHENA 265 · Novembre 2010 > INTERNET Le Web pour les Nuls et les Professionnels 22 Comment les Trouveurs trouvent Texte : Christian VANDEN BERGHEN • http://www.brainsfeed.com • [email protected] Illustrations : VINCE Quand les choses sont bien rangées, on les retrouve plus facilement ! Bien que le Web ne soit pas un modèle de rangement, les trouveurs trouvent. Pourquoi ? Parce qu’ils disposent d’une méthode de recherche et parce que d’autres ont rangé le Web à leur place. Ces autres, ce sont les moteurs, les annuaires et les métamoteurs dont nous avons parlé dans l’article du mois d’octobre. Et heureusement, grâce à ces trois classes d’outils de recherche, il est possible de trouver à peu près tout sur le Web. L e problème est donc simple: il suffit de comprendre le fonctionnement et la logique des moteurs, des annuaires et des métamoteurs pour devenir un professionnel du Web. Enfin pas tout à fait parce que la différence entre Google - moteur généraliste - et SlideShare - site de partage de présentations - est immense. Un professionnel du Web est capable d’identifier et d’utiliser l’outil de recherche le plus adapté pour trouver (rapidement si possible) la réponse la plus pertinente à la question posée. Identifier le bon outil de recherche Google, l’outil de recherche le plus utilisé au monde est un moteur capable de trouver des mots sur des pages Web. Certains débutants croient que Google = le Web. Malheureusement pas ! Il n’a indexé qu’une petite partie du Web et d’innombrables pages ne figurent pas dans sa base de données. Nous avons examiné les causes de cette situation dans l’article précédent. Les conséquences sont évidentes: tout ne se trouve pas dans Google. Loin de là ! Il existe des milliers de moteurs. En quoi sont-ils différents ? ›› chaque moteur possède sa propre base de données. Et il est évident que la probabilité de trouver une information dans une base de données volumineuse est plus importante que dans une plus petite; ›› chaque moteur a sa propre manière de classer les résultats car leurs critères de pertinence sont différents. En d’autres termes si Google, Bing (http://www.bing.com/), Exalead (http://www.exalead.com/search/), Ask (http://www.ask.com/) et d’autres possédaient la même base de Christian VANDEN BERGHEN · INTERNET onnées, nous obtiendrions autant d de résultats différents qu’il y a de moteurs, simplement parce que leur mode de classement varie; ›› chaque moteur propose des méthodes pour affiner les recherches. Tous les moteurs cités ci-dessus sont des moteurs généralistes. Leur ambition est de collecter le plus grand nombre possible de pages (tout en se fixant des limites) susceptibles d’intéresser le plus de monde possible. Le choix des documents indexés tient donc compte des préférences du plus grand nombre. Un document technique et scientifique intéresse sans doute moins qu’une page relatant la succession d’événements palpitants de la vie d’une chanteuse à la mode. À côté de ces moteurs généralistes existe une multitude de moteurs spécialisés. Pour trouver des moteurs de recherche scientifiques, il est possible d’utiliser Google en tapant une requête de type «scientific searchengine». Google a lui aussi compris le problème des documents scientifiques: comme ils intéressent un nombre limité de personnes, il est très difficile de les faire «remonter» avec un moteur généraliste. C’est pour solutionner ce problème que Google Scholar (http://www.scholar. google.fr) a été créé. Outre la recherche de moteurs spécialisés par le biais d’un moteur de recherche généraliste, il existe des listes de moteurs de recherche. Pour les trouver, essayez par exemple une requête du genre «list of specialized search engines». Après s’être demandé si la réponse peut se trouver sur le Web, une des premières questions que se pose un Trouveur est celle-ci: qui (et il peut s’agir d’un outil de recherche) pourrait posséder la réponse à la question que je me pose ? Si la réponse est «probablement un moteur de recherche», il se demande si un moteur de recherche généraliste comme Google pourrait la posséder. Sinon, il va essayer d’utiliser un moteur généraliste pour trouver un moteur spécialisé. Sans oublier que la réponse peut être détenue par un annuaire, un expert à identifier en ligne, une base de données ou parfois un collègue de travail. Utiliser correctement un outil de recherche À l’instar de chaque être humain, chaque moteur de recherche, chaque annuaire, chaque métamoteur, chaque base de données possède ses petites manies et habitudes. Et comme d’un être humain, pour en tirer le meilleur, il est préférable de savoir «comment le prendre». Ces petites manies sont des manières de classer l’information, de la présenter sur la page de résultats et des méthodes de recherche spécifiques. Les annuaires par exemple - et cela provient de la manière dont ils sont élaborés - ne sont pas capables de répondre à une recherche par motclé. Il faut impérativement les interroger en entrant dans la logique de leur taxinomie propre. Ainsi la taxinomie de l’annuaire de Yahoo! (http://dir.yahoo. com/) iffère-t-elle de celle de DMOZ d (http://www.dmoz.org/) par exemple. Pour bien utiliser un annuaire, il faut donc comprendre la logique de classement des sites pour savoir dans quelle catégorie est traité tel sujet et ensuite descendre dans l’arborescence. Les moteurs sont plus compliqués car la recherche doit se faire par mot-clé. Il s’agit donc de bien formuler sa requête pour obtenir des résultats pertinents. Mais n’oublions jamais que la meilleure méthode est souvent de formuler tout simplement ce qu’on cherche. Le principe est que la réponse à ma question a fort probablement déjà été formulée quelque part sur le Web. Cela demande simplement un petit exercice mental pour convertir une question en phrase positive. En effet, celui qui a répondu à la question que je me pose a sans doute utilisé une tournure de phrase positive et pas interrogative. Exemple: • Pour répondre à la question: «En quelle année Marie Curie a-t-elle obtenu ses deux prix Nobel ?», le plus simple est d’écrire une phrase du type «Marie Curie a obtenu le prix Nobel de... en...». Le moteur de recherche complétera les blancs. 23 ATHENA 265 · Novembre 2010 > INTERNET division (/), multiplication (*). Google peut réaliser beaucoup de choses. Le site Soople (http://www.soople.com/) présente sur une page Web l’ensemble des fonctions mathématiques de Google. Pour les afficher, cliquez sur l’onglet «Calculator». ›› tous comprennent les trois opérateurs booléens de base: AND, OR et NOT. Exemples: • chien AND chat rapporte les pages contenant l’un et l’autre des deux termes. Le AND est implicite et ne doit donc pas être utilisé avec les moteurs actuels. • chien OR chat ramène les pages contenant l’un ou l’autre des deux termes ou les deux à la fois. C’est donc la syntaxe qui rapporte le plus grand nombre de résultats. • chien NOT chat rapporte les pages contenant le mot chien mais pas le mot chat. 24 Pour gagner en rapidité et éviter la noyade, chaque moteur de recherche possède sa propre syntaxe, qui permettant ainsi d’affiner ses recherches et/ou limiter les résultats. + Pour en savoir plus Quelques moteurs de recherche en temps réel: http://www.soople.com http://www/socialmention.com http://www.yauba.com • «Où et en quelle année est née la première femme cosmonaute soviétique ?» , pourquoi ne pas essayer «la première femme cosmonaute soviétique est née à... en...». Autre manière d’obtenir très facilement la réponse à une question: se demander sous quelle forme la réponse est formulée. Exemple: «Qui était président de la République française en 1915 ?» Dans ce cas, une phrase du genre «...était président de la République française en 1915» a peu de chance de fournir la réponse. Par contre, il doit exister des listes des Présidents français. La bonne requête sera donc «liste des présidents de la République française». Une fois la liste trouvée, il suffira de la parcourir pour trouver la réponse. Les points communs Les moteurs possèdent un certain nombre de points communs dont les trois principaux sont les suivants: ›› tous sont capables d’effectuer les quatre opérations mathématiques de base: addition (+), soustraction (-), Attention que les opérateurs booléens doivent impérativement être écrits en lettres capitales et les mots recherchés en lettres minuscules pour que le moteur les interprète comme des opérateurs et ne les confonde pas avec l’objet de la recherche. ›› tous les moteurs comprennent l’usage des guillemets pour créer une expression. Pourquoi créer une expression ? Pour imposer au moteur la recherche d’une chaîne groupée de caractères. Exemple: Je suis à la recherche d’un document dont le titre est «Être dans le grand âge et être quelqu’un». Si je n’utilise pas les guillemets, le risque est grand de voir le moteur chercher des pages contenant tous les mots de ce titre, mais répartis n’importe où sur les pages. Les guillemets lui imposent de rechercher uniquement les pages contenant l’expression exacte «être dans le grand âge et être quelqu’un». Les syntaxes Chaque moteur propose un certain nombre de syntaxes permettant d’affiner ou de limiter les résultats. Même si la plupart des moteurs sont par exemple Christian VANDEN BERGHEN · INTERNET capables de limiter la recherche à un format particulier de fichier, tous n’utilisent pas la même syntaxe pour y arriver. Il est donc important de connaître les syntaxes particulières de chaque moteur. Elles sont expliquées dans leur page d’aide à la recherche respective. Des spécialistes du Web publient régulièrement sur leur blog les nouveautés et modifications survenues dans les syntaxes. BrainsFeed (http://www.brainsfeed.com/) propose un abonnement gratuit à ses conseils quotidiens. Sans entrer dans les détails, les syntaxes essentielles de Google sont les suivantes: ›› pour limiter la recherche à un domaine (au sens Web du terme: com, be, edu...): site: domaine Exemples: • Quelles sont les pages du domaine belge parlant du CERN ? site:be CERN • Le rotavirus est-il plus évoqué sur le Web Suisse que sur le Web allemand ? site:ch rotavirus et ensuite site:de rotavirus ›› pour limiter la recherche à un site Web site:www.adresse-du-site.xxx mot Exemple: • site:www.ulg.ac.be «laboratoire de physique» permet de savoir si des pages du site de l’ULg comportent l’expression «laboratoire de physique». Attention: cette syntaxe ne s’applique évidemment qu’aux pages indexées par Google. Il est possible que d’autres pages du site de l’ULg possèdent cette expression mais que Google ne les ait pas indexées. ›› pour limiter la recherche au titre des pages intitle:mot Exemple: • intitle:«histoire des sciences» trouve toutes les pages présentes dans la base de données de Google comportant l’expression «histoire des sciences» dans leur titre. ›› pour limiter la recherche à l’adresse des pages inurl:mot Exemple: • inurl:alzheimer trouve uniquement les pages ayant le mot Alzheimer dans leur adresse ›› pour limiter la recherche à un format de fichier (pdf, doc, xls, ppt) filetype:format-de-fichier mot Exemple: • filetype:pdf «financement de la recherche scientifique» trouve les documents au format PDF comportant l’expression «financement de la recherche scientifique». Tenir compte du temps Le Trouveur sait qu’une information ne se trouve pas n’importe où et n’importe quand. Les annuaires sont de «vieilles dames» peu réactives: il leur faut du temps pour ajouter un nouveau site à leur collection. Les moteurs sont plus rapides mais ils ont du mal à prendre en compte l’information publiée sur des réseaux sociaux et seront toujours en retard. Prenons un événement d’actualité comme un sommet du G20: ›› les informations immédiates sur ce qui se passe dans les manifestations en temps réel se trouvent sur des moteurs construits autour de Twitter. C’est là que publient ceux qui assistent aux manifestations; ›› quelques heures plus tard, une information plus fiable (?) sera disponible sur les sites des journaux en ligne; ›› quelques jours plus tard, les sites des hebdomadaires publieront des articles avec plus de recul; ›› plus tard encore, on trouvera des analyses dans des mémoires, des thèses, des livres, etc. Conclusion Ces 5 syntaxes peuvent être combinées pour former des requêtes complexes comme par exemple site:be filetype:pdf intitle:science inurl:ulb, qui rapportera les pages du domaine belge, au format PDF, ayant le mot «science» dans leur titre et le mot «ulb» dans leur adresse. Les Trouveurs ne disposent pas d’un Google secret connu des seuls enfants du Web... Par contre, ils utilisent les outils de recherche que tout le monde connaît mais en étant conscients de leurs limites et en les poussant jusqu’à ces limites. Remarques: il n’y a jamais d’espace avant ou après les deux points au sein de la syntaxe; les syntaxes s’écrivent toujours intégralement en lettres minuscules; si plusieurs syntaxes sont combinées, elles sont séparées par un espace. Le prochain article sera consacré aux Receveurs qui occupent la marche juste au-dessus des Trouveurs. Les métamoteurs présentent moins de syntaxes que les moteurs et sont de toute façon généralement moins intéressants. Les Trouveurs les utilisent finalement assez peu. 25 ATHENA 265 · Novembre 2010 > MÈDECINE I N T E R V I E W L’ocytocine, une hormone Tantôt elle facilite l’accouchement en provoquant la contraction des muscles de l’utérus et suscite la montée du lait maternel. Tantôt elle «s’implique» dans la sphère sociale en sous-tendant la confiance envers autrui, l’empathie, l’altruisme. Elle contribue même à assurer la cohésion des couples. «Hormone de l’amour», «hormone de la confiance», l’ocytocine porte assurément de jolis surnoms mais que cache-t-elle ? 26 Propos recueillis par Philippe LAMBERT • [email protected] Photos: Ph. LAMBERT (p.26), REPORTERS (p.27) O Moïra Mikolajczak , Professeur à la faculté de psychologie et des sciences de l’éducation de l’Université catholique de Louvain (UCL) n l’appelle communément «love hormone», «liquid trust» ou hormone de la confiance. Son vrai patronyme ? Ocytocine (OT). Synthétisé au niveau des noyaux paraventriculaires et supraoptiques de l’hypothalamus, ce peptide est connu depuis longtemps pour provoquer la contraction des muscles de l’utérus au cours de l’accouchement et la montée du lait chez la mère. Ces dernières années, elle vit une seconde naissance, puisque les neurosciences lui ont découvert un rôle majeur dans le comportement social. Elle apparaît en effet comme l’hormone de l’attachement, de la confiance envers l’autre; de surcroît, elle favoriserait l’empathie, la générosité, l’altruisme et renforcerait la cohésion sociale. Un manque d’ocytocine et vous éprouvez des difficultés à entrer en contact avec autrui. Un taux élevé, et vous voilà confiant et généreux ! Il n’en fallait pas plus pour qu’éclose sur Internet un commerce juteux, très en vogue outre-Atlantique, où l’on vous assure qu’un simple «puff» d’OT administré à la bonne personne suffira à vous rendre irrésistible auprès d’elle, que ce soit sur le plan sentimental ou en affaires. Depuis les travaux menés à l’Université de Liège par le professeur Jean-Jacques Legros, l’ocytocine est également considérée comme une «hormone antistress» aux propriétés antidépressives, sédatives et analgésiques. Aujourd’hui, elle est au cœur d’une floraison d’études expérimentales. Chez l’être humain, celles-ci portent presque exclusivement sur des hommes, dans la mesure où il est problématique sur le plan éthique d’y inclure des femmes, lesquelles devraient immanquablement être soumises à un test de grossesse préalable afin d’éviter tout risque de fausse couche. Philippe LAMBERT· MÉDECINE Professeur à la faculté de psychologie et des sciences de l’éducation de l’Université catholique de Louvain (UCL), Moïra Mikolajczak s’intéresse de près aux comportements prosociaux favorisés par l’ocytocine. Elle nous parle de cette question et de ses propres recherches. C omment s’est-on aperçu des effets psychologiques de l’ocytocine ? Lors d’études réalisées chez le rat il y a une vingtaine d’années, on a constaté que si l’on administrait à la femelle un antagoniste de l’OT, non seulement la montée du lait était bloquée, mais les comportements d’attachement de la mère à l’égard de ses petits se réduisaient très significativement. Des résultats similaires furent obtenus chez la brebis. À l’inverse, on a observé que l’administration d’ocytocine à des rates vierges suscitait chez elles des comportements maternels vis-à-vis de nouveaunés d’autres femelles, ce qui n’est pas le cas dans des circonstances normales. De même, la brebis, animal réputé très chaleureux vis-à-vis de sa progéniture mais fort agressif avec les petits dont elle n’est pas la mère, devient très maternelle à l’égard de ces derniers dès qu’elle se voit donner de l’ocytocine. Les recherches relatives aux effets psychologiques de l’OT chez l’être humain ont débuté à la fin des années 1990 et véritablement explosé depuis le début des années 2000. Qu’ont mis en évidence psychiatres et psychologues ? Que l’hormone possède une multitude de fonctions qui, toutes, concourent a priori à renforcer la cohésion sociale. Ainsi, elle nous permet de reconnaître nos pairs et de nous y attacher; elle favorise le désir d’aller vers l’autre, la confiance qu’on lui témoigne, l’empathie et les comportements altruistes; elle contribue à améliorer la qualité des liens sociaux, etc. Le ciment du couple ? L ’OT intervient aussi au niveau des préférences sexuelles ? Elle joue effectivement un rôle dans le choix du partenaire. Mais ici, les expériences se sont limitées à la sphère animale, dans la mesure où elles n’étaient pas éthi- quement concevables chez l’Homme. Cela étant, on sait que l’être humain, tout comme l’animal, sécrète beaucoup d’ocytocine au moment de l’orgasme, ce qui affermit la confiance et l’attachement des deux partenaires l’un envers l’autre. Faire l’amour ou, à tout le moins, se témoigner physiquement de la tendresse est donc biologiquement nécessaire à la solidité du couple. On remarque par ailleurs que l’OT favorise la résolution positive des conflits au sein des couples. Au cours d’une expérience réalisée en 2009 à l’Université de Zurich, on a demandé à des couples hétérosexuels de discuter d’un sujet qui provoque généralement des disputes. Certains d’entre eux ont reçu de l’ocytocine par spray nasal (1), d’autres un placebo. Il a ensuite été proposé à des «juges» ignorant tout de la manipulation expérimentale de s’exprimer sur les comportements des couples en visuali- sant les enregistrements vidéo de leurs discussions. Ils relevèrent que les couples sous ocytocine recouraient plus souvent à l’humour pour désamorcer le problème et avaient moins d’interactions négatives et plus d’interactions positives que ceux sous placebo. Alors que ces derniers prononçaient des phrases telles que «Avec toi, c’est toujours comme ça, il est impossible de discuter», les couples sous ocytocine avaient plutôt tendance à tenir des propos apaisants - «Ce n’est quand même pas si grave» ou «On va essayer de dépasser cette situation». Top secret P rochainement, deux de vos études vont être publiées respectivement dans Biological Psychology et Psychological Science. La première 27 ATHENA 265 · Novembre 2010 > MÈDECINE 28 montre que l’ocytocine accroît la confiance de l’individu envers autrui non seulement quand de l’argent est en jeu, comme cela a été mis en évidence précédemment, mais aussi dans d’autres situations. Quelle a été votre méthodologie ? Nous avons sélectionné 60 étudiants de l’UCL, que nous avons divisé en deux groupes: 30 sous ocytocine, 30 sous placebo. Avant d’administrer ces produits par spray nasal, nous avions demandé aux participants de remplir un questionnaire portant sur des informations relatives à leurs pratiques sexuelles - sadomasochisme, sexe anal, utilisation de sex-toys, etc. Bref, des données très privées qu’ils n’auraient pas souhaité voir divulguer. Quarante-cinq minutes après avoir donné l’ocytocine ou le placebo, temps nécessaire pour que l’hormone agisse pleinement, nous avons soumis une deuxième fois le questionnaire aux 60 étudiants, afin de vérifier que l’ocytocine n’avait pas d’effet désinhibant général. Ce n’était pas le cas, puisqu’il est apparu plus tard que les réponses étaient cohérentes entre les deux sessions. Nous avions préalablement précisé que l’enquête était anonyme et que les résultats seraient lus par lecture optique. Quand le questionnaire a été complété une seconde fois, nous avons suggéré aux participants d’en glisser les deux exemplaires dans une enveloppe et de la confier à l’expérimentateur, lequel, rappelons-le, était censé ne pas avoir le droit de consulter les réponses. Nous avons cependant précisé: «Si vous le souhaitez, vous pouvez fermer l’enveloppe et même la sceller avec du papier collant que nous mettons à votre disposition.» E t les résultats ? 80% des étudiants sous placebo ont fermé et scellé l’enveloppe avec du papier collant, contre 6,7% seulement de ceux qui avaient inhalé de l’ocytocine. Parmi ces derniers, 33,3% se sont contentés de fermer l’enveloppe (16,7% dans le groupe «placebo»), mais, surtout, 60% l’ont laissée ouverte, contre à peine 3,3% dans l’autre groupe. La plupart des études antérieures, en particulier celles des psycho-économistes de l’Université de Zurich coordon- nées par Markus Heinrichs, s’attachaient essentiellement à démontrer la propension des personnes sous OT à accorder leur confiance à des conseillers en investissements financiers et, partant, à opérer les placements recommandés. Par notre expérience, nous voulions nous assurer que ce qui était perçu comme la manifestation d’une confiance accrue envers autrui sous l’effet de l’ocytocine ne reflétait pas, en fait, une simple modification du rapport que les individus entretenaient avec l’argent. La perfection faite hormone ? D ifférents travaux montrent que les personnes à qui l’on administre de l’ocytocine identifient plus facilement les émotions présentes dans les expressions faciales ?... Absolument. Le premier syndrome sur lequel l’hormone a été testée est d’ailleurs l’autisme, dont on sait qu’il se caractérise notamment par un manque d’empathie. Philippe LAMBERT· MÉDECINE Lorsqu’on administre de l’ocytocine aux personnes autistes, on observe que leurs capacités de reconnaissance des émotions est significativement améliorée et que certains symptômes de leur trouble se réduisent. C’est le cas, par exemple, des stéréotypies motrices, tel le fait de se balancer d’avant en arrière. D ’autres recherches se sont intéressées à la phobie sociale ? Elles ont malheureusement péché par leur méthodologie. En effet, elles étaient basées sur la comparaison entre deux groupes: l’un bénéficiait d’une thérapie cognitivo-comportementale, l’autre de la même thérapie à laquelle était adjointe l’administration d’ocytocine. Les patients du second groupe éprouvaient davantage l’impression d’une amélioration de leur état mais dans les faits, leurs comportements lors des interactions sociales ne se révélaient pas forcément meilleurs que dans l’autre groupe. Peut-être la thérapie psychologique avait-elle apporté à elle seule tous les gains possibles... Aujourd’hui sont en cours des travaux rassemblant des individus auxquels n’est dispensé aucun traitement (groupe contrôle), des individus en thérapie cognitivo-comportementale et des individus recevant uniquement de l’ocytocine. De la sorte, l’écueil du chevauchement des variables pourra être contourné. Des recherches sur l’anxiété et la dépression ont en outre été initiées récemment. P etite retouche à apporter au portrait de l’ocytocine: deux études très récentes font apparaître que, dans l’univers des relations humaines, l’ocytocine n’apporte finalement pas que des bénéfices ?... De fait. Selon la première, menée en 2009 à l’Université de Haïfa, en Israël, l’ocytocine accroîtrait, dans certains contextes, cette émotion qu’on appelle «schadenfreude» en allemand, la petite joie qu’on peut éprouver face au malheur de quelqu’un. Dans d’autres circonstances, l’OT renforcerait le sentiment d’envie devant la réussite ou le bonheur d’autrui. Réalisée à l’Université d’Amsterdam, la seconde étude, elle, conclut que si l’ocytocine favorise l’altruisme vis-à- vis des membres de l’«in-groupe», elle augmente les comportements défensifs par rapport aux individus de l’«outgroupe». Bien entendu, ces deux notions d’«in-groupe» et d’«out-groupe» sont éminemment contextuelles. Imaginons un ingénieur noir. Pour un ingénieur blanc, il fera partie de son «in-groupe» si l’on rend saillante la profession, mais de son «out-groupe» si c’est la nationalité qui est mise en exergue. Pas des gogos ! L es expériences des psychoéconomistes suggéraient que, même abusé ou trahi, un individu sous ocytocine accorde volontiers sa confiance. Vous avez voulu savoir si l’hormone agit effectivement de la même manière dans tous les contextes. D’où votre étude appelée à paraître bientôt dans Psychological Science ?... L’ocytocine est une «glu sociale» qui a permis à l’Homme une meilleure adaptation à son environnement. Nous nous sommes dit que cet avantage adaptatif perdrait son sens si elle nous rendait naïfs et crédules au point de favoriser le maintien dans notre groupe d’individus qui, objectivement, devraient en être bannis. Dans les études des psycho-économistes de l’Université de Zurich, les participants sous ocytocine faisaient confiance tant à des «banquiers» honnêtes qu’à des «banquiers» véreux. Toutefois, durant les différentes sessions du jeu de rôle, ils n’étaient jamais confrontés deux fois au même banquier et, par ailleurs, ils ignoraient tout de lui à l’entame du jeu. Dès lors, peut-on affirmer qu’ils étaient d’une grande candeur parce que, même dupés par un conseiller véreux, ils refaisaient ensuite confiance à d’autres banquiers ? Non. Manions l’analogie: ce n’est pas parce qu’on a été roulé un jour dans une boutique qu’on ne fréquentera plus aucun magasin... Dans notre expérience, comme dans celle de nos collègues suisses, des étudiants étaient engagés dans un «trust game» où, par le biais d’un ordinateur, ils interagissaient successivement avec différents partenaires remplissant le rôle de banquier. À l’occasion de chacune des sessions, ils décidaient d’investir tout ou partie d’une somme qui leur avait été allouée et le banquier partenaire leur rétrocédait un bénéfice plus ou moins important, ou, cas extrême, se l’appropriait totalement. Avant chaque «round», le participant concerné recevait une description du banquier, laquelle avait été conçue pour induire de la confiance (Xavier, 23 ans, infirmier, adore la guitare) ou de la méfiance (Bertrand, 24 ans, étudiant en sciences politiques, adore les jeux d’argent). Il existait également une condition neutre, où le retour sur investissement était déterminé aléatoirement par l’ordinateur. Deux groupes d’étudiants ont été engagés dans l’expérience: 30 sous ocytocine, 30 sous placebo; chacun ignorant évidemment dans quel groupe il se trouvait. Que dévoilent les résultats ? Que les étudiants sous ocytocine se livrent à des transferts d’argent nettement plus importants que les étudiants sous placebo, mais ce uniquement dans deux conditions: quand ils ont affaire à un partenaire neutre (le hasard) ou jugé digne de confiance. Par contre, face à un interlocuteur perçu comme peu fiable, la réaction est identique dans les deux groupes, et même un peu plus sévère dans le groupe «ocytocine»: baisse drastique des investissements. Autrement dit, si l’ocytocine rend confiant, elle ne rend pas crédule. (1) Sur le plan technique, l’administration d’ocytocine se réalise quelquefois par intraveineuse chez l’humain, mais presque toujours par spray nasal, ce qui favorise le passage de la barrière hémato-encéphalique. Chez l’animal, elle est habituel lement administrée directement dans le cerveau. 29 ATHENA 265 · Novembre 2010 > ENVIRONNEMENT La forêt, l’or vert des hommes ? Texte : Paul DEVUYST Photo : K. ARBORICOLE (p.30) 30 La forêt telle que nous la concevons et la gérons aujourd’hui sera celle dont nos petits-enfants hériteront en 2100 ! La forêt a pour chacun d’entre nous un parfum de rêve d’enfance. Touffue, variée, mystérieuse, habitée de mille vies discrètes, la forêt de Brocéliande est par exemple légende. Dans l’Antiquité, l’Europe entière en était couverte et la nature y régnait sans partage. Et si aujourd’hui il n’en reste que bien peu d’exemples, elle est toujours ressentie comme un monde hors du temps, un lieu de paix et de refuge à préserver... C ’est pourquoi «Protéger, gérer et exploiter durablement» ont été les principaux thèmes choisis et développés par des experts de renom au cours du 21e Festival International de Géographie qui s’est déroulé à Saint-Dié-des-Vosges (France). Pendant quatre jours, scientifiques et grand public ont débattu sur les enseignements que nous sommes aujourd’hui capables de tirer de la forêt pour agir favorablement sur les conditions d’existence à la surface de la planète. Questions d’autant plus opportunes après les incendies catastrophiques qui ont meurtri les forêts de Russie… le pays invité d’honneur de la cité vosgienne ! Un enjeu climatique majeur Dans la lutte contre le changement climatique, la protection de la forêt est devenue essentielle car la déforestation représente 20% des émissions mondiales des gaz à effet de serre, devaient rappeler plusieurs scientifiques présents, reprenant ainsi un chiffre avancé par le Groupe intergouvernemental d’experts sur le climat (Giec). En décembre dernier, lors du sommet de Copenhague sur le climat, les pays développés se sont engagés à verser 30 milliards de dollars sur la période 2010-2012 afin d’aider les pays en développement à financer les mesures d’adaptation au réchauffement climatique, dont 20% pour lutter contre la déforestation. Cet accord est une étape très importante. Heureusement, la lutte contre la déforestation et la vente illégale de bois engrange ses premiers résultats: au cours des dix dernières années, l’exploitation forestière illicite a diminué de 50% au Cameroun, de 50 à 75% dans la forêt amazonienne brésilienne et de 75% en Indonésie. Cela a empêché la dégradation de quelque 17 millions d’hectares de forêt, soit une superficie plus grande que l’Angleterre et le pays de Galle réunis. À terme, le combat entamé dans ces trois pays peut supprimer, à un coût relativement faible, l’émission de près de 14,6 milliards de tonnes de CO2, soit la moitié de celles provenant des activités humaines chaque année dans le monde. De son côté, le Parlement européen a adopté, à la mi-juillet 2009, un texte qui prévoit d’interdire l’introduction sur le marché européen du bois abattu de façon illégale, mais encore faut-il que cela s’accompagne de sanctions Paul DEVUYST · ENVIRONNEMENT Détruire une forêt, c’est détruire ses hôtes imaginaires comme les fées et les sorcières, et ses hôtes réels, les derniers charbonniers et les derniers ermites. s ignificatives, ce qui, pour l’heure, n’est absolument pas le cas. Un peu d’histoire... Parmi les exposés scientifiques présentés à Saint-Dié-des-Vosges, celui de Madame Bernadette Mérenne-Schoumaker, professeur de géographie économique à l’Université de Liège, fut très remarqué. «Le bois est une des sources d’énergie les plus anciennement utilisées», devait-elle rappeler et au cours de la préhistoire, ce fut même la seule source d’énergie pour le chauffage et pour la cuisson des aliments. Du Moyen Âge jusqu’à l’époque moderne, le bois était aussi utilisé par certaines industries qui travaillaient à des températures élevées, comme la sidérurgie et la verrerie; à cet effet, le bois était transformé en charbon par les charbonniers. À partir du 19e siècle, le bois entre en concurrence très forte avec le charbon «de terre» puis au 20e siècle, avec le pétrole, le gaz et l’électricité, ce qui explique son déclin essentiellement dans les pays développés car, dans beaucoup de pays du Sud, on continue à l’utiliser pour le feu. Depuis la Seconde geurre mondiale, il connaît des hauts et des bas. Toutefois, depuis une bonne dizaine d’années, ce bois-énergie retrouve une seconde jeunesse, trois facteurs pouvant l’expliquer: la hausse des prix des énergies fossiles, la disponibilité de la ressource et ses vertus écologiques. On peut distinguer trois grands types d’usages du bois-énergie, poursuit madame Mérenne: • les usages domestiques, c’est-àdire les appareils indépendants et les chaudières à eau chaude pour les particuliers; • les usages collectifs, c’est-à-dire les chaufferies à alimentation automatique fournissant le chauffage et/ ou l’eau chaude sanitaire à plusieurs logements ou chaufferie centrale desservant un quartier d’une ville ou un bourg rural; • les usages industriels ou l’autoconsommation de déchets de bois par une entreprise pour ses propres besoins industriels (production de chaleur et/ou de vapeur). Importance et évolution L’Observatoire des Énergies renouvelables (EurObserv’ER) est en Europe un organisme majeur en termes de données relatives aux énergies renouvelables. Il mesure, depuis 1998, les progrès réalisés dans chaque pays et chaque secteur et produit un baromètre annuel ainsi qu’une étude sur un secteur particulier tous les deux mois (http://www.eurobserv-er.org/). Selon cette source, la consommation d’énergie primaire venant de la biomasse solide dans l’UE en 2008 représente les 2/3 de la part des énergies renouvelables mais 5,4% seulement de l’énergie primaire totale consommée. Quant à la production (ou consommation) d’électricité venant de la biomasse, dont 62,6% sont produits dans des centrales de cogénération, sa part est plus faible en raison du poids de l’hydraulique: 17,1% du total des énergies renouvelables et 2,8% du total de l’électricité. En 2008, Eur’Observ’ER estime la production d’énergie primaire issue de la biomasse solide à 70,3 Mtep (1) après réajustement des chiffres de l’Italie et de l’Estonie, ce qui représente un accroissement de plus 24 Mtep depuis 1995, valeur qui représente plus que la consommation totale d’énergie primaire du Danemark (20 Mtep). Pour l’électricité, la croissance est plus spectaculaire encore puisque la production brute a été pratiquement multipliée par 3 depuis 2001 ! Quel bois utiliser ? Le potentiel de bois «mobilisable» est souvent difficile à estimer sans des études très précises. Certes, il est aisé d’en parler en théorie puisqu’il s’agit de faire la différence entre les productions de matières premières ligneuses (bois forestiers, bocagers et urbains, produits connexes des industries du bois, bois de rebut...) et les quantités déjà mobilisées pour divers usages (sciage, pâte à papier, panneaux, chauffage domestique, collectif ou industriel...). Mais le potentiel est souvent moindre car il existe un certain nombre de paramètres restrictifs: techniques (accès difficile à certaines forêts), économiques (coût d’exploitation et prix du bois sur pied), sociaux (blocage de certains propriétaires forestiers) et environnementaux (nécessité de conserver les biotopes et la biodiversité comme de maintenir la fertilité des sols). 31 ATHENA 265 · Novembre 2010 > ENVIRONNEMENT En outre, quels sont les bois pris en compte ? Se limite-t-on aux forêts ou prend-on aussi en compte des bosquets ou des haies ? Retient-on seulement le bois industrie (provenant du tronc de l’arbre) et le bois-énergie (branches jusqu’à 7 cm de diamètre) ou également les menus bois (petites branches) ? Certains estiment qu’environ 35% de la croissance annuelle des forêts de l’UE seraient inexploités. 32 Bon pour la santé ? Le bois-énergie est l’une des énergies les moins émettrices de CO2. C’est sans doute un de ses avantages majeurs. Les émissions rejetées lors de la combustion du bois résultent de l’accumulation de CO2, utilisé par les arbres lors de leur croissance. En comptabilisant l’énergie consommée du «puits» à la chaleur produite (notamment par les équipements à énergie fossile utilisés pour la coupe, le débitage et le transport de la ressource, y compris les étapes de transport et raffinage), le chauffage au bois émet 40 kg de CO2 par MWh de chaleur utile alors que les chaufferies au gaz, au fioul et à l’électricité émettent respectivement 222 kg, 466 kg et 180 kg de CO2 par MWh. En outre, le boisénergie n’émet pas de soufre. Toutefois, la combustion de bois libère des polluants selon l’équipement de chauffage, du combustible utilisé et d’autres facteurs comme les conditions climatiques ou la topographie. Ces polluants proviennent d’une combustion incomplète due à un mauvais réglage des appareils, de l’utilisation du bois trop humide ou sont dus à une médiocre qualité du combustible (bois souillés ou traités). Ces pollutions peuvent engendrer des risques sanitaires importants. Quel impact économique et sur la forêt? Un des avantages généralement avancé pour le bois-énergie s’avère être ses retombées économiques sur l’économie locale. Qu’en est-il réellement ? D’après une enquête dans 14 pays de l’UE, la biomasse engendrerait 13,5 milliards d’euros de chiffre d’affaires et 195.545 emplois directs et indirects, soit 15% du total du chiffre d’affaires généré par les énergies renouvelables et 30% de l’emploi. Deux autres avantages économiques sont souvent cités: la réduction des importations de combustibles fossiles et par là, une amélioration de la balance commerciale du pays et, pour le Bio express Nom: Mérenne-Schoumaker Prénom: Bernadette État civil: mariée Enfant(s): 1 Profession: Docteur en l ’énergie, acteurs, lieux et enjeux aux éditions Belin (Paris), • Très forte implication dans la vie régionale belge et wallonne, Sciences géographiques • Administrateur de la Fondation Roi Baudouin, Curriculum vitae: • Membre du Collège régional de prospective de la Région wallonne, • Professeur invité à l’ULg, (Géographie économique et Didactique de la géographie) et à l’ Institut de Formation et de Recherche en Enseignement supérieur (IFRES), • Prix Bologne-Lemaire du Wallon de l’année 2007. • Directeur-fondateur du Service d’étude en géographie économique fondamentale et appliquée (SEGEFA), Email: [email protected] • Plus de 320 publications, dont actuellement en réédition Géographie de Tél.: 04/366.53.24 - 04/366.53.25 • Professeur ordinaire honoraire de l’ULg. Contact: http://www.segefa.be/bms/bm.htm Bât. B11 Département de géographie allée du 6 Août 2 à 4000 Liège Paul DEVUYST · ENVIRONNEMENT consommateur final, un prix fluctuant moindre que celui des autres énergies. Quant à l’impact sur la forêt elle-même, tout montre que la production de combustibles bois permet la valorisation des ressources ligneuses d’un territoire et contribue de la sorte à l’entretien des espaces boisés (peuplement forestier, bocage, parc et alignement urbain...). Cette production a en fait de multiples effets: préservation des espaces et de la biodiversité, sécurisation des zones boisées, lutte préventive contre les incendies, les inondations et le développement des parasites, maintien d’activité locale et de lien social. La valorisation des rebuts permet de son côté le désencombrement des décharges (6.000 m3 libérés pour 1.000 tonnes de bois) et la contribution à la lutte contre les brûlages à l’air libre. Bernadette Mérenne. Ses filières sont diversifiées en termes de ressources, de techniques de valorisation et d’usages (individuels et collectifs). Il est en croissance en Europe avec quelques pays «phares» en raison de leurs ressources et de leurs politiques. À son avantage: un bon bilan environnemental si on sait contrôler les polluants et des opportunités certaines en termes de développement économique et gestion des territoires, à la fois au niveau de la forêt et des zones d’utilisation, surtout si on recourt à du chauffage urbain et à la cogénération. Toutefois, cette croissance semble insuffisante si on veut atteindre les objectifs des directives européennes en matière d’énergies renouvelables. Consommer mieux avec moins Mais la ressource, malgré des potentialités de développement, reste une ressource limitée qu’il s’agit de gérer avec parcimonie en cherchant à obtenir les meilleurs rendements et en évitant des gaspillages inutiles. En outre, il semble difficile d’augmenter de façon substantielle les surfaces consacrées à la forêt et aux cultures énergétiques du type taillis à courte rotation, ce qui limite à son tour la transformation massive de bois en agro-carburants. Un recours accru au bois-énergie pour fabriquer des biocarburants semble ainsi peu envisageable. Le bois-énergie est une des énergies renouvelables au même titre que l’hydraulique, le vent ou le Soleil, conclut L’énergie-bois a donc sa place dans un bouquet énergétique diversifié mais ne peut satisfaire la soif de plus en plus Enfin, face aux critiques adressées aux agro-carburants de 1e génération utilisant des produits alimentaires, une 2e génération d’agro-carburants utilisant la filière lignocellulosique est en voie de développement. grande en énergie. Consommer mieux avec moins reste dès lors la voie par excellence d’un développement durable, termine la scientifique. (1) La tonne d’équivalent pétrole (symbole tep) est une unité d’énergie d’un point de vue économique et industriel. Elle vaut, par définition, 41,868 GJ (10 Gcal), ce qui correspond au pouvoir calorifique d’une tonne de pétrole. Une tep correspond aussi à environ 1,5 tonne de charbon de haute qualité ou à 2,2 tonnes de bois bien sec (1 stère = 0,147 tep). Elle sert aux économistes de l’énergie pour comparer entre elles des formes d’énergie différentes. ). La forêt en chiffres ›› 30% de la surface émergée de la planète, soit 3 870 millions d’hectares: c’est l’estimation de l’étendue des forêts dans le monde; ›› 3: c’est le nombre des grands bassins forestiers mondiaux. Ils se trouvent en Asie, en Afrique centrale et en Amazonie, soit le Brésil, l’Argentine, l’Indonésie, la Birmanie, le Mexique, le Congo-Kinshasa, la République du Congo, le Nigeria, le Soudan, la Zambie et le Zimbabwe; ›› 13 millions d’hectares: c’est l’étendue du territoire que couvre la déforestation tous les ans (entre 2000 et 2010) selon l’Organisation des Nations Unies pour l’alimentation et l’agriculture (FAO). Ce rythme ralentit étant donné que dans les années 1990, 16 millions d’hectares disparaissaient chaque année; ›› 880.000 hectares de forêt en plus en Europe chaque année, même si les incendies et la pollution atmosphérique les abîment au même rythme; ›› 94,9 millions d’hectares en Europe: les plus grandes forêts sont situées en Suède (24,4 millions d’hectares), Finlande (20 millions d’hectares), France (15 millions d’hectares), Allemagne (10,7 millions d’hectares), Espagne (8,4 millions d’hectares), Grèce (6,5 millions d’hectares), Autriche (3,9 millions d’hectares), Portugal (2,9 millions d’hectares), Royaume-Uni (2,4 millions d’hectares) et en Belgique (0,7 million d’hectares); ›› 544.800 hectares est la superficie couverte par la forêt wallonne, soit 32,3% de la superficie totale de la Région wallonne. Elle est en expansion: de 355.314 ha en 1846, elle est passée à 315.645 en 1866 (minimum historique); ›› 52,4% de feuillus et 47,6% de résineux composent la forêt wallonne. Les essences les plus répandues sont l’épicéa, le chêne et le hêtre; • 3.800 entreprises de la «filière bois» wallonne occupent environ 12.000 personnes. 33 ATHENA 265 · Novembre 2010 > BIOLOGIE Vu d’en haut, tout paraît petit... Texte : Jean-Michel DEBRY • [email protected] Photos :B. SMITH/Flickr (p.34), O. Leillinger (p.35), Prof. I. Das/ Inst. of Biodiversity and Environmental Conservation (p.36), Minikti/Flickr (p.36) 34 La fin des mammouths O n peut le regretter de façon rétrospective, compte-tenu de l’attrait qu’ils représentent: les mammouths ont bel et bien disparu il y a un peu plus de dix mille ans. Les éléphants - leurs proches parents - demeurent quant à eux bien présents; pourtant, en dépit d’une taille hors norme, ils sont bien plus petits et n’ont pas ces longs poils ni ces défenses démesurées. Et puis les regrets ne portent forcément que sur ce qu’on n’a plus. Une question qui taraude quelques spécialistes depuis une trentaine d’années porte sur la cause de la disparition de ces géants. Jusque-là, on y voyait l’effet conjugué d’un refroidissement durable et d’une chasse acharnée, opérée par les hommes d’alors. Mais quelques géologues ont récemment émis l’idée que des évènements «externes» auraient pu précipiter leur disparition; en l’occurrence des bombardements cosmiques et l’impact d’une ou plusieurs météorites, plus précisément sur le nord du territoire américain. Ils se sont par conséquent mis à la recherche de traces géologiques laissées par ces cataclysmes, usant de tous les signes connus en la matière: présence de microdiamants cubiques et autre dépôts de carbone dans les strates du sol pour ne citer que ceux-là. Cette recherche de plusieurs années vient de livrer ce qui devrait constituer un point final: aucune trace tangible de tels phénomènes ne semble pouvoir étayer l’hypothèse. La longue recherche internationale menée à ce sujet a notamment impliqué des spécialistes belges, chercheurs aux universités de Bruxelles (ULB) et d’Anvers. Il faudra par conséquent en rester aux explications classiquement retenues jusque-là. Il est vrai qu’il y a un peu moins de 13.000 ans, une phase de refroidis- sement intense mais brève (1.300 ans tout de même !) est survenue, marquant le début d’une ère que les spécialistes appellent le Dryas récent. Or, qui dit refroidissement dit avancée des glaciers dans certaines zones du globe et réduction de croissance de la strate végétale. Est-il nécessaire de le rappeler, les mammouths avaient un appétit proportionnel à leur taille… Si on ajoute à ce tableau le fait que les hommes de l’époque, armés d’outils devenus performants, ont perçu la bonne fortune alimentaire que représentaient ces montagnes de viande, on aura identifié des explications réalistes à cette disparition. Y ajouter quelques évènements d’ordre planétaire est-il donc encore nécessaire ? Il semble ainsi avéré aujourd’hui - mais sans doute pas encore pour tout le monde - qu’il faut désormais s’en tenir à des implications strictement terriennes. Science 2010. 329/ 113-114 Jean-Michel DEBRY · BIOLOGIE O Opération camouflage n ne répètera jamais assez que le vivant est par essence dynamique et hautement adaptatif. Cette faculté doit tout au hasard des mutations qui, «tombant bien» parfois, constituent un élément favorable à l’espèce concernée. En la matière, le phalène du bouleau constitue un exemple aujourd’hui très connu. Ce lépidoptère (ou papillon) blanc a trouvé opportun, pour échapper à ses prédateurs, de se poser sur les troncs tout aussi blancs des bouleaux. L’homochromie est parfaite et il faut parfois faire un réel effort pour distinguer l’animal de l’écorce. Le problème est que la pollution - dans les zones à forte densité industrielle en tout cas - a généré de grandes quantités de fumerons qui ont noirci les troncs en question. Qu’importe. Avec le temps, une mutation est survenue, qui a rendu la livrée de l’insecte tout aussi noire. Un triomphe d’adaptation ! D’autres exemples de ce type ont, depuis, été décrits. Le dernier en date concerne le pou des plumes qui, comme son nom l’indique assez clairement, est un ectoparasite des oiseaux. Des observations très orientées ont permis de constater que le pou en question a su, avec le temps et grâce à quelques mutations bienvenues, adapter sa couleur à celle des plumes; dans un registre blanc ou noir en tout cas. L’animal échappe donc à l’œil scrutateur de l’hôte. C’est en tout cas ce qui peut apparaître en première observation anthropomorphique. On peut en effet se demander si la survie du parasite ne tient pas davantage au fait qu’il sait se nicher en des endroits où le bec et les pattes de l’oiseau parasité n’ont pas accès. Par ailleurs, la vue de celui-ci est-elle réellement bernée par cette homochromie ? On peut en douter. Les oiseaux ont en général une bonne vue, avec une perception des couleurs à plus large spectre que la nôtre. La couleur, telle que nous la percevons joue-t-elle encore totalement dans ce cas ? On serait tenté d’en douter. Du coup, rien n’interdit de penser que l’adaptation de la livrée de ces poux à celle des hôtes leur sert à autre chose qui n’est pas directement du domaine de la dissimulation. Mais à quoi ? C’est évidemment ce qui reste à établir... Nature 2010 ; 466 : 1024. 35 Une centenaire particulièrement alerte C ’est sans doute une des créatures les plus insignifiantes qui soit; pourtant, la science lui doit énormément et nous en sommes tous tributaires. Elle ? La mouche drosophile; un insecte long de 3 mm à peine qui se nourrit de matières organiques en décomposition et qui hante parfois nos poubelles les jours d’été… Mais c’est aussi un outil de recherche dont on fête cette année le centenaire d’une assistance aussi déterminante qu’involontaire à la science. La génétique - et plus particulièrement la cytogénétique, celle qui repose sur l’examen des chromosomes - a connu un début discret avec les travaux de Gregor Mendel, dans la seconde moitié du 19e siècle. Ces travaux ont sombré ensuite dans un relatif oubli avant d’être «redécouverts» simultanément par trois savants. Cette seconde naissance était la bonne; depuis, la génétique n’a plus jamais quitté l’avantscène de la connaissance scientifique et on sait assez à quel point c’est encore le cas aujourd’hui. Après les plantes utilisées au début, au rythme de multiplication annuel, on a utilisé des modèles à reproduction plus rapide: rats et souris. Mais les semaines à attendre pour observer d’éventuels résultats étaient, à certains égards, trop longues encore. D’où l’idée d’un chercheur américain, Thomas Hunt Morgan (1866-1945), de miser sur Drosophila melanogater, insecte d’une affligeante banalité, mais capable néanmoins d’assurer 30 générations par an ! Dès 1907, il l’a mis en élevage dans l’espoir de voir apparaître des mutations qu’il pouvait ensuite mettre à profit pour vérifier les lois de la transmission héréditaire. Pendant 3 ans, il a vainement attendu l’apparition d’une de ces modifications, de plus en plus improbable. Puis, un matin d’avril 1910: victoire ! Un mâle est apparu, porteur d’yeux blancs, en lieu et place des yeux rouges habituels. Il restait alors au chercheur à déterminer de quelle façon le caractère était transmis de génération en génération en usant d’une reproduction très orientée. Le savant entrait dans l’histoire et méritait le prix Nobel de médecine 23 ans plus tard. Quant à la drosophile, elle faisait elle aussi une entrée déterminante dans les laboratoires où elle est toujours; porteuse de mutations répertoriées par dizaines aujourd’hui. ATHENA 265 · Novembre 2010 > BIOLOGIE La question du mois Q u’est-ce qui mesure 10 à 12 mm, qui a une couleur brune et un air plutôt sympathique, qui est capable de franchir d’un saut une distance plusieurs fois supérieure à la longueur de son corps, mais qui n’est pas une sauterelle (ni d’ailleurs un insecte) ? 36 Microhyla nepenthicola, le plus petit batracien connu de l’ancien monde. L’espèce vit à Bornéo et si on peut identifier l’animal dans la nature, c’est surtout en raison de son cri d’appel qui surprend - paraît-il - par sa puissance compte tenu de la taille de celui qui l’émet. Deux réserves, toutefois: la femelle est - tout de même - deux fois plus grande que le mâle et l’espèce n’est pas la plus petite du monde: il en existe une autre en Amérique latine, dont la taille n’excède pas 9,8 mm ! Petit, petit… Mini-Kermit photographiée sur un penny et sur la pointe d’un crayon… Un petit insecte pour la Nature, un grand modèle pour la science; un modèle qui fête donc cette année un étourdissant centenaire au service - involontaire - de la connaissance universelle ! L’ADN dans un souffle S i les études géniques ont une cote de plus en plus affirmée dans les évaluations de tous genres, elles imposent tout de même une contrainte: on doit disposer de cellules pour les réaliser. Pour les humains en quête d’un diagnostic quelconque, les choses sont simples: une prise de sang ou, moins traumatique, un frottis buccal suffit pour disposer du matériel nécessaire. En matière de criminalistique, on sait que les choses sont plus complexes: il est parfois nécessaire de débusquer les traces là où elles se nichent et leur rareté pousse les conclusions tirées parfois à leurs limites d’exploitabilité. Pour les animaux sauvages, la problématique est à géométrie hautement variable et tient à leur accessibilité, à leur taille et à divers autres paramètres. Des dispositifs permettent parfois d’effectuer à distance des prélèvements plus ou moins traumatiques. Dans ce registre, des flèches à prélèvement dermique sont en particulier mises à profit chez les mammifères dont l’approche est délicate; elles sont efficaces et forcément un peu traumatiques aussi puisqu’elles permettent un carottage tissulaire. Cela n’empêche évidemment pas de rechercher à exploiter d’autres sources. Le dauphin devrait à ce titre bientôt bénéficier d’une approche nouvelle qui ne lui laisserait aucune séquelle visible. On sait que l’animal, revenu en surface, éjecte l’air pulmonaire par l’évent qu’il porte au-dessus de la tête. Or, on vient de remarquer que l’orifice ne rejette pas que de l’air et de la vapeur d’eau; le flux contient également du mucus dans lequel des cellules du tractus respiratoire se trouvent emprisonnées. Un réel bonus pour les études de biologie moléculaire ! Prélever une fraction du rejet en surface permet donc aussi de récupérer des cellules. Cette source de matériel a été testée et validée récemment en Australie grâce à des animaux en bassin. Il va bien sûr falloir mettre en œuvre la même technique en milieu ouvert. D’après les spécialistes, cela ne devrait pas poser trop de problèmes car les dauphins, conviviaux, ont l’habitude de suivre de près les bateaux. Cela ne vaudra dans un premier temps que pour ces animaux-là - et encore, sans doute pas pour toutes les espèces - avant qu’on ne cherche à adapter la méthode à tous les cétacés dotés du même évent. Voilà donc une avancée qui ne manquera pas de satisfaire les amis des animaux; surtout dans la mesure où elle concerne en priorité ce dauphin, pour lequel la charge affective est spécialement élevée… Et il n’y a pas de doute que les dauphins seront contents aussi, mais comment vont-ils donc nous le faire savoir ? Science 2010 ; 329 : 1131 Jean-Michel DEBRY · BIOLOGIE Un bon marcheur, ce Néandertal ? O n a beaucoup fantasmé sur ce lointain cousin depuis la découverte de ses premiers vestiges. Alors qu’on en a initialement fait une espèce de chaînon manquant – mais c’était au 19e siècle - on s’est ensuite rendu compte que sur un plan évolutif, il était bien plus proche de nous que ce qu’on pouvait penser. Certes plutôt massif, grand, ossu et doté d’une boîte crânienne au moins aussi développée que la nôtre, il est apparu de plus en plus «humain» et moderne, notamment capable de rites mortuaires. Était-il doté d’un langage articulé ? Il semble que non, bien que la problématique reste ouverte. Se mouvait-il comme les Homo sapiens que nous sommes ? On pense depuis longtemps que oui, encore fallait-il en apporter une preuve validée à l’aide des outils dont dispose la recherche actuelle. C’est précisément ce que vient de faire une équipe de chercheurs de l’ULB. Ces derniers se sont appuyés sur les vestiges de membres inférieurs disponibles, les ont passés au crible des appareils d’imagerie médicale les plus performants et ont reconstruit sur un mode tridimensionnel les images réalisées grâce à un logiciel conçu tout exprès. Ils ont bien entendu aussi tenu compte des insertions musculaires afin de vérifier si ces êtres vigoureux d’un autre âge n’était pas des surdoués de la puissance ostéo-musculaire; pour les membres inférieurs en tout cas. Rien ne semble établir que ces êtres-là se mouvaient autrement que nous le faisons aujourd’hui. Pour autant bien entendu qu’on puisse tirer des conclusions définitives à partir de vestiges incomplets. Ces cousins disparus il y a un peu plus de 30.000 ans devaient donc se mouvoir comme nous. Avec une souplesse identique ? Ça, ça reste à voir, le cerveau étant à ce titre un élément intégrateur déterminant. Plus grands et puissants que les humains modernes, les Néandertaliens ont pourtant été les victimes des glaciations auxquelles l’Homo sapiens a plutôt bien résisté. Être grand et costaud impose quelques contraintes, notamment énergétiques ou alimentaires. Or, les glaciations se sont avérées particulièrement pénalisantes de ce point de vue, surtout pour les individus – comme eux - préférentiellement carnivores. On sait dorénavant que ces parents aujourd’hui disparus avaient de bonnes jambes. Ça n’a visiblement pas suffi pour échapper aux caprices d’une météo défavorable. Alzheimer, maladie à prions: même combat ? L a dégénérescence des neurones corticaux dans la maladie d’Alzheimer est liée aux dépôts progressifs de la protéine β-amyloïde - associée aux protéines Tau - sur le cortex. Bien. On a associé une maladie et une réalité histologique. Mais le lien est-il si immédiat ? Une observation récente - en attente de confirmation - tendrait à démontrer que le tableau est un peu plus complexe. Des chercheurs ont en effet mis en lumière, à l’occasion d’expériences menées chez la souris, que ce sont les prions, des protéines normalement présentes sur la membrane des cellules nerveuses qui, «excitées» par la présence des β-amyloïdes, joueraient le rôle de récepteurs et déclencheraient des réactions en chaîne menant à la destruction des neurones. Jusqu’à présent, il semble qu’on ait largement focalisé sur le dépôt progressif des protéines insolubles dont on a récemment montré qu’elles étaient (surtout ?) liées à un processus naturel de vieillissement. Dans la lutte contre l’Alzheimer, on aurait donc intérêt à davantage viser les prions… C’est une piste nouvelle que des chercheurs semblent vouloir privilégier. Mais ils ne font pas l’unanimité. L’injection de β-amyloïdes à des souris sans prions aurait mené à des déficits neuronaux… Là encore, il n’y a pas matière à généralisation: il faut d’abord uniformiser les protocoles expérimentaux pour les rendre superposables, ce qui ne semble pas encore être le cas aujourd’hui. Lorsqu’on aura enfin passé ce cap, on pourra alors - ou non - suspecter l’intervention du prion et agir en conséquence, en bloquant par exemple celui-ci avec des anticorps. En espérant (enfin !) avoir définitivement débusqué la bonne cible. Nature 2010 ; 466 : 1031 37 ATHENA 265 · Novembre 2010 > SANTÉ BESEP, 38 le sport contre la sclérose L a sclérose en plaques (SEP) est considérée comme une pathologie du jeune adulte. Chez deux tiers des patients, les premiers symptômes de la maladie se manifestent en effet entre 15 et 45 ans - le plus souvent, entre 20 et 35 ans. En Belgique, quelque 12.000 personnes souffrent de SEP et, à l’échelle mondiale, plus d’un million. En outre, l’affection est à prépondérance féminine, les femmes y étant deux fois plus exposées que les hommes. Dans sa conception classique, la sclérose en plaques est décrite comme une affection du système nerveux central caractérisée par une agression autoimmune (1) de l’oligodendrocyte (2) et de ce qu’il produit, la gaine de myéline entourant les axones (3). À la suite de cette démyélinisation, la bonne vitesse de conduction de l’influx nerveux n’est plus assurée. Quant aux axones dénudés, ils finissent par dégénérer. Si l’existence d’un tel processus secondaire de dégénérescence axonale est irréfutable, tant les données anatomo-pathologiques que celles de l’imagerie par résonance magnétique (IRM) incitent à croire qu’une atteinte primaire de l’axone et des neurones serait également à l’œuvre dans la maladie. De sorte qu’il semble fondé d’avancer que la SEP est une maladie tout autant de la myéline que de l’axone et que la dégénérescence axonale précoce BESEP, une affaire de biceps ? Pas seulement. Une affaire de sport en tout cas. Et un programme original destiné aux malades atteints de sclérose en plaques. Plusieurs études récentes ont souligné les bienfaits de la pratique sportive en endurance chez ces patients. Est-ce en partie parce qu’elle exercerait un effet discret sur leur système immunitaire «rebelle» ? Des données biologiques peuvent le laisser supposer... Texte : Philippe LAMBERT [email protected] Photos :REPORTERS (p.38), Ph. LAMBERT (pp.39 à 41) pourrait être de nature immunitaire elle aussi. La cartographie des lésions occasionnées par la SEP (les «plaques» de démyélinisation) est très variable, ce qui explique le polymorphisme des symptômes présentés par les patients, la pathologie se traduisant in fine chez chacun d’eux par une empreinte symptomatique spécifique: atteintes au niveau du système moteur (la marche est souvent affectée en premier lieu) ou du système sensitif, névrite optique, diplopie (vision double), pertes d’équilibre, vertiges, troubles urinaires, troubles du sphincter anal, névralgie du trijumeau, etc. En outre, toutes les combinaisons sont possibles. Philippe LAMBERT · SANTÉ De nouveaux horizons Dans sa forme la plus fréquente, appelée rémittente-récurrente (environ 85% des cas), la SEP se caractérise initialement par des poussées (4) et rémissions successives qui laissent la place, après de nombreuses années, à une accumulation lente et insidieuse d’un déficit indépendamment de toute nouvelle exacerbation aiguë. La maladie est alors entrée dans sa forme dite secondaire progressive. Dans la forme rémittente-récurrente, l’administration de corticoïdes demeure le traitement universellement utilisé contre les poussées. Toutefois, à la lumière des connaissances actuelles, son efficacité paraît sujette à caution. Les progrès thérapeutiques récents concernent les traitements de fond. En première ligne, ils s’appuient essentiellement sur deux immunomodulateurs les interférons de type ß1 et l’acétate de glatiramer - et, en seconde ligne, sur un anticorps monoclonal, le natalizumab. «Chez les mauvais répondeurs à une thérapie de première ligne, le natalizumab, utilisé en seconde intention, s’avère d’une grande efficacité: parmi les patients traités, 80% ne feront plus de poussée, 40 à 60% n’auront plus ni poussée ni nouvelle lésion», rapporte le professeur Shibeshih Belachew, chef de clinique au sein du service de neurologie du CHU de Liège. Pour 10 à 15% des patients, le scénario est différent de celui de la SEP rémittente-récurrente. Chez eux, il n’est pas question de poussées, mais d’une pathologie évoluant à bas bruit de manière constante, la SEP primaire progressive qui, dès l’apparition des premiers signes cliniques, est responsable d’une progression lente et insidieuse de la symptomatologie. Cette forme de sclérose en plaques possède probablement une physiopathologie distincte de celle de la SEP rémittente-récurrente. Sans doute est-ce pour cette raison qu’elle ne répond pas aux thérapies efficaces dans cette dernière. Actuellement, elle ne jouit d’ailleurs d’aucun traitement validé par l’évidence. Au-delà de ses composantes psychologique et sociopsychologique ainsi que de ses bienfaits sur différents systèmes, dont en particulier le système cardiovasculaire, l’exercice physique en endurance pourrait-il influencer favorablement le décours des affections autoimmunes ? Les données biologiques relatives à l’impact de ce type d’exercice sur les fonctions immunitaires permettent d’en soutenir l’hypothèse. Ainsi que le souligne Shibeshih Belachew, le développement de l’arsenal thérapeutique contre la SEP rémittenterécurrente permet désormais d’obtenir un nombre croissant de rémissions apparentes et durables, à condition de traiter l’affection tôt et efficacement. «Pour ces raisons, dit-il, la réadaptation fonctionnelle devra intégrer dans un futur proche l’émergence de ce nouveau profil de pronostic afin de rencontrer les objectifs personnels et professionnels des malades.» Développé au sein du CHU de Liège à l’initiative de Shibeshih Belachew, un programme pilote baptisé BESEP (BE your Sporting hEalth Partner – www.besep.org) a donné lieu, le 6 novembre 2007, à la création d’une ASBL sous l’impulsion d’un groupe de patients, dont en particulier Franck Duboisse. Le principe fondateur du programme BESEP est simple: des patients atteints de SEP sont invités à pratiquer des séances d’exercices physiques aérobies sur une base régulière en présence d’un coach dont la mission est, d’une part, de définir et d’adapter le contenu de l’activité à l’évolution des performances de chaque patient et, d’autre part, de stimuler son assiduité et sa motivation. Aussi, à côté de la kinésithérapie classique, où l’accent est principalement mis sur un travail qualitatif d’équilibre et de renforcement musculaire, prône-t-il la pratique régulière de l’exercice physique en endurance (aérobie (5)), dont plusieurs études récentes ont souligné les bienfaits sur la capacité cardiorespiratoire, la fatigue et la qualité de vie des patients atteints de SEP dont le handicap est estimé léger à modéré. BESEP: la griffe du coach 39 ATHENA 265 · Novembre 2010 > SANTÉ 1 1. Le professeur Shibeshih Belachew, chef de clinique au sein du service de neurologie du CHU de Liège. 2. Franck Duboisse est la principale cheville ouvrière de l’asbl BESEP où il exerce par ailleurs des activités de coach. 40 La nature de la tâche qui leur incombe suppose que les coaches reçoivent une formation sur mesure. Celle-ci comporte notamment une initiation à la communication mettant l’accent sur les outils comportementaux requis pour un accompagnement optimal de malades chroniques dans leur pratique de réadaptation. Cette facette essentielle de la formation est dispensée par la société Krauthammer, spécialisée dans le coaching. Et cela, en outre, avec une plus-value: le vécu personnel du formateur, Frédéric Meuris, lui-même atteint de sclérose en plaques. Autre aspect: les coaches se voient également enseigner les fondements de l’entraînement au running par les instructeurs du programme Je cours pour ma forme (6), un des deux modules proposés aux patients ayant trait à la course à pied et à la marche nordique. Enfin, l’équipe de It’s 4 fit, active dans le secteur de la préparation et de la mise en condition physique, inculque aux coaches des méthodes de prise en charge sportive très pointues. Quels sont les patients concernés par le programme BESEP ? «Toutes les formes de SEP (rémittente-récurrente, secondaire progressive et primaire progressive) sont éligibles, dit Shibeshih Belachew. Le seul facteur de sélection est constitué par les scores d’invalidité, ce qui, par extrapolation, signifie que 35 à 50% des patients belges pourraient être candidats à un programme d’entraînement comparable à celui que nous avons élaboré.» Une des clés de voûte du programme BESEP est de permettre aux malades de pratiquer un sport en endurance dans un environnement extrahospitalier (salle de fitness, espace de plein air). Le neurologue estime d’ailleurs que l’évolution des soins dans la SEP doit tendre vers une relative dichotomie entre la personne en chaise roulante et celle qui dispose encore de la capacité, aussi ténue soit-elle, de se tenir debout. «Cette frontière est essentielle à mes yeux, affirme-t-il. Dans son esprit, on est debout ou on ne l’est plus. Dès lors, sur le plan psychologique, il n’est pas profitable aux patients encore capables de se tenir sur leurs jambes de fréquenter des structures où ils côtoient d’autres patients en chaise car ces derniers leur renvoient leur image future potentielle, c’est-à-dire celle qu’ils veulent fuir à tout prix.» Deux programmes Dans la pratique, le programme BESEP, qui a rassemblé en permanence 50 à 70 Besepers depuis sa création, s’adresse à des patients chez qui demeure au minimum la faculté de marcher 100 mètres sans aide. Cela ne signifie pas qu’il est impossible d’envisager une prise en charge similaire pour les patients en chaise. Ces derniers 2 constitueraient alors une filière distincte, avec des exercices adaptés. Les Besepers ont le choix entre deux programmes: le BESEP Running, en plein air, et le BESEP Light, dans une salle de fitness ouverte à tous. Chaque groupe confié à un coach compte 5 à 8 patients. Les séances de running (course à pied ou marche nordique (7)) ont lieu trois fois par semaine pendant 90 minutes et se déroulent en trois temps – échauffement, exercices de l’appareil locomoteur à des intensités variables imposées alternant avec des exercices en atelier (maintien, équilibre, coordination, renforcement musculaire) et enfin retour au calme (étirements, relaxation autogène). Les séances de fitness, elles, adoptent la même périodicité, s’étendent sur 90 minutes également, mais comportent cinq étapes: échauffement cardiovasculaire sur vélo ergométrique; échauffement articulaire; renforcement musculaire; exercices en aérobie (à 70% de la fréquence cardiaque maximale) sur vélo, tapis roulant, rotex, rameur ou step; étirements. «Un de nos espoirs est de voir les Besepers évoluer vers une autonomie croissante dans la gestion de leur sport au quotidien, indique Shibeshih Belachew. Idéalement, certains pourraient quitter les séances coachées après six à douze mois et adopter une attitude proactive, par exemple en convainquant des membres de leur famille ou des amis de prendre part à leur activité sportive. Afin de ne pas rompre définitivement le lien et de maintenir un esprit de club chez le patient, nous lui offrons la possibilité de revenir fréquenter nos séances “à la carte” Philippe LAMBERT · SANTÉ s’il en éprouve le besoin et le convions à nous retrouver en participant à des événements tels qu’une manche de l’Urban Tour, programme de quatre épreuves de course à pied se déroulant successivement à Liège, Charleroi et Bruxelles ainsi que dans une “ville invitée”.» Retombées socioprofessionnelles Le programme BESEP a reçu en mars 2010 un avis favorable du comité consultatif de l’INAMI compétent en matière de dispensation de soins aux malades chroniques, en vue de son intégration dans le plan «maladies chroniques» (ministère de la santé) sous la forme d’une étude scientifique visant à évaluer l’influence du sport en aérobie sur le décours de la SEP. «Le service de neurologie du CHU de Liège appréciera, d’une part, les répercussions fonctionnelles d’un programme sportif soutenu par un coach par comparaison avec les performances de la kinésithérapie classique de revalidation et, d’autre part, l’impact du sport sur l’évolution de la maladie, tant au niveau clinique que sur la charge lésionnelle en IRM», souligne Shibeshih Belachew. Cette étude, qui se dénommera CARE-MS (Coached Aerobic Regular Exercice in Multiple Sclerosis) est d’autant plus importante que, potentiellement, la prise en charge d’autres pathologies auto-immunes ou neurodégénératives pourrait tirer profit d’une initiative similaire à celle proposée par le programme BESEP. L’Association Parkinson l’a compris et a déjà saisi la balle au bond, avec des résultats encourageants. La plainte la plus fréquemment émise par les patients souffrant de SEP a trait à la difficulté de marcher et à la perte d’autonomie dont elle est le bras armé. Viennent ensuite les plaintes relatives à une détérioration des fonctions cognitives. BESEP s’efforce d’apporter sa pierre à l’édifice de la lutte contre les problèmes locomoteurs des patients et, partant, contre la fatigabilité liée à la marche. Mais l’équipe du professeur Belachew a également un autre fer au feu: en collaboration avec le neuropsychologue Gaël Delrue, elle est occupée à poser les bases d’un programme de coaching neuropsychologique baptisé MIND MS (Managing Impairment through Neuropsychological Drills in Multiple Sclerosis). «Au-delà des bénéfices concrets induits sur le terrain des performances physiques, le projet BESEP a dès à présent l’ambition d’améliorer l’indice d’insertion du malade chronique dans le circuit professionnel. Cette retombée indirecte peut s’interpréter comme une conséquence de l’impact du programme sur les composantes physique, cognitive et psycho sociale de la fatigue et sur la qualité de vie», conclut le professeur Belachew. (1) Les maladies autoimmunes résultent d’une hyperactivité du système immunitaire qui s’attaque à certains constituants de son propre hôte comme s’ils étaient des substances étrangères. (2) Cellule gliale qui est à la base de la formation des gaines de myéline des axones, isolant ceux-ci et favorisant la transmission de l’influx nerveux. (3) Câble de sortie partant du corps cellulaire du neurone par lequel ce dernier transmet l’information aux cellules cibles. (4) La poussée est une période au cours de laquelle se manifestent des signes d’atteinte neurologique nouveaux ou la réapparition d’anciens symptômes. Il faut cependant que le phénomène subsiste au moins 24 heures et ait lieu en dehors d’un épisode infectieux pour que l’on puisse parler de poussée. (5) L’activité physique aérobie est une activité nécessitant l’oxygène comme source principale de combustion des sucres fournissant l’énergie à l’organisme. (6) Sites Internet: www.jecourspourmaforme. be www.ikloopgezond.be/NL (7) En marche nordique (marche avec bâtons), 30% de l’«effort locomoteur» est fourni par la ceinture scapulaire et les membres supérieurs. 41 ATHENA 265 · Novembre 2010 > PHYSIQUE Tic, tac, tic, tac ... 42 Texte : Henri DUPUIS • [email protected] • Photo : REPORTERS (p.42), J. BURRUS/NIST (p.43) Le temps ne s’écoule pas de la même manière à la côte que dans les Ardennes. La dilatation du temps vient d’être mesurée avec une précision inégalée. Même la physique se mêle de vouloir séparer Flandre et Wallonie ! L ’article (1) publié le 24 septembre dernier dans Science par des chercheurs du NIST (National Institute of Standards and Technology, agence qui dépend du ministère américain du commerce), montre que nous avons atteint une précision extraordinaire en matière de mesure du temps. À tel point que les effets relativistes sur le temps, imperceptibles dans notre vie quotidienne, sont devenus parfaitement mesurables aux échelles qui nous sont habituelles: un déplacement effectué à 30 km/h ou la montée d’une marche d’escalier de 30 cm de hauteur ! Dilatation des durées Pour apprécier le caractère exceptionnel des performances réalisées par les chercheurs du NIST, revenons un instant sur les théories d’Einstein. En 1905, la théorie de la relativité restreinte a montré que la vitesse de la lumière dans le vide est un absolu, une constante indépendante de la vitesse de sa source et, surtout, que le temps perd son caractère absolu: il y a relation entre le temps et la vitesse d’un signal. Ce chambardement sans précédent et contre intuitif dans notre manière de penser le monde, a deux conséquences, aujourd’hui bien connues: la contraction des longueurs et la dilatation des durées. C’est le second phénomène qui nous intéresse particulièrement ici. Encore faut-il s’entendre sur le sens du mot durée. Il en existe un, plus «valable» que d’autres: c’est la durée (ou temps) «propre», c’est-à-dire la durée mesurée par un observateur qui accompagne le processus. Prenons l’exemple bien connu des muons, particules qui se forment par interaction du rayonnement cosmique avec l’atmosphère, soit environ à une quinzaine de kilomètres d’altitude. Ils ont une durée de vie de 2,2 millionièmes de seconde (donc, au bout de cette période, la moitié de ces particules se sont désintégrées). Comme ils voyagent à une vitesse proche de celle de la lumière, un calcul simple montre qu’ils devraient être tous désintégrés avant d’arriver jusqu’à nous. Or nous les détectons en grand nombre, nous sommes constamment traversés par de telles particules ! L’explication est très simple: la durée de vie citée plus haut est celle mesurée «sur le muon», la durée de vie propre. Le même phénomène mesuré depuis la Terre aboutit à un autre résultat en application de la théorie de la relativité et la durée de vie est cette fois bien plus importante, ce qui «permet» aux muons de nous atteindre. Et les équations de la relativité permettent de pousser l’appa- Henri DUPUIS · PHYSIQUE rent paradoxe jusqu’au bout: si le muon avait une masse nulle, et donc pouvait se déplacer à la vitesse de la lumière (et non plus à une vitesse proche), la durée propre serait égale à 0 ! C’est le cas avec les photons: la durée propre du trajet d’un photon entre une lointaine galaxie et la Terre est nulle. Pourtant, il a mis des milliards d’années à nous parvenir ! Autre exemple: une horloge constituée de deux miroirs entre lesquels un faisceau lumineux fait l’aller-retour est à bord d’un train animé d’un mouvement rectiligne et uniforme. Lorsqu’une personne qui est dans le train regarde ce qui se passe, elle voit le faisceau lumineux qui parcourt une certaine distance: un allerretour qui équivaut, par convention, à une unité de temps (par exemple, une seconde mais ce chiffre est évidemment fantaisiste). Du fait du déplacement du train, pour un observateur resté sur le quai, cette distance est plus grande. Donc, comme la vitesse de la lumière est constante, le temps mis pour faire le trajet entre les deux miroirs est plus long, deux secondes par exemple: le temps s’écoule moins vite pour quelqu’un qui est dans le train que pour quelqu’un qui est sur le quai. La gravitation aussi Deux ans plus tard, en 1907, Einstein établissait le principe d’équivalence entre accélération et gravitation, qui étend en quelque sorte la relativité restreinte aux systèmes accélérés les uns par rapport aux autres et qui allait donner lieu quelques années plus tard à la relativité générale. Autrement dit, une horloge placée dans un champ de gravitation se comporte comme une horloge placée dans un référentiel accéléré: il y a le même effet de dilatation des durées. Et si l’on place deux horloges dans des champs de gravitation différents, on doit enregistrer une différence. C’est ce qui a été mesuré dès 1960: le temps ne s’écoule pas de la même manière au rez-dechaussée d’un building ou à son sommet, puisque le champ de gravitation diminue quand on s’éloigne du centre de la Terre. Le temps universel n’existe donc pas. Deux horloges ne mesurent jamais que leur temps propre et rien d’autre. Bien sûr, nous ne nous déplaçons jamais à des vitesses proches de la lumière et nous ne nous échappons pas dans l’espace à la recherche de champs de gravitation élevés. Tout ceci n’influence donc pas notre vie quotidienne. Pourtant, la relativité y est valable et donc ses effets devraient pouvoir être mesurés si nous disposons d’horloges très précises. Mais comment mesurer de tels phénomènes à notre échelle ? Une fois de plus, c’est Einstein qui a suggéré le moyen d’y parvenir: utiliser les atomes comme horloges ! Ou plus exactement, les fréquences d’oscillation des atomes comme unité de temps. D’où le terme d’«horloges atomiques». En effet, les oscillations atomiques sont aisément repérables (on analyse leur spectre), rigoureusement immuables et surtout, tous les atomes d’un même élément étant identiques, cela permet d’avoir des horloges identiques, donc comparables, ce qui n’est évidemment jamais le cas avec des horloges basées sur des systèmes mécaniques. Pour mesurer l’effet relativiste sur le temps, le principe est donc simple: on compare la fréquence propre d’un atome au repos et celle d’un atome identique mais animé d’un mouvement rectiligne uniforme. On constate effectivement que les raies spectrales de l’atome en mouvement sont décalées vers les basses fréquences. Mais, pour déceler quelque chose, il fallait tout de même conférer des vitesses assez importantes à l’horloge en mouvement (on la plaçait par exemple dans un avion supersonique, un satellite ou une fusée). Ce n’est plus le cas depuis ces dernières années et aujourd’hui, on peut mesurer les effets relativistes dans notre vie quotidienne grâce à la précision atteinte: une seconde sur 3,7 milliards d’années ! Pour y arriver, les chercheurs du NIST ont fabriqué une horloge constituée d’un ion d’aluminium enfermé dans des champs électriques et excités par un rayon laser. On fait ainsi sauter un de ses électrons d’un niveau d’énergie à un autre en un millionième de milliardième de seconde. Deux de ces horloges ont été construites. Lors d’une première expérience, l’une a été déplacée à une vitesse de 33 km/h; dans une autre, elle a été suréle- James Chin-wen Chou, chercheur au NIST, devant l’horloge la plus précise jamais construite. L’ion d’aluminium dont la vibration sert d’étalon de mesure du temps est contenu dans le cylindre métallique au centre -gauche de la photo. vée de 30 cm (donc un champ gravitationnel infiniment moins élevé que pour celle restée 30 cm plus bas). Verdict: dans les deux cas, le temps mesuré n’est plus le même par rapport au temps mesuré par l’horloge qui n’a pas bougé. La différence ? Si l’expérience avait duré 80 ans (une vie !), elle aurait été de 90 milliardièmes de seconde ! 90 milliardièmes en moins pour celui qui se déplace ou pour celui qui vit 30 cm plus bas que les autres ! Mieux vaut vivre à la côte que dans les Ardennes ! (1) C.W. Chou, D.B. Hume, T. Rosenband and D.J. Wineland. Optical Clocks and Relativity. Science. Sept. 24, 2010. + Pour en savoir plus http://www.nist.gov/ physlab/div847/ aluminum-atomic-clock_092310.cfm 43 ATHENA 265 · Novembre 2010 > ASTRONOMIE À la Une du Cosmos Texte: Yael NAZÉ · Photos: Esa, Eso et Nasa Des planètes dans des systèmes composés de deux étoiles, c’est possible, mais à certaines conditions. Cependant, des objets découverts ce mois-ci dans de tels systèmes défient toutes les théories actuelles de formation planétaire ! Photo: Univ. Sheffield Début novembre, la sonde Epoxi (ex-Deep Impact) a survolé à 700km d’altitude la comète Hartley 2, que l’on a pu observer en octobre depuis le ciel belge (quand il n’était pas couvert). Le noyau a une forme de cacahuète et présente quelques jets. Photo: Nasa 44 Vénus aurait-elle dévoilé une part de son mystère ? Une nouvelle analyse des données de la sonde Magellan (active dans les années 90) suggère que des coulées de lave sont récentes - le volcanisme serait donc bien encore actif sur la planète. Hélas, les preuves sont minces et la sonde européenne Venus Express ne peut confirmer la chose car son orbite ne lui permet pas d’observer la région en question. Photo: Nasa Rififi exoplanétaire... L’annonce très médiatisée d’une exoplanète habitable dans Gliese 581 doit être revue : de nouvelles données mettent en doute l’existence même de la chose ! Pas de panique - la vérification de résultats constitue bien une partie indispensable de la science. Par contre, il semble certain qu’une exoplanète en sursis a été découverte : elle tourne de plus en plus vite autour de son étoile, s’en rapprochant inexorablement. Elle sera déchiquetée par les marées stellaires d’ici peu (quelques millions d’années quand même). Photo: Eso Yael NAZÉ · ASTRONOMIE Une galaxie très très lointaine, c’est ce qu’a observé un des télescopes européen VLT. Record en son genre, sa lumière a été émise alors que l’Univers avait à peine 600 millions d’années et était alors empli d’un brouillard assez opaque. Photo: Eso La détection directe de la matière noire prend un tour inattendu. Depuis plusieurs mois déjà, la communauté «gamma» vibre de rumeurs insistantes. Cette fois, ce sont les observations du centre galactique par le télescope spatial Fermi qui semblent indiquer que les rayons gamma proviennent de la désintégration de matière noire. Photo: Nasa [email protected] http://www.astro.ulg.ac.be/news/ 45 ATHENA 265 · Novembre 2010 > ESPACE D iscrets, aux formes étranges, «ils» évoluent au-dessus de nos têtes. Ce sont des blocs de pierre, faits de crevasses et cratères, autour du Soleil. On les appelle astéroïdes. Hergé en a mis un en scène dans l’aventure lunaire de Tintin et de ses compagnons: il s’appelait Adonis et il avait failli happer le capitaine Haddock en scaphandre qui vagabondait à l’extérieur de la fusée… L’étude des astéroïdes suscite de plus en plus d’intérêt dans le monde. C’est sur l’astéroïde Itokawa que le Japon a signé son plus bel exploit spatial grâce à la sonde Hayabusa-1 utilisant la propulsion électrique: elle a effleuré sa surface pour collecter des grains de poussière dans une micro-capsule... Texte: Théo PIRARD · Photo: Jaxa/Akihiro Ikeshita Q 46 uel intérêt d’aller voir de plus près les astéroïdes ? On en dénombre près de 400.000, mais leur recensement est loin d’être terminé. Vu leur grande diversité, ces rochers monstrueux qui sillonnent le système solaire ont de quoi éveiller la curiosité. D’abord, ce sont des vestiges d’éléments qui ont participé, il y a plus de 4,5 milliards d’années, à la formation du système solaire. Leur étude permet de mieux comprendre comment ont pris forme les planètes et leurs lunes. Puis, ces spécimens peuvent contenir des ressources de type carboné (chondrites) ou métallique (fer, nickel, magnésium…). Leur exploitation constitue une entreprise osée: il faut pouvoir détourner l’astéroïde vers la Terre. Enfin, certains sont inquiétants, vu qu’ils s’approchent de notre planète. Ces «géocroiseurs», ou encore Neo (Near Earth Objects), croisent régulièrement l’orbite solaire de la Terre. Y a-t-il des risques pour la vie terrestre ? Dans le passé, des «géocroiseurs» de grande taille ont heurté notre Terre. On pense que l’explosion de l’un d’entre eux dans notre atmosphère est à l’origine de la période glaciaire… Les astéroïdes de plus de 100 m qui nous «frôlent» à moins de 7,5 millions de km de distance sont considérés comme dangereux. Un tel astéroïde, en cas de collision, peut détruire une ville, provoquer un tsunami, faire fondre la banquise… Redoutant cet accident dans les 30 prochaines années, des groupements alarment l’opinion publique mondiale. La Fondation B612, de l’astronaute Rusty Schweickart, a financé l’étude d’un engin spatial capable de dévier un «géocroiseur» à hauts risques. O ù en est l’exploration des astéroïdes ? La Nasa (National Aeronautics & Space Administration) et la Jaxa (Japan Aerospace Exploration Agency) ont chacune envoyé une sonde toucher le sol d’un astéroïde. Near (Near Earth Asteroid Rendezvous) Shoemaker a exploré Eros du 14 février 2000 (fête de la Saint Valentin pour sa mise en orbite) au 12 février 2001 (arrivée en douceur à sa surface). Hayabusa-1 a manœuvré près d’Itokawa entre septembre et décembre 2005. La sonde japonaise a eu un contact in situ et des nano-particules ont dû être récoltées dans une microcapsule. Celle-ci est revenue intacte dans le désert australien le 13 juin dernier. De son côté, l’Esa (Agence spatiale européenne) a survolé et photographié les astéroïdes Steins (septembre 2008) et Lutetia (juillet 2010) avec sa sonde Rosetta en route vers le noyau d’une comète. La Nasa a déjà inscrit à son programme d’exploration une mission d’astronautes vers un astéroïde en 2025. Reste à en trouver le financement. Cette vue d’artiste très réaliste montre la sonde Hayabusa en train d’aspirer dans sa capsule des nano-poussières de l’astéroïde Itokaw. Théo PIRARD · ESPACE Cap sur orbite, via Charleroi ! Texte : Théo PIRARD · [email protected] Photos : T. PIRARD (p.47), ESA (p.48) C harleroi avait mis les petits plats dans les grands pour accueillir les invités des 27 membres de Wallonie Espace, issus des mondes de la recherche (universités, instituts scientifiques) et de l’industrie (électronique, informatique, optique, mécanique…). Ces 27 acteurs représentent quelque 1.400 emplois pour un chiffre d’affaires que l’on estime à 170 millions d’euros. Des visites d’entreprises, une conférence avec table ronde, des sessions techniques et des animations pour les groupes scolaires ont permis de faire le point sur les défis qui attendent le transport spatial européen et la conception de modèles sur ordinateur. Elles ont également levé le voile sur des équipements à la pointe du progrès: ›› chez Thales Alenia Space Etca: l’avionique spatiale, notamment dans la case à équipements d’Ariane 5. La société carolorégienne est présente sur les trois fusées qui vont, dès l’an prochain, offrir à l’Europe l’accès à l’espace; ›› chez Sabca: la réalisation de structures essentielles des lanceurs Ariane 5 et Vega, ainsi que les systèmes de servo-commandes qui assurent le pilotage correct des étages. À bord de Vega, l’entreprise bruxelloise assure, comme sous-systémier, le développement complet de tous les actuateurs électro-mécaniques; ›› chez Techspace Aero (Herstal): le développement et la production des vannes du propulseur cryogénique Vulcain d’Ariane 5; ›› chez Samtech: la famille Samcef des logiciels de modélisation qui servent à concevoir et étudier les éléments critiques de systèmes pour l’espace. On a surtout fait le point sur les services proposés par l’opérateur commercial de transport spatial en Europe. Un nouvel Arianespace - comme l’a annoncé Michel Doubovick, son vice-président pour les Du 11 au 13 octobre, le pôle de compétitivité du secteur aérospatial Skywin Wallonie, avec son cluster Wallonie Espace, a organisé à Charleroi, des Journées de l’Espace très réussies. Destinées à promouvoir les compétences des acteurs wallons du spatial européen et à sensibiliser le public spécialement les jeunes sur les défis, études et carrières de l’astronautique (satellites, applications, exploration…), ces 3e journées avaient pour thèmes les lanceurs pour l’accès à l’espace en Europe, leur avenir et le rôle de la modélisation numérique dans leur réalisation. Il s’agissait de mieux connaître le savoir-faire de Thales Alenia Space Etca (Charleroi) et du Groupe Samtech (Liège). affaires gouvernementales - va, dès l’an prochain, amorcer la prochaine décennie avec l’exploitation simultanée de trois lanceurs complémentaires qui élargissent son éventail de services: l’Ariane 5-ECA est rejoint au Port spatial de l’Europe par le Soyouz ST russe à partir d’avril et par le Vega italo-européen durant l’été. Ce sont, en tout, 68 lanceurs qui ont déjà été commandés par Arianespace: 39 Ariane 5, 24 Soyouz et 5 Vega pour répondre aux besoins, tant commerciaux qu’institutionnels. L’utilisation de l’espace tant par les pouvoirs publics que par des sociétés privées a atteint la maturité qui exige un accès stable et sûr à l’orbite. Le transport spatial doit être fiable en évitant que les anomalies de conception et de production aient un impact sur sa disponibilité. Et il doit être compétitif grâce à une réduction des coûts. Mais cette année ne s’annonce pas prometteuse chez Ariane space, vu qu’un problème industriel, dû à un vice de conception, a perturbé le planning des lancements Ariane 5 durant le premier semestre. 47 ATHENA 265 · Novembre 2010 > ESPACE LANCEUR ARIANE 5 ECA SOYOUZ ST VEGA 12 février 2005 4 octobre 1957 - Eads Astrium Space Transportation (France) Centre Spatial Samara/Progress (Russie) Elv (Italie) 9,5 t / 15 t ? / 20 t 3 t / 4,9 t / 8 t ? - / 1,8 t / 4,5 t 11 décembre 2002 (échec) [avril 2011] [juin 2011] ELA-3 Kourou ELS Sinnamary SLV Kourou Thales Alenia Space Etca, Sabca, Techspace Aero Thales Alenia Space Etca Sabca, Thales Alenia Space Etca, Spacebel 1er vol réussi Maître d’œuvre (Pays) Performances GTO/SSO/LEO 1er vol en Guyane Infrastructure Participation belge Évolution vers une révolution 48 Chez Eads Astrium Space Transportation, on est conscient qu’il faudra, dans les années à venir, adopter des formules innovantes pour la gestion du design et du business. Hervé Gilibert, chef des programmes de développement Ariane 5, n’a pas hésité à prendre comme modèle le constructeur américain SpaceX et son lanceur Falcon 9. «Nous entrons dans une autre ère de management des lanceurs. Nous sommes en train d’abandonner la gestion sous la tutelle d’agences gouvernementales afin de la transférer au niveau industriel». S’inscrivant dans la stratégie d’Arianespace, qui a comme priorités la fiabilité technique et la rentabilité financière, Eads Astrium Space Transportation avec la version Ariane 5 ME (qui doit remplacer les Ariane 5 ECA et Ariane 5 ES à partir de 2017), puis avec Ngl (Next Generation Launcher ou Ariane 6 qui doit apparaître à l’horizon 2025) veut privilégier une nouvelle philosophie qui donne à l’industrie une plus grande autonomie pour garantir la fiabilité et davantage de responsabilité comme autorité de conception. Cette philosophie, qui s’apparente à une révolution, doit se faire de façon progressive. «Il ne s’agit pas de remplacer l’Esa mais de l’adapter à un nouveau modèle de relations avec les partenaires industriels pour qu’ils aient plus de responsabilité dans le cadre d’un nouveau management, pleinement responsable, du lanceur et de chacun de ses composants.» Pour Hervé Gilibert, il faut revenir à un lanceur qui soit facile à produire, à mettre en œuvre, à lancer, fiable et peu coûteux. Au sujet du projet Ngl, qui doit être mis en œuvre durant les année 2010, il n’a pas hésité à évoquer la famille des lanceurs modulaires Ariane 4, qui fut l’œuvre des pionniers européens du transport spatial à des fins commerciales. Rappelant qu’Ariane 5, conçu à partir du Space Shuttle en vue de lancer la navette Hermès, a fait naître une génération d’ingénieurs ayant recours aux nouvelles méthodes de modélisation numérique pour optimiser les performances, il a conclu: «Pour les lanceurs à venir, il est temps d’intégrer de nouveaux modes de fabrication». Vega proche de la qualification Les Space Days 2010 ont permis d’en savoir plus sur l’état de développement du lanceur italo-européen Vega. Constitué de trois étages à poudre et d’un quatrième à propulsion liquide, il a une hauteur de 30 m et une masse de 138 t. Il doit être capable de satelliser 1,8 t en orbite héliosynchrone à 1.500 km ou 4,5 t en orbite équatoriale à 300 km. On annonce un coût de lancement aux environs de 36 millions d’euros. Francesco De Pasquale, président directeur général de la société Elv (Groupe Avio), a fait le point sur les essais de qualification des différentes composantes du lanceur. Il a souligné la qualité de la technologie conçue, développée et qualifiée par la société belge Sabca pour les actua- teurs électro-mécaniques qui servent au pilotage de chaque étage: «c’est un système à la pointe du progrès, désormais disponible pour piloter le lanceur de la prochaine génération». Quand Vega pourra-t-il effectuer son vol inaugural ? Pour Francesco De Pasquale, la date du premier lancement - il doit satelliser le Cubesat liégeois Oufti-1 sera déterminée à l’issue des tests de recette du Slv (Site de lancement Vega) en Guyane. «On vise la fin du premier semestre de 2011, c’est-à-dire juin.» Le vol de démonstration emploiera un logiciel français de vol «classé confidentiel» dont l’emploi a été autorisé pour ce premier lancement. Les vols suivants mettront en œuvre un logiciel développé par une équipe européenne dont fait partie la société Spacebel, spécialiste belge d’informatique spatiale. Au sujet des retards du développement du lanceur Vega, Francesco De Pasquale y voit la cause dans la sous-estimation du programme: un budget limité (350 millions d’euros) et un planning serré (4 à 5 ans). Il voit dans le lanceur un réel banc d’essais pour des technologies qu’il faudra appliquer pour le premier étage standardisé et le pilotage précis (avec des servo-vérins électro-mécaniques) du projet Ngl, alias Ariane 6, des années 2020. Et d’annoncer la couleur: «Un propulseur à poudre est moins coûteux et plus aisé à produire qu’un étage à propulsion cryo génique». Théo PIRARD · ESPACE Brèves spatiales... d’ici et d’ailleurs Texte: Théo PIRARD · Photos: Esa, Nrf/T. ABBOTT A gence spatiale africaine, un projet de longue haleine. Depuis cet été, l’Afrique se trouve plus présente dans l’espace, grâce aux lancements de trois satellites. Le 12 juillet, la fusée indienne Pslv C15 a lancé Alsat-2A, petit satellite d’observation, réalisé par Astrium pour l’Algérie. Le 4 août, Ariane 5, pour son 38e succès d’affilée, a lancé pour le continent africain les satellites Nilesat 201 (Égypte) et Rascom-Qaf1R (organisation panafricaine) commandés à Thales Alenia Space. Sa filiale européenne Etca a équipé ces deux satellites de télécommunications et de télévision se trouvant en orbite géostationnaire. Avec la Coupe du Monde de football, les pays africains ont pris conscience, pour leurs populations, de l’importance des systèmes spatiaux pour les technologies de l’information et de la communication. Lors de leur 3e conférence dans le cadre de l’Union Africaine, qui s’est tenue à Abuja (Nigéria) du 3 au 7 août, les Ministres en charge des TIC se sont mis d’accord pour lancer le processus de création d’une agence intergouvernementale de l’espace. Une étude de faisabilité, avec le soutien de l’UIT (Union Internationale des Télécommunications), a été décidée avec évaluation des initiatives existantes et élaboration d’une politique spatiale africaine. «L’Afrique est arrivée à un point de développement, à une ambition légitime où l’accès à l’espace n’est plus un luxe, une question de prestige, mais un vecteur supplémentaire de développement», notait le président du Conseil européen, Herman Van Rompuy, dans son message lu par son représentant, Michel Praet, à la conférence à haut niveau «L’espace pour le citoyen africain», organisée par la Présidence belge de l’Union. De son côté, Antonio Tajani, le «Monsieur Espace» de la Commission, insistait sur deux grands défis pour l’Afrique qui devaient avoir le soutien de l’Europe: l’organisation d’une Agence spatiale africaine (projet étudié par l’Union africaine) et l’Institut des sciences de l’espace au sein de l’Université panafricaine (en chantier). Après avoir noté l’impact des programmes Gmes (télédétection) et d’Egnos (navigation) pour le développement socio-économique du continent africain, il a conclu: «L’espace est une nécessité pour l’Afrique. On a l’obligation de réussir son accès aux systèmes spatiaux. Pour cela, on a besoin d’une forte volonté politique.» C oup double pour Spacebel avec Galileo et Vega. Le spécialiste belge d’ingénierie logicielle des systèmes spatiaux a été retenu pour deux importants programmes de l’Esa. D’une part, le lanceur Vega et d’autre part, le système de positionnement Galileo. Spacebel a été sélectionnée par la société Elv à Rome (Italie), la maître d’œuvre du programme Vega: avec le savoir-faire acquis dans les microsatellites Proba, elle va contribuer au développement du logiciel de bord qui pilotera le lanceur ainsi que dans les activités d’ingénierie logicielle relatives au guidage, à la navigation et au contrôle de Vega. Spacebel est également responsable du logiciel de simulation destiné à vérifier et à valider les différentes fonctions du logiciel embarqué. Ce nouveau projet représente un chiffre d’affaires d’environ 1,2 million d’euros. Par ailleurs, la Pme liégeoise a récemment été choisie pour participer à la mise en œuvre des 14 premiers satellites opérationnels de la constellation Galileo. Elle contribuera aux services standards à bord de chaque satellite dans le cadre des opérations au sol. Il s’agira de développer le logiciel de manipulation des données à bord, qui va servir au contrôle et à la gestion de l’ensemble des processus pour le bon fonctionnement des satellites européens de navigation. Observatoire de radioastronomie à Hartebeesthoek (Afrique du Sud) 49 ATHENA 265 · Novembre 2010 > AGENDA Sorti de PRESSE... Information et désinformation au Moyen Âge Jean VERDON Éditions Perrin L ’information est souvent considérée comme l’apanage de notre époque. Ne parle-t-on pas de société de l’information ? Certes, grâce aux moyens techniques actuels, elle se transmet beaucoup plus vite et peut toucher beaucoup plus de personnes dans le monde entier que par le passé. En réalité, l’information a existé de tout temps et est même une nécessité: sans elle, il n’y aurait pas d’histoire, d’activité ou de progrès. 50 Jean Verdon, grand historien de la vie quotidienne et des mentalités au Moyen Âge, montre que la société médiévale ne vit pas repliée sur elle-même. Dans les cours royales et princières, les milieux d’affaires, les foires, les monastères, les universités et les grandes villes, les informations se créent, se transforment, circulent, se croisent. Les décideurs politiques doivent posséder les données permettant de prendre les décisions «adéquates» et de les faire connaître ou exécuter. Les marchands, dans le but de faire des affaires rentables et sans risques démesurés, doivent s’informer des échanges existants, de la situation des ports et des marchés, des conflits éventuels. Les paysans, quant à eux, se contentent de nouvelles locales et ne prêtent attention au monde extérieur qu’en cas de troubles (guerres, épidémies, famines,…). (et donc du Moyen Âge) que la fiabilité des informations augmente (dans une certaine mesure…), grâce à l’imprimerie et à l’écrit reproduit. À l’époque, on trouve déjà des professionnels de l’information: les crieurs publics, les hérauts (qui annoncent les tournois, faits de guerre et proclamations solennelles), les messagers et les prédicateurs. C’est qu’au Moyen Âge, l’information se diffuse encore oralement, avec toutes les déformations que cela permet. Il existe ainsi une source souvent inquiétante d’informations: la rumeur. Jean Verdon aide à démêler le vrai du faux et nous fait mesurer la différence d’échelle et de moyens techniques entre notre monde et celui du passé: le nôtre est dominé (voire «tyrannisé») par l’infor mation et ses technologies, contrairement au monde médiéval qui ne l’est pas, même s’il a déjà une bonne dose d’informations. Mais il fait aussi ressortir les constantes du concept d’information: nécessité, fragilité et manipulations, que l’on retrouve à toutes les époques, y compris à la nôtre ! Difficile à évaluer, reposet-elle sur des faits réels ou fictifs ? On arrive donc à l’un des corollaires de l’information: la désinformation, émanant de nouvelles erronées, falsifiées, déséquilibrées ou encore cryptées (transformées pour être rendues illisibles sans le code correspondant), comme la propagande, la calomnie, le mensonge, l’espionnage,… Ce n’est qu’à la fin du 15e siècle Texte: Christiane DE CRAECKER-DUSSART [email protected] À vos AGENDAS ! PRIX REINE PAOLA POUR L’ENSEIGNEMENT 2010-2011 Inscrivez-vous! Date de clôture: le 31 janvier 2011 C et appel à projets a pour objectif de mieux faire connaître des projets pédagogiques exemplaires et d’encourager des enseignants et des associations qui travaillent en liaison avec les écoles. Pour qui ? Pour le Prix «Sciences, maths et techno, une clé pour notre avenir»: les enseignants du fondamental ou du secondaire qui ont conçu un projet pédagogique destiné à rendre les disciplines scientifiques plus attrayantes et à éveiller l’intérêt des élèves pour les carrières scientifiques. Pour le Prix «Soutien extra-scolaire aux jeunes et à leur école»: les associations et personnes qui organisent des activités extra-scolaires destinées à améliorer le développement des talents et des potentialités des jeunes, à réduire le retard scolaire et à améliorer l’intégration, la solidarité et la citoyenneté. Les prix ? Chacun récompensera trois lauréats par communauté. Ils (6.500, 4.000 et 2.500 euros) seront remis par S.M. la Reine lors d’une cérémonie officielle. Infos et inscriptions ? Fondation Reine Paola, Avenue Slegers, 356, bte 17 à 1200 Bruxelles. Tél.: 02/762.92.51 Email: [email protected] Site Internet: www.prixpaola.be Géraldine TRAN · AGENDA Concours «Faites le pont» et «Ça plane pour toi» Inscrivez-vous! Date de clôture: 24 janvier 2011 L a faculté des Sciences Appliquées de l’Université de Liège organise comme chaque année deux concours ouverts à l’ensemble de la communauté étudiante. Ces deux concours ont un objectif pédagogique et sont destinés, à travers la réalisation d’un pont en carton ou d’un planeur en balsa, à sensibiliser les étudiants au métier d’ingénieur. Outre l’aspect didactique de ces concours, ils représentent également une opportunité pour les étudiants du secondaire de découvrir l’environ nement technique universitaire. Aussi, la réalisation d’une maquette pour l’une ou l’autre de ces manifestations pourrait s’intégrer idéalement dans le cadre d’un cours de mathématiques, ou de sciences. Quand ? Lundi 24 janvier 2011: clôture des inscriptions; À partir du lundi 31 janvier 2011: retrait du matériel; Lundi 25 avril 2011: remise des maquettes au laboratoire; Mercredi 27 avril 2011: essai des ponts. Tarif ? Gratuit (matériaux fournis par l’Université) Infos et inscriptions ? Vincent Denoël ULg - Dép. ArGEnCo - SE Chemin des Chevreuils 1, Bât B 52/3 à 4000 Liège Tél: 04/366.29.30 [email protected] http://w w w.argenco.ulg.ac.be/ ConcoursPont/MainPage.htm • «Faites le pont» (construction d’une maquette de pont en carton, colle et ficelle). • «Ça plane pour toi» Pour qui ? Les élèves du secondaire et du supérieur en formation d’ingénieur et architecte Pour qui ? Les élèves du secondaire supérieur et du supérieur Quand ? du mardi 1er février au vendredi 8 avril 2011: inscriptions et retrait du matériel Tarif ? Gratuit (matériaux fournis par l’Université) Infos et inscriptions ? Ludovic Noels Université de Liège, Dép. A&M - CM3 Chemin des Chevreuils 1, Bât B 52/3, B-4000 Liège Tél : 04 366 48 26 [email protected] http://www.ltas.ulg.ac.be/ planeurs Ces deux événements se dérouleront le 27 avril 2011 sur le site du SartTilman. 51 (design d’un p laneur en balsa). Ouverture du musée de l’histoire du livre: LIBRARIUM L e 20 octobre 2010, la Bibliothèque royale de Belgique inaugurait LIBRARIUM, espace permanent de découverte des cultures du livre et de l’écrit. LIBRARIUM est né d’un constat: il n’existe pas, en Belgique, d’espace d’exposition présentant des documents authentiques, consacré à toute l’histoire du livre et de l’écrit. logique, mais également thématique, donnant ainsi au parcours plusieurs niveaux de lecture qui satisferont aussi bien le profane que le connaisseur. La Bibliothèque, qui conserve un patrimoine aussi diversifié qu’illustre, se devait donc de mettre à disposition du grand public une partie de ses documents tout en les recontextualisant. À travers une scénographie originale, LIBRARIUM présente un contenu scientifique non seulement de façon chrono- Pour les parents et leurs enfants, un projet original a été mis au point, en collaboration avec l’illustrateur Geertjan Tillmans. À travers un parcours familial ludique, et en compagnie d’une bande de Mange-Mots bien sympathiques, les enfants découvriront l’exposition autrement. Un joli petit guide illustré et une valise les aideront dans leur visite. Que vous soyez simple curieux ou spécialiste, jeune ou plus âgé, que vous veniez seul ou en groupe, LIBRARIUM répondra à vos attentes… À chaque groupe, une activité sur mesure ! À Bruxelles... Où? Bibliothèque royale de Belgique. Entrée via le Mont des Arts ou le Boulevard de l’Empereur 2 à 1000 Bruxelles Quand ? Du lundi au samedi de 10h à 17h Tarif ? Entrée gratuite Plus d’infos ? Site Internet: www.kbr.be Tél.: 02/519.53.11 Visitez nos sites : http://athena.wallonie.be http://recherche -technologie.wallonie.be/ http://difst.wallonie.be/ DIRECTION GÉNÉRALE OPÉRATIONNELLE DE L’ÉCONOMIE, DE L’EMPLOI ET DE LA RECHERCHE