N° 267 - Janvier 2011 ( - 5081 Ko)
Transcription
N° 267 - Janvier 2011 ( - 5081 Ko)
Recherche et développement technologique ... 267 ... 2010 Janvier 2011 Le mag’ scientifique www.athena.wallonie.be · Mensuel ne paraissant pas en juillet et août · Bureau de dépôt Bruxelles X ... Fracture ... numérique: deuxième round ! ... ... Anorexie, boulimie: les ados en danger ... ... ... ... ATHENA 267 · Janvier 2011 > EDITO Edito Un peu, beaucoup, à la folie, pas du tout Texte: Géraldine TRAN • Rédac’chef • Photo: REPORTERS (Isabelle Caro) 2 L e champagne cuvé et les cotillons remisés, c’est l’heure des «fameuses» bonnes résolutions. Sur le podium : arrêter de fumer, faire du sport et… perdre du poids! Il n’y a bien entendu rien de mal à cela mais si cela peut paraître anodin, cela peut aussi amener à des troubles sérieux de conduite alimentaire. Cet «enthousiasme» de janvier correspond étrangement à la parution d’un article de Philippe Lambert (pp. 26-29) et tristement aussi, au décès d’Isabelle Caro, mannequin et comédienne française devenue «célèbre» pour avoir posé nue dans une publicité alors qu’elle luttait contre la maladie et ne pesait qu’une trentaine de kilos. Cet événement a vivement relancé le débat sur la communication faite autour des troubles alimentaires maladifs. Si l’on comprend aisément qu’Isabelle Caro ait eu envie de parler de sa maladie pour décourager les tentations et clairement afficher les conséquences de celle-ci, il s’en est suivi un effet pervers dans le sens où elle a cessé d’être une victime pour devenir une icône. Oui, une icône, le mot n’est pas trop fort, pour les anorexiques non désireuses de s’en sortir. La campagne anti-anorexie est ainsi devenue une publicité pro-anorexie pour celles qui se sont dit: «Je peux aller encore plus loin et pourquoi pas, devenir célèbre grâce à ma maigreur». Pervers… Tout autant que de se dire ou dire d’un proche: «Je ne suis (il/elle n’est) pas comme ça, donc je ne suis (il/elle n’est) pas anorexique»… Trop peu de place pour vous parler ici des causes potentielles (problème de l’image, canons de beauté, malêtre, instabilité psychologique,…) de ces revers de médaille qui s’effaceront, j’en suis sûre, derrière l’angle strictement médical choisi par Philippe Lambert, pour tout simplement délivrer une information et nous inciter à être vigilant car les signaux sont parfois difficilement détectables: les anorexiques ne sont pas forcément maigres et les boulimiques obèses… ATHENA 267 · Janvier 2011 Tirée à 14 500 exemplaires, Athena est une revue de vulgarisation scientifique du Service Public de Wallonie éditée par le Département du Développement technologique de la Direction générale opérationnelle Économie, Emploi et Recherche (DGO6). Place de la Wallonie 1, Bât. III - 5100 JAMBES Elle est consultable en ligne sur http://athena.wallonie.be Abonnement (gratuit) Vous souhaitez vous inscrire ou obtenir gratuitement plusieurs exemplaires, contactez-nous ! · par courrier Place de la Wallonie 1, Bât.III - 5100 JAMBES · par téléphone au 081/33.44.76 · par courriel à l’adresse [email protected] SOMMAIRE 10 26 34 SOMMAIRE Actualités 04 Actualités Pour transmettre un monde habitable 10 Dossier Bilan de la Présidence belge de l’Union européenne en matière de Recherche Œuvrer à la simplification pour booster l’innovation 12 L’ADN de ... Julian Richard, archéologue 16 Technologie Fracture numérique: deuxième round ! 18 Internet Le Web pour les Nuls et les Professionnels Comment les Trouveurs trouvent 22 Santé Anorexie, boulimie: les ados en danger 26 Biologie 30 Médecine Les émotions préferent le bleu... 34 Physique Alice au pays des gluons 38 Physique 42 Astronomie 44 Espace 46 Agenda 50 38 Éditeur responsable Impression Michel CHARLIER, Inspecteur général Ligne directe: 081/33.45.01 [email protected] Les Éditions européennes Rue Thiefry, 82 à 1030 Bruxelles Rédactrice en chef Collaborateurs Géraldine TRAN Ligne directe: 081/33.44.76 [email protected] Graphiste Nathalie BODART Ligne directe: 081/33.44.91 [email protected] ISSN 0772 - 4683 Jean-Michel Debry Alain de Fooz Paul Devuyst Julie Dohet Henri Dupuis Philippe Lambert Yaël Nazé Théo Pirard Jean-Claude Quintart Christian Vanden Berghen Dessinateurs Olivier Saive Vince Comité de rédaction Laurent Antoine Michel Charlier Jean-Marie Cordewener Couverture Première Crédit: REPORTERS Quatrième Crédit: I.SHVECOV 3 ATHENA 267 · Janvier 2011 > ACTUALITÉS Ici commence le 4 futur N ous ne sommes pas aux États-Unis, ni au Japon, mais bien à Mons en Wallonie, où Luc Langer, directeur général de Materia Nova donne le ton ! Dix ans déjà, dix ans seulement mais le même enthousiasme, la même passion pour le futur ! Double anniversaire et double succès pour Materia Nova et Multitel, deux fleurons lancés sous l’initiative de l’Université de Mons (UMons) et soutenus par l’Objectif 1 Hainaut. À l’époque, les cassandres parlaient de trucs en plus, d’investissements douteux, voués à l’échec. Aujourd’hui, succès total. Le centre de R&D a déjà signé 10.000 contrats entreprises, 2.000 contrats et prestations d’expertise, 10 contrats européens et publié plus de 600 communications scientifiques. Dans le même temps, Multitel empochait 5.900 contrats d’entreprise, 950 contrats avec l’industrie et 30 contrats européens. Comme quoi, en Wallonie, investissements publics riment avec réussite ! Dédié aux matériaux innovants, Materia Nova a trois missions: recherche, valorisation des résultats en applications et formation de chercheurs qualifiés. Pour ne point dissiper ses efforts, l’institution a retenu quatre axes parfaitement ciblés: la chimie des surfaces, l’électronique plasti- que, les polymères et nano-composites et enfin, la chimie verte. Avec la même philosophie, Multitel a quant à lui sélectionné la photonique appliquée en conception et prototypage de lasers à fibre optique, de composants passifs et de capteurs optiques; le traitement du signal et de la parole dans le développement d’inter faces homme/machine multimodales et le suivi d’objets et de personnes en temps réel; le traitement de l’image, l’analyse de scènes et la vision industrielle; la certifi cation, notamment en matière ferroviaire; et les réseaux informatiques, sites Wifi et téléphonie IP. Des résultats pour tous L’impact des deux acteurs dépasse la Wallonie. Les vitrages «basse émis sivité» les plus performants au monde résultent des travaux de Materia Nova ! Qui, en matière d’analyse des surfaces polymères et verres, dispose de l’outil le plus sophistiqué d’Europe ! L’âme porteuse des câbles haute tension traversant l’Amérique latine est encore le fruit d’une matière composite conçue par Materia Nova ! De même que le biopolymère du tapis rouge du Festival du cinéma de Cannes et bleu de la Conférence de Copenhague ! «Demain, vous ne laverez plus votre voiture, elle se nettoiera elle-même grâce à un revêtement autonettoyant. Elle n’aura plus d’essuie-glaces, la nano-structuration du pare-brise les aura rendus inutiles. Le four de votre cuisine reconnaîtra la nature du plat à réchauffer et adaptera automatiquement la cuisson via des senseurs d’odeurs. Nos fenêtres seront des générateurs d’énergie électrique, grâce à des cellules photovoltaïques intégrées. Ce monde futuriste est celui dans lequel travaillent nos quatrevingt chercheurs, chimistes, biologistes et physiciens. Ces sujets bien réels ne sont que quelques exemples de leur quotidien !» Texte: Jean-Claude QUINTART [email protected] Photo: D. LECUYER Le Feature Selection, méthode qui synthétise la parole est de Multitel. Ainsi que le Pulsed Laser, mesures optiques non destructives et d’analyses pour du profil de dopage d’une couche active d’un semiconducteur; la réalisation d’une source à émission d’ondes dans les domaines infrarouge et ultraviolet pour applications en imagerie médicale, métrologie et spectroscopie; la définition d’un procédé de lecture automatique de bandes d’enregistrement de données graphiques, notamment axé sur la reconnaissance des données graphiques représentant des événements survenus dans l’environnement des conducteurs de locomotives; etc. Au-delà de ces résultats et de la fertilisation croisée entre les deux unités de recherche et l’industrie, s’ajoutent des spin-offs comme IT Optics en logiciels libres; ACIC, solutions logicielles d’analyse vidéo; SMATWEAR, positionnement et suivi en temps réel du trafic et des personnes; TECH4RAIL, logiciels et matériels pour le ferroviaire; et M2PHOTONIX, lasers pour demandes très spécifiques. http://www.materia-nova.com et http://www.multitel.be Jean-Claude QUINTART · ACTUALITÉS Actus... d’ici et d’ailleurs Texte: Jean-Claude QUINTART • [email protected] Photos: ULg/Globalview (p.5), L. VIATOUR (p.6), J-M. BYL (p.8) R&D L Au cœur du pli es rides de notre peau nous chagrinent, les empreintes digitales nous confondent, les montagnes nous fascinent et le cerveau nous émerveille. Que peuvent avoir en commun ces éléments si opposés les uns aux autres ? Apparemment rien, sinon que leur structure est le fruit d’un même processus: la compression d’une «feuille rigide». Tel est l’un des mystères de la formation des structures plissées que révèle une équipe de chercheurs du Laboratoire interfaces & fluides complexes de l’Université de Mons (UMONS). Un travail conduit en collaboration avec le Laboratoire de physique des solides de l’Université de Paris-Sud 11. «Si vous comprimez une feuille mince d’un matériau solide, papier ou plastique, de manière à ce qu’elle reste plane, vous n’y arriverez pas. Elle se courbera systématiquement sur toute sa longueur, suite à ce que nous appelons le flambage», explique Pascal Damman, professeur à l’UMONS. «Maintenant, si vous collez cette feuille sur un substrat mou et épais, que vous la comprimez à nouveau de la même manière, il se formera de petites ondulations extrêmement régulières caractérisées par une certaine distance, dites périodes». Pour vous en convaincre, il suffit de comprimer, entre le pouce et l’index, la peau du dessus de la main ou de laisser sécher un fruit ! «En comprimant encore la feuille, les plis formés se sépareront en deux familles: l’une verra son amplitude augmenter et l’autre diminuer ! Bref, un pli sur deux concentre toute l’énergie de déformation, créant ainsi une structure avec une période double de la période initiale. Si vous augmentez à nouveau la compression, le même processus recommencera, conduisant à un quadruplement de la période initiale et ainsi de suite !» De manière inattendue, les chercheurs de l’UMONS montrent qu’un même mécanisme régit l’apparition de ces doublements de période dans les structures plissées et dans les oscillations de systèmes oscillants comme un pendule de longueur variable (l’encensoir géant de Saint-Jacques-de-Compostelle, par exemple). Et de prouver qu’il existe une similitude entre les équations décrivant les oscillations dans l’espace et celles dans le temps. «Ceci explique la morphogenèse induite par une instabilité mécanique, phénomène fréquent dans la nature à la fois en physique des matériaux comme dans les systèmes biologiques dont les tissus en contact ont des taux de croissance différents», termine Pascal Damman. Au-delà d’une meilleure compréhension dans l’apparition des structures plissées, ces travaux laissent entrevoir de nombreuses retombées technologiques, notamment dans le développement de nouvelles méthodes de micro-fabrication pour modeler la matière en créant des structures micrométriques régulières. http://www.umons.ac.be et http://www.lps.u-psud.fr 5 Plus d’espace J ean-Claude Marcourt, Ministre de l’Économie et des Nouvelles Technologies du Gouvernement wallon a donné son feu vert à l’extension du parc scientifique du Sart-Tilman (Liège). La nouvelle zone devra accueillir en priorité des entreprises à fort potentiel de recherche susceptibles de collaborer avec les laboratoires de l’Université de Liège (ULg). Selon l’entourage du Ministre, la concrétisation de cette zone permettra la création de quelque 2.200 emplois directs et indirects. http://marcourt.wallonie.be ATHENA 267 · Janvier 2011 > ACTUALITÉS Merci le chien Q ui est vraiment notre meilleur ami ! Grâce à lui, une équipe du Groupe Interdisciplinaire de Génoprotéomique Appliquée (GIGA) de l’Université de Liège (ULg) en sait plus sur les origines génétiques de la dyskinésie ciliaire primaire (DCP). Avec le chien comme modèle, dans le cadre du projet européen LUPA, les chercheurs du GIGA ont mis en évidence de nouvelles mutations d’un gène spécifique responsable de cette maladie chez l’homme. 6 Affectant une personne sur 20.000, la DCP est une maladie génétique rare, caractérisée par un défaut de mobilité des micro-cils cellulaires, dont le battement permet d’évacuer les micro-organismes contenus dans l’air. Aussi, cette entrave est responsable d’infections respiratoires chroniques. «Si plusieurs mutations dans une dizaine de gènes sont à l’origine de cette maladie, elles n’expliquent pas 60% des cas chez l’homme. C’est pourquoi, nous nous sommes tournés vers le chien qui souffre de nombreuses maladies communes, ayant probablement une même origine génétique. Recourir au chien malade, à titre d’étude en vue de repérer les gènes pouvant être également Tomates tout-terrain A vec ou sans crevettes, nous les aimons bien rouges et bien juteuses ! Mais comment récolter de belles tomates là où l’eau est rare et les sols peu ou pas exploitables ? Michel Ghanem du Earth and Life Institute de l’Université catholique de Louvain (UCL) vient de mitonner une recette nouvelle par une intervention génétique sur les impliqués dans l’occurrence d’une même maladie chez l’homme, est une des dernières tendances en recherche biomédicale», explique Anne-Sophie Lequarré, docteur en charge du projet LUPA. L’ADN de chiots de race bobtail, souffrant de bronchites chroniques, a été comparé à celui de bobtails sains. Quelque 40.000 marqueurs génétiques ont permis à cette analyse d’identifier une région du chromosome 34 canin associé à la maladie, notamment une mutation au sein du gène CCDC39. Restait alors aux chercheurs à vérifier, avec une cinquantaine d’échantillons, si ces mutations pouvaient expliquer la DCP chez l’homme. 15 mutations différentes de ce gène ont été relevées, expliquant la moitié des cas étudiés, soit près de 5% des patients atteints dans le monde ! «La démonstration de l’implication de ce gène dans cette pathologie va permettre d’affiner les conseils aux familles affectées. Au-delà, ce résultat confirme aussi l’utilité du chien dans le décryptage rapide de maladies génétiques humaines complexes», conclut Anne-Sophie Lequarré. http://www.eurolupa.org racines des plants de tomates résistants à des stress intenses. Le génie de son idée saute aux yeux ! En ne s’attaquant qu’à la modification génétique des racines de la plante, on obtient des tomates totalement naturelles. «Jusqu’à ce jour, on ne s’intéressait au stress qu’au niveau de la plante entière ou de sa partie aérienne: les feuilles, les tiges et les fruits», déclare Michel Edmond Ghanem. En planchant sur leurs racines, l’équipe de l’UCL faisait œuvre pionnière ! «Une plante qui est en manque d’eau ou mal traitée par un sol inadéquat développe un stress dont l’information est transmise via les cellules vivantes des racines aux parties aériennes. Celles-ci développent des mécanismes de défense, réduction de la consommation en eau, la plante s’épuise et produit moins de fruits. En revanche, si les racines ont davantage d’hormones de cytokinine, elles réagissent mieux au stress, envoyant un message plus rassurant et plus adapté aux parties aériennes. La plante lutte plus efficacement et reste plus longtemps en vie», poursuit Edmond Ghanem. Parallèlement, les chercheurs ont noté que la cytokinine influence favorablement la maturité et la quantité de fruits produits. Lors de tests menés dans le sud de l’Espagne sur une centaine de plants ils ont constaté un rendement de 30% supplémentaire. Si les plants classiques donnaient 3 kg de fruits, les plants aux racines modifiées en produisaient 3,6 ! Et en condition de stress, ils ont prelevé 800 gr de fruits sur les plants classiques et 1,2 kg sur les plants modifiés. http://www.uclouvain.be Jean-Claude QUINTART · ACTUALITÉS «Nous allons vers des traitements sélectifs d’immunociblage qui épargneront les tissus sains pour se concentrer sur les seules cellules cancéreuses», explique le professeur Vincent Castronovo. 7 Attaque frontale L e cancer «y en a marre !». Déclarée depuis longtemps, la guerre contre l’ennemi N°1 de l’humanité prend une nouvelle dimension avec la montée au combat de Targatome, dernière spinoff de l’Université de liège (ULg) et première de son Groupe Interdisciplinaire de Génoprotéomique Appliquée (GIGA) qui exploite une nouvelle technique d’identification de biomarqueurs spécifiquement surexprimés dans certains cancers et métastases cancéreuses. «Avec cette approche, la médecine peut, à terme, envisager de mener une guerre propre, ciblée et personnalisée contre certains types de cancer», explique avec la passion qu’on lui connaît Vincent Castronovo, professeur à l’ULg qui vient de breveter cette nouvelle technique. Par rapport aux moyens antérieurs, l’approche dite «in-vitro method for screening accessible biological markers in pathologic tissues» identifie des biomarqueurs aux trois qualités essentielles d’une cible utile à haute valeur ajoutée: abondance, spécificité et surtout accessibilité. «Une technique unique qui identifie des cibles thérapeutiques potentielles par la voie qui sera in fine exploitée pour l’administration de thérapie ciblée, à savoir la voie sanguine», précise Vincent Castronovo. À ce jour, cette méthode a permis d’identifier une cinquantaine de biomarqueurs surexprimés et en partie validés, dans six types de cancer: cancer du sein, lymphome hodgkinien (tumeur du système lymphatique), glioblastome (cancer du cerveau), métastases osseuses, métastases hépatiques et cancer du pancréas. Des résultats prometteurs sachant que ces biomarqueurs sont des cibles pour les nouveaux programmes d’immunociblage au moyen d’anticorps monocionaux adaptés à l’imagerie (anticorps marqués avec un isotope radioactif pour servir de traceurs et préciser de manière inégalée le diagnostic) ou pour une thérapie ciblée (anticorps construits pour délivrer des substances anticancéreuses exclusivement dans les cellules malades). «Les traceurs d’imagerie et les anticorps pour la thérapie ciblée développée au départ des biomarqueurs de Targetome sont une révolution en oncologie. L’offre d’une réelle thérapie personnalisée concentrera d’un facteur 100 l’agent toxique uniquement au niveau des cellules cancéreuses du malade», conclut Vincent Castronovo, plus heureux que jamais de ne s’être jamais découragé face au cancer ! Société de R&D en biotechnologie, Targetome concédera des licences sur les cibles validées et brevetées à des entreprises pharmaceutiques. Jeune pousse qui en veut, elle participe au projet Radiotarget de Biowin pour la mise au point d’un outil de production de Rhénium-188 pour le marquage d’anticorps thérapeutiques de nouvelles cibles validées par Targetome dans le traitement des métastases hépatiques. http://www.giga.ulg.ac.be ATHENA 267 · Janvier 2011 > ACTUALITÉS Prix Fondation ULB: cuvée 2010 «L 8 es marchés ne tombent pas du ciel, ils sont créés et s’adaptent aux évolutions de leur environnement et selon les besoins des acteurs économiques», constate Estelle Cantillon, Prix Fondation ULB 2010 en Sciences humaines et sociales. Et de s’interroger. Comment sont-ils créés ? Crée-t-on les bons types de marché ? S’adaptent-ils de manière optimale aux évolutions de leur environnement ou évoluent-ils sous la contrainte ? D’où son idée d’analyse, par des cas d’étude des mécanismes de création et d’évolution de certains marchés. Pour trouver ses réponses, Estelle Cantillon articulera ses recherches autour de trois axes: la documentation de cas de création de marché; la constitution de modèles mathématiques pour étudier les propriétés de certaines formes d’organisation de marchés et prévoir leur évolution; le développement de nouvelles méthodes économétriques en vue d’analyser les données issues de la création et de l’évolution de certains marchés. Prix Fondation ULB 2010 en Sciences de la vie, Cédric Blanpain entend comprendre le rôle des cellules souches cancéreuses dans la croissance tumorale et la résistance aux traitements médicaux. En marquant et en isolant les cellules souches de la peau, il est aujourd’hui À la conquête du monde! I l s’appelle chitine-glucan, développé par la société wallonne KitoZyme de Liège dans le cadre du projet WalNut-20, il part à l’international grâce à un partenariat stratégique conclu avec la société américaine Stratum Nutrition, du groupe Novus International de Saint Charles (Missouri). Le chitine-glucan est un copolymère, obtenu au départ d’une source fongique, le Mycelium Aspergillus Niger, de la famille des Ascomycètes, dont il est le constituant principal des parois cellulaires de possible d’étudier la relation entre les cellules souches normales et les types de cancers cutanés. Par son projet, Cédric Blanpain veut «connaître le rôle des cellules souches de la peau dans l’initiation et la croissance tumorale». Plus précisément, il souhaite «déterminer si les cellules souches de la peau sont les cellules cibles initialement mutées dans le développement des cancers cutanés, si les cancers cutanés contiennent des cellules souches cancéreuses et si ces dernières contribuent à la croissance tumorale et aux récidives après traitement». Son projet se situe en topologie symplectique et de contact, discipline spécialisée de la géométrie différentielle. «La géométrie de contact est l’étude d’espaces géométriques munis de structures particulières dites de contact. C’est en particulier le cadre naturel de l’optique géométrique», explique Frédéric Bourgeois, Prix Fondation ULB 2010 en Sciences exactes et naturelles. «Les sousvariétés legendriennes sont des objets remarquables et importants en géométrie de contact et qui correspondent aux fronts d’onde en optique», précise Frédéric Bourgeois qui étudie deux invariants sophistiqués pour les sous-variétés legendriennes: l’homologie de contact legendrienne et l’homologie pour familles génératrices. «Le but principal est d’établir un lien précis et fort entre ces invariants, pour étudier les sous-variétés legendriennes, voire d’en ébaucher la géographie. De ce lien entre invariants de types différents obtenir des informations pour mieux saisir l’homologie de contact. ce champignon microscopique. À partir de cette source naturelle, renouvelable et non allergène, KitoZyme a développé un bio-polymère innovant et fabriqué dans le respect de l’environnement. Activité au niveau des problèmes cardiovasculaires et prévention des stress oxydatifs sont les grands atouts de cette molécule que Stratum Nutrition intègrera à sa panoplie de produits finis destinés à la santé du cœur et au bien-être. Entreprise fondée en 2000, KitoZyme développe des ingrédients de spécialité Cancer et cellules souches… vie et passion de Cédric Blanpain dont la perspicacité des questions a soulevé l’enthousiasme de la Fondation ULB. Le tout en espérant arriver à de nouvelles avancées en géométrie de contact». Ces trois projets ne pouvaient que retenir l’attention de la Fondation ULB dont l’ambition est de développer des écoles de pensée du futur autour de jeunes talents qui, grâce à ce Prix, réaliseront un saut quantique dans leur domaine. http://www.fondation-ulb.org d’origine végétale pour produits nutraceutiques, boissons, produits pharmaceutiques et médicaux. L’entreprise est une référence du Pôle WagrAlim, qui fédère aujourd’hui plus de 180 acteurs wallons autour de projets construits en réseau collaboratif. Son programme WalNut-20 a ainsi mobilisé une vingtaine de partenaires, soit plus de 100 salariés pendant quatre ans, dans le but de soutenir des allégations santé sur les matières grasses polyinsaturées, les fibres et les polyphénols. http://www.kitozyne.com; http://www.stratumnutrition.com et http://www.wagralim.be Jean-Claude QUINTART · ACTUALITÉS Coup d’crayon Illustration : Olivier SAIVE/CartoonBase Le chiffre ... ans déjà que, Nicolas Hulot créait sa Fondation Nicolas Hulot pour la nature et l’homme. L’hiver a commencé dès novembre avec des quantités de neige que l’on avait plus vues depuis des dizaines d’années, avec des conséquences assez catastrophiques et pour certains, qui n’ont pas eu la chance de migrer, un confinement forcé ! Dans le top mondial ! C’ est la crise, tout va mal, etc. ne sont finalement que des impressions dues au changement de paradigme que vit notre économie. Ainsi, pour Nature Reviews, avec 200 entreprises pharmaceutiques et biotechnologiques, notre pays constitue un véritable bassin biopharmaceutique. Et dans son édition de novembre 2010, la célèbre revue d’aller plus loin encore en affirmant que la Belgique figure parmi les dix bio «pharma valleys» les plus innovantes au monde ! Elle relève aussi l’importance de la contribution de la pharmacie belge quant à l’origine des brevets des médicaments auto- Son but: défendre le climat et les économies d’énergie; l’alimentation durable et solidaire; la biodiversité et les territoires; la gestion durable du littoral et des milieux marins. http://www.fondationnicolas-hulot.org risés sur le marché américain. Avec 26 mentions de brevets, la Belgique occupe la 8e place du classement mondial, après des pays dits pharmaceutiques comme la Suisse (30), la France (46), la Suède (60), l’Allemagne (67), le Japon (100) et le RoyaumeUni (115); les États-Unis, avec 838 mentions, se taillant la part du lion. L’excellente collaboration entre le monde médical et les entreprises du pharma est la clé de voûte de ce succès. Des firmes qui ne rechignent jamais à l’investissement de masse en R&D. Actuellement, 5.000 salariés travaillent à plein temps en R&D, dont 3.400 scientifiques. http://www.nature.com Petites fioles pour grosses retombées, le pharma booste aujourd’hui notre essor économique ! 9 ATHENA 267 · Janvier 2011 > ACTUALITÉS Texte : Paul DEVUYST • Photo: Saga Photo/REPORTERS Pour transmettre un monde habitable 10 Paul DEVUYST · ACTUALITÉS U ne certaine confusion des esprits règne encore sur les contours d’une notion présentée il y a une vingtaine d’années comme une innovation majeure de la pensée et de l’action quant au devenir des sociétés humaines. Beaucoup de personnes ont encore aujourd’hui une perception du développement durable uniquement liée à l’environnement alors que ce concept cherche en réalité à améliorer les liens entre l’activité depuis cette époque, il s’est développé petit à petit au sein du monde politique, scientifique, associatif, économique et social belge. Néanmoins, il semble, d’après les échanges de vue, que pour certains, la notion de développement durable révèle principalement une équité au sein des générations et entre elles, tandis que d’autres inscrivent cette notion au sein de différents problèmes tels que la santé, la pauvreté, le chômage, l’environnement, l’éducation, les crises économiques. La Fondation pour les Générations Futures et ses partenaires entend développer une série de Prix d’excellence à l’intention des chercheurs en faveur d’un développement durable économique, les conditions de vie des citoyens et l’évolution de leur environ nement naturel. Il se structure donc sur ces trois piliers sans donner plus d’importance à l’un par rapport à l’autre mais en tenant compte des éléments temporels (aujourd’hui et demain) et spatial (ici et ailleurs). Tel était le point de départ du débat organisé en décembre dernier par la Fondation pour les Générations Futures sur le thème de «L’intégration des principes de développement durable dans la recherche scientifique et l’enseignement supérieur» et auquel participaient les Ministres Nollet, Marcourt et Cerexhe (ou leur représentant), chargés de la recherche scientifique, des nouvelles technologies ou de l’enseignement supérieur; des représentants du monde académique (les Professeurs Éric Lambin de l’UCL, Jacques Defourny de l’ULg et Marc Labie de l’UMONS) ainsi que des responsables de la société civile. Une notion bien assimilée Le concept du développement durable a été défini pour la première fois lors du «Sommet de la Terre» à Rio en 1992 et «La recherche et la formation sont les clés pour mettre en œuvre de nécessaires innovations soutenables et créer une évolution vers de nouveaux paradigmes afin de faire émerger des réponses soutenables aux enjeux multiples et complexes auxquels devront faire face les générations futures», devait déclarer Benoît Derenne, directeur de la Fondation pour les Générations futures. Dans le cadre des «Higher Education & Research Awards for Future Generations» (HERA), trois Prix ont été créés à l’intention d’étudiants ayant intégré l’approche transversale et systémique d’un développement durable. Il s’agit de recompenser un «Master’s Thesis Award for Future Generations», un «PhD Starter Scholarship Award for Future Generations» et enfin, un «Doctoral Thesis Award for Future Generations». Dans un premier temps, ce dernier couvre l’ensemble des institutions universitaires en Belgique francophone et cette bourse sera destinée à soutenir la diffusion des résultats de la thèse au sein du monde académique et de la société civile. L’appel à candidature est ouvert jusqu’au 1er mars 2011 et le Prix sera attribué en mai 2011. L a F ondation pour les Géné rations Futures (fondation d’utilité publique), est née en 1998, avec la volonté d’appuyer l’émergence et le développement de projets concrets et de réflexions liés au concept de développement soutenable, dans ses aspects de changements de société: justice sociale, solidarité, égalité des chances, équilibres écologiques, maîtrise démocratique des choix. La Fondation a conçu HERA, une initiative qui a pour but d’encourager la prise en compte des principes du développement durable dans les parcours de formation et de recherche des étudiants et doctorants ainsi qu’auprès des promoteurs de travaux de recherche. Pour plus d’infos http://www.fgf.be Benoît Derenne, directeur, 0474/756 206 ou [email protected] 11 ATHENA 267 · Janvier 2011 > Dossier I N T E R V I E W Bilan de la Présidence belge de l’Union européenne en matière de Recherche Œuvrer à la simplification pour booster l’innovation Les six mois de Présidence belge de l’Union européenne, entamés en juillet dernier, se soldent par une note globalement positive. Dans le domaine de la Recherche, les débats visaient avant toute chose à dégager des pistes tendant à encourager davantage encore les passerelles entre recherche, innovation et enseignement supérieur, avec pour objectif premier de développer le potentiel européen pour, à terme, transposer les résultats en retombées économiques et en emplois 12 Propos recueillis par: Julie DOHET · Photos: M.VANHULST/MRBC (pp.12 et 13), I.SHVECOV (p.14) E En 6 mois, la Présidence belge, sous la houlette de Benoît Cerexhe, Ministre de la Recherche de la Région Bruxelles-Capitale, a organisé près de 35 événements liés à la thématique de la Recherche et de l’Innovation n se penchant sur un nouveau Plan européen pour la Recherche et l’Inno vation, les 27 ont dégagé des pistes qu’ils ont voulues très concrètes et, pour certaines, entrant en application dès aujourd’hui, dans le cadre du 7e Programme-cadre de l’Union européenne. Les mots-clés sont: cohérence, synergie, simplification, libre circulation des connaissances et innovation. Le point avec Benoît Cerexhe, Ministre de la Recherche pour la Région de Bruxelles-Capitale, chargé de mener les débats. Q uels ont été les éléments phares de la Présidence belge en matière de Recherche ? Nous avons eu deux opportunités extraordinaires puisque c’est sous Présidence belge que la Commission a développé son Plan pour l’Innovation qui est la vision qu’a l’Union euro- péenne de la politique à mener pour la Recherche et l’Innovation dans les dix prochaines années dans toute l’Europe. C’est sous notre présidence qu’on a eu l’occasion de débattre de manière commune et pour la première fois entre les 54 ministres concernés. Ministres de la Recherche et de l’Industrie (NDLR: avec la co-présidence du Ministre JeanClaude Marcourt) ont ainsi travaillé sur les applications économiques des politiques de Recherche puisqu’on se rend compte qu’en Europe, les répercussions économiques des travaux de recherche sont moindres que dans d’autres pays comme les États-Unis ou la Chine. La seconde opportunité, c’est que Herman Van Rompuy, Président du Conseil européen en exercice, a décidé, pour février, de programmer un Conseil d’État des chefs et des gouvernements spécifiquement dédicacé à l’innovation. Donc, au plus haut niveau européen, on va enfin se projeter dans l’avenir. Julie DOHET · Dossier Nous avons eu, sous Présidence belge, l’opportunité de préparer ce Conseil européen. Je trouve très positif qu’au plus haut niveau, on décide de consacrer du temps aux politiques à mener dans ces secteurs. C oncrètement, qu’est-ce qui sera mis en place à l’échelon européen, malgré les inégalités entre les pays ? Aujourd’hui, il est vrai que les pays européens ne sont pas au même niveau en matière de recherche. L’objectif des 3% du PIB prévu à la fin 2010 dans le cadre de la stratégie de Lisbonne (1) n’a pas été atteint. Il y a un certain nombre de pays, essentiellement les pays nordiques, qui dépassent parfois ce cap des 3% mais la moyenne européenne est de 1,9% du PIB (la Belgique se situant dans cette moyenne). Si l’on voulait arriver à ces 3% dans les dix prochaines années, ce qui reste notre objectif, nous devrions doubler les budgets publics octroyés à la recherche ! Il y a donc des efforts considérables à effectuer. Nous ne sommes pas tous au même niveau mais lorsque l’on considère la concurrence avec les autres pays comme les États-Unis, l’Inde, le Japon, la Chine, on se rend compte que si on n’intègre pas davantage nos politiques en matière de recherche, si on ne développe pas plus de collaborations, plus de synergies, nous ne parviendrons pas à jouer dans la cour des grands. I l faut donc changer radicalement de méthodes... Nous savons qu’une entreprise qui n’innove pas a deux fois moins de chances de survivre qu’une entreprise innovante. Nous sommes face à l’enjeu de demain ! Nous nous devons de collaborer davantage, de développer des ponts, des partenariats, de partager des infra structures entre partenaires européens. Aujoud’hui, plus personne ne pourrait se permettre de financer seul les grandes infrastructures en matière de recherche ! Or, lorsque l’on fait l’addition de tous les budgets des pays et qu’on compare le résultat au budget européen consacré à la recherche, on remarque qu’actuellement, 95% des moyens sont dans les mains des pays (NDLR: ou des Régions) et 5% seulement dans les mains de l’Europe. Il y a une réelle nécessité d’aller de l’avant dans cette intégration, dans cette nouvelle collaboration des différents pays au sein des projets européens. Je pense qu’il faut que l’on puisse émettre des propositions qui suscitent l’adhésion de la population mais également celle du monde de l’entreprise et du monde scientifique, afin que ce Plan pour l’Innovation, au-delà de ses principes, soit réellement mobilisateur. Q uelles sont les propositions qui ont été envisagées ? Les ministres ont donné leur accord de principe sur le développement de par- tenariats dans le domaine du vieillis sement de la population en poursuivant l’objectif qu’en Europe, dans dix ans, on puisse vivre en moyenne deux ans de plus qu’actuellement. Comment faire pour atteindre cet objectif en incluant les différents intervenants en matière de santé en Europe ? En développant des partenariats soutenus par des fonds européens entre les infrastructures, les milieux de recherche et les entreprises. Autre exemple, touchant les PME: à l’heure actuelle, les jeunes entreprises innovantes ont des difficultés à obtenir du capital à risque. Nous avons proposé de créer un fonds de financement européen. Enfin, en ce qui concerne le monde scientifique, il est évident qu’il y a encore dans l’Europe actuelle trop d’obstacles à la mobilité des chercheurs, notamment parce que les statuts en matière de sécurité sociale ne sont pas identiques. Il y a aujourd’hui une volonté d’harmoniser les choses, comme dans le cas des pensions des chercheurs, par exemple. Ces principes, au travers de ce nouveau Plan pour l’Innovation qui plaide donc pour plus d’intégration, plus de complémentarité, plus de synergie, nous allons les décliner dans des mesures concrètes et, en tant que ministres de la Recherche et ministres de l’Industrie, nous avons décidé d’une road map indiquant ce que, 13 ATHENA 267 · Janvier 2011 > Dossier tion du monde scientifique et du monde de l’entreprise pour déterminer ce qu’il faut impérativement changer pour le prochain Programme-cadre débutant en 2014. Il s’agira notamment de faire davantage confiance aux chercheurs et de mener une politique axée sur les résultats, tout en restant prudent afin que les chercheurs ne soient pas tentés de présenter des projets peu risqués par peur d’une évaluation négative de leur travail de recherche. C oncrètement, quels seront les changements notoires ? Aujourd’hui, il y a des contrôles et des audits en permanence, qui ne tolèrent quasiment aucune marge d’erreur et qui ne tiennent pas compte des résultats. Demain, nous devrions avoir un système de financement qui pourrait s’envisager de manière forfaitaire, qui devrait tenir compte des résultats et qui devrait pouvoir accepter des marges d’erreur financières d’un pourcentage plus généreux que ce qui est d’application actuellement. On doit pouvoir contrôler les deniers publics, évidemment, mais il faudra veiller à ne pas tomber dans l’excès contraire qui pourrait être que l’on ne dépose plus de projets ou que l’on doit sans cesse se justifier au lieu de se consacrer à sa recherche. 14 + Pour en savoir plus http://www.cerexhe.irisnet.be/ http://www.eutrio.be/ http://www.rib.irisnet.be/ (1) Porter à 3% du PIB le niveau cumulé des investissements publics et privés dans le secteur de la Recherche. année après année, nous souhaitons qui soit entrepris. Il ne s’agit donc pas d’une simple lettre d’intention: nous ferons un bilan semestriel. L a simplification était également au cœur des débats... Nous avons travaillé en deux étapes sur ce projet de simplification. Nous avons fait adopter au Conseil européen du mois d’octobre quinze mesures de simplification des programmes européens. Il s’agit de mesures très simples qui vont de la réduction des délais à la non obligation d’ouvrir un compte porteur d’intérêts au profit de la Commission, en passant par la réglementation des contrôles effectués, dans le but de les rendre un peu plus souples. Ces améliorations sont déjà d’application dès maintenant, elles sont en train d’être implémentées par la Commission dans le cadre du 7e Programmecadre. Nous avons également mandaté la Commission de faire une large consulta- Cette volonté de simplification devrait donc permettre de booster les résultats et les retombées économiques sous forme, notamment, de création de startup dans le paysage européen. A vez-vous posé des balises au niveau des objectifs à atteindre ? Nous avons reconfirmé l’objectif en terme de pourcentage du PIB affecté à la recherche. L’objectif des 3% tel qu’il était prévu et tel qu’il n’a pas été atteint figure de nouveau dans les objectifs pour les dix prochaines années. Pourquoi atteindrions-nous à l’avenir cet objectif alors que certains pays européens n’y sont pas parvenu ? Premièrement, la volonté politique aujourd’hui, elle est là autour de la table et elle concerne tous les pays. Elle était sans doute moins prégnante il y a dix ans qu’elle ne l’est maintenant. Même en période de crise, où la plupart des états doivent faire des économies, s’il y a bien un domaine dans lequel il ne faudra pas Julie DOHET · Dossier opérer de réductions de budget, c’est celui de la Recherche et de l’Innovation. L’Allemagne et la France l’ont très bien compris or, je ne suis pas persuadé qu’ils auraient eu le même type de politique il y a dix ans. Ils ont fait leur plan de restructuration, leur plan d’assainissement en boostant les secteurs de la Recherche et de l’Innovation ! De plus, si les chefs d’état consacrent, en février prochain, un sommet à cette problématique, c’est parce que, même si l’on s’en rend compte avec un peu de retard, c’est devenu un enjeu fondamental du développement de l’Europe. Celle-ci demandera aussi, au travers des plans nationaux de Recherche, de déterminer par quels moyens on pourra atteindre cet objectif. Un monitoring, un suivi de la manière dont chaque état implémente cet objectif des 3% est prévu. V ous plaidez pour plus de cohérence et de synergie. Le revers de la médaille de cet encouragement fait aux chercheurs à travailler davantage encore ensemble ne serait-il pas, justement, une complexification des conditions d’obtention des subsides et des conditions de travail ? L’objectif n’est certainement pas de complexifier les choses. Il y a un consensus, une unanimité, que ce soit au Parlement, à la Commission ou dans les États, pour dire qu’on est allé trop loin et qu’on ne va pas rajouter une couche de complexité. L’objectif n’est pas de créer des difficultés ou des entraves supplémentaires... bien au contraire ! Si l’on considère la difficulté que nous rencontrons pour travailler ensemble en Belgique au niveau des centres de recherche parce qu’il y a des divergences linguistiques, communautaires ou philosophiques entre les réseaux dans nos universités, il paraît évident que pour avancer, nous devons parvenir à transcender tout Leur redonner le goût des sciences cela, chez nous comme en Europe, pour devenir compétitifs au niveau mondial. Le protectionnisme et le «chacun pour soi» en recherche n’ont pas de sens dans une concurrence à l’échelon international. D es collaborations avec l’Afrique et l’Asie ont également été mentionnées... Nous ne souhaitons pas, au niveau européen, que la recherche soit l’apanage des pays riches. Nous souhaitons proposer notre aide à un certain nombre de pays africains afin qu’ils puissent collaborer à des recherches et développer de nouveaux projets, au travers d’un soutien de l’Europe à la formation des chercheurs et au développement de collaborations sur des projets de recherche menés ici ou dans ces pays. C’est la volonté, dans le chef de l’Europe, de les aider à trouver des moyens pour s’en sortir avec, notamment, des impulsions envisagées dans des secteurs utiles pour le développement de l’Afrique. Les conclusions du Sommet Union européenne-Afrique de novembre 2010 ont été alimentées par une recommandation qui plaide notamment pour une meilleure complémentarité entre la coopération bilatérale et bi-régionale. D’autre part, le Sommet Inde-UE, qui s’est tenu en décembre, a convenu que les deux parties se coordonneraient davantage pour faire face aux grands défis sociétaux. Ceci devrait déboucher sur un projet pilote de coopération dans le domaine de la gestion des ressources aquatiques. N ous sommes confrontés, en Europe et plus spécifiquement en Belgique et en Communauté française, à une diminution du nombre de jeunes entamant des études scientifiques pouvant découler sur des carrières consacrées à la recherche. En Région bruxelloise, sous l’impulsion de Benoît Cerexhe, plusieurs actions de communication ont été menées, ces derniers mois, pour sensibiliser les candidats potentiels de demain. Déclinée sur le thème «Plus tard, je serai… scientifique», cette vaste campagne de sensibilisation aux métiers de la science s’ouvre sur un espace de parole et de rêve où chacun peut laisser voguer son imagination et se projeter en réparateur de la couche d’ozone, exterminateur de virus ou encore activateur de neurones. Un appel à micro-projets a été lancé auprès des écoles, des mouvements de jeunesse et du monde associatif avec pour cible la mise sur pied de petits projets nourris par l’objectif de sensibiliser les plus jeunes aux enjeux et défis technologiques de demain. Pas moins de 25 projets ont reçu un soutien, parmi lesquels un poulailler pédagogique, une pièce de théâtre mettant Darwin en scène ou encore un laboratoire de microchimie des gaz. Enfin, l’exposition de photos grand format (voir ci-contre) intitulée «euREKA, 48 chercheurs sous la loupe», accrochée aux grilles du Parc Royal et à la Gare Centrale de Bruxelles, dressait le portrait d’une petite cinquantaine de scientifiques, tous domaines confondus, dans le but de démystifier la figure du chercheur auprès du grand public. Toutes les infos sur: http://www.plustardjeserai.eu/ 15 ATHENA 267 · Janvier 2011 > PORTRAIT L’ADN de... Propos recueillis par Géraldine TRAN • [email protected] Photos: BSIP/REPORTERS (fond), L. BATY © SPW-DGO4 (Sigillée) Côté pile Nom: RICHARD Prénom: Julian Âge: 29 ans État civil: Célibataire Enfants: aucun 16 Profession: Archéologue. Chercheur en post-doctorat (FWO) à la Katholieke Universiteit Leuven (KUL), Julian est spécialisé en architecture romaine du ProcheOrient. Formation:Études secondaires à l’Institut Saint-Joseph de Ciney. Candidatures en histoire de l’art, archéologie et musicologie aux Facultés Universitaires NotreDame de la Paix de Namur. Licence en histoire de l’art, archéologie et musicologie à l’Université Catholique de Louvain Adresse(s): Sagalassos Archaeo logical Research Project Blijde-Inkomststraat, 21 Bus 3314 3000 Leuven Tél.: 016/32.47.19 Archéologue, c’est une vocation que vous avez depuis tout petit ? Comment l’idée d’exercer ce métier vous est-elle venue ? Aussi loin que je me souvienne, archéologue a toujours été LE métier que j’ai eu envie d’exercer. C’est une bande dessinée ayant pour cadre l’Égypte ancienne qui a tout déclenché. Les histoires de momies, pharaons, dieux et déesses animaient mes séances de dessin à l’école primaire, au grand désespoir de mes professeurs qui auraient parfois voulu m’entendre parler d’autre chose ! Comment devient-on archéologue ? La découverte du latin et du grec en secondaire a aussi été une vraie révélation pour moi. Au moment d’entrer à l’université, mon choix s’est tout de suite porté sur l’histoire de l’art et l’archéo logie, une formation dispensée dans la plupart des universités belges. Contrairement à ce qu’on pourrait penser, ces études ne nécessitent pas obligatoirement un profil «littéraire». Des sciences exactes telles que la géologie, la botanique, la zoologie ou la chimie sont des disciplines auxquelles l’archéologue est souvent confronté. Quels sont vos rapports avec la science ? Quels sont vos premiers souvenirs «scientifiques» ? L’archéologue d’aujourd’hui a pour objectif de reconstituer la vie du passé dans tous ses aspects. Nous ne sommes plus des découvreurs de beaux objets qui finissent dans des musées. Notre démarche est purement scientifique, dans le sens où elle consiste à d’abord poser des questions, à définir des problèmes et à les résoudre en appliquant toute une série de techniques rigoureuses. La fouille et le travail de terrain restent la base de notre métier, même si cela n’occupe qu’une partie de notre temps. L’archéologue passe beau- coup plus de temps derrière son bureau à effectuer ses recherches et publier ses résultats. C’est quelque chose dont on ne se rend pas toujours compte. Mes premiers souvenirs «scientifiques» se rapportent précisément à cela: passer des heures en bibliothèque pour rechercher des infos sur une statuette égyptienne, en première année. Ce n’est pas forcément ce à quoi on s’attend en entamant des études avec le goût de l’aventure. Quelle est la plus grande difficulté rencontrée dans l’exercice de votre métier ? Soyons honnêtes, il s’agit d’une filière dans laquelle il est plus difficile d’avoir une carrière stable. La recherche universitaire, surtout dans des domaines perçus comme plus «littéraires» ou «traditionnels» dépend de financements souvent aléatoires. On reste tributaire de contrats de recherche à durée déterminée pour lesquels il y a une grande concurrence. Beaucoup d’appelés, peu d’élus… Quelle est votre plus grande réussite professionnelle jusqu’à ce jour ? Ma thèse de doctorat, sans aucun doute. Parce que j’y ai investi quatre années de ma vie. Vous êtes régulièrement amené à travailler à l’étranger, notamment en Turquie, les voyages, ça devait faire partie du «package» d’emblée ou c’est une chose indépendante qui est venue de fil en aiguille ? Voir du paysage est évidemment une des motivations premières des passionnés d’archéologie. J’ai la chance de travailler depuis 2004 pour le Sagalassos Archaeological Research Project de la Katholieke Universiteit Leuven. Tous les étés, notre équipe passe deux mois à fouiller et restaurer une ville romaine de Turquie. Il est clair que sans ce dépayse- Géraldine TRAN · PORTRAIT Julian RICHARD ment et la confrontation avec d’autres cultures, le métier aurait pour moi beaucoup moins d’attraits. Quels conseils donneriez-vous à un jeune qui aurait envie de suivre vos traces ? Faire ce qu’on a envie de faire. Même si les possibilités de carrière sont limitées, je n’ai jamais regretté d’avoir fait des études si passionnantes. Elles apportent un solide bagage culturel et préparent à toute une série de métiers autres que l’archéologie en tant que telle. Le secteur culturel, le journalisme, le monde de l’édition, les musées et galeries d’art regorgent d’anciens étudiants en histoire de l’art et archéologie. Côté face Je vous offre une seconde vie, quel métier choisiriez-vous ? Peut-être grand reporter. L’appel du voyage, toujours… Je peux m’émerveiller pendant de longues minutes devant un long article de journal bien écrit. Je vous offre un super pouvoir, ce serait lequel et qu’en feriez-vous ? Utiliser une machine à remonter le temps, cela va de soi ! Avec une petite préférence pour un voyage dans l’Égypte pharaonique. Je vous offre un auditoire, quel cours donneriez-vous ? J’aimerais beaucoup être à la place d’Indiana Jones quand il dit à ses étudiants «un X n’indique jamais, jamais l’emplacement d’un trésor». Je vous offre un laboratoire, vous plancheriez sur quoi en priorité ? Je reste persuadé que l’archéologie est quelque part un «luxe» pour notre société. Même si comprendre le passé reste essentiel pour fonder notre vie présente et future, je privilégierais la recherche sur le cancer. Question de priorités… + Plus d’infos: http://www.sagalassos.be http://www.kuleuven.be/ [email protected] Je vous transforme en un objet, ce serait lequel et pourquoi ? En truelle bien sûr, la vieille compagne indispensable et inséparable de l’archéologue… et non pas le fouet ou le chapeau comme certains le pensent ! 17 ATHENA 267 · Janvier 2011 > TECHNOLOGIE 18 Fracture numérique: deuxième round ! Texte : Alain de FOOZ • [email protected] Photos: REPORTERS (pp.18 et 20), TR ROBERTS (p.20) TECHNOFUTUR TIC (p.21) Alain de FOOZ ·TECHNOLOGIE « Vos enfants sont régulièrement sur Facebook, font de la musique ou du théâtre ? Bien. Et si, par ailleurs, ils sont ouverts à la philosophie et aux mathématiques, démontrant par là leur intérêt pour l’abstraction, c’est encore mieux, s’exclame Bruno Schröder, Expert en Technologie chez Microsoft Belgique. Ils éviteront la fracture numérique. Et auront, demain, plus de chance de s’insérer dans le monde du travail.» La fracture numérique apparue au début des années nonante n’auraitelle donc pas disparu ? Elle a changé de nature, répondent IDC et Microsoft. Hier, elle était liée à la capacité d’accéder financièrement à la technologie; aujourd’hui, elle est davantage sociale dans le sens où elle concerne la capacité à s’impliquer dans des dynamiques «participatives» ou «collaboratives», dont les réseaux Facebook ou Twitter sont les meilleurs exemples. La fracture numérique toujours là Tous sur Facebook? Dans cinq ans, 90% des emplois belges nécessiteront des connaissances infor matiques, affirment en chœur Microsoft et l’institut de recherche IDC. À l’origine de cet ordre de grandeur, une vaste enquête menée en Europe démontrant que la crise économique accélère le besoin de combler le fossé qui sépare les compétences disponibles sur le marché du travail et les besoins des entreprises. «Demain, assure Bruno Schröder, nous devrons tous afficher des connaissances informatiques dans notre C.V. !» N’importe qui peut publier sur Twitter ou mettre à jour son profil sur Facebook. Mais tout le monde ne le fait pas. Ce ne serait d’ailleurs pas une question de génération. Ici et là, à travers diverses études, on a pu démontrer que tous les «digital natives» (natifs numériques) ne sont pas hyperconnectés, alors que certains seniors sont de vraies locomotives ! En fait, la fracture numérique est davantage liée à la personnalité de chacun, à notre capacité à nous inscrire dans de nouveaux usages. Dans cinq ans, 90% des emplois belges nécessiteront des connaissances informatiques. Nos jeunes y sont-ils préparés? Non, assurent les spécialistes qui voient se dessiner une nouvelle fracture numérique, liée non plus à l’accès à la technologie, mais à ses usages. En Belgique ou ailleurs, près d’un tiers des emplois (31%) exigeront de pouvoir utiliser des terminaux technologiques, 28% réclameront des connaissances informatiques de base et 19% des connaissances informatiques avancées… Nos jeunes sont-ils prêts ? Pas sûr. Si la pratique des réseaux sociaux et l’ouverture aux mathématiques et plus encore à la philosophie prônées par Bruno Schröder favoriseront leur insertion dans le monde du travail, on ne peut négliger les «laissés-pourcompte» du numérique, plus nombreux qu’on ne l’imagine. L’étude «Les jeunes off-line et la fracture numérique - Les risques d’inégalités dans la génération des natifs numériques» de la Fondation Travail-Université de Namur présentée fin 2009 fait le même constat: de par leurs usages, les jeunes ne sont pas égaux face aux TIC (Technologies de l’Information et de la Communication). Pour les auteurs, Périne Brotcorne, Luc Mertens et Gérard Valenduc, il faut se méfier de l’emphase médiatique habituelle qui présente les jeunes comme une génération homogène capable d’adaptabilité et de compétences multi-usages des technologies. À peine 5% des jeunes seraient totalement «offline», mais 9% le seraient «quasiment». Il faut comprendre par là que 14% n’utilisent pas du tout Internet ou rarement, voire de manière intermittente ou limitée à quelques usages élémentaires. Qui sont ces jeunes dits «off-line» ? Des personnes ayant vécu un décrochage scolaire, une inégalité sociale très marquée chez les 20-24 ans - les jeunes primo-arrivants et les illettrés sont évidemment sur-représentés; le niveau d’instruction faible ou moyen est une composante essentielle d’exclusion des nouvelles technologies. Les TIC seraient-ils misogynes ? Les usages d’Internet de ces jeunes sont révélateurs. Clavardage, recherche d’informations et enregistrement de musique sont les usages les plus répandus. Un tiers (36%) seulement des jeunes s’estiment capables de réaliser des tâches élémentaires; les usages commerciaux et administratifs, comme le simple fait de remplir un formulaire en ligne, étant plus rares. D’ailleurs, quel que soit le degré de familiarité des jeunes avec les TIC, ils sont nombreux à considérer que leurs compétences ne sont pas suffisantes par rapport aux exigences du marché du travail. L’apprentissage par la pratique et l’aide du réseau de relations sont des modalités très fréquentes d’apprentissage, à côté des canaux formels d’enseignement, nous apprend encore la Fondation Travail-Université. Connaissances, amis et famille jouent un rôle prépondérant dans l’acquisition de compétences. Ce qui veut dire aussi que le rapport des parents à la culture numérique contemporaine est prépondérant dans les situations de quasi-déconnexion des jeunes, tout comme le fonctionnement familial est un facteur explicatif de nombreuses situations de quasi-déconnexion - en particulier des jeunes filles: seuls les garçons sont autorisés à fréquenter les cyber-cafés ! 19 ATHENA 267 · Janvier 2011 > TECHNOLOGIE La culture numérique des parents et les relations entre les parents et les enfants jouent un rôle fondamental. «La pomme ne tombe jamais loin de l’arbre» dit-on, c’est on ne peut plus vrai en ce qui concerne les technologies. sentent qu’une minorité au sein de leur génération. Les risques d’exclusion se situent dans les quatre grands domaines pris en compte dans le plan d’action national contre la fracture numérique: l’emploi, la formation et le développement professionnel; l’accès à l’information et aux services en ligne; la participation à de nouveaux modes de communication et d’échange; la participation à la vie culturelle et citoyenne. 20 La culture numérique des parents et les relations entre les parents et les enfants jouent un rôle fondamental, s’accordent à reconnaître aussi bien les promoteurs de l’étude universitaire que Microsoft et IDC. Ces jeunes «off-line» sont d’autant plus exposés à des risques de marginalisation ou d’exclusion qu’ils ne repré- Les enjeux sociétaux et politiques de l’exclusion numérique parmi les jeunes sont d’autant plus importants que les établissements d’enseignement et de formation professionnelle, les institutions du marché du travail, les administrations, les employeurs attendent implicitement de tous les jeunes un comportement conforme aux stéréo types de la «génération Internet». Réflexions sur la génération des «natifs numériques» (source: Fondation Travail-Université) » La fracture numérique est d’autant plus difficile à déceler qu’elle ne tient plus au seul nombre de PC par famille. L’accès à la technologie peut passer par d’autres outils, comme le téléphone portable qui sert autant d’appareil photo, de plate-forme de téléchargement que de console de jeux. » Le lieu d’accès influence fortement la qualité de l’accès. La capacité des jeunes à faire un usage autonome et pertinent des contenus numériques ne constitue pas une évidence; le contexte cognitif, social et culturel jouant à plein dans les pratiques numériques observées. » Les inégalités numériques chez les jeunes tendent à se superposer à d’autres d’inégalités sociales existantes et les renforcent. Insérés socialement, certains jeunes se voient sanctionnés sur le plan professionnel du fait de leurs usages limités des TIC. » Bien que les «enfants du web» réalisent leurs recherches plus rapidement que leurs aînés, ils consacrent peu de temps à évaluer la qualité de l’information, sa pertinence et son exactitude. En parallèle, il apparaît que la culture de l’information des jeunes ne s’est pas améliorée avec un accès élargi à la technologie. » Le problème se situe dans le décalage Alain de FOOZ ·TECHNOLOGIE «Si l’accès au numérique n’est plus la question du moment, ce sont désormais les usages qui posent problème…» Interview de Pierre Lelong, Manager - Pôle Ressources & Diffusion, TechnoFutur TIC L a Semaine numérique s’est tenue du 5 mars au 12 mars 2010. Plus de 200 activités partout en Wallonie: activités d’animation, de sensibilisation, de formation autour de l’Internet et du numérique. Est-ce encore utile près de trente ans après l’avènement de l’ordinateur personnel ? «Plus que jamais ! D’abord pour réduire la fracture numérique en permettant l’accès de tous au numérique en encourageant des opérateurs à inviter les non initiés à en découvrir les richesses et les spécificités. Ensuite, pour offrir une vitrine aux activités d’initiation, aux rencontres et colloques en développant une approche critique de l’outil et des usages. Enfin, pour valoriser les opérateurs locaux: associations diverses, centres culturels, bibliothèques qui visent à populariser l’Internet… Si l’accès au numérique n’est plus la question du moment, ce sont désormais les usages qui posent problème. Internet, oui. Mais pour que faire ?» D iscuter, s’informer, se documenter, travailler… N’est-ce pas suffisant ? «Ce n’est pas si évident. Si l’on écoute les jeunes, Internet est synonyme de chat, de téléchargement, de jeux en ligne… Ce ne sont pas forcément les compétences attendues par l’école, les entreprises et les autorités publiques et qui sont nécessaires pour vivre de façon autonome dans la société actuelle. D’un autre côté, il ne s’agit pas de dénigrer ces usages, qui impacteront à coup sûr l’économie de demain. Les jeunes qui ont l’habitude de "chater" abordent le marché de l’emploi autrement: ils ont un sens plus exacerbé de la communication, de la collaboration. Les entreprises commencent à s’en rendre compte: à l’instar des Facebook ou Twitter, certaines tentent de mettre en place des réseaux pour développer la connaissance interne, identifier les compétences, créer des groupes de travail virtuel…» Néanmoins, il y a des «exclus»… «Disons "décalés"… Il s’agit de porter davantage l’attention sur la spécificité des inégalités numériques des jeunes, une nécessité d’autant plus grande que celles-ci présagent des difficultés d’usages des adultes de demain. Il ne faudrait pas que ce décalage grandisse. La Semaine numérique ou les Rewics (Rencontres wallonnes de l’Internet citoyen), qui fêtent cette année leur dixième anniversaire, sont l’occasion de faire le point, de dresser un bilan des intérêts et des compétences, de préciser les bonnes pratiques d’utilisation de la Toile, ses opportunités et ses dangers.» Les jeunes sont-ils demandeurs? «Absolument! Ils sont très clairement en quête d’usages, l’étude de la Fondation Travail-Université l’a prouvé: 33% des jeunes estiment leurs compétences informatiques insuffisantes par rapport aux exigences du marché de l’emploi… Le travail est donc considérable pour insérer des mesures d’"e-inclusion" qui prennent en compte la nature des inégalités numériques chez les jeunes. Tout le monde a un rôle à jouer: les autorités fédérales et régionales, les employeurs, l’enseignement et les services d’aide à la jeunesse. À propos de ces derniers, on peut s’étonner que le métier d’animateur multimédia ne soit toujours pas reconnu officiellement - la plupart, il est vrai, sont bénévoles. C’est d’ailleurs profondément injuste face au travail remarquable accompli. Sans eux, le pourcentage d’"exclus" ou "décalés" serait bien supérieur…» + entre l’expérience numérique des jeunes et les compétences TIC que la société attend d’eux. Pour les jeunes, ne pas avoir de connexion Internet ne signifie pas être par définition «off line». L’Internet est vécu comme une expérience individuelle. » L’absence de connexion domestique n’est pas seulement due à des facteurs économiques. Souvent, les parents n’en voient pas l’utilité. Ce sont surtout les parents qui sont «off-line», pas les enfants. Car pour échapper au contrôle familial, les jeunes cherchent des subterfuges et vont sur Internet à l’insu des parents. Pour en savoir plus Technofutur TIC: http://www.technofuturtic.be Fondation Travail-Université : http://www.ftu.be IDC: http://www.idc.fr 21 ATHENA 267 · Janvier 2011 > INTERNET Le Web pour les Nuls et les Professionnels 22 Comment les Trouveurs trouvent Texte : Christian VANDEN BERGHEN • http://www.brainsfeed.com • [email protected] Illustrations : VINCE Nous avons commencé une série d’articles consacrés aux quatre profils d’utilisateurs du Web: les Chercheurs, qui cherchent sans méthode et qui sont obligés de se contenter de ce que le Web leur propose; les Trouveurs, qui ont acquis une méthode de recherche, utilisent d’autres moteurs que Google et qui sont capables d’évaluer l’information trouvée. Dans le présent article, nous poursuivons l’examen des méthodes et outils utilisés par les Trouveurs. Q uoi qu’on cherche sur le Web, qu’il s’agisse de documents textuels, de photos, de vidéos, de livres, de résultats de Twitter ou de profils de personnes, il n’y a que trois types d’outils: les moteurs de recherche, les annuaires et les métamoteurs. Ils ont été décrits sommairement dans le second article de la série. Quelques notions doivent être bien comprises pour les exploiter pleinement: Un moteur de recherche » est une machine (aucune intervention humaine) » capable de trouver des mots (des chaînes de caractères) » sur des pages (un moteur de recherche - Google par exemple - ne trouve pas des sites, mais des pages Web) Un annuaire » est un travail de classement de sites » en fonction de leur contenu » dans une hiérarchie (taxonomie) de catégories et sous-catégories » réalisé par des bibliothécaires (des êtres humains) Un métamoteur » est un moteur de recherche » fonctionnant comme un moteur classique » mais ne disposant pas d’une base de données propre et sollicitant les bases de données des autres moteurs. Aucun des ces trois types d’outils n’est complet, et de très loin: les moteurs de recherche n’ont indexé qu’une infime partie des pages Web disponibles. Les annuaires sont encore bien plus petits car les humains - contrairement aux moteurs de recherche - ne travaillent Christian VANDEN BERGHEN · INTERNET qu’un certain nombre d’heures par jour. Quant aux métamoteurs, ils sont très incomplets car les moteurs de recherche ne les autorisent à accéder qu’à une très petite partie de leurs bases de données. Les Trouveurs font assez rarement appel aux métamoteurs. Quelques chiffres sur le Web: » près de 2 milliards de personnes utilisent Internet, dont 42% sont asiatiques. » le Web comporte 5 millions de terabytes d’informations, dont Google a indexé 0,004% (200 terabytes). Un cerveau humain peut emmagasiner de 1 à 10 terabytes d’informations. » 193 millions de noms de domaine sont en circulation, dont 46% sont des .com. » plus de 2 milliards de vidéos sont vues quotidiennement sur YouTube. Pour davantage de chiffres sur Facebook, Twitter, etc., rendez- vous à l’adresse The Awesome Size Of The Internet http://bit.ly/aC6wd3 Ces quelques chiffres devraient nous faire réfléchir à la relativité des choses: Google, le grand Google, le moteur omniprésent et qui a pratiquement réussi à évincer tous les autres, ne représente en réalité qu’une infime partie du Web. Où est passé tout le reste ? Il ne faudrait surtout pas croire que les quelques autres moteurs luttant encore pour leur survie face au géant ont indexé plus de pages Web. La partie du Web indexée par les moteurs de recherche s’appelle le Web superficiel ou visible. Tout le reste, les 99% du Web manquant à l’appel, est appelé le Web profond ou invisible. Il se trouve dans les bases de données gigantesques des instituts de recherche, des entreprises et des États, dans les pages «invisibles» aux yeux des moteurs de recherche parce que mal conçues (ce qui empêche leur indexation), dans le contenu des vidéos, etc. C’est-à-dire dans tout ce que les moteurs ne peuvent pas ou ne veulent pas indexer. > Pourquoi les moteurs de recherche n’indexent-ils que si peu de données ? Les réponses sont multiples: » parce que la plupart des gens ne savent déjà pas comment trouver de l’information dans les données disponibles. En leur proposant davantage de pages, on ne ferait qu’aggraver de problème; » parce que le stockage des données coûte très cher et que l’investissement n’en vaut sans doute pas la peine; » parce que la quantité d’électricité nécessaire au refroidissement des serveurs est immense (Google consomme autant d’électricité que les Pays-Bas ou l’Argentine). Notons au passage que l’immersion envisagée des serveurs de Google risque de provoquer de graves dommages écologiques. > Comment distinguer au premier regard un moteur d’un annuaire ? Un annuaire présente immédiatement une hiérarchie de catégories et de souscatégories. Voir par exemple DMOZ (http://www.dmoz.org/). Un moteur de recherche ne présente qu’un champ de recherche en proposant éventuellement de chercher dans le Web, dans l’actualité, dans les vidéos, etc. Bien utiliser un annuaire Les annuaires ont eu leur heure de gloire mais l’arrivée des moteurs performants comme Google et Bing ont fortement réduit leur utilisation. Le plus connu des annuaires est évidemment Yahoo! qui a été créé par David Filo et Jerry Yang à l’université de Stanford, en janvier 1994, suivi de l’entreprise fondée en mars 1995. Son siège social est situé à Sunnyvale en Californie. Selon Alexa Internet, Yahoo! était le site Web le plus visité en 2004. Son réseau de sites a servi plus de trois milliards de pages par jour en octobre 2004. Sa popularité augmentant, de nouveaux services sont offerts, transformant petit à petit l’annuaire Web en portail d’où l’utilisateur peut s’adonner à toutes les activités associées à l’Internet. On y trouve le service Yahoo! Mail (comportant un carnet d’adresses, un calendrier et un bloc-notes), un client de messagerie instantanée, l’hébergement de listes de diffusion, des jeux en ligne, des 23 ATHENA 267 · Janvier 2011 > INTERNET Un annuaire ne sert donc pas à trouver des mots sur des pages, mais des sites. On réservera donc l’utilisation des annuaires à des recherches sur des concepts comme l’acupuncture, l’histoire de la décolonisation ou la pensée de Voltaire. Ils sont utiles pour débroussailler le terrain mais pas pour trouver des détails. Ils sont également utiles pour trouver les concurrents d’une entreprise. Mais il ne faut jamais perdre de vue que pour figurer dans un annuaire, une démarche volontariste est nécessaire. On y trouvera donc plus volontiers des grandes entreprises que des PME. Face à Google, la survie des annuaires est très difficile. Deux annuaires résistent encore et toujours: Yahoo! (http://dir. yahoo.com/) et DMOZ (http://www.dmoz. org/). 24 Il est extrêmement compliqué pour un novice de savoir où trouver une information dans les méandres de la Toile. Vous trouverez ici les notions et étapes clés afin d’aller directement au but sans perdre son temps. + Astuce ! Si vous cherchez de l’information sur la qualité d’un smartphone comme le Blackberry par exemple, vous ne souhaitez sans doute pas recevoir des pages provenant du site officiel. Comment éliminer ces pages? Essayez d’abord blackberry Essayez maintenant blackberry -www.blackberry.com Vous pouvez éliminer les informations provenant d’autres sites. Attention: un espace avant le signe «-», mais pas après ! weblogs et des chats, mais aussi des portails d’informations variés (économie, actualités, sports, etc.). C’est sans doute cette politique de portail et de «touche-à-tout» qui a provoqué le déclin de Yahoo! car en face, la politique de Google a toujours été de ne pas mélanger les genres. Il suffit de se rendre sur la page http://www.yahoo.com/ pour constater immédiatement que le but d’un tel portail n’est pas réellement d’informer mais de retenir captif le visiteur égaré. L’autre erreur de Yahoo! a sans doute été de vouloir devenir un moteur de recherche pour concurrencer Google. Plutôt que de construire son propre moteur, sa politique a été d’acheter des moteurs existants comme AltaVista, AllTheWeb et une série d’autres. Tout cela a provoqué de la confusion chez les utilisateurs, davantage attirés par la simplicité de Google. Dernière péripétie en date: Yahoo! a annoncé il y a quelques semaines qu’il faisait désormais appel au moteur Bing, développé par Microsoft. Contrairement à un moteur de recherche, il vaut mieux éviter d’utiliser le champ de recherche d’un annuaire car il ne fonctionne pas par mots-clés. Il faut commencer par se demander dans quelle catégorie principale pourrait se trouver la sous-catégorie dans laquelle pourraient se trouver les sites recherchés... Bien utiliser un moteur Nous avons déjà expliqué à plusieurs reprises comment il convient d’utiliser un moteur de recherche. Nous nous contenterons donc de ces quelques rappels: » évitez absolument les recherches sur un mot. Imaginez-vous à la place d’un bibliothécaire si un visiteur vous disait «peinture». Sans autre information, vous seriez contraint de lui apporter tous les documents comportant le mot «peinture»: peinture dans le domaine artistique, mais aussi la chimie, les catalogues de fabricants de peinture murale, etc. Essayez plutôt d’inclure dans votre requête tous les mots qui permettent de circonscrire le sujet pour que les résultats soient les plus contextualisés possibles; » essayez de deviner la manière dont la réponse sera formulée, partant du principe que quelqu’un a déjà écrit le document qui vous intéresse. Plutôt que d’écrire «découverte globules rouges», essayez «les globules rouges ont été découverts par en». Le moteur se chargera de trouver un document comportant une phrase identique et complètera si possible les blancs; Christian VANDEN BERGHEN · INTERNET » si les résultats sont trop nombreux et pas assez pertinents, essayer de placer certaines expressions entre guillemets, ce qui force le moteur à ne ramener que des pages comportant cette expression Exemple : la «théorie de la relativité» d’Einstein explique » essayez de deviner dans quel format le document recherché a été écrit. S’il s’agit d’un document officiel, il est fort probable qu’il sera disponible au format PDF. Dans ce cas, avec Google, essayez par exemple filetype:pdf «gestion des déchets» > Comment identifient-ils d’autres sources ? de chance d’être mise en ligne directement par son auteur. Par contre, la plupart des universités proposent des bases de données des thèses réalisées. Ils vont donc essayer une requête du genre «base de données de thèses en ligne online thesis». Une fois les nouvelles sources trouvées, ils chercheront eux-mêmes à l’intérieur de ces bases de données. Pourquoi cette stratégie de recherche ? Parce que les moteurs de recherche sont incapables d’indexer le contenu des bases de données. Ils peuvent donc être utilisés pour trouver les bases de données mais il faudra ensuite chercher soi-même dans celles-ci. » Les Trouveurs ne disposent pas d’un Google secret, connu des seuls enfants du Web ! Ils savent par contre comment utiliser les outils de recherche pour accéder à des sources d’informations nouvelles. Ils commencent toujours par se demander qui pourrait disposer de l’information qu’ils recherchent et/ou qui pourrait avoir intérêt à mettre cette information en ligne. Quelques exemples: » S’ils doivent trouver une thèse sur un sujet donné, les Trouveurs ne vont pas perdre du temps à taper quelques mots dans un moteur de recherche car ils savent qu’une thèse a relativement peu » S’ils doivent dresser la liste des boulangers de Marseille, les Trouveurs ne vont certainement pas taper «liste des boulangers de Marseille» dans un moteur de recherche car ils savent que tous les boulangers n’ont pas de site Web. Ils savent que par contre, tous les boulangers ont le téléphone. Ils vont donc se mettre à la recherche des Pages Jaunes françaises en ligne et y lancer une recherche. Ils noteront au passage que tous les annuaires de téléphone du monde sont rassemblés dans un même site: Infobel (http://www.infobel. com/). S’ils recherchent une présentation sur l’énergie verte, ils essaieront sans doute une recherche dans Google avec une syntaxe du genre «filetype:ppt énergie verte». S’ils ne sont pas satisfaits, ils s’adresseront à des sites comme SlideShare (http:// www.slideshare.com/) qui rassemble des présentations sur des tas de sujets et dans des tas de langues. » S’ils veulent savoir ce que les utilisateurs pensent de l’iPad, ils commenceront par taper une expression comme ipad sucks dans un moteur de recherche pour découvrir les problèmes rencontrés par les propriétaires de la tablette. S’ils ne trouvent pas ce qu’ils cherchent, ils iront voir dans des forums ipad ou chercheront dans les réseaux sociaux comme Twitter. Une méthode ! Les Trouveurs ne se lancent pas tête baissée sur leur clavier. C’est en cela qu’ils se démarquent des Chercheurs: ils préfèrent prendre quelques minutes pour réfléchir à la question essentielle qui est «qui possède ce que je cherche ?» Après, tout devient plus simple. En d’autres termes, ils ajoutent une étape entre eux et la réponse. Ils n’attendent pas du moteur qu’il leur fournisse la réponse mais plutôt la source de la réponse. + Pour en savoir plus Pour trouver des listes de journaux du monde entier, il suffit de taper une requête comme online newspapers dans un moteur de recherche. Voici quelques résultats intéressants: Online Newspapers http://www.onlinenewspapers.com/ Newspapers24 http://www.newspapers24.com/ Newspapers Index http://www.newspaperindex.com/ 25 ATHENA 267 · Janvier 2011 > SANTÉ Anorexie, boulimie: les ados en danger 26 Texte : Philippe LAMBERT • [email protected] Photos: J. BERKOPEC/Flickr (p.26), M. DIRLEA (p.28), ·S/Flickr (p.28) Refuser de manger, engloutir des aliments de façon compulsive mais essayer ensuite de ne pas grossir en se faisant vomir ou en prenant des laxatifs, par exemple, consommer des quantités «monstrueuses» de nourriture en un court laps de temps sans se soucier de la prise de poids, les troubles du comportement alimentaire font partie des plaies de l’adolescence. Ils constituent une cause importante de morbidité, et même de mortalité L es troubles du comportement alimentaire (TCA) débutent souvent par la pratique d’un régime. Ainsi, une étude publiée dans Pediatrics en 2003 aboutit à la conclusion que les adolescentes qui s’adonnent régulièrement à des régimes ont 12 fois plus de chance de devenir boulimiques que celles qui ne restreignent pas leur alimentation. Le régime n’est cependant pas la cause des TCA, mais il en dessine la voie, constitue le signe avant-coureur d’une possible entrée dans la pathologie. Une étude canadienne datant de 2004 dévoile que 24,5% des garçons et 30% des filles âgés de 10 à 14 ans se plient à la loi des régimes amaigrissants quand bien même leur poids serait normal. Statistiquement, ces jeunes ont un risque accru de dériver vers l’anorexie mentale, la boulimie ou un désordre ressortissant à la catégorie résiduelle des troubles alimentaires dits «non autrement spécifiés» (NOS). L’épidémiologie nous apprend que les TCA sont à large prédominance féminine, puisqu’ils touchent neuf femmes pour un homme. La valorisation de la minceur remonte au début du 19e siècle et s’est fortement intensifiée à partir des années 1950-60. Dans ce contexte, l’insatisfaction corporelle est devenue la norme. Selon nombre de travaux, notre société, très individualiste, a détourné le contrôle de soi, qui s’exerçait auparavant au sein des groupes d’appartenance, pour l’orienter vers le corps. «Certains y voient l’expression d’une violence à l’égard des femmes, dans la mesure où on les oblige à exercer une contrainte sur leur corps», commente le docteur Yves Simon, chef de service Philippe LAMBERT ·SANTÉ de l’Unité des troubles alimentaires et directeur du programme anorexie/boulimie au centre psychiatrique Le Domaine (Université libre de Bruxelles), à Brainel’Alleud. Il ajoute: «La sociologue marocaine Fatema Mernissi décrit l’enfermement de la femme occidentale dans ce qu’elle appelle le harem de la taille 38. Elle écrit en substance que “pour faire obéir une femme, il ne faut pas lui mettre un policier dans le dos, mais il suffit de lui présenter des images”. L’intériorisation des images de minceur et de maîtrise véhiculées par notre société conduit les jeunes filles et les jeunes femmes à rechercher la réussite à tous les niveaux contrôle du poids, études, profession... - et donc à s’imposer une énorme pression.» Orgies alimentaires Quels sont les différents visages des troubles de l’alimentation ? La quatrième édition révisée (2000) du Diagnostic and Statistical Manual of Mental Disorders (DSM IV-R) met en exergue deux TCA, l’anorexie mentale et la boulimie, et reconnaît l’existence d’une catégorie résiduelle, les NOS, pour lesquels elle ne fournit aucun critère de diagnostic. Dans l’anorexie mentale, le sujet adopte un comportement de restriction alimentaire traduisant sa crainte ou un refus de maintenir son poids corporel à un niveau minimal normal pour son âge et sa taille. Au bout d’un moment, l’amaigrissement qui s’ensuit ne peut passer inaperçu. À ce propos, le décès du mannequin brésilien Carolina Reston, en 2006, a marqué les esprits. Cette jeune femme de 21 ans ne pesait plus que 40 kilos, pour 1,74 m. La boulimie, elle, se manifeste par des épisodes de suralimentation auxquels succèdent des comportements destinés à éviter la prise de poids. Durant la crise, l’individu consomme de manière compulsive, parfois sans préparation ni cuisson, les aliments qu’il cherche à éviter habituellement. Cette tyranie de la minceur est entre autres fortement induite par les séries télévisées dans lesquelles les jeunes filles s’affichent systématiquement minces. Les adolescentes s’identifient et font tout pour leur ressembler..... Il arrive que la crise soit anticipée, que les aliments soient sélectionnés à l’avance. Ensuite, après quelques heures d’orgie alimentaire, le boulimique se fait vomir, prend des laxatifs ou des diurétiques, s’impose un jeûne drastique ou se livre à une activité physique excessive. Ces stratégies compensatoires lui permettent de maintenir son poids à un niveau plus ou moins constant, de sorte que, contrairement à l’anorexie, les accès boulimiques, accomplis en secret, peuvent passer inaperçus pendant des années et demeurer longtemps compatibles avec une vie normale sur les plans familial, social et professionnel. In fine, l’épisode boulimique s’achève généralement dans la honte, la culpabilité, le dégoût de soi-même et un profond sentiment de solitude. Parmi les critères diagnostiques énoncés dans le DSM IV-R, certains ne reposent sur aucune évidence empirique et prêtent donc le flanc à la critique. C’est notamment le cas de l’arrêt du cycle menstruel, symptôme classiquement considéré comme indispensable au diagnostic d’anorexie mentale. «En fait, l’aménorrhée est liée à la sévérité de la dénutrition, indique Yves Simon. Attendre l’arrêt des règles pour poser le diagnostic n’a d’autre effet que de retarder l’engagement dans un traitement.» NOS: la part du lion À côté de l’anorexie mentale et de la boulimie cohabite donc une catégorie de troubles baptisés «troubles alimentaires non autrement spécifiés», qui ne répondent pas à tous les critères de diagnostic des deux affections précitées. Ces troubles peuvent être ventilés en plusieurs catégories. » On y recense d’abord des formes subcliniques ou débutantes de l’anorexie et de la boulimie. Le docteur Simon cite l’exemple d’individus qui s’adonnent à des régimes de manière chronique et ne se font vomir qu’après l’ingestion d’aliments censés les faire grossir. Une autre illustration nous est donnée par les personnes caractérisées par des comportements d’anorexiques, mais qui maintiennent leur poids à un niveau proche de la normale. »Deuxième type de troubles NOS: ceux dont la principale propriété est d’associer les caractéristiques cliniques de l’anorexie mentale et de la boulimie - on parlera de formes mixtes. »Quant à la troisième catégorie, l’hyperphagie boulimique, elle concerne des personnes qui, perdant le contrôle de leur alimentation, consomment de grandes quantité de nourriture en un court laps de temps, sans recourir à des comportements compensatoires en vue d’éviter la prise de poids. Rassemblant sous leur bannière 30 à 50% des individus souffrant d’un TCA essentiellement des enfants et des adolescents -, les troubles NOS apparaissent comme les plus fréquents (1), mais sont assez rarement diagnostiqués. Depuis une dizaine d’années, l’incidence des formes subcliniques de l’anorexie mentale et de la boulimie s’inscrit même sur une courbe résolument ascendante. Or qu’observet-on ? Que 60% des jeunes filles ou des femmes qui y sont confrontées consulteront dix ans plus tard pour des altérations significatives de leur santé physique ou de leur équilibre psychosocial. D’où l’intérêt actuel de la recherche pour les troubles NOS. 27 ATHENA 267 · Janvier 2011 > SANTÉ (1) Dix à quinze pour cent des jeunes âgés de 12 à 18 ans présentent des conduites de régime problématiques - anorexie mentale (0,5 à 1%), boulimie (1 à 2%), troubles NOS (5 à 10%, dont 2% relatifs à l’hyperphagie boulimique). Des comportements alimentaires problématiques sont présents dans d’autres affections psychiatriques - troubles anxieux, dépression et trouble de la personnalité de type «borderline»...‑, ainsi que dans l’addiction à la drogue ou à l’alcool. «En outre, on observe souvent de l’automutilation, notamment chez les adolescentes boulimiques, souligne Yves Simon. Regarder couler le sang les apaise, évacue leur tension, leur anxiété. Les caractéristiques des automutilations peuvent aussi orienter vers d’autres diagnostics en relation avec l’abus, la violence, y compris la violence sexuelle, mais aussi vers des formes de troubles de la personnalité, voire une schizophrénie débutante.» Un taux très élevé de tentatives de suicide est également associé aux TCA, spécialement à l’anorexie mentale. Les personnes les plus à risque sont les jeunes femmes anorexiques d’environ 35 ans se jugeant dans une impasse de vie, en particulier quand leur trouble alimentaire est compliqué par l’abus d’alcool. 28 Le culte du corps L’étiologie des TCA demeure assez floue. Toutefois, leur origine multifactorielle ne fait plus aucun doute. L’interaction de facteurs génétiques et de facteurs environnementaux semble établie. Une chose est claire: il n’existe pas un gène de l’anorexie, un autre de la boulimie, un autre encore de l’hyperphagie bouli mique. Non, ici, une constellation de gènes (aujourd’hui mal définie) serait impliquée, ainsi que d’autres facteurs biologiques et un ensemble de facteurs psychologiques, culturels, sociaux, familiaux, etc. Certains traits de personnalité se trouvent aussi au cœur du débat. Ainsi, comme le rappelle Yves Simon, «les patients anorexiques ont des problèmes avec les émotions négatives, fortement associées avec le perfectionnisme, l’anxiété obsessionnelle et le surcontrôle des impulsions et, dans la boulimie, on montre une dysrégulation des émotions, une sensibilité au rejet et un souscontrôle des impulsions et des émotions.» Pour le psychiatre, le pragmatisme conduit à considérer que les TCA sont orchestrés par des facteurs de prédisposition, des facteurs déclencheurs et des facteurs de maintien du trouble. Parmi les premiers, dont une trentaine ont été identifiés, citons le sexe (féminin), l’âge (l’adolescence), la dotation génétique, l’ethnie (les populations occidentales sont beaucoup plus touchées que les populations asiatiques, par exemple), des antécédents de coercition psychologique ou de violences physiques subies. La plupart des facteurs déclencheurs semblent ordinaires, tels un décès, le divorce des parents, une pression psychologique pouvant notamment résulter de remarques désobligeantes relatives au poids et à la silhouette..., mais ils peuvent également avoir trait à des situations de compétition avec les pairs (sur la minceur et le contrôle de soi), voire à une situation banale d’insécurité. Par surcroît, le culte du corps et de la maîtrise véhiculé par les médias, mais souvent aussi par les parents et les autres adolescents, représente de nos jours un facteur puissant d’intériorisation de valeurs Philippe LAMBERT · SANTÉ susceptibles de déclencher un trouble alimentaire. Le revers de la médaille Dans la perspective d’une prise en charge thérapeutique, les facteurs de maintien sont néanmoins les plus importants aux yeux de notre interlocuteur, certains facteurs impliqués dans la genèse du trouble pouvant d’ailleurs avoir disparu au moment de l’initiation du traitement. De plus, les anciens programmes de prévention primaire de type psycho-éducationnel à destination des adolescents ont montré leurs limites et, générant des effets pervers inattendus, ont fréquemment abouti à une inversion de leur finalité. De fait, la prévalence des troubles alimentaires n’a pas diminué au sein des populations ayant reçu un programme d’information et d’éducation. Pis: ayant pris conscience de pratiques qu’elles ignoraient, certaines jeunes filles en sont venues à recourir à des comportements dangereux - vomissements, prise de laxatifs, etc. - dans le but de contrôler leur poids. Désormais, les programmes de prévention primaire ciblent de manière conjointe les troubles alimentaires et l’obésité et ont pour objectif de diminuer le niveau d’insatisfaction corporelle des jeunes. Les résultats sont encourageants et dénués d’effets négatifs. Les facteurs de maintien des TCA sont essentiellement la dénutrition, les problèmes interpersonnels, l’isolement ainsi que les gains secondaires que le trouble peut procurer - l’attention des proches et de l’entourage, mais aussi la diminution de leurs attentes; le sentiment de performance, de supériorité et de contrôle; l’apaisement émotionnel; la distraction par rapport aux autres problèmes; le maintien de la relation de dépendance à l’égard de la famille d’origine; l’évitement des conflits et celui de l’intimité et de la sexualité. La famille, partenaire privilégié Yves Simon insiste sur l’importance de la famille dans la gestion des TCA. Informer les proches est primordial, car leur méconnaissance de la maladie est de nature à engendrer chez eux une détresse qui contribuera au maintien du trouble alimentaire. «Autrement dit, il est capital que la famille soit à même de se réorganiser afin de se ménager des ressources et des mécanismes adaptatifs qui l’autoriseront à exercer ses compétences dans une situation de crise et à offrir à la personne malade un environnement stable et sécurisant lui permettant d’activer ses ressources personnelles.» Face à l’adolescent en difficulté, les parents doivent notamment accorder de l’importance aux repas familiaux et veiller à ce qu’y règne une ambiance conviviale; ils doivent également s’abstenir de toute critique à l’égard du jeune confronté à un TCA. «Observer, prendre position sur des faits sans interpréter, mais ne pas juger ni blâmer», précise encore le docteur Simon. Toujours selon lui, les parents et la fratrie sont appelés à tenir le rôle de partenaires dans la prise en charge thérapeutique des troubles alimentaires. Ainsi, les parents auront en charge la réalimentation du jeune dans le cas de l’anorexie mentale, selon les modalités d’une thérapie familiale ou multifamiliale. L’hospitalisation ne sera à l’ordre du jour que si le traitement ambulatoire aboutit dans une impasse. Ou alors en présence d’un danger somatique, de problèmes psychologiques induisant de la dépression ou un risque suicidaire, ou lorsque le contexte familial ou professionnel est délétère. «En outre, l’hospitalisation paraît souvent intéressante chez le patient adulte, car il ne jouit plus du même soutien parental teinté d’autorité que l’enfant ou l’adolescent», ajoute Yves Simon. Au niveau du traitement proprement dit, les interventions sont généralement de type psychothérapeutique. Et plus particulièrement cognitivo-comportementales pour la boulimie et l’hyperphagie boulimique. En revanche, dans l’anorexie mentale, l’accent sera mis sur la renutrition, les relations interpersonnelles, la communication familiale et l’autonomie émotionnelle. La durée moyenne des TCA est de 6 ans, mais ils peuvent persister toute une vie. Parmi les 80% de malades qui en guérissent, 50% continueront malgré tout à entretenir des préoccupations pour leur poids, leur silhouette et leur alimentation. + Le p’tit plus de la rédac’ Comment sortir de la boulimie et se réconcilier avec soi-même, par Yves Simon et François Nef, Éditions Odile Jacob, 2004. Comment aider votre fille à sortir de l’anorexie, par Yves Simon et Isabelle Simon-Baïssas, Éditions Odile Jacob, 2009. 29 + Pour en savoir plus Besoin d’écoute ou de conseils? ASBL MIATA Maison d’information et d’accueil des troubles de l’alimentation Rue de la Goëtte, 85 1420 Braine-l’Alleud. Tél.:02/385.09.40 www.mitata.be Permanence téléphonique et accueil : le mardi et jeudi de 14h à 17h. Accueil de préférence sur rendez-vous LE DOMAINE - ULB http://www.domaine-ulb.be 02/386.09.78 [email protected] ATHENA 267 · Janvier 2011 > BIOLOGIE Les bons et les mauvais poisons Ce mois-ci dans votre rubrique bio: une île presque paradisiaque pour oublier le froid de l’hiver, une once de royauté en souvenir de la galette, un potentiel nouveau cousin tout droit sorti d’un lointain passé et quelques suggestions de bonnes résolutions pour bien commencer l’année ! Texte : Jean-Michel DEBRY [email protected] Photos : CDOROBEK/Flickr (p.30), M. DVORAK (p.30) E. BRUNEAU/CARI (p.31) 30 Victime de son succès T ous ceux qui s’intéressent à la vie sauvage connaissent les Galapagos, ce chapelet d’îles du Pacifique visité en son temps par Charles Darwin, sur lesquelles il a fait les observations qui lui ont permis de bâtir ensuite sa théorie de l’évolution. L’évocation est raccourcie, mais c’est pour situer. Lieu culte, musée animalier ou simple idée originale de vacances, ces îles ont été massivement visitées depuis, avec tous les désagréments que l’on peut imaginer. Résultat: des dégâts majeurs et des restrictions nécessaires à l’afflux de visiteurs ont dû être imposées. Entre autres dégâts collatéraux, des animaux «domestiques» ont été importés qui ont perturbé les sites et hypothéqué la survie d’une faune locale. Dans un autre registre, des rats ont également suivi les marins et se sont significativement implantés sur quelques îles de l’archipel jusqu’à précariser la survie d’autres espèces, parmi lesquelles certains oiseaux. Omnivores, les rats aiment en effet à se délecter des œufs qu’ils trouvent dans des nids trop accessi- bles. Quelques espèces en ont fait les frais et sont aujourd’hui en danger certain. C’est notamment le cas du pinson des mangroves dont on pense qu’il n’existerait plus qu’une centaine d’individus. Les ornithologues ont donc jugé qu’il était grand temps d’agir; ils ont prélevé une dizaine de sujets et les ont déplacés vers une île distante de 25 Km, connue pour ne pas abriter les redoutables prédateurs. L’idée est bien entendu de sauvegarder l’espèce en lui permettant de se reproduire en toute quiétude, quitte à la réimplanter plus tard en partie au moins, dans son berceau d’origine. L’opération n’est pas gagnée pour autant. D’abord elle repose sur un très faible nombre d’individus; il faut qu’ils survivent premièrement, pensent à se reproduire ensuite et à reconstituer une population enfin avec une base génétique finalement peu diversifiée. Par ailleurs, il faut bien constater que même réduit, ce «prélèvement» représente tout de même 10% de la population résiduelle, ce qui n’est pas négligeable. Or on sait qu’il existe, pour chaque espèce, un nombre minimal en-dessous duquel la survie n’est plus assurée. Enfin, il faut vérifier que les individus déplacés ne vont pas aiguiser les appétits d’autres prédateurs locaux ravis ou, au contraire, ne vont pas occuper la niche d’une espèce proche qui serait précarisée à son tour. Bref rien n’est simple. Voilà en tout cas un aspect de l’évolution des espèces que Darwin n’avait sans doute pas imaginé. Science 2010; 329: 17 Le Camarhynchus heliobates, l’une des 13 ou 14 espèces de pinsons recensées par Charles Darwin lors de son expédition sur les îles Galapagos. Jean-Michel DEBRY · BIOLOGIE La reine et ses servantes L orsqu’au sein de la ruche, la reine pond ses œufs, elle le fait sans distinction, chacun d’entre eux, déposé dans une alvéole et nourri de miel, donnant une nouvelle abeille, laborieuse comme les autres. Sans exception ? Si; une alvéole est remplie de gelée royale et permet l’éclosion d’une future reine; une abeille dont la taille mais surtout la fonction diffère puisqu’elle seule est fertile et appelée à assurer la survie de la colonie. Evoquée de cette façon, la réalité paraît simple: une larve ingère une nourriture particulière et devient un insecte fertile. Pourtant tout processus physiologique - et la reproduction est un des plus importants - est guidé par l’action de gènes. Comment donc une alimentation particulière agit-elle sur des gènes ? La réponse est encore simple: elle ne le fait pas. La reine dispose en effet exactement des mêmes gènes que toutes ses collègues de ponte. Or, certains de ces gènes fonctionnent à l’évidence autrement pour elle. L’explication ? Elle est épigénétique. On l’a déjà expliqué: si nous disposons des mêmes gènes de la conception à la mort, ceux-ci ne fonctionnent pas de la même façon en permanence, à tous les âges, en fonction de notre état de santé, etc. C’est donc qu’il existe un système de régulation fin qui en contrôle le fonctionnement. C’est tout le principe de l’épigénétique. Le mode de fonctionnement est biochimique: des petits radicaux - méthyles - se fixent en des endroits stratégiques de certains gènes et agissent comme interrupteurs; d’autres s’attachent à des protéines - les histones - autours desquelles l’ADN s’enroule étroitement, etc. Et c’est précisément sur ces processus épigénétiques qu’agit l’alimentation sélective de la future reine. Prodigieux d’astuce ? Certes, mais finalement banal. Nombre de paramètres qui constituent notre «environnement» (aliments, boissons, médicaments polluants) agissent de la même façon pour notre plus grand bien mais parfois aussi pour notre mal. Ce qui existe pour la reine des abeilles est donc vrai pour le reste du monde animal, mais aussi végétal. Chez elle, le processus prend simplement une dimension particulièrement visible, essentielle et déterminante. En d’autres termes, elle est exactement ce qu’elle mange… Ne dit-on pas parfois la même chose de certains humains ? Nature 2010; 468: 348 Cellule royale On a identifié le processus épigénétique responsable de la transformation chez la reine. Il s’agit d’une modification de l’implantation de radicaux méthyles sur l’ADN à des endroits qui mènent à un remaniement des ARN produits (les ARN sont les molécules-messagers qui assurent le transfert de l’information de l’ADN en dehors du noyau où les protéines sont produites). Modifiés, ces ARN mènent donc, dans ce cas-là, à des produits métaboliques qui rendent possible la fonction reproductive. Alors, finalement: néandertaliens, ou pas ? S ’ils ont longtemps été considérés comme des êtres massifs et frustes, les Néandertaliens ont, au cours des trois dernières décennies, regagné en humanité. Non seulement on en a fait des êtres finalement assez proches de nous, mais on leur a découvert une série d’attitudes qui les rapproche incontestablement de la culture «sapiens»: ensevelissement rituel des morts, élaboration de bijoux, etc. À ce tableau ne manque toujours que la parole, pour laquelle des doutes subsistent. Disparus il y a 35.000 ans environ, ces lointains cousins ne nous sont connus que par ce qu’ils ont bien voulu nous laisser et que l’homme d’aujourd’hui exhume de sites de fouilles. Les vesti- ges osseux ne laissent en général planer aucun doute quant à leur origine en raison de leur taille et de leur morphologie. Quant aux outils et parements, ils ont le plus souvent été assimilés à la culture néandertalienne en raison de la strate de sol où ils ont été découverts et en fonction d’une datation établie. Le problème est que des sites ont pu être occupés de façon quasi simultanée par les Homo neandertalensis et sapiens et que les datations effectuées dans le passé n’étaient pas toujours de la plus grande précision. Ce n’est plus le cas aujourd’hui et c’est bien gênant. Quelques objets dénotant une relative «finesse» tels que des parures faites par exemple d’os sculptés, initialement attribués à notre lointain cousin disparu, viennent d’être datés de périodes allant de -49000 à -21000 ans. Si la date la plus ancienne «colle» avec la présence des auteurs présumés, ce n’est plus le cas pour la seconde. Gênant. Voilà donc un sujet de discorde supplé- 31 ATHENA 267 · Janvier 2011 > BIOLOGIE La question du mois Q uel est l’organisme vivant dont le génome compte le plus de paires de bases (ou de nucléotides, ce qui revient globalement au même) ? Un GROS animal ? 32 Non. Une modeste plante japonaise appelé Paris (ça doit être pour ça qu’elle a la «grosse tête» !). Paris japonica, même, pour être précis. Si le génome humain - l’ADN, par conséquent - compte 3 milliards de paires de bases, ce qui n’est déjà pas rien, celui de cette petite plante en compte près de … 50 fois plus, exactement 149 milliards. Un record; pour le moment en tout cas, en attendant sans doute mieux. Contrairement à ce qu’on pourrait a priori penser, un matériel héréditaire d’une telle taille ne constitue pas forcément un avantage. La division cellulaire (et par conséquent la croissance) est forcément plus lente compte-tenu de la nécessité de dupliquer d’abord un «matériel» aussi conséquent pour le mettre à disposition de chacune des nouvelles cellules filles. Partant, l’organisme qui le renferme est aussi plus sensible aux éléments externes et notamment - dans le cas présent - aux polluants. Il est parfois préférable de se faire petit et discret… http://scim.ag/big-genome mentaire entre les archéologues qui n’en manquaient pas. Les objets litigieux, pour être précis, sont ceux qui ont été exhumés par André Leroi-Gourhan à la Grotte du Renne à Arcy-sur-Cure, un site bien connu des amateurs. Voilà donc la strate du «châtelperronien» marquée dorénavant et pour un certain temps, du sceau du doute. Cela va en énerver quelques-uns. Les autres, je n’en doute pas, recevront cette information cruciale avec une indifférence plus que relative… Science 2010 : 439. Le tabac dans les gènes L e tabagisme est une des causes de pathologies parmi les mieux documentées aujourd’hui. Cela n’empêche que très modérément les femmes et les hommes de succomber à la cigarette puisque dans notre pays en tout cas, l’incidence ne semble guère évoluer en dépit des risques désormais connus. On a bien compris que fumer ou non est inféodé au libre choix de chacun et toute contrainte pourrait être assimilée à une atteinte à la liberté individuelle. Il n’empêche que le résultat est là, qui peut être traduit en prévalences diverses, puisque les pathologies associées sont multiples. Les chercheurs n’en sont évidemment pas restés à ce constat et ont tenté d’en savoir un peu plus sur les facteurs d’éventuelles prédispositions; basant leur étude sur le génome humain disponible, ils ont cherché à identifier d’éventuels signes de plus grande dépendance à l’assuétude. Ils ont entrepris une de ces études à large spectre, connue désormais sous l’appellation GWAS (genomewide association study), en comparant l’ADN de fumeurs à celui de non-fumeurs. Cette étude comparée ramène de façon unidirectionnelle à un locus (site) de l’ADN qui correspond à la portion 25 du bras long du chromosome 15. On y a identifié trois gènes en particulier (CHRNA3, 4 et 5) dont on sait qu’ils codent pour les sous-unités du récepteur nicotinique neuronal à l’acétylcholine, un neuromédiateur. Des variations ponctuelles du génome (les SNP ou single nucleotide polymorphisms) ont également été mises en évidence entre fumeurs et non fumeurs, l’abondance de ces variations étant liée à la quantité de cigarettes consommées. Un de ces SNP apparaît même particulièrement «sensible» de ce point de vue; il est situé dans la région promotrice du gène CHRNA5, évoqué plus haut. Le même locus a aussi été associé à plusieurs pathologies telles que le cancer du poumon, les affections artérielles périphériques et les atteintes pulmonaires obstructives et chroniques. Inutile de préciser que le lien de cause à effet entre le tabagisme et ces pathologies s’en trouve renforcé par ADN associé. L’objet de cette démarche est de pouvoir un jour cibler quelques-uns de ces marqueurs pour aider les accros à échapper à leur assuétude. Pour autant qu’ils le souhaitent, bien entendu. Or, en dépit de sages intentions souvent affirmées, on sait que la volonté n’y est pas toujours. Sauf, souvent, quand cela n’en vaut définitivement plus la peine… Nature genetics 2010; 42(5): 436-439 Jean-Michel DEBRY · BIOLOGIE En route vers l’exposome ! N ous sommes tous, en fonction de ce que nous touchons, respirons et consommons, soumis à des facteurs d’environnement qui peuvent générer, sur le moyen et le long terme, des maladies chroniques; certaines d’entre elles pouvant dégénérer ensuite en maux plus sévères. Les épidémiologistes le savent évidemment et font, à travers des études menées depuis longtemps, le lien entre les effecteurs externes - les «polluants», par conséquent - et notre état de santé. Plus récemment, les études extensives du génome (les GWAS, pour Genomewide association studies déjà citées) ont montré que pour chacune des maladies explorées, 5 à 10% en général de la population présente des facteurs génétiques de prédisposition. On pense par conséquent posséder tous les facteurs de risque pour chaque individu. De tous, vraiment ? Non. Les «effecteurs» externes (les électrophiles réactifs, les perturbateurs endocriniens, les modulateurs de réponse immunitaire, les liants aux récepteurs cellulaires et les métaux), tous issus de l’environnement, doivent d’abord trouver un site d’action dans l’organisme. Partant, ils provoquent localement ou de façon diffuse, une inflammation, un stress oxydatif, une peroxydation des graisses, une infection, une perturbation de la microflore intestinale ou une altération d’un processus particulier. Bref, si cela fait un peu savant, cela signifie surtout qu’il y a d’abord un relai obligé avec un élément de notre métabolisme avant qu’un quelconque effet négatif se manifeste; et cet élément-là aussi fait toute la différence. Il nous distingue les uns des autres, mais aussi d’un moment à l’autre de notre vie: nous ne sommes en effet pas réactifs de la même façon à un agent externe «polluant» à 5 ou à 50 ans, si nous sommes un homme ou une femme, détendus ou en état de stress… Tous ces éléments réunis définissent ce qui constitue notre exposome, un état qui nous correspond en propre à un moment donné et qui définit finalement notre facteur permanent de risque de développer une maladie. Le reconnaître est évidemment déjà une étape importante. Le mesurer, l’identifier est encore bien mieux. Et c’est bien sûr à cette tâche que se sont attelés des scientifiques qui ont commencé à rechercher, dans le cadre d’une médecine prédictive hautement personnalisée, quelles pouvaient bien être les «signatures» physiologiques de ces états de prédisposition. Des pistes existent bien entendu. Celles de la génétique font l’objet de recherches importantes; elles visent à identifier les modifications perceptibles grâce aux études du génome, à celle des télomères - les extrémités des chromo somes dont la longueur peut traduire un état de vieillissement cellulaire prématuré – à la production de radicaux oxygènes délétères ainsi qu’à toute synthèse «anormale» de protéines ou autres résidus du métabolisme. L’objectif est bien entendu de pouvoir rendre tout ça mesurable de façon peu traumatique; au niveau des cellules sanguines par exemple. Quand toutes ces informations seront acquises et validées, nous connaîtrons plus précisément nos facteurs individuels de risque. Il faudra encore les confronter à une série de paramètres personnels comme l’âge, la masse corporelle, le tabagisme, la prise de médicaments et les excès en tous genres. On l’imagine clairement, si la connaissance s’accroît, on est encore loin du compte. D’ici-là, prévention et hygiène de vie restent les meilleurs recours, en veillant autant que possible à varier nos «poisons» quotidiens… Science 2010; 330: 460-461 33 ATHENA 267 · Janvier 2011 > MÉDECINE I N T E R V I E W Les préfèrent le bleu... La plupart des individus se sentent de meilleure humeur lorsque la luminosité est élevée. La lumière bleue, à laquelle sont particuliè rement sensibles certains photorécepteurs rétiniens, les cellules ganglionnaires, semble au cœur du phénomène. Mais quels sont les mécanismes cérébraux sous-jacents ? Des chercheurs de l’Université de Liège ont essayé d’y voir plus clair 34 Propos recueillis par Philippe LAMBERT • [email protected] Photos: Ph. LAMBERT (p.34), ULg-CRC (p.37), LUCIMED (p.37) O Gilles Vandewalle, chargé de recherches du FNRS au sein du Centre de recherches du cyclotron de l’Université de Liège n connaît depuis longtemps les deux types de photorécepteurs rétiniens impliqués dans la vision: les cônes et les bâtonnets. Il y a un peu plus de dix ans, les travaux d’Ignacio Provencio, du département de biologie de l’Université de Virginie, ont révélé l’existence d’un troisième type de photorécepteurs: les cellules ganglionnaires qui, non affectées à la vision, servent notamment de base à une transmission directe de l’information lumineuse vers le noyau suprachiasmatique, notre «horloge biologique». Au sein de l’équipe de Pierre Maquet, du Centre de recherches du cyclotron (CRC) de l’Université de Liège (ULg), Gilles Vandewalle, chargé de recherches au Fonds national de la recherche scientifique (FNRS), s’intéresse à l’impact «non visuel» de la lumière sur l’activité cérébrale et plus particulièrement sur la régulation de l’éveil, du sommeil, de la cognition ou encore des émotions. Il s’efforce donc d’élucider les mécanismes sous-jacents en s’appuyant principalement sur l’imagerie par résonance magnétique fonctionnelle (IRMf ). En octobre, la revue Proceedings of the National Academy of Science of the USA (PNAS) a publié les résultats d’une étude consacrée à l’effet immédiat de la lumière, et de sa couleur, sur le traitement cérébral des émotions. Réalisés par des chercheurs du CRC de l’Université de Liège, du Surrey Sleep Research Centre (Université du Surrey), ainsi que du Genova Center for Neuroscience et du Swiss Center for Affective Sciences (Université de Genève), ces travaux montrent que la couleur de la lumière ambiante influence la manière dont le cerveau traite les stimulations émotionnelles. La couleur bleue, celle à laquelle les cellules ganglionnaires sont les plus sensibles, augmente les réponses à ces stimuli. Philippe LAMBERT · MÉDECINE Mécanisme alternatif ? Il ne faut pas être grand clerc pour constater que la plupart des personnes se sentent de meilleure humeur en été, mieux dans leur peau, plus enjouées, de sorte que l’on établit intuitivement un lien entre la luminosité et l’humeur. Plus éloquent encore: un certain nombre d’entre nous souffrent d’un syndrome dépressif récurrent qui prend corps habituellement vers octobre et s’efface avec l’arrivée des beaux jours: le trouble affectif saisonnier (TAS). Sa «version édulcorée», le blues de l’hiver, qui se traduit par de la fatigue, un manque de moral, un sommeil contrarié, de l’irritabilité, etc., touche environ 15% des individus au sein de nos populations. Tout indique donc que la lumière joue sur l’humeur. Et la luminothérapie nous conforte dans cette idée, puisqu’il a été démontré que l’exposition de la rétine à une lumière blanche de haute intensité est bénéfique pour lutter contre le TAS et le blues de l’hiver. Plus récemment, divers travaux ont cependant souligné la supériorité de la lumière bleue pour ce type de prise en charge. Si la lumière influe sur l’humeur, on ignore exactement par l’entremise de quels mécanismes cérébraux. L’hypothèse communément admise est que l’effet observé résulte de son impact indirect sur la régulation des rythmes biologiques. Selon quel processus ? On sait que l’information lumineuse est transmise au noyau suprachiasmatique (horloge biologique interne) par les cellules ganglionnaires. Une fois «stimulé», ce noyau agit sur différentes structures cérébrales, dont l’hypothalamus et l’hypophyse, mais aussi, au terme d’un cheminement complexe, sur l’épiphyse, structure qui produit la mélatonine au niveau cérébral. Surnommée l’«hormone de la nuit», celle-ci facilite le déclenchement du sommeil. Or l’obscurité ou une faible luminosité induisent sa sécrétion, tandis qu’une lumière supérieure à 2.500 lux la bloque. Par ailleurs, la mélatonine modifierait la périodicité de notre horloge biologique. Durant l’hiver, saison vouée à une obscurité prolongée, elle en allongerait la période, alors qu’elle la raccourcirait en été. «Ceci demeure toutefois hypothétique», dit Gilles Vandewalle. De toute de façon, une question mérite d’être posée: ce mécanisme indirect, qui conduirait l’individu à mieux se sentir en été parce que ses rythmes biologiques y sont meilleurs, serait-il le seul par lequel la lumière influe sur l’humeur ? Ne pourraitil exister un mécanisme (direct) alternatif ou, à tout le moins, complémentaire ? C’est ce qu’ont essayé de déterminer Gilles Vandewalle et les autres auteurs belges, suisses et anglais de l’article paru en octobre 2010 dans la revue PNAS. Cette question était d’autant plus pertinente que certains d’entre eux avaient préalablement mis en évidence l’impact direct de la lumière bleue sur certaines régions cérébrales impliquées respectivement dans l’éveil, la vigilance et la mémoire de travail. «Nous nous sommes dit qu’il serait intéressant de voir s’il existait un effet direct de la lumière bleue sur le traitement des stimuli émotionnels, d’autant que la nature des émotions peut déteindre sur l’humeur et, inversement, que cette dernière peut affecter la perception des émotions, rapporte Gilles Vandewalle. En outre, les substrats neuronaux qui sous-tendent l’humeur sont assez proches de ceux qui sous-tendent les émotions.» Le chercheur de l’ULg nous a parlé de l’expérience qu’il a coordonnée, ainsi que des données empiriques relatives à l’impact de la lumière bleue sur l’humeur. Sur le terrain O utre-Manche, des recherches en entreprise ont évalué les possibles bienfaits d’un éclairage i ntérieur enrichi en bleu, plus proche de la lumière du jour. Avec quels résultats ? Tout d’abord, rappelons que la lumière qui nous apparaît blanche possède différentes longueurs d’onde qui correspondent à des couleurs. Autrement dit, la lumière blanche contient de la lumière verte, de la lumière bleue, de la lumière jaune, etc. Tout cela pour préciser que dans l’expérience anglaise, la lumière diffusée par l’éclairage enrichi en bleu apparaissait blanche malgré tout, mais d’un blanc assez froid comparé à celui de la lumière émise par les ampoules à filament, qui est plus riche en longueurs d’onde caractéristiques du jaune. Un étage de bureaux a été éclairé de façon classique, un autre avec de la lumière enrichie en bleu. Au départ, cette lumière froide a été jugée assez désagréable par les personnes qui en avaient hérité, mais elles ont changé d’avis après quelques heures d’exposition. Quand, plus tard, les chercheurs ont demandé aux employés des deux étages de remplir un questionnaire relatif à leur humeur et à plusieurs paramètres concernant leur santé et leur bienêtre, les réponses de ceux qui avaient été soumis à l’éclairage «dopé» en lumière bleue faisaient apparaître des personnes globalement de meilleure humeur, qui éprouvaient le sentiment de mieux travailler, de mieux dormir la nuit, etc. En milieu hospitalier, on s’était déjà rendu compte qu’il était préférable de travailler avec une lumière se rapprochant de la lumière du jour: elle semblait assurer une meilleure vigilance au personnel médical et paramédical. Dans l’expé- 35 ATHENA 267 · Janvier 2011 > MÉDECINE rience anglaise, le choix s’était porté sur une lumière un peu plus froide encore. Voie que suit d’ailleurs la luminothérapie, où plusieurs études ont souligné la supériorité de la lumière bleue. D ans votre expérience relative à l’impact de la lumière sur le traitement des stimuli émotionnels, c’est de la lumière bleue «pure» que vous avez utilisée, et non de la lumière blanche enrichie en bleu ? Effectivement. Les cellules ganglionnaires étant particulièrement sensibles à la lumière bleue dans les longueurs d’onde voisines de 480 nanomètres, nous avons utilisés cette lumière monochromatique afin de nous donner les meilleures chances sur le plan expérimental. Des voix chargées d’émotion 36 C omment s’est articulée l’expérience ? Nous avons sélectionné 17 volontaires sains, hommes et femmes âgés de 18 à 30 ans, sans antécédents médicaux ou psychiatriques. L’expérience consistait à leur faire entendre des voix neutres sur le plan émotionnel et d’autres véhiculant une émotion négative, la colère, tandis qu’ils étaient exposés alternativement, chaque fois durant 40 secondes, à une lumière d’ambiance bleue ou verte. Parallèlement, nous enregistrions leur activité cérébrale par IRMf, avec pour centre d’intérêt principal l’organisation fonctionnelle des régions du cerveau qui traitent l’information émotionnelle. Pour des raisons méthodologiques, les participants devaient préciser s’ils entendaient une voix d’homme ou une voix de femme, les deux étant représentées en nombre égal. Pourquoi cette tâche ? D’une part, pour nous assurer que les sujets demeuraient vigilants dans le scanner. D’autre part, pour éviter qu’ils focalisent toute leur attention sur le seul caractère émotionnel des stimuli, ce qui aurait amplifié les réponses cérébrales. La tâche demandée nous servait donc de «ligne de base» à laquelle s’additionnait l’impact émotionnel des stimuli. A utre aspect méthodologique, les voix impliquées dans l ’expérience ne prononçaient pas des mots ?... Non, elles véhiculaient des sons humains dépourvus de signification lexicale. Pourquoi ? Parce que nous voulions éviter tout traitement sémantique qui aurait pu biaiser les résultats. Par exemple, le mot «chaise», censé être neutre, pourrait en fait revêtir une connotation émotionnelle chez certaines personnes, en fonction de leur vécu. Nous nous en sommes remis à l’expertise de nos collègues de l’Université de Genève pour la validation de la tâche auditive que nous avons utilisée. Non seulement il fallait que les sons apparaissent neutres ou porteurs d’émotions négatives, mais aussi qu’ils soient tous similaires sur le plan de l’énergie acoustique dégagée. En effet, des sons qui diffèrent par leurs propriétés physiques peuvent également différer par leur impact sur le cerveau. En outre, si nous avons opté pour la diffusion de sons plutôt que d’images, bien qu’il soit plus aisé de générer des émotions visuellement qu’auditivement, c’est parce que la projection d’images aurait été synonyme d’émission de lumière, ce qui aurait rendu difficile le contrôle de l’influence exacte de la lumière bleue. V ous avez retenu des stimuli sans coloration émotionnelle et d’autres à connotation négative. Pourquoi avoir fait l’impasse sur les émotions positives, telle la joie ? Parce que les émotions positives sont plus malaisées à contrôler, surtout à partir de stimuli auditifs. Si quelqu’un vous enguirlande ou braque sur vous un revolver, il ne fait aucun doute que vous éprouverez une émotion négative. Par contre, un beau ciel bleu procurera une émotion positive à certains, mais laissera d’autres indifférents. Nous savons par ailleurs que les sub strats neuronaux sous-tendant les émotions positives sont assez semblables à ceux qui servent de support aux émotions négatives. L’amygdale, par exemple, intervient dans les deux cas. L’activation des substrats cérébraux concernés est cependant plus forte pour les émotions négatives. Sans Philippe LAMBERT · MÉDECINE 1 2 1. Une lumière ambiante bleue augmente la réactivité du cerveau à des sons émotionnels dans un réseau de régions comprenant la «voice area» (1,2), l’amygdale (3) et l’hypothalamus (4). 2. La luminothérapie (ici, la Luminette de la société liégeoise Lucimed) est employée avec succès pour lutter, entre autres, contre le trouble affectif saisonnier et le «blues de l’hiver». Des travaux récents ont souligné la supériorité de la lumière bleue sur la lumière blanche pour ce type d’applications. doute faut-il y voir l’empreinte de l’évolution, être poussé à fuir prestement en cas de menace s’avérant assurément plus important pour la survie que s’extasier devant des petits bonheurs de l’existence. La réponse du cerveau V enons-en aux résultats de l’étude. Dans quelle mesure l’effet supposé de la lumière bleue sur le traitement cérébral des émotions est-il confirmé ? Notre expérience démontre ce que nous pressentions: la lumière bleue, dont nous avions déjà découvert l’impact sur l’activation de régions cérébrales intervenant respectivement dans l’éveil, dans la vigilance et dans la mémoire de travail, affecte bel et bien l’organisation fonctionnelle du cerveau lors du traitement des émotions. Comparée à la lumière verte, elle augmente la réponse aux stimuli auditifs émotionnels dans la voice area (en français, l’aire de la voix), région située au sein du cortex temporal chargée de décoder l’information vocale et les émotions y afférentes, et dans l’hippocampe, structure sous-tendant certains aspects de nos réactions émotionnelles et de la mémoire. De surcroît, lors du traitement des émotions, la lumière bleue renforce sélectivement la connec tivité fonctionnelle entre la voice area, l’amygdale et l’hypothalamus. L’amygdale est une structure de grande importance pour les réponses émotionnelles et la régulation de l’humeur, tandis que l’hypothalamus est impliqué non seulement dans la réponse émotionnelle, mais également dans la régulation des rythmes biologiques et du sommeil. Il existe donc un réseau unique qui intègre les informations émotionnelle et lumineuse. Q ue nous apprennent ces résultats au sujet de l’influence de la lumière ambiante sur l’humeur ? On savait que la lumière, en particulier la lumière bleue, a un impact positif sur l’humeur. Aussi peut-on émettre l’hypothèse suivante: cet effet bénéfique serait obtenu en partie grâce à un meilleur traitement des émotions, lequel résulterait d’une optimisation du dialogue entre les régions cérébrales concernées. N éanmoins, n’est-il pas concevable qu’un traitement plus fin des émotions négatives puisse avoir des conséquences délétères sur l’humeur ? Dans notre expérience, nous n’avons pas évalué ce que ressentaient les participants. Dès lors, il est théoriquement possible qu’un traitement plus approfondi d’émotions négatives nuise à l’humeur. Toutefois, il est bien établi aujourd’hui qu’une exposition répétée à la lumière bleue l’influence positivement. D’où notre hypothèse. Afin d’approfondir la question, nous étudions actuellement l’effet de la lumière sur le traitement émotionnel cérébral chez des personnes souffrant de dépression saisonnière. À plus long terme, notre ambition est de déterminer avec précision par quels mécanismes la lumière modifie l’humeur. Dans la foulée, nous visons à apporter notre pierre à l’édifice du traitement des maladies psychiatriques par luminothérapie. Il est acquis qu’améliorer la qualité de notre éclairage intérieur pourrait nous aider à être plus éveillés, à nous sentir mieux, à être de meilleur humeur... D’autant que nous venons de prouver que quelque chose se passe bel et bien dans le cerveau. + Pour en savoir plus Centre de Recherche du cyclotron http://www2.ulg.ac.be/crc 37 ATHENA 267 · Janvier 2011 > PHYSIQUE Au cœur d’une salle qui pourrait contenir une cathédrale, un détecteur de 26 mètres de long, 16 mètres de large, 16 mètres de haut et pesant 10 000 tonnes baptisé Alice (A Large Ion Collider Experiment) fera entrer en collision des ions de plomb afin de recréer en laboratoire les conditions qui régnaient juste après le Big Bang. Les données obtenues permettront d’étudier l’évolution de la matière de la naissance de l’Univers à nos jours 38 Il y a 14 milliards d’années, moins de 10 microsecondes après le Big Bang, l’Univers était trop chaud et trop dense pour que les particules qui composent les noyaux atomiques, à savoir les protons et les neutrons, puissent se former. Leurs constituants, les quarks (particules élémentaires de la matière) et les gluons (particules porteuses de force), se déplaçaient donc librement dans une «soupe primordiale» appelée plasma de quarks et de gluons. C’est ce postulat que les physiciens essayèrent de vérifier au Cern (voir encadré p.41) dès 1986. Les dernières expériences réalisées à Genève, au sein de l’accélérateur de particules, ouvrent de nouveaux horizons sur l’Univers primordial ALICE au pays des gluons P Texte : Paul DEVUYST • Photos: A.SABA (p.38), Cern (p.40) our ce faire, il était nécessaire de «déconfiner», en laboratoire, les quarks et les gluons des protons et des neutrons. Cette opération était concevable en accélérant un faisceau d’ions (atomes auxquels on a enlevé les électrons) et en l’envoyant sur une cible fixe. Lors du démarrage du programme d’ions lourds du Cern, on utilisa des noyaux d’oxygène et de soufre relativement légers. Après avoir affiné les techniques expérimentales, le Cern fut en mesure, en 1994, d’utiliser des ions véritablement lourds, des ions de plomb. Dans le cadre du programme cible fixe pour les ions du super synchrotron à protons (SPS), les chercheurs mirent au point plusieurs expériences pour déceler les signaux que la théorie prédisait en cas de formation du plasma. En 2000, le Centre annonça la découverte d’un «nouvel état» de la matière. Cependant, ces mesures ne permettaient pas de savoir si ce nouvel état était vraiment le plasma des quarks et de gluons ou uniquement un état précurseur. Il fut donc décidé de pousser plus en avant les investigations... Toujours plus puissants Pour atteindre cet infiniment petit, il faut déployer des énergies énormes et donc construire des accélérateurs de particules et des «collisionneurs» toujours plus puissants. C’est ainsi que le Cern inaugurait, en 1957, un synchrocyclotron de 600 Mev; en 1959, un synchrotron à protons (PS) de 28 Gev et en 1971, un super- Paul DEVUYST · PHYSIQUE synchrotron à protons (SPS) de 300 Gev dont l’énergie fut portée à 500 Gev fin 1978. Et puis ce fut le LEP (Large electron-positron collider), une machine de 200 Gev où les électrons et les positons (des particules insécables) se rencontraient grâce à de super-aimants qui guidaient, accéléraient et courbaient les faisceaux de particules avec une précision extrême. Si les expériences réalisées au LEP confirmèrent les théories d’unification et de classification des particules élémentaires, son énergie s’est avérée encore insuffisante et il fut arrêté en 2001. En décembre 1991, les délégués au Conseil du Cern avaient déjà convenu à l’unanimité que le grand collisionneur de hadrons (LHC pour Large Hadron Collider) était la machine qui convenait pour assurer de nouveaux progrès dans le domaine de la recherche en physique des hautes énergies. Il ne s’agissait plus d’accélérer et de faire se heurter des électrons et des positons mais bien des protons à des énergies bien plus élevées. Pour les accélérer et les maintenir confinés en d’étroits faisceaux, des champs magnétiques extrêmement intenses étaient nécessaires. Comme les aimants classiques ne pouvaient plus satisfaire à ces deux objectifs, les chercheurs ont eu recours à des aimants fabriqués en un alliage de niobium / titane, un matériau supraconducteur, capables de faire tourner les protons sans dissiper de chaleur. En contrepartie, les 1.300 aimants devaient être refroidis en permanence à -271°C grâce à 700.000 litres d’hélium liquide qui circulent dans une ligne cryogénique attenante composée de 3.000 éléments soudés bout à bout et qui constitue bel et bien le plus grand congélateur du monde puisqu’elle est longue de 27 km. Elle est alimentée par d’énormes compresseurs d’une puissance de 17 mégawatts. À ce jour, le LHC est le plus puissant accélérateur de particules au monde et dépasse, en terme d’énergie, son grand rival américain, le «Tevatron», basé dans l’Illinois. Les protons pourront y être accélérés jusqu’à une énergie de 7 TeV, soit près de 7.500 fois leur énergie de masse; l’énergie totale de deux protons incidents sera ainsi de 14 TeV. À l’avenir, le LHC sera également utilisé pour accélérer des ions lourds comme le plomb avec une énergie totale de collision de 1.150 TeV pour le noyau dans son ensemble, soit un peu plus de 2,75 TeV par nucléon qu’il contient. Le LHC est donc censé «révolutionner» le monde de la physique en apportant des précisions sur les premiers instants de l’Univers et aussi identifier le fameux boson de Higgs. Son coût: 3,9 milliards d’euros. Des fuites d’hélium dans la première installation avaient malheureusement fait perdre un an au chantier mais le planning est désormais parfaitement maîtrisé. Quatre expériences majeures nécessitant cet appareillage colossal doivent être réalisées dans la caverne artificielle située à 100 mètres de profondeur sous les frontières suisse et française: ATLAS qui réunit 1.800 scientifiques de 34 pays pour détecter le boson de Higgs; CMS qui vise également à enregistrer la trace du boson de Higgs mais selon une technologie différente; ALICE qui devrait recréer en laboratoire les conditions du Big Bang avec des plasmas de quarks et de gluons; et LHCb qui tentera de comprendre pourquoi l’Univers est constitué de matière qui n’a pas été annihilée par l’antimatière après le Big Bang. La belle anatomie d’Alice Si la physique théorique est en mesure de décrire le plasma initial, seules des expériences pouvaient valider ou invalider ces hypothèses. L’objectif du détecteur ALICE (A Large Ion Collider Experiment) est donc d’étudier la matière nucléaire dans un état extrême de température et de densité, la «soupe primordiale» de quarks et de gluons et ainsi apporter des éclairages nouveaux sur les questions fondamentales telles que l’organisation ultime de la matière soumise à l’interaction forte, une des quatre forces fondamentales. Plus de 1.000 physiciens et ingénieurs de 30 pays différents ont contribué à la construction de ce détecteur qui mesure 16 m de haut, 26 m de long et pèse plus de 10.000 t. L’optimisation et la conception d’Alice ont été dictées par des critères différents de ceux des autres expériences LHC: le détecteur doit en effet pouvoir séparer les nombreuses particules produites à chaque collision plomb- + Pour info La masse des particules subatomiques ne s’exprime pas en grammes mais en électronvolts (masse et énergie sont équivalentes, selon la formule d’Einstein: E=mc2). L’électronvolt (eV) est donc une unité de mesure d’énergie dont la valeur, obtenue expérimen talement, est définie comme étant l’énergie cinétique d’un électron accéléré depuis le repos pour une différence de potentiel d’un volt: 1 eV = 1,602.10-19J. 1 MeV = 106 électronvolts (1 mégaélectronvolt = 1 million d’électronvolts), 1 GeV = 109 électronvolts (1 gigaélectronvolt = 1 milliard d’électronvolts), 1 TeV = 1012 électronvolts (1 téraélectronvolt = 1 000 milliards d’électronvolts). 39 ATHENA 267 · Janvier 2011 > PHYSIQUE 1 plomb - jusqu’à 20.000 - et identifier leur nature. Alice est constitué de plusieurs systèmes de détection plongés dans un champ magnétique produit par un imposant électroaimant solénoïdal. Un spectromètre de muons complète l’expérience. Alice utilise la quasi-totalité des techniques connues pour la détection des particules. Certains événements peuvent contenir des dizaines de milliers de traces. Ainsi, une grande segmentation des détecteurs est nécessaire ainsi qu’une très grande puissance de calcul pour la reconstruction des particules. Les flux de données produits par l’expérience Alice sont les plus importants de toutes les expériences LHC. 1. Un anneau souterrain dans lequel le LHC devrait permettre de recréer les conditions primordiales de la matière. 40 2. ALICE au pays des gluons : l’expérience vise à recréer en laboratoire les conditions du Big Bang avec des plasmas de quarks et de gluons. 3. La collision de particules élémentaires de matière et de particules porteuses de force enregistrée par ALICE. 3 Des matériaux espions La très grande quantité de particules produites est une des caractéristiques de ces collisions d’ions lourds, environ 100 fois plus que dans une collision typique proton-proton. Ces très nombreuses particules ont imposé de fortes contraintes de construction du détecteur, particulièrement au niveau de la trajectographie des particules et l’un des éléments les plus importants d’Alice est le détecteur à pixels au silicium, clé de la mesure des trajectoires des particules. Au plus proche du point d’impact, le «trajectographe» est constitué de capteurs en silicium, résultat de nombreuses années de développement. Une seule puce de 2 1,8 cm2 renferme plus de 8.000 pixels, reliés à des câbles miniaturisés. Une telle granularité permet de distinguer la trace de chacune des particules créées dans la collision. Pour éviter une pollution de l’information récoltée par le bruit électromagnétique environnant, les signaux sont transformés en impulsions lumineuses acheminées par fibres optiques vers les systèmes d’acquisition informatiques. En tout, plus de 10 millions de cellules sensibles au passage des particules entourent le point d’impact à moins de 50 cm. Une nouvelle recette ? Au cours des mois de novembre et de décembre et pour la première fois de la courte histoire du LHC, des collisions de plomb ont été réalisées, c’est-à-dire que des particules (protons, électrons, ions) se sont fracassées les unes contre les autres à une vitesse proche de celle de la lumière. Lors du choc frontal de deux ions de plomb, il peut y avoir «déconfinement» des quarks et des gluons qui constituent les nucléons (protons et neutrons) des deux noyaux de plomb en collision. Ce qui reproduit la «soupe primordiale» qui a dû exister quelques microsecondes après le Big Bang. En fondant, les noyaux de plomb forment ce que les physiciens appellent de la «soupe quarks et gluons». La température qu’atteint la matière formée lors du choc entre deux noyaux de plomb fut de l’ordre de 2 milliards de degrés, Paul DEVUYST · PHYSIQUE Le C E R N L ’idée de créer le Cern (Centre européen pour la recherche nucléaire) remonte aux années 40, lorsque quelques scientifiques clairvoyants ont compris la nécessité pour l’Europe de posséder un centre de recherche en physique de classe mondiale. Ils aspiraient tout à la fois à enrayer la fuite des cerveaux vers l’Amérique et à donner une impulsion unificatrice à l’Europe d’après-guerre. Le Cern a brillamment réalisé ces deux objectifs et constitue aujourd’hui un magnifique exemple de collaboration internationale. En 1952, avec le soutien de l’UNESCO, 11 gouvernements européens (dont la Belgique) décidèrent de créer un «Conseil Européen pour la Recherche Nucléaire» qui devait s’installer sur la frontière franco-suisse, près de Genève. Les premiers travaux pour la construction du laboratoire et de son accélérateur commencèrent au mois de mai 1954 et le 29 septembre 1954 fut signée la convention instituant le Cern. Actuellement, il compte 20 états membres (dont la Belgique), 8 états ou organisations ont le statut d’observateur et 28 états non-membres participent actuellement à ses programmes. Trois scientifiques - Carlo Rubbia et Simon van der Meer en 1984, Georges Charpak en 1992 - ont reçu le prix Nobel de Physique pour des travaux entrepris au Cern et trois autres lauréats du prix Nobel participent aux programmes de recherche. Environ 8.000 scientifiques visiteurs, soit la moitié des physiciens des particules du monde, viennent au Cern pour mener des recherches, 580 instituts et universités de 85 nationalités différentes utilisent ses installations. Le Cern emploie environ 2.500 personnes. 41 Véritable « cathédrale du savoir », le plus grand accélérateur de particules au monde (LHC pour Large Hadron Collider) est un anneau de 27 km de circonférence enfoui à 100 m sous terre à la frontière franco-suisse, près de Genève. soit plus de 100.000 fois celle régnant au cœur du Soleil ! Les premiers résultats de ces expériences sont prometteurs. Ainsi lors des collisions d’ions de plomb (constitués de 208 protons et neutrons), le nombre de particules produites est beaucoup plus important que pour une succession de 208 collisions entre protons. «Les expériences prouvent que ces collisions ont produit une matière d’une densité et d’une température encore jamais atteintes et montrent également que les particules qui la forment ont un comportement collectif faisant penser à un liquide de très faible viscosité», devait déclarer Yves Schutz, porte-parole adjoint de l’expérience Alice. Cet état liquide constitue une véritable surprise pour les chercheurs du Cern car la théorie suggérait jusqu’ici que le cocktail originel devait plutôt être… gazeux. La théorie va donc devoir être révisée ! Sachant que l’acquisition de données s’est poursuivie pendant plusieurs semaines et que le LHC a déjà fourni la quantité de données programmée pour 2010, la communauté de la recherche sur les ions lourds au LHC attend beaucoup de la poursuite de l’analyse des données, qui pourrait contribuer de façon importante à l’émergence d’un modèle plus complet du plasma quarksgluons et par conséquent, de l’Univers primordial. Les scientifiques doivent maintenant analyser ces résultats afin de déterminer si les collisions ont bien reproduit ce qui a existé quelques microsecondes après le début de l’Univers, un travail qui leur demandera plusieurs mois compte tenu du fait que l’acquisition de données s’est poursuivie pendant plusieurs semaines et qu’elle est… énorme ! + Pour en savoir plus http://www.cern.ch ATHENA 267 · Janvier 2011 > PHYSIQUE MYRRHA l’alchimiste 42 Le 29 novembre 2010, le Forum stratégique européen sur les infrastructures de recherche (ESFRI) retenait le projet MYRRHA comme l’un de ses projets prioritaires. Une reconnaissance pour ce programme belge unique au monde dont un des objectifs est la transmutation des déchets nucléaires I nfrastructure de recherche du CEN (Centre d’étude de l’énergie nucléaire) de Mol, MYRRHA (Multipurpose hYbrid Research Reactor for High-tech Applications) est un projet de démonstration d’une nouvelle classe de systèmes nucléaires pilotés par accélérateur de particules (appelés systèmes ADS, acronyme de l’anglais Accelerator Driven System). Il est le fruit d’une collaboration entre le CEN et le CNRS (Centre national de la recherche scientifique/Institut national de la physique nucléaire et de la physique des particules - France), mais il s’inscrit dans le 7e programme-cadre de la Commission européenne et s’est étendu au-delà des frontières européennes puisque la Corée du Sud et la Chine ont également rejoint le projet. Entamées à Mol voici plus de dix ans, ces recherches doivent permettre d’étudier les déchets nucléaires et le comportement de matériaux et combustibles utilisés dans des réacteurs de fission et Texte : Henri DUPUIS • [email protected] • Photo : SCK•CEN (p.43) pour l’avenir, de fusion. Le projet prévoit - à l’horizon 2023 - la construction à Mol d’un réacteur ADS d’une puissance d’environ 50 MW qui permettra de réduire la toxicité à long terme des déchets nucléaires par le biais de la séparation et de la transmutation. Une phrase dont chaque composante demande une explication. Réacteurs souscritiques Les réacteurs ADS ne ressemblent guère aux réacteurs actuels. Ils sont constitués de deux parties bien distinctes: un accélérateur de particules qui fournit à un réacteur des neutrons permettant à la réaction de se produire. C’est pour cette raison que ces réacteurs sont qualifiés de sous-critiques: la réaction nucléaire ne peut s’entretenir en chaîne comme dans des réacteurs classiques. Si on coupe l’approvisionnement en neutrons (c’est- à-dire lorsqu’on interrompt l’accélérateur), le réacteur s’éteint également. L’accélérateur (par exemple un cyclotron) accélère des protons jusqu’à une énergie assez élevée. Ces protons sont ensuite précipités sur une cible de métal lourd (en général du plomb fondu ou du plomb-bismuth), située dans le réacteur et dans laquelle se produit alors une réaction (dite de spallation) qui génère un flux important de neutrons rapides. Ces neutrons vont alors interagir avec le combustible contenu dans le cœur du réacteur et provoquer les réactions de fission, mais en nombre limité. Un tel système pourrait bien sûr produire de l’énergie (en plus de celle nécessaire à l’alimentation de l’accélérateur), mais son principal intérêt est qu’il permet l’utilisation de combustibles différents de l’uranium 235 ou du plutonium 239. Cela pourrait par exemple être du thorium (plus abondant que l’uranium) enrichi en plutonium produit par les centrales actuelles. Henri DUPUIS · PHYSIQUE Si une telle installation ne sera fonctionnelle à Mol qu’au-delà de 2020, un «modèle réduit» y a été inauguré en mars 2010. Celui-ci, appelé GUINEVERE, consiste en un petit accélérateur de particules, construit par des équipes fran çaises, qui a été couplé au VENUS, réacteur de recherches du CEN. Déchets nucléaires et transmutation Outre le plutonium et l’uranium recyclables comme combustibles, la décharge d’un réacteur comme ceux que nous utilisons chez nous représente environ 50 kg de déchets radioactifs par tonne de combustible usé. Ces déchets se répartissent en deux catégories, les produits de fission et les actinides. Les premiers sont le résultat direct de la fission des noyaux lourds du combustible (uranium et plutonium) par les neutrons. La plupart d’entre eux (environ 46 kg sur les 50 de déchets) sont à vie courte, c’est-à-dire ont une période radioactive (voir encadré) inférieure ou de l’ordre de 30 ans; c’est le cas du césium 137 et du strontium 90. Les autres produits de fission (environ 3 kg) sont à vie longue; c’est le cas par exemple du technétium 99, de l’iode 129 et du césium 135. Mais la capture de neutrons par les noyaux du combustible des réacteurs n’est pas toujours suivie d’une fission, loin de là. Ces captures produisent simplement des noyaux plus lourds que ceux d’uranium, appelés actinides dont le plus connu est le plutonium 239, qui est fissile et sert aussi de combustible. Les autres, appelés actinides mineurs (le dernier de nos 50 kg de déchets) sont par exemple des isotopes du neptunium, de l’américium et du curium. Ils sont instables et ont des durées de vie souvent longues, restant ainsi nocifs pendant des milliers d’années. La transmutation est la réalisation du vieux rêve des alchimistes: changer une matière en une autre. Plus scientifiquement, il s’agit de transformer un noyau en un autre par une réaction nucléaire provoquée par des particules avec lesquelles on le bombarde. On voit de suite l’intérêt du processus: transformer des isotopes radioactifs de longue durée en isotopes à vie nettement plus courte ou, pourquoi pas, en éléments stables, ne dégageant donc plus aucune radioactivité. Est-ce possible ? En théorie, oui. En pratique, les difficultés à franchir sont encore énormes, la moindre n’étant pas de réussir à trier, séparer les différents types de déchets de manière industrielle. La particule qui convient le mieux pour réaliser les réactions de transmutation est évidemment le neutron puisqu’il n’est pas chargé électriquement et qu’il est déjà disponible dans les réacteurs où il induit en permanence des transmutations... la plupart non recherchées comme nous l’avons vu. La meilleure voie de recyclage consiste donc à réinjecter les déchets dans une installation du même type que celle qui les a produits. Mais cette fois, en ne laissant plus faire la nature mais bien en la guidant. C’est le cas des réacteurs ADS parce qu’il est possible d’y calibrer le flux de neutrons. Du travail... d’orfèvre en quelque sorte ! Ainsi, par exemple, le technétium 99 dont la demi-vie est de 200.000 ans pourra, par absorption d’un neutron, être transformé en technétium 100 qui a une demi-vie de quelques secondes et se transforme en ruthénium stable. Une réaction semblable transformera l’iode 129 en xénon stable. Dans d’autres cas, les transmutations ne conduisent pas à des éléments stables mais permettent de réduire les durées de vie, donc le temps de stockage. Insertion de la ligne verticale de l’accélérateur GENEPI (qui produit les protons accélérés) dans le cœur du réacteur de GUINEVERE, le modèle réduit du futur MYRRHA, à Mol. + La radioactivité Rappelons que la radio activité est la transformation des noyaux d’atomes qui s’accompagne d’une émission de corpuscules. Elle peut être naturelle (l’uranium) ou artificielle lorsqu’on bombarde des noyaux stables avec des particules (protons, photons, neutrons, etc.) pour les rendre instables. La période (ou demi-vie) d’un atome radioactif est une notion statistique; c’est la durée à l’issue de laquelle le noyau de l’atome a une chance sur deux de se désintégrer. Pour un ensemble d’atomes (matière), la période est le temps nécessaire pour que la moitié des atomes se désintègrent naturellement. 43 ATHENA 267 · Janvier 2011 > ASTRONOMIE À la Une du Cosmos Texte : Yaël NAZÉ • [email protected] • http://www.astro.ulg.ac.be/news Étoiles en plus ! Tout d’abord, il y a plus d’étoiles petites et rouges que prévu - jusqu’à 20 fois plus pour certaines galaxies, ces «grosses boules» dites elliptiques: le nombre total d’étoiles dans l’Univers triplerait donc ! D’autre part, les sages affirmaient que ces mêmes galaxies elliptiques n’avaient pas d’étoiles jeunes, mais ils se trompaient! Photo: HST La sonde solaire SoHO a découvert sa 2000e comète ! Depuis 1995, la sonde observe le Soleil et les comètes qui le frôlent - et elle bat du même coup les pauvres Terriens qui en sont toujours à une trentaine de comètes découvertes «à l’œil»... Photo: SoHO 44 Le LHC (Large Hadron Collider) a des rivaux célestes ! Ce sont les rayons gamma en provenance de l’étoile Eta Carinae (et leur étude par des astronomes notamment liégeois) qui le révèlent. Ils sont dus à des protons de très haute énergie accélérés dans les vents stellaires des deux étoiles massives formant Eta Car. Photo: Science La sonde japonaise Akatsuki a bien atteint Vénus, mais il y a eu un problème (panne des moteurs?): elle pourra réessayer de se mettre en orbite autour de la planète dans 7 ans. En attendant, Vénus se consolera avec un autre satellite, naturel cette fois: s’il n’existe pas de lune vénusienne, un petit astéroïde, 2002 VE68, est devenu un «quasi-satellite» de la planète: son orbite est actuellement en résonance avec celle de «l’Étoile du Berger». Photo: JAXA Yael NAZÉ · ASTRONOMIE Si les volcans terrestres éjectent de la lave rocheuse, les cryovolcans sont eux censés éjecter... de la glace. On vient de trouver le premier sur Titan: baptisé Sotra Facula, il a un petit air de volcan terrien. Photo: Cassini Utiliser la Lune pour détecter des neutrinos, c’est possible... L’idée est d’observer le bord de la Lune en quête de «flashs» radios produits lorsque les neutrinos énergétiques interagissent avec la matière lunaire. Hélas, aucune détection jusqu’ici: les astronomes ne peuvent que mettre des limites sur le flux de neutrinos célestes... Photo: NRAO 45 De la vie exotique, c’est possible ? Certainement sur Terre ! Outre celle des lacs antarctiques, coincés sous la banquise, il y en a dans les inclusions cristallines et dans des lacs riches en arsenic, poison notoire. Cette dernière nouvelle, annoncée par la NASA, avait fait bruire le web de rumeurs affolantes (découvertes d’aliens) mais avait également déclenché une controverse scientifique: si elle vit bien dans des conditions extrêmes, il n’y aurait pas assez de preuves que cette bestiole exotique utilise l’arsenic à la place du phosphate ! Photo: CLR/Flickr On se demande souvent «à quoi ça sert» de faire du spatial. La recherche fondamentale ne sert «à rien» (sauf à améliorer nos connaissances) par nature même... mais cela ne l’empêche pas d’avoir des retombées bien concrètes: en Belgique, par exemple, plus d’un millier d’emplois, sans oublier un rendement intéressant (un euro investi = des emplois = création de plus d’un euro de produits et services ailleurs dans l’économie belge)! «Faire du spatial», c’est possible. Oubliez les arnaques bien connues où l’on vous vend un terrain martien ou un nom d’étoile: vous pouvez soit faire du tourisme (mais ce n’est pas pour 2011), soit envoyer votre photo au-dessus de la limite symbolique des 100 km (pour 5 dollars), soit... faire de la science en cherchant des bulles ou en lançant (virtuellement) des astéroïdes sur la Terre... Plus d’infos sur http://www.milkywayproject.org/ et http://www.purdue.edu/impactearth ATHENA 267 · Janvier 2011 > ESPACE I l y a 30 ans, la Nasa (National Aeronautics & Space Administration) inaugurait l’ère du Space Shuttle, avec des navettes réutilisables qui vont et viennent autour de la Terre. Son vol inaugural, le 12 avril 1981, a coïncidé avec la journée du 20e anniversaire de la mission historique du premier Homme dans l’espace (le cosmonaute Youri Gagarine). 2011 marque la fin de l’odyssée des navettes spatiales américaines (1). Au nombre de trois (Atlantis, Discovery, Endeavour), elles doivent encore décoller et évoluer, cette année, pour trois missions destinées à l’agrandissement et la maintenance de l’Iss (International Space Station). Mises hors service à cause de leur exploitation coûteuse – un demi milliard d’euros par expédition -, elles vont être vendues pour prendre place dans trois musées américains de l’astronautique Texte: Théo PIRARD · Photo: Nasa D 46 ans les années 70, lorsque le Président Nixon (1913-1994) mit fin au programme Apollo pour donner la priorité au programme Space Shuttle, la Nasa prétendait «révolutionner» le transport spatial. En quoi ce système devait-il être révolutionnaire ? Le Space Shuttle reste à ce jour le seul avion-fusée réutilisable avec équipage. D’une masse de 105 tonnes sur orbite, il peut transporter jusqu’à 20 tonnes dans sa soute. Il a fallu neuf années - de 1972 à 1981 - pour mettre au point cette machine complexe qui devait faire office de «bonne à tout faire» au-dessus de nos têtes. En tout, six navettes qui sont allées dans l’espace ont été construites en Californie sous la responsabilité de Rockwell (aujourd’hui Boeing). En trente ans (jusqu’à la fin de 2010), elles ont servi à 133 missions réussies, dont 1/3 pour la construction de l’Iss. Mais deux vols - avec Challenger, lors de son lancement le 27 janvier 1986, puis avec Columbia, à son retour sur Terre le 1er février 2003 - ont montré combien ce système à haut risque était délicat à exploiter et réclamait de grands soins pour sa mise en œuvre. Quatorze astronautes ont trouvé la mort dans l’explosion des deux navettes. C’est ce bilan dramatique qui a, en janvier 2004, poussé le Président Bush Junior à planifier l’arrêt du Space Shuttle pour 2010. F aut-il en déduire que ce programme, audacieux et ambitieux, s’est soldé par un échec pour les contribuables américains ? Il faut bien admettre que le retrait prématuré des navettes - chacune d’elles aurait dû être employée cent fois ! - constitue l’échec d’une prouesse technologique. L’objectif de rendre l’espace plus accessible et moins coûteux n’a pu être atteint. Les mille et une précautions que la Nasa a dû prendre pour renforcer la sécurité se sont traduites par une flambée des frais d’exploitation. Au lieu de voler une fois par mois, le Space Shuttle ne peut, aujourd’hui, réaliser que 3 à 4 missions par an. Et dire que l’Amérique (1) La seule maquette de la navette en grandeur réelle se trouve à l’Euro Space Center à Libin-Transinne et offre la possibilité aux jeunes de se mettre dans la peau d’astronautes. Réalisée en 1991 par une firme de Floride, Amicitia est aménagée avec une réplique des instruments que Dirk Frimout a utilisés durant sa mission spatiale.. a tenté de convaincre l’Europe d’abandonner le projet du lanceur Ariane pour jouer la carte des navettes ! Même l’Union Soviétique a voulu imiter cette Amérique en développant son planeur habité, Bourane, mais sa faillite mit fin au programme. L es deux tragédies humaines qui ont frappé durement le Space Shuttle ne peuvent faire oublier le bilan remarquable de ses réussites ? Le bel oiseau noir et blanc, qui vole à près de 28.000 km/h avec une soute ouverte, a donné lieu à beaucoup de rêves et fait naître de grands espoirs. Avec ses 133 succès, il a montré ce qu’hommes et femmes sont capables de réaliser là-haut, dans le vide et en impesanteur. Sans ce vaisseau piloté polyvalent, qui peut accueillir jusqu’à huit astronautes, la réalisation de l’Iss eût été une entreprise impossible. Font partie de l’histoire récente, ces images spectaculaires de largage, de réparation, d’entretien, de récupération de satellites, puis d’astronautes en scaphandre évoluant et travaillant dans un environnement dangereux, ainsi que de chercheurs au travail dans des laboratoires polyvalents, comme les modules européens Spacelab. La Belgique a eu sa part de rêve avec son premier astronaute, Dirk Frimout, qui effectua un vol spatial dans la navette Atlantis du 21 mars au 2 avril 1992 pour étudier le changement global dans notre atmosphère. Les trois derniers vols du Space Shuttle sont programmés pour février, avril et juin 2011. Théo PIRARD · ESPACE L’Europe spatiale L crise es deux programmes phares de l’Union dans l’espace, faute d’investissements sur le long terme, se trouvent compromis pour donner lieu, durant la décennie, à des systèmes opérationnels d’envergure globale: ni la constellation Galileo de satellites civils de navigation, ni l’initiative Gmes (Global Monitoring for Environment & Security) n’ont obtenu le financement des satel lites supplémentaires et récurrents. Aux yeux du monde, l’Union manque de sérieux dans son développement d’applications spatiales. Plus grave: c’est l’absence, dans les faits, d’une vision technologique dans l’espace, qui permet l’éclosion d’entreprises nouvelles avec des produits, services et emplois à grande valeur ajoutée. Les jeunes générations d’Européens risquent de rater le coche des innovations que les satellites pourraient amener rapidement dans le domaine des techniques de l’information et de la communication. Alors que les puissances émergentes que sont la Chine et l’Inde amplifient leurs efforts budgétaires en sciences et technologies spatiales, l’Europe, frappée par la crise financière, réduit la voilure de ses engagements pour l’espace. Ce que déplorent quelques députés du Parlement européen qui reprochent à leurs politiciens nationaux une approche à courte vue. Ils vont jusqu’à regretter que les opérateurs, constructeurs et utilisateurs de systèmes spatiaux ne soient pas davantage une force de conviction grâce à une présentation plus «sexy» de leur impact sur le quotidien du citoyen ! Le projet d’une grève de satellites pendant une heure suffirait à ébranler les instances politiques qui sont tentées de relâcher leurs investissements pour le futur. Un tabouret ou plutôt, une chaise Pourtant, le 25 novembre dernier, le 7e Conseil européen de l’espace qui s’est «Ne tuez pas la poule aux œufs d’or !» C’est le cri d’alarme que lancent à l’envi quelques parlementaires européens qui, au sein du Groupe «Ciel & Espace», sont acquis à la cause du spatial européen. Ils sont inquiets devant la tournure des événements concernant les ressources budgétaires de l’Union pour les trois prochaines années Texte: Théo PIRARD · Photos: Nasa, DLR tenu à Bruxelles sous présidence belge augurait tous les espoirs. Il a adopté, à l’unanimité, une résolution qui est une nouvelle déclaration de politique générale sur les objectifs stratégiques de l’Union dans l’espace. Intitulée «Défis globaux: saisir tout le bénéfice des systèmes spatiaux européens», elle donne lieu à une démarche conciliante, à petits pas, de ce que doit être l’Europe spatiale pour ses propres besoins et pour le monde. Notant l’urgence de déployer les infrastructures opérationnelles de Galileo et de Gmes, elle demande que la Commission examine leur support financier pour la période 2011-2013. Il fut question au Conseil de l’espace de la gouvernance des activités spatiales en Europe, pour insister sur un renforcement des partenariats entre l’Union, l’Esa (Agence Spatiale Européenne) et les États membres et leurs institutions respectives. La Ministre Sabine Laruelle, qui présidait le Conseil comme responsable de la Politique scientifique fédérale et du programme spatial belge, a noté: 47 ATHENA 267 · Janvier 2011 > ESPACE «On a avancé sur ce problème sensible qui fait que le programme spatial européen ressemble à un tabouret qui doit être stable sur ses trois pieds.» En fait, on a affaire à une chaise, avec ce quatrième acteur qui est Eumetsat, l’organisation intergouvernementale pour l’exploitation des satellites météorologiques. Les prévisionnistes du temps, pour affiner leur diagnostic sur plusieurs jours, ont plus que jamais besoin des observations et informations de ces satellites. Eumetsat vient avec l’industrie européenne de passer commande de six Météosat de troisième génération qui garantissent ses services au-delà de 2035! 48 Le 15 décembre, le Parlement européen s’est rallié à la volonté des 27 États membres (notamment du Royaume-Uni) de bloquer le budget 2011 de l’Union à son niveau 2010. Pas de rallonge donc pour financer les commandes supplémentaires de satellites Galileo et Gmes afin qu’on dispose de systèmes vraiment opérationnels dès 2015. Le manque d’ambition de ce budget 2011 montre que l’intérêt de chaque nation, en cette période de crise, prévaut sur ce que doit être l’esprit communautaire européen. Une «pole position» à sécuriser Il y a cinquante ans, des Européens médusés vivaient les exploits de l’Union Soviétique et des États-Unis dans la conquête de l’espace. Aujourd’hui, ces mêmes Européens, en réunissant leurs ressources, sont parvenus à s’imposer dans le business spatial. Comme ils avaient décidé de privilégier la recherche et la technologie spatiales à des fins civiles et pacifiques, il leur restait à réussir sur le plan commercial. Les contrats gouvernementaux ne pouvaient pas, à eux seuls, justifier la pérennité d’une industrie compétitive des lanceurs et des satellites en Europe. Il fallait donc à cette industrie gagner des contrats de lancements pour les fusées Ariane et réussir la vente des systèmes spatiaux dans le monde. La mission paraissait impossible face à une Amérique qui investit six fois plus que l’Europe dans des activités pour l’espace. Surtout que les États-Unis pouvaient compter sur la manne céleste du programme spatial militaire. Le budget européen pour des applications militaires dans l’espace - développées en France, au Royaume-Uni, en Allemagne, en Italie et en Espagne - représente à peine 1/20e de ce qui se dépense OutreAtlantique. Alors que chaque citoyen européen, pour sa présence dans l’espace, paie par mois l’équivalent d’une tasse de café ou de thé, l’Europe a réussi à s’affirmer sur la scène du spatial. Elle est devenue une référence globale et a acquis la «pole position»: • pour la mise en œuvre des satellites de télécommunications et de télévision. Plus de la moitié de leurs revenus sont générés par les principaux opérateurs implantés en Europe, que sont Ses (Luxembourg), Eutelsat (France), Inmarsat (Royaume-Uni), et Hispasat (Espagne); • dans la vente des satellites d’observation dans le monde. Astrium Satellites et Sstl (Surrey Satellite Technology Ltd) sont les acteurs clés de ce créneau d’affaires dans lequel l’industrie américaine est pratiquement absente; • dans l’offre «sur mesure» des lance- ments de satellites depuis le port spatial européen en Guyane française. Plus d’un satellite sur deux en orbite géostationnaire (à quelque 35.800 km à l’aplomb de l’équateur) a été lancé par une Ariane ! Ce magnifique palmarès de l’Europe spatiale doit être en permanence consolidé grâce à de nouvelles applications: la navigation, le haut débit et les services mobiles par satellites. Face à la concurrence et aux autres puissances, il faut que l’Union défende son patrimoine de l’espace. D’abord, en préservant son accès indépendant à cette dimension: il est impératif d’investir dans un système de transport spatial qui soit fiable, flexible et économique (projet NGL/Next Generation Launcher, alias Ariane 6). Puis en garantissant le parfait fonctionnement de ses systèmes spatiaux: ses satellites, devenus des outils incontournables, doivent être protégés des radiations, des météorites, d’interférences et d’attaques provoquées par des nations hostiles. À cet égard, tout reste à faire en Europe. Pour la cartographie 3D de l’environnement terrestre, l’Europe dispose de systèmes spatiaux civils les plus performants au monde. Comme ce satellite allemand de télédétection radar, le Terrasar-X, réalisé par Eads Astrium: il peut observer de jour comme de nuit, à travers la couverture nuageuse, fournir une vision en relief, mesurer la vitesse des véhicules sur les autoroutes… Théo PIRARD · ESPACE Brèves spatiales... d’ici et d’ailleurs À lire... Texte: Théo PIRARD · Photos: Nasa, Esa, Espace et Exploration habitable de 360 m³. Son alimentation électrique, grâce à 8 panneaux de cellules solaires, a tteint les 84 kW. I ss habitée depuis 10 ans sans i nterruption ! Depuis le 2 novembre 2000, la Station spatiale internationale, à quelque 350 km autour de la Terre, est habitée en permanence. Le 31 octobre 2000, le vaisseau russe Soyouz TM-31 était lancé avec l’astronaute William Shepherd (commandant de bord), les cosmonautes Sergei Krikalev et Youri Gidzenko. Ils furent, du 2 novembre au 21 mars 2001, les premiers résidents de la Station, formée de modules russes et américains. À l’époque, l’Iss représentait quelque 89 t. À présent, c’est une infrastructure de plus de 370 t, habitée par six personnes. Elle a les dimensions d’un terrain de football pour un volume G alileo à bout de souffle ! La ommission européenne continue C à promouvoir le système Galileo pour des activités R&D du 7e programme-cadre. Le 22 septembre dernier, lors du 3e appel à projets, un responsable de l’unité de la navigation par satellites, a reconnu un sérieux problème de financement pour le déploiement complet de la constel lation et pour le développement de nouvelles applications. Les autorités politiques sont À la date du 2 novembre et depuis la mise en orbite de son premier élément en 1998, la station a effectué 68.519 tours du globe, soit un parcours orbital de plus de 2,7 milliards de km ! Il a fallu 103 lancements pour la construire, l’exploiter, la ravitailler: 67 vaisseaux russes, 34 vols Space Shuttle, 1 ravitailleur européen et 1 ravitailleur japonais. L’Administration Obama a annoncé que son exploitation serait poursuivie jusqu’en 2020. Et la Russie s’est engagée à assurer son occupation et sa maintenance jusqu’à la fin de cette décennie. Ce que doivent encore confirmer leurs partenaires européen, japonais et canadien. L e nouveau magazine Espace & Exploration. Le 22 décembre, la francophonie a retrouvé une superbe revue sur l’exploration spatiale, réalisée par des fans d’astronautique. En 2008, le bimestriel Espace Magazine cessait d’exister, par décision de son éditeur. Espace & Exploration (100 pages fort bien illustrées) prend la relève : il est réalisé par la même équipe rédactionnelle de l’association PromEspace et A. Capella Éditions, sous la houlette de Marie-Ange Sanguy, par. Au sommaire du n°1: la mise à la retraite des navettes américaines, la station spatiale chinoise, des interviews d’astronautes, la deuxième vie du lanceur Soyouz… Pour en savoir plus: www.espace-exploration.com invitées à placer Galileo parmi les priorités budgétaires de l’Union. Mais, dans l’attente d’argent frais, le calendrier a dû être revu. Quatre satellites pratiquement opérationnels doivent être lancés fin 2011 et début 2012 (avec quatre ans de retard !). En 2014-2015, 18 satellites permettront les premiers services (accès pour tous, sécurité, service commercial) à l’échelle globale. Il faudra attendre 2016-2017 pour que la constellation de 30 satellites soit en place afin d’assurer tous les services, y compris l’accès réglementé des instances publiques pour une localisation d’une grande précision... 49 ATHENA 267 · Janvier 2011 > AGENDA Sortis de PRESSE L’histoire de l’électricité. De l’ambre à l’électron Vuibert É 50 manation, fluide, particule, onde.... quelle est l’identité de cette chose insaisissable mais bien présente dont la quête remonte à 25 siècles et dont la réalité nous échappe dès qu’on pense l’avoir cernée? des applications spectaculaires - nous croiserons des dizaines de savants, d’inventeurs et de chercheurs dont les noms nous sont déjà familiers: d’Ampère à Watt et de Thalès de Milet à Pierre et Marie Curie, ce sont aussi Volta et Hertz, Ohm et Joule, Franklin et Bell, Galvani et Siemens ou Edison et Marconi qui, entre autres, viennent peupler cette aventure. Au fil d’un récit imagé - celui d’une succession de phénomènes généralement discrets qui, sous le regard d’observateurs avertis, débouchèrent sur On y verra l’ambre conduire au paratonnerre, les contradictions d’une cuisse de grenouille déboucher sur la pile électrique, l’action d’un courant sur une boussole annoncer: le téléphone, les ondes hertziennes et les moteurs électriques, ou encore la lumière emplissant un tube à vide produire le rayonnement cathodique. Bien entendu, les rayons X et la radioactivité sont aussi de la partie. Les origines des grandes entreprises de l’électricité. Douze pionniers belges Gérard BORVON De découvertes heureuses en expériences dramatiques, l’élecricité reste une force naturelle qui n’a pas fini de susciter des recherches et de soulever des passions. Un ouvrage passionnant et très complet sur un phénomène tellement ancré dans nos habitudes qu’il semble aller de soi. On appuye sur un interrupteur et tout s’éclaire, on tourne une clé et le moteur se met en marche. ! Pourquoi? Comment? C’est à découvrir de toute urgence par les passionnés et les curieux ! Collection «Va savoir !» http://www.vuibert.fr Collectif Cercle d’histoire de l’électricté D ans la même veine, cet ouvrage collectif retrace les grandes étapes du développement des applications de l’électricité en Belgique et à l’étranger. À l’origine de cet essor, on trouve les initiatives de nombreux ingénieurs, techniciens et entrepreneurs belges dont les contributions de 12 d’entre eux font l’objet de ce livre. Leur rôle fut en effet significatif et parfois déterminant dans l’invention, le perfectionnement ou la mise en œuvre de techniques innovantes dont les applications ont modifié, quelques fois radicalement, aussi bien les méthodes de production industrielle ou d’exploitation commerciale que les modes de vie dans toutes les sociétés développées du 19e siècle et du début du 20e. C’est par le récit de la vie de ces pionniers que l’on peut mieux reconstituer la parcours de ce que furent l’évolution technique et les transformations socia- les suscitées par l’électricité industrielle. Plusieurs tableaux synoptiques en donnent des vues d’ensemble, chrono logique et alphabétique. Neuf praticiens de l’industrie, ingénieurs pour la plupart, se sont partagés le travail de recherche et d’écriture de cet ouvrage dont l’intérêt est triple. Il sauve de l’oubli ceux-là mêmes sans qui la vie individuelle et la vie sociale ne seraient pas ce qu’elles sont devenues aujourd’hui. Il décrit les aléas de la recherche, du développement et de la mise en œuvre industrielle en analysant leurs réussites comme leurs échecs. Les entreprises ne naissent jamais grandes mais grandissent petit à petit. Enfin, il montre les qualités humaines et techniques dont ont fait preuve ces entrepreneurs novateurs en agissant d’initiative, en assumant seuls les risques. Le livre est disponible à la Bibliothèque des Sciences et Technologies de Louvain-la-Neuve et peut être obtenu sur commande au prix de 25 euros (+ 7 euros de frais d’envoi): • en envoyant un courriel à [email protected] • ou par courrier à Jean Charlent, Chemin des Hayes, 10 à 1380 Lasne. Géraldine TRAN · AGENDA À vos AGENDAS ! L’homme et l’espace À Mettet... Du 14 janvier au 27 février 2011 L ’ASBL «Abbaye de Brogne» organise une exposition sur le thème de l’espace. Venez découvrir le monde de l’espace au travers de supports didactiques et intercatifs. Voyagez grâce aux maquettes de l’Esa et de l’Euro Space Center. Des conférences grand public et éducatives sur différents thèmes données par des orateurs de renom: l’Esa, ses différentes activités et programmes; vols paraboliques Esa; observation de la planète Terre, changements climatiques et de la végétation; l‘homme en apesanteur; l’astronomie; ou encore sur les programmes éducatifs de l’Esa. Pour les jeunes visiteurs: un super concours ! Observez attentivement l’exposition et gagnez de nombreux cadeaux, notamment une visite de l’Esa/ Estec, de l’Euro Space Center, du site Esa de Redu, des livres et fascicules. La Fédération francophone d’astronomes amateurs de Belgique (FFAAB) participe à l’organisation de cette exposition et a pour missions principales de vulgariser l’astronomie, d’organiser des activités et de protéger le ciel nocturne. Il s’agit d’une initiative de Thierry Dewandre (Ingénieur à l’Agence spatiale européenne) et de Jean-Pierre Meunier (Administrateur de l’asbl) avec le soutien de la DGO6. Tarif ? Adultes: 2.50 €; en-dessous de 12 ans: gratuit ; de 12 à 18 ans: 1 € ; Groupes sur réservation: 2 €/personne; Guidance: 25 €/20 personnes; Écoles (entité): gratuit; Écoles (hors entité): 1 €. Prix entrée conférences ? Adultes: 7 €; Enfants de –de 12 ans accompagnant les parents: gratuit Infos et réservations ? (souhaitée pour les conférences) Tél.: 071/79.70.70 E-mail: [email protected]. http://www.homme-espace.eu Où ? Abbaye Saint-Gérard de Brogne, Place de Brogne, 3 à 5640 Saint-Gérard (Mettet) 51 Pour qui ? Tous publics, les jeunes et les moins jeunes, les amateurs et les pros! 6 milliards d’Autres À Bruxelles... Jusqu’au 3 avril 2011 A près Paris, Rennes, Apt, Rangoon, Shanghaï, Marseille, Bordeaux et Rome, l’exposition vidéo de Yann Arthus-Bertrand, «6 milliards d’Autres», s’installe à Bruxelles, sur le site de Tour & Taxis. Vous y découvrirez le résultat du travail des 6 reporters partis à la rencontre des «Autres» dans 78 pays durant 5 ans. 5.600 personnes ont été filmées et interviewées. Du pêcheur brésilien à l’avocate australienne, de l’artiste allemande à l’agriculteur afghan, tous ont répondu aux mêmes questions: «Qu’avez-vous appris de vos parents ? Que souhaitez-vous transmettre à vos enfants ? Quelles épreuves avez-vous traversées ? Que représente pour vous l’amour ?...». Tarif ? À travers une quarantaine de questions essentielles, l’équipe de cette exposition multiculturelle et universelle a souhaité suivre d’autres chemins de vie, découvrir ce qui nous sépare, ce qui nous lie et simplement, apprendre de l’expérience des autres. Où ? Tour & Taxis, Avenue du Port, 86c à 1000 Bruxelles Pour qui ? Pour tous Quand ? Du lundi au vendredi de 9h00 à 17h00; Samedi, dimanche et jours fériés de 10h00 à 19h00. Vacances scolaires: de 10h00 à 19h00 • Plein tarif: 10 €; • Seniors, chômeurs, étudiants, personnes avec un handicap: 8 €; • Groupes adultes (à partir de 15 pers.): 8 €; • Enfants (de 6 à 18 ans): 8 €; • Enseignants: 6 €; • Groupes scolaires: 6 €; Groupes de jeunes entre 6 et 18 ans (à partir de 15 pers.): 6 €; Enfants en-dessous de 6 ans: gratuit. Infos et réservations ? (obligatoire pour les écoles et les groupes) Tél.: 02/549.60.49 (du lundi au vendredi de 9h30 à 12h30 et de 13h30 à 17h00) E-mail : [email protected] http://www.6milliardsdautres.be Visitez nos sites : http://athena.wallonie.be http://recherche -technologie.wallonie.be/ http://difst.wallonie.be/ DIRECTION GÉNÉRALE OPÉRATIONNELLE DE L’ÉCONOMIE, DE L’EMPLOI ET DE LA RECHERCHE