N° 254 - Octobre 2009 ( - 3094 Ko)
Transcription
N° 254 - Octobre 2009 ( - 3094 Ko)
Bureau de dépôt Bruxelles X - Mensuel ne paraissant pas en juillet et août - 254 - Octobre 2009 ATHENA Recherche et développement technologique L’avion polymère La voiture à air comprimé Sommaire 63 La théorie du Big Bang, plus actuelle que jamais. À l’occasion de l’année de l’astronomie, de nombreuses activités - dont une pièce de théâtre - ont été programmées un peu partout dans le monde sur la théorie du Big Bang, telle qu’elle a été définie par le belge Georges Lemaître. Il fut le premier à avancer l’idée révolutionnaire pour l’époque d’un commencement de l’Univers. Des explications de Jean-Luc Léonard 72 La quête d’un vaccin thérapeutique. Le système immunitaire pourrait-il être mobilisé 76 Dépression: inflammation et neuroplasticité. Plusieurs études ont mis en évidence des 78 84 87 91 93 pour éliminer les cellules tumorales comme il élimine les cellules infectées par un virus ou une bactérie ? Aujourd’hui, l’on sait qu’il existe des antigènes reconnus par le système immunitaire, dont notamment les lymphocytes T, et capables d’engendrer une réponse immunitaire. Philippe Lambert nous présente les recherches effectuées à ce sujet et leur contribution dans la lutte contre le cancer. lésions neurologiques spécifiques de la dépression qui se traduisent notamment par une atrophie de l’hippocampe, impliquée entre autres dans la modulation des réponses émotionnelles. Philippe Lambert en explique les différents mécanismes ainsi que les processus inflammatoires à prendre en considération. Histoire… d’une préférence. Tel un miroir à deux faces, une population de neurones du striatum, les neurones striatopallidaux, joueraient un rôle à la fois dans l’activité locomotrice et dans l’assuétude aux drogues. Suite à de récentes expérimentations, de nouvelles solutions thérapeutiques dans le traitement de la maladie de Parkinson et les dépendances aux drogues, se profilent à l’horizon. Un article de Philippe Lambert. Répertorier le savoir. Dans cette seconde partie, Christian Vanden Berghen explique en quoi le monde digital change notre regard sur le classement et l’infinité des possibilités offertes en la matière. Les objets peuvent désormais se trouver dans plusieurs catégories, chose impossible dans le monde physique. Il expose les différents types de classements, les avantages et les inconvénients. L’avion polymère. Il a la taille d’un Airbus, le poids d’une voiture de tourisme et la puissance d’un scooter. Son défi: voler jour et nuit sans carburant, uniquement grâce à l’énergie du soleil. Mais si le projet est innovant, la plupart des matériaux utilisés existent déjà. La difficulté a été de les adapter afin d’obtenir un avion léger, mais sûr. C’est une présentation d’Alain de Fooz. La voiture à air comprimé: mythe ou réalité ? Il y a la voiture à essence ou diesel. Il y a aussi la voiture électrique. D’autres pistes non-polluantes sont depuis envisagées, dont la très peu connue voiture à air comprimé que Michel Wautelet et Damien Duvivier nous font découvrir ici. Les avantages sont nombreux: écologique, économique, simplicité, légèreté. Ses performances sont limitées à un usage restreint mais c’est sans aucun doute un pas de plus dans la lutte contre la pollution. Vous pouvez consulter la revue Athena sur le site http://recherchetechnologie.wallonie.be Si vous désirez un abonnement, vous pouvez vous adresser : soit par courrier Place de la Wallonie,1 Bât. III 5100 Jambes soit par téléphone au 081/33.44.76. soit par courriel à l’adresse geraldine.tran@ spw.wallonie.be ou encore via le site repris ci-dessus. Un défi pour l’humanité. Il est aujourd’hui avéré que la principale cause du réchauffe- ment planétaire est l’émission des gaz à effet de serre induite par les activités humaines. Paul Devuyst expose dans cet article les efforts qui devront être fournis dans les prochaines années, efforts qui feront avant tout l’objet d’un consensus international. Sans oublier les rubriques : Actualités, de Jean-Claude Quintart, pp. 55-61, et de Henri Dupuis, p. 62; Info-Bio, de Jean-Michel Debry, pp. 67-71; Info-Physique, de Henri Dupuis, pp. 81-83; Astronomie, de Paul Devuyst, p. 96, et de Yaël Nazé, p. 97; Espace, de Théo Pirard, pp. 98-102. Athena 254 / Octobre 2009 54 Première de couverture: photomontage de Nathalie Bodart. Une idée, une Université ! Le 20 novembre 1834, l’Université libre de Bruxelles (ULB) ouvrait sa première année académique dans la salle gothique de l’Hôtel de ville de Bruxelles. Une initiative lancée par Pierre-Théodore Verhaegen (1796-1862), avocat bruxellois qui souhaitait doter le jeune royaume d’une université libre de tous les pouvoirs politiques et religieux. Une audace à l’époque dont le bien-fondé a traversé toutes les vicissitudes rencontrées par notre pays en 175 ans ! onstruite sur l’idée du libre-examen, l’ULB rejette tous les dogmes et arguments d’autorité. Sur base de ce principe, «le libre-exaministe s’engage à mettre ses paroles et ses actes en accord avec ce qu’il tient pour vrai. Sa vérité, il a le courage de la dire et de la défendre. La tolérance que nous proclamons est le respect de la personne et de la liberté d’autrui». Cette philosophie sera appliquée à la lettre. L’ULB témoignera toujours de son esprit d’indépendance, allant même jusqu’à fermer ses portes, en 1941, afin de ne pas devoir collaborer avec l’occupant ! structurelle et fonctionnelle de la cellule. Enfin, Ilya Prigogine (1917-2003), prix Nobel de chimie en 1977, pour ses travaux en thermodynamique. De plus, 22 prix Francqui, 14 prix quinquennaux du Fonds national de la recherche scientifique (FNRS), une médaille Fields, trois prix Wolf et deux Marie Curie Award. C Les prochains mois feront l’objet de manifestations diverses. Conférences, colloques, expositions, publications et spectacles invitent les visiteurs à découvrir les multiples facettes de ULB. Parmi les points forts: une création théâtrale fera revivre les débats philosophiques et politiques de la période 1820-1840; la Nuit des lumières, réunira les anciens lors d’une grande soirée au Mont des Arts, à Bruxelles, et la semaine des Nobel durant laquelle quinze prix Nobel dialogueront avec les chercheurs et recevront leur insigne de Docteur Honoris Causa. Des partenariats privilégiés À ses débuts, en 1834, l’Université comptait quatre facultés, 38 professeurs, 96 étudiants et deux administratifs ! Aujourd’hui, elle comprend sept facultés, quatre instituts, un hôpital académique, trois campus à Bruxelles et deux en Wallonie. Elle emploie près de 3 500 personnes et dispense ses cours à quelque 21 000 étudiants ! La création de la fondation ULB, consacrée à la recherche, aura pour objectif de collecter des fonds pour porter des projets et renforcer les pôles d’excellence de l’Université. Elle sera dirigée par le Conseil d’administration, assisté d’externes et d’un Comité scientifique international de premier plan. «Cette fondation sera l’instrument qui nous permettra d’apporter aux chercheurs l’environnement dont ils ont besoin pour s’épanouir», explique le recteur, Philippe Vincke. Elle entretient actuellement des partenariats privilégiés avec les plus grands noms du monde académique. Citons l’University of California (Berkeley), l’Université de Montréal, l’University of British Columbia (Vancouver), la Fudan University (Shangai), le Collège de France, l’Université Pierre et Marie Curie (Paris VI), l’Université d’Oxford, l’Université de Cambridge et l’Université de Waseda (Japon). 175 ans et plus que jamais tournée vers l’avenir: tel est l’esprit de l’ULB, consciente de son rôle académique et économique au sein de la collectivité. Pour Philippe Vincke, «l’Université apparaît comme une communauté de connaissances… Un ensemble d’acteurs qui met en commun savoir et savoir-faire et les transforme collectivement au bénéfice de leurs besoins particuliers, de la communauté et de la société en général.» http://www.ulb.ac.be et http://www.ulb175.be Au fil des années, les professeurs ont amassé une foule de prix, notamment trois Nobel: Jules Bordet (1870-1961), prix Nobel de médecine en 1919, pour ses travaux sur les mécanismes de l’immunité; Albert Claude (1899-1983), prix Nobel de médecine en 1974, qu’il partagea avec un autre belge, Christian de Duve et George E. Palade (ÉtatsUnis), pour leurs découvertes concernant l'organisation 55 Athena 254 / Octobre 2009 Actualités Construire votre avenir aviez-vous ce que vous vouliez devenir à 17 ans ? Cette question reste difficile pour la plupart des adolescents. Le 18 mars 2010, DREAM (1) propose de partager pendant deux heures une expérience professionnelle avec des jeunes de 16 à 19 ans pour les aider à y voir plus clair. S Comment aider les jeunes à entreprendre leur avenir professionnel en devenant témoin DREAM ? Peu d’adolescents ont déjà une idée de leur futur métier. Ils sont souvent découragés par le faible pourcentage de réussite dans l’enseignement supérieur et par les statistiques du chômage, mais ils ne disposent pas toujours d’informations correctes et de modèles positifs pour effectuer un choix réfléchi et pertinent. Le but de DREAM est de permettre au jeune de faire un choix professionnel conscient. En plus d’une réflexion outillée, le DREAM Day lui permet de rentrer en contact avec un professionnel passionné, afin de le guider, de lui faire prendre conscience de ses propres possibilités et opportunités et de l’inciter à prendre sa vie en main de manière entreprenante. Les quatre objectifs de DREAM sont: guider les jeunes; développer chez eux des compétences; leur inculquer dynamisme et esprit d’entreprendre; enfin, renforcer les contacts entre les écoles et le monde professionnel. de toutes les orientations (général, technique et professionnel) du troisième degré du secondaire. Vous pouvez nous aider dans cette démarche ! En tant que professionnels motivés, vous êtes passionnés par votre secteur. En partageant votre passion pour les métiers scientifiques, les nouvelles technologies et la recherche, vous ouvrez le large champ de possibilités souvent méconnues et investissez dans l’avenir de ces métiers. Anne-Lise Girboux, chimiste cosmétologue chez Dow Corning, à Seneffe, a déjà participé plusieurs fois à l’action. Elle témoigne: «Je garde de la rencontre un sentiment très positif car elle fut interactive et le groupe était intéressé. J'ai voulu partager avec eux le genre d'informations que je n'ai pas eu la chance d'avoir à leur âge.» Le prochain DREAM Day aura lieu le 18 mars 2010. Pendant deux heures, professionnels et jeunes auront ainsi l’occasion de se rencontrer pour discuter, comprendre, expliquer et découvrir une expérience enrichissante pour les deux parties ! Inscriptions et informations sur http://www.dreamday.be Christine Évrard: Téléphone: 02/739.38.70. ou [email protected] Depuis 11 ans, 115 000 jeunes ont participé à DREAM ! La raison de ce succès tient au fait que le projet répond à un besoin qui se fait sentir aussi bien au niveau de l’enseignement qu’à celui des entreprises. Beaucoup ont du mal à se faire une idée de leur avenir professionnel, tandis que de nombreuses entreprises et organisations (hôpitaux, instituts de recherche) éprouvent des difficultés à trouver des collaborateurs fiables et tentent de faire connaître leur secteur et leur entreprise de manière positive auprès des futurs candidats à l’emploi. Chaque année, DREAM rassemble 6 000 jeunes et 300 professionnels wallons: les élèves, en petits groupes, se rendent sur le lieu de travail du professionnel choisi. Ceux-ci sont issus de tous les réseaux et Athena 254 / Octobre 2009 56 (1) Projet destiné aux jeunes de 16 à 19 ans et à leurs professeurs. L'objectif de DREAM est d'aider les jeunes à construire leur avenir professionnel sur base de leurs talents, de leurs passions et de leurs rêves. Car «la passion, c'est le plus beau métier du monde». Actualités Les brèves... Les brèves... co et rien d’autre ! Parler vert, c’est bien ! agir c’est mieux. Si notre région n’est pas en reste dans le domaine de l’écologie, la province de Namur vient de franchir un pas de plus en lançant un parc d’activités dédié uniquement à l’éco-construction. Une première initiée par le Bureau économique de la province de Namur (Bep) à qui la Wallonie doit déjà le parc Créalys©, consacré aux sciences du vivant, aux technologies de l’information et de la communication et à la qualité. Et, c’est justement le succès de ce parc à thèmes qui a poussé le Bep à développer Ecolys©, parc centré sur la thématique de l’éco-construction. Dans cette perspective, Namur capitalise les atouts en matière de développement durable avec Énergie et Habitat qui organise le salon éponyme tous les deux ans et la présence de deux clusters: Éco-Construction: http://www.ecoconstruction.be et Cap 2020: [email protected] É Ecolys© sera situé dans le prolongement de la zone industrielle de Namur-Nord-Rhisnes. Un parc, trois zones, tel est le concept retenu par les promoteurs. Il comprendra une zone de services, véritable vitrine de l’éco-construction, une zone industrielle et une zone mixte. Au-delà de sa fonction première, Ecolys© entend servir d’exemple dans la manière dont seront conçues les zones industrielles de demain. Le parc sera situé à quelques centaines de mètres de la gare de Rhisnes, desservie par les bus des Transports en commun (Tec). La gestion des ordures s’intégrera quant à elle, dans un système de gestion environnemental. Bref, une initiative à suivre et dont on reparlera certainement dans les prochains mois. http://www.ecolys.be La société Iris surfe plus que Ide jamais sur les succès. Après avoir remporté nouvelles références commerciales lors des ris à la Fnac ! trimestres écoulés, Iris annonce aujourd’hui qu’elle collabore avec le site FNAC.com pour le lancement d’une action spéciale «bundle» sur le thème de la gestion documentaire. Pour présenter des paquets attractifs sur le plan prix et technologies, FNAC.com a décidé de coupler une large panoplie d’imprimantes/scanners des plus grandes marques avec Readiris™ Pro 12, la dernière version du logiciel de reconnaissance de texte d’Iris. En effet, ce produit répond tant aux attentes de gestion documentaire des professionnels que des particuliers. Il permet notamment de gagner un temps considérable lors de la conversion de tout document papier, Pdf ou image en fichiers numériques pouvant être ensuite édités, partagés et sauvegardés. Avec ce contrat, Iris grimpe encore d’un cran ! «Cette offre nous permet d’asseoir davantage notre position dans le canal retail français. Un réseau dont nous sommes particulièrement heureux du très fort développement. Ce succès récompense tous les efforts entrepris cette année pour étendre nos partenariats avec les leaders de l’Hexagone. Grâce à cette position, nous continuerons à offrir de nouveaux produits toujours plus innovants avec l’ambition de rester le leader incontesté en solutions de numérisation mobiles en France, Europe, MoyenOrient et Afrique», déclare Bernard de Fabribeckers, directeur des ventes d’Iris. L'agriculture bio fixe rendez-vous à Bio-Eglantine, au Hall des expositions de La Louvière, les 14 et 15 novembre. http://www.natpro.be Lancé par de bonnes technologies, un excellent plan d’affaires et le soutien de la Région wallonne, Iris est désormais la référence lorsqu’il s’agit d’accroître la productivité et les connaissances des entreprises grâce une meilleure ges- Le temps passe vite ynamisme fête ses 20 ans. «Lancer un magazine comme Dynamisme comme l’a fait l’un de mes illustres prédécesseurs il y 20 ans était un projet fou. 20 ans déjà et encore pour au moins 20 ans», déclare avec enthousiasme Eric Domb, président de l’Union wallonne des entreprises (Uwe). En 20 ans, Dynamisme n’a cessé de mettre en exergue les succès wallons, d’informer ses lecteurs sur les législations, les nouveautés technologiques utiles aux entreprises. D Ainsi, quelques années à peine après son lancement, Dynamisme s’est imposé comme la référence en matière d’informations entrepreneuriales. Aujourd’hui plus que jamais, Dynamisme se veut au service de l’entreprise face aux aléas d’une basse conjoncture. Présenter des pistes, des idées, donner des informations pertinentes quant aux problèmes économiques actuels, voilà comment se profile Dynamisme. Sa devise: l’entreprise par ceux qui la font. Un slogan qui en dit long sur la qualité du rédactionnel offert par cette revue, l’un des bras de levier de l’Uwe. http://www.uwe.be 57 Athena 254 / Octobre 2009 Actualités tion des documents, données et informations. Actuellement Iris emploie plus de 600 personnes réparties entre son quartier général de Louvain-la-Neuve, Vilvorde et Anvers, Orly (France), Windhof (grand-duché du Luxembourg), Amstelveen et Maastricht (Pays-Bas), Aachen (Allemagne), Delray Beach (Floride), Hong-Kong et enfin Oslo (Norvège). En 2008, Iris a réalisé un chiffre d’affaires de 109,3 millions d’euros. http://www.irislink.com ler dans un espace de quelque 400 m², l’usage de salles, de tous les logiciels Microsoft, l’utilisation des serveurs du Mic, un accès Internet à 100 MB et 1 GB pour les applications IP TV. 500 euros sont demandés, mais des bourses peuvent être accordées aux étudiants et entreprises en phase de création. http://www.mic-belgique.be . Le professeur D Thierry Grisar, de l’Université de Liège (ULg) et ses partenaires américains, viennent de écouverte prometteuse Alors V c’est le moment d’adresser votre projet au Microsoft Innovation Center, plus connu sous ous avez des idées en informatique. Les 21 et 22 octobre se tiendra à la Foire internationale de Liège, le Forum des Entrepreneurs by Initiatives. Infos sur ce salon du service et du conseil aux entreprises : http://www.enjeu.be Mic. En effet, depuis le début septembre et jusqu’à la mi-novembre, le Mic organise, dans ses installations du parc Initialis de Mons, une session pour les porteurs de projets innovants concernant les technologies de l’information et de la communication (Tic). Ce camp de lancement s’adresse à tout entrepreneur, inventeur, étudiant, porteur d’un projet Tic orienté sur, entre-autres, l’e-santé. À l’occasion de cette période dite bootcamp, les candidats disposeront de moyens pour peaufiner ou améliorer encore leur projet, le faire grandir dans un certain nombre de dimensions. La formation s’appuie sur une dizaine d’ateliers, vers les compétences de la Maison de l’entreprise (LME) avec des formateurs experts indépendants. Ensuite, le Mic et ses partenaires mettent à disposition un ensemble de ressources pour pousser le projet durant le bootcamp. Citons la possibilité pour le porteur de projet de s’instal- publier dans Nature Neurosciences les propriétés du gène EFHC1 ou myoclonine dont certaines mutations sont à l’origine d’un syndrome épileptique fréquent: l’épilepsie myoclonique ou syndrome de Janz. Ce nouveau gène est identifié comme jou-ant un rôle régulateur important dans la division cellulaire et la migration des neurones corticaux du développement précoce du cerveau. Plus concrètement, les chercheurs montrent que le gène EFHC1 code une protéine qui, en se fixant sur des microtubules, participe au contrôle de la migration neuronale précoce lors du développement cérébral. «Notre hypothèse est de considérer désormais ce syndrome épileptique décrit dans le passé comme non lésionnel, mais résultant en fait de micro-dysgénésies dues à des troubles subtils intra-cortical. Cet exemple pourrait d’ailleurs s’appliquer à d’autres pathologies plus sévères du système nerveux, comme la schizophrénie», explique Thierry Grisar. Pour rappel, l’épilepsie myoclonique qui touche l’adolescent est une des formes les plus fréquentes d’épilepsies généralisées idiopathiques. Si les facteurs génétiques jouent un rôle important dans le développement de la maladie, associée à des altérations subtiles de l’architecture corticale et sub-cortical, en revanche, le mécanisme pathologique sous-jacent demeure toujours largement méconnu. http://www.nature.com et [email protected] Le 3 septemP bre dernier, l’Université catholique de Louvain (UCL) a signé, avec AGC Glass artenariat entreprise-université. Europe une convention de partenariat en vue de soutenir la mobilité des étudiants ingénieurs. Selon les termes de l’accord, dix bourses permettront aux étudiants en masters belges et étrangers d’effectuer des stages académiques à l’UCL ou dans des universités étrangères. Ces bourses visent en priorité les étudiants se spécialisant dans des disciplines liées aux activités du groupe AGC, à savoir le développement de procédés et produits verriers en phase avec le défi climatique et l’éclairage du futur. Athena 254 / Octobre 2009 58 Actualités Agissant dans le cadre de sa politique Corporate Social Responsability (CSR), AGC Glass Europe mise ainsi sur l’éducation et la formation dans des domaines scientifiquement affectés par un déficit d’intérêt et d’image. Pour Jean-François Heris, président et administrateur délégué d’AGC Glass Europe, «dans une optique d’ouverture sur l’Europe, cette action entend contribuer à la valorisation des métiers industriels tournés vers l’innovation. Par l’offre de stages en entreprises, elle apporte par ailleurs le complément nécessaire à la formation académique des jeunes talents.» Innovation et excellence opérationnelle sont à la base des valeurs d’AGC Glass Europe, qui produit, chez nous et dans le monde, du verre plat pour la construction et les industries spécialisées. Premier producteur de verre plat au monde, le groupe s’attache, avec son centre de R&D de Jumet (Charleroi), à préparer les produits verriers haute technologie de demain. http://www.agc-flatglass.eu . Intégrateur de serN vices dans les Technologies de l’information et de la communication (Tic), le Win vient ouveau succès pour le WIN de se voir confier le projet d’équipement en Wireless LAN Haut débit du Centre hospitalier Hornu-Frameries, près de Mons. Au programme: installation d’antennes Wifi et, à tous les étages, d’une technologie Tic parmi les plus récentes et les plus innovantes. Grâce à celle-ci, le personnel de l’hôpital travaillera en réseau et échangera des données, même très importantes, dans un niveau optimal de confort et de sécurité en accord avec le traitement de l’information médicale. Sur le plan pratique, les médecins et le personnel consulteront le dossier des patients ou toute information nécessaire à leurs traitements depuis la chambre d’hôpital via un ordinateur portable relié au système central de données. Par la suite, le système pourra également offrir un accès Internet aux patients sur simple délivrance d’un code d’entrée individuel. Évitant les travaux de câblage onéreux, ce projet apporte au Centre hospitalier Hornu-Frameries une réponse concrète aux besoins croissants de mobilité. Il confirme aussi la parfaite maîtrise du Win en matière de développement et d’implémentation de projets complexes. http://www.win.be . C’est à Bruxelles, A dans les locaux de la Haute école Léonard de Vinci, que s’est tenue la 4 édition de l’Accu contrer d’autres utilisateurs et développeurs tout en découvrant ce que sera demain la plateforme Claroline. Est-il encore utile de rappeler que Claroline est une plate-forme Open Source qui permet, actuellement, à des centaines d’institutions dans quelque 95 pays, de créer gratuitement des espaces de cours en ligne. Via cette solution, chaque formateur dispose d’outils lui permettant, par exemple, de rédiger la description d’un cours, de publier des documents sous différents formats, d’élaborer des parcours pédagogiques, de composer des exercices, de proposer des travaux à remettre en ligne... Ces atouts combinés à une grande souplesse, expliquent pourquoi cette plate-forme est utilisée non seulement pas les écoles et universités mais également par des centres de formation, des associations et même des entreprises. D’où le développement d’une version 2, complètement intégrée au Web 2.0, qui fera de Claroline l’une des meilleures plates-formes techniques et techno-pédagogiques de l’univers Open Source. Energie+ Le salon des économies d'énergie fixe rendez-vous à ses visiteurs au Wex de Marche-en-Famenne, du 13 au 15 novembre. http://www.mapcom.be Durant trois jours, les participants ont non seulement fait le point sur leur outil et son devenir, mais ils se sont également penchés sur la manière d’enseigner avec l’aide des Technologies de l’information et de la communication (Tic). Ils ont tenté de répondre à la question qui leur est fondamentale: comment arriver à des espaces de cours générateurs de valeur ajoutée durant l’apprentissage ? Bref, tout un programme qui, loin d’être épuisé, fera certainement la Une de la conférence Accu 2010, qui se tiendra à Rimouski, dans les locaux de l’Université du Québec. http://www.claroline.net pprendre via l’Open Source e ou Annual Conference of Claroline Unsers. Extrêmement enrichissante, cette manifestation a été l’occasion pour chaque participant de ren- pour Innovatech qui entend N de la sorte être encore plus proche de la réalité des besoins des entreprises wallonnes en ouveau site Web matière d’informations. Par exemple, sous l’on- 59 Athena 254 / Octobre 2009 Actualités glet Innovation, le surfeur découvrira et téléchargera gratuitement des fiches conseils sur tout processus d’innovation technologique. Le nouveau site passe également en revue les actualités, les métiers, les services, les conditions, les événements et les formations d’Innovatech. D’une navigation conviviale, ce site est incontournable à celles et ceux qui font de l’innovation la stratégie essentielle de leur raison sociale. Soutenu par la Région wallonne et le Fonds social européen (FSE), Innovatech aide les porteurs de projets de petites et moyennes entreprises wallonnes (Pme). Au-delà de cette activité, l’entreprise se profile aussi comme le communicateur des Pme en se tenant à leur disposition pour les orienter vers les acteurs de l’innovation technologique en Wallonie: centres de recherche, laboratoires universitaires, entreprises hi-tech et acteurs de l’intermédiation scientifique membres de son réseau. En bref, Innovatech s’active sans ménagement à rendre les entreprises wallonnes plus innovantes pour qu’elles deviennent encore plus compétitives ! http://www.innovatech.be/ , «Les Lcera transports du futur», se déplaà la Maison Folie, à Mons, du ’exposition ittinérante 30 janvier au 14 février 2010, dans le cadre de l'opération «Penser le futur». Cette exposition est également mise à la disposition des centres culturels et des écoles qui le désirent. Elle est organisée avec le soutien du Service public de Wallonie. Des activités (conférences, animations, démonstrations, etc.) autour du thème de l'exposition seront organisées. Un livret accompagnera cette manifestation. Contact: [email protected] Il tue encore un enfant S toutes les 30 secondes en Afrique ! Et pourtant, cette maladie est oubliée dans la fouus au paludisme ! lée de nos préoccupations légitimes à l’égard de la grippe A(H1N1). Aussi, pour pallier cette situation, la société wallonne Propharex, de Courcelles, près de Charleroi, a décidé de créer un nouveau générique plus efficace dans cette lutte contre le fléau qu’est toujours le paludisme. Et le moins qu’on puisse dire est que la Pme a fait réellement preuve d’originalité dans sa démarche. En effet, se référant aux dosages préconisés par l’Organisation mondiale de la santé (OMS), en prise unique, Propharex a élaboré Athena 254 / Octobre 2009 60 un premier comprimé tricouche le Trimalarex 400 mg: la première couche contenant 400 mg de chlorhydrate d’amodiaquine, la seconde un placébo et la dernière 100 mg d’artesunate. Via cette structure tricouche, la société sépare les deux principes actifs incompatibles entre eux par une couche placébo, supprimant toutes les interactions de surface entre les principes actifs, entraînant de la sorte une meilleure stabilité. À noter, qu’un second comprimé tricouche, le Trimalarex 100 mg a été développé à l’intention des nourrissons et petits enfants. Le Trimalarex offre de nombreux avantages. Tout d’abord, sa formule tricouche utilise une technologie complexe difficilement falsifiable. La solution fait appel à du chlorhydrate d’amodiaquine au lieu de l’amodiaquine base, ce qui apporte une meilleure solubilité au principe actif d’où une bonne biodisponibilité. La combinaison galénique des excipients permet une dégradation du comprimé en moins de trois minutes. Enfin, avec sa forme oblongue biconcave, le comprimé est très facile à avaler. Concrètement, il ne s’agit pas d’une simple copie d’un brevet rentré dans le domaine public mais d’un nouveau médicament associant les principes actifs de deux molécules jusqu’à présent peu compatibles. Né en 1998, Propharex comprend deux pôles d’activité: l’ingénierie et le pharmaceutique. Au niveau Une vieille maladie ! Déjà connu en Chine en l’an 186 avant Jésus-Christ, le paludisme ou malaria est aujourd'hui l'une des trois maladies les plus importantes de l'Afrique, avec le sida et la tuberculose. On estime que deux milliards de personnes sont exposées et 300 à 500 millions de personnes déjà victimes de la maladie avec de 1,5 à 2,7 millions de décès par an ! Responsables de la maladie, les parasites plasmodium sont transmis par la piqûre d'un moustique femelle appelé anophèle. Les parasites injectés par le vecteur moustique migrent rapidement, via la circulation sanguine vers le foie. Là, le parasite se divise pour donner très rapidement, dans des conditions propices, des dizaines de milliers de nouveaux parasites. Les symptômes sont très divers. La maladie débute par une fièvre huit à trente jours après l'infection qui peut s'accompagner de perte d'appétit, fatigue généralisée, vertige, céphalée, vomissement, diarrhée, tremblement, etc. Actualités de son pôle ingénierie, Propharex conçoit des usines modulaires pour l’industrie pharmaceutique (salles blanches aux normes internationale de l’OMS et Good Manufacturing Practices), l’industrie cosmétique et l’agroalimentaire. S’ajoutent de l’assistance technique (expertise pour production locale, formation et gestion) et de la logistique (centrale d’achat). Avec le pôle pharmaceutique, Propharex développe des produits pharmaceutiques et cosmétiques, fabrique des produits propres ou à façon, assure de la logistique, commercialise des produits et forme des clients du pôle ingénierie. Aerofleet, l'artisan des composites a Pme familiale Aerofleet (http://www.aerofleet.be), au cœur du village de Soumagne, sur le plateau de Herve, s'est spécialisée dans la fabrication «sur mesure» de structures en matériaux composites: coques de bateaux, coupoles pour télescopes, piscines aux formes diverses…Elle est par ailleurs réputée dans le monde entier pour son procédé de thermolaquage des surfaces métalliques les rendant à la fois esthétiques et résistantes à la corrosion. Celui-ci consiste à revêtir les métaux avec de la résine thermodurcissable (polyester ou époxy) par poudrage électrostatique et cuisson à 190 °C. L En 2008, l’entreprise a réalisé un chiffre d’affaires de 2,6 millions d’euros. Actuellement, elle occupe 23 personnes, hautement qualifiées. Le développement du Trimalarex devrait permettre d’engager cinq personnes par an. Le secteur pharmaceutique wallon conforte une position déjà bien établie. Avec ce succès, la Région confirme, une fois de plus, sa volonté d’investir dans les secteurs qui composeront l’avenir. Plus d’infos: [email protected] L e prix Triennal Jean Teghem a été attribué à l'astrophysicienne Yaël Nazé, pour ses activités de vulagrisation. Collaboratrice au magazine Athena, Yaël Nazé donne des conférences grand public et est aussi l’auteure de nombreux ouvrages, notamment, en cette année internationale de l’astronomie: Histoire du télescope, Vuibert; Astronomie des anciens, Belin; Cahier d’exploration du ciel, Réjouisciences. http://www.astro.ulg.ac.be/~naze/ http://www.astro.ulg.ac.be/%7Enaze/ 4000 euros en espèces ! Voilà le À montant du prix annuellement décerné par le RI Europlanet en reconnaissance à l'excelne pas rater. Raphaël et Marc Van Vlodorp, les créateurs d'Aerofleet, ont surtout développé l'emploi des composites dans la construction artisanale (aménagement intérieur) de bateaux performants, sous la forme de monocoques (Endurance-38, Aero-660) et de catamarans (Aero-45). Dans la famille Van Vlodorp, on a le pied marin et on est passionné de navigation de plaisance. Aerofleet avait besoin d'un port fluvial pour y tester ses produits. La société s'est donc installée sur les bords de Meuse, à l'entrée de Givet. À 1 km de la Belgique, elle vient de construire un superbe bâtiment pour réaliser les coques, assembler et aménager les navires, effectuer des réparations et procéder à des améliorations. Cette infrastructure devait être inaugurée ce 10 octobre en présence des autorités de Givet et de Champagne-Ardenne. La famille a un autre projet, en Suisse cette fois, sur le Lac Léman. Aerofleet a en effet conçu un frein de bôme très sécurisé qui permet la délicate manœuvre d'empannage (passage de la voilure d'un côté à l'autre) sans encourir de dommages matériels ni de risques corporels. Breveté sous le nom d'Aero-bôme, en cas de succès, il sera produit dans un atelier à construire près de Saint-Gingolph. lence de la communication grand public de la science planétaire par un individu ou une institution. Le dossier de candidature, téléchargeable, doit être renvoyé avant le 11 janvier 2010. ne exposition scientifique organisée par l’asbl Science et Culture, en collaboration avec les départements de physique et de chimie de l’Université de Liège (ULg) et avec le soutien de la Région wallonne, se tiendra du 12 au 30 octobre et du 9 au 20 novembre, sur le site du Sart Tilman de l’ULg. Des expériences extraordinaires, adaptées aux élèves des deux dernières années de l’enseignement secondaire, seront présentées par des scientifiques de l’ULg. Plus d’infos sur http://www.sci-cult.ulg.ac.be/Expo2009.html U Le RI Europlanet octroie également des fonds pour de petits projets novateurs favorisant la science planétaire en Europe. Ouvert à toutes et à tous, y compris les organismes de recherche, les associations, les musées, etc. à l'exception des projets d'éducation formelle, les bourses varient de 5 000 à 15 000 euros. Informations sur le prix et les bourses: http://www.europlanet-eu.org/demo/ La réservation est indispensable par téléphone au 04/366.35.85. De 9h30 à 12h30 et de 13h30 à 17h. Jean-Claude QUINTART [email protected] 61 Athena 254 / Octobre 2009 Actualités Comprendre le réchauffement climatique ans la foulée de C’est notre Terre !, exposition qui a connu un imposant succès à Bruxelles l’an dernier, en voici une nouvelle, C’est notre Terre 2 !, consacrée au réchauffement climatique. À visiter pour comprendre les enjeux du prochain sommet de Copenhague. Copenhague, à travers un échiquier dont les cases s’animent pour présenter la position de certains protagonistes. Puis, vient un rappel de ce qui a déjà été fait, tant au niveau scientifique que politique dans la lutte contre le réchauffement climatique depuis un siècle environ. C’est ensuite à lui d’agir et de prendre conscience de la difficulté de s’engager collectivement, au niveau des États ou des entreprises. Il sera en effet appelé à se prononcer sur l’opportunité de diverses solutions: la taxe carbone, le développement ou non de l’énergie nucléaire, le permis de polluer, etc. Chacun pourra voter à propos d’arguments qui seront proposés en faveur ou défaveur de ces solutions. Enfin, il pourra établir son propre bilan d’émissions de gaz à effet de serre et surtout, prendre des engagements pour le réduire à travers des actes quotidiens très simples qui ne diminuent en rien son confort de vie. D En décembre prochain, des représentants de presque tous les pays du monde se réuniront au Danemark pour décider de nouveaux engagements à prendre en matière de réduction des gaz à effet de serre. L’enjeu est important car il demande que l’on saisisse toutes les occasions pour s’informer sur le processus de changement de notre climat actuellement en cours. L’exposition C’est notre Terre 2 !, de Kyoto à Copenhague est une bonne introduction au sujet, mêlant parcours scientifique et artistique. Le parcours scientifique fait appel à toutes les ressources de la muséologie moderne: multimédias, interacativité, jeux, films, textes, mettant en œuvre tous les sens. Quant au parcours artistique, il permet de découvrir le regard que des artistes contemporains posent sur le réchauffement climatique. Tout au long du parcours, approches scientifiques et œuvres d’art alternent au point que le public visite deux expositions en une. Ce n’est pas là simple artifice, encore moins une coquetterie gratuite. La science et l’art étant deux manières de saisir le monde, de le rendre lisible, l’exposition a recours aux deux. Conçu pour structurer un parcours cohérent, se répondant l’un à l’autre et se complétant l’un l’autre, le mélange des genres s’avère formidablement efficace Le temps qu’il fait Après un prologue qui montre les menaces dues au réchauffement climatique pesant sur la biodiversité, le visiteur, à travers des expériences simples de physique ou la vision de films d’animation, est amené à découvrir l’effet de serre naturel, son fonctionnement et son importance pour notre climat. C’est l’effet de serre vital, celui sans lequel la vie telle que nous la connaissons aujourd’hui ne se serait sans doute pas développée. Dans un second espace, il en apprendra davantage sur les gaz à effet de serre d’origine anthropique cette fois, ceux que nos activités les plus diverses produisent: la consommation d’énergie fossile surtout, ainsi que l’agriculture, l’élevage et certains processus industriels. Cette nouvelle exposition, C’est notre Terre 2 !, prend place après les deux premiers espaces de la précédente C’est notre Terre ! - Le temps de la Terre, Le temps des Hommes -, que le public peut (re)visiter gratuitement. Ils constituent en effet une base commune à toutes les déclinaisons du thème «développement durable». Cette nouvelle exposition a été conçue dans le même esprit que la précédente: humanisme, foi dans le progrès et refus de toute culpabilisation. À Bruxelles, site de Tour et Taxis, jusqu’au 28 mars 2010. http://www.expo-terra.be Après avoir pris connaissance de ce que sont les gaz à effet de serre et les causes de leurs émissions, le visiteur découvre tout d’abord les enjeux du sommet de Athena 254 / Octobre 2009 Henri DUPUIS [email protected] 62 La théorie du Big Bang, plus actuelle que jamais Pour les passionnés de science, 2009 est à la fois l’année Darwin et l’année de l’astronomie. On célèbre l’origine des espèces vivantes et l’observation de l’Univers. C’est aussi l’occasion de rappeler l’œuvre de celui qui fut le premier à ébaucher une théorie de l’origine de l’Univers. Connue aujourd’hui sous le nom de Big Bang, elle a été formulée dès 1927 par Georges Lemaître, un physicien, mathématicien et prêtre originaire de Charleroi é le 17 juillet 1894, d’une famille bourgeoise du pays noir, Georges Lemaître révèle une intelligence brillante dès les humanités gréco-latines, qu’il termine avant son 16e anniversaire, au collège des Jésuites de sa ville natale. Après une «spéciale math», il entreprend des études d’ingénieur interrompues en 1914 par la guerre, qu’il vit comme engagé volontaire dans l’artillerie. Après l’Armistice, il reprend des études de sciences physiques et mathématiques, à l’Université de Louvain (UCL), qui lui valent un doctorat en 1920, puis un programme de formation religieuse accélérée, réservé aux vocations tardives, au séminaire de Malines où il est ordonné prêtre en 1923. N Une nouvelle vision de l’Univers Georges Lemaître part ensuite pour l’Angleterre et les États-Unis, où il rencontre les plus grands astronomes de son temps. Il fait la connaissance d’Albert Einstein, auteur de la relativité générale, dont il exploite les équations au-delà de ce que leur auteur avait imaginé. Nommé chargé de cours à l’UCL en 1925, il obtient en 1927 un titre de PhD (Doctor of Philosophy), au Massachusetts Institute of Technology (MIT). La même année, il publie dans une revue scientifique de Bruxelles, un article où il décrit l’Univers en expansion sous le titre: «Un Univers homogène de masse constante et de rayon croissant rendant compte de la vitesse radiale des nébuleuses extra-galactiques». «C’est sa première intuition géniale, explique le professeur Dominique Lambert des Facultés universitaires Notre-Dame de la Paix de Namur et de l’UCL, meilleur connaisseur de la vie et de l’œuvre de Georges Lemaître. Il a appris, en rendant visite à l’astronome américain Edwin Hubble au tout nouvel observatoire du Mont Wilson, en Californie, que la plupart des objets célestes ont une couleur décalée vers le rouge, ce qui indique qu’ils s’éloignent (les objets qui se rapprochent étant décalés vers le bleu). Il établit alors, en vertu de la relativité générale, une relation à laquelle personne ne pouvait croire à l’époque.» Il est d’ailleurs remarquable que, dans cette note de 1927, Lemaître propose une formulation anticipée de la loi de Hubble qui sera publiée quelques années plus tard et qui dit que la plupart des galaxies de l’Univers s’éloignent les unes des autres à une vitesse d’autant plus grande qu’elles sont éloignées. En 1931, en réaction à Eddington qui refusait de donner un statut physique à la notion de commencement de l’Univers, Lemaître rédige pour la revue Nature, un bref article qui, sous un nom quelque peu nébuleux («The beginning of the world from the point of view of quantum theory»), explique, en résumé, que l’Univers a une histoire, que la matière dont il est fait devait être présente au départ, sous la forme d’un unique quantum, mais que son évolution n’était pas écrite d’avance «comme une chanson sur le disque d’un phonographe». Cette conception du monde allait être, trente ans plus tard, au cœur de la pensée d’Ilya Prigogine, physicien de l’Université libre de Bruxelles (ULB) et prix Nobel de chimie, pour qui la «flèche du temps» est une donnée capitale de la cosmologie. 63 Georges Lemaître a construit les fondations de la théorie du Big Bang en passant au crible les observations astronomiques de la relativité générale. Athena 254 / Octobre 2009 Actualités Attention: l’expansion de l’Univers ne signifie pas que les galaxies se dispersent dans l’espace. Nous sommes dans un espace qui s’élargit et qui entraîne dans ce mouvement les galaxies qui le peuplent. Elles sont comme des raisins secs dans un gâteau qui gonfle à la chaleur du four. Si les raisins s’éloignent les uns des autres, c’est parce que l’ensemble du gâteau grossit. Et Lemaître, audacieux, fait un pas conceptuel de plus: si l’Univers est en expansion, c’est qu’il a été auparavant plus condensé. En «rembobinant le film» de l’expansion, on arrive donc forcément au début de cette expansion, à un moment où l’Univers est dans un état très dense qu’il appelle l’atome primitif. «Nous pouvons concevoir, écrira-t-il plus tard, que l’espace a commencé avec l’atome primi-tif et que le commencement de l’espace a marqué le commencement du temps.» La création du monde «C’est sa deuxième grande intuition», dit Dominique Lambert. C’est l’idée d’une singularité initiale, d’un commencement du monde. Une idée plus révolutionnaire encore que l’expansion de l’Univers car, dans les années 1930, les esprits sont encore nourris de la vision philosophique classique de l’Univers, conçu comme éternel et immuable. L’idée d’un commencement paraît aussi trop proche de la conception religieuse de la création du monde pour être scientifiquement crédible. Dominique Lambert a beaucoup écrit sur la vie et l’œuvre de Lemaître. Voir sa bibliographie complète à l’adresse: http://fr.wikipedia. org/wiki/ Dominique_Lambert Eddington, en particulier, trouve cette notion «répugnante». Le chanoine Lemaître pouvait évidemment paraître suspect à cet égard, bien qu’il se soit efforcé, avec constance, de séparer son travail scientifique de sa foi chrétienne. Il écrit en 1936, dans un rapport destiné à un congrès catholique à Malines, que le chercheur chrétien «fait abstraction de sa foi dans sa recherche, non pas parce que sa foi pourrait l’encombrer, mais parce qu’elle n’a directement rien à faire avec son activité scientifique.» Il y a, aujourd’hui encore, des intégrismes qui considéreraient une telle position comme blasphématoire. Et que dire de cette autre tirade, extraite de la conclusion d’un exposé de sa théorie de l’atome primitif: «La Science n’a pas à capituler devant l’Univers et quand Pascal essaye de déduire l’existence de Dieu à partir de l’infinité supposée de la Nature, on peut penser qu’il ne s’engage pas dans la bonne Athena 254 / Octobre 2009 64 direction. Il n’y a pas de limitation naturelle à la puissance de la pensée. L’Univers ne fait pas exception. Il n’échappe pas à son emprise.» L’Inquisition avait condamné des gens à mort pour beaucoup moins que cela. La troisième grande intuition de Lemaître, issue d’une controverse jamais résolue avec Albert Einstein, est la constante cosmologique. Cette constante avait été introduite par Einstein pour assurer la stabilité de l’Univers dans ses équations de la relativité générale. Lemaître et d’autres l’avaient finalement convaincu que l’Univers était en mouvement, donc instable, et Einstein avait alors renié cette constante cosmologique, la qualifiant même de «plus grande erreur de sa vie». Mais Lemaître tenait à la conserver, lui, cette constante. Non pour stabiliser l’Univers, mais pour lui permettre au contraire de poursuivre son expansion. Il concevait cette expansion en trois phases: une phase d’expansion décélérée après le Big Bang, suivie d’une phase quasi statique durant laquelle l’évotion de l’Univers semble stagnée hésitant entre expansion et contraction, puis d’une troisième phase d’accélération dans laquelle nous nous trouvons aujourd’hui. Cette accélération exigeait, dans l’esprit de Lemaître, «l’intervention d’une force de répulsion qui ne devient vraiment active qu’à grande distance», explique Dominique Lambert, «car sous la constante cosmologique, il y a cette force de répulsion liée à ce que l’on appelle plutôt aujourd’hui l’énergie du vide. Un vide qui, en théorie quantique des champs, ne signifie pas qu’il n’y a rien», précise-t-il. Lemaître confirmait ainsi l’intuition - déjà exprimée dans sa lettre à Nature de 1931 - de l’importance des phénomènes quantiques. Un triomphe posthume La cosmologie de Lemaître, très en vogue dans les années 1930, lui vaudra de recevoir la plus haute distinction scientifique belge, le prix Francqui, en 1934, et d’être nommé Associate Fellow de la Royal Astronomical Society of London, en 1939. Après la guerre 40-45, ayant survécu au bombardement qui a détruit son appartement à Louvain, il publie une synthèse de ses travaux sous le titre L’hypothèse de l’atome primitif. Nommé doyen de la Faculté des sciences de l’UCL en 1948, il se passionne alors pour le calcul numérique et devient un des pionniers de l’informatique en Belgique. Il intégrera l’Académie pontificale des Sciences, dont il sera nommé président six ans avant sa mort, en 1966, des suites d’une leucémie. Entretemps, son hypothèse cosmologique avait connu une longue éclipse, au profit de la théo- Actualités rie d’un Univers stationnaire, défendue par les Britanniques Fred Hoyle, Tom Gold et Hermann Bondi. Mais peu de temps avant sa mort, Lemaître avait eu la joie d’apprendre, par son fidèle assistant Odon Godart, que deux physiciens américains de la Bell Telephone, Arno Penzias et Bob Wilson, avaient détecté, par leur radiotélescope, un rayonnement très ancien, presque totalement refroidi (à 3 ° Kelvin, l’échelle qui mesure les températures au départ du zéro absolu), qui baigne tout l’Univers. Ce rayonnement universel ne pouvait être interprété que comme un lointain écho du Big Bang. Lemaître l’avait cherché en vain dans les rayons cosmiques qu’il interprétait comme «l’éclat disparu de la formation des mondes». On sait aujourd’hui que les rayons cosmiques sont produits au sein de la galaxie. Mais l’initiateur du Big Bang avait été bien inspiré en recherchant obstinément ce rayonnement fossile universel, témoin d’un événement marquant du jeune Univers: la séparation de la matière et de la lumière, survenue 300 000 ans après le Big Bang. Les rides du temps De ce même événement sont nées de légères irrégularités de densité qui donneront lieu, bien plus tard, à la naissance des galaxies. Ces irrégularités ont été cartographiées au début des années 1990 par l’observatoire satellitaire COBE (Cosmic Background Explorer), dont la mission a valu un prix Nobel à son concepteur principal George Smoot. Une deuxième sonde, appelée WMAP (Wilkinson Microwave Anisotropy Probe) a affiné le travail au début des années 2000. Et cet été, un troisième engin, Planck, a été tiré par une fusée Ariane en même temps que le télescope spatial Herschel, pour préciser encore les détails de ces irrégularités du rayonnement fossile que Smoot avait joliment appelées «les rides du temps». On notera que les détecteurs de Planck sont 30 fois plus sensibles que ceux de WMAP et 1 000 fois plus que ceux de COBE, ce qui donne la mesure des progrès technologiques effectués en moins de vingt ans. La découverte du rayonnement fossile et la détection de ses irrégularités ont remis fermement en selle la théorie du Big Bang, aujourd’hui confortée par un faisceau d’observations qui la rendent incontournable. Cette cosmologie a certes beaucoup évolué depuis que Lemaître en a jeté les fondations. Il s’est parfois trompé. Par exemple en développant, contrairement à son successeur américain George Gamow, Confrontation avec Hoyle au théâtre Jean Vilar a vie et l’œuvre de Georges Lemaître ont inspiré un jeune auteur brabançon, Jean-François Viot. Il a imaginé, sur une base très bien documentée, une rencontre entre le cosmologiste belge et son plus farouche adversaire scientifique: l’astronome et physicien Britannique Fred Hoyle (celui qui, par dérision, a inventé l’expression «Big Bang»). L Intitulée «Sur la route de Montalcino», la pièce a été couronnée en 2008 par l’Académie qui lui a décerné le prix VerdiktRijdams récompensant une œuvre mettant en rapport les arts et les sciences. Elle a été créée en août 2009 au festival de Spa, dans une mise en scène d’Olivier Leborgne. Elle sera de nouveau proposée du 5 au 13 novembre 2009 au théâtre Jean Vilar, à Louvain-la-Neuve. Le chanoine Lemaître y est incarné par Alexandre von Sivers et c’est François Sikivie qui fait revivre Fred Hoyle, les autres comédiens étant Maud Pelgrims, Grégoire Baldari et Michaël Manconi. Le spectacle, qui dure une heure trente sans entracte, est annoncé comme un régal pour les spectateurs un tant soit peu initiés à la science. La représentation du 12 novembre sera suivie d’un débat scientifique. Renseignements et réservations: http://www.atjv.be. Le texte de Jean-François Viot, qui sera bientôt édité en anglais, peut être téléchargé via le site http://viotart.eu l’idée d’un Big Bang froid, alors que l’Univers du début était chaud et s’est progressivement refroidi en se structurant. Il a aussi trop simplifié les choses en concevant un Univers sphérique, alors qu’on le considère aujourd’hui comme plutôt «plat». Mais il avait eu de bons réflexes, comme de revoir à l’envers le film de l’expansion, de chercher un rayonnement fossile et de croire en l’existence d’une valeur nonnulle de la constante cosmologique. Sur l’âge de l’Univers aussi, il avait formulé une estimation assez juste de l’ordre de 10 milliards d’années. Depuis 2003, grâce aux observations de la sonde WMAP, on estime que l’Univers est âgé de 13,7 milliards d’années. Mais on n’est pas à quelques mois près. Bref, nous conclurons avec Dominique Lambert que «même s’il s’est parfois trompé sur la nature des choses, Georges Lemaître a eu toutes les bonnes intuitions» et qu’elles sont toujours valables, quatre-vingt ans après. Alexandre von Sivers tient le rôle du chanoine Lemaître dans cette intrigue pleine de science et d’humour, qui se déroule en 1951, dans une auberge de Toscane. (Photo Véronique Vercheval). Jean-Luc LÉONARD [email protected] 65 Athena 254 / Octobre 2009 Actualités La mémoire de Lemaître l faut bien reconnaître que la mémoire de Georges Lemaître n'est pas cultivée avec trop de ferveur dans son université d'origine, où la conservation des ses archives repose essentiellement sur du bénévolat. C'est Liliane Moens, secrétaire retraitée de l'Institut d'astronomie et de géophysique Georges Lemaître essentiellement voué aujourd'hui à la climatologie - qui a pris, dès les années 1970, l'initiative de rassembler les documents et les objets témoins de la vie et de l'œuvre de l'initiateur du Big Bang. Elle les avait d'abord réunis dans un petit musée perdu à la lisière du campus de Louvain-la-Neuve, dont le bâtiment devait être ensuite affecté à d'autres fonctions. I Liliane Moens près d'une photo en grandeur nature du chanoine Lemaître, réalisée en 1994, année du centenaire de sa naissance, pour le Palais des Expositions de Charleroi. À l'avant-plan, la Burroughs E-101, première calculatrice électronique de l'UCL qu'il utilisait en virtuose. Aujourd'hui, les archives sont conservées dans un modeste bureau et les objets sont très bien mis en valeur derrière la grande paroi vitrée d'un auditoire de la place des Sciences. Cet Espace Lemaître évoque quatre aspects de la vie du grand scientifique (la famille, l'étudiant brillant, le prêtre, le temps de la gloire) et les trois axes de son activité débordante (le professeur, le cosmologiste et le calculateur). Il rappelle aussi que le nom de Lemaître a été donné à un astéroïde ainsi qu'à un cratère de la Lune. Le petit musée fait la légitime fierté de Liliane Moens et de son mari, Michel, docteur en sciences, qui ont travaillé obstinément à sa réalisation. Ce sont eux également qui gèrent l'accès aux archives de Georges Lemaître, lesquelles font l'objet de demandes de consultations assez fréquentes de l'étranger. Ils ont ainsi pu apporter une contribution substantielle à de nombreux travaux, dont, entre autres, le livre d'un auteur américain, John Farrel, joliment intitulé The Day Without Yesterday Lemaître, Einstein, and the Birth of Modern Cosmology, publié en 2005 et traduit en japonais. Ils ont été sollicités plus récemment pour une exposition itinérante et un concours de dissertation à Lisbonne, pour une traduction en allemand des textes de Lemaître, et pour l'exposition itinérante Lumières sur le Ciel, inaugurée à Troyes à l'occasion de l'année astronomique internationale. Ces contacts internationaux permettent aussi aux Archives Lemaître de s'enrichir. Ainsi, à la fin septembre 2009, Liliane Moens a eu le bonheur de trouver dans sa boîte aux lettres, un envoi venant d'Amsterdam, qui contenait notamment la copie de l'article de Lemaître de 1927, annoté par Eddington et envoyé à de Sitter. L'annotation de l'astronome britannique à son confrère hollandais dit: "This seems a complete answer to the problem we were discussing» (Ceci paraît être un réponse complète au problème dont nous discutions). Pour en savoir plus sur les archives Lemaître, voir le site http://www.uclouvain.be/204119.html Jean-Luc LÉONARD [email protected] Contributions bienvenues Les personnes désireuses de contribuer à la conservation des archives de Mgr Lemaître peuvent faire un don au compte 271-0366366-29 d'UCL-Mécénats, place de l'Université, 1, à 1348 Louvain-la-Neuve avec la mention «Pour ASTR2751 - Mécénats Lemaître». Les donateurs de plus de 30 euros recevront une attestation d'exonération fiscale. Athena 254 / Octobre 2009 66 Info-Bio D’où viennent ces membres nouveaux ? a régénération est liée à la vie elle-même qui connaît, chez les organismes pluricellulaires en particulier, une usure permanente. Mais si, chez l’homme, ce renouvellement concerne essentiellement des cellules isolées ou, au mieux, des fragments de tissus en cas de grande blessure, elle peut s’avérer nettement plus importante chez les plantes mais aussi chez nombre de groupes animaux, principalement inférieurs. Cela peut toutefois aussi être le cas des vertébrés tels que la salamandre, le triton ou l’axolotl. En tant que vertébrés, il s’agit par conséquent d’animaux assez haut placés dans l’échelle évolutive et on peut regretter que si la régénération d’un organe ou d’un membre entier leur soit coutumière - ou au moins accessible l’évolution n’ait pas trouvé utile de conserver l’aptitude chez les animaux plus évolués encore, ainsi que chez l’homme. Soit. L L’axolotl - pour ceux qui l’ignorent - est un amphibien d’origine mexicaine qui a la particularité d’être néoténique; en d’autres termes, il peut rester toute sa vie à l’état larvaire et se reproduire sans obligatoirement passer par un stade adulte. Son allure est globalement celle d’une salamandre et répond au nom d’Amblystoma mexicanum. S’il est connu, c’est pour sa particularité évoquée, mais aussi parce qu’il a depuis longtemps sa place dans les laboratoires. Cette présence a permis d’étudier la néoténie qui le caractérise, mais surtout ses facultés exceptionnelles de régénérer membres et organes (y compris une partie du cerveau !) ainsi que sa grande habilité à accepter les greffes. On peut aisément comprendre que les scientifiques lui ont trouvé quelque intérêt. Si on coupe un membre entier à l’axolotl, il repousse à l’identique. Fabuleux et bien connu depuis longtemps si bien que les Aztèques pensaient que leur dieu de la mort se réincarnait dans cet animal doté de pouvoirs à ce point «divins». Si le processus a perdu ce caractère magique aux yeux des scientifiques d’aujourd’hui, ces derniers - pragmatiques - se demandent toutefois si les cellules qui régénèrent le membre sont d’emblée spécialisées ou si, issues du moignon, elles redeviennent d’abord pluripotentes avant d’accéder à nouveau à la spécialisa- tion. Une expérience assez élégante a donc été tentée pour le savoir. On a d’abord produit un animal transgénique pour le gène qui confère la fluorescence, l’intention n’étant autre que de disposer d’un marqueur cellulaire. On lui a ensuite prélevé un fragment de tissu qui a été greffé à son équivalent «normal» destiné à l’amputation. Dès que les chercheurs ont été assurés de la reprise de la greffe (très facile, comme on l’a rappelé), ils ont sectionné la patte concernée à hauteur de cette greffe, ce qui a eu comme conséquence immédiate de «mar-quer» à la fluorescence le moignon, origine de la régénération du membre. Un premier bourgeon le blastème - s’est d’abord normalement formé, lui aussi fluorescent. Puis le membre s’est reconstitué, menant comme attendu à une réparation complète. Des examens cellulaires ont évidemment été réalisés tout au long de la reconstitution et il est clairement apparu que les cellules étaient d’emblée spécialisées, sans passer par un stade intermédiaire de pluri-potence. Une seule exception à l’ensemble: les cellules de la peau, qui contribuent autant à la régénération osseuse qu’à celle du tissu - la peau, par conséquent - dont elles sont issues. Tout n’est évidemment pas encore éclairci dans le processus. On ignore par exemple quel est le statut de spécialisation des fibroblastes, ces cellules qui assurent le «remplissage» de la plupart des tissus. Bref, on cherche et il n’y a pas de raison qu’on ne trouve pas d’ici peu. Les sceptiques vont évidemment se demander à quoi peuvent bien servir des recherches de ce genre. Si l’intérêt relève encore de la recherche fondamentale, il est tout aussi évident que la possibilité de régénérer un jour un organe - ou partie d’organe - humain est en perspective. Lointaine encore, évidemment. Mais il n’est pas interdit de voir loin… Nature 2009; 460: 39-40 et 60-65. 67 Amblystoma mexicanum ou axolotl peut rester toute sa vie à l’état larvaire mais aussi il a la faculté de régénérer membres et organes, y compris une partie du cerveau ! Athena 254 / Octobre 2009 Info-Bio Je me mange, tu te manges… ous n’en avons évidemment pas conscience au quotidien, mais à chaque moment de l’existence, de la conception jusqu’à la mort, nous pratiquons l’autophagie. L’étymologie du terme parle d’elle-même: il s’agit d’autoconsommation. Pas question bien sûr de se mutiler pour assurer sa subsistance; le processus est cellulaire et a pour fonction essentielle d’assurer la régulation métabolique et la défense immunitaire, notamment. N Le terme est né il y a un demi siècle environ lorsque Christian de Duve a découvert des organites chargés de cette digestion auxquels il a donné le nom de lysosomes. Ceux-ci sont de petites vésicules qui, dans des conditions de nécessité métabolique, sont déchargées dans une autre inclusion cellulaire - l’autophagosome - dont elles digèrent le contenu, mettant à la disposition de la cellule de l’énergie nouvelle. Le contenu ? Ce sont des «aliments» qui ont été absorbés, ou des structures cellulaires anormales ou devenues inopérantes. La cellule sait faire feu de tout bois lorsqu’il est question de trouver l’énergie nécessaire à son fonctionnement. On a remarqué au passage qu’elle fait aussi office de vide-grenier pour ce qui lui est devenu inutile. C’est «recyclage» et «développement durable» permanent, le tout dans un contexte d’économie de moyens et d’énergie. Mais il y a aussi des phases de l’existence où ce mode de fonctionnement est tout à fait indispensable. Au tout début du développement embryonnaire, en particulier. Le génome du jeune produit de conception n’ayant pas encore eu l’occasion de s’exprimer, les premières cellules fonctionnent grâce au contenu de l’ovule originel, c’est-à-dire des composants exclusivement d’origine maternelle. Il va de soi que ces éléments risquent de rentrer tôt ou tard - soit après le 4e jour de développement - en conflit avec leur équivalent d’origine strictement embryonnaire. Dans ce contexte de possible incompatibilité, on comprend que la recherche d’énergie de fonctionnement offre aussi une bonne occasion de «faire le ménage». Athena 254 / Octobre 2009 68 Même problématique neuf mois plus tard. Lorsque l’enfant naît, il a besoin d’un regain d’énergie pour assurer sa vie désormais autonome. Il en profite donc, dans un registre cellulaire, pour éliminer tout ce qui lui reste de la «nutrition» maternelle via le placenta. Même s’il est allaité, cette étape de son existence correspond à une phase de jeûne qui justifie la petite perte de poids observée juste après la naissance. Et la phagocytose se poursuit toute la vie, jusqu’au dernier souffle. Elle permet notamment, en faisant - toujours - «le ménage» dans les cellules, de réduire l’impact de certaines maladies comme le diabète de type II ou les processus neuro-dégénératifs. Évidemment, elle ne peut pas réellement les empêcher. Mais puisqu’elle se montre efficace dans ces contextes, elle offre des perspectives thérapeutiques d’avenir. Accroître l’autophagie dans des cellules ciblées (du cerveau, du foie ou d’un autre organe selon la maladie à traiter) pourrait être une possibilité de contraindre certains développements pathologiques; quitte à le renforcer, au besoin, d’un complément pharmacologique. Une fois de plus, c’est un processus naturel qu’il s’agit de modifier dans un sens «utilitariste». Puisqu’il est ubiquitaire dans toutes nos cellules, il s’agira de le faire en prenant toutes les précautions d’usage. Afin que d’éventuels effets secondaires observés ne soient pas plus dommageables que le mal à traiter. m/s n° 4, vol. 25: 323-324. Un peu de longévité en plus ? L es inhibiteurs de conversion du système rénine/angiotensine sont des médicaments aujourd’hui bien entrés dans la routine du traitement de l’hypertension. Pourquoi évoquer cette réalité qui relève plutôt de la pratique médicale ? Pour deux raisons essentielles. La première est que l’hypertension artérielle, qui concerne une partie importante de la population (passé la quarantaine, souvent), reste la principale cause des maladies cardiovasculai- Info-Bio res et celles-ci ont une fâcheuse tendance à réduire la durée de vie. Elle mérite donc une attention permanente. Une autre raison tient au fait que cette angiotensine bénéficie toujours d’une attention appuyée pour tenter d’en déjouer les effets vasculaires, comme le démontrent des travaux récemment publiés. Cette molécule se fixe à des récepteurs cellulaires qui lui sont propres, appelés AT1. Or, des recherches menées chez la souris ont conduit à inhiber la formation de ces récepteurs. Résultat: l’angiotensine n’a pu agir sur les parois artérielles et les souris traitées ont vécu significativement bien plus longtemps que des témoins «sauvages». À l’autopsie, elles ne présentaient en outre que peu de fibrose cardiaque et d’artériosclérose aortique. On a également observé dans l’un ou l’autre de leurs tissus ciblés que certains gènes étaient davantage exprimés, tel celui qui code pour la sirtuine 3 (Sirt3) dans le rein. Il s’agit d’une enzyme qui régule le métabolisme cellulaire sur un mode épigénétique, c’est-à-dire en affectant le niveau d’expression de certains gènes sans modifier ces derniers. Des tests d’inhibition spécifique de Sirt3 ont confirmé que ce gène était effectivement impliqué dans la régulation de l’angiotensine et, par conséquent, dans le vieillissement cellulaire et général. pour bénéficier des effets associés, dont… la régulation de la tension artérielle et de la présence des radicaux oxydants avec, en perspective, une longévité accrue qui en est la conséquence indirecte. Chez la souris d’abord, on l’a bien compris. Allez savoir s’ils ne penseront pas à trouver des applications chez l’homme aussi… La suite, on la pressent: les chercheurs vont tenter d’agir directement sur l’expression du gène À l’évidence, la vie prolongée reste un objectif permanent. J. Clin. Invest. 119: 524-530. Le diabète en marche… O présume que l’incidence de ces maladies devrait s’accroître aussi considérablement dans les pays émergents pour lesquels les données épidémiologiques sont encore lacunaires aujourd’hui. Les valeurs disponibles - et les projections réalisées - concernent pour le moment préférentiellement les populations des pays occidentaux, mais on Si on dispose de quelques pistes «environnementales» pour expliquer cet accroissement, on constate qu’il existe des variations parfois importantes d’une nation à l’autre, ce qui devrait permettre d’affiner l’évaluation des causes possibles. Ce qu’on peut déjà suspecter, sans grand risque de se tromper, c’est que les malades plus nombreux aujourd’hui, et qui le sont de surcroît à un âge de plus en plus précoce, devront compter avec la maladie plus longtemps, avec tout le cortège des altérations corollaires que cela implique. Avec, par ailleurs, une majoration considérable des coûts pour les soins de santé, associés à leur prise en charge… The Lancet 373: 1999-2000. n le pressentait depuis plusieurs années: l’incidence du diabète de type I - insulinodépendant - connaît une progression sans précédent qui semble loin encore d’avoir atteint son niveau de croissance optimale. On estime par exemple qu’entre 2005 et 2020, la proportion de nouveaux cas chez des enfants de moins de 5 ans devrait doubler et que la prévalence des cas chez les moins de 15 ans devrait s’accroître de 70%. Dans le même temps, on observe aussi que le diabète de type II concerne un nombre croissant de jeunes - et en particulier d’enfants aussi - ce qui commence à poser de sérieux problèmes de prise en charge par les instances médicales de nombreux pays. 69 Athena 254 / Octobre 2009 Info-Bio Le virus de la miniaturisation lus personne aujourd’hui ne s’étonne de voir tenir dans quelques centimètres cubes toutes les fonctions d’un dispositif électronique, qu’il s’agisse d’un smartphone, d’un MP3 ou d’un quelconque autre appareil qui agrémente notre quotidien. Pourtant, cette réduction de volume n’est possible que grâce à la miniaturisation simultanée de tous les organes nécessaires aux fonctions à assurer. P Parmi ceux-ci, les batteries occupent une place importante. Entre les «piles plates» de jadis et les pastilles au lithium d’aujourd’hui, on mesure tout l’effort de réduction de volume qui a été consenti et on pressent qu’on n’est pas encore au bout de nos surprises. Pour preuve, cette publication récente qui fait reposer l’ossature d’électrodes sur les liens de cohésion de nanotubes de carbones et de… virus ! Il ne s’agit pas de mettre à la peine le A (H1N1) dont il est si souvent question. On lui a préféré un virus de bactéries (ou bactériophage) moins problématique et sans doute mieux maîtrisé, le E4. On l’a modifié en lui adjoignant un peptide qui lui permet d’assurer les jonctions avec les nanotubes évoqués. Le tout sert de support aux échanges d’ions, générateurs de (dé)charges électriques. Plus que la réalisation, c’est surtout l’intention qui frappe: celle qui consiste à faire de virus des sources d’énergie. On aura tout vu ! Science 324: 1051-1055. Épigénétique et infertilité énétique et fertilité entretiennent un lien très étroit. Ce n'est pas réellement un scoop. Le sexe est génétiquement déterminé et certaines anomalies chromosomiques ou géniques sont associées à des hypofertilités plus ou moins sévères, voire à des stérilités définitives. Mais qu'en est-il de l'épigénétique ? (Voir Athena n° 218, pp. 283-286). G Déjà, un petit rappel s'impose. Si chacun perçoit bien aujourd'hui les grands principes du fonctionnement de la génétique, ce n'est peut-être pas le cas de l'épigénétique. Il s'agit tout simplement d'un «système» de régulation des gènes. Disposer de ces derniers est une chose, les voir s'exprimer en est une autre. La spécialisation de nos cellules (cœur, foie, cerveau, os, etc.) est une première preuve de la régulation épigénétique, chacun des types cellulaires ne retenant des gènes que ceux qui leur sont utiles. C'est donc que les autres ont une expression bloquée et c'est l'épigénétique qui s'en charge. L'âge qui progresse peut être une autre cause de régulation (ou dérégulation). Bref, ce processus est inhérent à la vie elle-même et procède de Athena 254 / Octobre 2009 70 deux mécanismes: le dépôt de radicaux à certains endroits «stratégiques» des gènes dont il fait moduler le fonctionnement ou une modification de la structure de la chromatine, cet ensemble formé par la molécule d'ADN et les protéines, les histones, qui y sont associées. Il existe pourtant un moment de la vie où cette régulation est levée: le tout premier, lorsque le jeune embryon est constitué au départ des deux cellules germinales originelles. C'est ce qui fait que les premiers stades de développement embryonnaires sont dits «totipotents», puisqu'ils disposent de toutes les potentialités. Or, il apparaît de plus en plus évident aujourd'hui que cette reprogrammation nécessaire ne serait qu'imparfaite dans certains cas, rendant compte, bien plus tard, d'une hypofertilité chez ceux qui en sont l'objet. Comment ? En interférant avec l'«empreinte parentale», une autre particularité de la génétique. Alors que les gènes issus des deux parents sont redistribués en principe de façon aléatoire chez le nouvel embryon formé, il y en a qui ne Info-Bio peuvent être hérités que du père ou de la mère, sous peine d'apparition d'anomalies et même de syndromes assez graves. C'est ce qu'on appelle précisément l'empreinte parentale. C'est ce mécanisme de transmission préférentielle qui risquerait d'être perturbé, comme des études comparatives entre sujets fertiles et infertiles l'ont récemment montré. Cela pose évidemment question lorsque l'infertilité du couple est traitée par ICSI (voir Athena n° 247, pp. 221-225) - la méthode qui consiste en l'introduction forcée d'un spermatozoïde dans chaque ovule. Si l'anomalie épigénétique est responsable ou associée à l'infertilité du conjoint, elle est évidemment transmise à l'enfant conçu, avec le risque de faire apparaître chez lui une des pathologies connues de l'empreinte parentale (les syndromes de PraderWilli, Angelmann ou Beckwith-Wiedemann). À l'évidence, la quête d'une conception respectant la filière génétique parentale trouve, avec l'épigénétique aussi, une autre source de questionnement. Andrologie 2009: 19: 121. Ah ! votre bon cœur… S ’il est bien convenu que nos cellules en général se renouvellent, on a aussi coutume de dire que le cœur avec lequel on naît est aussi celui avec lequel on meurt; sauf bien entendu dans le chef, toujours marginal, de ceux qui bénéficient d’une greffe cardiaque, ça va de soi. C’est donc que s’il se renouvelle, cet organe unique ne le fait que partiellement. Ce qui restait à prouver. C’est désormais chose faite grâce à une étude récemment publiée qui a établi la proportion des cardiomyocytes - les cellules musculaires qui assurent leur remplacement. La méthode exploratoire utilisée est complexe et mériterait à elle seule un long développement. Pour faire court, précisons qu’elle repose sur l’intégration, par les cellules, du carbone 14 (14C) dont la proportion dans l’air a fortement augmenté au cours du XXe siècle, et plus précisément pendant cette période qui correspond à la «guerre froide» et à ce bras de fer américanosoviétique qui a mené l’un et l’autre des protagonistes à multiplier les essais nucléaires. Ces démonstrations de force à intention dissuasive ont singulièrement enrichi l’atmosphère en dérivés radioactifs utilement mis à profit aujourd’hui par les chercheurs en général et les épidémiologistes en particulier pour dater des processus physiologiques en cours chez les contemporains de ces essais militaro-politiques. Ces contemporains - un certain nombre d’entre nous, au demeurant - ont donc notamment intégré dans l’ADN de leurs cellules en formation du 14C dont l’abondance relative permet aujourd’hui une datation assez précise. Comme évoqué, le calcul est complexe et doit évidemment recouper d’autres données cliniques. Mais il a notamment permis d’établir le taux moyen de renouvellement des cellules cardiaques chez une cohorte d’individus pris en considération. Il apparaît, assez clairement, que ce renouvellement est de l’ordre de 1% par an chez l’homme de 25 ans, mais diminue progressivement ensuite pour n’être plus que de 0,45% vers l’âge de 75 ans. Au total et sur la durée d’une vie, on peut par conséquent en déduire que moins de la moitié des cardiomyocytes se renouvellent dans notre cœur. L’information le confirme: le cœur est donc un organe à ménager à tout prix si on veut le faire durer… Les données apportées par cette étude vont évidemment un peu plus loin et débordent nécessairement sur la thérapeutique d’avenir: puisqu’on maîtrise de plus en plus les mécanismes de biologie cellulaire et notamment ceux qui contribuent à la formation et à la spécialisation des cellules souches, on va peut-être axer la thérapie cardiaque de demain dans un sens préventif en accroissant le renouvellement spontané des cellules myocardiques. Cela suffira-t-il à réduire l’incidence des accidents cardiaques ? Cela reste évidemment à démontrer… Science 324: 98-102. Jean-Michel DEBRY [email protected] 71 Athena 254 / Octobre 2009 Oncologie La quête d'un vaccin thérapeutique Est-il possible de «doper» notre système immunitaire pour qu'il soit capable d'éliminer une tumeur maligne? C'est l'espoir que l'oncologie place dans l'immunothérapie du cancer. Après de premiers résultats encourageants, les essais cliniques de vaccination thérapeutique n'ont cependant plus enregistré de réels progrès. Aujourd'hui, les raisons de ces échecs commencent à être élucidées, notamment grâce aux travaux du professeur Pierre van der Bruggen de l'Institut Ludwig contre le cancer ès le début du XXe siècle, les biologistes s'interrogèrent sur la présence éventuelle d'antigènes spécifiques à la surface des cellules cancéreuses. Oui ou non, se demandaient-ils, les tumeurs expriment-elles certaines substances particulières reflétant le dérèglement qui s'est emparé de la machinerie cellulaire ? Autrement dit, le système immunitaire pourrait-il être mobilisé pour éliminer les cellules tumorales comme il élimine les cellules infectées par un virus ou une bactérie ? D Pierre van der Bruggen, professeur à l'Université catholique de Louvain (UCL) et responsable d'un groupe de recherche au sein de l'Institut Ludwig. Courriel: pierre. vanderbruggen@ bru.licr.org La question demeura longtemps sans réponse, avant de rebondir dans les années 1940-50. Deux chercheurs américains, Richard Prehn et Marjorie Main, avaient mis en lumière un phénomène étonnant: si l'on induit chimiquement un cancer chez une souris, qu'on le lui ôte ensuite chirurgicalement, puis qu'on le lui réimplante, elle peut rejeter spontanément la greffe tumorale. Il apparut en outre que ces rejets reposaient sur l'«action» du système immunitaire, en particulier des lymphocytes T. «L'espoir se précisait donc, à condition que ce qui était observé avec les tumeurs de souris se vérifie avec des cellules cancéreuses humaines et, surtout, que l'on comprenne comment les lymphocytes T peuvent distinguer les cellules tumorales des cellules normales», lit-on dans un article récent intitulé Principes généraux et premiers essais cliniques de vaccination thérapeutique contre le cancer (1). La vague d'optimisme ne tarda pourtant pas à être écrêtée, car, soumises à un protocole expérimental similaire, les tumeurs spontanées de souris ne faisaient pas l'objet d'une réaction de Athena 254 / Octobre 2009 72 même nature que les tumeurs provoquées chimiquement - pas de rejet. N'exprimeraient-elles donc pas d'antigènes ? Dès 1972, les travaux de l'équipe du professeur Thierry Boon, directeur de l'unité bruxelloise de l'Institut Ludwig contre le cancer, permirent de trancher le débat: ces tumeurs spontanées ne sont pas dépourvues d'antigènes à leur surface. Mieux: elles peuvent servir de cible à une réponse immunitaire suscitée artificiellement, dont la traduction est une destruction des cellules cancéreuses par les lymphocytes T. La découverte des MAGE Il y a à peine plus de vingt ans, on ignorait cependant encore s'il existe des antigènes spécifiques sur les tumeurs humaines et, partant, si les lymphocytes T humains sont capables de distinguer les cellules tumorales des cellules normales. Question cruciale s'il en est puisque, en l'absence d'antigènes, toute stimulation artificielle du système immunitaire, toute immunothérapie, serait vouée à l'échec, les lymphocytes tueurs ne discernant aucun «ennemi». En 1986, le biologiste anglais Alain Townsend, de l'Université d'Oxford, démontra que les lymphocytes T reconnaissent les protéines virales même lorsqu'elles n'apparaissent pas à la surface de la cellule. Ces protéines peuvent en effet être fragmentées en petits peptides. Transportés dans le réticulum endoplasmique, ceux-ci se lient à des antigènes particuliers présents sur les globules blancs du sang et sur toutes les cellules nucléées de l'organisme: en l'occurrence, des molécules de classe 1 codées par le complexe majeur d'histocompatibilité (système HLA - Human Leucocyte Antigens) découvert en 1958 par le professeur Jean Oncologie Dausset, prix Nobel de médecine en 1980. Se forment ainsi des entités «peptides-antigènes d'histocompatibilité de classe 1» qui migrent vers la surface de la cellule, où ils sont identifiés par les récepteurs des lymphocytes T. MAGE-3 présenté à la surface de leurs cellules cancéreuses par la molécule d'histocompatibilité HLA-A1. Elles reçurent des injections du peptide MAGE-3, petit fragment de neuf acides aminés issu de la protéine MAGE-3. On sait maintenant que ce processus n'est pas l'apanage des protéines virales, mais s'applique aussi à toute protéine anormale résultant d'une mutation ponctuelle dans un gène. «Il est acquis aujourd'hui que de nombreuses cellules tumorales humaines portent à leur surface des peptides antigéniques qui peuvent être reconnus par des lymphocytes T, en particulier des lymphocytes T cytolytiques (CTL), qui expriment les molécules CD8 (2)», précise Pierre van der Bruggen, professeur à l'Université catholique de Louvain (UCL) et responsable d'un groupe de recherche au sein de l'Institut Ludwig. Premier constat: le traitement d'immunothérapie ainsi dispensé ne présenta aucune toxicité et s'avéra indolore. Deuxièmement, une régression significative des tumeurs fut observée chez sept patients. Elle fut même complète chez trois d'entre eux, ces personnes ayant éliminé totalement leurs métastases, et la rémission persista durant plusieurs années chez deux autres répondeurs. Les régressions spontanées n'étant que de 0,5% environ dans les mélanomes métastatiques, les résultats positifs obtenus paraissaient prometteurs. En 1991, Pierre van der Bruggen et Catia Traversari, de l'équipe de Thierry Boon, identifièrent, dans le cadre du mélanome, un premier antigène spécifique d'une tumeur cancéreuse humaine: MAGE-1 (M pour mélanome, AGE pour antigène). Pour l'heure, plusieurs dizaines d'antigènes tumoraux, la plupart reconnus par des lymphocytes T cytolytiques, ont été découverts. Comme l'indique Pierre van der Bruggen, certains d'entre eux présentent d'ores et déjà des caractéristiques qui en font d'excellents candidats pour le développement d'une thérapie (vaccination thérapeutique) basée sur l'activation de lymphocytes T antitumoraux. Les chercheurs de l'Institut Ludwig se sont particulièrement intéressés à la famille des antigènes de type MAGE, lesquels sont exprimés dans beaucoup de tumeurs mais non dans des tissus sains. Cette spécificité offre l'avantage de prévenir tout effet secondaire néfaste sur les cellules normales, tandis que la présence des antigènes MAGE dans une grande variété de cancers autorise en principe l'utilisation d'un même vaccin thérapeutique chez beaucoup de patients. Depuis ces découvertes, de nombreux laboratoires se sont engagés sur la piste de l'immunothérapie du cancer. Diverses techniques de vaccination furent testées par la suite. Les unes mettaient en œuvre d'autres antigènes MAGE avec ou sans adjuvants immunologiques, d'autres associaient plusieurs antigènes «Nous avons notamment procédé à des vaccinations où furent injectés dix peptides antigéniques différents», rapporte Pierre van der Bruggen. D'autres encore faisaient appel non plus à des peptides mais à la protéine antigénique MAGE-3 elle-même. On notera que la firme pharmaceutique GlaxoSmithKline Biologicals va précisément débuter un important essai de phase 3 (plus de 2 000 patients répartis dans le monde entier) centré sur des malades ayant subi la résection complète d'un cancer du poumon non à petites cellules et auxquels sera administré un vaccin thérapeutique anti-MAGE 3. Sera étudié l'impact de la vaccination sur le risque de récidive. Par ailleurs, un typage génétique des patients sera effectué par la technique des microdamiers (puces à ADN), afin d'identifier une signature génétique caractéristique des «bons répondeurs» au traitement. «Il est acquis aujourd'hui que de nombreuses cellules tumorales humaines portent à leur surface des peptides antigéniques qui peuvent être reconnus par des lymphocytes T.» Le lymphocyte T reconnaît les cellules via son récepteur T. Des succès mitigés Au cours des quinze dernières années, l'unité bruxelloise de l'Institut Ludwig a initié, en collaboration avec d'autres centres belges et étrangers, un programme de vaccinations thérapeutiques visant à tester divers types de vaccin. Les résultats d'un premier essai clinique impliquant vingt-six patients atteints d'un mélanome avec métastases fut jugé encourageant. Ces personnes étaient porteuses de l'antigène 73 Athena 254 / Octobre 2009 Oncologie Il existe plusieurs autres voies thérapeutiques que celles exposées ci-dessus. Elles font appel, par exemple, à des cellules dendritiques ou à des virus recombinants. Cancer Vaccine Collaborative (ENG) http://bit.ly/CTvnI Une section d'un site collaboratif consacrée aux essais cliniques dans le cadre des vaccins. Cancer Vaccines (ENG) http://bit.ly/cKCJF Questions et réponses sur le vaccin contre le cancer. «Au début de notre programme clinique, nous pensions que le système immunitaire d'un malade cancéreux restait le plus souvent “endormi” face aux antigènes exprimés par la tumeur mais qu'un vaccin contenant les bons ingrédients pourrait induire de fortes réponses de lymphocytes T qui détruiraient les cellules cancéreuses», indique Pierre van der Bruggen. Il fallut déchanter. Peu importait le vaccin proposé, la technique employée et les équipes de recherche impliquées, les succès demeuraient circonscrits à un faible pourcentage. Et la situation n'a pas évolué: aujourd'hui encore, les vaccinations thérapeutiques échouent dans la majorité des cas. Selon l'article susmentionné (3), les vaccins, quels qu'ils soient, et toutes études confondues, induisent des régressions tumorales chez 5 à 20% des malades vaccinés. Toutefois, le taux de réponses cliniques objectives (complètes ou partielles), basé sur les critères officiels WHO, est de l'ordre de 5% seulement. Certes, il y a des exceptions récentes. Mais les techniques utilisées empruntent alors des chemins plus abrupts: elles sont extrêmement lourdes, avec des effets secondaires importants. (1) Principes généraux et premiers essais cliniques de vaccination thérapeutique contre le cancer, par Jean-François Baurain, Pierre van der Bruggen, Benoît J. Van den Eynde, Pierre G. Coulie, Nicolas Van Baren, dans Bull Cancer, 2008. (2) Les lymphocytes T se partagent en deux sous-populations, qui expriment soit le récepteur CD4, soit le récepteur CD8. Les lymphocytes T CD4 sont principalement des lymphocytes producteurs de cytokines régulatrices de la réponse immune, tandis que les lymphocytes T CD8 possèdent essentiellement des capacités cytotoxiques. (3) Op. cit. (4) Op. cit. (5) L'apprêtement de l'antigène est un mécanisme, réalisé à l'intérieur des cellules, qui coupe la protéine antigénique en petits fragments (peptides) et qui associe ceux-ci aux molécules HLA pour présenter les complexes au niveau de la membrane cellulaire. (6) Mort cellulaire programmée («suicide» de la cellule en cas de dommages trop importants à son ADN). (7) Restoring the association of the T cell receptor with CD8 reverses anergy in human tumor-infiltrating lymphocytes, par Demotte N., Stroobant V., Courtoy P.J., Van Der Smissen P., Colau D., Luescher I.F., Hivroz C., Nicaise J., Squifflet J.L., Mourad M., Godelaine D., Boon T., van der Bruggen P., dans Immunity, 2008. Athena 254 / Octobre 2009 74 Si des essais cliniques sont poursuivis par différents laboratoires à travers le monde, les chercheurs de l'unité bruxelloise de l'Institut Ludwig ont ralenti provisoirement les leurs pour essayer préalablement de démêler l'écheveau: pourquoi les vaccinations thérapeutiques aboutissent-elles à des résultats relativement décevants ? et pourquoi fonctionnent-elles malgré tout chez certains patients ? Des études réalisées à Bruxelles ont notamment mis en évidence une fréquence élevée de lymphocytes T cytolytiques dans le sang et dans des prélèvements tumoraux émanant de patients cancéreux, et ce avant même toute vaccination. La vision initiale selon laquelle les tumeurs malignes s'avéraient peu antigéniques a donc été battue en brèche. Au contraire, les cancers ne sont pas «transparents» pour le système immunitaire, mais sans doute les CTL deviennent-ils généralement inactifs après un certain temps. Lymphocytes épuisés Sur le plan théorique, de multiples raisons peuvent expliquer pourquoi les cellules cancéreuses échappent le plus souvent à la destruction par les CTL. Les auteurs de Principes généraux et premiers essais cliniques de vaccination thérapeutique contre le cancer (4) en donnent quelques exemples: la perte de l'antigène par les cellules tumorales, la perte d'expression des molécules HLA ou d'autres molécules impliquées dans l'apprêtement (5) des antigènes, la résistance des cellules tumorales à l'apoptose (6), la production de facteurs pouvant interférer avec la réponse immunitaire... En 2003, l'équipe du professeur Benoît Van den Eynde (Institut de Duve, Institut Ludwig) a montré que beaucoup de cellules cancéreuses produisent dans l'environnement tumoral une enzyme, l'indoleamine 2,3-dioxygénase (IDO), qui dégrade le tryptophane, acide aminé nécessaire à la prolifération des lymphocytes T - le manque de tryptophane provoque l'arrêt de leur cycle cellulaire. L'efficacité des vaccins thérapeutiques pourrait-elle être améliorée si, concomitamment à leur administration, on réussissait à enrayer la destruction du tryptophane ? La logique et les résultats d'expérimentations animales (souris transgéniques) incitent à le croire. Aussi la possibilité d'inhiber par des moyens pharmacologiques l'activité de l'IDO chez le patient cancéreux est-elle actuellement à l'étude. Pierre van der Bruggen, lui, s'est penché sur une autre question: la présence constante de l'antigène ne pourrait-elle entraîner un phénomène d'épuisement des CTL et leur dysfonctionnement ? Les réponses apportées lui ont valu de Oncologie recevoir, le 25 juin dernier, le prix AllardJanssen 2009, lequel couronne tous les trois ans des recherches scientifiques de pointe dans le domaine du cancer. Dans un premier temps, le chercheur et son équipe ont montré in vitro, à partir d'une population clonale de lymphocytes T cytolytiques mis en culture, que la capacité de ces lymphocytes à être activés diminue au fil du temps au contact trop fréquent de l'antigène. Il en va de même de leur aptitude à tuer les cellules présentant l'antigène pour lequel ils sont compétents et à produire de l'interféron gamma. Encore fallait-il comprendre ce phénomène d'épuisement qualifié d'anergie des lymphocytes T. «On sait qu'un CTL a besoin au minimum de deux récepteurs, le TCR (ou récepteur T) et le CD8, pour reconnaître l'antigène et être activé, indique le professeur van der Bruggen. Or nous avons établi que les deux récepteurs sont proches l'un de l'autre à la surface des lymphocytes fonctionnels, alors qu'ils sont distants à la surface des lymphocytes anergiques.» Une pincée de sucres Comme dans un jeu de ricochets, la question avait rebondi et il convenait à présent d'élucider le phénomène observé. Fut ainsi émise l'hypothèse que les TCR et CD8 soient retenus à des endroits différents de la membrane cellulaire. La plupart des molécules qui siègent à la surface d'un lymphocyte T sont «décorées» de sucres, mais il semble, dans le cas du TCR, que la qualité ou la quantité des sucres dont il se charge se modifie au contact prolongé de l'antigène. C'est ici qu'un nouvel acteur entre en scène: galectine-3. Cette protéine, qui peut être produite abondamment par les cellules cancéreuses elles-mêmes, se lie à certains sucres. Et, de fait, elle se lierait aux sucres présents sur les TCR des lymphocytes activés et formeraient des réseaux qui immobiliseraient lesdits TCR et les empêcheraient d'interagir avec l'autre récepteur, le CD8. «Pour tester cette hypothèse d'une absence de mobilité du TCR à la surface des lymphocytes T anergiques, ces derniers ont été mis en présence d'un sucre qui se lie à la galectine-3, le LacNAc (N-acetyllactosamine), rapporte Pierre van der Bruggen. Deux heures de ce traitement ont permis de récupérer une grande partie de la colocalisation du TCR et du CD8. Par ailleurs, les lymphocytes T traités au LacNAc avaient également recouvré leur capacité de produire de l'interféron gamma en réponse à une stimulation avec l'antigène.» Et d'ajouter: «Par contre, si l'on employait un autre sucre, réputé ne pas se lier à la galectine-3, rien de tel ne se produisait.» Les lymphocytes T cultivés en laboratoire sont une chose, les lymphocytes infiltrant des cancers de patients en sont une autre. Grâce à une collaboration avec les Cliniques universitaires Saint-Luc, Pierre van der Bruggen put récolter des échantillons de tumeurs provenant de malades atteints d'un carcinome de l'ovaire. Il y isola ensuite des lymphocytes T. Qu'observa-t-il ? Que les TCR et CD8 présents à leur surface n'étaient pas proches et que les lymphocytes se révélaient incapables de produire de l'interféron gamma en réponse à une stimulation par des cellules tumorales. Autrement dit, l'anergie des lymphocytes T infiltrant les tumeurs est corrélée, elle aussi, avec une absence de colocalisation des TCR et CD8. Élément capital: à l'instar de leurs homologues cultivés in vitro, ces lymphocytes peuvent retrouver leur vigueur si on leur applique un traitement adéquat (7). En effet, quelques heures d'incubation en présence de LacNAc restaurent à leur surface la colocalisation du TRC et du CD8 et leur rendent la capacité de produire de l'interféron gamma. D'où ce nouvel espoir: «Ces résultats obtenus ex vivo nous permettent de suggérer qu'injecter dans les tumeurs du LacNAc, ou d'autres sucres qui se lieraient à la galectine-3, pourrait restaurer au moins temporairement les fonctions des lymphocytes T et créer des conditions favorables à une réponse antitumorale efficace, fait remarquer Pierre van der Bruggen. Combiné avec des vaccinations thérapeutiques, un traitement avec ce type de sucre conduirait peut-être à des régressions tumorales chez un plus grand nombre de patients.» TCR et CD8 ne colocalisent pas sur des lymphocytes T anergiques. « Des études réalisées à Bruxelles ont notamment mis en évidence une fréquence élevée de lymphocytes T cytolytiques dans le sang et dans des prélèvements tumoraux émanant de patients cancéreux, et ce avant même toute vaccination. La vision initiale selon laquelle les tumeurs malignes s'avéraient peu antigéniques a donc été battue en brèche.» Philippe LAMBERT [email protected] 75 Athena 254 / Octobre 2009 Neuropsychiatrie Dépression : inflammation et neuroplasticité Depuis quelques années, des découvertes neuroanatomiques ont balisé une voie nouvelle dans la compréhension de la dépression et du mode d'action des antidépresseurs. Sommes-nous face à une maladie inflammatoire et neurodégénérative ? ur le plan biochimique, l'action des antidépresseurs conventionnels est quasi immédiate. Or plus de 30 à 45% des patients déprimés ne répondent pas à ces médicaments ou n'y répondent que partiellement. En outre, lorsque le traitement est efficace, plusieurs semaines sont néanmoins nécessaires à une amélioration de la symptomatologie. Comment expliquer cet hiatus ? S Marc Ansseau, responsable du service de psychiatrie et de psychologie médicale de l’Université de Liège Courriel: [email protected] Plusieurs hypothèses ont été avancées mais, jusqu'il y a peu, aucune n'était totalement satisfaisante. Ces dernières années, cependant, une approche qui pourrait se révéler plus féconde semble gagner du terrain. Elle applique le concept de plasticité neuronale à la dépression. En effet, comme l'écrivent William Pitchot, Marie-Hélène Polis, Shibeshih Belachew et Marc Ansseau dans un article récent (1), «les études neuroanatomiques basées sur l'imagerie médicale ont mis en évidence des lésions neurologiques spécifiques de la dépression de même qu'une tendance à la récupération volumétrique de certaines régions après traitement antidépresseur.» Ces données sont corroborées par les études histopathologiques. Atrophie de l'hippocampe Quelles sont les régions concernées ? L'hippocampe, l'amygdale, le noyau caudé, le putamen et le cortex frontal, structures interconnectées formant le circuit limbico-corticostriato-pallido-thalamique. Toutefois, la majeu- Athena 254 / Octobre 2009 76 re partie des travaux de recherche se sont focalisés sur l'hippocampe, structure à propos de laquelle se sont ainsi dégagées des certitudes. L'amygdale, par exemple, est difficile à mesurer. Cet écueil méthodologique explique sans doute pourquoi les études volumétriques dont elle a fait l'objet aboutissent à des résultats divergents. Cela étant, des travaux d'histopathologie post-mortem concluent à une réduction des cellules gliales de l'amygdale dans la dépression, sans modification du nombre de neurones (2). Selon une méta-analyse réalisée par Stéphanie Campbell et Glenda MacQueen, la réduction volumétrique de l'hippocampe chez le déprimé serait en moyenne de 8% dans l'hémisphère gauche et de 10% dans l'hémisphère droit par comparaison avec des sujets sains. Par ailleurs, son «rétrécissement» apparaît proportionnel à la durée de la dépression - plus les épisodes dépressifs ont été nombreux, plus l'atrophie est importante. L'hippocampe, rappelons-le, est une structure sous-corticale bilatérale dont les principales fonctions ont trait à l'apprentissage, à la mémoire et à l'analyse des informations. Son implication dans la modulation des réponses émotionnelles est également établie. Et c'est probablement ce dernier élément qui fait de lui une cible de dégénérescences neuronales qui se situeraient au confluent de facteurs environnementaux, dont principalement le stress, et d'une prédisposition génétique. Plusieurs mécanismes peuvent expliquer la réduction de volume de l'hippocampe chez certains déprimés. D'abord, la dépression s'accompagne d'une élévation des taux plasmatiques de glucocorticoïdes. Or, au même titre que d'autres structures, l'hippocampe est très sensible à de fortes concentrations prolongées de ces substances, qui y engendrent des dommages neuroanatomiques. Autre mécanisme: la diminution, sous l'impact de stress chroniques, des concentrations de Brain Derived Neurotropic Factor (BNDF), substance protectrice des neurones contre les agressions neurotoxiques. Neuropsychiatrie La neurotoxicité du glutamate, neurotransmetteur excitateur par excellence, qui se lie aux récepteurs N-méthyl-D-aspartate (NMDA), est également mise en cause. L'hippocampe est riche en neurones dopaminergiques. À l'occasion d'un stress sévère, d'une hypoglycémie ou d'une hypoxie, le neurotransmetteur se retrouve en excès dans la fente synaptique (3). S'ensuit une cascade biochimique susceptible d'engendrer un processus d'apoptose (mort programmée) neuronale. Maladie inflammatoire On le voit, il existe différents mécanismes qui, en réponse à un stress sévère ou prolongé, sont de nature à occasionner une mort de neurones dans l'hippocampe. Cette destruction concourrait à faire le lit de la dépression. En outre, il apparaît aujourd'hui que des processus inflammatoires sont également à prendre en considération. «La dépression a été associée à des signes d'inflammation susceptibles de favoriser les pathologies somatiques souvent associées aux troubles de l'humeur et les lésions cérébrales observées chez certains patients déprimés, notamment une diminution du volume de l'hippocampe, précisent William Pitchot et Marc Ansseau. (...) Certaines études ont montré que des patients souffrant de dépression majeure présentent des taux élevés de cytokines ou de facteurs de nécrose tumorale. Ces cytokines tendent à induire certaines modifications, telle une production accrue de l'hormone de libération de la corticotrophine, laquelle favorise l'apoptose neuronale. Ces observations soulèvent l'hypothèse que la dépression pourrait être une forme de maladie inflammatoire, voire une affection neurodégénérative (4).» Neurodégénérative, mais réversible dans la mesure où les antidépresseurs peuvent favoriser une neurogenèse hippocampique. «On a montré, dans le cerveau adulte, l'influence d'antidépresseurs sérotoninergiques (5) - entre autres des inhibiteurs de la recapture de la sérotonine - sur la régulation de la neurogenèse du gyrus dentelé de l'hippocampe», rapporte le professeur Ansseau. La logique est respectée, car il semble acquis que la sérotonine intervient de façon cruciale dans le contrôle de la prolifération des précurseurs neuronaux à l'âge adulte. De surcroît, les travaux de René Hen et de ses collaborateurs, à l'Université Columbia, ont permis de montrer chez la souris le lien existant entre la neurogenèse hippocampique et les effets comportementaux induits par les antidépresseurs. (1) William Pitchot, Marie-Hélène. Polis, Shibeshih Belachew et Marc Ansseau, Dépression et neuroplasticité, dans La Revue Médicale de Liège, 2007. (2) Jusqu'au début des années 90, on considérait que chacun d'entre nous naît avec son quota de neurones, appelé à s'éroder au fil du temps sans espoir de régénération. Désormais, il est acquis que les mammifères, y compris l'homme, sont à même de former de nouveaux neurones. Deux régions cérébrales sont concernées: la zone sous-ventriculaire, où «éclosent» des neurones appelés à migrer vers le bulbe olfactif, et le gyrus dentelé, une des deux fines couches de neurones - la seconde est la corne d'Ammon - qui, repliées l'une sur l'autre, constituent l'hippocampe. (3) La fente synaptique est l'espace de communication électrochimique entre deux neurones. (4) William Pitchot et Marc Ansseau, Actualité thérapeutique en psychiatrie, dans La Revue Médicale de Liège, 2007. (5) La sérotonine est un neurotransmetteur dont la diminution de concentration cérébrale joue un rôle important dans l'émergence et le maintien d'états dépressifs. D'où des médicaments, les antidépresseurs sérotoninergiques, visant à pallier ce déficit. La théorie présentant la dépression comme une maladie inflammatoire et neurodégénérative dévoile évidemment de nouvelles perspectives thérapeutiques. Par exemple, on pourrait délivrer des substances antagonistes des récepteurs NMDA, afin de contrer l'action du glutamate. En fait, un large spectre s'ouvre à la recherche. «Le but serait d'obtenir des médicaments plus efficaces et qui agiraient plus vite que les antidépresseurs actuels, commente le professeur Ansseau. Pour ce faire, ils devraient courtcircuiter la cascade d'événements biochimiques par laquelle doivent passer les antidépresseurs connus pour aboutir à une action régénératrice. La souffrance du patient, ainsi que le risque de passage à l'acte suicidaire, s'en trouveraient plus rapidement diminués, tandis que la compliance serait améliorée.» Des questions restent cependant en suspens. Celle-ci, par exemple: tous les types de dépression s'accompagnent-ils de modifications neuroanatomiques ? En revanche, un vieux débat s'éclaire d'un jour nouveau: on comprend désormais pourquoi les antidépresseurs, dont l'action biochimique est quasi immédiate, n'induisent une amélioration de la symptomatologie dépressive qu'après plusieurs semaines de traitement. À ce propos, Marc Ansseau s'en remet à une métaphore: «Ils agissent un peu comme un engrais.» Une fois le terrain «ensemencé», il faut un certain temps pour que de nouveaux neurones soient générés et établissent les connexions qui les rendront fonctionnels. Dépression (FR) Symptômes, thérapies, rôle de l'entourage, etc. Un guide gratuit à télécharger. http://www.infodepression.fr/ Philippe LAMBERT [email protected] 77 Athena 254 / Octobre 2009 Neurobiologie Histoire... d'une préférence Le 8 mars 2009, la revue Nature Neuroscience publiait les résultats étonnants d'une étude réalisée par des chercheurs de l'Université libre de Bruxelles. Tel un miroir à deux faces, une population de neurones du striatum, les neurones striatopallidaux, jouerait un rôle à la fois dans l'activité locomotrice et dans l'assuétude aux drogues. De nouvelles voies thérapeutiques se dessinent-elles pour traiter la maladie de Parkinson et les addictions à ces substances ? n Europe, l'assuétude à l'alcool et aux drogues illicites touche 9 millions de personnes et, selon les estimations, coûte 57 milliards d'euros par an à la communauté. La prévalence de la maladie de Parkinson, elle, est de 1,2 million d'individus. Coût annuel: 11 milliards d'euros. Entre l'affection neurologique et les addictions aux substances existent deux importants traits d'union: la dopamine, neurotransmetteur déficitaire dans le premier cas, excédentaire dans le second, et le striatum, noyau sous-cortical dont la partie dorsale est impliquée dans le contrôle moteur et la partie ventrale - plus spécifiquement le noyau accumbens (1) -, dans le traitement des informations relatives à la «récompense» et au «plaisir» et, partant, dans l'addiction aux drogues. E Alban de Kerchove d'Exaerde, chercheur qualifié du Fonds national de la recherche scientifique (FNRS) travaillant au sein du laboratoire de neurophysiologie de la Faculté de médecine de l'ULB. Courriel: adekerch@ ulb.ac.be Sans entrer dans les méandres de «circuiteries complexes», rappelons que le Parkinson est défini comme la résultante d'une carence en dopamine dans le système extrapyramidal, entité vouée au contrôle des mouvements et dont les composantes sont, d'une part, les noyaux gris de la base (ou ganglions de la base) et, d'autre part, les connexions qui les unissent. Parmi lesdits noyaux figurent notamment la substance noire (locus niger) principalement composée de neurones dopaminergiques (2), le pallidum, le noyau sous-thalamique et le striatum. Au départ, la maladie se traduit par une perte des neurones dopaminergiques du locus niger et de leurs projections vers le striatum. Athena 254 / Octobre 2009 78 Le circuit de la récompense, quant à lui, a pour pièce maîtresse le noyau accumbens (striatum ventral). Y aboutissent notamment des afférences dopaminergiques en provenance de l'aire tegmentale ventrale (VTA), structure active dans le contrôle de la récompense et du renforcement et qui, par là même, pèse de tout son poids dans les phénomènes d'assuétude. Selon Alban de Kerchove d'Exaerde, chercheur qualifié du Fonds national de la recherche scientifique (FNRS) travaillant au sein du laboratoire de Neurophysiologie de la Faculté de médecine de l'Université libre de Bruxelles (ULB), avoir beaucoup de plaisir n'implique cependant pas une forte libération de dopamine. «Cette dernière, dit-il, est davantage liée à la recherche ou à l'anticipation du plaisir qu'au plaisir luimême. La valeur de celui-ci, en tant que tel, est plutôt traitée, entre autres, au niveau du cortex orbitofrontal.» Destruction spécifique Le striatum est composé pour 90 à 95% de deux populations distinctes de neurones entremêlées et équivalentes en nombre: les neurones striatonigraux et leurs homologues striatopallidaux. Quels sont leurs rôles respectifs ? Jusqu'il y a peu, la réponse à cette question demeurait voilée d'un certain mystère, d'autant que la plupart des travaux s'étaient concentrés sur la seule population des neurones striatonigraux. Pourquoi ? Principalement parce qu'on avait observé que la délivrance de cocaïne ou d'amphétamines à une souris aboutissait à une augmentation rapide de l'expression de gènes précoces (c-fos, Zif) dans ces neurones, lesquels focalisèrent dès lors l'attention des chercheurs. Leur rôle dans l'assuétude aux drogues est bien démontré aujourd'hui. Mais cela signifie-t-il que les neurones striatopallidaux n'ont aucune implication dans les phénomènes de dépendance ? C'est ce que se sont proposé d'étudier les équipes d'Alban de Kerchove d'Exaerde et de Serge Schiffmann au sein du laboratoire de neurophysiologie de la Faculté de médecine de l'ULB. Pour réaliser leur objectif, les neurobiologistes bruxellois entreprirent l'étape préalable de la Neurobiologie destruction spécifique des neurones striatopallidaux, le but étant de déterminer ensuite les conséquences fonctionnelles de leur inactivation. Or ces neurones, nous l'avons signalé, sont mélangés aux neurones striatonigraux dans le striatum. «Une inactivation par chirurgie ou par injection était donc impossible, commente Alban de Kerchove d'Exaerde. Par conséquent, nous devions les cibler en recourant à un outil génétique.» Les deux grands types de neurones du striatum se distinguent entre autres par le fait qu'ils expriment des gènes différents. Dans le cas des neurones striatonigraux: notamment le récepteur D1 à la dopamine, la substance P, neuropeptide bien connu dans le domaine de la transmission de la douleur, et la dynorphine, une endorphine. Dans le cas des neurones striatopallidaux, citons les gènes de l'enképhaline, une autre endorphine, du récepteur D2 à la dopamine et du récepteur A2A à l'adénosine. «Plusieurs équipes ont voulu se servir du promoteur du gène D2 pour cibler les neurones striatopallidaux, mais cette technique ne nous est pas apparue assez fine, explique Alban de Kerchove d'Exaerde. En effet, le récepteur D2 est également exprimé par les neurones dopaminergiques qui se projettent sur les neurones striatonigraux ou striatopallidaux, ce qui ne permet pas de distinguer l'implication présynaptique dopaminergique d'avec la partie postsynaptique des neurones striatopallidaux.» De même, les interneurones cholinergiques (3) présents dans le striatum à côté de ces deux catégories de neurones, mais en plus petit nombre, expriment eux aussi le récepteur D2 à la dopamine. Pour éviter tout risque de se heurter à des facteurs confondants, les chercheurs de l'ULB choisirent de se concentrer sur le promoteur du gène du récepteur A2A à l'adénosine. De fait, ce récepteur est exprimé de façon quasi spécifique par les neurones striatopallidaux - on le retrouve dans d'autres régions cérébrales, mais il y est beaucoup moins exprimé. Toxine diphtérique En s'appuyant sur la technique de recombinaison homologue des BAC (Bacterial Artificial Chromosomes), qui permet d'insérer des gènes dans d'importants fragments d'ADN génomique, les équipes d'Alban de Kerchove d'Exaerde et de Serge Schiffmann ont élaboré une souris transgénique qui, in fine, après croisement avec une autre souris transgénique, exprime le récepteur de la toxine diphtérique (4) à la surface des seuls neurones striatopallidaux. Une injection stéréotaxique (5) de la toxine dans le cerveau de l'animal conduit alors à la destruction sélective desdits neurones. «Une partie importante de notre travail consista à valider le système, rapporte Alban de Kerchove d'Exaerde. Ainsi, nous avons notamment montré dans un hémistriatum, l'autre nous servant de structure de contrôle, que si une injection de toxine diphtérique y entraînait la perte des marqueurs caractéristiques des neurones striatopallidaux (récepteurs D2 à la dopamine et A2A à l'adénosine, enképhaline), les marqueurs des neurones striatonigraux (substance P, récepteur D1 à la dopamine, dynorphine) y étaient préservés. Autrement dit, les neurones striatonigraux - de même d'ailleurs que les interneurones cholinergiques et les autres populations d'interneurones du striatum - n'étaient pas touchés par l'injection, ni les neurones dopaminergiques présynaptiques. Nous disposions donc bien d'un outil autorisant une destruction sélective des neurones striatopallidaux.» Mon lieu préféré L'étape suivante fut l'étude du comportement des souris transgéniques en réponse à la destruction de leurs neurones striatopallidaux, laquelle commence à s'opérer six à sept jours après l'injection de toxine diphtérique. Que constata-t-on ? Que les animaux privés de ces neurones devenaient hyperactifs sur le plan locomoteur. Il s'agissait là de la première démonstration in vivo des prédictions du modèle théorique en vigueur: les neurones striatopallidaux ont in fine, c'est-à-dire au terme d'une cascade de projections en aval impliquant plusieurs autres populations de neurones successives, un effet inhibiteur sur l'activité locomotrice. D'où l'idée de possibles perspectives thérapeutiques en médecine humaine dans le cadre de la maladie de Parkinson. Les patients concernés ont un déficit de dopamine dans le système extrapyramidal, à la suite de la mort de ses neurones dopaminergiques. L'annihilation de l'activité des neurones striatopallidaux, en aval, ne pourrait-elle les aider à se mouvoir plus aisément ? La question mérite d'être posée. Cela étant, la principale cible des travaux d'Alban de Kerchove d'Exaerde et de Serge Schiffmann est l'assuétude aux drogues. Aussi, dans une étape ultérieure de leurs recherches expérimentales, ont-ils détruit spécifiquement, dans leurs souris transgéniques, les neurones striatopallidaux du striatum ventral (noyau accumbens), structure étroitement associée, nous le savons, aux concepts de renforcement, de récompense et, par là même, d'apprentissage. Ils ont ensuite soumis ces animaux et des animaux contrôles (normaux) à un «test de préférence de place» (Conditional Place Preference Test - CPP) après leur avoir administré de l'am- 79 (1) Le nucleus accumbens est le centre du renforcement et de la récompense. (2) Producteurs de dopamine. (3) Producteurs d'acétylcholine. (4) La toxine diphtérique est une exotoxine produite par le Corynebacterium diphteriæ, responsable de la diphtérie, maladie qui fut une des causes majeures de mortalité infantile jusque dans les années 1930. Grâce à la vaccination systématique, elle a pratiquement disparu aujourd'hui des pays occidentaux. (5) La stéréotaxie est une technique de repérage fin des structures intracrâniennes au moyen d'un dispositif placé à l'extérieur du crâne et de coordonnées dans les trois dimensions. Athena 254 / Octobre 2009 Neurobiologie phétamine.«Pourquoi cette substance ? Parce que l'effet moléculaire de l'amphétamine est parfaitement connu: elle augmente la libération de dopamine au niveau des terminaisons des neurones dopaminergiques qui se projettent entre autres sur les neurones striatopallidaux», précise notre interlocuteur. Neurones striatopallidaux exprimant la GFP (Green Fluorescent Protein). (6) La mémoire déclarative est constituée de connaissances explicites (épisodes personnellement vécus, connaissances générales sur le monde) que l'on peut évoquer de façon conscience sous la forme de mots ou d'images. (7) La mémoire procédurale est impliquée dans l'apprentissage de nouvelles habiletés perceptives, motrices ou cognitives. Difficilement accessibles à la verbalisation, les connaissances qui y sont stockées reposeraient sur des apprentissages ne pouvant s'acquérir que par l'action. Imaginons une boîte comportant deux compartiments de taille identique auxquels des souris peuvent accéder en empruntant un petit couloir en plexiglas. Le premier compartiment est doté d'un sol lisse et de parois verticales où alternent des lignes blanches et des lignes noires; le second est pourvu d'un sol rugueux et ses parois sont décorées de points noirs sur un fond blanc. De la sorte, les souris peuvent les distinguer. Pour éviter tout biais méthodologique, le pourcentage de blanc et de noir est égal dans les deux «pièces», car les souris manifestent un penchant pour les lieux sombres. Le premier jour de l'expérience, on laisse les deux populations de souris (les souris contrôles, à savoir celles qui ont toujours les neurones striatopallidaux, et les souris sans neurones striatopallidaux dans leur noyau accumbens) déambuler librement dans les deux compartiments sous l'œil d'une caméra vidéo. Au cours des jours 2, 4 et 6, elles reçoivent une injection de drogue (amphétamine) dans le compartiment 1, par exemple celui où les parois sont zébrées de noir et de blanc. nouvelle fois au test de préférence de place. Il apparut que les souris contrôles commençaient à «oublier» leur préférence, contrairement aux souris sans neurones striatopallidaux, qui continuaient à privilégier nettement le compartiment où leur avaient été administrées des amphétamines. En résumé, non seulement les souris dépourvues de neurones striatopallidaux avaient une préférence plus forte pour cet endroit, mais la mémoire de cette préférence se révélait en outre de plus longue durée. Ici encore, des perspectives thérapeutiques en médecine humaine pourraient se profiler à l'horizon. Il ne s'agirait plus d'inhiber les neurones striatopallidaux, comme on pourrait le concevoir dans la prise en charge de la maladie de Parkinson, mais, à l'inverse, de les stimuler chez les patients présentant une assuétude aux drogues, des personnes ayant donc des excès de dopamine dans le striatum ventral après prise de telles substances. Le but serait d'entraver leur addiction en diminuant l'effet «récompensant» de cette prise de drogue et la mémorisation de cet effet, et de limiter ainsi les risques de rechute après sevrage. À l'échelle des gènes Pour les neurobiologistes de l'ULB, l'exploration continue. L'étape suivante de leurs recherches est génétique. En effet, au lieu de détruire purement et simplement les neurones striatopallidaux, ils s'attellent à présent à élaborer des modèles de souris transgéniques knock-out «population spécifique», où des gènes exprimés par ces neurones seront sélectivement inactivés à l'intérieur de ceux-ci et uniquement de ceuxci. Le but est double: mieux comprendre les mécanismes moléculaires mis en œuvre dans les phénomènes révélés par le test de préférence de place et trouver, si faire se peut, de nouvelles cibles thérapeutiques, parfaitement circonscrites, pour la prise en charge des patients parkinsoniens ou des personnes en proie à une assuétude aux drogues. Les jours 3, 5 et 7, eux, sont réservés à une injection de sérum physiologique, effectuée dans l'autre compartiment. Qu'observe-t-on le huitième jour, lorsqu’aucune injection n'est pratiquée et qu'on laisse à nouveau les rongeurs se promener librement entre les deux compartiments ? Si les souris contrôles, c’est à dire sans perte de neurones striatopallidaux, passent plus de temps dans le compartiment où de la drogue leur a été administrée les jours précédents, les souris dépourvues de neurones striatopallidaux y séjournent encore bien davantage. «Conclusion: ces souris ont une préférence plus affirmée pour l'endroit où elles reçoivent de la drogue», indique Alban de Kerchove d'Exaerde. «Deux des gènes qui nous intéressent sont impliqués dans la plasticité synaptique, explique Alban de Kerchove d'Exaerde. Celleci est potentiellement un des mécanismes moléculaires de la mémorisation, tant en mémoire déclarative (6) (hippocampe) qu'en mémoire procédure (7) (striatum). Elle sous-tend donc l'apprentissage et le renforcement des comportements. De ce fait, elle peut baliser la voie conduisant aux assuétudes.» L'expérience n'était pas terminée pour autant. Les animaux furent remis dans leur cage habituelle durant cinq jours; ensuite, soumis une Philippe LAMBERT [email protected] Athena 254 / Octobre 2009 80 Info-Physique De l'intérêt des atomes froids... Lorsque des particules atteignent des vitesses proches de celle de la lumière, elles deviennent relativistes. C'est ce qui se passe dans les grands accélérateurs comme le LHC (Grand collisionneur de hadrons - Voir Athena n° 229, pp. 352 et 353). Peut-on simuler de tels systèmes en laboratoire ? Oui, grâce aux atomes froids. Plongeons, avec Nathan Goldman, de l'Université libre de Bruxelles (ULB), dans le monde de la physique statistique quantique es travaux de Nathan Goldman, chercheur au service des systèmes complexes et de mécanique statistique, de l’ULB, (photo ci-contre) s'inscrivent dans le champ de la mécanique statistique quantique. L'idée générale est de pouvoir observer, à l'échelle macroscopique, quasiment à l'œil nu, des phénomènes qu'on appelle quantiques et qui diffèrent radicalement des comportements observés dans la vie de tous les jours. Ces phénomènes exotiques sont dits quantiques car ils sont décrits par la mécanique quantique, contrairement aux systèmes physiques habituels où les effets sont compris sur base de la théorie classique newtonienne. L’apparition d’effets quantiques à grande échelle peut paraître étonnante à première vue, puisque la mécanique quantique a justement été introduite pour pouvoir rendre compte des phénomènes microscopiques ! L Cette physique est dite statistique car les chercheurs y étudient un grand nombre de particules puis utilisent tous les outils de la statistique (moyennes, variantes, etc.) pour caractériser un système entier. «On ne va plus s'intéresser, explique Nathan Goldman, à la position exacte d'une particule dans le temps, par exemple, comme en mécanique classique, mais à la position moyenne dans le temps ou à l'énergie moyenne du système. Et toutes ces moyennes vont permettre d'étudier les grandeurs macroscopiques alors qu'au départ la description des particules est bien microscopique.» Cette physique est aussi dite quantique parce qu'elle considère que les particules qui composent un système, un gaz par exemple, sont décrites par la mécanique quantique. «Dans les environnements habituels, il n'est pas nécessaire de regarder la description quantique d'un système car en faisant la moyenne, on lisse tous les effets quantiques. Les particules d'une boisson contenue dans une bouteille sont quantiques, mais l'ensemble ne l'est évidemment pas», rappelle Nathan Goldman. Mais que faut-il faire pour avoir des effets quantiques au niveau macroscopique ? Il faut quitter les environnements traditionnels, par exemple la température ambiante. Quand on descend à très basse température, proche du zéro absolu, les effets quantiques ne sont plus lissés. Il est dès lors possible de les observer à l'échelle macroscopique «C'est pour cela, s'enthousiasme Nathan Goldman, qu'on s'intéresse à la physique des atomes froids ou des très basses températures.» Piège à atomes Pour comprendre les résultats obtenus par Nathan Goldman et les physiciens qui ont travaillé avec lui - Maciej Lewenstein (Barcelone) et Miguel A. Martin-Delgado (Madrid) -, ce qui leur vaut aujourd'hui d'être publiés dans Physical Review Letters (1), il faut dire un mot de travaux plus anciens. Pour refroidir les atomes, il faut les piéger, les immobiliser. Une fois piégés, ils sont refroidis et réciproquement, pourrait-on dire, puisque les deux opérations sont concomitantes: en piégeant les atomes, ils se refroidissent et en les refroidissant, on les piège. L'intérêt de ces piè- 81 (1) Non-Abelian optical lattices: Anomalous quantum Hall effect and Dirac fermions N. Goldman et al., Phys. Rev. Lett. 103, 035301 (2009). Athena 254 / Octobre 2009 Info-Physique ges est qu'ils créent des réseaux. Ainsi, le système utilisé par Nathan Goldman et ses collègues est constitué de nombreux petits pièges qui, ensemble, forment une structure périodique, comme un emballage d'œufs (voir le schéma ci-dessous). Si vous jetez des petites billes sur un tel emballage, elles vont se répartir dans les petits trous, qui seront autant de pièges pour elles. C'est ce qui se passe avec les atomes. Piège à atomes en forme d'emballage à œufs. Un tel système est un réseau puisque c'est une structure périodique. Et il est optique puisque c'est grâce à la lumière - des lasers - qu'on va pouvoir créer les bassins d'attractions, les «creux». En effet, les atomes réagissent avec la lumière. Celle-ci permet de les exciter ou les désexciter, c'est-à-dire les faire passer dans des niveaux d'énergie plus élevés ou plus bas. Quand on plonge le gaz d'atomes à refroidir dans une lumière très particulière, le laser monochromatique, on peut les exciter de manière très précise L'effet Hall quantique 'effet Hall quantique est la généralisation quantique de l'effet Hall. L'effet Hall, du nom du physicien américain (1855-1938) qui l'a découvert en 1879, est un phénomène physique simple à observer: lorsqu'on soumet un conducteur à un champ magnétique, le champ dévie les électrons et une différence de potentiel apparaît dans la direction perpendiculaire au courant et au champ. La mesure de cette différence de potentiel transverse fournit ce qu'on appelle la résistance de Hall, qui est devenue une caractéristique des matériaux. L À notre échelle, les valeurs de cette résistance en fonction du champ magnétique s'inscrivent sur une droite parfaite. Mais dans le monde quantique, aux très basses températures et lorsque le champ magnétique est très élevé, ces valeurs se regroupent par paliers. C'est l'effet Hall quantique. Notons que ces paliers apparaissent à des valeurs précises de résistance, quel que soit le matériau utilisé. La résistivité de Hall est donnée par h/ne² où e est la charge de l'électron et h la constante de Planck; n prend différentes valeurs qui correspondent aux différents plateaux. C'est ce qui explique la robustesse des paliers, peu importent la géométrie du matériau, la présence ou non d'impuretés, etc. L'effet est dit effet Hall quantique entier lorsque n est un entier, fractionnaire dans le cas contraire. Dans le graphène, l’existence de cônes de Dirac modifie de façon considérable l’effet Hall quantique, ce qui lui vaut l’adjectif anormal dans ce contexte. Athena 254 / Octobre 2009 82 pour les piéger. Avec deux jeux de lasers croisés, il sera possible de créer un réseau, chaque laser piégeant dans une direction. Les particules élémentaires Les premiers travaux effectués dans ce domaine (voici plus de dix ans déjà) ont permis d'étudier avec une grande précision, des systèmesréseaux difficiles à examiner d'une autre façon: les systèmes électroniques, les métaux. Un métal, c'est un réseau d'atomes et d’électrons qui se baladent d'un atome à l'autre. La reproduction de ce système en laboratoire, grâce à des atomes froids piégés en réseau, a permis de mieux comprendre ce qu'est un isolant, un semi-conducteur, et aujourd'hui ce qu'est un supraconducteur. «Pouvoir étudier comment des particules se déplacent sur un réseau avec un système simple, qu'on arrive à manipuler avec une grande précision en laboratoire, a été important, explique Nathan Goldman. Aujourd'hui, beaucoup de propriétés électroniques sont simulées en laboratoire grâce aux systèmes d'atomes froids, notamment les transitions entre phase conductrice et phase isolante.» Depuis 4-5 ans, les physiciens essaient de simuler davantage que des métaux: ils tentent de reproduire la dynamique des particules élémentaires étudiées en physique des hautes énergies. Ce qui nécessite de simuler la présence de champs de jauge non-abéliens sur des particules neutres… Le modèle standard unifie toutes les forces fondamentales sauf la gravitation. Mais il demande encore à être validé d'où, notamment, les expériences qui ont lieu dans le LHC. Il faut confirmer l'existence d'un certain nombre d'ingrédients qui ont été postulés dans le cadre du modèle, et notamment celle des champs de jauge non-abéliens. Le champ magnétique est un cas particulier d'une famille générale de champs, les champs de jauge. Et le champ magnétique est abélien, c'est-à-dire que la structure mathématique sousjacente satisfait à la loi de commutation (ab = ba); les autres types de champs sont nonabéliens. Or dans la théorie qui décrit les quarks, ces particules interagissent les unes avec les autres grâce aux gluons, particules médiatrices qui sont associées à des champs de jauge non-abéliens. Autrement dit, si l'on s'intéresse à la dynamique des quarks et qu'on n'a pas envie d'accélérer des protons et des antiprotons dans d'énormes machines comme le LHC, une alternative consiste à simuler la présence de champs non-abéliens dans un système d'atomes froids ! Les atomes reproduisent alors la dynamique des quarks et simulent ainsi un ingrédient fondamental du modèle Info-Physique standard. La réalisation d'un tel système concrétise l’intuition magistrale du grand physicien Richard Feynman qui avait émis l'idée qu'un jour on simulerait un système quantique avec un autre système quantique plutôt que d'utiliser un ordinateur puissant. La première étape a consisté à simuler l'effet d'un champ magnétique sur des particules neutres. Normal puisque le champ magnétique appartient bien à la grande famille des champs de jauge. L'ennui, c'est qu'il s'agit ici de particules neutres, d'atomes et plus d'électrons comme dans le cas du métal étudié précédemment. L'électron est une particule chargée, donc il est facile de lui appliquer un champ et d'en simuler les effets: ils se mettent à tourner sous l'impulsion de la force dite de Lorentz. Mais des atomes ou des particules neutres peuvent aussi ressentir la présence d'un champ. «Une première réalisation expérimentale a vu le jour cette année, explique Nathan Goldman. Des physiciens ont repéré des signatures de présence de champ magnétique artificiel. Ce n'est pas un vrai champ, c'est un dispositif qui simule la présence d'un champ.» Comment faire croire aux particules qu'elles sont soumises à un champ magnétique ? À nouveau grâce à des lasers, pas ceux qui créent le réseau optique, mais des lasers supplémentaires qui, dans la façon dont ils vont interagir avec les particules, vont les affecter de la même manière qu'un champ magnétique affecte les électrons. Champ de jauge non-abélien Deuxième étape: simuler cette fois un champ de jauge non-abélien. Il a été possible de généraliser les propositions théoriques qui permettaient de simuler un champ magnétique pour simuler des champs non-abéliens dans le système des atomes froids. De cette façon, les atomes froids ne signifient plus des électrons dans un champ électromagnétique, mais ils décrivent des quarks soumis à des champs non-abéliens. Cette simulation a déjà porté ses fruits: on entre ici au cœur même des travaux de Nathan Goldman. Lui et les autres signataires de l'article qui vient d'être publié ont observé que dans une configuration particulière du système d'atomes froids soumis à un champ non-abélien, apparaissent des cônes de Dirac. La présence de ces cônes dans des spectres d'énergie signifie que le système se comporte comme les systèmes de particules décrits par l'équation de Dirac. Schrödinger - les fonctions d'onde qui décrivent les objets quantiques - mais vérifiant en plus les contraintes «imposées» par Einstein dans le cadre de la relativité restreinte. Autrement dit, l'équation de Dirac permet de décrire des particules non seulement quantiques mais aussi relativistes, comme elles le sont par exemple dans les accélérateurs lorsqu'elles atteignent des vitesses très proches de celle de la lumière. «Cette équation est importante, poursuit Nathan Goldman, puisqu'elle décrit le monde des particules. Nous avons pu montrer que dans notre système, les particules a priori décrites par l'équation de Schrödinger, tout d'un coup, rentrent dans un régime où elles sont décrites par des équations de type Dirac. Cela se produit pour une configuration particulière du système. Cela veut dire qu'on dispose en laboratoire d'un système qui reproduit bien la physique relativiste, celle qu'on essaie d'étudier dans les accélérateurs de particules: on peut reproduire la physique de type Dirac avec des atomes froids !». L'équipe de Nathan Goldman a été plus loin encore, modélisant un phénomène particulier dans le graphène: l'effet Hall quantique anormal. Le graphène est ce matériau constitué de feuilles de carbone à deux dimensions qui portent des réseaux hexagonaux. Quand on les replie sur elles-mêmes, on obtient les célèbres nanotubes de carbone. On sait qu'un grand nombre de phénomènes de conduction qui se produisent dans le graphène sont expliqués par des équations de type Dirac. C'est le cas notamment de l'effet Hall quantique anormal (voir encadré de la p. 82). Nathan Goldman a mis en évidence que son système d'atomes froids présentait un effet Hall quantique anormal dans ce type de matériau, effet qu’il étudie sur base de la théorie relativiste sous-jacente. Dès 1928, le physicien anglais Paul Dirac proposait une équation décrivant des particules normalement représentées par les équations de Représentation des cônes de Dirac. Pour en savoir plus: Nathan Goldman, Nonlinear Physics and Statistical Mechanics, campus Plaine - CP 231, ULB - 1050 Bruxelles Téléphone: 02/650.57.97. [email protected] http://homepages. ulb.ac.be/~ngoldman/ Henri DUPUIS [email protected] 83 Athena 254 / Octobre 2009 Internet Répertorier le savoir Nous consacrons énormément de temps à ranger, d'abord parce que le désordre est généralement contre-productif, ensuite parce qu’il a mauvaise réputation. Or, cette bataille permanente est inutile dans le monde digital. Comment change-t-il notre regard sur le classement ? C'est l'objet de la seconde partie de ce dossier (voir Athena n° 253, pp. 25-28) ’endroit où sont stockées les photos digitales contient probablement plus de mille photos prises en quelques années avec un nouvel appareil numérique. Et la situation va inévitablement s'aggraver. Les premiers appareils sont apparus vers 2003 et ont commencé à se répandre dans le monde en 2004. Cette année-là, 150 millions de téléphones portables équipés d'une caméra ont été vendus, soit environ quatre fois le nombre d'appareils photos numériques. Leur coût étant quasi nul, nous sommes tentés de prendre de plus en plus de photos, espérant simplement que l'une d'entre elles sera réussie. L Les photos sont automatiquement affublées d'un nom du genre DSC00426.jpg. Qu’il y ait deux, cinq ou vingt mille photos sur votre disque dur, celle de votre jardin portant la référence DSC00426.jpg est virtuellement perdue car celle-ci ne vous dit évidemment rien et vous ne la retrouverez plus. Neil Armstrong, le premier homme marchant sur la Lune. C’était il y a quaranate ans déjà ! (Photo Nasa). Le nombre de photos numériques - pour ne parler que d'elles - augmente presqu’à notre insu. La technologie nous permettra-t-elle un jour d'identifier automatiquement où a été prise telle photo et qui y figure dessus ? Leur classement deviendra-t-il une activité sociale ? Ce phénomène se développe sur un site de partage de photos comme Flickr (http://www.flickr.com/). Sur ce site «collaboratif», né du Web 2.0, chacun peut déposer ses photos et les taguer (c'est-à-dire y associer des tags, des labels) pour les retrouver plus facilement. De plus, chaque visiteur peut à Athena 254 / Octobre 2009 84 son tour taguer des photos - même si elles ne lui appartiennent pas - et les rassembler dans des albums virtuels. Résoudre le problème de la surabondance des photos ne sera possible qu'en y ajoutant de l'information. En d'autres termes, la solution à ce problème passe par de l'information supplémentaire. Une autre manière de classer Dans le monde physique, nous faisons d'ailleurs la même chose: nous collons des étiquettes sur les bocaux de confiture ou nous surlignons certains passages d'un rapport. Mais ce monde limite le volume d'informations que nous pourrions ajouter: il ne faut pas que l'étiquette masque le dossier sur l'étagère. Et si nous surlignons l'ensemble d’un texte, nous perdons tout le bénéfice du travail. Dans le monde digital, cette limitation disparaît. Notre ordinateur peut contenir plus d'informations décrivant un dossier que d'informations contenues dans ce dossier. Et si un texte numérisé a déjà été surligné par des dizaines de lecteurs, l'ordinateur peut nous dire très facilement quels passages ils ont surligné, à quelle date ou provenant de quel pays. Tout ceci modifie profondément notre manière de classer l'information. Une photo représentant Amandine et Sébastien, jouant au ballon sur la plage de Blankenberge en 1997, avec une planche à voile à l'arrière plan, peut être désormais indifféremment classée selon toute une série de critères: photo des enfants, d'Amandine, de Sébastien, de 1997, de plage, de Blankenberge, de ballon, de planche à voile, mais également taguée par des mots tels que vacances, sports, jeux, etc. Nous pourrons alors demander à l'ordinateur de sortir toutes les photos sur lesquelles figurent les deux enfants, mais uniquement celles qui ont été prises en 1997. Le monde digital permet ainsi de dépasser la règle fondamentale de tout classement dans le monde physique: chaque chose occupe simultanément plusieurs places. Un album photos digi- Internet tal est constitué comme une liste de lecture de morceaux de musique dans un iPod: un simple moyen de récupérer un assemblage particulier d'éléments. Une photo peut se retrouver dans des centaines d'albums pour un coût virtuellement nul. Par contre, le monde physique impose des choix permanents. Si l’on crée un album photos à l'occasion d’un anniversaire de mariage, certaines devront être sélectionnées. Cet album constituera une sorte de référence et entraînera inévitablement un choix dans la mémoire familiale en faisant ressurgir certaines d’entres elles. Le tri dans le monde physique provoque toujours une hiérarchisation des éléments. Mais il serait faux de croire que ces changements n'affectent que notre vie privée. De nombreuses institutions - les bibliothèques nationales par exemple - sont chargées de maintenir un classement dans notre mémoire. La bibliothèque du Congrès, à Washington, aux États-Unis, possède environ 142 millions d'éléments (livres, gravures, documents divers), disposés sur plus de 1 000 km de rayons. Chaque jour, elle reçoit 22 000 nouveaux éléments et en conserve environ 10 000 (http://www.loc.gov/about/facts.html). Les nouveaux livres sont rapidement triés par thèmes et placés dans des caisses envoyées ensuite à 300 ou 400 personnes représentant 80 spécialités, chargées de les examiner un par un et de les classer dans une des 285 000 catégories. Tout cela pour éviter que le savoir s'embrouille... Plusieurs types de rangement Fondée en 1936 par Otto Bettmann (19031998), la Bettmann Archive est une banque de photographies et d'images, certaines remontant à la période de la Guerre de Sécession (18611865) et comprenant des images historiques les plus célèbres de l'histoire des États-Unis, mais aussi provenant du monde entier. En 1981, lorsque Otto Bettmann la vend à la Kraus-Thomson Organization, la collection est composée de 5 millions de photos, tirages, posters, gravures et autres supports graphiques retraçant l'histoire du XXe siècle. En 1990, Kraus-Thomson achète 11,5 millions d'images, la plupart provenant de la United Press International et de Reuters. Nombreuses d'entre elles sont célèbres comme celle de Winston Churchill faisant le V de la victoire, un astronaute sur la Lune, Albert Einstein tirant la langue, ou encore des ouvriers assis sur une poutrelle suspendue dans les airs, Marilyn Monroe retenant sa robe au-dessus d'une bouche de métro. En 1995, les archives sont revendues à Corbis, une banque d'images créée par Bill Gates dans le but de construire une immense photothèque numérique à but commercial (http://fr.wikipedia.org/wiki/Bettmann_Archive). En 2001, Bill Gates loue 90 camions pour transporter la collection de Manhattan vers une grotte calcaire, à une profondeur de 70 m, au centre de la Pennsylvanie où elles seront désormais à l'abri. Les 11 millions de photos et de négatifs sont rangés par ordre chronologique. Dans le premier type de classement sont rangés les objets eux-mêmes, les livres sur des étagères, les photos dans des albums. Mais la Bettmann Archive comporte un second type de classement: dans une pièce attenante se trouve un catalogue de fiches contenant des informations sur chacune des 11 millions de photos. Ce catalogue sépare donc l'information sur l'objet de l'objet lui-même. Les fiches sont rangées par ordre alphabétique et par sujet, permettant par exemple de trouver toutes les photos de soldats. Un code sur chaque fiche du catalogue renvoie vers l'endroit physique où se trouve une photo. Albert Einstein (1879-1955) tirant la langue. Ce type de classement du deuxième ordre fonctionne, mais il coûte extrêmement cher et la recherche est lente. Car c'est précisément là que se situe la faiblesse du second type de classement: toute l'information concernant l'objet n'est pas enregistrée. Imaginons une photo représentant des soldats durant la Guerre de Sécession: ils sont assis devant un feu, prennent leur repas et bavardent. La fiche correspondante comportera certainement les mots-clés «soldats», «guerre civile», mais sans doute pas d’informations sur le lieu où la photo a été prise, ni les mots-clés «repas», «feu de camp», «uniformes», etc. Cela signifie que pour rechercher une photo montrant des soldats de la guerre civile prenant un repas dehors autour d'un feu, il sera nécessaire de passer en revue des milliers de photos. Et si cette information manquante était ajoutée aux fiches, c'est le stockage de celles-ci qui créerait un nouveau problème. La difficulté des deux premiers types de classement est qu'ils rangent des atomes. Ces atomes occupent de l'espace. Une grande collection de photographies oblige à créer un volumineux catalogue pour nous permettre de retrouver une photo bien précise. Et de plus, un élément constitué d'atomes ne peut se trouver qu'à un endroit à la fois. Il faut donc décider où classer la photo «des soldats assis autour du feu». 85 Ceux qui contrôlaient l'organisation de l'information avaient ainsi plus de pouvoir que ceux qui la créaient. Les éditeurs sont plus puissants que les reporters. La façon dont tous les obscurantismes tentent de gérer l'accès au savoir leur permet de disposer du pouvoir de le diffuser ou non. Athena 254 / Octobre 2009 Internet Tout change dans le monde numérique car le contenu des photos est digitalisé sous forme de bits et l'information les concernant également. C'est le troisième type de classement. Le monde digital ignore par exemple la limitation de la taille des étiquettes. Et une librairie en ligne comme Amazon (http://www.amazon.fr) peut ajouter autant d'informations qu'elle le souhaite à un livre: un résumé, une bibliographie, une biographie de l'auteur, des évaluations de lecteurs, des commentaires, etc. Ce classement porte le nom de métadonnées, c'est-à-dire d'informations sur l'information. Ce type de classement d'une collection n'autorise sa consultation que par des experts. Corbis, la banque d'images de Bill Gates, a réalisé un classement du troisième type de la collection Bettmann qui est désormais consultable par tout le monde. Corbis a numérisé toutes les images, les rendant ainsi insensibles au temps qui passe. Rappelons-nous la fameuse «encyclopédie chinoise» citée par Borgès selon laquelle «les animaux se divisent en: a) appartenant à l’Empereur, b) embaumés, c) apprivoisés, d) cochons de lait, e) sirènes, f) fabuleux, g) chiens en liberté, h) inclus dans la présente classification, i) qui s’agitent comme des fous, j) innombrables, k) dessinés avec un pinceau très fin en poils de chameau, l) et cætera, m) qui viennent de casser la cruche, n) qui de loin semblent des mouches». Un regard différent En bons Occidentaux, nous éprouvons une certaine difficulté à comprendre la logique de ce classement qui échappe à tout ce que nous connaissons. Face à une telle hétérogénéité - mais en est-ce réellement une ?-, nous sommes immédiatement enclins à nous demander si l'auteur a utilisé suffisamment d'informations. Si je range dans une même catégorie les grands ducs d'Europe et les baleines, je dois ajouter comme information que tous deux sont des espèces menacées, c'est ce qui les unit. Mais si je les range dans une catégorie «divers» avec les criquets et les sauterelles, je perds ce lien; notons au passage le remarquable projet de répertorisation du monde vivant entrepris par Wikispecies (http://species.wikimedia.org). Ainsi pouvons-nous être légitimement surpris lorsque Linné (voir Athena n° 228, p. 266) classe les animaux en deux catégories aussi déséquilibrées que les vertébrés et les invertébrés. Il divise les vertébrés (40 000 espèces) en quatre sous-catégories et les invertébrés (1 million Athena 254 / Octobre 2009 86 d'espèces) en seulement deux catégories: les insectes et les «vers» (vermes en latin), une sorte de masse indifférenciée où Linné a tout mélangé, les vers de terre et les méduses. C'est Lamarck qui a corrigé la taxinomie de Linné en classant beaucoup plus précisément les «vers». Que chacun classe selon ses besoins. Linné, Lamarck ou un pêcheur à la ligne portent nécessairement un regard différent sur les vers. Pour comprendre un classement, nous avons besoin de métadonnées. Soyons conscients que les limitations physiques du classement des éléments ne se bornent pas qu’à notre vision du monde. Ceux qui contrôlaient l'organisation de l'information avaient ainsi plus de pouvoir que ceux qui la créaient. Les éditeurs sont plus puissants que les reporters. La façon dont tous les obscurantismes tentent de gérer l'accès au savoir leur permet de disposer du pouvoir de le diffuser ou non. C'est vrai dans le premier et le second type de classement. Dans le troisième, c'est beaucoup plus compliqué. On comprend dès lors beaucoup mieux pourquoi certains régimes interdisent l'accès à Internet (Corée du Nord) ou le contrôlent (Cuba, Tunisie, Chine). Les deux premiers types sont une lutte pour le pouvoir car il s'agit d'imposer un choix, il doit y avoir un vainqueur. Le troisième libère le territoire emprisonné dans le classement. Plutôt que de faire entrer des éléments au chausse-pied dans des catégories, il les tague. Ce qui permet à l'utilisateur d'ajouter quelques mots-clés sur un élément (page Web, photo) pour le retrouver plus tard. C'est ce que font les systèmes sociaux de signets (social bookmarking) comme Delicious (http://delicious.com/) ou Diigo (http://www.diigo.com/). Une page sur Namur peut être taguée «Namur», «Namen», «ville», «Wallonie», etc. selon les besoins, la sensibilité et les envies de chaque visiteur. Les anciens systèmes de gestion de signets obligeaient à créer des catégories pour y placer des pages Web qu'on ne retrouvait plus au bout de quelques jours. Gmail - le génial système de messagerie en ligne de Google - a également adopté les tags pour classer les messages. Voilà comment le désordre libère notre travail et d'une certaine manière notre liberté de penser. Christian VANDEN BERGHEN [email protected] http://www.brainsfeed.com/ L’avion polymère La taille d’un Airbus, le poids d’une voiture de tourisme, la puissance d’un scooter. Et, surtout, la force d’une vision: voler jour et nuit sans carburant ni pollution. Un défi suisse… et belge par l’apport technologique du groupe Solvay. Si le projet est futuriste, la plupart des matériaux utilisés existent déjà sur le marché ême s’il a l’envergure d’un A340, le Solar Impulse n’a pas d’ambition commerciale; il ne remplacera jamais nos Airbus et autres Boeing. Le projet n’est pas davantage sportif: le défi n’est pas de signer un nouveau record en faisant le tour du monde avec la seule énergie solaire. En revanche, ses promoteurs - les Suisses Bertrand Piccard et André Borschberg - sont bien décidés à repousser les limites de l'impossible à l’instar, en leur temps, de Blériot ou des frères Wright. Objectif: réaliser en 2012 le tour du monde, en étapes, avec un avion habité, mû uniquement par l’énergie solaire, à l’exclusion de toute autre source d’énergie, sans aucune émission polluante. Premier décollage dans les semaines à venir. M D’emblée, c’est la taille de l’avion qui suscite la fascination: 63,4 mètres ! Soit encore 200 m2 de cellules photovoltaïques - en réalité, 12 000 cellules en place en silicium monocristallin de 130 microns d’épaisseur… C’est gigantesque. Et, en même temps, à peine suffisant pour faire voler l’engin. Wright en 1903 lorsqu’ils ont réalisé le premier vol motorisé. Et c’est avec cette énergie-là, optimisée du panneau solaire à l’hélice par le travail de toute une équipe, que Solar Impulse ambitionne de voler jour et nuit sans carburant ! Le problème, ce sont les batteries. Par nature, elles pèsent lourd. Avec une densité énergétique légèrement supérieure à 200 Wh/kg, la masse d’accumulateurs de type lithium-polymère nécessaire pour un vol de nuit se monte à 400 kg, soit plus du quart de la masse totale de tl’avion. Conséquence: il a fallu réduire le poids du reste de l’avion, optimiser toute la chaîne énergétique et maximiser le rendement aérodynamique par un grand allongement et un profil d’aile conçu pour les basses vitesses, moins gourmandes en énergie. Ces batteries fourniront l’énergie pour voler. Chacune - constituée de 70 accumulateurs et d’un système de gestion contrôlant le seuil de charge et de température - actionne un moteur. Chaque moteur a une puissance de pointe de Quelque 11 628 cellules solaires très exactement recouvrent la surface des ailes de Solar Impulse. Ce sont elles qui produisent l’énergie pour faire voler l’avion de jour… et de nuit. Tout l’enjeu a été de les fixer et de les protéger. Des films plastiques spéciaux à hautes performances ont été utilisés. Optimiser les énergies On s’en doute, la question énergétique conditionne l’ensemble du projet, des dimensions de la structure aux contraintes extrêmes de masse. À midi, chaque m2 de surface terrestre reçoit l’équivalent de 1 000 Watts, soit 1,3 CV de puissance lumineuse. Répartie sur 24 heures, l’énergie du Soleil ne fournit qu’une moyenne de 250 W/m2. Avec 200 m2 de cellules photovoltaïques et 12% de rendement total de la chaîne de propulsion, la puissance moyenne produite par les moteurs de l’avion n’atteint plus que 8 CV ou 6 kW. Les batteries, un quart du poids total, c’est à peu de choses près ce dont disposaient les frères 87 Athena 254 / Octobre 2009 Technologie Oublié le métal, remisé le titane ! S olvay apporte au total 6 000 pièces du Solar Impulse, 12 produits et 15 applications. Dans tous les domaines: pour alléger l’avion, pour accroître son efficience énergétique, pour renforcer l’isolation, pour tester la résistance des pièces… Cette libellule géante, d’une envergure de 63,40 m et d’un poids de 1 600 kg, est mû par quatre moteurs d’une puissance variant entre 4 et 10 CV maximum. Ses batteries représentent à elles seules un quart du poids total. Le stockage de l’énergie a été le plus grand défi. Si la plupart des matériaux utilisés sont déjà commercialisés, certains ont été optimisés. Exemple, l’encapsulation des cellules photovoltaïques. Assemblées par plaques de 3 m², les cellules en silicium monocristallin de l’Américain Sun Power (au rendement de 22%) ont été emprisonnées dans des couches plastiques développées par Solvay. Ce sont elles qui encaissent les déformations. Restait à tester cette solution. La validation s’est déroulée au sol, toujours chez Solvay. Une masse de 5 tonnes a été répartie sur ses ailes pour simuler une accélération de 3g. Alléger les composants Solvay Advanced Polymers possède, à l’échelle mondiale, une gamme unique de matières plastiques à hautes performances, utilisées notamment dans des applications de remplacement des métaux. Ces produits offrant des résistances chimiques en milieu agressif, ou encore ayant des propriétés de frottement remarquables, sans être visibles, sont présents dans la vie courante sous forme de pièces sous capots moteur ou dans l’habitacle, dans nos appareils portables (téléphones, ordinateurs), dans les avions et dans de nombreuses applications de sécurité. Ces matières participent ainsi à la réduction de poids extrêmement importante pour limiter la consommation d’énergie. L’objectif a été de remettre en question l’utilisation du métal, ce qui devait permettre de réduire le poids d’un certain nombre de composants. Plusieurs applications furent détectées et analysées. L’une d’entre elles concerne les coussinets et les manchons entre pièces en mouvement l’une par rapport à l’autre. En aéronautique, on utilise généralement du titane, dont la densité est de 4,5 gr/cm3; avec des matériaux comme le Torlon 4435 ou le Ketaspire KT 820 SL30, on atteint un niveau de densité de 1,59 gr/cm3 pour le premier et 1,45 gr/cm3 pour le second. Le partenariat technologique de Solvay, avec Solar Impulse, qui couvre les domaines de la chimie et des plastiques, se matérialise dans: Athena 254 / Octobre 2009 88 la recherche de solutions et de matériaux optimaux, notamment par la définition de matériaux de structure hybride; la production et/ou sélection de polymères à hautes performances destinés à des applications critiques (joints d’étanchéité, lubrification); les méthodes d’encapsulation et d’assemblage de cellules photovoltaïques avec le matériau de structure sélectionné pour l’avion; la recherche concernant la production et l’utilisation de matériaux photovoltaïques adéquats; la recherche concernant les batteries répondant aux besoins du projet; la sélection de matériaux d’isolation thermique haute performance; la modélisation technique et simulation avec des logiciels adaptés particulièrement aux pièces de grande taille et aux conditions extrêmes et l’évaluation mécanique et des tests de matériaux en conditions extrêmes. Technologie 10 CV et est muni d’un réducteur limitant à 200-400 tours/minute la rotation d’une hélice bipale de 3,5 mètres de diamètre. L’avion doit être capable de voler à des vitesses aussi réduites que 45 km/h (au sol) en vol de nuit où l’économie d’énergie sera vitale, tandis que sa vitesse moyenne de croisière sera de l’ordre de 75 km/h. Si l’énergie solaire est au cœur du projet, le défi a été de gérer et d’optimiser tout à la fois l’énergie lumineuse dans le rayonnement solaire, l’énergie électrique au niveau des cellules photovoltaïques, des batteries et des moteurs, l’énergie chimique dans les batteries, mais aussi l’énergie mécanique via le système de propulsion, l’énergie cinétique lorsque l’avion prend de la vitesse, l’énergie thermique pour toutes les pertes (frottement, échauffement) que l’on cherche à minimiser à tout prix. Une «peau» de cellules Dans un avion, tout est équilibre, tout est compromis. Le Solar Impulse pourrait être plus puissant, mais il serait alors plus lourd. Ses promoteurs l’ont conçu autour d’une ossature en matériaux composites constitués de fibres de carbone et de nids d’abeilles assemblés en sandwich. L’aile est recouverte sur l’intrados (partie inférieure) d’un film flexible et, sur l’extrados (partie supérieure), d’une «peau» composée de cellules solaires encapsulées dans un film en polymère fluoré, appelé à les protéger et à maintenir leur rendement dans les conditions les plus extrêmes rencontrées en vol, sans présenter de dégradations suite à l’exposition aux rayons UV. Quelque 120 nervures en fibres de carbone, réparties tous les 50 cm, profilent ces deux couches pour donner à l’ensemble sa forme aérodynamique. Atteindre 61 m d’envergure pour 1 500 kg tout équipé est un défi jamais réalisé à ce jour en termes de rigidité, de légèreté et de contrôlabilité en vol. L’intégration des cellules solaires encapsulées (fragiles et rigides) sur l’aile qui devra subir des contraintes diverses en torsion et en flexion, a fait l’objet de recherches très longues et approfondies. C’est là que Solvay a fait la différence en proposant, non seulement avec des cellules photovoltaïques, mais aussi en remplaçant, partout où cela était possible, des pièces métalliques à hautes contraintes mécaniques par des ultra-polymères et autres polymères techniques, tels des polyamide-imides (PAI), des polyetheretherkétones (PEEK), des polyphénylènes auto-renforcés (SRP), des polyphénylsulfones (PPSU) ou des polyarylamides (PA MXD6). Ambassadeur du futur De nouvelles cellules solaires offrant un meilleur rapport efficacité-poids, des systèmes intelligents de gestion d'énergie, des matériaux aussi légers que résistants, un système de stockage des plus performants… Les solutions développées pour l'avion solaire trouveront d'autres applications notamment dans la médecine ou dans la construction, où efficacité et fiabilité sont des facteurs déterminants. Solar Impulse est à ce titre une formidable plate-forme éducative, dont l'importance culminera pendant les missions. Lors de chaque vol, à partir de 2010, le pilote et l'équipe seront en contact avec le public. De plus, en faisant une escale sur chaque continent, ils iront à la rencontre des autorités et des populations locales afin de promouvoir les technologies indispensables pour assurer l'avenir énergétique de la planète. Le projet a valeur de symbole. De fait, sur Terre, nous sommes tous dans la situation du pilote de Solar Impulse. Si ce dernier n'a pas les bonnes technologies ou gaspille son énergie, il devra atterrir avant que le lever de soleil ne lui permette de poursuivre son vol. Si nous n'investissons pas dans les moyens scientifiques pour permettre de développer de nouvelles sources d'énergie, nous nous trouverons face à une crise majeure, qui nous empêchera de transmettre la planète à la génération suivante. Un même effort d’optimisation poids-efficacité a été réalisé en matière de matériaux d’isolation, nécessaires pour que le pilote et certains composants tels que batteries et modules électroniques puissent affronter les températures extrêmes (- 40 °C à + 60 °C) en vol, notamment par l’utilisation de gaz fluoré dernière génération pour le moussage de résines PUR. C’est ainsi que toute la face avant du cockpit, protégeant le pilote, est accrochée à la structure et est constituée d’une mousse de résine très légère, peu épaisse, mais présentant cependant des propriétés d’isolation particulièrement élevées. Pour en savoir plus: [email protected] Pour les équipes de Solvay, ce ne fut pas une chasse aux kilos, mais aux grammes. Il était nécessaire d’«aller chercher» ces quelques grammes partout: dans la structure, la chaîne énergétique, l’isolation thermique… Un travail de fourmi, un exercice d’extrême patience qui a débuté en octobre 2004 pour aboutir aujourd’hui. Et tout penser, tout concevoir, tout tester. Jusqu’à la lubrification des pièces mobiles. Un mauvais frottement peut en effet faire perdre 5% d’énergie, ajouter un lubrifiant aurait coûté en poids. Dans Solar Impulse, les composants sont donc autolubrifiants ! Alain de FOOZ [email protected] 89 Athena 254 / Octobre 2009 Technologie Concevoir et développer de nouveaux produits «A travers ce projet, nous lançons un message fort aux scientifiques et à l’industrie: il est urgent de rassembler nos expertises !», explique Claude Michel, Senior Vice President, Head of Solvay / Solar Impulse partnership ourquoi investir dans l’aéronautique ? Un nouveau débouché pour Solvay ? P Oubliez l’avion ! Ce n’est pas lui qui compte; c’est le projet, l’ambition qu’il représente et le message qu’il porte: peut-on imaginer un monde moins dépendant de l’énergie fossile ? L’idée est née lors du tour du monde en ballon de Bertrand Piccard fin des années 90. Pour le réaliser, il a décollé avec 4 tonnes de propane en nacelle; il lui en restait à peine 40 kg à l’atterrissage. Son exploit était donc intimement lié à l’énergie fossile… Demain, les performances devront contribuer à protéger les ressources de la planète et à entrer dans une logique de durabilité. e projet, on ne peut plus ambitieux, est risqué. Pourquoi l’avoir relevé ? Claude Michel, Senior Vice President, Head of Solvay / Solar Impulse partnership. Courriel: claude.michel@ solvay.com Ccontenait, à nosDèsyeuxsond’industriel annonce, Solar Impulse chimiste et pharmacien, les éléments fondamentaux du formidable défi humain qui se dresse devant nous. Nous savons tous que nous allons manquer de pétrole; nous sommes conscients de notre dépendance et, tout autant, de ses conséquences sur l’environnement. Il est urgent de réagir. À travers ce projet, nous lançons un message fort aux scientifiques et à l’industrie: rassemblons nos expertises. otre engagement est concret: apport technologique, ressources humaines, fonds… Attendez-vous un retour sur investissement ? C’est évident. Et ce retour se V matérialisera sous différentes formes. Participer au défi permet au groupe de renforcer son savoir-faire dans les nouveaux matériaux, la plupart dérivés de l’or noir. Le retour sur investissement se concrétise déjà au niveau humain: nos collaborateurs sont particulièrement fiers de participer à ce projet. De fait, par-delà l’exploit de faire voler un avion autour du monde avec la seule énergie solaire, on peut imaginer la conception et la fabrication de nouveaux produits issus du développement durable. L’Histoire se perpétue Toutefois, il ne s’agit pas d’imaginer de nouveaux concepts. Nous voulons montrer que les technologies existantes sont déjà des bonnes solutions à nos problèmes énergétiques et qu’elles sont immédiatement disponibles pour des utilisations à grande échelle. Comme il est quasi impensable que la population accepte de diminuer son niveau de vie, nous devrons développer des équipements efficaces consommant moins et des sources d’énergie alternatives dont, en premier lieu, l’énergie solaire. es liens tissés voici près d’un siècle entre Ernest Solvay, fondateur du groupe, et Auguste Piccard, le grand-père de Bertrand Piccard, ont-ils pesé dans la balance ? Nous L avons tout de suite cru dans le projet de Bertrand comme Ernest Solvay a cru dans les projets de son grand-père. Et nous sommes heureux de prolonger ainsi une amitié qui traverse les générations… S’il est mené en Suisse, et si Bertrand Piccard est Suisse, ce projet est également belge. Pour l’anecdote, Auguste Piccard inspira le professeur Tournesol à Hergé ! Plus sérieusement, il faisait partie de l’Institut international de physique de Solvay; il a maintes fois séjourné à La Hulpe, chez Ernest Solvay, avec Albert Einstein, Pierre et Marie Curie pour ne citer qu’eux. L’Histoire, avec un grand «H», se perpétue. Alain de FOOZ [email protected] Athena 254 / Octobre 2009 90 Technologie La voiture à air comprimé : mythe ou réalité ? Que ferions-nous sans notre voiture ? Synonyme de liberté, nous l'utilisons tous les jours pour aller au travail, effectuer des achats, conduire les enfants à l'école, dire bonjour à la famille, partir en vacances. La voiture, et les transports en général, sont un des points névralgiques d'une société développée. On en compte aujourd'hui un milliard dans le monde es voitures à essence et diesel classiques vivent actuellement leurs dernières années. Tout le monde s'accorde en effet à dire que l'ère du pétrole abondant et bon marché est bientôt révolue. De plus, l'utilisation massive de ce type de transport pollue considérablement l'air que nous respirons et, à plus grande échelle, notre planète entière. Alors quelles solutions pourrions-nous trouver ? Quelle sera la voiture du futur ? L Depuis des dizaines d'années, les scientifiques travaillent avec acharnement sur des nouveaux types de voitures: électriques, à hydrogène, au biocarburant, solaires ou encore au gaz. Il y a un autre type de voiture dont on parle peu: la voiture à air comprimé. Mais cette solution est-elle crédible ? L'utilisation de la détente de l'air comprimé comme force motrice remonte à l'époque du développement des chemins de fer où, dans le cas des réseaux miniers et urbains, il était nécessaire d'éviter les risques et pollutions inhérents à la locomotive à vapeur. Les premières applications pratiques de véhicules à moteur à air comprimé, sur rail, datent du percement de tunnels ferroviaires (1872) et de quelques expérimentations de tramways. ment sur l'application du moteur à air comprimé pour l'automobile. Citons Energine, au Japon, ou MDI (Motor Development International), une société française installée à Carros, près de Nice, et menée par Guy Nègre. Son principe de fonctionnement repose sur de l'air comprimé qui entraîne les pistons du moteur, et donc fait avancer le véhicule. L'idée est venue au départ d'une pratique bien connue en sport automobile, qui consiste à utiliser une injection d'air comprimé dans les cylindres pour faire démarrer un moteur récalcitrant. Le moteur de base fonctionne selon un cycle thermodynamique différent des moteurs actuels à 4 et à 2 temps. Le moteur à air comprimé est un moteur à 5 temps et à 3 chambres séparées: 2 chambres d'aspiration et d'expansion et 1 chambre de compression reliée par un injecteur électronique à deux réserves d'air comprimé de 300 litres à 300 bars. Avec ces 3 chambres, on dispose donc des différentes étapes: aspiration, compression, injection d'air comprimé additionnel, expansion, détente, échappement. L’AIRpod de MDI, première voiture à air comprimée commercialisée. Un moteur à cinq temps Aujourd'hui, l'air comprimé est surtout utilisé dans divers instruments comme les fraises de dentiste, les marteaux burineurs, les boulonneuses, agrafeuses et marteaux, visseuses, tournevis, foreuses et meuleuses pneumatiques, pinces coupantes, etc. La mise en œuvre sur les voitures a fait l'objet de quelques réalisations. Mais le concept semblait avoir été oublié. L'idée revient à la mode. Plusieurs sociétés travaillent actuelle- 91 Athena 254 / Octobre 2009 Technologie Ainsi, par le jeu du piston, le premier cylindre aspire l'air extérieur à travers un filtre et l'envoie dans la chambre de compression où, au même moment, un jet d'air comprimé est introduit. Aussitôt relâché dans le cylindre d'expansion, l'air pousse le deuxième piston qui va actionner la roue du moteur. (1) Selon nos calculs, l’autonomie est plutôt de 135 km à 45 km/h. Prenons l'exemple de la voiture AIRpod proposée par MDI. Elle a un moteur bicylindre, roule à maximum 45 km/h ou 70 km/h selon la version (c'est donc une voiture exclusivement urbaine). Elle offre, selon le constructeur (1), une autonomie de 220 kilomètres grâce à un réservoir en fibres de carbone contenant 200 litres d'air comprimé à une pression de 350 bars. Contrairement à la propulsion électrique qui demande beaucoup de temps pour la recharge, ici 1,5 minute suffit pour recharger le véhicule à l'aide d'un compresseur. Le coût d'un plein (220 km) est estimé à moins de 1 euro. Pour ceux qui n'ont pas de station à proximité, les ingénieurs ont prévu un petit compresseur, monté en série sur la voiture, permettant de la recharger en 4 h chez soi, en la branchant sur une prise électrique. Selon MDI, le prix estimé de la AIRpod serait de 6 000 euros. Consommer moins, polluer moins Pour en savoir plus Michel Wautelet, Damien Duvivier, «Sciences, technologies et société. Guide pratique en 250 questions», troisième édition, De Boeck, Bruxelles, 2009. http://www.mdi.lu http://www.energine. com/e_main.php La voiture à air comprimé est écologique. On n'utilise pas exclusivement de l'air comprimé pour faire rouler le véhicule, mais également l'air extérieur, qui est aspiré, filtré et rejeté. Cette voiture ne pollue pas, mais en plus, elle filtre l'air ambiant ! C’est aussi un véhicule simple, peu coûteux et économique à l'entretien, grâce notamment à la température modérée de fonctionnement du moteur (pas de combustion). Du point de vue de la climatisation, la voiture électrique doit consommer une part importante de son énergie afin de refroidir l'habitacle, alors que la voiture de MDI n'a qu'à récupérer l'air froid qui sort du tuyau d'échappement. Le temps de charge est également très réduit: quelques minutes contre 6 à 8 heures pour les batteries. Ce qui nous amène la question piège, celle que brandissent les adversaires du moteur à air comprimé. «Pourquoi utiliser de l'électricité pour compresser de l'air (avec un rendement assez mauvais) au lieu de prendre cette même électricité pour charger directement des batteries ?». Les supporters du moteur à air comprimé rétorquent que le poids excessif des batteries des voitures électriques vient plomber leurs performances et entraîne une consommation d'énergie plus importante pour une prestation équivalente et ce, malgré leur rendement théoriquement supérieur. Athena 254 / Octobre 2009 92 L'intérêt majeur du moteur à air réside surtout dans la possibilité de remplacer les batteries au lithium dans les véhicules hybrides futurs. Les batteries au lithium sont coûteuses, lourdes et ont un temps de vie limité. Dans le cas de la voiture à air, seul le volume important du réservoir pose problème. On pourrait ainsi avoir une voiture hybride avec un moteur à combustion et un moteur à air comprimé, consommant moins, polluant moins, et sans les désavantages de la batterie au lithium (prix, durée de vie, temps de charge). Des voitures intelligentes De plus, avec les batteries au lithium, certains pensent que nous pourrions passer d'une dépendance au pétrole à une dépendance au lithium. Sur Terre, le lithium n'est pas présent sous sa forme métallique à cause de sa grande réactivité. On le trouve principalement comme impureté dans les sels de métaux alcalins. Bien que très abondant dans la nature (33e élément le plus abondant sur Terre), il n'existe, en concentration permettant une exploitation économiquement rentable, qu'en très peu d'endroits. Le plus grand gisement au monde est le Salar de Uyuni, un désert de sel au sud-ouest de la Bolivie. Ce gisement représente un tiers des ressources mondiales. Demain, les voitures devront être beaucoup plus sobres, et plus optimisées pour un certain type de déplacement. D'où des véhicules différents pour la conduite en ville et sur autoroute. Cela permettra de disposer de voitures mieux adaptées, plus sobres, mais plus intelligentes. Il est possible, on l’a dit, de faire rouler une voiture à l'air comprimé. Les performances sont cependant assez limitées et ne permettent, et ne permettront, que d'avoir un petit véhicule léger et lent, uniquement destiné à une utilisation urbaine ou pour de petits déplacements. La société MDI va d'ailleurs livrer ses premiers AIRPod dans les aéroports parisiens et hollandais. La commercialisation est prévue pour la fin de l'année 2009. Notons que, contrairement à une voiture électrique, la voiture à air fait du bruit. Ce qui n'est pas forcément un désavantage (on l'entend arriver), mais cela limite ce genre de véhicule à une utilisation en extérieur, comme les aéroports. Les petits véhicules électriques seront eux plus appropriés pour les centres commerciaux, par exemple. Damien DUVIVIER [email protected] Michel WAUTELET [email protected] U n défi p o u r l ’ humanité Les dirigeants du monde entier devront parvenir à surmonter leurs divergences d’intérêts pour se rassembler autour d’un projet politique fondé sur un constat scientifique objectif. Parvenir fin 2009 à un nouveau traité intergouvernemental ambitieux pour poursuivre la réduction des émissions de gaz à effet de serre (GES) au-delà du 1er janvier 2013, tel est l’objectif que s’est fixé la Convention des Nations unies sur le réchauffement climatique l semble qu’il y a une énorme bonne volonté en ce sens. La nouvelle administration américaine est favorable à des mesures fortes sur le plan intérieur. La Chine se fixe des objectifs ambitieux en termes d’économie d’énergie et procède déjà à d’importants investissements dans les énergies renouvelables. L’Inde a dressé son propre plan d’action et l’Europe s’est fixé comme objectif d’atteindre en 2020 un niveau d’émission inférieur de 30% à celui de 1990. Ainsi, un peu partout à travers le monde, les engagements se font de plus en plus nombreux. I Les scientifiques et les politiques souhaitent qu’en 2050, après un pic qui devrait être atteint vers 2020, la totalité des émissions de GES de la planète soit inférieure de moitié à ce qu’elle était en 1990. Or les émissions de l’ensemble des pays en voie de développement sont inférieures à celles du monde industrialisé et, à court terme, il serait nécessaire qu’elles restent à la hausse de manière à maintenir la croissance économique et réduire la pauvreté ! Il faut par conséquent qu’en 2050 les pays industrialisés aient baissé leurs émissions d’au moins 80% par rapport à 1990 avec une mise en œuvre des principales mesures en ce sens lors de la prochaine décennie. Instabilité du climat Au cours de son histoire, la Terre a connu plusieurs bouleversements climatiques, les plus importants étant les périodes glaciaires. Cellesci se sont produites par cycles d’environ 100 000 ans séparés par des périodes plus chaudes. L’analyse des carottes de glace prélevées jusqu’à une profondeur de 3 260 mètres en Antarctique a mis en évidence les neuf cycles glaciaires que notre planète a connu au cours des 800 000 dernières années. Or le rythme de ces cycles s’est brutalement modifié il y a 420 000 ans. Si les périodes chaudes les plus récentes sont caractérisées par des températures comparables à celles que nous connaissons actuellement, avant 420 000 ans, elles étaient moins chaudes mais duraient plus longtemps. D’autre part, sur un site situé au Groenland, les chercheurs ont repéré des variations rapides (c’est-à-dire des élévations abruptes de température suivies de lents refroidissements) du climat jusqu’il y a 123 000 ans. Au vu des changements climatiques que nous connaissons aujourd’hui, la compréhension de ces instabilités est un enjeu majeur pour les climatologues. À Neem (North Greenland Eemian Ice Drilling - un projet impliquant 14 pays dont l’Université libre de Bruxelles (ULB) et s’étendant de 2007 à 2011), les scientifiques se sont intéressés à la période interglaciaire dénommée Eémien, un bref répit entre deux glaciations et qui aurait débuté il y a 130 000 ans pour s’achever il y a 93 Voilà l'océan Arctique tel que l'a croqué le satellite ICESat à l'hiver 2008. Les zones les plus pâles sont les couches de glace les plus épaisses (5 mètres) et les plus foncées, celles où la glace est la plus fine (moins d'un mètre). (Photo: Nasa). Dans le titre: l’ouragan Humberto s’enroule au nord des Bermudes le 24 septembre 2001. (Photo: Nasa). Athena 254 / Octobre 2009 Climat Faire parler la glace L’analyse d’une carotte glaciaire repose sur deux éléments principaux: l’eau et l’air. Le dosage isotopique (mesure de la concentration des isotopes d’un élément) de l’hydrogène présent dans l’eau de la glace permet de reconstituer les températures. Il s’agit de déterminer la teneur en deutérium, dont on sait qu’elle est d’autant plus faible que la température qui règne pendant les précipitations est basse. Quant à l’analyse de l’air piégé dans la glace, elle renseigne la composition atmosphérique de l’époque, par exemple la concentration des gaz à effet de serre. 115 000 ans, lors de la dernière glaciation. L’analyse des carottes de glace révèle que dans l’Arctique les températures ont été jusqu’à 5 °C plus élevées qu’aujourd’hui pendant cette période, présentant une situation proche de celle vers laquelle nous semblons nous diriger à cause du réchauffement climatique. Il est donc évident que le climat a toujours subi des variations sous l’influence de facteurs naturels, et ceci bien avant que l’espèce humaine ne commence à utiliser des combustibles fossiles tels que le charbon, le pétrole et le gaz. En effet, de nombreux indices laissent à penser que l’activité solaire a une incidence sur le climat de la planète, outre le fait indiscutable que le Soleil est la source de la quasi-totalité de l’énergie présente sur Terre. Qui est responsable ? La chasse aux six gaz C e sont des gaz dont la particularité est d’être transparents à la lumière visible mais opaques pour une majeure partie du rayonnement infrarouge émis par la Terre. Le taux d’absorption dépend du gaz considéré en raison de la structure électronique des molécules qui le composent. Les GES visés par le protocole de Kyoto (émis par les activités humaines) sont: le dioxyde de carbone (CO2), d’une durée de vie de 5 à 200 ans, principal responsable du réchauffement climatique (70%) est le résultat de la combustion des énergies fossiles (pétrole, charbon) et de la biomasse; le protoxyde d’azote (N²0), d’une durée de vie de 114 ans, responsable pour 14% du réchauffement, produit des activités agricoles, de la combustion de la biomasse et des produits chimiques comme l’acide nitrique; le méthane (CH4), pour 12%, produit par l’agriculture (rizières et élevage), la production et la distribution de gaz et de pétrole, l’extraction du charbon et les décharges publiques; les gaz fluorés (hydrofluorocarbures, perfluorocarbures et hexafluorure de soufre) pour 4% proviennent des systèmes de réfrigération et sont employés dans les aérosols et les mousses isolantes ainsi que dans l’industrie des semi-conducteurs. Les gaz fluorés ont un pouvoir de réchauffement 1 300 à 24 000 fois supérieur à celui du dioxyde de carbone et une très longue durée de vie. C’est pourquoi ils représentent un réel danger malgré leur modeste part dans les émissions totales de GES. La part relative des activités humaines dans les émissions de GES en Europe est (environ): pour le transport (27%), l’Industrie (21%), le bâtiment (20%), l’agriculture (16%), l’énergie (13%) et les déchets (4%). Breaking the deadlock (Sortir de l'impasse) Ce projet, initié par l’ancien premier ministre britannique Tony Blair, vise à mobiliser toutes les parties prenantes face au problème climatique. «Il est possible de parvenir à 70% des réductions prévues pour 2020, estime Tony Blair, en investissant dans trois domaines: l’augmentation du rendement énergétique, la réduction de la déforestation et l’utilisation de sources d’énergie à faible émission de carbone.» Athena 254 / Octobre 2009 94 L’activité solaire (voir Athena n° 253, pp. 8 et 9) fluctue en fonction d’un cycle d’une durée approximative de 11 ans et le nombre de taches solaires permet de se situer au sein de ce cycle (nous sommes actuellement dans un minimum) qui a vraisemblablement un effet sur le climat de la planète. Cet effet semble toutefois relativement limité si on le compare à celui des gaz à effet de serre anthropiques. Les scientifiques pensent qu’à l’ère préhistorique de violentes éruptions volcaniques ou d’autres incidents géologiques sont la cause de sérieux effets sur le climat. Ils en prennent pour preuve l’éruption du Pinatubo en 1991 qui a été d’une telle puissance que l’on a enregistré au cours des deux années suivantes une chute mesurable de la température moyenne à la surface de la Terre. Cette baisse s’explique par la projection d’une énorme quantité de particules solides dans l’atmosphère durant l’éruption, qui ont eu un effet refroidissant. Et il y a ces gaz à effet de serre ! L’effet de serre est un phénomène naturel qui contribue à retenir la chaleur émise par la surface terrestre. À l’heure actuelle, la température moyenne à la surface de la Terre est d’environ 14 °C mais sans l’effet de serre, elle serait d’environ -19 °C. Différents gaz présents dans l’atmosphère terrestre contribuent à ce phénomène, le principal étant la vapeur d’eau suivie par le CO2. La teneur atmosphérique en GES, notamment en CO2, et ses conséquences sur le climat font l’objet de débats car l’accroissement des concentrations de GES dans l’atmosphère a été considérable depuis environ 250 ans et plus particulièrement au cours des 50 dernières années. Climat À l’heure actuelle, les concentrations atmosphériques de CO2 sont d’environ 385 ppm (parties par million). Avant l’ère industrielle, la concentration était d’environ 280 ppm. Des analyses de bulles d’air emprisonnées dans les glaces antarctiques montrent que les concentrations de CO2 sont bien plus élevées aujourd’hui qu’elles ne l’ont jamais été pendant les 650 000 années écoulées. Des faits récents Les dernières recherches Ces dernières années, les recherches sur le climat adhèrent dans leur quasi-totalité aux conclusions du dernier rapport de synthèse du GIEC (Groupe d'experts intergouvernemental sur l'évolution du climat). Ses conclusions montrent que le réchauffement planétaire est une réalité et que le facteur le plus important y contribuant est l’émission de GES induite par les activités humaines. L’un des exemples allant dans ce sens est la fonte des glaces de l’océan Arctique, produite ces dernières années à un rythme beaucoup plus rapide que ce qu’avait prévu le dernier rapport de synthèse du GIEC. Il en va de même de la quantité de glace ayant fondu dans l’inlandsis groenlandais. La concentration en CO2 atteignait au mois de mai 2009 le sommet de 390 ppm (partie par million) alors qu’en 1958 à Mauna Loa (Hawaï) elle n’était encore que de 316 ppm. Cette valeur est la plus élevée relevée depuis les dernières deux millions d’années. 2008 figure parmi les dix années les plus chaudes observées depuis le début des observations en 1850: en deuxième place derrière 2007 ! La température moyenne annuelle est de 0,49 °C plus élevée que la température moyenne du XXe siècle. L’étendue des glaces de l’Arctique (entre la Russie et le Canada) a atteint, à une année près (2007), leur minimum d’extension depuis le début des observations par satellite en 1979. Au cours de la saison 2008 les ouragans furent particulièrement dévastateurs. Entre janvier 2009 et août 2009, les États-Unis enregistrèrent 1 489 tornades, un record depuis le début des relevés en 1953. Jamais la fonte des glaciers ne fut aussi importante en volume et, au rythme actuel, la majorité d’entre eux aura disparu pour la fin du XXIe siècle. Chaque année plus de 13 millions d’hectares de forêt disparaissent, soit l’équivalent de 1 400 terrains de foot chaque… heure. Et malgré les efforts de reboisement, 7 millions d’hectares sont perdus. Depuis 2000 le niveau moyen de la surface des mers s’est élevé en moyenne de 3 mm par an. Selon une projection de l’IPCC, cette élévation devrait atteindre 80 cm entre 2000 et 2100. Entre 20 et 30% de toutes les espèces végétales et animales risquent de disparaître si la température moyenne de la Terre devait augmenter de 1 à 2 °C. Un exemple est le «budget carbone mondial» compilé chaque année par l’organisation Global Carbon Project. Ce budget récapitule la quantité de GES émise durant l’année et la quantité absorbée par la mer (voir Athena n° 253, pp. 36-37) ou disparaissant de l’atmosphère par d’autres moyens. Une autre tendance pousse de plus en plus la recherche sur le climat à empiéter sur des domaines autres que les sciences naturelles, la technologie et l’économie. Alors que le réchauffement climatique se trouve désormais au cœur des débats politiques et économiques dans le monde entier, les sciences sociales et humaines commencent de plus en plus à se pencher sur les conséquences du changement climatique sur l’homme et la société. Le rapport présenté à l’issue de la réunion de L’Aquila montre qu’il est possible de parvenir à des réductions drastiques déjà à l’horizon 2020 si nous concentrons notre action sur certaines technologies-clés, si nous mettons en œuvre des mesures dont l’efficacité est avérée et si nous investissons dès maintenant dans le développement de technologies du futur qui nécessiteront du temps pour parvenir à maturité. Il est clair que ces mesures (ou une partie) sont déjà appliquées avec succès dans plusieurs pays un peu partout dans le monde mais il est indispensable de leur donner de l’envergure et, dans la perspective de la réunion de Copenhague, des initiatives d’investissement devront être étudiées afin d’en récolter les bénéfices au moment opportun. Depuis des années, on a voulu, à juste titre, persuader la population d’avoir la volonté de réagir face au réchauffement climatique. C'estseulement en combinant la volonté populaire et celle des dirigeants que l'on réussira. Heureusement il existe une solution - elle constitue un énorme défi, mais elle est réalisable. La multiplication des situations extrêmes inquiète les climatologues: pics de pollution, tempêtes, cyclones, orages et inondations atteignent parfois une violence inattendue. (Photo Lamiot). Paul DEVUYST 95 Athena 254 / Octobre 2009 Le ciel depuis la Terre en novembre 2009 16 novembre. À 19h14, nouvelle Lune. Les heures indiquées sont celles d’Uccle exprimées en temps officiel pour les manifestations du mois et en temps universel (TU), soit une heure de moins pour les événements astronomiques. 17 novembre. À 12h21, Mercure est à l’aphélie (distance maximale au Soleil) soit à 0,46670 unité astronomique (1 unité astronomique = 149 597 870 km). Les jours décroissent de 1 heure 20 minutes du 31 octobre au 30 novembre. 20 novembre. Après le coucher du Soleil, l’étoile variable 2 novembre. À 21h14, pleine Lune. Mira (constellation de la Baleine) sera visible à l’œil nu juste au-dessus de l’horizon. 7 novembre. À 07h24, la Lune est au périgée (distance minimale à la Terre), soit à 368 903 km. 22 novembre. À 20h06, la Lune est à l’apogée (distance maximale à la Terre), soit à 404 733 km. 9 novembre. À 15h56, dernier quartier de Lune. 10 novembre. À 10h37, Mercure est à l’apogée (distance 23 novembre. Juste avant le coucher du Soleil, Jupiter sera visible à 3° du croissant lunaire. minimale à la Terre), soit à 1,44544 unité astronomique (1 unité astronomique = 149 597 870 km). 24 novembre. À 21h39, premier quartier de Lune. Il y a 150 ans, Darwin publie «Sur l’origine des espèces», ouvrage dans lequel il explique le mécanisme présidant, selon lui, à l'évolution graduelle des espèces vivantes dans la nature. Il est aujourd’hui considéré comme le fondateur de la théorie de l'évolution. 11 novembre 1572, Tycho Brahé (1546-1601), astronome danois, aperçoit dans la constellation Cassiopée une étoile temporaire (une supernova) qui devint aussi brillante que Vénus et qu’il put observer pendant 17 mois. 15 novembre. Vénus sera observable juste au-dessus de l’horizon, à 7° à gauche du fin croissant lunaire. Paul DEVUYST À voir ou à écouter en Wallonie Du 17 au 19 novembre, la Terre traversera l’essaim de poussières associé à la comète périodique 55P/Tempel-Tuttle. Ces étoiles filantes se situent dans la constellation du Lion et ont été baptisées Léonides. (Photo Nasa). Athena 254 / Octobre 2009 96 16 novembre, à 20h00, conférence sur Le fond cosmique micro-onde: une fenêtre vers l’Univers primordial, donnée par Ruth Durrer, de l’Université de Genève, auditoire Adam Smith, Facultés Notre-Dame de la Paix (FUNDP), rempart de la Vierge, 8 à 5000 Namur. http://perso.fundp.ac.be/~alemaitr/IYA2009/ 18 novembre, à 20h, conférence sur Énergie noire et matière sombre, donnée par Jean-Michel Alimi, directeur du laboratoire Univers et théories, de l’Observatoire de Paris-Meudon, aux grands amphithéâtres de l’Université de Mons-Hainaut, avenue du Champ de Mars, à Mons. http://olympus.umh.ac.be 30 novembre, conférence donnée par Sophie Van Eck de l’Université libre de Bruxelles sur Les étoiles au plomb, auditoire Adam Smith, FUNDP, rempart de la Vierge, 8 à 5000 Namur. http://perso.fundp.ac.be/~alemaitr/IYA2009/ Astronomie Pour la première fois, un robot a pris des photos des traces laissées il y a quarante ans par les missions Apollo : ce ne sont pas les pas de Neil Armstrong que l'on peut voir, mais les étages les plus bas des modules de descente. En juillet, notez qu'une vente aux enchères organisée par la Nasa, a permis au public fortuné d'acquérir des souvenirs de ces missions historiques... (Photo Nasa). À la Une du... Cosmos À gauche: un des plus grands télescopes au monde vient d'être inauguré: le GTC (Gran Telescopio Canarias). Il a coûté 130 millions d'euros, soit moins de la moitié du coût du stade «Allianz Arena» de Munich dont la construction a employé plus de 1 000 personnes depuis 1987. (Photo Zyance). À droite: quinze ans après l'impact de la comète Shoemaker-Levy 9, un autre objet vient de rentrer en collision avec la planète géante, y créant des taches sombres comme son prédécesseur. Il faut souligner que cette découverte a été faite non par un professionnel mais bien par un astronome amateur australien ! Comme par jalousie, Vénus s'est parée presque en même temps d'une tache brillante, d'origine encore inconnue (nuages ? éruption volcanique ?). (Photo Gemini). L'étoile Bételgeuse dans Orion a été observée en détails par les grands télescopes européens: si sa taille énorme était déjà connue (l'étoilepourrait remplir l'orbite de Jupiter !), les nouvelles données montrent la présence de gigantesques plumes de gaz, certaines aussi grandes que le système solaire tout entier. Ces structures seraient liées à des mouvements dans l'atmosphère de l'étoile. (Photo Eso). 97 Au mois de juillet, les observateurs attentifs ont pu remarquer de nombreux nuages noctulescents ou noctiluques, des nuages brillants apparaissant au crépuscule. Certains seraient associés aux lancers de navettes spatiales - ou plus précisément à la vapeur d'eau émise lors du lancement... Comme on en a vu beaucoup en 1908, après l'impact de Tungunska, cela renforce l'idée que le bolide de 1908 était une comète. (Photo Mika Yrjölä/licence Creative Commons). Yaël NAZÉ [email protected] Athena 254 / Octobre 2009 Espions a u tour de la Terre Plus question de dissimuler une piscine ou un cabanon aux administrations du cadastre et de l'urbanisme. Impossible de continuer l'exploitation d'une terre qui devait être mise en friche suite à des subventions européennes. On peut désormais suivre les déplacements des véhicules, surveiller les prisonniers en congé pénitentiaire, retrouver des malades égarés ou des navires piratés. Depuis l'espace, les satellites prennent des images détaillées, captent et localisent des signaux. Leurs observations et leur écoute permettent ainsi d'améliorer la sécurité de tous. Mais en même temps, l'intimité de chacun est mise à mal. De là-haut, vous êtes espionnés sans le savoir ! omment cet espionnage de nos faits et gestes a-t-il commencé ? Depuis les années 60, notre planète est en permanence auscultée par des satellites dont les performances n'ont cessé de s'améliorer. Le premier à avoir été «espionné» est le temps (météorologique). Chaque jour, le téléspectateur a droit à des images animées à l'échelle du continent. Les Meteosat, réalisés par l'industrie européenne et exploités par Eumetsat (organisation intergouvernementale dont sont membres 30 États d'Europe), donnent tous les quarts d'heure une vue en plusieurs couleurs (images multispectrales) de tout un hémisphère depuis 35 800 km d'altitude, complétés par les observations et sondages du satellite Metop qui survole le globe sur une orbite quasi-polaire. Les satellites météo permettent ainsi le suivi des pollutions, feux de forêts, inondations… C (1) Le 8 octobre, la société américaine DigitalGlobe prévoyait de lancer de Californie son satellite WorldView-2 capable de voir des détails de 46 cm partout sur le globe. Lors de la guerre froide, les militaires américains et soviétiques, avaient bien compris l'importance des satellites pour s'épier mutuellement. Les systèmes spatiaux se sont révélés des outils efficaces d'informations, d'observations, de surveillances, d'écoutes. Sur orbite, de puissants télescopes, de grandes antennes servent à prévenir les crises, à intervenir dans des situations d'urgence, à aider les troupes sur le terrain… La France a d'ailleurs déployé des satellites d'espionnage optique, tandis que Athena 254 / Octobre 2009 98 l'Allemagne et l'Italie exploitent secrètement des constellations de satellites-radars. es sociétés privées sont-elles capables de tout observer et tout surveiller grâce à des satellites ? Les récents satellites commerciaux d'observation développés par des sociétés privées aux États-Unis (DigitalGlobe (1), GeoEye), en Israël (Imagesat), en Inde (Antrix), prennent des images ayant une résolution de moins d'un mètre au sol. À condition que le ciel soit dégagé, certains peuvent déjà distinguer des éléments d'un demimètre ! Des radars sur orbite - les TerraSAR-X d'Infoterra et Cosmo-SkyMed d'e-Geos - sont même capables de voir la surface terrestre durant la nuit et à travers les nuages, avec une précision métrique. Ils permettent aussi d'étudier des zones polluées sur les océans et le long des côtes, et d'identifier les pollueurs. Mieux, le traitement de leurs signaux parvient à déterminer la vitesse des véhicules sur les autoroutes ! D usqu'où peut-on mettre en question le respect de la vie privée ? L'emploi des satellites pose un sérieux problème d'éthique, lié aux aspects personnels d'intimité et de confidentialité. Des images Google Earth de la ville de La Haye, aux Pays-Bas, réalisées depuis l'espace, ont par exemple «dévoilé» des personnes qui pratiquaient le naturisme sur la plate-forme d'un immeuble… Les instances du Pentagone, pour des raisons de sûreté militaire, ont exigé que les prises de vues ultra-précises des observatoires américains soient dégradées jusqu'au demimètre de résolution. Par ailleurs, des satellites d'écoute parviennent à intercepter les communications et à collecter des signaux d'identification. Si cette technologie est intéressante à bien des égards, elle pose la question de la vie privée. À l'heure actuelle, aucune législation ni juridiction internationale n'est en mesure de contrecarrer le phénomène Big Brother, symbole de l'État policier qui veut tout connaître sur ses citoyens. J L a plus-value de l'imagerie spatiale e 10 septembre, dans le cadre de sa World Satellite Business Week, à Paris, la société d'analyse des marchés spatiaux Euroconsult organisait son premier symposium sur le business de l'observation de la Terre. C'était l'occasion d'un échange d'informations entre les constructeurs, les opérateurs, les utilisateurs des satellites de télédétection, les distributeurs de produits et services à valeur ajoutée. «Le secteur de l'observation par satellites est en train de connaître une métamorphose avec une croissance des ventes commerciales de données qui est de 16% par année et qui va dépasser les 2,5 milliards d'euros dans dix ans», constate le président-directeur général, Pacôme Revillon. Déjà cette année, le chiffre d'affaires du marché de la télédétection spatiale devrait atteindre les 550 millions d'euros. L La Wallonie en bonne position Le nombre des satellites d'observation va augmenter de façon substantielle. Alors que 101 satellites ont été mis en service par 24 opérateurs publics et privés entre 1999 et 2008, on peut s'attendre à ce que 206 soient lancés par 34 opérateurs au cours de la prochaine décennie. Cet essor de l'imagerie spatiale s'explique par le fait que le coût du satellite de télédétection placé sur orbite sera moins élevé, passant de 115 à 65 millions d'euros. Les pays à l'économie émergente souhaitent d'ailleurs se mettre aussi à la mode des systèmes spatiaux: ils s'équipent de petits satellites optiques pour assurer la gestion de leurs ressources et pour garantir la sécurité de leur territoire. En Europe, 5 teams industriels proposent à l'exportation de tels satellites: Astrium Satellites, pour la France, Thales Alenia Space/Telespazio, pour l’Italie/France, Surrey Satellite Technology Ltd, pour le Royaume-Uni, Ohb-System, pour l’Allemagne et Verhaert Space/Spacebel, pour la Belgique. Dans les dix prochaines années, il y aura, en Europe, une cinquantaine de satellites opérationnels d'observation. L'Union européenne, en entreprenant le «système des systèmes» Gmes (Global Monitoring for Environment and Security), a décidé de miser sur les observatoires spatiaux - avec la famille des Sentinel de l'Esa et d'Eumetsat - afin d'assurer un suivi durable de l'environnement et de la sécurité de notre planète. L’Europe veut aller de l'avant avec le projet Musis (Multinational Spacebased Imaging System) et ses satellites optiques et radars pour effectuer des observations à très haute résolution (de l'ordre de la dizaine de cm). Ils seront lancés à partir de 2015. La Belgique, intéressée par les images dans le cadre de ses opérations militaires, a octroyé 140 millions d'euros aux chercheurs et aux industriels. L’imagerie spatiale connaît aussi un beau succès auprès du grand public. Les fournisseurs de services Internet - tels Google Earth et Microsoft Virtual Earth 3D - proposent l'accès à des vues et cartes résultant de la photographie aérienne et des observations, de plus en plus précises, depuis l'espace. On demande que les banques de données de télédétection soient mises à jour rapidement et disponibles facilement par le biais de logiciels d'interconnexion, dans le cadre de systèmes de géo-information. Le satellite permet, grâce au traitement 3D de ses images, d'étudier le relief. Ici, la région montagneuse du Tibet avec la ville de Lhassa. (Doc. Spot Image). L'Europe compte une demi-douzaine d'opérateurs de satellites d'observation: l'organisation intergouvernementale Eumetsat (météorologie), les sociétés Astrium Services (et ses filiales Spot Image pour les satellites optiques et Infoterra pour les satellites radar), Dmcii (Disaster Monitoring Constellation International Imaging), Rapid-Eye (suivi optique de la végétation), e-Geos (satellites radar). En Wallonie, avec la collaboration d'équipes scientifiques des Universités de Liège et de Louvain-la-Neuve, des sociétés ont développé des compétences, reconnues sur le plan international, dans le traitement de l'imagerie spatiale: KeyObs (Liège), Image Consult (Namur) et Walphot (Namur). Au sein du groupe Erdas, Ionic Software (Liège) réalise des outils informatiques performants qui permettent aux banques de données de dialoguer entre elles avec beaucoup de flexibilité. Théo PIRARD 99 Athena 254 / Octobre 2009 Espace En bref... En bref... Frank De Winne a commencé à tester l'expérience Foam Stability de l’ULg, apportée par la navette Discovery en septembre. (Photo Esa/Nasa). À Fun bord de l'Iss (International Space Station), ensemble de 305 tonnes à 350 km autour de rank De Winne sur orbite : pilote et professeur. belge est le premier commandant de bord, nonaméricain et non-russe, de la station. la Terre, Frank De Winne, très actif, tant pour les tâches de maintenance que pour les expériences scientifiques et technologiques trouve encore le temps de rapprocher le monde de l'espace de la communauté éducative et du grand public. Il établit chaque semaine des contacts «en direct» avec les étudiants et les jeunes grâce au réseau des radioamateurs: c'est le groupe de travail Ariss (Amateur Radio on the International Space Station), animé en Europe par le dynamique octogénaire Gaston Bertels, qui veille à établir l'agenda et à organiser les liaisons avec la station. Il se veut pédagogue via des transmissions vidéo: il réalise en microgravité des leçons d'enseignants pour des classes d'élèves du secondaire. bien placés pour des révélations sur l'Univers. Lancés avec succès H par une Ariane 5-ECA le 14 mai dernier, les erschel et Planck satellites scientifiques Herschel et Planck sont arrivés à destination, chacun suivant sa trajectoire. Les premiers résultats de Herschel (images de phénomènes célestes dans l'infrarouge) et de Planck (mesures du bruit de fond cosmique) se révèlent très prometteurs. On peut s'attendre à ce que le traitement de leurs données se traduise par une autre vision de l'infiniment grand, depuis ses origines jusqu'à son devenir. Pour rappel, les deux observatoires de l'Esa ont été testés à des températures proches du zéro absolu, par le Csl (Centre spatial de Liège) avec le support technique de l'entreprise liégeoise Amos. «made in Belgium» sera lancé le 2 Lfabrication novembre. Le second satellite européen de belge est arrivé sur le cosmodrome e Proba-2 russe de Plesetsk pour son lancement avec une fusée Rockot. La mission Proba-2, dont le maître d'œuvre est Verhaert Space, près d'Anvers, est principalement financée par le Service fédéral belge de la Politique scientifique (Belspo). Le logiciel de bord et le centre de contrôle à la station Esa, de Redu sont quant à eux réalisés par Spacebel. Ces deux grandes expériences scientifiques - observations du Soleil et recherches de «météo spatiale» - sont dues au Centre spatial de Liège et à l'Observatoire royal de Belgique, pour un coût de quelque 18 millions d'euros auxquels il faut ajouter les frais de lancement et des opérations sur orbite. Le 2 octobre, l'Iss devait recevoir l'équipage du Soyouz TMA-16 comprenant deux membres de l'expédition 21 de longue durée, ainsi que l'artiste québécois Guy Laliberté, pour effectuer un vol spatial de dix jours. À bord, sous le siège d'un cosmonaute, se trouvaient les cinq plaquettes de l'expérience liégeoise Foam Stability (étude du comportement des mousses en impesanteur). Depuis le 11 octobre, l'astronaute Athena 254 / Octobre 2009 100 Proba-2, de 130 kg, tire parti de l'expérience acquise durant huit années avec Proba-1, qui continue de prendre des images de la surface terrestre. La miniaturisation est au cœur de ce modèle de microsatellite compact qui a les dimensions d'une machine à laver avec un volume de moins d'1 m³. Il fait partie des plus petits satellites lancés à ce jour par l'Agence spatiale européenne. Ses dimensions réduites contribuent à diminuer la complexité et le coût. Espace Et on peut tirer parti de possibilités bon marché de lancement «sur les épaules» en compagnie d'un satellite plus important. Fruit de l'engagement de l'Esa à stimuler l'innovation technologique, Proba-2 servira également de banc d'essais pour de nouvelles technologies (17 au total) en vue d'autres missions dans l'espace. sur l'orbite géostationLla télévision naire. L'essor des télécommunications et de par satellite ne laisse pas indiffées trois prochains pays rents les pays qui veulent garantir leur développement jusque dans l'espace. En 2008, le Vietnam (avec Vinasat-1 de fabrication américaine) et le Venezuela (avec Venesat-1 fourni par la Chine) ont mis en service un satellite sur leur position géostationnaire (à quelques 35 800 km au-dessus de l'Équateur). Dans les trois prochaines années, trois nouveaux pays feront de même: l'Angola avec Angosat-1 commandé à la Russie, l'Ukraine avec Libid-1 réalisé avec le soutien du Canada, et l'Azerbaïdjan avec Azersat-1, de fabrication américaine. Cet P été, une vidéo sur YouTube ( ) a présenté le lancement rale de Lausanne). Ils n'ont pas voulu attendre le vol inaugural (prévu fin 2010) du lanceur européen Vega pour placer autour de la Terre leur premier Cubesat, baptisé SwissCube (la photo). Ce nanosatellite de 1 kg, destiné à des observations de l'horizon atmosphérique, lancé par la fusée indienne Pslv-C14. etit pas de travers pour le Congo spatial. http://www.youtube.com discret de la fusée congolaise Troposphère V, qui a eu lieu le 29 mars dernier devant un parterre de personnalités, dont Joseph Litityo Afata, ministre de la recherche scientifique de la République démocratique du Congo. Les médias congolais ont salué ce retour du pays aux affaires spatiales, après la tentative avortée des fusées modulaires à liquides du projet privé allemand Otrag dans les années 70. Ils ont parlé de grand succès pour la fusée à poudre de 560 kg baptisée Soso pembe (Coq blanc): cette fusée à deux étages - le 1er étage combinant quatre pains de poudre explosive pour une poussée de 7 tonnes - était la troisième lancée par la société Dta (Développement tous azimuts). Avec le rat Kavira enfermé dans sa coiffe récupérable, elle devait monter à une altitude de 36 km et atteindre trois fois la vitesse du son ! Le reportage TV, réalisé par la chaîne InfôAfrique, montrait les préparatifs avec des outils modestes, le rudimentaire centre de contrôle, puis un brillant feu d'artifice en guise de lancement… la Suisse est en orbite. La A Confédération Helvétique avait déjà un premier astronaute (Claude Nicollier), mais pas vec SwissCube-1, a Nasa… grippée ! Il y a quarante ans, la Nasa Ltion)(National Aeronautics & Space Administrabrillait par son dynamisme, en ayant réussi les premiers pas sur la Lune. Dans les années 60, à une époque où il n'y avait ni portables ni Internet, il fallut 98 mois, à partir de la déclaration - le 25 mai 1961 - du président Kennedy, pour tenir le pari du programme Apollo ! En 2009, la Nasa a plutôt grise mine. Cette agence s'est lourdement bureaucratisée et s'essouflle à rendre des comptes aux politiciens sur lesquels les industriels exercent des pressions. Elle est atteinte du mal de l'indécision et de l'incertitude pour son programme d'exploration de l'espace avec des engins automatiques et des vaisseaux habités. Luxspace pour le suivi du trafic maritime. Le fabricant luxembourgeois de systèmes spatiaux est en train de tester l'identification des navires depuis l'espace grâce à des équipements sur micro-satellites et à bord de la station spatiale. C'est un mal contagieux qui guette ses partenaires dans l'exploitation de la Station spatiale internationale (ISS): la Russie, le Canada, l'Europe, avec l'Esa (Agence spatiale Européenne), l'Asi (Agenzia Spaziale Italiana) ainsi que le Japon risquent, à force de s'interroger sur la suite qu'il convient de donner au programme, d'être touchés par une sinistre pandémie appelée léthargie. encore de satellite dans l'espace. C'est chose faite depuis le 23 septembre grâce à l'équipe d'étudiants de l'Epfl (École polytechnique fédé- Théo PIRARD [email protected] 101 Athena 254 / Octobre 2009 Espace Prolifération des centres spatiaux L a construction de satellites n'est plus l'apanage des grands ! Suivant l'exemple de l'Algérie et son programme Alsat, la Turquie, les Émirats Arabes Unis et le Kazakhstan affichent leurs ambitions dans le développement, sur leur territoire, de satellites de petite taille pour des missions gouvernementales. La Corée du Sud a de grandes ambitions spatiales pour sa microélectronique et sa robotique. Elle s'est dotée, avec le Naro Space Center, (près de Goehung) d'une installation de préparation, d'intégration et de lancement pour petits satellites (Photo KARI). La Turquie est en train de se doter, à Ankara, d'un centre de développement de satellites de télécommunications Türksat et d'observation Goktürk. Elle entend se doter d'une industrie nationale des systèmes spatiaux qui sera capable de tester et d'intégrer des satellites dès 2015. Dubaï, dans les Émirats Arabes Unis et le Kazakhstan, en Asie centrale, ont décidé d'avoir eux aussi leurs propres installations, y compris des simulateurs d'environnement spatial, destinés à la conception et à la réalisation de systèmes spatiaux. À Dubaï, l'Eiast (Emirates Institution for Advanced Science and Technology) veut se positionner dans la fabrication de petits satellites sur mesure. Dubaisat-1, premier minisatellite destiné à de l'imagerie de haute résolution, a été fourni par l'entreprise sud-coréenne Satrec Initiative. Il a été mis en orbite le 29 juillet dernier par un lanceur russe Dnepr à partir de Baïkonour. Dubaï s'est également doté d'une station de contrôle, d'un centre de réception et de traitement des images. Pour développer Dubaisat-2, qui sera le premier d'une famille de satellites compacts de 200 kg, l'Eiast s'équipera d'installations d'essais et d'intégration. Le Kazakhstan est une terre historique pour l'astronautique. C'est là que se trouve son berceau, le cosmodrome de Baïkonour qui a permis, à l'heure soviétique, de lancer les premiers Spoutniks (des sondes d'exploration de la Lune, Vénus et Mars), ainsi que les vols spatiaux Athena 254 / Octobre 2009 102 habités. Le pays veut dans le futur devenir un acteur dans le lancement et le développement de satellites. Avec la Russie, il a conclu un accord de coopération pour mettre en œuvre à Baïkonour - en modifiant l'un des ensembles de lancement Proton - le système de transport spatial Baïterek, dérivé du lanceur modulaire Angara (version moyenne), développé par le centre spatial Khrounitchev à Moscou. Le système Kazsat a fait appel à ce centre pour ses deux premiers satellites, équipés de propulseurs électriques à plasma. Alors que Kazsat-1, lancé en juin 2006, est tombé en panne et a dû être expédié sur l'orbite «cimetière», Kazsat-2, de 1 330 kg en orbite géostationnaire, est en préparation pour être lancé en 2011. Le 19 mai, la société Jsc Kazakhstan Gharysh Sapary signait avec Astrium un accord de partenariat stratégique pour la technologie spatiale. Dans le cadre de ce partenariat francokazakh, dans lequel le Cnes (Centre national d'études spatiales) a joué un rôle, Astrium fournira des images des satellites d'observation Spot et TerraSar-X/TanDem-X et installera des stations de réception. Outre la formation d'une centaine d'ingénieurs kazakhs, il y aura la création d'une société commune pour la mise en œuvre d'un centre de tests et d'intégration de satellites à Astana, capitale du Kazakhstan. Deux satellites d'observation de la Terre vont être commandés à Astrium: un Astrobus 250, de 500 à 600 kg (images de 2,5 m de résolution) et un Astrobus 100, de 50 à 100 kg. La technologie spatiale, avec ses études et carrières à valeur ajoutée, est considérée comme l'une des portes vers le monde du futur. Théo PIRARD [email protected] Inhaltsübersicht Die Theorie vom Urknall (auch Big Bang genannt) ist aktueller denn je. Sie stammt von dem Belgier Georges Lemaître, der als erster diese für seine Zeit revolutionäre Idee von der Entstehung des Universums vorbrachte. Jean-Luc Léonard schildert den unglaublichen Werdegang dieses Denkers, von dem ein Theaterstück handelt, das gegenwärtig in den Schauspielhäusern läuft. Auf der Suche nach einem therapeutischen Impfstoff. Lässt sich das Immunsystem möglicherweise dazu anregen, Tumorzellen zu bekämpfen, so wie es virenoder bakterieninfizierte Zellen beseitigt? Inzwischen weiß man, dass es Antigene gibt, die das Immunsystem erkennt, insbesondere T-Lymphozyten, die eine Immunantwort generieren können. Philippe Lambert stellt die Forschung-sergebnisse in diesem Bereich und ihren Nutzen im Kampf gegen den Krebs vor. Depression: Entzündung und neuronale Plastizität. Mehrere Studien haben neuro- logische Schädigungen aufgedeckt, die spezifisch bei Depressionen auftreten, und zwar in Form einer Atrophie des Hippocampus, das unter anderem bei der Modulation emotionaler Antworten eine Rolle spielt. Philippe Lambert erläutert die einzelnen Mechanismen und die hier relevanten Entzündungsprozesse. Athena n° 254 Octobre 2009 Ce mensuel d'information, tiré à 13 500 exemplaires, est édité par le Département du développement technologique, Service public wallon Spw - DGO6 Place de la Wallonie 1, Bât. III à 5100 Jambes. Téléphone vert: 0800/11 901 (appel gratuit). http://recherche-technologie.wallonie.be/ Geschichte … einer Präferenz. Wie ein zweiseitiger Spiegel beeinflusst eine Neuronenpopulation des Striatums, die striatopallidalen Neuronen, sowohl die lokomotorische Aktivität als auch die Drogenabhängigkeit. Im Zuge jüngster Experimente zeichnen sich jetzt neue Therapiemöglichkeiten zur Behandlung der Parkinsonschen Krankheit und der Drogensucht ab. Ein Artikel von Philippe Lambert. Michel CHARLIER, Ir. Inspecteur général Ligne directe: 081/33.45.01. Katalogisiertes Wissen. In diesem zweiten Teil erklärt Christian Vanden Assistante de rédaction Berghen, inwiefern die digitale Welt unser Verständnis von Kategorien und Denkmustern verändert und welch unbegrenzte Möglichkeiten sich hier bieten. Gegenstände können jetzt mehreren Kategorien angehören, was in der realen Welt nicht denkbar wäre. Christian Vanden Berghen erläutert die verschiedenen Klassierungsarten mit ihren jeweiligen Vor- und Nachteilen. Ein Flugzeug aus Polymer. Es hat die Größe eines Airbus, das Gewicht eines Personenwagens und die Antriebskraft eines Motorrollers. Ziel ist es, Tag und Nacht ohne Treibstoff fliegen zu können, allein mit Solarenergie. Ein innovatives Projekt mit überwiegend bekannten Materialien. Die Schwierigkeit bestand jedoch darin, die Werkstoffe so anzupassen, dass ein leichtes, aber sicheres Fluggerät daraus entsteht. Eine Präsentation von Alain de Fooz. Éditeur responsable: [email protected] Marie-Claude SOUPART [email protected] Graphiste Nathalie Bodart Ligne directe: 081/33.44.91. Impression: Les Éditions européennes Rue Thiefry, 82 à 1030 Bruxelles ISSN 0772 - 4683 Das Pressluftauto: Mythos oder Realität? Nach dem Benziner und Diesel gibt es Ont collaboré à ce numéro: inzwischen das Elektroauto. Doch es wurden noch weitere umweltschonende Antriebssysteme erforscht, unter anderem das kaum bekannte Pressluftauto, das Michel Wautelet uns hier vorstellt. Es bietet eine ganze Reihe von Vorteilen: umweltfreundlich, sparsam, unkompliziert und leichtgewichtig. Die Leistungen begrenzen allerdings die Einsatzmöglichkeiten. Dennoch ist das Pressluftauto ein weiterer Schritt auf dem Weg zu einem saubereren Planeten. Jean-Michel Debry; Alain de Fooz; Paul Devuyst; Henri Dupuis; Damien Duvivier; Philippe Lambert; Jean-Luc Léonard; Yaël Nazé; Théo Pirard; Jean-Claude Quintart; Géraldine Tran; Christian Vanden Berghen et Michel Wautelet. Traduction: Europaco. Eine Herausforderung für die Menschheit. Hauptursache der globalen Erwärmung ist nachweislich der Ausstoß von Treibhausgasen durch die Tätigkeiten und Techniken des Menschen. Paul Devuyst führt in diesem Artikel vor Augen, welche Anstrengungen der Mensch hierzu in den nächsten Jahren unternehmen muss. Dies setzt allerdings einen internationalen Konsens voraus. Dessinateurs: Olivier Saive et Vince. Comité de rédaction: Weitere lesenswerte Rubriken: News, von Jean-Claude Quintart, S. 55 - 61, und Henri Dupuis, S. 62; Bio-Info, von Jean-Michel Debry, S. 67 - 71; Physik-Info, von Henri Dupuis, S. 81 - 83; Astronomie, von Paul Devuyst, S. 96, und Yaël Nazé, S. 97; Weltraum, von Théo Pirard, S. 98 - 102. 103 Michel Charlier; Marc Debruxelles; Jacques Moisse; Jacques Quivy; Marie-Claude Soupart et Michel Van Cromphaut. Athena 254 / Octobre 2009