N° 260 - Portail de la Recherche et des Technologies en Wallonie
Transcription
N° 260 - Portail de la Recherche et des Technologies en Wallonie
Bureau de dépôt Bruxelles X - Mensuel ne paraissant pas en juillet et août - 260 - Avril 2010 Recherche et développement technologique I n n ovat i o n: un concept innovant Le radon sous surveillance Édito (Photo: photl.com) É d i t o. . . J e vous parlais, le mois dernier, du concept (un peu «fourre-tout») de dévelop- pement durable. On en parle partout et tout le temps mais ce qu'il définit et ce qu'il implique n'est pas si évident qu'il n'y paraît. Voici une autre «poupée russe» et un concept tout aussi abstrait: l'innovation. Que cache-t-elle ? Où commence-t-elle ? Où finit-elle ? Qui concerne-t-elle? Le premier réflexe serait de la réduire à l'invention, à l'idée géniale. Or, et j'avoue que je l'ignorais, une invention n'est pas nécessairement amenée à devenir une innovation. L'attribution du «titre» implique en effet une dimension économique, une application à relativement grande échelle, les technologies pour la développer, un marché pour l'accueillir et au final, une adhésion massive. L'innovation est un long processus, fastidieux, qui doit contribuer à changer l’état des choses, la manière de les voir ou de les faire. Joseph Schumpeter (1883-1950), célèbre économiste autrichien, distingue cinq types d'innovation: • la fabrication de biens nouveaux, • les nouvelles méthodes de production, • l'ouverture d'un nouveau débouché, • l'utilisation de nouvelles matières premières et • la réalisation d'une nouvelle organisation de travail. On parle encore d’innovation de produit, de procédé, d'organisation ou de marketing ; matérielle ou virtuelle, elle peut être dite de rupture, incrémentale, perturbatrice ou encore sociale. Elle s'inscrit dans un contexte bien déterminé qui en influence le destin. Quoi qu'il en soit, elle a des conséquences non seulement sur ceux qui la mettent en œuvre mais aussi sur ceux qui la reçoivent et ceux qui sont passés à côté. Tous les secteurs sont concernés: les entreprises commerciales, petites ou grandes, doivent sans cesse répondre au challenge de la différenciation pour se développer et pérenniser ; les institutions publiques ou les asbl cherchent quant à elles à améliorer leurs services, à toucher et aider plus de gens… (Photo: Laurent Hamels / PhotoAlto / Reporters) Innover est donc indispensable pour rester dans la course, progresser, répondre aux besoins. C'est dans la nature humaine: l'Homme, éternel insatisfait, est viscéralement mû par le désir d'innover, d'aller toujours plus loin, toujours plus haut, toujours plus fort. Plus qu'un élan vital et loin d'être une mode, l'innovation correspond à une vision, une philosophie de vie, une manière d'être et de faire, inscrite dans une société effrénément en mouvement. Et pas besoin de moyens financiers colossaux, c'est à la portée de chacun. Mais une chose est sûre: lancezvous sans hésiter dans la course à l'innovation car innover, c'est créer de la valeur… Ces quelques lignes ne sont qu'une mise en bouche, censée vous ouvrir l’appétit d’apprendre, en attendant le plat principal, en page 10. Géraldine TRAN Rédactrice en chef Athena 258 / Février 2010 2 Sommaire 10 15 18 21 25 32 36 44 L'innovation, un concept innovant ! Dans un contexte sociétal et économique en crise, l'innovation apparaît comme la panacée. Au centre de toutes les politiques (sociale, économique, environnementale, scientifique,…), elle est aujourd'hui devenue indispensable, tant pour l'entreprise qui doit rester compétitive que pour le chercheur qui a à cœur de faire avancer la science et le monde. Ce dossier collégial (en deux parties) nous explique les tenants et aboutissants de l'innovation, ce qu'elle est et ce qu'elle n'est pas, ce qu'elle a été et ce qu'elle devra être. Comme si on y était… Une neurochirurgie à la Avatar, en mieux ! Et ça s'est passé à Liège, décidément capitale de la 3D. Une opération neurochirurgicale effectuée au CHU a été retransmise en direct et en 3D full HD au cinéma Sauvenière, qui a d'ailleurs fait salle comble. Vous l'imaginez, cette prouesse technique multidisciplinaire a impliqué de nombreuses entreprises, autant de fleurons représentant la Wallonie. Pour en savoir plus, lisez cet article de Jean-Luc Léonard sans attendre ! Le financement public de la recherche en Région wallonne. Vous l'aurez certainement déjà compris en lisant le dossier «Innovation» mais la recherche et l'innovation sont plus que jamais au centre des efforts en matière de relance économique. La Région wallonne, avec plus de 4% de son budget total consacré à la R&D, en est consciente. Athena présente son bilan sur les CBPRD (crédits budgétaires publics de R&D). Internet ou le do it yourself. Christian Vanden Berghen le compare au monstre du Loch Ness, animal mythique dont tout le monde a entendu parler mais que personne n'a réellement vu ou touché: le Web 2.0 constitue une (r)évolution extraordinaire offrant d'innombrables possibilités de collaboration grâce à des technologies désormais disponibles en ligne. Il est en marche et en train de changer notre manière de travailler, de penser et de vivre. D'où vient-il ? Qu'offre-t-il ? Qu'implique-t-il ? C'est tout l'objet de la 1ère partie de cet article. Les promesses d'un paradoxe. À l'instar de toute entité vivante sur Terre, la tumeur a besoin d'oxygène et de nourriture pour croître. En effet, son développement va de pair avec la formation de nouveaux vaisseaux sanguins. En bloquant ce processus - l'angiogenèse tumorale-, la tumeur s'asphyxierait et resterait sagement tapie au fond de son lit. Or le manque d'oxygène la rend plus agressive, invasive et résistante. La solution consisterait en une combinaison anti-angiogéniques/chimio ou radiothérapie. C'est toute la difficulté de ce paradoxe, expliqué par Philippe Lambert. Regards intérieurs. Avoir conscience de soi-même, ça peut paraître évident et pourtant, ça ne l'est pas tant que ça. La preuve en est que de nombreuses expériences scientifiques sont en cours afin de déterminer les composantes du phénomène. Beaucoup de facteurs entrent en ligne de compte: psychologiques, neurologiques, sociaux, contextuels, culturels,… Quelle représentation a-t-on de soi ? C'est une question fondamentale posée par Philippe Lambert. Le radon sous surveillance. «Radioactivité», voilà un mot qui fait peur. Il s'agit pourtant d'un phénomène tout à fait naturel. Provenant des sous-sols ainsi que de certains matériaux de construction, le radon est d'ailleurs présent partout à la surface du globe. Il représente aussi la principale source d'exposition de la population à la radioactivité. À fortes doses, il est cancérigène, mais qu'en est-il de sa concentration en milieu domestique ? Paul Devuyst fait le point sur le plus lourd des gaz rares. Vous pouvez consulter la revue Athena sur le site http://athena. wallonie.be Si vous désirez un abonnement, vous pouvez vous adresser: l soit par courrier: Place de la Wallonie, 1 Bât.III 5100 Jambes l soit par téléphone au 081/33.44.76. l soit par courriel à l’adresse: geraldine.tran@ spw.wallonie.be ou encore via le site repris ci-dessus. Vénus version Express. Comme son homonyme mythologique, Vénus est séduisante au premier regard. Elle n'est pourtant pas aussi angélique qu'il n'y paraît: sous son chapeau de nuages, la demoiselle cache l'enfer. Une température brûlante, une atmosphère sulfurique et carbonique, un sol volcanique, un épais manteau rocheux, c'est ce qu'a observé la discrète exploratrice Venus Express. Cinq ans après son lancement, Yaël Nazé fait le point sur ce que la sonde nous a déjà offert comme connaissances. Sans oublier les rubriques: Actualités, de Jean-Claude Quintart, pp. 4-9 ; Info-Bio, de Jean-Michel Debry, pp. 29-31 ; Physique, d'Henri Dupuis, pp. 40-41 ; Cosmos, de Yaël Nazé, pp. 42-43 ; Espace, de Théo Pirard, pp. 47-49 ; Et l'agenda, pp. 50-51. 3 Première de couverture: Sparking light bulb. (Photo: Reporters/ Victor de Schwanberg/ Science Photo Library) Quatrième: La planète Vénus (Photo: Esa) Athena 258 / Février 2010 (Photo: Belgocontrol) Actualités 1 2 t o n n e s d ’a c i e r, 73 consoles ! Ces deux chiffres résument l’importance de la contribution de Symbio, petite et moyenne entreprise wallonne, au programme d’investissements de la tour de contrôle de BruxellesNational et du nouveau site Canac 2 de Belgocontrol, le centre de contrôle le plus moderne d’Europe ! C entre de contrôle aérien, Canac 2 est également un système de gestion du trafic aérien, équipant les tours de contrôle des cinq aéroports belges: Bruxelles National, Charleroi, Anvers, Ostende et Liège. Construit sur base d’un concept opérationnel innovant, axé sur la gestion tactique des flux de trafic aérien, Canac 2 améliore les performances en termes de sécurité, capacité, ponctualité, efficacité économique et environnementale dans l’espace aérien le plus complexe d’Europe. Les atouts de cette infrastructure consistent en une gestion dynamique de la capacité permettant de mieux adapter les ressources en personnel aux conditions de trafic, une disponibilité maximale des outils et informations de contrôle, auxquelles s’ajoutent encore un accroissement de la sécurité aérienne, une gestion tactique des flux de trafic aérien grâce à une vision à la fois globale et précise du trafic pour les contrôleurs, la possibilité de créer de nouveaux secteurs et de gérer de nouveaux espaces aériens ou encore, la coordination étendue avec les centres adjacents, etc. Symbio, pro du design Pour la pme wallonne Symbio, tout commence en 2004, avec son principe de «design participatif», qui associe un groupe de travail représentant les 350 contrôleurs concernés par la nouvelle infrastructure, en vue de connaître les contraintes et souhaits de chacun. Cette étape montre que pour une disponibilité maximale des données et informations opérationnelles, il fallait une console en triptyque avec un seul point d’accès à tous les outils du contrôle aérien. Une maquette a donc été réalisée afin d’affiner le positionnement des outils (écrans, hautparleurs, micros, etc). Toujours avec l’aide des contrôleurs, Symbio s’est également penchée sur la problématique globale de la salle. Pour améliorer la communication verbale et Athena 260 / Avril 2010 4 gestuelle entre les contrôleurs, une configuration «en pétale» a été retenue. Ce ne sera qu’à la fin de cette longue procédure qu’elle lancera la fabrication et l’installation des 73 consoles et planchers techniques pour un poids total de quelque 12 tonnes d’acier ! Avec ce contrat, elle savait qu’elle n’avait pas droit à l’erreur ! Une fois encore la petite entreprise s’est montrée à la hauteur des attentes particulièrement complexes de son donneur d’ordre. Pour Michel Dascotte, chef du projet Canac 2 chez Belgocontrol, «Il s’agissait d’un très beau défi: analyser les schémas de communication, déterminer le nombre de consoles et étudier l’ergonomie et l’implémentation, avec en toile de fond, l’organisation de la salle et sa réalisation dans les délais et standards de qualité. En relevant ces étapes avec brio, Symbio nous dote aujourd’hui d’un outil de grande tenue !» Mais il est vrai que Symbio n’en était pas à son premier coup d’essai ! En effet, fondée en 2007, l’entreprise de Bassenge (en province de Liège) compte sur les vingt années de compétence de ses fondateurs: Patrick Vanderstraeten et Georges Vroonen, designers industriels et Denis Javaux, ergonome. Par la fertilisation croisée de ces trois talents, Symbio offre une approche intégrée de l’étude ergonomique à l’implémentation. Les domaines d’activité de l’entreprise sont entre autres les consoles, salles de contrôle, espaces de vie, interfaces hommemachine, l’ergonomie cognitive, etc. Le tout avec de belles références commerciales: Belgocontrol, Eurocontrol, Thales, Airbus Industrie, ArcelorMittal, Electrabel, etc. Symbio montre qu’à l’heure de la globalisation, il est toujours possible pour une petite entreprise d’empocher des contrats remarquables. La recette est simple: se focaliser sur une niche, investir en R&D, être professionnel dans ses démarches et y croire ! http://www.symbio.pro Jean-Claude QUINTART [email protected] Actualités Les brèves... Les brèves... Nouvelles technologies S idérurgie et écologie. À première vue, les deux sont inconciliables ! Qui dit acier pense poussière ! Pourtant, le 3 mars dernier, de nouvelles initiatives ont été annoncées par le monde de la sidérurgie afin de rencontrer les objectifs d'une société à faibles émissions de dioxyde de carbone. À l'occasion de sa dernière réunion, la Plateforme technologique européenne de l'acier/European Steel Technology Platform (ESTEP) a rappelé que l'acier contribue de manière unique à la mise en place d'une société plus durable grâce aux propriétés de ses produits économisant l'énergie et indéfiniment recyclables. Une réalité que nous oublions bien souvent ! Dans la foulée, l'ESTEP a également insisté sur les améliorations déployées au niveau des procédés, notamment via la mise en œuvre de technologies de pointe en vue de réduire les émissions de CO2 de 50% à long terme, sur base du projet ULCOS (Ultra-Low Carbon dioxide Steelmaking). Ce consortium rassemble aujourd'hui pas moins de 48 entreprises et organisations issues de 15 pays, autour d'une initiative de coopération en R&D visant à réduire drastiquement (-50%) les émissions de CO2 lors de la production d'acier. Pour relever ce défi, quatre approches susceptibles de générer une telle diminution ont été retenues. nent à ArcelorMittal. • La deuxième approche étudiée, HIsarna, repose sur un bain de fusion. Trois technologies entrent en jeu: le préchauffage du charbon et la pyrolyse, la fusion du minerai dans un cyclone de fusion et la réduction du minerai et production de fer dans une cuve de fusion. • De son côté, la solution ULCOREA produit du fer au départ de minerai de fer en morceaux ou en pellets et dont la fusion s'opère via des fours à arc électrique. • Enfin, la dernière approche, ULCOWIN, table sur la production de fer par électrolyse, ce qui permettrait d'exclure les fours à coke et les réacteurs des processus de réduction du minerai. Le consortium ESTEP n'entend pas relever que ses propres défis, il souhaite aussi aider ses clients à relever les leurs. Ainsi, les nouvelles solutions avancées sur le plan de l'acier peuvent aider à la mise au point d'une nouvelle génération de centrales électriques et au développement d'équipements de production d'énergie solaire et éolienne. Bref, la sidérurgie change et d'ici quelques années, elle devrait présenter un nouveau visage, répondant aux futurs défis de l'économie européenne à faibles émissions de dioxyde de carbone, ainsi que sur la création de valeur basée sur les connaissances et la nécessité de créer une société compétitive, connectée et plus verte. http://cordis.europa.eu/estep/ et Haut-fourneau du site d’Ougrée, en province de Liège. (Photo: Noé Lecocq) http://www.ulcos.org • La technologie la plus perfectionnée actuellement au niveau de ces quatre concepts sera mise en œuvre à une échelle permettant d'en apprécier, de manière fiable, les conditions d'exploitation. Ce nouveau procédé pour haut fourneau à recyclage des gaz de gueulard s'accompagnera de la capture et du stockage de dioxyde de carbone. Ébauchée sur un haut fourneau de taille moyenne, la solution fera ensuite l'objet d'un démonstrateur industriel associé à une expérience de stockage du dioxyde de carbone dans des sites souterrains de Lorraine. Les deux sites concernés par ce projet appartien- 5 Athena 260 / Avril 2010 Actualités U Pour en savoir plus http://www. hamon.com et http://www. southerncompany.com n wallon aux States ! Le groupe Hamon annonce avoir empoché un contrat de 95 millions de dollars pour le développement et la construction de deux tours de refroidissement pour la centrale nucléaire de Waynesboro, en Géorgie (États-Unis). L'extension de cette facilité, avec deux réacteurs nucléaires AP 1000 de Westinghouse, est le premier investissement réalisé en matière d'énergie nucléaire depuis trente ans ! Elle s'inscrit dans le cadre d'un prêt de 8,3 millions de dollars couvert par le Gouvernement fédéral et octroyé à la Southern Nuclear Co, pour son site de Vogtle. Cet investissement rencontre aussi la volonté politique du Président Obama en matière d'indépendance énergétique des États-Unis, sachant que d'ici 2030, la consommation d'électricité aura augmenté de 21% dans le Southeast (Sud-Est). Le groupe Hamon, dont les origines remontent à 1890 avec les Ateliers D'Hondt, est un acteur mondial en matière de systèmes de refroidissement, échangeurs de chaleur, récupération d'énergie, dépollution de l'air et cheminées industrielles jusqu'à 300 m de hauteur. Installée à Mont-Saint-Guibert, l’entreprise puise ses clients parmi les producteurs d'électricité, de gaz et de pétrole, la métallurgie, la verrerie et la chimie. R&D La construction des nouvelles unités 3 et 4 de la centrale nucléaire de Votgle, à laquelle est associé le groupe wallon Hamon, représente un investissement en capital de quelque 14 milliards de dollars. Ces réacteurs entreront respectivement en service en 2016 et 2017. E n grande pompe ! L'occasion le justifiait. C'est donc en présence de Paul Magnette, ministre fédéral du Climat et de l'Énergie, et de Sabine Laruelle, ministre fédérale de la Politique scientifique, que le Centre belge d'études de l'énergie nucléaire (CEN) a inauguré sa nouvelle infrastructure de recherche nommée Guinevere (Generator of Uninterrupted Intense Neutrons at the lead of Venus Reactor). Une première mondiale belge ! En effet, Guinevere est la maquette du premier démonstrateur mondial de «systèmes pilotés par accélérateurs» (ADS - Accelerator Driven System en anglais) dédiés à l'incinération des déchets nucléaires. Ce Athena 260 / Avril 2010 6 programme s'inscrit en prélude du projet Myrrha (Multipurpose hYbrid Research Reactor for High-tech Applications). Celui-ci, qui sera également construit au CEN de Mol, devra démontrer sa capacité à transmuter des déchets radioactifs en éléments à durée de vie beaucoup plus courte, voire même en éléments stables ! En parallèle, Myrrha sera un réacteur multifonctionnel pour l'étude des matériaux des réacteurs de fission et pour la fusion. Il contribuera aussi, dans le futur, à l'approvisionnement continu en radio-isotopes à usage médical, industriel et même à la production de silicium dopé, composant essentiel des circuits électroniques utilisés dans des applications d'énergies renouvelables. Les ADS comme Myrrha peuvent produire des neutrons rapides permettant d'incinérer les sous-déchets nucléaires. Ils sont intrinsèquement sûrs et facilement contrôlables. En outre, ils possèdent un cœur dit «sous-critique»: en effet, le réacteur d'un ADS a besoin d'une source externe de neutrons, créée par un accélérateur de particules faisant fonctionner le réacteur. Ce dispositif réduit le risque potentiel d'accident d'emballement. Grâce aux expériences conduites avec Guinevere, on pourra comprendre le comportement spécifique d'un ADS. Ces travaux cibleront notamment la mise en place et la qualification d'une méthodologie permettant de suivre, en cours de fonctionnement, les variations de la réactivité, paramètre caractérisant la sécurité d'un système couplé accélérateur/réacteur, spécificité d'un ADS et de Myrrha en particulier. Ces expériences présentent également un grand intérêt pour tester certains aspects d'autres filières du nucléaire sur maquette. Au-delà de son rôle, dans la recherche, sur la diminution de la durée de vie et de la quantité des déchets les plus radiotoxiques, Myrrha provoquera un impact socio-économique estimé, sur la période 2010-2050, à près de 13 milliards d'euros dont 11 milliards en Belgique ! En fait, pour chaque euro investi dans le projet, le retour économique serait de près de douze euros en Actualités potentiel d'emballement des réactions. Un accélérateur de particules bombarde une cible de protons: par réaction de spallation, cette cible génère alors le flux de neutrons nécessaire. http://www.sckcen.be L e cœur à l'ouvrage. L'expression sied à merveille à Cardio3 BioSciences, jeune entreprise wallonne qui peut se féliciter des résultats prometteurs enregistrés lors d'une étude préclinique relative au C-Cath®, le cathéter qu'elle développe actuellement et visant l'administration d'une panoplie de biothérapies ciblant le cœur. Ce produit est conçu pour prendre en compte la structure tissulaire des organes afin d’optimiser la sécurité des patients, améliorer la performance et augmenter la confiance des médecins lors des procédures d'injection. C’est là que se trouve le principal atout de C-Cath®, dont la performance s'appuie sur la conception unique de l'aiguille, qui améliore la pénétration et la rétention dans le tissu cible et renforce la dynamique des fluides. Véritable avancée dans la recherche sur l'incinération des déchets nucléaires, le ticket Guinevere/Myrrha est le fruit d'une collaboration européenne entre le Centre belge d'étude de l'énergie nucléaire (CEN) et les français du Commissariat à l'énergie atomique (CEA) et du Centre national de recherche scientifique (CNRS) (Photo: SCK•CEN). Belgique ! Programme fédéral, avec coopération européenne, Guinevere/Myrrha sera aussi une bouffée d'oxygène pour la recherche wallonne, notamment pour l'Institut national des radioéléments (IRE) de Fleurus, dans le cadre de son volet de médecine nucléaire. Pour rappel, la transmutation est une réaction nucléaire induite par des neutrons, conduisant à la transformation d'un élément chimique en un autre. Il faut savoir que dans un réacteur nucléaire, la fission des noyaux, généralement d'uranium, est réalisée par un bombardement de neutrons. Chaque fission libère elle-même des neutrons réutilisés pour produire de nouvelles fissions: la réaction en chaîne est maintenue. Pour empêcher que la réaction ne s'emballe, on fait en sorte qu'un seul neutron provoque une nouvelle fission: le réacteur est critique et le facteur de multiplication des neutrons, noté «keff» (facteur de multiplication effectif), est égal à 1. Dans le cas d'un ADS, moins d'un neutron libéré produit une nouvelle fission: le réacteur est sous-critique. Afin de maintenir la réaction, l'alimentation en neutrons se fait par une source externe, limitant considérablement le risque Réalisée au Canada, l'étude a consisté en une comparaison par substitution entre la référence actuelle du marché en matière de cathéter et C-Cath®. Concrètement, des cellules souches mésenchymateuses provenant de la mœlle ont été injectées dans un modèle animal largement exploité en recherche cardiologique. À la grande satisfaction de Cardio3 BioSciences, les résultats de l'étude montrent que la rétention cellulaire au sein du muscle cardiaque est près de trois fois supérieure avec C-Cath®. Ce qui signifie que dans un environnement clinique, un taux de rétention accru réduirait la dose administrée tout en augmentant la puissance du produit, renforçant ainsi l'efficacité et diminuant les effets secondaires du traitement ainsi que les coûts financiers puisque la dose administrée serait moindre. Le développement de C-Cath® illustre l'excellence de notre recherche associée à la puissance publique de la Région. Animées par les scientifiques de Cardio3 BioSciences et leurs partenaires cliniques du Centre cardiovasculaire d'Alost, les recherches sur le C-Cath® ont été financées en grande partie par la Région wallonne via la DGO6. Basée à Mont-Saint-Guibert et fondée en 2007, l’entreprise opère en tant que spécialiste des thérapies cellulaires pour le traitement des maladies cardiovasculaires sur la niche pointue de la biotechnologie. 7 Athena 260 / Avril 2010 Actualités Neurotech a actuellement deux projets dans ses armoires: l DEEP (Drug-releasing electrode with enhanced properties) l IMANE (Implantable multicontact active nerve electrode) À découvrir sur le site de Neurotech http://neurotech.be Il faut encore rappeller qu’avec C-Cure®, son premier produit, Cardio3 BioSciences avait déjà frappé fort ! Produit phare de l'entreprise, il se profile comme une approche particulièrement innovante dans le traitement de l'insuffisance cardiaque, l'un des problèmes médicaux non résolus les plus pressants dans le monde ! Basé sur une stratégie initiée par les fondateurs de Cardio3 BioSciences et tirant profit d'une technologie de la Mayo Clinic de Rochester, aux États-Unis, C-Cure® permet la différenciation des cellules propres du patient en cellules cardiopoïétiques qui se développent ensuite pour donner de nouvelles cellules cardiaques et réparer le myocarde. http://www.c3bs.com et http://www.mayoclinic.org Santé A ppel de fonds... pour Neurotech qui lève six millions d'euros en vue de lancer la phase commerciale de son stimulateur du nerf vague: ADNS 300. Cette technique de stimulation du nerf vague est utilisée chez les patients (enfants et adultes) souffrant d'épilepsie partielle et complexe malgré un traitement normal de la maladie. Le principe repose sur l'implantation, sous la peau de la cage thoracique, d'un générateur d'impulsions à pile. Un fil, également logé sous la peau, est connecté au nerf vague gauche dans le cou. Les données de stimulation sont mémorisées sur ordinateur ou PDA… Patients ou soignants peuvent ainsi activer ou désactiver le stimulateur pour une durée prédéterminée en passant le contrôleur sur le générateur. Cette technologie de stimulation contribue à réduire les crises d'épilepsie dans les cas les plus graves. (Photo: Neurotech) Spin off de l'Université catholique de Louvain (UCL), installée à Louvain-la-Neuve, Neurotech conçoit, développe, fabrique et commercialise des appareils médicaux actifs implantables en vue de traiter les maladies par la neurostimulation. Depuis sa création en 1996, la société a notamment développé des électrodes d'enregistrement et de stimulation utilisés in vivo sur les nerfs crâniens, des connecteurs implantables ou encore une prothèse visuelle par stimulation du nerf optique. http://neurotech.be D u cash pour l'avenir. Fondation d'utilité publique créée en 1971 mais opérant comme une entreprise privée, l'Institut national des radioéléments (IRE) est l'un des grands acteurs de la médecine nucléaire en diagnostic et thérapie. Ainsi, par la nature de ses activités, il contribue à sauver, chaque année, plusieurs millions de vies ! Installé à Fleurus (Charleroi), l'IRE déploie ses travaux sur trois axes: la radiochimie, la radio-pharmacie et la protection/ surveillance de l'environnement. Plus en détails, les radioéléments produits par l'IRE sont le Molybdène-99, l'Iode-131, l'Yttrium-90 et le Rhénium-188. Le reste de l'activité gravite autour du développement et de la mise en œuvre de techniques de surveillance et de mesure des radioéléments ; de la décontamination, gestion et caractérisation des sources et déchets radioactifs ; et de la valorisation de ses outils et des compétences de ses équipes. La panne inopinée du réacteur canadien NRU, en mai 2009, créant depuis une grave pénurie dans l'approvisionnement de la médecine nucléaire, a mis en exergue l'importance de l'IRE, qui s'efforce de pallier l'impact de cette crise pour les patients en attente de soins, sur tous les continents ! Conscient du rôle mondial de l’institut sur la scène de la médecine nucléaire, le pouvoir politique vient d'octroyer un financement public de 20 millions d'euros, planifié sur cinq ans, afin qu’il puisse investir dans une diversification de l'approvisionnement en radio-isotopes, en sécurité et en R&D. Grâce à cette manne fédérale, l'IRE pourra diversifier ses sources d'approvisionnement en matière première pour ses activités de médecine nucléaire ; investir dans l'infrastructure et dans une nouvelle phase de renforcement de la sécurité de son site de Fleurus ; et lancer de nouveaux programmes de recherche. Ici, il se focalisera essentiellement sur les processus chimiques de purification de l'uranium et des radio-isotopes produits et utilisés en médecine nucléaire. À ces perspectives s'ajoute encore un programme de développement d'applications thérapeutiques nouvelles en collaboration avec plusieurs universités et partenaires du pays. http://www.ire.eu Athena 260 / Avril 2010 8 (Photo: photl.com) Actualités Une première belge... our l'Université de Mons (UMons) et l'Organisation des nations unies (ONU) qui, au terme d'un accord signé le 4 mars dernier, deviennent partenaires dans la formation des futurs traducteurs et interprètes. Concrètement, cela signifie que l'ONU accepte désormais des étudiants de l'UMons en stage, leur procure du matériel pédagogique (discours, enregistrements sonores d'interventions, guides terminologiques, etc.) et détache du personnel pour dispenser des formations ou pour faire office d’observateur aux examens de fin d'année. De son côté, la Faculté de traduction et interprétation - École d'interprètes internationaux (FTI-EII) - de l'Umons profite de l'expertise onusienne pour améliorer encore ses programmes de formation. P Emploi, formation Q uestion de s'y faire ! S'il est bon de voir l’univ' accueillir toujours plus d'étudiants, le nombre de «busés» en première année laisse en revanche un goût amer ! Il est vrai que passer du collège au campus universitaire équivaut presqu’à changer de planète ! D'où l'idée de l'Université catholique de Louvain (UCL) de lancer le site E-mentorat censé préparer la transition du «bleu» vers sa future université. Le concept est simple: donner l'occasion aux futurs néo-louvanistes de communiquer en ligne avec des étudiants «mentors» pour les aider à mieux appréhender les réalités de l'univers académique. En d'autres termes, ce projet permet aux élèves du secondaire sensibilisés par l'université d'entrer en relation, via une plate-forme informatique, avec des étudiants volontaires autour de thèmes tels que l'adaptation aux études universitaires, les pré-requis, l’organisation des cursus, le rythme de la vie estudiantine, l’environnement des campus, etc. Agissant de la sorte, l'UCL souhaite adoucir la transition secondaire-supérieur aux futurs étudiants en atténuant la distance géographique et psychologique entre les deux mondes ; donner à l'élève l'occasion de s'approprier les us et coutumes de la formation universitaire ; et soutenir la motivation dans le secondaire par une lutte contre le décrochage. Selon Calogero Conti, recteur de l'UMons, «L'accord passé avec l'ONU s'inscrit pleinement dans les missions d'une université qui, parallèlement à ses charges classiques d'enseignement et de recherche, se doit d'interagir avec le monde qui l'entoure en poursuivant des objectifs d'ouverture et de service à la société.» Pour la FTI-EII, cet accord est une reconnaissance de plus envers un enseignement dont la qualité est internationalement reconnue. Ainsi, elle travaille déjà avec les différents sièges de l'ONU mais aussi des communautés européennes, l'Organisation du traité de l'Atlantique Nord (OTAN), etc. http://portail.umons.ac.be Sur le plan pratique, le futur étudiant, appelé ici «élève mentoré», s'identifie en ligne, choisit un étudiant mentor qui répond à ses messages et relance l'échange. À noter que les échanges entre mentor et «mentoré» ne sont visibles que d'eux seuls, hormis l'administrateur bien entendu, qui valide les inscriptions et tient le rôle de médiateur en cas de blocages dans les conversations en ligne. http://www.uclouvain.be/devenir-etudiant Jean-Claude QUINTART [email protected] 9 Athena 260 / Avril 2010 Innovation (Photo: Yves Dethier / Reporters) L’innovation: un concept innovant Innovation = création de valeur: quelques mots qui pourraient bien résumer la définition, pas si simple que ça, d’un concept de plus en plus à la mode. Qu’est-ce que l’innovation? Qu’est-ce que l’innovation n’est pas ? I nventer c’est voir les choses différemment. Innover c’est faire les choses différemment. De Thomas Edison à Steve Job, les personnes et les organisations qui ont maîtrisé avec succès cette nuance importante sont sources de progrès et de développement économique. Plus près de chez nous, d’Adolphe Sax à Leo Baekeland (inventeur de la bakélite) en passant par Ernest Solvay, la Belgique a une longue tradition de développement de nouvelles activités basées sur l’innovation. mettre en évidence leurs recherches, dont les meilleures sont récompensées. Pas moins de 406 projets ont été soumis pour l’édition 2009, impliquant plus de 2 700 participants ! L’intérêt d’un tel événement est d’orienter l’innovation par rapport à des priorités telles que le développement durable et autres défis sociétaux. La première édition du SIT, en 1999, avait déjà mis en évidence un produit Solvay radicalement innovant, le Vinyloop®, qui a montré que le PVC pouvait être entièrement recyclable à l’échelle industrielle. Un pas décisif à l’heure où les plastiques doivent impérativement s’adapter à une approche durable ! Un concept polymorphique Comprendre de quoi il s’agit et maîtriser les enjeux de l’innovation est critique pour nos industries si nous voulons maintenir la qualité de notre modèle social et faire face aux défis démographiques, sociaux et environnementaux qui nous attendent. L’innovation prend en effet différentes formes, au-delà du mythe de l’idée géniale découverte spontanément (la pomme de Newton) et adoptée instantanément par tous. Les récents lauréats du Solvay Innovation Trophy (SIT), dont la dernière édition s’est clôturée en décembre 2009, en sont la parfaite illustration. • La première forme que peut prendre l’innovation, et sans doute la plus «médiatique», c’est bien sûr le nouveau produit, service ou modèle d’affaires («business model») issu de la recherche scientifique et généralement lié à la technologie: le disque compact (laser), le GSM, l’e-commerce… Les nouveaux produits peuvent aussi être issus des demandes et attentes des clients, qui orientent les projets de recherche et de développement: par exemple les produits «light», «bio» ou «responsables». En réponse à la recherche d’allègement des avions afin d’en réduire la consommation en kérosène, Solvay a ainsi développé un polymère spécial permettant la conception d’une nouvelle gamme de chariots de service à bord, ultralégers, durables et totalement recyclables. Tous les trois ans dorénavant, cette initiative est l’occasion pour les innovateurs de Solvay de • Mais l’innovation, ce n’est pas que ça. La majorité des innovations ont en réalité lieu au Athena 260 / Avril 2010 10 Innovation L’innovation c’est donc changer ce que l’on fait (nouveau produit, nouveau service, nouveau modèle d’affaires…) et/ou comment on le fait (nouvelle technologie, nouveau mode d’organisation...). C’est essayer de le faire en mettant en œuvre des idées nouvelles («push») et/ou en répondant à de nouvelles attentes («pull»). Une vision, une attitude • Mais au-delà de mieux faire ce que l’on faisait déjà (innovations incrémentales), innover c’est parfois remettre en cause fondamentalement sa manière d’être et de faire (innovations radicales). À nouveau, il peut s’agir de créer ou d’explorer de nouveaux marchés (développement de nouveaux business) ou repenser ses modes de fonctionnement (révolutionner l’organisation). Des exemples chez Solvay sont le développement d’un polymère (PVDF) destinés aux batteries lithium-ion pour les nouvelles voitures hybrides ou électriques, ainsi que l’expansion des activités de réduction catalytiques sélectives dans des applications de dépollution de fumées de centrales énergétiques aux États-Unis. Dans un autre registre, citons le lancement, au sein de l’entreprise, d’un festival du film éthique comme nouveau mode de sensibilisation et de formation. L’innovation incrémentale n’est pas en reste chez Solvay: un projet lauréat de l’édition 2000 du SIT a conduit, par la conjugaison de 150 différentes «petites» idées, à une diminution drastique du temps d’arrêt de production nécessaire à l’entretien de certaines usines, occasionnant des économies conséquentes. • Enfin, gérer l’innovation ne signifie pas toujours inventer soi-même ! De Sony à Microsoft, nombreuses sont les entreprises qui ont pu intégrer (transposer) au sein de leurs activités, des concepts inventés par d’autres. S’ouvrir à l’extérieur, accepter ce qui ne vient pas de chez soi, faire du neuf avec de l’ancien, c’est aussi innover. Solvay s’intéresse de plus en plus à cette dimension d’«innovation ouverte», en développant notamment des partenariats afin d’intégrer de nouvelles technologies issues de l’électronique organique (OLED). Finalement, n’oublions pas que l’innovation ne constitue pas une fin en soi. C’est un moyen d’atteindre les objectifs que l’on s’est fixé, en fonction de l’environnement (politique, social, économique, technologique) dans lequel on opère et des ressources (matérielles, intellectuelles, humaines et financières) dont on dispose. Au-delà de l’invention du chercheur solitaire dans son laboratoire, l’innovation est un phénomène complexe et multiforme: à chaque entreprise, à chaque organisation, à chaque région d’identifier et de développer celle qui lui convient et qui créera une valeur ajoutée. Benoît GAILLY [email protected] Brigitte LAURENT [email protected] 11 Athena 260 / Avril 2010 (Photo: Yves Dethier / Reporters) sein même des organisations: nouveaux modes de fabrication et d’organisation, améliorations continues, recherche de qualité… souvent sans que les clients ou usagers en aient conscience. Cette seconde forme d’innovation, «de procédé» ou «organisationnelle» peut être, elle aussi, issue de développements scientifiques (nouvelles technologies) dans l’entreprise mais aussi des évolutions de son environnement (nouveaux défis). On citera parmi les récents lauréats du SIT, le développement d’un nouveau catalyseur au palladium pour la production d’H2O2 mais aussi un nouveau processus de fabrication de PVC à base de sel et d’éthylène dérivé de la canne à sucre. Innovation Interview ’innovation est aujourd’hui présentée dans tous les cénacles comme le seul moyen de Lmaintenir à terme une activité industrielle forte en Europe. Vous êtes tous deux membres de sociétés industrielles importantes. Que signifie pour vous et pour votre entreprise, le mot «innovation» ? Roger Hubert, coach innovation au centre de recherche OCAS, d’Arcelor Mittal. Roger Hubert (RH): C’est peut-être plus facile pour moi d’expliquer ce que l’innovation n’est pas… Une innovation n’est ni une bonne idée, ni même une invention géniale ! Prenons un exemple: le laser. La bonne idée (la théorie quantique des radiations) est émise par Albert Einstein en 1917. Différents laboratoires de recherches s’en emparent et travaillent d’arrache-pied pour démontrer expérimentalement la théorie d’Einstein. Mais il faudra attendre plus de 40 ans pour que le premier prototype soit construit. Le laser est donc inventé en 1960… mais la première vraie innovation basée sur le laser n’apparaîtra qu’en 1982: cette année-là, Sony commercialise le premier lecteur de CD intégrant un laser. Et on peut parler d’innovation uniquement parce que le CD est devenu un succès commercial… sinon, cette bonne idée aurait bien vite été oubliée... Richard Thommeret (RT): Oui, beaucoup de gens s’imaginent qu’une très bonne idée peut facilement se transformer en innovation qui va révolutionner la société. Il n’en va hélas pas ainsi: beaucoup de bonnes idées meurent prématurément notamment parce qu’elles sont difficilement industrialisables, pas rentables ou simplement parce que le marché n’est pas «mûr». Une innovation, c’est donc une bonne idée qui a pu être transformée en produit ou en service susceptible de «créer de la valeur». On voit aussi que dans le processus d’innovation, la recherche scientifique, même si elle constitue souvent un maillon important, n’est à elle seule pas suffisante pour garantir le succès. Richard Thommeret, Marketing Manager chez Solvin, filiale du groupe Solvay. lus concrètement, dans quels domaines vos innovent-elles ? P entreprises RT: Nous produisons des matières plastiques et ArcelorMittal produit de l’acier, mais comme ce sont des marchés matures, nos sociétés sont assez comparables du point de vue innovation. Athena 260 / Avril 2010 12 Typiquement, les innovations concernent l’amélioration des procédés, l’introduction de produits nouveaux et la recherche de «solutions» pour nos clients. RH: L’innovation dans les procédés est sans doute la moins visible pour le grand public, pourtant c’est certainement la plus importante car elle vise à maintenir la compétitivité de nos entreprises. Comme la main d’œuvre européenne est très chère, il importe que la productivité soit très élevée pour maintenir les coûts de production à des niveaux acceptables. Les innovations concernent notamment l’automatisation de la production, l’augmentation de la vitesse des lignes, l’amélioration de la qualité des produits et de la sécurité, les économies d’énergie, et la protection de l’environnement. Juste un petit exemple qui montre l’ampleur des défis à relever: une tôle d’acier, laminée dans un laminoir à chaud, doit suivre un chemin thermomécanique parfaitement contrôlé. Ceci implique des mesures de la température à quelques degrés près, permettant d’activer des systèmes de refroidissement très précis. Le tout est piloté par un modèle mathématique très complexe qui effectue, en temps réel, les réglages permettant de garantir la qualité, tout cela alors que la bande acier défile à plus de 60 km/h. La plupart de ces développements (modèles, capteurs, systèmes d’asservissement, etc.) sont des innovations d’une grande valeur mais qui ne sont pas rendues publiques car elles procurent un avantage concurrentiel très important. RT: De nouveaux procédés sont bien souvent indispensables pour développer de nouveaux produits mis au point en laboratoire. Dans nos secteurs, l’industrialisation d’un nouveau produit est un long processus. Comme dans le cas du laser, de nombreuses années peuvent s’écouler entre la première ébauche réalisée en laboratoire et la production de masse car entre-temps, il aura fallu construire une ligne pilote, effectuer une série d’essais et puis, souvent, concevoir une toute nouvelle usine capable de produire le produit à un prix abordable. our vos entreprises, amener un nouveau produit sur le marché semble s’apparenter à Pun long chemin semé d’embûches… RT: Effectivement, notre «Time-to-Market» est généralement très long. Nous devons faire face à des contraintes de tous ordres: techniques, industrielles, financières, commerciales et même conjoncturelles. Beaucoup de bonnes idées sortent des laboratoires et tous les chercheurs rêvent d’aboutir à des projets «en rupture» («breakthrough» en anglais). Mais les chances Innovation RH: On comprend donc que le processus est très long. D’autant que ce n’est pas tout, il faut encore tenir compte des cycles conjoncturels. En période de crise, il n’y a évidemment pas d’argent, donc on hésite à lancer des breakthrough. Puis, cela reprend et on investit. Le projet suit son cours et après 3-4-5 ans, on est prêt pour l’industrialisation qui coûte le plus souvent quelques dizaines ou même centaines de millions d’euros… mais à ce moment, la conjoncture est de nouveau mauvaise et on décide alors de geler le processus. C’est ainsi que pas mal de projets techniquement très valables sont arrêtés, parce que trop chers ou prêts au mauvais moment ! n est loin des entreprises IT (Information Technologies) qui sortent un nouveau Oproduit (GSM, appareil photo,…) tous les trois mois ! Pourquoi si peu de renouvellement ? RH: C’est vrai qu’il y a peu de grandes révolutions dans nos secteurs, mais il y a énormément de petites évolutions ! Les produits ont une durée de vie assez longue, mais ils évoluent sans cesse. Ils deviennent plus performants, moins chers, plus sûrs et chaque évolution est basée sur de nombreuses innovations. Si je prends l’exemple de la tôle galvanisée (acier revêtu de zinc) qui existe depuis des décennies, elle n’a pratiquement plus rien à voir avec l’originale: le revêtement est aujourd’hui plus mince, plus uniforme et son aspect est plus lisse. Les tôles livrées à l’industrie automobile sont aussi plus minces et beaucoup plus résistantes, ce qui permet de diminuer le poids des voitures et de les rendre moins polluantes… pourtant, ce sont toujours des tôles galvanisées ! RT: Dans le cas des matières plastiques, c’est un peu la même chose: nous sommes très en amont par rapport au consommateur final et nos nouveaux produits sont souvent des améliorations d’une ou plusieurs propriétés. Prenons l’exemple des composites qui sont l’association d’un polymère avec une fibre (en verre ou en carbone) qui agit comme renfort et qui servent à fabriquer des objets comme des raquettes de tennis. Un jour, l’idée est venue de remplacer ce genre de fibre par des fibres naturelles, comme celles de bois. Elles ont été incorporées dans du PVC afin d’en faire des profilés qui pourraient servir à faire des recouvrements de mur ou bien des terrasses. Ainsi sont nés les «Wood Plastic Composites» (WPC). Ces nouveaux plastiques ont des propriétés esthétiques remarquables et rivalisent de rigidité avec le bois, tout en apportant une bien meilleure tenue dans le temps… mais ce sont toujours des composites ! ous parliez plus haut de «solutions». par là ? V Qu’entendez-vous RT: Ici, l’idée est de s’intéresser aux produits de nos clients et de voir avec eux comment ils peuvent évoluer. C’est le «co-engineering». La problématique de la fin de vie des objets que nous consommons est de plus en plus d’actualité, et les différents acteurs du marché recherchent des solutions leur permettant de conserver leur activité à long terme. Prenons l’exemple des bâches publicitaires en vinyle, alliant résistance aux intempéries, solidité et grande facilité d’impression. Leur durée de vie, de quelques semaines, a fini par poser question à ceux qui les achetaient. Ils se demandaient ce qu’ils pouvaient en faire une fois arrivées en fin de vie ? Pas question de les mettre en décharge, mais comment les recycler ? En effet, ce sont des textiles enduits, et désolidariser le tissu en polyester du revêtement en vinyle n’est pas possible. Les méthodes classiques de broyage, couramment utilisées dans le recyclage des matières plastiques sont dans ce cas inopérantes. Nous avons donc développé un procédé unique qui, grâce à la mise en solution sélective du PVC, permet de le séparer du polyester. Aujourd’hui, nous avons une usine en Italie qui recycle 10 000 t de ce genre de produits en fin de vie. Elle les transforme en PVC recyclé et en fibres de PET recyclé qui sont à leur tour utilisés dans des objets, dont l’impact environnemental est très fortement réduit, grâce à l’énergie épargnée et aux matériaux réutilisés. Les bâches publicitaires ont désormais un avenir durable devant elles , car nous avons apporté une solution à nos clients. 13 Athena 260 / Avril 2010 (Photo: photl.com) de succès ne sont pas très élevées. Il faut d’abord convaincre la production d’effectuer des essais industriels coûteux et nécessitant parfois d’aménager l’outil. Ensuite le marketing doit identifier un marché suffisamment large pour pouvoir amortir rapidement les investissements. Enfin, certains marchés, comme le bâtiment, sont très réglementés et assez conservateurs: un travail de certification et beaucoup de lobbying sont donc indispensables. (Photo: photl.com) Innovation Le temps de la bonbonne de gaz en métal, très lourde, est révolu. L’innovation: un acier plus mince dérivé de l’automobile ! RH: Nous avons également de nombreux exemples de co-engineering innovant. L’idée consiste à analyser comment nos clients utilisent nos produits dans leurs applications. Souvent, nous pouvons proposer d’autres qualités d’acier permettant d’améliorer les performances du produit. Un exemple récent est celui de la bonne vieille bonbonne de gaz, bien lourde, que tout le monde connaît. Les producteurs s’apprêtaient à lancer de nouvelles bouteilles deux fois plus légères en matériaux composites. Nous avons pu proposer une solution acier alternative en adaptant un acier développé à l’origine pour le marché automobile et permettant une réduction de poids encore supérieure à la solution composite. L’effort de recherche lié au produit (une qualité d’acier) a donc été limité, mais il a fallu développer des trésors de créativité pour montrer que la solution proposée offrait toutes les garanties de sécurité, comme résistance à l’éclatement par exemple. Il a également fallu prouver que la nouvelle bouteille, fabriquée avec un acier aussi mince, satisfaisait aux normes et règlements existants. Toutes ces opérations ont été effectuées en étroite collaboration avec le client. ans la pratique, comment gérez-vous le d’innovation ? D processus RT: Nous gérons principalement deux aspects du processus. Il faut tout d’abord pouvoir apporter des réponses adéquates aux nouveaux besoins du marché et aux problèmes rencontrés par nos clients ou nos usines. Ensuite, nous proposons des nouveautés ou des améliorations issues de la génération spontanée d’idées ou de la veille technologique (recherches bibliographiques, conférences...). RH: Dans tous les cas, il est important de capter toutes les idées, même les plus farfelues, car ces dernières peuvent être à la source d’autres bonnes idées. Vient ensuite un processus de sélection dont les critères sont à la fois stratégiques, techniques et économiques. Les idées Athena 260 / Avril 2010 14 sélectionnées sont alors testées en laboratoire à petite échelle et les meilleures deviennent de véritables projets de recherche qui, au mieux, deviennent des innovations. RT: Certains projets font aussi l’objet de coopérations externes avec des universités (notamment via la prise en charge de thèses de doctorat), des clients, des fournisseurs et même des concurrents lorsqu’il s’agit de travaux assez fondamentaux. Ici, nous sommes sur le terrain de l’Open Innovation. ’est tout un programme ! Quel est le profil des innovateurs ? C idéal RH: Il est vrai que nos sociétés recrutent principalement des spécialistes dans les différents domaines où l’expertise technique est un élément clé et que les formations en innovation ne sont pas légion. Cependant, nous recrutons des innovateurs ayant une base technique, voire scientifique, leur permettant de bien maîtriser les possibilités et les limites, tant du produit que de la société. Parmi ces personnes, nous choisissons préférentiellement celles ayant une certaine sensibilité marketing tout en étant au fait des réalités économiques. Tout ceci constitue une bonne base mais n’est pas suffisant. RT: Effectivement, l’autre atout majeur que ces personnes doivent posséder, c’est la créativité. Elles doivent être capables d’imaginer des solutions nouvelles, parfois en remettant en question certaines façons de faire, sans s’imposer ni donner l’impression de vouloir faire table rase, au risque de ne pas être écoutées. Elles sont souvent en charge d’organiser des brainstorming mettant différentes compétences autour de la même table. Et là, des formations en créativité sont utiles. Mais ces oiseaux sont rares ! Le secret du succès réside essentiellement dans une équipe pluridisciplinaire, constituée d’éléments aux personnalités complémentaires, car faire rêver ne suffit hélas pas... Propos recueillis par Géraldine TRAN Technologie (Photo: photl.com) Comme si on y était ... Une n e u r o c h i r u r g i e à la Avatar, ... en mieux ! Liège confirme sa vocation d'excellence dans les technologies de l'image 3D. En décembre 2009, et c'était une première, la ville mosane avait déjà accueilli un festival et un colloque sur ce thème. En mars 2010, elle a pu s'enorgueillir d'une nouvelle première, avec la retransmission simultanée d'une résection de tumeur crânienne en images 3D de haute définition D ans les deux événements, on retrouve la trace d'un même inspirateur: le professeur Jacques Verly. Son équipe du Laboratoire d'exploitation des signaux et des images (Intelsig) de l'Institut Montefiore département d'électricité, électronique et informatique de l'Université de Liège (ULg) -, a conçu l'architecture de la chaîne de captation, de transmission et de projection de l'opération chirurgicale et en a assuré la direction technique. Avec la jeune société innovante IntoPIX, de Louvain-la-Neuve, elle a développé pour l'occasion une solution de transmission 3D en haute définition (full HD dans le jargon) et en format Jpeg 2000, ce qui a assuré une qualité de visualisation inédite. Le résultat a été «meilleur qu'Avatar», selon une spectatrice enthousiaste, interrogée par la RTBF. La retransmission de l'opération, organisée le 18 mars dernier dans le cadre du festival ImageSanté, était une première européenne. Si l'on prend en compte la spécificité inédite du codage des images, c'était aussi une première mondiale. En effet, selon le réseau TWIST (Technologies wallonnes de l'image, du son et du texte, autrement dit le cluster wallon des technologies audiovisuelles et multimédia), les cartes électroniques d'IntoPix et les ordinateurs mis au point à l'ULg «ont permis d'effectuer la transmission en gardant les flux stéréoscopiques gauche et droit séparés, et en les comprimant simultanément pour un débit total de transmission de 500 Mbit/s, c'est-àdire 500 millions de bits par seconde. Cela correspond à la moitié de la capacité de chaque fibre optique utilisée. Il est utile de préciser que, par exemple, le débit à l'entrée de la carte d'encodage, donc avant compression, est de l'ordre de 2,6 Gbit/s. Il faut noter que la stratégie conventionnelle pour ce type de transmission en direct et en 3D est de mélanger les deux flux (en réduisant leur résolution) de façon à pouvoir utiliser les canaux de transmission traditionnels, ce qui n'a pas été le cas ici», précise-t-on encore chez TWIST. 15 La salle d'opération est prête pour le tournage (Photo: Rudy Ramaekers for APEX - Festival Imagésanté 2010) Athena 260 / Avril 2010 Technologie Le professeur Martin étudie les instantanés de l'imagerie médicale. Impressionnante aussi, la table de mixage. en images... L’opération en images... L'opération a commencé. (Photos: Rudy Ramaekers, Stanislas Tevesz, Donat Mailleux, Jacques Verly) Une caméra 3D à bras articulé est particulièrement encombrante. Athena 260 / Avril 2010 16 Technologie L'opération chirurgicale, dirigée par le professeur Didier Martin, président de la Société belge de neurochirurgie, avait lieu au Centre hospitalier universitaire (CHU) de Liège pour être retransmise à 16 km de là, sur l'écran de la salle archi-comble du cinéma Sauvenière. Un duplex son reliait les deux sites, ce qui rendait possible les conversations entre la salle d'opération et la salle de cinéma. «Cette réussite est le fruit d'une étroite collaboration entre un ensemble dynamique de 16 sociétés et une université, majoritairement wallonnes et membres de TWIST», souligne le réseau wallon. Il va sans dire que cet exploit technologique liégeois a mobilisé une vaste palette de compétences. La retransmission des images numériques ne pouvait être envisagée sans un réseau à large bande. C'est la Sofico qui a mis à disposition du festival son réseau de fibres optiques. La connexion physique du cinéma Sauvenière au CHU a exigé le creusement d'une tranchée de 300 m et la dépose d'un câble optique capable d'atteindre une vitesse de transfert d'un gigabit par seconde... Pour mémoire, la Sofico contribue, depuis 2002 et en collaboration avec l'opérateur fédéral BelNet, à l'interconnexion des universités francophones vers le réseau mondial de la recherche. Elle assure aussi, avec des partenaires tels que l'intranet wallon WIN, le câblage de 17 centres hospitaliers. Parmi les partenaires impliqués dans l'événement, l'un des acteurs majeurs était sans conteste la société française Binocle. Spécialisée en prise de vue stéréoscopique, elle était chargée de l'acquisition des images 3D. Ce n'était pas simple d'installer et de mettre en œuvre l'encombrant matériel de prise de vue et de son, avec un éclairage tenant compte des lampes très puissantes utilisées en chirurgie. Car il ne fallait en aucun cas gêner l'équipe chirurgicale de sept personnes qui entourait le professeur Martin. La coordination devait être parfaite avec la firme Arc-Cinevideo, qui a fourni les outils de prise de vue, la machinerie et l'éclairage. La régie était assurée par un car de la télévision régionale tournaisienne Notele, installé cinq étages plus bas que le bloc opératoire, dans un parking du CHU. Pour le réalisateur français Dominique Durand, la 3D n'était certes pas une nouveauté, mais la captation d'une opération chirurgicale en était une. Sur un tournage télé, le réalisateur est le patron incontesté mais dans une salle «d'op'», le patron, c'est le chirurgien. Pour l'équipe de captation, l'impératif était donc de travailler le plus discrètement possible. Les images stéréoscopiques étaient enregistrées par une équipe d'EVS, grand spécialiste mondial de l'image numérique. La responsabilité du son étant Un Gb/sec, mais encore ? uand on parle d'une vitesse de transfert d'un gigabit par seconde, garantie par la Sofico à travers son réseau de fibres optiques, on veut dire qu'un milliard d'informations élémentaires (des bits - binary digits en anglais - soit une chaîne de 0 et de 1) sont expédiés à chaque seconde. Cette performance correspond à peu près à 200 fois la capacité d'une bonne ligne internet ADSL domestique. Pour fixer les idées, le moteur de recherche Google explique que la vitesse (démodée) d'un kilobit par seconde (1 000 bit) correspond à l'envoi d'une ligne de texte par seconde, un mégabit (1 million de bits) à l'envoi de 50 pages de texte par seconde et un gigabit, à l'expédition du contenu de 300 livres par seconde. Il faut naturellement tenir compte de la nature de l'information transmise. Des textes prennent peu de place dans la mémoire d'un ordinateur. Par contre, les sons et les images sont nettement plus volumineux. Surtout en 3D, full HD, stereo surround, etc... Q confiée à WNM, une connexion redondante étant assurée par APEX. «Le système de transmission a réussi à maintenir le débit requis de 500 Mbit/s de façon continue durant les trois heures de l'événement», souligne le réseau TWIST. Au cinéma Sauvenière, où un public nombreux assistait à cette grande première, les images 3D étaient générées par un projecteur de la société flamande Barco, fourni par la firme liégeoise XDC, la filiale d'EVS spécialisée dans le cinéma numérique. Les spectateurs étaient munis de lunettes actives fournies par la société slovène XpanD. Citons aussi l'intervention des firmes ACQI (gestion technique de la projection 3D) et EVS (synchronisation des flux stéréoscopiques) qui s'est par ailleurs chargée, en collaboration avec la télévision locale RTC Liège, de composer des clips de «décrochages» tournés lors d'une précédente opération de neurochirurgie enregistrée au CHU le 23 février et qui avait servi, en quelque sorte, de répétition générale. Tout cela était orchestré par une production et une coordination logistique confiées conjointement à Buena Onda Pictures et à Injoy Productions. Le festival international du film de santé, ImagéSanté, a lieu tous les deux ans à Liège et en était, cette année, à sa 9e édition. Il est présidé par le professeur Philippe Kolh, de la Faculté de médecine de l'ULg. Plus d’infos: http://www. imagesante.org Le succès de cette entreprise complexe, menée à bien au terme d'une préparation de plusieurs mois, justifie le «cocorico» final du réseau TWIST: «La Wallonie peut être fière du savoirfaire des sociétés et université qui ont pris part à ce projet unique et relevé ce défi technologique: la majorité de la chaîne de transmission complète a en effet été concrétisée par des acteurs et talents wallons», dont la plupart, faut-il le dire, sont membres de TWIST. http://www.twist-cluster.com Jean-Luc LÉONARD [email protected] 17 Athena 260 / Avril 2010 Recherche Le financement public de la recherche en Région wallonne L es crédits budgétaires publics de R&D (CBPRD) représentent l’ensemble des moyens consacrés par une autorité publique à des activités de R&D. En Région wallonne, ces crédits représentaient, en 2009, un peu plus de 4% du total du budget des dépenses (1). Les moyens affectés au budget de la Région wallonne sont répartis en programmes opérationnels comprenant chacun l'ensemble des moyens consacrés à un domaine d'action. Évolution des crédits publics de R&D en Région wallonne (en milliers d'€) nement et les ressources naturelles, l'emploi et la formation, l'aménagement du territoire et l'urbanisme pour les principaux, comprennent également une proportion de crédits consacrés à la recherche. Après avoir diminué au cours de l'année 2004, les crédits budgétaires publics de R&D de la Région wallonne connaissent, depuis 2005, une progression importante (près de 95% entre 2005 et 2008). En 2009, sur base des crédits initiaux, leur montant s’est stabilisé par rapport au montant observé en 2008. Cette constatation devra toutefois faire l'objet d'une confirmation sur base des chiffres du budget exécuté. Les crédits budgétaires affectés au soutien de la recherche Intéressons-nous plus spécifiquement aux programmes de soutien de la recherche industrielle et du développement de produits, procédés et services innovants (2). La progression des crédits à charge de ces programmes au cours des dernières années suit très logiquement la même tendance que le total des crédits publics de R&D étant donné qu’ils en constituent la majeure partie. Sont ainsi inclus dans les CBPRD, les moyens consacrés aux programmes «Recherche» (18.31), «Aides R&D aux entreprises» (18.32) ainsi que les moyens mobilisés sur le «Fonds de la recherche» (18.34). Ces moyens représentent plus de 80% du total des CBPRD. D'autres programmes, relevant de domaines tels que l'énergie, l'agriculture, l'environ- Le tableau et le graphique repris ci-après mettent en évidence cette progression ainsi que la contribution de chaque grande catégorie de moyens de financement: les crédits dit «ordinaires», les moyens consacrés au cofinancement d’actions relevant des fonds structurels européens et les moyens mobilisés dans le cadre du plan d’actions prioritaires pour l’avenir wallon (Plan Marshall). Crédits budgétaires affectés au soutien de la R&D (2) Budget ajusté, milliers d'euros Crédits ordinaires Cofinancements fonds structurels 2001 2002 2003 2004 2005 2006 2007 2008 2009 124 382 138 471 145 496 123 079 132 541 149 549 155 389 163 532 162 603 54 013 39 174 30 556 13 173 13 612 Plan d'actions prioritaires Total des crédits 178 395 Athena 260 / Avril 2010 177 645 176 052 136 252 18 146 153 1 108 3 330 93 891 34 306 35 065 97 372 54 602 127 814 185 722 256 091 312 025 324 723 (Photo: photl.com) Évolution des crédits budgétaires affectés au soutien de la R&D (2) À partir de 2006, les moyens complémentaires issus du Plan Marshall ont permis aux crédits budgétaires affectés à la R&D de retrouver et ensuite de dépasser le niveau atteint au début des années 2000. La progression observée en 2008 est, quant à elle, essentiellement due au démarrage de la dernière programmation des fonds structurels européens. En 2009, à nouveau, les moyens mobilisés dans le cadre du Plan Marshall ont largement contribué à maintenir le niveau des crédits «Recherche». Comment ces crédits sont-ils utilisés ? Le tableau et le graphique ci-après nous donnent une vision d’ensemble de l’utilisation des crédits relevant des programmes de soutien à la recherche en Région wallonne. Les programmes de recherche des pôles de compétitivité ainsi que les programmes d'excellence universitaires constituent les deux principa- les actions vers lesquelles ont été orientés les moyens complémentaires affectés à la R&D au cours des dernières années. (1) Estimation basée sur les crédits initiaux de 2009. La forte progression des montants engagés dans des projets cofinancés par les fonds structurels européens, qui a pu être observée en 2008, est caractéristique en début de période de programmation, moment où la sélection des projets est organisée. Elle est cependant nettement plus importante que celle observée en 2001, lors du démarrage de la précédente programmation. (2) Programmes 18.31, 18.32 et 18.34 du budget des dépenses de la Région wallonne, selon la nouvelle nomenclature introduite en 2009. En 2009, le cofinancement des projets relevant des fonds structurels s'est poursuivi mais dans une moindre mesure. Cette diminution a toutefois été compensée par la croissance des moyens affectés au financement des projets de recherche des pôles de compétitivité et des programmes d'excellence universitaires. (3) Ils s’agit des montants engagés à charge des programmes 18.31, 18.32 et 18.34 du budget des dépenses de la Région wallonne. La mise en place d'un institut de recherche d'excellence dans le domaine des sciences de la vie et des biotechnologies, WELBIO, vient également accroître, de façon significative, le montant des moyens repris sous le libellé Montants engagés par type d’action en milliers d’euros Actions 2001 2002 2003 2004 2005 Soutien des projets de R&D des pôles de compétitivité 74 199 49 686 2007 2008 2009 51 653 35 553 80 130 62 660 68 452 71 537 65 486 29 235 Soutien des projets de R&D des entreprises (hors pôles) 44 711 53 530 Soutien des projets de R&D des institutions de recherche dans le cadre des fonds structurels 38 844 28 720 9 155 9 167 1 685 952 2 402 91 872 Programmes mobilisateurs 28 937 30 848 30 538 33 290 20 449 31 309 16 500 23 328 27 703 3 271 6 059 20 827 10 472 21 645 Programmes d'excellence universitaires 65 918 2006 20 298 Soutien des projets de R&D des institutions de recherche dans le cadre d'autres programmes 7 181 4 395 10 598 4 750 9 267 5 644 6 181 6 924 16 499 Programmes First 9 820 7 668 9 040 6 420 13 258 14 727 17 517 18 316 9 835 2 500 3 966 3 816 3 633 5 497 7 999 62 3 956 4 262 6 214 12 316 17 618 19 032 16 869 1 083 Programmes d’excellence en partenariat public privé (PPP) Recherche collective Valorisation de la recherche et accompagnement de l'innovation Soutien de la participation aux programmes de recherche européens Autres actions TOTAL 1 119 2 871 9 554 15 496 3 355 11 253 7 820 10 181 93 91 20 1 294 4 127 4 482 4 337 2 118 417 1 283 23 090 5 776 1 562 2 500 333 5 452 140676 144902 167893 124058 133684 164825 213409 294363 19 282698 Athena 260 / Avril 2010 Recherche Évolution des montants engagés par type d'action, en milliers d'euros Évolution des montants engagés par type d'organisation, en milliers d’euros «Soutien des projets de R&D des institutions de recherche dans le cadre d'autres programmes». À qui ces crédits sont-ils octroyés ? Le graphique ci-contre nous donne une vision d’ensemble de la répartition des moyens octroyés par grande catégorie de bénéficiaires. Par rapport à la situation de 2004, l’augmentation des crédits a bénéficié à chacune des trois grandes catégories de bénéficiaires: entreprises, centres de recherche et universités/hautes écoles. Pour les entreprises, l'augmentation résulte essentiellement du financement des projets de recherche des pôles de compétitivité. Nouveau rapport sur l'état des lieux du système d'innovation en Wallonie D epuis quelques années, la Région publie, en partenariat avec le Bureau fédéral du Plan, un tableau de bord de la recherche et de l'innovation en Région wallonne. Le tableau de bord de la recherche et de l'innovation sert également de base à la publication annuelle d'un état des lieux du système d'innovation régional. Ce rapport compare les performances du système d'innovation wallon aux performances des systèmes d'autres pays et régions d'Europe, en vue d'en mettre en évidence tant les points forts que les difficultés constituant les défis à relever pour assurer un développement efficace de la recherche et de l'innovation en Wallonie. La nouvelle édition de ce rapport peut être consultée sur le site http://recherche-technologe.wallonie.be. L'augmentation des fonds octroyés aux universités, constatée à partir de 2006, provient également de leur participation aux projets des pôles de compétitivité et, dans une moindre mesure, des programmes d'excellence. À partir de 2008, le financement des projets cofinancés par les fonds structurels européens contribue également à cette progression. Les fortes augmentations de la part dévolue aux centres de recherche collective correspondent aux années de démarrage des programmations de fonds structurels. Les crédits budgétaires affectés au financement de la recherche des centres sont, en effet, encore fortement dépendants des moyens issus des fonds structurels européens même si les crédits ordinaires ont connu une évolution positive au cours des dernières années. Un rapport complet sur l'utilisation des crédits budgétaires affectés au soutien, à la promotion et à la valorisation de la recherche peut être consulté sur le site http://recherche-technologe.wallonie.be. Isabelle PIERRE [email protected] Athena 260 / Avril 2010 20 Internet Internet ou le do it yourself Souvenez-vous, avant l'arrivée de l'ordinateur individuel, des actes aussi simples que taper une lettre proprement sur une machine à écrire était complexe et ennuyeux: pas de choix de police de caractère, un calvaire pour créer des colonnes, réservation d'un espace suffisant pour des illustrations, numérotation des pages (en espérant ne pas avoir à insérer une page par la suite), numérotation des notes et pages en prévoyant suffisamment de place, pas de couleur, aucun effet spécial comme un filigrane ou un texte vertical... Bref, l'arrivée du traitement de texte a permis à chacun de rédiger un mémoire ou un article sans avoir eu à suivre une formation de dactylographe. Avec les programmes classiques et courants disponibles aujourd’hui, tout le monde est apte à publier des rapports avec une mise en page soignée D epuis les années 90, Internet prend de plus en plus de place dans nos vies professionnelle et privée. Au début, on a découvert avec émerveillement le courrier électronique et le bonheur de pouvoir consulter des sites de n'importe où et à n'importe quelle heure du jour et de la nuit. Mais le début des années 2000 nous a apporté une nouvelle révolution dont beaucoup de gens ignorent encore les résultats et surtout les bienfaits: le Web 2.0. C'est cette nouvelle conception du Web qui nous permet à tous, sans aucune qualification, sans aucune formation, mais avec un peu d'imagination et de logique, de créer en ligne et chez soi des choses qui semblaient totalement inaccessibles à la majorité d'entre nous voici 15 ans. Pour bien comprendre ce qui va suivre, un rappel est toutefois nécessaire... Le Web 2.0, c’est le monstre du Loch Ness, tout le monde en a entendu parler, rares sont ceux qui l’ont aperçu et encore moins touché, mais chacun pense savoir à quoi il ressemble. Si c’est avant tout une philosophie technologique sur Internet, c’est aussi - et peut-être surtout la partie matérielle, le support en quelque sorte, d’une révolution dans la manière de concevoir l’entreprise et sa gestion. Même si ses contours en sont encore mal définis, le Web 2.0 constitue une évolution remarquable vers un World Wide Web offrant davantage de possibilités de colla- boration grâce à des technologies disponibles en ligne qui devraient, très probablement, remplacer rapidement les outils classiques (traitement de texte, tableur…) de nos ordinateurs. Son développement est inéluctable, il est en marche et s’accélère. Il est en train de modifier profondément notre manière de travailler, de réfléchir et de vivre. Les entreprises européennes en général, et belges en particulier, seraient d'ailleurs bien inspirées de ne pas manquer ce train. D’où vient la notion de Web 2.0 ? Le terme «Web 2.0» est un concept inventé par Dale Dougherty, de la société O'Reilly Media, durant une séance de brainstorming avec Craig Cline de MediaLive. À cette époque (2004), le monde (boursier surtout) se remettait difficilement de ce que l’on a appelé «l’explosion de la bulle Internet», survenue quelques années plus tôt. 21 Athena 260 / Avril 2010 Internet Dale Doherty était le collaborateur de Tim O'Reilly, mais il est surtout connu pour avoir créé, en 1993, GNN, le Global Network Navigator, le premier portail Web entièrement financé par la publicité. Dale Dougherty nota que les entreprises ayant survécu à ce désastre financier avaient toutes en commun de proposer des technologies ou des services favorisant la collaboration en ligne. Selon lui, la débâcle de 2000 était une étape normale dans tout processus industriel et marquait simplement la fin d'une époque, celle de la première version du Web (inventé par Tim Berners-Lee en 1993), depuis désignée par le nom de Web 1.0 et fondue désormais dans le Web 2.0. Le texte généralement considéré comme fondateur de ce dernier est accessible en ligne et dans sa version originale à l'adresse http://snipurl.com/ictw. Ce document a été traduit en français et est également disponible en ligne sur http://snipurl.com/v2gk. Qu’est-ce que le Web 2.0 ? Ce n'est ni une norme (définie par un organisme tel que le W3C - http://www.w3.org/), ni un label décerné selon des critères précis par un organisme officiel ou non. Le Web 2.0 n'est pas davantage un standard. Il s'agit plutôt d'une série de principes d'utilisation de technologies existantes. Si celles-ci peuvent être facilement définies et décrites (par exemple la technologie XML), le Web 2.0 est au contraire un concept flou qui regroupe un certain nombre de tendances. Chacun semble en avoir sa propre définition et il suffit, pour s'en convaincre, de considérer le nombre d'articles décrivant «ce qu'est le Web 2.0». Dale Doherty a inventé le terme «Web 2.0». (Photo: James Duncan Davidson/O'Reilly Media, Inc.) Au fil du temps et par un phénomène classique de mode, le Web a vu rapidement se répandre toute une série d'outils, de sites et de comportements en ligne revendiquant l'étiquette «Web 2.0». Ce qui a amené les rédacteurs du document fondateur à préciser les caractéristiques permettant de déterminer les applications en ligne pouvant être qualifiées de Web 2.0. Nous y reviendrons. Dans un article publié en juillet 2006 sous le titre Levels of the Game: The Hierarchy of Web 2.0 Applications, Tim O'Reilly revient sur l'impossible définition du Web 2.0. Il commence par rappeler qu'il ne suffit pas qu'une application utilise la technologie Ajax pour se voir qualifiée de Web 2.0. Ensuite, O'Reilly propose, pour la première fois, une hiérarchie du Web 2.0 en quatre niveaux (de 3 à 0): Athena 260 / Avril 2010 22 • Niveau 3 Ce niveau comprend des applications qui ne peuvent exister que parce qu'elles sont en ligne et qui tirent leur force du réseau et des connexions établies entre personnes ou applications. Ces applications se portent d'autant mieux que le nombre de leurs utilisateurs augmente. Quelques exemples: Ebay (site de vente aux enchères), Skype (téléphonie gratuite d'ordinateur à ordinateur). Ce niveau comporte également deux applications emblématiques du Web 2.0: Wikipedia et Del.icio.us. Wikipedia (http://fr.wikipedia.org/), comme son nom l'indique, est un wiki. Il s'agit d'une encyclopédie dont l'ensemble du contenu est rédigé, annoté, complété et corrigé par les lecteurs, tous bénévoles, qui peuvent eux-mêmes éditer les pages existantes ou en créer de nouvelles. Cette encyclopédie existe en plusieurs dizaines de langues, mais chaque version est originale, c'est-à-dire que les articles ne sont pas des traductions. En d'autres termes, toutes les versions sont différentes. Dans le bas de la page d'accueil sont proposés des liens vers d'autres productions du même type, comme WikiSpecies (en anglais) (http://species.wikimedia.org/) qui a pour but de recenser le monde vivant. Del.icio.us (http://del.icio.us/) est un autre exemple emblématique du monde du Web 2.0. Il s'agit d'un gestionnaire de signets (favoris) en ligne. Le système de gestion des favoris proposé par les navigateurs (Chrome, Internet Explorer, FireFox ou autres) ne convient pas pour un usage professionnel: pas de commentaire possible, pas de possibilité de recherche dans les favoris, etc. Avec Del.icio.us, plus de catégories, mais chaque page est taguée, c'est-à-dire que l'utilisateur y «colle» des mots-clés. Del.icio.us permet de partager ses signets, de lancer une recherche à partir d'un tag, de savoir quels utilisateurs ont sauvé la même page (et de trouver ainsi des gens partageant les mêmes centres d'intérêt). Certains parleront de création d'intelligence collective. Dans l'article précédent, nous avons évoqué un nouveau système de gestion des favoris (signets) connu sous le nom de Diigo (http://www.diigo.com/), supérieur à Del.icio.us, qui n'en demeure pas moins intéressant et qui a réellement ouvert la voie du social bookmarking. • Niveau 2 Les applications du niveau 2 peuvent exister hors connexion, mais le fait qu'elles soient en ligne décuple leur efficacité. Un des meilleurs exemples est Flickr (http://www.flickr.com/). Connu de tous les amateurs de photo, il s’agit d’un outil de partage et de stockage de photos en Internet ligne. Créé en février 2004, racheté par Yahoo! en mars 2005, Flickr compte aujourd'hui plusieurs millions d'abonnés. Le total des photographies téléchargées se compte par centaines de millions. Cette réussite exemplaire tient au principe même sur lequel repose cet outil: créer de l'interaction avec les images. Ce n’est en effet pas un simple outil de stockage de données comme il en existe des dizaines sur Internet. Sur Flickr, les photos sont classées, partagées et peuvent être commentées et taguées. Le site s'est développé sur le modèle des anciens clubs de photographes amateurs, lieux d'échanges, de conseils et d'émulation. Mais ici, les membres bénéficient d'un outil à l'échelle du monde, avec des contributeurs provenant des quatre coins du monde et parlant toutes les langues. On a connu des outils de gestion locale de photos comme iPhoto (http://snipurl.com/v34p), mais il est évident que Flickr bénéficie grandement de la puissance de la communauté des utilisateurs en ligne. Le Web 2.0 a donc mis à la disposition de chacun d'entre nous une série d'outils que nous sommes tous capables d'utiliser. Il nous permet de développer et de partager (en d'autres termes, de faire connaître) nos compétences et/ou aspirations à écrire, de prendre des photos, de communiquer, d'animer des communautés, de commercer, de publier des vidéos, d'organiser des conférences en direct, de créer - pourquoi pas ? un reportage et de le diffuser. Le Web 2.0 a déplacé la frontière entre le possible et l'impossible vers les limites de notre propre imagination. Vous avez une bonne idée ? Réalisez-là ! N'attendez plus que les choses soient parfaites pour les publier. Le premier mérite d'une chose est d'exister ! Vous faire connaître Une des principales conséquences de l'émergence du Web (et en particulier du Web 2.0) est que chacun d'entre nous - personne morale ou personne physique dispose de tout ce dont il a besoin pour se faire connaître. Chercher un emploi aujourd'hui ne se fait plus en envoyant des dizaines de curriculum vitae qui ont tendance à finir dans la corbeille (électronique ou à papier). «Ne dites pas que vous êtes compétent, montrez-le». Plutôt que de se proclamer spécialiste de la recherche d'informations, spécialiste de l'assistance aux personnes en fin de vie ou ébéniste hors pair, n'estil pas préférable de le démontrer ? Comment ? Par exemple en créant un blog sur lequel vous publierez des réflexions, des photos de vos réalisations, des commentaires sur des articles parus dans la presse spécialisée, en offrant des astuces, en partageant votre savoir... Vous laisserez des commentaires (toujours) constructifs sur d'autres blogs en songeant à indiquer qui vous êtes et l'adresse du vôtre. • Niveau 1 Les applications classées au niveau 1 peuvent fonctionner - et fonctionnent d'ailleurs avec succès hors connexion, mais gagneront à être mises en ligne. L'un des exemples les plus connus est Google Documents (http://docs.google.com/), un traitement de texte en ligne, mais aussi un tableur et un outil de présentation. Si on l'emploie pour collaborer à la rédaction d'un document, c'est un outil formidable, mais si on l'utilise simplement comme traitement de texte, l'avantage est minime par rapport à une suite logicielle comme Open Office (http://fr.openoffice.org/). • Niveau 0 On classe ici des applications primitivement apparues en ligne, mais qui fonctionneraient tout aussi bien hors connexion si on disposait de la base de données localement. C'est le cas par exemple de Google Maps (http://maps.google.com/) ou Google Earth (http://earth.google.com/intl/fr/). Pour en savoir davantage sur l'e-réputation: Une définition http://bit.ly/aWSMU Un livre blanc http://bit.ly/biFiuV Un dossier http://bit.ly/cGjHW Un moteur spécialisé http://bit.ly/GjiHo Vous créerez également un profil dans des réseaux sociaux à usage professionnel comme LinkedIn (http://www.linkedin.com/) permettant de générer, petit à petit, un réseau qui sera 23 Athena 260 / Avril 2010 (Photo: PhotoAlto / Reporters) («e-réputation») soit cohérente: ne racontez pas de choses différentes d'un profil à l'autre. Et pour être encore plus visible sur Google, pensez aussi à créer votre profil sur Google Profiles (http://www.google.com/profiles). Identité numérique Une réputation numérique se crée et se gère. Elle se compose de toutes les traces virtuelles que vous laissez traîner: adresses électroniques, photos, curriculum vitae divers et parfois obsolètes, noms apparaissant dans des documents officiels (procès-verbaux d'assemblées générales), etc. Mais elle se compose aussi de tout ce que les autres disent de vous. Si vous n'occupez pas le terrain, d'autres le feront à votre place. Vous multipliez ainsi les «scènes» sur lesquelles vous montrez votre savoir-faire et par là même, vos chances d’être repéré. Soyez généreux, partagez vos idées. N'attendez pas qu'on vienne vous chercher, montrez-vous. Le Web 2.0 nous permet de réaliser un rêve universel: l'ubiquité. Vous penserez évidemment à ajouter des liens vers vos différentes «scènes» dans la signature de vos emails. Et tout cela, sans débourser un centime d'euro ! utile tôt ou tard, par exemple lors d’une recherche d’emploi. Il n'est jamais trop tôt pour entreprendre la création d'un tel réseau car il vous permettra de maintenir le contact avec toutes les personnes rencontrées au cours de vos études, en stage, dans la vie professionnelle, etc. N’attendez pas forcément d’en avoir besoin pour créer un réseau ! Une assurance incendie se contracte quand la maison est en bon état. Ensuite, il est facile de diffuser le contenu de votre blog par d'autres canaux comme Facebook ou Twitter. Écrivez un article et publiez-le sur des sites de journalisme citoyen comme AgoraVox (http://www.agoravox.fr/) ou sur des sites comme Scribd (http://www.scribd.com/). Plus vous multiplierez les moyens de communication (blogs, profils en ligne, réseaux sociaux, etc.), plus vous serez présent dans les moteurs de recherche. Car n'oubliez jamais que votre futur patron va forcément lancer une recherche sur votre nom dans Google pour savoir si ce que vous allez lui raconter en entretien correspond à ce qui se dit de vous sur le Web. Il est indispensable que votre identité numérique Athena 260 / Avril 2010 24 Dans la première partie de cet article nous n'avons pu examiner que la possibilité de se faire connaître. Mais n'est-ce pas là le premier bénéfice à retirer du Web ? Grâce à lui, nous pouvons exister en tant qu'individu. Avant l'ère du Web, il était extrêmement difficile et coûteux de sortir de l'anonymat. Il était très compliqué, pour un jeune journaliste, de se faire remarquer par un patron de presse, pour un poète de faire connaître son travail ou encore, pour un professeur de maths de faire savoir qu'il donnait des cours particuliers sinon en collant des petites annonces sur les valves des grandes surfaces ? Le Web permet le développement d'un tas de nouveaux métiers et de possibilités: organiser une vidéo-conférence, créer un journal personnalisé, créer une télévision privée ou visiter des endroits sans même se déplacer... Magique ! Christian VANDEN BERGHEN [email protected] http://www.brainsfeed.com/ (Photo: photl.com) Cancérologie Les p r o m e s s e s d'un p a r a d o x e Pour croître, une tumeur cancéreuse a besoin d'induire la formation de nouveaux vaisseaux sanguins qui lui apporteront l'oxygène et les éléments nutritifs indispensables à son développement. Depuis les travaux de l'Américain Judas Folkman, ce phénomène qualifié d'angiogenèse tumorale est au centre des recherches de nombreux laboratoires. Aux premiers espoirs déçus en thérapie humaine a répondu un paradoxe, qui dessine une nouvelle voie prometteuse T out commence en 1971 par un article publié dans le New England Journal of Medicine. Selon son auteur, Judas Folkman, les tumeurs ont besoin de nouveaux vaisseaux sanguins pour se développer et se disséminer et de la sorte, former des métastases. En mettant ainsi en exergue le concept d'angiogenèse tumorale, Folkman ouvrait une voie inédite de recherche en cancérologie. Et à l'heure actuelle, les spécialistes sont unanimes pour considérer que la croissance d'une tumeur cancéreuse au-delà de quelques mm3 serait impossible si des vaisseaux sanguins nouvellement formés ne lui apportaient l'oxygène et les éléments nutritifs nécessaires à son développement. Au départ, la tumeur grandit sans angiogenèse, les éléments nutritifs et l'oxygène diffusant directement à partir des vaisseaux avoisinants. Dans un second temps, cette diffusion devient insuffisante dans la tumeur grandissante et des zones d'hypoxie (manque d'oxygène) y apparaissent. Les cellules tumorales réagissent à l'hypoxie en initiant un programme d'adaptation qui induit l'expression et la sécrétion de facteurs favorisant l'angiogenèse, les facteurs pro-angiogéniques. En outre, comme l'indique le professeur Agnès Noël, codirectrice du Laboratoire de biologie des tumeurs et du développement (LBTD) au sein du GIGA-Cancer de l'Université de Liège, les modèles expérimentaux utilisés dans les études précliniques ont montré que la néoformation de vaisseaux sanguins n'était pas seulement impliquée dans la croissance des tumeurs, mais les rendait aussi plus agressives et plus invasives. De fait, ces néovaisseaux sont très immatures et faiblement fonctionnels ; ils laissent de larges plages hypoxiques au sein de la tumeur. Or l’hypoxie tumorale est reconnue depuis longtemps comme un facteur péjoratif car elle rend la tumeur plus résistante aux traitements anticancéreux, comme la chimiothérapie et la radiothérapie. Elle favorise également l’agressivité de la tumeur, ainsi que l’invasion tumorale et la propension à former des métastases. 25 Une tumeur n’est pas uniquement constituée de cellules tumorales, mais comprend également des cellules provenant des tissus avoisinants (cellules de l’hôte) qui constituent le microenvironnement tumoral. Les tumeurs induisent la formation de nouveaux vaisseaux sanguins (angiogenèse) qui favorisent leur croissance et leur offre un accès aux vaisseaux par lesquels les cellules tumorales se disséminent à distance pour former des foyers secondaires ou métastases. Au cours de leur périple, les cellules doivent franchir des obstacles, notamment un réseau complexe de protéines, la matrice extracellulaire. Athena 260 / Avril 2010 Cancérologie Dans les années 1980, l'accent fut mis sur l'identification des facteurs angiogéniques, ceux-là mêmes qui s'expriment en réponse à l'hypoxie pour stimuler l'apparition de nouveaux vaisseaux. C'est ainsi que furent découverts le VEGF (vascular endothelial growth factor), le bFGF (basic fibroblast growth factor) et plus tard, le PDGF (platelet-derived growth factor). Très vite, le VEGF polarisa toutes les attentions, ou presque, car il semblait être le facteur potentiellement le plus angiogénique. L'idée était donc: pour faire obstacle à l'angiogenèse, il faut bloquer le VEGF. (Photo: photl.com) Stratégies anti-VEGF À la charnière des années 1980 et 1990, les mécanismes d'action du VEGF étaient déjà bien élucidés. D'une part, confirmation était donnée de l'importance de son rôle dans l'angiogenèse. D'autre part, deux stratégies purent être élaborées pour annihiler son action. La première consiste à diriger un anticorps contre lui. La seconde tente de bloquer les récepteurs au VEGF, soit en empêchant la liaison entre le VEGF et son récepteur, soit en inhibant la partie activatrice du récepteur (qui est de type «tyrosine kinase»), réduisant ainsi au silence la cascade d’événements qu'il engendre. «Un problème se pose néanmoins: le manque de spécificité de l'inhibition des récepteurs de type tyrosine kinase, cette famille de récepteurs n'étant pas dédiée au seul VEGF, dit Agnès Noël. En d'autres termes, nous ne connaissons pas toutes les conséquences de cette stratégie.» Quoi qu'il en soit, les deux principales approches susmentionnées pour bloquer l'action du VEGF se sont révélées efficaces dans tous les modèles de tumeurs induites chez la souris, démontrant qu'une monothérapie antiVEGF peut guérir les souris porteuses de tumeurs. C'est dans ce contexte qu’en 2004, la Food and Drug Administration (FDA - ÉtatsUnis) donna son approbation à l'utilisation, en médecine humaine, d'un premier anticorps anti-angiogénique, le bevacizumab (Avastin®), pour le traitement du cancer colorectal métastatique. Par la suite, ce médicament fut également testé dans d'autres types de tumeur. Si l'Avastin®, en monothérapie, Athena 260 / Avril 2010 26 procure certains bénéfices dans quelques cancers (côlon, rein), il en est dépourvu dans d'autres. Après plusieurs études cliniques, il ne semble pas avoir d'avenir en monothérapie, mais seulement en combinaison avec une radiothérapie ou une chimiothérapie. «Chez l'homme, les bénéfices sont mineurs par rapport aux espoirs de départ», commente Agnès Noël. Pourquoi cette discordance entre les résultats précliniques (animal) et les observations cliniques ? C'est ce qu'essaient de comprendre les laboratoires. Durant la première phase des études sur l'angiogenèse, soit pendant plus de trente ans, tous les regards se sont focalisés sur les cellules endothéliales (1). De la sorte, la recherche s'est inscrite dans une vision parcellaire du phénomène de l'angiogenèse. À l'opposé de la lumière sanguine, la paroi des vaisseaux est en effet tapissée de «cellules murales», les péricytes, qui assurent la maturation et la stabilité de ceux-ci. Une nouvelle voie Dans les tumeurs, les vaisseaux nouvellement formés sont généralement plus tortueux, moins fonctionnels et plus perméables que des vaisseaux «normaux». Ils sont moins recouverts de péricytes et donc moins stables. Aujourd'hui, on sait que bloquer le VEGF aboutit à une meilleure maturation des vaisseaux et, par conséquent, à une «normalisation de la vascularisation tumorale». Cette situation tient du paradoxe, puisqu’au départ, le but était d'empêcher la croissance de la tumeur en provoquant son asphyxie et en la privant de nutriments. Ce paradoxe a néanmoins ouvert une nouvelle voie. La normalisation de la vascularisation tumorale induite par un traitement anti-angiogénique homogénéise la perfusion tumorale. Cela permet une meilleure distribution des drogues de chimiothérapie au sein de la tumeur et favorise en outre l’oxygénation tumorale. Or, si l’oxygène est indispensable à la survie cellulaire, il l’est également à l’efficacité de la chimiothérapie et de la radiothérapie. Ainsi, l’hypoxie rend les cellules tumorales trois fois plus résistantes à la radiothérapie. «Si ces concepts de normalisation et de synergie entre les anti-angiogéniques et les traitements anticancéreux sont bien documentés dans les modèles animaux, la preuve formelle reste à faire chez l'homme», insiste le professeur Philippe Coucke, chef du service de radiothérapie du CHU de Liège. Agnès Noël indique pour sa part que, chez l'homme, le couplage d'un traitement anti- Cancérologie VEGF et d'une chimiothérapie ne représente aujourd'hui une plus-value que dans certains types de cancers, principalement ceux pour lesquels les traitements existants sont peu efficaces, et que, globalement, cette stratégie s'est révélée plutôt décevante. Le concept qui la sous-tend est-il voué à l'échec pour autant ? «Non, estime-t-elle. Jusqu'à présent, nous avons travaillé sur des modèles trop simples en nous focalisant sur les seules cellules endothéliales. Désormais, nous devons notamment nous atteler à élucider le dialogue qu'elles entretiennent avec les péricytes et considérer la tumeur comme un écosystème complexe.» Pour l'heure, aucune direction précise ne se dessine. Et d'ailleurs, la fenêtre temporelle en question est-elle identique pour chaque type de tumeur et pour chaque type de patient ? Non, sans doute. «De surcroît, si l'on considère le coût d'une molécule comme l'Avastin®, on conçoit aisément la nécessité absolue de définir des critères très stricts qui permettront de sélectionner a priori les patients susceptibles de bien répondre à ce type de thérapie», déclare Philippe Coucke. Se référant à la radiothérapie, Philippe Coucke explique qu'une normalisation de la vascularisation tumorale devrait théoriquement permettre de contourner un des grands écueils auxquels se heurte cette technique: la radiorésistance (2) des régions tumorales hypoxiques. Il ajoute: «Malgré le traitement antiangiogénique, il restera des régions hypoxiques dans la tumeur. Fractionner la radiothérapie en de multiples séances permet d’éradiquer en premier les cellules tumorales localisées dans les zones les mieux vascularisées, ce qui favorise une reperfusion et une réoxygénation des régions tumorales initialement peu oxygénées et, dès lors, dans un deuxième temps (lors des séances de radiothérapie suivantes), leur réponse aux rayons.» Au CHU de Liège, le docteur Philippe Martinive coordonne un essai clinique où est associé de façon synchrone, en préopératoire, un anti-angiogénique de la famille des inhibiteurs «tyrosine kinase», le sunitinib (Sutent®), à des séances de radiothérapie et ce, dans le cadre du cancer du rectum. S'offre ainsi l'opportunité de réaliser, parallèlement à ce traitement bicéphale, des évaluations successives du métabolisme tumoral par imagerie fonctionnelle (PET scan, IRM fonctionnelle). Ensuite, après l'excision chirurgicale, il sera procédé à l'examen anatomopathologique de chaque pièce opératoire afin d'y déceler d'éventuelles modifications dans la vascularisation tumorale et de les mettre en relation avec les résultats fournis préalablement par l'imagerie fonctionnelle. Le bon timing Malheureusement, on n'a pas encore pu déterminer chez l'être humain la manière optimale d'associer les molécules anti-angiogéniques et la radiothérapie. La question est délicate, d'autant que l'administration d'un anti-VEGF induit probablement une augmentation transitoire de l'hypoxie, en raison de l'élimination d'un certain nombre de vaisseaux en formation, fussent-ils tortueux et peu adéquats. Il convient donc de déterminer la séquence optimale (ordre, délai, durée) de mise en œuvre des traitements combinés. Quelques essais cliniques ont porté sur l'association d'une chimiothérapie et d'un traitement anti-angiogénique, en particulier dans le cancer du poumon. Ces essais furent peu probants, voire délétères. Selon le professeur Coucke, la raison de ces échecs tient probablement au fait que les deux drogues ont été délivrées simultanément. Des essais ultérieurs, où l'anti-angiogénique a été donné après la chimiothérapie, se sont révélés plus prometteurs. Il est donc impératif de trouver la fenêtre temporelle la plus appropriée pour combiner la chimiothérapie ou la radiothérapie, d'une part, et un traitement anti-angiogénique, d'autre part. Résistance aux anti-VEGF «Actuellement, on voit fleurir des essais cliniques où sont associés la chimiothérapie, la radiothérapie et l'emploi de molécules anti-angiogéniques, fait remarquer Philippe Coucke. Ces initiatives me paraissent prématurées. Dans la mesure où l'on ignore les interactions entre ces modalités prises deux par deux, on peut difficilement démêler l'écheveau lorsqu'on s'intéresse à la combinaison des trois. Dans le même ordre d'idées, l'étude des interactions entre la chimiothérapie et l'administration de médicaments anti-angiogéniques se complique du fait que la chimiothérapie adopte souvent le profil d'une polychimiothérapie.» Le problème se pose de façon d'autant plus aiguë que les anti-angiogéniques, comme le bevacizumab (Avastin®), ne sont pas dépourvus d'effets secondaires. Des problèmes d'hypertension, éventuellement d'hémorragie, ont été décrits chez certains patients. Il résulte parfois de ces multiples associations médicamenteuses, une toxicité tellement importante qu’elle oblitère le bénéfice d’un traitement anti-angiogénique. 27 Le professeur Agnès Noël, codirectrice du Laboratoire de biologie des tumeurs et du développement (LBTD) au sein du GIGA-Cancer de l'ULg. (Photo: Ph.Lambert) Philippe Coucke, chef du service de radiothérapie du CHU de Liège. (Photo: Ph.Lambert) (1) Cellules qui tapissent la lumière des vaisseaux sanguins. (2) Résistance à la radiothérapie. Athena 260 / Avril 2010 Cancérologie Une découverte importante our la plupart des types de cancers, on ignore quelle est la cellule à l'origine de l'initiation tumorale. En mars, l'équipe du docteur Cédric Blanpain, chercheur qualifié du FNRS au sein de l'Institut de recherche interdisciplinaire en biologie humaine et moléculaire (IRIBHM) de l'ULB, a bénéficié d'une publication dans Nature Cell Biology pour un article intitulé Identification of the cell lineage at the origin of basal cell carcinoma, dont le premier auteur est Khalil Kass Youssef, boursier FRIA. Non seulement les chercheurs de l'ULB ont identifié les cellules à l'origine du carcinome basocellulaire (BCC), le cancer de la peau le plus fréquent chez l'homme, mais ils ont aussi balisé une voie nouvelle, applicable à l'ensemble des tumeurs malignes, pour l'élucidation des mécanismes moléculaires se manifestant à chaque étape de la cancérisation. P Sur le plan histologique, le BCC ressemble à des follicules pileux désorganisés. Par ailleurs, il exprime les marqueurs folliculaires. «Aussi la communauté scientifique a-t-elle cru, en toute bonne foi, que le carcinome basocellulaire trouvait son origine au niveau du follicule pileux» , rapporte Cédric Blanpain. Misant sur une approche génétique ingénieuse permettant d'activer le gène (SmoM2) responsable du BCC dans différents sous-compartiments de la peau de souris transgéniques, les biologistes de l'ULB ont montré que cette attribution était erronée. L'équipe de Cédric Blanpain a conçu et mis au point une nouvelle méthodologie, l'analyse clonale de l'origine des cancers, qui lui permit d'activer le gène responsable du BCC dans des cellules épidermiques isolées et de suivre leur devenir au cours du temps. «Applicable également aux autres cancers, cet outil est très puissant pour comprendre les mécanismes qui sous-tendent la progression tumorale», commente Cédric Blanpain. Couplée à des analyses tridimensionnelles de la peau, cette technique révéla que le carcinome basocellulaire n'avait pas pour point de départ les cellules souches du follicule pileux, mais celles de l'épiderme interfolliculaire, dans 93% des cas, et celles de la jonction entre ce dernier et le follicule dans les autres cas. Un autre élément intéressant mis en exergue par Cédric Blanpain, Khalil Kass Youssef et leurs collègues est que les progéniteurs issus des cellules souches mutées de l'épiderme interfolliculaire doivent avoir arrêté de se différencier et acquis une identité folliculaire avant de permettre le développement d'un cancer invasif. Ce qui, d'une part, explique pourquoi le BCC exprime les marqueurs folliculaires et, d'autre part, rend compte du fait que les caractéristiques de différenciation d'une tumeur ne portent pas nécessairement la signature de son origine cellulaire. Au-delà des travaux relatés dans Nature Cell Biology, l'équipe bruxelloise s'investit depuis plusieurs mois dans la caractérisation des événements moléculaires qui, étape après étape, conduisent de la mutation initiale de la cellule souche interfolliculaire au développement d'un cancer invasif. L'espoir est de trouver, dans un second temps, des molécules capables d'inhiber telle ou telle protéine critique du processus de cancérisation afin d'en provoquer l'arrêt. Plusieurs molécules actuellement en cours d'étude seraient de nature, on l'espère, à réduire les risques de type cardiovasculaire. «De toute façon, il existe un large consensus pour considérer que les anti-angiogéniques devront être combinés avec d'autres modalités thérapeutiques et délivrés dans une fenêtre temporelle bien précise, mais encore à définir», commente Agnès Noël. (3) Cellules participant à la synthèse des constituants du tissu conjonctif. La chercheuse insiste sur un autre problème: les tumeurs développent une résistance envers les traitements anti-VEGF. Comme l'eau qui se joue des obstacles jalonnant sa route, elles semblent contourner la difficulté au bout d'un moment en induisant l'expression d'autres facteurs angiogéniques que le VEGF, qui prennent le relais. Toujours selon elle, «il est probable qu'on ne pourra pas se limiter à utiliser un seul antiangiogénique, mais qu'il faudra bloquer différentes voies inductrices de l'angiogenèse.» Précisément, le LBTD a entrepris des travaux ayant pour objectif d'élucider les mécanismes de résistance des tumeurs vis-à-vis des anti-VEGF. Ces recherches (l’un des axes du programme Athena 260 / Avril 2010 28 d’excellence NeoAngio), qui viennent à peine d'être initiées, en sont au stade du développement de modèles expérimentaux. Une hypothèse fait néanmoins son chemin: il se pourrait que ce soient les fibroblastes (3) présents dans les tumeurs qui, au terme du «dialogue» qu'ils entretiennent avec les cellules cancéreuses, induisent la résistance à l'égard des anti-VEGF en produisant des facteurs angiogéniques alternatifs. Pour clore, signalons que les recherches sur l'angiogenèse, initialement polarisées sur le seul cancer, sont susceptibles de se forger des débouchés dans d'autres pathologies. Ainsi, depuis cinq ans environ, les anti-angiogéniques sont employés avec un certain succès pour traiter la dégénérescence maculaire liée à l'âge. «C'est le seul traitement qui fait montre d'une réelle efficacité avec, dans certains cas, une récupération de l'acuité visuelle», signale le professeur Noël en guise de conclusion. Philippe LAMBERT [email protected] Info-Bio Ciel, terre et mer au programme... L’humain volant, le poisson pédestre, la souris boulimique ou encore le cheval-gazelle: non, ce ne sont pas des titres de films fantastiques mais bien les sujets, toujours étonnants, à découvrir dans cette rubrique ! es amateurs de sport extrême connaissent Félix Baumgartner. Ce parachutiste autrichien, aujourd'hui âgé de 41 ans, s'est fait connaître par des sauts de l'impossible: depuis les tours les plus hautes du monde et, plus récemment (en 2003), par sa traversée de la Manche, muni d'une combinaison dotée d'une aile spécialement profilée. L Comme il est difficile de rester sur un succès, il envisage de battre, cette année, un nouveau record: celui de la chute libre entamée de la plus haute altitude jamais tentée par un humain. En l'occurrence 125 000 pieds, soit plus de 36 000 m, ou 36 km si on préfère. Pour rappel, les avions commerciaux naviguent entre 10 et 12 000 pieds, soit trois fois moins haut, mais déjà largement au-dessus des nuages. Il y a donc de l'exploit dans l'air pour autant bien entendu que l'essai aboutisse. Et de ce point de vue, il n'y a rien de garanti. Tout dépend de la position de chute libre qu'il va adopter, mais il devrait de toute façon passer le «mur du son». Une première pour un humain hors d'un avion et dont on ne connaît pas les répercussions métaboliques. Il va de soi que ce type d'exploit est très sérieusement encadré par une équipe de spécialistes. Dans leurs rangs se trouve notamment Joseph Kittinger, un militaire américain retraité (il a aujourd'hui 82 ans !) qui détient toujours le record pour ce genre de saut, avec un départ à 102 800 pieds ! Pour l'un comme pour l'autre, le secret de la réussite a tenu et tiendra en une combinaison pressurisée et - normalement - très bien isolée. Il n'empêche que pour Kittinger, qui a réalisé son exploit en 1960 déjà, un petit défaut dans son gant droit a fait doubler le volume de la main correspondante. Détail important en ce qui le concerne, il n'a chuté qu'à une vitesse de… 988 km/h, soit Mach 0,9 et n'a donc pas passé ce mythique mur du son, qui reste dorénavant la grande inconnue. Baumgartner est certes un peu casse-cou, mais n'est pas pour autant une tête brûlée. Il est en effet évident qu'un exploit ne vaut vraiment que si on y survit. Il doit le savoir… n Science 2010; 327: 627 29 Athena 260 / Avril 2010 (Photo: divemasterking2000) Le saut de trop ? Il faut aussi se souvenir que la température à cette altitude stratosphérique est particulièrement basse, de l'ordre de -100 °C. Pour peu que le parachutiste transpire un peu, il risque de voir sa peau givrer. Enfin, en général, la pression partielle en oxygène et en gaz est faible. Son sang ne risquet-il pas tout simplement de libérer ses gaz dissous sous forme de bulles, ce qui correspond pratiquement à une ébullition ? En outre, la raréfaction en oxygène devrait forcer le sportif à s'offrir une apnée de plus de quatre minutes ; pour s'y préparer, il a déjà convenu de respirer, au cours des deux heures qui précèdent son saut, un air enrichi en ce gaz. Info-Bio Obésité et cancer ? De l'apparition des pattes e surpoids et a fortiori l'obésité ont mauvaise presse. Quelle que soit leur origine, on sait qu'ils peuvent mener à une incidence accrue - par rapport à des témoins de poids normal - d'un certain nombre de pathologies telles que les affections cardiovasculaires et le diabète de type 2 pour ne citer que les plus documentées. L'obésité vient également de se voir associée à un risque augmenté de cancer, ce qui n'est évidemment pas surprenant lorsqu'on voit à quels dérèglements métaboliques elle est déjà étroitement liée. Et grâce à des expériences menées chez l'animal - en l'occurrence chez la souris - on vient de démonter les mécanismes par lesquels le lien est possible. L On a d'abord constaté que les animaux obèses candidats à un cancer produisent davantage de STAT3, une protéine connue pour être, de loin et indirectement, promotrice de cancer. Ensuite, on a constaté que la concentration d'une cytokine, l'interleukine IL-6, est également plus élevée que chez les témoins. Enfin, une constatation identique a été faite pour le TNF, une protéine proinflammatoire. Ces trois éléments sont liés: tant IL-6 que TNF sont nécessaires pour activer STAT3, laquelle accroît à son tour la transcription de gènes spécifiques dans des états pathologiques. C'est dans ce cadre que, chez les souris obèses, on la trouve associée à des états inflammatoires du foie, antichambres d'altérations plus graves et en l'occurrence - aussi - de cancers. Le lien n'est évidemment pas immédiat: il s'agit bien d'un facteur de risque. Mais il semble valoir tant pour les obésités liées à des prédispositions génétiques qu'à une alimentation trop riche en graisses. Le savoir constitue peut-être déjà un encouragement à modifier son alimentation si on le peut. Après tout et sans brandir ce risque-là, il existe d'autres bonnes raisons de le faire pour se soustraire autant que possible aux inconvénients multiples liés à la surcharge pondérale. En aucun cas, ceci ne constitue une incitation: c'est une simple information. Il revient à chacun(e), en toute autonomie évidemment, de le débriefer comme il l'entend. n Cell 2010; 140: 197-208 es mammifères évolués que nous sommes ont des ancêtres, certes très lointains, qui ont eu cette idée étonnante de sortir de l'eau, leur milieu de vie jusqu’alors. Nous sommes par conséquent les descendants de poissons dont les nageoires se sont progressivement transformées en pattes articulées susceptibles à la fois de les porter et de leur permettre de progresser sur la terre ferme. L Cette réalité n'est évidemment pas neuve et contribue très étroitement à l'élaboration de l'arbre évolutif qui mène jusqu'à nous. Il reste encore à définir la période pendant laquelle Le Tiktaalik a permis de situer au Givetien, soit entre 391 cet important «changement» s'est produit et quelles sont les espèces - bien entendu fossiles qui en ont connu les premières manifestations. Pour ce qui est de la période, on l'a fixée plus ou moins étroitement; il s'agit du Dévonien qui dans les grandes lignes - s'est étendu de 420 à 350 millions d'années d'ici. Pour ce qui est de la datation plus précise, on ne peut compter que sur la découverte de fossiles de l'époque dont l'âge peut être déterminé par les méthodes physiques disponibles aujourd'hui. À chaque découverte, on précise donc un peu mieux, si c'est possible bien sûr, l'époque à laquelle le premier tétrapode est sorti de l'eau. Ce fut par exemple le cas, il y a quelques années, de Tiktaalik, ce fossile dont on a fait une sorte de «chaînon manquant» permettant de situer l'apparition des poissons «tétrapodomorphes» au Givetien, soit entre 391 et 385 millions d'années. La lente élaboration de l'arbre évolutif s'est contentée de cette datation qui confortait ce qu'on avait établi jusque-là. Or voilà qu'une découverte toute récente ferait remonter cette apparition 18 millions d'années plus tôt, soit vers 397 millions d'années. Certes l'information ne change pas grand-chose à notre vie quotidienne, mais pour les scientifiques attachés à ce domaine, c'est un réel scoop. Ce que des paléontologues ont découvert dans un sol pétrifié à Zachelmie, en Pologne, ce sont des traces, datées de cette époque, où on identifie non seulement la marque de pattes, Athena 260 / Avril 2010 30 (Photo: Marc Hanauer) mais aussi des doigts. Il s'agissait par conséquent déjà de membres évolués. La première intention a logiquement été de vérifier la datation et d'exclure la possibilité d'empreintes laissées par des arthropodes (ancêtres des insectes actuels) dont quelques espèces avaient, à l'époque, une taille importante. Les traces mettant en alternance l'empreinte de la patte gauche et de la droite ont suffi à éteindre cette possibilité. Pour autant, on ne sait pas encore si l'animal concerné pesait de tout son poids sur ses membres en cours d'élaboration. Le sol pétrifié où les traces ont été identifiées est celui d'un lagon peu profond ; le «poisson» concerné a simplement pu s'approcher très fort du bord et laisser ses empreintes dans le sol vaseux. Ce qui gène un peu les scientifiques, c'est que le même sol n'ait pas permis que le corps d'animaux de cette époque soit lui aussi les poissons tétrapodomorphes conservé ; en tout cas n'en 1 et 385 millions d’années a-t-on pas encore découvert. Cela viendra peutêtre. De quoi conforter une nouvelle étape du cheminement lointain de cette partie du vivant qui a donné, 400 millions d'années plus tard, l'étonnant bipède que nous sommes. n Nature 2010; 40-41 Ce qui fait courir les chevaux our le commun des mortels, le cheval est surtout un bel animal, noble et fier. Pour d'autres, il est en plus un placement, l'objet de spéculations multiples en termes de résultats notamment obtenus sur les champs de courses. Jusqu'il y a peu, les qualités d'un poulain étaient celles dont la génétique l'avait doté, au hasard généreusement orienté de saillies souvent chèrement acquises. P L'avenir pourrait bien voir les choses se présenter autrement. Tout est parti du séquençage du génome équin et de l'identification plus précise des gènes et de leurs variantes respectives. Pour le cheval, certains gènes ont obligatoirement plus d'importance que d'autres et en particulier ceux qui définissent la performance sportive. Parmi eux, ceux qui codent pour la myostatine, une protéine associée au développement musculaire. Une étude menée dans un laboratoire irlandais a identifié les allèles qui codent pour cette protéine et les a associés à un type particulier de masse musculaire et de performances. L'idée a donné naissance à une société - Equinome - qui propose dorénavant un test permettant, dès le plus jeune âge du poulain, de savoir de quel type de musculature il sera doté. Trois groupes ont été définis: CC, CT et TT, selon les allèles (ou variantes) identifiés chez le jeune sujet pour le gène en question. À en croire les initiateurs, cette simple identification ne permet évidemment pas de prédire ce que le cheval va gagner, mais simplement de l'orienter vers des types d'épreuves dans lesquelles il a plus de chances de briller. Pour CC, les distances les plus courtes (1 300 m) sont à favoriser: l'animal est un sprinter. Pour TT, des distances plus longues (2 230 m, par exemple) sont préférables. Quant à CT, on aura compris qu'il est plutôt destiné à des parcours intermédiaires, de l'ordre de 1 830 m. Tout cela a été vérifié lors de courses où il apparaît qu'il existe en effet une excellente adéquation entre les allèles présents chez les chevaux au départ et les performances observées dans les distances respectives ensuite. La société espère évidemment faire de confortables profits dans le monde du turf (courses hippiques) ; il est également probable qu’elle ne va pas s'arrêter à ce seul test et devrait en produire d'autres qui soient en rapport avec des caractères additionnels et discriminants de ces merveilleuses machines à courir. Il va de soi que, de plus en plus, des tests prédictifs entrent dans le quotidien; que ce soit dans le monde animal, comme dans l'exemple repris ici, mais aussi chez l'humain. Pour l'heure et en ce qui nous concerne, seule la santé - a priori en tout cas - est le domaine où les tests disponibles sont mis en pratique. Mais allez savoir si dans un avenir proche, quelques dispositions particulières, à l'instar de la fonction musculaire du cheval, ne seront pas précocement identifiées chez des petits d'homme non plus ? Science 2010; 327: 627 Les courses belges, régies par la Fédération belge des courses hippiques, comprennent le trot et le galop. Le secteur, existant depuis 180 ans, était prospère et d’un bon niveau international jusque dans les années 90. Financé par la marge que prenaient les sociétés de course sur les paris. il relève de l’agriculture mais peu de textes légaux le régissent. Les régions touchent le revenu des taxes sur les paris. Depuis une dizaine d’années, le secteur hippique connaît un déclin dramatique, conséquence d’un cercle vicieux: moins de paris entraîne une baisse des bénéfices et du chiffre d’affaires, qui amène à une baisse des price money, du niveau et finalement, de la qualité des courses et ainsi de suite... Infos: www.trotting.be Jean-Michel DEBRY [email protected] 31 Athena 260 / Avril 2010 Psychologie (Photo: Marie-Line Cau / Photononstop / Reporters) Regards in térieurs Baptisée par certains auteurs le «soi autobiographique», la représentation de soi est une facette essentielle de la conscience de soi. Plurielle, évolutive, elle se nourrit des souvenirs que nous avons engrangés dans deux réservoirs: la mémoire épisodique et la mémoire sémantique. Mais quelles sont les régions cérébrales impliquées dans notre capacité à nous forger une représentation de nous-mêmes ? Le cortex préfrontal médian semble en être la clé de voûte... S elon Antonio Damasio, directeur du Brain and Creativity Institute de l'Université de Californie du Sud, à Los Angeles, la conscience de soi comporte deux composantes essentielles: le «soi central» et le «soi autobiographique». Constamment recréé dans le présent, le premier se réfère à la conscience immédiate d'exister ici et maintenant, et comprend plusieurs facettes. Deux d'entre elles sont, par exemple, le sentiment d'être acteur de sa propre vie - si je bouge la main, je conçois que c'est bien moi qui la bouge - et le sentiment d'être localisé, d'«habiter» dans son corps. A priori, cela peut paraître évident, mais la clinique et l'expérimentation sont là pour tempérer cette opinion. Ainsi, dans la schizophrénie, certains individus sont persuadés d'être contrôlés dans leurs pensées et leurs actes par une entité extérieure. De même, à la suite de certaines manipulations expérimentales, des sujets «normaux» peuvent éprouver l'impression de se trouver dans un autre corps que le leur. L'expérience dite de «l'illusion de la main en caoutchouc» fut la première à rendre compte de ce phénomène. Un écran est placé entre le sujet et une de ses mains. Elle lui est donc cachée. En Athena 260 / Avril 2010 32 revanche, il voit une main en caoutchouc posée sur une table. Au moyen d'un pinceau, les expérimentateurs touchent simultanément la vraie main, dissimulée, et la fausse main. La manœuvre est répétée et, au bout d'un moment, le sujet finit par prendre la main en caoutchouc pour sa propre main. «La synchronisation des informations visuelles et tactiles est à la base de cette confusion», explique Arnaud D'Argembeau, psychologue, chercheur qualifié du Fonds national de la recherche scientifique (F.R.S.-FNRS) Psychologie au sein du service de psychopathologie cognitive de l'Université de Liège (ULg). Plus impressionnantes encore, les études de Henrik Ehrsson, de l'Institut Karolinska, en Suède. Ici, le volontaire est debout, la tête inclinée vers le bas, dans une position susceptible de lui permettre d'observer son corps. Toutefois, il est équipé de lunettes spécialement conçues pour que ce ne soient pas son buste et ses jambes qui lui apparaissent mais, dans une perspective rigoureusement identique, l'image du buste et des jambes d'un mannequin. L'expérimentateur va alors toucher l'abdomen du sujet, par exemple, à l'instant précis où ce dernier voit un bâtonnet heurter l'abdomen du mannequin. Ce type d'événements est reproduit à plusieurs reprises et, après un certain temps, le volontaire a réellement le sentiment de se situer dans le corps de l'être fictif. Des mesures objectives s'allient aux réponses fournies par les participants à des questionnaires d'autoévaluation pour l'attester. «À la fin de l'expérience, les chercheurs ont même menacé le mannequin avec un couteau, rapporte Arnaud D'Argembeau. La réponse émotionnelle des sujets, mesurée par la conductance cutanée, se révéla similaire à celle qu'on aurait pu attendre d'individus qui auraient été personnellement menacés.» Il faut déduire de ces recherches que le sentiment communément éprouvé de «résider» dans son propre corps est le fruit d'une construction. Un vase de Chine Dans le modèle de Damasio, la seconde composante de la conscience de soi est le «soi autobiographique». C'est de loin la plus élaborée, puisqu'elle reflète les représentations de soi que chacun a stockées en mémoire à long terme. Les psychologues Stanley Klein et Judith Loftus, de l'Université de Californie, à Santa Barbara, considèrent d'ailleurs que les connaissances sur lesquelles se forge notre identité sont organisées sur le même mode que toutes nos autres connaissances. Aussi la conscience de soi puiserait-elle largement sa substance dans ces deux réservoirs que sont la mémoire épisodique (1), relative aux épisodes que nous avons personnellement vécus, et la mémoire sémantique (2), qui concerne nos connaissances générales sur le monde et sur nous-mêmes. teur ?»...), les rôles sociaux (dans les sphères familiale, professionnelle, amicale...), etc. C'est donc autour de toute une collection de connaissances que se forme la représentation de soi. Et ce que les autres nous renvoient de nous-mêmes est primordial. Le caractère pluriel de la représentation de soi tient aussi à d'autres éléments, dont l'un des principaux est le fait, nous l'avons signalé, qu'elle s'abreuve à deux sources: la mémoire épisodique et la mémoire sémantique. Ainsi, la conviction d'être maladroit pourra s'enraciner dans le souvenir d'événements précis personnellement vécus, comme avoir renversé la veille un verre dans un restaurant ou cassé un vase de Chine chez un ami. Cette facette de l'image de soi (la maladresse) pourra également s'élaborer à partir d'un ensemble de connaissances relativement abstraites qui se seront constituées à travers une accumulation d'expériences passées. «Dans ce cas, il n'est pas nécessaire de se souvenir de ces épisodes, souligne Arnaud D'Argembeau. Les représentations sémantiques ne dépendent plus de la mémoire épisodique, même si elles sont en quelque sorte des résumés décontextualisés d'une série d'expériences personnelles.» Cortex préfrontal médian Comment sait-on que cette dissociation est bien réelle ? Notamment parce qu'il ressort d'études portant sur des patients amnésiques que ces derniers conservent une image d'euxmêmes. Or, par définition, ils sont en proie à des problèmes massifs de mémoire épisodique. Stanley Klein fut l'un des premiers à montrer que si on demande à ces personnes d'évaluer divers traits de leur personnalité, elles fournissent des appréciations très similaires à plusieurs semaines d'intervalle, alors qu'elles n'ont pas le moindre souvenir de s'être jamais soumises à un quelconque test de ce type. Un des rôles essentiels de la mémoire épisodique est de contribuer à la mise à jour de la représentation de soi, de permettre à cette dernière d'évoluer avec l'individu. On sait, par exemple, que les patients Alzheimer (2) La mémoire sémantique sert à l'acquisition de connaissances générales sur le monde et sur nous-mêmes. Grâce à elle, nous savons par exemple que Rome est la capitale de l'Italie, mais aussi que, dans un restaurant, il convient de s'asseoir, de consulter le menu, de manger, de réclamer l'addition et de payer. Ce système de mémoire renfermerait également une carte cognitive des lieux connus villes, maisons, etc. (Photo: photl.com) La représentation de soi, le «soi autobiographique», n'est pas une entité unitaire. Les caractéristiques personnelles sur lesquelles l'individu bâtit l'image qu'il a de lui-même ressortissent à différents registres: les traits de personnalité («Suis-je plus ou moins sociable ?»...), les préférences (Thé ou café ? Cinéma ou lecture ?...), les capacités («Suis-je bon conduc- (1) La mémoire épisodique permet le stockage et la prise de conscience d'épisodes personnellement vécus par le sujet. En quelque sorte, elle est le support de son histoire individuelle. Lésée, elle conduit à l'amnésie. 33 Psychologie conservent des représentations d'eux-mêmes, mais qu'elles demeurent figées lorsque les difficultés de mémoire épisodique inhérentes à la maladie deviennent sévères. Arnaud D’Argembeau a.dargembeau @ulg.ac.be (Photo: Ph.Lambert) (3) Selon une étude réalisée en 2010 par Michael Lombardo, de l'Université de Cambridge, cette différence s'estompe chez les autistes, témoignant ainsi de probables perturbations dans la faculté d'opérer la distinction entre soi et autrui. (4) La durée de chacun des scans étaient de 90 secondes. L'avènement de la neuroimagerie fonctionnelle a ensemencé le champ des neurosciences sociales, dont l'objectif est de déterminer les bases biologiques de comportements et représentations classiquement étudiés par la psychologie sociale. C'est ainsi que, depuis une dizaine d'années, de plus en plus de travaux s'intéressent aux régions cérébrales impliquées dans la capacité de se représenter ses propres caractéristiques, de réfléchir à soi-même, etc. L'attention s'est d'abord orientée vers les aspects sémantiques de la représentation de soi. Dans ce cadre, la première étude (2002) réalisée en imagerie par résonance magnétique fonctionnelle (IRMf) fut l'œuvre de William Kelley, du Dartmouth College, aux États-Unis. En quoi consistait-elle ? Des adjectifs décrivant des traits de personnalité («sympathique», «maladroit», etc.) étaient présentés visuellement à des volontaires, lesquels devaient évaluer, d'une part, dans quelle mesure ces adjectifs leur correspondaient bien et, d'autre part, s'ils étaient en accord avec la personnalité de George Bush, alors président des États-Unis. «En comparant les deux conditions, Kelley observa que le cortex préfrontal médian s'activait davantage chez les participants à son expérience lorsqu'ils réfléchissaient à eux-mêmes» (3), rapporte Arnaud D'Argembeau. En réalité, le cortex préfrontal médian fait partie de ce qu'il est convenu d'appeler le «réseau cérébral par défaut». Ce concept renvoie à l'idée, émise initialement par Marcus Raichle, de l'Université de Washington, qu'il existe une activité spontanée du cerveau chez le sujet éveillé au repos. À vrai dire, cela ne doit pas étonner, puisqu'une personne immobile dans un scanner, les yeux fermés et ne recevant aucune consigne, pense immanquablement à certaines choses. Quoi qu'il en soit, les méta-analyses s'accordent toutes sur le fait que le réseau cérébral par défaut est actif chez le sujet au repos et tend à se désactiver (activité moindre) lorsqu'une tâche cognitive est en cours de traitement. Dans le contexte expérimental qui nous occupe, le cortex préfrontal médian est désactivé, par rapport à la condition de repos, quand l'individu doit évaluer des traits de personnalité, mais cette désactivation est moindre quand l'évaluation est centrée sur soi plutôt que sur une autre personne. Athena 260 / Avril 2010 34 Aussi, Arnaud D'Argembeau et le professeur Éric Salmon, neurologue, directeur médical du Centre de recherches du cyclotron de l'ULg, ontils voulu vérifier qu'une partie de l'activité cérébrale par défaut (default resting state) est bien liée à la représentation de soi, comme ils en avaient émis l'hypothèse. Au moyen de la tomographie par émission de positons (PET scan), ils ont enregistré l'activité cérébrale de volontaires dans trois situations: au repos, lorsqu'ils évaluaient des traits de personnalité en pensant à eux-mêmes ou alors en pensant à des célébrités, tel Johnny Hallyday. «Les conditions expérimentales étaient totalement similaires dans les trois modalités - yeux fermés, pas de réponse à fournir pendant les scans (4)...-, la seule différence étant l'activité mentale des sujets (centrée sur soi, sur des célébrités ou «au repos»), dit Arnaud D'Argembeau. Immédiatement après chaque session d'enregistrement des images, nous demandions aux participants de décrire à quoi ils avaient pensé au moment où ils étaient scannés et de préciser sur des échelles d'autoévaluation dans quelle mesure ils avaient réfléchi à eux-mêmes, réfléchi à d'autres personnes, eu des images visuelles, des sensations physiques, etc.» Les résultats de l'expérience liégeoise sont en adéquation avec les conclusions de William Kelley, puisqu'ils font état d'une plus forte activation du cortex préfrontal médian lorsque les participants évaluent la pertinence de certains traits de caractère par rapport à eux-mêmes plutôt que par rapport à des personnalités connues. Il apparaît par ailleurs qu'il leur arrive de penser à eux-mêmes durant les scans de repos, avec une assiduité variable selon les individus, et qu'il existe une corrélation positive entre la production de ces pensées et l'activité du cortex préfrontal médian. Le regard des autres Les représentations que l'on a de soi sont multiples et leur coloration est probablement fonction du contexte - en famille, je suis plutôt comme ceci; au travail, je suis plutôt comme cela... L'Homme étant un être éminemment social, une fraction importante de nos représentations se réfèrent, dans la plupart des contextes, à la manière dont nous jugeons que les autres nous perçoivent. D'où la question que se sont posée les chercheurs de l'ULg: le cortex préfrontal médian est-il activé de manière identique quand on pense à soi en s'autoévaluant ou quand on «se regarde» en se plaçant dans la peau d'une autre personne ? Comme dans l'expérience de Kelley, des traits de personnalité étaient présentés aux volontaires, qui devaient déterminer s'ils leur correspondaient ou non et s'ils correspondaient ou non à une autre Psychologie personne bien identifiée, en l'occurrence un ami. De surcroît, pour chaque trait (sympathique, intelligent, timide...), les participants devaient s'interroger sur eux-mêmes en adoptant le point de vue supposé de leur ami et, dernière modalité, imaginer la manière dont ce dernier était censé se percevoir lui-même - «Thierry se considère-t-il comme timide ?», par exemple. Résultats clés: le cortex préfrontal médian est impliqué dans les différentes formes de représentation de soi, qu'elles soient liées à la façon dont nous nous voyons personnellement ou à celle dont nous pensons que les autres nous perçoivent. «On sait qu'un des éléments cardinaux de la phobie sociale réside dans la peur d'être évalué négativement par autrui, rappelle Arnaud D'Argembeau. Une étude récente dirigée par Karina Blair, du National Institute of Mental Health, aux États-Unis, montre que les personnes en proie à une forte anxiété sociale activent de façon excessive leur cortex préfrontal médian spécifiquement quand elles doivent se prononcer sur la manière dont une autre personne les évalue au regard de caractéristiques peu flatteuses pour l'image de soi - “Mon patron penset-il que je suis idiot ?”...» Différences culturelles Dans une de leurs études, Arnaud D'Argembeau et Éric Salmon se sont intéressés aux aspects épisodiques de la représentation de soi. Sachant que se souvenir d'expériences personnellement vécues ou se projeter dans des scènes précises ayant le futur pour théâtre activent un certain nombre de régions cérébrales identiques, dont le cortex préfrontal médian, les deux scientifiques ont demandé à des volontaires d'imaginer des événements susceptibles de se produire dans l'avenir, les uns en lien direct avec leurs projets personnels (par exemple, être reçu dans le bureau de leur supérieur hiérarchique pour y recevoir une promotion), les autres, plausibles mais sans réelle importance à leurs yeux (par exemple, assister à un rallye automobile). Qu'ont dévoilé ces travaux ? Que le cortex préfrontal médian s'activait davantage dans le premier cas. Ce résultat plaide en faveur d'une des hypothèses émises par les chercheurs de l'ULg concernant le rôle fondamental de cette région du cerveau. En effet, selon eux, elle pourrait avoir pour fonction principale d'attribuer une valeur personnelle plus ou moins grande à toute information se présentant à l'esprit de l'individu. Les travaux de psychologie sociale éveillèrent, au sein de l'équipe liégeoise, l'idée d'une expérience de nature à conforter encore leur hypothèse. De fait, de nombreuses données attestent que le passage des études secondaires à l'université s'accompagne généralement d'un remaniement de la représentation de soi. L'individu change de type d'enseignement, il est vrai, acquiert plus d'indépendance, est parfois amené à déménager, etc. En conséquence de quoi il aura tendance à se distancier de son image de soi passée, à adopter à l'égard de celle-ci le point de vue d'un observateur extérieur. «Recourant de nouveau au paradigme expérimental dont William Kelley fut l'initiateur, nous avons mis en exergue que l'activation du cortex préfrontal médian était supérieure quand nous demandions à des étudiants d'évaluer des traits de personnalité en relation avec l'image qu'ils avaient d'eux-mêmes dans le présent, explique Arnaud D'Argembeau. En revanche, quand nous leur donnions pour consigne de revisiter leur image passée, l'activation était similaire à celle obtenue lorsqu'ils devaient évaluer la pertinence des traits de personnalité proposés par rapport à la représentation qu'ils avaient d'un ami.» Une étude identique dans sa conception, mais qui impliquait aussi une projection dans le futur, livra des résultats similaires. «Il se pourrait donc que le cortex préfrontal médian serve entre autres à définir à quel point une information nous concerne sur le plan de la représentation de soi actuelle», conclut notre interlocuteur. Autre facette du problème: selon plusieurs études, la différence d'activation de ce cortex quand on pense à soi versus une personne proche, personnellement connue, est moindre que lorsqu'on pense à soi versus une personne non familière. Ces données semblent emboîter le pas aux théories de psychologie sociale selon lesquelles nos intimes sont inclus, à des degrés divers, dans la conception que chacun de nous a de soi. Les différences culturelles relevées par d'autres travaux confortent d'ailleurs cette hypothèse. De ces expériences, il ressort en effet que, chez les Chinois, le cortex préfrontal médian est autant activé quand l'individu pense à sa mère que quand il pense à lui-même, ce qui n'est pas le cas chez les Américains. Toutefois, on ne constate aucune différence entre les deux groupes quand les deux éléments de la comparaison sont penser à soi et penser à une personne célèbre: l'activation est toujours plus forte dans le premier cas. Pour Arnaud D'Argembeau, ces données reflètent plus que probablement le fait que les Orientaux se sentent en symbiose avec leur proches, tandis que les Occidentaux s'avèrent plus individualistes. Philippe LAMBERT [email protected] 35 Athena 260 / Avril 2010 (Photo: photl.com) Radioactivité Le r a d o n sous s u r v e i l l a n c e Les expositions aux sources naturelles de rayonnement ont longtemps été considérées comme un bruit de fond dans lequel l’homme a toujours vécu, la question de son «contrôle» ne se posant pas. Au cours de ce dernier demi-siècle, il est apparu que certaines actions modifiaient son niveau et l’augmentaient parfois de façon significative. C’est notamment le cas du radon qui contribue en moyenne pour l’homme à environ la moitié de la dose résultant de l’ensemble des sources naturelles de rayonnement (avec des variations locales importantes). Dans les habitations, bien que sa présence ne puisse être complètement évitée, il est cependant possible de la limiter a radioactivité fait peur alors qu’il s’agit là d’un phénomène naturel d’une importance capitale: sans elle, nous n’existerions pas ! Les forces qui s’agitent dans la fournaise du Soleil et le font briller sont celles-là même qui interviennent dans les phénomènes radioactifs. La radioactivité étant un dégagement d’énergie produit lors de la «cassure» d’un atome. Tous les atomes ne sont pas spontanément radioactifs. Certains sont très stables et ne peuvent se «casser» tout seuls mais d’autres sont naturellement plus instables et changent de «forme» pour tenter de devenir plus stables. Le dégagement d’énergie peut se faire de trois manières (dites alpha, bêta et gamma) selon que la «cassure», plus ou moins «forte», émet des noyaux d’hélium, des électrons ou des photons (des «grains» de lumière). L Le gaz radon provient de la désintégration de l’uranium 238 et émane principalement des sols granitiques et volcaniques. Ainsi, par exemple, l’uranium 238 va inexorablement, et en un grand nombre d’étapes, finir par se transformer en plomb. Pourquoi trouve-ton encore de l’uranium 238 sur Terre ? Présent depuis la formation de notre planète, il y a quelque 4,5 milliards d’années, il devrait, depuis le temps, s’être totalement transformé en plomb. Mais il est une véritable tortue atomique. Sa demi-vie, c’est-à-dire le temps nécessaire pour que la moitié de ses atomes se soient transformés, est de… 4,5 milliards d’années. Il a donc encore de belles années devant lui. Le doyen des atomes radioactifs, le thorium 232 (se transformant lui aussi en plomb), a quant à lui une demi-vie de… 14 milliards d’années. On n’est donc pas encore près d’en être débarrassé, surtout qu’il est trois à quatre fois plus abondant dans la croûte terrestre que l’uranium. Athena 260 / Avril 2010 36 La radioactivité naturelle dite «tellurique», c’està-dire qui vient du sol, est due pour un tiers au thorium 232 et à ses descendants, un autre tiers à l’uranium 238, le dernier tiers étant attribuable au potassium 40 (demi-vie d’1,3 milliard d’années). Selon l’endroit où l’on vit et la richesse relative de ces trois éléments dans le sol, on «baignera» donc dans des radioactivités différentes. D’autres sources de radioactivité naturelles existent et sont dues aux rayonnements cosmiques qui, en bombardant certains atomes, les rendent instables et les cassent. C’est le cas, par exemple, du carbone (en carbone 14) et de l’hydrogène (en tritium). Cela explique que, selon l’altitude à laquelle on se trouve, on soit plus ou moins exposé à la radioactivité d’origine cosmique: à 1 500 m d’altitude, elle est 1,5 fois plus élevée qu’au niveau de la mer. Enfin, sachez qu’un régime végétarien est plus radioactif qu’un autre puisqu’il apporte, via les légumes, trois fois plus de potassium 40 (un autre atome radioactif «originel»). Mais que les végétariens se rassurent, la différence reste négligeable et le régime sans danger. Un élément, trois familles ! Avec ses trois isotopes, le radon appartient au groupe VIII A de la classification périodique. Comme les autres éléments de ce groupe, il s’agit d’un gaz monoatomique, inodore, incolore et sans saveur, qui ne réagit chimiquement avec aucun autre corps et qui se dégage du sol à partir de l’uranium et du thorium, contenus dans Radioactivité la croûte terrestre. Pour mieux comprendre leur abondance relative dans l’environnement, il convient de rappeler (très brièvement) que chacun des trois isotopes fait partie d’une famille naturelle radioactive: • l’actinon (Rn219), de la famille de l’actinium, est de loin le moins abondant. Sa période de décroissance radioactive très courte (3,96 s) explique qu’il soit pratiquement non mesurable dans l’atmosphère ; • le thoron (Rn220), de la famille du thorium, est le plus abondant mais il disparaît également très vite de l’atmosphère en raison de sa période de décroissance radioactive courte (55,6 s). Aussi sa contribution à la dose de rayonnement est bien moins importante que celle du dernier isotope, mais ne peut cependant pas être négligée ; • le radon (Rn222), de la famille de l’uranium 238, présente la période de décroissance la plus longue (3,8 j). Bien qu’émanant du sol en quantité environ cent fois moindre que celle du thoron, sa période de décroissance lui confère une plus large distribution dans l’atmosphère. Il est présent partout à la surface de la planète et provient surtout des sous-sols granitiques et volcaniques ainsi que de certains matériaux de construction. Il donne à son tour naissance à des descendants, émetteurs «alpha» ayant des périodes beaucoup plus courtes que lui (le polonium 218, le plomb 214, le bismuth 214 et le polonium 214). Il s’agit d’éléments métalliques qui, à l’état ionisé, se condensent sur les poussières en suspension dans l’air pour former des aérosols radioactifs naturels. Ses effets sur la santé Émetteurs bêta et surtout alpha, le radon et ses produits de filiation irradient localement les cellules au contact desquelles ils se trouvent. Bien que leur concentration dans l’air extérieur soit faible, ils pénètrent dans les habitations par diffusion (différence de concentration) ou par convexion (différence de température ou de pression entre l’air extérieur et intérieur). Des concentrations élevées en radon sont retrouvées dans des milieux fermés: habitations, surtout si elles sont isolées, sous-sol (caves) ou plus généralement, dans tout milieu confiné (mines de fond par exemple). Un peu d’histoire... n 1899, R. B. Owens (ingénieur américain) et E. Rutherford (physicien anglais, prix Nobel de chimie en 1908) observèrent un comportement erratique de leur électromètre en effectuant des mesures sur des sels de thorium. La cause de ces lectures inattendues fut bientôt découverte: elles résultaient de la présence d’une substance radioactive. Un peu plus tard, l’actinium, qui venait d’être isolé de la pechblende, s’avérait donner naissance lui aussi à une émanation radioactive. L’année suivante, le physicien allemand F.E. Dorn découvrait que les sels de radium émettaient également un gaz comparable à ceux dus au thorium et à l’actinium. Les trois isotopes d’un même corps venaient d’être identifiés. En 1902, E. Rutherford et F. Soddy (radiochimiste britannique, prix Nobel de Chimie en 1921) parvenaient à le condenser et cinq ans plus tard, Soddy était en mesure de prouver qu’il faisait partie de la famille des gaz inertes. Quelques années s’écoulèrent encore avant que deux des isotopes du radon, ainsi que leurs descendants, soient mesurés et identifiés dans l’atmosphère. E Si la radio-toxicité du radon fut rapidement étudiée, au contraire, les expériences visant à démontrer l’utilité des rayonnements X et gamma de ce gaz dans le traitement des affections malignes se multiplièrent. En 1924 naissait et se développait l’hypothèse que la forte mortalité par cancer du poumon observée chez les travailleurs des mines d’uranium de Schneeberg (Allemagne) et de Joachimsthal (République tchèque) pouvait être attribuée entre autres au radon. L’idée de deux modalités d’action de ce gaz, bénéfique et toxique, persiste encore de nos jours. activité, derrière la radiographie médicale (41%) mais très loin devant les rayons cosmiques (11%), l’industrie et les essais nucléaires (1%). En tant que gaz, le radon est inhalé mais comme il ne séjourne que peu de temps dans les poumons, d’où il est exhalé, les désintégrations durant le temps de transit sont peu nombreuses. En revanche, dans l’air ambiant, ses produits de désintégration (polonium 214 et 218, bismuth 214 et plomb 214) se fixent sur les particules de l’aérosol atmosphérique et les descendants peuvent être retenus au niveau de l’appareil broncho-pulmonaire. Ce sont donc ces émetteurs alpha qui, en se déposant sur les bronches, sont Le radon représente, selon une étude publiée en 2007 dans le Bulletin épidémiologique hebdomadaire français, 34% de l’exposition moyenne de la population française à la radio- 37 Athena 260 / Avril 2010 Radioactivité L 'Agence fédérale de Contrôle nucléaire (AFCN) est un établissement public doté de personnalité juridique (organisme d'intérêt public de la catégorie C), établi par la loi du 15 avril 1994 relative à la protection de la population et de l'environnement contre les dangers résultant des rayonnements ionisants. Ce statut lui octroie une large indépendance, indispensable à l'exercice impartial de sa responsabilité envers la société. L'Agence est active en matière de non-prolifération et de sécurité nucléaire et a comme mission de veiller à ce que la population et l'environnement soient protégés de manière efficace contre les rayonnements ionisants. Les principales matières couvertes sont les normes de base de radioprotection, la réglementation des établissements classés, le contrôle des installations, le transport et l'importation des substances radioactives, la surveillance radiologique du territoire et les plans d'urgence, les applications médicales des rayonnements ionisants et la radioactivité naturelle. L’AFCN distribue une brochure reprenant les réponses aux questions les plus fréquemment posées sur le thème du radon ainsi qu’un autre document détaillant les mesures de protection à prendre. Pour plus d’informations: www.fanc.fgov.be Grâce à ce site, chacun peut poser ses questions sur la problématique du radon et y trouvera une carte interactive de la Belgique qui reprend, pour chaque commune, les données disponibles. On y trouve également une liste des architectes et entrepreneurs qui ont déjà suivi la formation de l’AFCN concernant les techniques de prévention. AFCN, rue Ravenstein 36, 1000 Bruxelles Tél.: 02/289.21.11ou [email protected] responsables de l’irradiation et provoquent (audelà d’une certaine exposition) des cancers broncho-pulmonaires. Ce phénomène est accentué par la présence depolluants atmosphériques, notamment la fumée de tabac. Du radon peut entrer chez vous par les fissures (1), les joints entre les parois (2), le vide sanitaire (3), les perforations de la dalle (4), l'air extérieur ou les eaux à usage sanitaire (5). (Doc.: AFCN) Le radon a été classé en 1987 par le CIRC (Centre international de recherche sur le cancer) comme un cancérogène certain pour l’homme et l’Organisation mondiale de la Santé (OMS) a confirmé récemment qu’il constituait la première cause de cancer des poumons chez les nonfumeurs et la deuxième chez les anciens fumeurs. Celle-ci insiste fortement sur la nécessité de conscientiser la population sur l’utilité de mesurer le taux de radon présent dans les logements et de prendre des mesures préventives. Cette recommandation cadre parfaitement avec les actions menées depuis 1995 par l’Agence fédérale de contrôle nucléaire (AFCN) dans les régions sensibles de notre pays, c’est-à-dire le Sud et le Sud-Est (voir encadré). Athena 260 / Avril 2010 38 De nombreuses évaluations du risque de cancer du poumon associé à l’exposition domestique au radon ont été effectuées à travers le monde, notamment aux États-Unis, au Canada, en Grande-Bretagne et en France. Une étude publiée il y a quelques années par l’Institut de médecine environnementale suédois dans la prestigieuse revue scientifique britannique New England Journal of Medecine et portant sur plus de 4 000 personnes révèle que plus de 1 300 d’entre elles souffraient d’un cancer pulmonaire. L’apparition de cette maladie a ainsi pu être étudiée et corrélée à l’existence de certains facteurs à risques, dont l’exposition au radon. Près de 9 000 habitations ont ainsi été examinées et le taux de radioactivité mesuré en becquerel 1 becquerel (Bq) correspond à une désintégration par seconde. Le Bq/m3 est l’unité de mesure de la concentration en radon dans l’air. Par rapport à des concentrations moyennes inférieures à 50 Bq/m3, le risque relatif de cancer pulmonaire est multiplié par un facteur 1,3 lorsque l’exposition se situe entre 140 Bq/m3 et 400 Bq/m3, et par 1,8 lorsque le taux est supérieur à 400 Bq/m3. Pour donner à ces chiffres un impact plus compréhensible, précisons que le fait de fumer deux paquets de cigarettes par jour multiplie le même facteur par 6 à 8. Une corrélation existe donc bel et bien, même si l’impact semble faible. Toutefois, le cumul, bien involontaire, d’une exposition domestique au radon et d’un tabagisme actif, provoque un risque supérieur, proche d’un facteur multiplicateur. En France, le cancer du poumon est responsable d’environ 25 000 décès chaque année (Réf.: données nationales de mortalité en 1999). Une évaluation quantitative des risques sanitaires associés à l’exposition domestique du radon pourrait jouer un rôle dans la survenue de certains décès par cancer du poumon dans une proportion qui pourrait atteindre les 10%. Ces estimations tiennent compte de la variabilité des expositions au radon sur l’ensemble du territoire, de l’interaction entre l’exposition au radon et la consommation tabagique ainsi que des incertitudes inhérentes à ces types de calculs. Des travaux de recherche sont en cours au niveau européen pour réduire ces incertitudes notamment en ce qui concerne la quantification de l’interaction entre le tabac et le radon. Dans les habitations L’atmosphère des habitations n’a été étudiée que tardivement, contrairement à celle des mines d’uranium et les premières mesures de radon ne sont rapportées que vers le début des années cinquante. La concentration en radon et ses descendants dans l’air des habitations dépend Radioactivité Comment s’en protéger ? our commencer, le simple fait d’aérer son logis une à deux fois par jour, contribue à diviser par deux la concentration en radon. Sur le plan des aménagements, l’installation d’une ventilation mécanique double flux permet de diluer le gaz et d’empêcher sa pénétration dans l’habitat en créant une surpression. L’étanchéité du plancher évite la remontée du radon depuis le sous-sol. P Dans le cas d’un bâtiment neuf, un vide sanitaire peut se révéler très efficace ou, par un réseau de puisards connectés à un extracteur, on peut pomper le radon venu du sous-sol vers l’extérieur. Tout aussi efficace sera de placer, dans le soubassement, un film plastique dont l’étanchéité doit être assurée sur l’ensemble de l’assise de la maison. Ce petit dispositif (bon marché) permettra de faire définitivement obstacle au radon en provenance du sous-sol. Le taux de radon dans votre commune (Doc.: AFCN) non seulement de son degré d’infiltration à partir des sources (matériaux de construction, sol sousjacent, eau et gaz naturel) et de sa concentration dans l’air extérieur, mais aussi de la ventilation des pièces, des conditions météorologiques (pression atmosphérique, température et vent) et du mode de vie des occupants. Cela dit, les concentrations peuvent varier dans des proportions considérables sur un très petit périmètre. Une maison située au-dessus d’une faille peut contenir jusqu’à vingt fois plus de radon que sa voisine bâtie sur de la roche compacte… À l’intérieur d’un même bâtiment, elles peuvent déjà varier selon les pièces. D’autre part, les habitations étant plus confinées en hiver qu’en été, les concentrations en radon seront logiquement plus élevées durant la mauvaise saison. Même constatation par temps humide: le radon étant soluble dans l’eau, celle-ci facilite sa diffusion. Seule une analyse dosimétrique permet d’en avoir le cœur net (se renseigner auprès de l’AFCN). La Belgique, explique l’AFCN, prend en compte les valeurs visées dans les recommandations européennes 90/143/EURATO et 96/29/EURATOM. Le niveau d’action de 200 Bq/m3 qu’elle préconise pour les nouvelles constructions est conforme aux valeurs recommandées par l’OMS. Sur base d’études épidémiologiques récentes et dans un contexte européen, un groupe de travail dont fait partie la Belgique planche sur la révision des normes de base de la radioprotection contre les sources naturelles. À long terme, le plan d’action radon en Belgique prévoit de réduire l’exposition moyenne de la population à des valeurs optimalisées (53 Bq/m3). Pour cela, précise l’AFCN, les nouvelles constructions doivent être conçues en intégrant une protection contre le radon. Cette approche s’inscrit dans le droit fil des recommandations de l’OMS. Après le tragique tremblement de terre du 6 avril 2009 à L'Aquila (Italie), une polémique s’est engagée en Italie à la suite d’informations sur la prédiction de ce séisme par un scientifique travaillant à l'Observatoire national du Gran Sasso, sur la base de mesures de la teneur en radon. L'Institut français de radioprotection et de sûreté nucléaire (IRSN), dont des travaux déjà anciens ont été évoqués dans le débat suscité par cette prédiction, a présenté son point de vue sur les relations entre dégagement de radon et activité sismique, à la lumière des éléments publiés à ce sujet (1). Annonciateur d’un séisme ? Les variations des teneurs en radon enregistrées dans les zones sismiques indiquent clairement que la circulation des fluides souterrains gazeux ou liquides - et du radon qu'ils transportent - est affectée par les contraintes et les déformations qui préparent ou accompagnent les tremblements de terre. Mais, passer de ce constat à une véritable prévision supposerait que l'on sache associer à l’observation d’un signal «radon», la profondeur du foyer, l'épicentre et la magnitude du séisme qu'il pourrait annoncer, le tout dans une fenêtre temporelle suffisamment étroite pour permettre aux pouvoirs publics de prendre des mesures adéquates. Hélas, rien de tout cela n'apparaît actuellement à la portée des scientifiques qui œuvrent pour mettre en évidence des corrélations utilisables entre teneur en radon et activité sismique. Les mécanismes physiques à l'origine des teneurs inhabituelles en radon ne sont encore que partiellement connus, de même que les caractéristiques qui font qu'un site de mesure est sensible aux perturbations induites par un séisme qui se prépare, alors qu'un site voisin ne l'est pas. (1) Richon P., Sabroux J.C., Halbwachs M., Vandemeulebrouck J., Poussielgue N., Tabbagh J. and Punongbayan R., 2003. «Radon anomaly in the soil of Taal volcano, the Philippines: A likely precursor of the M 7.1 Mindoro Earthquake (1994)». Geophysical Research Letters, 30/9: 1481 (4 pp.); Richon P., Perrier F., Pili E. and Sabroux J.C., 2008. «Detectability and significance of 12 hr barometric tide in radon-222 signal, dripwater flow rate, air temperature and carbon dioxide concentration in an underground Tunnel». Geophysical Journal International, 176/3: 683-694. Paul DEVUYST 39 Athena 260 / Avril 2010 Physique En e x p a n s i o n de plus en plus r a p i d e ... (Photo: Nasa) Une nouvelle preuve de l'accélération de l'expansion de l'Univers vient d'être apportée par une équipe d'astrophysiciens. Ce sont, une fois de plus, des données fournies par le télescope spatial Hubble qui ont permis cette avancée C ela fait un siècle environ que l'on sait que l'Univers est en expansion. C'est en 1912 que l'astronome américain Vesto Slipher a analysé le spectre (la décomposition de la lumière en ses différentes longueurs d'onde, ce qui donne un ensemble de raies) des galaxies les plus brillantes que l’on pouvait percevoir à l'époque. À son grand étonnement, les raies n'occupaient pas leurs places théoriques sur le spectre, mais étaient décalées. La plupart l’étaient vers le rouge, ce qui signifiait que les galaxies dont les spectres présentaient cette particularité s'éloignaient de nous. Mais comme l'échantillon n'était pas représentatif (quinze galaxies étudiées !), cette découverte n'eut guère de retentissement. Trajet de la lumière (en turquoise) qui vient de la galaxie d'arrière-plan, tel que perçu par le télescope spatial Hubble. Les rayons lumineux sont courbés par le champ gravitationnel de la masse de matière présente à l'avant-plan et semblent provenir d'autres directions (en gris). (Source: in2p3) Quelques années plus tard, dans les années 1920, grâce au grand télescope du Mont Wilson, l'astronome américain Edwin Hubble confirma non seulement ce qui semblait bien être une loi (les galaxies s'éloignent de nous) mais il précisa en outre la manière dont cette fuite se produit: la vitesse de fuite (de récession) d'une galaxie est proportionnelle à sa distance par rapport à nous. Une galaxie deux fois plus éloignée s'éloigne donc deux fois plus vite. Présentée ainsi, la loi de Hubble pourrait induire deux erreurs qu'il faut éviter. Tout d'abord, ce décalage vers le rouge, comme on l'appelle, ne signifie pas que les galaxies se déplacent véritablement. Pour expliquer cela, les physiciens ont l'habitude de pren- Athena 260 / Avril 2010 40 dre l'analogie du ballon en plastique. Si on inscrit par exemple quatre points équidistants (A-B-CD) sur ce ballon puis qu'on le gonfle, on voit que les points s'éloignent les uns par rapport aux autres mais sans se déplacer par rapport à l'enveloppe du ballon: les galaxies ne se déplacent pas par rapport à l'espace. L'autre erreur à éviter serait de croire que notre Terre (ou système solaire ou même voie lactée) serait le centre de l'Univers par rapport duquel tout s'éloigne. Notre vanité dût-elle en souffrir, nous ne sommes pas le nombril du monde et ce n'est pas nous qui faisons fuir tous les astres ! Pour une raison bien simple, mais souvent ignorée: l'Univers n'a pas de centre ! Pour s'en convaincre, il suffit de revenir au ballon et s'imaginer observer le phénomène successivement depuis les différents points: on verra exactement le même phénomène se produire depuis l'un ou l'autre point. Imaginons maintenant un ballon couvert d'une multitude de points: quelle que soit la position choisie, la situation observée sera toujours la même, une fuite éperdue des galaxies. Expansion accélérée Ainsi donc, l'Univers n'est pas statique comme on le croyait fermement avant les observations d'Edwin Hubble. Cette «croyance» était d'ailleurs tellement répandue qu'elle a joué un tour à Einstein lui-même. Lorsqu'il met au point sa théorie de la relativité générale au début du XXe siècle, il constate que ses équations ne s'appliquent pas à un Univers statique mais bien à un Univers en contraction ou en expansion. Comme il pense que celui-ci est statique, il utilise ce qu'on appelle parfois un «chausse-pied» pour que les résultats soient conformes à ce qu'on attend. Autrement dit, il introduit dans ses équations une constante, appelée constante cosmologique. Celle-ci s'interprétait comme une force mystérieuse qui faisait se repousser tous les astres. Et Einstein lui avait donné une valeur telle qu'elle contrebalançait exactement la gravitation. Donc les deux forces s'annulaient, plus rien ne bougeait et l'Univers était bien statique. Le tour était Physique joué. Lorsqu’après les travaux de Hubble, Einstein a découvert que ses équations étaient correctes sans cette constante, puisque l'Univers est en expansion, il se serait écrié que l'introduction de cette constante cosmologique était la bêtise la plus grosse de sa vie ! En étudiant toutes les déformations provoquées par les lentilles gravitationnelles, les astrophysiciens européens sont parvenus à reconstituer une carte tridimensionnelle de la matière (y compris la noire) contenue dans la portion d'espace observée par Hubble. L'expansion de l'Univers allait prendre une nouvelle dimension bien des années plus tard, en 1998. Cette année-là, l'observation d'une supernova conduit à une découverte fracassante: non seulement il est en expansion, mais celle-ci s'accélère ! Ces premiers résultats furent encore le fait d'observations terrestres. Le lancement du télescope spatial Hubble, le bien nommé, allait donner un essor considérable à l'observation des galaxies et astres les plus lointains. Dès le début, les données envoyées par Hubble ont confirmé le phénomène: l'Univers était bien en expansion accélérée. Et cette accélération serait due à une force répulsive à grande échelle... capable de contrebalancer la force gravitationnelle. Exactement ce qu'Einstein avait imaginé pour «arranger», si l'on ose utiliser ce terme, ses résultats. Une force mystérieuse à laquelle on a donné le nom d'énergie sombre, qui composerait environ 73% de la masse de l'Univers aux côtés de la matière ordinaire et de la matière exotique. Une déformation du trajet lumineux implique en effet la présence d'un amas de matière. Selon la déformation, on peut déduire beaucoup d'informations sur l'amas qui en est responsable. Y compris supputer l'existence de telle masse de matière non visible directement, mais sans doute présente puisque responsable de déviations de la lumière (voir les deux photos ci-contre). Lentille gravitationnelle L'étude qui vient d'être publiée (1) renforce cette hypothèse grâce au recours aux lentilles gravitationnelles. Un travail qui aurait été impossible sans le télescope spatial Hubble. Les données ont en effet été collectées sur 446 000 galaxies (chiffre à comparer avec les 15 galaxies observées lors des premières observations de l'expansion !), ce qui représente près de 1 000 heures d'observation, soit 600 orbites du télescope. Les chercheurs ont mesuré la déformation de la lumière observée due aux effets de lentilles gravitationnelles. On sait que durant son voyage jusqu'à nous, la lumière en provenance des galaxies est perturbée par la gravitation exercée par la matière. C'est une application bien connue de la relativité générale (encore elle !). En effet, selon cette théorie, une masse dévie les rayons lumineux qui passent à proximité d'elle. Et le phénomène est d'autant plus important que la masse est importante, comme c'est le cas avec une galaxie ou un amas de galaxies. Ainsi, si l'on suppose qu'un quasar (source d'ondes lumineuses et radio) et une galaxie se trouvent alignés sur une même ligne (voir schéma), les rayons en provenance du quasar seront fortement déviés; l'observateur verra donc deux images (ou même beaucoup plus) du même quasar. En outre, la galaxie va concentrer la lumière et le quasar va donc apparaître plus lumineux qu'il ne l'est. La galaxie joue donc bien le rôle d'une lentille. (1) Evidence for the accelerated expansion of the Universe from weak lensing tomography with COSMOS. Tim Schrabback, al. Astronomy & Astrophysics. Avril 2010. L'étude de cette carte a permis aux chercheurs de constater que la structuration de la matière lointaine (c'est-à-dire la plus vieille) n'était pas la même que celle de la matière proche (la plus jeune). Et que cette différence s'expliquait par l'accélération de l'expansion. Outre une preuve supplémentaire de l'accélération de l'expansion de l'Univers, cette étude débouche aussi sur deux autres conclusions. La première est la validité du recours aux lentilles gravitationnelles (ou mieux, à l'étude de leurs effets) comme méthode de reconstruction tomographique de l'espace. La seconde conclusion est que, de plus en plus, il semble qu'Einstein... a eu tort d'avoir cru s'être trompé ! Et que sa constante cosmologique est malgré tout bien utile, il a donc eu tort aussi de considérer qu'elle n'avait plus lieu d'être après les observations d'Edwin Hubble. Des théories actuelles la reprennent en compte et l'une d'elles montre même que pour une valeur un peu différente de celle imaginée par Einstein, l'Univers aurait connu une phase d'expansion ralentie après le Big Bang, puis une phase d'expansion accélérée par la suite ! On y revient. Distribution de masse dans le champ d'observation COSMOS du télescope spatial Hubble. Cette image montre une reconstruction lissée de la distribution de matière totale dans le relevé COSMOS. Elle est constituée presqu'entièrement de matière noire. (Photo: P. Simon, Schrabback, Nasa/Esa) Une vue de la matière visible dans le même relevé COSMOS que sur la photo précédente: il y a bien moins de matière ! (Photo: Esa/Hubble & Digitized Sky Survey 2.) Henri DUPUIS [email protected] 41 Athena 260 / Avril 2010 Astronomie Une lune de Jupiter, S/2000 J11, avait disparu: à la place, la sonde New Horizons a découvert un anneau supplémentaire... la lune aurait donc disparu dans une collision avec sa consoeur Himalia. (Photo: Nasa ) À la Une du... Cosmos Avec le temps, certaines découvertes exoplanétaires commencent à devenir moins exotiques. Corot 9b est ainsi un Jupiter pas très chaud, bien plus éloigné de son étoile que les «Jupiter chauds» découverts jusqu'ici mais pas encore aussi distant que notre Jupiter... (Photo: Inst. Canarias) On pensait les côtes arctiques bien gelées et immuables, mais voilà qu'on découvre qu'elles ne restent pas figées: elles émettent du méthane, le gaz naturel, en grandes quantités. La concentration de méthane arctique atteint d'ailleurs des sommets. Comme il s'agit d'un puissant gaz à effet de serre, cela ne va pas aider à refroidir l'atmosphère, bien au contraire, cela amplifie le phénomène ! (Photo: Igor Semiletov / University of Alaska Fairbanks) Gros plan sur la lune martienne Phobos, grâce à la sonde européenne Mars Express. Phobos ressemble à un astéroïde, mais il est difficile d'expliquer comment la planète rouge l'aurait capturé. La mission russe Phobos-Grunt tentera de trouver une solution dès 2011. (Photo: Esa) Athena 260 / Avril 2010 42 Astronomie En fond: Sonder l'Univers lointain n'est pas simple: un recensement précis avec les télescopes européens VLT vient de montrer que 90% des galaxies lointaines ne sont pas découvertes par les relevés habituels, tout simplement parce que les nuages situés sur le chemin absorbent la lumière !(Photo: Eso) Vous voulez participer à l'aventure astronomique ? Après le «galaxy zoo» et l'étude publique de Mars, voici «solar stormwatch», la possibilité d'étudier le Soleil offerte à tout un chacun: http://solarstormwatch.com/ Des sondages martiens indiquent de grandes couches de glace sous du gravier, probablement un reste de calotte polaire lorsque celle-ci s'étendait jusque là. (Photo: Mro) L'observatoire européen Herschel vient de dévoiler des données inédites sur la nébuleuse d'Orion, montrant son riche contenu en molécules organiques précuseurs de vie. (Photo: Esa) Du neuf sur les cataclysmes célestes. Après un examen global de l'ensemble des données, il se confirme que c'est bien un impact météoritique (ou cométaire) qui causa la fameuse extinction KT, et donc la fin des dinosaures... On a également trouvé une structure circulaire au Congo qui serait un cratère d'impact, ainsi qu'un ensemble de débris au-dessus de l'Antarctique qui témoignent de l'explosion d'une météorite de 100 000 tonnes dans la haute atmosphère (un phénomène semblable à celui de 1908 en Sibérie, à Tunguska). En outre, il semblerait que des étoiles passent parfois très près du bord de notre système solaire - assez près pour influencer l'orbite de Sedna, astéroïde lointain, mais aussi pour envoyer valdinguer des comètes dans notre voisinage... avec le risque de collision que cela suppose. Enfin, signalons que l'option «hollywoodienne» de bombardement nucléaire d'un astéroïde menaçant la Terre est bien fantaisiste: soit les fragments sont bien séparés et les dégâts produits par cette multitude dépassent ceux d'un impact isolé; soit les fragments restent ensemble et l'astéroïde peut se reconstituer... (Photo: Folco et al. ) Yaël NAZÉ [email protected] http://www.astro.ulg.ac.be/news/ 43 Athena 260 / Avril 2010 Astronomie Vénus, version Express E n avril 2006, Vénus captura un objet d’un genre particulier: une sonde robotique européenne, baptisée Venus Express et destinée à scruter la planète sous tous les angles. Bilan cinq ans après le lancement de la sonde, dont quatre ans d’observations vénusiennes (1). Les voiles de Vénus Déesse de la beauté, Vénus séduit en un clin d’œil. Elle est pourtant loin d’être aussi angélique qu’il n’y paraît au premier abord. Vénus, la planète, ressemble à ce cliché mythologique: bel astre brillant qui enchante nos matinées ou nos soirées, il cache un véritable enfer sous un voile de nuages denses. En surface, la température moyenne s’élève à 465 °C, ce qui permettrait de faire fondre du plomb ; la pression est de 93 fois la pression atmosphérique terrestre, une valeur à laquelle seuls de bons sous-marins résistent… Et on vous passe les nuages d’acide sulfurique et les volcans à gogo parsemant le sol vénusien ! Ces propriétés étonnantes nous ont été dévoilées par les quelque 25 sondes qui ont exploré la planète depuis les années 1960. Toutefois, si l’on connaît les bases, les détails nous échappent: activité de la surface, quantité d’eau originelle, météorologie. C’est justement pour cela que les Européens ont construit une sonde vénusienne armée de sept instruments différents. Discrète, cette exploratrice, appelée Venus Express (Image 1), a permis de grandes avancées dans notre connaissance de cette planète infernale. «Bien que nombre des découvertes de la sonde soient un rien hermétiques pour le commun des mortels, certaines nouvelles facettes vénusiennes méritent d’être souli- gnées», souligne J.-C. Gérard, directeur du LPAP de l’ULg (Laboratoire de physique atmosphérique et planétaire de l’Université de Liège). Atmosphère, atmosphère Les instruments de Venus Express sont particulièrement doués pour révéler les détails atmosphériques. Les scientifiques européens ont ainsi vu arriver dans leurs labos des milliers de mesures d’une précision inégalée comme par exemple l’évolution de la température avec l’altitude et la latitude ou le suivi de l’abondance de certaines molécules (eau, dioxyde de soufre, acide chlorhydrique, monoxyde de carbone,…) avec le temps, ou encore l’altitude et la position géographique. La sonde a également suivi des milliers de nuages d’altitude moyenne: morphologie, vitesse de déplacement, composition et dimension des particules - tout y est passé ! Un résultat parmi d’autres: «À des latitudes moyennes, comme la Belgique sur Terre, les vents atteignent 210 km/h à 45 km d’altitude et 370 km/h à 66 km d’altitude, et ces vents sont plus forts le soir», explique le chercheur. (Image 2) Image 2: Les vents et les suivis dans plusieurs sonder plusieurs altitudes bleu pour la couche Ces données sont extrêmement importantes pour les théoriciens modélisant les atmosphères, car elles leur permettent de vérifier en détails leurs modèles, avec bien sûr la question sous-jacente de savoir si l’on comprend vraiment les processus atmosphériques… «N’oublions pas que si nous voulons comprendre l’évolution de l’atmosphère terrestre, il ne faut pas se limiter à la situation hic et nunc: tester nos théories sur l’effet de serre vénusien et la fine atmosphère martienne permet donc de mieux connaître notre planète !», insiste Pierre Drossart (Observatoire Paris-Meudon, France). (1) Cet article paraît simultanément dans la revue L’Astronomie, avec l'aimable autorisation de la rédactrice en chef. Image 1: La sonde Venus Express. (Photo: Esa) Athena 260 / Avril 2010 44 Il est une particularité bien mystérieuse de l’atmosphère vénusienne: plutôt uniforme lorsqu’on la regarde en visible, Vénus se pare de grandes marques sombres si on l’observe dans l’ultraviolet. Leur origine est toujours inconnue, mais Venus Express a ici aussi levé un coin du voile. Ces marques ne sont dues ni à un changement d’altitude ni à une température différente des nuages voisins. Il s’agit «simplement» de zones où se produit un mélange intense: des molécules encore non identifiées remontent depuis la basse atmosphère et absorbent les rayons UV. (Image 3) Plus impressionnant encore: l’ouragan polaire. En soi, il n’a rien étonnant: la Terre en possède aussi dans ses zones polaires, et Venus Express n’est d’ailleurs pas la première à en détecter un sur Vénus… sauf que pour la première fois, on peut étudier cette structure en détails. «Pour se la représenter, remplissez votre baignoire et tirez la bonde - le petit tourbillon qui se crée n’est pas sans similitude avec ce vortex polaire», explique Cédric Cox, chercheur au LPAP. Large de 1 500 km, cette structure montre une dynamique étonnante, qui a surpris tous les scientifiques. Ses changements de forme, par exemple, sont particulièrement impressionnants: l’ouragan ressemble parfois à un «œil» simple, parfois à un «8», et parfois il est de forme trilobée. (Image 4) Lumière atmosphérique Image3: Vénus apparaît uniforme dans le visible, mais possède des marques sombres en ultraviolet.(Photo: Esa) Sans champ magnétique, Vénus n’est pas aussi protégée que la Terre contre les effets néfastes du vent solaire. Celui-ci arrache les molécules de l’atmosphère, et serait notamment responsable de la disparition de l’eau vénusienne. L’étude de la vapeur d’eau atmosphérique permet de mieux comprendre ce processus. Les Européens se sont notamment intéressés de plus près au rapport entre les molécules d’eau «normale» et celles d’eau lourde (2). «Venus Express a montré que la haute atmosphère comprenait deux fois plus d’eau lourde que la basse atmosphère, ce qui s’explique par le fait qu’une molécule plus lourde a plus de mal à quitter l’atmosphère vénusienne», précise Pierre Drossart. La sonde européenne a également pu mesurer la perte de gaz par la planète, du côté opposé au Soleil. En rassemblant toutes les informations, il semble que «Vénus aurait eu un océan peu profond, 30 m de profondeur et non 3 km comme sur Terre, mais il reste à déterminer quand la planète a perdu cet océan - ce sera bientôt chose faite en combinant les données précises de Venus Express et les meilleurs modèles atmosphériques», continue le chercheur. Toujours côté vent, Vénus possède une haute atmosphère un peu particulière, avec une température et des vents très nuages de Vénus sont différents de ceux des couches situées «couleurs» pour pouvoir plus bas (qui sont en rotation rapide (IR pour la couche basse, autour de la planète, avec une tempérahaute). (Photo: Esa) ture constante). Les molécules de la haute atmosphère sont partiellement brisées par le rayonnement solaire de haute énergie. Les atomes ainsi formés, guidés par le simple contraste thermique, quittent la face éclairée pour la fraîcheur du côté nuit. Ils s’y recombinent en émettant de la lumière au passage: Venus Express permet d’étudier ce phénomène assez unique via les émissions lumineuses (les «airglows») générées par ces processus chimiques - et c’est justement une spécialité du LPAP. En principe, ces airglows devraient se produire exactement à minuit, soit du côté opposé au Soleil… mais ce n’est pas le cas pour tous. «Les lueurs associées à l’oxygène et à l’oxyde d’azote sont décalées, et c’est une découverte importante de Venus Express, mais aussi un grand mystère, puisque cela est inexpliqué à ce jour», précise Image 4: L’ouragan du pôle sud vénusien. (Photo: Esa) Lauriane Soret, également du LPAP. 45 (2) L’eau normale s’écrit H2O, l’eau lourde D2O: ces deux formes sont composées de deux isotopes différents de l’hydrogène, H et D. H est la forme la plus fréquente d’hydrogène, avec un noyau composé d’un seul proton, alors que D est le deuterium, de l’hydrogène dont le noyau est composé d’un proton et d’un neutron. Athena 260 / Avril 2010 Astronomie Des réponses… et de nouvelles questions Autres découvertes, plus anecdotiques. Tout d’abord, la détection claire d’une émission due au radical hydroxyle (OH, soit… une partie de l’eau) pour la première fois sur une autre planète. Tout indique que l’hydrogène et l’ozone soient les précurseurs de ce radical, et Venus Express vient d’ailleurs de détecter la molécule oxygénée, qui n’est donc pas un apanage terrestre. Ensuite, l’exploratrice a enregistré la présence de foudre, en fait assez fréquente sur la planète, ce qui clôture une controverse vieille de plusieurs décennies. Oui, en plus des gouttes d’acide sulfurique, de la chaleur et de la pression énormes, le tonnerre gronde aussi sur Vénus, ce qui peut générer une chimie intéressante ! Grâce aux milliers d’images prises par sa caméra VIRTIS, Venus Express a dressé une carte infrarouge précise de l’hémisphère sud de la planète. À ces longueurs d’onde où les nuages deviennent transparents, Vénus livre son vrai visage: dépressions, vallées, volcans, plateaux,… Bizarrement, les plateaux rocheux (aussi appelés continents) apparaissent plus clairs et plus anciens que le sol basaltique des vallées, explorées autrefois par les sondes russes. L'interprétation de ces résultats reste encore incertaine: composition différente des roches (granite/basalte ?) ou érosion des roches plus anciennes sont deux explications possibles. En parallèle, ces données impliquent aussi un rôle non négligeable des processus tectoniques: «Vénus et la Terre se ressemblaient donc bien par le passé, bien plus qu’on ne l’imaginait jusqu’ici…», explique Pierre Drossart. (Image 5). Image 6: Venus Express a observé la Terre: si les instruments ne voient aucun détail de notre planète (elle occupe un seul pixel sur les caméras ! L’image du dessus est donc une reconstitution), ils peuvent néanmoins enregistrer les détails de la composition atmosphérique (présence d’eau et d’oxygène) et les variations au cours du temps (alors que la météo terrestre et/ou la portion de planète observée change). (Photo: Esa) Athena 260 / Avril 2010 46 Image5: Le sol vénusien, imagé en infrarouge (le rouge correspond aux altitudes les plus basses et aux températures les plus hautes, ici 442 °C, le bleu aux sommets froids, soit ici 422 °C). (Photo: Esa) Jusqu’ici cependant, les planétologues européens n’ont pas obtenu le trophée tant espéré: dénicher un volcan vénusien en éruption. Malgré une patiente comparaison des données (avec les autres missions, mais aussi depuis le début de la mission), aucune signature directe d’une éruption n’a pu être trouvée. Par contre, plusieurs phénomènes étranges ont été découverts: des variations de l'émissivité de la surface entre des régions voisines, qui indiquent une composition ou une rugosité variable, peut-être selon l'âge de la surface, et des quantités variables de dioxyde de soufre (SO2) dans la haute atmosphère (70 à 90 km d’altitude). Cette variabilité trouve peut-être son origine dans une éruption - reste à savoir si elle serait récente ou daterait de quelques millions d’années… Les scientifiques espèrent toutefois trouver une preuve concrète de volcanisme actif, sorte de «graal» vénusien, d’ici la fin de la mission prévue dans deux ans environ. Terminons enfin sur un clin d’œil: Venus Express a aussi observé… la Terre ! Cela peut a priori sembler stupide, mais c’est loin d’être le cas. L’idée sous-jacente est d’essayer de trouver, à distance, des indices permettant de dire si la planète est habitée, et cela sans voir de détails ! À l’heure où fleurissent les découvertes d’exoplanètes, que nous ne sommes pas prêts d’explorer, ce genre d’observation prend tout son sens… (Image 6) Yaël NAZÉ (FNRS) [email protected] Espace E n décidant l'arrêt brutal du programme Constellation d'exploration humaine de l'espace, qui passait par un retour des astronautes sur la Lune, le Président Obama réoriente le programme de la Nasa. L'Amérique fait certes un pas en arrière mais pour mieux prendre son élan technologique et bondir dans le système solaire avec une expédition internationale vers Mars, comme premier objectif. Ce faisant, la Maison Blanche a relancé l'épineux débat homme contre machine. Qui, de l'être humain ou du robot intelligent, doit-on privilégier pour découvrir les autres mondes autour du Soleil ? pas des robots à la place d'êtres humains pour poursuivre l'exploration spatiale ? P ourquoi Le prix à payer pour les vols spatiaux habités est le coût de mise en œuvre de systèmes très fiables et hautement sécurisés. C'est à la fois un défi technologique et un pari économique. D'où l'avantage de recourir aux robots dans le milieu spatial, décrit comme un environnement hostile. Les automates, aujourd'hui, sont toujours plus performants avec leur intelligence artificielle (logiciels embarqués) (1) et plus habiles avec leurs mécanismes microminiaturisés (nano-systèmes). Ils sont à même de rivaliser avec les engins habités dans l'espace, surtout pour l'exploration de mondes lointains. Jupiter et de Saturne. Une plaque dorée illustrait un homme et une femme nus, notre système solaire et sa position. Outre Pioneer-10 et Pioneer-11, lancées en mars 1972 et avril 1973, il y a également Voyager-1 qui, partie en septembre 1977, a frôlé Jupiter puis Saturne et se trouve à plus de 30 heureslumière de nous ! Il lui faudra des années-lumière pour passer près d'une étoile. Voyager-2, lancée en août 1977, a réalisé le «grand tour» en survolant et en photographiant Jupiter, Saturne, Uranus et Neptune. Chaque Voyager emporte un disque de cuivre plaqué or, avec une cellule et une aiguille pour le lire: il contient des images, des sons, des extraits de musique ainsi que des messages dans différentes langues informant d’une vie sur Terre. Mais le robot prive l'espace d’une dimension humaine. Il est loin d'avoir ourquoi continuer à faire l’autonomie de réflexion d’un astrovoyager des hommes dans ce naute. Les hommes et femmes de milieu hostile qu’est l'espace ? l'espace, entraînés pour réagir prompCette présence de chercheurs et d'ingétement lors de situations dramatiques, nieurs dans l'environnement spatial ont démontré leur aptitude à faire face permet l'étude, dans une approche aux imprévus. Par exemple, la toilette nouvelle et sous d'autres angles, de américaine ou le système de recyclage phénomènes physiques, chimiques, des eaux et urines de l'Iss biologiques, médicaux... L'espace (International Space Station), régulièstimule la curiosité, car il pousse à une rement en panne, peuvent être réparés remise en question des connaissances par l’équipage qui dispose de matériels dans bien des disciplines. Notamment Huygens largué par la sonde Cassini apportés par le Space Shuttle. Même celle de la physiologie humaine: (Photo: Nasa) s’il est possible de télécharger un logidepuis le comportement des muscles ciel permettant de modifier leur comporde la main et de la jambe jusqu'au fonctement loin de la Terre, les robots ne sont pas encore conçus tionnement de l'appareil cardio-pulmonaire, en passant par avec la capacité de s'auto-réparer lors de situations impré- l'évolution du système osseux… Les hommes et les femmes sur visibles. orbite sont le prolongement des yeux, des bras, des réflexes de ceux et celles restés au sol. Le dialogue entre eux est indispenes robots ont exploré les huit planètes du système sable. Un entraînement, de plusieurs années, contribue à ce que solaire… Mais se sont-ils déjà aventurés au-delà ? leur collaboration se passe de la façon la plus fructueuse. Quatre sondes de la Nasa, équipées de générateurs thermo-électriques à base de plutonium, se sont «évadées» du système (1) La société Spacebel à Liège est le spécialiste belge de l'inforsolaire pour mettre le cap sur d'autres étoiles. Ces «bouteilles» matique spatiale embarquée; elle assure l'autonomie des satellites jetées dans l'océan de l'Univers sont équipées d’un témoignage Proba. indiquant l'existence de l'espèce humaine. La première a Théo PIRARD survolé Jupiter, tandis que la seconde est passée à proximité de [email protected] P L 47 Athena 260 / Avril 2010 Espace Satellite 2010 : le pouls du business spatial C haque année, à Washington, D.C., la conférenceexposition Satellite réunit la communauté des acteurs du «business» spatial. C'est le secteur des télécommunications et de la télévision par satellites qui se révèle le plus rentable. Pourtant, les systèmes au sol, avec les relais hertziens et les réseaux câblés, stimulés par les pouvoirs publics pour passer à la mode numérique, leur font concurrence avec des performances sans cesse accrues et ce, jusque sur les mobilophones ! Satellite 2010, qui s’est tenu du 15 au 18 mars et a accueilli quelque 9 500 spécialistes et entrepreneurs du monde des satellites, fut l'occasion de faire le point sur les tendances et les nouveautés d'un marché tirant parti de la flexibilité numérique et se révélant peu affecté par la crise économique: connexions haut débit, produits d'applications de plus en plus diversifiées (télévision 3D, services mobiles, usage militaire), interopérabilité des systèmes, ambitions d'opérateurs régionaux, réponses appropriées aux besoins des pays émergents… Lors de la session d'ouverture animée par les quatre grands opérateurs de systèmes spatiaux de télécommunications et de télévision (Intelsat, Ses, Eutelsat et Telesat), Michel de Rosen, nouveau directeur général d'Eutelsat, a d'emblée planté le décor: «En venant du secteur pharmaceutique, ce qui m'a frappé, c’est la santé économique de l'industrie du satellite. C'est fort insolite en 2009 d'avoir une industrie qui réalise des profits et qui continue de croître». Il a insisté sur le fait que l'opérateur Eutelsat, avec sa flotte de 22 satellites sur l'orbite géostationnaire (à 35 800 km au-dessus de l'équateur), reste avant tout un acteur régional, proche des besoins de ses utilisateurs. Mais il ambitionne de se développer en Russie et du côté asiatique. Pas question cependant d'une fusion avec Hispasat, dont il est actionnaire et qui a une position dominante en Amérique latine avec ses satellites Amazonas. Boudé par les pouvoirs publics relais de plus en plus performants et tire parti de sa disponibilité (au moyen d'«occasions» déjà en orbite) ainsi que d'une souplesse d'utilisation. L'Afrique, l'Amérique latine et l'Australie, avec de grandes étendues à couvrir et à cause de la forte demande à satisfaire rapidement, continuent d'être les meilleures opportunités pour l'emploi des satellites en orbite géostationnaire et sous la forme de constellations. Mais le satellite, s'il a largement fait ses preuves, reste un outil technologique dont la mise en œuvre dépend fortement des instances politiques et du bon vouloir des institutions gouvernementales. Le 16 mars, jour de l'ouverture de Satellite 2010, la Fcc américaine (Federal Communications Commission) communiquait son plan national, Connecting America, au Congrès. L'objectif est de connecter tout le pays, jusque dans les coins les plus reculés, à l'Internet haut débit et ce, à l'horizon 2020. Ainsi en assurant l'accès de 100 millions de foyers à un service de 100 Mbps, les États-Unis projettent de réaliser le plus grand marché au monde des utilisateurs des systèmes à large bande. Dans ce plan, il n'y a aucune reconnaissance du rôle spécifique que le satellite doit jouer aux côtés de l'infrastructure terrestre pour les technologies de la société de l'information. Un coup de pouce institutionnel aurait pu relancer l'intérêt des financiers à investir davantage dans les connexions satellitaires à large bande et ainsi réduire la fracture numérique. La bande Ka en point de mire De même, dans l'Union européenne, les autorités de Bruxelles ne semblent pas convaincues par l'atout de la dimension spatiale pour proposer le haut débit dans les régions mal desservies par les communications. En tout cas, elles ne facilitent guère l'usage du satellite, sans interférences, au spectre Le satellite, grâce à une fiabilité accrue sa durée de vie sur orbite atteint les vingt ans -, continue de prendre des parts de marché: il est remplacé par des Athena 260 / Avril 2010 48 Walter E. Washington Convention Center Espace L’imposant Ka-Sat d’Eutelsat pour des connexions à haut débit en Europe. (Photo: Astrium) Clés pour le bidirectionnel par satellite des fréquences de télécommunications. Jusqu'ici, on s'est servi des bandes L (1400-1600 MHz) et S (2000-2500 MHz), notamment pour les services avec les mobiles. Puis on a exploité les bandes C (6/4 GHz - fréquence montante du sol vers le satellite/fréquence descendante du satellite vers le sol) et Ku (18/10-12 GHz) pour les télécommunications et la télévision. Aujourd'hui, pour les connexions de grande capacité, on vise la bande Ka (30/20 GHz) qui permet la transmission de flux élevés de données entre des terminaux compacts chez les utilisateurs, mais qui est sensible aux fortes pluies et intempéries neigeuses. ’est bien beau de placer un satellite autour de la Terre pour assurer des services de télécommunications à haut débit. Mais les performances de ce relais sur orbite dépendent essentiellement de l'optimisation des terminaux professionnels au sol et de leur organisation en réseaux terrestres. Lors d'une session Gvf (Global Vsat Forum) de Satellite 2010, Thierry Eltges et Fulvio Sansone, deux ingénieurs de la Pme bruxelloise Sea&Space Exploration, spécialisée dans la consultance pour la mise en œuvre d'applications spatiales, ont présenté les résultats d'une étude du marché, en plein développement, des systèmes bidirectionnels par satellite. C Cette étude, réalisée pour l'Esa, identifie les besoins en hausse des utilisateurs pour des produits innovants et moins coûteux, ainsi que leur souci d'un accès indépendant à des services compétitifs. Elle met l'accent sur la plus grande flexibilité du satellite pour le développement des réseaux, sur la meilleure exploitation des fréquences, au moyen d'une modulation efficace et grâce à leur réutilisation selon des faisceaux à la demande. C'est ce qu'a bien compris la société belge Newtec, avec des terminaux et équipements sur mesure qui tirent le mieux parti de l'offre des répéteurs à bord des satellites. http://www.seaandspace.com/ Déjà aux USA, plusieurs systèmes de satellites à forte puissance exploitent cette bande Ka: HughesNet met en œuvre une flotte de trois satellites Spaceway (pour un demi million d'abonnés) et prépare son puissant Jupiter-1 (à lancer en 2012); Viasat a acquis WildBlue Communications et son satellite WildBlue-1 (400 000 clients) et mettra en service Viasat-1 durant 2011. Une constellation en bande Ka prend forme sur l'île anglonormande de Jersey: en 2012, O3b (Other 3 billion) prévoit de déployer, grâce à deux lancements Soyouz depuis la Guyane, huit satellites-relais de 700 kg en bande Ka sur orbite équatoriale à 8 063 km d'altitude. Ce système à haut débit intéresse les 3 milliards d'habitants de la zone intertropicale: Afrique, Amérique latine, péninsule indienne, archipel indonésien et Océanie. Romain Bausch, directeur général de la Ses (Société européenne des satellites), qui est aussi l'un des actionnaires de la société O3b, se montre confiant pour que cette entreprise réussisse une percée significative dès 2015 avec le déploiement d'une vingtaine de satellites. L’embarras du choix Les satellites géostationnaires, offrant de la capacité haut débit en bande Ka, vont se multiplier dans les trois années à venir. Une nouvelle génération, dite Hts (High Troughout Satellite), vise à optimiser leur capacité et leur efficacité par la réutilisation des fréquences sur plusieurs faisceaux pour une grande variété de missions (connexions Internet, diffusion TV,…). Ce 49 qui permet de réduire le prix du byte par satellite et de rivaliser avec le tarif du byte terrestre. En Europe, Eutelsat mise beaucoup sur la flexibilité et les performances de son satellite Ka-Sat (normalement disponible dès 2011), en coopération avec Viasat, pour le service de terminaux TooWay: l'objectif est d'atteindre rapidement les 750 000 utilisateurs. Eutelsat prévoit l'emploi de Ka-Sat pour diffuser la télé régionale et locale dans toute l'Europe et le bassin méditerranéen. L'approche du concurrent d'Eutelsat, le luxembourgeois Ses Astra, se veut moins audacieuse et plus graduelle: au lieu d'un satellite complet, il recourt, en fonction des besoins, à des charges additionnelles en bande Ka sur ses prochains satellites. Il privilégie l'emploi de la bande Ku avec les terminaux Sat3Play - pour les services, via satellite, de télévision, téléphonie et Internet à domicile - de la firme belge Newtec. Ils sont plus de 80 000 abonnés à cette technologie sur le continent européen. La concurrence va être vive sur l'Europe, le Moyen-Orient et le Nord de l'Afrique. L'opérateur britannique Avanti Communications compte bien quant à lui lancer son satellite Hylas-1 cette année ; il a déjà commandé Hylas-2 pour un lancement Arianespace en 2012. D'autres projets de satellites en bande Ka sont à l'étude: le Megasat français et le Heinrich Hertz allemand. Dans les années à venir, les citoyens européens auront l'embarras du choix pour l'Internet par satellite. Théo PIRARD [email protected] Athena 260 / Avril 2010 Agenda Agenda Agenda... ÉVÉNEMENTS, EXPOS ... À Bruxelles ... Le règne animal et son évolution Du 23 avril au 30 juin Voici 175 ans, le premier cours de zoologie était donné à l’ULB. 25 ans plus tard, Darwin publiait son livre L’origine des espèces par la sélection naturelle et lançait une version révolutionnaire de l’histoire de la vie. L’occasion pour l’ULB de revenir, sur l’histoire de l’évolution animale et sur les relations entre humains et animaux... http:/www./ulb175.be • Les expositions Les relations animales ou Le bestiaire revisité: Quand ? À partir du 30 avril, du lundi au vendredi de 13h à 17h. Le samedi de 11h à 16h. Où ? Musée de zoologie et d’anthropologie - Avenue F.D. Roosevelt 50 à 1050 Bruxelles Tarif ? Entrée libre. Visites guidées sur réservation (12 personnes maximum - 30 euros/groupe) Contact ? [email protected] - 02/650.22.62 Selbsdarstellung. Portraits de Grands Singes: (Photographies, peintures et sculptures de Chriz Herzfeld) Quand ? Du 23 avril au 30 juiin 2010 Où ? Salle Allende - Campus du Solbosch - Avenue P. Héger, 22-24 à 1000 Bruxelles Tarif ? Entrée libre Contact ? [email protected] - 02/650.37.65 ou [email protected] • Les conférences «La zoologie à l’Université de Bruxelles: petites Histoires et grandes Passions», de Michel Jangnoux Le jeudi 29 avril à 17h30, Auditoire Guillissen (Campus du Solbosch, Bâtiment U) «Un siècle après Darwin: l’Homme face à son évolution», de Pascal Pick Le mardi 4 mai à 20h, Salle Dupréel (Campus du Solbosch, Bâtiment S, Avenue Jeannne 44). «Humains et animaux, regards croisés», de Dominique Lestel Le jeudi 6 mai à 14h30 au Studio 4 (Centre culturel Flagey, 1050 Bruxelles). À Liège ... Partager le Savoir. Deux siècles de vulgarisation scientifique au pays de Liège Du vendredi 23 avril au vendredi 28 mai Exposition organisée par le Centre d'Histoire des Sciences et Techniques de l’ULg. (http://chst.european-is.net/) Où ? Embarcadère du Savoir - Institut Zoologique - Quai Van Beneden, 22 à 4020 Liège Pour qui ? Grand public Infos: Embarcadère du Savoir - 04/366.96.50 50 Agenda À Namur ... Exp’osons Les 29 et 30 avril Athena n° 260 Exp'Osons 2010 est une vaste exposition de projets scientifiques pour les jeunes de l'enseignement primaire et secondaire. Par le biais de ce concours, Ose La Science propose aux jeunes de s'investir dans le projet de recherche qui les intéresse, de communiquer leur passion, d'échanger leurs idées ou leurs questions avec d'autres jeunes. Chaque année, l'exposition regroupe plus de 130 projets présentés par en moyenne 400 jeunes. Ouverte au public, le contact doit y être cordial, dynamique et permettre des échanges fructueux. Même si Exp'Osons est un concours de projets scientifiques dont la qualité et la rigueur sont souvent remarquables, il est avant tout un lieu d'échanges, de communication et de respect des uns et des autres. Chacun y a donc sa place et un jeune enfant expliquant ses ennuis avec son poisson rouge ou avec son élevage de vers de terre peut tenir en haleine pas mal de monde... Où ? CAMET, Boulevard du Nord, 8 à 5000 Namur (derrière la Gare) Tarif ? Gratuit Infos: www.oselascience.be - 081/43.53.23 ou [email protected] Avril 2010 Ce mensuel d'information, tiré à 14 000 exemplaires, est édité par la DGO6, Département du développement technologique, Service public de Wallonie - SPW Place de la Wallonie 1, Bât. III à 5100 Jambes Téléphone: 0800/11 901 (appel gratuit) http://athena.wallonie.be/ Éditeur responsable: Michel CHARLIER, Ir. Inspecteur général Ligne directe: 081/33.45.01 [email protected] Rédactrice en chef: Géraldine TRAN Ligne directe: 081/33.44.76 [email protected] Toujours à Bruxelles ... Expo-Sciences Les 23 et 24 avril Graphiste: Nathalie BODART Ligne directe: 081/33.44.91 [email protected] Expo-Sciences, c'est l'incontournable rendez-vous des petits et jeunes chercheurs en herbe, issus de l'enseignement maternel, primaire, secondaire, technique et supérieur. Depuis le début de l'année scolaire, ils ont élaboré un projet scientifique ou technologique qu'ils auront la fierté et l'enthousiasme de présenter devant un jury de scientifiques, leurs camarades de classe, leurs amis, leur famille ainsi que le grand public. Avec pour thème la biodiversité, l’événement a pour objectif de mettre en évidence l’importance de la démarche scientifique, le côté ludique des sciences mais aussi les espoirs qu’elles portent en elles pour l’avenir. Carrefour national et international des jeunes, l’expo offrira également de nombreuses activités en espérant, qui sait, voir naître des vocations! Impression: Les Éditions européennes Rue Thiefry, 82 à 1030 Bruxelles ISSN 0772 - 4683 Ont collaboré à ce numéro: Jean-Michel Debry; Paul Devuyst; Henri Dupuis; Benoît Gailly;Philippe Lambert; Brigitte Laurent; Jean-Luc Léonard; Yaël Nazé; Isabelle Pierre; Théo Pirard; Jean-Claude Quintart; Michel Van Cromphaut et Christian Vanden Berghen. Dessinateurs: Où ? À Tour & Taxis - Avenue du port, 86c à 1000 Bruxelles (sheds 3 et 4). De 10 à 17 heures. Olivier Saive et Vince. Tarif ? Pour visiter l’Expo-sciences, il suffit d’être membre des Jeunesses scientifiques de Belgique ou de Jeugd, Cultuur en wetenschap. Il sera possible de s’affilier sur place pour 2,5 euros et d’ainsi avoir accès à l’exposition. Michel Charlier; Marc Debruxelles; Jacques Moisse; Jacques Quivy. Comité de rédaction: Infos: www.jsb.be ou www.jcweb.be 51 Athena 260 / Avril 2010 Visitez nos sites: http://athena.wallonie.be http://recherche-technologie.wallonie.be/ http://difst.wallonie.be/ Service public de Wallonie - DGO6 Département du développement technologique Place de la Wallonie 1, Bât.III à 5100 Jambes • Tél.: 081 333 111 • Fax: 081 33 46 21