Etudes et Rapports Informatiques
Transcription
Etudes et Rapports Informatiques
ÉTUDES & RAPPORTS INFORMATIQUES N°532/533 Numéro double Novembre/Décembre 2004 Lettre de marketing et d'études à destination des dirigeants E&R - 64 rue des Fontaines - 60620 BOULLARRE - Tél/Fax : 03 44 87 28 30 E-Mail : [email protected] - Site Web : http://www.e-r.fr.st SOMMAIRE ETUDES “Mais que font les salariés avec leur ordinateur au bureau ?” ..................................................... 2 ENQUÊTES La chaîne logistique .......................................... 3 Personnalisation des communications sur Guichet Automatique Bancaire (GAB) ......... 4 MARCHÉS La France et le Haut Débit ; La RFID ............... 4 SÉCURITÉ Sécurité des réseaux par satellite* .................... 5 TECHNOLOGIES Les nouveaux média VXA « X Tape » ............... 6 Le procédé KEYVELOP .................................... 6 IT MARKETS About Gemplus ................................................. 7 European SMS and MMS Markets .................... 7 Bluetooth smartphones Vs WLAN ..................... 8 Outsourcing of IT jobs ....................................... 9 FLASHS L’UE veut baisser le prix d’accès aux services multimédia ; A propos du DIVX ; Proteus .........10 NOUVELLES France, Monde, Résultats financiers ................. 9 BILAN Les 50 ans du Cern et les 48 ans d'informatique . 11 LIVRE Wi-Fi : Principes de base et sécurité ................15 SHOPPING Matériels : Dimage X50, HP Photosmart R707 16 Zen Touch, TravelSound 200 ..........................17 PS2 : Roger Lemerre 2005 ; Club Football 2005, Spider-Man 2 ; Les Indestructibles ...................18 Catwoman ; Driv3r ; Megaman X7 ; .................... Champions of Norraths ....................................19 PC : Dora Exploratrice ; Chansons & Comptines interactives ; Myst 4 ..........................................20 Vampire The Masquerade Bloodlines; Worms Forts : Etat de siège .........................................21 Livres : Micro-Application ; O'Reilly ...................21 ▼ RESPONSABLE SÉCURITÉ ET SERVICES GÉNÉRAUX : QUELLE COLLABORATION ?* Il est devenu évident que l’importance des « Technologies de l’Information et de la Communication » croît de jour en jour, et qu’à ce titre elles nécessitent une « mise en sécurité » à la hauteur de leur importance. Mais pour répondre à cet impérieux besoin de « mise en sécurité », les seules réponses « techniques » ou « factorielles » ne sont plus suffisantes. Elles doivent être fédérées dans le cadre d’une démarche de gestion centralisée et coordonnée de la Sécurité. C’est dans le cadre d’une telle approche « globale » que les règles de collaboration, notamment entre Responsables Sécurité et Services Généraux, pourront être mieux déterminées : précisions sur le rôle de chacun, séparation des « pouvoirs » … Pour mémoire, les trois principes de collaboration entre le responsable sécurité et les services généraux sont : 1) les principes généraux pour la Sécurité. 2) les principes autour d’un « Plan Directeur Sécurité » qui définit une démarche évolutive, assure la cohérence entre objectifs et moyens, respecte l’équilibre « prévention / protection » et concerne l’ensemble des composants de l’entreprise. 3) les principes d’une collaboration à trois niveaux : décisionnel / fonctionnel / opérationnel. L'évolution inévitable vers une stratégie de « Sécurité Globale » de l’entreprise devrait également impliquer l’évolution du « Management de la Sécurité » au sein de l’entreprise, et qu’inéluctablement, la législation et la réglementation, la « pression » des régulateurs pousseront l’entreprise dans cette voie. La Sécurité pourra alors être considérée comme un facteur de différenciation, voire un avantage concurrentiel. *Résumé de l'intervention de Jacques Auzat, Groupe Aviva à la conférence Clusif. ÉTUDES ▼ “MAIS QUE FONT LES SALARIÉS AVEC LEUR ORDINATEUR AU BUREAU ?” Microcost, entreprise dédiée à la réduction des coûts informatiques au service des organisations, présente les résultats d’une étude inédite sur la réalité des usages des micro-ordinateurs et périphériques en entreprise. Cette étude a porté sur un millier d’organisations réparties sur 7 pays européens : la France, l’Allemagne, la Suisse, la Belgique, l’Espagne, l’Angleterre et l’Italie, avec toutefois une sur-représentation des trois premiers pays sus-cités. Elle distingue 3 grands secteurs d’activité, l’administration, l’industrie et les services, avec une répartition équivalente des effectifs étudiés entre les 3 secteurs, soient : • 347 612 PC pour 340 organisations dans l’administration, • 505 620 PC pour 437 entités de l’industrie, • 432 269 pour 202 sociétés du secteur des services. Au total, 1 285 500 postes informatiques ont été soumis à l’analyse sur une durée totale moyenne de 4 semaines. Répartition des différentes versions de Windows Dans l’échantillon observé, on constate une nette prédominance de la version Windows 2000 du système d’exploitation de Microsoft dans le secteur industriel. Pour l’administration, ce sont les versions anciennes de Windows 95 et 98 qui dominent largement. C’est également le seul des trois secteurs étudiés à utiliser encore une plate-forme presque «archaïque», la version 3.11 datant de 1993. On peut y voir sans doute l’illustration d’un certain retard en termes d’équipement informatique. C’est dans le secteur des services que la distribution est la plus disparate entre toutes les versions de Windows. Utilisation des logiciels Il ressort de l’étude qu’en moyenne 2h15min. par jour sont consacrées à l’utilisation des principaux logiciels, ce qui représente de 25% à 50% du temps de travail effectif des actifs. À 68%, les logiciels les plus utilisés sont les outils bureautiques et à 14%, les logiciels métiers. Côté Internet, c’est dans les services que l’on «surfe» le plus, à hauteur de 16 % du temps travaillé, contre 13 % dans l’industrie et 11 % dans l’administration. E&R - Page 2 C’est par contre l’industrie qui échange le plus de courriels avec 22% du temps travaillé, suivi des services, 15 %, et de l’administration, 5 % seulement. Fréquence des incidents En matière de pannes, bogues et autres incidents, il résulte de l’échantillon étudié que les systèmes d’exploitation Windows NT et 2000 ont un taux d’incidents inférieur à 4%. Les versions Windows 95/98 et XP, en revanche, surpassent les 8%. L’administration détient ainsi le record avec un taux de pannes de 12,11% du nombre total de sessions ouvertes contre 5,34 % dans l’industrie et 5,32 % dans le secteur des services. En moyenne, sur près de 8% des sessions (périodes d’utilisation du PC), une panne ou un incident obligent l’utilisateur à redémarrer son ordinateur. Cela équivaut à 3 pannes par utilisateur et par mois ou encore à près de 6 heures de temps perdu par an et par personne. En extrapolant au niveau mondial, ce sont donc 2,4 milliards d’heures de travail qui sont perdues chaque année par suite de la défaillance des PC. En France, pour les 15 millions de personnes qui utilisent un PC en entreprise, en prenant comme base un coût horaire moyen de 20 euros par salarié, Microcost évalue le coût de la «non-qualité» de ces PC à 1 800 millions d’euros soit le prix d’achat de 60 Airbus A320. Gestion des impressions papier Concernant la gestion des impressions papier, l’étude statue sur une moyenne totale inférieure à 4 ordres d’impression lancés par personne et par jour. Étonnamment, le record est détenu par l’industrie avec 5,12 ordres lancés par ordinateur et par jour contre 3,50 pour le secteur tertiaire et 2,92 pour l’administration. En termes de pages imprimées, on obtient un total de 11,4 pages par poste et par jour pour l’industrie, pour 9,4 pages pour les services et 7,3 pages pour l’administration. Sur le total de l’échantillon, en moyenne moins de 10 pages sont imprimées par jour et par personne soient 2 000 pages imprimées par utilisateur et par an. En moyenne, ces pages sont imprimées à parité égale sur des imprimantes locales ou en réseau. Pour l’industrie cependant, la préférence va aux impressions en réseau avec 3,19 ordres d’impression lancés contre 1,93 sur des imprimantes locales. N° 532/533 de Novembre/Décembre 2004 Dans les services en revanche le nombre de pages imprimées en réseau (3,8 pages) est inférieur au nombre de pages imprimées en local (5,7). Cela se traduit par des dépenses supérieures, les imprimantes locales ayant un coût de revient à la page 5 à 10 fois supérieur à celui des imprimantes en réseau. Le coût de revient réel d’un PC Il ressort de l’échantillon étudié que les employés et fonctionnaires utilisent leur PC en moyenne 2,15 heures par jour, soit environ 1/3 de leur temps de travail. Le micro-ordinateur est donc inactif les 2/3 du temps. Sur ce temps d’utilisation, plus de 50 % concerne des logiciels standards. En se basant sur une durée de vie moyenne des PC en entreprise de 4 ans et un prix d’achat moyen unitaire de 800 euros, Microcost estime le coût direct horaire d’un PC à 0,3 euros. Le coût horaire du PC est de 5 euros (3 000 euros de coût moyen annuel de possession d’un PC divisé par 600 heures d’utilisation). On peut donc en conclure que 94 % du coût total horaire du PC n’est pas lié à l’investissement matériel. ENQUÊTES ▼ LA CHAÎNE LOGISTIQUE DÉCONNECTÉE DE LA STRATÉGIE D’ENTREPRISE La seconde enquête annuelle sur la gestion de la chaîne logistique menée par Computer Sciences Corporation et la Supply Chain Management Review indique que les entreprises continuent à améliorer le fonctionnement de leur chaîne logistique mais qu’elles n’en tirent pas tous les bénéfices qu’on pourrait en attendre. À cela, plusieurs explications : une préoccupation exagérée pour les réductions de coûts à court terme, un manque de stratégie ou d’alignement avec la stratégie globale de l’entreprise, des efforts d’optimisation limités qui pourraient pourtant procurer de nouveaux revenus, et une coordination limitée au sein de l’entreprise ou avec les fournisseurs et clients. L’enquête révèle que si les entreprises investissent dans les logiciels et les technologies susceptibles d’améliorer la gestion de la chaîne - notamment dans le domaine des achats, de la logistique et de la gestion des stocks -, leur attention se porte trop sur la technique et pas assez sur la stratégie et l’optimisation du processus. C’est pourquoi elles n’enregistrent aucun progrès notable dans la collaboration tout au long de la chaîne logistique, même pour les plus grandes d’entre elles. Selon l’enquête, les entreprises high-tech et de distribution se considèrent comme plus avancées que celles des autres secteurs en matière de chaîne logistique. Les réponses révèlent en effet un fossé grandissant entre ces entreprises, notamment les grandes enseignes de vente au grand public, qui recueillent les fruits de l’optimisation de leur chaîne logistique, et celles qui n’y sont pas encore parvenues. Ce retard pourrait résulter d’une déficience de stratégie chez les entreprises ayant répondu au N° 532/533 de Novembre/Décembre 2004 questionnaire. Cette déficience est particulièrement évidente en ce qui concerne la mise en cohérence de la stratégie logistique et la stratégie globale de l’entreprise. Un peu plus de la moitié des sondés, aussi bien en Amérique du Nord qu’en Europe, ont précisé que leur entreprise n’a pas encore de stratégie logistique ou commence à peine à la formuler. À l’autre bout du spectre, seuls 20 % des sondés de ces deux continents ont déclaré que leur entreprise disposait d’une stratégie complète. L’enquête 2004 marque tout de même quelques progrès dans certains domaines, à commencer par les achats, la logistique et la gestion des stocks. En termes d’avancement global, les participants à l’enquête ont cité d’abord les achats et la sélection de fournisseurs (23 % pour ces deux postes), puis la logistique (20 % en 2004 contre seulement 13 % en 2003) comme étant les domaines où leur entreprise a le plus avancé. Le domaine des prévisions et de la planification était cité en quatrième position, en passant de 10 % en 2003 à 19 % en 2004. Il n’y a eu aucun changement d’une année sur l’autre du nombre d’entreprises disant avoir avancé en matière de collaboration client. À côté de cela, la collaboration - tant interne qu’externe, avec les fournisseurs et les clients - est citée comme le chantier le plus urgent. Toutefois, les progrès sont déjà notables pour une des formes de collaboration visées. Il s’agit de la relation entre les responsables de la chaîne logistique et leurs homologues du service informatique. En 2003, 39 % des sondés précisaient que leur relation de travail avec les responsables informatiques concernant l’introduction de nouvelles technologies n’était pas très efficace, ou ne l’était que très peu. Ce poste a décru très nettement à 14 % en 2004. En outre, 37 % des sondés E&R - Page 3 de cette année ont indiqué que cette relation était assez efficace ou très efficace, contre 30 % en 2003. ▼ PERSONNALISATION DES COMMUNICATIONS SUR GUICHET AUTOMATIQUE BANCAIRE (GAB) euros avec impression du solde, automatiquement et en fonction des habitudes de l’usager. De plus, la communication personnalisée sur GAB réduit le nombre d’étapes intermédiaires lors des transactions, réduisant ainsi jusqu’a 33% les temps d’attente au GAB. Plus de deux tiers des personnes interrogées, soit 73%, voudraient recevoir des informations financières importantes, comme des rappels d’échéances d’assurances habitation, via les GAB. D’autre part, 58% de ces mêmes personnes aimeraient pouvoir ensuite discuter de ces informations avec un collaborateur de sa banque. Plusieurs banques, situées en Amérique du Nord, en Asie et aux Pays-Bas, ont déployé avec succès cette technologie de personnalisation sur GAB. Ainsi, dans un établissement ayant fait ce choix, 60% des clients ont demandé à profiter de la touche "transaction favorite". Une enquête indépendante, menée pour NCR par l’institut IPSOS, indique que 73% des personnes interrogées souhaitent que le guichet automatique bancaire (GAB) mette à leur disposition une fonction "transaction favorite", une touche personnalisée déclenchant par exemple un retrait de 30 *Méthodologie de l’enquête : L’enquête NCR - IPSOS 2004 a été menée auprès d’un échantillon représentatif de la population française, composé de 937 personnes âgées de 18 ans et plus, et construit sur la méthode des quotas. Les interviews ont été réalisées les 10 et 11 août par téléphone. Les résultats de l’enquête sont disponibles sur le site de l’IPSOS. En tout, 236 entreprises ont renvoyé ce questionnaire de huit pages. La majorité des réponses émanait d’Amérique du Nord (128), principalement des États-Unis. Les entreprises européennes représentaient le second contingent géographique en taille, avec 60 réponses. Trente-cinq réponses nous sont parvenues de pays situés hors d’Amérique du Nord et d’Europe. Treize sondés n’ont pas indiqué de pays d’origine. Plus de 20 secteurs économiques étaient représentés dans l’enquête de cette année. On retrouvait notamment l’aérospatial et la défense, la distribution et les biens de grande consommation, le high-tech et les télécommunications. MARCHÉS ▼ LA FRANCE EN TÊTE DES PAYS EUROPÉENS EN MATIÈRE DE HAUT DÉBIT La France a connu, en 2003, la plus forte croissance du parc ADSL en Europe, avec plus de 1,7 million de nouvelles lignes Haut Débit. Cette croissance est encore plus importante en 2004 avec déjà près d’1,6 million de nouvelles lignes Haut Débit à ce jour. Depuis janvier 2004, près de 5 600 nouvelles communes bénéficient de l’Internet Haut Débit par l’ADSL. Avec plus de 21 600 communes ouvertes partiellement ou totalement à l’ADSL, c’est 90 % de la population française qui peut bénéficier de l’Internet Haut Débit d’ici fin 2004. Cette croissance de parc amène la France en tête des pays européens en nombre d’internautes raccordés à l’ADSL. ▼ LE MARCHÉ DE LA RFID (RADIO FREQUENCY IDENTIFICATION) Selon le Yankee Group, il connaît une croissance de 20 à 30 % par an depuis 12 à 18 mois. E&R - Page 4 Ce rythme devrait rester aussi soutenu jusqu’en 2008 pour atteindre 4,2 milliards de dollars, avec l’espoir d’une baisse du prix des puces. Une première explosion du marché devrait avoir lieu d’ici trois ans : 2 milliards de dollars seront dépensés uniquement dans les puces. Si les applications utilisant la RFID sont déjà nombreuses, la plupart restent encore à imaginer, offrant au marché de nombreuses perspectives de développement. Les différents projets pilotes en cours, chez certains acteurs de l’industrie, du transport ou de la distribution, montrent d’ores et déjà les nombreux avantages à intégrer la RFID : gain de temps lors du contrôle de la réception ou de l’expédition des marchandises, amélioration du contrôle qualité dans la production, optimisation de la gestion des stocks et des inventaires, réduction des pertes et des vols, traçabilité plus fine des colis et à brève échéance un suivi unitaire des produits... Autres usages déjà bien connus, les cartes de transport sans contact ou les systèmes d’abonnement des sociétés de gestion d’autoroute, laissent entrevoir de nouvelles offres de services proposées aux individus. (Source : CNET Events) N° 532/533 de Novembre/Décembre 2004 SÉCURITÉ ▼ SÉCURITÉ DES RÉSEAUX PAR SATELLITE* La diffusion de données par satellite bénéficie de nombreux atouts. Elle est la solution idéale pour transmettre en une seule fois et à des débits élevés et garantis, des données à un très grand nombre de sites indépendamment de leur situation géographique. De plus, la généralisation des standards DVB (Digital Video Brodcasting largement démocratisés par les bouquets de télévision par satellite) et MPE (Multi Protocol Encapsulation qui spécifie l’encapsulation des données IP dans le DVB) a permis une forte réduction des coûts de bande passante, le développement d’équipements de réception grand public à bas prix et une grande facilité d’intégration des équipements d’émission et de réception dans les systèmes d’information des entreprises. L’utilisation de ces standards a également eu pour conséquence de permettre une réception aisée des données diffusées à toute personne équipée de matériel grand public rendant indispensable la mise en place de solutions de sécurisation. D’autre part, les caractéristiques d’un réseau de diffusion de données par satellite permettent de bénéficier d’une sécurité accrue tant au niveau de la protection contre les virus ou les intrusions qu’au niveau de l’assurance de la source des informations reçues. Sécuriser la diffusion de données Dès leur apparition, les bouquets de télévision par satellite ont intégré les mécanismes de cryptage et de contrôle d’accès de la norme DVB s’appuyant sur des cartes à puce. S’ils sont applicables à la diffusion de données, ces mécanismes sont cependant généralement trop complexes et onéreux pour une utilisation dans un réseau de données n’ayant pas le même dimensionnement qu’un réseau de télévision destiné à un public de masse. Le standard DVB a également défini d’autres moyens de sécuriser les données. Le plus utilisé, le « Fixed Key CAS » ou « Système de contrôle d’accès à clé fixe », offre l’avantage de s’affranchir de la gestion des cartes à puces. Il a cependant la caractéristique d’utiliser une clé fixe offrant ainsi une faille importante en cas de découverte de cette clé par une personne non autorisée. De plus, les mécanismes de mise à jour de cette clé sur l’ensemble des terminaux du réseau ne sont pas toujours disponibles. N° 532/533 de Novembre/Décembre 2004 Une autre solution consiste à intégrer la sécurisation des données à un niveau applicatif. Ceci peut être fait au niveau de plates-formes situées chez l’opérateur de télécommunication par satellite offrant ainsi un service partagé au niveau IP ou intégré dans l’application du diffuseur d’information. Ces systèmes utilisent généralement un couplage de deux types de cryptage. Un premier cryptage fort de type asymétrique (algorithmes à clés publiques et privées de type RSA par exemple) permet de gérer l’accès conditionnel et d’offrir un fort niveau de sécurité pour la transmission des données les plus critiques. Chaque point de réception autorisé se voit attribuer une clé privée stockée de façon sécurisée dans le terminal et une clé publique stockée au niveau du serveur. Les données sont quant à elles cryptées avec un système symétrique plus léger (DES par exemple). Une clé permettant le cryptage des données est générée pour chaque flux identifié puis transmise aux terminaux après cryptage par le biais de l’algorithme asymétrique. La transmission de ces clés symétriques se fait via le réseau de diffusion sur la base des abonnements des points de réception aux différents flux. Ainsi, un point de réception non abonné à un flux ne recevra pas la clé associée et sera dans l’impossibilité de lire les informations diffusées. Pour la mise en place de VPN IPSec, l’incompatibilité du format IPSec standard avec les mécanismes d’accélération TCP provoque une limitation importante des débits dans le tunnel. L’insertion dans le réseau de routeurs spécifiques permet de rendre compatible l’accélération TCP avec un VPN IPSec. Ces routeurs offrent de plus de nombreuses fonctionnalités de sécurité et de qualité de service. Des solutions efficaces et pérennes En conclusion, les réseaux par satellite, pour la diffusion de données comme pour l’accès à Internet ou les VPN, offrent à leurs utilisateurs un niveau de sécurité élevé et permettent même, dans certains cas, de s’affranchir de problématiques rencontrées sur les autres types de réseaux. Ces caractéristiques ajoutées aux autres avantages du satellite (accessibilité dans les régions les plus reculées, utilisation de IP multicast, indépendance géographique, garantie de débit, …) font des réseaux par satellite des solutions efficaces et pérennes pour un très grand nombre d’acteurs économiques. * Selon Hervé Postec, Responsable Technique de la société Fileas, Ex Polycom, opérateur et fournisseur de solutions de diffusion de données par satellite. E&R - Page 5 TECHNOLOGIES ▼ LES NOUVEAUX MEDIA VXA « X TAPE » Exabyte annonce VXA « X Tape », une famille de cartouches qui se décline en trois capacités natives. Le coût de la technologie VXA X Tape est en effet comparable à celui du format vieillissant DDS, qui présente la plus vaste base installée parmi toutes les plates-formes de lecteurs de bandes. Les cartouches VXA X Tape sont conçues pour être compatibles avec la prochaine génération, VXA-3, prévue pour la mi-2005 et qui doublera la capacité et la vitesse du VXA-2. Les problèmes posés par le format DDS DDS, l’actuel standard sur un marché des lecteurs de bandes représentant 3,2 milliards de dollars, est aujourd’hui dépassé. Sa cinquième génération, incarnée par le DAT72, offre une capacité native de 36 Go, insuffisante pour assurer la sauvegarde des disques durs, compte tenu de la taille moyenne de ces derniers sur les serveurs actuels. Ce problème de capacité est accentué par le fait que la technologie DDS de cinquième génération n’apporte aucun progrès dans le taux de transfert des données, qui continue de plafonner à 3 Mo par seconde. Depuis plus de dix ans, le format DDS s’est constitué le plus vaste parc installé, avec des ventes atteignant en moyenne le million d’unités chaque année. Toutefois, sa capacité et sa vitesse n’ont pas suivi la demande du marché. Le format X Tape La famille VXA X Tape, à travers les cartouches X6 de 20/40 Go (capacité native/compressée), X10 de 40/80 Go et X23 de 80/160 Go, laisse aux utilisateurs la liberté de choisir la capacité la mieux adaptée à leurs besoins présents de stockage et à leur budget, avec la possibilité d’ajouter de la capacité à la demande, en utilisant simplement des cartouches VXA Tape de niveau supérieur. Les cartouches X6 et X10 sont proposées à un tarif plus de 40% inférieur à celles de la génération précédente (respectivement 15 EUR et 29 EUR, prix publics conseillés). Avec cette nouvelle tarification comparable à DDS, les utilisateurs ont dorénavant toute facilité pour accéder à une technologie de sauvegarde et de restauration de classe entreprise, en bénéficiant d’un coût total de possession (TCO) plus favorable. Chaque cartouche VXA X Tape soutient un taux de transfert pouvant atteindre 43 Go à l’heure, E&R - Page 6 permettant d’effectuer les opérations de sauvegarde et de restauration deux fois plus vite qu’avec le format DDS. Cela permet aux administrateurs réseau de sauvegarder 160 Go de données (soit le contenu d’une cartouche VXA 2) en moins de quatre heures. Les cartouches X Tape sont également les seules à mettre en œuvre la technologie par paquets VXA qui, grâce aux techniques de correction d’erreurs PerfectWrite et ReedSolomon niveau 4, peut améliorer d’un facteur 180 l’intégrité de restauration des données par rapport à DDS. Ces nouvelles bandes emploient un matériau de pointe AME (Advanced Metal Evaporated) qui prolonge nettement leur durée de vie en comparaison des autres technologies : au minimum 500 utilisations contre seulement 99 au maximum pour les bandes DDS. L’association du format X Tape et de la technologie VXA autorise également un fonctionnement à vitesse variable, ce qui élimine complètement le «backhitching » (repositionnement saccadé de la bande en arrière) et évite les problèmes d’étirement et d’usure de la bande couramment rencontrés avec les technologies moins performantes. Les cartouches X Tape sont en outre les seules à faire l’objet de tests réalisés par des laboratoires indépendants dans des conditions extrêmes (vibrations violentes, immersion dans de la cendre volcanique, de l’eau et du café brûlant, et même congélation dans un bloc de glace) en vue de garantir la restauration fiable et complète des données. La capacité de stockage et le débit des lecteurs VXA supposent un taux de compression 2:1. La compression effective varie en fonction du type de données et de la qualité du lecteur et de la bande. ▼ LE PROCÉDÉ KEYVELOP KEYVELOP est un dispositif logiciel destiné à assurer la sécurisation (identification, confidentialité, non répudiation et intégrité) et la traçabilité des échanges de documents numériques. Le procédé crée sur les postes clients des enveloppes électroniques universelles inviolables appelées "keyvelop", véritables coffres-forts électroniques. Ces coffres-forts sont sous le contrôle d’un tiers de confiance qui valide et certifie la validité et la véracité des transactions, mais qui ne voit jamais les documents ; facteur de sécurité évident comme d’économie de moyens informatiques. Les keyvelop (enveloppes) sont ensuite N° 532/533 de Novembre/Décembre 2004 envoyés aux destinataires par tout moyen (mail, CD…). Le procédé est constitué de deux logiciels : • Le logiciel Keyvelop Serveur s’installe sur tout serveur. • Le logiciel Keyvelop Client est utilisé sur les postes utilisateurs ou sur un serveur déporté. Le premier (Keyvelop Serveur) est exploité sur des serveurs opérateurs encore appelés bureau de poste. Il permet de contrôler l’identité de l’expéditeur et des destinataires et de distribuer une méthode de cryptage et la clef privée correspondante à l’expéditeur puis aux destinataires. Il sert ensuite à conserver chaque empreinte de l’ensemble des composants de chaque Keyvelop et à garantir l’intégrité de l’ensemble constitué de l’enveloppe et des fichiers qui a été expédié et reçu. Il conserve, enfin, la trace des événements de chaque Keyvelop et met à jour chacune des Keyvelop (expéditeur, destinataires, signataires) des événements survenus. Le deuxième logiciel, Keyvelop Client, est utilisé sur les postes des utilisateurs finaux. Sa mission est de créer des Keyvelop, de permettre l’insertion de tout type de fichier sous tout format et de toute taille, d’insérer des notes, d’envoyer et recevoir du tiers de confiance (Keyvelop Serveur) les éléments de sécurité, de crypter l’enveloppe et les données qu’elle contient, puis de décrypter la Keyvelop et ses données. Enfin, il met à jour la fiche de suivi et conserve les différentes Keyvelop expédiées et reçues. L’architecture de ce procédé assure la sécurité et la traçabilité (au sens de preuve légale) dans des conditions uniques de souplesse et de légèreté : liberté totale du poids et formats des fichiers transmis, installation par simple téléchargement d’un logiciel léger sans besoin de configuration, minimisation des ressources informatiques requises par le système. IT MARKETS ▼ ABOUT GEMPLUS Gemplus International S.A. is the world’s leading player in the smart card industry in both revenue and total shipments (source: Gartner-Dataquest (2004), Frost & Sullivan, Datamonitor). It has sold over 4 billion smart cards. For Frost & Sullivan, the company was the number one smart card reader supplier in 2003, with a 21 per cent market share, shipping some 1.9 million units. Gemplus’ unit shipments of smart card readers (PC-link readers as well as chipsets for keyboards and electronic fund transfer and point-of-sale (EFTPOS) terminals) grew by a notable 20 per cent over the period 2002 to 2003. Last year, PC-link readers represented 65 per cent of Gemplus’ unit shipment sales with reader chipsets completing the remainder. Strong performances in key regional markets have further underlined the company’s competitive profile. In 2003, the company implemented high-volume logical access control projects for governments and enterprises in South Korea, Taiwan and China. Consistently diversifying its reader portfolio, Gemplus now has competencies in contactless technology, basic PC-link readers, USB ‘dongles’, SIM copiers and chipsets for terminals. It is also a leading participant in the niche reader intellectual property rights (IPR) market segment. N° 532/533 de Novembre/Décembre 2004 ▼ EUROPEAN SMS AND MMS MARKETS In response to the increasing competition and market maturity in the short messaging services (SMS) space, mobile operators in Europe are shifting focus to multimedia messaging services (MMS) as a means to revive end-user enthusiasm, stabilise revenue generation, increase average revenue per user (ARPU) and reduce the customer churn rate. Frost & Sullivan expects a significant drop in the contribution of SMS toward mobile data revenues from 90 per cent in 2003 to 40 per cent in 2008. Nevertheless, mobile operators can expect to stay afloat and replace lost revenue given the large subscriber base in Europe and the opportunities it presents to new services such as MMS. Availability of handsets with coloured screens and integrated cameras and the rollout of thirdgeneration networks are major driving forces in the MMS market. In 2008, MMS is expected to achieve a 65 per cent penetration rate, creating 210 million active users and EUR 10 billion in revenue for mobile operators. However, in the two years since its European launch in 2002, MMS has fallen drastically short of mobile operators’ expectations, and even while the future for MMS looks bright, operators need to tread carefully. E&R - Page 7 Confronted by various technical and commercial challenges such as network interoperability, MMS has struggled to reach the mass market. Fortunately, the Open Mobile Alliance (OMA) has released the version 1.2 to extend MMS capabilities through open standards and interoperable mobile services. Since the positioning of MMS as a logical extension of SMS has not been completely successful, mobile operators need to rethink their value proposition, focus on providing superior end-user experience and promote the compelling new features offered by MMS. Besides photo messaging, new services such as blogging, group messaging, dating services and competitions are likely to increase the applicationto-person traffic and, in turn, drive MMS usage. However, the marketing push provided by upgraded functionality in terms of colour, audiovisual quality and graphics is likely to have minimal effect due to the high price of MMS and MMScompliant multimedia handsets. In order to increase the MMS subscriber base and provide value-for-money services to users, mobile operators have devised upgrade and subsidisation programmes for MMS-enabled handsets. Special offers such as lower weekend prices and personalised services are also likely to propel MMS popularity. Until prices are stabilised and MMS attains mass appeal, it is likely to take a backseat to SMS since the latter still scores well in terms of affordability, simplicity, accessibility and ease-of-use. SMS has evolved into a viable, practical and profitable delivery channel and will continue to play a central role in the future, as a communication tool in the mid-term and a support for MMS in the long-term. ▼ BLUETOOTH SMARTPHONES VS WLAN ARC Group expects sales of high-end smartphones (*) to reach 14.7m units in 2004, representing 53% of total smartphone sales. During the next five years, low-end smartphone (**) sales will grow slowly from 12.90m units in 2004 to 44.5m units in 2009, as many of the functions they offer are incorporated into standard feature phones. At the same time, demand for high-end smartphones will continue to grow steadily, so that their share of the smartphone market will increase to 64.5% in 2009, which represents figure sales of 80.5m units. In the short- to medium-term, high-end smartphones will continue to attract professionals, E&R - Page 8 early adopters and a great number of technophiles who are ready to invest in the latest technology. Sales of these devices remain low for many reasons, including the relatively high price of both devices and wireless data services, which makes it difficult for operators and service providers to balance device subsidies against the potential for increased data revenue streams. In contrast with high-end smartphones, low-end smartphones often attract early consumers for functionalities such as friendly UI, camera, music, and multimedia messaging or Bluetooth. As a result, they represent a potential source of increased wireless data revenue streams, which in turn encourages operators to subsidise them. In addition, these devices generally support a limited number of features and require less powerful hardware components, which significantly reduce their cost. On the top of their relative high cost, other reasons behind the relatively slow growth of the global smartphone market include their comparatively large size and heavy weight compared with traditional handsets. They also suffer from a very short battery life due to the substantial energy consumption of the CPUs, communication modules and high resolution screens necessary features to deal with bandwidth consuming data services. However, ARC Group’s Future Mobile Computing report predicts that with the hardware and software technology advances and the promise of new battery technologies, energy consumption of smartphones will halve within the next two years, enabling longer connection time. The price of these devices is also expected to reduce significantly during the next five years due mainly to the decrease in cost of hardware components including colour screens, memory, processors, and batteries. It is important to note that the bill of material of smartphone devices is significantly dependant on the quality of embedded components and features. For example, a smartphone embedding low resolution screen (4000 colours), NAND memory, VGA camera, and ARM7 processor is much cheaper than a smartphone with high resolution screen (65,000 colours), NOR memory, ARM9 or above architecture, and a megapixel camera or above. Features such as Bluetooth could add as much as $10 and Wi-Fi as much as $25 to the bill of materials. Future Mobile Computing finds that Bluetooth is mainly embedded in smartphones targeting the European market where Bluetooth is popular. However, Bluetooth capable smartphones are less N° 532/533 de Novembre/Décembre 2004 popular in North America and even less so in Asia Pacific with the exception of Japan. Shipments of smartphones with built-in Bluetooth will grow from 2m units in 2003 to more than 6m units in 2004. Analysts expects shipments of Bluetooth smartphones to reach 87.5m units totalling about 70% of the smartphone market. Compared to other wireless technologies, such as Bluetooth, WLAN does not yet offer an ideal solution for being incorporated into smartphones. It has many significant challenges and disadvantages, specifically the fact that the price of building in this feature remains very high. This makes it even more difficult to subsidise WLAN devices and hence to justify the high price to the end-user. In addition current WLAN modules are bulky compared to Bluetooth because they include extra components for signal shaping and power amplification. Embedding these modules in smartphones, which already house bulky 2.5G/3G wireless modules, will dramatically complicate the design process and result in significantly larger form-factor devices as well as dramatically affecting the overall power consumption. Smartphones already suffer from high energy drain due to the high power consumption of 2.5G/ 3G wireless modules. In terms of usability, embedding WLAN into smartphones side by side to WWAN is not yet justified because WLAN-WWAN roaming solutions are still in their infancy and service providers will need time to adopt the technology. This will depend on the popularity of WLAN in the enterprise and also in public areas such as hotspots. Microsoft and Intel are the main supporters of including WLAN in smartphones as Microsoft OSs have already integrated WLAN stacks and Microsoft Xscale processors come with a WLAN interface. The majority of early WLAN devices are primarily targeting the North American market. Sales of WLAN devices are expected to grow only slightly over the next two years to reach 1.27m units worldwide by 2005. It is anticipated that after 2005, sales of WLAN smartphones will increase significantly to reach 18.75m units by 2009, which will represent 15% of total smartphone sales. (*) Mobile phones featuring advanced computing capabilities and handheld devices with cellular connectivity have converged in recent years into one category of devices. (**) Low-end smartphones : rich media phones that are basically terminals with an advanced user interface, embedding more than three features such as music, video player and recorder, camera, MMS, games, web browsing, synchronisation with PC, Bluetooth, etc. N° 532/533 de Novembre/Décembre 2004 ▼ ANTI-OUTSOURCING LEGISLATION UNLIKELY AS GLOBAL OUTSOURCING OF IT JOBS GAINS MOMENTUM Global outsourcing of IT jobs from high-cost regions of the world to lower cost regions is, today, an inexorable phenomenon and attempts in certain developed countries to arrest this trend through legislation are bound to fail, states new analysis from Frost & Sullivan. Using a combination of qualitative information based on primary research in 14 countries together with quantitative data obtained from enduser surveys among IT decision-makers in France, Germany, Hong Kong, Japan, the United States and the United Kingdom, Frost & Sullivan analysts tracked global offshore outsourcing and off-shoring of IT jobs for the period 2002-2004. According to the study, IT job exports are forecast to increase by a compound annual growth rate (CAGR) of 5.9 per cent between 2002 and the end of 2004. In 2004, a total of 826,540 IT jobs are expected to be exported by France, Germany, Hong Kong, Japan, the United Kingdom and the United States to lower cost countries, amounting to a combined value of USD $51.6 billion. The United States and Japan are slated to emerge as the top two exporters of IT jobs in 2004. Germany is poised to lead the developed European nations by having exported a total of USD $48.22 billion worth of IT jobs since the IT offshoring and outsourcing trend began. Germany is trailed by the United Kingdom and France. Promoting sustained growth of IT job outsourcing has been the fact that many companies in low cost regions have higher CMM certification levels than their customers. Government sponsored programmes and tax incentives designed to support the IT industry in lower cost regions have also encouraged outsourcing trends. Providing further impetus to outsourcing has been the return of many IT professionals to their home countries in the late 1990s, who have been carrying out similar work, albeit at lower wages. Exporting IT jobs to lower cost countries is now regarded as critical to survival in industries where other competitors are doing so. At the same time, hiring outsourcers abroad is being seen as affording a company the flexibility to adjust its personnel strength to business requirements at a lower cost and with a higher level of expertise. E&R - Page 9 FLASHS ▼ L’UE VEUT BAISSER LE PRIX D’ACCES AUX SERVICES MULTIMEDIA L’Union Européenne finance pour 3,65 millions d’euros le projet Scalable Intelligent Video Server System (SIVSS), une technologie de stockage évolutive pour la gestion des signaux audiovisuels complexes. SIVSS vise plus spécialement à fournir une infrastructure de communication et de stockage offrant un débit évolutif jusqu’à 1 Tb/s (terabits par seconde), définissant ainsi un nouveau seuil de rentabilité. Cette nouvelle architecture est particulièrement bien adaptée aux nouveaux marchés faisant appel à des flux de données multimedia, telles que la distribution en masse de contenu en ligne et les applications de sécurité reposant sur le streaming video. SIVSS réunit quelques-uns des leaders européens du stockage et de la video : Xyratex (coordinateur du projet), Thomson Broadcast & Media Solutions, Foundation for Research & Technology, HiStor Technologies, OMass AS, Simula Research Laboratory AS, Glasshouse. ▼ A PROPOS DU DIVX DivXNetworks Inc., créateur du DivX format de compression vidéo, annonce que plus de 20 millions de lecteurs DVD certifiés DivX devraient être vendus dans le monde d’ici à la fin 2004. Rien que pour l’Europe, l’institut GFK Research note que les lecteurs DVD DivX ont représenté 25 % du marché depuis le mois de juillet. Les performances de la compression DivX permettent d’obtenir des vidéos en qualité DVD qui seraient 10 fois plus volumineuses dans le format MPEG-2, le standard DVD. NH Japan commercialise deux modèles de lecteur portable certifié DivX. Ces appareils peuvent lire toutes les versions de vidéo DivX. Ils font partie de la première génération d’appareils portables certifiés DivX. Disposant respectivement de 30 et 60 Go, ils disposent d’un écran LCD de 3,5" et des sorties S-Vidéo et coaxial. Le tuner TV intégré permet de recevoir et d’enregistrer la télévision directement sur l’appareil. Les connecteurs SD/ MMC et CompactFlash sont là pour étendre la capacité de stockage. Les processeurs DiMeNsion de seconde génération ont obtenu la certification DivX. Conçus par LSI Logic, ces circuits intègrent sur un seul circuit E&R - Page 10 les fonctionnalités d’enregistrement de DVD. Ils deviennent ainsi les premières solutions mono-circuit certifiées DivX Home Theater. Ils disposent de fonctionnalités innovantes, comme la technologie Direct Digital Dub, pour transférer par liaison FireWire la vidéo, depuis un caméscope vers un DVD, avec une seule pression de touche sur une même télécommande. ▼ PROTEUS L’objectif de Proteus est de créer une plate-forme informatique intégrée capable de supporter n’importe quelle stratégie de e-maintenance s’appuyant sur des formats standardisés et non-propriétaires. Ce portail accessible à tous les métiers concernés par la maintenance regroupe l’ensemble des données techniques, financières et logistiques d’un équipement. Configuré par le modèle de l’équipement à maintenir, il permet d’accéder par exemple au film du démontage d’un matériel, aux données chiffrées des moyennes de durée de fonctionnement, à l’historique de problèmes rencontrés sur une machine ou encore à la gestion des pièces détachées et de dérouler le scénario de maintenance préventive adapté. Proteus associe 15 entreprises et centres de recherche en France, Allemagne et Belgique, parmi lesquels Cegelec. Il s’inscrit dans le cadre des programmes ITEA (Information Technology for European Advancement), une des composantes du programme Eureka soutenu par la Commission européenne. Proteus constitue une réponse européenne au programme nord-américain Mimosa (Machinery Information Management Open System Alliance) : démarré en octobre 2002, le projet doit s’achever en février 2005. Ce nouvel outil informatique devra s’interfacer avec l’ensemble des outils présents sur un site de maintenance : GMAO, ERP, e-doc serveur, Scada, base logistique, système expert, ... E&R est publiée par la Sarl ETUDES & RAPPORTS INFORMATIQUES à Survilliers. ✆/FAX : 03 44 87 28 30 RC Pontoise B 340.074.525. Commission paritaire 56266. ISSN 0339 9559 Directeur de rédaction : Murielle Vézian. Secrétaire de rédaction : Sylvie Vézian. Correspondant aux USA : Marc Vézian. Dépôt légal 4e trimestre 2004 N° 532/533 de Novembre/Décembre 2004 NOUVELLES ▼ RÉSULTATS FINANCIERS • Cincom Systems : CA 100 M$. • Inforsud Diffusion 31.08.04 : CA 4.2M euros (+27%). • Business & Decision (30-06-04) : CA 58,4 M d’euros (+10,6 %), dont 68 % en business intelligence (+14 %), la gestion de la relation client (15 % de l’activité) et le e-business (17 %) affichent eux une hausse de 4 % d’une année sur l’autre. Les activités internationales : 22 % du CA (+ 20 %). Net 1,0 M€. • AxYus : CA 1,24 M€ (+15%), l'EBITA (bénéfices avant taxes et amortissements 47 Keuros. ▼ MONDE • Meeting Maker, fournisseur américain de logiciels et de services gérant le temps, a acquit sa consœur CEO Software, éditeur de solutions de gestion d’événements et de ressources pour petites et moyennes entreprises. • Suite à l’acquisition de Datakey, SafeNet, fournisseur de solutions de sécurité, crée une structure de gestion des identités qui sera intégrée à la division Sécurité de l’entreprise. • L'association européenne SNIA lance l’IPSI, « IP Storage Initiative » en vue d’éduquer le marché européen, promouvoir et favoriser l’adoption des solutions de stockage basées sur le standard IP. • La néerlandaise Getronics acquiert la britannique Pinkroccade pour créer la plus importante société de services TIC internationale aux Paysbas. • Le Consortium World Wide Web (W3C) publie le premier volume de "Architecture du World Wide Web" en tant que recommandation W3C. ▼ FRANCE • Pointsec Software Technologies, spécialiste suédois dans le domaine de la sécurité des terminaux mobiles ouvre une filiale dans l'Hexagone. BILAN ▼ LES 50 ANS DU CERN ET LES 48 ANS D’INFORMATIQUE Le Cern a fêté en 2004 ses 50 ans d’existence en ouvrant ses portes au public. Les énormes et spectaculaires installations des équipements d’étude de l’infiniment petit cachaient pourtant la réalité d’une électronique omniprésente, bien qu’invisible. Les installations du Cern ne peuvent fonctionner sans la béquille des systèmes électroniques en général et informatiques en particulier, une informatique qui a suivi de près, par force, l’histoire de cet organisme européen. C’est ce que nous rappelons ci-après en nous aidant des documents fournis par le Cern. Le premier système électronique Le premier ordinateur du Cern a été le Mercury de la société britannique Ferranti. Commandé en mai 1956, c’était, selon les dirigeants de l’époque, le meilleur ordinateur du marché comparé au Pegasus du même fournisseur, à l’Elliott 404, à l’English Electric Deuce, au Bull Gamma 311 et autre IBM 650. Il a fallu cependant non moins de deux ans pour construire cette machine qui, fina- N° 532/533 de Novembre/Décembre 2004 lement, n’a été installée qu’en 58. Son prix faramineux approchait celui d’un gros avion de l’époque, et physiquement, c’était un monstre -comparé aux ordinateurs d’aujourd’hui- comportant des milliers de tubes à vide. Sa vitesse, importante pour l’époque, serait désespérément lente au vue des normes modernes avec ses... 20.000 cycles par seconde, ses 1024 mots de 40 bits de mémoire vive, son disque magnétique primaire et ses entrées/sorties des données par bande perforée. En 1962, cependant, des dérouleurs de bandes magnétiques Ampex ont grandement amélioré le rendement, permettant un dépouillement plus rapide des mesure des films des chambres à bulles. Sa programmation était faite avec Autocode, un langage déjà évolué préfigurant le fameux Fortran. Suivi en 1961 du second et second bis Mais cet ordinateur s’est révélé vite saturé et bien trop lent pour supporter la multiplication des données générées par les nombreuses expériences. L’annonce de l’IBM 704 a été une révélation car, si c’était encore une machine à tubes, elle employait ce langage Fortran qui allait révolutionner tous les E&R - Page 11 programmes scientifiques, ainsi que les dérouleurs magnétiques, les lecteurs/perforateurs de cartes et les imprimantes rapides en ligne. Aussi le Cern, tout en se servant encore du Ferranti, a-il commandé l’IBM 709, une version améliorée du 704, pour seconder son Ferranti vieillissant. Installé début 1961, il utilisait des mots de 36 bits divisés en caractères BCD de 6 bits, était 5 fois plus rapide que le précédent, et pouvait travailler tout en dirigeant simultanément 6 périphériques. Mais son prix atteignait quelque 10 millions de francs suisse et sa fiabilité était loin d’être parfaite. Après un an d’exploitation lui était adjoint un IBM 1401 pour servir de tampon avec les entrées/sorties, accélérant du même coup les traitements. Après la mise en service de dérouleurs sur le Ferranti, il a été possible de prétraiter les mesures sur cet ordinateur, de les transférer sur bandes magnétiques, et d’utiliser ces bandes sur les IBM pour des études plus approfondies. Tandis que l’Autocode était développé pour le 709, Fortran de son côté a commencé sa remarquable carrière, permettant une transportabilité des programmes entre les laboratoires. Comme on sait, il est toujours le langage privilégié du Cern, donnant lieu à de nombreuses versions et supplantant d’ailleurs encore aujourd’hui les langages plus modernes. Dès le début des années 60 ont été expérimentées les connexions directes avec les appareils d’expérimentation, les traces des chambres à bulles et étincelles pouvant être étudiées automatiquement. Des lampes aux transistors Peu après, en 63, IBM a sorti la version transistorisée du 709 nommée 7090, plus petite en taille mais aussi quatre fois plus puissante. Cela a sonné évidemment le glas du Ferranti qui a cependant continué à servir deux ans encore en étant connecté directement à un spectrographe de masse, pour être donné finalement à l’Académie des Mines et de la Métallurgie de Cracovie en Pologne. Le Cern rentrait alors dans la première ère des ordinateurs modernes à transistors, dont les programmeurs ont pu pleinement tirer parti. Et ce fut aussi le début d’une inflation du nombre de systèmes. Un SDS 920 a été ajouté en 64 pour être connecté en ligne à une chambre acoustique à étincelles, et dans la décennie les minis ordinateurs ont envahi le site, principalement des HP, DEC et autres IBM, destinés principalement à l’acquisition des données, transmis ensuite aux plus gros ordinateurs d’abord par l’intermédiaire des bandes magnétiques, ensuite par lignes de communication. E&R - Page 12 Début des superordinateurs Un bond en avant dans la traitement a été effectué avec l’installation du Control Data 6600 en 1965. Ce superordinateur de l’époque était très évolué, avec son gros processeur central et ses 10 processeurs périphériques, ses possibilités de multiprogrammation et de parallélisme. Dix fois plus puissant que le 7090, entrant dans des cycles d’horloge bien inférieurs à la microseconde, il utilisait des dérouleurs de bandes à double largeur et des disques de 1 m de diamètre d’une capacité de 64 Mo, un record. Comme ce n’était qu’une machine de présérie (numéro 3), elle n’a pas été exempte de pannes matérielles (certains ajustements se faisaient en coupant ou rallongeant les fils de connexions internes) et d’ennuis logiciels divers ; les anciens du Cern se souviennent d’heures laborieuses et pénibles pour le faire fonctionner correctement, au point qu‘il a fallu qu‘ils améliorent eux-même le système d’exploitation, Control Data devant abandonner son Sipros trop peu stable. Tout est rentré dans l’ordre finalement, et la machine a continué une belle carrière jusqu’à 1975. Entre-temps, des ordinateurs plus conventionnels du même constructeur - CDC 3400, 3800 et 6400 (ce dernier étant une version allégée du 6600), ont secondé le monstre, monstre qui, à son tour, s’est révélé insuffisant du fait de la multiplicité des expériences, des détecteurs électroniques, et donc des données à traiter. En 1972, un Control Data 7600 a doublé le 6600, dont c’était une version évoluée, plus miniaturisée et 5 fois plus puissante. Un CDC 6400 et un 6500 étaient utilisés en front-end pour gérer le trafic E/ S et servir les premiers utilisateurs en timesharing. La mise en route du 7600 a répété celle du 6600 avec son lot de problèmes de jeunesse. Cette difficile période passée, il s’est révélé un outil précieux, d’une longévité exceptionnelle puisqu’il n’a été débranché qu’en 1984, 20 ans après son introduction, un record ! Avec 10 Mips de puissance, il était considéré comme la « ferrari » des ordinateurs scalaires qui n’a été égalé qu’à la fin des année 70. Toujours pour les besoins de calcul, un IBM 370/ 168 a coexisté avec les CDC. Cette hétérogénéité de systèmes devenait nécessaire pour varier les solutions. L’IBM présentait l’avantage d’une mémoire virtuelle gérée par son système d‘exploitation MVS, d’un cache (c’était la première implémentation commerciale du cache, que l’on retrouvera par la suite sur tous les ordinateurs et même les micros), de nombres hexadécimaux (qui deviendront la norme rapidement), N° 532/533 de Novembre/Décembre 2004 LES GROS ORDINATEURS DU CERN DE 1954 A 1990 Ferranti Mercury : 1958 à 1965; machine à tubes ; mots de 40 bits ; cycle de 60 m s, avec 2 cycles pour une lecture ou écriture, 3 cycles pour l’addition, 5 cycles pour une multiplication, la division étant programmée ; mémoire vive à tores magnétiques de 1024 mots, temps d’accès de 120 m s ; tambour de 16 Kmots et 8,75 ms de temps de latence ; 2 unités Ampex de bandes magnétiques ajoutées en 1962 ; utilisation du compilateur Autocode. IBM 709 : 1961-1963 ; machine à tubes ; mots de 36 bits ; cycle 12 m s, 2 cycles pour l’addition, 15 pour multiplier, arithmétique possible en virgule flottante ; mémoire de 32 Kmots de 24 m s de temps d’accès ; lecteur de cartes à 250 cpm et perforateur à 10 cpm ; imprimante ; dérouleurs à 7 pistes, 75 ips et 200 bpi ; canaux d’E/S ; compilateur Fortran ; système d’exploitation Fortran. IBM 7090 : idem 709 mais à transistors ; cycle 2,18 m s ; mémoire 32 Kmots, 4,36 m s de temps d’accès ; 8 canaux ; système d’interruption ; dérouleurs 112,5 ips et 200/556 bpi ; compilateur Fortran ; OS basique. CDC 6600 : 1965-1975 ; transitorisé ; mots de 60 bits ; cycle 100 ns ; mémoire à bancs indépendants de 128 Kmots et ta = 1 m s ; préchargement d’instructions ; dix processeurs périphériques avec 4 Kmots de 12 bits ; disque de 1 m de diamètre de 64 Mo ; dérouleurs 7 piste à 200/556/800 bpi et 14 pistes de 1 pouce et 800 bpi ; lecteur de cartes 1200cpm ; OS Sipros abandonné au profit du Chippewa COS, transformé ensuite en Scope puis Cern Scope ; connexion à des systèmes SDS et IBM 1800 par des liaisons faites par le Cern ; nombreux problèmes de fiabilité au départ. CDC 3800 : 1966-1968 ; membre de la famille 3000 incompatible avec la famille 6000 ; mots de 48 bits ; mémoire 64 Kmots remplacée peu après par une plus rapide à 800 ns de ta ; vendu à la ville de Genève et installé dans une université, il a été remplacé au Cern par un CDC 6400 ; le Cern a aussi acheté des CDC 3100 pour son projet Focus et un 3200 pour des applications graphiques. CDC 6400/6500 : 1967-1980 : le 6400 fait partie de la famille 6000 mais 40 % moins puissant que le 6600 ; il a été converti en 1969 en 6500 par l’adjonction d’un autre processeur; d’abord utilisé en back-up, puis a servi de front-end du 7600 avec un second 6400 ; en 80, ces deux front-end ont été remplacés par les CDC Cyber 170-720 et 730. CDC 7600 : 1972-1984 ; mots de 60 bits ; cycle de 27,5 ns ; 1 mémoire de ferrite de 64 Kmots à 275 ns de ta, et 1 autre de 512 Kmots à 1760 ns ; 12 registres de 60 bits pour contenir les instructions préchargées ; addition en 10 ns, multiplication en 137,5 ns ; 15 processeurs périphériques ; OS Scope 2 ; nombreux problèmes de fiabilité durant deux ans, mais en 12 ans d’exploitation, il a marché 61.321 heures et traité quelque 6.681.378 jobs. IBM 370/168-3 : 1976-1982 ; cycle de 80 ns ; mémoire réelle 4 Mo étendue ensuite à 5 ; cache de 16 Ko ; unité rapide de multiplication ; 4 canaux puis 7 ; dérouleurs 9 pistes 1600 bpi ; disques magnétiques ; fonctionnement sous MVS avec le JES2 pour les travaux batch, et le système Wylbur/ Milten de gestion des terminaux au nombre de 200 max. IBM 3032 : 1978-1981 ; c’était un 370/168 repackagé et sans l’unité rapide de multiplication ; légèrement moins rapide que le 168 ; mémoire 6 Mo ; 6 canaux internes ; utilisé en front-end. IBM 3081 : 1981-1985 ; modèle D au départ ; mémoire 16 Mo ; cache 32 Ko ; 16 canaux ; deux processeurs couplés fortement utilisant les modules TCM et les circuits TL ; il a soulagé les 168 et 3032 saturés ; évolution du modèle D en K plus puissant en 1982, avec 24 Mo de mémoire et 24 canaux ; remplacé en 85 par un IBM 3090-200. Siemens 7880 : 1982-1985 ; fabrication Fujitsu utilisant la technologie développée par Amdahl ; compatibilité IBM ; mémoire 12 Mo ; 16 canaux ; il a remplacé le 168 et tournait sous MVS/JES2/Wylbur, secondant l’une manière transparente le 3081. N° 532/533 de Novembre/Décembre 2004 CDC Cyber 170/875 + 835 : 19831986 ; ils ont remplacé le 7600 ; tout deux ont une mémoire de 1 Mo à 75 ns, le 875 ayant deux UC avec horloge 25 m s ; partage des disques et dérouleurs ; OS NOS/BE ; deux fois la puissance totale des précédents CDC 7600 + 720 + 730 sous Scope 2 ; ces machines étaient peu fiables comparées aux IBM et Siemens, et elles ont été retirées dès 1986, marquant la fin de la collaboration du Cern avec Control Data. Siemens 7890S : à partir de 1985 ; fabriqué par Fujitsu ; compatible IBM ; biprocesseur de la puissance du 3090-200 ; mémoire principale 64 Mo (puces 256 Kbits) ; double niveau de cache par UC de 64 Ko de 5,5 ns, et 512 Ko de 16 ns ; 32 canaux ; OS MVS/FES2/Wylbur puis VM/CMS. IBM 3090 : modèle 200 à partir de 1986, avec mémoire 64 Mo plus 256 Mo de mémoire étendue, cache 64 Ko pour chacun des deux processeurs en ECL d’horloge 18,5 ns, avec arithmétique sur 64 bits ; évolution en mai 88 en modèle 400E avec 256 Mo de mémoire principale et 256 Mo de mémoire étendue ; en septembre 88 adjonction de 4 processeurs vectoriels VF et 16 canaux, en faisant un modèle 600E ; fin 88, la capacité disque était de 200 Go, les dérouleurs de bandes ont été remplacés par des dérouleurs de cassettes IBM 3480 à 18 pistes, 19.000 bpi ; OS passant de MVS à VM/XA. DEC VAX 8600/8650/8700/8800 : à partir de 1985, mais le premier Digital a été en fait un VAX 11/780 en 82 dédié aux bases Oracle et Euclid ; en 85, remplacé par trois VAX 8600 en cluster sous VMS ; en 87 extension avec un bi processeur VAX 8800 (mémoire 96 Mo) et trois 8650 ; ce service VMS a servi jusqu’à 3000 utilisateurs, partageant 18 dérouleurs et 50 Go sur disques. Cray X-MP/48 : à partir de 1988 ; horloge de 9,5 ns ; 4 UC ; 8 Mmots de 64 bits de mémoire principale et 128 Mmots de mémoire secondaire ; 6 dérouleurs IBM 3480 et 48 Go sur disques ; accès des utilisateurs via les IBM VM/CMS et VAX VMS. E&R - Page 13 d’une mémoire de masse, de dérouleurs de bandes fiables, et d’une capacité de servir en temps partagé de nombreux utilisateurs grâce au logiciel Wylbur. Avec ses grosses machines, le Cern a compris la nécessité d’utiliser de plus petites pour les tâches auxiliaires, de décentraliser et de séparer les fonctions, ce qui a été facilité par les progrès de l’électronique. Aussi de multiples minis, stations de travail et terminaux ont fait peu à peu leur apparition, préfigurant l’ère des micros. Ainsi il faut signaler qu’en 1982 Digital Equipment a fait une entrée en force avec ses PDP et Vax, au point qu’on en comptait plus de 300 à la fin des années 80. Toujours plus puissant La révolution annoncée des petites machines ne s’est pas faite immédiatement. Les besoins de calculs générés par les collisionneurs de particules ont imposé l’installation d’ordinateurs de plus en plus gros. La ligne IBM s’est agrandie considérablement au cours des années 80, avec les séries des 3032, 3081, 3090, et certains Siemens compatibles dont les 7880 et 7890, qui tous étaient des améliorations physiques des précédents, avec des circuits de plus en plus intégrés, des mémoires plus grandes, des périphériques plus rapides, etc. La même évolution a eu lieu du côté de Control Data avec les Cyber 170/720/730/835/875, avec moins de succès cependant car ces machines souffraient de quelques défauts. Et surtout, le départ du concepteur maison, à savoir Seymour Cray, a considérablement affaibli la position de la firme. Les physiciens avaient plus confiance en Cray qu’en Control Data, dont les machines ont été abandonnées au profit de celle de Cray, si bien qu‘en janvier 88 le superordinateur Cray X-MP a été installé. Il n’était pas le plus puissant des ordinateurs en scalaire, mais, travaillant en virgule flottante, il avait des performances étonnantes en vectoriel. Parallèlement d’ailleurs, pour explorer encore plus l’approche vectorielle des problèmes, six processeurs VF spécialisés étaient installés sur l’IBM 3090-600. L’ère des micros En plus des minis, stations et terminaux, les micros ont commencé leur timide apparition dans cette décennie 80, décidément fertile en nouveautés. Le premier IBM PC a été mis en service en 83, suivi peu à peu de beaucoup d’autres au cours des ans. En 90, on comptait quelque 2000 micros, des IBM comme des Olivetti compatibles ou encore, bien sûr, des Apple Macintosh qui ont gagné plus de terrain que les autres. La progression des micros, du fait de leur versatilité et de leur potentiel grandissant, a été exponentielle, comme on s’en doute. Au point que maintenant leur puissance dépasse celle des ordinateurs et même des superordinateurs d’antan qui ont été arrêtés progressivement. Par exemple, l’IBM 3090 a été déménagé en 1996, quarante ans exactement après l’arrivée du Ferranti. Finies les grandes salles bourrées de systèmes ! L’ère moderne est aujourd’hui aux réseaux interconnectant les ordinateurs, les serveurs, et particulièrement les micros, qui n’ont d’ailleurs rien de micros à part leur taille. Le Cern a été à l’origine de bien des interconnexions (dont Internet) pour résoudre ses problèmes d’échanges de données. Maintenant, son grand projet est de mettre au point une Grille de Calcul, un super réseau d’ordinateurs, petits ou grands, travaillant ensemble pour résoudre les énormes besoins (entre autres) de traitement du futur grand collisionneur de hadrons (LHC) qui sera opérationnel en 2006. Ce ne sera alors plus un ordinateur, ou même un complexe local d’ordinateurs qui œuvrera sur un problème, mais des milliers ou centaines de milliers. On retrouve là le principe de la Toile appliqué au traitement des données et non plus seulement à leurs échanges. Pour le Cern (mais la Grille intéresse bien d’autres organismes), sa puissance de calcul sera ainsi multipliée par 1000 en 2006, et sans doute 10.000 cinq ans après. TOUTE L'ÉQUIPE D'E&R VOUS SOUHAITE UNE BONNE ANNÉE 2005 ! E&R - Page 14 N° 532/533 de Novembre/Décembre 2004 LIVRE ▼ LES RÉSEAUX 802.11 Les lignes ci-dessous sont extraites du livre "WiFi : principes de base et sécurité", éditions ENI, collection Technote (120 pages, env. 10 euros). A travers les cinq chapitres de cet ouvrage sont abordés la topologie, l'architecture et les composants mais sans entrer dans des détails techniques. leur connectivité au réseau. Enfin, l’ensemble des communications profite d’un niveau de sécurité lié au chiffrement des communications en transit sur la voie radio. Un réseau de données sans fil peut être assimilé à un moyen de connecter des équipements informatiques mobiles entre eux ainsi qu’à un réseau filaire de type Ethernet. Dans ce chapitre nous allons présenter les topologies de réseau sans fil et les principes de base du fonctionnement. "Le nombre de réseaux sans fil est en constante progression. Ce phénomène est probablement lié aux besoins de mobilité des utilisateurs, évoluant en raison de l’utilisation de plus en plus courante des ordinateurs portables et des assistants personnels. Dans la famille des réseaux mobiles, la normalisation IEEE 802.11 a joué le rôle d’un déclencheur, même si son démarrage a été tardif puisque la norme est née en 1997 et le marché a vraiment décollé au cours de l’année 2001 aux Etats-unis et 2002 en Europe. Aujourd’hui, en ce milieu d’année 2003, les composants sont devenus accessibles au grand public et les premiers points d’accès publics ont été acceptés par l’autorité de réglementation des télécommunications en France... De plus, le label Wi-Fi mis en place par le «Wireless Ethernet Compatibility Alliance» a joué un rôle de catalyseur, en poussant les produits sans fil des constructeurs à devenir interopérables et, de ce fait, à respecter plus fidèlement la normalisation. Les problèmes d’incompatibilité entre les équipements, rencontrés il y a quelques années, lors de l’installation des premiers réseaux Ethernet de grande taille, ont donc été fortement atténués par l’adoption massive du label Wi-Fi. Aujourd’hui, il n’existe pratiquement aucun problème lors de la mise en place d’équipements de marques différentes au sein d’un nouveau réseau, pour peu que le label Wi-Fi soit présent sur l’emballage. Topologie Les composants de base d’un réseau sans fil assurent la connexion de stations mobiles entre elles d’une part et leur connexion au réseau filaire d’autre part. Chaque station mobile est équipée d’une interface spécialisée, capable d’apporter la connectivité au niveau du réseau radio et de proposer aux couches supérieures, des trames au format Ethernet. Il existe plusieurs types d’interfaces physiques conformes à la norme 802.11, les plus courantes sont à connecter sur les équipements mobiles. On trouvera donc principalement des interfaces utilisées en micro-informatique, comme le PCMCIA et l’USB. Les constructeurs d’équipements ont annoncé la mise en place en standard d’une interface Wi-Fi, sur leurs équipements haut de gamme. Ceci devrait rendre la mobilité encore plus accessible par une adoption tacite de la technologie liée à l’outil informatique. Le second équipement principal, dans une architecture sans fil, permet l’interconnexion entre le réseau filaire et les stations mobiles. Il s’agit d’un équipement appelé point d’accès, ou «access point » dans les documentations anglo-saxonnes. Cet équipement joue un double rôle, d’une part il gère les stations présentes dans sa couverture radio et d’autre part, il agit en tant que pont entre le réseau filaire Ethernet et le réseau sans fil. Alors, qu’est-ce qu’un réseau de données sans fil ? il s’agit, dans le cas qui nous intéresse, de l’extension sur une voie radio d’un réseau local de type Ethernet. L’objectif premier de ce réseau et donc d’acheminer des trames de données jusqu’à des stations ou des équipements distants, sans que ceux-ci ne soient raccordés physiquement à un réseau filaire. Les réseaux sans fil offrent, en complément du transport de trames, la possibilité pour les stations de se déplacer tout en gardant C’est le plus simple des réseaux sans fil puisqu'il peut se construire avec seulement des stations mobiles, un minimum de deux. C'est la raison pour laquelle on nomme ce réseau "ad hoc" ou "point à point". c’est la solution qu’il faut adopter lorsqu'aucune connexion à un réseau filaire n'est nécessaire. On gardera donc ce type de topologie pour l'échange de fichiers ou d'informations dans des lieux dépourvus de toute autre connectivité, comme il est également possible de faire avec les N° 532/533 de Novembre/Décembre 2004 Le réseau "ad hoc" E&R - Page 15 liaisons en infrarouge. L'avantage principal par rapport à l'infrarouge et de pouvoir mettre en relation plus de deux terminaux informatiques. La qualité des antennes présentes dans les cartes des stations mobiles n’étant pas toujours élevée et leur puissance limitée, la dimension d’un réseau ad hoc sera limitée tant en distance qu’en capacité à franchir des obstacles. (...) Le réseau d'infrastructure On appelle réseau d'infrastructure un réseau sans fil dans lequel au moins un point d'accès est présent. ce point d'accès peut être connecté à un réseau filaire, mais ce n'est pas impératif. Chaque client sans fil va établir une relation avec le point d'accès qui devient de ce fait le point central du réseau sans fil. L'ensemble des trames transitant sur le réseau sans fil va passer par le point d'accès, même s'il s'agit d'une communication mettant en relation deux stations mobiles connectées au même point d'accès. Dans l'hypothèse où le point d'accès serait lui-même connecté à un réseau local filaire de type Ethernet, il devient la passerelle permettant la connectivité entre les stations sans fil et le reste du réseau." SHOPPING MATERIELS ▼ DIMAGE X50 (KONICA MINOLTA) Les sociétés Konica et Minolta ont fusionné en 2003, donnant logiquement naissance au groupe Konica Minolta dont le chiffre d’affaires prévisionnel 2003/04 est estimé à 11 milliards de dollars U.S. Sa branche image -qui constitue le troisième groupe mondial mais ne représente qu’un peu plus de 13% de son CA- comprend 38 500 salariés dans le monde dont 150 pour l’Hexagone. Voici un de leur dernier modèle d’appareil photo numérique. Design élégant, petite taille (83,5x62x23,5 mm), prestations de qualité, le Dimage X50 part avec de bons atouts. Ainsi, il possède une résolution de 5 mégapixels permettant des tirages de très grande taille (jusqu'au A3), un zoom optique interne de 2,8x (4,3 en digital), une fonction macro à 6 cm, quelques petites fonctions courantes (mode noir & blanc ou sépia, la réduction yeux rouges...), ou ludiques comme l’incrustation de cadres (bulle, cœur, nounours…), l’effet mosaïque (avec un déclenchement de 9 photos consécutives) ou un mode rafale très rapide de 11 images en 1 seconde (mais avec une résolution de 1,2 MP). Sa compacité est dû à son zoom optique innovant qui n’est pas externe mais qui se déplace à l’intérieur de l’appareil. Il fonctionne grâce à une pile au lithium rechargeable (en 1H30 environ) qui vous contraints lors de vos longs déplacements à E&R - Page 16 emmener votre chargeur. Le Dimage X50 existe en trois couleurs : argent, bleu marine et rouge et ne nécessite pas de logiciel d’installation (excepté sous W98) en étant reconnu comme un lecteur de disque amovible. L’appareil est commercialisé avec une carte SD 16 Mo, qui révélera vite ses limites puisqu’elle ne vous permettra de ne prendre que 5 photos en haute résolution ou 21 secondes de film, un peu court pour des souvenirs de vacances ! Sa prise en main et son fonctionnement sont aisés. Un léger reproche, l'abondance de petites musiques pour la mise en route, la mise au point, la prise de vue, le zoom, etc. mais qui peuvent heureusement être désactivées partiellement ou en totalité. Env. 330 €. ▼ HP PHOTOSMART R707 (HEWLETT PACKARD) Cet appareil numérique d'une résolution équivalente au précédent (5,1 MP) est destiné en premier lieu à l’amateur exigeant. Le HP R707 est livré sans carte mémoire mais il en possède une en interne de 32 Mo qui vous permettra de prendre de 10 (en 5 MP) à 191 photos (faible résolution VGA). Ensuite, libre à vous d’investir dans une carte mémoire de votre choix. Côté technique, il possède un zoom optique 3X et numérique 8X, dix modes de prises de vues (action, paysage, portrait, coucher de soleil, neige, panorama, document, nuit, macro ou infini) et pour les utilisateurs avertis la possibilité de débrayer en mode totalement manuel ou partiel (priorité vitesse ou ouverture). Le mode panorama est d’ailleurs très pratique puisqu’il décale automatiquement l’image vers la gauche en gardant les contours du paysage. L’utilisateur n’a qu’à réaligner ses contours pour être sûr d’avoir une photo panoramique exacte. De même, on peut retoucher directement les ef- N° 532/533 de Novembre/Décembre 2004 fets yeux rouges sur l’écran LCD de l’appareil et indiquer si la photo sera imprimée, envoyée par email ou stockée dans un album. Lorsque l'appareil est branché sur un PC, le tri des photos est fait automatiquement en fonction des indications saisies en amont. Le HP R707 fonctionne sur une batterie lithium ion rechargeable (7h pour un rechargement complet !). Cet appareil photo assez compact possède donc de belles possibilités. Notamment l’éclairage ALT auto-adaptif qui permet de « déboucher » les zones d’ombres en leur donnant plus de luminosité. Pour l’utilisateur débutant dans le numérique, dix conseils peuvent être consultés directement sur l’écran LCD. Seuls petits défauts : nous l’avons trouvé un peu limité en effets spéciaux (juste un mode rafale et retardateur deux photos) et le système vidéo n’est pas très pratique car il s’enclenche dès que l’on passe de la photo vers la vidéo. De plus, on ne peut pas zoomer en filmant. Env. 279 euros pour le HP R707. Compter 79 euros pour la station d’accueil. ▼ ZEN TOUCH (CREATIVE LABS) Les ventes mondiales de lecteurs audio numériques de Creative Labs ont dépassé les 2 millions d’unités pour le dernier trimestre 2004 et générées un revenu de 360 millions de $ sur la simple gamme MP3 (45% de progression) sur la même période. Le revenu global de Creative a ainsi progressé de 325 millions de $ grâce aux ventes de lecteurs audio numériques. Le Zen Touch est un sérieux concurrent à l’iPod d’Apple puisqu'il peut engranger quelques milliers de morceaux musicaux en MP3 (5 000 titres à 128 kbps), WMA (10 000 titres à 64 kbps), ou WAV (mais aussi des données) sur son disque dur de 20 Go . Compact, il pèse 200 g environ -batterie comprise- et mesure 10,5 (H) x 6,8 (L) x 2,2 (P) cm. Sa principale innovation est concentrée sur son pavé tactile, le TouchPad, qui fonctionne par effleurement et vous permet de faire défiler bibliothèque, album, titre, auteur, genre... Il vous faudra cependant enlever vos gants pour être obéi pendant l’hiver ! Mais le pavé tactile ne remplace pas toutes les touches. Placés sur chaque côté et sur la tranche, on retrouve des boutons plus classiques comme : morceau musical suivant/précédent, pause, menu général, niveau sonore et interrupteur marche/arrêt. N° 532/533 de Novembre/Décembre 2004 L’utilisation de ce jukebox audio est assez simple et vous pouvez soit utiliser le convertisseur audio fourni par Créative pour passer vos fichiers audio en MP3, WAV, ou WMA puis utiliser le NOMAD Explorer pour transférer ses fichiers vers le Zen Touch ou utiliser vos propres logiciels et glisser les morceaux en vrac dans la bibliothèque musicale. Pour ceux qui aiment télécharger leur musique, ce produit est compatible avec Windows Media DRM. Ensuite, il ne vous reste plus qu’à profiter de votre musique. En passant par le menu de sélection, vous pourrez décider d’écouter un seul artiste, genre musical ou album… ou tout simplement écouter les titres un par un ou laisser faire le hasard. La suppression ciblée se fera par ce même menu sans passer par un PC. Sa batterie possède une autonomie de 25h et elle est rechargeable en 4 heures environ via l’adaptateur secteur ou le port USB de votre ordinateur. Un seul regret : pas de radio qui est groupée en option avec la télécommande et le dictaphone (compter 69 euros de plus). Disponible en 10 couleurs et livré avec une paire d’écouteurs, une sacoche, l’adaptateur secteur universel et un câble USB. Config. : W98/SE/Me/2000/XP, PII 233 MHz, 64 Mo de Ram, DD : 30 Mo. Env. 289 € TTC. ▼ TRAVELSOUND 200 (CREATIVE LAB) Ce produit est le parfait complément du précédent et transforme votre Zen Touch en microchaîne de voyage. Ce mini hautparleur stéréo monobloc vous permettra de ne plus écouter votre musique en solitaire mais d’en faire profiter vos amis et cela sans trop casser les oreilles de vos voisins puisqu’il ne développe que 2x2 Watts pour une puissance sonore inférieure à 80 décibels. En absence de ZenTouch, vous pourrez toujours y adapter votre baladeur classique, ordinateur portable, clef USB musicale ou n’importe quel lecteur audio pourvu d’une sortie casque. Mais compacité rime avec qualité puisque les membranes des deux hautparleurs sont en titane et que le TravelSound 200 est pourvu d’une fonction « Normalizer » pour équilibrer le volume sonore entre les différentes pistes audio. Peu gourmand en énergie, il fonctionne avec 4 petites piles rondes type AA qui lui donnent une autonomie de 25 heures. Facile à emporter, à mettre en marche, il est livré avec une housse de transport et ne coûte que 69 €. E&R - Page 17 PLAYSTATION 2 ▼ ROGER LEMERRE : LA SÉLECTION DES CHAMPIONS 2005 (CODEMASTERS) Le football comptant plus de pays membres que l’ONU (192 pays et 200 millions de pratiquants), il est normal que ce sport n°1 soit largement exploité virtuellement. Voici donc un produit pour ceux qui veulent s’essayer au management d’un club. Avec une base de données de plus de 800 clubs, 20 000 joueurs et 31 pays, il vous faudra dans un premier temps sélectionner l’équipe que vous souhaitez diriger puis vous attaquer aux statistiques nombreuses et variées pour gérer votre club, salaire des employés compris. Si vous souhaitez aller plus loin que la simple gestion par tableau, vous pouvez -si vous le désirez- prendre part au match du banc de touche en donnant des ordres à vos joueurs sur leur façon de jouer ou leur tactique. Vous vous apercevrez alors que la gestion d’un club ce n’est pas que de l’argent, c’est aussi gérer la personnalité et les humeurs de chacun et il vous faudra moduler vos paroles et actions en fonction de l'ancienneté de vos champions. Env. 60 €. ▼ CLUB FOOTBALL 2005 (CODEMASTERS) Ce jeu est à réserver en premier lieu aux fans des frères ennemis que sont l’OM et le PSG. Il leur permettra de participer à de vrais matchs de leur équipe préférée sans faire les gros titres des journaux avec des fins de partie gâchées par des excités de tout poil. Les supporters retrouveront leurs sportifs modélisés et peuvent en mode Carrière créer leur propre joueur et tenter de le mener au plus haut niveau. Possibilité de rejouer les plus grands matchs à un moment précis ou d’en inventer des inédits en choisissant son niveau de difficulté avec dix angles de vue différents, des plans rapprochés ou des ralentis totalement contrôlables et un moteur accéléré et un gameplay rapide. Env. 60 €. ▼ SPIDER-MAN 2 (ACTIVISION) Après un premier épisode très réussi des aventures de l’homme-araignée, en voici la suite. Comme le dit si bien notre héros : « Un grand pouvoir implique de grandes responsabilités » et du coup vous n’aurez pas une minute pour souffler entre vos objectifs prioritaires et secondaires. Les prioritaires sont des missions qui doivent parfois être E&R - Page 18 réalisées dans un temps donné et les secondaires sont des petits délits, certes en option, mais qui vous rapporterons des points vous permettant d’acquérir des pouvoirs supplémentaires. Attention, si vous échouez, vous pouvez aussi en perdre. L’action se situant à New-York, vous sautez de toit en toit, ou vous vous balancez, grâce à votre fil, d’immeuble en immeuble. Les objectifs prioritaires sont variés et certains individus vous donnerons du fil à retordre, par contre les missions secondaires ont tendance à tourner en rond et on se retrouve à aller sauver plusieurs fois le même homme accroché au toit d’un immeuble ! Pour arrêter les bandits, vous pouvez vous servir de votre toile pour les ficeler momentanément ou de vos poings en enchaînant les coup de pieds, de poings et les esquives. Le graphisme n’est certes pas époustouflant mais comme vous êtes toujours en train de courir de gauche et de droite, vous n’aurez pas toujours le temps d’admirer le paysage. Env. 57 €. ▼ LES INDESTRUCTIBLES (THQ) Depuis son accord de licence en 2002 avec les studios Disney et Pixar, THQ a déjà transposé sur les consoles et PC quatre films : 1001 pattes, Toy Story, Monster & Cie, Le Monde de Nemo (6 millions d’exemplaires vendus dont 320 000 en France). Les Indestructibles constitue donc leur cinquième adaptation qui sera suivie de beaucoup d’autres puisqu’un nouvel accord concerne les quatre prochains films des studios Pixar. Les Indestructibles, c’est une famille hors-norme constituée des parents Bob et Hélène (alias Mr Indestructible et Elastigirl) et de leurs trois enfants : Violette, Flèche et Jack le bébé. Chacun d’entre eux possède des super-pouvoirs (force, souplesse, invisibilité, vitesse) et si les parents ont un temps sévi en tant que super héros, depuis qu’il y a quinze ans un décret gouvernemental a interdit ce type d’activité, ils se doivent de rester discrets et de vivre une existence anonyme. Mais un jour, un appel mystérieux d’un laboratoire pousse Mr Indestructible à sortir de l’ombre sans savoir qu’il s’agit en fait d’une machination de Syndrome, ennemi juré de tous les super-héros. Pour sauver sa famille, mais aussi la planète, Mr Indestructible devra faire appel à tous ses super-pouvoirs aidé en cela par sa femme et ses deux aînés. Voilà pour le film. En ce qui concerne le jeu, il s’agit de franchir 18 niveaux en utilisant alternativement les N° 532/533 de Novembre/Décembre 2004 pouvoirs des quatre membres de la famille et surtout en éliminant moult sbires du méchant Syndrome. Le graphisme est soigné et le fait de changer de personnage à chaque niveau permet de varier les phases de jeu. On regrette cependant qu’une bonne partie de l’action consiste à taper sur les sbires de Syndrome et que l’enchaînement des niveaux ne soit pas toujours très logique bien qu’entrecoupés d’extraits du film. Env. 49 €. ▼ CATWOMAN (EA GAMES) Voici le pendant féminin de Spiderman porté sur console et qui voit le jour en même temps que le film du même nom. Mais si l’homme-araignée est un modèle d’honnêteté, la belle est surtout réputée pour son art du larcin de beaux bijoux. Si le graphisme (tant du personnage que de l’environnement) et les dialogues sont très réussis, du point de vue des déplacements et de l’angle de caméra de notre féline héroïne, c’est tout le contraire ! En effet, la plupart du temps, vous ne savez pas où vous mettez les pieds et n’avez aucune vue frontale. Pas facile de progresser dans ces conditions malgré le système d’aide qui vous indique les actions à faire. Résultat : rares seront ceux qui auront la patience d’aller jusqu’au bout. Env. 57 €. ▼ DRIV3R (ATARI) Voici le troisième épisode d’une série qui s’est déjà vendue à plus de 12 millions d’exemplaires de par le monde. Vous êtes Tanner, un agent d’infiltration d’un genre un peu particulier. Vos méthodes sont musclées et même radicales. Votre aventure démarre à Istanbul, où vous êtes entre la vie et la mort à l’hôpital après une fusillade nourrie. De là, par un flash back de 6 mois en arrière, vous vous retrouvez à Miami pour reprendre l’histoire à son début. Vous pouvez alors sillonner la ville en tout sens à pied, en hors-bord, à moto ou mobylette, et évidemment avec un large éventail de voitures en commençant par la vôtre (70 véhicules contrôlables). Votre mission sera de démanteler un réseau international de trafics de voitures. Votre progression est aisée et s’effectue par le biais de missions diversifiées : course poursuite, sabotage, filature… Pour retrouver un état de santé éclatant ou pour réparer votre moyen de transport, des trousses de secours sont disséminées un peu partout. Les graphismes sont bien réalisés bien que parfois un peu austères, la bande son est par contre omniprésente et colle bien à l’action. Dommage que les déplacements de Tanner soient un peu secs et que l’intelligence artificielle de l’ennemi ne soit pas plus développée car si l’on échoue dans un niveau, il N° 532/533 de Novembre/Décembre 2004 n’y a plus aucun effet de surprise, ceux-ci se retrouvant exactement aux mêmes endroits. Env. 50 € Pour les nostalgiques de l'Atari 2600 : A noter qu'Atari doit sortir prochainement un produit PS2 et XBox baptisé "Anthology" qui réunira 85 jeux d'arcade, d'aventure, d’action, de sport, d’esprit, de casino, de course et d’espace comme Asteroids, Battlezone, Missile Command, Pong, Gravitar, Millipede et Super Breakout... ▼ MEGAMAN X7 (CAPCOM) Cette version est la suite de nombreuses autres mais la première sur PS/2. Elle peut parfaitement se jouer indépendamment. Pour résumer, l’action se passe dans le monde des Réploïdes où la criminalité est un véritable fléau. Pour y remédier, il existe la 17e unité de Chasseurs de hors-la-loi avec à sa tête Megaman X. Mais d’une nature pacifiste, celui-ci a quitté les rangs. L’unité a alors été secondée par le Syndicat Alerte Rouge. Mais un trouble-fête nommé Axl vient semer la zizanie. Votre but est de le libérer de l’emprise du Syndicat en exterminant les Mavericks et en utilisant alternativement les particularités de vos héros : Megaman X, Zero (son ami de toujours) et l’énigmatique Axl. Vous allez progresser pas à pas dans des décors en 2D ou en 3D de qualité assez inégales et devoir batailler ferme pour arriver au bout de votre aventure. Version anglaise sous-titrée en français mais qui comporte beaucoup d’erreur typographique. Env. 60 €. ▼ CHAMPIONS OF NORRATHS (UBI SOFT) Les orques et les Gobelins se sont alliés pour vaincre le royaume de Faydwer. Son roi décide de recruter toutes les bonnes volontés qui voudront combattre au côté de son armée. Pour entrer de plain pied dans cette bataille, il ne vous reste plus qu’à sélectionner votre personnage (homme ou femme) : guerrier barbare, elfe sylvestre, prêtre, sorcier, elfe noir. Chacun a ses forces et ses faiblesses. Le guerrier sera excellent pour le corps à corps mais dénué de tout sort, à l’inverse du sorcier. Vous pourrez même le personnaliser davantage par sa couleur de peau et de cheveux (coupe comprise). Il ne vous reste plus qu’à explorer le royaume de Faydwer au gré de vos missions et à exterminer un maximum d’ennemis en ayant pour but suprême de trouver et éliminer leur chef, un orque d’exception. Voici un produit intéressant à plus d’un titre puisque vous pouvez d’une part choisir votre créature, la faire évoluer par des points de compétence et même l’emmener à se spécialiser. Vous pourrez l’équiper de E&R - Page 19 pied en cap tout au long de l’aventure en ramassant des vêtements, armes et pièces d’or sur les corps de vos ennemis, en gardant le meilleur pour vous et en revendant le reste. D’autre part, ce produit bénéficie d’une réalisation très soignée tant au niveau graphique que sonore avec des dialogues expressifs. Autre attrait de ce produit : son mode multijoueur permettant à 4 personnes de jouer simultanément -mais en restant groupées- directement sur la console ou via internet. A noter qu’une fois l’aventure menée à son terme en niveau débutant, vous pourrez la refaire en totalité à l’échelon supérieur et pour ceux qui en redemandent encore une troisième fois en mode champion ! Env. 52 € PC ▼ DORA EXPLORATRICE : LES AVENTURES DE SAKADO (ATARI) Destiné aux petits à partir de 2 ans, ce produit estampillé Dora -héroïne du petit écran- possède nombre de jeunes admiratrices de par le monde. Le but de cette aventure interactive est d'aider la demoiselle et son fidèle ami le singe Babouche à rejoindre la bibliothèque pour rendre les livres empruntés. En chemin, le jeune utilisateur devra effectuer de petites missions, résoudre des énigmes et en profitera pour bénéficier d'une petite initiation à l'anglais. Trois niveaux de difficultés. Les plus petits adorent le personnage et ces produits dérivés. En voici un supplémentaire qui leur permettra de prolonger le plaisir de jouer avec Dora. Certains parmi les plus assidus seront déçus que Chippeur le renard ne soit pas plus présent. Config. : W98/Me/XP, PII 233 MHz, 32 Mo de Ram, DD : 100 Mo, CD 8x. Env. 30 €. ▼ CHANSONS & COMPTINES INTERACTIVES (GÉNÉRATION 5) Voici un CD-Rom plein de fraîcheur, idéal pour les 2/4 ans. Toutes les comptines et chansons ont été créées par Anny et Jean-Marc Versini qui ont à leur actif une trentaine de CD et près de 600 chansons. Les petits pourront découvrir 12 chansons et comptines et choisir de suivre les vidéos à l'écran en imitant les gestes des autres enfants filmés mais aussi s'initier à l'alphabet, aux chiffres (de 1 à 20), réaliser des puzzles au gré des saisons, faire travailler sa mémoire visuelle et sonore à l'aide d'un jeu de carte à retrouver par paire (de 4 à 12 cartes suivant le niveau de difficulté), aller à l'atelier de peinture et colorier l'un des 21 dessins pro- E&R - Page 20 posés et même l'imprimer. Toutes ces activités ont en fond sonore des comptines et certaines possèdent une fonction karaoké. Un graphisme réussi et une belle ambiance pour un cadeau tout doux (env. 25 €) qui ne nécessite pas d'installation sur le disque dur. Vendu avec le CD audio des 12 chansons. ▼ MYST 4 (UBI SOFT) Pour mémoire, le premier épisode de cette saga sorti en 1993 s’est vendu à 6 millions d’exemplaires de par le monde. Il constituait à l’époque une révolution tant par son ambiance que par son graphisme et son mode de fonctionnement par résolution d’énigmes. Pour les néophytes, il s’agit des aventures d’un homme et de sa famille dans des mondes (baptisés « âges ») parallèles créés par le chef de famille nommé Atrus et dont la description complète se trouve dans des « livres de liaison ». Mais totalement préoccupé par son écriture, Atrus en oublie sa famille. Ses deux fils se révoltent en pillant et détruisant les âges les plus précieux et en tentant d’éliminer leur père. En guise de châtiment, celui-ci les enferment dans deux mondesprisons séparés et brûle les livres susceptibles de les ramener. Ce cinquième volet constitue le temps de la réflexion et peut être du pardon. La grande nouveauté de ce Myst 4 par rapport aux épisodes précédents est la richesse de sa faune étrange et l’interaction possible avec des personnages. Si les paysages des autres versions étaient un peu type papier glacé, ce n’est plus le cas aujourd’hui. L’utilisateur est réellement immergé dans un monde fantastique à 360° qui lui en ferait oublier la réalité ! L’environnement sonore est du même niveau que le graphisme (grand orchestre et musique de Peter Gabriel) et des vidéos viennent compléter le produit. L’incrustation des personnages réels dans les décors est parfaite. On apprécie aussi leur justesse de ton. Les énigmes à résoudre sont toujours aussi ardues mais fort heureusement pour celui qui patauge, un système d’aide à trois niveaux est là pour le remettre sur le bon chemin. Les habitués de cette série culte multimédia seront une nouvelle fois plus que comblés et les petits nouveaux se mordront les doigts d’avoir raté les volets précédents ! Enfin, ce produit demande une bonne configuration (8 Go de programme !) et un lecteur DVD pour en apprécier toutes les subtilités multimédias. Config.: lecteur DVD, Pentium III 700 mhz, 128 Mo Ram, DD : 8 Go. Env. 50 € N° 532/533 de Novembre/Décembre 2004 ▼ VAMPIRE, THE MASQUERADE BLOODLINES (ACTIVISION) Déconseillé aux moins de 18 ans, ce produit est à réserver aux amateurs d’univers vampirique. L’action se déroule de nos jours, à Los Angeles. Vous pénétrez dans le monde des Ténèbres et devez au départ choisir votre clan : Nosferatu, Gangrel, Brujah, Toreador, Malkavian, Tremere ou Ventrue. Chaque clan possède ses spécialités. Alors que certains sont des combattants, d’autres excellent dans l’art de la discrétion, des déplacements rapides, de la magie ou du contrôle de l’esprit. Tout ce petit monde ou presque est régi par un code : la Mascarade, dont la règle première est de ne jamais montrer ses pouvoirs aux humains, de ne les pas tuer et ne pas être surpris en flagrant délit de boisson de sang par l'un d'entre eux. Le but du jeu est de faire progresser votre personnage soit en le rendant polyvalent ou spécialisé tout en tenant compte en permanence de votre état de santé par un apport de sang frais (humain ou animal). Un graphisme très sombre mais réussi et une ambiance sonore à vous glacer le sang ! Version anglaise sous-titrée en français. Config. : PIII 1,2 GHz, 384 Mo de Ram, W98/ME/ 2000/XP, CD 4x, DD : 3,3 Go, carte accélératrice 3D. Env. 55 €. ▼ WORMS FORTS : ETAT DE SIÈGE (SEGA) Ce produit est plutôt destiné à ceux qui ont suivi son évolution depuis le début, d’abord en 2D puis en 3D. Il s’agit d’un jeu de stratégie humoristique à deux ou quatre équipes qui joue à tour de rôle et dans un temps limite (paramétable). Cette fois, vous n’êtes ni un super-héros, ni un soldat musclé mais un simple ver de terre qui devra lutter à travers les âges et vingt niveaux (Egypte antique, Samouraïs, Chevaliers de la table ronde…) pour protéger et conserver son fort. Non seulement, il vous faudra lutter contre l’ennemi mais aussi construire des bâtiments, élever des murailles ou des tourelles et édifier une forteresse imprenable. A votre disposition, une trentaine d’armes différentes : du bazooka au napalm en passant par les tempêtes électriques ou un laser géant, sans oublier une catapulte qui vous permet d’envoyer à peu près tout et n’importe quoi sur l’ennemi (en tenant compte du vent) : singe, rhinocéros, canari de 300 kg ou hippopotame... Le graphisme est très agréable mais le néophyte N° 532/533 de Novembre/Décembre 2004 sera peut être un peu perdu dans les nombreuses touches à utiliser (une vingtaine). Mieux vaudra pour lui faire un détour par le Didacticiel afin de mieux maîtriser ses lombrics. A noter que ce jeu est disponible sur PS2 et X Box et qu'il peut se jouer en réseau. Config. : W98/2000/XP, PIII 1 Ghz, 256 Mo de Ram, CD 8x, DD : 800 Mo. Env. 35 € LIVRES MICRO-APPLICATION Collection Je me lance Série d'ouvrages spécial débutant de 240 pages. Chaque manuel est en couleur et écrit en gros caractères. Ils sont en deux parties : la première contient des fiches pratiques, la seconde des cas concrets à réaliser. Pour s'initier pas à pas à : Excel 2003, Access 2003, Word 2003, Photoshop CS, Windows XP (205 pages). Env : 14,95 € Collection Guide MicroApp En trois parties : utilisation du produit, coin des passionnés et fiches pratiques. 192 pages. iPod&itunes pour Mac&Windows : présentation du baladeur, de la boutique musicale iTunes, utiliser iPod avec sa chaîne HI-FI... SPIP : pour créer son site web communautaire. After Effects 6.5 : créations d'animations et d'effets spéciaux. Encore DVD 1.5 : pour réaliser un DVD avec Adobe Encore DVD 1.5. Env : 9,95 € Collection Dossier DVD Trucs de Pro (800 pages, env. 24.50 €) Windows XP-SOS dépannage (500 pages, env. 24.50 €) SPIP (500 pages, env. 24.50 €) Collection Super Poche Dreamweaver MX2004 (400 p., 7,50 €) : premier pas, syntaxe de base de HTML, création et gestion d'un site, animations avec JavaScript, publication. Windows XP professionnel (428 p., 7,80 €) : préparation d'un réseau local, d'un serveur web, gestion des utilisateurs, base de registre. O'REILLY Java Tête la première Destiné aux débutants, ce livre de plus de 600 pages s'adresse néanmoins à ceux qui ont déjà une petite expérience dans la programmation de scripts. Son but est d'être tout à la fois pédagogique et ludique en mélangeant des jeux, des exercices de programmation, des textes manuscrit, des dessins et photos humoristiques... Une mise en page résolument moderne, monochrome mais sûrement pas monotone ! (49 €) E&R - Page 21