Etudes et Rapports Informatiques

Transcription

Etudes et Rapports Informatiques
ÉTUDES & RAPPORTS
INFORMATIQUES
N°532/533
Numéro double Novembre/Décembre 2004
Lettre de marketing et d'études à destination des dirigeants
E&R - 64 rue des Fontaines - 60620 BOULLARRE - Tél/Fax : 03 44 87 28 30
E-Mail : [email protected] - Site Web : http://www.e-r.fr.st
SOMMAIRE
ETUDES
“Mais que font les salariés avec leur ordinateur
au bureau ?” ..................................................... 2
ENQUÊTES
La chaîne logistique .......................................... 3
Personnalisation des communications
sur Guichet Automatique Bancaire (GAB) ......... 4
MARCHÉS
La France et le Haut Débit ; La RFID ............... 4
SÉCURITÉ
Sécurité des réseaux par satellite* .................... 5
TECHNOLOGIES
Les nouveaux média VXA « X Tape » ............... 6
Le procédé KEYVELOP .................................... 6
IT MARKETS
About Gemplus ................................................. 7
European SMS and MMS Markets .................... 7
Bluetooth smartphones Vs WLAN ..................... 8
Outsourcing of IT jobs ....................................... 9
FLASHS
L’UE veut baisser le prix d’accès aux services
multimédia ; A propos du DIVX ; Proteus .........10
NOUVELLES
France, Monde, Résultats financiers ................. 9
BILAN
Les 50 ans du Cern et les 48 ans d'informatique . 11
LIVRE
Wi-Fi : Principes de base et sécurité ................15
SHOPPING
Matériels : Dimage X50, HP Photosmart R707 16
Zen Touch, TravelSound 200 ..........................17
PS2 : Roger Lemerre 2005 ; Club Football 2005,
Spider-Man 2 ; Les Indestructibles ...................18
Catwoman ; Driv3r ; Megaman X7 ; ....................
Champions of Norraths ....................................19
PC : Dora Exploratrice ; Chansons & Comptines
interactives ; Myst 4 ..........................................20
Vampire The Masquerade Bloodlines; Worms
Forts : Etat de siège .........................................21
Livres : Micro-Application ; O'Reilly ...................21
▼ RESPONSABLE SÉCURITÉ ET SERVICES
GÉNÉRAUX : QUELLE COLLABORATION ?*
Il est devenu évident que l’importance des « Technologies
de l’Information et de la Communication » croît de jour en
jour, et qu’à ce titre elles nécessitent une « mise en sécurité » à la hauteur de leur importance. Mais pour répondre
à cet impérieux besoin de « mise en sécurité », les seules réponses « techniques » ou « factorielles » ne sont
plus suffisantes. Elles doivent être fédérées dans le cadre
d’une démarche de gestion centralisée et coordonnée de
la Sécurité.
C’est dans le cadre d’une telle approche « globale » que
les règles de collaboration, notamment entre Responsables Sécurité et Services Généraux, pourront être mieux
déterminées : précisions sur le rôle de chacun, séparation des « pouvoirs » …
Pour mémoire, les trois principes de collaboration entre le
responsable sécurité et les services généraux sont :
1) les principes généraux pour la Sécurité.
2) les principes autour d’un « Plan Directeur Sécurité »
qui définit une démarche évolutive, assure la cohérence
entre objectifs et moyens, respecte l’équilibre « prévention
/ protection » et concerne l’ensemble des composants de
l’entreprise.
3) les principes d’une collaboration à trois niveaux : décisionnel / fonctionnel / opérationnel.
L'évolution inévitable vers une stratégie de « Sécurité Globale » de l’entreprise devrait également impliquer l’évolution du « Management de la Sécurité » au sein de l’entreprise, et qu’inéluctablement, la législation et la réglementation, la « pression » des régulateurs pousseront l’entreprise dans cette voie.
La Sécurité pourra alors être considérée comme un facteur de différenciation, voire un avantage concurrentiel.
*Résumé de l'intervention de Jacques Auzat, Groupe Aviva à la conférence Clusif.
ÉTUDES
▼ “MAIS QUE FONT LES
SALARIÉS AVEC LEUR
ORDINATEUR AU BUREAU ?”
Microcost, entreprise dédiée à la réduction des
coûts informatiques au service des organisations,
présente les résultats d’une étude inédite sur la
réalité des usages des micro-ordinateurs et périphériques en entreprise. Cette étude a porté sur
un millier d’organisations réparties sur 7 pays
européens : la France, l’Allemagne, la Suisse, la
Belgique, l’Espagne, l’Angleterre et l’Italie, avec
toutefois une sur-représentation des trois premiers pays sus-cités. Elle distingue 3 grands secteurs d’activité, l’administration, l’industrie et les
services, avec une répartition équivalente des effectifs étudiés entre les 3 secteurs, soient :
• 347 612 PC pour 340 organisations dans l’administration,
• 505 620 PC pour 437 entités de l’industrie,
• 432 269 pour 202 sociétés du secteur des services.
Au total, 1 285 500 postes informatiques ont été
soumis à l’analyse sur une durée totale moyenne
de 4 semaines.
Répartition des différentes versions
de Windows
Dans l’échantillon observé, on constate une nette
prédominance de la version Windows 2000 du
système d’exploitation de Microsoft dans le secteur industriel.
Pour l’administration, ce sont les versions anciennes de Windows 95 et 98 qui dominent largement.
C’est également le seul des trois secteurs étudiés
à utiliser encore une plate-forme presque «archaïque», la version 3.11 datant de 1993. On
peut y voir sans doute l’illustration d’un certain
retard en termes d’équipement informatique.
C’est dans le secteur des services que la distribution est la plus disparate entre toutes les versions
de Windows.
Utilisation des logiciels
Il ressort de l’étude qu’en moyenne 2h15min. par
jour sont consacrées à l’utilisation des principaux
logiciels, ce qui représente de 25% à 50% du
temps de travail effectif des actifs. À 68%, les logiciels les plus utilisés sont les outils bureautiques
et à 14%, les logiciels métiers.
Côté Internet, c’est dans les services que l’on
«surfe» le plus, à hauteur de 16 % du temps travaillé, contre 13 % dans l’industrie et 11 % dans
l’administration.
E&R - Page 2
C’est par contre l’industrie qui échange le plus de
courriels avec 22% du temps travaillé, suivi des
services, 15 %, et de l’administration, 5 % seulement.
Fréquence des incidents
En matière de pannes, bogues et autres incidents,
il résulte de l’échantillon étudié que les systèmes
d’exploitation Windows NT et 2000 ont un taux
d’incidents inférieur à 4%. Les versions Windows
95/98 et XP, en revanche, surpassent les 8%.
L’administration détient ainsi le record avec un
taux de pannes de 12,11% du nombre total de
sessions ouvertes contre 5,34 % dans l’industrie
et 5,32 % dans le secteur des services.
En moyenne, sur près de 8% des sessions (périodes d’utilisation du PC), une panne ou un incident
obligent l’utilisateur à redémarrer son ordinateur.
Cela équivaut à 3 pannes par utilisateur et par
mois ou encore à près de 6 heures de temps
perdu par an et par personne.
En extrapolant au niveau mondial, ce sont donc
2,4 milliards d’heures de travail qui sont perdues
chaque année par suite de la défaillance des PC.
En France, pour les 15 millions de personnes qui
utilisent un PC en entreprise, en prenant comme
base un coût horaire moyen de 20 euros par salarié, Microcost évalue le coût de la «non-qualité»
de ces PC à 1 800 millions d’euros soit le prix
d’achat de 60 Airbus A320.
Gestion des impressions papier
Concernant la gestion des impressions papier,
l’étude statue sur une moyenne totale inférieure à
4 ordres d’impression lancés par personne et par
jour.
Étonnamment, le record est détenu par l’industrie
avec 5,12 ordres lancés par ordinateur et par jour
contre 3,50 pour le secteur tertiaire et 2,92 pour
l’administration. En termes de pages imprimées,
on obtient un total de 11,4 pages par poste et par
jour pour l’industrie, pour 9,4 pages pour les services et 7,3 pages pour l’administration.
Sur le total de l’échantillon, en moyenne moins de
10 pages sont imprimées par jour et par personne
soient 2 000 pages imprimées par utilisateur et
par an.
En moyenne, ces pages sont imprimées à parité
égale sur des imprimantes locales ou en réseau.
Pour l’industrie cependant, la préférence va aux
impressions en réseau avec 3,19 ordres d’impression lancés contre 1,93 sur des imprimantes locales.
N° 532/533 de Novembre/Décembre 2004
Dans les services en revanche le nombre de pages imprimées en réseau (3,8 pages) est inférieur
au nombre de pages imprimées en local (5,7).
Cela se traduit par des dépenses supérieures, les
imprimantes locales ayant un coût de revient à la
page 5 à 10 fois supérieur à celui des imprimantes
en réseau.
Le coût de revient réel d’un PC
Il ressort de l’échantillon étudié que les employés
et fonctionnaires utilisent leur PC en moyenne
2,15 heures par jour, soit environ 1/3 de leur
temps de travail. Le micro-ordinateur est donc
inactif les 2/3 du temps. Sur ce temps d’utilisation,
plus de 50 % concerne des logiciels standards.
En se basant sur une durée de vie moyenne des
PC en entreprise de 4 ans et un prix d’achat
moyen unitaire de 800 euros, Microcost estime le
coût direct horaire d’un PC à 0,3 euros.
Le coût horaire du PC est de 5 euros (3 000
euros de coût moyen annuel de possession d’un
PC divisé par 600 heures d’utilisation). On peut
donc en conclure que 94 % du coût total horaire
du PC n’est pas lié à l’investissement matériel.
ENQUÊTES
▼ LA CHAÎNE LOGISTIQUE
DÉCONNECTÉE DE LA
STRATÉGIE D’ENTREPRISE
La seconde enquête annuelle sur la gestion de la
chaîne logistique menée par Computer Sciences
Corporation et la Supply Chain Management
Review indique que les entreprises continuent à
améliorer le fonctionnement de leur chaîne logistique mais qu’elles n’en tirent pas tous les bénéfices qu’on pourrait en attendre. À cela, plusieurs
explications : une préoccupation exagérée pour
les réductions de coûts à court terme, un manque
de stratégie ou d’alignement avec la stratégie globale de l’entreprise, des efforts d’optimisation limités qui pourraient pourtant procurer de nouveaux
revenus, et une coordination limitée au sein de
l’entreprise ou avec les fournisseurs et clients.
L’enquête révèle que si les entreprises investissent
dans les logiciels et les technologies susceptibles
d’améliorer la gestion de la chaîne - notamment
dans le domaine des achats, de la logistique et de
la gestion des stocks -, leur attention se porte trop
sur la technique et pas assez sur la stratégie et
l’optimisation du processus. C’est pourquoi elles
n’enregistrent aucun progrès notable dans la collaboration tout au long de la chaîne logistique,
même pour les plus grandes d’entre elles.
Selon l’enquête, les entreprises high-tech et de
distribution se considèrent comme plus avancées
que celles des autres secteurs en matière de
chaîne logistique. Les réponses révèlent en effet
un fossé grandissant entre ces entreprises, notamment les grandes enseignes de vente au
grand public, qui recueillent les fruits de l’optimisation de leur chaîne logistique, et celles qui n’y
sont pas encore parvenues.
Ce retard pourrait résulter d’une déficience de
stratégie chez les entreprises ayant répondu au
N° 532/533 de Novembre/Décembre 2004
questionnaire. Cette déficience est particulièrement évidente en ce qui concerne la mise en cohérence de la stratégie logistique et la stratégie
globale de l’entreprise. Un peu plus de la moitié
des sondés, aussi bien en Amérique du Nord
qu’en Europe, ont précisé que leur entreprise n’a
pas encore de stratégie logistique ou commence à
peine à la formuler. À l’autre bout du spectre,
seuls 20 % des sondés de ces deux continents ont
déclaré que leur entreprise disposait d’une stratégie complète.
L’enquête 2004 marque tout de même quelques
progrès dans certains domaines, à commencer
par les achats, la logistique et la gestion des
stocks. En termes d’avancement global, les participants à l’enquête ont cité d’abord les achats et
la sélection de fournisseurs (23 % pour ces deux
postes), puis la logistique (20 % en 2004 contre
seulement 13 % en 2003) comme étant les domaines où leur entreprise a le plus avancé. Le
domaine des prévisions et de la planification était
cité en quatrième position, en passant de 10 %
en 2003 à 19 % en 2004.
Il n’y a eu aucun changement d’une année sur
l’autre du nombre d’entreprises disant avoir
avancé en matière de collaboration client. À côté
de cela, la collaboration - tant interne qu’externe,
avec les fournisseurs et les clients - est citée
comme le chantier le plus urgent.
Toutefois, les progrès sont déjà notables pour
une des formes de collaboration visées. Il s’agit
de la relation entre les responsables de la chaîne
logistique et leurs homologues du service informatique. En 2003, 39 % des sondés précisaient que
leur relation de travail avec les responsables informatiques concernant l’introduction de nouvelles technologies n’était pas très efficace, ou ne
l’était que très peu. Ce poste a décru très nettement à 14 % en 2004. En outre, 37 % des sondés
E&R - Page 3
de cette année ont indiqué que cette relation était
assez efficace ou très efficace, contre 30 % en
2003.
▼ PERSONNALISATION DES
COMMUNICATIONS SUR
GUICHET AUTOMATIQUE
BANCAIRE (GAB)
euros avec impression du solde, automatiquement et en fonction des habitudes de l’usager.
De plus, la communication personnalisée sur GAB
réduit le nombre d’étapes intermédiaires lors des
transactions, réduisant ainsi jusqu’a 33% les
temps d’attente au GAB.
Plus de deux tiers des personnes interrogées,
soit 73%, voudraient recevoir des informations financières importantes, comme des rappels
d’échéances d’assurances habitation, via les
GAB. D’autre part, 58% de ces mêmes personnes
aimeraient pouvoir ensuite discuter de ces informations avec un collaborateur de sa banque.
Plusieurs banques, situées en Amérique du Nord,
en Asie et aux Pays-Bas, ont déployé avec succès cette technologie de personnalisation sur
GAB. Ainsi, dans un établissement ayant fait ce
choix, 60% des clients ont demandé à profiter de
la touche "transaction favorite".
Une enquête indépendante, menée pour NCR par
l’institut IPSOS, indique que 73% des personnes
interrogées souhaitent que le guichet automatique bancaire (GAB) mette à leur disposition une
fonction "transaction favorite", une touche personnalisée déclenchant par exemple un retrait de 30
*Méthodologie de l’enquête : L’enquête NCR - IPSOS
2004 a été menée auprès d’un échantillon représentatif
de la population française, composé de 937 personnes
âgées de 18 ans et plus, et construit sur la méthode des
quotas. Les interviews ont été réalisées les 10 et 11 août
par téléphone. Les résultats de l’enquête sont disponibles sur le site de l’IPSOS.
En tout, 236 entreprises ont renvoyé ce questionnaire de
huit pages. La majorité des réponses émanait d’Amérique du Nord (128), principalement des États-Unis. Les
entreprises européennes représentaient le second contingent géographique en taille, avec 60 réponses.
Trente-cinq réponses nous sont parvenues de pays situés hors d’Amérique du Nord et d’Europe. Treize sondés
n’ont pas indiqué de pays d’origine. Plus de 20 secteurs
économiques étaient représentés dans l’enquête de
cette année. On retrouvait notamment l’aérospatial et la
défense, la distribution et les biens de grande consommation, le high-tech et les télécommunications.
MARCHÉS
▼ LA FRANCE EN TÊTE
DES PAYS EUROPÉENS
EN MATIÈRE DE HAUT DÉBIT
La France a connu, en 2003, la plus forte croissance du parc ADSL en Europe, avec plus de 1,7
million de nouvelles lignes Haut Débit. Cette
croissance est encore plus importante en 2004
avec déjà près d’1,6 million de nouvelles lignes
Haut Débit à ce jour. Depuis janvier 2004, près de
5 600 nouvelles communes bénéficient de l’Internet Haut Débit par l’ADSL. Avec plus de 21 600
communes ouvertes partiellement ou totalement à
l’ADSL, c’est 90 % de la population française qui
peut bénéficier de l’Internet Haut Débit d’ici fin
2004. Cette croissance de parc amène la France
en tête des pays européens en nombre
d’internautes raccordés à l’ADSL.
▼ LE MARCHÉ DE LA RFID
(RADIO FREQUENCY
IDENTIFICATION)
Selon le Yankee Group, il connaît une croissance
de 20 à 30 % par an depuis 12 à 18 mois.
E&R - Page 4
Ce rythme devrait rester aussi soutenu jusqu’en
2008 pour atteindre 4,2 milliards de dollars, avec
l’espoir d’une baisse du prix des puces. Une première explosion du marché devrait avoir lieu d’ici
trois ans : 2 milliards de dollars seront dépensés
uniquement dans les puces.
Si les applications utilisant la RFID sont déjà
nombreuses, la plupart restent encore à imaginer,
offrant au marché de nombreuses perspectives
de développement. Les différents projets pilotes
en cours, chez certains acteurs de l’industrie, du
transport ou de la distribution, montrent d’ores et
déjà les nombreux avantages à intégrer la RFID :
gain de temps lors du contrôle de la réception ou
de l’expédition des marchandises, amélioration du
contrôle qualité dans la production, optimisation
de la gestion des stocks et des inventaires, réduction des pertes et des vols, traçabilité plus fine
des colis et à brève échéance un suivi unitaire
des produits... Autres usages déjà bien connus,
les cartes de transport sans contact ou les systèmes d’abonnement des sociétés de gestion
d’autoroute, laissent entrevoir de nouvelles offres
de services proposées aux individus.
(Source : CNET Events)
N° 532/533 de Novembre/Décembre 2004
SÉCURITÉ
▼ SÉCURITÉ DES RÉSEAUX
PAR SATELLITE*
La diffusion de données par satellite bénéficie de
nombreux atouts. Elle est la solution idéale pour
transmettre en une seule fois et à des débits élevés et garantis, des données à un très grand nombre de sites indépendamment de leur situation
géographique.
De plus, la généralisation des standards DVB (Digital Video Brodcasting largement démocratisés
par les bouquets de télévision par satellite) et
MPE (Multi Protocol Encapsulation qui spécifie
l’encapsulation des données IP dans le DVB) a
permis une forte réduction des coûts de bande
passante, le développement d’équipements de réception grand public à bas prix et une grande facilité d’intégration des équipements d’émission et
de réception dans les systèmes d’information des
entreprises. L’utilisation de ces standards a également eu pour conséquence de permettre une réception aisée des données diffusées à toute personne équipée de matériel grand public rendant
indispensable la mise en place de solutions de
sécurisation.
D’autre part, les caractéristiques d’un réseau de
diffusion de données par satellite permettent de
bénéficier d’une sécurité accrue tant au niveau
de la protection contre les virus ou les intrusions
qu’au niveau de l’assurance de la source des informations reçues.
Sécuriser la diffusion de données
Dès leur apparition, les bouquets de télévision par
satellite ont intégré les mécanismes de cryptage et
de contrôle d’accès de la norme DVB s’appuyant
sur des cartes à puce. S’ils sont applicables à la
diffusion de données, ces mécanismes sont cependant généralement trop complexes et onéreux
pour une utilisation dans un réseau de données
n’ayant pas le même dimensionnement qu’un réseau de télévision destiné à un public de masse.
Le standard DVB a également défini d’autres
moyens de sécuriser les données. Le plus utilisé,
le « Fixed Key CAS » ou « Système de contrôle
d’accès à clé fixe », offre l’avantage de s’affranchir de la gestion des cartes à puces. Il a cependant la caractéristique d’utiliser une clé fixe offrant
ainsi une faille importante en cas de découverte
de cette clé par une personne non autorisée. De
plus, les mécanismes de mise à jour de cette clé
sur l’ensemble des terminaux du réseau ne sont
pas toujours disponibles.
N° 532/533 de Novembre/Décembre 2004
Une autre solution consiste à intégrer la sécurisation des données à un niveau applicatif. Ceci
peut être fait au niveau de plates-formes situées
chez l’opérateur de télécommunication par satellite
offrant ainsi un service partagé au niveau IP ou intégré dans l’application du diffuseur d’information.
Ces systèmes utilisent généralement un couplage
de deux types de cryptage. Un premier cryptage
fort de type asymétrique (algorithmes à clés publiques et privées de type RSA par exemple) permet
de gérer l’accès conditionnel et d’offrir un fort niveau de sécurité pour la transmission des données les plus critiques. Chaque point de réception
autorisé se voit attribuer une clé privée stockée de
façon sécurisée dans le terminal et une clé publique stockée au niveau du serveur. Les données
sont quant à elles cryptées avec un système symétrique plus léger (DES par exemple). Une clé permettant le cryptage des données est générée pour
chaque flux identifié puis transmise aux terminaux
après cryptage par le biais de l’algorithme asymétrique. La transmission de ces clés symétriques se
fait via le réseau de diffusion sur la base des abonnements des points de réception aux différents
flux. Ainsi, un point de réception non abonné à un
flux ne recevra pas la clé associée et sera dans
l’impossibilité de lire les informations diffusées.
Pour la mise en place de VPN IPSec, l’incompatibilité du format IPSec standard avec les mécanismes
d’accélération TCP provoque une limitation importante des débits dans le tunnel. L’insertion dans le
réseau de routeurs spécifiques permet de rendre
compatible l’accélération TCP avec un VPN IPSec.
Ces routeurs offrent de plus de nombreuses fonctionnalités de sécurité et de qualité de service.
Des solutions efficaces et pérennes
En conclusion, les réseaux par satellite, pour la
diffusion de données comme pour l’accès à Internet ou les VPN, offrent à leurs utilisateurs un niveau de sécurité élevé et permettent même, dans
certains cas, de s’affranchir de problématiques
rencontrées sur les autres types de réseaux.
Ces caractéristiques ajoutées aux autres avantages du satellite (accessibilité dans les régions les
plus reculées, utilisation de IP multicast, indépendance géographique, garantie de débit, …) font
des réseaux par satellite des solutions efficaces et
pérennes pour un très grand nombre d’acteurs
économiques.
* Selon Hervé Postec, Responsable Technique de la société Fileas, Ex Polycom, opérateur et fournisseur de solutions de diffusion de données par satellite.
E&R - Page 5
TECHNOLOGIES
▼ LES NOUVEAUX MEDIA
VXA « X TAPE »
Exabyte annonce VXA « X Tape », une famille de
cartouches qui se décline en trois capacités natives. Le coût de la technologie VXA X Tape est en
effet comparable à celui du format vieillissant
DDS, qui présente la plus vaste base installée
parmi toutes les plates-formes de lecteurs de
bandes.
Les cartouches VXA X Tape sont conçues pour
être compatibles avec la prochaine génération,
VXA-3, prévue pour la mi-2005 et qui doublera la
capacité et la vitesse du VXA-2.
Les problèmes posés par le format DDS
DDS, l’actuel standard sur un marché des lecteurs
de bandes représentant 3,2 milliards de dollars,
est aujourd’hui dépassé. Sa cinquième génération, incarnée par le DAT72, offre une capacité
native de 36 Go, insuffisante pour assurer la sauvegarde des disques durs, compte tenu de la
taille moyenne de ces derniers sur les serveurs
actuels. Ce problème de capacité est accentué
par le fait que la technologie DDS de cinquième
génération n’apporte aucun progrès dans le taux
de transfert des données, qui continue de plafonner à 3 Mo par seconde.
Depuis plus de dix ans, le format DDS s’est constitué le plus vaste parc installé, avec des ventes
atteignant en moyenne le million d’unités chaque
année. Toutefois, sa capacité et sa vitesse n’ont
pas suivi la demande du marché.
Le format X Tape
La famille VXA X Tape, à travers les cartouches
X6 de 20/40 Go (capacité native/compressée),
X10 de 40/80 Go et X23 de 80/160 Go, laisse aux
utilisateurs la liberté de choisir la capacité la
mieux adaptée à leurs besoins présents de stockage et à leur budget, avec la possibilité d’ajouter
de la capacité à la demande, en utilisant simplement des cartouches VXA Tape de niveau supérieur. Les cartouches X6 et X10 sont proposées à
un tarif plus de 40% inférieur à celles de la génération précédente (respectivement 15 EUR et 29
EUR, prix publics conseillés). Avec cette nouvelle
tarification comparable à DDS, les utilisateurs ont
dorénavant toute facilité pour accéder à une technologie de sauvegarde et de restauration de
classe entreprise, en bénéficiant d’un coût total de
possession (TCO) plus favorable.
Chaque cartouche VXA X Tape soutient un taux
de transfert pouvant atteindre 43 Go à l’heure,
E&R - Page 6
permettant d’effectuer les opérations de sauvegarde et de restauration deux fois plus vite
qu’avec le format DDS. Cela permet aux administrateurs réseau de sauvegarder 160 Go de données (soit le contenu d’une cartouche VXA 2) en
moins de quatre heures. Les cartouches X Tape
sont également les seules à mettre en œuvre la
technologie par paquets VXA qui, grâce aux techniques de correction d’erreurs PerfectWrite et
ReedSolomon niveau 4, peut améliorer d’un facteur 180 l’intégrité de restauration des données
par rapport à DDS. Ces nouvelles bandes emploient un matériau de pointe AME (Advanced
Metal Evaporated) qui prolonge nettement leur
durée de vie en comparaison des autres technologies : au minimum 500 utilisations contre seulement 99 au maximum pour les bandes DDS.
L’association du format X Tape et de la technologie VXA autorise également un fonctionnement à
vitesse variable, ce qui élimine complètement le
«backhitching » (repositionnement saccadé de la
bande en arrière) et évite les problèmes d’étirement et d’usure de la bande couramment rencontrés avec les technologies moins performantes.
Les cartouches X Tape sont en outre les seules à
faire l’objet de tests réalisés par des laboratoires
indépendants dans des conditions extrêmes (vibrations violentes, immersion dans de la cendre
volcanique, de l’eau et du café brûlant, et même
congélation dans un bloc de glace) en vue de
garantir la restauration fiable et complète des données.
La capacité de stockage et le débit des lecteurs
VXA supposent un taux de compression 2:1. La
compression effective varie en fonction du type
de données et de la qualité du lecteur et de la
bande.
▼ LE PROCÉDÉ KEYVELOP
KEYVELOP est un dispositif logiciel destiné à assurer la sécurisation (identification, confidentialité,
non répudiation et intégrité) et la traçabilité des
échanges de documents numériques.
Le procédé crée sur les postes clients des enveloppes électroniques universelles inviolables appelées "keyvelop", véritables coffres-forts électroniques. Ces coffres-forts sont sous le contrôle
d’un tiers de confiance qui valide et certifie la validité et la véracité des transactions, mais qui ne
voit jamais les documents ; facteur de sécurité
évident comme d’économie de moyens informatiques. Les keyvelop (enveloppes) sont ensuite
N° 532/533 de Novembre/Décembre 2004
envoyés aux destinataires par tout moyen (mail,
CD…).
Le procédé est constitué de deux logiciels :
• Le logiciel Keyvelop Serveur s’installe sur tout
serveur.
• Le logiciel Keyvelop Client est utilisé sur les postes utilisateurs ou sur un serveur déporté.
Le premier (Keyvelop Serveur) est exploité sur
des serveurs opérateurs encore appelés bureau
de poste. Il permet de contrôler l’identité de l’expéditeur et des destinataires et de distribuer une
méthode de cryptage et la clef privée correspondante à l’expéditeur puis aux destinataires. Il sert
ensuite à conserver chaque empreinte de l’ensemble des composants de chaque Keyvelop et à
garantir l’intégrité de l’ensemble constitué de l’enveloppe et des fichiers qui a été expédié et reçu. Il
conserve, enfin, la trace des événements de chaque Keyvelop et met à jour chacune des Keyvelop
(expéditeur, destinataires, signataires) des événements survenus.
Le deuxième logiciel, Keyvelop Client, est utilisé
sur les postes des utilisateurs finaux. Sa mission
est de créer des Keyvelop, de permettre l’insertion de tout type de fichier sous tout format et de
toute taille, d’insérer des notes, d’envoyer et recevoir du tiers de confiance (Keyvelop Serveur) les
éléments de sécurité, de crypter l’enveloppe et
les données qu’elle contient, puis de décrypter la
Keyvelop et ses données. Enfin, il met à jour la fiche de suivi et conserve les différentes Keyvelop
expédiées et reçues.
L’architecture de ce procédé assure la sécurité et
la traçabilité (au sens de preuve légale) dans des
conditions uniques de souplesse et de légèreté :
liberté totale du poids et formats des fichiers
transmis, installation par simple téléchargement
d’un logiciel léger sans besoin de configuration,
minimisation des ressources informatiques requises par le système.
IT MARKETS
▼ ABOUT GEMPLUS
Gemplus International S.A. is the world’s leading
player in the smart card industry in both revenue
and total shipments (source: Gartner-Dataquest
(2004), Frost & Sullivan, Datamonitor). It has sold
over 4 billion smart cards.
For Frost & Sullivan, the company was the
number one smart card reader supplier in 2003,
with a 21 per cent market share, shipping some
1.9 million units. Gemplus’ unit shipments of smart
card readers (PC-link readers as well as chipsets
for keyboards and electronic fund transfer and
point-of-sale (EFTPOS) terminals) grew by a notable 20 per cent over the period 2002 to 2003.
Last year, PC-link readers represented 65 per
cent of Gemplus’ unit shipment sales with reader
chipsets completing the remainder.
Strong performances in key regional markets
have further underlined the company’s
competitive profile. In 2003, the company
implemented high-volume logical access control
projects for governments and enterprises in South
Korea, Taiwan and China.
Consistently diversifying its reader portfolio,
Gemplus now has competencies in contactless
technology, basic PC-link readers, USB ‘dongles’,
SIM copiers and chipsets for terminals. It is also a
leading participant in the niche reader intellectual
property rights (IPR) market segment.
N° 532/533 de Novembre/Décembre 2004
▼ EUROPEAN SMS AND MMS
MARKETS
In response to the increasing competition and
market maturity in the short messaging services
(SMS) space, mobile operators in Europe are
shifting focus to multimedia messaging services
(MMS) as a means to revive end-user enthusiasm, stabilise revenue generation, increase average revenue per user (ARPU) and reduce the
customer churn rate.
Frost & Sullivan expects a significant drop in the
contribution of SMS toward mobile data revenues
from 90 per cent in 2003 to 40 per cent in 2008.
Nevertheless, mobile operators can expect to stay
afloat and replace lost revenue given the large
subscriber base in Europe and the opportunities it
presents to new services such as MMS.
Availability of handsets with coloured screens and
integrated cameras and the rollout of thirdgeneration networks are major driving forces in
the MMS market. In 2008, MMS is expected to
achieve a 65 per cent penetration rate, creating
210 million active users and EUR 10 billion in revenue for mobile operators.
However, in the two years since its European
launch in 2002, MMS has fallen drastically short of
mobile operators’ expectations, and even while
the future for MMS looks bright, operators need to
tread carefully.
E&R - Page 7
Confronted by various technical and commercial
challenges such as network interoperability, MMS
has struggled to reach the mass market.
Fortunately, the Open Mobile Alliance (OMA) has
released the version 1.2 to extend MMS
capabilities through open standards and
interoperable mobile services.
Since the positioning of MMS as a logical extension of SMS has not been completely successful,
mobile operators need to rethink their value proposition, focus on providing superior end-user
experience and promote the compelling new
features offered by MMS.
Besides photo messaging, new services such as
blogging, group messaging, dating services and
competitions are likely to increase the applicationto-person traffic and, in turn, drive MMS usage.
However, the marketing push provided by
upgraded functionality in terms of colour, audiovisual quality and graphics is likely to have minimal effect due to the high price of MMS and MMScompliant multimedia handsets.
In order to increase the MMS subscriber base and
provide value-for-money services to users, mobile
operators
have
devised
upgrade
and
subsidisation programmes for MMS-enabled
handsets. Special offers such as lower weekend
prices and personalised services are also likely to
propel MMS popularity.
Until prices are stabilised and MMS attains mass
appeal, it is likely to take a backseat to SMS since
the latter still scores well in terms of affordability,
simplicity, accessibility and ease-of-use.
SMS has evolved into a viable, practical and profitable delivery channel and will continue to play a
central role in the future, as a communication tool
in the mid-term and a support for MMS in the
long-term.
▼ BLUETOOTH SMARTPHONES
VS WLAN
ARC Group expects sales of high-end
smartphones (*) to reach 14.7m units in 2004,
representing 53% of total smartphone sales.
During the next five years, low-end smartphone
(**) sales will grow slowly from 12.90m units in
2004 to 44.5m units in 2009, as many of the
functions they offer are incorporated into standard feature phones. At the same time, demand
for high-end smartphones will continue to grow
steadily, so that their share of the smartphone
market will increase to 64.5% in 2009, which
represents figure sales of 80.5m units.
In the short- to medium-term, high-end
smartphones will continue to attract professionals,
E&R - Page 8
early adopters and a great number of
technophiles who are ready to invest in the latest
technology. Sales of these devices remain low for
many reasons, including the relatively high price of
both devices and wireless data services, which
makes it difficult for operators and service
providers to balance device subsidies against the
potential for increased data revenue streams.
In contrast with high-end smartphones, low-end
smartphones often attract early consumers for
functionalities such as friendly UI, camera, music,
and multimedia messaging or Bluetooth. As a
result, they represent a potential source of
increased wireless data revenue streams, which in
turn encourages operators to subsidise them. In
addition, these devices generally support a limited
number of features and require less powerful
hardware components, which significantly reduce
their cost.
On the top of their relative high cost, other
reasons behind the relatively slow growth of the
global smartphone market include their
comparatively large size and heavy weight
compared with traditional handsets. They also
suffer from a very short battery life due to the
substantial energy consumption of the CPUs, communication modules and high resolution screens necessary features to deal with bandwidth
consuming data services. However, ARC Group’s
Future Mobile Computing report predicts that with
the hardware and software technology advances
and the promise of new battery technologies,
energy consumption of smartphones will halve
within the next two years, enabling longer
connection time.
The price of these devices is also expected to
reduce significantly during the next five years due
mainly to the decrease in cost of hardware
components including colour screens, memory,
processors, and batteries.
It is important to note that the bill of material of
smartphone devices is significantly dependant on
the quality of embedded components and
features. For example, a smartphone embedding
low resolution screen (4000 colours), NAND
memory, VGA camera, and ARM7 processor is
much cheaper than a smartphone with high
resolution screen (65,000 colours), NOR memory,
ARM9 or above architecture, and a megapixel
camera or above. Features such as Bluetooth
could add as much as $10 and Wi-Fi as much as
$25 to the bill of materials.
Future Mobile Computing finds that Bluetooth is
mainly embedded in smartphones targeting the
European market where Bluetooth is popular.
However, Bluetooth capable smartphones are less
N° 532/533 de Novembre/Décembre 2004
popular in North America and even less so in Asia
Pacific with the exception of Japan. Shipments of
smartphones with built-in Bluetooth will grow from
2m units in 2003 to more than 6m units in 2004.
Analysts expects shipments of Bluetooth
smartphones to reach 87.5m units totalling about
70% of the smartphone market.
Compared to other wireless technologies, such as
Bluetooth, WLAN does not yet offer an ideal solution for being incorporated into smartphones. It
has
many
significant
challenges
and
disadvantages, specifically the fact that the price
of building in this feature remains very high. This
makes it even more difficult to subsidise WLAN
devices and hence to justify the high price to the
end-user.
In addition current WLAN modules are bulky
compared to Bluetooth because they include extra
components for signal shaping and power amplification. Embedding these modules in smartphones, which already house bulky 2.5G/3G
wireless modules, will dramatically complicate the
design process and result in significantly larger
form-factor devices as well as dramatically
affecting the overall power consumption.
Smartphones already suffer from high energy
drain due to the high power consumption of 2.5G/
3G wireless modules.
In terms of usability, embedding WLAN into
smartphones side by side to WWAN is not yet
justified because WLAN-WWAN roaming solutions
are still in their infancy and service providers will
need time to adopt the technology. This will
depend on the popularity of WLAN in the
enterprise and also in public areas such as
hotspots.
Microsoft and Intel are the main supporters of
including WLAN in smartphones as Microsoft OSs
have already integrated WLAN stacks and
Microsoft Xscale processors come with a WLAN
interface. The majority of early WLAN devices are
primarily targeting the North American market.
Sales of WLAN devices are expected to grow only
slightly over the next two years to reach 1.27m
units worldwide by 2005. It is anticipated that after
2005, sales of WLAN smartphones will increase
significantly to reach 18.75m units by 2009, which
will represent 15% of total smartphone sales.
(*) Mobile phones featuring advanced computing
capabilities and handheld devices with cellular
connectivity have converged in recent years into one
category of devices.
(**) Low-end smartphones : rich media phones that are
basically terminals with an advanced user interface,
embedding more than three features such as music,
video player and recorder, camera, MMS, games, web
browsing, synchronisation with PC, Bluetooth, etc.
N° 532/533 de Novembre/Décembre 2004
▼ ANTI-OUTSOURCING
LEGISLATION UNLIKELY
AS GLOBAL OUTSOURCING
OF IT JOBS GAINS
MOMENTUM
Global outsourcing of IT jobs from high-cost
regions of the world to lower cost regions is,
today, an inexorable phenomenon and attempts in
certain developed countries to arrest this trend
through legislation are bound to fail, states new
analysis from Frost & Sullivan.
Using a combination of qualitative information
based on primary research in 14 countries
together with quantitative data obtained from enduser surveys among IT decision-makers in
France, Germany, Hong Kong, Japan, the United
States and the United Kingdom, Frost & Sullivan
analysts tracked global offshore outsourcing and
off-shoring of IT jobs for the period 2002-2004.
According to the study, IT job exports are forecast
to increase by a compound annual growth rate
(CAGR) of 5.9 per cent between 2002 and the end
of 2004. In 2004, a total of 826,540 IT jobs are
expected to be exported by France, Germany, Hong
Kong, Japan, the United Kingdom and the United
States to lower cost countries, amounting to a
combined value of USD $51.6 billion.
The United States and Japan are slated to
emerge as the top two exporters of IT jobs in
2004. Germany is poised to lead the developed
European nations by having exported a total of
USD $48.22 billion worth of IT jobs since the IT
offshoring and outsourcing trend began.
Germany is trailed by the United Kingdom and
France.
Promoting sustained growth of IT job outsourcing
has been the fact that many companies in low
cost regions have higher CMM certification levels
than their customers. Government sponsored programmes and tax incentives designed to support
the IT industry in lower cost regions have also
encouraged outsourcing trends. Providing further
impetus to outsourcing has been the return of
many IT professionals to their home countries in
the late 1990s, who have been carrying out similar
work, albeit at lower wages.
Exporting IT jobs to lower cost countries is now
regarded as critical to survival in industries where
other competitors are doing so. At the same time,
hiring outsourcers abroad is being seen as
affording a company the flexibility to adjust its personnel strength to business requirements at a
lower cost and with a higher level of expertise.
E&R - Page 9
FLASHS
▼ L’UE VEUT BAISSER LE PRIX
D’ACCES AUX SERVICES
MULTIMEDIA
L’Union Européenne finance pour 3,65 millions
d’euros le projet Scalable Intelligent Video Server
System (SIVSS), une technologie de stockage
évolutive pour la gestion des signaux audiovisuels complexes. SIVSS vise plus spécialement à
fournir une infrastructure de communication et de
stockage offrant un débit évolutif jusqu’à 1 Tb/s
(terabits par seconde), définissant ainsi un nouveau seuil de rentabilité.
Cette nouvelle architecture est particulièrement
bien adaptée aux nouveaux marchés faisant appel à des flux de données multimedia, telles que
la distribution en masse de contenu en ligne et
les applications de sécurité reposant sur le
streaming video.
SIVSS réunit quelques-uns des leaders européens du stockage et de la video : Xyratex (coordinateur du projet), Thomson Broadcast & Media
Solutions, Foundation for Research & Technology,
HiStor Technologies, OMass AS, Simula Research
Laboratory AS, Glasshouse.
▼ A PROPOS DU DIVX
DivXNetworks Inc., créateur du DivX format de
compression vidéo, annonce que plus de 20 millions de lecteurs DVD certifiés DivX devraient être
vendus dans le monde d’ici à la fin 2004. Rien
que pour l’Europe, l’institut GFK Research note
que les lecteurs DVD DivX ont représenté 25 %
du marché depuis le mois de juillet. Les performances de la compression DivX permettent d’obtenir des vidéos en qualité DVD qui seraient 10
fois plus volumineuses dans le format MPEG-2, le
standard DVD.
NH Japan commercialise deux modèles de lecteur
portable certifié DivX. Ces appareils peuvent lire
toutes les versions de vidéo DivX. Ils font partie de
la première génération d’appareils portables certifiés DivX. Disposant respectivement de 30 et 60
Go, ils disposent d’un écran LCD de 3,5" et des
sorties S-Vidéo et coaxial. Le tuner TV intégré
permet de recevoir et d’enregistrer la télévision directement sur l’appareil. Les connecteurs SD/
MMC et CompactFlash sont là pour étendre la
capacité de stockage.
Les processeurs DiMeNsion de seconde génération ont obtenu la certification DivX. Conçus par
LSI Logic, ces circuits intègrent sur un seul circuit
E&R - Page 10
les fonctionnalités d’enregistrement de DVD. Ils
deviennent ainsi les premières solutions mono-circuit certifiées DivX Home Theater. Ils disposent de
fonctionnalités innovantes, comme la technologie
Direct Digital Dub, pour transférer par liaison
FireWire la vidéo, depuis un caméscope vers un
DVD, avec une seule pression de touche sur une
même télécommande.
▼ PROTEUS
L’objectif de Proteus est de créer une plate-forme
informatique intégrée capable de supporter n’importe quelle stratégie de e-maintenance s’appuyant sur des formats standardisés et non-propriétaires. Ce portail accessible à tous les métiers
concernés par la maintenance regroupe l’ensemble des données techniques, financières et logistiques d’un équipement. Configuré par le modèle
de l’équipement à maintenir, il permet d’accéder
par exemple au film du démontage d’un matériel,
aux données chiffrées des moyennes de durée de
fonctionnement, à l’historique de problèmes rencontrés sur une machine ou encore à la gestion
des pièces détachées et de dérouler le scénario
de maintenance préventive adapté.
Proteus associe 15 entreprises et centres de recherche en France, Allemagne et Belgique, parmi
lesquels Cegelec. Il s’inscrit dans le cadre des
programmes ITEA (Information Technology for
European Advancement), une des composantes
du programme Eureka soutenu par la Commission européenne.
Proteus constitue une réponse européenne au
programme nord-américain Mimosa (Machinery
Information Management Open System Alliance) :
démarré en octobre 2002, le projet doit s’achever
en février 2005.
Ce nouvel outil informatique devra s’interfacer
avec l’ensemble des outils présents sur un site de
maintenance : GMAO, ERP, e-doc serveur, Scada,
base logistique, système expert, ...
E&R est publiée par la Sarl
ETUDES & RAPPORTS INFORMATIQUES
à Survilliers. ✆/FAX : 03 44 87 28 30
RC Pontoise B 340.074.525.
Commission paritaire 56266. ISSN 0339 9559
Directeur de rédaction : Murielle Vézian.
Secrétaire de rédaction : Sylvie Vézian.
Correspondant aux USA : Marc Vézian.
Dépôt légal 4e trimestre 2004
N° 532/533 de Novembre/Décembre 2004
NOUVELLES
▼ RÉSULTATS FINANCIERS
• Cincom Systems : CA 100 M$.
• Inforsud Diffusion 31.08.04 : CA 4.2M euros
(+27%).
• Business & Decision (30-06-04) : CA 58,4 M
d’euros (+10,6 %), dont 68 % en business intelligence (+14 %), la gestion de la relation
client (15 % de l’activité) et le e-business (17 %)
affichent eux une hausse de 4 % d’une année
sur l’autre. Les activités internationales : 22 %
du CA (+ 20 %). Net 1,0 M€.
• AxYus : CA 1,24 M€ (+15%), l'EBITA (bénéfices avant taxes et amortissements 47 Keuros.
▼ MONDE
• Meeting Maker, fournisseur américain de logiciels et de services gérant le temps, a acquit sa
consœur CEO Software, éditeur de solutions
de gestion d’événements et de ressources pour
petites et moyennes entreprises.
• Suite à l’acquisition de Datakey, SafeNet, fournisseur de solutions de sécurité, crée une structure de gestion des identités qui sera intégrée à
la division Sécurité de l’entreprise.
• L'association européenne SNIA lance l’IPSI, « IP
Storage Initiative » en vue d’éduquer le marché
européen, promouvoir et favoriser l’adoption
des solutions de stockage basées sur le standard IP.
• La néerlandaise Getronics acquiert la britannique Pinkroccade pour créer la plus importante
société de services TIC internationale aux Paysbas.
• Le Consortium World Wide Web (W3C) publie
le premier volume de "Architecture du World
Wide Web" en tant que recommandation W3C.
▼ FRANCE
• Pointsec Software Technologies, spécialiste
suédois dans le domaine de la sécurité des terminaux mobiles ouvre une filiale dans l'Hexagone.
BILAN
▼ LES 50 ANS DU CERN ET LES
48 ANS D’INFORMATIQUE
Le Cern a fêté en 2004 ses 50 ans d’existence
en ouvrant ses portes au public. Les énormes et
spectaculaires installations des équipements
d’étude de l’infiniment petit cachaient pourtant la
réalité d’une électronique omniprésente, bien
qu’invisible. Les installations du Cern ne peuvent
fonctionner sans la béquille des systèmes électroniques en général et informatiques en particulier,
une informatique qui a suivi de près, par force,
l’histoire de cet organisme européen. C’est ce
que nous rappelons ci-après en nous aidant des
documents fournis par le Cern.
Le premier système électronique
Le premier ordinateur du Cern a été le Mercury
de la société britannique Ferranti. Commandé en
mai 1956, c’était, selon les dirigeants de l’époque,
le meilleur ordinateur du marché comparé au
Pegasus du même fournisseur, à l’Elliott 404, à
l’English Electric Deuce, au Bull Gamma 311 et
autre IBM 650. Il a fallu cependant non moins de
deux ans pour construire cette machine qui, fina-
N° 532/533 de Novembre/Décembre 2004
lement, n’a été installée qu’en 58. Son prix faramineux approchait celui d’un gros avion de l’époque, et physiquement, c’était un monstre -comparé aux ordinateurs d’aujourd’hui- comportant
des milliers de tubes à vide. Sa vitesse, importante pour l’époque, serait désespérément lente
au vue des normes modernes avec ses... 20.000
cycles par seconde, ses 1024 mots de 40 bits de
mémoire vive, son disque magnétique primaire et
ses entrées/sorties des données par bande perforée. En 1962, cependant, des dérouleurs de bandes magnétiques Ampex ont grandement amélioré
le rendement, permettant un dépouillement plus
rapide des mesure des films des chambres à bulles. Sa programmation était faite avec Autocode,
un langage déjà évolué préfigurant le fameux
Fortran.
Suivi en 1961 du second et second bis
Mais cet ordinateur s’est révélé vite saturé et bien
trop lent pour supporter la multiplication des données générées par les nombreuses expériences.
L’annonce de l’IBM 704 a été une révélation car, si
c’était encore une machine à tubes, elle employait
ce langage Fortran qui allait révolutionner tous les
E&R - Page 11
programmes scientifiques, ainsi que les dérouleurs magnétiques, les lecteurs/perforateurs de
cartes et les imprimantes rapides en ligne. Aussi le
Cern, tout en se servant encore du Ferranti, a-il
commandé l’IBM 709, une version améliorée du
704, pour seconder son Ferranti vieillissant. Installé début 1961, il utilisait des mots de 36 bits divisés en caractères BCD de 6 bits, était 5 fois plus
rapide que le précédent, et pouvait travailler tout
en dirigeant simultanément 6 périphériques. Mais
son prix atteignait quelque 10 millions de francs
suisse et sa fiabilité était loin d’être parfaite. Après
un an d’exploitation lui était adjoint un IBM 1401
pour servir de tampon avec les entrées/sorties,
accélérant du même coup les traitements. Après
la mise en service de dérouleurs sur le Ferranti, il
a été possible de prétraiter les mesures sur cet
ordinateur, de les transférer sur bandes magnétiques, et d’utiliser ces bandes sur les IBM pour des
études plus approfondies.
Tandis que l’Autocode était développé pour le
709, Fortran de son côté a commencé sa remarquable carrière, permettant une transportabilité
des programmes entre les laboratoires. Comme
on sait, il est toujours le langage privilégié du
Cern, donnant lieu à de nombreuses versions et
supplantant d’ailleurs encore aujourd’hui les langages plus modernes. Dès le début des années
60 ont été expérimentées les connexions directes
avec les appareils d’expérimentation, les traces
des chambres à bulles et étincelles pouvant être
étudiées automatiquement.
Des lampes aux transistors
Peu après, en 63, IBM a sorti la version transistorisée du 709 nommée 7090, plus petite en taille
mais aussi quatre fois plus puissante. Cela a
sonné évidemment le glas du Ferranti qui a cependant continué à servir deux ans encore en
étant connecté directement à un spectrographe
de masse, pour être donné finalement à l’Académie des Mines et de la Métallurgie de Cracovie en
Pologne.
Le Cern rentrait alors dans la première ère des
ordinateurs modernes à transistors, dont les programmeurs ont pu pleinement tirer parti. Et ce fut
aussi le début d’une inflation du nombre de systèmes. Un SDS 920 a été ajouté en 64 pour être
connecté en ligne à une chambre acoustique à
étincelles, et dans la décennie les minis ordinateurs ont envahi le site, principalement des HP,
DEC et autres IBM, destinés principalement à l’acquisition des données, transmis ensuite aux plus
gros ordinateurs d’abord par l’intermédiaire des
bandes magnétiques, ensuite par lignes de communication.
E&R - Page 12
Début des superordinateurs
Un bond en avant dans la traitement a été effectué avec l’installation du Control Data 6600 en
1965. Ce superordinateur de l’époque était très
évolué, avec son gros processeur central et ses
10 processeurs périphériques, ses possibilités de
multiprogrammation et de parallélisme. Dix fois
plus puissant que le 7090, entrant dans des cycles d’horloge bien inférieurs à la microseconde, il
utilisait des dérouleurs de bandes à double largeur et des disques de 1 m de diamètre d’une
capacité de 64 Mo, un record.
Comme ce n’était qu’une machine de présérie (numéro 3), elle n’a pas été exempte de pannes matérielles (certains ajustements se faisaient en coupant ou rallongeant les fils de connexions internes) et d’ennuis logiciels divers ; les anciens du
Cern se souviennent d’heures laborieuses et pénibles pour le faire fonctionner correctement, au
point qu‘il a fallu qu‘ils améliorent eux-même le
système d’exploitation, Control Data devant abandonner son Sipros trop peu stable. Tout est rentré
dans l’ordre finalement, et la machine a continué
une belle carrière jusqu’à 1975.
Entre-temps, des ordinateurs plus conventionnels
du même constructeur - CDC 3400, 3800 et
6400 (ce dernier étant une version allégée du
6600), ont secondé le monstre, monstre qui, à son
tour, s’est révélé insuffisant du fait de la multiplicité
des expériences, des détecteurs électroniques, et
donc des données à traiter.
En 1972, un Control Data 7600 a doublé le 6600,
dont c’était une version évoluée, plus miniaturisée
et 5 fois plus puissante. Un CDC 6400 et un 6500
étaient utilisés en front-end pour gérer le trafic E/
S et servir les premiers utilisateurs en timesharing. La mise en route du 7600 a répété celle
du 6600 avec son lot de problèmes de jeunesse.
Cette difficile période passée, il s’est révélé un
outil précieux, d’une longévité exceptionnelle puisqu’il n’a été débranché qu’en 1984, 20 ans après
son introduction, un record ! Avec 10 Mips de
puissance, il était considéré comme la « ferrari »
des ordinateurs scalaires qui n’a été égalé qu’à la
fin des année 70.
Toujours pour les besoins de calcul, un IBM 370/
168 a coexisté avec les CDC. Cette hétérogénéité de systèmes devenait nécessaire pour varier les solutions. L’IBM présentait l’avantage
d’une mémoire virtuelle gérée par son système
d‘exploitation MVS, d’un cache (c’était la première implémentation commerciale du cache,
que l’on retrouvera par la suite sur tous les ordinateurs et même les micros), de nombres hexadécimaux (qui deviendront la norme rapidement),
N° 532/533 de Novembre/Décembre 2004
LES GROS ORDINATEURS DU CERN DE 1954 A 1990
Ferranti Mercury : 1958 à 1965; machine à tubes ; mots de 40 bits ; cycle
de 60 m s, avec 2 cycles pour une lecture ou écriture, 3 cycles pour l’addition, 5 cycles pour une multiplication,
la division étant programmée ; mémoire vive à tores magnétiques de
1024 mots, temps d’accès de
120 m s ; tambour de 16 Kmots et
8,75 ms de temps de latence ; 2 unités Ampex de bandes magnétiques
ajoutées en 1962 ; utilisation du compilateur Autocode.
IBM 709 : 1961-1963 ; machine à tubes ; mots de 36 bits ; cycle 12 m s, 2
cycles pour l’addition, 15 pour multiplier, arithmétique possible en virgule
flottante ; mémoire de 32 Kmots de
24 m s de temps d’accès ; lecteur de
cartes à 250 cpm et perforateur à 10
cpm ; imprimante ; dérouleurs à 7
pistes, 75 ips et 200 bpi ; canaux
d’E/S ; compilateur Fortran ; système
d’exploitation Fortran.
IBM 7090 : idem 709 mais à transistors ; cycle 2,18 m s ; mémoire 32
Kmots, 4,36 m s de temps d’accès ; 8
canaux ; système d’interruption ; dérouleurs 112,5 ips et 200/556 bpi ;
compilateur Fortran ; OS basique.
CDC 6600 : 1965-1975 ; transitorisé ;
mots de 60 bits ; cycle 100 ns ; mémoire à bancs indépendants de 128
Kmots et ta = 1 m s ; préchargement
d’instructions ; dix processeurs périphériques avec 4 Kmots de 12 bits ;
disque de 1 m de diamètre de 64
Mo ; dérouleurs 7 piste à 200/556/800
bpi et 14 pistes de 1 pouce et 800
bpi ; lecteur de cartes 1200cpm ; OS
Sipros abandonné au profit du
Chippewa COS, transformé ensuite
en Scope puis Cern Scope ; connexion à des systèmes SDS et IBM
1800 par des liaisons faites par le
Cern ; nombreux problèmes de fiabilité au départ.
CDC 3800 : 1966-1968 ; membre de
la famille 3000 incompatible avec la
famille 6000 ; mots de 48 bits ; mémoire 64 Kmots remplacée peu après
par une plus rapide à 800 ns de ta ;
vendu à la ville de Genève et installé
dans une université, il a été remplacé
au Cern par un CDC 6400 ; le Cern a
aussi acheté des CDC 3100 pour son
projet Focus et un 3200 pour des applications graphiques.
CDC 6400/6500 : 1967-1980 : le
6400 fait partie de la famille 6000
mais 40 % moins puissant que le
6600 ; il a été converti en 1969 en
6500 par l’adjonction d’un autre processeur; d’abord utilisé en back-up,
puis a servi de front-end du 7600 avec
un second 6400 ; en 80, ces deux
front-end ont été remplacés par les
CDC Cyber 170-720 et 730.
CDC 7600 : 1972-1984 ; mots de 60
bits ; cycle de 27,5 ns ; 1 mémoire de
ferrite de 64 Kmots à 275 ns de ta, et 1
autre de 512 Kmots à 1760 ns ; 12 registres de 60 bits pour contenir les
instructions préchargées ; addition en
10 ns, multiplication en 137,5 ns ; 15
processeurs périphériques ; OS
Scope 2 ; nombreux problèmes de
fiabilité durant deux ans, mais en 12
ans d’exploitation, il a marché 61.321
heures et traité quelque 6.681.378
jobs.
IBM 370/168-3 : 1976-1982 ; cycle de
80 ns ; mémoire réelle 4 Mo étendue
ensuite à 5 ; cache de 16 Ko ; unité
rapide de multiplication ; 4 canaux
puis 7 ; dérouleurs 9 pistes 1600 bpi ;
disques magnétiques ; fonctionnement sous MVS avec le JES2 pour les
travaux batch, et le système Wylbur/
Milten de gestion des terminaux au
nombre de 200 max.
IBM 3032 : 1978-1981 ; c’était un
370/168 repackagé et sans l’unité rapide de multiplication ; légèrement
moins rapide que le 168 ; mémoire
6 Mo ; 6 canaux internes ; utilisé en
front-end.
IBM 3081 : 1981-1985 ; modèle D au
départ ; mémoire 16 Mo ; cache
32 Ko ; 16 canaux ; deux processeurs
couplés fortement utilisant les modules TCM et les circuits TL ; il a soulagé les 168 et 3032 saturés ; évolution
du modèle D en K plus puissant en
1982, avec 24 Mo de mémoire et 24
canaux ; remplacé en 85 par un IBM
3090-200.
Siemens 7880 : 1982-1985 ; fabrication Fujitsu utilisant la technologie développée par Amdahl ; compatibilité IBM ; mémoire 12 Mo ; 16
canaux ; il a remplacé le 168 et
tournait sous MVS/JES2/Wylbur, secondant l’une manière transparente
le 3081.
N° 532/533 de Novembre/Décembre 2004
CDC Cyber 170/875 + 835 : 19831986 ; ils ont remplacé le 7600 ; tout
deux ont une mémoire de 1 Mo à 75
ns, le 875 ayant deux UC avec horloge 25 m s ; partage des disques et
dérouleurs ; OS NOS/BE ; deux fois
la puissance totale des précédents
CDC 7600 + 720 + 730 sous Scope
2 ; ces machines étaient peu fiables
comparées aux IBM et Siemens, et
elles ont été retirées dès 1986, marquant la fin de la collaboration du
Cern avec Control Data.
Siemens 7890S : à partir de 1985 ;
fabriqué par Fujitsu ; compatible IBM
; biprocesseur de la puissance du
3090-200 ; mémoire principale 64
Mo (puces 256 Kbits) ; double niveau de cache par UC de 64 Ko de
5,5 ns, et 512 Ko de 16 ns ; 32 canaux ; OS MVS/FES2/Wylbur puis
VM/CMS.
IBM 3090 : modèle 200 à partir de
1986, avec mémoire 64 Mo plus
256 Mo de mémoire étendue, cache
64 Ko pour chacun des deux processeurs en ECL d’horloge 18,5 ns,
avec arithmétique sur 64 bits ; évolution en mai 88 en modèle 400E avec
256 Mo de mémoire principale et
256 Mo de mémoire étendue ; en
septembre 88 adjonction de 4 processeurs vectoriels VF et 16 canaux,
en faisant un modèle 600E ; fin 88, la
capacité disque était de 200 Go, les
dérouleurs de bandes ont été remplacés par des dérouleurs de cassettes IBM 3480 à 18 pistes, 19.000 bpi
; OS passant de MVS à VM/XA.
DEC VAX 8600/8650/8700/8800 : à
partir de 1985, mais le premier Digital a été en fait un VAX 11/780 en 82
dédié aux bases Oracle et Euclid ;
en 85, remplacé par trois VAX 8600
en cluster sous VMS ; en 87 extension avec un bi processeur VAX 8800
(mémoire 96 Mo) et trois 8650 ; ce
service VMS a servi jusqu’à 3000 utilisateurs, partageant 18 dérouleurs et
50 Go sur disques.
Cray X-MP/48 : à partir de 1988 ;
horloge de 9,5 ns ; 4 UC ; 8 Mmots de
64 bits de mémoire principale et 128
Mmots de mémoire secondaire ; 6
dérouleurs IBM 3480 et 48 Go sur
disques ; accès des utilisateurs via
les IBM VM/CMS et VAX VMS.
E&R - Page 13
d’une mémoire de masse, de dérouleurs de bandes fiables, et d’une capacité de servir en temps
partagé de nombreux utilisateurs grâce au logiciel Wylbur.
Avec ses grosses machines, le Cern a compris la
nécessité d’utiliser de plus petites pour les tâches auxiliaires, de décentraliser et de séparer
les fonctions, ce qui a été facilité par les progrès
de l’électronique. Aussi de multiples minis, stations de travail et terminaux ont fait peu à peu
leur apparition, préfigurant l’ère des micros. Ainsi
il faut signaler qu’en 1982 Digital Equipment a
fait une entrée en force avec ses PDP et Vax, au
point qu’on en comptait plus de 300 à la fin des
années 80.
Toujours plus puissant
La révolution annoncée des petites machines ne
s’est pas faite immédiatement. Les besoins de
calculs générés par les collisionneurs de particules ont imposé l’installation d’ordinateurs de plus
en plus gros. La ligne IBM s’est agrandie considérablement au cours des années 80, avec les
séries des 3032, 3081, 3090, et certains Siemens
compatibles dont les 7880 et 7890, qui tous
étaient des améliorations physiques des précédents, avec des circuits de plus en plus intégrés,
des mémoires plus grandes, des périphériques
plus rapides, etc.
La même évolution a eu lieu du côté de Control
Data avec les Cyber 170/720/730/835/875, avec
moins de succès cependant car ces machines
souffraient de quelques défauts. Et surtout, le
départ du concepteur maison, à savoir Seymour
Cray, a considérablement affaibli la position de la
firme.
Les physiciens avaient plus confiance en Cray
qu’en Control Data, dont les machines ont été
abandonnées au profit de celle de Cray, si bien
qu‘en janvier 88 le superordinateur Cray X-MP a
été installé. Il n’était pas le plus puissant des ordinateurs en scalaire, mais, travaillant en virgule
flottante, il avait des performances étonnantes en
vectoriel. Parallèlement d’ailleurs, pour explorer
encore plus l’approche vectorielle des problèmes,
six processeurs VF spécialisés étaient installés sur
l’IBM 3090-600.
L’ère des micros
En plus des minis, stations et terminaux, les micros ont commencé leur timide apparition dans
cette décennie 80, décidément fertile en nouveautés. Le premier IBM PC a été mis en service
en 83, suivi peu à peu de beaucoup d’autres au
cours des ans. En 90, on comptait quelque 2000
micros, des IBM comme des Olivetti compatibles
ou encore, bien sûr, des Apple Macintosh qui ont
gagné plus de terrain que les autres.
La progression des micros, du fait de leur versatilité et de leur potentiel grandissant, a été exponentielle, comme on s’en doute. Au point que
maintenant leur puissance dépasse celle des ordinateurs et même des superordinateurs d’antan
qui ont été arrêtés progressivement. Par exemple,
l’IBM 3090 a été déménagé en 1996, quarante
ans exactement après l’arrivée du Ferranti. Finies
les grandes salles bourrées de systèmes !
L’ère moderne est aujourd’hui aux réseaux interconnectant les ordinateurs, les serveurs, et particulièrement les micros, qui n’ont d’ailleurs rien
de micros à part leur taille. Le Cern a été à l’origine de bien des interconnexions (dont Internet)
pour résoudre ses problèmes d’échanges de
données. Maintenant, son grand projet est de
mettre au point une Grille de Calcul, un super
réseau d’ordinateurs, petits ou grands, travaillant
ensemble pour résoudre les énormes besoins
(entre autres) de traitement du futur grand collisionneur de hadrons (LHC) qui sera opérationnel
en 2006. Ce ne sera alors plus un ordinateur, ou
même un complexe local d’ordinateurs qui
œuvrera sur un problème, mais des milliers ou
centaines de milliers. On retrouve là le principe
de la Toile appliqué au traitement des données et
non plus seulement à leurs échanges. Pour le
Cern (mais la Grille intéresse bien d’autres organismes), sa puissance de calcul sera ainsi multipliée par 1000 en 2006, et sans doute 10.000
cinq ans après.
TOUTE L'ÉQUIPE D'E&R
VOUS SOUHAITE
UNE BONNE ANNÉE 2005 !
E&R - Page 14
N° 532/533 de Novembre/Décembre 2004
LIVRE
▼ LES RÉSEAUX 802.11
Les lignes ci-dessous sont extraites du livre "WiFi : principes de base et sécurité", éditions ENI,
collection Technote (120 pages, env. 10 euros). A
travers les cinq chapitres de cet ouvrage sont
abordés la topologie, l'architecture et les composants mais sans entrer dans des détails techniques.
leur connectivité au réseau. Enfin, l’ensemble des
communications profite d’un niveau de sécurité
lié au chiffrement des communications en transit
sur la voie radio.
Un réseau de données sans fil peut être assimilé
à un moyen de connecter des équipements informatiques mobiles entre eux ainsi qu’à un réseau
filaire de type Ethernet.
Dans ce chapitre nous allons présenter les topologies de réseau sans fil et les principes de base
du fonctionnement.
"Le nombre de réseaux sans fil est en constante
progression. Ce phénomène est probablement lié
aux besoins de mobilité des utilisateurs, évoluant
en raison de l’utilisation de plus en plus courante
des ordinateurs portables et des assistants personnels.
Dans la famille des réseaux mobiles, la normalisation IEEE 802.11 a joué le rôle d’un déclencheur,
même si son démarrage a été tardif puisque la
norme est née en 1997 et le marché a vraiment
décollé au cours de l’année 2001 aux Etats-unis
et 2002 en Europe.
Aujourd’hui, en ce milieu d’année 2003, les composants sont devenus accessibles au grand public et les premiers points d’accès publics ont été
acceptés par l’autorité de réglementation des télécommunications en France...
De plus, le label Wi-Fi mis en place par le
«Wireless Ethernet Compatibility Alliance» a joué
un rôle de catalyseur, en poussant les produits
sans fil des constructeurs à devenir
interopérables et, de ce fait, à respecter plus fidèlement la normalisation. Les problèmes d’incompatibilité entre les équipements, rencontrés il y a
quelques années, lors de l’installation des premiers réseaux Ethernet de grande taille, ont donc
été fortement atténués par l’adoption massive du
label Wi-Fi. Aujourd’hui, il n’existe pratiquement
aucun problème lors de la mise en place d’équipements de marques différentes au sein d’un nouveau réseau, pour peu que le label Wi-Fi soit présent sur l’emballage.
Topologie
Les composants de base d’un réseau sans fil assurent la connexion de stations mobiles entre elles d’une part et leur connexion au réseau filaire
d’autre part. Chaque station mobile est équipée
d’une interface spécialisée, capable d’apporter la
connectivité au niveau du réseau radio et de proposer aux couches supérieures, des trames au
format Ethernet. Il existe plusieurs types d’interfaces physiques conformes à la norme 802.11, les
plus courantes sont à connecter sur les équipements mobiles. On trouvera donc principalement
des interfaces utilisées en micro-informatique,
comme le PCMCIA et l’USB. Les constructeurs
d’équipements ont annoncé la mise en place en
standard d’une interface Wi-Fi, sur leurs équipements haut de gamme. Ceci devrait rendre la
mobilité encore plus accessible par une adoption
tacite de la technologie liée à l’outil informatique.
Le second équipement principal, dans une architecture sans fil, permet l’interconnexion entre le
réseau filaire et les stations mobiles. Il s’agit d’un
équipement appelé point d’accès, ou «access
point » dans les documentations anglo-saxonnes.
Cet équipement joue un double rôle, d’une part il
gère les stations présentes dans sa couverture
radio et d’autre part, il agit en tant que pont entre
le réseau filaire Ethernet et le réseau sans fil.
Alors, qu’est-ce qu’un réseau
de données sans fil ?
il s’agit, dans le cas qui nous intéresse, de l’extension sur une voie radio d’un réseau local de
type Ethernet. L’objectif premier de ce réseau et
donc d’acheminer des trames de données jusqu’à
des stations ou des équipements distants, sans
que ceux-ci ne soient raccordés physiquement à
un réseau filaire. Les réseaux sans fil offrent, en
complément du transport de trames, la possibilité
pour les stations de se déplacer tout en gardant
C’est le plus simple des réseaux sans fil puisqu'il
peut se construire avec seulement des stations
mobiles, un minimum de deux. C'est la raison pour
laquelle on nomme ce réseau "ad hoc" ou "point à
point".
c’est la solution qu’il faut adopter lorsqu'aucune
connexion à un réseau filaire n'est nécessaire.
On gardera donc ce type de topologie pour
l'échange de fichiers ou d'informations dans des
lieux dépourvus de toute autre connectivité,
comme il est également possible de faire avec les
N° 532/533 de Novembre/Décembre 2004
Le réseau "ad hoc"
E&R - Page 15
liaisons en infrarouge. L'avantage principal par
rapport à l'infrarouge et de pouvoir mettre en relation plus de deux terminaux informatiques.
La qualité des antennes présentes dans les cartes des stations mobiles n’étant pas toujours élevée et leur puissance limitée, la dimension d’un
réseau ad hoc sera limitée tant en distance qu’en
capacité à franchir des obstacles. (...)
Le réseau d'infrastructure
On appelle réseau d'infrastructure un réseau
sans fil dans lequel au moins un point d'accès est
présent. ce point d'accès peut être connecté à un
réseau filaire, mais ce n'est pas impératif. Chaque
client sans fil va établir une relation avec le point
d'accès qui devient de ce fait le point central du
réseau sans fil. L'ensemble des trames transitant
sur le réseau sans fil va passer par le point d'accès, même s'il s'agit d'une communication mettant
en relation deux stations mobiles connectées au
même point d'accès. Dans l'hypothèse où le point
d'accès serait lui-même connecté à un réseau local filaire de type Ethernet, il devient la passerelle
permettant la connectivité entre les stations sans
fil et le reste du réseau."
SHOPPING
MATERIELS
▼ DIMAGE X50
(KONICA MINOLTA)
Les sociétés Konica et
Minolta ont fusionné
en 2003, donnant logiquement naissance
au groupe Konica
Minolta dont le chiffre
d’affaires prévisionnel
2003/04 est estimé à
11 milliards de dollars
U.S. Sa branche image -qui constitue le troisième
groupe mondial mais ne représente qu’un peu
plus de 13% de son CA- comprend 38 500 salariés dans le monde dont 150 pour l’Hexagone.
Voici un de leur dernier modèle d’appareil photo
numérique. Design élégant, petite taille
(83,5x62x23,5 mm), prestations de qualité, le
Dimage X50 part avec de bons atouts. Ainsi, il
possède une résolution de 5 mégapixels permettant des tirages de très grande taille (jusqu'au A3),
un zoom optique interne de 2,8x (4,3 en digital),
une fonction macro à 6 cm, quelques petites fonctions courantes (mode noir & blanc ou sépia, la
réduction yeux rouges...), ou ludiques comme l’incrustation de cadres (bulle, cœur, nounours…),
l’effet mosaïque (avec un déclenchement de 9
photos consécutives) ou un mode rafale très rapide de 11 images en 1 seconde (mais avec une
résolution de 1,2 MP).
Sa compacité est dû à son zoom optique innovant
qui n’est pas externe mais qui se déplace à l’intérieur de l’appareil. Il fonctionne grâce à une pile
au lithium rechargeable (en 1H30 environ) qui
vous contraints lors de vos longs déplacements à
E&R - Page 16
emmener votre chargeur. Le Dimage X50 existe
en trois couleurs : argent, bleu marine et rouge et
ne nécessite pas de logiciel d’installation (excepté
sous W98) en étant reconnu comme un lecteur
de disque amovible. L’appareil est commercialisé
avec une carte SD 16 Mo, qui révélera vite ses limites puisqu’elle ne vous permettra de ne prendre que 5 photos en haute résolution ou 21 secondes de film, un peu court pour des souvenirs
de vacances ! Sa prise en main et son fonctionnement sont aisés. Un léger reproche, l'abondance de petites musiques pour la mise en route,
la mise au point, la prise de vue, le zoom, etc.
mais qui peuvent heureusement être désactivées
partiellement ou en totalité. Env. 330 €.
▼ HP PHOTOSMART R707
(HEWLETT PACKARD)
Cet appareil numérique d'une résolution équivalente au précédent (5,1 MP) est destiné en premier lieu à l’amateur exigeant. Le HP R707 est livré sans carte mémoire mais il en possède une en
interne de 32 Mo qui vous permettra de prendre
de 10 (en 5 MP) à 191 photos (faible résolution
VGA). Ensuite, libre à vous d’investir dans une
carte mémoire de votre choix. Côté technique, il
possède un zoom optique 3X et numérique 8X, dix
modes de prises de vues (action, paysage, portrait, coucher de soleil, neige, panorama, document, nuit, macro ou infini) et pour les utilisateurs
avertis la possibilité de débrayer en mode totalement manuel ou partiel (priorité vitesse ou ouverture). Le mode panorama est d’ailleurs très pratique puisqu’il décale automatiquement l’image vers
la gauche en gardant les contours du paysage.
L’utilisateur n’a qu’à réaligner ses contours pour
être sûr d’avoir une photo panoramique exacte.
De même, on peut retoucher directement les ef-
N° 532/533 de Novembre/Décembre 2004
fets yeux rouges sur l’écran LCD de l’appareil et
indiquer si la photo sera imprimée, envoyée par email ou stockée dans un album. Lorsque l'appareil
est branché sur un PC, le tri des photos est fait
automatiquement en fonction des indications saisies en amont. Le HP R707 fonctionne sur une
batterie lithium ion rechargeable (7h pour un
rechargement complet !).
Cet appareil photo assez compact possède donc
de belles possibilités. Notamment l’éclairage ALT
auto-adaptif qui permet de « déboucher » les zones d’ombres en leur donnant plus de luminosité.
Pour l’utilisateur débutant dans le numérique, dix
conseils peuvent être consultés directement sur
l’écran LCD. Seuls petits défauts : nous l’avons
trouvé un peu limité en effets spéciaux (juste un
mode rafale et retardateur deux photos) et le système vidéo n’est pas très pratique car il s’enclenche dès que l’on passe de la photo vers la vidéo.
De plus, on ne peut pas zoomer en filmant. Env.
279 euros pour le HP R707. Compter 79 euros
pour la station d’accueil.
▼ ZEN TOUCH (CREATIVE LABS)
Les ventes mondiales de lecteurs
audio numériques de Creative
Labs ont dépassé les 2 millions
d’unités pour le dernier trimestre
2004 et générées un revenu
de 360 millions de $ sur la simple gamme MP3 (45% de progression) sur la même période. Le revenu global de
Creative a ainsi progressé
de 325 millions de $ grâce
aux ventes de lecteurs
audio numériques.
Le Zen Touch est un sérieux concurrent à l’iPod d’Apple puisqu'il peut engranger
quelques milliers de morceaux musicaux en MP3
(5 000 titres à 128 kbps), WMA (10 000 titres à 64
kbps), ou WAV (mais aussi des données) sur son
disque dur de 20 Go . Compact, il pèse 200 g environ -batterie comprise- et mesure 10,5 (H) x 6,8
(L) x 2,2 (P) cm.
Sa principale innovation est concentrée sur son
pavé tactile, le TouchPad, qui fonctionne par effleurement et vous permet de faire défiler bibliothèque, album, titre, auteur, genre... Il vous faudra
cependant enlever vos gants pour être obéi pendant l’hiver ! Mais le pavé tactile ne remplace pas
toutes les touches. Placés sur chaque côté et sur
la tranche, on retrouve des boutons plus classiques comme : morceau musical suivant/précédent, pause, menu général, niveau sonore et interrupteur marche/arrêt.
N° 532/533 de Novembre/Décembre 2004
L’utilisation de ce jukebox audio est assez simple et
vous pouvez soit utiliser le convertisseur audio
fourni par Créative pour passer vos fichiers audio
en MP3, WAV, ou WMA puis utiliser le NOMAD Explorer pour transférer ses fichiers vers le Zen
Touch ou utiliser vos propres logiciels et glisser les
morceaux en vrac dans la bibliothèque musicale.
Pour ceux qui aiment télécharger leur musique, ce
produit est compatible avec Windows Media DRM.
Ensuite, il ne vous reste plus qu’à profiter de votre
musique. En passant par le menu de sélection,
vous pourrez décider d’écouter un seul artiste,
genre musical ou album… ou tout simplement
écouter les titres un par un ou laisser faire le hasard. La suppression ciblée se fera par ce même
menu sans passer par un PC.
Sa batterie possède une autonomie de 25h et elle
est rechargeable en 4 heures environ via l’adaptateur secteur ou le port USB de votre ordinateur.
Un seul regret : pas de radio qui est groupée en
option avec la télécommande et le dictaphone
(compter 69 euros de plus). Disponible en 10 couleurs et livré avec une paire d’écouteurs, une sacoche, l’adaptateur secteur universel et un câble
USB. Config. : W98/SE/Me/2000/XP, PII 233 MHz,
64 Mo de Ram, DD : 30 Mo. Env. 289 € TTC.
▼ TRAVELSOUND 200
(CREATIVE LAB)
Ce produit est le parfait complément du précédent et
transforme votre Zen
Touch en microchaîne de
voyage. Ce mini hautparleur stéréo monobloc
vous permettra de ne plus
écouter votre musique en
solitaire mais d’en faire profiter
vos amis et cela sans trop casser les
oreilles de vos voisins puisqu’il ne développe que 2x2 Watts pour une puissance sonore
inférieure à 80 décibels. En absence de
ZenTouch, vous pourrez toujours y adapter votre
baladeur classique, ordinateur portable, clef USB
musicale ou n’importe quel lecteur audio pourvu
d’une sortie casque. Mais compacité rime avec
qualité puisque les membranes des deux hautparleurs sont en titane et que le TravelSound 200
est pourvu d’une fonction « Normalizer » pour
équilibrer le volume sonore entre les différentes
pistes audio. Peu gourmand en énergie, il fonctionne avec 4 petites piles rondes type AA qui lui
donnent une autonomie de 25 heures. Facile à
emporter, à mettre en marche, il est livré avec
une housse de transport et ne coûte que 69 €.
E&R - Page 17
PLAYSTATION 2
▼ ROGER LEMERRE :
LA SÉLECTION DES CHAMPIONS
2005 (CODEMASTERS)
Le football comptant plus de pays membres que
l’ONU (192 pays et 200 millions de pratiquants), il
est normal que ce sport n°1 soit largement exploité virtuellement. Voici donc un produit pour
ceux qui veulent s’essayer au management d’un
club. Avec une base de données de plus de 800
clubs, 20 000 joueurs et 31 pays, il vous faudra
dans un premier temps sélectionner l’équipe que
vous souhaitez diriger puis vous attaquer aux statistiques nombreuses et variées pour gérer votre
club, salaire des employés compris. Si vous souhaitez aller plus loin que la simple gestion par tableau, vous pouvez -si vous le désirez- prendre
part au match du banc de touche en donnant des
ordres à vos joueurs sur leur façon de jouer ou
leur tactique. Vous vous apercevrez alors que la
gestion d’un club ce n’est pas que de l’argent,
c’est aussi gérer la personnalité et les humeurs
de chacun et il vous faudra moduler vos paroles
et actions en fonction de l'ancienneté de vos
champions. Env. 60 €.
▼ CLUB FOOTBALL 2005
(CODEMASTERS)
Ce jeu est à réserver en premier lieu aux fans
des frères ennemis que sont l’OM et le PSG. Il
leur permettra de participer à de vrais matchs de
leur équipe préférée sans faire les gros titres des
journaux avec des fins de partie gâchées par des
excités de tout poil. Les supporters retrouveront
leurs sportifs modélisés et peuvent en mode Carrière créer leur propre joueur et tenter de le mener au plus haut niveau. Possibilité de rejouer les
plus grands matchs à un moment précis ou d’en
inventer des inédits en choisissant son niveau de
difficulté avec dix angles de vue différents, des
plans rapprochés ou des ralentis totalement contrôlables et un moteur accéléré et un gameplay
rapide. Env. 60 €.
▼ SPIDER-MAN 2 (ACTIVISION)
Après un premier épisode très réussi des aventures de l’homme-araignée, en voici la suite. Comme
le dit si bien notre héros : « Un grand pouvoir implique de grandes responsabilités » et du coup
vous n’aurez pas une minute pour souffler entre
vos objectifs prioritaires et secondaires. Les prioritaires sont des missions qui doivent parfois être
E&R - Page 18
réalisées dans un temps donné et les secondaires sont des petits délits, certes en option, mais
qui vous rapporterons des points vous permettant
d’acquérir des pouvoirs supplémentaires. Attention, si vous échouez, vous pouvez aussi en perdre. L’action se situant à New-York, vous sautez
de toit en toit, ou vous vous balancez, grâce à
votre fil, d’immeuble en immeuble. Les objectifs
prioritaires sont variés et certains individus vous
donnerons du fil à retordre, par contre les missions secondaires ont tendance à tourner en
rond et on se retrouve à aller sauver plusieurs
fois le même homme accroché au toit d’un immeuble ! Pour arrêter les bandits, vous pouvez
vous servir de votre toile pour les ficeler momentanément ou de vos poings en enchaînant les
coup de pieds, de poings et les esquives.
Le graphisme n’est certes pas époustouflant mais
comme vous êtes toujours en train de courir de
gauche et de droite, vous n’aurez pas toujours le
temps d’admirer le paysage. Env. 57 €.
▼ LES INDESTRUCTIBLES (THQ)
Depuis son accord de licence
en 2002 avec les studios
Disney et Pixar, THQ a déjà
transposé sur les consoles et
PC quatre films : 1001 pattes,
Toy Story, Monster & Cie, Le
Monde de Nemo (6 millions
d’exemplaires vendus dont
320 000 en France). Les Indestructibles constitue donc
leur cinquième adaptation qui sera suivie de beaucoup d’autres puisqu’un nouvel accord concerne
les quatre prochains films des studios Pixar.
Les Indestructibles, c’est une famille hors-norme
constituée des parents Bob et Hélène (alias Mr Indestructible et Elastigirl) et de leurs trois enfants :
Violette, Flèche et Jack le bébé. Chacun d’entre
eux possède des super-pouvoirs (force, souplesse, invisibilité, vitesse) et si les parents ont un
temps sévi en tant que super héros, depuis qu’il y
a quinze ans un décret gouvernemental a interdit
ce type d’activité, ils se doivent de rester discrets
et de vivre une existence anonyme. Mais un jour,
un appel mystérieux d’un laboratoire pousse Mr
Indestructible à sortir de l’ombre sans savoir qu’il
s’agit en fait d’une machination de Syndrome,
ennemi juré de tous les super-héros. Pour sauver
sa famille, mais aussi la planète, Mr Indestructible
devra faire appel à tous ses super-pouvoirs aidé
en cela par sa femme et ses deux aînés. Voilà
pour le film. En ce qui concerne le jeu, il s’agit de
franchir 18 niveaux en utilisant alternativement les
N° 532/533 de Novembre/Décembre 2004
pouvoirs des quatre membres de la famille et surtout en éliminant moult sbires du méchant Syndrome.
Le graphisme est soigné et le fait de changer de
personnage à chaque niveau permet de varier les
phases de jeu. On regrette cependant qu’une
bonne partie de l’action consiste à taper sur les
sbires de Syndrome et que l’enchaînement des
niveaux ne soit pas toujours très logique bien
qu’entrecoupés d’extraits du film. Env. 49 €.
▼ CATWOMAN (EA GAMES)
Voici le pendant féminin de Spiderman porté sur
console et qui voit le jour en même temps que le
film du même nom. Mais si l’homme-araignée est
un modèle d’honnêteté, la belle est surtout réputée
pour son art du larcin de beaux bijoux. Si le graphisme (tant du personnage que de l’environnement) et les dialogues sont très réussis, du point
de vue des déplacements et de l’angle de caméra
de notre féline héroïne, c’est tout le contraire ! En
effet, la plupart du temps, vous ne savez pas où
vous mettez les pieds et n’avez aucune vue frontale. Pas facile de progresser dans ces conditions
malgré le système d’aide qui vous indique les actions à faire. Résultat : rares seront ceux qui auront
la patience d’aller jusqu’au bout. Env. 57 €.
▼ DRIV3R (ATARI)
Voici le troisième épisode d’une série qui s’est déjà
vendue à plus de 12 millions d’exemplaires de par
le monde. Vous êtes Tanner, un agent d’infiltration
d’un genre un peu particulier. Vos méthodes sont
musclées et même radicales. Votre aventure démarre à Istanbul, où vous êtes entre la vie et la
mort à l’hôpital après une fusillade nourrie. De là,
par un flash back de 6 mois en arrière, vous vous
retrouvez à Miami pour reprendre l’histoire à son
début. Vous pouvez alors sillonner la ville en tout
sens à pied, en hors-bord, à moto ou mobylette, et
évidemment avec un large éventail de voitures en
commençant par la vôtre (70 véhicules contrôlables). Votre mission sera de démanteler un réseau
international de trafics de voitures. Votre progression est aisée et s’effectue par le biais de missions
diversifiées : course poursuite, sabotage, filature…
Pour retrouver un état de santé éclatant ou pour
réparer votre moyen de transport, des trousses de
secours sont disséminées un peu partout. Les graphismes sont bien réalisés bien que parfois un peu
austères, la bande son est par contre omniprésente et colle bien à l’action. Dommage que les déplacements de Tanner soient un peu secs et que
l’intelligence artificielle de l’ennemi ne soit pas plus
développée car si l’on échoue dans un niveau, il
N° 532/533 de Novembre/Décembre 2004
n’y a plus aucun effet de surprise, ceux-ci se retrouvant exactement aux mêmes endroits. Env. 50 €
Pour les nostalgiques de l'Atari 2600 : A noter
qu'Atari doit sortir prochainement un produit PS2
et XBox baptisé "Anthology" qui réunira 85 jeux
d'arcade, d'aventure, d’action, de sport, d’esprit,
de casino, de course et d’espace comme
Asteroids, Battlezone, Missile Command, Pong,
Gravitar, Millipede et Super Breakout...
▼ MEGAMAN X7 (CAPCOM)
Cette version est la suite de nombreuses autres
mais la première sur PS/2. Elle peut parfaitement
se jouer indépendamment. Pour résumer, l’action
se passe dans le monde des Réploïdes où la criminalité est un véritable fléau. Pour y remédier, il
existe la 17e unité de Chasseurs de hors-la-loi
avec à sa tête Megaman X. Mais d’une nature
pacifiste, celui-ci a quitté les rangs. L’unité a alors
été secondée par le Syndicat Alerte Rouge. Mais
un trouble-fête nommé Axl vient semer la zizanie.
Votre but est de le libérer de l’emprise du Syndicat
en exterminant les Mavericks et en utilisant alternativement les particularités de vos héros :
Megaman X, Zero (son ami de toujours) et l’énigmatique Axl. Vous allez progresser pas à pas
dans des décors en 2D ou en 3D de qualité assez
inégales et devoir batailler ferme pour arriver au
bout de votre aventure. Version anglaise sous-titrée en français mais qui comporte beaucoup
d’erreur typographique. Env. 60 €.
▼ CHAMPIONS OF NORRATHS
(UBI SOFT)
Les orques et les Gobelins se sont alliés pour
vaincre le royaume de Faydwer. Son roi décide de
recruter toutes les bonnes volontés qui voudront
combattre au côté de son armée. Pour entrer de
plain pied dans cette bataille, il ne vous reste plus
qu’à sélectionner votre personnage (homme ou
femme) : guerrier barbare, elfe sylvestre, prêtre,
sorcier, elfe noir. Chacun a ses forces et ses faiblesses. Le guerrier sera excellent pour le corps à
corps mais dénué de tout sort, à l’inverse du sorcier. Vous pourrez même le personnaliser davantage par sa couleur de peau et de cheveux
(coupe comprise). Il ne vous reste plus qu’à explorer le royaume de Faydwer au gré de vos missions et à exterminer un maximum d’ennemis en
ayant pour but suprême de trouver et éliminer
leur chef, un orque d’exception. Voici un produit
intéressant à plus d’un titre puisque vous pouvez
d’une part choisir votre créature, la faire évoluer
par des points de compétence et même l’emmener à se spécialiser. Vous pourrez l’équiper de
E&R - Page 19
pied en cap tout au long de l’aventure en ramassant des vêtements, armes et pièces d’or sur les
corps de vos ennemis, en gardant le meilleur
pour vous et en revendant le reste. D’autre part,
ce produit bénéficie d’une réalisation très soignée
tant au niveau graphique que sonore avec des
dialogues expressifs. Autre attrait de ce produit :
son mode multijoueur permettant à 4 personnes
de jouer simultanément -mais en restant groupées- directement sur la console ou via internet.
A noter qu’une fois l’aventure menée à son terme
en niveau débutant, vous pourrez la refaire en totalité à l’échelon supérieur et pour ceux qui en redemandent encore une troisième fois en mode
champion ! Env. 52 €
PC
▼ DORA EXPLORATRICE :
LES AVENTURES DE SAKADO
(ATARI)
Destiné aux petits à partir de 2 ans, ce produit estampillé Dora -héroïne du petit écran- possède
nombre de jeunes admiratrices de par le monde.
Le but de cette aventure interactive est d'aider la
demoiselle et son fidèle ami le singe Babouche à
rejoindre la bibliothèque pour rendre les livres empruntés. En chemin, le jeune utilisateur devra effectuer de petites missions, résoudre des énigmes
et en profitera pour bénéficier d'une petite initiation
à l'anglais. Trois niveaux de difficultés. Les plus
petits adorent le personnage et ces produits dérivés. En voici un supplémentaire qui leur permettra
de prolonger le plaisir de jouer avec Dora. Certains
parmi les plus assidus seront déçus que Chippeur
le renard ne soit pas plus présent.
Config. : W98/Me/XP, PII 233 MHz, 32 Mo de
Ram, DD : 100 Mo, CD 8x. Env. 30 €.
▼ CHANSONS & COMPTINES
INTERACTIVES (GÉNÉRATION 5)
Voici un CD-Rom plein de fraîcheur, idéal pour les
2/4 ans. Toutes les comptines et chansons ont été
créées par Anny et Jean-Marc Versini qui ont à leur
actif une trentaine de CD et près de 600 chansons.
Les petits pourront découvrir 12 chansons et
comptines et choisir de suivre les vidéos à l'écran
en imitant les gestes des autres enfants filmés
mais aussi s'initier à l'alphabet, aux chiffres (de 1 à
20), réaliser des puzzles au gré des saisons, faire
travailler sa mémoire visuelle et sonore à l'aide
d'un jeu de carte à retrouver par paire (de 4 à 12
cartes suivant le niveau de difficulté), aller à l'atelier de peinture et colorier l'un des 21 dessins pro-
E&R - Page 20
posés et même l'imprimer. Toutes ces activités ont
en fond sonore des comptines et certaines possèdent une fonction karaoké. Un graphisme réussi et
une belle ambiance pour un cadeau tout doux (env.
25 €) qui ne nécessite pas d'installation sur le disque dur. Vendu avec le CD audio des 12 chansons.
▼ MYST 4 (UBI SOFT)
Pour mémoire, le premier épisode
de cette saga sorti en 1993 s’est
vendu à 6 millions d’exemplaires
de par le monde. Il constituait à
l’époque une révolution tant par
son ambiance que par son graphisme et son mode de fonctionnement par résolution d’énigmes.
Pour les néophytes, il s’agit des aventures d’un
homme et de sa famille dans des mondes (baptisés « âges ») parallèles créés par le chef de famille nommé Atrus et dont la description complète
se trouve dans des « livres de liaison ». Mais totalement préoccupé par son écriture, Atrus en
oublie sa famille. Ses deux fils se révoltent en
pillant et détruisant les âges les plus précieux et
en tentant d’éliminer leur père. En guise de châtiment, celui-ci les enferment dans deux mondesprisons séparés et brûle les livres susceptibles de
les ramener. Ce cinquième volet constitue le
temps de la réflexion et peut être du pardon. La
grande nouveauté de ce Myst 4 par rapport aux
épisodes précédents est la richesse de sa faune
étrange et l’interaction possible avec des personnages. Si les paysages des autres versions
étaient un peu type papier glacé, ce n’est plus le
cas aujourd’hui. L’utilisateur est réellement immergé dans un monde fantastique à 360° qui lui
en ferait oublier la réalité ! L’environnement sonore est du même niveau que le graphisme
(grand orchestre et musique de Peter Gabriel) et
des vidéos viennent compléter le produit. L’incrustation des personnages réels dans les décors est
parfaite. On apprécie aussi leur justesse de ton.
Les énigmes à résoudre sont toujours aussi ardues mais fort heureusement pour celui qui patauge, un système d’aide à trois niveaux est là
pour le remettre sur le bon chemin. Les habitués
de cette série culte multimédia seront une nouvelle fois plus que comblés et les petits nouveaux
se mordront les doigts d’avoir raté les volets précédents ! Enfin, ce produit demande une bonne
configuration (8 Go de programme !) et un lecteur
DVD pour en apprécier toutes les subtilités
multimédias.
Config.: lecteur DVD, Pentium III 700 mhz, 128
Mo Ram, DD : 8 Go. Env. 50 €
N° 532/533 de Novembre/Décembre 2004
▼ VAMPIRE, THE MASQUERADE
BLOODLINES (ACTIVISION)
Déconseillé aux moins de 18 ans, ce produit est à
réserver aux amateurs d’univers vampirique. L’action se déroule de nos jours, à Los Angeles. Vous
pénétrez dans le monde des Ténèbres et devez au
départ choisir votre clan : Nosferatu, Gangrel,
Brujah, Toreador, Malkavian, Tremere ou Ventrue.
Chaque clan possède ses spécialités. Alors que
certains sont des combattants, d’autres excellent
dans l’art de la discrétion, des déplacements rapides, de la magie ou du contrôle de l’esprit. Tout ce
petit monde ou presque est régi par un code : la
Mascarade, dont la règle première est de ne jamais
montrer ses pouvoirs aux humains, de ne les pas
tuer et ne pas être surpris en flagrant délit de boisson de sang par l'un d'entre eux. Le but du jeu est
de faire progresser votre personnage soit en le
rendant polyvalent ou spécialisé tout en tenant
compte en permanence de votre état de santé par
un apport de sang frais (humain ou animal). Un
graphisme très sombre mais réussi et une ambiance sonore à vous glacer le sang ! Version anglaise sous-titrée en français.
Config. : PIII 1,2 GHz, 384 Mo de Ram, W98/ME/
2000/XP, CD 4x, DD : 3,3 Go, carte accélératrice
3D. Env. 55 €.
▼ WORMS FORTS :
ETAT DE SIÈGE (SEGA)
Ce produit est plutôt destiné
à ceux qui ont suivi son évolution depuis le début,
d’abord en 2D puis en 3D. Il
s’agit d’un jeu de stratégie
humoristique à deux ou quatre équipes qui joue à tour
de rôle et dans un temps limite (paramétable). Cette
fois, vous n’êtes ni un super-héros, ni un soldat
musclé mais un simple ver de terre qui devra lutter
à travers les âges et vingt niveaux (Egypte antique, Samouraïs, Chevaliers de la table ronde…)
pour protéger et conserver son fort. Non seulement, il vous faudra lutter contre l’ennemi mais
aussi construire des bâtiments, élever des murailles ou des tourelles et édifier une forteresse
imprenable. A votre disposition, une trentaine
d’armes différentes : du bazooka au napalm en
passant par les tempêtes électriques ou un laser
géant, sans oublier une catapulte qui vous permet
d’envoyer à peu près tout et n’importe quoi sur
l’ennemi (en tenant compte du vent) : singe, rhinocéros, canari de 300 kg ou hippopotame... Le
graphisme est très agréable mais le néophyte
N° 532/533 de Novembre/Décembre 2004
sera peut être un peu perdu dans les nombreuses touches à utiliser (une vingtaine). Mieux vaudra pour lui faire un détour par le Didacticiel afin
de mieux maîtriser ses lombrics. A noter que ce
jeu est disponible sur PS2 et X Box et qu'il peut se
jouer en réseau.
Config. : W98/2000/XP, PIII 1 Ghz, 256 Mo de
Ram, CD 8x, DD : 800 Mo. Env. 35 €
LIVRES
MICRO-APPLICATION
Collection Je me lance
Série d'ouvrages spécial débutant de 240 pages.
Chaque manuel est en couleur et écrit en gros caractères. Ils sont en deux parties : la première contient des fiches pratiques, la seconde des cas concrets à réaliser. Pour s'initier pas à pas à : Excel
2003, Access 2003, Word 2003, Photoshop CS,
Windows XP (205 pages). Env : 14,95 €
Collection Guide MicroApp
En trois parties : utilisation du produit, coin des
passionnés et fiches pratiques. 192 pages.
iPod&itunes pour Mac&Windows : présentation
du baladeur, de la boutique musicale iTunes, utiliser iPod avec sa chaîne HI-FI...
SPIP : pour créer son site web communautaire.
After Effects 6.5 : créations d'animations et d'effets spéciaux.
Encore DVD 1.5 : pour réaliser un DVD avec
Adobe Encore DVD 1.5. Env : 9,95 €
Collection Dossier
DVD Trucs de Pro (800 pages, env. 24.50 €)
Windows XP-SOS dépannage (500 pages, env.
24.50 €)
SPIP (500 pages, env. 24.50 €)
Collection Super Poche
Dreamweaver MX2004 (400 p., 7,50 €) : premier
pas, syntaxe de base de HTML, création et gestion
d'un site, animations avec JavaScript, publication.
Windows XP professionnel (428 p., 7,80 €) : préparation d'un réseau local, d'un serveur web, gestion des utilisateurs, base de registre.
O'REILLY
Java Tête la première
Destiné aux débutants, ce livre de plus de 600
pages s'adresse néanmoins à ceux qui ont déjà
une petite expérience dans la programmation de
scripts. Son but est d'être tout à la fois pédagogique et ludique en mélangeant des jeux, des exercices de programmation, des textes manuscrit,
des dessins et photos humoristiques... Une mise
en page résolument moderne, monochrome mais
sûrement pas monotone ! (49 €)
E&R - Page 21

Documents pareils