Quelle protection pour votre entreprise ?

Transcription

Quelle protection pour votre entreprise ?
magazine tactile pour informatique agile
N° 4 09/2013
Comparatif
Quel serveur
choisir pour
votre PME ?
Dossier
Mutualisez
vos services
Cloud SaaS
Bilan
10 ans
de Trusted
Computing
Appliances
de
sécurité
Quelle protection
pour votre entreprise ?
DATA
Analyse : 10 ans de Trusted Computing
Stockage
sommaire
Les chiffres du mois
tests
Comparatif : des serveurs pour gérer
votre entreprise
Dragon NaturallySpeaking 12 Premium
Mobile
Acronis True Image 2014 Premium
Toshiba Excite Write
A4 Technologies Easy 120
Acer B296CL
Buffalo AirStation Extreme AC 1750
Dell OptiPlex 3011
en co u v ert u re
Appliances
de sécurité
Des boîtiers tout intégrés pour
protéger votre entreprise
T EC H N O
Hadoop
Accélérer l’analyse prédictive du Big
Data avec la mise en cache Flash
BenQ MX661
P RO J E T
Solutions
Lorsque Windows ne démarre plus
Excel : rendre un tableau intelligent avec
des tests
Partagez, protégez et sécurisez un
classeur Excel
Contrôler un PC à distance
temps libre
Raspberry Pi : le phénomène
jolidrive
Centralisez l'ensemble
de vos applications
et services web préférés
Chroniques
Thierry Derouet
Jean-Baptiste Su
magazine tactile pour
informatique agile
éditorial
Un PC à 20,63 €
Comment un PC de la taille
d’une carte de crédit et proposé à partir de 20,63 euros sans
les taxes (admirez la précision)
a-t-il pu en une petite année
devenir un phénomène planétaire ? Pour moi le Raspberry
Pi c’est le ZX Sinclair de mon
adolescence. D’ailleurs, devinez chez qui la machine est installée chez moi ? Bah chez mon ado
geek de 15 ans. Car mine de rien, ce nouvel assemblage britannique a pour lui de réveiller en
nous la passion de l’informatique. Et de nous
permettre de nous rappeler ce qui a fait le succès du micro : sa capacité à se laisser bricoler et
à inventer les usages qui vont avec. Et dans ce
numéro de PC Expert, même si notre vocation
est résolument professionnelle, nous n’avons
pas résisté à vous donner l’eau à la bouche en
vous racontant tout ce que nous pouvions faire
avec ce « Pi » qui n’est pas si éloigné dans sa
conception de l’Apple premier du nom.
Vous êtes notre obsession.
Ce numéro de
rentrée n’est pas marqué que par la passion. La
raison l’anime avec par exemple un dossier de
Une consacré aux « appliances » de sécurité, un
secteur en plein boom. Mais aussi avec notre
comparatif consacré aux serveurs pour PME.
Car nous n’oublions pas qui sont nos lecteurs.
Même à l’heure du « Cloud », l’informatique raisonnée conserve des formes très conventionnelles où applications et données sont conservées bien au chaud (mais ventilées quand
même ;-) dans nos bureaux. Mais je n’en dirais
pas plus. C’est à vous de découvrir ce qui fait
toute la richesse et l’originalité de notre offre
de lecture. Bonne rentrée.
le magazine
L’application iPad de l’agence Gamma-Rapho
© Keystone, Michel Huet, Isabelle Maçon, Jean-Claude Francolon, Norbert Wu / Gamma-Rapho
chronique
La femme est l’avenir du PC
L
es constructeurs de PC ont-ils marché sur la tête ? Cette question, nous sommes nombreux à nous l’être posée. Et ce à l’occasion l’an passé de la sortie de Windows 8 tellement nous
étions confrontés à une déferlante hétéroclite. Comme si le
monde était toujours comme avant l’ère de « l’après PC ». Et
les constructeurs de continuer à sur-segmenter leur offre. Une offre
illisible. Une offre à pleurer. Manquait ce petit supplément d’âme ? Du
bon sens ? Dépité, j’en suis arrivé à m’offrir un iMac. Car voilà, entre
l’iMac et moi il y a eu une émotion, des poils sur les bras qui se sont
hérissés. Comment un simple iMac pouvait-il réussir à m’enchanter
tandis que j’avais cette pléthorique offre de PC devant moi ? Comment
un produit si onéreux pouvait-il d’un coup d’un seul me contenter moi
qui suis en général assez rationnel et assez distant avec les produits
Apple ?
Quand on est associé à des bureaucrates qui eux, margent… L’ex-
plication est pourtant simple. De l’âme et du bon sens il en manquait.
Car nos constructeurs avaient juste oublié qu’ils avaient des clients.
Mais pas qu’eux. Voici un an que Steven Sinofsky, aujourd’hui parti de
chez Microsoft, a – si je puis me permettre – « foiré son coup ». Sinofsky
Thierry
Derouet
20 ans de
presse et 10 ans
d’Internet n’ont
pas blasé notre
chroniqueur,
persuadé que la
révolution des
usages n’a fait
que commencer.
chronique
avait pourtant réussi à impressionner aussi bien en sublimant Office
et en faisant sortir son employeur du « chaos Vista » avec Windows 7.
... et quand ce n’est visiblement pas une grande révélation Donc
L’écosystème PC
avait été ébranlé
par un Microsoft
plus soucieux
de maintenir
des marges très
confortables que
de ré-enchanter
son écosystème.
pour faire simple on va dire que l’écosystème PC avait été ébranlé par
un Microsoft plus soucieux de maintenir des marges très confortables
(25 % en moyenne c’est juste mieux que Google et mieux qu’Apple sur
ce dernier trimestre) que de ré-enchanter son écosystème. J’exagère ?
Réellement ? Pourquoi alors l’un des anciens responsables français
de Microsoft encore aux commandes l’an passé a-t-il suggéré – lors
de l’annonce du départ de Steve Ballmer (qu’il apprécie réellement)
– qu’il (je cite en traduisant) « sera intéressant de voir comment le
nouveau Microsoft pourra combattre sa bureaucratie interne, laquelle
ignore souvent ses clients ». Cruel commentaire n’est-il pas ?
Un esprit de reconquête Les constructeurs de PC ne sont pourtant pas
stupides. Du moins pas tous. Et j’avoue être séduit par la démarche de
deux d’entre eux : Lenovo avec ses produits « ThinkPad » qui mériteraient une meilleure exposition et HP avec l’état d’esprit qui y règne
de nouveau. Les autres ? Chez Acer, ils sont « à la peine ». Dell, tant que
les grandes orientations stratégiques n’auront pas été prises (qui va demain contrôler financièrement Dell ?), continuera de proposer des produits où charmer le client a été oublié (j’ai plusieurs exemples en tête à
leur disposition). Mais cela s’explique. C’est – comme le dit un proverbe
chinois – toujours « par la tête que le poisson pourrit »… à méditer.
Trois femmes, deux entreprises, un même destin Le cas HP doit
faire école (j’aurais aussi pu prendre celui de Yahoo!). Car depuis l’arrivée de Meg Whitman, HP pense de nouveau à rendre « lisible et cohérente » son offre de produits et services. Tout n’est pas encore parfait.
14 modèles de PC portables – rien que pour les professionnels – c’est
beaucoup trop. Et on m’a rapporté que la dame validait elle-même tous
les produits de sa firme. Avec pour effet de simplifier ses gammes, et
surtout de donner une image cohérente de sa marque aussi bien du
point de vue des valeurs que de marqueurs visibles comme le design.
Et vous savez comment ils s’y prennent chez HP ? Juste en regardant –
enfin – qui étaient mondialement leurs clients (et non en se contentant
d’une vision par trop texane). Bonne nouvelle, Meg est en ce moment
aidée par deux autres femmes chez Microsoft : Julie Larson-Green et
Tami Reller. Car depuis que Julie et Tami ont remplacé Steven, Microsoft a modifié ici et là Windows 8 en remettant au cœur de leurs décisions leurs clients. Et vous savez à quoi je le vois ? C’est très simple, les
hommes recommencent à s’intéresser à leurs produits.
Dell Latitude 10
10 ans après l’initiative
« Trustworthy Computing »
lancée par Bill Gates,
le sujet de la « confiance » en l’informatique n’a jamais été
autant au cœur de l’actualité, notamment avec les
révélations autour de PRISM. L’occasion de faire un point
sur le rôle du Trustworthy Computing Group, ses
réalisations et ses défis…
data
10 Ans deDell
Trustworthy
Latitude 10
Computing
Les entités clés du TWC
On trouve dans le giron du
Microsoft Trustworthy Computing
Group, tout un ensemble d’entités
complémentaires et plus ou
moins indépendantes, dont les
principales sont :
– Le TWC Team à l’origine
notamment du SDL et des bonnes
pratiques ;
– Le MSRC (Microsoft Security
Response Team) en charge de
fournir des réponses et parades
“N
aux attaques et découvertes de
vulnérabilités mais aussi de la
diffusion des fameux correctifs
du 2e mardi du mois (ainsi que des
correctifs émis en urgence) ;
– Le MMPC (Microsoft Malware
Protection Center) analyse les
menaces émergentes et les
tendances ;
– La DCU (Digital Crimes
Unit), une équipe (de juristes,
psychologues et ingénieurs)
ous avons rendu nos logiciels
et services toujours plus attractifs pour les utilisateurs en
ajoutant des fonctionnalités et
en rendant notre plateforme
richement extensible. En la matière, nous avons
fait un super boulot. Mais toutes ces fonctionnalités sont sans attrait si les clients n’ont
pas confiance en nos logiciels. À partir de
maintenant, chaque fois que nous aurons
à choisir entre ajouter une fonctionnalité
ou résoudre un risque de sécurité, nous devrons choisir la sécurité »…
Cette déclaration est extraite d'un email
envoyé par Bill Gates à tous les employés
de Microsoft le 15 janvier 2002. Un
email qui allait bouleverser profondément le fonctionnement de
l'entreprise, mais aussi profondément influencer nombre
d'acteurs du monde informatique et de l'Internet.
Un email qui jetait les
chargée de rendre le monde plus
sûr en luttant par exemple contre
les botnets ou les technologies
qui facilitent l’exploitation
sexuelle des enfants. On lui doit
notamment la technologie Photo
DNA utilisée par les polices
internationales pour traquer les
photos pédopornographiques.
La DCU travaille en étroite
collaboration avec les forces de
l’ordre, les universités et les ONG.
bases de la création du Trustworthy Computing
Group (TWC) au sein du géant de Redmond, une
division transversale aux autres dont le rôle n'a
cessé de s'amplifier.
Depuis, Microsoft n'a jamais dérogé à cette
règle d'or. Pour Bernard Ourghanlian, Directeur
Technique et Sécurité de Microsoft France,
« ça n’a pas été facile, mais si on se retourne
sur les accomplissements du TWC après
cette première décennie, on constate que
beaucoup de progrès techniques ont été
réalisés. Mais on constate surtout qu’il
y a eu une vraie prise de conscience par
l’entreprise que ce sujet (la sécurité)
était très important. Ce changement
de culture d’entreprise est sans
doute la grande réussite de
l’initiative TWC. »
Un mémo visionnaire
Le mémo de Bill Gates
était la conséquence d’une
année noire pour Microsoft
data
10 Ans deDell
Trustworthy
Latitude 10
Computing
SD3 et la programmation sécurisée
L’email de Bill Gates a conduit
Microsoft a redirigé une partie
considérable de son énergie et de
ses ressources vers l’amélioration
de la sécurité intrinsèque des
productions de l’éditeur. Pour
cela, il a adopté une approche
désignée par l’acronyme SD3
signifiant « Sécurisé par design,
sécurisé par défaut, sécurisé
au déploiement ». « Sécurisé
par défaut » implique que les
produits ont moins d’options
actives par défaut afin de réduire
la surface d’attaque. « Sécurisé
au déploiement » a conduit
notamment à l’introduction
de mécanismes de mises à
jour automatique. « Sécurisé
par design » vise à réduire les
vulnérabilités dans le code et a
conduit à la création et l’adoption
systématique du SDL (Security
Development Lifecyle). Le SDL
implique de construire des
modèles d’attaque dès la phase de
conception, puis d’architecturer,
de construire et de tester les
fonctions et les produits pour
s’assurer de leur résistance aux
menaces possibles identifiées lors
de la conception. SDL comporte
ainsi un ensemble de guides,
d’outils et de méthodes pour un
développement plus sécurisé des
programmes. Depuis 2004, SDL
est obligatoire pour tout produit
estampillé Microsoft et aucun
produit Microsoft n’est entré
en phase de développement en
dehors des guidelines du SDL.
Cependant il aura fallu attendre
et pour le monde. Les attaques terroristes sur
les tours du World Trade Center rappelaient à
tous l’importance d’assurer l’intégrité et la sécurité des infrastructures. Code Red avait infecté 300 000 serveurs Web hébergés sous IIS
(le serveur Web de Windows Server). Nimda
mis 22 minutes à devenir le ver le plus répandu
sur Internet. À cette époque, le MSRC, le service
dédié à la mise en œuvre de réponse face aux
attaques et découvertes de failles, était directement dépendant… du service marketing !
Ces événements ont servi d'électrochoc et
considérablement anéanti la confiance que les
entreprises et les utilisateurs plaçaient en Microsoft.
data
2007 et l’arrivée d’Office 2007 et
Windows Vista pour voir les deux
produits phares de Microsoft sortir
dans des versions implémentant
intégralement les processus SDL.
Rendu public en 2004, le kit SDL
a connu une évolution majeure
en 2009 avec la publication
d’une version simplifiée adaptée
aux développements agiles.
Très fréquemment actualisé,
SDL est aujourd’hui adopté par
nombre d’acteurs du marché.
Récemment, MidAmerican Energy
témoignait que 350 jours après
avoir implémenté Microsoft SDL,
cette unité du groupe Berkshire
Hataway était la seule pour
laquelle le cabinet d’audit de
sécurité recruté n’avait trouvé
aucune vulnérabilité.
10 ans de Trustworthy Computing
Et tout le thème de cet email, bien au-delà de la sécurité, repose d’ailleurs intégralement sur cette
idée de confiance : « L'informatique tient déjà une
place importante dans de nombreuses vies. Dans
les dix ans à venir, elle fera partie intégrante de
presque tout ce que nous ferons. Microsoft et l'industrie informatique ne réussiront dans ce monde
numérique que si CIOs et consommateurs sont
convaincus que Microsoft a créé une plate-forme
pour une informatique de confiance… » écrivait
ainsi Bill Gates. Et de poursuive : « L’informatique de confiance (Trustworthy Computing) est
une informatique aussi disponible, fiable et sûr
que peuvent l’être les services de téléphonie fixe,
d'eau et d’électricité. »
Dans son mémo, Bill Gates décrit qu’une informatique de confiance doit impérativement
reposer sur quatre piliers : la sécurité (non seulement données et services doivent être protégées mais les modèles de sécurité doivent aussi
être simples à mettre en œuvre pour les développeurs), la disponibilité (les pannes systèmes
et logicielles doivent disparaître par le biais de
redondance, de récupérations automatiques et
d’autogestion des systèmes), le respect de la vie
privée (les utilisateurs doivent toujours rester
en contrôle de leurs données personnelles et de
l’usage qui en est fait) et les pratiques commerciales (transparence et fairplay).
C’est cette mise en avant simultanée de ces
4 piliers qui font du mémo de Bill Gates un texte
souvent perçu comme visionnaire.
Dans les mois qui ont suivi la publication du
mémo, toute l’entreprise Microsoft s’est mise à
l’arrêt : tous les développements ont été stoppés,
tous les développeurs envoyés en formation « sécurité » et tous ont dû reprendre ensuite leurs
codes pour mettre en pratique les consignes
établies et les ébauches de modèles de dévelop-
pement sécurisé mis en chantier par les spécialistes de la sécurité embauchés par Microsoft.
Dans le même temps, de nouvelles équipes allaient se forger autour des quatre piliers édictés
par Bill Gates pour former ce que l’on appelle aujourd’hui le « Trustworthy Computing Group ».
Des débuts difficiles
Durant ses trois premières années d’existence,
le TWC a surtout été perçu comme une opération marketing, une stratégie d’écran de fumée
pour masquer les effets désastreux d’années
de développements inconsidérés. En un sens,
l’email de Bill Gates poursuivait, effectivement,
en partie cet objectif – il n’aurait pas été rendu
public sinon. Mais au-delà de l’aspect « marketing », il a engendré un profond changement de
culture au cœur même des équipes de développement et de gestion de projets. Soudain, leurs
« idéaux » communs sont devenus Sécurité, Vie
Privée, Fiabilité.
Avec le recul, l’effort s’est révélé réel et
concret. D’une manière générale, toute initiative qui perdure plus d’une décennie est nécessairement plus qu’un jouet marketing. Comme
souvent chez Microsoft, elle traduisait une vision à long terme basée sur la persévérance.
Les observateurs peu informés de ces sujets
ont souvent imaginé que la simple écriture du
mémo allait bouleverser des années de laxisme
et rendre tous les systèmes et logiciels Microsoft
sécurisés du jour au lendemain. Les vagues de
virus qui ont suivi (et notamment les tristement
célèbres Slammer et Blaster) n’ont, dès lors, générer que raillerie. Dans les deux ans qui ont suivi le mémo les articles se sont multipliés sur les
lents progrès réalisés par Microsoft, l’accent de
ces articles étant généralement plus orientés sur
« la lenteur » que sur « les progrès » eux-mêmes.
data
10 ans de Trustworthy Computing
Pourtant, le « Push Sécurité » ordonné par Bill
Gates entraînant la suspension des développements et la formation de tous les développeurs,
mena directement à l’époque à la création du
Windows XP SP2/SP3 diffusé gratuitement
(alors que le projet original était une évolution payante de l’OS). Elle conduisit aussi à la
débâcle Longhorn et, en partie, au retard et à
l’échec de Vista (les sécurités accrues engendrant de fortes incompatibilités).
Les victoires du TWC
Le TWC a été le moteur et l’architecte de nouvelles méthodes de développement et de nouvelles fonctions de sécurité au cœur des produits
Microsoft. Son influence a donné naissance à
toute une panoplie de technologies de défense
(DEP, ASLR, UAC, BitLocker, SecureBoot, Win-
dows Defender, etc.) et toute une collection d’outils de sécurité (MSE, EMET, MSRT, BinScope
Binary Analyzer, Attack Surface Analyzer, etc.).
Le TWC a surtout été le moteur de nouvelles
pratiques en matière de développement et de
conception des produits introduisant notamment l’idée que tous les produits Microsoft devraient désormais suivre les philosophies « SD3 »
(Secure by Design, Secure by Default, Secure in Deployment) et « PbD » (Privacy by Design). Une volonté qui a notamment conduit à la publication
en 2004 du premier kit SDL (Security Development Lifecycle), un ensemble de méthodes, outils
et ressources, destinés à aider les développeurs
dans l’écriture d’un code plus sécurisé.
Aujourd’hui, le TWC peut enfin mesurer l’impact de tous ses efforts. Windows Vista (qui fût
le premier Windows développé à l’aide du SDL)
data
10 ans de Trustworthy Computing
affichait 45 % moins de vulnérabilités découvertes que XP un an après leur lancement. SQL
Server 2005 (première version de SQL Server
en SDL) affichait 91 % moins de vulnérabilité
que SQL Server 2012.
Le projet Peach de Dan Kaminsky révélait
qu’Office 2003 contenait 126 vulnérabilités exploitables, contre seulement 7 pour Office 2010
soit une baisse de 94 % des vulnérabilités entre
Office 2003 (pré SDL) et Office 2010 (post SDL).
Le nombre de vulnérabilités découvertes
dans les produits Microsoft n’a cessé de diminuer depuis 2004 et a atteint son plus bas niveau
en 2012, alors que le reste de l’industrie a plutôt
vu le nombre de vulnérabilités augmenter.
En 2011, 39 vulnérabilités ont été découvertes
dans Internet Explorer contre 89 sur Firefox et
278 sur Chrome. En 2012, 41 vulnérabilités ont
été découvertes sur Internet Explorer, 159 sur
Firefox, 125 sur Chrome. Autre exemple, une
simple interrogation sur la base de connaissance de Secunia, montre qu’en 2013 seulement
10 alertes ont été publiées pour Internet Explorer,
contre 15 pour Firefox et 16 pour Google Chrome
Dans un tout autre domaine, le TWC et ses
divisions comme la DCU (Digital Crimes Unit)
ont conduit, dans le cadre du projet MARS (Microsoft Active Response for Security) à la fermeture de 7 réseaux de Botnets (Waledac, Rustock, Kelihos, Zeus, Nitol, Bamital, Citadel).
Dernière illustration, les études sur les machines infectées montrent des taux d’infection
toujours plus faibles à chaque nouvelle génération de Windows (0,2 ordinateur infecté pour
1 000 scannés par MSRT sur Windows 8 64 bits).
Des efforts vains ?
Plus de dix ans après sa publication, l’email de
Bill Gates reste d’une incroyable actualité. S’il
ne fait guère de doute que Microsoft a réussi à
restaurer une certaine crédibilité quant à sa
volonté et sa capacité à produire des produits
sécurisés, les thématiques de « l’informatique
de confiance » et de « la confiance en l’informatique » restent toujours un vaste chantier en
construction.
Notamment parce que quatre révolutions
sont venues bouleverser les acquis et remettre
la vision originelle de Bill Gates au cœur des
débats.
1/ La prise de contrôle des états
Dans les années qui ont suivi la publication du
mémo de Bill Gates, le rôle d’Internet dans les
échanges et les communications n’a cessé de se
renforcer. Les états ont pris conscience qu’ils
avaient la nécessité de réguler l’internet d’une
manière ou d’une autre. Hors des débats sur la
Net Neutralité, force aujourd’hui est de reconnaître que, dans tous les pays, il existe des législations qui vont en ce sens.
C’est vrai aux USA, comme en Europe ou
en France. La nouvelle Loi d’orientation militaire française, actuellement en discussion à
l’assemblée, prévoit des évolutions réglementaires fortes dont il est difficile de mesurer les
impacts. Tous les acteurs qui assurent la continuité du service public devront ainsi signaler
leurs incidents de sécurité, placer des sondes
opérées sur le territoire français pour détecter les fuites d’information et accepter de subir
des audits de l’ANSSI à tout moment. Elle prévoit aussi l’usage de la force aussi bien virtuelle
que physique pour riposter contre des cyberattaques.
La récente affaire Snowden et la divulgation de PRISM mettent à mal l’idée même du
« Trustworthy Computing ». Bernard Ourghan-
data
10 ans de Trustworthy Computing
lian le reconnaît bien volontiers : « De manière
objective, on se rend compte qu’il y a eu une perte
de confiance. Mais les moyens d’action de Microsoft en la matière sont assez limités. » Il est clair
que Steve Ballmer ou Bill Gates auront beau jurer sur l’honneur protéger les informations qui
sont confiées à Microsoft via ses logiciels et services en ligne, personne ne les croira. Pour Bernard Ourghanlian, « il est nécessaire qu’il y ait
une prise de conscience au niveau des États et des
gouvernements. Il y a une position d’équilibre à
trouver pour faire en sorte qu’un certain nombre
de pratiques aux frontières de la Loi soient abandonnées et que des entreprises comme Microsoft
ou Google soient autorisées à communiquer davantage sur les demandes et pratiques de la NSA
et autres organismes officiels. À partir du moment où il n’y a aucune transparence, il paraît
difficile de pouvoir rétablir la confiance. »
D’autant que l’absence de transparence
conduit aussi à toutes sortes de fantasmes paranoïaques.
Mais les états ne sont pas prêts aujourd’hui, et
ne seront pas davantage prêts demain à une totale transparence. S’il ne peut y avoir de transparence sur les contenus précis, il peut cependant y en avoir sur le nombre d’informations
transférées, sur le type d’informations qui ont
été transférées et sur les moyens techniques et
légaux qui ont été mis en œuvre pour les obtenir. C’est exactement le sens des demandes
formulées par Microsoft, Google, Facebook et
autres acteurs du marché mis en cause dans les
déclarations de Snowden.
2/ Le Cloud
« La confiance joue un rôle encore plus grand à
partir du moment où on confie ses données à un
tiers, » rappelle Bernard Ourghanlian, « avec le
Cloud, on a assisté à un rééquilibrage assez significatif des priorités du TWC. » Si la sécurité
a beaucoup focalisé l’attention du TWC lors de
ses premières années d’existence, les concepts
de « vie privée » et de « fiabilité » se sont rapidement retrouvés d’importance égale. « Avec le
Cloud, le respect de la vie privée prend une toute
autre dimension. C’est aussi vrai de la fiabilité
des systèmes où la très haute disponibilité devient une nécessité absolue. »
Le Cloud est sans aucun doute la révolution
la plus importante qui donne au TWC (et à l’email de Bill Gates) une dimension fondamentale. À l’échelle du Cloud, les problèmes et leurs
impacts sur la sécurité, la disponibilité et la vie
privée sont multipliés.
3/ La généralisation du Big Data
Le respect de la vie privée est encore au centre
d’une autre révolution : celle du Big Data. Aujourd’hui, nos navigations Web, nos smartphones, nos tablettes, nos usages mobiles et
Internet, génèrent des volumes astronomiques
de données qui sont récoltées et analysées. On
le sait, la « gratuité » de bien des services Internet se fait au détriment d’une petite partie de la
vie privée de chacun d’entre nous. Le Big Data
est sans aucun doute un domaine d’avenir qui
a des implications extraordinaires en termes
de Business bien évidemment, mais aussi, on
l’oublie souvent, en matière d’épidémiologie, de
santé publique, d’analyse d’évolution des populations, etc.
Aujourd’hui, la plupart des acteurs se
cachent derrière des petites cases à cocher par
lesquelles l’utilisateur confirme être conscient
que des informations personnelles peuvent
être récoltées. À partir du moment où on génère et on récolte des volumétries astrono-
data
10 ans de Trustworthy Computing
miques de données, « il ne suffit pas de demander à l’utilisateur si on peut ou non récolter des
informations personnelles. Il faut aussi savoir ce
que l’on va en faire et pour quels usages ces données sont prévues. On s’est exprimé à de nombreuses reprises pour demander une évolution
des pratiques. Si l’on veut que le Big Data soit un
succès, il faut préserver la vie privée des individus. Si on remet en cause la confiance derrière
un modèle, tout s’effondre, » prévient Bernard
Ourghanlian.
Évidemment, à l’instar de Google, Microsoft
– notamment via ses services Bing – récolte
nombre d’informations sur ses utilisateurs.
Pourtant, pour Microsoft, les pratiques des
deux ennemis ne sont pas comparables. Dès
2007, l’entreprise a édicté des principes clairs
autour de la recherche et la publicité en ligne.
Et sa politique d’anonymisation des informations récoltées est connue et transparente.
Cependant, si les différents acteurs promettent toujours que les informations récoltées
sont anonymes ou « anonymisées » après un
certain délai, nombre d’expérimentations ont
montré qu’il était possible de réidentifier des
données a priori anonymes en rapprochant les
informations de multiples sources.
MS Research travaille d’ailleurs sur ces problématiques d’anonymisation des informations avec différents projets comme la « Differential Privacy » (cf. les différentes publications
de Cynthia Dwork : http://research.microsoft.com/enus/people/dwork/recentpublications.aspx).
Dans une société de plus en plus centrée autour de l’information et de la donnée, l’approche
orientée sur la collecte ne suffit plus à assurer
un respect de la privée et le TWC oriente aujourd’hui davantage ses efforts vers l’utilisation faite des données.
4/ L’ultra mobilité des personnes
et des informations
Avec l’ouverture sur le monde imposée par
la mobilité et Internet, l’architecture des systèmes d’information a considérablement évolué, mais Bernard Ourghanlian constate que la
plupart des entreprises ne l’ont pas encore intégré : « Nombreuses sont celles qui pensent encore
que tous les malwares seront laissés à la porte de
l’entreprise. En réalité, le fait que des malwares
entrent dans le système d’information est devenu
une chose ‘normale’. »
Force est de reconnaître que les dispositifs
de sécurité mis en place il y a plusieurs années
ne servent plus à rien aujourd’hui. Croire que
les pare-feu et antivirus installés suffisent à
défendre le patrimoine de l’entreprise est une
utopie. Patrick Pailloux, le directeur de l’ANSSI,
invite depuis deux ans les DSI à un retour aux
fondamentaux (« Back To Basics »), leur reprochant d’avoir empilé les outils de sécurité sans
s’attaquer aux origines du mal : la multiplication des comptes admin, les mots de passe à 2
caractères, le refus ou l’oubli de patcher systématiquement serveur et postes, etc. Pour
Bernard Ourghanlian, « ce ‘Back To Basics’ est
primordial. Ce qui me frappe le plus, c’est qu’aujourd’hui les particuliers sont souvent mieux
protégés que dans les entreprises. Une gestion
efficace des patchs et des identités reste encore
à mettre en œuvre dans bien des entreprises... Il
faut aussi se focaliser sur la protection du patrimoine informationnel ! »
Pourtant, sous l’impulsion du TWC, Microsoft n’a cessé d’implémenter de nouvelles protections pour automatiser les mises à jour, simplifier la gestion des identités et améliorer la
protection des données (et de l’accès aux données) dans un univers informatique dépérimé-
data
10 ans de Trustworthy Computing
tré. Mais cela impose à la fois de mettre à jour
les OS vers les versions récentes et d’adopter
Windows Server 2012 par exemple.
Il faut aussi rappeler que bien des menaces
de sécurité n’exploitent plus désormais des vulnérabilités logicielles, mais le manque de vigilance et la naïveté des utilisateurs. Le projet
Broad Street du TWC a ainsi montré que plus
de 50% des ordinateurs compromis l’avaient
été au travers d’une attaque utilisant de l’ingénierie sociale.
Quel avenir pour le TWC ?
Ces quatre révolutions constituent les nouveaux chantiers du TWC. « Ce sont des chantiers techniques bien sûr, mais ce sont surtout
des chantiers de nature sociétale, » constate Bernard Ourghanlian. C’est pourquoi l’idée moderne d’une informatique de confiance ne peut
aujourd’hui être qu’un processus « en cours ».
Onze ans après la publication du mémo de
Bill Gates, le « Trustworthy Computing » reste
une idée à concrétiser et la « confiance » reste
l’objectif à atteindre. Contrairement à ce que
certains affirment, le TWC n’est pas un échec.
C’est une idée qui n’a jamais été aussi actuelle
qu’aujourd’hui et dont le champ d’investigation
ne cesse de s’élargir.
En 2012, Scott Charney, actuel directeur du
TWC, traçait les grandes lignes de la prochaine
décennie « TWCnext », en écho au mémo de Bill
Gates : « En adoptant une stratégie de sécurité
plus globale, unissant la prévention, la détection,
le confinement et la récupération, le monde informatique peut mieux lutter contre des ennemis
toujours plus persistants et déterminés. En comprenant et mesurant ce que signifie ‘vivre dans
un monde ultra connecté, truffé d’appareils électroniques et noyé dans une abondance de données’, nous pouvons élaborer des principes qui
protègent efficacement la vie privée tout en tirant
profit des avantages que seul le Big Data peut
procurer. En s’appuyant sur l’intelligence d’ingénierie et en développant l’informatique orientée
rétablissement (ROC, Recovery Oriented Computing), nous pouvons créer des produits et
services flexibles en cas de pannes et assurer la
fiabilité des appareils et des services quelle que
soit la complexité et l’interdépendance qui existe
dans nos systèmes d’information. Enfin, en étant
ouvert et transparent dans nos pratiques commerciales et la conduite de nos Business, nous
pouvons gagner la confiance de tous ceux qui
dépendent des technologies de l’information… »
Laurent Delattre
data
10 ans deDell
Trustworthy
Latitude 10
Computing
Windows 8 et le BSI : la confiance de nouveau mise à mal
C’est le feuilleton « high-tech »
de l’été 2013. Suite à la fuite de
documents internes du BSI,
le bureau fédéral pour la sécurité
des systèmes d’information
du gouvernement allemand, le
journal Die Ziet déclarait que
le BSI interdisait l’utilisation de
Windows 8 dans les agences
gouvernementales et avertissait
l’opinion de risques de sécurité
liés à l’usage de ce système.
Si les titres les plus alarmants
ont surgi un peu partout sur le
Web suite à cette publication,
la réalité est plus subtile. Ce que
le BSI déconseille, c’est l’usage
conjoint de Windows 8 et de TPM
2.0, le circuit présent sur
certaines cartes mères pour
stocker de façon sécurisée des
clés de chiffrement notamment
utilisées par les fonctions
« Secure Boot » et « BitLocker »
de Windows 8.
Le fond du débat n’est d’ailleurs
pas Windows 8 lui-même mais
davantage la spécification du
standard TPM 2.0 édicté par le
« Trusted Computing Group »,
un groupement ouvert à tous les
acteurs du marché, mais auquel
le BSI reproche d’être entièrement
américain (AMD, Cisco, Dell, HP,
IBM, Wave) oubliant un peu
rapidement qu’on y retrouve aussi
des acteurs comme Fujitsu,
Infineon, Lenovo, Accenture,
Huawei ou Gemalto.
Tout comme son équivalent
français l’ANSSI, le BSI adopte
une approche intrinsèquement
paranoïaque qui tend à anticiper
l’existence de portes dérobées
dans tous les appareils. Il voit
en l’utilisation conjointe de
Windows 8 (ou plus exactement
de Secure Boot) et TPM 2.0 de
potentiels nouveaux risques.
Pour le BSI, ces nouveaux risques
seraient que Microsoft, la NSA
ou pourquoi pas même les
constructeurs chinois de ces
circuits TPM aient glissé leurs
propres clés permettant de
contourner les chiffrements
ou de bloquer le démarrage
des machines à distance.
Jusqu’ici, les circuits TPM
étaient relativement onéreux et
essentiellement présents sur les
ordinateurs professionnels.
Avec TPM 2.0, son utilisation
grand public se généralise et
des machines comme les tablettes
Microsoft Surface RT, par
exemple, en disposent et activent
par défaut l’option Secure Boot
qui l’exploite. Sur les PC
traditionnels, on peut
généralement opter pour ou contre
l’activation du TPM
au niveau du BIOS. Enfin
rappelons que les Mac utilisent
aussi un tel circuit, Apple
l’exploitant notamment pour
empêcher l’usage de Mac OSX
sur des machines non Apple.
Pour autant, faut-il en déduire
comme le BSI que Windows 8 est
forcément plus risqué que
Windows 7 pour des organismes
gouvernementaux ? Chacun reste
libre de juger…
data
Cependant, on se souviendra
quand même que le problème
n’est pas nouveau. En 1984,
alors qu’il recevait son Turing
Award, Kevin Thomson, l’un
des deux pères d’UNIX, rappelait
que la confiance reste une chose
très relative, dans un texte devenu
célèbre « Reflexions on Trusting
Trust ». Celui-ci démontrait,
exemples à l’appui, qu’accéder
au code source n’est pas suffisant
car on peut modifier le
compilateur pour que, sur la base
d’une séquence spécifique,
le code exécuté fasse autre chose
que ce qui est programmé.
Par extrapolation, il alertait
également sur le fait que même
si on faisait à la fois confiance
au code et au compilateur,
on pouvait en faire autant au
niveau hardware et faire en sorte
que, sur une séquence donnée,
le processeur réalise autre chose
que ce que l’on croit exécuter.
Ainsi, pour Bernard
Ourghanlian, « il en découle une
approche paranoïaque où il est
impératif de contrôler tout le
hardware et tout le logiciel. On
peut évidemment imaginer un
ordinateur européen avec des
composants totalement
européens. Aucun pays en Europe
n’a la capacité à le faire seul. Ça ne
peut être qu’un projet européen. »
Encore faut-il se donner les
moyens de sa paranoïa !
Dellstockage
Latitude 10
Big Data :
IBM prépare sa révolution
Dr. Ambuj Goyal, General Manager
IBM System Storage & Networking
Nous avons profité du passage à Paris d’Ambuj
Goyal, responsable mondial stockage et réseau
chez IBM, pour savoir quelle allait être la stratégie d’IBM en matière de stockage et réseau.
Ses responsabilités englobent l’orientation des
produits logiciels et matériels, la direction de la
recherche et du développement, et les ventes et
acquisitions couvrant ces domaines.
L’entretien était placé sous le signe des données d’entreprise dans le Cloud. Voilà qui signe
de façon on ne peut plus claire et forte, la nouvelle orientation d’IBM. Au-delà d’une vision
stratégique, c’est bien d’un nouveau modèle économique qu’il est question : comment partager et
monétiser des volumes de données en constante
progression, et y associer les entreprises. L’idée
majeure mise en avant par Ambuj Goyal est que
les données d’entreprises sont devenues une
entité à considérer en soi. Les logiciels, les matériels, les réseaux devraient tous venir en support
des données car ce sont eux qui véhiculent les informations et in fine l’intelligence nécessaire au
fonctionnement des entreprises. Mais comment
les entreprises peuvent-elles capitaliser sur ces
données vis-à-vis des autres entreprises ?
Le secret : monétiser les données
Pour y arriver, il faut laisser d’autres entreprises
consulter ses données en leur offrant un accès
contrôlé. Cet accès est fourni à travers l’ensemble
d’API ouvert Open Stack, devenu un standard de
facto et dans lequel IBM a acquis le rôle de leader (cf. PC Expert n° 1, p. 14). Open Stack est une
initiative destinée à fournir une infrastructure
data
stockage
en tant que service (le Cloud) et qui peut tourner sur un ordinateur dédié ou sous un système
d’exploitation. Cette technologie comprend un
certain nombre de projets interdépendants qui
contrôlent à l’intérieur d’un datacenter des ensembles de processeurs et processus, de disques,
de ressources réseaux et de machines virtuelles.
Le pilotage de l’Open Stack est réalisé par des
interfaces Web, donc pilotables à distance. Les
utilisateurs et applications y accèdent à travers
des applications serveur au sein des datacenters qui travaillent avec des applications clientes
extérieures. Open Stack autorise la délocalisation géographique des données et des ressources
réseau. L’utilisateur n’a plus besoin de savoir où
elles sont localisées, ni comment on y accède.
Openstack : une architecture modulaire,
l’intelligence en plus
Open Stack permet de développer de multiples
types d’applications comme la réplication et l’interfaçage avec des outils de sauvegarde de données, de restauration après sinistre, mais aussi
avec des moteurs pour des recherches et traitements sur ces données du Cloud. Elle apporte
donc à terme – et IBM ne s’en cache pas – des capacités d’analyse sur de vastes quantités de données dans les domaines jusque-là tranquilles du
transactionnel et du data mining. Une révolution.
L’intérêt pour IBM c’est d’abord de participer
à la définition et à la réalisation de ce que sera
le Cloud dans les années à venir au travers du
développement des modules et de leurs API. Audelà, il s’agit d’élaborer des idées inédites d’utilisation pour ses clients. Ici la capacité du géant
américain à développer des services spécifiques
et des applicatifs entiers est mise à contribution.
Un sujet abordé par M. Goyal était l’aide au
diagnostic médical. Dans ce type d’application
les données ne sont pas uniquement vues à
travers un filtre. Elles doivent être comparées
aux autres données avec des pondérations qui
peuvent varier. Le résultat n’est pas une valeur
absolue, mais statistique qui est une fonction
des pondérations choisies. Pour comprendre le
résultat, le médecin a besoin non seulement de
voir le cheminement logique de sa requête, mais
de pouvoir intervenir sur les pondérations. Cela
nécessite le développement d’applications, de
nouvelles API. La protection d’anciennes comparaisons et l’injection de nouveaux filtres est successivement prise en compte lors des prochaines
requêtes, affinant ainsi la pertinence du processus de requête / analyse.
Tous ces indices préfigurent ce que sera la troisième grande transformation d’IBM. Pour rappel, IBM était une société de matériel où les logiciels étaient fournis gratuitement. L’auteur avait
participé à cette période à la fin des années 50
quand il a travaillé avec un IBM 709. Au cours de
la seconde période, initiée au début des années
70, c’est le logiciel qui était loué indépendamment
du matériel. Et en même temps IBM commençait
– déjà – à vendre du service. Aujourd’hui, nous
sommes aux prémices d’une autre évolution majeure, celle où des mainframes existent encore.
Mais IBM n’a cessé d’y ajouter de nouveaux services Cloud pour devenir une entreprise où les
services et datacenters prennent une place prépondérante dans leur portfolio d’offres. Dans
ces circonstances, la nouvelle orientation d’IBM
semble déjà lui donner raison : ce sont bel et bien
les données qui deviennent stratégiquement importantes. Tout à coup, la vente de divisions entières initiée avec les postes de travail et les portables en 2005 (et en cours de négociation pour
les serveurs) est cohérente avec cette nouvelle
vision. Richard Trilling
data
les chiffres du mois
+7%
C'est la croissance sur
2013 du secteur de la
Business Intelligence,
qui devrait avoisiner les
14 milliards de dollars
en fin d'année. Avec
pour leaders IBM, SAP,
Oracle et Microsoft, ce
secteur bénéficie
d'investissements
soutenus et devrait
dépasser les 17 milliards
de dollars en 2016.
Source : Gartner
107
milliards de $
C'est le poids financier global du Cloud public
qu'IDC projette pour 2017. Une valeur encourageante, puisqu'elle représente plus du double
du poids actuel, évalué par IDC à 47 milliards
pour l'année 2013. Avec une part de marché
de 60% pour le seul SaaS. Soit un taux de croissance annuel moyen de 23%, qui démontre
que ce secteur-là ne connaît décidément pas la
crise. C'est surtout une croissance qui représente 400% comparé à celle du reste de l'industrie IT. Source : IDC
data
+2%
C'est l'augmentation très légère - des
montants
d'investissements
planétaires, bien en deçà
des prévisions du même
Gartner, évaluées
initalement à +4,1% en
février dernier. Cela
représente tout de même
3,7 trilliards de dollars
consacrés aux
investissements de par
le monde. Des montants
significatifs pour une
stabilité certes relative...
Source : Gartner
e n co
en
c o u v ert
e r t u re
re
n
o
i
t
c
e
e
é
t
o
h
r
c
P ppro
a
r
s
e
c
n
lia
p
p
A
&
é
t
i
r
cu
é
s
de
s
e
s
i
r
ep
r
t
n
e
e n co
en
c o u v ert
e r t u re
re
A
lors qu’Internet est encensé comme
le liant incontournable du village
global, l’espace où culture et données de travail circulent librement
tels le lait et le miel dans les fleuves
de certains paradis, il est pour tous les responsables informatiques du monde entier un véritable cauchemar, aussi nécessaire et dangereux
qu’était la Via Appia aux meilleurs moments de
l’Empire romain. Espace de chalandise incontournable, domaine de toutes les prédations,
cette nouvelle Mare Nostrum vitale à tous ne
permet la navigation tranquille qu’à ceux qui
s’y présentent bien armés sous peine de pertes
lourdes de conséquences.
À l’instar de toutes les voies de communication que l’homme a constitué au fil de son évolution, Internet rassemble aujourd’hui son lot
de prédateurs aux aguets. Bien sûr, nous ne
risquons plus de nous y faire étriper (même si
des vies se jouent quelque fois par son entremise). Plus subtils, les risques y sont pourtant
multiples : vol ou détérioration de données, soumission de machines les convertissant en outils d’agression, mise à mal de services et bien
d’autres périls attendent toute unité ou réseau
qui s’y connecte. C’est un fait bien connu et disposer de protections et contre-mesures est en
général admis. Le problème est : lesquelles ?
En effet, le nombre et les formes des agressions possibles sont tels qu’il semble impéra-
tif de disposer de toute une gamme de matériels complémentaires couvrant la totalité des
risques. Si les grosses entreprises n’hésitent pas,
les PME sont confrontées à une équation économique difficile : soit elles financent des environnements informatiques complexes (tant
sur le plan matériel qu’humain) et problématiques pour leur compte de résultats, soit elles
ne s’offrent qu’une protection minimale en se
fiant à leur bonne fortune et c’est leur résultat
entier qu’elles peuvent compromettre.
En matière de sécurité, des solutions sont
apparues au début du XXIe siècle avec les appliances. Littéralement, une appliance, c’est
un boîtier qui contient tous les éléments d’un
ordinateur (processeur, mémoire vive, ports
entrée/sortie, disque dur) et qui est dédié à une
fonction particulière : firewall, anti-virus, passerelles, VPN, filtrage d’adresses ou autre. Plutôt que d’avoir un ordinateur avec son système
d’exploitation et un ou plusieurs logiciels spécialisés qu’il faut maintenir à leur rythme respectif, les éditeurs ont rassemblé le tout en les
associant à des services de mises à jour unifiés.
Ils ont aussi « durci » les composants de ces boîtiers afin de les protéger eux-mêmes des agressions et de les rendre encore plus fiables. Avec
les appliances multifonctions, ces éditeurs ont
encore poussé plus loin l’intégration et mis en
œuvre plusieurs fonctions de sécurité dans un
même boîtier. Georges Pécontal
e n co
en
c o u v ert
e r t u re
re
Risques informatiques
État des lieux
A
vant d’entrer dans les solutions de
protection, il convient de faire un
point sur les risques encourus. En
premier lieu, et c’est un facteur souvent mésestimé, le principal risque
dans une installation informatique tient à l’interface chaise/écran, à savoir l’utilisateur lui-même.
Que ce soit par distraction, laxisme, confiance,
volonté de nuire, ce sont les faits de collaborateurs qui travaillent dans une organisation qui
la mettent souvent en danger et la tendance au
BYOD (bring your own device) ne fait rien pour
arranger les choses. Il est tellement aisé de creuser un trou dans le firewall de l’entreprise avec
des outils tels que Logmein ou Teamviewer (qui
permettent de prendre le contrôle de son poste
depuis le domicile ou d’accéder à sa machine domestique depuis le lieu de travail) que les DSI en
font des cauchemars. Utiliser un matériel personnel (smartphone, tablette, clé USB, CD/DVD RW,
disque dur de poche) plus ou moins « propre »
semble parfaitement sans risque (« Mais, j’ai un
antivirus à la maison ! ») et tellement facile que
peu y prennent garde. Quant aux intranets basés
sur des systèmes simples (mais plus proche de la
passoire que du bouclier), ils font les délices des
acteurs de l’intelligence économique.
L’imagination humaine étant sans limite,
nous ne saurions livrer une liste exhaustive de
tous les risques possibles (quoique le bon sens
permette d’en identifier la majorité) et nous nous
limiterons ici à ceux liés aux connexions (Internet, liens inter-sites, clients légers, données distantes, mails). Sans proposer un glossaire complet, nos pages sur les dangers du net plus loin
dans ce dossier présentent les principales catégories d’agressions dont il convient de se prémunir. Elles permettront d’identifier celles qui
concernent chacun selon son périmètre d’activité et sa topologie.
e n co
en
c o u v ert
e r t u re
re
Check-list
L
Ce qu’un système
de sécurité doit faire
e problème de la lutte contre les risques
réside dans sa complexité. Choisir la
ou les bonnes défenses en fonction des
besoins spécifiques de l’entreprise et
de son périmètre de risque réclament
une connaissance exhaustive de ceux-ci et une
compétence élevée quant aux solutions techniques. Or, si nombreux sont les VAR (Value
Added Resellers) à même de conduire un audit
de la meilleure qualité, quelques dizaines de
jours leur seront nécessaires, pour peu que
l’activité soit spécifique, pour rendre une copie
exploitable. Si de telles interventions sont le lot
de grosses PME ou des grandes entreprises au
regard de leur chiffre d’affaire, c’est proprement impensable pour une TPE ou une petite
PME. Heureusement, l’ANSSI a publié un rapport sur les bonnes pratiques dans le domaine
de la sécurité des systèmes d’informations : le
guide d’hygiène ! Adapté aux TPE et PME, il représente une sorte de prêt-à-porter de la sécurité face à la haute couture que représentent les
VAR partenaires. Ces meilleures pratiques permettent de déterminer ce que devrait garantir
tout système de sécurité d’une installation. Et
ces garanties tiennent en 7 axes.
1
Identifier
Tout ce qui entre ou trafique sur
le réseau doit avoir une identité
ou une source connue (et qualifiée, c’est à dire considérée comme valide).
Identifier les accès au réseau implique d’une
part de disposer d’une table des utilisateurs
(avec leurs droits), ce qui est assez classique,
mais d’autre part de savoir quelles applications
fonctionnent sur le réseau et agir en cas de présence inappropriée. Certains matériels ont une
capacité de discrimination permettant d’autoriser un site social comme Facebook (nécessaire
par exemple dans le cadre de la gestion d’une eréputation) mais de bloquer les jeux du même
Facebook (totalement inutiles au sens de la production). Par ailleurs, l’identification des sites
de connexion est une nécessité : cela implique
que les accès internet sont filtrés pour gérer
les destinations (interdiction pure et simple de
sites dangereux, limitations à des populations
et/ou des périodes précises pour certains sites).
Cette fonctionnalité est en général liée à l’abonnement à un service de mise à jour auprès d’une
« autorité » qui garantira à ses clients des listes
exactes de ces sites.
Ces meilleures pratiques permettent de déterminer ce
que devrait garantir tout système de sécurité d’une installation. Et ces garanties tiennent en 7 axes.
e n co
en
c o u v ert
e r t u re
re
Toute présence d'un code considéré comme dangereux
ou inapproprié, sur le réseau ou à son entrée, doit pouvoir être bloquée.
2
Repousser
3
Verrouiller
Toute présence d'un code considéré comme dangereux ou inapproprié (virus, spywares, malwares,
adwares…), sur le réseau ou à son entrée, doit
pouvoir être bloquée. Là encore, cette fonctionnalité nécessite un service de mise à jour.
Une fois identifiés, les éléments à
risque et souvent frauduleux sur le
réseau ou du réseau vers internet
doivent être proscrits. Cela implique le blocage
des échanges inadéquats. Les téléchargements
peer-to-peer sont souvent exploités pour récupérer des applications ou des médias dits « crackés » (donc illégaux, ce qui prête le flanc à une
action juridique à l’encontre de l’entreprise). Ils
provoquent en outre une forte consommation
de bande passante dans la mesure où le poste
qui pratique ce type de téléchargement « entre
dans le système » et devient serveur lui-même.
Leur identification est rendue délicate par le
changement permanent de leur adresse IP ou
des ports exploités : le matériel de protection
doit disposer d’un moyen de s’assurer d’un repérage efficace.
4
Garantir et répartir
Par essence, notamment dans les
TPE/PME, la bande passante est
une ressource limitée. La gérer et
choisir son affectation en fonction des exigences
de l’entreprise sont une nécessité. Il est inaccep-
e n co
en
c o u v ert
e r t u re
re
table d’avoir l’accès Internet surchargé par des
utilisations annexes tandis que des éléments de
production (vidéoconférences, accès à des données dans le Cloud, utilisation d’applications en
mode SaaS, etc.) doivent y transiter. La répartition consiste à accorder les ressources nécessaires en fonction des intérêts de l’entreprise
(par exemple en priorisant des applications précises aux moments nécessaires pour des groupes
sélectionnés d’utilisateurs ou en affectant une
fraction précise de bande passante à certains
flux). Une autre dimension de cet axe est la garantie d’existence de lien. Nul n’est en effet à
l’abri d’une panne (de son lien ou de son boîtier
de sécurité) et en cas de dépendance importante
vis-à-vis d’internet, il convient de s’assurer de
leur fonctionnement permanent. Ce service est
proposé par des systèmes de redondance (deux
liens sur le même boîtier, deux boîtiers sur le
même lien, deux boîtiers sur deux liens).
5
Protéger
Dans l’entreprise moderne, l’activité ne se limite plus à un périmètre
physique exact. Outre les sociétés disposant de plusieurs établissements, il est
classique de « rapporter du travail à la maison »
ou, plus simplement, d’utiliser hors les murs
un appareil moderne (smartphone, tablette,
ordinateur portable personnel ou non) pour
consulter ses mails ou exploiter une fonction de
l’entreprise. Protéger les canaux d’échange est
requis. Contrôler le contenu des échanges (mail,
FTP…) afin d’éviter des fuites de données dommageables pour l’entreprise peut s’avérer aussi
une nécessité. Une certaine déontologie doit s’appliquer ici (la loi l’oblige au demeurant) afin de
ne pas confondre surveillance personnelle (recherche de mots clés tels que « Curriculum Vitae » dans les mails) et lutte contre l’intelligence
économique (information sur les flux contenant
des éléments significatifs de fichiers client ou de
bases de secrets de fabrication).
6
Crypter
7
Administrer
Dire que le Cloud est devenu une
dimension incontournable des
entreprises relève de la tautologie.
Les données qui y sont stockées n’y bénéficient
pourtant pas de la protection la plus absolue, loin
s’en faut. Il est donc nécessaire de les protéger de
manière à ne les rendre accessibles qu’à des personnes autorisées. Le cryptage/décryptage « à la
volée » des données permet de palier cette lacune
en les rendant inexploitables à ceux qui ne disposent pas de la bonne clé (un chiffrement AES
avec clé de 256 bits – permis en France depuis
2004 – propose 1,16 x 1077 façons de chiffrer des
données, et demanderait de très nombreuses années à un super ordinateur avant d’être cassé).
Pour être exploitable par des
« non-spécialistes », il est impératif de fournir des plateformes de
management ergonomiques permettant aussi
bien la définition des règles que la visualisation du trafic afin d’adapter le pilotage aux évolutions de la société. Cette visualisation permet
par exemple d’alimenter le périmètre « identification » en connaissant bien les outils en place
dans le réseau avant de procéder à une régulation des utilisations de logiciels. L’administration comporte aussi un volet information qui
répercute les alertes auprès d’un compte « administrateur » en lui permettant de prendre
des décisions (par exemple, savoir qu’on est
victime d’une tentative de « déni de service »
permet de rechercher l’origine de l’agression et
d’entamer des contre-mesures).
e n co
en
c o u v ert
e r t u re
re
Appliances de sécurité
Un spécialiste dédié
C
es axes de fonctionnalité sont peu ou
prou (tout dépend du coût et du périmètre de sécurité proposé) supportés par une gamme extrêmement
complète de logiciels et d’appareils
dédiés. Très performantes et adaptables aux
besoins exacts de chaque entreprise, leur mise
en œuvre demande un parc matériel conséquent (des ordinateurs dotés de ressources définies en fonction de la mission qui leur sera
confiée) et des compétences affirmées tant en
administration de systèmes qu’en définition de
règles de sécurité, ce qui a un coût assez élevé.
Les appliances de sécurité présentent l’immense intérêt de la spécialisation. Assemblées
autour d’éléments dédiés à ces fonctions, elles
sont elles-mêmes « durcies » afin de se protéger
contre les agressions et elles offrent des solutions rapidement opérationnelles même avec
peu de compétences informatiques (même si
l’accompagnement par un spécialiste durant
les premiers pas est souvent la clé d’une sécurité réussie).
Parmi les appliances, les UTM (United Threat
Management ou gestion unifiée des menaces)
représentent des solutions particulièrement
intéressantes pour les TPE/PME. Ces boîtiers intègrent une panoplie complète de fonctionnalités répondant aux 7 axes décrits plus haut. Ce
sont en quelque sorte des intégrés de la sécurité. Ce sont ces unités qui connaissent la plus
forte croissance actuellement dans le monde
entier. Deux grandes méthodes sont exploitées
pour effectuer les tâches liées aux périmètres
de sécurités choisis.
La méthode comparable au « proxy » : l’appareil stocke les données sur une unité de stockage (disque dur ou disque SSD) et y applique
les traitements pour lesquels il est paramétré.
Les données jugées « propres » par une analyse
en couverture
sont transmises à la suivante ou continuent
leur chemin vers leur destination. Les données
considérées comme « déviantes » subissent le
traitement correspondant à l’analyse qui les a
détectées (mise en quarantaine, envoi de message d’avertissement au destinataire et/ou à l’administrateur…). Très pratiquée, cette méthode
pose des problèmes lors de la manipulation de
très gros fichiers qui sont soit ignorés (et transmis sans contrôle avec tous les risques que cela
implique) soit bloqués (avec les inconvénients
de production que l’on peut imaginer. Cette
méthode induit en outre des latences lorsque
de multiples analyses sont effectuées (ce qui est
le cas lorsque tous les services de sécurité sont
activés). Il convient alors de bien dimensionner
(voire sur-dimensionner) la partie processeur
afin de compenser cet inconvénient, une économie en la matière engendrant immanquablement des lenteurs insupportables voire des
blocages.
La méthode dite « à la volée » : ici, peu de stockage mais une mémoire vive et une puissance
de calcul proportionnelle au nombre de fonctions de filtrage. Certains matériels haut de
gamme vont jusqu’à intégrer près de cent
cœurs de processeur (mais disons-le, leur prix
dépasse les 150 K€ ce qui les rend inaccessibles
à la quasi totalité des PME). Chaque fonction
(firewall, filtrage d’url, IPsec, antivirus, analyse de trafic, répartition de bande passante…)
se déroule simultanément avec les autres en
exploitant le nombre de cœurs nécessaire. Les
promoteurs de cette méthode garantissent le
maintien des performances quelle que soit la
charge de l’unité.
Un autre critère doit être pris en compte tout
particulièrement dans les entreprises ne bénéficiant pas des compétences internes dans ce
domaine : la compatibilité ascendante. Ce critère garantit la pérennité de l’investissement
initial car les politiques de règles sont décrites
de la même manière sur la totalité des unités
du constructeur. Ainsi, au fil de l’évolution de
la société et de ses besoins, tout le travail antérieur sera portable même par un novice.
Enfin, la fonction centrale reste et demeure
le firewall, cœur de la protection. Les familles
classiques (et un peu anciennes) se contentent
de ce qu’il est convenu d’appeler un « static packet filtering » (ou filtrage statique de paquets).
De manière simple, seuls l’en-tête et l’origine
des paquets sont analysés. Les pare-feux de
dernière génération (next gen firewalls) ont
une approche plus dynamique de l’analyse et
traitent la totalité des flux les traversant. Pour
une protection efficace, ces derniers doivent
absolument être privilégiés.
La compatibilité ascendante garantit la pérennité de
l’investissement initial car les politiques de règles sont
décrites de la même manière sur la totalité des unités
du constructeur. Tout le travail antérieur sera portable
même par un novice.
e n co
en
c o u v ert
e r t u re
re
Appliances de sécurité
Comment choisir ?
T
ous les éditeurs de sécurité décrivent
leurs gammes par des caractéristiques numériques : débit firewall,
débit VPN, débit IPS, débit antivirus, nombre de règles, nombre de
connexions (ou sessions) simultanées, nombre
d’ouvertures de sessions simultanées, nombre de
tunnels VPN IPsec ou SSL, etc. Si ces informations
sont intéressantes pour comparer des matériels,
elles ne sont pas évaluées de la même manière
d’un constructeur à l’autre. D’autre part, pour
citer un éditeur, « comparées à la description d’un
véhicule, elles vous donnent leurs possibilités à vide
et en descente mais absolument pas leurs capacités en pleine charge dans une montée ».
Comme indiqué plus haut, ces caractéristiques sont « théoriques », souvent exclusives
l’une de l’autre (si l’on active l’antivirus, le flux
firewall ne pourra jamais être atteint) et obérées par la mise en place de politiques de sécu-
rité complexes. Choisir un matériel demande
donc d’évaluer les besoins, et la simple catégorisation TPE/petites PME/PME ne suffit pas. Il
existe des TPE de 5 personnes travaillant chez
elles et manipulant des fichiers extrêmement
lourds dans un milieu concurrentiel tandis
que certaines PME de plus de 50 salariés n’exploitent localement que des fichiers simples et
n’ont que des échanges modestes via Internet.
Dimensionnement (pour donner les débits
devant être assurés) et caractérisation (pour
donner le type de défense, leur niveau et donc la
puissance de calcul nécessaire) sont donc la clé
d’une bonne sécurité. Ils reposent sur 8 axes.
1
Nombre de personnes
reliées à Internet
Même si ce critère n’est pas à lui
seul déterminant, il contribue à
dimensionner les besoins.
e n co
en
c o u v ert
e r t u re
re
2
Typologie d’utilisation
L’entreprise peut limiter l’utilisation de son environnement ou
permettre des appareils externes
de salariés (le courant du BYOD fait entrer dans
les réseaux d’entreprise des configurations quelquefois inattendues) ou de visiteurs (qui peuvent
avoir besoin d’accès internet par le wifi et que la
plus élémentaire des sécurités interdit de laisser
pénétrer dans le réseau principal).
3
Grandeur des données
4
Type d’usage
Les flux se calculent à partir du
nombre, du type et de la taille des
fichiers à échanger ainsi que du
nombre d’échanges par période de temps. Les
fichiers multimédias sont par essence volumineux (et il est nécessaire d’identifier ceux qui
seraient « cachés » car inclus dans des sites nécessaires mais n'étant pas « internes » à l’entreprise). De même, un Cloud a un énorme impact
sur ce besoin précis puisque les données de travail transitent sans arrêt sur le net. Certes, en
l’espèce, un éventuel ralentissement n’est pas
directement préjudiciable au travail mais l’occupation de la bande passante limite le débit
disponible pour d’autres usages.
L’exploitation de logiciels sur le
net (que ce soit des extranet via
un navigateur ou des applications
SaaS, PaaS ou IaaS plus élaborées) est un élément de consommation à calculer. C’est aussi
le symptôme d’un besoin d’outil de répartition
de la bande passante pour éviter les ralentissements et donc de caractéristiques nécessaires
pour la solution de sécurité.
5
Population de travailleur
et type d’activité
Si l’activité fait appel à des personnes peu familières avec les
pratiques modernes (telles que, par exemple,
réseaux sociaux) ou extrêmement disciplinées,
le système de sécurité pourra fermer la quasi
totalité des accès à ce qui ne relève pas exclusivement du périmètre professionnel. Si en revanche
la population employée est très friande des NTIC
ou que l’activité même inclut leur usage pour certains de ses services (par exemple, le commuity
manager aura bien du mal à faire son travail d’eréputation sans accès aux réseaux sociaux et les
services comptables connaîtront quelques difficulté à procéder aux opérations de trésorerie
sans accès aux comptes bancaires), le système de
sécurité devra pouvoir affecter des droits d’accès
à des personnes ou des groupes de personnes
voire même leur autoriser ou interdire certaines
applications. Dans certains cas, ces droits devront
pouvoir être modulés dans le temps (une société
procédant cycliquement à des vidéoconférences
pourra prioriser ces applications les jours nécessaires aux dépends d’autres besoins).
Les fichiers multimédias sont volumineux et il est nécessaire d’identifier ceux qui seraient « cachés » car
n’étant pas « internes » à l’entreprise.
e n co
en
c o u v ert
e r t u re
re
ƒig. 1 – Carte des besoins
Nombre de personnes
reliées à Internet
9
8
Faiblesse des
compétences
internes
Typologie
d’utilisation
7
6
5
4
3
2
1
0
Vulnérabilité
Grandeur
des données
Topographie
de l’activité
Type d’usage
Population de travailleurs
et type d’activité
Cartographie de qualification d'un périmètre de sécurité souhaité
6
Topographie de l’activité
Selon cet axe, une entreprise fonctionne en un seul lieu rassemblant
les équipes, en plusieurs lieux
fixes d’activité, avec des travailleurs distants
et/ou avec des travailleurs en mobilité (sachant
que ces paramètres peuvent se mixer : multisite
avec des travailleurs permanents à domicile et
des travailleurs itinérants). Une entreprise très
localisée aura moins de problèmes de liens à résoudre qu’une entreprise répartie.
Entreprise très fortement localisée : tous les acteurs sont dans un même lieu. Dans ce cas, le système de protection va être similaire à une porte
blindée comportant des orifices très précis (par
exemple celui pour l’internet, ports 80 et 443, celui pour le mail, ports 25 et 110), etc. sur lesquels
le matériel de sécurité aura une vigilance aigüe.
en couverture
Si par exception un acteur extérieur devait pénétrer le système de protection, la majorité des
matériels de sécurité proposent en standard d’en
gérer quelques uns (encore faut-il le prévoir et
bien se munir d’un système le permettant).
Entreprise avec plusieurs sites : les acteurs sont
répartis en granules. L’alternative va être de
concentrer les défenses en un seul lieu central
(auquel cas il faudra relier chacun de ces granules à ce centre via, par exemple, un lien VPN
IPsec et imposer à tous leurs trafics de passer par
ce centre qu’il faudra dimensionner en conséquence) ou de répartir les défenses sur chacun
des lieux de travail (ce qui ne va pas réduire le
besoin en lien sécurisé mais va le répartir selon
le débit et la nécessité de protection.
Entreprise mono ou multisite utilisant des personnels à domicile ou des acteurs mobiles occasionnels :
cette fois, il s’agira de mettre en œuvre des tunnels VPN temporaires (VPN SSL). Le matériel devra supporter le nombre de tunnels simultanés.
L’utilisation des smartphones ou tablettes pour
la consultation de mails relève de ce périmètre.
7
Vulnérabilité
Ce facteur est complexe à définir
mais il mesure l’envie qu’un tiers
aurait de s’attaquer à l’entreprise.
Plus le milieu professionnel est concurrentiel,
plus l’excellence de l’entreprise est grande et
plus ses spécificités sont exceptionnelles (brevets, secrets de fabrication, anticipation des
besoins qui lui donne des coups d’avance), plus
les convoitises sont exacerbées et les risques
importants. Si cela a peu d’impact sur la volumétrie des données, cela en a sur la force des
protections à développer… et aussi sur la méfiance à avoir envers tout et tous. Le besoin
d’outils de sécurité apte à détecter les fuites de
données peut émerger ici.
8
Manque de compétences
internes
Il est clair que si l’entreprise ne
comprend pas de département informatique ou de personnes disposant des compétences nécessaires à la manipulation de tous les
éléments de sécurité, une attention particulière
devra être portée sur l’ergonomie et la simplicité
de mise en œuvre. Même si les RSSI ne détestent
pas l’ergonomie, ils en sont moins tributaires de
par leur expérience et mettront plus l’accent sur
la finesse de paramétrage et l’exhaustivité des
informations livrées par leur système.
Évaluer la « puissance réelle » ou « utile »
d’une unité de sécurité n’est pas simple. Ainsi,
tel UTM proposant un débit de 200 Mbits/s pour
le firewall ne va pas nécessairement les assurer
si vous établissez de très nombreuses règles de
sécurité (et au demeurant, le nombre de règles
possibles est aussi un paramètre à prendre en
compte). Si en outre vous décidez d’ouvrir plusieurs dizaines de tunnels VPN vers vos utilisateurs itinérants (et le nombre maximal de
tunnels ouverts simultanément est aussi un critère) et que vous avez décidé la mise en place de
toutes les protections (antivirus, antispam, détection d’intrusion, filtrage applicatif et d’URL),
il faudra, d’une part prendre comme débit
maximum celui assuré par la fonction la plus
lente et, d’autre part réduire encore ce nombre
en fonction des traitements souhaités.
Pour guider cette démarche, nous proposons d’organiser l’analyse des besoins selon les
8 axes de description ci-dessus au travers d'un
« radar » (voir figure 1) représentatif des exigences de sécurité. Notés de 1 à 10, chacun des
critères va former les sommets d’un octogone
irrégulier qui définira votre territoire de sécurité souhaité. Les caractéristiques des matériels
e n co
en
c o u v ert
e r t u re
re
ƒig. 2 – Carte des caractéristiques
Débit maximum de la
fonction la plus lente
9
8
7
Ergonomie
6
5
Possibilité
de connecter
des matériels
extérieurs
(BYOD)
4
3
2
Gestion
de bande
passante par
personne
1
0
Gestion
fine des
utilisateurs,
antivirus
Gestion
applicative,
nombre de
règles
Administration
multi site
Nombre de VPN IP sec/SSL
Dans cet exemple, la carte des caractéristiques (en rouge) recouvre celle des besoins (en bleu).
devront ensuite être appariées à ces besoins
(par exemple : bande passante maximale proposée pour la fonction la plus lente et nombre
de connexions simultanées, nombre de règles
firewall, nombre et type de VPN possibles, filtrage applicatif, antivirus, ergonomie). Cet appariement n’est pas générique : chacun devra
chercher celui qui lui convient. Les éléments
ainsi définis seront à leur tour notés, ce qui permettra de dessiner un nouveau territoire : celui
des performances de chaque matériel. Lorsque
la carte d’une appliance recouvre la totalité de
celle des besoins, elle est éligible (figure 2). Il
reste alors parmi les matériels possibles à trancher sur le prix, les services du fournisseur ou
toute caractéristique complémentaire qu’il proposera.
Le VAR est votre ami. Toute la difficulté ré-
side bien sûr dans l’appariement des critères
en couverture
ENTRETIEN
Pierre Poggi, Country Manager de WatchGuard
pour la France
Pour Pierre Poggi, il est essentiel
pour une entreprise de conduire
régulièrement une étude de sa
connexion Internet. Cela fait
partie intégrante du processus de
sécurisation pour deux raisons :
connaître la composition des
flux y compris les applications
web utilisées, et dimensionner
la puissance de l’appliance
requise pour sécuriser la liaison
Internet. Comme nous l’avons
vu, toutes les liaisons Internet
ne se ressemblent pas, et ne
sauraient se limiter au seul débit.
Le choix d’un boîtier de sécurité
est donc directement dépendant
des conclusions de cette étude
initiale. Pierre Poggi rappelle à
ce sujet que le chef d’entreprise
est responsable des données qui
y circulent, et donc de l’usage
que font ses salariés d’Internet.
Au-delà de la DSI, cela concerne
donc tout autant la DRH que le
service juridique de l’entreprise.
Le maître mot reste toutefois la
pédagogie, insiste Pierre Poggi.
WatchGuard confie ainsi à ses
revendeurs l’organisation de
et la bonne définition des notes à attribuer. La
technique « du doigt mouillé » est souvent utilisée pour un utilisateur très averti mais un
conseil avisé est tout de même préférable. Il ne
suffit pas de connecter un matériel quelconque
aux caractéristiques en apparence correctes et
de retourner à ses affaires. Faute d’une bonne
adéquation entre l’activité et la sécurité, l’illusion de la protection peut créer plus de drames
que de bienfaits. Or, dans les TPE ou les PME
de taille moyenne, la problématique principale
est souvent l’objet de l’activité, un périmètre est
souvent sous-estimé. Si les appliances de sécurité apportent réellement des solutions « prêtes
à porter », outre leur bon dimensionnement, il
faut garder un œil sur ce qu’elles font, entretenir leurs règles en fonction de l’évolution de
l’activité ou des contextes de l’Internet. Le choix
de produits proposant des rapports exploitables
séminaires de sensibilisation
gratuits auprès des collectivités
locales, avec des résultats très
encourageants.
(c’est-à-dire pas des listes infinies de log mais
des informations lisibles sur tout ce qui n’est
pas « normal ») est certes un moyen de surveillance mais ce n’est pas vraiment le travail d’un
responsable de PME que d’effectuer cette supervision.
Le VAR se présente donc ici comme l’acteur essentiel. Partenaire de confiance, sa compétence
et sa connaissance de l’entreprise viennent au
service de votre sécurité. Il vous épaulera dans
la démarche décrite plus haut. Et une simple
visite annuelle de réglage (quelques centaines
d’euros) garantira une protection continue et
de qualité. S’il est certes utile d’avoir un petit
firewall à l’entrée de son réseau, la mise en place
d’une politique de sécurité pérenne et respectant les règles de l’art passe souvent par le choix
d’un partenaire compétent qui va accompagner
l’entreprise pendant longtemps.
e n co
en
c o u v ert
e r t u re
re
Appliances de sécurité
Parts de marché mondiales des appliances
Fabriquant
Cisco
Check Point
Juniper
Fortinet
McAfee
Autres
Total
1er trimestre 2012
CA
Part de marché
346 M$
17,80 %
239 M$
12,30 %
152 M$
7,80 %
104 M$
5,30 %
112 M$
5,80 %
992 M$
51,00 %
1 945 M$
100 %
1er trimestre 2013
CA
Part de marché
335 M$
16,60 %
252 M$
12,50 %
125 M$
6,20 %
121 M$
6,00 %
111 M$
5,50 %
1 066 M$
53,20 %
2 010 M$
100 %
Écart
2012/2013
-3,40 %
5,70 %
-17,70 %
16,60 %
-0,80 %
7,50 %
3,40 %
Un marché en croissance
modérée tiré par les UTM
A
près les grandes manœuvres de regroupement constatées en 2012 (rachat de Secure Computing par
McAfee puis de McAfee par Intel,
reprise d’Astaro par Sophos, de SonicWall par Dell), le marché de la sécurité informatique se consolide. Celui des appliances,
qui n’en représente qu’environ 10 % avec
quelque 2 milliards de dollars au premier trimestre 2013 (source IDC Worldwide Quarterly
Security Appliance Tracker, de juin 2013), est
en croissance modérée (+3,4 %) par rapport au
même trimestre de 2012 tandis que le nombre
d’unités vendues est en net recul (-6,4 % avec
472 306 boîtiers vendus). Au sein de ces appliances, ce sont les unités multifonctions qui
tirent le marché (et en atteignent 37,1 %) tandis que les firewall/VPN sont en net recul (tout
en représentant encore 20,9 % de l’ensemble)
et que les passerelles de sécurité sont en forte
croissance pour en atteindre 20,3 %.
Cette apparente stabilité cache toutefois une
grande disparité.
D’une part, si 5 constructeurs se partagent
quasiment la moitié de ce marché, leur part
est en recul et 53 % sont répartis entre une
grande quantité d’acteurs et la bataille y est
âpre. Parmi eux, Blue Coat, Palo Alto Networks
qui adressent plus particulièrement les grands
groupes et Sophos y ont connu la plus grosse
croissance.
D’autre part, Cisco qui domine ce secteur
(16,6 %) y perd 3,4 % de CA tandis que Juniper
connaît une chute de plus de 17 % de son CA
tout en maintenant sa 3e place (6,2 %) et que la
position de McAfee s’effrite (-0,5% de CA pour
e n co
en
c o u v ert
e r t u re
re
5,5 % du marché). Pendant ce temps, Check
Point maintient sa croissance avec 5,7 % et
conforte sa seconde place (12,5 %) tandis que
Fortinet effectue un bond de 16,6 % pour ravir
la 3e place (6 %) à McAfee.
En France, aujourd’hui, si la structure est similaire en prenant en compte tout le marché (y
compris les différentes structures d’état ou les
grosses entreprises du CAC 40), pour les PME,
Fortinet se taille la part du lion avec près du
quart du marché tandis que Cassidian (groupe
de sécurité français, filiale du groupe EADS
avec les solutions Netasq et Arkoons) en prend
environ 22 %. Viennent ensuite Check Point et
SonicWall (repris par Dell en 2012). Juniper, toujours présent recule quelque peu sur le marché
de la sécurité depuis sa réorientation vers les
matériels de connectivité.
Quelques liens
Normes
Agence Nationale
de la Sécurité des Systèmes
d’Information (ANSSI)
www.ssi.gouv.fr
ANSSI : Le guide d’hygiène
des systèmes informatiques
www.ssi.gouv.fr/IMG/
pdf/guide_hygiene_informatique_
anssi.pdf
PCI SSC
https://www.pcisecuritystandards.
org
Organisme
de qualification
Gartner est un organisme privé
qui analyse en profondeur
les résultats des entreprises
et structure les différents
marchés de la technologie en
pointant les leaders
www.gartner.com/technology/
research/methodologies/research_
mq.jsp
Le NSS Labs procède à des
tests d’utilisation : les matériels
y sont mis à l’épreuve pendant
plusieurs mois dans des
conditions réelles d’utilisation.
Ses notations sont très
réalistes.
https://www.nsslabs.com
Fabricants & éditeurs
Cassidian (Arkkon et Netasq)
www.arkoon.net/securite-desreseaux-informatiques-appliancefast360
www.netasq.com/fr/products/
unified-threat-managementsecurity/tableau-comparatiffirewall
Check Point
http://france.checkpoint.com/
fiches-produits
Dell Sonicwall
www.sonicwall.com/fr/fr/
products/TZ_Series.html
Fortinet
www.fortinet.fr
Juniper
www.juniper.net/fr/fr/
WatchGuard
www.watchguard.com/
international/fr/corporate
ZyXEL www.zyxel.fr
e n co
en
c o u v ert
e r t u re
re
Appliances de sécurité
Se repérer dans l’offre actuelle
L
es pages qui précèdent présentent la
structure du marché des appliances de
sécurité. Quatre constructeurs se partagent plus de la moitié du marché national tandis que tous les autres (plus d’une
dizaine) se battent pour le reste. Notre propos
s’adressant plutôt aux TPE/PME, nous nous limiterons à une présentation rapide des principaux
acteurs et de leurs gammes.
Cisco |
Cisco répartit son offre en deux
grands axes : les grandes PME avec une gamme
de firewall de nouvelle génération ACA-CX proposant un niveau élevé de sécurité avec un système de création de règles intuitif incluant des
paramètres tels que l’identité de l’utilisateur, le
type de terminal ou de connexion (locale ou distante avec prise en compte de VPN), l’heure de
la connexion, l’application utilisée, La catégorie
d’URL, la réputation de la destination (pour palier
le risque d’infection), le chiffrement ou pas de la
session. Pour les TPE/PME, Cisco propose au travers de Cisco Meraki des équipements de sécurité gérés en mode Cloud. Outre la fonction parefeu et des connections dites Auto-VPN, l’interface
web Cisco Meraki offre une gestion centralisée
des réseaux sans fil, commutateurs et des appareils mobiles mis à disposition du personnel. Le
filtrage par application, par type de terminal et
des connexions à distance depuis smartphones
et tablettes fait partie de cette gamme, apportant les mêmes fonctionnalités que les systèmes
les plus complexes au service des entités les plus
modestes. Ce sont les gammes MX60 (environ 20
utilisateurs) à MX90 (jusqu’à 250 utilisateurs)
qui adressent ce marché.
en couverture
Fortinet | Fortinet, acteur traditionnel
de la sécurité informatique et tout particulièrement des appliances (plus de 100 000 clients
dans le monde exploitent ses solutions) est un
des pionniers des UTM où il a une longue expérience. Il propose une large gamme de modèles
adressant au plus près les besoins des différents
types d’entreprise en fonction notamment de
leur taille et de leurs besoins. Sa gamme très
lisible permet aisément d’identifier un matériel adéquat. Par exemple : pour les TPE, la
gamme desktop (FortiGate/FortiWifi-20 à 90) ;
pour petites PME, les modèles FortiGate-60D
à 90D ; pour les moyennes à grosses PME, les
Cassidian | Cette filiale d’EADS est spé-
cialisée dans les solutions de protection informatique de pointe. Elle a racheté en avril
2013 Arkoon Network Security, éditeur français (basé à Lyon) de solutions de protection
réseau proposant une gamme d’UTM particulièrement puissante, les Fast360. Avec une
méthode de détection contextuelle, les FAST360
sont aptes à résister aux attaques les plus complexes. Ces appliances proposent de nombreux
services de sécurité spécialisés tels que filtrage
d’URL, VPN, VLAN, antivirus, antispam. Ce
rachat est intervenu quelques mois après celui
de Netasq, autre éditeur français de solutions
FortiGate-100C à 600C. Toutes ces appliances
intègrent les fonctions essentielles de sécurité
réseau : pare-feu, VPN sur IPsec ou SSL, antivirus, antispam, prévention des intrusions et
filtrage Web, etc. La prévention des fuites de
données, le contrôle applicatif, l’inspection du
trafic SSL, le contrôle d’accès des postes utilisateurs et la gestion des vulnérabilités ne sont
pas oubliés.
Des services d’abonnement permettent de
mettre à jour les appliances (firmware, tables
de virus, liste de sites). L’expérience accumulée au fil du temps a permis à ce constructeur
de développer des processeurs SoC optimisés
pour leurs fonctions (FortiASIC Network Processor pour assurer des débits de sécurité ultra-rapides et le FortiASIC Content Processor,
qui accélère l’inspection des contenus).
de sécurité acquis en 2012. Netasq avait déjà
au début de l’année 2012 racheté les technologies Edenwall spécialisée dans le filtrage de
réseau en fonction de l’identité de l’utilisateur
et de son contexte de connexion. Netasq propose plusieurs gammes d’appliances adressant
les TPE/PME (U30 ou U70 au format ½ U) et les
PME (avec les U150 et au-delà au format 1U) dotée des dernière technologies d’analyse, de filtrage et d’administration aux normes les plus
récentes. Ces opérations ont porté Cassidian à
la seconde place des solutions de sécurité avec
près du quart du marché et une offre d’un très
haut niveau.
en couverture
Check Point | Check Point Software
Technologies Ltd. est lui aussi un des leaders
mondiaux de la sécurité, renommé depuis
longtemps avec notamment Firewall-1 qui
protège les sociétés du monde entier depuis
de nombreuses décennies (une version existait déjà du temps de Windows NT4). Ses appliances ont hérité de cette technologie et
Check Point a amélioré son offre avec l’architecture « software blade » autorisant une adaptation au plus près des besoins des clients. Très
bien implantée dans les plus grandes entreprises mondiales (les 100 entreprises référencées dans le classement « Fortune 100 » sont ses
clients), Check Point développe cette activité
haut de gamme vers les PME avec les matériels
de type UTM-1 Edge N pour les grosses PME,
Sale@Office 500 et 1000 pour les PME et, de-
Dell SonicWALL | SonicWALL est
un acteur de la sécurité informatique depuis
1991 et constructeur d’appliances racheté
par Dell en mai 2012. Il fournit des solutions
de protection haut de gamme de réseaux et
de protection « intelligente » des données. Le
constructeur est par- ticulièrement réputé
pour ses solutions
de management de
systèmes distribués
permettant aux administrateurs réseau
de dimensionner et de
gérer de manière
centralisée un nombre
considérable
de
matériels sur de multiples sites. En plus
des fonctionnalités de
puis le début de l’année 2013, avec ses modèles
Appliances 600 particulièrement orientés vers
les TPE/petites PME. D’un coût extrêmement
réduit (la gamme débute en dessous de 300 €)
ces unités apportent un très puissant pare-feu
doté des derniers développements en matière
de prévention des menaces, de filtrage applicatif, d’antivirus et d’antispam. Elle propose aussi la gestion du sans fil avec plusieurs réseaux,
permettant d’offrir un accès Internet aux invités sans risque pour le réseau interne, et une
administration intuitive.
protection (firewall, détection d’intrusion, filtrages applicatifs, etc.), SonicWALL offre elle
aussi une gestion centralisée des différentes
appliances mises en service dans une structure (locale ou éclatée). Dell SonicWALL propose une démarche originale dans la sécurité
informatique par son développement de matériel multicoeur à la puissance de calcul adaptée
au nombre de fonctionnalités mises en œuvre.
Cette technologie est accessible dès les entrées
de gamme puisqu’un produit bicœur est proposé aux environs de 300 €. Un produit 96 cœurs
coûte quelques 150 K€ et servira de préférence
les grosses structures. La gamme plus particulièrement dédiée aux TPE et petite PME (jusqu’à
70 postes) est la gamme TZ (TZ 150/170/170W)
inférieure à 1 000 €. La gamme NSA vient ensuite au service d’entreprises ayant besoin de
gérer plus de postes.
en couverture
Sophos | Initialement (ce qui remonte tout
de même aux années 80), Sophos était un éditeur de solutions antivirus et de chiffrement. La
société s’est développée depuis lors et a produit
des solutions intégrées (UTM) qui ont atteint
les meilleurs niveaux de qualification (Gartner Quadrant magique en 2012 par exemple).
Sa solution Sophos UTM Home Edition est une
offre logicielle gratuite à destination des foyers
(qui permet de monter aisément des réseaux
privés en direction des entreprises, ce qui facilite le travail sécurisé à domicile). La gamme
d’appliances est composée de 8 matériels (UTM
100 à 625) adressant depuis les PME jusqu’aux
grosses entreprises.
Watchguard | Bien présent en France
aussi, Watchguard a récemment mis sur le
marché deux nouvelles appliances (UTM) : les
XTM 25 et 26 particulièrement destinées aux
petites entreprises. Elles incluent l’inspection
HTTPS, le support de la VoIP, le contrôle d’applications, la gestion des VPN (pour iOS), la prévention contre les malwares et les hackers, une
solution Cloud de filtrage des IP et des URL en
plus des services de sécurité usuels (blocaque
d’URL, antispam, passerelle antivirus, IPS…).
La gamme comprend aussi une importante série de matériels adressant toutes les entreprises
jusqu’aux plus grosses.
ZyXEL | Les nouveaux ZyWALL USGs 20,
20W (version sans fil) et 50 s’adressent plutôt
aux TPE tout en permettant plusieurs tunnels
VPN simultanés ce qui les destine aussi aux travailleurs domicile. Notons le service « à vie »
de mise à jour du firmware de ces boîtiers. La
gamme se complète de produits destinés aux
PME jusqu’à 500 postes environ proposant
tous les services de sécurité attendus jusqu’à
la haute disponibilité. L’antivirus proposé est
sous licence Kaspersky. e n co
en
c o u v ert
e r t u re
re
Dangers du net :
les mots pour le dire
a>c
Le vocabulaire Internet est majoritairement anglais. La liste qui suit est organisée par ordre alphabétique des principaux risques encourus par
ses usagers.
Adware
Corolaire des spywares, les adwares affichent
des panneaux publicitaires (bandeaux, popups)
dans le navigateur de leur victime.
Backdoor
Littéralement « accès dérobés », ces moyens
permettent à un agresseur de se connecter discrètement au système concerné. Ils sont mis en
place par des virus ou des codes malicieux.
Botnet
C’est un groupe de machines contrôlées par un
même agresseur. Les botnets (ou zombies) sont
souvent exploités pour des attaques massives
en déni de service.
Buffer overflow
Cette forme d’attaque exploite un défaut dans
le programme agressé qui ne contrôle pas la
taille des données qu’il manipule et peut se retrouver en « dépassement de capacité » à l’occasion de la manipulation de certaines données.
En dépassant la taille logiquement affectée aux
données, l’agresseur peut littéralement déposer un code exécutable dans la machine porteuse ou choisir le point où le programme va
reprendre le fil de son activité. Ces défauts sont
usuellement le fait de langages de programmation qui en ouvrent la possibilité.
Covert channel
Particulièrement difficile à détecter, le « covert
channel » (ou canal caché) consiste en l’exploitation d’un moyen non prévu à cet effet pour
transférer discrètement des informations. C’est
un moyen de faire circuler illicitement (en
contradiction avec les règles locales) des informations au travers d’un système. Il existe plusieurs types de covert channels. Par exemple,
un processus peut voir « modifier » son temps
d’action (comme son temps d’écriture d’une
donnée sur un disque) pendant qu’un autre
processus « lit » ces modifications, transformant
ces modifications en séries de « 0 » et de « 1 »,
donc en données. L’existence insoupçonnable
de tels canaux est un argument des défenseurs
de la stéganographie (l’art de la dissimulation :
personne ne sait qu’il y a une donnée) face à
la cryptographie (l’art du secret : la donnée est
connue mais transformée de manière à n’être
lue que par un processus disposant d’un code).
Cross site scripting
Cette forme d’agression consiste en l’insertion
de données pernicieuses au sein des lignes
HTML (ou JavaScript et VB script) des pages web.
Cela permet de faire afficher autre chose que ce
qui est normalement prévu dans la page, d’exé-
en couverture
c>k
cuter des codes agressifs ou d’engendrer des
actions différentes que celles prévues par son
utilisateur (par exemple l’envoyer vers d’autres
sites internet) ou modifier les cookies associés à
la session. Ce type d’agression concerne des serveurs mal protégés qui deviennent alors « porteurs sains » dans la mesure où ils ne semblent
pas impactés et où le code malicieux s’exécute
sur les machines clientes.
Cross-site request forgery
Ce type d’attaque génère un envoi de requêtes
vers un site par sa victime. Appelée aussi « injection de requêtes illégitimes par rebond », cette
forme d’agression voit l’attaquant profiter de
l’authentification de la victime sur le site visé.
Cybersquatting
C’est une agression consistant à enregistrer un
nom de domaine dans le seul but de bloquer
toute attribution ultérieure par leur titulaire
naturel ou légitime. Par exemple, une société
« le bel ordinateur » qui voudrait créer un site
Internet « le-bel-ordinateur.com » pourrait se
retrouver obligée de racheter son propre nom
si un tel cybersquatteur l’avait précédée.
Defacement
Cousine du cross site scripting, cette agression
consiste à altérer le contenu d’un serveur internet. Les Anonymous se sont notamment fait
connaître en se livrant à ce type d’agression
contre différents sites Internet
Denial of service
Le « déni de service » a pour effet d’inhiber un
système dans sa fourniture d’un service donné, en général par sa saturation. Il arrive que
le DoS soit seulement dû à un sous-dimensionnement des ressources allouées, ce qui rend
l’identification d’une attaque difficile.
DNS pharming
Assez élaborée, cette agression consiste à modifier un serveur DNS pour rediriger un domaine
vers une autre adresse que la sienne. Tous les
flux (mail, connexion d’utilisateur…) sont ainsi récupérés par un utilisateur malhonnête.
Par définition, ce type de menace concerne les
environnements où des domaines sont définis
(donc rarement les TPE ou petites PME).
Exploit
Fruit de l’intelligence technique, ce sont des
codes qui exploitent une vulnérabilité d’un
logiciel ou d’un matériel à des fins en général
peu avouables (accès à des données, prise de
contrôle à distance de tout ou partie d’un système informatique, inhibition d’accès…).
Hoax
Il s’agit des canulars : une information est transmise avec pour objet de provoquer une réaction
chez son récepteur, réaction prévisible et en
général dommageable (rejet d’un produit, participation à des chaînes contribuant à dénigrer
une personne ou un produit et dégrader leur
e-reputation). Certains hoax célèbres ont annoncé le changement de politique de Hotmail
ou Facebook supposés devenir payants tandis
qu’un autre a décrit la possibilité de faire cuire
un œuf avec un téléphone portable !
Keylogger
Ces dispositifs (matériels ou logiciels) permettent de capter les frappes clavier d’un utili-
en couverture
l>r
sateur. C’est un moyen efficace d’espionnage, de
vol de codes d’accès ou de données bancaires.
Logic bomb
Cette forme d’agression est caractéristique de
logiciels sournois mais en apparence. Inoffensifs. Passives (et donc inactives) tant que des
conditions préprogrammées ne sont pas réunies, elles se déclenchent automatiquement
lorsque les conditions sont rassemblées. Certains virus fonctionnent sur cette base : frappe
d’une adresse dans un navigateur, occurrence
d’une date (le virus Tchernobyl qui se déclenchait le 26 avril, date anniversaire de l’explosion de la centrale éponyme a fait de gros dégâts entre 1997 et 2002).
Malware
Ces programmes ont pour objet de nuire à
leurs utilisateurs ou au système informatique
qu’ils emploient. Les virus sont des types de
malwares.
Man-in-the-Middle
Cette agression consiste en une « usurpation »
où une personne malveillante s’interpose de
manière transparente pour les utilisateurs
dans un échange. Les éléments du trafic intercepté sont copiés et éventuellement modifiés
avant renvoi à leur destinataire.
Mail bombing
C’est l’envoi en masse de mails à une même
adresse jusqu’à obtenir la saturation de la boîte
ainsi visée. Cette forme d’agression peut est utilisée pour bloquer un compte commercial ou
un support technique.
Phishing
L’agression consiste ici à simuler un environnement de confiance (écran d’accueil d’une
banque) pour voler les données confidentielles
de l’utilisateur qui s’y laisse prendre. Ces attaques, aussi appelées « hameçonnage », se font
souvent en deux temps, un mail conduisant la
victime sur le site falsifié.
Port scanning
Cette technique consiste à expédier sur les différents ports d’une machine des paquets et d’en
déduire l’état (ouvert ou fermé) en fonction de
la réponse obtenue. Par exemple, le port 80
peut être ouvert pour une machine attendant
des flux de type http tandis que le port 443 le
sera pour des flux https. Cela est normal et les
systèmes de protection s’y attendent et filtrent
ce qui y transite. Mais d’autres ports peuvent
être ouverts et prêter le flanc à une attaque
faute d’une protection appropriée.
Ransomware
Cette forme de virus consiste à extorquer
quelque chose d’un utilisateur faute de quoi le
service ou la machine auxquels il veut accéder
lui sont interdits. Certains de ces ransomwares
bloquent des machines ou cryptent des disques
durs jusqu’à obtention d’un code de débridage.
La réinitialisation est certes possible mais les
données sont alors perdues à jamais.
Rootkit
Ce terme désigne tous les logiciels permettant
de s’assurer le contrôle d’un système sans y
avoir été invité. Le rootkit est installé par le
biais d’une agression (virus, par exemple).
en couverture
s>z
Sniffer
Ces moyens (matériels ou logiciels) analysent
les données transitant sur les réseaux parmi
lesquelles les codes d’accès, les données de travail voire même les éléments environnementaux permettant d’organiser une attaque informatique.
Spam
De manière large, les spams sont tous les courriers automatiques envoyés de manière non sollicitée par leur destinataire. Si elle concernent
quelque fois du démarchage commercial (encore que ce soit interdit : « Est interdite la prospection directe au moyen d’un automate d’appel,
d’un télécopieur ou d’un courrier électronique
utilisant, sous quelque forme que ce soit, les coordonnées d’une personne physique qui n’a pas exprimé son consentement préalable à recevoir des
prospections directes par ce moyen. ») ce sont en
général des porteurs de moyen à la légalité douteuses ou d’attaques.
Spyware
Ces logiciels espions ont pour objet de collecter des données comportementales d’un utilisateur à son insu au commanditaire de leur
action. Leur action est souvent « commerciale »
dans la mesure où les informations envoyées
relèvent des usages de l’utilisateur victime.
Trojan horse
Les « Chevaux de Troie » sont des formes de
programmes dont l’utilisateur pense tirer un
avantage quelconque alors que leur véritable
fonction reste cachée : vol de données, exploitation d’autorisations de l’utilisateur pour accéder des ressources limitées, etc.).
Typosquatting
Cousine du cybersquatting, cette action consiste
à déposer un nom de domaine très proche
d’un autre, avec pour différence un ou deux
caractères seulement. Il s’agit ici de capter les
connexions normalement destinées au site normalement orthographié. Pour s’en prémunir,
Google n’a pas hésité à réserver le nom « gogle »
avec plusieurs extensions (.com, .fr, .it…).
Virus
Ces logiciels (ou morceaux de logiciel) malveillants ont pour but d’assurer leur survie dans
un système informatique et pour fonction d’en
parasiter les ressources. Ils ont la capacité de
s’insérer dans d’autres programmes lorsqu’ils
sont activés.
Vulnerability
Une vulnérabilité est un défaut (accidentel ou
intentionnel) dans un système ouvrant la voie
à un risque d’intrusion.
Worm
Sorte de virus, ces programmes malveillants
(aussi appelés « vers ») se propagent seuls à partir de la machine infectée sur tout le réseau auquel elle est connectée.
Zero-day
Cette catégorie d’agression caractérise toutes
celles qui n’ont pas encore été identifiée et donc
représentent un risque majeur sur les installations puisque par définition, aucune protection
n’a encore été proposée par les éditeurs.
e n co
en
c o u v ert
e r t u re
re
Sécurité informatique
Des lois et des standards
Un cadre juridique
L
a loi Informatique et libertés du 6 janvier 1978 impose à toute entreprise
exploitant des données à caractère personnel de mettre en œuvre des moyens
de sécurité empêchant tout accès et modification non autorisés. L’absence de ces moyens
est constitutive d’une infraction pénale pour le
responsable de l’entreprise (cinq ans de prison et
300 000 € d’amende selon l’article 226-17 du Code
pénal). Pour les personnes morales l’amende est
quintuplée. Et il faut savoir que l’inadéquation
des moyens mis en œuvre est aussi sanctionnée.
Cette loi a été complétée par une directive du
24 octobre 1995 qui, dans son article 17, impose
aux responsables de traitement de données personnelles de « mettre en œuvre les mesures de
sécurité appropriées pour protéger les données à
caractère personnel contre la destruction acciden-
telle ou illicite, la perte accidentelle, l’altération,
la diffusion ou l’accès non autorisés, notamment
lorsque le traitement comporte des transmissions
de données dans un réseau, ainsi que toute autre
forme de traitement illicite. Ces mesures doivent
assurer, compte-tenu de l’état de l’art et des coûts
liés à leur mise en œuvre, un niveau de sécurité
approprié au regard des risques présentés par le
traitement et la nature des risques à protéger. »
Par ailleurs il découle de l’article 1383 (qui indique que « chacun est responsable des dommages
qu’il a causé non seulement par son fait mais encore par sa négligence ou son imprudence ») et de
l’article 1384 §5 du Code Civil (qui permet à des
victimes de salariés indélicats d’une entreprise
de rechercher cette dernière en dédommagements dans la mesure où ces salariés auraient
agi dans le cadre de leur fonction pendant leur
temps de travail avec des outils fournis par l’entreprise) que l’entreprise qui n’aura pas pris des
en couverture
mesures de sécurité adéquates pour protéger son
infrastructure contre une agression informatique pourrait être réputée négligente (et donc
poursuivie).
Enfin, pour les sociétés anonymes, la loi de sécurité financière (LSF) 2003-706 du 1er août 2003
a modifié le code du commerce afin de renforcer
la confiance des investisseurs. Leurs dirigeants
sont personnellement responsables des mesures
du contrôle interne garantissant une présentation
fidèle de la situation financière de leur entreprise
et la détection des fraudes. Ils doivent « rendre
compte des procédures de contrôle interne » mises
en œuvre et être en mesure de garantir la fiabilité des informations financières produites sous
peine de lourdes sanctions pénales.
Un cadre normatif
A
u-delà des menaces pesant sur les
responsables des entreprises (et par
extension sur les RSI), des normes
ont été développées permettant de
fournir des référentiels auxquels
répondent les systèmes de sécurité. Elles garantissent les clients du niveau de « résistance » des
moyens qu’ils mettent en œuvre. Leur respect
est souvent nécessaire lors d’une collaboration
avec une entité publique (gouvernement par
exemple).
ITSEC (Information Technology
Security Evaluation Criteria)
C’est un standard européen pour la sécurité des
systèmes d’information datant du début des
années 90 proposant des critères homogènes
sur les périmètres :
Confidentialité (prévention d’une divulgation non autorisée des informations) ;
Intégrité (prévention d’une modification
non autorisé des informations) ;
Disponibilité (prévention d’un blocage d’accès non autorisé aux informations).
ISO 27000
Ensemble de normes plutôt que norme ellemême, la famille ISO 27000 propose un référentiel d’organisation de la gestion de la sécurité
d’un système d’information. Elle se compose de :
ISO 27001 décrit les processus de gestion de
la sécurité des informations ;
ISO 27002 propose une liste des meilleurs
pratiques en matière de sécurité ;
ISO 27003 structure la démarche de mise en
place d’un système de gestion de la sécurité en
différentes étapes afin qu’il soit conforme à la
norme 27000 ;
ISO 27004 fournit les règles de contrôle d’un
système de gestion de la sécurité des informations ;
ISO 27005 présente les processus de la gestion des risques ;
ISO 27006 précise les règles imposées aux
auditeurs de certification 27000.
ISO 15408
Les Critères Communs EAL pour les évaluations
de sécurité informatique (code ISO 15408), ont
été développés par les autorités ISO sous l’impulsion de plusieurs nations (dont la France) qui ont
défini pour différents produits de sécurité informatique destinés à des environnements commerciaux et publics dit sensibles des standards.
Ils sont classés en 7 niveaux.
Les niveau 1 et 2 proposent les solutions
les plus souples à exploiter mais, bien sûr,
répondant aux principes de sécurité les plus
« simples ». On y trouve les firewall avec filtrage
de paquets par exemple ;
en couverture
L’ANSSI est l’organisme officiel français qui
définit les normes de la sécurité des systèmes
d’information, en particulier les normes sur
l’évaluation et la certification des systèmes
d’information. Elle maintient le portail gouvernemental de la sécurité informatique.
Le RGS a été créé par l’article 9 de l’ordonnance n° 2005-1516 du 8 décembre 2005 relative
aux échanges électroniques entre les usagers et
les autorités administratives et entre les autorités administratives. Pour le RGS, la règle impose
depuis mai 2013 aux produits d’être labellisés
selon 3 méthodologies :
L’évaluation, obtenue via un laboratoire privé (tel le CETSI) au regard des référentiels ITSEC
ou ISO 15470 ;
La qualification, obtenue via le bureau Qualification et Agrément de l’ANSSI et qui fournit
3 niveaux : Élémentaire pour les besoins de sécurité les plus basiques ; Standard pour les besoins qui sont assimilables à la « diffusion restreinte » ; Renforcé assimilable au « confidentiel
défense » ;
La certification, un niveau supérieur obtenu
lui aussi via le bureau Qualification et Agrément
de l’ANSSI et qui garantit que l’évaluation a été
conduite selon un protocole plus strict garantissant l’indépendance, la compétence et la méthodologie de l’analyse.
Le Référentiel Général de Sécurité (RGS)
Le PCI DSS
Les niveaux 3 et 4 recouvrent les matériels
traitant la totalité des fonctions de sécurité et
soumis à des tests de contrainte élevés par des
organismes agréés. Les codes des logiciels les
animant sont fournis aux évaluateurs ;
Les niveaux 5, 6 et 7 imposent en plus aux
matériels évalués d’apporter une preuve formelle (scientifiquement prouvable) de la solidité
de leurs algorithmes. Si les précédents niveaux
sont le domaine des ingénieurs, ceux-ci sont celui des mathématiciens. Pour donner une idée,
les cartes à puces actuelles bénéficient d’un
niveau 5 alors que le niveau 7 a « la robustesse
d’un panzer ou la force d’un module nucléaire »
pour citer un éditeur.
L’ANSSI
Si une certification selon une des normes en
vigueur est nécessaire, elle n’est pas suffisante
pour adresser les besoins de confidentialité des
administrations. Le niveau d’évaluation (et donc
de « solidité » selon les critères communs) n’est
pas à confondre avec le périmètre de protection
(à quoi servirait de mettre une serrure de coffrefort inviolable sur une porte en bois blanc ?). Cela
conduit au Référentiel Général de Sécurité.
Le PCI Security Standards Council (PCI SSC)
est une émanation du secteur économique des
moyens de paiement par carte (PCI pour Payment Card Industry) qui émet des recommandations de sécurité en la matière. Le PCI DSS (Payment Card Industry Data Security Standard) est
son standard de sécurité qui propose une norme
en 12 règles pour la protection des données et la
prévention des fraudes.
Si une certification selon une des normes en vigueur
est nécessaire, elle n’est généralement pas suffisante.
techno
P RO J E T
Hadoop
Big Data
Flash
Accélérer l’analyse prédictive
du avec la mise
en cache
techno
P RO J E T
Le volume, la vélocité et la diversité des données augmentent
constamment. Ces trois dimensions du « déluge de données » que
nous connaissons font du framework open source Hadoop un outil
naturel pour l’analyse du Big Data. Car la solution a été conçue pour
analyser des données très diverses – qu’elles soient structurées, semi-structurées ou non-structurées – sans avoir à définir un schéma
ni à anticiper les résultats. Les améliorations apportées à l’écosystème Hadoop permettent désormais aux responsables informatiques
de faire face à l’augmentation effrénée des données en transférant
en temps réel les données actives dans le cluster pour une analyse
immédiate. Mais le principal atout d’Hadoop est son évolutivité, car
il permet d’analyser un volume sans précédent de données, de façon
aussi rapide qu’économique sur des clusters de serveurs universels.
L
a capacité d’Hadoop à répartir les
travaux MapReduce au sein d’un
cluster afin de traiter les données
en parallèle débouche sur des performances linéaires et évolutives
du fait de l’ajout de serveurs et de cœurs de
processeurs ou de mémoire, voire les deux,
dans ces serveurs. Il existe cependant une option plus économique permettant de garantir
l’évolutivité des performances dans les clusters Hadoop : les cartes hautes performances
de mise en cache sur mémoire Flash. Afin
de mieux comprendre les améliorations de
performances obtenues au travers de la mise
en cache Flash, il est important d’établir le
contexte traditionnel d’adaptation des performances dans les clusters Hadoop.
Rappel historique de l’évolution
des performances Hadoop
À première vue, l’utilisation d’un réseau de
stockage (SAN ou NAS) pour le Big Data (données mesurées en téraoctets, pétaoctets, voire
exaoctets) peut sembler intéressante d’un point
de vue économique. Après tout, les configurations SAN et NAS sont très efficaces, ce qui permet de partager facilement et économiquement
d’importants jeux de données entre plusieurs
serveurs et applications.
Cependant, le problème des réseaux de données réside dans la distance (et par conséquent
la latence accrue) qu’ils imposent entre le processeur et les données. Plus les données sont
proches du processeur, plus les performances
sont rapides et plus l’analyse prédictive du Big
techno
P RO J E T
Le gain de performances obtenu sur une configuration
de test type avec mise en cache Flash des données atteint 33 % par rapport à une infrastructure de stockage
conventionnelle.
Data bénéficie de cette proximité. La proximité des données constitue la clé de voûte de
l’architecture Hadoop et la principale raison de
son succès en tant que solution hautes performances d’analyse prédictive du Big Data.
Afin de conserver les données près du processeur, Hadoop s’appuie sur des serveurs avec du
stockage en attachement direct (DAS). Et pour
rapprocher encore plus les données du processeur, les serveurs sont généralement équipés
d’une importante quantité de RAM.
La combinaison du DAS et de la RAM optimise les performances de chaque serveur.
Ainsi, Hadoop est en mesure d’adapter les performances de traitement et la taille du jeu de
données en ajoutant davantage de serveurs ou
de nœuds au sein d’un cluster. Certains, voire
l’ensemble des nœuds du cluster, sont ensuite
utilisés pour traiter de gros jeux de données en
parallèle et en créant des étapes plus gérables
avec le système HDFS (Hadoop Distributed File
System) et JobTracker, qui coordonne le traitement parallèle des travaux MapReduce.
La fonction Map utilise un nœud maître
pour lire les fichiers d’entrée, répartir les jeux
de données dans des sous-ensembles et délé-
techno
P RO J E T
guer le traitement de ces sous-jeux à des nœuds
de travail. Les nœuds de travail peuvent, à leur
tour, déléguer le traitement et créer une structure hiérarchique coordonnée par JobTracker.
Ainsi, les différents nœuds d’un cluster interviennent sur des sections beaucoup plus réduites de l’analyse en parallèle, assurant l’évolutivité linéaire d’Hadoop.
Avec la fonction Reduce, le nœud maître
accepte les résultats de l’ensemble des nœuds
de travail, puis les assemble, les trie et les fusionne dans un fichier de sortie, toujours sous
le contrôle de JobTracker. Cette sortie peut, de
façon facultative, devenir l’entrée des travaux
MapReduce supplémentaires afin de traiter de
façon plus approfondie les données.
Selon la nature des travaux MapReduce exécutés, des goulots d’étranglement peuvent se
former soit sur le réseau, soit au niveau des différents nœuds de serveur. Ces goulots d’étranglement peuvent souvent être éliminés en ajoutant d’autres serveurs (pour plus de puissance
de traitement en parallèle), plus de cœurs de
processeurs (lorsque les serveurs manquent
de processeur) ou plus de RAM (lorsque les serveurs manquent de mémoire).
Avec les travaux MapReduce, les performances maximales d’un serveur sont généralement déterminées par sa capacité en RAM.
En particulier au cours de la fonction Reduce,
lorsque les assemblages, tris et fusions de données intermédiaires dépassent la capacité en
RAM et que le traitement doit alors se faire au
niveau du disque.
Les performances se dégradent au fur et à
mesure de l’augmentation du nombre d’entrées/
sorties sur disques, en raison de la différence
de latence d’E/S au niveau des disques (10 millisecondes) en comparaison avec celle de la mémoire (0,0001 millisecondes). Une lenteur due
aux pièces mécaniques des disques durs traditionnels – notamment les plateaux et les bras
de commande – et qui augmente significativement sur un système SAN ou NAS. Et c’est précisément pour cette raison qu’Hadoop s’appuie
sur un système DAS. Mais même avec un système en attachement direct et des disques durs
ultrarapides et optimisés en short-stroking, la
latence supérieure d’E/S sur le disque pénalise
considérablement les performances.
L’une des solutions les plus économiques
pour supprimer le goulot d’étranglement au niveau du disque et adapter les performances du
cluster Hadoop consiste à utiliser une mémoire
Flash SSD pour la mise en cache.
Évolution des performances Hadoop
avec la mise en cache Flash
La mise en cache des données sur un support
plus rapide date des premiers gros systèmes et
demeure une fonctionnalité essentielle sur tous
les ordinateurs actuels. Les données sont également mises en cache à plusieurs niveaux et à
différents emplacements du centre de données,
depuis les caches de premier et second niveau
intégrés dans les processeurs de serveurs à la
mise en cache dynamique en RAM (DRAM) sur
les contrôleurs utilisés pour les systèmes SAN
et NAS.
L’usage répandu de la mise en cache démontre que cette technique apporte à la fois des
améliorations substantielles de performances
et d’importantes économies financières. Par
exemple, les PC placent constamment en mémoire le cache des données et des logiciels
enregistrés sur le disque dur afin d’améliorer
le débit d’E/S et les performances des applications. Le sous-système de fichiers du système
d’exploitation utilise des algorithmes spéciaux
afin d’identifier et déplacer de façon automa-
techno
P RO J E T
Aucun changement logiciel n’est requis, car la mise en
cache sur mémoire Flash est transparente pour les applications serveur, le système d’exploitation, le sous-système de fichiers et les pilotes de périphériques.
tique et transparente les données les plus sollicitées, ou données chaudes, en mémoire cache
afin d’améliorer le taux de réponse.
Les serveurs placent également en mémoire
cache les données et les logiciels dans la mesure
du possible. Lorsqu’un serveur dispose d’une
quantité adaptée de DRAM et lorsque cette
mémoire est totalement utilisée par les applications, la seule façon d’accroître la capacité de la
mémoire cache consiste à ajouter un autre type
de mémoire. La mémoire NAND constitue l’une
des possibilités les plus intéressantes. Avec une
latence d’E/S de 50 à 100 microsecondes, la mé-
moire flash NAND peut être 200 fois plus rapide
qu’un disque dur hautes performances.
Le principe de proximité des données s’applique également à la mise en cache. Ainsi,
l’accélération du cache grâce au Flash offre les
meilleurs gains de performances lorsque la
carte est placée directement dans le serveur,
sur le bus PCI Express (PCIe). Certaines cartes
de cache Flash offrent désormais plusieurs
téraoctets de mémoire SSD, ce qui améliore
considérablement le taux de réponse. Et une
nouvelle classe de solutions offre à la fois des
interfaces Flash internes et SAS (Serial-Atta-
techno
P RO J E T
ched SCSI) pour créer des DAS hautes performances. Cette solution repose sur des disques
SSD et durs, alliant ainsi les performances de
la mémoire Flash à la capacité et au faible coût
des disques durs.
Comparaison des performances
de clusters avec et sans mise en cache
Afin de comparer les performances en cluster
avec et sans la mise en cache, il est possible
de s’appuyer sur TeraSort, une référence de
l’analyse comparative. TeraSort teste les performances des applications qui trient de gros
volumes d’enregistrements de 100 octets, impliquant des Go et To de données, et qui nécessitent également un nombre considérable de
calculs, de mises en réseau et d’E/S de stockage,
caractéristiques des charges de travail Hadoop.
L’analyse comparative de TeraSort couvre la
génération, le tri et la validation. Pour le test,
LSI a utilisé un cluster à huit nœuds pour son
test TeraSort de 100 Go. La configuration de
test était composée d’un commutateur Ethernet de 10 Gbits/s connectant les huit serveurs et
chaque serveur était équipé de 12 cœurs de
processeur, 64 Go de RAM et huit disques durs
de 1 To. Les serveurs ont également été équipés
d’une carte d’accélération LSI Nytro MegaRAID
modèle NMR-8100-4i disposant de 100 Go de
mémoire Flash NAND. La mémoire Flash de la
carte d’accélération a été désactivée pour le test
sans mise en cache.
Aucun changement logiciel n’est requis, car
la mise en cache sur mémoire Flash est transparente pour les applications serveur, le système d’exploitation, le sous-système de fichiers
et les pilotes de périphériques. Il est à noter que
le stockage RAID n’est normalement pas utilisé sur les clusters Hadoop en raison du mode
de réplication des données sur les différents
nœuds par le système HDFS (Hadoop Distributed File System). La fonctionnalité RAID de la
carte d’accélération Nytro MegaRAID ne serait
donc pas utilisée par les clusters Hadoop. Par
conséquent, elle n’a pas été utilisée dans ce test.
Néanmoins, son implémentation sur un circuit
RoC (RAID-on-Chip) n’aurait qu’un impact négligeable sur le coût de la carte.
Lorsque la mise en cache sur la mémoire
Flash est activée, le test de TeraSort est 33 %
plus rapide. Plus précisément, la tâche testée
prend environ trois minutes (3 min 2 s) avec la
mise en cache contre environ quatre minutes
sans mise en cache (4 min 8 s). Le gain de performances de 33 % lié à la mise en cache est
proportionnel à la taille du cluster nécessaire
pour accomplir une tâche MapReduce, ou de
tout autre type, pendant la période requise.
Ce n’est qu’un début
Les entreprises qui procèdent à l’analyse prédictive du Big Data disposent désormais d’une
nouvelle option pour obtenir les performances
voulues avec les cartes Flash d’accélération en
cache. Si les tests évoqués ci-dessus portaient
sur Hadoop, d’autres tests complets menés par
LSI menés sur différentes bases de données et
applications populaires font ressortir des gains
de performances allant d’un facteur de 3 (pour
les configurations DAS) à un facteur de 30 (pour
les configurations SAN et NAS).
Ces gains de performances sont également
possibles pour des jeux de données moins
importants. Dans les environnements virtualisés, par exemple, l’optimisation de l’utilisation du serveur passe par l’optimisation des
performances. En effet, plus le niveau de performances de l’application est élevé, plus les
serveurs sont disponibles, et plus ils sont disponibles, plus ils sont utilisés. Le même principe
techno
P RO J E T
s’applique aux serveurs dédiés, pour lesquels
la mise en cache améliore les performances et
réduit les temps de réponse.
L’utilité du Big Data dépend directement des
analyses prédictives réalisées par les organisations pour exploiter son potentiel, ce qui
fait d’Hadoop un outil puissant d’analyse des
données ouvrant de nouvelles perspectives en
sciences, dans la recherche, l’administration et
l’économie. L’analyse prédictive du Big Data se
développera au fur et à mesure que les entreprises réaliseront que plus les données sont importantes, plus l’analyse est fine. Les serveurs
doivent également être plus intelligents et efficaces.
La mise en cache sur la mémoire Flash permet d’effectuer de façon plus rentable davantage de tâches sur un nombre plus restreint de
serveurs (réduisant ainsi le nombre de licences
logicielles) et ce, quel que soit le volume des
jeux de données. Cette solution est donc idéale
pour les responsables informatiques confrontés à des budgets limités et l’augmentation des
données. Gary Smerdon
A propos de l’auteur Gary Smerdon est viceprésident senior et directeur général de la
division ASD (Accelerated Solutions Division)
de LSI Corporation. Il supervise le marketing,
la conception et la fabrication des solutions
d’accélération d’applications qui associent la
technologie Flash PCIe à des logiciels intelligents
de gestion et de mise en cache. Gary Smerdon
est membre du conseil et observateur de
Greenfield Networks (racheté par Cisco), 3Leaf
Systems (Huawei), SandForce (LSI) et Teranetics
(PLX). Il est diplômé en ingénierie électrique de
l’université de Duke.
P RO J E T
Facebook, Dropbox, Google Drive, SkyDrive… Si tous ces services sont devenus indispensables au quotidien, basculer de l'un
à l'autre relève de l'exercice pénible, à travers tous ces mots de
passe à mémoriser. Avec Jolidrive, vous centralisez l'ensemble
des applications et services web dont vous avez le plus besoin et
vous les manipulez depuis un tableau de bord unique.
P RO J E T
C
ontrairement à ce que son nom
laisse à penser, Jolidrive n'est pas un
service de stockage dans le Cloud en
plus. Totalement gratuit, il agit au
contraire comme un « concentrateur » d'applications SaaS, en regroupant tous
vos comptes autour d'une interface unique. Développé par JoliCloud, une société française qui
s'était déjà illustrée par la sortie d'un système
d'exploitation libre et ouvert, destiné aux netbooks, Jolidrive est un jeune service prometteur. Les utilisateurs professionnels lui confieront tous leurs comptes de stockage dans le
Cloud (SkyDrive, Dropbox, Google Drive…) afin
d'unifier les accès et la consultation des documents. Le grand public ajoutera ses comptes
de réseaux sociaux et ses services de partage
de vidéos, pour basculer facilement de l'un à
l'autre. Élégant et simple, Jolidrive s'appuie sur
HTML5 pour offrir une expérience uniforme
d'un navigateur à l'autre. Vous en profiterez
ainsi sur votre mobile ou votre tablette avec le
même confort de lecture, sans mémoriser des
dizaines d'identifiants différents. La solution
ne lésine pas non plus sur la sécurité et aucun
document n'est directement consigné sur les
serveurs de Jolidrive. Sous forme de modules,
vous ajoutez progressivement de nouveaux services en piochant dans un catalogue amené à
grandir de jour en jour.
Présentation
Entièrement développé avec les derniers standards du Web, Jolidrive harmonise votre expérience autour des services dont vous avez le plus
besoin au quotidien. Quelle que soit la plateforme, votre tableau de bord général emprunte
la même allure et se conforme à merveille à la
résolution du navigateur, avec un thème adaptatif très réussi. Le principe est très simple :
vous intégrez vos services web favoris parmi
une liste d'une trentaine de prestataires afin de
les centraliser autour d'une interface unique.
La connexion s'effectue à travers le protocole
OAuth sécurisé et Jolidrive ne stocke jamais vos
identifiants ou vos données. En quelques minutes, vous faites ainsi cohabiter vos comptes
Dropbox, Google Drive, Facebook, Flickr ou
Skydrive. Accessibles en un clic, ils révèlent
tous leurs documents dans une interface très
lisible, avec une visionneuse intégrée. En fonction du service, celle-ci donne accès au mode
édition des Office WebApp (SkyDrive) ou des
outils Google Docs. On apprécie tout particuliè-
P RO J E T
rement la clarté de l'explorateur de fichiers, qui
indique encore plus distinctement l'espace utilisé que sur les services d'origine. Outre les services de stockage, Jolidrive fait la part belle au
multimédia et aux réseaux sociaux, avec une
intégration réussie de Tumblr, SoundCloud,
Picasa, Flickr, Dailymotion et Vimeo. Certains
services incontournables, comme Twitter, sont
encore cruellement absents mais l'outil est en
expansion permanente et de nouveaux modules apparaissent régulièrement. Compte tenu
de l'architecture de Jolidrive, les évolutions ne
devraient pas manquer et ce premier socle,
très réussi, laisse préfigurer un outil vraiment
utile au quotidien. Totalement gratuit, il séduira l'utilisateur professionnel souhaitant cen-
traliser ses solutions de stockage dans le Cloud.
Les adeptes de réseaux sociaux tireront partie
de ses fonctions de recherche et de son lecteur
multimédia pour suivre les dernières actus de
leurs contacts, tout en écoutant de la musique
sur SoundCloud. Pour gagner encore en intérêt, Jolidrive devra renforcer ses fonctions de
partage et de collaboration, tout en facilitant
les échanges entre les services. Dans le même
registre, l'outil payant Otixo.com (9,99 dollars par
mois) autorise les glisser-déposer d'un compte à
l'autre, pour copier rapidement des documents
sur plusieurs espaces. Une fonction dont devrait a priori s'inspirer Jolidrive dans les prochains mois, pour poursuivre sur cet excellent
cap. Jean-Marc Delprato
Jolidrive à l'œuvre
Particulièrement simple à prendre en main, Jolidrive est construit sur les derniers standards
du Web, HTML5 en tête. Vous avez donc intérêt
à l'ouvrir depuis un navigateur moderne, que ce
soit en mode bureau ou mobile. Vous profiterez de
la même expérience à travers l'ensemble de vos
services préférés, sans ouvrir une nuée d'onglets.
1
Pour créer un compte, rendez-vous à l'adresse
www.jolidrive.com. Vous pouvez vous authentifier à
l'aide d'un compte Google+ ou Facebook (ils seront alors pré-renseignés dans votre tableau de
bord) ou saisir votre e-mail et partir d'un compte
vierge.
Ajoutez vos services de stockage
Après avoir créé votre compte, cliquez sur le
lien « Add More Services », en haut à gauche.
Vous accédez à la liste de tous les modules de Jolidrive :
cliquez sur l'onglet Storage pour filtrer les services de
stockage. En cliquant sur le bouton +, vous avez la
possibilité de renseigner votre compte Dropbox, Google
Drive, SkyDrive, MediaFire, SugarSync, Ubuntu One,
Box ou Evernote. L'authentification s'effectue dans une
fenêtre séparée, à travers le protocole OAuth. Autorisez l'accès à vos documents : la connexion
s'effectue de manière sécurisée et Jolidrive ne stocke jamais vos fichiers.
P RO J E T
2
Consultez les réseaux sociaux La
colonne de gauche de votre tableau de bord se
remplit au fur et à mesure de l'ajout de services ;
cliquez sur leur intitulé pour basculer rapidement de
l'un à l'autre. En bas à droite, des boutons vous
permettent de visualiser un document ou de l'ouvrir
dans l'application web correspondante. Parmi les autres
services incontournables, ajoutez vos réseaux sociaux
préférés. Là encore, cliquez sur « Add More Services » puis triez la liste en cliquant sur « Social ».
Facebook, Google+ ou Tumblr : vous suivez l'actualité de votre réseau et vous passez facilement
d'un compte à l'autre. Les contenus multimédias sont privilégiés, en particulier avec Facebook où
vous visualisez toutes les photos de vos amis. L'accès aux réseaux sociaux sur Jolidrive reste
toutefois largement consultatif ; on attend impatiemment la possibilité d'interagir davantage avec
ses contacts, en croisant éventuellement les réseaux.
3
Complétez vos services Après avoir
ajouté tous les services dont vous avez besoin au
quotidien, apprenez à les manipuler en parallèle.
Vous avez ainsi la possibilité de lancer l'écoute d'un
morceau sur SoundCloud, tout en consultant un document
déposé sur Google Drive. À ce titre, vous faites basculer la
visionneuse en mode édition en cliquant sur le bouton en
bas à gauche : vous retrouvez alors tous les outils de
Google Docs, sans quitter la fenêtre de Jolidrive. C'est d'ailleurs par le biais de cet éditeur que
vous gérez vos permissions d'accès et vos partages de fichiers, à travers les fonctions standards
de chaque service. Suivez les évolutions de Jolidrive et testez éventuellement d'autres services,
comme SlideShare (présentations) ou Readability (lecture d'articles).
4
Lancez des recherches L'un des
atouts de Jolidrive tient à son moteur de
recherche central, en haut de l'écran :
sélectionnez un service dans la colonne de gauche,
saisissez un mot-clé et validez pour retrouver
rapidement tout type de fichiers. Outre la possibilité
de rechercher un élément parmi vos propres
documents, ce système permet d'interroger très
rapidement une grande variété de services. Vous
comparez ainsi facilement les résultats d'une requête sur YouTube, Dailymotion, Vimeo ou
Tumblr. Le diagramme sur la droite de l'écran, qui indique l'espace de stockage disponible sur
chacun des services, est également très pratique. Seul regret : il n'est pas encore possible, à l'heure
actuelle, d'effectuer des recherches croisées sur l'ensemble de ses comptes.
P RO J E T
Croisez tous vos comptes de stockage dans le Cloud
Sur le même principe que Jolidrive, Otixo.com se
spécialise dans l'intégration de comptes de stockage dans le Cloud et propose une série de fonctionnalités avancées. Recherches croisées, copie
de fichiers par simple glisser-déposer, ajout de
1
multiples comptes du même prestataire… Autant
de fonctions susceptibles d'intéresser les utilisateurs professionnels ! Il s'agit toutefois d'un service payant, à 9,99 dollars par mois.
Regroupez vos services
de stockage Otixo est accessible dans une
version d'évaluation de quinze jours. Cliquez
sur le bouton + en regard de la section « My Cloud
Services » et ajoutez les prestataires de votre choix
(Dropbox, Google Drive, SkyDrive…). Il est possible
d'intégrer plusieurs comptes différents du même
service. Vous consultez ensuite vos documents de manière très intuitive, en les déplaçant d'un
compte à l'autre par simple glisser-déposer dans la fenêtre du navigateur.
2
Effectuez des recherches croisées
La barre d'outils, en haut de l'écran, vous
permet de partager un fichier ou de déposer un
nouveau document sur le service de votre choix. Il est
également possible d'effectuer un clic droit sur un
élément, pour le télécharger, le renommer ou le
supprimer. Le champ de recherche, en haut à droite,
interroge l'ensemble des services que vous avez intégrés : vous retrouvez en un instant
l'emplacement de stockage de chaque résultat.
3
Profitez d'espaces collaboratifs
En créant des « espaces », en bas à gauche de
l'écran, vous profitez des fonctions
collaboratives d'Otixo. Définissez l'ensemble des
collaborateurs et leurs permissions respectives.
Chaque membre a ensuite la possibilité de partager les
documents de son choix, depuis les services qu'il a
renseignés. La section « Items » combine ainsi indifféremment des fichiers SkyDrive d'un
collègue à vos propres documents Dropbox et ainsi de suite.
P RO J E T
Profitez de fonctions avancées pour les réseaux sociaux
Suite.com centralise tous vos comptes Facebook,
Twitter, Google+ ou LinkedIn autour d'un tableau
de bord unique. Vous planifiez vos prochaines parutions et vous les publiez sur plusieurs réseaux
à la fois.
Si vous effectuez régulièrement des opérations
de community management pour le compte de
votre entreprise ou d'une marque, vous avez intérêt à vous épauler d'un véritable agrégateur de
réseaux sociaux. Sur les bases de Jolidrive, Hoot-
1
Personnalisez votre compte
Rendez-vous à l'adresse HootSuite.com et
créez votre compte d'utilisateur. Vous
gérez gratuitement jusqu'à cinq profils : comptez
7,19 euros par mois pour porter cette limite à 50.
Vous ajoutez des services en cliquant sur le
bouton « Ajouter un réseau social ». Sélectionnez
un prestataire puis indiquez votre identifiant et
mot de passe. Renouvelez l'opération pour
chacun de vos comptes.
2
Suivez tous vos réseaux à la fois Sur votre tableau de bord, cliquez sur le
3
Planifiez une publication
croisée L'un des intérêts de HootSuite
bouton Flux. Sous forme d'onglets, vous ajoutez ensuite des « vues » propres à chaque
réseau social. Avec Twitter, par exemple, vous pouvez afficher votre timeline, vos
mentions, vos retweets ou une recherche spécifique. Avec Facebook, vous ajoutez un onglet
relatif aux événements ou aux photos de vos amis. Pratique pour embrasser et comparer d'un
coup d'œil une grande variété d'informations
tient à la possibilité de contrôler de
multiples comptes à la fois. Cliquez sur le bouton
Éditeur du tableau de bord puis sur « Composer un
message ». Cliquez sur le champ en haut à droite
pour sélectionner les comptes concernés
(Facebook, Twitter…) et rédigez votre message. En
bas à gauche, vous visualisez la limite de
caractères pour chaque réseau. Associez
éventuellement une image ou un lien, choisissez
l'heure de publication et validez.
PREMIERS ESSAIS
Avec un serveur, les données qui servent à votre entreprise seront enfin hiérarchisées,
rationalisées et sécurisées. Mais ce ne sont pas les uniques fonctions qu’il offre.
6
Un
outil
pour
gérer
serveurs
testés
L
votre entreprise
orsqu’une entreprise se développe, il
arrive un moment où il faut centraliser
les données. En effet, avec un nombre
de plus en plus conséquent d’ordinateurs de bureau ou de portables, elles
sont quelque peu éparpillées ici et là et il devient
très difficile de hiérarchiser et de rationaliser les
informations. Et si le NAS offre une belle alterna-
tive au serveur, il ne propose pas les mêmes services. Avec un serveur, il est possible d’installer
des applications spécifiques. Vous pourrez ainsi
gérer plus finement votre messagerie électronique, installer toute une artillerie de protection
de votre réseau (pare-feu, antivirus, anti-spam,
etc.) et même faire fonctionner plusieurs environnements au sein d’une machine virtuelle. Par ail-
P R E M IE R S E S S A IS
6 serveurs testés
leurs, un serveur peut être un allié de choix pour
gérer les imprimantes et administrer les droits
des utilisateurs d'un réseau. Il pourra même héberger votre site internet ! Bref, le champ d’action
d’un serveur est conséquent. C’est pourquoi il ne
faut pas sous-estimer vos besoins afin de choisir
le serveur qui sera le plus adapté.
Protégez vos données. En fonction de vos be-
soins, il faudra bien sûr privilégier une caractéristique plutôt qu’une autre. Si votre serveur est
avant tout destiné à accueillir une base de données, disques dédiés et capacité mémoire conséquente seront à privilégier. S’il a pour vocation à
effectuer des sauvegardes de vos données, c’est
la quantité et la qualité des disques durs qui vont
entrer en jeu. Mais dans les deux cas, la pérennité des données est à prendre en compte. En effet,
plus qu’un particulier – encore qu’avec l’accroissement des données personnelles, la sauvegarde
devient essentielle – une entreprise ne peut se
permettre une interruption de son activité suite
à une perte de données. Qui plus est, la perte de
données peut causer celle de l’entreprise… C’est
pourquoi, la redondance et la tolérance aux
pannes sont des critères à prendre en compte.
Évolutif, pour suivre votre entreprise.
Bien
entendu, vous ne pouvez pas envisager quels seront vos besoins dans les années à venir. Nombre
d’utilisateurs plus conséquent, besoin de sauvegarde à la hausse ou services supplémentaires
sont autant de paramètres qui seront amenés à
évoluer. Fort heureusement, un serveur, comme
un ordinateur, peut évoluer au gré du développement de votre entreprise. Mémoire et disque
dur sont les principaux composants que vous
pourrez par la suite faire changer. Toutefois, il
faut veiller à ce que le serveur que vous convoitez offre de telles capacités d’évolution. Il faut
donc prendre connaissance du nombre d’emplacements (slots) mémoire disponibles et regarder
la quantité de mémoire maximale que le serveur est capable de gérer. Il faudra en faire de
même avec les emplacements 3,5 pouces dédiés
aux disques durs.
Il faut également prendre en compte le
nombre de connecteurs Sata afin de relier
simplement vos disques. Faute de quoi, vous
devrez investir dans une carte contrôleur supplémentaire. À ce propos, veillez à choisir un
serveur proposant un nombre de connecteurs
d’extension suffisant. Enfin, lorsque l’on ajoute
un disque dur, la consommation du serveur
augmente elle aussi. Les alimentations de votre
serveur devront elles aussi suivre cette inflation. Comptez entre 15 et 20 watts par disque
dur supplémentaire.
Un environnement qui fait la différence. Dis-
poser d’un environnement informatique homogène est presque impossible. PC fonctionnant
sous différentes versions de Windows (XP, Vista,
7, 8), Linux ou encore des ordinateurs Macintosh constituent bien généralement le casse-tête
de bien des gestionnaires informatiques. Fort
heureusement, les systèmes d’exploitation pour
serveur gèrent parfaitement ces différents environnements. Le plus simple est d’utiliser un système Windows Server 2012 Essentials. Il est parfaitement adapté à un environnement composé
de moins de trente postes. Enfin, si l’espace de
votre bureau est compté, veillez à ce que votre
serveur se montre silencieux. Rien de plus pe-
P R E M IE R S E S S A IS
6 serveurs testés
sant qu’un vrombissement incessant pour vous
gâcher la journée !
Un serveur pour votre entreprise.
Pour réaliser ce dossier nous avons convié six protagonistes avec des filtres de sélection bien précis.
Pour mieux les comparer, nous nous sommes
contentés de machines conçues pour subvenir
aux besoins d’une entreprise de moins de 30 utilisateurs. Ces serveurs sont par ailleurs au format tour afin d’être intégrés plus facilement dans
un bureau. Pour nos différents tests, nous avons
également pris en compte l’évolutivité du serveur, son silence de fonctionnement, mais également ses différents niveaux de performance. De
la sorte, nous avons pu choisir le modèle le plus
polyvalent et qui fera face aux différentes tâches
que vous pourrez lui confier. Alexandre Marcq
Acer AT310F2
Une architecture simple, mais efficace
Un serveur économique et évolutif
Des outils de gestion complets
À y regarder de très près, l’AT310F2 n’est guère
loin d’un PC traditionnel. Boîtier ATX, carte
mère au même format… tous les éléments sont
réunis pour rendre ce serveur aussi discret que
possible. D’ailleurs, même en fonctionnement,
il ne se fait pas entendre. Il n’y a guère qu’en
regardant sa face avant et sa connectique qu’on
se rend compte qu’il a tous les atouts d’un véritable serveur d’entreprise. En premier lieu,
on remarque les quatre baies cachées derrière
la porte avant. Ces quatre unités au format
3,5 pouces peuvent accueillir des disques à la
norme Sata 3. D’ailleurs, les fonds de panier
sont parfaitement câblés afin de les accueillir
en moins de deux secondes… Cela permet également d’échanger à chaud un disque défectueux.
Les disques sont par ailleurs pris en charge par
un système Raid logiciel. Ici deux options sont
proposées : Intel ou LSI. L’Intel gère des volumes
en Raid 0, 1, 10 et 5, tandis que le LSI se contente
du Raid 0, 1 et 10. Mais dans les deux cas, seul
le RAID logiciel est proposé, avec les inconvénients que l’on connaît (lenteur à la reconstruction d’un volume, performances moindres, etc.).
Une configuration simple, mais efficace.
Concernant le processeur, c’est un Xeon E3-1220
cadencé à 3,1 GHz qui prend place. Notons au passage que cette configuration ne permet pas de se
constituer une solution multiprocesseur. Il s’accompagne de 4 Go de mémoire au format DDR3
ECC (évolutif jusqu’à 32 Go). Une capacité un peu
réduite mais qu’il est très simple d’étendre via
les trois emplacements qui restent libres. La
carte mère présente de larges possibilités d’ex-
P R E M IE R S E S S A IS
6 serveurs testés
tension. Les ports PCIe (4x, 8x et 16x) pourront
accueillir des cartes d’extension afin d’offrir un
Raid matériel à votre serveur. D’ailleurs, Acer
propose une carte PCIe Raid qui prend en charge
les disques durs au format SAS. Pour le refroidissement, l’AT310F2 reste tout aussi mesuré. Deux
petits ventilateurs se chargent de refroidir l’ensemble. En outre, l’alimentation standard prend
en charge cette tâche. D’une puissance de 450
watts, elle peut être remplacée par un modèle
redondant de deux fois 400 watts.
Une suite d’outils complète.
Côté réseau, là
encore on retrouve des composants simples, mais
éprouvés. On dispose ici de deux connecteurs
Gigabits Ethernet. Les deux peuvent être facilement agrégés ou dissociés. Par le biais du réseau,
vous pourrez administrer le serveur. Il suffit tout
simplement d’utiliser la console d'administration
Acer Smart Console. Celle-ci vous permettra d'installer et configurer le serveur et d’en effectuer
une supervision totale. En plus de cet outil, on retrouve Acer Smart Server Manager. Une suite complète qui permet d’administrer le serveur, mais
également l’intégralité de votre parc de serveurs
Acer. Avec cet outil, vous pourrez effectuer des
mises à jour des bios, surveiller la consommation
électrique de votre parc en temps réel ou encore
intervenir sur des pannes.
En conclusion
Discret de par son format et
son silence de fonctionnement, l’AT310 F2 séduit
davantage par son prix que par ses possibilités
d’extension. Si vous souhaitez transformer ce
modèle en serveur de stockage vous serez très
vite confronté aux limites imposées par les quatre
baies 3,5 pouces ainsi que par le contrôleur Raid
matériel. Mais pour moins de 1 000 euros HT en
version 2 x 500 Go et sa suite logiciel complète, il
reste le serveur le plus attractif du moment !
Carri ProServer
E3 V3
Un serveur assemblé en France Une configuration plus puissante
que les grands noms du secteur et aussi
évolutive
Made in France, le ProServer E3 V3 affiche une
conception pour le moins classique, mais de
qualité. Le boîtier issu de la gamme Chenbro
affiche des possibilités d’évolution exemplaires.
Au format EATX, il accepte les cartes mère dans
ce format. Autrement dit, les cartes mères biprocesseurs et les cartes d’extension pleine longueur
ne lui font pas peur. Sa grande taille lui permet
également d’afficher un silence de fonctionnement appréciable. D’ailleurs, un seul ventilateur
placé à l’arrière du boîtier permet de refroidir
l’ensemble des composants. En outre, il présente
de belles possibilités d’évolution avec la présence
de trois emplacements 5 pouces ¼ et de quatre
baies 3,5 pouces en façade. Ils utilisent des fonds
de panier câblés en Sata 3, lesquels sont reliés à
un contrôleur Raid de la carte mère. Ce Raid logiciel supporte les modes 0, 1 ,10 et 5. Notons au
passage que la configuration est livrée avec deux
disques d’un téraoctet chacun. Ces disques mus
à 7 200 tr/min sont issus de la gamme Western
Digital Raid Edition qui est dévolue à un usage
intensif.
P R E M IE R S E S S A IS
6 serveurs testés
nant les logiciels d’administration du serveur, il
faudra ici se contenter de l’offre proposée par la
carte mère Asus puisque Carri ne conçoit pas ce
type de produit… Baptisé Intel Deployment Assistant, il se charge de mettre à jour les composants,
les pilotes, de configurer le Raid et de créer une
image système pour le déploiement de plusieurs
serveurs identiques.
En conclusion Silencieux, ce serveur affiche de
Une configuration puissante. La carte mère,
une Asus P9DX, provient de la gamme serveur
du constructeur. Au format ATX, elle utilise
le chipset Intel C222. Elle profite ainsi d’une
connectique complète (PCIe 8 et 16x, PCI, SATA 2
et 3, etc.). Elle offre également la possibilité d’accueillir des composants de dernière génération
tel le processeur Intel Xeon E3-1240V3 cadencé
à 3,3 GHz. Il s’accompagne ici d’une barrette de
4 Go DDR3 ECC. Une capacité qui peut être portée à 32 Go. Mais dans cette configuration, ce
serveur est déjà le plus performant de ce dossier ! Le tout est nourri par une alimentation de
620 watts. Elle a l’avantage d’afficher une puissance conséquente et une version redondante
de 650 watts peut s'y substituer en option. De
quoi faire face aux évolutions futures.
Une administration simple.
Côté réseau, on
retrouve deux connecteurs Gigabits Ethernet.
Les slots PCIe vous seront d’une aide précieuse
pour augmenter les performances réseau en
ajoutant une carte fibre par exemple. Concer-
très bonnes performances. Et avec son format
EATX, il pourra évoluer au gré de vos besoins. En
contrepartie, il faudra se contenter d’outils d’administration en retrait face à la concurrence.
Dell
Poweredge
T620
Une génération plus puissante
Un modèle qui présente quelques
fonctionnalités bien pratiques
Imposant, le Poweredge T620 affiche ses ambitions avec un boîtier massif. Selon sa configuration, il prend en charge de 4 à 32 disques durs
échangeables à chaud. Il offre une compatibilité avec les disques SAS 2, SATA III et SSD. Pour
gérer toutes ces unités, c’est un contrôleur PERC
S110 qui officie. Un composant qui permet de gérer de façon logicielle les différents modes Raid.
Ici, Raid 0, Raid 1 et Raid 5 sont pris en charge.
La gestion logicielle du Raid impose également
quelques limites, notamment en termes de per-
P R E M IE R S E S S A IS
6 serveurs testés
formance, mais aussi sur le nombre de disques
qu’elle peut accueillir. Le PERC S110 ne peut pas
contrôler plus de quatre disques. Une carte destinée au Raid matériel est également disponible
et accroît davantage les performances. Cette
carte Mini PERC H710 prend place dans un slot
dédié, dispose de 512 Mo de mémoire cache,
supporte les différents modes Raid jusqu’au
Raid 6 et offre un support des interfaces SAS et
SATA. Reste que cette carte optionnelle coûte
400 euros…
Simple ou double processeur. Bien agencé, le
T620 ne laisse pas de place au hasard. Tous les
composants sont parfaitement rangés. La carte
Raid H710 se place à côté des différentes baies.
Ici les fonds de panier sont câblés à huit ports
SATA. Le T620 dispose de 24 emplacements
mémoire au format DIMM. Notre configuration, équipée de 8 Go de RDimm 1 333 MHz
s’accompagne ici d’un processeur Intel Xeon
E5-2609 cadencé à 2,4 GHz (un deuxième emplacement est disponible). Un ensemble suffi-
samment robuste pour un groupe de travail de
moins de trente personnes. Ce processeur quadri-cœur s’octroie également les services de
10 Mo de mémoire cache. À l’usage, l’ensemble
se montre plutôt silencieux. Pourvu de 3 ventilateurs échangeables à chaud, le T620 présente
une consommation de 105 watts en fonctionnement. En charge, la consommation monte à
plus de 380 watts. Soit la limite maximale que
peut supporter son alimentation redondante de
450 watts. Notez toutefois que vous pourrez piocher dans les options afin de porter cette puissance à 750 ou 1 100 watts. De quoi supporter
les évolutions matérielles à venir. Notre modèle
dispose de sept ports PCI Express de troisième
génération.
Réseau sur mesure.
Par défaut, le T620 est
pourvu d’une puce Broadcom 5720 supportant
les réseaux Ethernet jusqu’à 1 gigabit. Pour s’offrir un réseau en 10 gigabits il faudra débourser
360 euros de plus et pour de la fibre comptez au
minimum 750 euros. Par ailleurs, ce serveur
est pourvu du nouveau contrôleur de gestion
à distance : le iDRAC7. Associé à une interface
web, ce système offre aux administrateurs un
outil simple pour effectuer des relevés complets sur les fonctionnalités de la machine (espace disponible, consommation, température,
etc.). L’iDRAC7 permet également de suivre les
évolutions matérielles, en affichant les slots occupés ou encore configurer les ports réseau ou
les systèmes Raid.
En conclusion Silencieux et à l’agencement intelligent, le T620 facilite sa maintenance. Pour
cela, il dispose d’un utilitaire de surveillance et
P R E M IE R S E S S A IS
6 serveurs testés
de mise à jour parfaitement bien conçu et il utilise différents systèmes qui permettent d’intervenir sur la machine sans le moindre outil. Par
exemple, il est possible de démonter la carte mère
en moins de cinq minutes, en déclipsant les différents éléments qui la retiennent. Un excellent
choix qui est ici assorti d’une garantie de 3 ans
avec une intervention le jour ouvrable suivant
l’appel.
Fujitsu Primergy
TX140S1P
ter le stockage présent. Vous pourrez ainsi profiter d’unités de sauvegarde LTO, RDX ou DDS.
Celles-ci prennent place en façade dans un des
deux emplacements 5,25 pouces. L’ensemble
est géré par un contrôleur Raid logiciel qui ne
peut traiter plus de quatre canaux. Si vous utilisez le rack 8 baies 2,5 pouces, vous serez dans
l’obligation d’acquérir une carte contrôleur
Raid additionnelle pour en profiter. Le chipset
présent en standard (Intel C200) gère le Raid 0,
1 et 10. Notez également qu’une carte Raid spécifique est nécessaire pour utiliser des disques
durs SAS.
Mono processeur et extensions limitées.
Un serveur intéressant qui satisfera
le plus grand nombre
Un module qui peut accueillir
indifféremment des disques 3,5” ou 2,5”
Voici un serveur atypique. De base, il se présente sous la forme d’une tour classique. Dans
ce format, il est doté d’un module qui peut accueillir quatre disques au format 3,5 pouces.
Ces paniers sont câblés en SATA et en SAS afin
d’offrir une compatibilité maximale. Avec
quelques artifices, il se transforme volontiers
en serveur rack. Autre astuce, un boîtier permet de convertir les quatre baies 3,5 pouces
en 8 baies 2,5 pouces. Ce format de disque est
de plus en plus utilisé. Des gammes de disques
ont récemment été annoncées et les SSD sont de
plus en plus utilisés dans les serveurs. Ces derniers sont d’excellents atouts pour les bases de
données où la réactivité et les débits sont deux
éléments cruciaux. Par ailleurs, le constructeur
propose de nombreuses options afin de complé-
Malgré sa taille standard, cette configuration
utilise une carte mini ATX. Il en découle un
nombre d’extensions très réduit. Ainsi, avec
un seul port PCIe la configuration atteindra
vite ses limites. Surtout si vous utilisez une
carte contrôleur RAID. Côté processeur, nous
P R E M IE R S E S S A IS
6 serveurs testés
avons à faire à un Intel Xeon E3-1200V2. Cadencé à 3,1 GHz, ce modèle s’accompagne de 4 Go
de DDR3 ECC extensible à 32 Go. Une opération simple qui s’opère grâce aux quatre slots
mémoire. Il en va de même du côté de l’alimentation avec une puissance limitée à 300 watts.
Mais il existe une version avec alimentation
redondante, soit avec une ou deux extractibles
à chaud. Notez que dans cette version, la puissance passe à 450 watts.
La suite logicielle la plus complète. La par-
tie réseau est composée de deux ports Gigabits
Ethernet. Basés sur des contrôleurs Intel 82574L
et 82759LM, ils offrent les fonctions de Boot
iSCSI et PEX. Mais cela ne fait partie que d’un
faible aperçu des possibilités de ce serveur. Fujitsu a mis un point d’honneur à mettre à disposition tous les outils nécessaires pour administrer le serveur ainsi que le parc de serveurs.
Gestion à distance, mise à jour et maintenance,
détection et analyse des pannes, voici un petit
échantillon des possibilités offertes.
En conclusion
Si ce serveur présente quelques limites, notamment en terme d’évolution matérielle, il séduit
d’avantage par son module hybride capable
d’accueillir 4 disques durs au format 3,5 pouces
ou 8 disques au format 2,5 pouces. Son adaptateur rack séduira les plus perfectionnistes, tandis
que sa suite de logiciels simplifiera amplement
le quotidien de l’administrateur réseau lors des
maintenances et autres interventions.
HP ProLiant
ML310e Gen8
v2 Server
Un serveur à moins de 900 € pour un
groupe de moins de 30 personnes
Quelques concessions
Robuste, voici le meilleur qualificatif pour ce
serveur signé HP. Fraîchement lancé sur le marché, le ProLiant ML310e présente une esthétique
pour le moins épurée. Mais ce dessin obère également le côté pratique de la machine. Ici, pour
accéder aux quatre baies 3,5 pouces, il ne suffit
pas d’ouvrir une simple porte, non il faut ôter la
face avant du serveur dans son intégralité. On a
vu plus simple. Heureusement, les berceaux de
disque se retirent aisément et même à chaud.
Câblés en SATA et en SAS, ces disques profitent
du contrôleur Dynamic Smart Array B120i/ZM.
Ce contrôleur RAID peut gérer jusqu’à six unités de stockage au format SATA. Si vous souhaitez utiliser des disques SAS, il faudra opter pour
le contrôleur ZM Dynamic Smart Array B320i.
Outre cette compatibilité, il offre un support de
huit disques. Un intérêt quelque peu discutable
puisque ce ProLiant ne dispose pas d’autant d’espace pour accueillir ces disques. Concernant les
modes Raid proposés, les deux contrôleurs font
jeu égal, avec du Raid 0, 1 et 10. Le Raid 5 reste
une option logicielle… L’accès aux différents composants est plus
aisé que celui aux disques. Le panneau gauche
du ProLiant se retire en quelques secondes. Ici,
P R E M IE R S E S S A IS
6 serveurs testés
Réseau standard, mais service de pointe.
c’est propre et parfaitement rangé. Comble du
raffinement, un large conduit vient prendre
place au-dessus des cartes filles et du processeur. Il a pour vocation d'optimiser les flux
d’air. Dans ces conditions, les composants sont
parfaitement refroidis et le bruit généré par le
ventilateur est limité. Le conduit s’ôte rapidement afin d’accéder en quelques instant aux
composants. On distingue notamment les ports
PCIe 3.0 (8x et 16x) et PCIe 2.0 (8x et 4x)
Bon processeur, mais mémoire à minima.
En jouant la carte du prix le plus bas, HP a dû
consentir à quelques concessions sur les spécifications et la quantité des composants intégrés. Si
le processeur – un Intel Xeon E3-1220v2 à 3,1 GHz
– remplit sa tâche, les deux petits gigaoctets de
mémoire sont plus que justes pour faire face à la
demande. Oubliez d’emblée cette configuration
et optez au minimum pour 4 Go de DDR3 ECC.
Surtout qu’avec 4 slots mémoire, il y a de quoi
faire (32 Go au maximum). Au-dessus de la carte
mère trône une alimentation silencieuse de 460
watts. Un bloc qui peut être remplacé par un modèle redondant de même puissance en option.
Ce n’est pas non plus du côté de la connectique
réseau que ce modèle se distingue. À moins de
piocher dans la banque d’organes présentant des
cartes 10 gigabits ou fibre, il faudra se contenter de
deux ports Gigabits Ethernet gérés par le contrôleur Intel 330i. En revanche, ce serveur propose
un nombre impressionnant d’utilitaires pour administrer son serveur et son réseau. L’installation,
la configuration et la maintenance sont simplifiés
avec HP iLO Management Engine (iLO4) et HP
Intelligent Provisioning. Pré-chargés dans le serveur, ces outils peuvent être déployés en quelques
secondes sur les ordinateurs de votre choix. Ils
vont même au-delà de la maintenance. En effet,
HP Active Health présente des fonctions de surveillance des performances de votre serveur. Cet
utilitaire vous indique alors les composants qui
présentent des défaillances, évalue automatiquement la consommation d’énergie et gère la mise
à jour des applications. Enfin, l’option HP Insight
Online est aussi séduisante. Se présentant sous la
forme d’un portail, elle propose des services en
ligne basés sur le Cloud. L’accès au serveur, sa sauvegarde en ligne ou encore sa personnalisation
n’auront jamais été aussi simples !
En conclusion Pour moins de 900 euros, ce ser-
veur affiche de belles prestations. Toutefois, il faut
garder à l’esprit que pour cette somme, il faudra
souvent se contenter du minimum. Pensez donc
à augmenter la capacité mémoire et à opter pour
une alimentation redondante afin d’obtenir un
serveur digne de ce nom. Mais dans ces conditions, on atteint les 1 100 euros HT. Une somme
raisonnable si l’on prend en compte la quantité et
la qualité des logiciels livrés.
P R E M IE R S E S S A IS
6 serveurs testés
Lenovo
ThinkServer 430
Une solution d’entrée de gamme,
simple et économique
Apte pour les groupes de 30 personnes
Quelques limites
Le Lenovo ThinkServer TS430 reprend un design
inspiré de la gamme de PC traditionnels, avec des
angles biseautés et des voyants de fonctionnement ici et là. Mais après un examen plus attentif, on se rend bien compte que nous sommes en
présence d’un serveur. Il suffit d’ouvrir la porte
en façade pour voir apparaître les huit baies au
format 3,5 pouces. Grâce à celles-ci, ThinkServer TS430 offre de belles possibilités d'évolution.
Il pourra atteindre une capacité de stockage de
32 To avec disques SATA ou SAS. Toutes ces baies
sont remplaçables à chaud et les fonds de panier
sont parfaitement câblés. Pour gérer l’ensemble,
un contrôleur Raid implémenté sur la carte fille
gère les Raid de niveau 0, 1 et 10. Pour l’utilisation du Raid 5, il faudra effectuer une mise à jour,
payante, de la carte. Par ailleurs, si vous souhaitez utiliser des disques de type SAS, il faudra
prendre l’option « Raid 500 ». Constituée d’une
carte fille, cette solution offre le même niveau de
gestion et bénéficie du Raid 5, également après
une mise à jour.
Ce ThinkServer s’accompagne de quelques
outils pratiques pour gérer à la perfection l’intégralité de ses données. Par exemple, il dispose
d’un logiciel permettant de sélectionner l’unité
logique d’amorçage. Très utile si vous souhaitez
disposer deux systèmes sur votre serveur. En
outre, la reconstruction automatique des disques
après un changement à chaud est possible, tout
comme la migration de niveau de Raid en ligne
ou l’extension des données sur le Cloud.
De l’Intel Core au Xeon.
Très abordable, le
ThinkServer TS430 est proposé en différentes
configurations. L’entrée de gamme se contente
d’un processeur à architecture Core. Ce G620
se nourrit de deux cœurs à 2,6 GHz. Le haut de
gamme est quant à lui représenté par un Xeon
E3-1280 (4 cœurs à 3,6 GHz). Dans cette configuration plus haut de gamme, le TS430 ne dépasse
pas les 1 500 euros… Le bon compromis se situe
sur la configuration intermédiaire, dotée d’un
Xeon E3-1220. Ce processeur quatre cœurs est
cadencé à 3,1 GHz et affiche déjà de bonnes prestations. Dans notre configuration de test, il s’accompagne de 4 Go de mémoire vive. Une capacité
que l’on peut faire évoluer jusqu’à 32 Go sur les
quatre emplacements mémoire DDR3. Avec une
telle configuration, pas besoin de disposer d’un
déluge de watts. Ici un seul modèle d’alimentation
P R E M IE R S E S S A IS
6 serveurs testés
La garantie, une option aussi
importante que votre serveur
À la moindre panne vous devrez être le plus réactif afin que votre entreprise
conserve sa productivité : avec 24 heures sans réseau, votre entreprise
est presque au chômage technique.
Un serveur a pour vocation d’abriter
toutes les données de votre
entreprise, de stocker votre base
de données et même de gérer votre
réseau. De fait, à la moindre panne
vous devrez être le plus réactif
possible afin que votre entreprise
conserve sa productivité… Si ce
n’est qu’une panne minime, tel qu’un
disque dur, son remplacement et la
reconstruction du système ne vous
prendront que quelques minutes.
Mais si elle est plus grave, vous
devrez faire appel au constructeur.
Et c’est là que toute la différence se
fait. Si un constructeur vous propose
une intervention en J+1, vous devrez
attendre le lendemain de votre appel
pour être secouru ! Et avec 24 heures
sans réseau, votre entreprise est
presque au chômage technique. Dans
ce dossier, à l’exception de HP et
Fujitsu qui présentent une garantie en
standard de 1 an, tous affichent une
couverture de 3 ans pièces et main
d’œuvre sur site en J+1. Ces garanties
sont assorties d’une intervention.
Pour étendre ces garanties à trois
ans, il faudra donc mettre la main
à la poche (de 155 à 250 €). Notez
que vous pourrez également étendre
votre garantie, afin de la faire passer
à 6 ans sur site. Comptez entre 230
et 619 € pour ce type de service. Mais
comme nous vous le disions, en cas
d’une panne importante, le mieux est
est proposé. D’une puissance de 450 watts, elle se
montre silencieuse. Notez qu’il est possible d’opter
pour une alimentation redondante de même puissance. Celle-ci vient prendre place aux côtés de la
première afin de préserver la bonne intégration
des composants.
Pour quelques évolutions.
Le châssis fait le
plein de bonnes intentions. On dispose ainsi de
trois slots PCIe 2.0 8x, d’un slot PCIe 4x et d’un
slot PCI 2.3. La connectique n’est pas en reste avec
deux ports gigabits Ethernet, dont un qui est partagé avec l’outil de gestion à distance. Avec lui, il
est possible de surveiller le bon fonctionnement
de votre machine et même d’effectuer quelques
d’être dépanné le plus rapidement
possible. Et à ce petit jeu là, Carri
monte sur la première marche du
podium. Le constructeur propose
des interventions en moins de quatre
heures en Île de France…
Pour 695 €, Acer propose
d’étendre sa garantie à 5 ans
au travers de son programme
AcerAdvantage. Celui-ci assure aux
clients Acer d’être dépannés le jour
ouvrable suivant l’appel. Le service
affiche une disponibilité de 9 heures
par jour et fonctionne 5 jours par
semaine. Une version intermédiaire
est également proposée. Pour 466 €,
cette garantie couvre le serveur
pendant trois ans.
ajustements de configuration. Côté garantie, le
constructeur propose une couverture de 3 ans
sur site en J+1 (France métropolitaine). Toutefois,
un large catalogue propose des extensions de garantie. Assistance 24/24, 7 jours sur 7 avec appel
prioritaire et packs d’installation et de formation
sont également proposés.
En conclusion Complet, silencieux et peu oné-
reux, le ThinkServer TS430 présente une solution
efficace pour un premier investissement. Pour des
besoins plus conséquents, ce modèle atteindra en
revanche ses limites. Vous devrez par exemple
vous contenter de 32 Go de mémoire vive et vous
satisfaire de l’unique socket processeur.
P R E M IE R S E S S A IS
6 serveurs testés
Dell
Poweredge
T620
Fujitsu
PRIMERGY
TX140 S1p
HP ProLiant
ML310e
Gen8 v2
Server
Lenovo
ThinkServer
TS430
CARACTÉRISTIQUES
TECHNIQUES
Acer
Carri
ProServeur
E3 LT
Processeur
Intel Xeon
E3-1220V2
Intel Xeon
E3-1240V3
Intel Xeon
E5-2609
Intel Xeon
E3-1200V2
Intel Xeon
E3-1220V2
Intel Xeon
E3-1200V2
Fréquence
4 x 3,1 GHz
4 x 3,3 GHz
4 x 2,4 GHz
4 x 3,1 GHz
4 x 3,1 GHz
4 x 3,1 GHz
Mémoire livrée
4 Go DDR3
ECC
4 Go DDR3
ECC
8 Go DDR3
ECC
4 Go DDR3
ECC
4 Go DDR3
ECC
4 Go DDR3
ECC
Mémoire maximale
32 Go DDR3
ECC
32 Go DDR3
ECC
32 Go DDR3
ECC
32 Go DDR3
ECC
32 Go DDR3
ECC
32 Go DDR3
ECC
Nombre de baies
3,5 pouces
4
4
4
4 (3,5'') ou 8
(2,5'')
4
8
Raid supporté en standard
0, 1, 10, 5
0, 1, 10, 5
0, 1, 10, 5
0, 1, 10
0, 1, 10
0, 1, 10, 5
Capacité livrée
2 x 500 Go
2 x 1 To
0
2 x 500 Go
0
0
Capacité maximale
4 x 4 To
2 X 4 To
4 x 4 To
4 x 4 To
4 x 4 To
8 x 4 To
Alimentation
450 watts
620 watts
495 watts
300 watts
450 watts
NA
Alimentation redondante
2 x 400
watts en
option
2 x 650
watts en
option
jusqu'à 2 x
1 100 watts
en option
2 x 450
watts
2 x 460
watts en
option
2 x 450
watts
Réseau
2 x Gigabit
Ethernet
2 x Gigabit
Ethernet
2 x Gigabit
Ethernet
2 x Gigabit
Ethernet
2 x Gigabit
Ethernet
2 x Gigabit
Ethernet
Prix
970 € HT
1 095 € HT
1123 € HT
1 140 € HT
900 € HT
1 100 € HT
Garantie standard
3 ans
3 ans, dont 1
sur site
3 ans J+1
1 an sur site
1 an sur site
3 ans J+1
Garantie en option
3 ans sur
site J+24 /
230 € HT
3 ans sur
site J+1 /
400 € HT
3 ans sur
site J+1 /
1 102 € HT
3 ans sur
site J+1 /
619 € HT
3 ans sur
site J+24 /
255 € HT
3 ans
prioritaire /
150 € HT
NOTATION
Caractéristiques
Évolutivité
Performances
Services
Garantie
Total
3
3
3
4
2
15
4
3
5
2
4
18
4
4
4
4
4
19
P R E M IE R S E S S A IS
4
4
3
4
2
17
3
4
4
4
4
19
3
3
3
4
4
17
Dragon NaturallySpeaking 12 Premium Mobile
pour
L’excellence de la reconnaissance
vocale avec la version 12.5.
contre
Plusieurs essais dans la version
mobile testée pour obtenir un très bon résultat.
249 €
4
en résumé
Pour son prix, il procure des
prestations de haut niveau
et constitue donc un excellent
produit.
(149 € logiciel seul) Sans refaire l’histoire des logi-
ciels de reconnaissance vocale, Dragon Naturally
Speaking (DNS) version 12 reste pratiquement seul au monde. Via Voice
(IBM) a disparu. Philips, conserve 360 | SpeechMagic SDK, plate-forme
de développement dédiée au secteur médical, distribuée par Nuance
et les partenaires de sa branche Healthcare. La société Philips poursuit
également la commercialisation d’enregistreurs numériques pour la
dictée vocale lesquels constituent d’excellents périphériques d’entrée
P R E M IE R S E S S A IS
5
Dragon NaturallySpeaking 12 Premium Mobile
pour DNS. Pour cet article, nous avons testé la
qualité de reconnaissance vocale de Dragon NaturallySpeaking 12 et nous avons complété l’essai
avec l’enregistreur livré avec la version mobile.
Un peu de clarté dans tout ca : la version Home
est limitée à la dictée et la reconnaissance d’un
texte, la version Premium y ajoute la commande
vocale d’un ordinateur sous Windows ­– lancer
un programme, envoyer des mails, surfer sur
Internet. Il existe aussi une version professionnelle dédiée au déploiement en entreprise basée sur la version 12. Nuance commercialise en
outre une version 12 Legal et Dragon médical qui
reste encore en version 11. L’ensemble testé ici
comprend le logiciel Dragon Naturally Speaking
12 Premium, le micro-casque livré avec le pack
ainsi que l'enregistreur numérique Philips VoiceTracer LFH0662 d’où l'épithète Mobile. Cette version accepte aussi comme périphérique d’entrée
un téléphone mobile sous iOS et même Androïd
depuis peu. L'éditeur du logiciel, Nuance, réussit
totalement l'aide à l'usage de son produit : insertion du DVD, installation simplissime. Common
Software Manager, chercheur de mises à jour
logicielles, est ajouté à votre machine et vous fait
découvrir un patch de 500 Mo, disponible depuis
le 15 juillet 2013 : adaptation aux récents logiciels
de Microsoft (Windows 8, Office 2013, Internet
Explorer 10) et correction des bugs répertoriés.
Vous voilà aux commandes de la version 12.5. Il
est préférable d’exécuter en premier ce patch.
Mise en route
Aussitôt après l’installation, le logiciel vous propose de créer votre profil locuteur qui se réalise
en lisant un texte de 10 min. Après la lecture, le
traitement de ce profil prend 5 à 10 min. Cette
opération somme toute assez rapide (il fallait
compter plus d’une heure sur les anciennes versions) est capitale pour obtenir une bonne quali-
P R E M IE R S E S S A IS
Dragon NaturallySpeaking 12 Premium Mobile
L’enregistreur numérique Philips
C’est l’instrument de mobilité et de
liberté de cette version (Premium
Mobile) puisque vous pouvez dicter
n’importe où avec ce petit outil (11 x 4
x 2 cm), 84 g avec ses deux batteries
AAA 900ma rechargeables par le port
USB ou avec un chargeur (non fourni).
Pour notre part nous préconisons
deux batteries supplémentaires
chargées : l’autonomie est d’au
moins 20 heures. La capacité de
la mémoire est de 2 Go. Les notes
prises au dictaphone sont versées
dans la section Voice en fichiers MP3
transférables par un câble USB. Cette
section est divisée en 4 registres
A, B, C, D pouvant contenir chacun
99 fichiers MP3 dans la limite de la
mémoire. À chaque enregistrement,
le temps écoulé et le temps restant
sont affichés. Dans les options figure
le déclenchement à la voix. Pour un
meilleur résultat, il est possible d’agir
sur les deux choix d’enregistrement
possibles : High ou Low selon
l’environnement calme ou bruyant. En
outre, dans le logiciel DNS on crée un
profil spécifique soit 4 min de texte lu
sur ce nouveau périphérique qui sera
analysé. Mais le profil micro-casque
té de reconnaissance. Nous ne saurions trop vous
conseiller d’articuler et d’adapter votre diction,
mais sans aller jusqu’à travestir votre phrasé naturel. L’objectif reste tout de même que le logiciel
reconnaisse votre prose au quotidien !
Vous êtes ensuite dirigé vers le didacticiel interactif qui, en 10 étapes, vous apprend les bases
du logiciel : commande du micro, diction, ponctuation et commandes de dictée, correction, épellation si le mot est inconnu, modification du texte
(mettre en gras, supprimer un mot), sélection du
texte et déplacement du point d’insertion, formatage du texte. Ce module est particulièrement
réussi et permet d’entrer en 30 minutes dans les
fonctionnalités de DNS. Tout n’est pas forcément
clair à l’issue ? Pas d’inquiétude : n’hésitez pas à
refaire le didacticiel interactif. De plus, une fenêtre d’aide permet de consulter les différentes
commandes du logiciel mais aussi de solliciter
l’aide en ligne.
Au total, cette nouvelle version vous assure
d’être productif en une heure (en excluant le
peut aussi être utilisé.
Enregistrer son texte, ses notes
puis transférer les fichiers MP3
par un port USB avec un système
bien paramétré donne une très
bonne reconnaissance. Au pire, un
fichier MP3 peut s’écouter avec un
simple lecteur... Cet enregistreur
constitue en définitive un excellent
outil de mobilité mais sous liberté
« conditionnelle » : le soin que l’on
mettra à faire le(s) meilleur(s) choix.
Avantage, c’est l’utilisateur
qui reste le seul juge de sa peine
pour réussir.
temps de téléchargement du patch et son installation). Vous pouvez soumettre des documents
représentatifs de votre style, ce qui améliore
encore votre profil locuteur et, ce faisant, l’exactitude de la reconnaissance. De plus, à la fin de
chaque nouveau texte, votre profil est automatiquement enrichi. Cette fonction est désactivable
si vous le souhaitez.
Intégration aux logiciels
Dans la version Premium testée, la commande
vocale des logiciels et leur contrôle est satisfaisante. Dragon NaturallySpeaking est compatible
avec la majorité des logiciels Microsoft et grâce
au dernier patch, y compris dans leurs toutes
dernières versions. L'application travaille directement dans les logiciels Word et Excel et une aide
spécifique s’ouvre sur le côté. Pour PowerPoint,
c’est la « boîte de dictée » de Dragon qui s’ouvre
et le contenu se transfère au point d’insertion. La
« boîte de dictée » est l’outil par défaut que propose DNS quand il ne sait pas écrire directement
P R E M IE R S E S S A IS
Dragon NaturallySpeaking 12 Premium Mobile
dans un logiciel : on peut travailler le texte à la
voix. En dehors d’une accessibilité avec un minimum de manipulation clavier ou souris, l’intérêt
de la boîte de dictée pour ces logiciels est modeste.
Outre le contexte bureautique auquel DNS se
prête bien sûr tout particulièrement, le surf sur
Internet peut également bénéficier de la navigation vocale : Internet Explorer 10 et Firefox sont
parfaitement reconnus et bénéficient d’une aide
contextuelle pour les commandes. Et pour la
messagerie, Windows Live Mail et Outlook bénéficient aussi de la même prestation. L’optimisation
pour Gmail n’est pas au rendez-vous : il n’est pas
possible de dicter directement dans la messagerie. Il faut donc passer par la case « boîte de dictée », on y perd en ergonomie.
Qualité de reconnaissance
À quelques réserves près énoncées ci-après, DNS
s’acquitte de sa tâche fort honorablement dans
la grande majorité des cas dans lesquels nous
l’avons testé. Par exemple, si l’aide est vraiment
utile et la base de connaissance fort riche, certaines réponses sont inadaptées car certains
types de commandes ne sont disponibles que
dans certaines versions de Dragon Premium.
Plutôt qu’une aide unique, l’éditeur gagnera à
les différencier en fonction des versions. Enfin,
la « boîte d’épellation » n’obéit pas très bien au
contrôle vocal et le recours à la souris ou autre
moyen de pointage est souvent nécessaire pour
faire un choix parmi ceux proposés.
Au total, malgré ces quelques petits défauts, le
logiciel est vraiment performant en reconnaissance vocale avec le micro casque et l’enregistreur numérique. Il ne faut pas négliger la puissance machine : avec le minimum requis, le texte
ne s’affiche pas 3 fois plus vite qu’à la frappe mais
on peut dicter très rapidement sans rien perdre.
Francis Daliphard
P R E M IE R S E S S A IS
Acronis True Image 2014 Premium
pour
Une interface remaniée, des
fonctions pléthoriques et
complètes. La restauration Cloud
qui fonctionne. Une offre de
stockage accessible.
contre
Certaines fonctions comme les
opérations portant sur un disque
ou des partitions (clonage,
sauvegarde) gagneraient à
être directement accessibles.
Et l'affichage des origines de
restauration, plus immédiate.
79,95 €
4
5
en résumé
Avec sa version 2014, Acronis
réussit à innover sur un secteur qui
semblait ne plus devoir évoluer. Et
cela, en ajoutant des fonctions de
gestion de sauvegarde avancées et
programmables.
Au fil des versions, Acronis True Image, utilisé par de nombreux professionnels, a acquis le
statut envié de référence en matière de gestion de partitions et de clonage de disques. Prenant appui sur ce socle technique solide, l’éditeur
l’a graduellement positionné comme un outil de sauvegarde à part entière. Sans prétendre devenir une solution de sauvegarde universelle
(Acronis dispose de versions spécifiques pour serveurs), elle couvre
de façon très complète la sphère du poste de travail. Les disques et les
P R E M IE R S E S S A IS
½
Acronis True Image 2014 Premium
partitions qui les composent peuvent en effet
être gérés sur un disque dur externe, un serveur NAS, un FTP… ou même le Cloud !
Les fonctions de base
L’interface du logiciel a été remaniée pour cette
nouvelle version et se divise en quatre sections, chacune accessible par un onglet. Voilà
qui simplifie l’utilisation, plutôt que l’arborescence à volets, réminiscence du déjà ancien
Windows XP. Si la nouvelle interface simplifie
globalement l’utilisation du logiciel, certaines
opérations précises comme le clonage de disque
demandent un peu de recherches (notamment
dans les options avancées) et sont donc hors de
vue dans un premier temps. Cela signe de façon
subtile mais marquée le virage qu’Acronis fait
prendre à True Image pour en faire un logiciel
de sauvegarde pur et dur. Il est à noter qu’aussi bien sur la version installée sous Windows
qu’en démarrant sur la clé USB de restauration,
vous pouvez poursuivre l’utilisation du logiciel
pendant qu’une sauvegarde ou une restauration se déroulent.
Vous pouvez exploiter les fonctions de sauvegarde à la demande (complète ou incrémentale),
ou encore la nouvelle fonction NonStop Backup
qui sauvegarde vos données en continu. Elle
ajoute la possibilité de sauvegarder une partition en permanence et procède comme pour
les données : une sauvegarde complète, suivie
de sauvegardes incrémentales ne comprenant
que le delta de données ayant changé depuis
la dernière sauvegarde. Mieux encore, la gestion de l’ancienneté des deltas est gérée : elle est
conservée toutes les minutes pour le jour actuel,
mais ne conserve que la dernière en date pour
la journée d’hier, la semaine et le mois écoulés.
Ce qui assure des sauvegardes complètes avec
des données à jour tout en préservant la frugalité rendue nécessaire par la bande passante,
forcément limitée.
En cas de panne matérielle, le logiciel est
capable de restaurer système d’exploitation et
données sur un PC différent à l’aide de la fonction Universal Restore… à condition d’avoir
opté pour la version Premium du logiciel
(vendue 79,95 € contre 49,95 € pour la version
Home). C’est la principale différence. Si vous
avez un parc à gérer, optez donc pour la version
Premium. Bien sûr, des versions spécifiques
Workstation (testé le mois dernier) et Serveur
(testé prochainement) existent, mais Acronis
True Image procure un nombre de fonctions
impressionnant capable de répondre à la majorité des cas.
Le clonage de disque passe par l’emploi d’un
assistant pour déterminer le disque source et le
disque destination. Par défaut, le mode de clonage automatique s’occupe de migrer les partitions à votre place et surtout, de les retailler
en fonction de la capacité du nouveau disque.
Ce mode automatique peut être débrayé et vous
laisser prendre la main pour choisir le mode
de copie des partitions : à l’identique, proportionnel ou entièrement manuel. Ce dernier
mode est certainement le plus puissant de tous.
Vous pouvez déterminer librement l’intégralité
de ses caractéristiques : taille de la partition à
l’arrivée (sans pouvoir choisir une taille inférieure aux données déjà présentes bien sûr),
son emplacement (début, fin ou n’importe quel
endroit de l’espace alloué), le système de gestion de fichiers (NTFS ou FAT32), et le type (Pri-
P R E M IE R S E S S A IS
Acronis True Image 2014 Premium
maire, Logique, active ou non). Certaines configurations de disques ne sont prises en charge
que dans la version Premium du logiciel, c’est
le cas des disques dynamiques ou en RAID.
La sauvegarde dans le Cloud
C’est la grande nouveauté de cette version :
Acronis vous offre 5 Go d’espace de sauvegarde
gratuitement. Ces 5 Go vous sont acquis et sont
utilisables pour sauvegarder des éléments distincts (documents, fichiers, photos) ou comme
zone de synchronisation dédiée à vos appareils
mobiles à l’aide des applications pour iOS et Android de l’éditeur. L’offre de l’éditeur plafonne
pour l’heure à 5, 50 ou 250 Go payables au mois
ou à l’année (49,95 pour 250 Go annuels). Des
offres de stockage supérieures existent pour
des volumes plus importants (jusqu’à 3 To, voir
tableau).
L’opération de sauvegarde sur le Cloud
est possible sous deux formes. La première
consiste, comme s’il s’agissait d’une sauvegarde
standard, à paramétrer une sauvegarde complète (nécessaire pour la sauvegarde initiale),
suivie de sauvegardes incrémentales. Ces dernières se font de trois façons possibles : à la demande (manuellement) ou selon un calendrier
programmé, quotidien ou hebdomadaire. La
seconde, beaucoup plus intéressante, consiste à
choisir directement le disque dur à sauvegar-
P R E M IE R S E S S A IS
Acronis True Image 2014 Premium
der. Ce qui comprend par défaut également sa
structure (taille et type de partitions, informations de boot), mais vous pouvez choisir de n’en
sauvegarder que la partition de votre choix.
Pour la restauration depuis le Cloud, Acronis
promet le « bare metal recovery ». Cette expression un peu barbare équivaut au Nirvaña de
tout DSI qui se respecte : booter sur une simple
clé USB (générée par le logiciel) et restaurer
directement depuis un câble Ethernet. Nous
avons réalisé nos tests avec plusieurs PC portables successivement dotés de Windows XP, de
Windows 7 Professionnel et de Windows 8 Professionnel fraîchement installés et mis à jour
– soit 20 Go de données. Ces 20 Go ont mis environ 2 heures à être sauvegardés sur le Cloud
Acronis via un lien fibre de 100 Mbits/s à un
débit fluctuant entre 20 et 80 Mbits/s en upload.
Lors de nos tests, nous avons noté une tendance
franchement optimiste du logiciel à évaluer le
temps de restauration requis. Le compteur oscillait entre 20 et 35 minutes pour une opération qui prenait entre 1 h 45 et 2 heures.
À cette réserve près, le logiciel tient ses promesses. La mini distribution Linux servant
d’amorce pour la restauration a reconnu tous
les chipsets Ethernet que nous avons testé,
pour certains déjà anciens. Bon point : en cas
de ralentissement ou d’interruption, True
Image reprend la sauvegarde sans interruption
jusqu’à achèvement. Et cela y compris en cas de
mise en veille. En revanche, lors de l’un de nos
tests, la mise en veille prolongée a interrompu la sauvegarde en cours avec une erreur, la
sauvegarde étant par la suite affichée comme
complète. La consultation du fichier journal a
confirmé nos doutes – mais c’est là un cas atypique. Les sauvegardes peuvent être protégées
par mot de passe et sont cryptées en AES 128,
192 ou 256 bits.
P R E M IE R S E S S A IS
Acronis True Image 2014 Premium
Grille tarifaire des volumes de stockage pour postes de travail 5 Go 9,95 € par an
50 Go 2,95 € par mois ou 29,95 € par an
250 Go 4,95 € par mois ou 49,95 € par an
Grille tarifaire des volumes de stockage pour stations de travail 250 Go 79 €/1 an – 149 € / 2 ans – 219 € / 3 ans
500 Go 159 € / 1 an – 289 / 2 ans – 409 € / 3 ans
Pour serveurs 1 To 629 € / 1 an – 1190 € / 2 ans – 1690 € / 3 ans
1,5 To 949 € / 1 an – 1799 € / 2 ans – 2499 € / 3 ans
Pour machines virtuelles 2 To 1199 € / 1 an – 2249 € / 2 ans – 3229 € / 3 ans
3 To 1799 € / 1 an – 3399 € / 2 ans – 4849 € / 3 ans
Options supplémentaires Initial seeding (sauvegarde initiale réalisée en local) 83,99 € par machine
Restauration à grande échelle (jusqu’à 2 To) 234,45 € par machine
Bien entendu, pour tester la restauration « bare
metal » il faut prendre soin de générer au préalable un média bootable. True Image sait créer
un fichier ISO, graver directement un CD ou
DVD bootable, et bien entendu, créer une clé
USB bootable (400 Mo sont requis pour l’amorce
et le noyau Linux chargé de la restauration).
Sachez qu’Acronis vous propose d’essayer
gratuitement pendant 30 jours un espace de
250 Go. Au-delà de cette période d’essai, il vous
en coûtera 49,95 € par an (ou 4,95 € par mois). Le
noyau de démarrage permet d’effectuer la plupart des opérations de base, ainsi que la sauvegarde et clonage de disques et de partitions. Et
surtout, de lancer une opération de restauration
depuis un disque optique ou externe (connecté
en SATA, SAS, SCSI, IDE, IEEE1394, USB 1, 2 et
3.0), le serveur FTP de votre choix, un NAS du
réseau (le logiciel gère login et mot de passe),
ou encore l’espace Cloud d’Acronis. Curieuse-
ment, ces espaces de stockage n’apparaissent
pas spontanément dans le logiciel, il faut aller
jusqu’au bouton « parcourir » pour que les différentes cibles accessibles apparaissent dans
l’arborescence… la logique voudrait qu’ils s’affichent aussitôt.
Le logiciel est compatible avec toutes les éditions Windows XP SP3, Windows Vista SP2,
Windows 7 SP1 et Windows 8, en 32 comme en
64 bits. True Image sait convertir des fichiers de
son format natif (.tib) au format de disque virtuel Microsoft (.vhd) et inversement. Ces derniers peuvent être « montés » par Windows 7 et
Windows 8 sans autre forme de procès. Idéal
pour virtualiser n’importe quel poste de travail.
Au final, hormis quelques bizarreries ergonomiques, l’ensemble des nouveautés dont la
sauvegarde et la restauration depuis le Cloud
sont bien intégrées – une réussite ! Joscelyn Flores
P R E M IE R S E S S A IS
3
½
Toshiba Excite Write
pour
Ultra rapide. Processeur
quadricoeur Tegra 4. Affichage
d’un piqué exceptionnel.
Android 4.2
5
contre
Onéreuse. Tablette relativement
lourde et épaisse. Adaptateur
secteur de taille importante.
Intégration de l’encre numérique
perfectible.
649 €
en résumé
Même son processeur haut de
gamme et sa dalle de qualité ne
justifient pas un prix si élevé.
C’est peu de le dire, mais la toute nouvelle
tablette de Toshiba, l’Excite Write, marque considérablement les esprits. Tout d’abord pour sa qualité de conception et
de finition. On a affaire là à un produit robuste qui inspire confiance,
une bonne nouvelle pour les nomades. Ensuite, niveau équipement on
a rarement vu aussi impressionnant : processeur quadricoeur Tegra 4
d’une réactivité sans égale, et surtout un sublime écran 10,1 pouces
dispensant une définition de 2 560 x 1 600 pixels. Ce qui fait dire que
P R E M IE R S E S S A IS
Toshiba Excite Write
cette tablette hors norme est vraiment taillée
pour tous les usages, des plus basiques comme la
navigation sur Internet, aux plus gourmands en
ressources matérielles comme le traitement photo ou vidéo. Revers de la médaille, cette tablette
sous Android 4.2 est la plus onéreuse du moment
dans la catégorie des 10,1 pouces de diagonale.
Design et fonctionnalités
Toshiba a décidé de ne pas rendre l’Excite Write
aussi classieuse que l’Excite 10. Exit donc l’élégance de l’aluminium et place à un plastique texturé ayant déjà fait ses preuves avec l’Excite 10 SE,
une tablette à prix étudié. Mais par-dessus tout,
c’est son poids et son épaisseur qui surprennent,
surtout comparés à des modèles comme la Sony
Xperia Tablet Z ou la Nexus 10 qui présentent respectivement une épaisseur de 7 et 9 millimètres
et un poids de 498 et 589 grammes contre 1 cm
pour 671 grammes côté Excite Write.
Comme de nombreux modèles, cette tablette
embarque sur l’une de ses tranches le bouton
d’allumage ainsi que le régulateur du niveau de
volume. Derrière une petite trappe se trouvent
un emplacement pour cartes microSD, une prise
micro HDMI ainsi qu’un connecteur micro USB.
Ce dernier peut être utilisé aussi bien pour transférer des données que pour ouvrir une session
USB OTG (On-The-Go). Juste à côté trône la prise
Une trappe astucieuse dissimule l’ensemble
de la connectique de l’Excite Write, à savoir un
emplacement microSD, une prise microHDMI et un
connecteur microUSB.
de l’alimentation secteur où vient s’enficher un
bloc inhabituellement imposant que l’on a plus
l’habitude de voir accompagner un ordinateur
portable qu’une tablette.
Visiblement, la Full HD et au-delà ne font
guère peur aux tablettes actuelles. L’Excite
Write, tout comme la Nexus 10 d’ailleurs, arbore
une dalle IPS supportant une définition de 2 560
x 1 600 pixels. Avec une densité de 300 pixels par
pouce, elle détrône l’écran Retina de l’iPad et ses
263 pixels par pouce. Ce qui est dommage, c’est
que la pauvreté et le manque d’optimisation des
applis disponibles sur Google Play ne permettent
pas de mettre en valeur ses qualités d’affichage,
et ce même si l’Excite Write affiche des couleurs
légèrement sursaturées avec un jaune tirant un
peu vers le vert. Petite déception du côté de la
luminosité, l’iPad et l’Asus Transformer Pad Infinity TF700 faisant nettement mieux qu’elle.
Au dos de la tablette sont placés deux hautparleurs Harman Kardon, mais Toshiba a eu la
mauvaise idée de les situer là où l’on vient poser
les mains pour la tenir, si bien que le son qui en
émane est souvent étouffé, dommage !
P R E M IE R S E S S A IS
Toshiba Excite Write
Côté performances et équipement
L’Excite Write est la première tablette à intégrer le Tegra 4 et ses 4 cœurs. Conséquence : en
performances brutes, on sait à quoi s’attendre.
Cadencée à 1,8 GHz, la puce Nvidia est une des
toutes premières à utiliser la nouvelle architecture de l’ARM A15 ; de plus, elle est ici associée à
2 Go de mémoire vive. Ainsi armée, la Toshiba
obtient un impressionnant score de 3 937 au test
GeekBench, là où la Xperia Tablet Z et la Nexus 10
réalisent respectivement 2 099 et 2 480.
Ne disposant pas de 3/4G, le seul moyen de
connexion à internet pour l’Excite Write reste
donc le wifi. Ici, il est proposé en bibande (2,4 et
5 GHz) et est accompagné d’une puce Bluetooth 4
pour entrer en communication et échanger des
données avec les appareils compatibles. Un GPS
vient parfaire l’ensemble. Bon point, la tablette
de Toshiba s’est révélée très endurante lors de
notre test d’autonomie (test consistant à jouer
une vidéo en boucle avec le contraste poussé
au maximum et avec la connexion wifi active).
Certes, elle fait un peu moins bien que la TF700
d’Asus (qui a réalisé un incroyable 7 h 17 min),
mais elle surclasse haut la main la Xperia Tablet
Z et la Nexus 10 qui ont tenu respectivement pendant 5 h 09 min et 4 h 41 min.
En mode photo, avec son 8 mégapixels dorsal,
l’Excite Write prend des clichés tout à fait respectables… du moins lorsque les conditions de lumière sont favorables. Ledit objectif dorsal sert
également à réaliser des vidéos full HD (1080p) à
30 images/s. Le capteur frontal ne fait que 1,2 mégapixel, et se réserve à la visioconférence…
Un stylet numérique actif en plus
Pour se démarquer de la concurrence, Toshiba
a équipé sa tablette d’un stylet numérique actif.
Prendre des notes sur le pouce, tracer quelques
lignes pour esquisser un croquis… on s’imagine déjà faire tout plein des trucs sympas,
comme avec le Galaxy Note de Samsung. En
fait non, car l’appli (TruNote) proposée par Toshiba gère assez mal le stylet. En effet, normalement, selon la pression que l’on exerce, le trait
sort plus ou moins épais. Sur l’Excite, les traits
sortent avec la même épaisseur quelle que soit
la pression exercée. Pire, sur une appli de dessin à main levée comme Autodesk Sketchbook,
le décalage entre le moment où vous tracez et le
moment où cela apparaît à l’écran est tellement
important que cela en devient très vite insupportable. L’idée du stylet numérique est très intéressante et a certainement une grande utilité
pour certains professionnels, mais pas en l’état.
Reste qu’au vu de ce que propose déjà la
concurrence, l’Excite Write est au sommet de la
pyramide. Un argument qui ne serait pas défavorable si ce n’était le manque criant d’applications capables de tirer profit des performances
du Tegra A, ni du côté d’Android ni du côté des
applications professionnelles. Cela ne peut donc
que s’améliorer et justifier ainsi cette super tablette qui sort de l’ordinaire. Fernando Miguel
Type Tablette tactile | Diagonale de l’écran 10,1 pouces | Définition 2 560 x 1 600 pixels | Densité de pixels 300 par
pouce | Système d’exploitation Android 4.2.1 | Processeur Nvidia Tegra 4 à 1,8 GHz | Mémoire système / de
stockage 2 Go / 32 Go | Extension du stockage par carte microSD | Connecteurs microSD, microHDMI, microUSB
Connectivité sans fil Wifi b/g/n bibande, Bluetooth 4, GPS
P R E M IE R S E S S A IS
A4 Technologies Easy 120
pour
Faible coût d'acquisition et
d'exploitation. L'impression d'un
modèle 3D coûte entre quelques
dizaines de centimes et quelques
euros. Simplicité d’utilisation
proverbiale.
contre
Le délai d'impression, lequel peut
atteindre plusieurs heures pour
des modèles importants et/ou très
détaillés, mais c'est inhérent à la
technologie utilisée. Taille somme
toute limitée des modèles.
1 990€
4
½
5
en résumé
Mature sur le plan de la
technologie comme de la qualité
obtenue, cette imprimante
constitue une excellente première
étape pour se lancer dans
l'impression 3D.
Impossible d’y échapper : voilà plusieurs mois
que le tapage autour des imprimantes 3D est assourdissant. Avec l’arrivée de modèles positionnés pour une utilisation
personnelle et professionnelle, PC Expert a testé l’un des tout derniers
modèles, à la fois technologiquement abouti et fonctionnellement accessible. Imprimer en 3D, inabordable il y a seulement deux ans, est
désormais à la portée du plus grand nombre. C’est surtout un moyen
peu onéreux, rapide et efficace pour valider un concept ou design 3D
P R E M IE R S E S S A IS
A4 Technologies Easy 120
avant de le reproduire en série. C’est donc un
nouveau type de périphérique adapté aux créateurs d’objets et d’éléments 3D : concepteurs,
graphistes, cabinets d’architecte. Cette imprimante est également capable de reproduire
des pièces difficiles à réparer ou introuvables
(voitures anciennes, électroménager, informatique vintage, etc.).
L’imprimante Easy 120 distribuée par le
français A4 technologies appartient à la famille
des imprimantes « Desktop 3D », entendez par
là qu’elle peut venir prendre place sur un bureau, littéralement. Son petit volume l’y autorise : ses dimensions sont de 24 x 26 x 35 cm,
soit un encombrement inférieur à celui d’une
imprimante à jet d’encre classique. Deux modèles existent dans la gamme, l’Easy120 (le modèle testé, 1 990 €) et l’Easy 100, légèrement plus
petite (1 490 €). L’imprimante est livrée avec
une bobine de fil de 700 grammes (46 €, 6 coloris disponibles), ce qui permet déjà de produire
quelques dizaines de pièces.
Comme avec la totalité des modèles à extrusion thermoplastique, « imprimer en 3D » est
un abus de langage à double titre. La machine
procède en réalité au dépôt d’un fil de plastique
ABS (acrylonitrile butadène styrène), matière
couramment utilisée pour les coques de PC
portables, par exemple. Le fil passe par une
buse chauffée à 260°C qui le dépose en fines
couches empilées qui finissent par constituer
un objet tridimensionnel. Cette imprimante est
capable de reproduire un objet de dimensions
maximales de 130 x 130 x 130 mm.
La mise en place de l’imprimante est simple,
mais minutieuse. Une fois le fil passé dans la
buse d’impression et le support d’impression
clipsé sur le plateau porteur, l’imprimante est
prête. L’imprimante est livrée avec un logiciel
qui pilote l’impression à partir de modèles STL
(stéréolithographiques), qu’est capable de générer 3DS Max, par exemple. C’est aussi le format
de fichier utilisé par les scanners 3D. Le logiciel requiert quelques minutes d’adaptation
pour maîtriser les opérations de placement
et d’échelle. L’imprimante allumée, il lui faut
cependant quelques minutes pour être opérationnelle, le temps que la buse d’impression
atteigne sa température de fonctionnement.
Le logiciel vous donne la main sur la plupart
des paramètres d’impression, mais les réglages
standard sont amplement suffisants. Vous ajustez notamment la structure de la matière interne, invisible sur un objet plein, par exemple.
Vous pouvez opter pour un modèle solide (mais
comptez un temps d’impression plus long) ou,
au contraire, choisir un maillage plus ou moins
serré (trois niveaux) pour gagner en matière
et en légèreté, au détriment de la solidité – un
réglage à considérer en fonction de la taille de
l’objet et de l’épaisseur des parties extérieures.
L’impression proprement dite est triviale. Pour
P R E M IE R S E S S A IS
A4 Technologies Easy 120
chaque modèle, le logiciel imprime un support
grossier destiné à porter l’objet proprement dit.
Une fois l’objet imprimé, ce support s’enlève à
l’aide des nombreux accessoires (cutter, pinces
coupantes, etc.) livrés avec l’imprimante.
Le test
Lors de nos essais, nous avons voulu tester les
limites de cette imprimante 3D avec divers objets. Au chapitre des essais concluants, l’imprimante a su reproduire une charnière articulée
et fonctionnelle d’un seul tenant (composée de
deux éléments indissociables imprimés « l’un
dans l’autre »). Lorsque les cotes de l’objet à imprimer sont en deçà des tolérances mécaniques,
le logiciel vous avertit en colorant les parties en
rouge – et c’est effectivement le cas des parties
trop minces. Sur l’un de nos modèles de test, un
éléphant, une partie des oreilles a été impossible à reproduire. Plus gênant, cette alerte ne
se déclenche pas si vous appliquez un facteur
de réduction à votre objet. Ce fut le cas sur un
modèle d’avion de chasse, dont les ailes étaient
suffisamment épaisses dans le modèle 3D, mais
qui, une fois un coefficient réducteur appliqué,
sont devenues impossibles à reproduire. Parmi les objets complexes que l’Easy 120 n’a pas
pu reproduire fidèlement figure l’un des cinq
solides de Platon, l’icosaèdre à faces triangulaires. La limite ne se situait pas ici aux cotes
Au chapitre des essais concluants,
l’imprimante a su reproduire une charnière
articulée et fonctionnelle d’un seul
tenant (composée de deux éléments
indissociables).
de l’objet, mais à sa composition géométrique,
en partie incompatible avec la méthode d’impression par couches successives. Le résultat
manquait de finesse, mais c’était là un exemple
extrême il est vrai.
Il faut cependant garder à l’esprit qu’un temps
d’adaptation et des essais successifs font partie
de l’apprentissage des contraintes inhérentes à
cette technologie d’impression. Si le temps d’impression peut devenir conséquent avec une impression « fine », l’attente en vaut la peine : le
résultat est tout bonnement époustouflant de
finesse, notamment comparé aux contours parfois grossiers et l’aspect légèrement granuleux
de la génération d’imprimantes précédente.
Rien de tout ça ici, tout au plus vous devrez passer un léger coup de papier de verre fin (fourni)
pour parfaire l’aspect en quelques minutes. Le
volume sonore lors du fonctionnement est tout
à fait supportable, la machine est presque silencieuse – seul se fait entendre un léger feulement dû aux mouvements du plateau. Comparé
aux imprimantes de génération précédente, le
saut qualitatif sur l’Easy 120 d’A4 Technologies
est probant. Joscelyn Flores
P R E M IE R S E S S A IS
3
½
Acer B296CL
pour
Rendu des couleurs uniforme,
excellents niveaux de gris.
Nombreuses entrée et sorties
vidéos, réglages complets pour un
positionnement parfait.
5
contre
Angle de vision vertical réduit.
Pas de fonction de rotation
automatique.
599 €
en résumé
Un ultra-large de 29 pouces à
un prix raisonnable, doté d’une
connexion fort complète et
d’une dalle IPS pour afficher la
meilleure image possible. Et afin
de s’adresser aux professionnels,
le B296CL propose de nombreux
réglages.
Depuis quelques mois, les écrans ultra-large au format 21/9 fleurissent. D’une diagonale de 29 pouces, ces
écrans ont plusieurs intérêts. Alors bien sûr vous pourrez regarder
un film au format cinémascope sans les bandes noires, mais vous
pourrez surtout vous passer des deux écrans qui trônent sur votre
bureau. Avec une telle surface d’affichage, un écran tel que le B296CL
les remplace aisément.
P R E M IE R S E S S A IS
Acer B296CL
Des caractéristiques devenues classiques
Le B296CL utilise une dalle IPS de 29 pouces
avec un rapport de 21/9. Tout comme ses
concurrents, ce moniteur affiche une résolution
de 2 560 x 1 080 pixels avec un cadre assez fin.
L’ensemble est maintenu par un pied robuste
et stable. D’ailleurs, sa grande surface permet
d’accueillir vos petits accessoires de bureau.
Mais gare à vos stockages de masse (clé USB,
carte mémoire, etc.) car une partie de la surface
est aimantée. Pour ranger des trombones, dit
Acer... curieux.
Coulissant sur 15 cm, ce pied permet
de régler l’écran à votre convenance.
D’ailleurs, pour disposer d’une position idéale, la dalle s’incline également sur près de 40 degrés. En bon
écran professionnel, il offre également un mode portrait. Mais
pour profiter d’une image
dans ce format, il faudra
accéder aux panneaux
de configuration afin
d’effectuer le basculement. Cette opération
n’est pas automatisée Le pied orientable possède
comme sur les écrans une large base. Méfiez-vous
de la zone magnétique.
plus haut de gamme.
Elle n’a d’intérêt que si
Concernant la connec- vous utilisez encore des
tique, le B296CL est trombones...
l’un des plus complets
du marché. Au dos de
l’écran, on peut dénombrer deux ports HDMI,
une prise DVI, une entrée audio, une entrée
DisplayPort et deux connecteurs USB 3.0. Également
appréciable, une sortie
DisplayPort est présente pour chaîner plusieurs
moniteurs. Sur le côté gauche, on dispose de
deux ports 3.0 USB. Ces deux connecteurs permettent de recharger vos smartphones et autres
tablettes, même si l’écran est éteint. Enfin, deux
haut-parleurs sont intégrés. Leur présence permet tout juste d’entendre
les sons émis par le système d’exploitation ou de regarder une vidéo… À un volume d’écoute correct, la
musique est nasillarde.
Du côté des diverses commandes, ce
modèle se distingue par les touches
Empowering Technology et PIP. La
première donne accès au menu du
mode d’affichage. Ici, vous pourrez utiliser un des cinq modes (utilisateur,
éco, standard, graphique, vidéo). Le
second permet d’incruster une image
dans l’image. Là encore, cinq choix de
position sont possibles pour la fenêtre
de PIP. Enfin, le menu OSD présente les
réglages les plus classiques, dont la luminosité, le contraste, la température
de couleur, la teinte et de la saturation.
P R E M IE R S E S S A IS
Un rendu fidèle, dès le départ
Avant même d’effectuer les mesures,
l’Acer nous a étonné par son rendu.
De bonnes impressions confirmées
lors de nos différents tests. Le B296CL
reproduit parfaitement les nuances
de gris. La précision des couleurs est
tout aussi bonne et le diagramme CIE
couvre parfaitement le spectre
des couleurs RVB. L’excellente précision des cou-
Acer B296CL
Un moniteur de cette
proportion remplace
avantageusement les deux
écrans qui encombrent
votre bureau.
leurs est à mettre au crédit de la dalle IPS. Par
ailleurs, ce modèle délivre des angles de vision
larges. On ne remarque aucun changement de
couleur ou de luminosité à l’horizontale. En
revanche, ce constat est bien différent pour
les angles verticaux. Ici, l’écran s’assombrit.
Enfin, ce modèle nous a séduits par son niveau
de contraste. Avec une mesure à 0,54 cd/m² sur
fond noir, il parvient à atteindre les 624 cd/m².
Les images sont donc détaillées et très profondes.
En outre, le B296CL consomme 45 watts dans
ses derniers retranchements (luminosité à
100 % avec une vidéo 1080p). Une puissance assez élevée qu’il convient de tempérer puisque
ce modèle engloutit seulement 31 watts une fois
le mode « Eco » enclenché. Il fait donc ici mieux
que beaucoup de concurrents.
Au final, le B296CL séduira les utilisateurs
qui ont besoin d’une configuration à deux moniteurs. Qui plus est, ce modèle arrive avec de
sérieux atouts : consommation réduite, encombrement limité et une image sans défaut. Qui
plus est, ce 29 pouces à dalle IPS parvient à
diffuser des angles ultra-larges, des couleurs
riches et précises et un très bon contraste.
Ajoutez à cela une connectique exhaustive et le
B296CL parvient à se classer au-dessus de l'AOC
Q2963PM. Mais son prix est également supérieur (599 euros). Alexandre Marcq
Diagonale 29 pouces | Résolution 2 560 x 1 080 pixels | Luminosité 250 cd/m² | Contraste 100 000 000:1
Connectique 2 HDMI, 1 DisplayPort, 1 VGA, 1 DVI, 4 USB 3.0 | Réglages hauteur, inclinaison, rotation et pivot
P R E M IE R S E S S A IS
Buffalo AirStation Extreme AC 1750
pour
Bons débits et excellente portée.
Interface claire et complète. Fait
office de routeur, de point d'accès
sans fil et de concentrateur.
Nombreuses fonctions intégrées.
contre
Interface de gestion mobile un peu
inutile. Accès distant à des clés
USB connectés au routeur difficile
à configurer. Socle à la qualité de
finition douteuse.
140 €
5
en résumé
Avec son routeur sans fil
double bande gigabit AirStation
Extreme AC1750, Buffalo étoffe
sa gamme : l'appareil s'articule
autour d'une interface claire et
précise et offre d'excellentes
performances. Présentant de
Dernier routeur 802.11ac signé Buffalo, l'AirStation Extreme AC 1750 (129 euros environ) présente d'excellentes performances à travers tous nos tests et surclasse largement
les modèles d'entrée de gamme du même constructeur, en particulier l'AirStation AC1300/N900 Gigabit Dual Band WZR-D1800H. Mieux
encore : l'interface de gestion brille par son élégance et sa simplicité,
en facilitant la configuration de fonctions susceptibles d'intéresser le
grand public et les petites ou moyennes entreprises. Ces seuls défauts
P R E M IE R S E S S A IS
3
Buffalo AirStation Extreme AC 1750
L’interface de Quality of
Service est accessible au
débutant.
concernent le réglage de l'accès distant aux périphériques de stockage qu'on lui connecte et la
gestion des appareils mobiles.
Caractéristiques, design et modes de
fonctionnement
Le dernier routeur double bande de Buffalo
emprunte directement le design de son auguste
prédécesseur, le WZR-D1800H, à une exception
près : le bouton AOSS (AirStation One-Touch Secure System), visant à sécuriser les connexions,
est rouge et non argenté.
L'AC1750 intègre un chipset Broadcom et supporte un débit théorique de 450 Mbits/s sur la
bande 2,4 GHz et jusqu'à 1 300 Mbits/s à 5 GHz.
Trois diodes sur sa face avant apparaissent en
colonne, autour du logo de Buffalo qui s'éclaire
lorsque le routeur est sous tension. La diode supérieure indique le statut de la connexion sans
fil, celle du milieu correspond aux connexions
WAN et la diode du bas signifie que l'appareil fonctionne comme routeur. À ce titre, vous
pouvez le configurer en tant que pur routeur,
concentrateur ou point d'accès. Dans le premier
cas, les trois diodes sont éclairées. Lorsque vous
l'utilisez en tant que concentrateur, la troisième
diode reste éteinte. À l'arrière, on retrouve quatre ports Ethernet Gigabits,
un port WAN Gigabit, un port USB 2.0
et un port USB 3.0, que vous utiliserez
pour connecter des supports de stockage externes ou des imprimantes.
Une série de boutons complémentaires figurent à cet endroit. On ne les trouve que rarement sur de tels routeurs : ils servent notamment à basculer l'AirStation Extreme en mode
concentrateur ou en point d'accès. Sous cet
interrupteur se trouve un autre bouton avec
la mention « Mode » à proximité. Si vous avez
choisi d'utiliser l'AC 1750 en tant que point d'accès, ce bouton permet d'activer ou non les fonctions de routage (dans ce dernier cas, les fonctions DHCP et NAT sont donc désactivées).
En limitant le routeur au rôle de point d'accès,
vous permettez à tous vos périphériques WLAN
de rejoindre le réseau. Le modèle de Buffalo
constitue ainsi une bonne solution pour les TPE
et PME souhaitant étendre leur réseau aux appareils sans fil. Rares sont les routeurs offrant la
possibilité de fonctionner exclusivement en tant
que point d'accès, dans cette gamme de prix.
Buffalo a préconfiguré son routeur avec un
mot de passe administrateur et des SSDI pour
les deux bandes supportées. Ces détails figurent
sur la face inférieure de l'AC 1750 et vous devez
ainsi penser à les changer, afin de renforcer la
sécurité de l'interface d'administration et des
réseaux sans fil. Il est possible de visser le rou-
P R E M IE R S E S S A IS
Buffalo AirStation Extreme AC 1750
L'AirStation Extreme affiche les périphériques
qui lui sont connectés, en indiquant s'ils sont en
filaire ou wifi.
teur à un mur, mais le kit de fixation est hélas
très limité, avec des vis qui paraissent trop
petites pour assurer un bon maintien. Deux
socles accompagnent le routeur, vous les utiliserez pour le maintenir en position verticale ou
horizontale. L'ensemble manque toutefois de
stabilité, en particulier lorsque vous connectez
plusieurs câbles à l'arrière.
La configuration du Buffalo AC 1750
Comme avec la plupart des routeurs dernier cri
du marché, la configuration initiale de l'AC 1750
est simple et rapide. Un guide de démarrage
vous aide à brancher au mieux chaque machine
et à configurer Windows ou Mac OS X afin de se
connecter au réseau sans fil par défaut du routeur. Il vous suffit ensuite d'ouvrir un navigateur
et de vous rendre à l'adresse du routeur pour accéder à l'ensemble de ses fonctionnalités.
À ce titre, l'interface bénéficie d'une refonte
complète par rapport à celle du WZR-D1800H,
en affichant ses différentes options sous la
forme de tuiles, à la manière de Windows 8. La
navigation se révèle très intuitive et vous bénéficiez d'une vue d'ensemble de toutes les caractéristiques de votre configuration.
L'onglet Wireless vous permet de parcourir
et modifier les paramètres du réseau sans fil,
notamment son type de chiffrement, son SSDI,
son canal de diffusion, etc. Vous pouvez cliquer
sur une icône en forme de rouage sur la plupart des écrans de l'interface, afin d'accéder
aux paramètres avancés. Vous avez ainsi la
possibilité de créer des SSID supplémentaires
(chaque bande en supporte deux) ou d'isoler le
WLAN en empêchant les différents clients de
communiquer entre eux, par exemple.
Les fonctionnalités brillent par leur diversité.
Vous êtes notamment en mesure de configurer
le VPN, le filtrage des adresses MAC ou la planification de l'accès Internet, tout en profitant d'un
mode Eco, dans lequel vous désactivez les diodes
ou la connexion sans fil durant les périodes de
votre choix. Nous nous concentrerons essentiellement sur les nouvelles fonctionnalités du routeur de Buffalo à travers la suite de ce test.
QoS
Parmi les nouveautés essentielles, on apprécie
la possibilité d'éditer finement les règles de QoS
(Quality of Service). À travers une interface graphique claire et précise, les utilisateurs débutants assignent facilement les priorités du trafic
réseau. Les utilisateurs plus aguerris profiteront de paramètres avancés.
Si vous désirez privilégier les flux vidéo au
sein d'un réseau domestique, par exemple, il
P R E M IE R S E S S A IS
Buffalo AirStation Extreme AC 1750
vous suffit de cocher la case « vidéo ». Vous indiquez ensuite le niveau de trafic que vous autorisez à travers des règles prédéfinies, comme
« Ultra Premium », « Standard » ou « Limité »
parmi d'autres paramètres.
Filtrage web et contrôle parental
Buffalo incorpore à son routeur le service
ConnectSafe de Norton pour soutenir les fonctions de contrôle parental. Après avoir accepté
les conditions d'utilisation de Norton, vous avez
la possibilité de bloquer les sites frauduleux
susceptibles d'héberger des logiciels-espions ou
des malwares, les sites pour adultes ou même
plus globalement toutes les sources évoquant
des sujets matures, comme les jeux d'argent.
Il suffit d'activer les interrupteurs figurant à l'écran pour appliquer les règles de filtrage. Avec les paramètres les plus élevés, nous
n'avons pas été en mesure d'accéder au site web
d'un fabricant de cigarettes par exemple, ce qui
laisse présager un filtrage plutôt correct.
Le filtrage peut s'appliquer sur le réseau entier ou pour des adresses MAC, des adresses IP
ou des noms de machines spécifiques. Vous pouvez ainsi le limiter à l'ordinateur de votre enfant, en excluant votre propre PC par exemple.
Accès distant
De plus en plus de routeurs grand public facilitent la configuration de l'accès distant. Buffalo s'inscrit dans cette tendance, en autorisant
l'accès à distance à son interface d'administration. L'AC 1750 dispose à ce titre d'une interface
mobile qui simplifie la configuration depuis un
smartphone. Elle manque toutefois de clarté
dans ses options plus difficiles d'accès que sur
un navigateur standard. À travers nos tests,
nous avons constaté que la validation des paramètres est notamment bien plus longue que
sur un PC de bureau. Par ailleurs, il est impossible de se connecter simultanément à l'interface d'administration depuis deux appareils à
la fois.
On aurait donc préféré une véritable application mobile en lieu et place de cette interface
mal taillée. D-Link mène actuellement des essais allant dans ce sens, à travers son app MyDLink, disponible sur la plupart des boutiques
mobiles, qui se connecte au Cloud pour administrer sa gamme de routeurs.
Buffalo dispose en revanche d'un service
permettant d'accéder à distance aux supports
de stockage connectés à l'AC 1750 : BuffaloNAS.
com. Les instructions relatives à sa configuration sont hélas très succinctes. Vous devez tout
d'abord activer une redirection de port sur le
routeur, facilitée par une option de configuration automatique. Vous devez ensuite créer
un compte sur le service en ligne de Buffalo et
vous enregistrer.
Aucun détail n'indique l'URL à utiliser pour
accéder à distance aux périphériques connectés. En se rendant sur BuffaloNAS.com, on nous
demande un identifiant et un mot de passe : en
réutilisant les informations définies précédemment, nous n'avons pas réussi à nous connecter
au service. Il fallait en réalité créer un compte
spécifique pour le partage de périphériques,
une tâche mal documentée et peu claire. Après
avoir déterminé le compte à utiliser, nous avons
finalement été en mesure d'accéder à distance
à la clé USB connectée au routeur, depuis un
réseau externe.
P R E M IE R S E S S A IS
Buffalo AirStation Extreme AC 1750
Mis à part ces légers défauts, l'étendue des fonctionnalités et la qualité de l'interface constituent de véritables atouts. Les administrateurs
réseau et les utilisateurs plus avancés seront
notamment charmés par ses fonctions avancées, dignes d'un modèle semi-professionnel.
Performances
L'AC 1750 est un routeur 3x3, c'est-à-dire qu'il
est capable de transmettre et recevoir des données sur trois flux. Il s'agit d'une fonctionnalité avancée, que l'on ne retrouve que sur les
modèles les plus complets, et qui assure un excellent débit. À l'heure actuelle, les revendeurs
spécialisés ne proposent toutefois que des adaptateurs sans fil 2x2 à la norme 802.11ac. D'après
nos tests, nous avons constaté que l'utilisation
d'un adaptateur 2x2 avec l'AC 1750 en mode
11ac conduisait à des performances inférieures
à celles du WZR-D1800H avec un pont 3x3 en
bout de chaîne. L'AC 1750 offre tout de même de
très belles performances générales, même avec
les adaptateurs sans fil 2x2. Vous êtes en droit
d'attendre des débits bien plus importants, dès
que les adaptateurs 3x3 supportant la norme
802.11ac apparaîtront sur le marché.
Nous avons relevé les performances du routeur en utilisant une clé USB wifi compatible
802.11ac signée Buffalo, branchée au Dell Latitude E5430. Nous avons également testé le
récepteur intégré à ce PC portable afin de vérifier le résultat avec les connexions 802.11x
classiques. L'utilitaire de test IxChariot d'Ixia
mesure le débit entre le PC portable et un HP
Elitebook 8440w, connecté à travers un port
Ethernet Gigabit au routeur. En mode 802.11n,
nous avons obtenu de meilleurs résultats avec
le récepteur 3x3 intégré qu'avec la clé USB de
Buffalo. À moins de cinq mètres de distance, le
débit est de 121 Mbits/s avec ce récepteur wifi
et de seulement 81 Mbits/s avec la clé de Buffalo. L'AC 1750 figure parmi les routeurs les plus
performants dans la bande des 2,4 GHz, seulement talonné par l'Airport Extreme d'Apple en
mode mixte, l'EA6400 de Linksys et le R6300 de
Netgear.
En mode 5 GHz, les performances du routeur
de Buffalo sont tout aussi excellentes, tutoyant
celles des modèles les plus performants du marché, comme l'AC 1750 de D-Link (à 5 mètres, ils
offrent respectivement un débit de 120 et 121
Mbits/s). En mode 802.11ac, le routeur de Buffalo surclasse le modèle de D-Link (124 Mbits/s
contre 104 Mbits/s) et même l'Airport Extreme
d'Apple, testé avec un MacBook air en 11ac.
Des fonctionnalités complètes
et d'excellentes performances
Si l'AirStation AC1300 et le N900 WZR-D1800H
de Buffalo nous avaient déjà impressionnés par
leurs hautes performances, leur interface d'administration manquait cruellement de lisibilité et de confort. Le constructeur a largement
amélioré cet aspect, à travers une application
claire qui donne facilement accès à l'ensemble
des fonctionnalités du routeur. Le tableau n'est
toutefois pas parfait : l'interface mobile est clairement en retrait et le service BuffaloNAS.com
pourrait se montrer plus efficace. Ce routeur
exige par ailleurs un adaptateur 3x3 pour débrider totalement ses performances. Il séduira
en premier lieu les TPE et PME à la recherche
d'un équipement complet, aux multiples possibilités et au très bon débit. Jean-Marc Delprato
P R E M IE R S E S S A IS
4
Dell OptiPlex 3011
pour
Un PC tout-en-un paré pour
les tâches professionnelles.
Écran tactile. Design compact.
Excellentes performances.
Abordable.
5
contre
Résolution de l'écran plutôt
limitée. Circuit graphique intégré
seulement.
924 €
en résumé
L'OptiPlex 3011 de Dell est un PC
tout-en-un très à l'aise dans les
tâches bureautiques, équipé d'un
écran tactile et de Windows 8. Un
choix judicieux pour les petites et
moyennes entreprises !
Si le marché des PC professionnels est saturé
de machines aux caractéristiques très proches, rares
sont les modèles profitant du confort d'utilisation d'un écran tactile.
L'OptiPlex 3011 de Dell est l'un d'entre eux, autour des composants
que l'on est en droit d'attendre d'un PC de bureau complet, d'un écran
tactile de 20 pouces et de Windows 8 Pro, réunis dans un châssis touten-un.
P R E M IE R S E S S A IS
Dell OptiPlex 3011
Un design sobre qui lui
donnera l’occasion de
s’insérer sans peine
dans le décor du bureau.
Design et fonctionnalités
Conçu pour l'utilisateur professionnel, l'OptiPlex 3011 est un PC complet et confortable
au quotidien, qui sublime les activités bureautiques les plus courantes à travers son écran
tactile et son format tout-en-un, en faisant toutefois l'impasse sur le divertissement. Là où la
plupart des PC tout-en-un s'articulent autour
d'un large écran avec une résolution Full HD,
l'OptiPlex 3011 se contente d'un moniteur de 20
pouces à la définition de 1 600 x 900 pixels. Si
c'est amplement suffisant pour comparer deux
documents côte-à-côte ou visionner du contenu
encodé en 720p, vous ne profitez pas du piqué
des couleurs et de la résolution 1080p des modèles conçus pour le grand public.
La qualité des haut-parleurs est en revanche
étonnamment bonne pour cette gamme de
PC, avec des basses profondes et un son clair
même à un haut volume sonore. Vous pouvez
ainsi envisager des séances de cinéma dans de
bonnes conditions générales, en entendant distinctement la voix des acteurs se détacher de la
bande-sonore ou du son des explosions.
Le design reste plutôt sobre, avec cette robe
noire qui couvre l'ensemble du PC et son simple
pied qui permet d'ajuster l'angle de vision mais
pas la hauteur de l'écran. Sur le côté droit de
l'OptiPlex 3011, vous retrouvez un lecteur/graveur de DVD. Sur la gauche, vous disposez d'un
lecteur de cartes mémoires, de deux ports USB
3.0 et d'une entrée casque et microphone. Trois
boutons figurent également sur ce côté gauche
et vous permettent d'éteindre ou d'allumer
l'écran et de contrôler le volume.
À l'arrière du PC, vous retrouvez quatre
ports USB 2.0 supplémentaires auxquels vous
connecterez des périphériques et des supports
P R E M IE R S E S S A IS
Dell OptiPlex 3011
de stockage externe, ainsi qu'un port Ethernet,
un connecteur Kensington et un câble d'alimentation. Le bloc d'alimentation externe de
l'OptiPlex 3011 est plutôt volumineux et vous
devez donc prévoir un logement nécessaire
au pied de votre bureau. Du côté des communications, le PC tout-en-un de Dell supporte
les connexions wifi 802.11n et Bluetooth, pour
synchroniser un smartphone ou assurer l'accès
à des périphériques sans fil. Une webcam HD
complète l'équipement, pour participer à des
conférences vidéo.
Dell a équipé son OptiPlex 3011 d'un disque
dur de 500 Go à 7 200 tours par minute. Il s'agit
d'un espace de stockage équivalent à celui du
Lenovo ThinkCentre M71Z ou ThinkCentre
Edge 92Z, sans pour autant prétendre aux performances du disque SSD de 128 Go qui équipe
l'OptiPlex 9010 AIO du même constructeur.
L'édition 64 bits de Windows 8 Pro se voit préinstallée, ainsi qu'une version d'évaluation de
30 jours de Microsoft Office 365. En-dehors
de ces deux éléments, vous devrez installer
manuellement toutes les autres applications.
L'OptiPlex 3011 est couvert par une garantie de
trois ans.
Performances
L'OptiPlex 3011 s’équipe du processeur à double
cœur Intel Core i3-3220 (3,3 GHz) de troisième génération. S'il ne présente pas les performances
du Core i5 qu'embarque le ThinkCentre M71Z
de Lenovo, il convient parfaitement à un large
éventail de tâches bureautiques, en réalisant
un score de 2 836 points sur PCMark 7, là où
le Lenovo M71Z se contente de 2 134 points. Ce
n'est toutefois pas le processeur qui est respon-
sable d'un tel écart, dans la mesure où il obtient
à lui seul un résultat de 3,27 points, contre 4,10
pour le CPU équipant le Lenovo M71Z.
Dans les tâches multimédias, testées avec
Handbrake et Photoshop, l'OptiPlex 3011 reste
dans la grande moyenne du marché, avec des
scores respectifs de 1 min 7 s et 5 min 4 s. Plus
solidement équipé, l'OptiPlex 9010 AIO de Dell
(avec son Core i7 et un SSD plus véloce) prend
largement la tête, effectuant les mêmes tests en
33 secondes et 3 min 31 s.
Si le circuit graphique intégré au processeur
(Intel HD Graphics 2500) se montre amplement
suffisant pour les tâches les plus basiques, notamment la navigation sur le Web, les applications bureautiques et les retouches photo
légères, il ne tient pas la comparaison face à un
véritable processeur graphique, comme celui
qui équipe le ThinkCentre Edge 92Z de Lenovo.
Si ses performances restent honorables avec
3DMark 11, où il réalise un score de 712 points
dans le test standard et 130 points dans le test
extrême, il est largement surclassé par le Lenovo 92Z, qui double ces résultats grâce à son GPU
AMD.
Si vous êtes avant tout à la recherche de hautes
performances, l'OptiPlex 3011 devrait donc rapidement montrer ses limites. En revanche, il
s'agit d'une machine parfaitement taillée pour
les tâches bureautiques les plus diverses, qui
offre un excellent confort d'utilisation au quotidien avec son écran tactile. Bien que sa configuration se voit largement surclassée par celle
de l'OptiPlex 9010, le PC tout-en-un de Dell offre
un très bon rapport qualité/prix et devrait séduire les TPE ou PME à la recherche de modèles
fiables et simples d'emploi. Jean-Marc Delprato
P R E M IE R S E S S A IS
4
BenQ MX661
pour
Bonne qualité d'affichage. Capable
de projeter des présentations
depuis une clé USB. Support de la
3D. Bonne autonomie de la lampe.
5
contre
La partie audio est en retrait. La
qualité de l'affichage se dégrade à
travers une connexion VGA.
499 €
en résumé
Le BenQ MX661 est un bon
projecteur dans un usage
professionnel, offrant une
excellente qualité générale de
l'image, avec une vidéo fluide et
une connectique variée.
Le projecteur MX611 de BenQ est avant tout conçu
pour les environnements professionnels. Il présente
une grande luminosité et une bonne résolution, avec un rendu fidèle
des couleurs, une connectique diverse, un bon niveau de zoom et un
support de la 3D. Le MX661 est un projecteur de DLP à la résolution
native XGA (1 024 x 768 pixels) et au format 4/3, avec une luminosité
de 3 000 lumens. Autour d'un châssis noir et blanc, avec des bords
arrondis, il occupe un espace minimal : 124 x 325 x 231 mm pour
P R E M IE R S E S S A IS
BenQ MX661
Une connectique très complète : entrée
et sortie audio, entrée micro, S-Vidéo,
jack RCA, 2 entrées VGA, une sortie VGA,
HDMI3 types de ports USB, Ethernet.
Qualité de l'image
2,6 kg. Il dispose par ailleurs d'un niveau de
zoom très utile de 1.3:1. Sérieux atout à porter
à son crédit, la connectique est très complète
et comprend deux ports VGA, une sortie moniteur, un connecteur HDMI, une sortie S-Vidéo
et un jack RCA pour la vidéo composite. Il dispose également d'une entrée et sortie audio,
d'une entrée microphone et série, d'un connecteur Ethernet, d'un port USB de type B, d'un
port mini-USB et d'un port USB de type A pour
lire des présentations stockées sur une clé externe. Il est notamment capable de lire les formats JPEG, BMP, PNG, GIF et TIF.
À 2,5 mètres de recul, le MX661 projette une image de 1,5 mètre de diagonale. Malgré la lumière ambiante
et les néons au plafond de notre
salle de test, l'image est restée parfaitement lisible, sans paraître souséclairée.
Nous avons testé la qualité de
l'image à l'aide de la suite DisplayMate. Dans la grande moyenne du
marché pour un projecteur DLP de
cette résolution, l'image du MX661
convient avant tout à un usage bureautique et à la diffusion de présentations professionnelles. Le texte de
petite taille peut toutefois paraître
flou et difficile à lire à une certaine
distance. On discerne également un manque
d'uniformité, avec des blancs qui ont tendance
à virer au jaune dans les angles. Les autres couleurs restent en revanche très naturelles.
En connectant le vidéoprojecteur en VGA,
la qualité de l'image a tendance à se dégrader et des effets arc-en-ciel apparaissent dans
les bords de la surface de projection. Ils se remarquent tout particulièrement lorsque l'on
projette l'image sur un arrière-plan très clair,
mais ne perturbent pas la lisibilité générale
de l'affichage dans le cadre d'une présentation
PowerPoint, par exemple. Avec une connexion
P R E M IE R S E S S A IS
BenQ MX661
HDMI, ils s'estompent et la qualité générale
de l'image s'améliore.
Bien que le MX661 ne soit équipé que
d'un haut-parleur de 2 watts, l'équipement
audio est tout à fait convaincant et suffisant
à remplir une salle de réunion, avec une
bonne qualité d'écoute.
Le MX661 dispose d'une série de paramètres
liés à l'économie d'énergie. La durée de vie de sa
lampe grimpe alors jusqu'à 6 500 heures d'utilisation, un score plus qu'honorable dans cette
gamme de prix. Le mode EcoBlank éclaire directement le présentateur et économise l'énergie de près de 70 %, pendant une mise en pause.
Le projecteur bascule d'ailleurs automatiquement vers ce mode après trois minutes d'inac-
Le BenQ supporte la vidéo 3D, en
particulier les Blu-Ray 3D à travers
la technologie 3DTV Play de Nvidia.
Hélas, la paire de lunettes 3D actives n’est
pas livrée avec le projecteur...
tivité. Le mode SmartEco ajuste automatiquement la luminosité de la lampe en fonction des
conditions relevées.
Le projecteur supporte les séquences vidéo
3D, en particulier les disques Blu-Ray 3D à travers une connexion HDMI et la technologie
3DTV Play de Nvidia, avec une compatibilité
totale avec 3D Vision. La paire de lunettes 3D
actives n'est toutefois pas livrée avec le projecteur. Le support de la 3D est un vrai atout, qui
le démarque de la concurrence, notamment du
PowerLite 1835 XGA 3LCD Projector d'Epson
– un projecteur plus lumineux (3 500 lumens)
mais aussi plus lourd et encombrant – et du
PowerLite 93+, un modèle d'entrée de gamme
à 2 600 lumens. Les deux projecteurs d'Epson
présentent une excellente qualité d'affichage
et ne renvoient aucun effet arc-en-ciel grâce à
leur technologie LCD. La partie audio reste toutefois moins convaincante qu'avec le modèle
de BenQ. Du côté de la connectique, le MX661
s'inscrit dans la moyenne haute du marché,
avec un bien plus large assortiment que le 93+.
Le PowerLite 1835 présente en revanche un
équipement légèrement supérieur.
Complet et performant dans sa gamme de
prix, le MX661 de BenQ convient avant tout à
un usage professionnel. Il renvoie une image
de bonne qualité, avec une excellente luminosité générale et des tons naturels. Si les cinéphiles passeront leur tour, résolution de 1 024 x
768 oblige, la lisibilité est amplement suffisante
pour des activités bureautiques, en particulier
la projection de présentations. Jean-Marc Delprato
P R E M IE R S E S S A IS
SOLUTIONS
SOLUTIONS
Les solutions d'urgence lorsque
Windows ne démarre plus
Lorsque votre système n'est plus accessible, faites preuve de sangfroid et agissez méthodiquement. En identifiant la nature de la
panne, vous serez en mesure de rétablir le démarrage de Windows
sans perdre vos données. Apprenez à explorer toutes les pistes !
Tout fonctionne parfaitement et soudain… plus rien. Sans le moindre
signe avant-coureur, votre PC refuse
de démarrer sous Windows et s'interrompt sur un laconique message
d'erreur ou un écran noir. Face à de
si maigres éléments, difficile d'identifier à coup sûr les raisons d'une
panne. Quelle que soit votre version
de Windows, il existe toutefois une
stratégie commune à adopter.
Dans un premier temps, vérifiez
si le problème est d'origine logicielle
ou matérielle. Avez-vous récemment
installé un nouveau périphérique ou
changé un composant ? Si c'est le cas,
essayez de le déconnecter et relancez
votre PC. Nous verrons dans la suite
Créer un support de récupération sous Windows 8
SOLUTIONS
Sur Windows 8, il n'est
plus possible de presser la
touche F8 au démarrage
du PC : pour accéder aux
options de réparation,
vous devez disposer du
DVD d'installation ou
préparer un disque de
récupération. Pour cette
dernière solution, pressez
les touches Win+W et
saisissez « récupération »
avant de cliquer sur
« Créer un lecteur de
récupération ». Insérez
une clé USB dans votre
PC puis cliquez sur le
bouton Créer. Il vous suffit
ensuite de démarrer sur
cette unité (en changeant
éventuellement l'ordre de
boot dans le BIOS) pour
accéder à l'ensemble
des options avancées de
restauration système.
En parallèle, n'hésitez
de ce dossier comment vérifier l'état
de vos barrettes de mémoire vive ou
charger d'autres pilotes pour votre
carte graphique. Si le message « nonsystem disk or disk error » apparaît au
démarrage, votre disque dur est en
cause. Pressez la touche Suppr ou F2
au lancement afin d'accéder au BIOS
et vérifiez l'ordre de démarrage de
vos unités : votre disque dur doit figurer en tête de la liste. Si c'est le cas, le
MBR (Master Boot Record) de votre
disque dur doit être endommagé ; il
s'agit de son premier secteur, contenant la table des partitions et le code
d'amorçage du système d'exploitation.
Insérez le DVD d'installation de Windows 7 ou 8 dans votre lecteur et démarrez dessus, avant de cliquer sur
l'option « Réparer l'ordinateur ». Sous
Windows 8, poursuivez en cliquant
sur Dépannage, Options avancées,
Réparation automatique. Sous Windows 7, choisissez directement « Réparation du démarrage ». Si la procédure
automatique ne donne aucun résultat,
cliquez sur « Invite de commandes ».
Dans la fenêtre qui apparaît, saisissez :
pas à créer des points
de restauration (clic
droit sur Ordinateur,
Propriétés, Protection
du système) voire des
images complètes de
votre installation. Pour
cela, pressez Win+R et
saisissez SDCLT, avant
de cliquer sur « Créer une
image système ».
bootrec /fixmbr
puis :
bootrec /fixboot
Votre PC devrait à nouveau redémarrer sous Windows. Si ce n'est pas le
cas, explorez les solutions suivantes
et envisagez tout particulièrement
de démarrer sur un Live CD, afin de
vérifier l'intégrité de vos données.
Explorez toutes les pistes
Vous parvenez à accéder à l'écran
d'ouverture de session mais votre
mot de passe n'est jamais reconnu ?
Sous Windows 7, il existe une série
d'utilitaires permettant de réinitialiser ce précieux sésame. Nous vous
recommandons tout particulièrement
Offline NT Password & Registry Editor
(http://pogostick.net/~pnh/ntpasswd), un
outil gratuit qui donne de bons résultats. Copiez l'application sur une clé
USB et démarrez dessus. Sélectionnez
la partition contenant l'installation de
Windows en saisissant son numéro
dans la liste qui apparaît à l'écran, puis
SOLUTIONS
validez en pressant Entrée. Conservez
les paramètres par défaut et choisissez
l'option « Password reset ». À l'écran
suivant, choisissez votre compte
d'utilisateur : vous pouvez écraser
son mot de passe ou en créer un nouveau. Redémarrez et créez un mot de
passe dans le premier cas de figure.
Si vous désirez bénéficier d'une interface moins austère, reportez-vous
sur les outils Windows Password Key
(www.lostwindowspassword.com) ou Windows Password Unlocker Pro (www.
passwordunlocker.com), deux applications
commerciales à 20 dollars environ.
Ces utilitaires fonctionnent également
avec les comptes locaux sous Windows
8. Si vous ouvrez une session à l'aide
d'un compte Microsoft, n'oubliez pas
que vous pouvez réinitialiser son mot
de passe à l'adresse https://account.live.
com/password/reset. Si vous rencontrez
un autre problème, pressez la touche
F8 au démarrage sous Windows 7 et
choisissez « Dernière configuration
valide connue ». Sans affecter vos fichiers personnels, Windows tente de
restaurer vos paramètres à une date
antérieure. Il est d'ailleurs possible
de choisir le point de restauration en
sélectionnant « Réparer l'ordinateur »
puis « Restaurer le système » dans le
même menu. Sous Windows 8, vous
devez impérativement démarrer sur
le DVD d'installation ou le support de
récupération (reportez-vous à notre
encadré) si vous n'avez plus la main
sur le système. Choisissez ensuite
Dépannage, Options avancées et cliquez sur Restauration du système.
Sélectionnez un point de restauration
avant une mise à jour majeure et essayez de l'appliquer afin de redémarrer Windows.
Résoudre les erreurs matérielles
Si votre PC affiche
un message d'erreur
au démarrage, vos
composants sont
probablement en cause.
Pour les problèmes de
disque dur, reportez-vous à
la procédure : selon toutes
vraisemblances, c'est le
secteur de démarrage qui
est en cause et il existe
de multiples solutions
pour le réparer. À l'aide
d'une distribution Linux
spécialisée que vous
déposez sur une clé USB,
comme Hiren's BootCD,
vous disposerez d'une
trousse de diagnostic de
la plupart des défaillances
matérielles. Rendez-vous
à www.hirensbootcd.org/
download et téléchargez
l'image complète (592 Mo).
Déposez-la ensuite sur une
clé USB que vous aurez
préparée en vous référant à
la section « USB Booting ».
Démarrez dessus : vous
découvrez des dizaines
d'utilitaires capables
d'analyser vos barrettes de
mémoire vive, vos disques
durs, votre CPU ou votre
GPU. Idéal pour identifier la
provenance de la panne !
SOLUTIONS
Notez que Windows 8 vous permet
facilement de restaurer une image
complète du système, que vous créez
en pressant les touches Win+R puis
en saisissant « SDCLT ». Cliquez sur
« Créer une image système » et suivez
la procédure. Toujours dans les options
de démarrage de Windows 8, vous remarquez la possibilité « d'actualiser
votre PC ». Le système va procéder à sa
réinstallation complète en réduisant
votre intervention ; une sauvegarde
de vos données et paramètres s'effectue en amont, afin de les restaurer par
la suite. En revanche, toutes les applications de bureau que vous avez installées seront perdues. Plus drastique,
la possibilité de « réinitialiser votre
PC » correspond à une réinstallation
complète, au cours de laquelle vous
perdrez vos données personnelles.
Vous envisagerez ces deux dernières
options dans cet ordre, si Windows 8
ne veut décidément plus redémarrer.
Procédez à une
restauration progressive
Autre protocole : le démarrage de Windows en mode sans échec puis l'examen minutieux du système à la recherche de virus, logiciels-espions ou
pilotes à incriminer. Sous Windows 7,
l'option se trouve directement dans
l'écran de réparation, auquel vous
accédez en pressant la touche F8 au
démarrage. Sous Windows 8, démarrez sur votre support de récupération
et choisissez Dépannage, Options
avancées, Paramètres. Cliquez sur
Redémarrer et pressez la touche F4
pour redémarrer en mode sans échec.
Dans les deux cas, lancez ensuite un
antivirus et pressez les touches Win+R
puis saisissez « msconfig ». Dans la
fenêtre qui apparaît, reportez-vous
à l'onglet Démarrage et décochez
la case de tous les logiciels suspects,
qui s'arrogent le droit de démarrer
en même temps que Windows. Après
chaque opération, essayez de redémarrer normalement Windows afin
de valider vos réglages. N'hésitez pas
à désinstaller certaines applications
ou à changer vos pilotes à travers le
Gestionnaire de périphériques. Si décidément rien n'y fait, envisagez de
réinstaller Windows. Sous Windows
8, l'option « d'actualisation » évoquée
précédemment accélère l'opération et
conserve tous vos fichiers personnels.
Essayez un Live CD
Avant de formater votre disque ou de
réinstaller le système, assurez-vous de
disposer d'une ultime sauvegarde de
vos données personnelles. Il existe de
nombreux kits prêts à l'emploi, basés
sur une distribution Linux, qui intègrent une série d'utilitaires idoines.
Vous les utiliserez pour analyser vos
composants essentiels (mémoire vive,
disque dur, etc.) et pour sauvegarder
éventuellement vos données vers un
support amovible. Parmi les meilleures solutions du genre, nous vous
recommandons tout particulièrement
Ultimate Boot CD (www.ultimatebootcd.
com), Hiren's BootCD (www.hirensbootcd.
org) et Trinity Rescue Kit (www.trinityhome.org). Ces trois distributions se
déclinent en des versions à déposer sur
une clé USB, sur laquelle vous démarrez votre ordinateur. Vous accédez
ensuite à un véritable environnement
bureautique, grâce auquel vous lancez un antivirus gratuit ou copiez in
extremis vos données sur un support
externe. Pratique ! Jean-Marc Delprato
Réparez votre PC sous Windows 8
1
Accédez aux options de
démarrage Essayez dans un
2
Passez en mode sans
échec Vous rencontrez toujours
3
Désactivez des
programmes En mode sans
premier temps de démarrer sur le
DVD d'installation de Windows 8 ou sur le
lecteur de récupération que vous avez
créé. Parmi les options, cliquez sur
Dépannage puis sur « Options avancées »
et sur « Réparation automatique ».
SOLUTIONS
une erreur ? Retournez dans le
menu précédent et cliquez sur
Paramètres puis Redémarrer. Pressez la
touche F4 pour redémarrer en mode sans
échec, afin d'explorer d'autres pistes et
d'analyser plus en profondeur votre PC.
échec, effectuez un clic droit sur la
barre des tâches et choisissez le
Gestionnaire des tâches. Reportez-vous à
l'onglet Démarrage et désactivez
progressivement les logiciels dont vous
n'avez pas besoin. L'un d'eux entrave peutêtre le bon fonctionnement du système.
4
Réactualisez votre installation Autre solution : restaurez
un point de sauvegarde spécifique de Windows 8, à travers le menu
Dépannage précédent. Vous avez également la possibilité
« d'actualiser » votre PC ; Windows est réinstallé mais vos fichiers personnels
sont préservés.
Utiliser un Live USB
SOLUTIONS
Pour remettre d'aplomb un système défaillant, sauvegarder vos
documents ou diagnostiquer un problème matériel, utilisez une
distribution Linux spécialisée. Vous la déposez sur une clé USB et
vous profitez d'une véritable trousse à outils.
1
Téléchargez Hiren's
BootCD Rendez-vous à
l'adresse www.hirensbootcd.org/
download et téléchargez la version
complète de la distribution.
Décompressez l'image .iso à l'aide d'un
utilitaire comme 7Zip ou WinRar. Vous
obtenez ainsi un nouveau dossier.
2
Préparez votre clé USB Formatez une clé USB de 1 Go ou
plus. Copiez tout le dossier décompressé à la racine de votre clé USB.
Toujours sur la clé, ouvrez le dossier /HBCD et copiez les fichiers
« grldr » et « menu.lst » à la racine.
3
Lancez l'outil sous
Windows Si vous avez déjà la
main sous Windows,
notamment en mode sans échec, lancez
l'outil en effectuant un double clic sur
« HBCDMenu.cmd ». Vous découvrez des
dizaines d'utilitaires, notamment des
antivirus ou des outils de diagnostic.
4
Démarrez sur la clé Naturellement, vous pouvez aussi
démarrer sur la clé USB en changeant l'ordre dans le BIOS. Vous
profitez alors d'un mini-Windows XP qui vous donne accès à
l'ensemble des fonctionnalités de Hiren's BootCD.
Windows 8 : Restaurer une image
système (Dépannage > Options avancées)
Restaurer une image système
(Dépannage > Options avancées)
Retrouvez-vous
la main ?
Accédez-vous
à Windows ?
Windows 7
Lancez un antivirus, désinstallez
les programmes suspects, exécutez
« msconfig » et décochez les logiciels se
chargeant au démarrage
Le système
redevient
opérationnel !
Windows 8 : Changement manuel du mot de
passe du compte
Microsoft Windows 7 et compte local
Windows 8 : utiliser l'un des utilitaires
Offline NT Password & Registry Editor
- Windows Password Key - Windows
Password Unlocker
Démarrez en mode sans échec. Windows
7 : F8, mode sans échec. Windows
8 : Dépannage > Options avancées >
Paramètres > F4
Retrouvez-vous
la main ?
Choisissez de restaurer le système à une
date antérieure. Windows 7 : Réparer
l’ordinateur > Restaurer le système.
Windows 8 : Dépannage > Options
avancées > Restauration du système
Retrouvez-vous
la main ?
Pressez F8 au démarrage et choisissez
« Dernière configuration valide connue »
1
L’authentification ne
fonctionne pas ou vous
avez perdu votre mot
de passe utilisateur ? Accédez-vous
à Windows ?
Démarrez sur un LiveCD, comme
Hiren’sBoot CD ou Ultimate Boot CD.
Lancez l’analyse antivirus et sauvegardez
vos documents. Redémarrez normalement
Accédezvous à l’écran
d’ouverture
de session ?
Windows 8 : Réinitialisez votre PC, dans
le menu Dépannage.
Retrouvez-vous
la main ?
Redémarrez en mode « Invite de
commandes », dans le menu précédent.
Saisissez « bootrec /fixmbr» puis « bootrec
/fixboot »
Retrouvez-vous
la main ?
Démarrer sur le DVD d’installation
de Windows, cliquez sur « Réparer
l’ordinateur ». Windows 8 : Dépannage
> Options avancées > Réparation
automatique. Windows 7 : Réparation du
démarrage
Rencontrez-vous le
message « non-system
disk or disk error » au
démarrage ?
1
Reportez-vous
au point
1
Réinstallez Windows, puis restaurez les
documents et applications.
1
Oui
Non
Vérifiez l’état de l’alimentation et des
composants dans le BIOS. Reportezvous au manuel de votre carte mère pour
déterminer la panne matérielle. Essayez
de démarrer sur un Live CD et de procéder
à une série de tests. Remplacez le
composant fautif.
Votre PC rencontre-t-il
un problème lors du
POST ?
SOLUTIONS
Rendez un tableau intelligent
avec des tests
Quand les formules incluent des tests, elles prennent des décisions
et vos tableaux deviennent intelligents. Simples, complexes,
multiples, statistiques : utilisez les fonctions logiques.
Téléchargez
nos trois
fichiers
d’exemple :
primes.xlsx
location.xlsx
europe.xlsx
« SI », la fonction de test la plus simple,
est aussi la plus utilisée. Elle demande
trois arguments. Un : le test. Deux : la
donnée à renvoyer si le test est vrai.
Trois : la donnée à renvoyer si le test
est faux. Par exemple : la cellule B15
contient la formule
=SI(B5>10;"Super";"Trop faible")
En clair : si la cellule B5 contient une
donnée strictement supérieure à 10,
B15 affiche « Super ». Sinon, elle affiche « Trop faible ». Autre exemple :
=SI(B5<=0;0;B5)
Si B5 contient une valeur inférieure
ou égale à 0, B15 affiche 0 sinon, B15
affiche la valeur contenue dans B5.
SOLUTIONS
La simplicité de la fonction SI n'est
qu'apparente. En effet, le test peut inclure plusieurs conditions liées entre
elles avec un OU ou un ET logique. Encore plus fort : les SI en cascade. Une
fonction SI peut inclure une autre
fonction SI comme deuxième ou troisième argument, jusqu'à 7 niveaux
d'imbrication. Avant d'explorer les
arcanes des fonctions SI, il faut savoir
que les tests reconnaissent six opérateurs de comparaison : >, <, >= (supérieur ou égal), <= (inférieur ou égal),
=, <> (différent de). Autre chose : les
deux derniers arguments peuvent
être un texte (entre guillemets), une
valeur numérique, une adresse de
cellule ou encore une autre fonction.
Tests en cascade
1
Pour faciliter
la construction
et la lecture
d'une formule
complexe,
n'hésitez pas
à l'écrire sur
plusieurs lignes
en insérant
des sauts de
lignes avec la
combinaison
de touches
Alt+Entrée.
SI, en toute simplicité
Dans
le classeur d'exemple primes.xlsx,
la prime des employés est calculée en
fonction de leur qualification. Les
cadres reçoivent 2 000 euros et les
autres, 1 000 €. La formule en F7 s'exprime comme ceci : si D7 contient
« cadre », F7 affiche 2000. Si D7
contient autre chose que « cadre », F7
affiche 1000. Ce qui donne donc :
2
Un peu plus complexe
Si les primes sont modifiées, il
faut corriger les formules. À moins
de faire référence au tableau des
primes. La formule devient donc :
=SI(D7="cadre";$B$3;$B$4)
Ainsi, la modification des montants
en B3 ou B4 est immédiatement répercutée dans le calcul des primes.
3
Imbriquez les tests
Dans ce même tableau, si un
employé n'a pas de qualification, la
formule de calcul de la prime renvoie
1000. C'est normal : le test D7="cadre"
est faux et la formule renvoie donc le
troisième argument ($B$4). Ajoutons
un test : si D7 est vide, aucune prime
n'est calculée. On utilisera ici la fonction ESTVIDE qui renvoie VRAI si la
cellule indiquée entre parenthèses
est vide. Voici le test (en F19) :
=SI(ESTVIDE(D19)...
Deuxième argument : si le test est
vrai, la cellule affiche 0. Complétons
la formule :
=SI(ESTVIDE(D19);0...
=SI(D7="cadre";2000;1000)
Notez au passage que le test ne tient
pas compte des majuscules et minuscules.
Et enfin, si le test est faux (c'est-àdire si la cellule D19 n'est pas vide), la
prime est calculée. Voici la formule
complète :
=SI(ESTVIDE(D19);0;SI(D19="cadre";$B$3;$B$4))
SOLUTIONS
Vous avez vu les deux parenthèses finales. La première correspond au SI
imbriqué:SI(D19="cadre";$B$3;$B$4).
La seconde ferme le premier SI :
SI(ESTVIDE(D19);0;…)
Des SI en pagaille
1
Deux SI imbriqués Le classeur
locations.xlsx contient un tarif de
location d'appartement ainsi que les
données pour une assurance annulation et quatre taux de remise. Ces informations de base sont utilisées pour le
calcul du prix d'une location. En G3,
une simple multiplication. En G4, l'assurance annulation calculée en fonction du code indiqué en F4. Voici comment la formule est construite. Si le
code est égal 1, le coût de l'assurance est
récupéré dans la cellule C6 :
CHOISIR
renvoie l'erreur
#VALEUR!
si le premier
argument est
inférieur à
1 ou s'il est
supérieur au
nombre de
valeurs de
la liste. Par
exemple, si
F4 contient
4, la formule
CHOISIR
(F4;B2;B3;B4)
renvoie
#VALEUR! car il
n'y a que trois
valeurs dans la
liste : B2,
B3 et B4.
donc trois tests imbriqués :
=SI(F8=0;B12;SI(F8=1;B13;SI(F8=2;B14;B15)))
Cette formule renvoie le taux en fonction du code indiqué dans la cellule
F8. Pour obtenir la remise en euros,
il reste à multiplier le taux obtenu
par le total (en G5). Comme ceci :
=SI(F8=0;B12;SI(F8=1;B13;SI(F8=2;B14;B15)))*G5
=SI(F4=1;C6...
Sinon, un second test contrôle si le
code est égal à 2. Dans ce cas, le coût
de l'assurance est dans la cellule C7 :
=SI(F4=1;C6;SI(F4=2;C7;...
Pour la troisième possibilité (le code
est égal à 3), pas de test. En effet, si
le code n'est pas égal à 1 ni à 2, il ne
peut qu'être égal à 3. Voici la formule
complète :
=SI(F4=1;C6;SI(F4=2;C7;C8))
2
Trois SI imbriqués
Quatre
taux de remise sont prévus : 0,
2 %, 3 %, 5 %. Quatre possibilités et
3
CHOISIR au lieu de tester
Lorsque les valeurs à tester sont
égales à 1, 2, 3… la fonction CHOISIR
est plus facile à mettre en place que
des SI imbriqués. Premier argument
de cette fonction : la valeur à tester.
Dans notre exemple : la cellule F14.
Deuxième argument, la donnée à
renvoyer si F14 contient 1. Troisième
argument, la donnée à renvoyer si
F14=2. Et ainsi de suite. Voici la formule en G14 :
=CHOISIR(F14;C6;C7;C8)
La fonction CHOISIR teste au maximum 254 valeurs entières : 1, 2, 3 …
Tester plusieurs
valeurs
2
Le OU logique Le double test
F24=0 et F24>3 peut être réduit
à un seul test : si F24 est égal à 0 ou
supérieur à 3. Une fonction spécifique est prévue pour le OU logique :
OU(F24=0;F24>3)
SOLUTIONS
Appliquée à la formule de la cellule
F34, ça donne ceci :
=SI(OU(F34=0;F34>3);"ERREUR";CHOISIR(F34;C16;C
17;C18))
Autre option
pour éviter
les erreurs :
le contrôle
de validation.
Sélectionnez
la cellule F24.
Dans l'onglet
Données du
ruban, cliquez
sur le bouton
Validation des
données et,
dans la liste
Autoriser,
choisissez
Nombre
entier puis
complétez avec
les valeurs
maximale
et minimale
autorisées.
1
Gérer les erreurs
Entrez 0
comme code d'annulation dans
la cellule F14. Résultat : une erreur
car la fonction CHOISIR n'aime pas le
zéro. Essayez avec le code d'annulation 5. Même résultat. Pour éviter
cette erreur disgracieuse, prévoyez
deux tests imbriqués sur le contenu
de F24. Le premier pour la valeur 0 :
=SI(F24=0;"ERREUR"...
Le second pour toute valeur supérieure à 3 :
=SI(F24=0;"ERREUR";SI(F24>3;"ERREUR"...
Et on complète la formule avec la
fonction CHOISIR :
=SI(F24=0;"ERREUR";SI(F24>3;"ERREUR";CHOISIR(F2
4;C6;C7;C8)))
Bien sûr, vous pouvez remplacer
« ERREUR » par tout ce que vous voulez, y compris un blanc :
=SI(F24=0;" ";SI(F24>3;" ";CHOISIR(F24;C6;C7;C8)))
En clair : si F34 est égal à 0 ou supérieur à 3, afficher le texte « ERREUR ».
Sinon, appliquer la fonction CHOISIR.
3
OU ou ET
Le code de remise
doit être compris entre 0 et 3.
Le test de contrôle peut être basé sur
un OU logique :
=SI(OU(F38<0;F38>3);"ERREUR"
Si F38 est inférieur à zéro ou supérieur à 3, la formule renvoie « ERREUR ». Sinon, les SI imbriqués vont
chercher les taux de remise :
=SI(OU(F38<0;F38>3);"ERREUR";SI(F38=0;B12;SI(F3
8=1;B13;SI(F38=2;B14;B15)))*G35)
Remplaçons le OU par un ET :
=SI(ET(F48>=0;F48<=3);SI(F48=0;B12;SI(F48=1;B13;S
I(F48=2;B14;B15)))*G45;"ERREUR")
En clair : si F48 est compris entre 0 et
3, le taux de remise est calculé. Sinon
« ERREUR » est affiché.
SOLUTIONS
Des statistiques
conditionnelles
test. Si le test est vrai, il inclut dans la
somme la cellule correspondante de
la plage B6:B32.
2
Accéder facilement au test
Pour modifier le test de la fonction SOMME.SI, il faut éditer la cellule. Ce n'est pas très pratique. Sortez
le test de la fonction. Par exemple,
entrez le test dans la cellule E39. Le
test de la fonction SOMME.SI correspond alors au contenu de E39. Ce qui
donne :
=SOMME.SI(C6:C32;E39;B6:B32)
Encore mieux : décomposez le test
pour laisser l'opérateur de comparaison dans la formule et faire référence
à la cellule E39 uniquement pour la
valeur. Par exemple, si E39 contient
100000, la formule devient
=SOMME.SI(C6:C32;">" & E39;B6:B32)
Deux
contraintes
pour les
fonctions
statistiques
conditionnelles.
Un : le test est
toujours au
format texte
et donc entre
guillemets.
Deux : la plage
de cellules
testée contient
le même
nombre de
cellules que
la plage de
cellules à
calculer.
1
Une somme conditionnelle
Calculer une somme, c'est facile. Mais une somme sous condition,
c'est un peu plus compliqué. Ici, c'est
la fonction SOMME.SI qui entre en
jeu. Elle demande trois arguments :
la plage des cellules contenant les
données à tester, le test et la plage des
cellules contenant les données à additionner. Voyez l'exemple europe.xlsx.
La cellule G37 contient la formule :
=SOMME.SI(C6:C32;">100000";B6:B32)
Le test >100000 est appliqué à la plage
C6:C32 et la somme est effectuée sur
la plage B6:B32. Pratiquement, Excel
examine une à une chaque cellule
de la plage C6:C32 et lui applique le
3
Et le décompte ? La moyenne
conditionnelle (MOYENNE.SI)
fonctionne de la même manière que
la somme conditionnelle. Le décompte conditionnel (NB.SI) est
presque identique. La fonction ne
demande que deux arguments : la
plage de cellules et le test. Par
exemple :
=NB.SI(D6:D32;">200")
Excel examine la cellule D6. Si elle
contient une valeur supérieure à
200, Excel l'inclut dans le décompte.
Et ainsi de suite pour chaque cellule
de la plage jusque D32. Jean-Paul Mesters
SOLUTIONS
Protégez et sécurisez
vos classeurs
Confidentialité, sécurité, partage en toute confiance : ne laissez pas
vos classeurs sensibles à la portée de n'importe qui.
Verrouillez vos classeurs avec un
mot de passe. Non seulement, le mot
de passe sera exigé pour l'ouverture
du fichier mais, en outre, son contenu est crypté sur le disque dur de
telle manière qu'il est vraiment illisible. Autre technique, plus souple :
la protection d'une feuille de calcul.
Dans ce cas, vous décidez ce qui est
interdit. Par exemple : interdiction
de modifier le contenu de certaines
cellules ou leur format, d'ajouter ou
de supprimer des lignes ou des colonnes… C'est pratique quand vous
confiez à d'autres personnes un classeur que vous avez créé. Vous laissez
accessibles uniquement les cellules
contenant les données. Vous avez la
garantie que les formules et la structure des tableaux resteront intactes.
Si vous travaillez en réseau, un même
classeur peut être consulté et modifié
SOLUTIONS
par plusieurs personnes simultanément. Chaque intervention est notée
dans un journal qui indique le nom
de l'intervenant, la date, l'heure et
chaque action qu'il a effectuée dans
le classeur. Les mots de passe ne sont
pas totalement sûrs (aussi bien celui
qui est associé à l'ouverture d'un
classeur que celui qui bloque les modifications). En effet, Internet fournit
des logiciels capables de le retrouver
et de le désactiver.
pour la modification est exigé uniquement lorsque le classeur est modifié puis enregistré. Attention : le
mot de passe est demandé pour l'enregistrement du fichier sous son nom
d'origine. L'enregistrement sous un
autre nom reste possible sans mot de
passe. Lorsque vous cliquez sur OK,
une seconde boîte de dialogue vous
demande de confirmer le mot de
passe. Enregistrez ensuite le classeur.
Verrouiller
un classeur
Utilisez des
mots de
passe solides,
composés de
8 caractères
au minimum :
lettres
majuscules et
minuscules,
chiffres et
caractères
spéciaux.
Évitez les dates
de votre vie, les
prénoms, les
lieux, les mots
du dictionnaire.
1
Un mot de passe à l'ouverture Pour verrouiller l'ouver-
ture d'un classeur, cliquez sur le bouton Office (Excel 2007) ou sur l'onglet
Fichier (Excel 2010 ou 2013) puis sur
Enregistrer sous. Au bas de la boîte
de dialogue Enregistrer sous, cliquez sur Outils puis sur Options générales. Deux mots de passe sont
proposés. Le mot de passe pour la
lecture protège le fichier à l'ouverture : il sera exigé à chaque ouverture du classeur. Le mot de passe
2
Annuler le mot de passe
3
C'est plus facile avec Excel
2010 et 2013 Si vous utilisez
L'ancien fichier est remplacé
par le fichier crypté sauf si vous cochez l'option Créer une copie de sauvegarde. Dans ce cas, le fichier d'origine non protégé est enregistré sous
le nom « Sauvegarde de… ». Vous pouvez l'ouvrir librement, sans mot de
passe. Pour libérer le classeur de son
mot de passe, commencez par l'ouvrir. Le mot de passe est demandé :
tapez-le. Repassez ensuite par la commande Enregistrer sous et par la
boîte de dialogue des options générales. Et là, effacez les points noirs
représentant le mot de passe. Validez
puis enregistrez le fichier.
l'une des deux dernières versions
d'Excel, la procédure est plus simple.
Dans l'onglet Fichier, cliquez sur In-
formations puis le bouton Protéger
le classeur et enfin sur Chiffrer
avec un mot de passe. Entrez le mot
passe puis confirmez-le après avoir
cliqué sur OK. Le fichier sera protégé
dès que vous l'enregistrerez.
SOLUTIONS
Protégez
vos formules
en les verrouillant
sur le bouton Protéger la feuille.
Laissez cochée la première option :
« Protéger la feuille et le contenu des
cellules verrouillées ». Ensuite, cochez les actions que vous autorisez.
Si vous l'estimez nécessaire, entrez
un mot de passe (celui-ci sera indispensable pour déprotéger la feuille).
1
Le bouton
Verrouiller les
cellules sert à
verrouiller et à
déverrouiller.
Quand les
cellules
sélectionnées
sont
verrouillées, le
cadenas devant
Verrouiller les
cellules est
sur fond jaune.
Sinon, il est sur
fond gris.
Supprimer le verrou des cellules Au départ, chaque cellule
est équipée d'un verrou. Mais ce verrou reste inactif tant que la protection de la feuille n'est pas en service.
La protection d'une feuille s'effectue
donc en deux étapes. Premièrement,
vous supprimez le verrou des cellules qui doivent rester accessibles.
Deuxièmement, vous activez la protection globale : les cellules qui ont
conservé le verrou deviennent alors
inaccessibles. Pour supprimer le verrou des cellules sélectionnées au préalable, cliquez sur le bouton Format
puis sur Verrouiller les cellules.
2
Activer la protection globale
Une fois que vous avez déverrouillé les cellules qui doivent rester
accessibles, protégez la feuille : dans
l'onglet Révision du ruban, cliquez
3
Protéger le classeur
Avec le
bouton Protéger le classeur,
vous verrouillez la structure du clas-
seur : l'ajout et la suppression de
feuilles de calcul est interdit ainsi
que l'affichage des feuilles masquées.
Avec le même bouton, vous protégez
les fenêtres : elles ne pourront pas
être déplacées ni redimensionnées.
Partagez un
classeur en toute
sécurité
SOLUTIONS
1
Ouvrir un classeur en réseau
Si vous ouvrez un classeur en
cours d'utilisation par quelqu'un
d'autre, Excel vous informe que le fichier est en cours d'utilisation et vous
propose de l'ouvrir en lecture seule.
Si vous cliquez sur le bouton Notipeuvent alors voir les modifications
apportées par les autres.
Dynamisez
le partage en
automatisant la
mise à jour des
modifications
et du suivi :
cliquez sur
le bouton
Partager le
classeur et
voyez les
options dans
l'onglet Avancé
de la boîte de
dialogue.
3
fier, un message vous informera
lorsque le classeur sera à nouveau
disponible. Si vous cliquez sur Lecture seule, vous ne serez pas informé. Dans les deux cas, vous pouvez
modifier le classeur mais il sera impossible de l'enregistrer sous son
nom d'origine. Ici, il ne s'agit donc pas
d'un partage.
2
Suivre les modifications Cli-
quez dans l'onglet Révision du
ruban sur Suivi des modifications
puis sur Afficher les modifications.
Pour voir toutes les modifications,
désactivez les trois paramètres d'affichage. Chaque cellule modifiée est
alors encadrée et un commentaire
Activer le partage
Dans l'onglet Révision du ruban, cliquez
sur le bouton Partager le classeur.
Dans la boîte de dialogue, cochez
l'option « Permettre une modification
multi-utilisateur ». Après validation,
Excel propose d'enregistrer le fichier :
acceptez. À partir de maintenant,
n'importe qui peut également ouvrir
le classeur. Par défaut, le classeur est
mis à jour dès qu'il est enregistré.
Tous les utilisateurs du classeur
associé indique par qui et quand la
modification a été faite. Vous pouvez
demander à Excel de pointer une à
une chaque modification pour que
vous puissiez l'accepter ou de la refuser. Cliquez sur Suivi des modifications puis sur Accepter ou refuser
les modifications. Jean-Paul Mesters
SOLUTIONS
Prenez le contrôle d’un PC
à distance
Pilotez à distance un ordinateur, exactement comme si vous étiez
devant son clavier. Pour accéder à votre ordinateur lorsque vous êtes
en voyage ou pour dépanner des amis, des collègues.
Objectif : piloter à distance un PC (le
vôtre ou celui de quelqu'un d'autre),
comme si vous l’aviez devant vous.
En outre, vous pouvez discuter avec
l'utilisateur du PC connecté et des
fichiers peuvent être transférés directement d'une machine à l'autre.
La connexion s'établit entre deux
ordinateurs connectés à Internet
ou à l'intérieur d'un réseau local.
D'un côté l'ordinateur que vous allez
contacter à distance : c'est l'hôte. De
l'autre, l'ordinateur que vous utilisez
pour contacter l'hôte : c'est le client.
La connexion s'établit à travers le réseau local ou Internet. Pour utiliser
votre PC à distance, deux conditions
doivent être remplies. L'ordinateur
hôte est allumé et un logiciel ou un
service de connexion distante est en
cours de fonctionnement. Seconde
condition : il doit être connecté à
Internet. Nous vous proposons trois
solutions : le Bureau à distance inclus
dans Windows, TeamViewer et LogMeIn.
SOLUTIONS
LogMeIn et
TeamViewer
proposent des
applications
de contrôle
à distance
pour tous
les types de
tablettes et de
smartphones :
iPad, iPhone,
Android,
Windows RT.
Elles sont
gratuites.
Profitez-en.
Trois solutions
Depuis XP, Windows est fourni avec
un service Bureau à distance. Il permet d'utiliser l'ordinateur à distance
à partir d'un autre PC dans le réseau
local. La connexion via Internet est
également possible mais plus compliquée. En effet, il faut connaître
l'adresse IP de l'ordinateur distant.
S'il a une adresse IP fixe, pas de problème. Mais si elle n'est pas fixe, il
est impossible de la connaître à distance. La solution, c'est l'abonnement
à un service DNS dynamique (par
exemple DynDNS – http://dyn.com/dns).
Il y a un second obstacle, car l'ordinateur à distance est probablement
connecté à une box ou à un routeur.
Il faut configurer ce routeur pour
que la demande de connexion soit
dirigée vers votre PC.
Bref, si vous envisagez la connexion
à l'intérieur d'un réseau, c'est OK. Sinon, prenez une autre solution : par
exemple, TeamViewer ou LogMeIn.
Ces deux logiciels établissent une
connexion rapide (en réseau ou via
Internet), sans rien à configurer. Ça
marche immédiatement. Pourquoi ?
Parce que la connexion entre les deux
ordinateurs passe par les serveurs
de ces deux services qui contiennent
toutes les données nécessaires pour
atteindre les ordinateurs de votre
choix.
Ils fonctionnent sur tous les PC (depuis Windows 98 jusqu'à Windows
8), sur les Macintosh et sur les ordinateurs Linux. Pratiquement, cela
signifie que vous pouvez prendre
le contrôle de n'importe quel ordinateur à partir de n'importe quelle
machine, y compris les tablettes et les
smartphones.
Ces deux logiciels sont gratuits
pour une utilisation privée avec cependant quelques limitations. Voyez
le tableau comparatif des versions
sur le site de LogMeIn (https://secure.logmein.com/comparisonchart/comparisonFPP.
aspx) et sur celui de TeamViewer (www.
teamviewer.com/fr/licensing/index.aspx).
Dans la version gratuite des deux
logiciels, le pilotage à distance est entièrement fonctionnel.
Pilotez votre PC
avec le Bureau
à distance
Le Bureau à distance n'est pas activé
par défaut. C'est à vous d’autoriser
les accès à votre ordinateur. Une fois
qu'il est activé, vous pouvez vous
connecter à distance à partir d'un
autre ordinateur. Tout se passe alors
exactement comme si vous ouvriez
normalement une session.
Activer le Bureau à distance
SOLUTIONS
Le PC distant
doit être en
fonctionnement.
S'il est en veille,
la connexion
ne s'établira
pas. Désactivez
la veille
automatique :
voyez le
module Options
d'alimentation
du Panneau de
configuration.
Pour activer le Bureau à distance sur
un PC Windows Vista, 7 ou Windows
8, passez par le Panneau de configuration où vous ouvrez le module Système. Cliquez ensuite dans le volet
gauche sur Paramètres d'utilisation à distance. Cochez l'option qui
autorise les connexions d'assistance
à distance. Cliquez ensuite sur le bouton Avancé et autorisez le contrôle
d'accès à distance. Tout utilisateur
ayant un compte sur ce PC pourra
ouvrir une session à distance.
Sur un PC Windows 8 professionnel ou entreprise, les utilisateurs administrateurs peuvent se connecter
immédiatement mais les utilisateurs
ayant un compte standard doivent
explicitement figurer dans une liste
d'accès à distance. La boîte de dialogue des paramètres d'utilisation à
distance affiche l'option « Autoriser la
connexion des ordinateurs exécutant
n'importe quelle version de Bureau
à distance ». Si vous êtes certain que
les connexions proviendront toujours
de PC exécutant Windows Vista, 7 ou
8, cochez l'option « N'autoriser que la
connexion des ordinateurs exécutant
Bureau à distance avec authentification NLA » : les connexions seront ainsi plus sécurisées. Cliquez ensuite sur
Choisir les utilisateurs. La boîte de
dialogue Utilisateurs du Bureau à distance s'affiche. Cliquez sur le bouton
Ajouter et choisissez un à un les noms
des utilisateurs pour lesquels vous autorisez l'accès distant. Ceux-ci doivent
avoir un compte utilisateur sur le PC.
Se connecter
à un Bureau distant
Et maintenant, comment se connecter à un PC sur lequel le Bureau
à distance est activé ? Lancez la
connexion Bureau à distance. Faites
une recherche parmi les applications
dans le dossier des accessoires. Pour
prendre le contrôle d'un ordinateur
de votre réseau local, entrez son nom
et cliquez sur le bouton Connexion.
Un nom d'utilisateur et un mot de
passe sont demandés : entrez le nom
(et le mot de passe) d'un utilisateur
ayant un compte sur le PC distant.
Une fenêtre s'ouvre : elle affiche le
bureau distant. Pour configurer la
connexion, cliquez sur le bouton Options dans la fenêtre de connexion :
vous trouverez là tous les paramètres
disponibles (qualité d'affichage, périphériques à utiliser, sortie audio…).
Installez
TeamViewer
1
Téléchargez et installez
Téléchargez TeamViewer sur le PC
qui prendra le contrôle d'un autre
ordinateur :
www.teamviewer.com/fr/
download/windows.aspx. Après l'installation, TeamViewer démarre automatiquement. Par la suite, vous le lancerez
comme
n'importe
quelle
application, à partir du menu Démarrer. Son icône est visible dans la zone
SOLUTIONS
Si les
mouvements
de votre souris
dans la fenêtre
de TeamViewer
sont un peu
gluants,
réduisez le
volume des
données
transmises.
Cliquez sur
le menu
Visualiser
puis sur la
commande
Qualité et enfin
sur Privilégier
la vitesse.
de notification. Sur la machine qui
sera contrôlée, un petit module nommé TeamViewer QuickSupport suffit
mais la version complète convient
également. Si vous optez pour le module QuickSupport, il n'y a rien à installer. Un double-clic sur l'icône du
fichier téléchargé suffit pour le démarrer.
mande Visualiser > Écran actif. Le
son de l'ordinateur distant se fait entendre à moins que vous ne le réduisiez au silence : cliquez sur le bouton
Audio/Vidéo puis sur l'option Sons
de l'ordinateur.
Contrôlez
l'ordinateur distant
1
Souris et clavier
2
Communiquez Transférez des
Les mouvements de la souris et les actions
au clavier sont transmises sur l'autre
ordinateur, exactement comme si
vous étiez devant son écran. Les commandes pour redémarrer l'ordinateur distant ou fermer la session sont
dans le menu Actions.
2
Connexion Pour vous connec-
ter à un PC distant, demandez à
son propriétaire de démarrer
TeamViewer ou QuickSupport et de
vous communiquer l'ID et le mot de
passe. Sur votre PC, double-cliquez
sur l'icône de TeamViewer dans la
zone de notification. Entrez l'ID dans
le volet droit. Cliquez sur Connexion
à un partenaire, entrez le mot de
passe et cliquez sur le bouton
Connexion.
3
Contrôle
La fenêtre de Team­
Viewer s'ouvre immédiatement : elle affiche l'écran de l'utilisateur distant. Sur l'autre PC, le papier
peint est remplacé par un fond noir
afin d'optimiser la connexion. Si l'ordinateur distant est équipé de plusieurs écrans, TeamViewer choisit
d'afficher le premier. Pour basculer
sur un autre écran, choisissez la com-
fichiers : choisissez dans le
menu Transfert de fichiers. La fenêtre qui s'ouvre affiche à gauche les
disques et les volumes de votre ordinateur et, à droite, ceux de l'ordinateur distant. Faites glisser les fichiers
de droite à gauche et vice versa. Pour
échanger des messages instantanés
entre les deux ordinateurs, choisissez
la commande Audio/Vidéo > Discussion. Entrez votre message et enfoncez la touche Entrée. La fenêtre de
chat s'ouvre sur l'autre ordinateur : la
SOLUTIONS
conversation peut se dérouler. Le
contrôle s'effectue toujours dans un
seul sens. Il n'est pas possible aux
deux ordinateurs de contrôler l'autre
simultanément. Mais vous pouvez
donner le contrôle à l'autre avec la
commande Inverser le sens avec le
partenaire dans le menu Actions.
3
Libérez votre
ordinateur de
tout contrôle
en cliquant
sur le bouton
Déconnecter
dans la petite
fenêtre qui
s'affiche
dans le coin
supérieur
gauche de
l'écran.
Enregistrez la session Pour
enregistrer dans une vidéo tout
ce qui se passe, cliquez dans le menu
Suppléments sur Enregistrer puis
sur Démarrer. L'arrêt de l'enregistrement est dans le même menu : un
fichier est enregistré sur votre disque
dur. Pour voir la vidéo dans la fenêtre
de TeamViewer, double-cliquez sur
l'icône du fichier vidéo. Autre option :
les captures d'écran. La commande
est également dans le menu Suppléments.
Installez LogMeIn
1
Téléchargez le logiciel
Installez LogMeIn sur le PC hôte
(celui qui sera distant) : https://secure.
logmein.com/FR. Une fois le formulaire
d'identification complété, la page de
téléchargement s'affiche. Cliquez sur
le bouton vert. Pendant la phase
d'installation, identifiez votre PC en
indiquant par exemple votre nom.
Vous recevrez deux mails. Le premier contient un lien de confirmation de votre inscription : cliquez
dessus. Le second confirme l'inscription de votre ordinateur sur les serveurs de LogMeIn.
2
Définissez un code d'accès
3
Envoyez une invitation Vous
L'icône de LogmeIn est dans la
zone de notification. Pointez-la : une
infobulle vous informe que LogMeIn
est activé et en ligne. Il sera automatiquement réactivé à chaque démarrage de Windows. L'ordinateur est
donc accessible à distance en permanence par l'intermédiaire du serveur
de LogMeIn. Double-cliquez sur
l'icône et créez le code d'accès qui
sera demandé pour toute connexion
à distance.
avez besoin de l'aide d'un ami
ou d'un collègue féru d'informatique ? Dans la fenêtre de LogMeIn,
cliquez sur le bouton Partage de bureau. Envoyez une invitation à un
ami pour lui demander de se connecter à votre bureau. Celui-ci reçoit un
email. Il lui suffit de cliquer sur le
lien proposé : son navigateur s'ouvre
et la connexion s'établit. Vous rece-
SOLUTIONS
vez un message vous demandant de
confirmer cette connexion et de définir le niveau d'autorisation que vous
accordez. Toutes les informations
concernant la session en cours sont
regroupées sur l'ordinateur distant
dans l'onglet Présentation de la fenêtre de LogMeIn.
Utilisez
et surveillez
Le temps
de réaction
dépend du
débit de la
connexion.
S'il est trop
long, réduisez
le nombre de
couleurs et la
résolution en
cliquant sur le
bouton Qualité
d'affichage
(en haut de la
fenêtre).
1
Surveillez l'ordinateur
LogMeIn est spécialisé dans l'assistance à distance. La preuve ? Les
boutons Gestion de l'ordinateur et
Paramètres de l'ordinateur vous
donnent accès aux outils système de
l'ordinateur distant. Par exemple,
l'éditeur de la base de registre ou encore les ressources partagées. Le chat
d'assistance ouvre une fenêtre de
communication directe. Intéressant
également, le bouton de surveillance
des performances qui vous dit tout
sur le fonctionnement de l'ordinateur en détresse. Voyez également le
tableau de bord.
2
le bouton Login et entrez votre identifiant et votre mot de passe. Immédiatement, une nouvelle page s'affiche : elle indique le nom de votre
PC. Cliquez sur le nom du PC puis
entrez le code d'accès que vous avez
défini sur votre ordinateur distant.
Voilà ! La fenêtre du navigateur affiche le Bureau de votre PC distant.
Prenez l'initiative Si vous avez
installé LogMeIn sur votre ordinateur de bureau, connectez-vous à
lui à partir d'un autre ordinateur.
Dans votre navigateur, entrez
l'adresse www.logmein.com. Cliquez sur
3
Pilotez votre ordinateur distant Pour prendre les com-
mandes, cliquez sur le bouton
Contrôle à distance. Pour envoyer
une combinaison de touches à l'ordinateur distant, cliquez en haut de la
fenêtre sur le bouton Options et déroulez la liste des combinaisons de
touches. Pour envoyer ou récupérer
des fichiers sur l'autre ordinateur,
cliquez sur Transfert de fichiers.
La fenêtre se divise en deux volets : à
gauche l'ordinateur sur lequel vous
travaillez. À droite, l'ordinateur distant. Sélectionnez un fichier dans
l'un des deux volets et cliquez sur le
bouton Copier ou Déplacer. Jean-Paul
Mesters
Raspberry
Pi
retour vers le futur ?
Bricoler son ordinateur relève aujourd’hui de l’inconscience ou du professionnalisme le plus avancé. Les compétences nécessaires sont élevées et
les contraintes du design ont réduit les marges de manœuvre de nos gros
doigts malhabiles (essayez de changer une batterie sur un MacBook Air).
Réaliser des « expériences » technologiques est complexe et souvent onéreux. Pourtant, une framboise britannique semble annoncer le retour du
« do it yourself » dans bien des périmètres de l’informatique personnelle.
V
ous souvenez-vous de ce temps
où une frénésie créatrice s’est
emparée d’une génération entière de passionnés de technique,
où chacun ne jurait que par son
Oric, son Pet Commodore, son ZX Spectrum
ou, pour les plus fortunés, son Apple II ? Cette
époque où un « Poke » ne faisait pas référence
à un réseau social mais était synonyme de programmation avancée ? Ce bon vieux temps des
années 70/80 qui n’était quand même pas si
béni (quasiment rien n’était compatible avec
rien) n’est pas connu des moins de trente ans
mais c’était celui où apprendre le fonctionnement d’un monde nouveau était une passion vibrante et où beaucoup ont révélé leurs talents.
Combien de langages informatiques ont été
écrits, de trains électriques ont été gérés, de télescopes amateurs pointés sur une galaxie lointaine pour des photos ébouriffantes, d’alarmes
plus ou moins fonctionnelles mises en action
ou de synthétiseurs constitués à la recherche
du son des Pink Floyd dans « One of these days » ?
Aujourd’hui, les matériels sont tous plus
beaux et puissants les uns que les autres mais
« bricoler » est moins simple : bien sûr, il est toujours possible de se connecter à son port USB
pour créer quelque chose mais cela demande
compétences et argent… Et apprendre est tout
aussi ardu et cher : le plus petit netbook (qui ne
suffirait d’ailleurs pas) demande au minimum
100 €. En outre, ce prix qui peut sembler ridicule lorsque nous voyons le prix des consoles
de jeux est inaccessible à beaucoup ! C’est dans
l’idée de réduire cette fracture que la
fondation Raspberry Pi a été constituée en mai 2009 en Grande Bretagne par Eben Upton et David Braben,
créateur de la série de jeux vidéo « Elite »
(ainsi que d’autres serials entrepreneurs). Leur
objectif était littéralement de « promouvoir
l'étude des sciences de l’ordinateur et des thèmes
qui y sont liés tout particulièrement à l’école et
remettre de l'amusement dans l'apprentissage
de l’informatique ».
Ce projet s’est concrétisé début 2012 avec
une carte ordinateur, simplement dénommée
Raspberry Pi, basée sur un processeur ARM,
un circuit imprimé 6 couches, quelques composants et connecteurs ainsi qu’un lecteur de
cartes SD. Le tout animé par un système d’exploitation (logé sur une carte SD). Commercialisé initialement en version A autour de 20 €, il
faut compter aujourd’hui 35 € pour la version
B. Plus de 1,2 millions de Raspberry Pi se sont
vendus (principalement en Europe et aux ÉtatsUnis mais aussi en Asie, Australie et au MoyenOrient) et la production initialement chinoise
a été rapatriée en Grande-Bretagne (plus précisément dans les usines Sony au Pays de Galles).
Sa présence dans moult milieux scolaires
montre la réussite du projet… qui a toutefois
dépassé l’objectif initial dans la mesure où
tout un écosystème s’est construit proposant
extensions, logiciels (il existe même une place
de marché dédiée aux applications pour Raspberry Pi) et accessoires divers.
Le Raspberry Pi à la loupe
Le Raspberry Pi est composé d’une seule carte
mère de 55 x 65 mm. Le composant principal
en est un processeur ARM cadencé par défaut
à 700 MHz (mais il est possible de l’overclocker jusqu’à 1 GHz). La version B dont nous parlons ici est dotée de 512 Mo de mémoire vive,
un composant Hynix monté directement audessus du SoC (System on Chip) Broadcom BCM
2835 de type ARM 11 (ARM1176JZF-S pour être
précis). Pour information, ce composant comporte 300 broches et le montage de la mémoire
par la méthode PoP (Package on Package) permet d’économiser 68 broches.
Les entrées/sorties sont assurées par un composant LAN9512 de SMSC gérant deux ports
USB 2 et un port Ethernet 10/100 MHz (mais
nous n’avons pas pu obtenir plus de 3 Mbits/s),
un port HDMI (piloté par un coprocesseur
multimédia VideoCore IVdual core, capable
de streamer du HD 1080 H.264) et deux ports
analogiques audio et vidéo (pour le cas où vous
ne disposeriez pas d’une télé en HDMI ou d’un
câble adaptateur HDMI/DVI).
Un lecteur de cartes SD contiendra le système
d’exploitation et les premières données (4 gigaoctets au minimum sont à prévoir, même si les
distributions proposées peuvent se contenter
de 2 Go).
L’alimentation doit être fournie via un port
micro @USB délivrant 5 volts (seules les broches
d’alimentation sont câblées) sous au minimum
700 mA. Pour être certain de la stabilité de l’ensemble (ou si un overclockage est envisagé), il
faudra assurer jusqu’à 1 ampère.
Un ensemble de LED témoignent du fonctionnement de l’appareil. « ACT » scintille en vert
lorsque tout va bien et « PWR » est rouge lorsque
la tension est présente. Les 3 autres décrivent le
fonctionnement de la connexion réseau (« FDX »
en vert pour Full Duplex, « LNK » en vert indiquant que le trafic passe tandis que 100 clignote en jaune lorsque le débit est de 100 Mb/s)
À cela s’ajoutent plusieurs éléments qui amplifient le potentiel de l’engin. Tout d’abord, un
GPIO (General Purpose Input/output) associé
à un connecteur 26 broches qui permettra de
relier le Raspberry Pi à divers appareils (afficheurs LED, contacts secs, détecteurs, etc.).
Ensuite, le GPU (Graphic Processing Unit) peut
recevoir une caméra directement via un connecteur ruban se plaçant à l’emplacement idoine en
arrière du connecteur Ethernet. Les concepteurs
du Raspberry Pi n’ont pas lésiné puisque le GPU
est capable de traiter directement (sans passer
par le processeur) des flux de 30 images par seconde en 1 920 x 1 080 (ou plus rapidement pour
des images de plus faible résolution).
Enfin, un DSI (Display Serial Interface) placé
au-dessus du lecteur de carte SD attend l’arrivée d’un écran dédié (les caractéristiques de
ce connecteur ne sont pas encore documentées
par la fondation, donc, patience).
Survol de la galaxie Raspberry
Polyvalente, peu onéreuse et soutenue par une
équipe passionnée dont le projet initial était de
fournir un outil de formation et d’éveil des initiatives, la famille Raspberry Pi a rapidement
connu un vif succès.
Eben Upton, un de ses concepteurs, attribue
cet envol « à l’engagement de l’équipe fondatrice
sur les médias sociaux et à la propagation de sa
réputation par tous ceux qui ont commencé à
l’utiliser ».
En deux ans, ce sont toute une collection d’applications et de réalisations qui se sont développées, alimentant encore plus la communauté
de ses fans qui s’est même dotée d’un magazine (The MagPi) depuis un peu plus d’un an.
Ce magazine propose toute une série d’articles
d’initiation de tous niveaux.
Côté langages nous y trouvons des initiations à :
• Scratch pour les plus jeunes ;
• Bash, le classique langage ligne de commande
pour Linux ;
• Python, un langage de programmation objet
sur lequel le magazine va même vous initier
aux calculs parallèles ;
• Et même de l’assembleur, pour descendre au
plus profond du cœur du micro-calcul numérique.
Ces initiations impliquent bien sûr que ces
langages sont implémentés sur certaines distributions de Linux pour Raspberry Pi.
Côté matériel, les articles présentant des prototypes plus ou moins compliqués viennent
épauler les lecteurs dans leur apprentissage et
témoigner de leur inventivité en primant leurs
meilleures réalisations.
Une constellation d’accessoires…
Destiné initialement à épauler les formations
à l’informatique en général, les Raspberry Pi
évoluent désormais dans un écosystème conséquent. Cela se traduit par un foisonnement d’accessoires et périphériques dont les exemples
montrés ici ne sont qu’un échantillon. Plusieurs
de ces produits peuvent être trouvés en France
chez Kubii (www.kubii.fr) qui porte ce produit sur
notre marché.
Dernière née, la caméra
Livrée avec sa nappe de connexion à la prise la
reliant au GPU du Raspberry Pi version B, cette
caméra proposée à 25 € est dotée d’une optique
à focale fixe et offre une résolution de 5 mégapixels. Elle peut fournir des images fixes de
2 592 x 1 944 pixels ou des flux vidéos HDMI de
30 trames par seconde jusqu’au 1080p. L’imagination de la communauté n’ayant aucune
limite, certains l’ont déjà bricolée en dévissant
l’optique pour en faire un outil de macro photo ou film tandis qu’un adaptateur au format
M12 est proposé pour 5 $ aux États-Unis afin
d’ajouter des optiques complémentaires. Deux
applications (Raspivid et Raspistill) permettent
de lancer des captures vidéo ou photo en ligne
de commandes.
La société Pimoroni propose de nombreux modèle colorés facilitant leur appropriation par
les plus jeunes
Des extensions
Faire quelque chose avec le Raspberry Pi n’a
de limite que l’imagination, mais pour les premiers pas nombre d’accessoires et extensions
sont proposés qui permettront de se lancer
avec efficacité.
Le T-Cobbler d’Adafruit permet pour 8 $ de
relier le Raspberry Pi à une plaque de prototypage. Il en existe d’autres comme celui présenté
ci-contre mais celui-ci est simplissime à mettre
en œuvre, dispose d’un rappel visuel des fonctions de chaque plot du GPIO et il ouvre la porte
à moult apprentissages de montages électrotechniques variés. De nombreux modèles de
plaques de prototypage existent sur le marché.
Pour donner une idée de ce qui peut être
fait avec un Raspberry, le convertisseur analogique/digital 8 voies présenté ici est un exemple
des composants qui peuvent être pilotés par
son entremise (détection d’ouverture, télé action suite à un signal…), tels sont les possibilités
ouvertes.
Conscient que certains utilisateurs exigent
une accessibilité simplifiée à leur interface
GPIO, Quic2wire propose pour 20 € une carte
qui se branche directement dessus et offre un
accès bien différentié a 8 entrées/sorties, une
interface série (SPI) ainsi qu’un bus I2C (Inter
Integrated Circuit), employé dans le monde de
la domotique. Il est aussi possible d’interfacer les nombreuses cartes Arduino au Raspberry Pi.
Pour ceux qui trouveraient que la carte ordinateur manque de protection, un nombre et
une variété de coques comblera leurs attentes.
Pour une dizaine d’euros, toutes les formes,
toutes les couleurs (nous avons sélectionné la
plus flashy) pourront habiller le Raspberry.
Plusieurs écrans à cristaux liquides simples
peuvent aussi être reliés au Raspberry. Ils fournissent une interface rapide et visuelle pour
communiquer avec lui (sans passer par la
connexion à un écran DVI ou HDMI).
Et dans la mesure où créer une média box est
chose facile avec un Raspberry, son intégration
avec une télévision peut être essentielle. Heureusement, des adaptateurs à la norme VESA
permettent d’intégrer le Raspberry dans le dos
de la majorité d’entre elles.
… et une nuée de systèmes
d’exploitation…
Les deux connecteurs USB 2.0 du Raspberry
peuvent aussi être exploités. Une des utilisations est le wifi : de nombreux dongles wifi
peuvent être utilisés pour le mettre en réseau
(d’autant que le débit assuré par ce canal est
bien supérieur à celui du port Ethernet).
Nous ne pouvions oublier ce circuit GPS que
vous pourrez connecter à votre Raspberry pour
construire votre propre unité de navigation
Un micro-ordinateur n’est rien sans son système
d’exploitation. La fondation Raspberry Pi l’a bien
compris et elle entretient une distribution Linux
sur son site. C’est Debian 6, adapté sous le nom de
Raspbian et qui occupe plus de 2 Go (il faut dire
qu’il comporte environ 35 000 packages) qui a été
choisi. C’est la référence pour la fondation. Mais
la communauté a œuvré dans un grand nombre
de directions et il est possible d’installer aussi :
• Debian Serveur, une version plus compacte
du précédent d’où ont été enlevés les packages
de jeu et de bureautique.
Quelques alternatives « soft »
S’il est le seul à proposer cet
accès intime à l’informatique, le
Raspberry n’est pas unique sur le
terrain des « petites » machines
pas chères. En voici deux dont la
vocation est plus logicielle mais
qui régaleront leurs utilisateurs.
Les EBOX PC
Windows vous manque vraiment
trop et vous ne voulez pas entrer
dans le hard ? Qu’à cela ne tienne,
il existe des solutions. Parmi
celles-ci, les produits « verts »
du taiwanais DMP Electronics
Inc. Pour moins de 150 €, vous
disposez d’un EBOX 3350, une
unité centrale complète de 10 x
10 cm haute de moins de 2 cm.
Capable de faire tourner Windows,
la merveille offre de nombreuses
entrées/sorties (1 RJ 45, 3 USB
2, une sortie vidéo, un lecteur de
carte SD, 1 entrée/sortie son).
www.compactpc.com.tw/product.
aspx?mode=41&cate_id=55
L’Utilite de Compulab
Annoncée pour la rentrée 2013,
cette merveille d’à peine 2 cm de
haut pour 10 x 15 cm de taille,
proposera à moins de 100 $ un
boîtier doté de multiples entrées/
sorties (2 RJ45, wifi, BlueTooth,
4 USB 2, HDMI, S/PDIF optique,
• Raspbian minimal, encore plus réduit : il ne lui
reste que le noyau et un nombre minimum de
packages. On n’y installe que ce dont on a besoin.
• ArchLinux ARM, une distribution très connue
pour son minimalisme et sa rapidité, elle est
prisée par les puristes.
• Fedora, très usitée elle aussi (c’est un fork de la
célèbre Red Hat) elle est quasiment l’opposé de
la précédente. Très complète, avec une interface
riche et beaucoup d’applications, elle est destinée au grand public. Une carte 4 Go est exigée
pour la faire tourner.
• FreeBSD, dérivée de BSD, un Unix développé
par l’université de Berkeley en Californie (les
amateurs d’Apple apprécieront).
Non exhaustive, cette liste doit pourtant être
enrichie de systèmes plus ésotériques assez
lecteur de carte SD et même
des RS232 de la vieille époque)
propulsé par un processeur ARM
Freescale i.MX6 et un système
d’exploitation Ubuntu ou Android.
Les configurations embarqueront
jusqu’à 512 Mo de RAM, de 1 à 4
cœurs, et un GPU dont la version
la plus élevée saura gérer des flux
vidéos 1080p H264 (bien sûr,
le prix le plus bas correspondra
au niveau de ressource le moins
élevé)… De quoi se fabriquer un
média center du meilleur effet !
http://utilite-computer.com/web/
home
inattendus sur un matériel de cette catégorie (et
de ce prix) :
• RISC OS, un système ouvert développé initialement par Acorn à Cambridge (et les premières
traces remontent aux années 80) et surtout par
l’équipe qui a créé l’architecture ARM. Ce système appartient aujourd’hui à RISC OS Open
Ltd qui le met gracieusement à disposition des
utilisateurs de Raspberry Pi.
• Moebius. Très compacte (moins de 1 Go) cette
distribution dédiée aux processeurs ARM exploite les packages de Debian et est idéale pour
des applications de pilotage d’accessoires liés au
GPIO.
• Plan 9, utilisé par des chercheurs et des amateurs éclairés remonte au temps des Laboratoires Bell et les années 80.
• Chameleon est un RaspBian adapté à l’ému-
lation de systèmes rétro. Il dispose des package pour redonner vie aux programmes d’un
Spectrum, d’un Oric 1, d’un Atari 2600 ou même d’un Apple II.
Il en existe bien d’autres (à ce
jour, plus de 25) dont les usages
sont variés. Les amateurs de
sécurité apprécieront PwnPi
qui dispose en standard de près
de 200 outils de pénétration de
réseau permettant d’en tester la
solidité.
Des réalisations
inattendues
Parmi les réalisations les plus
intéressantes développées autour du Raspberry
Pi, les robots sont parmi les plus passionnantes.
Il est possible pour les plus expérimentés de se
concocter leurs propres recettes : un Raspberry
Pi, une source d’alimentation suffisamment
puissante, deux servomoteurs, un convertisseur analogique/numérique à plusieurs voies,
quelques détecteurs de contact ou de proximité, un peu de quincaillerie, des heures de développement en Python et, pour eux, le tour est
joué. Un scarabée bizarre va se balader dans
leur salon et interagir avec son environnement
en répondant à leurs ordres.
Un passionné (Green Sheller) a même réalisé
un R2D2 qui lui obéit, va et vient en évitant les
obstacles grâce à un télémètre à ultrasons et des
capteurs infrarouges. Un autre a équipé un de
ces nouveaux aspirateurs automatiques d’un
Raspberry pour lui conférer une intelligence
plus efficace que son électronique de base. Une
entreprise « kickstarter » va bientôt (les 125 000
$ nécessaires ont déjà été rassemblés) proposer un drone aquatique, le Ziphius, qui accompagnera un nageur dans l’eau et filmera des
images qui seront retravaillées en temps réel
en réalité augmentée sur une tablette.
Pour les moins expérimentés, divers kits
sont proposés tel le Raspberry Pi 2WD Robot
Instructional Pack chez Abra aux USA qui vous
mettra le pied à l’étrier pour 160 $ (hors frais de
port mais avec le Raspberry Pi).
Le kit Rapiro permet de développer un petit
robot doté de 12 servomoteurs, une carte interface, le kit camera le tout piloté par un Raspberry. La vivacité de la communauté portant
les projets Raspberry Pi a impressionné Eben
Upton que l’on voit ici découvrir Rapiro assemblé. Il ne s’agit pas là d’un appareil radiocommandé (encore qu’il soit possible d’écrire des
applications qui permettent son pilotage par
réseau wifi) mais d’un appareil mobile dont
il est possible de construire le comportement.
Avec la caméra embarquée, il peut aussi faire
office d’agent de surveillance mobile tandis
qu’avec une interface infrarouge, il saura allumer les chaînes TV qui vous conviennent au
son de votre voix. Et il peut même préparer le
café ! Georges Pécontal
Interview Trois questions à
Eben Upton
Co-fondateur et directeur exécutif
de la fondation Raspberry Pi
Carte d’identité de la fondation : La fondation
Raspberry Pi est une organisation de bienfaisance britannique, fondée en 2009 dans le but
de promouvoir l’étude de l’informatique par
les enfants dans et en dehors de leurs classes.
Le nombre de Raspberry Pi vendu au monde a
dépassé les 1,2 millions en avril 2013.
Quel était votre projet lors de la fondation de
Raspberry Pi ? Avec un groupe de collègues de
l’Université de Cambridge, nous nous sommes
profondément inquiétés du déclin du nombre
d’élèves s’orientant vers des études informatiques et, corollairement, de la diminution des
compétences informatiques des candidats aux
postes de ce domaine, que ce soit pour des développements en langage machine ou pour des
choses plus simples, comme l’écriture de pages
internet.
L’intérêt mondial pour le Pi au-delà de
notre cible initiale a été une énorme
surprise pour tous les acteurs de la
fondation. Alors que nous pensions le
distribuer principalement à des enfants du Royaume Uni pour écrire des
programmes, ce sont des adultes du
monde entier qui s’en sont emparés.
Quel objectif visiez-vous alors ? À l'origine nous
Quel avenir envisagez-vous désormais ? Nous
voulions seulement produire quelques milliers
d’exemplaires pour les distribuer aux jeunes
de Cambridge qui envisageraient de s’orienter
vers l’informatique. Nous avons dans ce but
cherché à atteindre un prix très bas (de l’ordre
de grandeur de celui d’un manuel scolaire) tout
en incorporant le plus grand nombre de fonctionnalités possibles (mon collègue Pete Lomas
a été le pivot de ce travail). L’intérêt mondial
pour le Pi au-delà de notre cible initiale a été
une énorme surprise pour tous les acteurs de
la fondation. Alors que nous pensions le distribuer principalement à des enfants du Royaume
Uni pour écrire des programmes, ce sont des
adultes du monde entier qui s’en sont emparé.
Beaucoup l’utilisent pour développer des projets matériels. J’ai découvert, lors d’un récent
voyage à Tokyo, une communauté de passionnés réalisant des merveilles auxquelles nous
n’aurions jamais osé rêver, tel cet excellent robot en kit, le Rapiro.
pensons qu'il y a un potentiel énorme pour
un ordinateur bon marché permettant à la
fois de résoudre le problème initial – à savoir
accroitre le nombre de jeunes voulant devenir
ingénieurs en informatique – que de fournir
un ordinateur polyvalent et bon marché pour
les pays en voie de développement. Nous espérons développer le Raspberry Pi jusqu'à ce qu’il
remplisse de manière optimale cette mission
d’outil universel.
Eben Upton a 35 ans et a vécu les 17 dernières années dans la banlieue de Cambridge où il a étudié la
physique et terminé un doctorat dans l'informatique
ainsi qu’un MBA. Il a travaillé à l'université comme
Directeur d'Études, a fondé plusieurs startups, dont
Marmalade, qui produit le middleware pour des
jeux mobiles. Il a été salarié dans plusieurs grandes
sociétés américaines dont IBM, Intel et, dernièrement Broadcom. Il a cofondé Raspberry à la fin de
2008 et en est devenu directeur exécutif en 2011.
La concurrence
du Pi
Le Raspberry Pi n’est pas le seul à proposer un outil de calcul et de développement ouvert sur lequel
de nombreux accessoires peuvent se connecter. Il
est toutefois le seul à avoir eu ce succès international, à disposer d’une communauté vigoureuse
qui échange sur ses possibilités. Nous ne pouvions
toutefois pas oublier ses alternatives.
OlinuXino
Dans la même gamme de prix (environ 40 €
pour le premier prix), les Olinuxino d’Olimex
proposent une carte composée d’un processeur
ARM. Le moins cher, l’IMX233 (du nom de son
microprocesseur, un ARM 9) n’a toutefois pas de
connecteur HDMI, ne dispose que de 64 Mo de
mémoire vive et a une vitesse d’horloge assez
basse, en dessous de 0,5 MHz. Il faut monter en
gamme (et en prix) pour disposer de processeurs
plus puissants et de 512 Mo. Tous les modèles arborent de nombreux connecteurs standards (SD,
USB) ou spécifiques (GPIO de 40 broches) leur
ouvrant le monde vers divers développements.
Les cartes-ordinateurs fonctionnent sous Linux
(plusieurs distributions peuvent être installées,
dont une version de Debian). Les arguments
principaux des promoteurs du projet OlinuXino (qui est accessible sur GitHub) sont que sa
totalité est ouverte (y compris la CAO des cartes
mères), le rendant ainsi aisément intégrable
dans n’importe quel autre projet industriel ainsi
que l’exploitation du microcontrôleur Freescale
I.MX233, très répandu et peu onéreux, gage de
pérennité et d’économie. https://www.olimex.com/
Products/OLinuXino/open-source-hardware
BeagleBone Black
Très récent et toujours autour de 35 € (45 $, prix
US), le BeagleBone Black est propulsé par un
processeur Texas Instrument AM335x (un ARM
8) à 1 GHZ avec 512 Mo de RAM. Avec un port
RJ45, deux ports USB et un connecteur mini
HDMI, le BeagleBone est très compact (5,3 sur
8,1 cm), très léger (en dessous de 40 grammes).
Il n’est doté d’aucun processeur vidéo de
grande puissance ce qui ne le destine donc pas
aux traitements multimédias. Sa grande force
est son ouverture sur l’extérieur : il propose en
effet deux connecteurs de 46 broches pour le
relier à des dispositifs matériels. Il ne dispose
pas d’une communauté très riche mais un wiki
vient le documenter de manière très complète.
La merveille fonctionne sous Ubuntu, Angström Linux et même Androïd. http://beagleboard.
org/Products/BeagleBone%20Black
Le HackBerry
Presque deux fois plus cher que le Raspberry
Pi, il est équipé d’un ARM 10 plus rapide, de
512 Mo de RAM DDR3 et se dote de 4 Go de
mémoire de stockage. Un slot SDHC permet
d’étendre celle-ci jusqu’à 32 Go. Il est par ailleurs équipé d’un connecteur RJ45 Ethernet et
d’une antenne wifi, de 2 USB 2, de connecteurs
audio et pour la vidéo d’un port AV et d’une
HDMI (le processeur graphique autorise les
flux jusqu’au 1080 p). Le HackBerry marche
à Androïd par défaut (il boote sur la partition
dédiée à ce système) mais supporte aussi des
distributions Linux (Ubuntu ou Debian). En
revanche, seul un connecteur série lui permet
d’accéder à des périphériques exotiques. Il sera
donc réservé à des développements exploitant
des interfaces classiques. Un wiki très complet
permet de s’initier très aisément à sa mise en
œuvre et à son utilisation. https://www.miniand.
com/products/Hackberry%20A10%20Developer%20Board
Le CubieBoard
Projet concurrent du Raspberry (et disponible
depuis une année à peine), le CubbieBoard,
produit de la conception de développeurs indépendants de Chenzen, se veut plus ouvert (le
projet est accessible sur GitHub). C’est un ARM
10 à 1 ou 2 cœurs (selon l’option choisie) et sa
version 2 produite depuis mai 2013 propose un
stockage on board de 4 Go épaulé par un lecteur de cartes micro- SD, 1 Go de RAM (une version 2 Go est attendue), une connexion Ethernet 10/100, une sortie HDMI 1080p. Il dispose
d’un GPIO de 96 broches divisé en deux blocs
(dont l’un n’est autre qu’une interface SATA 2).
Préconfiguré avec Androïd 4, il peut recevoir
Ubuntu, Fedora, Debian et d’autres distributions Linux. http://cubieboard.org
Ce tour d’horizon ne pouvait ignorer deux
autres familles : les cartes italiennes Arduino
et le PandaBoard.
Plus ancienne, la famille Arduino est sans
doute plus complète avec toute une série de
cartes relativement bon marché (depuis des
cartes GSM jusqu’à des cartes robot, Ethernet
et même des cartes de prototypage permettant
de tester ses créations). Malgré cette richesse,
aucune communauté ne s’est emparée de cette
famille avec vigueur : cela tient sans doute à
cette immensité de produits très bien conçus et
répondant à des besoins identifiés : pourquoi
se lancer à créer si cela a déjà été fait ? http://arduino.cc/en
La Pandaboard se rapproche du Raspberry
en ce qu’il se veut ouvert et accessible. Pour
150 $, vous disposez d’un Dual Core ARM 9 à
1,2 GHz avec 1 Go de RAM DDR2, de l’Ethernet
10/100, du wifi et du BlueTooth, d’un processeur graphique qui envoie du 1080p sur un
connecteur HDMI ou du DVI (d’ailleurs, il peut
gérer deux écrans) et aussi d’un GPIO (2 x 24
broches) et d’un connecteur pour écran LCD…
Une merveille, donc… Mais 4 fois plus chère
que le Raspberry. www.pandaboard.org/content/platform
Pourquoi les investisseurs raffolent
des startups « entreprises »
Les startups technologiques qui développent des produits (logiciels,
matériels ou services) pour le marché des PME et des entreprises ont
de nouveau le vent en poupe, après avoir été totalement éclipsées par
les jeunes pousses « grand public » (réseaux sociaux, mobile et e-commerce/marketing).
« Depuis les introductions en bourse de Facebook, Zynga et Groupon l'année dernière, les valorisations des startups “consumer” ont
flambé, au point que les jeunes pousses B2B (business to business),
paraissent désormais peu chères », explique Adéo Ressi, le PDG du
Founder Institute.
Outre leur valorisation plus raisonnable, le retour en grâce des
startups B2B s'explique par l'adoption par les entreprises des modèles économiques et technologies qui ont fait leur preuve sur le
marché grand public – la « consumérisation » de l'informatique –
comme le freemium (essai gratuit), le logiciel par abonnement (SaaS/
Cloud), les applications mobiles ou encore les réseaux sociaux (Yam-
JeanBaptiste Su
Rédacteur
en chef
de BayLive,
le journal
de la Silicon
Valley
ça se termine bien à la fin
« Après quelques
années d’euphorie
pour les startups
mass-market, on
assiste à un retour
d’intérêt pour les
stratups B2B. »
Sébastien Lépinard,
fondateur de Next
World Capital
mer, Chatter, HearSay…). D'autres tendances comme le Big Data, l'informatique décisionnelle (BI), la virtualisation (serveur et réseau),
la sécurité ou encore l'utilisation de mémoires Flash pour le stockage ont aussi contribué a attiré les investisseurs.
Cette année, le célèbre fond de capital risque Kleiner Perkins
(Amazon, Google, Intel, Waze…), investira à lui seul, plus de 200 millions de dollars dans ces startups visant le marché de l'entreprise.
Parmi les plus grosses levées d'argent du secteur en 2013, on peut citer AirWatch (225 millions), HootSuite (165 millions), Pure Storage et
SevOne (150 millions chacun) ou encore Scality (22 millions) mené
par le Français Jérôme Lecat. Une belle revanche pour un secteur
qui a été durement touché par la crise financière et les coupes des
budgets informatiques de cette dernière décennie.
« C'est cyclique et aujourd'hui, après quelques années d'euphorie
pour les startups mass-market, on assiste à un retour d'intérêt pour
ces startups B2B, avant que ça ne recommence pour le B2C », souligne
Sébastien Lépinard, le fondateur de Next World Capital, un fond
d'investissement basé à San Francisco et qui a investi dans plusieurs startups entreprises comme GoodData, Virtual Instruments,
Host Analytics ou Zuora.
Prochaine étape pour ces nouvelles stars de la Silicon Valley, la
Bourse de New York. Après Exact Target, Jive ou encore Splunk, des
centaines d'autres sont déjà sur les rangs comme Box, Cloudera,
Docusign, Violin Memory, RingCentral ou SugarCRM. « Le cycle de
développement est plus long pour les startups entreprises et notamment celles qui fournissent des produits d'infrastructure comme nous.
Mais aujourd'hui, la fenêtre de lancement est enfin grande ouverte
pour celles qui sont prêtes à s'introduire en Bourse », conclut Philippe
Delansay, le co-fondateur d'Aquantia, qui est le plus gros fabricant
de puces 10 gigabits Ethernet et qui prépare son introduction en
Bourse. 2014 sera donc une très bonne cuvée pour les entrepreneurs
du secteur « pro » !
Mensuel numérique édité par Xpert and Co
Société par actions simplifiée
au capital de 1000 euros
Siège social : 66, avenue des Champs-Élysées 75008 Paris
R.C.S Paris 790 609 507
Rédaction
Adresse de la rédaction
PC Expert / Xpert and Co
104, Boulevard Arago
75014 Paris
[email protected]
Président Directeur Général : Christophe Rodrigues
Directeur de la publication : Christophe Rodrigues
Création graphique / réalisation : Bertrand Grousset
N° 4 09/2013
2,99 €
Comité éditorial
Président d’honneur : Thierry Derouet
Membres : Francis Daliphard, Jean-Marc Delprato, Joscelyn Flores,
Alexandre Marcq, Jean-Paul Mesters, Fernando Miguel, Frédéric
Milliot, Georges Pécontal, Jean-Baptiste Su, Richard Trilling
Rédaction Web
Webmaster : Dev Star Digital
Rédacteurs : Yann Nguyen Van, Cécile Delaporte, Sébastien Langlois
Publicité : Hannah Ensaïbia, Jacqueline Flores
[email protected]
Abonnements : [email protected]
Diffusion : Numérique au format PDF
Dépôt légal : À parution - ISSN 2268-0470
Remerciements à : Biggi Dalaker, Fatih Gezen, David Hassine,
Eddie Leblanc, Adrien Lochon, François Lochon, Luc Masset,
Marc Mitrani, Marie Pinon, Séverine Théry-Perez
4.1
www.pcexpertlemag.fr
Copyright Xpert and Co SAS 2013. Tous droits de reproduction réservés.
Published under license from Ziff Davis, Inc., New York, New York. Some editorial items
appearing in PC Expert were originally published in the U.S. Edition of the pcmag.com and
are the copyrighted property of Ziff Davis, Inc. Copyright© 2013. All Rights Reserved.
La rédaction n’est pas responsable des textes, illustrations et photos qui lui sont communiqués
par leurs auteurs. La reproduction totale ou partielle des articles publiés dans PC Expert est
interdite sans accord écrit de Xpert and Co SAS. Sauf accord particulier, les manuscrits, photos
et dessins adressés à PC Expert, publiés ou non, ne sont ni rendus ni renvoyés. Les indications de
prix et d’adresses figurant dans les pages rédactionnelles sont donnés à titre d’information, sans
aucun but publicitaire.

Documents pareils

Windows Server 2012 Essentials

Windows Server 2012 Essentials reste complexe à appréhender. En cela, notre profession de foi reste fidèle à l’ADN qui a animé cette marque depuis sa création. Décrypter pour mieux choisir et utiliser les nouvelles technologies ...

Plus en détail