Acheter un PC industriel? Oui mais pensez

Transcription

Acheter un PC industriel? Oui mais pensez
F orum
JEAN-CHRISTIAN RERAT - ATEMATION
Acheter un PC industriel? Oui mais pensez
▼
La mise en œuvre d’un projet d’informatique industrielle suscite souvent beaucoup d’interrogations : choix de l’architecture, choix du processeur, du système
d’exploitation… Il y a aussi, et surtout, les contraintes économiques à prendre en
compte. Chaque projet est différent, et en la matière, il n’y a pas de lignes toutes
tracées. Fort de son expérience de plus de 15 ans dans le domaine, Jean-Christian
Rerat, responsable de la division produits chez Atemation, nous livre ses
réflexions sur le sujet.
Mesures. Existe-t-il encore une résistance
au PC industriel?
Jean-Christian Rerat. Plus tellement. En
10 ans, la perception du PC a changé du tout
au tout dans le monde industriel. Nous
sommes passés d’une grande défiance vis-àvis de l’utilisation du PC, y compris dans des
applications à faible criticité, à une totale adhésion au concept du PC industriel qui est utilisé maintenant, sous toutes ses formes, sans
limite aucune. Et il faut reconnaître que si
pendant ces 10 ans l’attitude des utilisateurs
a évolué, c’est bien parce que, objectivement,
tous les éléments ont concouru à l’acceptation
de l’architecture PC dans notre marché.
L’architecture PC est devenue un incontestable
standard qui, comme tout standard, a eu le
tort de faire disparaître les produits de niche
qui répondaient à un besoin spécifique.
Mesures. Quels sont les facteurs qui ont
contribué à cette adoption massive du PC?
Jean-Christian Rerat. Ils sont multiples.Tout
d’abord, le PC est devenu de plus en plus
performant, avec des outils de mise en œuvre
aux caractéristiques impressionnantes. Et cela
avec un rapport puissance/prix s’améliorant
sans cesse. Mais, en même temps, le marché
a demandé et demande de plus en plus de
fonctionnalités. L’environnement économique pousse tous les acteurs de ce marché
à innover sans cesse, avec plus de fonctionnalités et un prix plus bas.
22
Cela dit, le marché industriel n’est pas pour
grand-chose dans cette évolution.Chronologiquement, le PC a démarré avec la bureautique
professionnelle,puis il a attaqué la bureautique
personnelle pour aujourd’hui viser le monde
des appareils domestiques traitant l’image et le
son (le fameux multimédia!) et demain sans
aucun doute l’ensemble de la domotique.
Avec cette évolution, les volumes ont augmenté, les fabricants et les éditeurs ont investi. Résultante naturelle, les coûts d’acquisition matériel ont baissé et le coût d’accès à la
technologie ne cesse de chuter. Processeurs
de plus en plus puissants, capacités mémoires
en augmentation, systèmes d’exploitation
aux fonctionnalités sans cesse améliorées,
outils de développement de plus en plus performants, tout cela est incontestable…
Mesures. Est-ce que tout cela ne va pas un
peu trop vite pour le marché industriel?
Jean-Christian Rerat. Cette course à la puissance, le renouvellement des gammes s’expliquent par le souci des constructeurs d’augmenter la demande sur les marchés grand
public. Le marché industriel recherche au
contraire de la stabilité…
Mais il faut voir malgré tout que ces évolutions intéressent également les marchés
industriels. En effet, dans l’industrie comme
ailleurs, l’équation est basique : il faut faire
mieux, dans un délai plus court et avec des
ressources plus limitées. Et le PC a de solides
MESURES 759 - NOVEMBRE 2003
Forum
atouts pour répondre à ces contraintes.
Pour illustrer cette situation, il faut se retourner sur le passé, qui est toujours porteur
d’enseignement. Il est impressionnant de
mettre en regard les chiffres entre un projet
déployé au début des années 90 et un projet
déployé aujourd’hui. A l’époque, les plannings se pensaient en mois, voire en années;
aujourd’hui, l’unité est la semaine, bientôt
les jours. Les équipes “projets” se comptaient
à demain!
en dizaines de personnes, à mettre en regard
avec les quelques personnes qui, de nos jours,
peuvent s’estimer privilégiées si elles n’ont
qu’un seul projet à traiter. Et les budgets
avaient une forte tendance à l’inflation pour
souvent flirter avec des montants que l’on
qualifierait aujourd’hui de pharaoniques.
Mesures. Malgré tout le PC n’a pas encore
tout emporté sur son passage! Quels sont
à vos yeux ses principaux handicaps?
Jean-Christian Rerat. Un certain nombre
de facteurs de risques se sont insidieusement
ajoutés à l’équation de départ, pour la rendre
d’autant plus complexe qu’il n’est pas toujours simple d’appréhender l’ensemble des
paramètres décisionnels. C’est ainsi que le
secteur industriel habitué à utiliser des solutions pensées pour lui, s’est trouvé obligé de
migrer vers des produits standards qui réduisent indéniablement les coûts d’acquisition
mais obligent à d’autres compromis qu’il n’a
pas toujours été facile d’appréhender par
manque de retour d’expérience.
Mesures.Vous voulez dire que lors de l’acquisition d’un matériel,c’est le prix d’achat
qui prime…
Jean-Christian Rerat. Hélas, oui. Le coût
d’acquisition matériel devient le critère
majeur pour ne pas dire unique car il est le
seul à pouvoir être appréhendé et partagé par
l’ensemble des responsables d’un projet donné. Il faut reconnaître que ce coût d’acquisition est bien plus facile à établir que le coût
global d’un projet qui, par essence, est le
résultat d’un certain nombre d’hypothèses
qu’il n’est pas toujours facile de chiffrer.
Aujourd’hui le mot d’ordre dans l’industrie peut se traduire par : « Puisque nous ne
pouvons pas définir facilement le coût de possession
global d’un projet, puisque le passé nous a prouvé que
MESURES 759 - NOVEMBRE 2003
la plupart du temps on dépassait ce budget, au
moins minimisons le coût d’acquisition produit,
cela sera toujours ça de gagné… ».
Mesures. Cette approche pragmatique
paraît frappée du sceau du bon sens. En
quoi est-elle critiquable?
Jean-Christian Rerat. Cette approche pleine
de bon sens peut en effet se comprendre au
niveau des services achats ou du management
du projet. Par contre, elle devient dramatique,
à mes yeux, quand elle s’impose dès la phase
de conception du produit où les responsables
techniques sont les premiers à ne retenir comme unique critère que le coût d’acquisition
de la solution PC en faisant fi de leurs cahiers
des charges techniques et surtout de l’ensemble des coûts globaux de déploiement de
leurs solutions. Il en résulte souvent des surcoûts de développement pour “compenser”
les impasses ou les oublis (faits en connaissance de cause ou non), et donc des budgets
qui gonflent et des plannings qui glissent.
Autant d’éléments qui viendront alimenter le
fait que les “techniques” ne peuvent pas respecter les contraintes imposées, les coûts budgétés et viendront donc justifier en première
analyse le choix de privilégier le coût d’acquisition matériel. Alors que dans les faits, il
n’est pas rare de s’apercevoir qu’une approche
coût de possession globale aurait, au final,
offert une meilleure solution tant technique
qu’économique.
Autant, au début des années 90, le choix technique était prépondérant et ignorait le facteur
économique. Autant, de nos jours, le facteur
économique s’impose à tous avec tous les excès
dont je viens de parler.Aujourd’hui, le mieux
disant n’existe plus,seul le moins disant a droit
de cité. Et lire un cahier des charges technique
devient presque accessoire tant il faut avant tout
proposer le produit le moins cher.
La vérité est quelque part entre ces deux
extrêmes. Il me semble indispensable que la
fonction technique et la fonction économique
reprennent leur place respective afin d’optimiser le choix d’une solution.
Mesures. Quels sont les risques de privilégier le coût d’acquisition?
Jean-Christian Rerat. Il faut remettre en
perspective une réflexion coût de possession
dès l’origine du projet. Et bien définir quelles
sont les contraintes globales, les objectifs et
les ressources disponibles. Suivant la réponse, l’industriel pourra privilégier une option
coût d’acquisition pour un projet portant sur
plusieurs centaines de cartes ou retenir une
option coût de possession pour quelques
dizaines de cartes.
Mais en privilégiant l’aspect coût d’acquisition, on favorise encore plus la logique de
volume et on appauvrit l’ensemble du marché. Le risque le plus important est de voir les
projets de petits et moyens volumes ne plus
intéresser les fabricants. Pire, ne plus pouvoir être servis par les acteurs du marché
français qui n’auront plus de ressources à
affecter au service de ce type de client.
Aujourd’hui, les constructeurs dans le domaine du PC industriel (qui sont essentiellement
asiatiques avec quelques américains et européens) sont soumis aux mêmes contraintes.
Ils optimisent leurs ressources et se concentrent sur les marchés à grand volume. Et, de
fait, le niveau de support pour les projets
moins importants tend à se restreindre.
Mesures. Revenons-en aux difficultés que
pose la mise en œuvre d’une technologie
PC. Quelles sont-elles?
Jean-Christian Rerat. Je dirais qu’elles sont
de deux ordres : il y a les éléments objectifs
et les éléments subjectifs.
Les éléments objectifs sont les paramètres
classiques liés à tout projet industriel. Dans le
cadre de l’utilisation de l’architecture PC dans
un projet, il est plus simple d’identifier ces
éléments objectifs que d’y apporter la réponse la plus pertinente. Parmi ces éléments de
choix objectifs, on peut citer le choix du processeur et de son constructeur.A moins que
ce ne soit le contraire. Choix du facteur de
forme. Choix du système d’exploitation.
Choix des outils de développement.
Les éléments subjectifs sont les plus difficiles
à identifier. Mais ce sont aussi les plus importants puisque de ces éléments subjectifs vont
découler la réponse que l’utilisateur va apporter aux éléments objectifs. Ils sont induits par
les informations que véhiculent les acteurs
du marché et tous ont leur part de responsabilité sur la qualité et la pertinence de cette information. Moi le premier en ce
moment en abordant ce sujet.
Pour l’utilisateur, c’est une chose de se poser
les bonnes questions. C’en est une autre d’y
apporter les bonnes réponses dans un environnement extrêmement changeant dont la
vérité d’un jour n’est pas forcément celle du
lendemain. L’évolution du monde technologique aujourd’hui l’empêche parfois
d’avoir des convictions pourtant nécessaires
pour lancer les bases d’un projet.
Mesures. Ce n’est donc pas uniquement
l’architecture PC qui est en cause mais
“l’information” véhiculée autour de celle-ci. Serait-elle trop caricaturale?
Jean-Christian Rerat. Prenons l’exemple du
23
Forum
choix du système d’exploitation dans le cadre
d’un projet de PC embarqué. L’élément
objectif est simple à poser.Aujourd’hui, sur
le marché, il existe trois axes de réflexion
possibles. D’un côté la planète Microsoft, de
l’autre le monde Linux et, entre les deux, les
OS spécialisés comme QNX, VxWorks ou
OS9… Ces hypothèses de départ admises,
vient le moment de faire son choix. Nous
avons tous conscience que la réponse est
multiple. Une évidence est que suivant que
l’on privilégie le coût de déploiement ou le
coût de développement, on sera amené à faire un choix différent. Suivant l’importance
des contraintes temps réel ou de taille de la
mémoire de masse, des options s’élimineront d’elles-mêmes. Par contre, tous ces critères objectifs peuvent être gommés par la
perception du marché suite à des annonces
constructeurs, des informations web, des discours des offreurs…
Mesures.Et à cause de cela,l’industriel pourrait être amené à faire un mauvais choix…
Jean-Christian Rerat. Dans certains cas, oui.
Mais n’exagérons pas,généralement,c’est le bon
sens qui l’emporte. Un OEM disposant d’une
équipe de développement en interne et devant
déployer un grand nombre (plusieurs centaines)
de systèmes aura toutes les raisons de retenir
Linux puisque l’économie faite sur le coût des
licences lui permettra de justifier l’investissement en développement nécessaire.A l’inverse
Atemation en bref
Atemation a été créée en 1990 pour servir le
marché des applications critiques et de l’informatique industrielle avec une offre axée
autour de trois lignes de produits : le PC industriel, l’acquisition de données et la supervision. Depuis, la société, tout en restant fidèle à
son approche orientée “coût de possession”, a
fait évoluer son offre produit en développant
des services connexes dans le domaine du
support technique et de l’intégration afin de
mieux répondre aux attentes du marché.
Certifiée ISO 9001:2000, Atemation propose
aujourd’hui des “briques de base” autour de
quatre lignes de produits : “affichage”, télécoms, automatisme et “plates-formes PC” servant trois marchés cibles : le marché de l’industrie, le marché des technologies de
l’information et le marché des applications
embarquées de type COTS.
Pour sa ligne de produits plates-formes PC, Atemation est le distributeur de constructeurs leaders comme Ampro, Radisys, Evalue ou Nexcom
avec la volonté de proposer une offre cohérente
24
un intégrateur aux ressources internes limitées
déployant quelques dizaines d’unités devrait
retenir le système d’exploitation d’un éditeur
renommé qui lui permet, somme toute, de
contrôler ses coûts et ses délais et de privilégier
le succès de son projet. Ces dernières années, il
m’est souvent arrivé de voir des sociétés partant
dans des directions hasardeuses pour s’être focalisées sur le seul coût d’acquisition, peut-être
éblouies par les annonces des constructeurs.
Mesures.Vous parlez du système d’exploitation, mais qu’en est-il du matériel, en
particulier de l’architecture CompactPCI
dont on parle tant?
Jean-Christian Rerat. Force est de constater que
le logiciel est un poste qui a pris de plus en plus
d’importance ces dernières années. Investissement de plus en plus lourd et de moins en
moins facile à cerner.Cela ne simplifie pas pour
autant les choix matériels. Mais le spectre des
possibles est,somme toute,plus réduit une fois
que l’on a pris la décision de retenir l’architecture PC. L’utilisateur devra en gros choisir son
bus,son facteur de forme et son fournisseur.Là
aussi,il est confronté à un grand nombre d’options sans forcément disposer de tous les éléments objectifs pour arrêter son choix.
L’évolution naturelle du positionnement du
CompactPCI ces dernières années est l’illustration de l’interaction entre une technologie et
le marché qu’elle est censée servir. Le CompactPCI est,comme toutes les technologies exis-
et complète dans le domaine des facteurs de
forme : PC104, ETX, 3”1/2, 5”1/4, EBX…, des packagings : boîtiers embarqués, players multimédia, systèmes rackables, serveurs lames haute
disponibilité… et des bus : ISA, PC104, PICMG,
PCI, Multibus, CompactPCI…
La ligne de produits automatismes est un
complément naturel et historique qui sert
essentiellement le marché industriel avec les
“briques acquisition et mesures” de Opto 22
(E/S déportées) et de Data Translation (acquisition de données et d’images) et la “brique
supervision et MES” Cimplicity de GE Fanuc.
La ligne de produit affichage, plus récente,
répond à l’ensemble des critères techniques
et économiques des marchés qui ont besoin
de résoudre des problématiques d’affichages
spécifiques sur écrans plats.
Enfin, la ligne de produits télécoms est
constituée des “briques métiers” de Radisys
(cartes et systèmes télécoms CompactPCI),
de Audiocodes (Voix Sur IP) et d’autres
constructeurs ayant des offres spécialisées
dans les domaines innovants comme le GPRS
ou le 802.11.
tantes dans l’informatique, soumis à l’acceptation en tant que standard sur le marché.Ce format est né de la volonté d’un certain nombre
d’acteurs du PC industriel de développer une
offre leur permettant de capitaliser techniquement et économiquement sur leur compétence pour s’ouvrir un nouveau marché en proposant un facteur de forme plus industriel.
Ce n’est un secret pour personne de dire
que l’objectif était de proposer aux utilisateurs VME/Motorola 6U une alternative économique en leur permettant de bénéficier de
l’ouverture PCI/Intel avec tous ses corollaires : coût d’accès à la technologie réduit,
standards plus ouverts avec donc plus d’offreurs et la concurrence qui en résulte
entraînant une baisse des coûts d’acquisition. Un certain nombre de fabricants de
cartes sur des bus en fin de développement, tant technique que commercial,
comme le STD aux États-Unis ou le G64
en Europe y ont vu un relais de croissance important. Ils ont donc aussi poussé
dans ce sens en développant une offre 3U.
Parallèlement, comme le marché VME 6U
mettait plus de temps à basculer que les
analystes l’avaient prévu (une constante
de nos jours, tellement il est devenu difficile de croiser toutes les informations
disponibles) et que le marché des Télécoms avait une courbe de croissance attirante, le CompactPCI est naturellement
devenu l’architecture centrale des applications Télécoms de la dernière génération. Et la majorité des développements
s’est concentrée pour servir ce segment pour arriver au PICMG 2.16 standard répondant aux contraintes très particulières du monde des Télécoms mais
très éloigné de l’idée de départ.
On retrouve là ce que je vous disais tout à
l’heure. A côté d’une information objective, il y a la perception de cette information,
qui peut être très changeante. C’est ainsi
qu’aujourd’hui, avec le ralentissement dans
le secteur des Télécoms, le CompactPCI est
de nouveau repositionné comme un standard pour les applications industrielles et le
monde de l’embarqué. La question est de
savoir combien de temps ce positionnement
tiendra-t-il. Je ne porte aucun jugement, je
veux juste mettre en exergue la nécessité
pour une offre donnée de trouver son marché. Et pour corollaire la difficulté pour le
marché d’avoir la visibilité nécessaire.
Mesures.Alors quelles sont les alternatives
possibles?
Jean-Christian Rerat. Dans le domaine du
PC embarqué, il existe une multitude de facMESURES 759 - NOVEMBRE 2003
Forum
teurs de formes que l’on peut classer en deux
grandes familles. Les standards officiels, régis
par un comité de normalisation, parmi lesquels on peut citer le format PC/104, EBX,
ou même CompactPCI. Et les standards de
fait comme les cartes 3’’1/2, 5’’1/4 ou encore ETX. Dans les deux cas, cette liste n’est pas
exhaustive. Suivant les contraintes mécaniques et techniques de son projet, le développeur retiendra l’une ou l’autre des solutions. Mais il lui appartiendra de bien analyser
l’ensemble de ses contraintes pour faire ce
choix en connaissance de cause. Sans se faire abuser par le mot standard, qui est souvent galvaudé de nos jours.
Ainsi, il me semble aberrant aujourd’hui de
voir des équipes projets retenir, par exemple,
un facteur de forme 3’’1/2 qui n’offre aucune garantie de compatibilité mécanique si
ce n’est l’empreinte mécanique sur des critères uniquement économiques, alors qu’ils
vont développer un boîtier spécifique à
quelques dizaines d’exemplaires déployés
sur plusieurs années. Dans ce cas, une solution basée sur une carte EBX qui normalise
la connectique serait une solution beaucoup
plus économique et pérenne sur la durée
du projet. Pour gagner quelques centaines
MESURES 759 - NOVEMBRE 2003
d’euros à l’achat, combien de milliers d’euros à dépenser lors de l’évolution vers une
nouvelle carte?
Mesures.Pourquoi tant de difficultés pour
choisir sa plate-forme?
Jean-Christian Rerat. Parce qu’il est difficile
pour les clients de ce marché de faire la part
des choses. A écouter le marché, tous les
produits, toutes les offres sont des standards.
Ce marché en constante évolution rend la
grille de décision complexe à établir et les
choix techniques difficiles à argumenter.
Mesures. Mais pensez-vous vraiment que
la stabilité de la plate-forme est si
importante ?
Jean-Christian Rerat. Oui, je sais, le marché
pense et dit :un PC c’est un PC… Or,si la compatibilité matérielle pour les applications grand
public est un pré-requis du marché,par contre,
dans les métiers industriels, il ne faut pas sousestimer les ressources nécessaires pour valider
une application dans son environnement matériel et logiciel. Pouvoir s’appuyer, d’une part
sur une plate-forme stable, d’autre part sur un
partenaire ayant les moyens de la supporter
devient un point important qui a un coût.C’est
à l’utilisateur de se positionner. Mais si je me
contente de répondre à votre question simplement en parlant de notre expérience, je
dirais qu’elle est fondamentale.En tant que distributeur investissant sur les ressources techniques,il est inutile de faire un dessin.Le fait de
pouvoir travailler avec des produits stables nous
permet de maîtriser le support de ceux-ci. En
effet, on peut dire que dans le monde du PC,
un produit est mature et maîtrisé en 6 à 9 mois.
C’est la durée de vie moyenne d’un produit
classique orienté coût de vente. Il est clair
qu’avec ce type de produit, il est impossible
de capitaliser sur le retour d’expérience et dans
les faits, c’est le client qui “débogue”.
Avec des cartes PC ayant des cycles de vie de
3 à 5 ans, orientées coût de possession, il
est possible de vraiment maîtriser le produit après cette période de “debug” et donc
d’avoir un support technique efficace. C’est
toute la chaîne qui en bénéficie : le commercial, le support technique et le client.
Alors oui, ne serait-ce que parce que c’est
la seule manière d’apporter un support
digne de ce nom au client, je dirais qu’il
est fondamental de pouvoir s’appuyer sur
des constructeurs, ayant pour critère la stabilité produit.
Propos recueillis par Bertrand Braux
25