Acheter un PC industriel? Oui mais pensez
Transcription
Acheter un PC industriel? Oui mais pensez
F orum JEAN-CHRISTIAN RERAT - ATEMATION Acheter un PC industriel? Oui mais pensez ▼ La mise en œuvre d’un projet d’informatique industrielle suscite souvent beaucoup d’interrogations : choix de l’architecture, choix du processeur, du système d’exploitation… Il y a aussi, et surtout, les contraintes économiques à prendre en compte. Chaque projet est différent, et en la matière, il n’y a pas de lignes toutes tracées. Fort de son expérience de plus de 15 ans dans le domaine, Jean-Christian Rerat, responsable de la division produits chez Atemation, nous livre ses réflexions sur le sujet. Mesures. Existe-t-il encore une résistance au PC industriel? Jean-Christian Rerat. Plus tellement. En 10 ans, la perception du PC a changé du tout au tout dans le monde industriel. Nous sommes passés d’une grande défiance vis-àvis de l’utilisation du PC, y compris dans des applications à faible criticité, à une totale adhésion au concept du PC industriel qui est utilisé maintenant, sous toutes ses formes, sans limite aucune. Et il faut reconnaître que si pendant ces 10 ans l’attitude des utilisateurs a évolué, c’est bien parce que, objectivement, tous les éléments ont concouru à l’acceptation de l’architecture PC dans notre marché. L’architecture PC est devenue un incontestable standard qui, comme tout standard, a eu le tort de faire disparaître les produits de niche qui répondaient à un besoin spécifique. Mesures. Quels sont les facteurs qui ont contribué à cette adoption massive du PC? Jean-Christian Rerat. Ils sont multiples.Tout d’abord, le PC est devenu de plus en plus performant, avec des outils de mise en œuvre aux caractéristiques impressionnantes. Et cela avec un rapport puissance/prix s’améliorant sans cesse. Mais, en même temps, le marché a demandé et demande de plus en plus de fonctionnalités. L’environnement économique pousse tous les acteurs de ce marché à innover sans cesse, avec plus de fonctionnalités et un prix plus bas. 22 Cela dit, le marché industriel n’est pas pour grand-chose dans cette évolution.Chronologiquement, le PC a démarré avec la bureautique professionnelle,puis il a attaqué la bureautique personnelle pour aujourd’hui viser le monde des appareils domestiques traitant l’image et le son (le fameux multimédia!) et demain sans aucun doute l’ensemble de la domotique. Avec cette évolution, les volumes ont augmenté, les fabricants et les éditeurs ont investi. Résultante naturelle, les coûts d’acquisition matériel ont baissé et le coût d’accès à la technologie ne cesse de chuter. Processeurs de plus en plus puissants, capacités mémoires en augmentation, systèmes d’exploitation aux fonctionnalités sans cesse améliorées, outils de développement de plus en plus performants, tout cela est incontestable… Mesures. Est-ce que tout cela ne va pas un peu trop vite pour le marché industriel? Jean-Christian Rerat. Cette course à la puissance, le renouvellement des gammes s’expliquent par le souci des constructeurs d’augmenter la demande sur les marchés grand public. Le marché industriel recherche au contraire de la stabilité… Mais il faut voir malgré tout que ces évolutions intéressent également les marchés industriels. En effet, dans l’industrie comme ailleurs, l’équation est basique : il faut faire mieux, dans un délai plus court et avec des ressources plus limitées. Et le PC a de solides MESURES 759 - NOVEMBRE 2003 Forum atouts pour répondre à ces contraintes. Pour illustrer cette situation, il faut se retourner sur le passé, qui est toujours porteur d’enseignement. Il est impressionnant de mettre en regard les chiffres entre un projet déployé au début des années 90 et un projet déployé aujourd’hui. A l’époque, les plannings se pensaient en mois, voire en années; aujourd’hui, l’unité est la semaine, bientôt les jours. Les équipes “projets” se comptaient à demain! en dizaines de personnes, à mettre en regard avec les quelques personnes qui, de nos jours, peuvent s’estimer privilégiées si elles n’ont qu’un seul projet à traiter. Et les budgets avaient une forte tendance à l’inflation pour souvent flirter avec des montants que l’on qualifierait aujourd’hui de pharaoniques. Mesures. Malgré tout le PC n’a pas encore tout emporté sur son passage! Quels sont à vos yeux ses principaux handicaps? Jean-Christian Rerat. Un certain nombre de facteurs de risques se sont insidieusement ajoutés à l’équation de départ, pour la rendre d’autant plus complexe qu’il n’est pas toujours simple d’appréhender l’ensemble des paramètres décisionnels. C’est ainsi que le secteur industriel habitué à utiliser des solutions pensées pour lui, s’est trouvé obligé de migrer vers des produits standards qui réduisent indéniablement les coûts d’acquisition mais obligent à d’autres compromis qu’il n’a pas toujours été facile d’appréhender par manque de retour d’expérience. Mesures.Vous voulez dire que lors de l’acquisition d’un matériel,c’est le prix d’achat qui prime… Jean-Christian Rerat. Hélas, oui. Le coût d’acquisition matériel devient le critère majeur pour ne pas dire unique car il est le seul à pouvoir être appréhendé et partagé par l’ensemble des responsables d’un projet donné. Il faut reconnaître que ce coût d’acquisition est bien plus facile à établir que le coût global d’un projet qui, par essence, est le résultat d’un certain nombre d’hypothèses qu’il n’est pas toujours facile de chiffrer. Aujourd’hui le mot d’ordre dans l’industrie peut se traduire par : « Puisque nous ne pouvons pas définir facilement le coût de possession global d’un projet, puisque le passé nous a prouvé que MESURES 759 - NOVEMBRE 2003 la plupart du temps on dépassait ce budget, au moins minimisons le coût d’acquisition produit, cela sera toujours ça de gagné… ». Mesures. Cette approche pragmatique paraît frappée du sceau du bon sens. En quoi est-elle critiquable? Jean-Christian Rerat. Cette approche pleine de bon sens peut en effet se comprendre au niveau des services achats ou du management du projet. Par contre, elle devient dramatique, à mes yeux, quand elle s’impose dès la phase de conception du produit où les responsables techniques sont les premiers à ne retenir comme unique critère que le coût d’acquisition de la solution PC en faisant fi de leurs cahiers des charges techniques et surtout de l’ensemble des coûts globaux de déploiement de leurs solutions. Il en résulte souvent des surcoûts de développement pour “compenser” les impasses ou les oublis (faits en connaissance de cause ou non), et donc des budgets qui gonflent et des plannings qui glissent. Autant d’éléments qui viendront alimenter le fait que les “techniques” ne peuvent pas respecter les contraintes imposées, les coûts budgétés et viendront donc justifier en première analyse le choix de privilégier le coût d’acquisition matériel. Alors que dans les faits, il n’est pas rare de s’apercevoir qu’une approche coût de possession globale aurait, au final, offert une meilleure solution tant technique qu’économique. Autant, au début des années 90, le choix technique était prépondérant et ignorait le facteur économique. Autant, de nos jours, le facteur économique s’impose à tous avec tous les excès dont je viens de parler.Aujourd’hui, le mieux disant n’existe plus,seul le moins disant a droit de cité. Et lire un cahier des charges technique devient presque accessoire tant il faut avant tout proposer le produit le moins cher. La vérité est quelque part entre ces deux extrêmes. Il me semble indispensable que la fonction technique et la fonction économique reprennent leur place respective afin d’optimiser le choix d’une solution. Mesures. Quels sont les risques de privilégier le coût d’acquisition? Jean-Christian Rerat. Il faut remettre en perspective une réflexion coût de possession dès l’origine du projet. Et bien définir quelles sont les contraintes globales, les objectifs et les ressources disponibles. Suivant la réponse, l’industriel pourra privilégier une option coût d’acquisition pour un projet portant sur plusieurs centaines de cartes ou retenir une option coût de possession pour quelques dizaines de cartes. Mais en privilégiant l’aspect coût d’acquisition, on favorise encore plus la logique de volume et on appauvrit l’ensemble du marché. Le risque le plus important est de voir les projets de petits et moyens volumes ne plus intéresser les fabricants. Pire, ne plus pouvoir être servis par les acteurs du marché français qui n’auront plus de ressources à affecter au service de ce type de client. Aujourd’hui, les constructeurs dans le domaine du PC industriel (qui sont essentiellement asiatiques avec quelques américains et européens) sont soumis aux mêmes contraintes. Ils optimisent leurs ressources et se concentrent sur les marchés à grand volume. Et, de fait, le niveau de support pour les projets moins importants tend à se restreindre. Mesures. Revenons-en aux difficultés que pose la mise en œuvre d’une technologie PC. Quelles sont-elles? Jean-Christian Rerat. Je dirais qu’elles sont de deux ordres : il y a les éléments objectifs et les éléments subjectifs. Les éléments objectifs sont les paramètres classiques liés à tout projet industriel. Dans le cadre de l’utilisation de l’architecture PC dans un projet, il est plus simple d’identifier ces éléments objectifs que d’y apporter la réponse la plus pertinente. Parmi ces éléments de choix objectifs, on peut citer le choix du processeur et de son constructeur.A moins que ce ne soit le contraire. Choix du facteur de forme. Choix du système d’exploitation. Choix des outils de développement. Les éléments subjectifs sont les plus difficiles à identifier. Mais ce sont aussi les plus importants puisque de ces éléments subjectifs vont découler la réponse que l’utilisateur va apporter aux éléments objectifs. Ils sont induits par les informations que véhiculent les acteurs du marché et tous ont leur part de responsabilité sur la qualité et la pertinence de cette information. Moi le premier en ce moment en abordant ce sujet. Pour l’utilisateur, c’est une chose de se poser les bonnes questions. C’en est une autre d’y apporter les bonnes réponses dans un environnement extrêmement changeant dont la vérité d’un jour n’est pas forcément celle du lendemain. L’évolution du monde technologique aujourd’hui l’empêche parfois d’avoir des convictions pourtant nécessaires pour lancer les bases d’un projet. Mesures. Ce n’est donc pas uniquement l’architecture PC qui est en cause mais “l’information” véhiculée autour de celle-ci. Serait-elle trop caricaturale? Jean-Christian Rerat. Prenons l’exemple du 23 Forum choix du système d’exploitation dans le cadre d’un projet de PC embarqué. L’élément objectif est simple à poser.Aujourd’hui, sur le marché, il existe trois axes de réflexion possibles. D’un côté la planète Microsoft, de l’autre le monde Linux et, entre les deux, les OS spécialisés comme QNX, VxWorks ou OS9… Ces hypothèses de départ admises, vient le moment de faire son choix. Nous avons tous conscience que la réponse est multiple. Une évidence est que suivant que l’on privilégie le coût de déploiement ou le coût de développement, on sera amené à faire un choix différent. Suivant l’importance des contraintes temps réel ou de taille de la mémoire de masse, des options s’élimineront d’elles-mêmes. Par contre, tous ces critères objectifs peuvent être gommés par la perception du marché suite à des annonces constructeurs, des informations web, des discours des offreurs… Mesures.Et à cause de cela,l’industriel pourrait être amené à faire un mauvais choix… Jean-Christian Rerat. Dans certains cas, oui. Mais n’exagérons pas,généralement,c’est le bon sens qui l’emporte. Un OEM disposant d’une équipe de développement en interne et devant déployer un grand nombre (plusieurs centaines) de systèmes aura toutes les raisons de retenir Linux puisque l’économie faite sur le coût des licences lui permettra de justifier l’investissement en développement nécessaire.A l’inverse Atemation en bref Atemation a été créée en 1990 pour servir le marché des applications critiques et de l’informatique industrielle avec une offre axée autour de trois lignes de produits : le PC industriel, l’acquisition de données et la supervision. Depuis, la société, tout en restant fidèle à son approche orientée “coût de possession”, a fait évoluer son offre produit en développant des services connexes dans le domaine du support technique et de l’intégration afin de mieux répondre aux attentes du marché. Certifiée ISO 9001:2000, Atemation propose aujourd’hui des “briques de base” autour de quatre lignes de produits : “affichage”, télécoms, automatisme et “plates-formes PC” servant trois marchés cibles : le marché de l’industrie, le marché des technologies de l’information et le marché des applications embarquées de type COTS. Pour sa ligne de produits plates-formes PC, Atemation est le distributeur de constructeurs leaders comme Ampro, Radisys, Evalue ou Nexcom avec la volonté de proposer une offre cohérente 24 un intégrateur aux ressources internes limitées déployant quelques dizaines d’unités devrait retenir le système d’exploitation d’un éditeur renommé qui lui permet, somme toute, de contrôler ses coûts et ses délais et de privilégier le succès de son projet. Ces dernières années, il m’est souvent arrivé de voir des sociétés partant dans des directions hasardeuses pour s’être focalisées sur le seul coût d’acquisition, peut-être éblouies par les annonces des constructeurs. Mesures.Vous parlez du système d’exploitation, mais qu’en est-il du matériel, en particulier de l’architecture CompactPCI dont on parle tant? Jean-Christian Rerat. Force est de constater que le logiciel est un poste qui a pris de plus en plus d’importance ces dernières années. Investissement de plus en plus lourd et de moins en moins facile à cerner.Cela ne simplifie pas pour autant les choix matériels. Mais le spectre des possibles est,somme toute,plus réduit une fois que l’on a pris la décision de retenir l’architecture PC. L’utilisateur devra en gros choisir son bus,son facteur de forme et son fournisseur.Là aussi,il est confronté à un grand nombre d’options sans forcément disposer de tous les éléments objectifs pour arrêter son choix. L’évolution naturelle du positionnement du CompactPCI ces dernières années est l’illustration de l’interaction entre une technologie et le marché qu’elle est censée servir. Le CompactPCI est,comme toutes les technologies exis- et complète dans le domaine des facteurs de forme : PC104, ETX, 3”1/2, 5”1/4, EBX…, des packagings : boîtiers embarqués, players multimédia, systèmes rackables, serveurs lames haute disponibilité… et des bus : ISA, PC104, PICMG, PCI, Multibus, CompactPCI… La ligne de produits automatismes est un complément naturel et historique qui sert essentiellement le marché industriel avec les “briques acquisition et mesures” de Opto 22 (E/S déportées) et de Data Translation (acquisition de données et d’images) et la “brique supervision et MES” Cimplicity de GE Fanuc. La ligne de produit affichage, plus récente, répond à l’ensemble des critères techniques et économiques des marchés qui ont besoin de résoudre des problématiques d’affichages spécifiques sur écrans plats. Enfin, la ligne de produits télécoms est constituée des “briques métiers” de Radisys (cartes et systèmes télécoms CompactPCI), de Audiocodes (Voix Sur IP) et d’autres constructeurs ayant des offres spécialisées dans les domaines innovants comme le GPRS ou le 802.11. tantes dans l’informatique, soumis à l’acceptation en tant que standard sur le marché.Ce format est né de la volonté d’un certain nombre d’acteurs du PC industriel de développer une offre leur permettant de capitaliser techniquement et économiquement sur leur compétence pour s’ouvrir un nouveau marché en proposant un facteur de forme plus industriel. Ce n’est un secret pour personne de dire que l’objectif était de proposer aux utilisateurs VME/Motorola 6U une alternative économique en leur permettant de bénéficier de l’ouverture PCI/Intel avec tous ses corollaires : coût d’accès à la technologie réduit, standards plus ouverts avec donc plus d’offreurs et la concurrence qui en résulte entraînant une baisse des coûts d’acquisition. Un certain nombre de fabricants de cartes sur des bus en fin de développement, tant technique que commercial, comme le STD aux États-Unis ou le G64 en Europe y ont vu un relais de croissance important. Ils ont donc aussi poussé dans ce sens en développant une offre 3U. Parallèlement, comme le marché VME 6U mettait plus de temps à basculer que les analystes l’avaient prévu (une constante de nos jours, tellement il est devenu difficile de croiser toutes les informations disponibles) et que le marché des Télécoms avait une courbe de croissance attirante, le CompactPCI est naturellement devenu l’architecture centrale des applications Télécoms de la dernière génération. Et la majorité des développements s’est concentrée pour servir ce segment pour arriver au PICMG 2.16 standard répondant aux contraintes très particulières du monde des Télécoms mais très éloigné de l’idée de départ. On retrouve là ce que je vous disais tout à l’heure. A côté d’une information objective, il y a la perception de cette information, qui peut être très changeante. C’est ainsi qu’aujourd’hui, avec le ralentissement dans le secteur des Télécoms, le CompactPCI est de nouveau repositionné comme un standard pour les applications industrielles et le monde de l’embarqué. La question est de savoir combien de temps ce positionnement tiendra-t-il. Je ne porte aucun jugement, je veux juste mettre en exergue la nécessité pour une offre donnée de trouver son marché. Et pour corollaire la difficulté pour le marché d’avoir la visibilité nécessaire. Mesures.Alors quelles sont les alternatives possibles? Jean-Christian Rerat. Dans le domaine du PC embarqué, il existe une multitude de facMESURES 759 - NOVEMBRE 2003 Forum teurs de formes que l’on peut classer en deux grandes familles. Les standards officiels, régis par un comité de normalisation, parmi lesquels on peut citer le format PC/104, EBX, ou même CompactPCI. Et les standards de fait comme les cartes 3’’1/2, 5’’1/4 ou encore ETX. Dans les deux cas, cette liste n’est pas exhaustive. Suivant les contraintes mécaniques et techniques de son projet, le développeur retiendra l’une ou l’autre des solutions. Mais il lui appartiendra de bien analyser l’ensemble de ses contraintes pour faire ce choix en connaissance de cause. Sans se faire abuser par le mot standard, qui est souvent galvaudé de nos jours. Ainsi, il me semble aberrant aujourd’hui de voir des équipes projets retenir, par exemple, un facteur de forme 3’’1/2 qui n’offre aucune garantie de compatibilité mécanique si ce n’est l’empreinte mécanique sur des critères uniquement économiques, alors qu’ils vont développer un boîtier spécifique à quelques dizaines d’exemplaires déployés sur plusieurs années. Dans ce cas, une solution basée sur une carte EBX qui normalise la connectique serait une solution beaucoup plus économique et pérenne sur la durée du projet. Pour gagner quelques centaines MESURES 759 - NOVEMBRE 2003 d’euros à l’achat, combien de milliers d’euros à dépenser lors de l’évolution vers une nouvelle carte? Mesures.Pourquoi tant de difficultés pour choisir sa plate-forme? Jean-Christian Rerat. Parce qu’il est difficile pour les clients de ce marché de faire la part des choses. A écouter le marché, tous les produits, toutes les offres sont des standards. Ce marché en constante évolution rend la grille de décision complexe à établir et les choix techniques difficiles à argumenter. Mesures. Mais pensez-vous vraiment que la stabilité de la plate-forme est si importante ? Jean-Christian Rerat. Oui, je sais, le marché pense et dit :un PC c’est un PC… Or,si la compatibilité matérielle pour les applications grand public est un pré-requis du marché,par contre, dans les métiers industriels, il ne faut pas sousestimer les ressources nécessaires pour valider une application dans son environnement matériel et logiciel. Pouvoir s’appuyer, d’une part sur une plate-forme stable, d’autre part sur un partenaire ayant les moyens de la supporter devient un point important qui a un coût.C’est à l’utilisateur de se positionner. Mais si je me contente de répondre à votre question simplement en parlant de notre expérience, je dirais qu’elle est fondamentale.En tant que distributeur investissant sur les ressources techniques,il est inutile de faire un dessin.Le fait de pouvoir travailler avec des produits stables nous permet de maîtriser le support de ceux-ci. En effet, on peut dire que dans le monde du PC, un produit est mature et maîtrisé en 6 à 9 mois. C’est la durée de vie moyenne d’un produit classique orienté coût de vente. Il est clair qu’avec ce type de produit, il est impossible de capitaliser sur le retour d’expérience et dans les faits, c’est le client qui “débogue”. Avec des cartes PC ayant des cycles de vie de 3 à 5 ans, orientées coût de possession, il est possible de vraiment maîtriser le produit après cette période de “debug” et donc d’avoir un support technique efficace. C’est toute la chaîne qui en bénéficie : le commercial, le support technique et le client. Alors oui, ne serait-ce que parce que c’est la seule manière d’apporter un support digne de ce nom au client, je dirais qu’il est fondamental de pouvoir s’appuyer sur des constructeurs, ayant pour critère la stabilité produit. Propos recueillis par Bertrand Braux 25