Solution d`entreprise Hadoop, pour libérer tout le potentiel d`Apache
Transcription
Solution d`entreprise Hadoop, pour libérer tout le potentiel d`Apache
Brochure Solution Hadoop pour les entreprises Pour libérer tout le potentiel d'Apache Hadoop et évoluer sans compromis Brochure Page 2 Alors que beaucoup d'entreprises s'efforcent toujours d'identifier la valeur du Big Data, d'autres recherchent désormais des systèmes d'analyse plus agiles et fonctionnels. Apache Hadoop est un cadre logiciel permettant de réaliser des économies substantielles et d'optimiser le stockage et le traitement des données à grande échelle. Nombre d'entreprises exploitent Hadoop en tant que référentiel de données pour les charges de travail simples. Mais Hadoop peut être beaucoup plus utile dans le domaine de l'interaction avec les données et pour découvrir de nouvelles informations sur lesquelles l'entreprise pourra s'appuyer. Mais certains défis peuvent limiter le potentiel de la solution et les opportunités. Hewlett Packard Enterprise a donc développé une solution qui résout ces problèmes via une offre solide mais flexible, en proposant une base centrée sur les données évolutive et extensible en fonction des besoins de votre entreprise. Les défis informatiques d'aujourd’hui Les données sont le moteur de l'économie des idées. Mais pour exploiter l'ensemble des données pertinentes, vous devez utiliser de nouvelles solutions pour obtenir de meilleurs résultats. Au cours des 10 dernières années, la solution Hadoop est devenue un moteur et un réservoir essentiels, supporté par une foule de développeurs, spécialistes des données et professionnels informatiques. Même si Hadoop a fonctionné pour certains grands visionnaires, son utilisation a souvent été limitée à des expérimentations scientifiques, à des charges de travail simples et à des projets pilotes. Hewlett Packard Enterprise comprend les défis et les opportunités de la solution Hadoop et peut permettre à votre entreprise de l'utiliser comme pierre angulaire de votre plateforme de données. 60 % de performances HDFS1 100 % de vos données pertinentes 8 fois Analyses plus rapides2 DÉFIS CLIENT BESOINS DU CLIENT Incapacité des technologies existantes à gérer la croissance des données : la plupart des données disponibles aujourd'hui ont été générées au cours des deux dernières années, et présentent différentes sources et différents types. Les architectures, les bases de données et les approches concernant la gestion des données atteignent leurs limites. Une étude montre que 41 % des entreprises sondées ont remarqué que leurs systèmes n'étaient pas capables de traiter de grands volumes de données provenant de différentes sources.3 Référentiel consolidé, évolutif et économique pour le Big Data : les entreprises ont besoin d'un site centralisé via Hadoop pour stocker et gérer de manière abordable une large gamme de données : données d'entreprise, libérées de la structure rigide des bases de données traditionnelles, mais aussi données structurées, semi-structurées et non structurées. Elles doivent aussi exploiter le langage SQL standard et des outils plus complexes. Extensibilité sans compromis de la solution Hadoop : les entreprises veulent profiter de tout le potentiel de leurs investissements Hadoop et faire évoluer leurs lacs de données. Cependant, Hadoop n'inclut aucune capacité d'analyse ni optimisation des performances pour les charges de travail complexes, et le manque de sécurité accompagnant toute extension augmente les risques. Gestion des charges de travail, performance, disponibilité et sécurité adaptées aux entreprises : des solutions flexibles mais robustes, s'appuyant sur une infrastructure et des technologies d'analyse éprouvées, utilisant les requêtes SQL ANSI et leurs résultats avec des niveaux de calcul, de stockage et d'analyse adaptés aux cas d'utilisation. Sécurité intégrée à Hadoop pour protéger vos données en mouvement, au repos et en cours d'utilisation. Savoir optimiser le potentiel de la solution Hadoop : les entreprises ont du mal à identifier les projets et les cas d'utilisation adéquats pour tirer le meilleur parti de la solution Hadoop. Le cadre de la solution Hadoop autorise de nombreuses charges de travail et cas d'utilisation, mais les entreprises peinent à déterminer les charges à exécuter et à évaluer l'impact sur l'entreprise. Un partenaire qui comprend votre entreprise et qui a l'expérience des environnements informatiques hétérogènes et complexes : votre entreprise a besoin d'accéder aux cas d'utilisation éprouvés de la solution Hadoop, de les hiérarchiser et de les intégrer aux applications existantes et à l'environnement plus large d'analyse et de business intelligence. Les environnements informatiques sont complexes et requièrent un partenaire expérimenté pour résoudre ces défis. Proposition de valeur 1 « HPE Big Data Reference Architecture: A Modern Approach », 4AA5-6141ENW, octobre 2015, rév. 2 2 Étude interne de HPE. 3 « Capitalizing on the promise of Big Data », document PWC, janvier 2013. Hewlett Packard Enterprise comprend vos exigences pour non seulement survivre mais aussi réussir dans un monde régi par l'économie des idées. Les idées doivent déboucher sur des expériences réussies, puis devenir des solutions d'entreprise pleinement opérationnelles. Cette transformation en deux étapes nécessite de convertir les données en informations sur lesquelles l'entreprise pourra s'appuyer pour améliorer ses résultats. Hewlett Packard Enterprise a la capacité de s'associer avec vous pour révéler le potentiel de vos données. Nous pouvons vous aider à concevoir une base capable de transformer les données en informations utilisables rapidement par l'entreprise, en plaçant la solution Hadoop au centre de votre stratégie d'analyse Big Data. Brochure Page 3 Expertise dans la solution Hadoop : Hewlett Packard Enterprise a optimisé tous les aspects de l'environnement Hadoop pour permettre à ses clients d'exécuter plusieurs applications et consolider plusieurs magasins de données au sein d'un même système. Les architectures de référence HPE ont été développées pour s'adapter aux nouvelles demandes, et vous permettre de faire évoluer indépendamment la puissance de calcul et le stockage, en rompant la chaîne standard de calcul et de stockage du nœud local de Hadoop et en optimisant les architectures traditionnelles. Ces avancées vos permettent de tirer profit de YARN, Spark, Kafka, Mahout, et bien sûr des modules de base Hive, HBase, MapReduce, et Hadoop Database File System (HDFS). De plus, Hewlett Packard Enterprise propose des logiciels de pointe apportant des fonctions supplémentaires via Vertica pour SQL sur Apache Hadoop, Vertica Enterprise Edition pour les analyses prédictives et une gamme de suites de gouvernance, de gestion des informations et de sécurité des données dédiées aux entreprises. Alors que la solution Hadoop a rapidement suscité l'intérêt en tant que technologie open source sur le marché du Big Data et des analyses, comme nous l'avons vu avec la révolution des données, plusieurs défis importants sont apparus. Même lorsqu'elles sont sécurisées et fiabilisées, les implémentations Hadoop présentent des défis très complexes en termes de planification, de déploiement et de gestion à long terme. Il existe actuellement sur le marché un manque de compétences sur cette solution. Les défis présentés par ce manque de compétences sont amplifiés par l'évolution continue de la pile technologique Hadoop, imposant des degrés supérieurs de difficulté et d'incertitude. Hewlett Packard Enterprise a une approche éprouvée en quatre étapes de l'implémentation de systèmes de données ou d'analyse complexes : découverte, développement, intégration et implémentation. Cette stratégie a accompagné de nombreux clients à travers le monde, petites et grandes entreprises, et les a aidés à optimiser la valeur de la solution Hadoop pour obtenir de meilleurs résultats. Talent d'analyse à la portée mondiale : Hewlett Packard Enterprise met en œuvre des solutions critiques pour les clients du monde entier via nos 3 500 experts en analyse, dont l'expérience avoisine en moyenne 18 ans, et qui sont répartis sur nos 9 centres d'excellence en analyse sur les 4 continents. Solutions intégrées : Hewlett Packard Enterprise propose une gamme puissante de produits, d'architectures ouvertes et services standard, ainsi qu'une expérience éprouvée. Ces éléments vous permettent d'intégrer des analyses aux processus standard et aux flux de travail pour vous aider à agir en toute connaissance de cause sans vous enfermer dans des solutions propriétaires rigides dont les retours diminuent avec le temps. SAP® HANA HPE Vertica for SQL on Apache Hadoop® HPE IDOL Gouvernance des informations HPE HPE SecureData pour Apache Hadoop Hadoop (distributions Hortonworks, Cloudera et MapR) Architectures de stockage et de calcul symétrique et asymétrique HPE Options de déploiement du cloud hybride et sur site Figure 1 : Présentation de la solution Service d'intégration HPE pour Hadoop 18 + de ans d'expérience en analyse Architecture de référence pour les analyses du Big Data 1 200 + de professionnels de l'analyse dans le monde Services de conseil en analyse HPE pour Hadoop Brochure Solution Hadoop pour les entreprises Les experts s'accordent à dire que Hadoop doit être au cœur d'une solution centrée sur les données capable de gérer les volumes importants de données allant du téraoctet au pétaoctet et tous types (informatiques, humaines et données d'entreprises traditionnelles). HDFS sera la destination du lac de données pour les données extraites des bases de données schématiques existantes, mais aussi des nouvelles sources de données moins structurées et plus variées provenant des réseaux sociaux, des fichiers journaux et d'autres nouvelles sources Big Data. Hewlett Packard Enterprise s'appuie sur l'open source pour mettre en œuvre la solution Hadoop d'entreprise. COMPOSANTS DE LA DESCRIPTION SOLUTION Solution HPE en tant que service pour Hadoop La solution HPE en tant que service pour Hadoop est une plateforme Big Data open source pour les entreprises. Elle fonctionne sur un modèle de déploiement et de consommation basé sur le cloud et disponible en tant que service, en plus de nos solutions hébergées et sur site. Notre solution fournit aux clients une plateforme Hadoop configurée sur le cloud HPE Helion, sans coûts initiaux élevés, de risques lors de l'implémentation ni de licences coûteuses. Les ressources informatiques sont libérées et peuvent se concentrer sur l'atteinte des objectifs métier. Proposant des options de charges de travail hiérarchisées, la solution offre la flexibilité de s'adapter aux changements, tout en réduisant les risques d'obsolescence technologique. La solution HPE en tant que service pour Hadoop peut être étendue pour inclure la fonction de base de données et d'analyse de HPE Vertica afin de gérer de grands ensembles de données quasiment en temps réel, et IDOL pour traiter toutes les formes de données non structurées. Services de conseil en Les services de conseil en analyse HPE peuvent vous aider à déterminer la valeur de vos données en quelques heures au lieu de semaines. Nous pouvons vous aider à identifier analyse HPE les composants appropriés d'une solution basée sur les données, à exécuter les analyses à partir de cette solution au moment opportun dans le cadre de vos processus métier, et à l'implémenter. Nous permettrons à votre entreprise de déterminer l'association optimale entre les investissements existants BI et Enterprise Data Warehouse (EDW), à équilibrer les investissements en temps réel par rapport à l'analyse par lots, et à implémenter Hadoop en tant que lac de données et plateforme d'analyse. Hadoop Hadoop est un cadre logiciel modulaire open source Apache, pour la gestion et l'analyse du Big Data (jusqu'à plusieurs pétaoctets de données) sur un matériel standard ouvert. Services d'intégration à la base Hadoop centrée sur les données Les services HPE de découverte et de transformation pour Hadoop vous aideront à développer : une approche formelle et structurée de la découverte et de l'analyse des données, incluant une méthodologie structurée et l'utilisation d'outils spécialisés de visualisation et de partage des données dans le cadre d'une plateforme intégrée. Ils vous aideront également à améliorer les compétences de vos ressources et les méthodes de collaboration, et vous informerons des meilleures pratiques pour une expérimentation ambitieuse et économique. Les services HPE d'intégration pour Hadoop vous permettent d'optimiser et de moderniser votre infrastructure, et gèrent vos autres exigences système pour apporter des fonctions d'entreprise à votre plateforme Hadoop. HPE IDOL 10 Grâce à HPE Intelligent Data Operating Layer (IDOL), vous pouvez accéder aux pétaoctets d'informations humaines de votre lac de données HDFS, les analyser, les comprendre et les exploiter pour agir en toute connaissance de cause. Ceci est réalisé non seulement contextuellement mais aussi dans plusieurs langues, à partir de quasiment n'importe quelle source (sur le cloud ou sur site), et via 500 fonctions d'analyse à appliquer sur les données textuelles, image, audio, vidéo, de réseaux sociaux et structurées, stockées au sein des bases de données. IDOL est fourni avec des connecteurs à plus de 1 000 formats de fichiers standard et 400 interfaces d'applications et de bases de données. IDOL peut être utilisé avec Hadoop pour catégoriser, indexer et analyser votre lac de données Hadoop. HPE Vertica pour SQL Solution dédiée aux entreprises, HPE Vertica pour SQL sur Apache vous permet d'effectuer les requêtes SQL sur vos données Hadoop en vous fournissant une syntaxe SQL ANSI sur Apache Hadoop complète sur MapR, Hortonworks et Cloudera. Grâce à HPE Vertica pour SQL sur Apache Hadoop, vos analystes d'entreprise, spécialistes des données et développeurs bénéficient immédiatement d'une intégration de vos outils traditionnels de business intelligence et d'un accès aux derniers outils de visualisation et d'analyse standard de l'industrie. HPE Vertica propose une solution d'analyse avancée conçue pour les entreprises, conforme à SQL ANSI et au concept ACID (Atomicity, Consistency, Isolation, Durability), et qui prend en charge les types de données complexes et les autres fonctions uniquement disponibles via notre implémentation SQL sur Hadoop. Elle offre des optimisations telles que la compression, le stockage en colonnes, et des projections, pour des niveaux de performance dépassant ceux du SQL standard sur Hadoop. Architectures de référence pour Hadoop Pour réduire le risque et optimiser les ressources humaines, financières et de datacenter, il est essentiel d'employer l'architecture adaptée à vos cas d'utilisation Hadoop : Hive, SQL, traitement en mémoire de Spark, données de diffusion Kafka, apprentissage automatique Mahout, etc. Hewlett Packard Enterprise dispose d'une multitude d'architectures de référence prenant en charge l'optimisation des charges de travail pour Hadoop basée sur l'association de Moonshot, HPE Apollo 2000 et 4000 Gen9 et les serveurs ProLiant XL, qui équilibrent les exigences en termes de puissance de calcul pour les clusters Hadoop avec les trois distributions Hadoop : MapR, Hortonworks et Cloudera. L'architecture de référence Minotaur étend les architectures de référence exclusives Hadoop pour incorporer SAP HANA, HPE Vertica et HPE IDOL. Services financiers HPE Pour équilibrer votre nouveau lac de données et votre solution d'analyse Hadoop avec votre infrastructure existante et votre environnement, vous avez besoin d'une flexibilité financière. Le financement vous aide à répondre aux changements tout au long du processus d'implémentation, à innover et à aligner les coûts à votre utilisation. De plus, les services financiers HPE réduisent les risques en termes de réglementation et de réputation associés au retrait de vos équipements hérités, via les services HPE de récupération des ressources. HPE SecureData HPE SecureData est une stratégie de sécurité centrée sur les données pour Hadoop, qui chiffre les données et crée des jetons. Elle désidentifie les données le plus près de la source, transforme les données sensibles en éléments équivalents utilisables mais désidentifiés conservant le format, le comportement et la signification des données d'origine. Cette forme de données sécurisée peut ensuite être utilisée dans les applications adaptées, moteurs d'analyse, transferts de données et magasins de données, tout en étant réidentifiés pour ces applications spécifiques et les utilisateurs qui le requièrent. HPE SecureData protège un nombre quasiment illimité de types d'informations au niveau des données. Optimisez votre stratégie d'investissement informatique grâce à de nouvelles manières d'acheter, de payer et d'utiliser la technologie, adaptées à vos objectifs métier et de transformation. hpe.com/solutions/hpefinancialservices Et maintenant ? Planifiez un atelier de transformation. Contactez votre représentant HPE à propos de votre souhait de vous inscrire à un atelier de transformation. En savoir plus sur hpe.com/us/en/solutions/empower-data-driven.html Abonnez-vous sur © Copyright 2016 Hewlett Packard Enterprise Development LP. Les informations contenues dans le présent document peuvent être modifiées à tout moment et sans préavis. Les seules garanties applicables aux produits et aux services Hewlett Packard Enterprise sont stipulées dans les déclarations de garantie explicites qui accompagnent ces produits ou ces services. Aucune information du présent document ne saurait être considérée comme constituant une garantie complémentaire. Hewlett Packard Enterprise décline toute responsabilité quant aux éventuelles erreurs ou omissions techniques ou rédactionnelles qui pourraient être constatées dans le présent document. SAP est une marque commerciale ou déposée de SAP SE en Allemagne et dans plusieurs autres pays. Apache Hadoop et Hadoop sont des marques commerciales ou déposées appartenant à Apache Software Foundation aux États-Unis et dans d’autres pays. 4AA6-3745FRE, mai 2016, révision 2