Solution d`entreprise Hadoop, pour libérer tout le potentiel d`Apache

Transcription

Solution d`entreprise Hadoop, pour libérer tout le potentiel d`Apache
Brochure
Solution Hadoop pour
les entreprises
Pour libérer tout le potentiel d'Apache Hadoop et évoluer
sans compromis
Brochure
Page 2
Alors que beaucoup d'entreprises s'efforcent toujours d'identifier la valeur du Big Data,
d'autres recherchent désormais des systèmes d'analyse plus agiles et fonctionnels. Apache
Hadoop est un cadre logiciel permettant de réaliser des économies substantielles et
d'optimiser le stockage et le traitement des données à grande échelle. Nombre d'entreprises
exploitent Hadoop en tant que référentiel de données pour les charges de travail simples.
Mais Hadoop peut être beaucoup plus utile dans le domaine de l'interaction avec les
données et pour découvrir de nouvelles informations sur lesquelles l'entreprise pourra
s'appuyer. Mais certains défis peuvent limiter le potentiel de la solution et les opportunités.
Hewlett Packard Enterprise a donc développé une solution qui résout ces problèmes via
une offre solide mais flexible, en proposant une base centrée sur les données évolutive et
extensible en fonction des besoins de votre entreprise.
Les défis informatiques d'aujourd’hui
Les données sont le moteur de l'économie des idées. Mais pour exploiter l'ensemble des
données pertinentes, vous devez utiliser de nouvelles solutions pour obtenir de meilleurs
résultats. Au cours des 10 dernières années, la solution Hadoop est devenue un moteur et
un réservoir essentiels, supporté par une foule de développeurs, spécialistes des données
et professionnels informatiques. Même si Hadoop a fonctionné pour certains grands
visionnaires, son utilisation a souvent été limitée à des expérimentations scientifiques, à des
charges de travail simples et à des projets pilotes. Hewlett Packard Enterprise comprend
les défis et les opportunités de la solution Hadoop et peut permettre à votre entreprise de
l'utiliser comme pierre angulaire de votre plateforme de données.
60 %
de performances HDFS1
100 %
de vos données pertinentes
8 fois
Analyses
plus rapides2
DÉFIS CLIENT
BESOINS DU CLIENT
Incapacité des technologies existantes à gérer la croissance
des données : la plupart des données disponibles aujourd'hui ont
été générées au cours des deux dernières années, et présentent
différentes sources et différents types. Les architectures, les
bases de données et les approches concernant la gestion des
données atteignent leurs limites. Une étude montre que 41 % des
entreprises sondées ont remarqué que leurs systèmes n'étaient
pas capables de traiter de grands volumes de données provenant
de différentes sources.3
Référentiel consolidé, évolutif et économique pour le Big Data :
les entreprises ont besoin d'un site centralisé via Hadoop pour
stocker et gérer de manière abordable une large gamme de
données : données d'entreprise, libérées de la structure rigide des
bases de données traditionnelles, mais aussi données structurées,
semi-structurées et non structurées. Elles doivent aussi exploiter le
langage SQL standard et des outils plus complexes.
Extensibilité sans compromis de la solution Hadoop :
les entreprises veulent profiter de tout le potentiel de leurs
investissements Hadoop et faire évoluer leurs lacs de données.
Cependant, Hadoop n'inclut aucune capacité d'analyse ni
optimisation des performances pour les charges de travail
complexes, et le manque de sécurité accompagnant toute
extension augmente les risques.
Gestion des charges de travail, performance, disponibilité et
sécurité adaptées aux entreprises : des solutions flexibles mais
robustes, s'appuyant sur une infrastructure et des technologies
d'analyse éprouvées, utilisant les requêtes SQL ANSI et leurs
résultats avec des niveaux de calcul, de stockage et d'analyse
adaptés aux cas d'utilisation. Sécurité intégrée à Hadoop
pour protéger vos données en mouvement, au repos et
en cours d'utilisation.
Savoir optimiser le potentiel de la solution Hadoop :
les entreprises ont du mal à identifier les projets et les cas
d'utilisation adéquats pour tirer le meilleur parti de la solution
Hadoop. Le cadre de la solution Hadoop autorise de nombreuses
charges de travail et cas d'utilisation, mais les entreprises peinent à
déterminer les charges à exécuter et à évaluer l'impact
sur l'entreprise.
Un partenaire qui comprend votre entreprise et qui a
l'expérience des environnements informatiques hétérogènes
et complexes : votre entreprise a besoin d'accéder aux cas
d'utilisation éprouvés de la solution Hadoop, de les hiérarchiser et
de les intégrer aux applications existantes et à l'environnement plus
large d'analyse et de business intelligence. Les environnements
informatiques sont complexes et requièrent un partenaire
expérimenté pour résoudre ces défis.
Proposition de valeur
1
« HPE Big Data Reference Architecture: A Modern
Approach », 4AA5-6141ENW, octobre 2015, rév. 2
2
Étude interne de HPE.
3
« Capitalizing on the promise of Big Data »,
document PWC, janvier 2013.
Hewlett Packard Enterprise comprend vos exigences pour non seulement survivre mais aussi
réussir dans un monde régi par l'économie des idées. Les idées doivent déboucher sur des
expériences réussies, puis devenir des solutions d'entreprise pleinement opérationnelles.
Cette transformation en deux étapes nécessite de convertir les données en informations
sur lesquelles l'entreprise pourra s'appuyer pour améliorer ses résultats. Hewlett Packard
Enterprise a la capacité de s'associer avec vous pour révéler le potentiel de vos données.
Nous pouvons vous aider à concevoir une base capable de transformer les données en
informations utilisables rapidement par l'entreprise, en plaçant la solution Hadoop au centre
de votre stratégie d'analyse Big Data.
Brochure
Page 3
Expertise dans la solution Hadoop : Hewlett Packard Enterprise a optimisé tous les aspects
de l'environnement Hadoop pour permettre à ses clients d'exécuter plusieurs applications et
consolider plusieurs magasins de données au sein d'un même système. Les architectures de
référence HPE ont été développées pour s'adapter aux nouvelles demandes, et vous permettre
de faire évoluer indépendamment la puissance de calcul et le stockage, en rompant la chaîne
standard de calcul et de stockage du nœud local de Hadoop et en optimisant les architectures
traditionnelles. Ces avancées vos permettent de tirer profit de YARN, Spark, Kafka, Mahout,
et bien sûr des modules de base Hive, HBase, MapReduce, et Hadoop Database File System
(HDFS). De plus, Hewlett Packard Enterprise propose des logiciels de pointe apportant des
fonctions supplémentaires via Vertica pour SQL sur Apache Hadoop, Vertica Enterprise
Edition pour les analyses prédictives et une gamme de suites de gouvernance, de gestion des
informations et de sécurité des données dédiées aux entreprises.
Alors que la solution Hadoop a rapidement suscité l'intérêt en tant que technologie open
source sur le marché du Big Data et des analyses, comme nous l'avons vu avec la révolution
des données, plusieurs défis importants sont apparus. Même lorsqu'elles sont sécurisées et
fiabilisées, les implémentations Hadoop présentent des défis très complexes en termes de
planification, de déploiement et de gestion à long terme. Il existe actuellement sur le marché
un manque de compétences sur cette solution. Les défis présentés par ce manque de
compétences sont amplifiés par l'évolution continue de la pile technologique Hadoop, imposant
des degrés supérieurs de difficulté et d'incertitude.
Hewlett Packard Enterprise a une approche éprouvée en quatre étapes de l'implémentation
de systèmes de données ou d'analyse complexes : découverte, développement, intégration et
implémentation. Cette stratégie a accompagné de nombreux clients à travers le monde, petites
et grandes entreprises, et les a aidés à optimiser la valeur de la solution Hadoop pour obtenir
de meilleurs résultats.
Talent d'analyse à la portée mondiale : Hewlett Packard Enterprise met en œuvre des
solutions critiques pour les clients du monde entier via nos 3 500 experts en analyse, dont
l'expérience avoisine en moyenne 18 ans, et qui sont répartis sur nos 9 centres d'excellence en
analyse sur les 4 continents.
Solutions intégrées : Hewlett Packard Enterprise propose une gamme puissante de produits,
d'architectures ouvertes et services standard, ainsi qu'une expérience éprouvée. Ces éléments
vous permettent d'intégrer des analyses aux processus standard et aux flux de travail pour
vous aider à agir en toute connaissance de cause sans vous enfermer dans des solutions
propriétaires rigides dont les retours diminuent avec le temps.
SAP® HANA
HPE Vertica
for SQL on
Apache Hadoop®
HPE IDOL
Gouvernance
des informations
HPE
HPE SecureData pour Apache Hadoop
Hadoop (distributions Hortonworks, Cloudera et MapR)
Architectures de stockage et de calcul
symétrique et asymétrique HPE
Options de déploiement du cloud hybride et sur site
Figure 1 : Présentation de la solution
Service d'intégration HPE
pour Hadoop
18
+ de
ans d'expérience
en analyse
Architecture de référence pour
les analyses du Big Data
1 200
+ de
professionnels de l'analyse
dans le monde
Services de conseil en analyse HPE pour Hadoop
Brochure
Solution Hadoop pour les entreprises
Les experts s'accordent à dire que Hadoop doit être au cœur d'une solution centrée sur les données capable de gérer les volumes
importants de données allant du téraoctet au pétaoctet et tous types (informatiques, humaines et données d'entreprises
traditionnelles). HDFS sera la destination du lac de données pour les données extraites des bases de données schématiques
existantes, mais aussi des nouvelles sources de données moins structurées et plus variées provenant des réseaux sociaux, des
fichiers journaux et d'autres nouvelles sources Big Data. Hewlett Packard Enterprise s'appuie sur l'open source pour mettre en
œuvre la solution Hadoop d'entreprise.
COMPOSANTS DE LA DESCRIPTION
SOLUTION
Solution HPE
en tant que service
pour Hadoop
La solution HPE en tant que service pour Hadoop est une plateforme Big Data open source pour les entreprises. Elle fonctionne sur un modèle de déploiement et de consommation
basé sur le cloud et disponible en tant que service, en plus de nos solutions hébergées et sur site. Notre solution fournit aux clients une plateforme Hadoop configurée sur le
cloud HPE Helion, sans coûts initiaux élevés, de risques lors de l'implémentation ni de licences coûteuses. Les ressources informatiques sont libérées et peuvent se concentrer sur
l'atteinte des objectifs métier. Proposant des options de charges de travail hiérarchisées, la solution offre la flexibilité de s'adapter aux changements, tout en réduisant les risques
d'obsolescence technologique.
La solution HPE en tant que service pour Hadoop peut être étendue pour inclure la fonction de base de données et d'analyse de HPE Vertica afin de gérer de grands ensembles de
données quasiment en temps réel, et IDOL pour traiter toutes les formes de données non structurées.
Services de conseil en Les services de conseil en analyse HPE peuvent vous aider à déterminer la valeur de vos données en quelques heures au lieu de semaines. Nous pouvons vous aider à identifier
analyse HPE
les composants appropriés d'une solution basée sur les données, à exécuter les analyses à partir de cette solution au moment opportun dans le cadre de vos processus métier, et à
l'implémenter. Nous permettrons à votre entreprise de déterminer l'association optimale entre les investissements existants BI et Enterprise Data Warehouse (EDW), à équilibrer les
investissements en temps réel par rapport à l'analyse par lots, et à implémenter Hadoop en tant que lac de données et plateforme d'analyse.
Hadoop
Hadoop est un cadre logiciel modulaire open source Apache, pour la gestion et l'analyse du Big Data (jusqu'à plusieurs pétaoctets de données) sur un matériel standard ouvert.
Services d'intégration
à la base Hadoop
centrée sur
les données
Les services HPE de découverte et de transformation pour Hadoop vous aideront à développer : une approche formelle et structurée de la découverte et de l'analyse des données,
incluant une méthodologie structurée et l'utilisation d'outils spécialisés de visualisation et de partage des données dans le cadre d'une plateforme intégrée. Ils vous aideront
également à améliorer les compétences de vos ressources et les méthodes de collaboration, et vous informerons des meilleures pratiques pour une expérimentation ambitieuse et
économique.
Les services HPE d'intégration pour Hadoop vous permettent d'optimiser et de moderniser votre infrastructure, et gèrent vos autres exigences système pour apporter des fonctions
d'entreprise à votre plateforme Hadoop.
HPE IDOL 10
Grâce à HPE Intelligent Data Operating Layer (IDOL), vous pouvez accéder aux pétaoctets d'informations humaines de votre lac de données HDFS, les analyser, les comprendre et les
exploiter pour agir en toute connaissance de cause. Ceci est réalisé non seulement contextuellement mais aussi dans plusieurs langues, à partir de quasiment n'importe quelle source
(sur le cloud ou sur site), et via 500 fonctions d'analyse à appliquer sur les données textuelles, image, audio, vidéo, de réseaux sociaux et structurées, stockées au sein des bases de
données. IDOL est fourni avec des connecteurs à plus de 1 000 formats de fichiers standard et 400 interfaces d'applications et de bases de données. IDOL peut être utilisé avec
Hadoop pour catégoriser, indexer et analyser votre lac de données Hadoop.
HPE Vertica pour SQL Solution dédiée aux entreprises, HPE Vertica pour SQL sur Apache vous permet d'effectuer les requêtes SQL sur vos données Hadoop en vous fournissant une syntaxe SQL ANSI
sur Apache Hadoop complète sur MapR, Hortonworks et Cloudera. Grâce à HPE Vertica pour SQL sur Apache Hadoop, vos analystes d'entreprise, spécialistes des données et développeurs bénéficient
immédiatement d'une intégration de vos outils traditionnels de business intelligence et d'un accès aux derniers outils de visualisation et d'analyse standard de l'industrie. HPE Vertica
propose une solution d'analyse avancée conçue pour les entreprises, conforme à SQL ANSI et au concept ACID (Atomicity, Consistency, Isolation, Durability), et qui prend en charge
les types de données complexes et les autres fonctions uniquement disponibles via notre implémentation SQL sur Hadoop. Elle offre des optimisations telles que la compression, le
stockage en colonnes, et des projections, pour des niveaux de performance dépassant ceux du SQL standard sur Hadoop.
Architectures
de référence
pour Hadoop
Pour réduire le risque et optimiser les ressources humaines, financières et de datacenter, il est essentiel d'employer l'architecture adaptée à vos cas d'utilisation Hadoop : Hive,
SQL, traitement en mémoire de Spark, données de diffusion Kafka, apprentissage automatique Mahout, etc. Hewlett Packard Enterprise dispose d'une multitude d'architectures de
référence prenant en charge l'optimisation des charges de travail pour Hadoop basée sur l'association de Moonshot, HPE Apollo 2000 et 4000 Gen9 et les serveurs ProLiant XL, qui
équilibrent les exigences en termes de puissance de calcul pour les clusters Hadoop avec les trois distributions Hadoop : MapR, Hortonworks et Cloudera. L'architecture de référence
Minotaur étend les architectures de référence exclusives Hadoop pour incorporer SAP HANA, HPE Vertica et HPE IDOL.
Services
financiers HPE
Pour équilibrer votre nouveau lac de données et votre solution d'analyse Hadoop avec votre infrastructure existante et votre environnement, vous avez besoin d'une flexibilité
financière. Le financement vous aide à répondre aux changements tout au long du processus d'implémentation, à innover et à aligner les coûts à votre utilisation. De plus, les services
financiers HPE réduisent les risques en termes de réglementation et de réputation associés au retrait de vos équipements hérités, via les services HPE de récupération des ressources.
HPE SecureData
HPE SecureData est une stratégie de sécurité centrée sur les données pour Hadoop, qui chiffre les données et crée des jetons. Elle désidentifie les données le plus près de la source,
transforme les données sensibles en éléments équivalents utilisables mais désidentifiés conservant le format, le comportement et la signification des données d'origine. Cette forme
de données sécurisée peut ensuite être utilisée dans les applications adaptées, moteurs d'analyse, transferts de données et magasins de données, tout en étant réidentifiés pour ces
applications spécifiques et les utilisateurs qui le requièrent. HPE SecureData protège un nombre quasiment illimité de types d'informations au niveau des données.
Optimisez votre stratégie d'investissement
informatique grâce à de nouvelles
manières d'acheter, de payer et d'utiliser la
technologie, adaptées à vos objectifs métier
et de transformation.
hpe.com/solutions/hpefinancialservices
Et maintenant ?
Planifiez un atelier de transformation. Contactez votre représentant HPE à propos de
votre souhait de vous inscrire à un atelier de transformation.
En savoir plus sur
hpe.com/us/en/solutions/empower-data-driven.html
Abonnez-vous sur
© Copyright 2016 Hewlett Packard Enterprise Development LP. Les informations contenues dans le présent document peuvent être
modifiées à tout moment et sans préavis. Les seules garanties applicables aux produits et aux services Hewlett Packard Enterprise
sont stipulées dans les déclarations de garantie explicites qui accompagnent ces produits ou ces services. Aucune information du
présent document ne saurait être considérée comme constituant une garantie complémentaire. Hewlett Packard Enterprise décline
toute responsabilité quant aux éventuelles erreurs ou omissions techniques ou rédactionnelles qui pourraient être constatées dans
le présent document.
SAP est une marque commerciale ou déposée de SAP SE en Allemagne et dans plusieurs autres pays. Apache Hadoop et Hadoop
sont des marques commerciales ou déposées appartenant à Apache Software Foundation aux États-Unis et dans d’autres pays.
4AA6-3745FRE, mai 2016, révision 2

Documents pareils