Big Data: Une complexité réduite pour un retour sur

Transcription

Big Data: Une complexité réduite pour un retour sur
Big Data: Une
complexité réduite
pour un retour sur
investissement
plus rapide
Copyright ©2015 Pentaho Corporation. Redistribution autorisée. Toutes les marques commerciales sont déposées par leur propriétaire respectif.
Pour connaître les dernières informations, veuillez consulter notre site Web à l’adresse pentaho.com.
Introduction
La plupart des entreprises reconnaissent que l’analyse Big Data est la clé du succès,
mais leurs efforts sont souvent entravés ou ralentis par les procédures opérationnelles
et les problèmes issus des flux de travail. En réalité, de nombreuses sociétés estiment
être désormais confrontées au défi de devoir travailler avec des technologies difficiles à
maîtriser, complexes et nouvelles.
Dans de nombreux cas, le service informatique ne dispose pas de suffisamment de
personnel spécialisé capable d’exploiter le Big Data de manière à en tirer des informations utiles à la prise de décision. Souvent, les besoins en ressources et compétences
supplémentaires n’est pas anticipé.
L’examen approfondi d’un processus habituel d’analytique Big Data permet de déterminer où la plupart de ces problèmes potentiels peuvent se produire, où les compétences spéciales sont requises et où les retards surviennent. Les étapes habituelles du
flux de travail d’analytique Big Data comprennent :
ACCÈS
CHARGEMENT ET ABSORPTION
Une fois les données requises pour la prise de décision
Les données doivent provenir de plusieurs sources de
correctement formatées, elles doivent être transférées
données structurées et non structurées, notamment
de documents, feuilles de calcul, e-mails, images, textes
et contenus de médias sociaux. Selon les entreprises,
vers un magasin de Big Data accessible à l’aide des
applications d’analytique. Les magasins de Big Data
comme Hadoop, NoSQL et les bases de données
les approches peuvent différer pour les tâches de
d’analytique sont les types de magasins les plus courants,
chargement et d’ingestion de données, mais ensuite,
mais ils nécessitent des compétences spécialisées que
dans la plupart des cas, le processus requiert le
développement de code personnalisé et l’écriture de
scripts, ou l’utilisation d’outils ETL spécialisés. Ces tâches
Intégration
de données
sont généralement réalisées par les développeurs ou le
service informatique.
TR AITEMENT ET TR ANSFORMATION
Une fois les données pertinentes obtenues, elles
Recherche
de données
doivent être correctement formatées pour pouvoir
être analysées. Même si cette étape est aussi simple à
réaliser que de convertir des dollars en euros, d’agréger
un ensemble de données ou de basculer des lignes
Analyse
prédictive
de données en colonnes, les personnes qui réalisent
ces opérations doivent disposer des compétences
nécessaires pour mener la tâche à bien. La réalisation
manuelle de ces étapes est un processus courant et
chronophage pouvant facilement créer des erreurs. Pour
100%
Java
automatiser les processus, l’écriture de code personnalisé
API
Web ouvertes
est généralement nécessaire
Adapté
aux applications multiclients
Big Data : une complexité réduite pour un retour sur investissement plus rapide
PENTAHO 2
peu d’entreprises possèdent. Cette étape dans le flux de
PRÉVISION
travail peut aussi impliquer le déplacement d’une partie
Une fois les données visualisées, l’étape logique suivante
d’un grand ensemble de données vers un entrepôt de
dans le flux de travail du Big Data est d’effectuer une
données. Une fois encore, cette étape nécessite des
analyse prédictive. Basées sur de grands volumes de
compétences spéciales en matière de programmation ou
données historiques, les analyses prédictives permettent
d’utilisation d’outils ETL spécialisés.
aux entreprises de mieux planifier et optimiser leurs
actions.
L’approche actuelle de l’analytique
Big Data est source de nombreux
problèmes potentiels.
Les Limites du
Fonctionnement Actuel
L’approche actuelle de l’analytique Big Data est source de
nombreux problèmes potentiels. Chaque étape du flux de
travail exige en effet une intervention manuelle, exposant
MODÈLE
le processus à des erreurs potentielles, et retardant
Pour obtenir des informations exploitables à partir de
l’obtention de résultats. Pire encore, les développeurs et
données brutes, les utilisateurs doivent connaître le
les services informatiques doivent souvent effectuer une
contenu de la base de données. Par exemple, lors de
grande quantité de codage manuel et utiliser des outils
l’analyse des problèmes liés aux stocks et aux ventes,
spécialisés. Une fois que le flux est terminé et que les
il est essentiel de connaître certains attributs (p. ex., la
utilisateurs ont exécuté l’analyse, le service informatique
référence, le nom, le prix du produit, etc.) des entrées
reçoit souvent de nouvelles demandes d’accès à des
de la base de données et les relations entre les entités.
sources de données supplémentaires, et le processus
Un modèle de métadonnées illustrant les relations et
linéaire doit recommencer depuis le début. Compte tenu
hiérarchies doit être conçu afin d’associer les données
du rythme effréné et des compressions budgétaires
aux processus opérationnels. Cette étape peut être
d’aujourd’hui, le fait d’occuper ces personnes peut priver
réalisée à l’aide de la programmation ou d’un outil de
d’autres projets importants de ressources précieuses
modélisation de données, mais ces deux approches
pour la croissance et la prospérité de l’entreprise.
requièrent de l’expertise.
VISUALISATION ET EXPLOR ATION
L’étape suivante dans le flux de travail consiste à examiner
les données pertinentes, à effectuer l’analyse et à fournir
les informations correctement formatées à un cadre, un
responsable d’unité commerciale ou un gestionnaire, afin
qu’il puisse prendre rapidement la meilleure décision
qu’elles sont confrontées à une explosion des volumes de
informations ; ainsi lors de l’analyse des données, ils
peuvent avoir besoin de données supplémentaires. Pour
statiques à partir des données, les développeurs ou
le service informatique ont généralement recours à la
programmation ou à des outils d’analytique.
Les entreprises essaient d’intégrer de nouveaux types
de données à leurs processus décisionnels alors même
Généralement, les utilisateurs requièrent différentes
créer des vues, des tableaux de bord ou des rapport
L’approche actuelle de l’analytique
Big Data est source de nombreux
problèmes potentiels.
données, ce qui démultiplie les problèmes et la pression
sur les ressources. En même temps, le besoin de prendre
des décisions immédiates en fonction de ces données
devient de plus en plus pressant. Par conséquent,
de nouvelles approches et façons de penser sont
nécessaires.
Big Data : une complexité réduite pour un retour sur investissement plus rapide
PENTAHO 3
Les entreprises ont besoin d’une solution qui améliore le
Pentaho offre une plate-forme unifiée d’analytique qui
flux de travail du processus d’analyse Big Data, tout en
prend en charge l’ensemble du flux d’analytique Big Data.
le raccourcissant. La solution doit comporter un certain
nombre de caractéristiques pour supprimer la complexité
Pentaho lie étroitement l’intégration de données à
et simplifier les opérations. Elle doit également garantir
l’analyse d’entreprise par le biais d’une plate-forme
qu’aucune erreur n’est introduite, et que les meilleures
unique pour le service informatique et les utilisateurs.
pratiques sont utilisées.
L’approche Pentaho permet aux deux groupes d’accéder
facilement à toutes les données ayant un impact sur les
Pour cela, une solution doit notamment permettre
résultats et de les intégrer, visualiser et examiner.
une intégration des données simple et prendre en
charge les données structurées et non structurées. Elle
Pentaho Data Integration permet aux entreprises
doit également proposer des outils de visualisation et
d’extraire des données à partir de sources complexes et
d’exploration des données accessibles pour un grand
hétérogènes et de préparer les données à analyser, le
ensemble d’utilisateurs, et qui peuvent prendre en
tout dans un environnement de développement visuel
charge plusieurs sources de données de manière à ce
ne nécessitant aucune ressource informatique ni aucun
que l’équipe technique et l’équipe commerciale puissent
développeur spécialisé. La solution produit des données
rapidement évaluer les informations et mesurer leur
cohérentes, de haute qualité et prêtes à être analysées.
pertinence. En raison de la nature dynamique du marché
actuel, les priorités commerciales peuvent changer
De plus, Pentaho Business Analytics offre une interface
rapidement.
Web facile à utiliser et hautement interactive permettant
aux utilisateurs d’accéder aux données et de les
Une nouvelle opportunité peut apparaître, ou une
visualiser, de créer et d’utiliser des rapports et tableaux
nouvelle source de données (un flux de médias
de bord, et d’analyser les données, le tout sans avoir à
sociaux d’une entreprise, par exemple), peut fournir
recourir au service informatique ou à des développeurs.
des informations utiles sur les intérêts des clients.
Au-delà de la recherche de données, la plate-forme
Ainsi, la cible de l’analytique Big Data aura tendance à
Pentaho comprend également des fonctionnalités
changer rapidement au fil du temps pour s’adapter aux
d’analyse prédictive.
opportunités commerciales fluctuantes. Une solution qui
offre un environnement de développement visuel facile
Le logiciel Pentaho est actuellement utilisé par des
à utiliser tout en évitant de recourir à la programmation
détaillants, des professionnels de la santé, des médias,
manuelle à chaque changement permet à l’entreprise de
des hôtels, et bien d’autres encore. Parmi nos clients,
rester compétitive.
nous trouvons Beachmint, Shareable Ink, Social
Commerce, TravelTainment et Travian Games. (Accéder
En outre, bien qu’il soit évident qu’une solution
aux études de marchés et aux témoignages Big Data de
d’analytique Big Data fonctionne avec des magasins
Pentaho).
de données traditionnels, elle doit également pouvoir
fonctionner avec les nouveaux magasins de Big Data
L’une des marques distinctives qui frappe ces entreprises
comme les bases de données Hadoop et NoSQL.
est l’environnement de développement visuel de
Pentaho. Plutôt que d’écrire du code et de développer
Pentaho: Votre Partenaire
des scripts, les entreprises peuvent rapidement définir
Il est clair que l’analytique Big Data nécessite des
traitement, l’intégration et la modélisation des données.
solutions qui facilitent l’exécution des processus, n’exigent
Ainsi, les résultats parviennent plus rapidement, la charge
aucune nouvelle ressource technique et réduisent le délai
du personnel est allégée et l’analytique devient accessible
d’obtention des résultats. C’est là qu’intervient Pentaho.
à différents types d’utilisateurs grâce à la suppression de
des flux de travail logiques pour gérer l’absorption, le
la complexité technique.
Big Data : une complexité réduite pour un retour sur investissement plus rapide
PENTAHO 4
Solution complète d’analyse du Big Data et de gestion des
données visuelles
Absorption, traitement et
intégration de données
Visualisation et
recherche de données
Création de rapports
d’entreprise et ad hoc
Analyse
prédictive
Pentaho Big Data Analytics
Hadoop
NoSQL
Bases de données
analytiques
Relationnel
L’ajout le plus récent à la plate-forme Pentaho est
Au vu des problèmes potentiels qui peuvent survenir
Instaview, la première application interactive instantanée
lors de la gestion et de l’incorporation du Big Data dans
pour le Big Data. Pour les analystes de données, Instaview
les processus décisionnels, les entreprises ont besoin de
facilite et accélère considérablement la recherche,
solutions faciles à utiliser à la hauteur des défis actuels et
la visualisation et l’analyse d’importants volumes de
offrant la flexibilité nécessaire pour répondre aux défis
données diverses dans Hadoop, MongoDB, Cassandra
de demain. Avec une plate-forme unique comportant des
et HBase. Instaview permet aux analystes de données
outils visuels qui simplifient le développement, Pentaho
d’accéder au Big Data, élimine le besoin d’outils distincts
ne réduit pas seulement le temps nécessaire pour obtenir
de visualisation du Big Data et simplifie la distribution et
des analyses de Big Data, il rend aussi les fonctionnalités
la gestion de l’accès au Big Data pour les informaticiens.
d’analytique accessibles à différents types d’utilisateurs,
notamment la préparation des données, la recherche des
Du point de vue de l’exécution, Pentaho est unique car
données et l’analyse prédictive qui prennent en charge un
il combine une approche de développement visuel avec
processus d’analyse Big Data itératif.
la possibilité d’exécuter en parallèle via MapReduce sur
un cluster Hadoop. L’exécution prend ainsi 15 fois moins
L’approche actuelle de l’analytique Big Data est source de
de temps qu’avec une approche par programmation
nombreux problèmes potentiels.
manuelle.
En raison de la nature dynamique du marché actuel, les
priorités commerciales peuvent changer rapidement.
Big Data : une complexité réduite pour un retour sur investissement plus rapide
PENTAHO 5
En savoir plus sur Pentaho
Business Analytics
pentaho.fr/contact
Siège
Citadel International - Suite 340
5950 Hazeltine National Dr.
Orlando, FL 32822, USA
tel +1 407 812 6736
fax +1 407 517 4575
Bureaux aux États-Unis
et Dans le Monde
353 Sacramento Street, Suite 1500
San Francisco, CA 94111, USA
tel +1 415 525 5540
toll free +1 866 660 7555
Royaume-Uni, Reste de l’Europe,
Moyen-Orient et Afrique
Londres, Royaume-Uni
tel +44 7711 104854
Numéro gratuit (Royaume-Uni) 0 800 680 0693
FRANCE
Bureaux - Paris, France
tel +33 97 51 82 296
Numéro gratuit (France) 0800 915343
ALLEMAGNE, AUTRICHE, SUISSE
Bureaux - Francfort, Allemagne
tel +49(0)89 / 37 41 40 81
Numéro gratuit (Allemagne) 0800 186 0332
BELGIQUE, PAYS-BAS, LUXEMBOURG
Bureaux - Anvers, Belgique
tel +31 6 52 69 88 01
Gebührenfrei (Belgique) 0800 773 83
Be social
with Pentaho:
Copyright ©2015 Pentaho Corporation. Redistribution permitted.
All trademarks are the property of their respective owners.
For the latest information, please visit our web site at pentaho.com.