Big Data : une complexité réduite pour un retour sur

Transcription

Big Data : une complexité réduite pour un retour sur
Big Data : une complexité
réduite pour un retour
sur investissement
plus rapide
Copyright ©2013 Pentaho Corporation. Redistribution autorisée. Toutes les marques commerciales sont déposées par leur propriétaire respectif.
Pour connaître les dernières informations, veuillez consulter notre site Web à l’adresse pentaho.com.
Contenu
Contenu. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Chargement et absorption. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Traitement et transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Accès. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
Modèle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
Visualisation et exploration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
Prévision. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
Les limites du fonctionnement actuel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
Pentaho : votre partenaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
Big Data : une complexité réduite pour un retour sur investissement plus rapide
PENTAHO 2
Introduction
La plupart des entreprises reconnaissent que l’analyse Big Data est la clé du succès,
mais leurs efforts sont souvent entravés ou ralentis par les procédures opérationnelles
et les problèmes issus des flux de travail. En réalité, de nombreuses sociétés estiment
être désormais confrontées au défi de devoir travailler avec des technologies difficiles à
maîtriser, complexes et nouvelles.
Dans de nombreux cas, le service informatique ne dispose pas de suffisamment de
personnel spécialisé capable d’exploiter le Big Data de manière à en tirer des informations utiles à la prise de décision. Souvent, les besoins en ressources et compétences
supplémentaires n’est pas anticipé.
L’examen approfondi d’un processus habituel d’analytique Big Data permet de déterminer où la plupart de ces problèmes potentiels peuvent se produire, où les compétences spéciales sont requises et où les retards surviennent. Les étapes habituelles du
flux de travail d’analytique Big Data comprennent :
CHARGEMENT ET ABSORPTION
Les données doivent provenir de plusieurs sources
de données structurées et non structurées,
notamment de documents, feuilles de calcul, e-mails,
images, textes et contenus de médias sociaux. Selon
les entreprises, les approches peuvent différer pour
les tâches de chargement et d’ingestion de données,
mais ensuite, dans la plupart des cas, le processus
requiert le développement de code personnalisé
et l’écriture de scripts, ou l’utilisation d’outils ETL
spécialisés. Ces tâches sont généralement réalisées
par les développeurs ou le service informatique.
un processus courant et chronophage pouvant
facilement créer des erreurs. Pour automatiser
les processus, l’écriture de code personnalisé est
généralement nécessaire.
Intégration
de données
Recherche
de données
TR AITEMENT ET TR ANSFORMATION
Une fois les données pertinentes obtenues, elles
doivent être correctement formatées pour pouvoir
être analysées. Même si cette étape est aussi simple
à réaliser que de convertir des dollars en euros,
d’agréger un ensemble de données ou de basculer
des lignes de données en colonnes, les personnes
qui réalisent ces opérations doivent disposer des
compétences nécessaires pour mener la tâche
à bien. La réalisation manuelle de ces étapes est
Analyse
prédictive
Java 100%
API Web ouvertes
Adapté aux applications
multiclients
Big Data : une complexité réduite pour un retour sur investissement plus rapide
PENTAHO 3
ACCÈS
Une fois les données requises pour la prise de
décision correctement formatées, elles doivent être
transférées vers un magasin de Big Data accessible
à l’aide des applications d’analytique. Les magasins
de Big Data comme Hadoop, NoSQL et les bases de
données d’analytique sont les types de magasins les
plus courants, mais ils nécessitent des compétences
spécialisées que peu d’entreprises possèdent. Cette
étape dans le flux de travail peut aussi impliquer
le déplacement d’une partie d’un grand ensemble
de données vers un entrepôt de données. Une fois
encore, cette étape nécessite des compétences
spéciales en matière de programmation ou
d’utilisation d’outils ETL spécialisés.
VISUALISATION ET EXPLOR ATION
L’étape suivante dans le flux de travail consiste
à examiner les données pertinentes, à effectuer
l’analyse et à fournir les informations correctement
formatées à un cadre, un responsable d’unité
commerciale ou un gestionnaire, afin qu’il
puisse prendre rapidement la meilleure décision
Généralement, les utilisateurs requièrent différentes
informations ; ainsi lors de l’analyse des données, ils
peuvent avoir besoin de données supplémentaires.
Pour créer des vues, des tableaux de bord ou
des rapport statiques à partir des données, les
développeurs ou le service informatique ont
généralement recours à la programmation ou à des
outils d’analytique.
PRÉVISION
Une fois les données visualisées, l’étape logique
suivante dans le flux de travail du Big Data est
d’effectuer une analyse prédictive. Basées sur de
grands volumes de données historiques, les analyses
prédictives permettent aux entreprises de mieux
planifier et optimiser leurs actions.
L’approche actuelle de
l’analytique Big Data est
source de nombreux
problèmes potentiels.
MODÈLE
Pour obtenir des informations exploitables à partir de
données brutes, les utilisateurs doivent connaître le
contenu de la base de données. Par exemple, lors de
l’analyse des problèmes liés aux stocks et aux ventes,
il est essentiel de connaître certains attributs (p.
ex., la référence, le nom, le prix du produit, etc.) des
entrées de la base de données et les relations entre
les entités. Un modèle de métadonnées illustrant les
relations et hiérarchies doit être conçu afin d’associer
les données aux processus opérationnels. Cette
étape peut être réalisée à l’aide de la programmation
ou d’un outil de modélisation de données, mais ces
deux approches requièrent de l’expertise.
Les limites du
fonctionnement actuel
L’approche actuelle de l’analytique Big Data est
source de nombreux problèmes potentiels.
Chaque étape du flux de travail exige en effet une
intervention manuelle, exposant le processus à
des erreurs potentielles, et retardant l’obtention
de résultats. Pire encore, les développeurs et les
services informatiques doivent souvent effectuer
une grande quantité de codage manuel et utiliser des
outils spécialisés. Une fois que le flux est terminé et
que les utilisateurs ont exécuté l’analyse, le service
informatique reçoit souvent de nouvelles demandes
d’accès à des sources de données supplémentaires,
et le processus linéaire doit recommencer depuis
le début. Compte tenu du rythme effréné et des
Big Data : une complexité réduite pour un retour sur investissement plus rapide
PENTAHO 4
En raison de la nature
dynamique du marché actuel,
les priorités commerciales
peuvent changer rapidement.
compressions budgétaires d’aujourd’hui, le fait
d’occuper ces personnes peut priver d’autres
projets importants de ressources précieuses pour la
croissance et la prospérité de l’entreprise.
Les entreprises essaient d’intégrer de nouveaux
types de données à leurs processus décisionnels
alors même qu’elles sont confrontées à une
explosion des volumes de données, ce qui
démultiplie les problèmes et la pression sur les
ressources. En même temps, le besoin de prendre
des décisions immédiates en fonction de ces
données devient de plus en plus pressant. Par
conséquent, de nouvelles approches et façons de
penser sont nécessaires.
Les entreprises ont besoin d’une solution qui
améliore le flux de travail du processus d’analyse
Big Data, tout en le raccourcissant. La solution doit
comporter un certain nombre de caractéristiques
pour supprimer la complexité et simplifier les
opérations. Elle doit également garantir qu’aucune
erreur n’est introduite, et que les meilleures
pratiques sont utilisées.
Pour cela, une solution doit notamment permettre
une intégration des données simple et prendre
en charge les données structurées et non
structurées. Elle doit également proposer des
outils de visualisation et d’exploration des données
accessibles pour un grand ensemble d’utilisateurs,
et qui peuvent prendre en charge plusieurs sources
de données de manière à ce que l’équipe technique
et l’équipe commerciale puissent rapidement évaluer
les informations et mesurer leur pertinence. En
raison de la nature dynamique du marché actuel, les
priorités commerciales peuvent changer rapidement.
Une nouvelle opportunité peut apparaître, ou une
nouvelle source de données (un flux de médias
sociaux d’une entreprise, par exemple), peut
fournir des informations utiles sur les intérêts des
clients. Ainsi, la cible de l’analytique Big Data aura
tendance à changer rapidement au fil du temps
pour s’adapter aux opportunités commerciales
fluctuantes. Une solution qui offre un environnement
de développement visuel facile à utiliser tout en
évitant de recourir à la programmation manuelle à
chaque changement permet à l’entreprise de rester
compétitive.
En outre, bien qu’il soit évident qu’une solution
d’analytique Big Data fonctionne avec des magasins
de données traditionnels, elle doit également pouvoir
fonctionner avec les nouveaux magasins de Big Data
comme les bases de données Hadoop et NoSQL.
Pentaho : votre partenaire
Il est clair que l’analytique Big Data nécessite des
solutions qui facilitent l’exécution des processus,
n’exigent aucune nouvelle ressource technique et
réduisent le délai d’obtention des résultats. C’est là
qu’intervient Pentaho. Pentaho offre une plate-forme
unifiée d’analytique qui prend en charge l’ensemble
du flux d’analytique Big Data.
Pentaho lie étroitement l’intégration de données
à l’analyse d’entreprise par le biais d’une plateforme unique pour le service informatique et les
utilisateurs. L’approche Pentaho permet aux deux
groupes d’accéder facilement à toutes les données
ayant un impact sur les résultats et de les intégrer,
visualiser et examiner.
Big Data : une complexité réduite pour un retour sur investissement plus rapide
PENTAHO 5
Pentaho Data Integration permet aux entreprises
d’extraire des données à partir de sources complexes
et hétérogènes et de préparer les données à analyser,
le tout dans un environnement de développement
visuel ne nécessitant aucune ressource informatique
ni aucun développeur spécialisé. La solution produit
des données cohérentes, de haute qualité et prêtes à
être analysées.
De plus, Pentaho Business Analytics offre une
interface Web facile à utiliser et hautement interactive
permettant aux utilisateurs d’accéder aux données et
de les visualiser, de créer et d’utiliser des rapports et
tableaux de bord, et d’analyser les données, le tout
sans avoir à recourir au service informatique ou à des
développeurs. Au-delà de la recherche de données,
la plate-forme Pentaho comprend également des
fonctionnalités d’analyse prédictive.
Le logiciel Pentaho est actuellement utilisé par
des détaillants, des professionnels de la santé, des
médias, des hôtels, et bien d’autres encore. Parmi
nos clients, nous trouvons Beachmint, Shareable Ink,
Social Commerce, TravelTainment et Travian Games.
(Accéder aux études de marchés et aux témoignages
Big Data de Pentaho).
L’une des marques distinctives qui frappe ces
entreprises est l’environnement de développement
visuel de Pentaho. Plutôt que d’écrire du code et
de développer des scripts, les entreprises peuvent
rapidement définir des flux de travail logiques pour
gérer l’absorption, le traitement, l’intégration et
la modélisation des données. Ainsi, les résultats
parviennent plus rapidement, la charge du personnel
est allégée et l’analytique devient accessible à
différents types d’utilisateurs grâce à la suppression
de la complexité technique.
Solution complète d’analyse du Big Data et de
gestion des données visuelles
Absorption, traitement et intégration
de données
Création de rapports d’entreprise
et ad hoc
Visualisation et
recherche de
données
Analyse
prédictive
Pentaho Big Data Analytics
Hadoop
Bases de données
analytiques
NoSQL
Big Data : une complexité réduite pour un retour sur investissement plus rapide
PENTAHO 6
Relationnel
L’ajout le plus récent à la plate-forme Pentaho
est Instaview, la première application interactive
instantanée pour le Big Data. Pour les analystes
de données, Instaview facilite et accélère
considérablement la recherche, la visualisation
et l’analyse d’importants volumes de données
diverses dans Hadoop, MongoDB, Cassandra et
HBase. Instaview permet aux analystes de données
d’accéder au Big Data, élimine le besoin d’outils
distincts de visualisation du Big Data et simplifie la
distribution et la gestion de l’accès au Big Data pour
les informaticiens.
Du point de vue de l’exécution, Pentaho est unique
car il combine une approche de développement
visuel avec la possibilité d’exécuter en parallèle via
MapReduce sur un cluster Hadoop. L’exécution prend
ainsi 15 fois moins de temps qu’avec une approche
par programmation manuelle.
défis actuels et offrant la flexibilité nécessaire pour
répondre aux défis de demain. Avec une plate-forme
unique comportant des outils visuels qui simplifient
le développement, Pentaho ne réduit pas seulement
le temps nécessaire pour obtenir des analyses de
Big Data, il rend aussi les fonctionnalités d’analytique
accessibles à différents types d’utilisateurs,
notamment la préparation des données, la recherche
des données et l’analyse prédictive qui prennent en
charge un processus d’analyse Big Data itératif.
L’approche actuelle de l’analytique Big Data est
source de nombreux problèmes potentiels.
En raison de la nature dynamique du marché
actuel, les priorités commerciales peuvent changer
rapidement.
Au vu des problèmes potentiels qui peuvent survenir
lors de la gestion et de l’incorporation du Big Data
dans les processus décisionnels, les entreprises ont
besoin de solutions faciles à utiliser à la hauteur des
Big Data : une complexité réduite pour un retour sur investissement plus rapide
PENTAHO 7
Siège
Citadel International - Suite 340
5950 Hazeltine National Dr.
Orlando, FL 32822, USA
tel +1 407 812 6736
fax+1 407 517 4575
Bureaux aux États-Unis
et Dans le Monde
353 Sacramento Street, Suite 1500
San Francisco, CA 94111, USA
tel +1 415 525 5540
toll free +1 866 660 7555
En savoir plus sur Pentaho
Business Analytics
pentaho.fr/contact
Royaume-Uni, Reste de l’Europe,
Moyen-Orient et Afrique
Londres, Royaume-Uni
tel +44 7711 104854
Numéro gratuit (Royaume-Uni) 0 800 680 0693
FRANCE
Bureaux - Paris, France
tel +33 97 51 82 296
Numéro gratuit (France) 0800 915343
ALLEMAGNE, AUTRICHE, SUISSE
Bureaux - Francfort, Allemagne
tel +49(0)89 / 37 41 40 81
Numéro gratuit (Allemagne) 0800 186 0332
BELGIQUE, PAYS-BAS, LUXEMBOURG
Bureaux - Anvers, Belgique
tel +31 6 52 69 88 01
Gebührenfrei (Belgique) 0800 773 83
Copyright ©2013 Pentaho Corporation. Redistribution permitted. All trademarks are the property of their respective owners.
For the latest information, please visit our web site at pentaho.com.