Big Data : une complexité réduite pour un retour sur
Transcription
Big Data : une complexité réduite pour un retour sur
Big Data : une complexité réduite pour un retour sur investissement plus rapide Copyright ©2013 Pentaho Corporation. Redistribution autorisée. Toutes les marques commerciales sont déposées par leur propriétaire respectif. Pour connaître les dernières informations, veuillez consulter notre site Web à l’adresse pentaho.com. Contenu Contenu. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Chargement et absorption. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Traitement et transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Accès. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Modèle. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Visualisation et exploration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Prévision. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Les limites du fonctionnement actuel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4 Pentaho : votre partenaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 Big Data : une complexité réduite pour un retour sur investissement plus rapide PENTAHO 2 Introduction La plupart des entreprises reconnaissent que l’analyse Big Data est la clé du succès, mais leurs efforts sont souvent entravés ou ralentis par les procédures opérationnelles et les problèmes issus des flux de travail. En réalité, de nombreuses sociétés estiment être désormais confrontées au défi de devoir travailler avec des technologies difficiles à maîtriser, complexes et nouvelles. Dans de nombreux cas, le service informatique ne dispose pas de suffisamment de personnel spécialisé capable d’exploiter le Big Data de manière à en tirer des informations utiles à la prise de décision. Souvent, les besoins en ressources et compétences supplémentaires n’est pas anticipé. L’examen approfondi d’un processus habituel d’analytique Big Data permet de déterminer où la plupart de ces problèmes potentiels peuvent se produire, où les compétences spéciales sont requises et où les retards surviennent. Les étapes habituelles du flux de travail d’analytique Big Data comprennent : CHARGEMENT ET ABSORPTION Les données doivent provenir de plusieurs sources de données structurées et non structurées, notamment de documents, feuilles de calcul, e-mails, images, textes et contenus de médias sociaux. Selon les entreprises, les approches peuvent différer pour les tâches de chargement et d’ingestion de données, mais ensuite, dans la plupart des cas, le processus requiert le développement de code personnalisé et l’écriture de scripts, ou l’utilisation d’outils ETL spécialisés. Ces tâches sont généralement réalisées par les développeurs ou le service informatique. un processus courant et chronophage pouvant facilement créer des erreurs. Pour automatiser les processus, l’écriture de code personnalisé est généralement nécessaire. Intégration de données Recherche de données TR AITEMENT ET TR ANSFORMATION Une fois les données pertinentes obtenues, elles doivent être correctement formatées pour pouvoir être analysées. Même si cette étape est aussi simple à réaliser que de convertir des dollars en euros, d’agréger un ensemble de données ou de basculer des lignes de données en colonnes, les personnes qui réalisent ces opérations doivent disposer des compétences nécessaires pour mener la tâche à bien. La réalisation manuelle de ces étapes est Analyse prédictive Java 100% API Web ouvertes Adapté aux applications multiclients Big Data : une complexité réduite pour un retour sur investissement plus rapide PENTAHO 3 ACCÈS Une fois les données requises pour la prise de décision correctement formatées, elles doivent être transférées vers un magasin de Big Data accessible à l’aide des applications d’analytique. Les magasins de Big Data comme Hadoop, NoSQL et les bases de données d’analytique sont les types de magasins les plus courants, mais ils nécessitent des compétences spécialisées que peu d’entreprises possèdent. Cette étape dans le flux de travail peut aussi impliquer le déplacement d’une partie d’un grand ensemble de données vers un entrepôt de données. Une fois encore, cette étape nécessite des compétences spéciales en matière de programmation ou d’utilisation d’outils ETL spécialisés. VISUALISATION ET EXPLOR ATION L’étape suivante dans le flux de travail consiste à examiner les données pertinentes, à effectuer l’analyse et à fournir les informations correctement formatées à un cadre, un responsable d’unité commerciale ou un gestionnaire, afin qu’il puisse prendre rapidement la meilleure décision Généralement, les utilisateurs requièrent différentes informations ; ainsi lors de l’analyse des données, ils peuvent avoir besoin de données supplémentaires. Pour créer des vues, des tableaux de bord ou des rapport statiques à partir des données, les développeurs ou le service informatique ont généralement recours à la programmation ou à des outils d’analytique. PRÉVISION Une fois les données visualisées, l’étape logique suivante dans le flux de travail du Big Data est d’effectuer une analyse prédictive. Basées sur de grands volumes de données historiques, les analyses prédictives permettent aux entreprises de mieux planifier et optimiser leurs actions. L’approche actuelle de l’analytique Big Data est source de nombreux problèmes potentiels. MODÈLE Pour obtenir des informations exploitables à partir de données brutes, les utilisateurs doivent connaître le contenu de la base de données. Par exemple, lors de l’analyse des problèmes liés aux stocks et aux ventes, il est essentiel de connaître certains attributs (p. ex., la référence, le nom, le prix du produit, etc.) des entrées de la base de données et les relations entre les entités. Un modèle de métadonnées illustrant les relations et hiérarchies doit être conçu afin d’associer les données aux processus opérationnels. Cette étape peut être réalisée à l’aide de la programmation ou d’un outil de modélisation de données, mais ces deux approches requièrent de l’expertise. Les limites du fonctionnement actuel L’approche actuelle de l’analytique Big Data est source de nombreux problèmes potentiels. Chaque étape du flux de travail exige en effet une intervention manuelle, exposant le processus à des erreurs potentielles, et retardant l’obtention de résultats. Pire encore, les développeurs et les services informatiques doivent souvent effectuer une grande quantité de codage manuel et utiliser des outils spécialisés. Une fois que le flux est terminé et que les utilisateurs ont exécuté l’analyse, le service informatique reçoit souvent de nouvelles demandes d’accès à des sources de données supplémentaires, et le processus linéaire doit recommencer depuis le début. Compte tenu du rythme effréné et des Big Data : une complexité réduite pour un retour sur investissement plus rapide PENTAHO 4 En raison de la nature dynamique du marché actuel, les priorités commerciales peuvent changer rapidement. compressions budgétaires d’aujourd’hui, le fait d’occuper ces personnes peut priver d’autres projets importants de ressources précieuses pour la croissance et la prospérité de l’entreprise. Les entreprises essaient d’intégrer de nouveaux types de données à leurs processus décisionnels alors même qu’elles sont confrontées à une explosion des volumes de données, ce qui démultiplie les problèmes et la pression sur les ressources. En même temps, le besoin de prendre des décisions immédiates en fonction de ces données devient de plus en plus pressant. Par conséquent, de nouvelles approches et façons de penser sont nécessaires. Les entreprises ont besoin d’une solution qui améliore le flux de travail du processus d’analyse Big Data, tout en le raccourcissant. La solution doit comporter un certain nombre de caractéristiques pour supprimer la complexité et simplifier les opérations. Elle doit également garantir qu’aucune erreur n’est introduite, et que les meilleures pratiques sont utilisées. Pour cela, une solution doit notamment permettre une intégration des données simple et prendre en charge les données structurées et non structurées. Elle doit également proposer des outils de visualisation et d’exploration des données accessibles pour un grand ensemble d’utilisateurs, et qui peuvent prendre en charge plusieurs sources de données de manière à ce que l’équipe technique et l’équipe commerciale puissent rapidement évaluer les informations et mesurer leur pertinence. En raison de la nature dynamique du marché actuel, les priorités commerciales peuvent changer rapidement. Une nouvelle opportunité peut apparaître, ou une nouvelle source de données (un flux de médias sociaux d’une entreprise, par exemple), peut fournir des informations utiles sur les intérêts des clients. Ainsi, la cible de l’analytique Big Data aura tendance à changer rapidement au fil du temps pour s’adapter aux opportunités commerciales fluctuantes. Une solution qui offre un environnement de développement visuel facile à utiliser tout en évitant de recourir à la programmation manuelle à chaque changement permet à l’entreprise de rester compétitive. En outre, bien qu’il soit évident qu’une solution d’analytique Big Data fonctionne avec des magasins de données traditionnels, elle doit également pouvoir fonctionner avec les nouveaux magasins de Big Data comme les bases de données Hadoop et NoSQL. Pentaho : votre partenaire Il est clair que l’analytique Big Data nécessite des solutions qui facilitent l’exécution des processus, n’exigent aucune nouvelle ressource technique et réduisent le délai d’obtention des résultats. C’est là qu’intervient Pentaho. Pentaho offre une plate-forme unifiée d’analytique qui prend en charge l’ensemble du flux d’analytique Big Data. Pentaho lie étroitement l’intégration de données à l’analyse d’entreprise par le biais d’une plateforme unique pour le service informatique et les utilisateurs. L’approche Pentaho permet aux deux groupes d’accéder facilement à toutes les données ayant un impact sur les résultats et de les intégrer, visualiser et examiner. Big Data : une complexité réduite pour un retour sur investissement plus rapide PENTAHO 5 Pentaho Data Integration permet aux entreprises d’extraire des données à partir de sources complexes et hétérogènes et de préparer les données à analyser, le tout dans un environnement de développement visuel ne nécessitant aucune ressource informatique ni aucun développeur spécialisé. La solution produit des données cohérentes, de haute qualité et prêtes à être analysées. De plus, Pentaho Business Analytics offre une interface Web facile à utiliser et hautement interactive permettant aux utilisateurs d’accéder aux données et de les visualiser, de créer et d’utiliser des rapports et tableaux de bord, et d’analyser les données, le tout sans avoir à recourir au service informatique ou à des développeurs. Au-delà de la recherche de données, la plate-forme Pentaho comprend également des fonctionnalités d’analyse prédictive. Le logiciel Pentaho est actuellement utilisé par des détaillants, des professionnels de la santé, des médias, des hôtels, et bien d’autres encore. Parmi nos clients, nous trouvons Beachmint, Shareable Ink, Social Commerce, TravelTainment et Travian Games. (Accéder aux études de marchés et aux témoignages Big Data de Pentaho). L’une des marques distinctives qui frappe ces entreprises est l’environnement de développement visuel de Pentaho. Plutôt que d’écrire du code et de développer des scripts, les entreprises peuvent rapidement définir des flux de travail logiques pour gérer l’absorption, le traitement, l’intégration et la modélisation des données. Ainsi, les résultats parviennent plus rapidement, la charge du personnel est allégée et l’analytique devient accessible à différents types d’utilisateurs grâce à la suppression de la complexité technique. Solution complète d’analyse du Big Data et de gestion des données visuelles Absorption, traitement et intégration de données Création de rapports d’entreprise et ad hoc Visualisation et recherche de données Analyse prédictive Pentaho Big Data Analytics Hadoop Bases de données analytiques NoSQL Big Data : une complexité réduite pour un retour sur investissement plus rapide PENTAHO 6 Relationnel L’ajout le plus récent à la plate-forme Pentaho est Instaview, la première application interactive instantanée pour le Big Data. Pour les analystes de données, Instaview facilite et accélère considérablement la recherche, la visualisation et l’analyse d’importants volumes de données diverses dans Hadoop, MongoDB, Cassandra et HBase. Instaview permet aux analystes de données d’accéder au Big Data, élimine le besoin d’outils distincts de visualisation du Big Data et simplifie la distribution et la gestion de l’accès au Big Data pour les informaticiens. Du point de vue de l’exécution, Pentaho est unique car il combine une approche de développement visuel avec la possibilité d’exécuter en parallèle via MapReduce sur un cluster Hadoop. L’exécution prend ainsi 15 fois moins de temps qu’avec une approche par programmation manuelle. défis actuels et offrant la flexibilité nécessaire pour répondre aux défis de demain. Avec une plate-forme unique comportant des outils visuels qui simplifient le développement, Pentaho ne réduit pas seulement le temps nécessaire pour obtenir des analyses de Big Data, il rend aussi les fonctionnalités d’analytique accessibles à différents types d’utilisateurs, notamment la préparation des données, la recherche des données et l’analyse prédictive qui prennent en charge un processus d’analyse Big Data itératif. L’approche actuelle de l’analytique Big Data est source de nombreux problèmes potentiels. En raison de la nature dynamique du marché actuel, les priorités commerciales peuvent changer rapidement. Au vu des problèmes potentiels qui peuvent survenir lors de la gestion et de l’incorporation du Big Data dans les processus décisionnels, les entreprises ont besoin de solutions faciles à utiliser à la hauteur des Big Data : une complexité réduite pour un retour sur investissement plus rapide PENTAHO 7 Siège Citadel International - Suite 340 5950 Hazeltine National Dr. Orlando, FL 32822, USA tel +1 407 812 6736 fax+1 407 517 4575 Bureaux aux États-Unis et Dans le Monde 353 Sacramento Street, Suite 1500 San Francisco, CA 94111, USA tel +1 415 525 5540 toll free +1 866 660 7555 En savoir plus sur Pentaho Business Analytics pentaho.fr/contact Royaume-Uni, Reste de l’Europe, Moyen-Orient et Afrique Londres, Royaume-Uni tel +44 7711 104854 Numéro gratuit (Royaume-Uni) 0 800 680 0693 FRANCE Bureaux - Paris, France tel +33 97 51 82 296 Numéro gratuit (France) 0800 915343 ALLEMAGNE, AUTRICHE, SUISSE Bureaux - Francfort, Allemagne tel +49(0)89 / 37 41 40 81 Numéro gratuit (Allemagne) 0800 186 0332 BELGIQUE, PAYS-BAS, LUXEMBOURG Bureaux - Anvers, Belgique tel +31 6 52 69 88 01 Gebührenfrei (Belgique) 0800 773 83 Copyright ©2013 Pentaho Corporation. Redistribution permitted. All trademarks are the property of their respective owners. For the latest information, please visit our web site at pentaho.com.