Big Data: Une complexité réduite pour un retour sur
Transcription
Big Data: Une complexité réduite pour un retour sur
Big Data: Une complexité réduite pour un retour sur investissement plus rapide Copyright ©2015 Pentaho Corporation. Redistribution autorisée. Toutes les marques commerciales sont déposées par leur propriétaire respectif. Pour connaître les dernières informations, veuillez consulter notre site Web à l’adresse pentaho.com. Introduction La plupart des entreprises reconnaissent que l’analyse Big Data est la clé du succès, mais leurs efforts sont souvent entravés ou ralentis par les procédures opérationnelles et les problèmes issus des flux de travail. En réalité, de nombreuses sociétés estiment être désormais confrontées au défi de devoir travailler avec des technologies difficiles à maîtriser, complexes et nouvelles. Dans de nombreux cas, le service informatique ne dispose pas de suffisamment de personnel spécialisé capable d’exploiter le Big Data de manière à en tirer des informations utiles à la prise de décision. Souvent, les besoins en ressources et compétences supplémentaires n’est pas anticipé. L’examen approfondi d’un processus habituel d’analytique Big Data permet de déterminer où la plupart de ces problèmes potentiels peuvent se produire, où les compétences spéciales sont requises et où les retards surviennent. Les étapes habituelles du flux de travail d’analytique Big Data comprennent : ACCÈS CHARGEMENT ET ABSORPTION Une fois les données requises pour la prise de décision Les données doivent provenir de plusieurs sources de correctement formatées, elles doivent être transférées données structurées et non structurées, notamment de documents, feuilles de calcul, e-mails, images, textes et contenus de médias sociaux. Selon les entreprises, vers un magasin de Big Data accessible à l’aide des applications d’analytique. Les magasins de Big Data comme Hadoop, NoSQL et les bases de données les approches peuvent différer pour les tâches de d’analytique sont les types de magasins les plus courants, chargement et d’ingestion de données, mais ensuite, mais ils nécessitent des compétences spécialisées que dans la plupart des cas, le processus requiert le développement de code personnalisé et l’écriture de scripts, ou l’utilisation d’outils ETL spécialisés. Ces tâches Intégration de données sont généralement réalisées par les développeurs ou le service informatique. TR AITEMENT ET TR ANSFORMATION Une fois les données pertinentes obtenues, elles Recherche de données doivent être correctement formatées pour pouvoir être analysées. Même si cette étape est aussi simple à réaliser que de convertir des dollars en euros, d’agréger un ensemble de données ou de basculer des lignes Analyse prédictive de données en colonnes, les personnes qui réalisent ces opérations doivent disposer des compétences nécessaires pour mener la tâche à bien. La réalisation manuelle de ces étapes est un processus courant et chronophage pouvant facilement créer des erreurs. Pour 100% Java automatiser les processus, l’écriture de code personnalisé API Web ouvertes est généralement nécessaire Adapté aux applications multiclients Big Data : une complexité réduite pour un retour sur investissement plus rapide PENTAHO 2 peu d’entreprises possèdent. Cette étape dans le flux de PRÉVISION travail peut aussi impliquer le déplacement d’une partie Une fois les données visualisées, l’étape logique suivante d’un grand ensemble de données vers un entrepôt de dans le flux de travail du Big Data est d’effectuer une données. Une fois encore, cette étape nécessite des analyse prédictive. Basées sur de grands volumes de compétences spéciales en matière de programmation ou données historiques, les analyses prédictives permettent d’utilisation d’outils ETL spécialisés. aux entreprises de mieux planifier et optimiser leurs actions. L’approche actuelle de l’analytique Big Data est source de nombreux problèmes potentiels. Les Limites du Fonctionnement Actuel L’approche actuelle de l’analytique Big Data est source de nombreux problèmes potentiels. Chaque étape du flux de travail exige en effet une intervention manuelle, exposant MODÈLE le processus à des erreurs potentielles, et retardant Pour obtenir des informations exploitables à partir de l’obtention de résultats. Pire encore, les développeurs et données brutes, les utilisateurs doivent connaître le les services informatiques doivent souvent effectuer une contenu de la base de données. Par exemple, lors de grande quantité de codage manuel et utiliser des outils l’analyse des problèmes liés aux stocks et aux ventes, spécialisés. Une fois que le flux est terminé et que les il est essentiel de connaître certains attributs (p. ex., la utilisateurs ont exécuté l’analyse, le service informatique référence, le nom, le prix du produit, etc.) des entrées reçoit souvent de nouvelles demandes d’accès à des de la base de données et les relations entre les entités. sources de données supplémentaires, et le processus Un modèle de métadonnées illustrant les relations et linéaire doit recommencer depuis le début. Compte tenu hiérarchies doit être conçu afin d’associer les données du rythme effréné et des compressions budgétaires aux processus opérationnels. Cette étape peut être d’aujourd’hui, le fait d’occuper ces personnes peut priver réalisée à l’aide de la programmation ou d’un outil de d’autres projets importants de ressources précieuses modélisation de données, mais ces deux approches pour la croissance et la prospérité de l’entreprise. requièrent de l’expertise. VISUALISATION ET EXPLOR ATION L’étape suivante dans le flux de travail consiste à examiner les données pertinentes, à effectuer l’analyse et à fournir les informations correctement formatées à un cadre, un responsable d’unité commerciale ou un gestionnaire, afin qu’il puisse prendre rapidement la meilleure décision qu’elles sont confrontées à une explosion des volumes de informations ; ainsi lors de l’analyse des données, ils peuvent avoir besoin de données supplémentaires. Pour statiques à partir des données, les développeurs ou le service informatique ont généralement recours à la programmation ou à des outils d’analytique. Les entreprises essaient d’intégrer de nouveaux types de données à leurs processus décisionnels alors même Généralement, les utilisateurs requièrent différentes créer des vues, des tableaux de bord ou des rapport L’approche actuelle de l’analytique Big Data est source de nombreux problèmes potentiels. données, ce qui démultiplie les problèmes et la pression sur les ressources. En même temps, le besoin de prendre des décisions immédiates en fonction de ces données devient de plus en plus pressant. Par conséquent, de nouvelles approches et façons de penser sont nécessaires. Big Data : une complexité réduite pour un retour sur investissement plus rapide PENTAHO 3 Les entreprises ont besoin d’une solution qui améliore le Pentaho offre une plate-forme unifiée d’analytique qui flux de travail du processus d’analyse Big Data, tout en prend en charge l’ensemble du flux d’analytique Big Data. le raccourcissant. La solution doit comporter un certain nombre de caractéristiques pour supprimer la complexité Pentaho lie étroitement l’intégration de données à et simplifier les opérations. Elle doit également garantir l’analyse d’entreprise par le biais d’une plate-forme qu’aucune erreur n’est introduite, et que les meilleures unique pour le service informatique et les utilisateurs. pratiques sont utilisées. L’approche Pentaho permet aux deux groupes d’accéder facilement à toutes les données ayant un impact sur les Pour cela, une solution doit notamment permettre résultats et de les intégrer, visualiser et examiner. une intégration des données simple et prendre en charge les données structurées et non structurées. Elle Pentaho Data Integration permet aux entreprises doit également proposer des outils de visualisation et d’extraire des données à partir de sources complexes et d’exploration des données accessibles pour un grand hétérogènes et de préparer les données à analyser, le ensemble d’utilisateurs, et qui peuvent prendre en tout dans un environnement de développement visuel charge plusieurs sources de données de manière à ce ne nécessitant aucune ressource informatique ni aucun que l’équipe technique et l’équipe commerciale puissent développeur spécialisé. La solution produit des données rapidement évaluer les informations et mesurer leur cohérentes, de haute qualité et prêtes à être analysées. pertinence. En raison de la nature dynamique du marché actuel, les priorités commerciales peuvent changer De plus, Pentaho Business Analytics offre une interface rapidement. Web facile à utiliser et hautement interactive permettant aux utilisateurs d’accéder aux données et de les Une nouvelle opportunité peut apparaître, ou une visualiser, de créer et d’utiliser des rapports et tableaux nouvelle source de données (un flux de médias de bord, et d’analyser les données, le tout sans avoir à sociaux d’une entreprise, par exemple), peut fournir recourir au service informatique ou à des développeurs. des informations utiles sur les intérêts des clients. Au-delà de la recherche de données, la plate-forme Ainsi, la cible de l’analytique Big Data aura tendance à Pentaho comprend également des fonctionnalités changer rapidement au fil du temps pour s’adapter aux d’analyse prédictive. opportunités commerciales fluctuantes. Une solution qui offre un environnement de développement visuel facile Le logiciel Pentaho est actuellement utilisé par des à utiliser tout en évitant de recourir à la programmation détaillants, des professionnels de la santé, des médias, manuelle à chaque changement permet à l’entreprise de des hôtels, et bien d’autres encore. Parmi nos clients, rester compétitive. nous trouvons Beachmint, Shareable Ink, Social Commerce, TravelTainment et Travian Games. (Accéder En outre, bien qu’il soit évident qu’une solution aux études de marchés et aux témoignages Big Data de d’analytique Big Data fonctionne avec des magasins Pentaho). de données traditionnels, elle doit également pouvoir fonctionner avec les nouveaux magasins de Big Data L’une des marques distinctives qui frappe ces entreprises comme les bases de données Hadoop et NoSQL. est l’environnement de développement visuel de Pentaho. Plutôt que d’écrire du code et de développer Pentaho: Votre Partenaire des scripts, les entreprises peuvent rapidement définir Il est clair que l’analytique Big Data nécessite des traitement, l’intégration et la modélisation des données. solutions qui facilitent l’exécution des processus, n’exigent Ainsi, les résultats parviennent plus rapidement, la charge aucune nouvelle ressource technique et réduisent le délai du personnel est allégée et l’analytique devient accessible d’obtention des résultats. C’est là qu’intervient Pentaho. à différents types d’utilisateurs grâce à la suppression de des flux de travail logiques pour gérer l’absorption, le la complexité technique. Big Data : une complexité réduite pour un retour sur investissement plus rapide PENTAHO 4 Solution complète d’analyse du Big Data et de gestion des données visuelles Absorption, traitement et intégration de données Visualisation et recherche de données Création de rapports d’entreprise et ad hoc Analyse prédictive Pentaho Big Data Analytics Hadoop NoSQL Bases de données analytiques Relationnel L’ajout le plus récent à la plate-forme Pentaho est Au vu des problèmes potentiels qui peuvent survenir Instaview, la première application interactive instantanée lors de la gestion et de l’incorporation du Big Data dans pour le Big Data. Pour les analystes de données, Instaview les processus décisionnels, les entreprises ont besoin de facilite et accélère considérablement la recherche, solutions faciles à utiliser à la hauteur des défis actuels et la visualisation et l’analyse d’importants volumes de offrant la flexibilité nécessaire pour répondre aux défis données diverses dans Hadoop, MongoDB, Cassandra de demain. Avec une plate-forme unique comportant des et HBase. Instaview permet aux analystes de données outils visuels qui simplifient le développement, Pentaho d’accéder au Big Data, élimine le besoin d’outils distincts ne réduit pas seulement le temps nécessaire pour obtenir de visualisation du Big Data et simplifie la distribution et des analyses de Big Data, il rend aussi les fonctionnalités la gestion de l’accès au Big Data pour les informaticiens. d’analytique accessibles à différents types d’utilisateurs, notamment la préparation des données, la recherche des Du point de vue de l’exécution, Pentaho est unique car données et l’analyse prédictive qui prennent en charge un il combine une approche de développement visuel avec processus d’analyse Big Data itératif. la possibilité d’exécuter en parallèle via MapReduce sur un cluster Hadoop. L’exécution prend ainsi 15 fois moins L’approche actuelle de l’analytique Big Data est source de de temps qu’avec une approche par programmation nombreux problèmes potentiels. manuelle. En raison de la nature dynamique du marché actuel, les priorités commerciales peuvent changer rapidement. Big Data : une complexité réduite pour un retour sur investissement plus rapide PENTAHO 5 En savoir plus sur Pentaho Business Analytics pentaho.fr/contact Siège Citadel International - Suite 340 5950 Hazeltine National Dr. Orlando, FL 32822, USA tel +1 407 812 6736 fax +1 407 517 4575 Bureaux aux États-Unis et Dans le Monde 353 Sacramento Street, Suite 1500 San Francisco, CA 94111, USA tel +1 415 525 5540 toll free +1 866 660 7555 Royaume-Uni, Reste de l’Europe, Moyen-Orient et Afrique Londres, Royaume-Uni tel +44 7711 104854 Numéro gratuit (Royaume-Uni) 0 800 680 0693 FRANCE Bureaux - Paris, France tel +33 97 51 82 296 Numéro gratuit (France) 0800 915343 ALLEMAGNE, AUTRICHE, SUISSE Bureaux - Francfort, Allemagne tel +49(0)89 / 37 41 40 81 Numéro gratuit (Allemagne) 0800 186 0332 BELGIQUE, PAYS-BAS, LUXEMBOURG Bureaux - Anvers, Belgique tel +31 6 52 69 88 01 Gebührenfrei (Belgique) 0800 773 83 Be social with Pentaho: Copyright ©2015 Pentaho Corporation. Redistribution permitted. All trademarks are the property of their respective owners. For the latest information, please visit our web site at pentaho.com.