Intégration de données hétérogènes et réparties
Transcription
Intégration de données hétérogènes et réparties
Intégration de données hétérogènes et réparties Anne Doucet [email protected] 1 Plan • Intégration de données • Architectures d’intégration – Approche matérialisée – Approche virtuelle • Médiateurs – Conception et intégration – Traitement des requêtes – Systèmes existants • Médiation et architectures P2P 2 Intégration de données • • • • Contexte Caractéristiques Taxonomie des systèmes existants Processus d’intégration de données 3 Problématique Globalisation des données et des ressources 4 Intégration de données Infrastructures de médiation Accès transparent aux données : illusion d’un système unique et homogène ¾ dictionnaire de données réparti, requêtes et transactions réparties, échange de Données, coopération, cohérence, sécurité, … 5 Contexte • Sources d’informations nombreuses et très diversifiées (SGBD R, SGBDO, XML, fichiers texte, pages Web, etc.) • Différents modes de consultation – Langages et modes de requêtes différents (SQL, moteurs de recherche, programme d’applications…) – Différentes façons de répondre (différentes présentations du résultat) : pages Web, tableurs, relations… • Différents interactions avec la source – Protocoles de communication (JDBC, ODBC, IIOP) – Différentes interfaces 6 Exemple Moteur de recherches SQL OQL tuples SGBD relationnel SGBD objet Agence Chaine de voyage hotelière objets XQuery xml SGBD Semi-Structuré Site horaire des vols API html Fichiers Fichiers Fichiers texte texte texte Informations Pays instances Application Météo 7 Intégration de données Fournir un accès (requêtes, éventuellement mises à jour) uniforme (les sources sont transparentes à l’utilisateur) à des sources (pas seulement des BD) multiples (même 2 est un problème) autonomes (sans affecter le comportement des sources) hétérogènes (différents modèles de données, schémas) structurées ( ou au moins semi-structurées) 8 Caractéristiques des sources • • • • Distribution Hétérogénéité Autonomie Interopérabilité Distribution Interopérabilité Autonomie Hétérogénéité 9 Distribution • Les données sont stockées sur des supports répartis géographiquement. • Offre disponibilité et amélioration des temps d’accès. • Pbs: – Localiser la (ou les) source(s) contenant les données pertinentes. – Tenir compte de la puissance des sources et de leur charge – Les sources peuvent être temporairement indisponibles 10 Hétérogénéité • L’hétérogénéité concerne les données, les modèles et les langages. • Système homogène : • même logiciel gérant les données sur tous les sites • même modèle de données • même univers de discours • Système hétérogène : • n’adhère pas à toutes les caractéristiques d’un système homogène • langages de programmation et d’interrogation différents, modèles différents, SGBD différents 11 Hétérogénéité des données • Sémantique – Signification, interprétation ou utilisation différente de la même donnée – Types de relations sémantiques • • • • R1 identique à R2 : même constructeur, même concept R1 équivalente à R2 : constructeurs différents, même concept R1 compatible avec R2 : ni identiques, ni équivalents R1 incompatible avec R2 : contradictoires • Structurelle 12 Hétérogénéité des données • Sémantique • Structurelle – Représentation différente des mêmes concepts dans des bases différentes – Conflits de noms, types de données, attributs, unités 13 Autonomie • Conception : sources locales avec des • modèles de données propres, • langage d’interrogation • Interprétation sémantique des données, contraintes, fonctions … • Communication : les sources de données locales décident quand et comment répondre aux questions d’autres sources • Exécution : pas d’information provenant des sources locales sur • l’ordre d’exécution des transactions locales ou des opérations externes • pas de distinction entre les opérations locales et globales • Association : • connexion et déconnexion des sources • partage de données et des fonctions 14 Interopérabilité • Systèmes interopérables : • • • • échange de messages et de requêtes fonctionnent comme une unité pour une tâche commune partagent les fonctions Communiquent même avec des composants internes incompatibles • Propriétés fondamentales à tout système interopérable : – Distribution – Hétérogénéité – Autonomie 15 Taxonomie de SGBD hétérogènes et répartis SGBD homogènes répartis Multi-SGBD Hétérogènes Localement intégrés Distribution SGBD Fédérés Répartis Multi-SGBD répartis oui partielle non totale Autonomie oui SGBD hétérogènes répartis Hétérogénéité SGBD Hétérogènes intégrés SGBD fédérés Hétérogènes répartis SGBD fédérés hétérogènes Multi-SGBD hétérogènes Multi-SGBD Hétérogènes répartis 16 Localisation de données Systèmes de requêtes Pour sources hétérogènes Les données restent sur le site où elles se trouvent Les données sont transférées Intégration virtuelle Intégration matérialisée Données natives structurées SGDB universel Données structurées Natives et dérivées Entrepôt de données Données structurées Systèmes fortement intégrés Données natives Structurées Semi-structurées Non structurées Systèmes Faiblement intégrés Bases de données fédérées Données natives Non structurées Recherche D’information Moteurs de recherche 17 Niveau intégration faible • • • • fort Bases de données réparties Fédérations de bases de données Multi bases de données avec schéma global Bases de données inter opérables … 18 Processus d’Intégration Processus semi automatisable permettant d’intégrer des données structurellement et sémantiquement hétérogènes. Problème ancien (voir état de l’art dans A.P.Sheth and J.A Larson. Federated database systems for managing distributed, heterogeneous, and autonomous databases. ACM Computing Surveys, 22(1):183-236, Mars 90). Pbs : hétérogénéité des modèles de données, des puissances d’expression, des modélisations. Un système d’intégration comprend 4 tâches principales : - intégration de schéma - fusion de données - traduction de requêtes - réécriture de requêtes 19 Intégration de schéma – Pré intégration • Analyse des schémas : – identification des éléments semblables dans les schémas initiaux, et description des liens inter-schémas. – unifier les types en correspondance en un schéma intégré et produire les règles de traduction associées entre le schéma intégré et les schémas initiaux. • Ordre d’intégration • Définition de contraintes globales – Comparaison • Identification de relations entre attributs • Homonymes, synonymes, types de données, dépendances • Propriétés (assertions) de correspondance inter schémas (dépendances d’inclusion, exclusion, union) • S’assurer que l’ensemble d’assertions est cohérent et minimum. 20 Fusion de données – Mise en conformité : résolution de conflits • Classification : les populations du monde réel représentées par les deux types sont différentes. • Description : les types ont des ensembles différents de propriétés • Structure : les concepts utilisés pour décrire les types sont différents • Hétérogénéité : les modèles de données utilisés sont différents. • Données : des instances en correspondance ont des valeurs différentes pour des propriétés en correspondance. – Regroupement et restructuration : mise en forme d’objets dans la vue intégrée 21 Représentation des aspects sémantiques • Logique de description • Méta attributs et valeurs à représentation d’un contexte • Dictionnaires de données à vocabulaire utilisé dans les bases de données • Ontologies décrivant des domaines de discours (concepts, relations, valeurs) 22 Architectures d’intégration • Intégration matérialisée – Les données provenant des sources à intégrer sont stockées sur un support spécifique (entrepôt de données). – L’interrogation s’effectue comme sur une BD classique (relationnelle). • Intégration virtuelle – Les données restent dans les sources – Les requêtes sont faites sur un schéma global, puis décomposées en sous-requêtes sur les sources. Les différents résultats des sources sont de la requête sont combinés pour former le résultat final. 23 Architecture d’entrepôt de données utilisateur requête réponse Entrepôt (BD relationnelle) Intégrateur Extraction et nettoyage de données Schéma local Source 1 Schéma local Source 2 Schéma local Source 3 24 Architecture de médiateur utilisateur requête réponse Schéma global Médiateur adaptateur adaptateur Schéma local Schéma local Source 1 Source 2 adaptateur Schéma local Source 3 25 Matérialisé vs. virtuel • Architectures matérialisées – Bonnes performances – Données pas toujours fraîches – Nettoyage et filtrage des données • Architectures virtuelles – Les données sont toujours fraîches – Traitement de requêtes peut être coûteux – Défi principal : performances 26 Entrepôts de données 27 Motivations • • • • Réconciliation sémantique – Dispersion des sources de données au sein d’une entreprise – Différents codage pour les mêmes données – L’entrepôt rassemble toutes les informations au sein d’un unique schéma – Conserve l’historique des données Performance – Les données d’aide à la décision nécessitent une autre organisation des données – Les requêtes complexes de l’OLAP dégradent les performances des requêtes OLTP. Disponibilité – La séparation augmente la disponibilité – Une bonne façon d’interroger des sources de données dispersées Qualité des données 28 Systèmes légués • gros système, critique, sur environnement ancien. Souvent peu documenté. Interactions entre les différents modules peu claires. Très cher à maintenir. • Il faut l'intégrer (migration) au système actuel (Entrepôt) = architecture cible. • Contraintes : migration sur place, garder opérationnel, corriger et améliorer pour anticiper, le moins de changements possibles (diminuer le risque), flexible sur les évolutions futures, utiliser les technologies modernes. • Approche classique : tout réécrire dans l'architecture cible – promesses à tenir dans des conditions changeantes – problème de transfert de très gros fichiers (plusieurs jours) dans système critique – gros projet, retard mal vus, risque d'abandon • Approche incrémentale : – isoler des sous-systèmes a migrer – établir des passerelles pour que les modules déjà migrés puissent communiquer avec les modules encore dans le système légué (traducteur de requêtes et de données). 29 – coordonner les mises à jour pour garder la cohérence. Bases de Données/Entrepôts de données BD- OLTP Objectif collecte de données opérations au jour le jour Utilisateurs un département (Employé) Types de données Informations n-uplets accédés Opérations données de gestion (données courantes) détaillées dizaines requêtes simples, pré-déterminées sélections et mises à jour nombreuses transactions transactions courtes temps réel recherche d'enregistrements détaillés Entrepôts consultation et analyse transversal (Gestionnaire) données d’analyse (données historiques) détaillées + agrégées millions requêtes complexes, ad-hoc sélections peu de transactions transactions longues batch agrégations et group by 30 Bases de données/Entrepôts de données Un entrepôt recouvre un horizon bien plus long dans le temps que les systèmes de production. Il inclut de nombreuses bases de données «travaillées» de façon à définir les données uniformément. Il est optimisé pour répondre à des questions complexes pour décideurs et analystes. 31 Bases de données / Entrepôts Les entrepôts sont physiquement séparés des systèmes de production, pour des raisons de Performance : les données des systèmes de production ne sont pas organisées pour pouvoir répondre efficacement aux requêtes des systèmes d’aide à la décision. Même les requêtes simples peuvent dégrader sérieusement les performances. Accès aux données : un entrepôt doit pouvoir accéder aux données uniformément, quelle que soit la provenance des données. Formats des données : les données des entrepôts sont transformées, et doivent être disponibles sous un format simple et unique. Qualité des données: les données d’un DW sont propres et validées. La qualité des données est vue au sens large du décisionnel, et ne peut être réalisée qu’après comparaison avec d’autres éléments. 32 Caractéristiques Dans un entrepôt, les données sont • orientées par sujets : Les données organisées par sujet (clients, vendeurs, production,etc.) contiennent seulement l'information utile à la prise de décision. Les systèmes opérationnels sont plutôt orientés autour des traitements et des fonctions. • intégrées : Les données, provenant de différentes sources (systèmes légués) sont souvent structurées et codées de façons différentes. L'intégration permet d'avoir une représentation uniforme, cohérente et transparente. Lorsque les données sont agrégées, il faut s’assurer que l’intégration est correcte. • historiques : Un datawarehouse contient des données "anciennes", datant de plusieurs années, utilisées pour des comparaisons, des prévisions, etc. • non volatiles : Une fois chargées dans le datawarehouse, les données ne sont plus modifiables. Elles sont uniquement accessibles en lecture (pour l'instant...). 33 Fonctions des entrepôts • Récupérer les données existantes des différentes sources • Référencer les données de manière uniforme • Stocker les données (notamment historisées) • Mettre à disposition les données pour : •interrogation •visualisation •analyse 34 Structure des données Un entrepôt de données contient 5 types de données : fortement résumées M E T A D O N N E E S faiblement résumées données courantes données anciennes 35 Métadonnées • Les métadonnées jouent un rôle central dans l'alimentation de l’entrepôt • Ce sont les "données sur les données". • Elles sont utilisées lors de l'extraction, l'agrégation, la transformation, le filtrage et le transfert des données. • Le méta-modèle constitue le référentiel unique: • utilisateurs, profils et droits • applications • modèles de données, structure des données • règles d'agrégation et de calcul 36 Architecture données externes (connaissances, règles) datamart olap entrepôt datamart données de production (y.c. Systèmes légués) META-MODELES datamart 37 Architecture à 3 niveaux • Serveur de la BD de l’entrepôt – Presque toujours relationnel • Data marts /serveur OLAP – Relationel (ROLAP) – Multidimensionel (MOLAP) • Clients – Outils d’interrogation et de rapports – Outils d’analyse et d’aide à la décision 38 Construction d’un entrepôt de données Trois phases principales 1. Acquisition: Extraction : collection de données utiles Préparation : transformation des caractéristiques des données du système opérationnel dans le modèle de l’entrepôt Chargement : nettoyage (élimination des dupliqués, incomplétudes, règles d’intégrité, etc.) et chargement dans l’entrepôt (trier, résumer, calculs, index). 2. Stockage : Les données sont chargées dans une base de données pouvant traiter des applications décisionnelles. 3. Restitution des données : Il existe plusieurs outils de restitution (tableaux de bord, requêteurs SQL, analyse multidimensionnelle, data mining ...) 39 Maintenance • • • Les données de l’entrepôt sont stockées sous forme de vues matérialisées sur les différentes sources de données. Quand répercuter les mises à jour des sources ? – À chaque modification ? – Périodiquement ? – À définir par l’administrateur Comment les répercuter ? – Tout recompiler périodiquement ? – Maintenir les vues de façon incrémentale • Détecter les modifications (transactions, règles actives, etc.) • Les envoyer à un intégrateur qui détermine les vues concernées, calcule les modifications et les répercute. 40 Outils d’extraction de données • Les requêteurs génèrent des requêtes SQL ad hoc (GQL, Reporter, Impromptu). • Les tableaux de bord prédéfinis, consultables à l’écran, génèrent des états (histogrammes, camemberts, ...) • Les outils de data mining permettent d’extraire des informations implicites de la base. Ils utilisent des techniques de classification, de segmentation, d’apprentissage symbolique et numérique, des statistiques, des réseaux neuronaux. (Enterprise Miner, Intelligent Miner, KnowledgeSeeker, STATlab,...) • Les analyseurs permettent de gérer les données multidimensionnelles (Outils OLAP: Explorer, PowerPlay, Metacube Explorer, ...) 41 Evolution Les entrepôts sont amenés à évoluer souvent et considérablement. La taille d'un entrepôt croît rapidement (de 20giga à 100giga en 2 ans). Pourquoi ? - nouvelles données (extension géographique, changement de fréquence des historiques, changement du niveau de détail, etc.) - ajout de nouveaux éléments de données au modèle (l'ajout d'un attribut pour 2millions de n-uplets représente une augmentation considérable!) - création de nouveaux index, résumés - ajout de nouveaux outils (générateurs de requêtes, outils OLAP, etc.) - nouveaux utilisateurs - complexité des requêtes Comment garantir l'extensibilité, la disponibilité, la maintenabilité ? 42 Evolution Les prototypes ne sont guère utiles (ne dépassent pas 20giga), les estimations sont souvent erronées... Trois aspects majeurs sont concernés : la base de données doit être extensible, disponible (plus de batch), facilement gérable (optimisation, indexation, gestion du disque automatiques). le middleware (gestionnaire de transactions, gestionnaire d'accès,...) doit être performant et cohérent. Là aussi, extensibilité, disponibilité, facilité de gestion. l'intégration des outils doit se faire avec un souci de compatibilité. Les outils doivent être conformes au plus grand nombre de standards. 43 Problèmes ouverts dans les DW • Alimentation des entrepôts : 1/3 de la taille du projet. Simplifier le processus pour en alléger le coût. • Maintenance : maintenir des vues matérialisées. Pb de cohérence. Pb de mise à jour à travers les vues. • Intégration de schéma : les différentes sources ont des schéma différents, le DW doit avoir un schéma global unique. Comment faire ? • Effet taille : les DW grossissent "`à vue d'oeil" (victimes de leur succès), vers des tera-octets. Comment gérer cela ? Les solutions actuelles seront-elles viables ? • Coût d'un DW prohibitif pour les petites entreprises. Commencer par ne faire que des data-marts et les intégrer peu à peu... 44