SAP BusinessObjects Data Integrator XI 3 Cursus Décisionnel
Transcription
SAP BusinessObjects Data Integrator XI 3 Cursus Décisionnel
Cursus Décisionnel SAP BusinessObjects Data Integrator XI 3 Réf. E658C La formation SAP BusinessObjects Data Integrator XI 3 vous permettra d’acquérir une méthode, ainsi que les connaissances nécessaires pour créer des projets d’intégration de données performants avec SAP BusinessObjects Data Integrator XI 3. Elle permet à des profils techniques de maîtriser l’interface d’alimentation de bases de données (SAP Data Services) pour mettre à disposition des utilisateurs finaux des données fiables, précises et actualisée. Durée 21 heures Pré-requis Afin de profiter pleinement de cette formation il est souhaitable de maîtriser les bases de données relationnelles et du langage SQL, ainsi que de posséder des notions de base de programmation (variables, fonctions…). Public Ce cours s’adresse aux consultants, chefs de projets, développeurs désirant acquérir les techniques et les réflexes pour alimenter des bases de données relationnelles ou ayant en charge l’implémentation, l’administration et le management des projets d’intégration de données. Méthodes et outils Formation présentielle 1 poste par stagiaire 1 vidéo projecteur Support de cours fourni à chaque stagiaire. Certificat Cette formation ne prépare pas à une certification éditeur. Validation Test sous forme d’exercice de synthèse. Programme Jour 1 Rappel du concept de Data Warehousing et du rôle de l’ETL Description de l’architecture Data Warehouse et de la modélisation dimensionnelle. Description des fonctionnalités de la couche d’alimentation des données décisionnelles : • Operational Data Store, • Data Staging Area, • Collecte et intégration des données. Présentation de l’outil BODI Définition de l’architecture de BODI et son interface de développement des flux. Définition d’un projet, des objets et des flux et leurs relations dans BODI. Définition des données sources et cibles et des métadonnées Connexions à des données sources et cible : bases de données et fichiers XML et fichiers positionnels. Gestion des métadonnées et modification des formats. Définition du référentiel d’accès aux données. Notion de « datastore ». Audit des données et gestion des exceptions. Reporting des métadonnées. Création et gestion des « jobs » « Job », « workflow » et « data flow ». Objets dans les schémas source et cible. « Query Transform ». Planification et exécution du « job ». Ajout de table au « data flow » selon un modèle prédéfini. Description de l’éditeur de la cible. Jour 2 Utilisation des fonctionnalités de transformation de Data Integrator Panorama et typologie des fonctionnalités de transformation. Fonctionnalités incontournables : pivot, aplatissement d’une hiérarchie, XML Pipeline, « merge » de fichiers, variables et paramètres, langage de scripting, options de mise à jour des données, « look-up ». Change Data Capture (CDC) ou la Capture des Données Modifiées (CDM) Définition des différences entre le CDM basé sur la source et le CDM basé sur la cible. Gestion des erreurs et des exceptions. Procédures de reprise. Exécution de données malgré des problèmes. Clés de substitution Rôle des clés de substitution. Gestion des modifications apportées aux données avec des clés de substitution. Gestion des environnements et des utilisateurs Environnement multiutilisateur. Tâches communes. Gestion des environnements de développement, test et production. Outils de migration. Migration et portabilité des environnements. Jour 3 Interface d’administration Administration via le Web. Sécurité sur le référentiel central. Administration des « batch ». Analyser les effets d’une modification de structure de table avec l’interface d’analyse d’impact. Visualiser les statistiques d’exécution des jobs avec les tableaux de bord opérationnels. Validation, exécution et débogage des « jobs » et des transformations Descriptions et des annotations. Validation et exécution des « jobs ». Visualisation en mode « trace ». Débogage des « jobs ». Description des transformations « built-in ». Encapsulation des « data flow ». Fonctions « built-in ». Optimisation des performances des flux Optimisation des performances de la source et de la cible. Optimisation des performances des traitements. Partitionnement et d’exécution parallèle des flux. Fonctionnalité de « Data Transfer ». Travaux pratiques : mise en place d’exécutions parallèles des « jobs ». Soustraitance des traitements à la base de données. ESIC - Tel. 01 53 90 15 20 Mail. [email protected] - N° Agrément : 11.92.155.00.92 www.esic-online.com