SAP BusinessObjects Data Integrator XI 3 Cursus Décisionnel

Transcription

SAP BusinessObjects Data Integrator XI 3 Cursus Décisionnel
Cursus Décisionnel
SAP BusinessObjects Data Integrator XI 3
Réf. E658C
La formation SAP BusinessObjects Data Integrator XI 3 vous permettra d’acquérir une
méthode, ainsi que les connaissances nécessaires pour créer des projets d’intégration de
données performants avec SAP BusinessObjects Data Integrator XI 3. Elle permet à des profils
techniques de maîtriser l’interface d’alimentation de bases de données (SAP Data Services)
pour mettre à disposition des utilisateurs finaux des données fiables, précises et actualisée.
Durée
21 heures
Pré-requis
Afin de profiter pleinement de
cette formation il est souhaitable de
maîtriser les bases de données
relationnelles et du langage SQL,
ainsi que de posséder des notions
de base de programmation
(variables, fonctions…).
Public
Ce cours s’adresse aux consultants,
chefs de projets, développeurs
désirant acquérir les techniques
et les réflexes pour alimenter des
bases de données relationnelles ou
ayant en charge l’implémentation,
l’administration et le management
des projets d’intégration de données.
Méthodes et outils
Formation présentielle
1 poste par stagiaire
1 vidéo projecteur
Support de cours fourni à chaque
stagiaire.
Certificat
Cette formation ne prépare pas à
une certification éditeur.
Validation
Test sous forme d’exercice de
synthèse.
Programme
Jour 1
Rappel du concept de Data
Warehousing et du rôle de l’ETL
Description de l’architecture Data
Warehouse et de la modélisation
dimensionnelle.
Description des fonctionnalités de la
couche d’alimentation des données
décisionnelles :
•
Operational Data Store,
•
Data Staging Area,
•
Collecte et intégration des
données.
Présentation de l’outil BODI
Définition de l’architecture de BODI et
son interface de développement des flux.
Définition d’un projet, des objets et des
flux et leurs relations dans BODI.
Définition des données sources et
cibles et des métadonnées
Connexions à des données sources et
cible : bases de données et fichiers XML et
fichiers positionnels.
Gestion des métadonnées et modification
des formats.
Définition du référentiel d’accès aux
données.
Notion de « datastore ».
Audit des données et gestion des
exceptions.
Reporting des métadonnées.
Création et gestion des « jobs »
« Job », « workflow » et « data flow ».
Objets dans les schémas source et cible.
« Query Transform ».
Planification et exécution du « job ».
Ajout de table au « data flow » selon un
modèle prédéfini.
Description de l’éditeur de la cible.
Jour 2
Utilisation des fonctionnalités de
transformation de Data Integrator
Panorama et typologie des fonctionnalités
de transformation.
Fonctionnalités incontournables : pivot,
aplatissement d’une hiérarchie, XML
Pipeline, « merge » de fichiers, variables et
paramètres, langage de scripting, options
de mise à jour des données, « look-up ».
Change Data Capture (CDC) ou
la Capture des Données Modifiées
(CDM)
Définition des différences entre le CDM
basé sur la source et le CDM basé sur la
cible.
Gestion des erreurs et des exceptions.
Procédures de reprise.
Exécution de données malgré des
problèmes.
Clés de substitution
Rôle des clés de substitution.
Gestion des modifications apportées aux
données avec des clés de substitution.
Gestion des environnements et des
utilisateurs
Environnement multiutilisateur.
Tâches communes.
Gestion des environnements de
développement, test et production.
Outils de migration.
Migration et portabilité des
environnements.
Jour 3
Interface d’administration
Administration via le Web.
Sécurité sur le référentiel central.
Administration des « batch ».
Analyser les effets d’une modification
de structure de table avec l’interface
d’analyse d’impact.
Visualiser les statistiques d’exécution
des jobs avec les tableaux de bord
opérationnels.
Validation, exécution et débogage
des « jobs » et des transformations
Descriptions et des annotations.
Validation et exécution des « jobs ».
Visualisation en mode « trace ».
Débogage des « jobs ».
Description des transformations « built-in
».
Encapsulation des « data flow ».
Fonctions « built-in ».
Optimisation des performances des
flux
Optimisation des performances de la
source et de la cible.
Optimisation des performances des
traitements.
Partitionnement et d’exécution parallèle
des flux.
Fonctionnalité de « Data Transfer ».
Travaux pratiques : mise en place
d’exécutions parallèles des « jobs ». Soustraitance des traitements à la base de
données.
ESIC - Tel. 01 53 90 15 20 Mail. [email protected] - N° Agrément : 11.92.155.00.92
www.esic-online.com