Newsletter User Group Informix France

Transcription

Newsletter User Group Informix France
Informix Newsletter
1er trimestre 2013
User Group Informix France
Newsletter
Bienvenue dans la Newsletter du User Group Informix France
Au programme
Editorial ............................................................................................................................................... 3
Evènement: Informix Roadshow ......................................................................................................... 5
Evènement: IIUG 2013 à San Diego. Plus qu'un mois ! ..................................................................... 5
Technical Tip: Nouvelles fonctionnalités en 12.10.xC1 ..................................................................... 6
Technical Tip: Primary Storage Manager.......................................................................................... 18
Technical Tip: Index Compression .................................................................................................... 20
Technical Tip: Table Level Restore .................................................................................................. 23
Derniers articles ................................................................................................................................. 26
Vidéos ................................................................................................................................................ 26
Liens utiles ......................................................................................................................................... 26
Informix blogs ................................................................................................................................... 26
Abonnement / Annulation / Avis ....................................................................................................... 27
Les contributeurs de ce numéro ......................................................................................................... 27
User Group Informix France
Trimestre 1 2013
2
Newsletter
Editorial
L’année 2013 s’annonce comme une grande année pour l’offre IBM Informix.
L’équipe de recherche et développement de l’offre Informix chez IBM continue son travail fabuleux.
IBM Informix est une base de données exceptionnelle connue pour ses performances, sa haute
disponibilité à la fois au niveau transactionnel qu’au niveau décisionnel avec la sortie de Informix
Warehouse Accelerator en avril 2011.
Cela fait un peu plus de 2 ans que la version 11.70 a vu le jour avec ses nombreuses fonctionnalités de
haute disponibilité, de gestion de cluster et d’ouverture vers le monde extérieur. Depuis, il y a eu 7
versions mineures.
Les temps de réponses dans le domaine décisionnel sont inégalés : 100 fois plus rapides que les bases
de données relationnelles Informix déjà connues pour être véloce.
Le 26 mars dernier a eu lieu le lancement officiel de la nouvelle version majeure d’Informix, la version
12.1. Cette version intègre un grand nombre de nouvelles fonctionnalités tant dans le domaine
transactionnel que décisionnel. La partie Warehouse s’enrichit de plusieurs fonctionnalités et surtout la
possibilité de mettre à jour les datamarts au fil de l’eau : « trickle feed ». Tout ceci permet d’avoir une
base décisionnelle au format colonnes chargée en mémoire et en phase avec la base de données
source.
User Group Informix France
Trimestre 1 2013
3
Newsletter
Vous pouvez désormais superviser et administrer vos moteurs Informix à travers OAT sur des
plateformes mobiles (Iphone, Ipad sous IOS et Smartphones sous Android).
Je vous encourage à aller vite essayer cette nouvelle version riche en nouveautés.
User Group Informix France est heureux de vous envoyer la newsletter n°1 de l’année 2013.
Khaled Bentebal - Président de l’UGIF
Olivier Bourdin - Editeur de la Newsletter de l’UGIF
User Group Informix France
Trimestre 1 2013
4
Newsletter
Evènement: Informix Roadshow
Le 17 et 18 septembre prochain sera organisé l'Informix Technical Roadshow 2013 à Bois-Colombes
avec Scott Picket (IBM Informix WW Technical Sales) comme présentateur.
Voici les sujets présentés lors de ces deux jours:
 Latest features of Informix 12
 Replication Technologies
 Compression
 Storage Manager
 Time Series - Smart Metering
 Informix Warehouse Accelerator
 Embed and Autonomics
Pour connaître l'agenda des 2 journées et s'inscrire, utiliser le lien suivant:
https://events.na.collabserv.com/register.php?id=06dad03115&l=en-US
Evènement: IIUG 2013 à San Diego. Plus qu'un mois !
Il ne vous reste plus que quelques jours pour vous incrire à cet évènement majeur sur Informix.
Jerry Keesee et pour la première fois Bob Picciano, General Manager de la division Information
Management d'IBM, présenteront les clés de l'architecture d'Informix.
L'agenda est désormais disponible en ligne à l'adresse http://www.iiug2013.org
User Group Informix France
Trimestre 1 2013
5
Newsletter
Technical Tip: Nouvelles fonctionnalités en 12.10.xC1
Auteur : Olivier Bourdin
La voila ! En cette fin de premier trimestre 2013, la dernière version 12.10.xC1 est disponible avec un
nombre impressionnant de nouvelles fonctionnalités. Voici une liste de ces nouvelles améliorations:
Administration



















Amélioration des sauvegardes et restaurations via le Primary Storage Manager
Optimisation de l'espace disque grâce aux fonctions de compression, repack, et shrink sur les
index B-tree
Réduction de l'espace disque par la compression des large objects simples dans les dbspaces
Configuration dynamique du serveur de bases de données
Configurer simplement un server Informix embarqué
Contrôle des serveurs Informix à partir de votre système mobile
Stocker les index R-tree dans des dbspaces avec une taille de page non standard
Utilisation de l'interface des tables virtuelles (VTI) pour accélérer l'exécution des requêtes SQL
Gain d'espace disque en activant la compression automatique des données
Amélioration de la scalability des caches mémoires
Activer des variables d'environnement pour les instances Informix dans des fichiers de
configuration (UNIX)
Support des requêtes distribuées dans les installations "non-root"
Amélioration des connexions aux servers Informix sur les systèmes Windows
OpenAdmin Tool (OAT) pour Informix est installé par défaut avec le Client-SDK
Contrôle simultané plusieurs instances dans OAT
Contrôle de la compression dans IBM OpenAdmin Tool (OAT) pour Informix
Visualisation graphique des buffer pools et des extents dans OAT
Connection à OAT avec votre identifiant
Configuration des sauvegardes automatiques via ON-BAR dans OAT
Développement d'applications











Inclusion d'une expression CASE dans la clause ORDER BY des requêtes SELECT
Extension de la syntaxe CREATE TABLE . . . AS SELECT pour créer une table résultante
Gestion automatique du stockage disque pour les tables "rolling window" (RANGE INTERVAL)
Utilisation des opérateurs INTERSECT and MINUS pour combiner deux requêtes SQL
Support des fonctions d'agrégats OLAP
Support de la clause DISTINCT comme arguments des agrégats COUNT, SUM, AVG, et
STDDEV
Support de plusieurs clauses DISTINCT dans des fonctions d'agrégats
Amélioration des performances pour les requêtes avec jointure ANSI
Support de l'instruction CASE dans la langage SPL
Optimisation des projections des tables temporaires pour les vues et les tables dérivées
Contrôle étendu des valeurs nulles dans un ORDER BY
User Group Informix France
Trimestre 1 2013
6
Newsletter
Haute Disponibilité (MACH11) et Réplication d'Entreprise (ER)















Propagation d'un fichier externe à l'instance à travers un GRID
Amélioration du support des failover réseaux
Contrôle du statut des queues Enterprise Replication
Support d'Enterprise Replication sur des serveurs non-root
Simplification de la configuration d'un data consolidation system
Définition d'un master replicate par défaut
Réplication des données time-series
Réplication des opérations utilisant les mécanismes de light-append
Amélioration de la consistance transactionnelle lors de la synchronisation HDR
Nouvelle clause GRID pour les requêtes pour sélectionner un grid server
Administrer les grids dans OAT
Possibilité de différer la propagation d'instructions DDL dans un grid
Réduction du délai de réplication entre Enterprise Replication et un SDS server
Sérialisation de l'application des transactions sur un réplica
Réplication de tables sans clés primaires ou de colonnes ERKEY.
TimeSeries




Gérer les données time-series dans un container multi-partitions (rolling window container)
Amélioration de la vitesse d'écriture dans les containers time-series
Amélioration de la vitesse de chargement des données time-series en réduisant l'écriture dans
les logicals logs
Récupératon du timestamp du premier et dernier élément time-series
Informix Warehouse Accelerator




Extension des fonctionnalités SQL de Informix Warehouse Accelerator
Nouvelles fonctions SQL pour administrer Informix Warehouse Accelerator
Synchronisation continue entre les données et le datamart
Ajout de privilèges utilisateurs pour administrer Informix Warehouse Accelerator
A noter qu'à partir de cette version les fonctionnalités suivantes ne sont plus supportées:





ON-Monitor
Informix Storage Manager (ISM)
Optical subsystem
Module Geodetic DataBlade
Object Interface for C++
________________________________________
User Group Informix France
Trimestre 1 2013
7
Newsletter

Amélioration des sauvegardes et restaurations via le Primary Storage Manager
IBM Informix Primary Storage Manager (PSM) qui remplace désormais IBM Informix Storage
Manager (ISM) est plus facile à configurer et à utiliser particulièrement dans des environnements
embarqués. Vous utiliserez le gestionnaire PSM onpsm to administrer le stockage des sauvegardes et
restaurations ON-Bar. Ceci inclut les backups parallèles qui utilisent des devices disques.
L'utilitaire onsmsync propose de nouvelles commandes que vous pourrez utiliser pout exporter des
sauvegardes ou importer des sauvegardes à partir d'un pool de device externes gérés par PSM.

Optimisation de l'espace disque grâce aux fonctions de compression, repack, et shrink sur les index
B-tree
Vous pouvez utiliser les commandes de l'Admin-API ou l'instruction SQL CREATE INDEX afin de
sauver de l'espace disque en compressant les index B-tree. D'autres commandes de l'Admin-API permet
de connaitre l'espace libre d'un index B-tree, retourner l'espace libéré d'un dbspace ou estimer la
quantité d'espace qui peut être sauvée en compressant les index.
Exemple:
EXECUTE FUNCTION task ("index estimate_compression", "index", "database", "owner");
EXECUTE FUNCTION task ("index compress reapck shrink", "index", "database", "owner");
EXECUTE FUNCTION task ("index repack shrink", "index", "database", "owner");

Réduction de l'espace disque par la compression des large objects simples dans les dbspaces
Vous pouvez utiliser les commandes de l'Admin-API afin de sauver de l'espace disque en
compressant les large objects "simples" (types TEXT et BYTE) qui sont stockés dans la même partition
dans le même dbspace. Quand vous utilisez les commandes compress ou uncompress, le serveur de
base de données compresse à la fois les row de la table et les large objects rérérencés. Il est bien sur
possible de compresser uniquement les données de type row ou uniquement les large objects simples.
Exemple:
EXECUTE FUNCTION task ("create dictionary compress blobs", "partnum list");
 Configuration dynamique du serveur de bases de données
Vous pouvez configurer dynamiquement un serveur de base de données de plusieurs façons:
- Modification dynamique des paramètres ONCONFIG en utilisant la commande onmode, OAT ou
les commandes de l'Admin-API
- Exportation et importation dynamique de paramètres ONCONFIG.
- Utilisation du nouveau paramètre ONCONFIG AUTO_TUNE pour activer ou désactiver le tuning
automatique.
 Configurer simplement un server Informix embarqué
Vous pouvez maintenant configurer des serveurs embarqués ce qui exige une configuration moindre:
- En utilisant un variable d'environnement dans des valeurs de paramètre ONCONFIG
- En simplifiant les fichiers de configuration (quand Informix démarre, it utilise seulement un
nombre limité de paramètres critiques).
- En activant le tuning automatique avec le nouveau paramètre de configuration
- En important et exportant les valeurs de paramètre de configuration
User Group Informix France
Trimestre 1 2013
8
Newsletter

Contrôle des serveurs Informix à partir de votre système mobile
Mobile OpenAdmin Tool (OAT) est disponible sur les systèmes
d'exploitation iOS et Android.
Pour utiliser Mobile OAT, vous devez avoir installé OAT 3.11, une
instance Informix fonctionnelle et une connexion internet sur un serveur
au préalable.
Vous pouvez contrôler les instances Informix en version 11.10 et
supérieures.
iTunes: https://itunes.apple.com/us/app/ibm-mobile-openadmin-tool/id615822149?mt=8
Google Play: https://play.google.com/store/apps/details?id=air.com.ibm.swg.im.MobileOAT

Stocker les index R-tree dans des dbspaces avec une taille de page non standard
Auparavant les index R-tree exigeaient d'être stockés sur des dbspaces avec une taille de page
par défaut. Désormais il est possible to spécifier de stocker les index r-tree sur des dbspaces avec une
taille de page différente de la taille par défaut .

Utilisation de l'interface des tables virtuelles (VTI) pour accélérer l'exécution des requêtes SQL
Vous pouvez créer une méthode d'accès au travers de l'interface des tables virtuelles (VTI) pour
gérer les WHERE clauses dont le qualifier contient des colonnes multiples, une constante ou des
paramètres de type expression. La gestion à travers la VTI est généralement plus rapide qu'à travers le
SQL standard; Auparavant, il n'était possible d'utiliser la VTI uniquement avec des qualifier simple:
opérateur de type booléen qui compare un colonne à une constante. De nouvelles fonctions sont
disponibles telles que: mi_qual_param(),mi_qual_param_constant(),mi_qual_param_iscolumn().

Gain d'espace disque en activant la compression automatique des données
Vous pouvez utiliser le mot clé COMPRESSED dans l'instruction SQL CREATE TABLE pour
activer la compression automatique des rows de la table à la création de celle-ci. Puis quand 2000
rangées sont insérées dans la table, le serveur crée automatiquement le dictionnaire de compression et
compresse the nouvelles données qui sont insérées dans la table.

Amélioration de la scalability des caches mémoires
La gestion et l'accès aux caches mémoires sont désormais optimisés pour proposer de
meilleures performances sur les instances avec de nombreux utilisateurs connectés. Il est maintenant
possible d'augmenter dynamiquement la taille des caches en mémoire.
D'autre part la taille par défaut des cache mémoire a été doublée pour DS_POOLSIZE, PC_POOLSIZE,
PLCY_POOLSIZE et USRC_POOLSIZE. If toutes les entrées d'un cache sont utilisées, la taille du cache
sera augmentée de 10% automatiquement. Il est possible d'augmentation la taille du cache via la
commande onmode -wm suivie du paramètre de gestion du cache.
En exécutant la commande onstat -g cac, vous pourrez visualiser les informations sur les caches.
User Group Informix France
Trimestre 1 2013
9
Newsletter

Activer des variables d'environnement pour les instances Informix dans des fichiers de configuration
(UNIX)
Vous pouvez définir des variables d'environnement dans un fichier tel que le onconfig pour une
instance Informix. Cette définition locale sera indépendante de variables systèmes ou globales. Ces
définitions peuvent être reconnues par les utilitaires oncheck, onclean, oninit, onload, onlog, onmode,
onspaces, onstat, ontape et onunload en ajoutant l'option -FILE <file> avant toutes autres options.
Exemple:
$ cat IDS1210FC1.env
#$INFORMIXSERVER
#$INFORMIXSQLHOSTS
#$ONCONFIG
#$AFDEBUG
sar12101shm
/usr2/support/products/sqlhosts
onconfig.saroumane
1
$ oninit -FILE=IDS1210FC1.env

Support des requêtes distribuées dans les installations "non-root"
Vous pouvez exécuter des requêtes SQL distribuées avec des installations d'informix "non root".
Désormais en utilisant le paramètre de configuration REMOTE_USERS_CFG pour définir les utilisateurs
trustés ou le paramètre REMOTE_SERVER_CFG pour les hosts trustés, les requêtes distribuées ne
requièrent des serveurs avec les privilèges root

Amélioration des connexions aux servers Informix sur les systèmes Windows
Sur les systèmes d'exploitations Windows, vous pouvez maintenant définir les paramètres de
connectivité aux des serveurs Informix en utilisant un fichier sqlhost au lieu d'utiliser la registry Windows.
Le fichier est définit dans %INFORMIXDIR%\etc\sqlhosts.%INFORMIXSERVER% et utilise le même
format que le fichier sqlhosts sous Unix. Une tache du scheduler appelée sync_registry convertira
automatiquement les information de connexion entre le fichier sqlhosts et la registry Windows. Cette
tache s'exécute par défaut toutes les 15 minutes mais il est possible de synchroniser manuellement les
informations en exécutant l'utilitaire syncsqlhosts

OpenAdmin Tool (OAT) pour Informix est installé par défaut avec le Client-SDK
IBM OpenAdmin Tool (OAT) pour Informix est désormais installé par défaut durant l'installation
"typique" des produits suivants:
- IBM Infirmix Client-SDK version 4.10
- IBM Informix Connect version 4.10
Client-SDK et Connect version 4.10 sont inclus dans le Bundle Informix Dynamic Server

Contrôle simultané de plusieurs instances dans OAT
Vous pouvez contrôler plusieurs instances du serveur de base de données simultanément dans
OpenAdmin Tool (AOT) à l'aide du tableau de contrôle "Group Summary". Le tableau de bord affiche
toutes les serveurs de bases de données définis dans un group AOT. Dans ce tableua de bord, vous
visualiserez les information sur l'état des serveurs, le nombres d'alertes et d'erreurs, les virtual
processors, la mémoire et l'utilisation disque.
User Group Informix France
Trimestre 1 2013
10
Newsletter

Contrôle de la compression dans IBM OpenAdmin Tool (OAT) pour Informix
OAT a de nouvelles options de compression dans les pages "Space Administration > Storage >
Tables and Indexes":
- Vous pouvez activer la compression automatique quand vous compressez des tables ou des
fragments existants. Vous pouvez désactiver la compression automatique quand vous
décompresser une table ou un fragment.
- Vous pouvez compresser des index. Vous pouvez consolider l'espace libéré dans les index
(repack) et redonner cet espace libéré au dbspace. Un index doit avoir au moins 2000 clés pour
pouvoir être compressé.
- Vous pouvez compresser les large objects (TEXT et BYTE) quand vous compressez une table
ou un fragment.

Visualisation graphique des buffer pools et des extents dans OAT
Vous pouvez visualiser des graphiques sur le nombre d'extents d'une base de données et le
pourcentage de pages cachées dans les buffer pools dans OpenAdmin Tool (AOT) dans le nouvel écran
Performance ANalysis > System Reports > Graphs.
User Group Informix France
Trimestre 1 2013
11
Newsletter

Connection à OAT avec votre identifiant
Vous pouvez utiliser les commandes de l'AdminAPI to accorder des privilèges à un utilisateurs to
administrer un serveur de base de données. Les utilisateurs qui obtiennent de tels droits peuvent se
connecter à AOT avec leur propre nom d'utilisateur. Par défaut, les utilisateurs devaient se connecter
avec le compte informix ou DBSA. Il est possible d'identifier quel commandes dans OAT un utilisateur
pourra exécuter.

Configuration des sauvegardes automatiques via onbar dans OAT
Après avoir configuré un Storage Manager, vous pouvez configurer l'automatisation des
sauvegardes via ON-Bar en utilisant l'interface graphique d'OpenAdmin Tool. Auparavant OAT ne
permetait que la configuration des backup réalisés avec ontape. Un nouveau wizard "Space
Administration -> Backup" vous offre la possibilité d'utiliser ON-Bar.
________________________________________

Inclusion d'une expressions CASE dans la clause ORDER BY des requêtes SELECT
La clause ORDER BY peut maintenant inclure l'expression CASE. Cette option permet de
paramétrer le résultat du tri en fonction de plusieurs conditions logiques.

Extension de la syntaxe CREATE TABLE . . . AS SELECT pour créer une table résultante
La syntaxe CREATE TABLE AS ... SELECT FROM permet de définir une table permanente et de
copier les données à partir d'une autre table. Auparavant il était nécessaire de créer tout d'abord la table
avec la commande CREATE TABLE puis de charger les données avec l'instruction INSERT INTO ...
SELECT FROM.
La syntaxe SELECT INTO peut désormais stocker le résultat dans une table permanente. Auparavant le
résultat ne pouvait être stocké que dans une table temporaire ou dans un external table.

Gestion automatique du stockage disque pour les tables "rolling window" (RANGE INTERVAL)
Pour les tables qui utilisent une stratégie de stockage de type RANGE INTERVAL, le serveur de
base de données crée de nouveaux fragments automatiquement chaque fois qu'une row insérée est endehors de l'intervalle de fragmentation. Vous pouvez utiliser une nouvelle syntaxe pour définir une
politique de purge pour archiver ou supprimer des fragments en définissant une limite utilisateur sur la
taille de l'espace de stockage alloué ou le nombre d'intervalles utilisés.

Utilisation des opérateurs INTERSECT and MINUS pour combiner deux requêtes SQL
Vous pouvez utiliser les opérateurs INTERSECT et MINUS pour combiner deux requêtes.
- INTERSECT retourne seulement les rows distinctes qui sont à la fois dans les résultats des deux
requêtes.
- MINUS retourne seulement les rows distinctes présentes dans la requête de gauche mais pas
dans la requête de droite.

Support des fonctions d'agrégats OLAP
Cette version introduit le support des fonctions OLAP (Online Analytical Processing)
User Group Informix France
Trimestre 1 2013
12
Newsletter

Support de la clause DISTINCT comme arguments des agrégats COUNT, SUM, AVG, et STDDEV
Dans les version précédentes, les requêtes pouvaient utiliser les fonctions built-in COUNT(),
SUM(), AVG() et STDDEV sur une colonne ou sur une expression. Il est maintenant possible d'utiliser
ces fonctions built-in dans les expressions SQL DISTINCT.

Support de plusieurs clauses DISTINCT dans des fonctions d'agrégats
Vous pouvez maintenant inclure plusieurs fonctions d'agrégats qui retourne des valeurs
DISTINCT dans un requête. Par exemple vous pouvez inclure plusieurs clauses COUNT(DISTINCT)
dans la même requête au lieu d'écrire un requête séparée pour chacun des agrégats COUNT.

Amélioration des performances pour les requêtes avec jointure ANSI
Les requêtes avec un ANSI outer join peuvent être exécutées plus rapidement. L'optimiseur peut
désormais choisir d'utiliser en fonction des couts un hash join ou un nested loop join. Auparavant seul le
nested lop join était disponible pour les ANSI OUTER joins.

Support de l'instruction CASE dans la langage SPL
Les routines SPL peuvent maintenant utiliser l'instruction CASE comme un alternative plus rapide
aux instructions IF afin de définir un ensemble de branchement conditionnel qui sont définis sur la valeur
d'une expression. Cette syntaxe simplifie la migration d'applications SPL qui sont écrites pour Informix
Extented Parallel Server (XPS).

Optimisation des projections des tables temporaires pour les vues et les tables dérivées
Les applications ou les outils analytiques peuvent définir des requêtes dans lesquelles une table
dérivée peut contenir de multiples jointures entre des vues et des tables ce qui peut correspondre à des
centaines de colonnes. Le serveur de base de données matérialise la requête en une pseudo table
temporaire contenant toutes ces colonnes alors que la requête de base n'a besoin que d'un nombre
limite de colonne. Désormais le serveur crée la table temporaire interne seulement avec les colonnes
spécifiées dans la "projection list" c'est à dire dans la clause WHERE, l'ORDER BY ou dans toute autre
clause de la requête de base. En excluant les colonnes qui ne sont pas nécessaires, le serveur
économise des ressources disques et évite des opérations d'I/O inutiles.

Contrôle étendu des valeurs nulles dans un ORDER BY
Lorsque vous utilisez la clause ORDER BY pour trier le résultat d'une requête, il possible
d'utiliser les options NULLS FIRST et NULLS LAST afin de spécifier l'ordre des rangées dont les valeurs
sont nulles. Précédemment, le traitement des NULL fonctionnait ainsi:
- les valeurs nulles étaient placées en dernier si la clause ORDER BY spécifiait DESC.
- les valeurs nulles étaient placées en premier si la clause DESC n'était pas présente ou si la
clause ASC était utilisée.
________________________________________

Propagation d'un fichier externe à l'instance à travers un GRID
Vous pouvez propager une fichier externe présent dans un répertoire spécifique vers d'autres
serveur du GRID en exécutant la fonction ifx_grid_copy(). Par exemple si un GRID est composé de 50
serveur, vous pouvez copier un exécutable d'un serveur vers les 49 autres en exécutant cette fonction.
User Group Informix France
Trimestre 1 2013
13
Newsletter

Amélioration du support des failover réseaux
Vous pouvez configurer le Connection Manager pour contrôler les connexions réseaux
applicatives et déclencher le failover quand un problème réseau apparait. Dans les versions
précédentes le Connection Manager déclenche le failover uniquement quand le serveur primaire
présentait un échec.

Contrôle du statut des queues Enterprise Replication
Vous pouvez contrôler l'etat des queues Entreprise Replication en utilisant la commande cdr
check queue.

Support d'Enterprise Replication sur des serveurs non-root
Vous pouvez répliquer les données d'un serveur qui est une installation non-root et donc qui n'a
pas d'utilisateur informix. Il est nécessaire d'avoir le même utilisateur sur les deux serveurs.

Simplification de la configuration d'un data consolidation system
Dans une configuration GRID où plusieurs serveurs primaires répliquent des données vers un
même serveur cible, le serveur cible ne répliquant pas de données, il était auparavant nécessaire de
configurer ce type de réplication en définissant un répliqua différent sur chacun des primary server.
Désormais, il est possible de définir un réplica et de lui associer la liste des primary servers qui
enverront les données.

Définition d'un master replicate par défaut
Par défaut les réplicas ER sont des master réplicas. Si vous ne spécifier pas de master serveur
avec l'option --master, le master replicate sera basé sur le premier participant. Pour rappel, un master
replicate est utilisé pour sauver les informations du dictionnaire afin de contrôler que les participants sont
conformes au schéma.
 Réplication des données time-series
Entreprise Replication supporte désormais la réplication des données Timeseries.

Réplication des opérations utilisant les mécanismes de light-append
Les modifications non journalisées d'une table comme lors d'un chargement qui utilise les light
append peuvent être répliquées à travers Entreprise Replication. Ainsi il maintenant possible d'utiliser
High-Performance Loader en mode express avec ER.

Amélioration de la consistance transactionnelle lors de la synchronisation HDR
Vous pouvez utiliser les options de synchronisation HDR pour contrôler les performances du
systèmes et la protection des données dans votre cluster MACH11. En utilisant le paramètre de
configuration ou la variable d'environnement HDR_TXN_SCOPE, vous choisissez entre trois modes de
synchronisation: full synchronous, asynchronous et nearly synchronous. Ces trois mode de
synchronisation permettent de contrôler à quel moment la transaction commitée est envoyée au client:
après avoir été gérée sur le primary server; après avoir été envoyée sur le serveur HDR secondaire; ou
enfin après avoir été envoyé et validé par le serveur HDR secondaire.
User Group Informix France
Trimestre 1 2013
14
Newsletter

Nouvelle clause GRID pour les requêtes pour sélectionner un grid server
Vous pouvez écrire une requête SQL pour obtenir les données présentes sur plusieurs serveurs
définis dans un GRID. Pour cela il suffit d'utiliser la clause GRID dans 'instruction SELECT to spécifier
les serveurs sur lesquels on souhaite exécuter la requête. Une fois la requête exécutée sur chacun des
serveurs, le résultat est retourné pour consolidation.

Administrer les grids dans OAT
Il est possible d'administrer un GRID dans OpenaDmin Tool si les plug-ins Schema Manager et
Replication sont installés.

Possibilité de différer la propagation d'instructions DDL dans un grid
Vous pouvez exécuter une commande DDL dans un GRID sur un serveur local mais différer la
propagation de cette commande DDL sur les autres serveurs du GRID. Ainsi vous pouvez tester les
effets de cette commande DDL et la propager sur les autres serveurs ou bien la supprimer. Vous
spécifiez comment vous différerez la propagation en utilisant la fonction ifx_grid_connect() soit en
activant Entreprise Replication pour les requêtes différées.

Réduction du délai de réplication entre Enterprise Replication et un SDS server
Si un serveur Entreprise Replication est aussi un serveur primaire pour un serveur Shared Disk
secondary, vous pouvez réduire le temps de latence en réduisant le nombre de transactions qui sont
appliqués avant que les logs soient flushés sur disque. Par défaut les logicals logs sont flushés après
que 50 transactions soient appliquées ou après un délai de 5 secondes. Vous pouvez positionner le
paramètre de configuration CDR_MAX_FLUSH_SIZE à 1 pour flusher les logicals logs après chaque
transaction.

Sérialisation de l'application des transactions sur un réplica
Par défaut les transactions répliquées sont appliquées en parallèle. Vous pouvez décider de
sérialiser l'application des transactions répliquées.

Réplication de tables sans clés primaires ou de colonnes ERKEY.
Entreprise Replication exige une primary key pour répliquer les données. Auparavant, ER
demandait que la définition d'une table répliquée inclut une primary key ou un colonne shadow ERKEY.
Les colonne ERKEY nécessitaient de l'espace supplémentaire. Aussi il est possible maintenant de
spécifier les colonnes d'un index unique comme la clé de réplication et permettre à ER d'assigner une
primary key, un colonne ERKEY ou un index unique au moment de définir le réplica.
________________________________________

Gérer les données time-series dans un container multi-partitions (rolling window container)
Vous pouvez Controller le volume de données timeseries qui sont stockées dans un container en
spécifiant quand supprimer les données obsolètes. Pour cela vous devrez créer un "rolling window
container" qui inclura de multiple partitions, partitions qui seront stockées dans plusieurs dbspaces. En
configurant le rolling window container, vous définissez l'intervalle de temps pour chacune des partitions.
Par exemple 12 partitions et chacune d'entre elles stocke un mois de données. Quand vous insérerez de
données pour un nouveau mois, une nouvelle partition sera alors créée et si le nombre de partition
dépasse the maximum autorisé, la plus vielle partition devient une partition inactive. Il est possible de
User Group Informix France
Trimestre 1 2013
15
Newsletter
spécifier quand la partition inactive sera supprimée. Auparavant il était nécessaire de supprimer les
données obsolètes manuellement.
 Amélioration de la vitesse d'écriture dans les containers time-series
Par défaut, plusieurs sessions peuvent écrire simultanément dans un container timeseries. Quoiqu'il en
soit vous pouvez limiter le nombre de sessions à 1. Ainsi les données seront chargées plus rapidement.
Utilisez la procédure TCContainerLock pour contrôler l'accès au container. Auparavant il était nécessaire
d'écrire l'application pour prévenir les problèmes de contentions.

Amélioration de la vitesse de chargement des données time-series en réduisant l'écriture dans les
logicals logs
Si vous insérer des rangées timeseries dans une transaction, vous pouvez réduire le cout en
demandant à réduire le volume journalisé. Par défaut chaque rangée insérée, produit deux
enregistrement dans les logical logs: un pour l'élément inséré, un pour la mise à jour du page header. En
spécifiant que la mise à jour du page header soit fait à la fin d'une transaction, vous diminuez le nombre
d'enregistrements dans les logical logs.
 Récupératon du timestamp du premier et dernier élément time-series
Vous pouvez obtenir le timestamp du premier et du dernier élément time-series en exécutant la fonction
GetFirstElementStamp() ou Get LastElementStamp(). il possible de choisir entre des éléments
pouvant être nuls ou pas.
________________________________________

Synchronisation continue d'Informix Warehouse Accelerator
Si vous avez des contraintes exigeant que les données dans votre datawarehouse soient
toujours synchronisées avec les données de votre instance OLTP, vous pouvez configure le "continous
refreshing" des donnes dans votre datamart. Vous pouvez exécuter la fonction ifx_setupTrickleFeed()
pour démarrer la synchronisation des données dans le datamart. Il est aussi possible d'appeler la
fonction ifx_refreshMart() qui vérifiera spécifiquement les changements dans les partitions.
 Extension des fonctionnalités SQL de Informix Warehouse Accelerator
De nouvelles fonctionalités sont disponibles au niveau du SQL:
- Lorsque vous commitez plusieures requetes avec les opérateurs UNION et UNION ALL, chacune
des requêtes est evaluée par l'accélérateur et envoyée à IWA si celle-ci est qualifiée
- Vous pouvez utilisez les fonctions et agrégats OLAP ANSI SQL
- Lorsque vous triez le résultat d'une requête avec la clause ORDER BY, vous pouvez utiliser
l'option NULLS FIRST ou NULLS LAST pour spécifier l'ordre des NULL.
 Nouvelles fonctions SQL pour administrer Informix Warehouse Accelerator
IWA inclut de nouvelles fonctions et procédures pour effectuer des taches d'administration à partir de
n'importe quel client. Par exemple il possible de créer un datamart, de charger ce datamart ou d'obtenir
des statistiques sur l'accélérateur.
User Group Informix France
Trimestre 1 2013
16
Newsletter

Ajout de privilèges utilisateurs pour administrer Informix Warehouse Accelerator
Pour administrer IWA avec des routines SQL ou des classes Java, OpenAdmin Tool (AOT) ou
IBM Smart Analytics Optimizer Studio, il est nécessaire d'utiliser soit le compte informix, soit d'avoir un
rôle DBA ou enfin d'avoir le privilège WAREHOUSE. Auparavant aucune restriction n'existait sur
l'identité de l'utilisateur pour administrer IWA.
User Group Informix France
Trimestre 1 2013
17
Newsletter
Technical Tip: Primary Storage Manager
Auteur : Eric Vercelletto
A
l’aube de l’ère Informix, dans les années 1980, et au cours de
l’apparition sur notre planète du spécimen « Informixus Turbus », les
perspectives de croissance forte du volume des bases de données
commençaient déjà à soulever la question des temps nécessaires pour
effectuer les backups des données, ainsi que leur restauration. La
technologie de l’époque était principalement basée sur des supports à bande, que ce soient les
cartouches 9mm ou plus tard les DAT 4mm.
Contrairement à Informix SE ou son ancêtre Informix 4GL ‘bundle’ dont les données étaient gérées
comme des fichiers .dat et .idx contenus dans des directories xxx.dbs, la sauvegarde des données
contenues sur des raw devices ne pouvaient être sauvegardées que par un outil spécifique, dont le nom
était à l’époque tbtape.
Ontape : très simple à mettre en œuvre
Tbtape, dont le nom rend son lien de parenté avec les bandes évident, devenait plus tard ontape, un
outil fiable, très simple d’utilisation et nécessitant étonnamment peu de paramétrage. Ces qualités sont
à ce jour universellement reconnues par une partie importante des DBA Informix, l’autre partie des DBA
se sentant plus d’affinités/besoins avec l’autre outil de backup Informix nommé onbar.
Onbar : un outil à la fois performant et versatile.
Délaissant volontairement onarchive qui a été très rapidement remplacé par onbar pour de multiples
raisons (…), onbar a été introduit avec la version 7.30 (vers 1997). Les principaux atouts de onbar sont
sa capacité à efficacement gérer de gros volumes ( > 100Gb) en s’interfaçant aux principaux Storage
Managers du marché (Tivoli, Netbackup et autres…), tout en réduisant conséquemment les temps de
backup et restore grâce au backup et restore en parallèle sur différents devices.
Un autre avantage de onbar est la possibilité d’effectuer des restores « point in time » ou bien jusqu’à un
numéro de logical logs précis, permettant ainsi de restaurer l’instance Informix à une situation à une
heure précise parce que par exemple un traitement a été lancé par erreur ou a corrompu les données
après cette heure précise.
onbar permet également de restaurer individuellement des dbspaces, bien sûr dans la mesure où les
données contenues dans ces dbspaces sont cohérentes entre elles.
L'autre avantage de onbar est de pouvoir utiliser le backup pour pouvoir restaurer individuellement le
contenu de tables au lieu de dbspaces entiers comme expliqué plus haut, en mettant en œuvre
l’utilitaire archecker. Archecker mérite à lui seul un article dédié tellement il est utile.
User Group Informix France
Trimestre 1 2013
18
Newsletter
Vous avez donc compris à ce stade que ontape est extrêment simple à mettre en œuvre mais que ses
possibilités sont limitées, et que onbar est beaucoup plus puissant mais nécessite un paramétrage
beaucoup plus ardu à mettre en œuvre, soit par l’interfaçage avec des Storage Managers du marché
souvent complexes et onéreux, soit avec le Informix Storage Manager livré avec le produit.
Si vous n’êtes pas familier avec la technologie des Storage Managers, vous aurez également compris
que l’installation de Informix Storage Manager n’était « pas forcément fait pour vous » et vous serez
revenu à l’utilisation de ontape qui est tellement simple. Toutefois la privation des fonctionnalités de
onbar vous apporte une certaine amertume.
Informix Primary Storage Manager inclus dans la version 12.10
C’est à ce moment que Primary Storage Manager, livré avec IBM Informix 12.10 tombe à pic! Fini la
configuration pénible à mettre en œuvre de ISM, PSM se configure et s’active en pratiquement le temps
de le dire.
PSM n’est pas tout à fait nouveau puisqu’il vient de Informix XPS 8.11.. Toutefois le concept a été
perfectionné de façon à l’intégrer de façon transparente à onbar dans la version 12.10.
Comment configurer Primary Storage Manager ?
1. dans le fichier onconfig, mettre à jour le paramètre:
BAR_BSALIB_PATH $INFORMIXDIR/lib/libbsapsm.so
2. définir l’endroit où les backup de dbspaces seront stockés sur disque :
onpsm –D add /home/backup/dbspaces –t FILE –g DBSPOOL –p HIGH
3. définir l’endroit où les backup de logical logs seront stockés sur disque :
onpsm –D add /home/backup/logicallogs –t FILE –g LOGPOOL –p HIGH
Comment faire vos backups/restores ?
Et voilà, vous pouvez maintenant faire vos backups aussi facilement que vous l’auriez fait avec ontape,
en bénéficiant à présent des avantages de onbar cités précédemment, mais aussi de l’outil
d’administration de vos backups (notamment historique des backups) appelé onsmsync.
Pour voir la configuration de PSM:
onpsm –D list
Pour voir la liste des objets des backup :
onpsm –O list
….
A noter également que onsmsync possède des fonctionnalités d’export-import permettant de dupliquer
facilement un backup sur une autre machine.
Conclusion
Avez-vous encore des objections qui vous empêcheraient de bénéficier d’un système de backup plus
rapide qu’ontape et surtout plus riche en fonctionnalités vraiment utiles ? Si vous n’aviez pas adopté
onbar à cause de sa complexité de mise en œuvre, c’est le moment d’essayer Primary Storage
Manager.
Vous l’adopterez dans la minute suivante
User Group Informix France
Trimestre 1 2013
19
Newsletter
Technical Tip: Index Compression
Auteur : Yoram Benchetrit
L’optimisation du stockage disque et des performances associées sont des problématiques toujours
critiques dans le système de base de données, en particulier de part le nombre plus importants de
données générées et manipulées dans les applications.
Les technologies de compression introduites depuis Informix version 11.50.xC4 répondaient à ces
besoins en permettant la compression des données de table.
Grâce à la compression des données, il y a davantage de page de données dans les buffers cache et
les scans nécessitent moins d’I/O améliorant ainsi les performances.
Cette technologie de compression des données de table a été largement adoptée, et les clients ont
commencé à demander de pouvoir également retrouver ces fonctionnalités de compression au niveau
des index.
Depuis Informix version 12.10, il est désormais possible d’améliorer l’optimisation des espaces disque,
grâce à la compression des index, et la consolidation des espaces libres dans l’index avec les
opérations de repack et shrink.
Il est désormais possible de compresser un index existant, ou bien de créer un nouvel index qui sera
construit de manière compressé.
Les bénéfices sont inhérents à la compression, puisque IDS optimise les espaces disque en maintenant
les index compressés, et améliore les I/O en lisant les pages d’index compressées dans les buffer pool.
La compression des index se fait au niveau des clés des feuilles de l’arbre de BTREE, les rowids qui
suivent la clé n’étant pas compressés.
Pour être compressible, un index doit avoir au moins 2000 clés.
La compression des index peut être exécuté à partir de l’API d’administration, ou lors de l’utilisation
d’une requête SQL à la création de l’index.
Syntaxe :
1. API d’Administration
EXECUTE FUNCTION TASK(“index compress“, “idxname“, “dbname”) ;
2. Requête SQL
CREATE INDEX idxname ON tabname(col,…) COMPRESSED ;
User Group Informix France
Trimestre 1 2013
20
Newsletter
Exemple 1 :
1. Compression d’un index existent
- EXECUTE FUNCTION TASK(“index compress“ , “idx1”, “mydb”) ;
2. Opération de repack et shrink sur in index existant
- EXECUTE FUNCTION TASK(“index repack shrink”, “idx2”, “mydb”) ;
Exemple 2 :
1. Création de 2 tables et sur les mêmes données
- create table
in dbs1 lock
- create table
in dbs1 lock
tab1
mode
tab2
mode
(col1 char(200), col2 int,col3 int)
row;
(col1 char(200), col2 int,col3 int)
row;
2. Chargement des données
- load from "data.unl" insert into tab1;
- load from "data.unl" insert into tab2;
3. Création d’un index compressé, et d’un index régulier sur les 2 tables pour les mêmes données.
- create index idx1 on tab1(col1,col2) compressed;
- create index idx2 on tab2(col1,col2);
4. Comparaison de l’espace disk pour les 2 index par oncheck
- Index idx2 fragment partition dbs1 in DBspace dbs1
Number of pages used 718
- Index Usage Report for index idx2 on mydb:informix.tab2
Level
----1
2
3
4
5
----Total
Average
Total
-------1
2
10
78
625
-------716
Average
No. Keys
-------2
5
7
8
24
-------21
Average
Free Bytes
---------1800
1062
386
323
236
---------252
Del Keys
--------
0
-------0
- Index idx1 fragment partition dbs1 in DBspace dbs1
User Group Informix France
Trimestre 1 2013
21
Newsletter
Number of pages used 168
- Index Usage Report for index idx1 on mydb:informix.tab1
Level
----1
2
3
4
----Total
Average
Total
-------1
3
18
144
-------166
Average
No. Keys
-------3
6
8
104
--------
Average
Free Bytes
---------1588
816
346
241
---------91
Del Keys
--------
0
-------271
0
L’index a été significativement compressé, puisque le nombre de niveau de l’arbre de btree est passé de
5 à 4, le nombre de pages utilisés dans l’index est passé de 718 à 168, et le nombre de clés sur les
feuilles est passé de 625 à 144.
User Group Informix France
Trimestre 1 2013
22
Newsletter
Technical Tip: Table Level Restore
Auteur : Frédéric Delest
A la suite de nos demandes sur les sujets qui pouvaient vous intéresser et que nous pourrions traiter
dans la newsletter, le « Table Level Restore » a été demandé.
Le « Table Level Restore » ou TLR permet au DBA la restauration d’une table unique à partir d’une
archive de niveau 0 et de faire une « Point-in-Time Recovery » si les journaux logiques sont
sauvegardés. L’intérêt évident de la fonctionnalité est qu’il s’agit d’une restauration partielle. Combien
de DBA se sont retrouvés devant un dilemme après une manipulation malheureuse qui s’est traduite par
la perte totale ou partielle d’une table. La première option consiste à devoir restaurer la totalité de
l’instance à un point dans le temps antérieur à la mauvaise manipulation et expliquer aux utilisateurs
qu’ils vont devoir ressaisir les données manquantes. La seconde option consiste à effectuer une
manipulation plus ou moins complexe en fonction de l’environnement pour restaurer une sauvegarde sur
une machine de backup, à en extraire la table avant la mauvaise manipulation puis à la réinjecter dans
l’instance d’origine.
Le TLR n’est pas la panacée car l’opération n’est pas d’une grande rapidité mais il a le mérite d’être
relativement simple, résilient à la mauvaise manipulation et supporté.
De quoi avons-nous besoin ?
Dans la mesure où Archecker fonctionne en extrayant les données d’une archive, il nous en faut donc
une valide, de niveau 0 qui peut avoir été faite par onbar ou bien ontape. Il faut aussi le schéma SQL de
la table à restaurer et un espace de travail. Il est alors possible de restaurer la table à l’état exact au
moment de l’archive. Attention, le schéma SQL d’une table n’est pas une information qui est
couramment sauvegardée, ou bien sauvegardée dans un endroit accessible hors de la base de
données, en particulier si le schéma évolue. Dans le cas de Archecker, il faut le schéma SQL exact de la
table au moment de l’archive. Il est donc fortement recommandé pour les DBA qui souhaitent pouvoir
utiliser Archecker de sauvegarder un « dbschema –ss » au moment de l’archive de niveau 0. L’espace
de travail quant à lui est un dbspace qui sera identifié pour Archecker avec la commande : SET
WORKSPACE TO dbspace1. Attention il ne peut s’agir d’un dbspace temporaire.
Si le DBA a besoin de restaurer la table à un état plus récent, il faut les journaux logiques. Il est à noter
que le « logical log » courant n’est pas exploitable. Si le « Point-in-Time Recovery » souhaité se trouve
dans le journal courant, il faut forcer le moteur à basculer au suivant en exécutant un onmode -l.
Comment cela fonctionne-t’il ?
A partir, du schéma SQL, il faut construire le « SQL Command File » qui va servir à Archecker à recréer
la table. Comme le moteur n’a aucuns moyens pour valider le schéma qui lui est fourni, il va travailler à
partir de ce dernier. Si le schéma est incorrect, les résultats ne seront pas prévisibles. D’où l’importance
de garder un schéma à jour.
Voyons quelques exemples de « Schema Command Files » extrait du manuel. Ces exemples
permettent de se rendre compte de son utilisation. Il apparait aussi qu’Archecker offre grâce à ce fichier
et ses options des possibilités de filtrage ce qui permet de l’utiliser aussi comme outil de migration ou de
copie.
User Group Informix France
Trimestre 1 2013
23
Newsletter
Simple schema command file
The schema command file in this example extracts a table from the most recent
level-0 backup of dbspace1. The data is placed in the table test1:tlr and the logs
are applied to bring the table tlr to the current point in time.
database test1;
create table tlr (
a_serial serial,
b_integer integer,
c_char char,
d_decimal decimal
) in dbspace1;
insert into tlr select * from tlr;
Restore a table from a previous backup
The schema command file in this example extracts a table from the level-0 backup
of dbspace1. The logical logs are used to bring the table to the time of "2003-01-01
01:01:01". The data is placed in the table test1:tlr.
database test1;
create table tlr (
a_serial serial,
b_integer integer,
c_char char,
d_decimal decimal
) in dbspace1;
insert into tlr select * from tlr;
restore to ’2003-01-01 01:01:01’;
Restore to a different table
The schema command file in this example extracts a table called test1:tlr from the
most recent backup of dbspace1 and places the data in the table test1:tlr_dest.
database test1;
create table tlr (
a_serial serial,
b_integer integer,
c_char char(20),
d_decimal decimal,
) in dbspace1;
create table tlr_dest (
a_serial serial,
b_integer integer,
c_char char(20),
d_decimal decimal
) in dbspace2;
insert into tlr_dest select * from tlr;
User Group Informix France
Trimestre 1 2013
24
Newsletter
Perform a distributed restore
The schema command file in this example extracts a table test:tlr_1 from the most
recent backup of dbspace1 and places the data on the database server rem_srv in
the table rem_dbs:tlr_1.
database rem_dbs
create table tlr_1
( columns );
database test1;
create table tlr_1
( columns ) in dbspace1;
insert into rem_dbs@rem_srv.tlr_1
select * from tlr_1;
Pour accélérer le processus, Archecher va désactiver les contraintes, les indexes et les triggers.
Ensuite, il va parcourir l’archive et extraire les données pour les insérer dans la table restaurée. Puis il
va démarrer un processus plus complexe en deux étapes consistant à lire les journaux logiques à la
recherche d’enregistrements concernant la table à restaurer et après avoir validé la pertinence de
l’enregistrement le stocker dans une table de travail pour une application ultérieure.
Archecker permet au DBA de contrôler l’application de ces étapes grâce aux options : phys, stage, apply
qui peuvent être invoquées séparément ou bien regroupées pour autant que l’ordre soit conservé.
Par exemple :
archecker –tvs –f <cmd_file> -lphys
archecker –tvs –f <cmd_file> -lstage,apply
ou tout simplement:
archecker –tvs –f <cmd_file>
Attention, il n’y a pas d’espace entre le “-l” et les niveaux.
Archecker laisse un certain nombre d’informations dans le moteur. Il peut s’avérer nécessaire de
nettoyer ces informations, soit à la fin de l’opération en ajoutant l’option –d à la ligne de commande, soit
à posteriori en lançant Archecker avec les options –DX pour qu’il fasse lui-même le grand nettoyage.
Cet article ne se prétend pas exhaustif sur le sujet ni d’ailleurs un manuel d’utilisation. Il s’agissait
surtout de souligner la présence de cet outil puissant, souvent méconnu qui permet de régler un
problème d’administration insoluble avec les seuls outils de sauvegarde et de restaurations classique
que sont ontape et onbar. Par ailleurs, il existe un article en anglais qui montre étape par étape le
« Table Level Restore » dans un cas simple. Il peut être trouvé à l’adresse suivante :
http://www.informix-dba.com/2010/12/table-level-restore-pretty-useful-stuff.html
Pour une utilisation plus approfondie telle que la migration ou la copie de données, il sera nécessaire de
lire la documentation :
http://publib.boulder.ibm.com/infocenter/idshelp/v117/topic/com.ibm.bar.doc/ids_bar_173.htm
User Group Informix France
Trimestre 1 2013
25
Newsletter
Derniers articles


OpenAdmin tool for Informix's Health Advisor plug-in: voir l’article
Using InfoSphere Streams with Informix: voir l’article
Vidéos









JournalOfInformix voir la vidéo
IBM Informix 12.1 : Simply Powerful!: voir la vidéo
Grid Queries in OpenAdminTool (OAT) 3.11: voir la vidéo
What's New in OpenAdmin Tool for Informix (OAT) 3.11: voir la vidéo
Automatic Backups in OpenAdmin Tool for Informix (OAT) 3.11: voir la vidéo
OAT Group Summary Dashboard: voir la vidéo
Mobile OpenAdmin Tool for Informix: voir la vidéo
Managing and Optimizing Informix Dynamic Server Databases 000-9: voir la vidéo
Informix Performance Tuning Webcast on March 12, 2013 by Art Kagel: voir la vidéo
Liens utiles











Informix Developper Works : http://www.ibm.com/developerworks/data/products/informix/
IBM Redbook : http://www.redbooks.ibm.com/portals/data
IBM Data Management magazine: http://ibmdatamag.com/
IIUG : http://www.iiug.org/index.php
Informix sur facebook: http://www.facebook.com/IBM.Informix
Informix sur Twitter : http://twitter.com/IBM_Informix
The IIUG forums:http://www.iiug.org/forums/technical.php
Blogs, Videos, News and more at :http://planetids.com
Le channel sur Youtube de Jacques Roy : http://www.youtube.com/user/jacquesroy58
Quick Reference Tool for Informix Business Partners : accéder au site
IBM Software support lifecycle: accéder au site
Informix blogs







Bruce Weed's blog http://bruceweed.wordpress.com/
Fernando Nunes: Informix Technology: http://informix-technology.blogspot.com/
Eric Vercelletto : Le village Informix http://levillageinformix.blogspot.com/
Jacques Roy: http://www.ibm.com/developerworks/blogs/page/jacquesroy
Informix blogs: http://www.ibmdatabasemag.com/blog/main/archives/informix/index.html
The Informix Zone:http://www.informix-zone.com
The Informix mag:http://www.informixmag.com/
User Group Informix France
Trimestre 1 2013
26
Newsletter
Abonnement / Annulation / Avis
Cette newsletter est envoyée à des adresses enregistrées. Si vous souhaitez respectivement vous
abonner ou vous désabonner, veuillez envoyer un mail avec pour sujet « ABONNER » ou
« DESABONNER » à l’adresse email : [email protected].
Votre avis et vos contributions sont bien entendu les bienvenus ! N’hésitez pas à nous les faire parvenir
à l’adresse email : [email protected].
Les contributeurs de ce numéro
Khaled Bentebal
Président du User Group InformixFrance
Membre du board IIUG
Directeur Général – ConsultiX
Olivier Bourdin
EMEA Informix L3 Advanced Problem Diagnostic
IBM Certified Products Services
IBM Software Group, Information Management
Eric Vercelletto
Directeur Général – BeGooden ITConsulting
Yoram Benchetrit
EMEA Informix L3 Advanced Problem Diagnostic
IBM Software Group, Information Management
Frédéric Delest
EMEA Informix L2 Down System & Diagnostic
IBM Software Group, Information Management
User Group Informix France
Trimestre 1 2013
27

Documents pareils

Newsletter User Group Informix France

Newsletter User Group Informix France pour augmenter les performances des requêtes et réduire le trafic réseau. Pour cela, utilisez la variable d’environnement FET_BUF_SIZE. Plus grande est la taille du buffer, plus de rows peuvent êtr...

Plus en détail

Newsletter User Group Informix France

Newsletter User Group Informix France Retour sur l’IIUG Informix Conference 2011 ..................................................................................... 5 WebTip: Espace français sur iiug.org et informix.fr réactivé ........

Plus en détail

Informix Magazine N°3

Informix Magazine N°3 Olivier Bourdin WW Informix L3 Support IBM Analytic Platform

Plus en détail