mao - Jarrologie
Transcription
mao - Jarrologie
Introduction : Les domaines de l'informatique sont de plus en plus variés et la musique n'a pas échappé à cette règle. De nos jours l'ordinateur a une place de plus en plus importante dans la création musicale. On pense souvent dans un premier temps aux différents styles spécifiques à ce traitement tel que la musique purement "électronique". Mais la musique assistée par ordinateur (MAO) touche un domaine de styles bien plus vaste. En fait, tous les styles de musique peuvent être concernés par l'informatique, tant les possibilités offertes par ce nouvel instrument sont étendues. Certains musiciens l'ont compris il y a déjà longtemps, d'autres ont été plus hostiles à l' "informatisation" de la musique. La MAO possède de nombreux avantages et offre aux musiciens de nouvelles possibilités. Nous verrons qu'il se dégage de l'utilisation de l'ordinateur trois grands domaines que sont le traitement audio-numérique, l'édition musicale et la synthèse sonore. Nous verrons qu'il existe aussi d'autres applications "annexes" mais fortes intéressantes. Ces domaines interagissent souvent entre eux. L'informatique a aussi l'avantage d'être évolutive, c'est pourquoi nous parlerons brièvement des principales évolutions qui ont eu lieu dans ces différents domaines et nous appuierons nos développements sur les logiciels les plus représentatifs. Mais avant tout, il est utile de voir ou revoir certaines bases telles que le son, sa représentation sur l'ordinateur et les interactions entre matériel informatique et équipement musical. 1 I Les bases Ce chapitre a pour but de présenter les notions de base utiles pour la suite. 1) Le son Bien comprendre les processus tels que le codage du son dans l'ordinateur ou sa synthèse, c'est d'abord bien comprendre le son lui-même. Nous commencerons donc par définir le son. Nous verrons ensuite que de nombreux formats informatiques sont dédiés au son. Ils font tous appels à des techniques très diverses et nous verrons à quels types d'application chacun d'entre eux sont destinés. Dans un troisième temps, nous aborderons des notions plus pratiques qui permettront de comprendre les interactions entre des équipements musicaux "traditionnels" et l'ordinateur. a) Qu'est ce que le son ? Le son est une vibration de l'air. A l'origine de tout son, il y a mouvement (par exemple une corde qui vibre, une membrane de haut-parleur...). Il s'agit de phénomènes oscillatoires créés par une source sonore qui met en mouvement les molécules de l'air. Avant d'arriver jusqu'à notre oreille, ce mouvement se transmet entre les molécules à une vitesse de 331 m/s à travers l'air à une température de 20°c : c'est ce que l'on appelle la propagation. Un son est d'abord défini par son volume sonore et sa hauteur tonale. Le volume dépend de la pression acoustique créée par la source sonore (le nombre de particules d'air déplacées). Plus elle est importante et plus le volume est élevé. La hauteur tonale est définie par les vibrations de l'objet créant le son. Plus la fréquence est élevée, plus la longueur d'onde est petite et plus le son perçu est aigu. En doublant la fréquence d'une note, on obtient la même à l'octave supérieure. Et donc, en divisant la fréquence par deux, on passe à l'octave inférieure. Ce n'est qu'au-delà de 20 vibrations par seconde que l'oreille perçoit un son. Les infrasons, de fréquence inférieure à cette limite de 20 Hz sont inaudibles, de même que les ultrasons, de fréquence supérieure à 20 000Hz, soit un peu plus de 10 octaves. Chacun peut constater que le niveau sonore diminue à mesure que l'on s'éloigne de la source. Cette diminution est la même chaque fois que la distance est doublée. Cependant, les hautes fréquences ne se propagent pas aussi loin que les sons graves. Il faut plus d'énergie pour restituer les basses que les aigus. b) Quelles sont les caractéristiques d' un son ? Le son est défini par trois paramètres : - L'amplitude d'un son qui correspond à la variation de pression maximale de l'air engendrée par les oscillations, c'est-à-dire volume sonore - La dynamique qui permet la mesure de l'écart entre le volume maximal d'un son et le bruit de fond. La dynamique ce mesure en décibels (dB). En fait, elle est le rapport entre le niveau maximal, à la limite de la distorsion, et le niveau minimal acceptable, à la limite du niveau de bruit de fond. Par exemple, pour un compact disque on parle de 90 dB de dynamique utile et en télévision de 25 dB en moyenne. 2 - Le timbre qui est un paramètre beaucoup plus subjectif : il s'agit de ce qui différencie deux sons de même hauteur et de même amplitude. C'est une notion qualitative, qui fera dire, par exemple, qu'un son est brillant ou profond… On peut visualiser ces paramètres de plusieurs façons, la plus simple étant sa représentation bidimensionnelle. Une représentation courante est l'amplitude de l'onde en fonction du temps : Amplitude Temps Représentation graphique d'une onde. Dans cette représentation, l'amplitude (mesure relative des données audio) est exprimée selon une échelle en Décibel (à gauche) pour chaque relevé de mesure, qui se fait à un intervalle régulier le long de l'axe représentant le temp. Une autre représentation permettant de visualiser plus d'informations est la représentation en 3 dimensions. Celle-ci fait apparaître les différentes fréquences qui composent l'onde. Cette représentation est appelée analyse harmonique. 3 Représentation tridimensionnelle d'un son. c) Comment est stocké le son sur l'ordinateur ? Il faut d'abords différencier les deux types de sons: le son analogique et le son numérique. Le son analogique est représenté sous la forme de signaux électriques d'intensité variable. Ces signaux sont issus d'un micro qui transforme le son acoustique d'une voix ou la vibration des cordes d'une guitare en impulsions électriques. Ces signaux sont enregistrables tels quels sur une bande magnétique (K7 audio par exemple) et peuvent être ensuite amplifiés, puis retransformés en son acoustique par des haut-parleurs. Le son analogique n'est pas manipulable tel quel par un ordinateur, qui ne connaît que les 0 et les 1. Le son numérique est représenté par une suite binaire de 0 et de 1. L'exemple le plus évident de son numérique est le CD audio. Le processus de passage du son analogique en son numérique est appelé "échantillonnage". Celui-ci consiste à mesurer la tension (en Volt) du signal analogique à intervalles réguliers. La valeur obtenue est enfin codée en binaire (suite de 0 et de 1).Le composant qui réalise cette tache est appelée convertisseur A/N. Évidemment, ce processus de mesure et de conversion binaire doit être très rapide. C'est là qu'intervient la fréquence du son à numériser. Par exemple, pour une voix dont la fréquence est de 8000Hz (Hertz), le signal électrique issu du micro aura aussi une fréquence de 8000Hz. Pour transformer ce signal en numérique et à qualité équivalente, le mathématicien Shannon a démontré qu'il fallait que le prélèvement de mesures soit fait à une fréquence au moins 2 fois plus rapide que la fréquence originale, soit pour l'exemple de la voix, 16000 fois par seconde (16000Hz ou 16 kHz). Un autre paramètre très important de l'échantillonnage est la précision avec laquelle la tension du signal électrique sera lue et codée. Le codage peut, en effet se faire sur 2 n bits. Une précision de 8 bits donnera une tension codée parmi 256 valeurs possibles, alors que 16 bits donneront plus de 65 000 valeurs. Les CD sont ainsi échantillonnés à 44,1kHz sur 16 bits. 4 La conversion inverse de numérique vers analogique, se fait par le processus inverse. La tension du signal électrique est recréée à partir des valeurs codées, lues à la même vitesse qu'elles avaient été enregistrées. L'avantage évident de ce type de son, c'est qu'étant codé sous la forme de 0 et de 1, il est directement manipulable par un ordinateur et son stockage ne pose aucun problème sur un disque dur. En revanche, le nombre de valeurs enregistrées étant énorme (44 100 valeurs/s), ce type de son occupe beaucoup de place dans la mémoire ainsi que sur le disque dur de l'ordinateur. A titre d'exemple, un CD audio de 74 minutes représente 650 Mo (Méga-octets) et le débit d'un lecteur de CD est de 150 Ko/s (Kilo-octets/s). Une seule seconde de son stéréo échantillonné à 44,1 kHz et en 16 bits prend 172 Ko. 2) Les formats. Les formats peuvent se classer en trois genres, les formats musicaux, les formats audio et des formats "hybrides", mélange des deux formats précédents. a) Les formats musicaux. - Le son MIDI. Le MIDI est une norme permettant aux instruments électroniques - et par extension à d'autres types de matériels - de communiquer entre eux. Après des débuts assez difficiles, le midi s'est très largement répandu. C'est l'arrivée des microprocesseurs dans les machines qui permit d'obtenir une plus grande souplesse d'utilisation. C'est en 1982 qu'est née la norme MIDI, acronyme de Musical Instrument Digital Interface (en français interface numérique pour instrument de musique). Celle-ci définissant une interface matérielle ainsi qu'un protocole de communication. Elle fut ensuite reprise par toute l'industrie musicale. Le son MIDI est très différent des sons numériques ou analogiques dans le sens où il ne s'agit pas de son en tant que tel, mais plutôt de sa représentation ou de sa description. Au lieu d'enregistrer le son produit par un orchestre en analogique ou en numérique, cela revient à enregistrer juste les notes qui composent la partition et ce pour chaque instrument. La note de la gamme, l'octave, la durée, le volume et le moment où la note devra être jouée sont les paramètres utilisés pour représenter chaque son. C'est pour cela qu'on parle plutôt de "note" MIDI que de son MIDI. Chaque changement (une note jouée, un volume qui change) est appelé événement. Le système MIDI utilise 16 canaux différents. Un canal est comparable à une piste d'une table de mixage: une piste peut contenir l' enregistrement entier d' un morceau, mais il est préférable de séparer certains instruments pour un meilleur contrôle du mixage ( volumes, panoramiques etc... ). Le midi pouvant être transmis d'un instrument à l'autre par l'intermédiaire d'un câble, il est donc possible de contrôler 16 instruments différents en même temps grâce à un seul câble. Pour cela deux types de messages sont envoyés: - Le message canal ne concernera qu’un seul canal. Par exemple l’appuie d'une touche enverra un message canal ( Note ON ) pour déclencher une note sur un seul canal. - Un message système va être reçu et sera appliqué par toutes les unités connectées. Cela permettra par exemple de synchroniser l’ensemble. Pour avoir un rendu des informations contenues dans le fichier, la carte son va utiliser soit la synthèse FM (Frequency modulation) donnant des résultats approximatifs, soit une table d'échantillon (wave table en anglais), qui comme son nom l'indique permet l'utilisation 5 d'échantillons audio (qui seront transposés selon la note jouée). Ces échantillons constituent les banques de sons propres à chaque carte son. Ces banques sont souvent difficilement modifiables. Les avantages du MIDI sont nombreux : - Le MIDI constitue une norme, unanimement respectée par tous les fabricants de matériels musicaux électroniques. Il n'y aura donc aucun problème de connexion et de "compréhension" avec des instruments MIDI hétérogènes. - Le MIDI est "léger" et directement manipulable par un ordinateur. Un fichier MIDI ne représente que quelques kilo-octets pour un morceau de plusieurs minutes. L'édition d'un morceau MIDI est très simple. Tous les paramètres sont modifiables d'un clic de souris (tempo général, hauteur et durée d'une note, instruments...). Selon les constructeurs on trouve différentes normes complétant Midi (plus de sons, d'effets etc…): par exemple Yamaha a développé le format XG, Roland le format GS. Mais tous s'appuient sur le format GM (Général Midi), qui assure une compatibilité entre tous les instruments quelles que soient leurs marques. b) Les formats audio: On distingue les formats non-compressés et compressés: - Les formats non compressés : Le son est codé tel quel, ce qui le rend facilement manipulable par le biais de programmes. C'est le cas du format "wav", format audio de référence, qui s'est largement répandu grâce à Windows. La norme de qualité de référence du format wav est 44.100 Khz et 16bits/s qui correspond à l'échantillonnage des CDs audio. Son codage est très simple, voici le contenu d'un ficher wav: Etiquette RIFF Longueur RIFF type Etiquette Format Longueur Format Format microsoft Nb canaux Fréq. Échantillon. Octets/sec. Octets/échantillon Nb bits Etiquette Data Longueur Data Donnée échantillonage « RIFF » 27796 « WAVE » « fmt » 16 1 1 22050 22050 1 8 Data 27760 Donnée échantillonage Chunk Riff Chunk Format Chunk Data 6 Le fichier est constitué de blocs hiérarchisés appelés "chunk". Le bloc "Riff " ("Resource Interchange File Format", qui est le type des fichiers wav) englobe l'ensemble du fichier, il permet de l'identifier comme étant un fichier wav. Le bloc Format identifie les différents paramètres du format: fréquence de l'échantillonnage, nombre de bits etc… Le bloc data contient les données échantillonnées. Tous les champs sont facilement compréhensibles avec les notions vues précédemment, excepté la valeur du champ correspondant au format Microsoft qui est à 1 pour le format PCM, Pulse Code Modulation, format des données audio non compressés. - Les formats compressés: La compression des données sert à réduire la taille d'un fichier pour qu'il tienne le moins de place possible sur le disque dur. On distingue 2 types de compression : - La compression non-destructive : Le principe de la compression repose, sur l'idée qu'un certain nombre de données dans un fichier sont répétitives. On va "factoriser" ces données pour ne les énumérer qu'une seule fois. Grossièrement, la séquence 01010101 deviendrait 4*01. - La compression destructive : Bien que les compacteurs arrivent déjà à réduire significativement les tailles des fichiers qu'ils compressent, il est encore possible d'améliorer les taux de compression. C'est particulièrement intéressant puisqu’un son dont la définition est de qualité CD prend énormément de place. De nombreux algorithmes de compression reposent sur le principe suivant: les fichiers audio contiennent de nombreuses informations inaudibles pour l'homme, comme par exemple les fréquences supérieures à 20 Khz. On peut donc supprimer ces fréquences, en appliquant par exemple un algorithme de filtre passe-bas, en conservant une qualité équivalente. C'est donc en ce sens qu'on parle de compression destructive. Evidemment, plus on veut un petit fichier, plus la dégradation du son sera audible. Le format le plus efficace est le très connu format MP3 (pour MPeg Layer 3). Nous allons voir les différentes notions permettant l'encodage mp3. – L'effet de masque L'oreille humaine ne distingue pas les sons "faibles" lorsqu'ils sont masqués par des sons "forts". En effet le cerveau élimine les sons qu'ils considèrent comme parasite. Mais il peut également extrapoler des sons inexistants. Le principe de Sub Band Coding (SBC) repose sur l'élimination des plages de fréquences masquées. – Les limites perceptibles de l'oreille Comme nous l'avons vu, l'oreille humaine ne perçoit plus les fréquences inférieures à 20 Hz ou supérieures à 20 Khz. On peut donc éliminer ces fréquences. La courbe de Fletcher Munsen (voir annexe), permet d'identifier avec plus de précision les plages de fréquences inaudibles, en fonction de l'amplitude. – Le réservoir de données Il faut comprendre que le codage du mp3 est totalement différent du wav. Certaines zones de ce type de codage sont inutilisées, d'où la possibilité de stocker à ces endroits des informations qui serviront plus tard (par exemple des données redondantes). 7 – La compression Huffman C'est une compression plus classique que l'on retrouve dans de nombreux formats. On code les données selon leur récurrence statistique. Une table de correspondance permet de recenser des données redondantes, on pourra alors par la suite les appeler par leurs indexes en réduisant la taille du fichier, c'est donc une compression non destructive. - La stéréo combinée L'oreille humaine ne peut localiser avec précision les fréquences basses. Il est donc inutile de coder ces fréquences en stéréo. La restitution de la stéréo est donc approximative. L’inconvénient majeur de ces formats compressés et qu'ils ne sont plus facilement manipulables par le biais de logiciels, par exemple pour la retouche du son. En général, il faudra les reconvertir en wav pour les manipuler. Un autre inconvénient est que les compressions destructives ( même les plus efficaces) ne peuvent plus être utilisées dans le cas d'un travail professionnel. Même si une compression "légère" est supposée ne pas pouvoir s'entendre, les critères de qualité d'un morceau font que les formats tel que le mp3 ne sont jamais utilisés par les professionnels. c) Les formats "hybrides": Ces formats ont la particularité de mélanger les deux types de formats que nous venons de voir (midi et audio), on parle alors de module. Le principe du module offre un intéressant compromis : les instruments sont définis par des échantillons relativement courts et sont joués en s'inspirant de la méthode MIDI : une suite de commandes caractérisant la hauteur de la note, son volume, son maintien etc... Le concept du module a originellement été développé sur Amiga en illustration sonore des démonstrations graphiques, programmes compacts mettant en exergue les possibilités techniques de ce type de machines. La finalité première du module était de jouer une bande sonore aussi rapidement que possible, de manière à laisser le maximum de ressources disponibles aux effets graphiques. Sa fonction originelle a forgé ses spécificités : un format de codage compact, intégrant ses propres instruments, les instructions séquentielles permettant d'enchaîner les notes à jouer, ainsi que les effets sonores à leur appliquer. Le format de fichier MOD a été largement popularisé par de nombreux éditeurs de modules pour Amiga. Historiquement, les modules décrivaient 4 pistes sonores, correspondant aux 4 canaux de sortie indépendants dont dispose l'Amiga. Plus tard, l'adaptation des modules sur PC a permis de faire évoluer ce format en de nombreux autres reprenant son principe et ouvrant de nouvelles possibilités : un nombre de pistes accru, une définition plus fine de la note à restituer. 8 3) Interactions entre ordinateurs et instruments a ) Qu' est ce qu' un Home Studio ? Une installation musicale complète autour d'un ordinateur permet de constituer son propre Home Studio. Un Home Studio, c'est la façon la plus simple de jouer, de composer et d'enregistrer de la musique, lorsque l'on n’a pas les moyens de s'offrir un véritable studio professionnel. Un Home Studio est généralement bâti autour d'un micro-ordinateur, PC, MAC ou ATARI. Cet ordinateur constitue le cœur du Home Studio, à travers sa carte son et les divers instruments analogiques (guitare, micro, magnéto...) ou électroniques (claviers, synthé...) qui y sont connectés. On peut ainsi gérer ce qui va constituer l'arrangement final : données numériques, analogiques et MIDI. C'est là que réside toute la difficulté du Home Studio : marier ces différents types de sons. Plusieurs solutions sont possibles. Le choix se fait en fonction des besoins et/ou des moyens disponibles. Le matériel qui constitue un home studio dépend de deux facteurs : les éventuels instruments qui seront connectés et leur mode d'enregistrement (analogique ou numérique). Dans le cas où on voudrait faire communiquer deux instruments par le biais du midi, la transmission des données se fait grâce à un câble DIN 5 broches. On distingue 3 sortes de connexions midi, chacun ayant un rôle spécifique: la prise MIDI IN va permettre à un appareil de recevoir des informations, la prise MIDI OUT permettra l’envoi d'informations, et enfin la prise MIDI THRU va renvoyer les informations reçues par la prise MIDI IN, sans en tenir compte. Ces trois types de prises permettent de connecter plusieurs instruments MIDI de plusieurs façons, par exemple en chaîne ou en étoile. Prise DIN 5 broches. On comprend l'intérêt des différentes connexions midi (in, out ,thru) par les besoins spécifiques de certaines configurations. Par exemple, on veut jouer une même séquence sur deux synthétiseurs différents, voici une configuration possible: Midi out Midi in Midi thru Synthé 1 Midi in Synthé 2 Haut parleur Mixage Audio out Audio out 9 b ) Les principales configurations : 1) Configuration standard analogique. Cette configuration permet l'utilisation d'instruments MIDI et classiques en enregistrement analogique. On peut relier juste un instrument a l'ordinateur en midi. . Cet instrument peut être un synthétiseur ou un clavier MIDI aussi appelé "clavier maître" qui ne génère que des notes MIDI. Ces instruments MIDI et classiques (guitare, micro...) devront être "mixés" et enregistrés sur une cassette audio analogique. Cette configuration nécessite une table de mixage qui permettra de mélanger plusieurs instruments ainsi qu'un magnétophone simple ou multipistes. Dans cette configuration, la carte son du PC est considérée comme un instrument analogique à part entière. On prend ce qu'il y a en sortie de la carte son et on mixe avec les autres instruments. 2) Configuration standard numérique. Cette configuration permet l'utilisation d'instruments MIDI et classiques en enregistrement numérique. La seule différence est l'enregistrement qui ne se fait plus sur la cassette du magnétophone multipistes mais directement sur l'ordinateur. On utilise pour cela les capacités de d'échantillonnage de la carte son du PC. On parle alors de "Direct to Disk" ou DtD. Une fois sur le disque dur du PC, les capacités d'édition, d'effets ou de retouche d'un enregistrement sont infinis. L'enregistrement numérique requiert un PC puissant, un disque dur de grande capacité, ainsi qu'une carte son dite "full duplex" (lecture et enregistrement simultanés). A partir de ces configurations de base, on peut imaginer toutes sortes de configurations plus complexes. II) Les domaines de la MAO. Maintenant que nous avons connaissance des principales notions élémentaires, nous allons pouvoir aborder les trois grands domaines qui constituent la base de ce qu’est la Musique Assistée Par Ordinateur: la synthèse, l’édition musicale et le traitement audionumérique Pour pouvoir travailler avec l’ordinateur d’une manière complète, il est nécessaire de savoir maîtriser l’ensemble de ces 3 domaines tant ils se complètent. En effet, nous serons souvent confronter à des situations où nous aurons besoin de tirer partie au mieux de ces domaines bien distincts. Exemple de situation: Un logiciel joue une séquence de notes, le timbre de cette séquence est un son que l'on a totalement créé. Cette séquence audio sera ensuite traitée pour finaliser l’ensemble. 10 Séquenceur Edition Notes Génération de son Synthèse Audio Traitements audio Ajout d’effets Finalisation Traitement audionumérique Schéma d'un exemple d'interactions entre différents domaines de la MAO. Nous allons aborder dans un premier temps le domaine de la synthèse sonore. 1) L'émulation sonore. 1 ) L’intérêt de l’émulation sonore. L’émulation sonore consiste à recréer un son entièrement à partir de l’ordinateur. Ce procédé existe déjà sur certains instruments de musique électronique, c’est ce qu'on appelle la synthèse. On peut ainsi créer des sons totalement originaux n'existant pas dans la nature, mais également des sons se rapprochant de sons naturels. Même si l'enregistrement direct du son venant de sources externes (instruments etc…) offre de nombreuses possibilités, la synthèse va permettre de faire des choses largement plus complexes. En effet, certains sons utilisés couramment ne peuvent être que synthétiques. C’est le cas par exemple des nappes de synthés, qui sont des accords joués avec un son synthétique créant un fond sonore et donnant au morceau une ambiance particulière. D'autre part, les sons obtenus par synthèse peuvent être bien plus complexes (au niveau du travail de leur timbre par exemple) que ceux que l'on peut obtenir avec des instruments acoustiques. Ainsi, il est fréquent de doubler une ligne de basse par un synthé basse pour augmenter son impact, et sa clarté si les sons sont bien choisis. 2 ) "Construction" d'un son. On parle de construction car l’application va créer la représentation informatique d'une onde sonore. Cette génération sonore est appelée synthèse car il s'agit d'un son créé artificiellement. 11 Le principe de la synthèse de base est la combinaison de différents éléments. a) Oscillateurs. Au départ, on retrouve toujours un générateur de son simple. Celui-ci est généralement un oscillateur (appelé vco pour voltage controlled oscillator), et produit une forme d'onde simple, à une fréquence donnée. Les principales formes d'ondes sont : Sinusoïde, Triangle, Dent de scie et carrée (voir annexe). En plus de ces générateurs de sons périodiques, "géométriques" et "purs", on trouve les générateurs de bruit. Les bruits sont des ondes créées aléatoirement qui vont perturber le son. Suivant le degré de perturbation du son, on attribue une couleur au bruit : - brun = peu de perturbations - rose (ou azurés) = perturbations limitées - blanc = perturbations maximales. Par exemple, un bruit blanc peut ressembler à un souffle, un bruit de vent, un bruit de réacteur d'avion ou au bruit de la mer. On peut obtenir un nouveau son plus riche et complexe en superposant différents oscillateurs (synthèse additive). Le son obtenu est composé d'une fondamentale (la fréquence produite par l'oscillateur seul qui permet de donner un nom à la note) et d'harmoniques (multiples de la fondamentale). On peut enrichir un son de diverses manières comme par exemple en ajoutant des harmoniques. On obtient un son plus au moins épais en modifiant très légèrement les fréquences des oscillateurs. b) Le filtrage Le filtre ( vcf pour voltage controlled filter ), va permettre de changer radicalement le timbre d'un son en éliminant (synthèse soustractive) certaines fréquences. On peut agir en même temps sur le filtre mais aussi sur une commande de résonance pour augmenter éventuellement le niveau des harmoniques à la fréquence de coupure, c'est-à-dire à la limite entre les harmoniques conservées et celles qui sont supprimées. En général, on agit sur le filtre (à front raide) par sa fréquence de coupure (cutoff). Mais on peut également utiliser d'autre type de filtres: les filtres passe-bas (Lpf : Low Pass Filter), les filtres passe-haut (Hpf : High Pass Filter) et les filtres passe-bande (Bpf : Band Pass Filter). c ) L'enveloppe: les différentes phases du son. L'enveloppe est une "couche" permettant de jouer sur différents paramètres du son en fonction du temps. On peut par exemple paramétrer l'évolution du son au niveau du volume, mais aussi de divers traitements comme par exemple le filtre. Par exemple, on va pouvoir créer un son dont le volume augmente progressivement. 12 Cette évolution se compose de 4 phases: - l'attack: c'est l'évolution du son quand on le déclenche. - le decay: une fois la première phase terminée, le son va évoluer différemment, on peut par exemple faire diminuer son volume. - le sustain: il maintient un son, même si la touche est relâchée. - le release est l'évolution du son quand on relâche une touche. Représentation graphique d'une enveloppe. d ) Utilisation d'oscillateurs à basse fréquence. Les oscillateurs à basses fréquences (LFO: low frequencies oscillator), qui ne sont en fait que des générateurs d'ondes sonores basses fréquences, peuvent eux-mêmes servir à générer une onde qui va contrôler les éléments précédents. Par exemple, une onde sinusoïdale basse fréquence, affectée au contrôle: - de l'amplitude, va donner au son un effet oscillant, appelé "vibrato". - du filtre va permettre d'obtenir par exemple un effet "whawha". - de la fréquence d'un oscillateur va permettre de générer un son de "sirène de police". Tous ces éléments combinés ensemble vont permettre l’élaboration de sons riches et complexes. 3 ) Un domaine évolutif. On comprend bien que ce domaine est très large, et ses possibilités quasi-infinies. C’est pourquoi on voit apparaître très souvent de nouvelles applications, commerciales ou gratuites. Ce domaine ne dépendant pas des capacités de l'ordinateur dans certains cas (générer un fichier wav peut se faire sur n'importe quel ordinateur, quelque soit sa puissance), il évolue indépendamment de l' évolution des ordinateurs, ce qui le rend à la fois très accessible (pas besoin de gros budgets pour le hardware), mais également permet de ne pas avoir à attendre les progressions des machines (contrairement au jeux par exemple). Mais l’atout principal qui joue en faveur de l' évolutivité de ce domaine est le plug-in. Le plug-in, dans son sens général, est un élément qui va pouvoir être connecté à quelque chose d’autre. Cette chose peut être un élément matériel, mais dans notre cas il va s’agir d’un élément logiciel, d’où la désignation de plug-in software. Ces plug-ins sont constitués d’un ensemble de code formant un module complet qui peut avoir plusieurs rôles (de synthèse ou de traitement); c'est pour cela que le plug-in est loin d' être exclusivement réservé au domaine de l' émulation sonore. Les plug-ins ont deux modes d’exécution: en natif ou sur circuits DSP (Digital Signal Processor). Dans le premier cas le plug-in est exécuté par le processeur. Il partage donc les ressources du 13 micro-processeur avec tout les éléments que ce dernier traite (affichage etc...). C’est donc une solution qui peut présenter des inconvénients dans le cas du dépassement de capacités du processeur. C’est pourquoi la solution DSP est considérée comme beaucoup plus "professionnelle". Le traitement est alors envoyé à des ships conçus pour le traitement de l’audio et garantit alors une très grande efficacité. Par comparaison, quand un Pentium ou PowerPC nécessite une dizaine de cycles d’horloge, ces circuits spécialisés n’en ont besoin que d'un seul. Mais les circuits DSP possède un inconvénient de taille: son prix qui le réserve aux musiciens pouvant ce permettre d' acheter de telles cartes. Ces modules ne sont pas forcément spécifiques à une application, d'ailleurs en général les plug-ins ne sont pas réalisés par les programmeurs des applications les supportant. Le plug-in va étendre les possibilités d’un logiciel en proposant de nouveaux traitements. De nombreux plug-ins s’appuient sur les APIs ( Application Program Interfaces ) de DirectX, mais un autre standard s’est largement répandu: le VST ( Virtual Studio Technology ), grâce notamment au logiciel Cubase. Les dernières innovations dans ce domaine sont le remplacement des vrais synthétiseurs par l'ordinateur. En effet, on a vu récemment l'apparition d'un synthétiseur mi-software, mihardware. Celui-ci avait un panneau de contrôle classique, mais ce panneau contrôlait un synthétiseur virtuel sur PC mais qui produisait le même résultat que les synthétiseurs "matériels". L'intérêt d'un tel panneau est de permettre à l'utilisateur un contrôle de l'interface software bien plus efficace qu'avec une simple souris et un clavier. L'avenir de ce domaine est sans aucun doute le développement de l'interaction software/matériel permettant d'obtenir des résultats de très haute qualité en se débarrassant des contraintes de coûts élevés des composants qui constituent les synthétiseurs classiques. 4) Du point de vue implémentation. Sans entrer dans les détails, l'implémentation d'un générateur d'ondes est très simple à faire. De nombreux softwares travaillent en générant d'abord un fichier wav, celui–ci ayant l'avantage d'être facile à constituer. Avec la description du contenu d'un fichier wav donné précédemment on peut facilement comprendre l'algorithme donné en annexe générant une onde sinusoïdale. 2) L'Edition musicale. 1 ) Qu’est ce que l'édition musicale? L'édition musicale consiste principalement à créer ou modifier des séquences musicales, qui peuvent par exemple être des séquences midi ou des modules. A partir de là, on peut tout paramétrer de part la nature même de ces formats qui sont entièrement "programmables", contrairement aux formats audio tel que le wav. On va pouvoir par exemple changer à volonté le tempo d'une séquence sans aucune dégradation du son, ajouter des notes etc... Bien sûr, l'édition musicale ne s'arrête pas là: on peut faire des changements bien plus radicaux en modifiant par exemple une sonorité, le 14 volume, le panoramique ou les effets d'une piste. Au niveau des effets, le midi (par exemple) permet le paramétrage des deux principaux types d'effets: la réverbération et le chorus. 2 ) Les outils d’édition. Les éditeurs qui permettent ces traitements sont en général appelés séquenceurs puisqu'ils permettent le travail de séquences. Cet outil est apparu au début des années 80, avec les ordinateurs tel que l'Apple II. Depuis les séquenceurs ont énormément progressé. Un des rôles du séquenceur est de permettre la saisie de partitions, qui pourront être ultérieurement rejouées. L'édition musicale permet aussi de récupérer une séquence jouée manuellement en temps réel et ainsi corriger les éventuelles erreurs ou ajouter des notes en temps réel pour faire une harmonisation par exemple. Certaines fonctionnalités dépendent des séquenceurs. Tous ne proposent pas les mêmes fonctions, on peut imaginer toutes sorte de traitements. L’édition musicale ne consiste en fait qu'à coder les différents évènements propres à chaque format, qui interviennent tout au long d'un morceau. Exemple d' évènements midi : -> activation d'une note -> changement de programme (= de voix) -> modification du panoramique -> niveau des effets (reverb,chorus) -> transposition -> effet de pitch bend -> volume d'une piste Mais les éditeurs ne s'arrêtent pas à la simple édition de ces évènements, ils proposent des fonctionnalités bien plus élaborées. Une fonction importante est la quantification: elle permet de replacer automatiquement les notes décalées par rapport aux temps. Ceci va permettre de corriger les erreurs du jeu du musicien. Même si c'est paradoxal, on peut également quantifier une piste pour que les notes soient légèrement décalées pour recréer un jeu plus humain dans le cas d'une séquence trop parfaite, entièrement créer par ordinateur par exemple. La techno, la dance et les styles qui s'y apparentent se caractérisent par l'utilisation répétitive de motifs sonores, dits patterns. Mais en écoutant bien tous les styles utilisent des motifs plus ou moins courts qui se répètent, c'est pour cette raison qu’une des principales fonctionnalités des éditeurs va être de permettre le bouclage. Chaque pattern pourra être repris indéfiniment dans un même morceau, mis aux endroits voulus, le tout bien sûr synchroniser au tempo du morceau. Certains éditeurs permettent d'analyser la mélodie jouée afin de générer un accompagnement cohérent, qui selon les algorithmes sera plus ou moins réussi. Les Trackers ou éditeurs de modules sont des logiciels permettant de composer des modules, c'est à dire d'orchestrer un arrangement musical à partir d'échantillons de sons faisant office d'instruments comme nous l'avons vu précédemment, il intègre donc une partie permettant de 15 gérer une liste d'évènements comme les séquenceurs mais également une partie dédiée aux échantillons qui seront utilisés pour le rendu du morceau. Il y a différentes interfaces pour pouvoir éditer une partition, qui se révéleront plus ou moins pratiques dans le cas de ce qu'on veut éditer (entrée de notes, créations d'évènements etc...). On en distingue principalement trois: Représentation en mode "edit" ou "grid" (grille). Temps Chaque note (ou évènement) est représentait par un rectangle en fonction du temps (donnée en nombre de mesures écoulées). La longueur de ces rectangles représente la durée de chaque note. Cette représentation permet une saisie rapide des différents événements qui composent le morceau. Représentation en mode liste. Temps (durée) Temps 16 Chaque évènement (ici des notes) est recensé sous forme de liste, allant dans l'ordre de leur apparition dans le morceau. Cela permet de représenter en même temps de nombreux paramètres comme la position de l'évènement, sa durée, les différentes valeurs qu'on y attribut, son nom et le canal midi où on l'applique. Cette représentation sert surtout à modifier des valeurs déjà entrées (par exemple les paramètres des effets) et non à saisir tous les événements d'un morceau (ce qui serait trop laborieux). Représentation en mode partition. Cette représentation reprend l'affichage classique des partitions musicales. Elle est particulièrement pratique pour la saisie conventionnelle des notes, mais ne permet pas la visualisation de nombreux événements (effets…) et paramètres (vélocité…) 3) Utilisation des plug-ins: Les plug-in servent essentiellement dans ce domaine au rendu des séquences. Par exemple, on peut utiliser un plug-in permettant le contrôle d'un synthétiseur virtuel par la séquence enregistrée en midi. Bien sur l'intérêt est qu'on n'est plus limité aux contraintes de la norme midi (contrôle du son, instruments limités etc…). La norme VST est très répandu dans ce domaine grâce au séquenceur Cubase. 3) Le traitement audio-numérique. 1 ) Qu’est ce que le traitement audionumérique? Le traitement audionumérique consiste non plus à changer des informations concernant par exemple le tempo d'un morceau, mais à faire des changements directement sur le son par l'intermédiaire de calculs. Par exemple, ajouter de la réverbération à un morceau ne va pas consister à modifier une information au début du fichier audio comme c'est le cas pour un fichier midi, mais à traiter l'ensemble du fichier afin de recréer une réverbération selon différents algorithmes. Contrairement aux domaines précédents, il ne s'agit plus de produire un son, mais de modifier quelque chose d’existant. Cela peut très bien être le résultat d'un son créé par synthèse comme un son que l'on a enregistré avec un micro, par exemple une voix que l'on veut rendre plus claire ou une guitare que l'on veut rendre plus présente. Les professionnels ont abondamment recourt à ce traitement pour peaufiner leur morceau, qu'il soit électronique, rock ou de tout autre style. 17 2 ) Les applications de ce traitement. Bien sûr le traitement numérique va permettre l'utilisation d'effets très classiques, tel que l'écho, le chorus etc... Faire une liste exhaustive des effets est impossible. On comprend qu'on peut imaginer une infinité de traitements au son. Nous aborderons rapidement les traitements les plus couramment utilisés, en particulier dans le cas du pré-mastering (travail du son avant la finalisation) d'un morceau. L'égalisation consiste à modifier le volume de bandes de fréquences afin d'enrichir ou d'appauvrir une séquence audio en fréquences spécifiques. C'est l'opération la plus simple et efficace pour modifier un son sans le dénaturer. On peut ainsi donner plus de basses à un morceau, tout comme on peut en supprimer. Un autre but de l'égalisation consiste à "séparer les instruments". En effet, les instruments occupent des plages de fréquences communes. Il vaut mieux essayer de baliser un peu leur étendue afin d'éviter qu'ils ne se superposent trop afin de gagner en clarté. Il existe deux principaux types d'égaliseurs, les graphiques et les paramétriques. Même si deux ou trois paramètres suffisent pour des réglages rapides ou pour le live, cela ne suffit pas pour faire les corrections efficaces et subtiles que nécessite un enregistrement. Dans les studios et sur les amplificateurs haut de gamme, on trouve des égaliseurs bien plus performants, qui proposent non plus deux ou trois bandes mais plutôt une trentaine. Ceci permet par exemple, de mieux cibler les instruments qui n'utilisent pas les mêmes plages de fréquences. La réverbération est un phénomène naturel que tout le monde connaît. La réverbération peut être considérée comme le mélange d' écho et de différents phénomènes physiques tel que la dispersion du son, l' absorption de l'air etc... Au moyen d' algorithmes complexes, l'ordinateur va essayer de reproduire au mieux ce phénomène. Exemple de paramétrage d'une reverb. 18 Le filtrage: les filtres agissent sur les fréquences, comme les égaliseurs, mais à des fins très différentes. Les filtres sont en effet bien plus puissants que les égaliseurs, et servent donc à supprimer (mais jamais complètement) des plages de fréquences. Les filtres sont souvent utilisés dans la musique "techno", où ils sont généralement modifiés en temps réel afin de rendre les parties répétitives "vivantes", et en "trip-hop", où l'atténuation des basses donne un son rétro. Il existe bien sûr beaucoup d'autres utilisations des filtres. Les filtres audio sont à mettre directement en rapport avec les filtres électriques. Il en existe trois types. Les filtres passe-bas et passe-haut sont destinés aux extrémités de la plage de fréquence, alors que le passe bande agit "à l'intérieur". Un filtre ayant une atténuation maximale de 6 dB par octave est à peine plus puissant qu'un égaliseur, mais la plupart des filtres proposes 12 ou 24 dB. A partir de 3 dB, l'atténuation devient audible. Cette valeur est appelée fréquence de coupure (Cut-off). Le Cut-off peut être déplacé par l'utilisateur afin d'atténuer une bande de fréquences plus ou moins large. Un filtre de type passe-bande possède deux cut-off. L'écart entre ces deux cut-off est la largeur de bande (bandwidth). Au milieu se trouve la fréquence centrale (center frequency). Les circuits filtrants diffèrent par la forme de leur courbe d'atténuation. Il en existe deux formes nommées Bessel et Chebychev, du nom des mathématiciens ayant créé les formules utilisées. Le système de filtres le plus complexe est le VOCODEUR, destiné à transformer le son de la voix. Celui-ci contient deux sets de filtres, l'un destiné à faire l'analyse du spectre d'un signal, et l'autre destiné à modifier un deuxième signal. Dans ce système, le spectre du premier signal est appliqué au second signal modifié. Ainsi, on reconnaît le premier signal dans le second. La compression : cette compression n'a rien à voir avec la compression du mp3. En effet, si la compression au sens informatique agit sur un fichier afin d'en réduire la taille, cette compression agit directement sur le signal sonore, et plus précisément sur son volume. Le compresseur permet en effet d'éviter les excès de volume, et d'atténuer des variations trop importantes. Le compresseur peut être comparé à un assistant chargé de tourner le potentiomètre de volume pendant qu'un musicien joue afin d’éviter que le son sature, et afin d'avoir un volume plus constant. Un compresseur comporte typiquement quatre paramètres : le threshold qui fixe le seuil à partir duquel la compression entre en action; le ratio définit l'action de la compression (dans quelles proportions le signal doit être atténué). Enfin, l'attaque (attack) et le relâchement (release) permettent de régler la progressivité de la compression, afin qu'elle ne s'active pas comme un simple interrupteur (ce qui la rendrait trop audible). Une compression bien réglée ne doit pas dénaturer le son. Limiteur : le limiteur est une version plus radicale de compression, qui empêche le volume de dépasser un certain seuil. C'est particulièrement utile quand on ne peut pas prévoir les variations de volume du son en entrée. Expanseur : l'expanseur est l'inverse du compresseur : tout signal au-dessus du seuil fixé et amplifié et tout signal au-dessous du threshold est atténué. Celui-ci est utilisé soit pour relever un signal trop comprimé ou pour provoquer des effets sonores. Noise-gate : le noise-gate intervient lorsqu'un signal a un bruit de fond trop important. Le but n'est pas de nettoyer tout le signal, ce qui est assez complexe, mais seulement les instants de "blanc". Le noise-gate entre en action quand le volume est très bas. Dès qu'il passe en dessous du threshold, le son est fortement atténué. Un noise-gate dispose également d'une attaque réglable (bien qu'elle soit souvent instantanée) et d'un temps de relâchement (release) permettant de régler la progressivité du noise-gate. Ce dernier doit être réglé avec précaution, afin que l'action du noise-gate ne soit pas évidente à l'oreille (relâchement trop long), et 19 qu'elle ne coupe pas la réverbération des sons. Une application typique du noise-gate est l'amélioration de la bande sonore des vieux films. Bien sûr, le traitement audio-numérique permet d'appliquer toutes sortes d'effets à un fichier audio, comme des phasers, des reverb, des saturations. Il permet également de renverser des échantillons, changer leur format (taux d'échantillonnage). Le traitement audio-numérique a une grande place dans la finalisation d'un morceau. Il va permettre le bouclage de certaines séquences et surtout le mixage de plusieurs pistes, chacune définie par plusieurs paramètres tel que le panoramique et le volume, ce qui est essentiel pour un bon rendu. Dans les applications destinées au mixage de pistes audio, on retrouvera la plupart des éléments composant les vraies tables de mixage. On pourra ainsi "muter" une piste (la rendre inaudible), faire jouer une piste seule (solo), régler le volume, panoramique pour chaque piste. Tout comme pour l’émulation sonore et l'édition musicale, le traitement audio-numérique bénéficie des nombreux avantages des plug-ins pour étendre les possibilités des logiciels et les rendre ainsi évolutifs (ajout de traitements du son). Dans le milieu professionnel, le traitement audio-numérique avec l'ordinateur est très utilisé. On trouve souvent dans les studios professionnels des tables de mixage entièrement automatisées par ordinateur permettant ainsi par exemple l'enregistrement de toutes les actions de l'utilisateur (mouvement d'un potentiomètre de volume, mise en solo d'une piste etc…) pour les reproduire par la suite. La norme midi permet de tels échanges entre ordinateur et matériel. 4) Application diverses. Les domaines vus précédemment recouvrent la majorité des applications relatives à la MAO, mais il existe aussi bien sur d'autres applications un peu plus en marge mais qui possèdent leurs propres intérêts. 1) Des domaines variés. Par exemple certaines applications sont spécialisées dans certains domaines d'analyse des fichiers audio tels que la reconnaissance des notes contenues dans un extrait sonore ou la détection du tempo d'un morceau. Un autre domaine intéressant que propose l'outil informatique est l'apprentissage assisté par ordinateur de la musique. Ce domaine est assez vaste, il va de l'apprentissage du solfège à l'amélioration du jeu du musicien (l'ordinateur permet la détection des imperfections de son jeu au clavier) ou à l'entraînement de l'oreille "musicale". 20 2) La composition automatique. Un autre domaine qui s'applique particulièrement bien à l'informatique est la composition automatique. Nous allons voir brièvement les principaux algorithmes qui permettent à l'ordinateur de composer un morceau de musique en se passant presque de l'homme. Méthode Stochastique C'est la méthode la plus simple qu'on puisse imaginer: l'ordinateur ne fait que générer des notes de fréquences et de durées aléatoires. L'utilisateur n'a que peu d'influence sur le résultat, il peut simplement limiter l'intervalle des notes jouées et le nombre de pas. On comprend qu'elle est très simple à implémenter mais n'apporte pas de résultat très intéressant. Une méthode plus évoluée est l'assemblage non plus de notes aléatoires mais de fragments mélodiques. Cette technique fut utilisée par Mozart. Par transformations (géométriques, permutations) On part d'une séquence très simple, éventuellement générée par l'ordinateur et on lui applique plusieurs transformations comme par exemples des transformations géométriques ou des opérations de permutation. A l’aide de probabilités et statistiques En partant d'un état (une note ou une séquence de notes), on va chercher le prochain état le plus approprié selon une table donnant les probabilités de passage d'un état à un autre afin de rendre le rendu le plus agréable possible. Etude de compositions existantes. En étudiant la densité spectrale des données audio de nombreux morceaux de genres différents on s'aperçoit qu'on peut déduire certaines règles d'évolutions et qu'apparaissent l'équivalent "musical" de nombreux phénomènes naturels (nous verrons des exemples plus tard). Méthode dite du « contour » Il va s'agir ici d'analyser une mélodie pour l'étendre" en étudiant son "contour", un peu à la manière d'un musicien improvisant sur un thème. 21 Formules mathématiques itératives Cette méthode permet d'avoir des résultats intéressants en recherchant la prochaine note en fonction des notes générées précédemment selon des formules mathématiques (processus itératif). Ces formules se définissent selon trois types: - constant o n'offre pas de résultat intéressant, puisque ne propose pas de variations entre 2 cycles consécutifs. - Oscillatoire o Offre des résultat intéressant si le nombre de cycles entre 2 cycles identiques est assez grand, pour ne pas obtenir une mélodie trop cyclique. - Chaotique o Permet d'obtenir des résultats intéressants, en effet on n'aura plus ou moins une répétitions des cycles précédents mais il y aura toujours de petites variations faisant évoluer la mélodie. Un algorithme connu dans ce type de méthode est la carte d'Hénon. Il s'agit de la transposition musicale d'une formule donnant l'orbite d'une étoile en gravitation autour d'un centre, découverte par l'astronome français Hénon. A partir d'image ou de fractale On peut analyser une image (fractale ou autre) pour en extraire une sorte de musique plus ou moins cohérente. Par la lecture séquentielle de l'image qu'on découpe en zones (selon le nombre de voix à générer), on transpose la valeur de la couleur d'un point et de sa coordonnée en une note. On comprend qu'on peut également utiliser directement les formules mathématiques de fractales pour générer de la musique selon cette méthode. La qualité du résultat peut se montrer assez intéressant. Méthode génétique C'est actuellement un des algorithmes donnant les meilleurs résultats. Il s'agit de reproduire les transformations génétiques à une séquence de musique. Les transformations subies par les séquences sont des phénomènes de mutations, permutations, reproduction et crossover. Ensuite, on choisit les séquences qui sont les plus pertinentes suivant certains critères pour les faire à nouveau évoluer. Voici les différentes étapes de cette méthode: 1) Détermination d'un ensemble de séquences initiales (de composition aléatoire) 2) On détermine la pertinence de chacune 3) On sélectionne les meilleures séquences (selon certains critères de satisfaction) et on détruit les autres 4) On couple aléatoirement les séquences restantes deux à deux 5) On crée une nouvelle génération à partir des anciennes séquences en appliquant les transformations génétiques 6) On remplace les anciennes séquences par les nouvelles 22 7) On recommence de l'étape 2 jusqu'à ce qu'une séquence remplisse entièrement les critères de satisfaction ou qu'on a atteint un certain nombre d'itérations. Les critères de satisfaction peuvent être au niveau de la structure rythmique ou, bien sûr, de la cohérence des notes qui composent la séquence. 23 Conclusion : La musique assistée par ordinateur offre donc de nombreuses possibilités aux musiciens. Parmi tous les avantages, on peut citer par exemple l’étendue des utilisations pendant toute la chaîne de création musicale. L'ordinateur tend à remplacer les différents composants d'un studio, par exemple aux niveaux des effets (compresseur etc...), ainsi que les synthétiseurs (ou autres générateurs de sons), et quelques fois le jeu du musicien. C'est un domaine évolutif, de nouveaux programmes apparaissent chaque jour. Un autre atout de la MAO est qu'elle permet d'atteindre un niveau professionnel du point de vue qualité pour un faible coût. Elle permet au musicien de travailler plus rapidement. Les inconvénients sont très rares, les professionnels interrogés disent souvent que le seul inconvénient et qu'il leur faut se mettre à l'informatique... Quant au futur, il est très prometteur dans ce domaine, les spécialistes sont unanimes: le hardware (effets, générateurs de sons…) sera de plus en plus remplacé par le software, même si le matériel ne disparaîtra sans soute jamais complètement puisque l'ordinateur sera accompagné d'interfaces de plus en plus naturelles, expressives et intuitives. La puissance de calcul des ordinateurs toujours plus importante va permettre des traitements beaucoup plus puissants, tel que la modélisation physique (imitation de phénomènes naturels) qui intervient dans la génération sonore. Mais bien sûr l'ordinateur ne remplacera jamais le talent d'un compositeur... Merci à Rikard Latvala, musicien professionnel, pour avoir apporté certains renseignements et à Patrick Esquirol pour le suivi du projet et ses conseils. 24