mao - Jarrologie

Transcription

mao - Jarrologie
Introduction :
Les domaines de l'informatique sont de plus en plus variés et la musique n'a pas
échappé à cette règle. De nos jours l'ordinateur a une place de plus en plus importante dans la
création musicale. On pense souvent dans un premier temps aux différents styles spécifiques à
ce traitement tel que la musique purement "électronique".
Mais la musique assistée par ordinateur (MAO) touche un domaine de styles bien plus vaste.
En fait, tous les styles de musique peuvent être concernés par l'informatique, tant les
possibilités offertes par ce nouvel instrument sont étendues. Certains musiciens l'ont compris
il y a déjà longtemps, d'autres ont été plus hostiles à l' "informatisation" de la musique.
La MAO possède de nombreux avantages et offre aux musiciens de nouvelles possibilités.
Nous verrons qu'il se dégage de l'utilisation de l'ordinateur trois grands domaines que sont le
traitement audio-numérique, l'édition musicale et la synthèse sonore. Nous verrons qu'il existe
aussi d'autres applications "annexes" mais fortes intéressantes. Ces domaines interagissent
souvent entre eux. L'informatique a aussi l'avantage d'être évolutive, c'est pourquoi nous
parlerons brièvement des principales évolutions qui ont eu lieu dans ces différents domaines
et nous appuierons nos développements sur les logiciels les plus représentatifs. Mais avant
tout, il est utile de voir ou revoir certaines bases telles que le son, sa représentation sur
l'ordinateur et les interactions entre matériel informatique et équipement musical.
1
I Les bases
Ce chapitre a pour but de présenter les notions de base utiles pour la suite.
1) Le son
Bien comprendre les processus tels que le codage du son dans l'ordinateur ou sa synthèse,
c'est d'abord bien comprendre le son lui-même. Nous commencerons donc par définir le son.
Nous verrons ensuite que de nombreux formats informatiques sont dédiés au son. Ils font tous
appels à des techniques très diverses et nous verrons à quels types d'application chacun d'entre
eux sont destinés.
Dans un troisième temps, nous aborderons des notions plus pratiques qui permettront de
comprendre les interactions entre des équipements musicaux "traditionnels" et l'ordinateur.
a) Qu'est ce que le son ?
Le son est une vibration de l'air. A l'origine de tout son, il y a mouvement (par exemple
une corde qui vibre, une membrane de haut-parleur...). Il s'agit de phénomènes oscillatoires
créés par une source sonore qui met en mouvement les molécules de l'air. Avant d'arriver
jusqu'à notre oreille, ce mouvement se transmet entre les molécules à une vitesse de 331 m/s à
travers l'air à une température de 20°c : c'est ce que l'on appelle la propagation.
Un son est d'abord défini par son volume sonore et sa hauteur tonale. Le volume dépend de la
pression acoustique créée par la source sonore (le nombre de particules d'air déplacées). Plus
elle est importante et plus le volume est élevé. La hauteur tonale est définie par les vibrations
de l'objet créant le son. Plus la fréquence est élevée, plus la longueur d'onde est petite et plus
le son perçu est aigu. En doublant la fréquence d'une note, on obtient la même à l'octave
supérieure. Et donc, en divisant la fréquence par deux, on passe à l'octave inférieure. Ce n'est
qu'au-delà de 20 vibrations par seconde que l'oreille perçoit un son. Les infrasons, de
fréquence inférieure à cette limite de 20 Hz sont inaudibles, de même que les ultrasons, de
fréquence supérieure à 20 000Hz, soit un peu plus de 10 octaves. Chacun peut constater que le
niveau sonore diminue à mesure que l'on s'éloigne de la source. Cette diminution est la même
chaque fois que la distance est doublée. Cependant, les hautes fréquences ne se propagent pas
aussi loin que les sons graves. Il faut plus d'énergie pour restituer les basses que les aigus.
b) Quelles sont les caractéristiques d' un son ?
Le son est défini par trois paramètres :
- L'amplitude d'un son qui correspond à la variation de pression maximale de l'air engendrée
par les oscillations, c'est-à-dire volume sonore
- La dynamique qui permet la mesure de l'écart entre le volume maximal d'un son et le bruit
de fond. La dynamique ce mesure en décibels (dB). En fait, elle est le rapport entre le niveau
maximal, à la limite de la distorsion, et le niveau minimal acceptable, à la limite du niveau de
bruit de fond. Par exemple, pour un compact disque on parle de 90 dB de dynamique utile et
en télévision de 25 dB en moyenne.
2
- Le timbre qui est un paramètre beaucoup plus subjectif : il s'agit de ce qui différencie deux
sons de même hauteur et de même amplitude. C'est une notion qualitative, qui fera dire, par
exemple, qu'un son est brillant ou profond…
On peut visualiser ces paramètres de plusieurs façons, la plus simple étant sa représentation
bidimensionnelle.
Une représentation courante est l'amplitude de l'onde en fonction du temps :
Amplitude
Temps
Représentation graphique d'une onde.
Dans cette représentation, l'amplitude (mesure relative des données audio) est exprimée selon
une échelle en Décibel (à gauche) pour chaque relevé de mesure, qui se fait à un intervalle
régulier le long de l'axe représentant le temp.
Une autre représentation permettant de visualiser plus d'informations est la représentation en 3
dimensions. Celle-ci fait apparaître les différentes fréquences qui composent l'onde. Cette
représentation est appelée analyse harmonique.
3
Représentation tridimensionnelle d'un son.
c) Comment est stocké le son sur l'ordinateur ?
Il faut d'abords différencier les deux types de sons: le son analogique et le son
numérique.
Le son analogique est représenté sous la forme de signaux électriques d'intensité variable. Ces
signaux sont issus d'un micro qui transforme le son acoustique d'une voix ou la vibration des
cordes d'une guitare en impulsions électriques. Ces signaux sont enregistrables tels quels sur
une bande magnétique (K7 audio par exemple) et peuvent être ensuite amplifiés, puis
retransformés en son acoustique par des haut-parleurs. Le son analogique n'est pas
manipulable tel quel par un ordinateur, qui ne connaît que les 0 et les 1.
Le son numérique est représenté par une suite binaire de 0 et de 1. L'exemple le plus évident
de son numérique est le CD audio. Le processus de passage du son analogique en son
numérique est appelé "échantillonnage". Celui-ci consiste à mesurer la tension (en Volt) du
signal analogique à intervalles réguliers. La valeur obtenue est enfin codée en binaire (suite de
0 et de 1).Le composant qui réalise cette tache est appelée convertisseur A/N. Évidemment, ce
processus de mesure et de conversion binaire doit être très rapide. C'est là qu'intervient la
fréquence du son à numériser. Par exemple, pour une voix dont la fréquence est de 8000Hz
(Hertz), le signal électrique issu du micro aura aussi une fréquence de 8000Hz. Pour
transformer ce signal en numérique et à qualité équivalente, le mathématicien Shannon a
démontré qu'il fallait que le prélèvement de mesures soit fait à une fréquence au moins 2 fois
plus rapide que la fréquence originale, soit pour l'exemple de la voix, 16000 fois par seconde
(16000Hz ou 16 kHz). Un autre paramètre très important de l'échantillonnage est la précision
avec laquelle la tension du signal électrique sera lue et codée. Le codage peut, en effet se faire
sur 2 n bits. Une précision de 8 bits donnera une tension codée parmi 256 valeurs possibles,
alors que 16 bits donneront plus de 65 000 valeurs. Les CD sont ainsi échantillonnés à
44,1kHz sur 16 bits.
4
La conversion inverse de numérique vers analogique, se fait par le processus inverse.
La tension du signal électrique est recréée à partir des valeurs codées, lues à la même vitesse
qu'elles avaient été enregistrées.
L'avantage évident de ce type de son, c'est qu'étant codé sous la forme de 0 et de 1, il est
directement manipulable par un ordinateur et son stockage ne pose aucun problème sur un
disque dur. En revanche, le nombre de valeurs enregistrées étant énorme (44 100 valeurs/s),
ce type de son occupe beaucoup de place dans la mémoire ainsi que sur le disque dur de
l'ordinateur. A titre d'exemple, un CD audio de 74 minutes représente 650 Mo (Méga-octets)
et le débit d'un lecteur de CD est de 150 Ko/s (Kilo-octets/s). Une seule seconde de son stéréo
échantillonné à 44,1 kHz et en 16 bits prend 172 Ko.
2) Les formats.
Les formats peuvent se classer en trois genres, les formats musicaux, les formats audio et
des formats "hybrides", mélange des deux formats précédents.
a) Les formats musicaux.
- Le son MIDI.
Le MIDI est une norme permettant aux instruments électroniques - et par extension à
d'autres types de matériels - de communiquer entre eux. Après des débuts assez difficiles, le
midi s'est très largement répandu. C'est l'arrivée des microprocesseurs dans les machines qui
permit d'obtenir une plus grande souplesse d'utilisation. C'est en 1982 qu'est née la norme
MIDI, acronyme de Musical Instrument Digital Interface (en français interface numérique
pour instrument de musique). Celle-ci définissant une interface matérielle ainsi qu'un
protocole de communication. Elle fut ensuite reprise par toute l'industrie musicale. Le son
MIDI est très différent des sons numériques ou analogiques dans le sens où il ne s'agit pas de
son en tant que tel, mais plutôt de sa représentation ou de sa description. Au lieu d'enregistrer
le son produit par un orchestre en analogique ou en numérique, cela revient à enregistrer juste
les notes qui composent la partition et ce pour chaque instrument. La note de la gamme,
l'octave, la durée, le volume et le moment où la note devra être jouée sont les paramètres
utilisés pour représenter chaque son. C'est pour cela qu'on parle plutôt de "note" MIDI que de
son MIDI. Chaque changement (une note jouée, un volume qui change) est appelé événement.
Le système MIDI utilise 16 canaux différents. Un canal est comparable à une piste d'une table
de mixage: une piste peut contenir l' enregistrement entier d' un morceau, mais il est
préférable de séparer certains instruments pour un meilleur contrôle du mixage ( volumes,
panoramiques etc... ).
Le midi pouvant être transmis d'un instrument à l'autre par l'intermédiaire d'un câble, il est
donc possible de contrôler 16 instruments différents en même temps grâce à un seul câble.
Pour cela deux types de messages sont envoyés:
- Le message canal ne concernera qu’un seul canal. Par exemple l’appuie d'une touche
enverra un message canal ( Note ON ) pour déclencher une note sur un seul canal.
- Un message système va être reçu et sera appliqué par toutes les unités connectées. Cela
permettra par exemple de synchroniser l’ensemble.
Pour avoir un rendu des informations contenues dans le fichier, la carte son va utiliser soit la
synthèse FM (Frequency modulation) donnant des résultats approximatifs, soit une table
d'échantillon (wave table en anglais), qui comme son nom l'indique permet l'utilisation
5
d'échantillons audio (qui seront transposés selon la note jouée). Ces échantillons constituent
les banques de sons propres à chaque carte son. Ces banques sont souvent difficilement
modifiables.
Les avantages du MIDI sont nombreux :
- Le MIDI constitue une norme, unanimement respectée par tous les fabricants de matériels
musicaux électroniques. Il n'y aura donc aucun problème de connexion et de "compréhension"
avec des instruments MIDI hétérogènes.
- Le MIDI est "léger" et directement manipulable par un ordinateur. Un fichier MIDI ne
représente que quelques kilo-octets pour un morceau de plusieurs minutes. L'édition d'un
morceau MIDI est très simple. Tous les paramètres sont modifiables d'un clic de souris
(tempo général, hauteur et durée d'une note, instruments...).
Selon les constructeurs on trouve différentes normes complétant Midi (plus de sons, d'effets
etc…): par exemple Yamaha a développé le format XG, Roland le format GS. Mais tous
s'appuient sur le format GM (Général Midi), qui assure une compatibilité entre tous les
instruments quelles que soient leurs marques.
b) Les formats audio:
On distingue les formats non-compressés et compressés:
- Les formats non compressés :
Le son est codé tel quel, ce qui le rend facilement manipulable par le biais de programmes.
C'est le cas du format "wav", format audio de référence, qui s'est largement répandu grâce à
Windows. La norme de qualité de référence du format wav est 44.100 Khz et 16bits/s qui
correspond à l'échantillonnage des CDs audio. Son codage est très simple, voici le contenu
d'un ficher wav:
Etiquette RIFF
Longueur RIFF
type
Etiquette Format
Longueur Format
Format microsoft
Nb canaux
Fréq. Échantillon.
Octets/sec.
Octets/échantillon
Nb bits
Etiquette Data
Longueur Data
Donnée échantillonage
« RIFF »
27796
« WAVE »
« fmt »
16
1
1
22050
22050
1
8
Data
27760
Donnée échantillonage
Chunk Riff
Chunk Format
Chunk Data
6
Le fichier est constitué de blocs hiérarchisés appelés "chunk". Le bloc "Riff " ("Resource
Interchange File Format", qui est le type des fichiers wav) englobe l'ensemble du fichier, il
permet de l'identifier comme étant un fichier wav. Le bloc Format identifie les différents
paramètres du format: fréquence de l'échantillonnage, nombre de bits etc… Le bloc data
contient les données échantillonnées. Tous les champs sont facilement compréhensibles avec
les notions vues précédemment, excepté la valeur du champ correspondant au format
Microsoft qui est à 1 pour le format PCM, Pulse Code Modulation, format des données audio
non compressés.
- Les formats compressés:
La compression des données sert à réduire la taille d'un fichier pour qu'il tienne le moins de
place possible sur le disque dur. On distingue 2 types de compression :
- La compression non-destructive : Le principe de la compression repose, sur l'idée
qu'un certain nombre de données dans un fichier sont répétitives. On va "factoriser" ces
données pour ne les énumérer qu'une seule fois. Grossièrement, la séquence 01010101
deviendrait 4*01.
- La compression destructive : Bien que les compacteurs arrivent déjà à réduire
significativement les tailles des fichiers qu'ils compressent, il est encore possible d'améliorer
les taux de compression. C'est particulièrement intéressant puisqu’un son dont la définition est
de qualité CD prend énormément de place. De nombreux algorithmes de compression
reposent sur le principe suivant: les fichiers audio contiennent de nombreuses informations
inaudibles pour l'homme, comme par exemple les fréquences supérieures à 20 Khz. On peut
donc supprimer ces fréquences, en appliquant par exemple un algorithme de filtre passe-bas,
en conservant une qualité équivalente. C'est donc en ce sens qu'on parle de compression
destructive. Evidemment, plus on veut un petit fichier, plus la dégradation du son sera
audible. Le format le plus efficace est le très connu format MP3 (pour MPeg Layer 3).
Nous allons voir les différentes notions permettant l'encodage mp3.
– L'effet de masque
L'oreille humaine ne distingue pas les sons "faibles" lorsqu'ils sont masqués par des sons
"forts". En effet le cerveau élimine les sons qu'ils considèrent comme parasite. Mais il peut
également extrapoler des sons inexistants. Le principe de Sub Band Coding (SBC) repose sur
l'élimination des plages de fréquences masquées.
– Les limites perceptibles de l'oreille
Comme nous l'avons vu, l'oreille humaine ne perçoit plus les fréquences inférieures à 20 Hz
ou supérieures à 20 Khz. On peut donc éliminer ces fréquences. La courbe de Fletcher
Munsen (voir annexe), permet d'identifier avec plus de précision les plages de fréquences
inaudibles, en fonction de l'amplitude.
– Le réservoir de données
Il faut comprendre que le codage du mp3 est totalement différent du wav. Certaines zones de
ce type de codage sont inutilisées, d'où la possibilité de stocker à ces endroits des
informations qui serviront plus tard (par exemple des données redondantes).
7
– La compression Huffman
C'est une compression plus classique que l'on retrouve dans de nombreux formats. On code
les données selon leur récurrence statistique. Une table de correspondance permet de recenser
des données redondantes, on pourra alors par la suite les appeler par leurs indexes en
réduisant la taille du fichier, c'est donc une compression non destructive.
- La stéréo combinée
L'oreille humaine ne peut localiser avec précision les fréquences basses. Il est donc inutile de
coder ces fréquences en stéréo. La restitution de la stéréo est donc approximative.
L’inconvénient majeur de ces formats compressés et qu'ils ne sont plus facilement
manipulables par le biais de logiciels, par exemple pour la retouche du son. En général, il
faudra les reconvertir en wav pour les manipuler.
Un autre inconvénient est que les compressions destructives ( même les plus efficaces) ne
peuvent plus être utilisées dans le cas d'un travail professionnel. Même si une compression
"légère" est supposée ne pas pouvoir s'entendre, les critères de qualité d'un morceau font que
les formats tel que le mp3 ne sont jamais utilisés par les professionnels.
c) Les formats "hybrides":
Ces formats ont la particularité de mélanger les deux types de formats que nous venons
de voir (midi et audio), on parle alors de module.
Le principe du module offre un intéressant compromis :
les instruments sont définis par des échantillons relativement courts et sont joués en
s'inspirant de la méthode MIDI : une suite de commandes caractérisant la hauteur de la note,
son volume, son maintien etc...
Le concept du module a originellement été développé sur Amiga en illustration sonore des
démonstrations graphiques, programmes compacts mettant en exergue les possibilités
techniques de ce type de machines.
La finalité première du module était de jouer une bande sonore aussi rapidement que possible,
de manière à laisser le maximum de ressources disponibles aux effets graphiques. Sa fonction
originelle a forgé ses spécificités : un format de codage compact, intégrant ses propres
instruments, les instructions séquentielles permettant d'enchaîner les notes à jouer, ainsi que
les effets sonores à leur appliquer.
Le format de fichier MOD a été largement popularisé par de nombreux éditeurs de modules
pour Amiga.
Historiquement, les modules décrivaient 4 pistes sonores, correspondant aux 4 canaux de
sortie indépendants dont dispose l'Amiga.
Plus tard, l'adaptation des modules sur PC a permis de faire évoluer ce format en de nombreux
autres reprenant son principe et ouvrant de nouvelles possibilités : un nombre de pistes accru,
une définition plus fine de la note à restituer.
8
3) Interactions entre ordinateurs et instruments
a ) Qu' est ce qu' un Home Studio ?
Une installation musicale complète autour d'un ordinateur permet de constituer son
propre Home Studio.
Un Home Studio, c'est la façon la plus simple de jouer, de composer et d'enregistrer de la
musique, lorsque l'on n’a pas les moyens de s'offrir un véritable studio professionnel. Un
Home Studio est généralement bâti autour d'un micro-ordinateur, PC, MAC ou ATARI. Cet
ordinateur constitue le cœur du Home Studio, à travers sa carte son et les divers instruments
analogiques (guitare, micro, magnéto...) ou électroniques (claviers, synthé...) qui y sont
connectés. On peut ainsi gérer ce qui va constituer l'arrangement final : données numériques,
analogiques et MIDI. C'est là que réside toute la difficulté du Home Studio : marier ces
différents types de sons. Plusieurs solutions sont possibles. Le choix se fait en fonction des
besoins et/ou des moyens disponibles. Le matériel qui constitue un home studio dépend de
deux facteurs : les éventuels instruments qui seront connectés et leur mode d'enregistrement
(analogique ou numérique).
Dans le cas où on voudrait faire communiquer deux instruments par le biais du midi, la
transmission des données se fait grâce à un câble DIN 5 broches. On distingue 3 sortes de
connexions midi, chacun ayant un rôle spécifique: la prise MIDI IN va permettre à un appareil
de recevoir des informations, la prise MIDI OUT permettra l’envoi d'informations, et enfin la
prise MIDI THRU va renvoyer les informations reçues par la prise MIDI IN, sans en tenir
compte. Ces trois types de prises permettent de connecter plusieurs instruments MIDI de
plusieurs façons, par exemple en chaîne ou en étoile.
Prise DIN 5 broches.
On comprend l'intérêt des différentes connexions midi (in, out ,thru) par les besoins
spécifiques de certaines configurations. Par exemple, on veut jouer une même séquence sur
deux synthétiseurs différents, voici une configuration possible:
Midi out
Midi in
Midi thru
Synthé 1
Midi in
Synthé 2
Haut
parleur
Mixage
Audio out
Audio out
9
b ) Les principales configurations :
1) Configuration standard analogique. Cette configuration permet l'utilisation d'instruments
MIDI et classiques en enregistrement analogique. On peut relier juste un instrument a
l'ordinateur en midi. . Cet instrument peut être un synthétiseur ou un clavier MIDI aussi
appelé "clavier maître" qui ne génère que des notes MIDI. Ces instruments MIDI et
classiques (guitare, micro...) devront être "mixés" et enregistrés sur une cassette audio
analogique. Cette configuration nécessite une table de mixage qui permettra de mélanger
plusieurs instruments ainsi qu'un magnétophone simple ou multipistes. Dans cette
configuration, la carte son du PC est considérée comme un instrument analogique à part
entière. On prend ce qu'il y a en sortie de la carte son et on mixe avec les autres instruments.
2) Configuration standard numérique. Cette configuration permet l'utilisation d'instruments
MIDI et classiques en enregistrement numérique. La seule différence est l'enregistrement qui
ne se fait plus sur la cassette du magnétophone multipistes mais directement sur l'ordinateur.
On utilise pour cela les capacités de d'échantillonnage de la carte son du PC. On parle alors de
"Direct to Disk" ou DtD. Une fois sur le disque dur du PC, les capacités d'édition, d'effets ou
de retouche d'un enregistrement sont infinis. L'enregistrement numérique requiert un PC
puissant, un disque dur de grande capacité, ainsi qu'une carte son dite "full duplex" (lecture et
enregistrement simultanés).
A partir de ces configurations de base, on peut imaginer toutes sortes de configurations plus
complexes.
II) Les domaines de la MAO.
Maintenant que nous avons connaissance des principales notions élémentaires, nous
allons pouvoir aborder les trois grands domaines qui constituent la base de ce qu’est la
Musique Assistée Par Ordinateur: la synthèse, l’édition musicale et le traitement audionumérique
Pour pouvoir travailler avec l’ordinateur d’une manière complète, il est nécessaire de savoir
maîtriser l’ensemble de ces 3 domaines tant ils se complètent. En effet, nous serons souvent
confronter à des situations où nous aurons besoin de tirer partie au mieux de ces domaines
bien distincts.
Exemple de situation:
Un logiciel joue une séquence de notes, le timbre de cette séquence est un son que l'on a
totalement créé. Cette séquence audio sera ensuite traitée pour finaliser l’ensemble.
10
Séquenceur
Edition
Notes
Génération de son
Synthèse
Audio
Traitements audio
Ajout d’effets
Finalisation
Traitement
audionumérique
Schéma d'un exemple d'interactions entre différents domaines de la MAO.
Nous allons aborder dans un premier temps le domaine de la synthèse sonore.
1) L'émulation sonore.
1 ) L’intérêt de l’émulation sonore.
L’émulation sonore consiste à recréer un son entièrement à partir de l’ordinateur. Ce
procédé existe déjà sur certains instruments de musique électronique, c’est ce qu'on appelle la
synthèse. On peut ainsi créer des sons totalement originaux n'existant pas dans la nature, mais
également des sons se rapprochant de sons naturels. Même si l'enregistrement direct du son
venant de sources externes (instruments etc…) offre de nombreuses possibilités, la synthèse
va permettre de faire des choses largement plus complexes. En effet, certains sons utilisés
couramment ne peuvent être que synthétiques. C’est le cas par exemple des nappes de
synthés, qui sont des accords joués avec un son synthétique créant un fond sonore et donnant
au morceau une ambiance particulière. D'autre part, les sons obtenus par synthèse peuvent
être bien plus complexes (au niveau du travail de leur timbre par exemple) que ceux que l'on
peut obtenir avec des instruments acoustiques. Ainsi, il est fréquent de doubler une ligne de
basse par un synthé basse pour augmenter son impact, et sa clarté si les sons sont bien choisis.
2 ) "Construction" d'un son.
On parle de construction car l’application va créer la représentation informatique d'une
onde sonore. Cette génération sonore est appelée synthèse car il s'agit d'un son créé
artificiellement.
11
Le principe de la synthèse de base est la combinaison de différents éléments.
a) Oscillateurs.
Au départ, on retrouve toujours un générateur de son simple. Celui-ci est généralement
un oscillateur (appelé vco pour voltage controlled oscillator), et produit une forme d'onde
simple, à une fréquence donnée. Les principales formes d'ondes sont : Sinusoïde, Triangle,
Dent de scie et carrée (voir annexe).
En plus de ces générateurs de sons périodiques, "géométriques" et "purs", on trouve les
générateurs de bruit. Les bruits sont des ondes créées aléatoirement qui vont perturber le son.
Suivant le degré de perturbation du son, on attribue une couleur au bruit :
- brun = peu de perturbations
- rose (ou azurés) = perturbations limitées
- blanc = perturbations maximales.
Par exemple, un bruit blanc peut ressembler à un souffle, un bruit de vent, un bruit de réacteur
d'avion ou au bruit de la mer.
On peut obtenir un nouveau son plus riche et complexe en superposant différents oscillateurs
(synthèse additive).
Le son obtenu est composé d'une fondamentale (la fréquence produite par l'oscillateur seul qui
permet de donner un nom à la note) et d'harmoniques (multiples de la fondamentale). On peut
enrichir un son de diverses manières comme par exemple en ajoutant des harmoniques. On
obtient un son plus au moins épais en modifiant très légèrement les fréquences des
oscillateurs.
b) Le filtrage
Le filtre ( vcf pour voltage controlled filter ), va permettre de changer radicalement le
timbre d'un son en éliminant (synthèse soustractive) certaines fréquences. On peut agir en
même temps sur le filtre mais aussi sur une commande de résonance pour augmenter
éventuellement le niveau des harmoniques à la fréquence de coupure, c'est-à-dire à la limite
entre les harmoniques conservées et celles qui sont supprimées. En général, on agit sur le
filtre (à front raide) par sa fréquence de coupure (cutoff). Mais on peut également utiliser
d'autre type de filtres: les filtres passe-bas (Lpf : Low Pass Filter), les filtres passe-haut (Hpf :
High Pass Filter) et les filtres passe-bande (Bpf : Band Pass Filter).
c ) L'enveloppe: les différentes phases du son.
L'enveloppe est une "couche" permettant de jouer sur différents paramètres du son en
fonction du temps. On peut par exemple paramétrer l'évolution du son au niveau du volume,
mais aussi de divers traitements comme par exemple le filtre.
Par exemple, on va pouvoir créer un son dont le volume augmente progressivement.
12
Cette évolution se compose de 4 phases:
- l'attack: c'est l'évolution du son quand on le déclenche.
- le decay: une fois la première phase terminée, le son va évoluer différemment, on peut par
exemple faire diminuer son volume.
- le sustain: il maintient un son, même si la touche est relâchée.
- le release est l'évolution du son quand on relâche une touche.
Représentation graphique d'une enveloppe.
d ) Utilisation d'oscillateurs à basse fréquence.
Les oscillateurs à basses fréquences (LFO: low frequencies oscillator), qui ne sont en fait
que des générateurs d'ondes sonores basses fréquences, peuvent eux-mêmes servir à générer
une onde qui va contrôler les éléments précédents.
Par exemple, une onde sinusoïdale basse fréquence, affectée au contrôle:
- de l'amplitude, va donner au son un effet oscillant, appelé "vibrato".
- du filtre va permettre d'obtenir par exemple un effet "whawha".
- de la fréquence d'un oscillateur va permettre de générer un son de "sirène de police".
Tous ces éléments combinés ensemble vont permettre l’élaboration de sons riches et
complexes.
3 ) Un domaine évolutif.
On comprend bien que ce domaine est très large, et ses possibilités quasi-infinies. C’est
pourquoi on voit apparaître très souvent de nouvelles applications, commerciales ou gratuites.
Ce domaine ne dépendant pas des capacités de l'ordinateur dans certains cas (générer un
fichier wav peut se faire sur n'importe quel ordinateur, quelque soit sa puissance), il évolue
indépendamment de l' évolution des ordinateurs, ce qui le rend à la fois très accessible (pas
besoin de gros budgets pour le hardware), mais également permet de ne pas avoir à attendre
les progressions des machines (contrairement au jeux par exemple).
Mais l’atout principal qui joue en faveur de l' évolutivité de ce domaine est le plug-in.
Le plug-in, dans son sens général, est un élément qui va pouvoir être connecté à quelque
chose d’autre. Cette chose peut être un élément matériel, mais dans notre cas il va s’agir d’un
élément logiciel, d’où la désignation de plug-in software. Ces plug-ins sont constitués d’un
ensemble de code formant un module complet qui peut avoir plusieurs rôles (de synthèse ou
de traitement); c'est pour cela que le plug-in est loin d' être exclusivement réservé au domaine
de l' émulation sonore.
Les plug-ins ont deux modes d’exécution: en natif ou sur circuits DSP (Digital Signal
Processor).
Dans le premier cas le plug-in est exécuté par le processeur. Il partage donc les ressources du
13
micro-processeur avec tout les éléments que ce dernier traite (affichage etc...). C’est donc une
solution qui peut présenter des inconvénients dans le cas du dépassement de capacités du
processeur.
C’est pourquoi la solution DSP est considérée comme beaucoup plus "professionnelle". Le
traitement est alors envoyé à des ships conçus pour le traitement de l’audio et garantit alors
une très grande efficacité. Par comparaison, quand un Pentium ou PowerPC nécessite une
dizaine de cycles d’horloge, ces circuits spécialisés n’en ont besoin que d'un seul. Mais les
circuits DSP possède un inconvénient de taille: son prix qui le réserve aux musiciens pouvant
ce permettre d' acheter de telles cartes.
Ces modules ne sont pas forcément spécifiques à une application, d'ailleurs en général les
plug-ins ne sont pas réalisés par les programmeurs des applications les supportant. Le plug-in
va étendre les possibilités d’un logiciel en proposant de nouveaux traitements.
De nombreux plug-ins s’appuient sur les APIs ( Application Program Interfaces ) de DirectX,
mais un autre standard s’est largement répandu: le VST ( Virtual Studio Technology ), grâce
notamment au logiciel Cubase.
Les dernières innovations dans ce domaine sont le remplacement des vrais synthétiseurs par
l'ordinateur. En effet, on a vu récemment l'apparition d'un synthétiseur mi-software, mihardware. Celui-ci avait un panneau de contrôle classique, mais ce panneau contrôlait un
synthétiseur virtuel sur PC mais qui produisait le même résultat que les synthétiseurs
"matériels". L'intérêt d'un tel panneau est de permettre à l'utilisateur un contrôle de l'interface
software bien plus efficace qu'avec une simple souris et un clavier. L'avenir de ce domaine est
sans aucun doute le développement de l'interaction software/matériel permettant d'obtenir des
résultats de très haute qualité en se débarrassant des contraintes de coûts élevés des
composants qui constituent les synthétiseurs classiques.
4) Du point de vue implémentation.
Sans entrer dans les détails, l'implémentation d'un générateur d'ondes est très simple à faire.
De nombreux softwares travaillent en générant d'abord un fichier wav, celui–ci ayant
l'avantage d'être facile à constituer. Avec la description du contenu d'un fichier wav donné
précédemment on peut facilement comprendre l'algorithme donné en annexe générant une
onde sinusoïdale.
2) L'Edition musicale.
1 ) Qu’est ce que l'édition musicale?
L'édition musicale consiste principalement à créer ou modifier des séquences musicales,
qui peuvent par exemple être des séquences midi ou des modules. A partir de là, on peut tout
paramétrer de part la nature même de ces formats qui sont entièrement "programmables",
contrairement aux formats audio tel que le wav.
On va pouvoir par exemple changer à volonté le tempo d'une séquence sans aucune
dégradation du son, ajouter des notes etc... Bien sûr, l'édition musicale ne s'arrête pas là: on
peut faire des changements bien plus radicaux en modifiant par exemple une sonorité, le
14
volume, le panoramique ou les effets d'une piste. Au niveau des effets, le midi (par exemple)
permet le paramétrage des deux principaux types d'effets: la réverbération et le chorus.
2 ) Les outils d’édition.
Les éditeurs qui permettent ces traitements sont en général appelés séquenceurs
puisqu'ils permettent le travail de séquences.
Cet outil est apparu au début des années 80, avec les ordinateurs tel que l'Apple II. Depuis les
séquenceurs ont énormément progressé. Un des rôles du séquenceur est de permettre la saisie
de partitions, qui pourront être ultérieurement rejouées. L'édition musicale permet aussi de
récupérer une séquence jouée manuellement en temps réel et ainsi corriger les éventuelles
erreurs ou ajouter des notes en temps réel pour faire une harmonisation par exemple.
Certaines fonctionnalités dépendent des séquenceurs. Tous ne proposent pas les mêmes
fonctions, on peut imaginer toutes sorte de traitements.
L’édition musicale ne consiste en fait qu'à coder les différents évènements propres à chaque
format, qui interviennent tout au long d'un morceau.
Exemple d' évènements midi :
-> activation d'une note
-> changement de programme (= de voix)
-> modification du panoramique
-> niveau des effets (reverb,chorus)
-> transposition
-> effet de pitch bend
-> volume d'une piste
Mais les éditeurs ne s'arrêtent pas à la simple édition de ces évènements, ils proposent des
fonctionnalités bien plus élaborées.
Une fonction importante est la quantification: elle permet de replacer automatiquement les
notes décalées par rapport aux temps. Ceci va permettre de corriger les erreurs du jeu du
musicien. Même si c'est paradoxal, on peut également quantifier une piste pour que les notes
soient légèrement décalées pour recréer un jeu plus humain dans le cas d'une séquence trop
parfaite, entièrement créer par ordinateur par exemple.
La techno, la dance et les styles qui s'y apparentent se caractérisent par l'utilisation répétitive
de motifs sonores, dits patterns. Mais en écoutant bien tous les styles utilisent des motifs plus
ou moins courts qui se répètent, c'est pour cette raison qu’une des principales fonctionnalités
des éditeurs va être de permettre le bouclage. Chaque pattern pourra être repris indéfiniment
dans un même morceau, mis aux endroits voulus, le tout bien sûr synchroniser au tempo du
morceau.
Certains éditeurs permettent d'analyser la mélodie jouée afin de générer un accompagnement
cohérent, qui selon les algorithmes sera plus ou moins réussi.
Les Trackers ou éditeurs de modules sont des logiciels permettant de composer des modules,
c'est à dire d'orchestrer un arrangement musical à partir d'échantillons de sons faisant office
d'instruments comme nous l'avons vu précédemment, il intègre donc une partie permettant de
15
gérer une liste d'évènements comme les séquenceurs mais également une partie dédiée aux
échantillons qui seront utilisés pour le rendu du morceau.
Il y a différentes interfaces pour pouvoir éditer une partition, qui se révéleront plus ou moins
pratiques dans le cas de ce qu'on veut éditer (entrée de notes, créations d'évènements etc...).
On en distingue principalement trois:
Représentation en mode "edit" ou "grid" (grille).
Temps
Chaque note (ou évènement) est représentait par un rectangle en fonction du temps (donnée
en nombre de mesures écoulées). La longueur de ces rectangles représente la durée de chaque
note. Cette représentation permet une saisie rapide des différents événements qui composent
le morceau.
Représentation en mode liste.
Temps (durée)
Temps
16
Chaque évènement (ici des notes) est recensé sous forme de liste, allant dans l'ordre de leur
apparition dans le morceau. Cela permet de représenter en même temps de nombreux
paramètres comme la position de l'évènement, sa durée, les différentes valeurs qu'on y
attribut, son nom et le canal midi où on l'applique. Cette représentation sert surtout à modifier
des valeurs déjà entrées (par exemple les paramètres des effets) et non à saisir tous les
événements d'un morceau (ce qui serait trop laborieux).
Représentation en mode partition.
Cette représentation reprend l'affichage classique des partitions musicales. Elle est
particulièrement pratique pour la saisie conventionnelle des notes, mais ne permet pas la
visualisation de nombreux événements (effets…) et paramètres (vélocité…)
3) Utilisation des plug-ins:
Les plug-in servent essentiellement dans ce domaine au rendu des séquences. Par exemple,
on peut utiliser un plug-in permettant le contrôle d'un synthétiseur virtuel par la séquence
enregistrée en midi. Bien sur l'intérêt est qu'on n'est plus limité aux contraintes de la norme
midi (contrôle du son, instruments limités etc…). La norme VST est très répandu dans ce
domaine grâce au séquenceur Cubase.
3) Le traitement audio-numérique.
1 ) Qu’est ce que le traitement audionumérique?
Le traitement audionumérique consiste non plus à changer des informations concernant
par exemple le tempo d'un morceau, mais à faire des changements directement sur le son par
l'intermédiaire de calculs. Par exemple, ajouter de la réverbération à un morceau ne va pas
consister à modifier une information au début du fichier audio comme c'est le cas pour un
fichier midi, mais à traiter l'ensemble du fichier afin de recréer une réverbération selon
différents algorithmes.
Contrairement aux domaines précédents, il ne s'agit plus de produire un son, mais de modifier
quelque chose d’existant. Cela peut très bien être le résultat d'un son créé par synthèse comme
un son que l'on a enregistré avec un micro, par exemple une voix que l'on veut rendre plus
claire ou une guitare que l'on veut rendre plus présente. Les professionnels ont abondamment
recourt à ce traitement pour peaufiner leur morceau, qu'il soit électronique, rock ou de tout
autre style.
17
2 ) Les applications de ce traitement.
Bien sûr le traitement numérique va permettre l'utilisation d'effets très classiques, tel que
l'écho, le chorus etc...
Faire une liste exhaustive des effets est impossible. On comprend qu'on peut imaginer une
infinité de traitements au son. Nous aborderons rapidement les traitements les plus
couramment utilisés, en particulier dans le cas du pré-mastering (travail du son avant la
finalisation) d'un morceau.
L'égalisation consiste à modifier le volume de bandes de fréquences afin d'enrichir ou
d'appauvrir une séquence audio en fréquences spécifiques. C'est l'opération la plus simple et
efficace pour modifier un son sans le dénaturer. On peut ainsi donner plus de basses à un
morceau, tout comme on peut en supprimer. Un autre but de l'égalisation consiste à "séparer
les instruments". En effet, les instruments occupent des plages de fréquences communes. Il
vaut mieux essayer de baliser un peu leur étendue afin d'éviter qu'ils ne se superposent trop
afin de gagner en clarté. Il existe deux principaux types d'égaliseurs, les graphiques et les
paramétriques. Même si deux ou trois paramètres suffisent pour des réglages rapides ou pour
le live, cela ne suffit pas pour faire les corrections efficaces et subtiles que nécessite un
enregistrement. Dans les studios et sur les amplificateurs haut de gamme, on trouve des
égaliseurs bien plus performants, qui proposent non plus deux ou trois bandes mais plutôt une
trentaine. Ceci permet par exemple, de mieux cibler les instruments qui n'utilisent pas les
mêmes plages de fréquences.
La réverbération est un phénomène naturel que tout le monde connaît. La réverbération peut
être considérée comme le mélange d' écho et de différents phénomènes physiques tel que la
dispersion du son, l' absorption de l'air etc... Au moyen d' algorithmes complexes, l'ordinateur
va essayer de reproduire au mieux ce phénomène.
Exemple de paramétrage d'une reverb.
18
Le filtrage: les filtres agissent sur les fréquences, comme les égaliseurs, mais à des fins très
différentes. Les filtres sont en effet bien plus puissants que les égaliseurs, et servent donc à
supprimer (mais jamais complètement) des plages de fréquences. Les filtres sont souvent
utilisés dans la musique "techno", où ils sont généralement modifiés en temps réel afin de
rendre les parties répétitives "vivantes", et en "trip-hop", où l'atténuation des basses donne un
son rétro. Il existe bien sûr beaucoup d'autres utilisations des filtres. Les filtres audio sont à
mettre directement en rapport avec les filtres électriques. Il en existe trois types. Les filtres
passe-bas et passe-haut sont destinés aux extrémités de la plage de fréquence, alors que le
passe bande agit "à l'intérieur". Un filtre ayant une atténuation maximale de 6 dB par octave
est à peine plus puissant qu'un égaliseur, mais la plupart des filtres proposes 12 ou 24 dB. A
partir de 3 dB, l'atténuation devient audible. Cette valeur est appelée fréquence de coupure
(Cut-off). Le Cut-off peut être déplacé par l'utilisateur afin d'atténuer une bande de fréquences
plus ou moins large. Un filtre de type passe-bande possède deux cut-off. L'écart entre ces
deux cut-off est la largeur de bande (bandwidth). Au milieu se trouve la fréquence centrale
(center frequency). Les circuits filtrants diffèrent par la forme de leur courbe d'atténuation. Il
en existe deux formes nommées Bessel et Chebychev, du nom des mathématiciens ayant créé
les formules utilisées. Le système de filtres le plus complexe est le VOCODEUR, destiné à
transformer le son de la voix. Celui-ci contient deux sets de filtres, l'un destiné à faire
l'analyse du spectre d'un signal, et l'autre destiné à modifier un deuxième signal. Dans ce
système, le spectre du premier signal est appliqué au second signal modifié. Ainsi, on
reconnaît le premier signal dans le second.
La compression : cette compression n'a rien à voir avec la compression du mp3. En effet, si la
compression au sens informatique agit sur un fichier afin d'en réduire la taille, cette
compression agit directement sur le signal sonore, et plus précisément sur son volume. Le
compresseur permet en effet d'éviter les excès de volume, et d'atténuer des variations trop
importantes. Le compresseur peut être comparé à un assistant chargé de tourner le
potentiomètre de volume pendant qu'un musicien joue afin d’éviter que le son sature, et afin
d'avoir un volume plus constant. Un compresseur comporte typiquement quatre paramètres :
le threshold qui fixe le seuil à partir duquel la compression entre en action; le ratio définit
l'action de la compression (dans quelles proportions le signal doit être atténué). Enfin,
l'attaque (attack) et le relâchement (release) permettent de régler la progressivité de la
compression, afin qu'elle ne s'active pas comme un simple interrupteur (ce qui la rendrait trop
audible). Une compression bien réglée ne doit pas dénaturer le son.
Limiteur : le limiteur est une version plus radicale de compression, qui empêche le volume de
dépasser un certain seuil. C'est particulièrement utile quand on ne peut pas prévoir les
variations de volume du son en entrée.
Expanseur : l'expanseur est l'inverse du compresseur : tout signal au-dessus du seuil fixé et
amplifié et tout signal au-dessous du threshold est atténué. Celui-ci est utilisé soit pour relever
un signal trop comprimé ou pour provoquer des effets sonores.
Noise-gate : le noise-gate intervient lorsqu'un signal a un bruit de fond trop important. Le but
n'est pas de nettoyer tout le signal, ce qui est assez complexe, mais seulement les instants de
"blanc". Le noise-gate entre en action quand le volume est très bas. Dès qu'il passe en dessous
du threshold, le son est fortement atténué. Un noise-gate dispose également d'une attaque
réglable (bien qu'elle soit souvent instantanée) et d'un temps de relâchement (release)
permettant de régler la progressivité du noise-gate. Ce dernier doit être réglé avec précaution,
afin que l'action du noise-gate ne soit pas évidente à l'oreille (relâchement trop long), et
19
qu'elle ne coupe pas la réverbération des sons. Une application typique du noise-gate est
l'amélioration de la bande sonore des vieux films.
Bien sûr, le traitement audio-numérique permet d'appliquer toutes sortes d'effets à un fichier
audio, comme des phasers, des reverb, des saturations. Il permet également de renverser des
échantillons, changer leur format (taux d'échantillonnage).
Le traitement audio-numérique a une grande place dans la finalisation d'un morceau. Il va
permettre le bouclage de certaines séquences et surtout le mixage de plusieurs pistes, chacune
définie par plusieurs paramètres tel que le panoramique et le volume, ce qui est essentiel pour
un bon rendu. Dans les applications destinées au mixage de pistes audio, on retrouvera la
plupart des éléments composant les vraies tables de mixage. On pourra ainsi "muter" une piste
(la rendre inaudible), faire jouer une piste seule (solo), régler le volume, panoramique pour
chaque piste.
Tout comme pour l’émulation sonore et l'édition musicale, le traitement audio-numérique
bénéficie des nombreux avantages des plug-ins pour étendre les possibilités des logiciels et les
rendre ainsi évolutifs (ajout de traitements du son).
Dans le milieu professionnel, le traitement audio-numérique avec l'ordinateur est très utilisé.
On trouve souvent dans les studios professionnels des tables de mixage entièrement
automatisées par ordinateur permettant ainsi par exemple l'enregistrement de toutes les
actions de l'utilisateur (mouvement d'un potentiomètre de volume, mise en solo d'une piste
etc…) pour les reproduire par la suite. La norme midi permet de tels échanges entre
ordinateur et matériel.
4) Application diverses.
Les domaines vus précédemment recouvrent la majorité des applications relatives à la
MAO, mais il existe aussi bien sur d'autres applications un peu plus en marge mais qui
possèdent leurs propres intérêts.
1) Des domaines variés.
Par exemple certaines applications sont spécialisées dans certains domaines d'analyse des
fichiers audio tels que la reconnaissance des notes contenues dans un extrait sonore ou la
détection du tempo d'un morceau.
Un autre domaine intéressant que propose l'outil informatique est l'apprentissage assisté par
ordinateur de la musique. Ce domaine est assez vaste, il va de l'apprentissage du solfège à
l'amélioration du jeu du musicien (l'ordinateur permet la détection des imperfections de son
jeu au clavier) ou à l'entraînement de l'oreille "musicale".
20
2) La composition automatique.
Un autre domaine qui s'applique particulièrement bien à l'informatique est la
composition automatique. Nous allons voir brièvement les principaux algorithmes qui
permettent à l'ordinateur de composer un morceau de musique en se passant presque de
l'homme.
Méthode Stochastique
C'est la méthode la plus simple qu'on puisse imaginer: l'ordinateur ne fait que générer
des notes de fréquences et de durées aléatoires. L'utilisateur n'a que peu d'influence sur le
résultat, il peut simplement limiter l'intervalle des notes jouées et le nombre de pas. On
comprend qu'elle est très simple à implémenter mais n'apporte pas de résultat très intéressant.
Une méthode plus évoluée est l'assemblage non plus de notes aléatoires mais de fragments
mélodiques. Cette technique fut utilisée par Mozart.
Par transformations (géométriques, permutations)
On part d'une séquence très simple, éventuellement générée par l'ordinateur et on lui
applique plusieurs transformations comme par exemples des transformations géométriques ou
des opérations de permutation.
A l’aide de probabilités et statistiques
En partant d'un état (une note ou une séquence de notes), on va chercher le prochain état
le plus approprié selon une table donnant les probabilités de passage d'un état à un autre afin
de rendre le rendu le plus agréable possible.
Etude de compositions existantes.
En étudiant la densité spectrale des données audio de nombreux morceaux de genres
différents on s'aperçoit qu'on peut déduire certaines règles d'évolutions et qu'apparaissent
l'équivalent "musical" de nombreux phénomènes naturels (nous verrons des exemples plus
tard).
Méthode dite du « contour »
Il va s'agir ici d'analyser une mélodie pour l'étendre" en étudiant son "contour", un peu à
la manière d'un musicien improvisant sur un thème.
21
Formules mathématiques itératives
Cette méthode permet d'avoir des résultats intéressants en recherchant la prochaine note
en fonction des notes générées précédemment selon des formules mathématiques (processus
itératif). Ces formules se définissent selon trois types:
- constant
o n'offre pas de résultat intéressant, puisque ne propose pas de variations entre 2
cycles consécutifs.
- Oscillatoire
o Offre des résultat intéressant si le nombre de cycles entre 2 cycles identiques
est assez grand, pour ne pas obtenir une mélodie trop cyclique.
- Chaotique
o Permet d'obtenir des résultats intéressants, en effet on n'aura plus ou moins une
répétitions des cycles précédents mais il y aura toujours de petites variations
faisant évoluer la mélodie.
Un algorithme connu dans ce type de méthode est la carte d'Hénon. Il s'agit de la transposition
musicale d'une formule donnant l'orbite d'une étoile en gravitation autour d'un centre,
découverte par l'astronome français Hénon.
A partir d'image ou de fractale
On peut analyser une image (fractale ou autre) pour en extraire une sorte de musique plus
ou moins cohérente. Par la lecture séquentielle de l'image qu'on découpe en zones (selon le
nombre de voix à générer), on transpose la valeur de la couleur d'un point et de sa coordonnée
en une note. On comprend qu'on peut également utiliser directement les formules
mathématiques de fractales pour générer de la musique selon cette méthode. La qualité du
résultat peut se montrer assez intéressant.
Méthode génétique
C'est actuellement un des algorithmes donnant les meilleurs résultats. Il s'agit de
reproduire les transformations génétiques à une séquence de musique. Les transformations
subies par les séquences sont des phénomènes de mutations, permutations, reproduction et
crossover. Ensuite, on choisit les séquences qui sont les plus pertinentes suivant certains
critères pour les faire à nouveau évoluer.
Voici les différentes étapes de cette méthode:
1) Détermination d'un ensemble de séquences initiales (de composition aléatoire)
2) On détermine la pertinence de chacune
3) On sélectionne les meilleures séquences (selon certains critères de satisfaction) et on
détruit les autres
4) On couple aléatoirement les séquences restantes deux à deux
5) On crée une nouvelle génération à partir des anciennes séquences en appliquant les
transformations génétiques
6) On remplace les anciennes séquences par les nouvelles
22
7) On recommence de l'étape 2 jusqu'à ce qu'une séquence remplisse entièrement les
critères de satisfaction ou qu'on a atteint un certain nombre d'itérations.
Les critères de satisfaction peuvent être au niveau de la structure rythmique ou, bien sûr, de la
cohérence des notes qui composent la séquence.
23
Conclusion :
La musique assistée par ordinateur offre donc de nombreuses possibilités aux musiciens.
Parmi tous les avantages, on peut citer par exemple l’étendue des utilisations pendant toute la
chaîne de création musicale. L'ordinateur tend à remplacer les différents composants d'un
studio, par exemple aux niveaux des effets (compresseur etc...), ainsi que les synthétiseurs (ou
autres générateurs de sons), et quelques fois le jeu du musicien. C'est un domaine évolutif, de
nouveaux programmes apparaissent chaque jour.
Un autre atout de la MAO est qu'elle permet d'atteindre un niveau professionnel du point de
vue qualité pour un faible coût. Elle permet au musicien de travailler plus rapidement. Les
inconvénients sont très rares, les professionnels interrogés disent souvent que le seul
inconvénient et qu'il leur faut se mettre à l'informatique... Quant au futur, il est très prometteur
dans ce domaine, les spécialistes sont unanimes: le hardware (effets, générateurs de sons…)
sera de plus en plus remplacé par le software, même si le matériel ne disparaîtra sans soute
jamais complètement puisque l'ordinateur sera accompagné d'interfaces de plus en plus
naturelles, expressives et intuitives. La puissance de calcul des ordinateurs toujours plus
importante va permettre des traitements beaucoup plus puissants, tel que la modélisation
physique (imitation de phénomènes naturels) qui intervient dans la génération sonore.
Mais bien sûr l'ordinateur ne remplacera jamais le talent d'un compositeur...
Merci à Rikard Latvala, musicien professionnel, pour avoir apporté certains renseignements et
à Patrick Esquirol pour le suivi du projet et ses conseils.
24

Documents pareils