Télécharger

Transcription

Télécharger
Interfaces
Dérive sur la définition de l'ordinateur comme instrument et ce que en jouer veut dire ou
présuppose
C'est en fait vers 1998 qu'intervient le véritable changement; à ce moment-là Apple commence à sortir sa gamme
de PowerBooks G3 (les Wallstreet, Lombard, Pismo) qui sont les premiers ordinateurs portables suffisamment
puissants pour être utilisés sur scène et pour y faire du son. Bien évidemment il était possible de le faire avant déjà,
mais avec des contraintes autrement plus grandes, que ce soit la taille des machines (l'époque où on voyait des
gens arriver avec unité centrale, écran, clavier et souris pour faire un concert est définitivement révolue) ou la taille
et le nombre des périphériques (longtemps l'ordinateur ne pouvait servir qu'à envoyer, gérer, ordonner et
programmer des informations MIDI, ce qui obligeait à le coupler à un sampler ou à des expandeurs). Là, une petite
machine facilement transportable (qui plus est pourvue d'une carte son de qualité correcte) était capable de faire
tout ce travail là, toute seule. Et comme à la même époque sont également apparues (là encore grâce à la montée
en puissance des machines) des application capables de générer et de modifier le son, en temps réel (par exemple
MSP, la partie de MaxMSP qui s'occupe du traitement audio, est développé à peu près au même moment, alors que
Max – qui gère essentiellement des commandes – existait depuis déjà plus d'une dizaine d'années), le laptop allait
devenir un instrument de musique incontournable et autosuffisant. Un studio entier dans un petit sac à dos. Et très
vite le nouvel outil de production sonore a non seulement été adopté par de nombreux musiciens, mais a même été
à l'origine, ou acteur prédominant, de plusieurs styles musicaux – qu'il suffise de citer le glitch.
Aujourd'hui les concerts de laptop ne sont plus une nouveauté, et ce depuis longtemps déjà. On parle même de
"post laptop music" ; ce qui viendrait à suggérer qu'il existe bien une chose qui soit de la "laptop music". Et pourtant
l'ordinateur a toujours le plus grand mal à être perçu comme étant un instrument – outil, oui, instrument non.
La preuve en est non seulement du coté d'un public qu'on appellerait "non averti" – mais pourtant assez curieux
pour se trouver à la sortie des concerts lors desquels des ordinateurs sont utilisés, et demander aux musiciens
qu'est ce qu'ils font avec ces machines-là. Et pourtant on pourrait parier que ce type de public a déjà pu voir (à la
TV?) des concerts d'artistes comme Björk, dont le groupe comprend également des musiciens au laptop (Martin
Schmidt et Drew Daniel, soit Matmos). Ce défaut de perception existe aussi chez certains des musiciens utilisant
l'appareil , mais ne sachant pas très bien le situer dans leur approche, ne faisant pas la distinction entre utiliser un
appareil et jouer d'un instrument. Et donc entre un outil et un instrument.
La différence est pourtant de taille, et n'est pas seulement une question de sémantique; là où un outil nous facilite la
réalisation d'une tâche, qui aurait pu être accomplie autrement (plus difficilement sans doute) l'instrument de
musique nourrit la pensée musicale elle-même et permet d'imaginer une musique dont l'invention aurait été
impensable sans lui : lorsqu'un Jean-Claude Eloy digitalise ses bandes pour, lors du concert, ne plus les diffuser à
partir de plusieurs magnétophones (ou plus tard lecteurs DAT) mais comme fichiers audio depuis son laptop, il se
facilite certainement la vie, mais sa musique reste la même, musique dont l'idée et la réalisation n'ont pas eu besoin
de l'ordinateur pour être pensées. Par contre lorsque Charlie Christian pose, à la fin des années 30, un micro
magnétique sur sa guitare (ce qui partait également d'une préoccupation pratique – mieux se faire entendre au
milieu d'un big band) c'est non seulement le vocabulaire de l'instrument qui s'en trouve bousculé à tout jamais, mais
une musique autre qui se créée, et même, on le sait aujourd'hui, c'est un geste qui a permis la naissance de multiples
styles musicaux.
Essayons une définition de ce qu'est un instrument; même si une condition sine qua non est que le musicien utilisant
l'objet l'appelle "son instrument" cette condition nécessaire n'est pas suffisante – il faut aussi que l'autre , le
spectateur/auditeur l'appelle ainsi. A partir de ce moment à peu près n'importe quoi peut être appelé instrument –
et à juste titre. Mais pour qu'un instrument devienne instrument – pour que non seulement son utilisateur mais
également l'auditeur l'appelle ainsi - il faut, me semble-t-il, qu'il remplisse au moins deux conditions supplémentaires
:
l'instrument a besoin de susciter une écriture spécifique l'invoquant autant que le définissant. Un exemple parfait est
la volonté de J. S. Bach de promouvoir le violoncelle (auquel était alors largement préférée la basse de viole de
gambe): pour ce faire il écrit ses 6 suites pour violoncelle seul (1720-1725) afin d'asseoir, la preuve par l'écrit, les
possibilités et la musicalité du nouvel instrument (bien que la forme et l'accordage "définitifs" du violoncelle aient
été fixés vers le milieu du XVIIé ème siècle, il y a longtemps eu de la part de nombreux compositeurs une grande
résistance à son encontre). Bien évidemment, aujourd'hui et parlant de l'ordinateur, par écriture on n'entend pas
uniquement une écriture solfégique, sur papier : toute forme de transmission, notamment verbale, en fait office, de
même qu'une définition (par les faits) des possibles et contraintes de l'instrument - et l'exemple de Tommy Hall
s'impose, lui qui dans les 13th Floor Elevators (groupe psychédélique de la fin des années 60) jouait de la cruche
électrique : instrument atypique, certes, mais définissant un son, celui du groupe entier. Il est vrai que la cruche a
été par ailleurs un instrument dans des nombreuses musiques folkloriques – l'électricité en moins. Mais son versant
électrique n'a pas eu besoin d'un manuel d'orchestration pour s'autodéfinir ; instrument d'un seul (je ne connais pas
d'autres joueurs de cruche électrique) mais dont la validité n'est jamais remise en cause, puisque définissant une
fonction autant qu'une couleur, une direction - tout autant que, à la même époque, la guitare 12 cordes de Roger
McGuinn (Byrds) ou à peine plus tôt la basse électrique.
La deuxième condition, ou question, est de définir une façon de jouer de ce nouvel outil – ici comment interagir avec
ce qui a été pensé pour être un supercalculateur , et nullement un instrument de musique. Traiter l'appareil comme
une "boite noire" qui certes "fait des choses", change le son, mais comme débarrassée de toute présence, n'en fait
pas un instrument – et cette façon de faire, que l'on peut retrouver dans des nombreuses productions d'un lieu
comme l'Ircam, fait que justement, l'ordinateur n'y est pas perçu comme instrument, bien qu'il soit une part
importante de la production sonore y étant élaborée. Un instrument c'est une entité et un objet, avec lequel on
établit un contact, avec lequel une interaction, une préhension, se fait. Donc non seulement un instrument pour
produire directement des choses, des sons, mais également un instrument de pensée (et il n'est pas rare, pour le
musicien, de visualiser sa musique mentalement, via l'imaginaire de son instrument). Ce qui semble manquer au
laptop c'est une gestuelle qui lui soit propre, qui le définisse autant que le distingue. Cette gestuelle est peut-être
même plus encore nécessaire au niveau de l'imaginaire de l'instrument que pour le coté pratique de son utilisation:
imaginer ou s'imaginer jouant d'un instrument c'est se le représenter clairement et par là penser à la musique dont il
est potentiellement porteur. Il est des gestes, mimés, qui nous permettent de définir rapidement à peu près
n'importe quel instrument, et même de donner à comprendre le style de musique joué sur celui-ci. Entre percussions,
trompette ou saxophone, impossible de ne pas comprendre de quel instrument on parle ; le scratch du DJ a aussi sa
gestuelle, particulière et précise, et jusqu'à cette fonction gravitant autour de la musique et de l'ordinateur qu'est
l'informaticien-programmateur, dont le geste est facile à signifier. Rien de tel pour qui joue de l'ordinateur.
Il est vrai qu'un laptop, en termes de communication entre la machine et le monde extérieur – le musicien l'utilisant –
n'a que peu de ressources : le clavier alphanumérique, le trackpad, et, depuis peu, une web-cam intégrée. C'est peu c'est peu mais c'est déjà beaucoup, en tout cas largement suffisant pour non seulement jouer ou faire jouer de la
musique, mais également pouvoir interpréter celle-ci, c’est-à-dire pouvoir rejouer une chose à l'identique, mais
également jouer avec la petite (ou énorme) différence, selon le style musical envisagé, qui distingue un jeu "plat"
d'une exécution qui nous émeut. Comme dit, selon le style envisagé, ces variations peuvent être plus ou moins
perceptibles ou quantifiables - une partition strictement notée pourra demander moins de variations - bien qu'elle
demande presque toujours un "plus" lors de son interprétation - tandis qu'une musique improvisée sera demandeuse
de ce qui n'était pas prévu de prime abord, un surpassement. Mais ce seront toujours elles qui feront la différence.
Mesurer la part d'interprétation, séparément de la composition, est d'autant plus compliqué avec la musique jouée
sur ordinateur qu'ici c'est presque toujours le compositeur qui est son propre interprète – et ce, que la musique soit
fixée, écrite ou improvisée. Le décryptage des deux rôles de la même personne, et de l'endroit de la coupure, en est
d'autant plus difficile.
Bien sûr définir ce que jouer d'un ordinateur veut dire est également rendu difficile par le fait que cette machine
vienne d'"autre part", du dehors de la musique et de ses préoccupations. Même s'il est évident que l'ordinateur n'a
pas été pensé pour jouer de la musique et encore moins l'interpréter, il est pourtant aujourd'hui, du moins dans
notre monde occidental, omniprésent chez qui s'intéresse à la production sonore (du grand studio à la chambre de
l'amateur débutant). Une dichotomie entre cette omniprésence et l'éloignement, en termes de structure, de pensée,
entre l'objet (ordinateur) et sa fonction (production musicale).
Il existe bien sûr d'autres cas d'objets détournés de leur fonction première et utilisés comme instruments - le
peigne, la scie, le tambour de frein de Cadillac ou encore les sirènes du NYC Fire Departement (utilisées par Varèse) ;
mais ces instruments ont rarement été à l'origine ou participé de façon aussi évidente à l'apparition d'une autre
perception de la musique, voire à développer une autre musique.
Il existe pourtant des cas similaires – comme la platine disque. Le DJ a introduit, avec la platine et les 33 tours, une
autre façon de percevoir ce que faire de la musique recouvre, en partant d'objets destinés simplement à reproduire
des sons déjà fixés – et ce faisant nous fait poser un autre regard sur la nature du son et celle de la création
musicale. Toutefois l'écart est peut-être moins criant ici qu'avec l'ordinateur, la platine tourne-disque (tout comme
le magnétophone utilisé par certains comme instrument de musique "live" – Jérôme Noetinger) sont à l'origine des
objets ayant une relation évidente avec le sonore - même si au départ il ne s'agit que de la reproduction sonore, et
pas encore de production/création. Aujourd'hui la platine est évidemment un instrument à part entière et on a une
idée claire de ce que jouer de cet instrument implique ; personne n'ira confondre un DJ avec un animateur radio qui
passe un disque. Pas le même niveau d'implication. Jouer d'un instrument c'est peut-être également accepter la part
de risque et de tension qui ne va pas exister lors de la simple diffusion d'un objet déjà pré-formaté. C'est ce risque
pris, la peur de la chute, qui permet de se surpasser; et à la vieille crainte de la possibilité d'un "plantage" de
l'ordinateur il suffira de répondre que casser des cordes ou crever des peaux sont également des risques, qui n'ont
jamais empêché la musique d'être jouée, et sa présence, là, maintenant, être ressentie comme un moment
d'exception par les auditeurs – une sorte de feedback entre musiciens "live" et spectateurs. D'ailleurs la critique
habituelle envers les concerts de laptop où "il n'y a rien à voir", ne tient peut-être pas au manque de visuel dans le
jeu des musiciens (et le combler par des vidéos ou l'utilisation d'une gestuelle spectaculaire à base de capteurs n'a
jamais amélioré le musical) mais est due au manque de jeu réel, au profit d'éléments musicaux préenregistrées.
Après tout ne pas voir le musicien n'a jamais nui aux concerts d'orgue et les rockers "shoegazers" des années 90
comme "My Bloody Valentine" ou "The Jesus and Mary chain", se faisant une spécialité du non-jeu scénique,
remplissaient aisément des grandes salles, sinon des stades. Jusqu'au plus populaire des trompettistes – et regarder
la trompette n'est déjà pas palpitant – qui se faisait une spécialité de tourner le dos au public. Personne n'a reproché
à Miles Davis de ne pas être assez expressif sur scène.
L'objet-ordinateur est construit sur une dualité – le software et le hardware, et l'un ne peut fonctionner sans l'autre.
Pour que l'ordinateur se mue en un instrument il faut pouvoir apprivoiser et formater selon ses besoins les deux
facettes de la machine.
Presque toujours le programme informatique qui servira au jeu définit celui-ci, voire définit également, même si très
vaguement, le style de musique jouée. Le "presque toujours" est là pour parer à la question des cas limites: le projet
NOL (No Output Laptop) d'Eric Cordier n'a sans doute que faire du programme qui tourne dans sa machine : entre
les ondes électromagnétiques générées par Word ou Photoshop, il faut être grand musicologue pour faire la
différence ! La même chose vaut pour certains travaux de Ulf Bilting – à démonter et court-circuiter un ordinateur on
ne se préoccupe que peu de son système d'exploitation. Cas limites, et la majeure partie d'entre nous utilise tel ou
tel programme orienté vers la création musicale. Et ce programme définit l'instrument - une définition des possibles
qui par là même définit les impossibilités. Un instrument traditionnel n'est pas autre chose: un piano permet par
exemple une grande polyphonie, une perception très précise des hauteurs, mais rend très compliquée l'utilisation de
sons tenus, de sons sans attaque ou encore de glissandos ou de micro-tons ; au contraire d'une clarinette qui
permet tout cela, mais bloque évidemment devant une polyphonie poussée (même à considérer les multiphoniques
comme autant d'accords primaires).
Le choix du soft utilisé définit donc une intention musicale ; et celle-ci apparaîtra d'emblée autre selon que l'on
choisisse de simplement lire des sons déjà préparés avec un logiciel comme Logic, Cubase ou Live – ce dernier un
peu plus ouvert car cassant l'idée d'une time-line unique et figée – ou la création ex nihilo de sons, synthèse pure et
en temps réel, qui est par ailleurs l'axe de recherche musicale sur ordinateur le plus ancien, commencé par Max
Matthews avec le programme Music1 (qui va évoluer jusqu'à Music5), axe se poursuivant aujourd'hui avec des
logiciels tels que MaxMSP, Pure data, Bidule ou Reaktor. Tous légèrement différents et orientés vers des musiques
différentes malgré leur prétention à l'exhaustif, due au paradigme de la page blanche initiale – et pourtant, même si
on peut tous les "forcer" dans des directions différentes, on ne pensera pas la musique pareillement selon que l'on
utilise celui-ci ou celui-là. L'usage des langages de programmation comme Csound ou SuperCollider emmène autre
part, vers une abstraction encore plus grande, tout comme le live-coding (par exemple avec le langage Chuck)
implique une autre musique, et un autre rapport au temps qui n'est plus seulement celui du jeu mais également celui
du travail de lutherie – en direct. Et les adeptes de Gnu/Linux, logiciels libres, ont peu de chances de se retrouver à
faire de la musique mainstream, ne serait-ce que par la position politique qu'un tel choix implique.
Pourtant si jouer de la musique veut dire interpréter et non pas seulement la donner à entendre – et c'est bien pour
cela que l'instrument des interprètes de la musique acousmatique, par définition fixée sur support, fixée tout
simplement, est la table de mixage et non pas le Revox, le DAT, le lecteur de CD ou le fichier son résidant dans
l'ordinateur – cela dit bien qu'il faut pouvoir manipuler, accéder à des paramètres ; et modifier les lignes de code en
temps réel n'est pas à la portée de tout le monde. Il nous faut trouver des réponses face au manque de moyens
d'accès à l'instrument visé – le clavier, s'il n'est pas utilisé pour du live-coding, ne peut servir que comme une
collection de boutons poussoirs, des simples On/Off, et peu de gens utilisent la web-cam intégrée comme outil de
commande de la machine. Le "tilt", qui protège automatiquement le disque dur lors de la chute de l'appareil ou d'un
mouvement trop brusque, ne sera sans doute véritablement utile qu'à quelques extrémistes de l'actionnisme musical
: Mattin ou Julien Ottavi. Pour les autres il ne reste donc pratiquement que le trackpad - et donc la tentation est
grande d'adjoindre au laptop des contrôleurs externes, dont l'offre ne cesse de croître. Ne serait-ce que pour
occuper l'autre main.
En fait l'ensemble des contrôleurs disponibles peut être classé en 2 ou 3 groupes,selon le modèle dont ils s'inspirent
– et très souvent ce modèle a ses origines dans une réalité et une histoire séparée de celle de l'ordinateurinstrument. Ainsi tous ceux qui se basent sur le modèle instrumental, en premier lieu les claviers (MIDI) mais
également toutes les autres déclinaisons des instruments midifiés ou de copies de ceux-ci, destinés au seul contrôle
des machines - soit les guitares MIDI, instruments à vent ou pads de percussions, prennent leur modèle dans le
maniement de l'instrument originel, acoustique. Bien pratique pour qui maîtrise déjà l'original, la majeure partie de
leurs possibilités restent inexploitables pour qui n'a pas la pratique de l'instrument originel – pour un non-claviériste
le contrôle de l'aftertouch est compliqué et aléatoire (et d'ailleurs, face au manque d'intérêt lié à des considérations
financières, l'aftertouch polyphonique n'est plus proposé sur aucun contrôleur), déjà que seul le pianiste de
formation saura réellement tirer parti, de façon "naturelle", du contrôle de vélocité. Pour les autres modèles
instrumentaux, la discrimination est encore plus grande – le contrôle du souffle n'est pas chose aisée pour qui ne l'a
pas étudié (et les "breath-controllers" se font de plus en plus rares) ; quant à la technique guitaristique nécessaire
pour utiliser une guitare-synthé, qu'il s'agisse d'un simple micro hexaphonique Roland ou de la sculpture art-déco
qu'était la SynthAxe, elle dépasse largement la capacité moyenne suffisante pour se faire plaisir en jouant quelques
accords. Pour ce qui est de la SynthAxe, il semble que seul Allan Holdsworth ait pu maîtriser la chose, et ce pour une
musique qui aujourd'hui, paraît un peu gênante.
Mais là n'est pas le plus gros problème de ce type de contrôleurs – utilisés, ils arrivent avec leur propre histoire, leur
propre gestuelle, héritées d'autres musiques ; donc s'opposent à l'invention d'un "autre part" que le nouvel
instrument devrait permettre. Un instrumentiste utilisant un contrôleur hérité d'un instrument traditionnel aura
tendance à concentrer son jeu sur les possibilités de cette interface, vues à travers le prisme de l'instrument dont
elle est la descendance, oubliant les possibilités de ce qui devient alors la "boîte noire", et qui était censé être
l'instrument même, l'ordinateur.
Le même basculement, imputable au contrôleur et non à la machine sonore, a déjà été présent vers les années 70, à
la grande époque des synthétiseurs analogiques. (A ce moment-là les recherches de musique sur ou pour ordinateur
avaient déjà commencé, mais les raisons tant pratiques – la taille et transportabilité – qu'économiques favorisaient
le développement des synthés analogiques, pourtant déjà énormes et hors de prix). De toutes les façons de
classifier les instruments électroniques de cette époque (synthés américains ou japonais, modulaires ou monoblocs)
la plus pertinente musicalement est sans doute de les grouper en instruments possédant un clavier pour les
contrôler, et ceux n'en possédant pas et comptant sur l'action directe sur les potentiomètres, triggers ou switches,
ainsi que l'utilisation de CV (Control Voltage) pour déterminer les hauteurs entendues ainsi que leur durées :
distinction que d'aucuns nommeraient côte Est (Moog, ARP …) contre côte Ouest (Serge, Buchla ….). Même si la
césure géographique n'est plus pertinente aujourd'hui (car où placer l'anglais EMS, le japonais Roland 100m ou
l'allemand Doepfer A100 ?) le fond reste le même: on ne produit pas le même genre de musique sur les synthés à
claviers - qui imitent un clavier d'orgue - que sur ceux qui en sont dépourvus. Les synthés à clavier – le Moog
Modular de Keith Emerson en tête, mais aussi bien sûr toutes déclinaisons de Minimoog ou de ARP 2600 ou Odyssey
– ont eu la préférence de musiciens "de scène", musiciens de rock ou jazz-rock, alors que leur maniement avait très
peu en commun avec celui d'un orgue, ne serait-ce que par leur côté monophonique. Mais sans doute la
ressemblance avec un instrument reconnaissable permettait-elle l'utilisation de cette nouvelle lutherie. Et la
musique produite avec est le plus souvent une musique basée sur des notes, c’est-à-dire sur ce qui est le plus
évident à pointer sur un clavier; au contraire des musique de textures, développées sur des instruments dépourvus
de claviers traditionnels. Lorsque Eliane Radigue achète le ARP 2500 qui est devenu sa marque depuis, elle prend
soin (bien qu'il s'agisse d'un instrument "côte Est") de l'acheter sans le clavier (et on peut imaginer la stupeur du
vendeur en ce début des années '70, se retrouvant avec un clavier sans synthétiseur !) – et à l'écoute de son œuvre
il est bien évident que sa pensée musicale ne doit rien à l'idée d'un clavier, de notes discrètes, d'attaques marquées
; à tel point que l'on peut se demander comment elle a pu travailler avec un Moog pour "Arthesis", en 1973…
L'imitation de l'instrument traditionnel n'est pas le seul format adopté par les contrôleurs pour ordinateur: l'autre
grande famille s'inspire du modèle du studio son, et notamment de la table de mixage – le nombre de mixettes MIDI
(ou USB, ce qui revient ici au même) disponibles est proprement hallucinant ; et ce à tous les prix. Et effectivement
on peut penser que le modèle sur lequel sont basés de tels contrôleurs sera plus proche de l'essence même des
possibles sur l'ordinateur – il s'agit également de création sonore, d'un travail de quasi-sculpture du son, d'une
immersion dans la pâte sonore ; d'ailleurs dans de nombreux cas on peut affirmer que ce que le laptop a permis c'est
d'amener le studio sur scène – comme une suite aux groupes de rock allemand (Can ou Kraftwerk) qui ont fait du
studio leur instrument. L'analogie est effectivement plus proche,sans être toutefois pleinement satisfaisante : les
possibilités décuplées offertes par l'appareil digital, travaillant en même temps au niveau du micro-contrôle et de la
macro composition, et ce en temps réel, s'accommodent mal de la pensée déterministe d'une table de mixage.
Dans un studio, on ne voudrait pas faire un mixage sur un appareil qui, lorsqu'on ajuste un paramètre (le
panoramique par exemple) en modifie un autre, par contrecoup (change le niveau des graves, ou le volume) ;
pourtant cette interaction entre les différents éléments ou gestes est ce qui rend un instrument vivant, et c'est ce
qui fait la beauté de certains synthés analogiques ou encore de pédales de Fuzz. Autant, pour un ordinateur ou son
contrôleur il est simple (c'est même le B-A-BA d'un appareil digital) de reproduire exactement les mêmes valeurs et
les mêmes résultats, ce que nous recherchons dans un instrument c'est une part d'instabilité, d'inquantifiable – et à
rester dans une logique où chaque contrôleur correspond à un paramètre, on est dans une logique de jeu très
pauvre, on sous-exploite les potentialités de l'ordinateur-instrument. On entend souvent, de la part de musiciens
débutants (ou débutants dans le jeu avec le laptop) la phrase "j'ai besoin de beaucoup de contrôleurs car je veux
contrôler beaucoup de paramètres" – souvent cela conduit à des envies de contrôleurs faits sur mesure, amas de
potentiomètres, de switches, de faders et de boutons, alors que le mapping d'un seul contrôle à plusieurs
paramètres peut aboutir à un geste unique et global, bien plus musical, bien plus proche de ce qui existe dans le
monde de l'instrument traditionnel par sa complexité même.
On pourrait croire que dans un instrument à archet, par exemple un violoncelle, les fonctions des deux mains sont
bien distinctes : la main gauche se pose sur la corde en un endroit précis et s'occupe de la hauteur de la note jouée,
tandis que la droite, par le truchement de l'archet, crée le timbre de cette note ainsi que son évolution dans le
temps – son enveloppe. Pourtant en vérité il n'en est rien, il s'agit au contraire d'un geste complexe des deux mains
à la fois : la justesse de la main gauche est corrigée de manière quasi-intuitive (de cette intuition qui vient après des
années de pratique) par la pression de l'archet, tandis que le type d'appui de la main gauche participe au timbre
produit par la main droite maniant l'archet. L'exemple du feedback de guitare est encore plus parlant : la production,
le contrôle et la modulation contrôlée de feedbacks ou Larsens sur une guitare électrique est pour ainsi dire
impossible à expliquer, à quantifier. Une explicitation des gestes nécessaires pour parvenir à reproduire et contrôler
ce phénomène serait sans doute fastidieuse et peu probante : se tourner d'un ou deux degrés d'un côté ou de
l'autre, se baisser très légèrement, changer l'angle que forment les micros de la guitare avec le plan du haut-parleur.
Je n'ai entendu parler que de Robert Fripp qui, lors d'enregistrements de la trilogie berlinoise de David Bowie se soit
ainsi amusé à faire (en studio) des marques au sol, autant de repères lui permettant, en cet endroit précis, à telle
distance précise de son ampli de retrouver une note donnée dans ses feed-backs. Histoire apocryphe ? Toujours estil que l'exercice du feedback contrôlé vient naturellement pour qui a une pratique minimale de la guitare, et qui plus
est vient d'un coup – un peu comme faire du vélo ou nager, il y a un déclic qui fait que l'on sait faire d'un coup alors
que l'instant d'avant on ne savait pas. Un geste global. Un geste musical, ici, loin des positionnements
précautionneusement notés des faders. Dans le cas du contrôle de "beaucoup de paramètres", appliqué à
l'instrument qu'est le laptop, il vaudrait sans doute mieux songer a un geste global incluant non pas des
changements précis de paramètres discrets, mais des changements d'états d'un ensemble, aussi grand que l'on
veut, de plusieurs paramètres, formant la matière même du son – et encore une fois l'instrument traditionnel est un
exemple et le changement de volume produit souvent un changement de timbre ou de stabilité : c'est l'ensemble du
sonore qui évolue.
Allant vers un peu plus de chaos, ou un peu plus d'humanité, produire et suivre cette interpolation entre états
sonores complexes pourrait également être jouée par l'action de 2 contrôles, donc au moins deux doigts – la
difficulté à positionner 2 doigts dans exactement le même rapport (donc sur exactement les 2 mêmes valeurs de 2
faders par exemple) - surtout si on travaille avec une résolution plus grande que les 128 pas du MIDI - oblige à
penser le geste de façon plus globale, ou plus musicale. Une façon peut-être de dégager peu à peu une gestuelle
propre au jeu du laptop.
Evidemment toutes ces interfaces ne font pas pour autant partie intégrante de l'instrument que pourrait être le
laptop : parties ajoutées, instruments hybridés ou augmentés (notamment pour tout ce qui concerne les
instruments MIDI, de la harpe à la guitare, qui au fond n'ont pas besoin de l'ordinateur pour être et produire du son,
ni profiter de leur connexion MIDI), ils sont toujours différents de l'instrument visé lui-même, alors que ce qui devrait
être primordial dans un jeu sur l'ordinateur-instrument c'est l'ordinateur lui-même. Ce qui est autour et permet d'en
jouer plus facilement n'est que cela : ce qui est autour. Ces interfaces et contrôleurs sont un peu les équivalents
modernes de l'archet de violon : l'archet est dit être un instrument mais c'est un instrument diablement incomplet.
Ou un médiator – le nom même rappelle sa fonction de "médiation"; aujourd'hui on dirait sans doute interface.
A chercher des contrôleurs plus proches de la nature même du laptop on en arrive à ces appareil qui sont euxmêmes soit des petits ordinateurs, soit des extensions naturelles de celui-ci et dont l'histoire se confond avec celle
du supercalculateur.
Le contrôle par écran tactile est peu développé, mais il est à parier que dans un avenir très proche le prix de ces
écrans va baisser, entraînant leur démocratisation. Pour le moment peu de personnes semblent l'utiliser (Mathieu
Chamagne fait parmi des rares). Par contre l'arrivée des iPhones, iPodTouch et autres iPad révolutionne la façon de
contrôler son ordinateur : comme il s'agit là aussi d'ordinateurs, comme il s'agit également d'objets nouveaux, qui ne
sont pas tributaires d'une histoire, musicale ou autre, leurs gestuelles sont vierges de référent. Et comme une simple
connexion Wi-Fi leur permet d'envoyer au laptop (sous forme de flux MIDI ou OSC – Open Sound Control) les données
provenant tant des mouvements qui leur sont imprimés (déplacements x-y-z) que des commandes dictées en
touchant leur surface (jusqu'à 5 doigts simultanément sur un iPhone et 11 sur un iPad) on voit là une extension
logique de l'ordinateur, dont la surface de contact est facilement éditable au gré de l'utilisateur avec des logiciels
tes que TouchOSC, Fantastick, mrmr, C74 et quelques autres. Si le prix peut paraître trop élevé, il n'est que modique
en comparaison avec le vétéran (pourtant âgé de moins de 10 ans) des surfaces tactiles, le Lemur, de JazzMutant
(qui, il est vrai, calculait certaines fonctions et propriétés physiques avec son propre CPU). Et pour effectivement
beaucoup moins cher, une simple manette Wii (connectée en Bluetooth) est un contrôleur des plus efficaces, et là
encore sans passé de gestes et de fonctions.
Plus près de l'essence hardware même de l'ordinateur, de son histoire propre, l'ajout de souris et de track-pads
externes reste intrinsèquement cohérent avec le laptop – et les nouveaux track-pads externes Mac peuvent
transmettre jusqu'à 11 points d'appuis, avec leur positions (bien sûr) et pressions respectives – et ça marche
également sur PC, oui.
Prôner des appareils relevant d'une histoire récente – d'une histoire pas encore formée – n'est pas qu'une posture,
un gimmick. Il semble que ce soit justement le fait de gommer la relation pouvant exister dans l'imaginaire (tant du
spectateur que du musicien) entre l'objet et l'attente d'une certaine musique qui puisse ouvrir la possibilité d'une
forme nouvelle. D'avoir mentionné la "post laptop music" fait penser à Atau & Adam, le duo de Atau Tanaka et
Adam Parkinson : les deux musiciens ne jouent que des iPhones (l'appareil étant en même temps contrôleur et
générateur) et le fait que l'objet soit si commun, mais également qu'il ait, dans l'imaginaire collectif, une si proche
relation à la musique (il dérive du iPod) permet que son acceptation en tant qu'instrument de musique se fasse tout
naturellement.
Cette acceptation "naturelle" venue – et faisons le pari que l'utilisation d'interfaces en rapport avec l'essence de ce
que cet instrument-ordinateur est, et non pas rapportées d'autres mondes et d'autres histoires, va le permettre – il
ne restera plus qu'à jouer du laptop. Ou alors passer à l'iPhone, ou à la flûte à bec. Bref, se préoccuper de musique.
Kasper T. Toeplitz

Documents pareils