Télécharger
Transcription
Télécharger
Interfaces Dérive sur la définition de l'ordinateur comme instrument et ce que en jouer veut dire ou présuppose C'est en fait vers 1998 qu'intervient le véritable changement; à ce moment-là Apple commence à sortir sa gamme de PowerBooks G3 (les Wallstreet, Lombard, Pismo) qui sont les premiers ordinateurs portables suffisamment puissants pour être utilisés sur scène et pour y faire du son. Bien évidemment il était possible de le faire avant déjà, mais avec des contraintes autrement plus grandes, que ce soit la taille des machines (l'époque où on voyait des gens arriver avec unité centrale, écran, clavier et souris pour faire un concert est définitivement révolue) ou la taille et le nombre des périphériques (longtemps l'ordinateur ne pouvait servir qu'à envoyer, gérer, ordonner et programmer des informations MIDI, ce qui obligeait à le coupler à un sampler ou à des expandeurs). Là, une petite machine facilement transportable (qui plus est pourvue d'une carte son de qualité correcte) était capable de faire tout ce travail là, toute seule. Et comme à la même époque sont également apparues (là encore grâce à la montée en puissance des machines) des application capables de générer et de modifier le son, en temps réel (par exemple MSP, la partie de MaxMSP qui s'occupe du traitement audio, est développé à peu près au même moment, alors que Max – qui gère essentiellement des commandes – existait depuis déjà plus d'une dizaine d'années), le laptop allait devenir un instrument de musique incontournable et autosuffisant. Un studio entier dans un petit sac à dos. Et très vite le nouvel outil de production sonore a non seulement été adopté par de nombreux musiciens, mais a même été à l'origine, ou acteur prédominant, de plusieurs styles musicaux – qu'il suffise de citer le glitch. Aujourd'hui les concerts de laptop ne sont plus une nouveauté, et ce depuis longtemps déjà. On parle même de "post laptop music" ; ce qui viendrait à suggérer qu'il existe bien une chose qui soit de la "laptop music". Et pourtant l'ordinateur a toujours le plus grand mal à être perçu comme étant un instrument – outil, oui, instrument non. La preuve en est non seulement du coté d'un public qu'on appellerait "non averti" – mais pourtant assez curieux pour se trouver à la sortie des concerts lors desquels des ordinateurs sont utilisés, et demander aux musiciens qu'est ce qu'ils font avec ces machines-là. Et pourtant on pourrait parier que ce type de public a déjà pu voir (à la TV?) des concerts d'artistes comme Björk, dont le groupe comprend également des musiciens au laptop (Martin Schmidt et Drew Daniel, soit Matmos). Ce défaut de perception existe aussi chez certains des musiciens utilisant l'appareil , mais ne sachant pas très bien le situer dans leur approche, ne faisant pas la distinction entre utiliser un appareil et jouer d'un instrument. Et donc entre un outil et un instrument. La différence est pourtant de taille, et n'est pas seulement une question de sémantique; là où un outil nous facilite la réalisation d'une tâche, qui aurait pu être accomplie autrement (plus difficilement sans doute) l'instrument de musique nourrit la pensée musicale elle-même et permet d'imaginer une musique dont l'invention aurait été impensable sans lui : lorsqu'un Jean-Claude Eloy digitalise ses bandes pour, lors du concert, ne plus les diffuser à partir de plusieurs magnétophones (ou plus tard lecteurs DAT) mais comme fichiers audio depuis son laptop, il se facilite certainement la vie, mais sa musique reste la même, musique dont l'idée et la réalisation n'ont pas eu besoin de l'ordinateur pour être pensées. Par contre lorsque Charlie Christian pose, à la fin des années 30, un micro magnétique sur sa guitare (ce qui partait également d'une préoccupation pratique – mieux se faire entendre au milieu d'un big band) c'est non seulement le vocabulaire de l'instrument qui s'en trouve bousculé à tout jamais, mais une musique autre qui se créée, et même, on le sait aujourd'hui, c'est un geste qui a permis la naissance de multiples styles musicaux. Essayons une définition de ce qu'est un instrument; même si une condition sine qua non est que le musicien utilisant l'objet l'appelle "son instrument" cette condition nécessaire n'est pas suffisante – il faut aussi que l'autre , le spectateur/auditeur l'appelle ainsi. A partir de ce moment à peu près n'importe quoi peut être appelé instrument – et à juste titre. Mais pour qu'un instrument devienne instrument – pour que non seulement son utilisateur mais également l'auditeur l'appelle ainsi - il faut, me semble-t-il, qu'il remplisse au moins deux conditions supplémentaires : l'instrument a besoin de susciter une écriture spécifique l'invoquant autant que le définissant. Un exemple parfait est la volonté de J. S. Bach de promouvoir le violoncelle (auquel était alors largement préférée la basse de viole de gambe): pour ce faire il écrit ses 6 suites pour violoncelle seul (1720-1725) afin d'asseoir, la preuve par l'écrit, les possibilités et la musicalité du nouvel instrument (bien que la forme et l'accordage "définitifs" du violoncelle aient été fixés vers le milieu du XVIIé ème siècle, il y a longtemps eu de la part de nombreux compositeurs une grande résistance à son encontre). Bien évidemment, aujourd'hui et parlant de l'ordinateur, par écriture on n'entend pas uniquement une écriture solfégique, sur papier : toute forme de transmission, notamment verbale, en fait office, de même qu'une définition (par les faits) des possibles et contraintes de l'instrument - et l'exemple de Tommy Hall s'impose, lui qui dans les 13th Floor Elevators (groupe psychédélique de la fin des années 60) jouait de la cruche électrique : instrument atypique, certes, mais définissant un son, celui du groupe entier. Il est vrai que la cruche a été par ailleurs un instrument dans des nombreuses musiques folkloriques – l'électricité en moins. Mais son versant électrique n'a pas eu besoin d'un manuel d'orchestration pour s'autodéfinir ; instrument d'un seul (je ne connais pas d'autres joueurs de cruche électrique) mais dont la validité n'est jamais remise en cause, puisque définissant une fonction autant qu'une couleur, une direction - tout autant que, à la même époque, la guitare 12 cordes de Roger McGuinn (Byrds) ou à peine plus tôt la basse électrique. La deuxième condition, ou question, est de définir une façon de jouer de ce nouvel outil – ici comment interagir avec ce qui a été pensé pour être un supercalculateur , et nullement un instrument de musique. Traiter l'appareil comme une "boite noire" qui certes "fait des choses", change le son, mais comme débarrassée de toute présence, n'en fait pas un instrument – et cette façon de faire, que l'on peut retrouver dans des nombreuses productions d'un lieu comme l'Ircam, fait que justement, l'ordinateur n'y est pas perçu comme instrument, bien qu'il soit une part importante de la production sonore y étant élaborée. Un instrument c'est une entité et un objet, avec lequel on établit un contact, avec lequel une interaction, une préhension, se fait. Donc non seulement un instrument pour produire directement des choses, des sons, mais également un instrument de pensée (et il n'est pas rare, pour le musicien, de visualiser sa musique mentalement, via l'imaginaire de son instrument). Ce qui semble manquer au laptop c'est une gestuelle qui lui soit propre, qui le définisse autant que le distingue. Cette gestuelle est peut-être même plus encore nécessaire au niveau de l'imaginaire de l'instrument que pour le coté pratique de son utilisation: imaginer ou s'imaginer jouant d'un instrument c'est se le représenter clairement et par là penser à la musique dont il est potentiellement porteur. Il est des gestes, mimés, qui nous permettent de définir rapidement à peu près n'importe quel instrument, et même de donner à comprendre le style de musique joué sur celui-ci. Entre percussions, trompette ou saxophone, impossible de ne pas comprendre de quel instrument on parle ; le scratch du DJ a aussi sa gestuelle, particulière et précise, et jusqu'à cette fonction gravitant autour de la musique et de l'ordinateur qu'est l'informaticien-programmateur, dont le geste est facile à signifier. Rien de tel pour qui joue de l'ordinateur. Il est vrai qu'un laptop, en termes de communication entre la machine et le monde extérieur – le musicien l'utilisant – n'a que peu de ressources : le clavier alphanumérique, le trackpad, et, depuis peu, une web-cam intégrée. C'est peu c'est peu mais c'est déjà beaucoup, en tout cas largement suffisant pour non seulement jouer ou faire jouer de la musique, mais également pouvoir interpréter celle-ci, c’est-à-dire pouvoir rejouer une chose à l'identique, mais également jouer avec la petite (ou énorme) différence, selon le style musical envisagé, qui distingue un jeu "plat" d'une exécution qui nous émeut. Comme dit, selon le style envisagé, ces variations peuvent être plus ou moins perceptibles ou quantifiables - une partition strictement notée pourra demander moins de variations - bien qu'elle demande presque toujours un "plus" lors de son interprétation - tandis qu'une musique improvisée sera demandeuse de ce qui n'était pas prévu de prime abord, un surpassement. Mais ce seront toujours elles qui feront la différence. Mesurer la part d'interprétation, séparément de la composition, est d'autant plus compliqué avec la musique jouée sur ordinateur qu'ici c'est presque toujours le compositeur qui est son propre interprète – et ce, que la musique soit fixée, écrite ou improvisée. Le décryptage des deux rôles de la même personne, et de l'endroit de la coupure, en est d'autant plus difficile. Bien sûr définir ce que jouer d'un ordinateur veut dire est également rendu difficile par le fait que cette machine vienne d'"autre part", du dehors de la musique et de ses préoccupations. Même s'il est évident que l'ordinateur n'a pas été pensé pour jouer de la musique et encore moins l'interpréter, il est pourtant aujourd'hui, du moins dans notre monde occidental, omniprésent chez qui s'intéresse à la production sonore (du grand studio à la chambre de l'amateur débutant). Une dichotomie entre cette omniprésence et l'éloignement, en termes de structure, de pensée, entre l'objet (ordinateur) et sa fonction (production musicale). Il existe bien sûr d'autres cas d'objets détournés de leur fonction première et utilisés comme instruments - le peigne, la scie, le tambour de frein de Cadillac ou encore les sirènes du NYC Fire Departement (utilisées par Varèse) ; mais ces instruments ont rarement été à l'origine ou participé de façon aussi évidente à l'apparition d'une autre perception de la musique, voire à développer une autre musique. Il existe pourtant des cas similaires – comme la platine disque. Le DJ a introduit, avec la platine et les 33 tours, une autre façon de percevoir ce que faire de la musique recouvre, en partant d'objets destinés simplement à reproduire des sons déjà fixés – et ce faisant nous fait poser un autre regard sur la nature du son et celle de la création musicale. Toutefois l'écart est peut-être moins criant ici qu'avec l'ordinateur, la platine tourne-disque (tout comme le magnétophone utilisé par certains comme instrument de musique "live" – Jérôme Noetinger) sont à l'origine des objets ayant une relation évidente avec le sonore - même si au départ il ne s'agit que de la reproduction sonore, et pas encore de production/création. Aujourd'hui la platine est évidemment un instrument à part entière et on a une idée claire de ce que jouer de cet instrument implique ; personne n'ira confondre un DJ avec un animateur radio qui passe un disque. Pas le même niveau d'implication. Jouer d'un instrument c'est peut-être également accepter la part de risque et de tension qui ne va pas exister lors de la simple diffusion d'un objet déjà pré-formaté. C'est ce risque pris, la peur de la chute, qui permet de se surpasser; et à la vieille crainte de la possibilité d'un "plantage" de l'ordinateur il suffira de répondre que casser des cordes ou crever des peaux sont également des risques, qui n'ont jamais empêché la musique d'être jouée, et sa présence, là, maintenant, être ressentie comme un moment d'exception par les auditeurs – une sorte de feedback entre musiciens "live" et spectateurs. D'ailleurs la critique habituelle envers les concerts de laptop où "il n'y a rien à voir", ne tient peut-être pas au manque de visuel dans le jeu des musiciens (et le combler par des vidéos ou l'utilisation d'une gestuelle spectaculaire à base de capteurs n'a jamais amélioré le musical) mais est due au manque de jeu réel, au profit d'éléments musicaux préenregistrées. Après tout ne pas voir le musicien n'a jamais nui aux concerts d'orgue et les rockers "shoegazers" des années 90 comme "My Bloody Valentine" ou "The Jesus and Mary chain", se faisant une spécialité du non-jeu scénique, remplissaient aisément des grandes salles, sinon des stades. Jusqu'au plus populaire des trompettistes – et regarder la trompette n'est déjà pas palpitant – qui se faisait une spécialité de tourner le dos au public. Personne n'a reproché à Miles Davis de ne pas être assez expressif sur scène. L'objet-ordinateur est construit sur une dualité – le software et le hardware, et l'un ne peut fonctionner sans l'autre. Pour que l'ordinateur se mue en un instrument il faut pouvoir apprivoiser et formater selon ses besoins les deux facettes de la machine. Presque toujours le programme informatique qui servira au jeu définit celui-ci, voire définit également, même si très vaguement, le style de musique jouée. Le "presque toujours" est là pour parer à la question des cas limites: le projet NOL (No Output Laptop) d'Eric Cordier n'a sans doute que faire du programme qui tourne dans sa machine : entre les ondes électromagnétiques générées par Word ou Photoshop, il faut être grand musicologue pour faire la différence ! La même chose vaut pour certains travaux de Ulf Bilting – à démonter et court-circuiter un ordinateur on ne se préoccupe que peu de son système d'exploitation. Cas limites, et la majeure partie d'entre nous utilise tel ou tel programme orienté vers la création musicale. Et ce programme définit l'instrument - une définition des possibles qui par là même définit les impossibilités. Un instrument traditionnel n'est pas autre chose: un piano permet par exemple une grande polyphonie, une perception très précise des hauteurs, mais rend très compliquée l'utilisation de sons tenus, de sons sans attaque ou encore de glissandos ou de micro-tons ; au contraire d'une clarinette qui permet tout cela, mais bloque évidemment devant une polyphonie poussée (même à considérer les multiphoniques comme autant d'accords primaires). Le choix du soft utilisé définit donc une intention musicale ; et celle-ci apparaîtra d'emblée autre selon que l'on choisisse de simplement lire des sons déjà préparés avec un logiciel comme Logic, Cubase ou Live – ce dernier un peu plus ouvert car cassant l'idée d'une time-line unique et figée – ou la création ex nihilo de sons, synthèse pure et en temps réel, qui est par ailleurs l'axe de recherche musicale sur ordinateur le plus ancien, commencé par Max Matthews avec le programme Music1 (qui va évoluer jusqu'à Music5), axe se poursuivant aujourd'hui avec des logiciels tels que MaxMSP, Pure data, Bidule ou Reaktor. Tous légèrement différents et orientés vers des musiques différentes malgré leur prétention à l'exhaustif, due au paradigme de la page blanche initiale – et pourtant, même si on peut tous les "forcer" dans des directions différentes, on ne pensera pas la musique pareillement selon que l'on utilise celui-ci ou celui-là. L'usage des langages de programmation comme Csound ou SuperCollider emmène autre part, vers une abstraction encore plus grande, tout comme le live-coding (par exemple avec le langage Chuck) implique une autre musique, et un autre rapport au temps qui n'est plus seulement celui du jeu mais également celui du travail de lutherie – en direct. Et les adeptes de Gnu/Linux, logiciels libres, ont peu de chances de se retrouver à faire de la musique mainstream, ne serait-ce que par la position politique qu'un tel choix implique. Pourtant si jouer de la musique veut dire interpréter et non pas seulement la donner à entendre – et c'est bien pour cela que l'instrument des interprètes de la musique acousmatique, par définition fixée sur support, fixée tout simplement, est la table de mixage et non pas le Revox, le DAT, le lecteur de CD ou le fichier son résidant dans l'ordinateur – cela dit bien qu'il faut pouvoir manipuler, accéder à des paramètres ; et modifier les lignes de code en temps réel n'est pas à la portée de tout le monde. Il nous faut trouver des réponses face au manque de moyens d'accès à l'instrument visé – le clavier, s'il n'est pas utilisé pour du live-coding, ne peut servir que comme une collection de boutons poussoirs, des simples On/Off, et peu de gens utilisent la web-cam intégrée comme outil de commande de la machine. Le "tilt", qui protège automatiquement le disque dur lors de la chute de l'appareil ou d'un mouvement trop brusque, ne sera sans doute véritablement utile qu'à quelques extrémistes de l'actionnisme musical : Mattin ou Julien Ottavi. Pour les autres il ne reste donc pratiquement que le trackpad - et donc la tentation est grande d'adjoindre au laptop des contrôleurs externes, dont l'offre ne cesse de croître. Ne serait-ce que pour occuper l'autre main. En fait l'ensemble des contrôleurs disponibles peut être classé en 2 ou 3 groupes,selon le modèle dont ils s'inspirent – et très souvent ce modèle a ses origines dans une réalité et une histoire séparée de celle de l'ordinateurinstrument. Ainsi tous ceux qui se basent sur le modèle instrumental, en premier lieu les claviers (MIDI) mais également toutes les autres déclinaisons des instruments midifiés ou de copies de ceux-ci, destinés au seul contrôle des machines - soit les guitares MIDI, instruments à vent ou pads de percussions, prennent leur modèle dans le maniement de l'instrument originel, acoustique. Bien pratique pour qui maîtrise déjà l'original, la majeure partie de leurs possibilités restent inexploitables pour qui n'a pas la pratique de l'instrument originel – pour un non-claviériste le contrôle de l'aftertouch est compliqué et aléatoire (et d'ailleurs, face au manque d'intérêt lié à des considérations financières, l'aftertouch polyphonique n'est plus proposé sur aucun contrôleur), déjà que seul le pianiste de formation saura réellement tirer parti, de façon "naturelle", du contrôle de vélocité. Pour les autres modèles instrumentaux, la discrimination est encore plus grande – le contrôle du souffle n'est pas chose aisée pour qui ne l'a pas étudié (et les "breath-controllers" se font de plus en plus rares) ; quant à la technique guitaristique nécessaire pour utiliser une guitare-synthé, qu'il s'agisse d'un simple micro hexaphonique Roland ou de la sculpture art-déco qu'était la SynthAxe, elle dépasse largement la capacité moyenne suffisante pour se faire plaisir en jouant quelques accords. Pour ce qui est de la SynthAxe, il semble que seul Allan Holdsworth ait pu maîtriser la chose, et ce pour une musique qui aujourd'hui, paraît un peu gênante. Mais là n'est pas le plus gros problème de ce type de contrôleurs – utilisés, ils arrivent avec leur propre histoire, leur propre gestuelle, héritées d'autres musiques ; donc s'opposent à l'invention d'un "autre part" que le nouvel instrument devrait permettre. Un instrumentiste utilisant un contrôleur hérité d'un instrument traditionnel aura tendance à concentrer son jeu sur les possibilités de cette interface, vues à travers le prisme de l'instrument dont elle est la descendance, oubliant les possibilités de ce qui devient alors la "boîte noire", et qui était censé être l'instrument même, l'ordinateur. Le même basculement, imputable au contrôleur et non à la machine sonore, a déjà été présent vers les années 70, à la grande époque des synthétiseurs analogiques. (A ce moment-là les recherches de musique sur ou pour ordinateur avaient déjà commencé, mais les raisons tant pratiques – la taille et transportabilité – qu'économiques favorisaient le développement des synthés analogiques, pourtant déjà énormes et hors de prix). De toutes les façons de classifier les instruments électroniques de cette époque (synthés américains ou japonais, modulaires ou monoblocs) la plus pertinente musicalement est sans doute de les grouper en instruments possédant un clavier pour les contrôler, et ceux n'en possédant pas et comptant sur l'action directe sur les potentiomètres, triggers ou switches, ainsi que l'utilisation de CV (Control Voltage) pour déterminer les hauteurs entendues ainsi que leur durées : distinction que d'aucuns nommeraient côte Est (Moog, ARP …) contre côte Ouest (Serge, Buchla ….). Même si la césure géographique n'est plus pertinente aujourd'hui (car où placer l'anglais EMS, le japonais Roland 100m ou l'allemand Doepfer A100 ?) le fond reste le même: on ne produit pas le même genre de musique sur les synthés à claviers - qui imitent un clavier d'orgue - que sur ceux qui en sont dépourvus. Les synthés à clavier – le Moog Modular de Keith Emerson en tête, mais aussi bien sûr toutes déclinaisons de Minimoog ou de ARP 2600 ou Odyssey – ont eu la préférence de musiciens "de scène", musiciens de rock ou jazz-rock, alors que leur maniement avait très peu en commun avec celui d'un orgue, ne serait-ce que par leur côté monophonique. Mais sans doute la ressemblance avec un instrument reconnaissable permettait-elle l'utilisation de cette nouvelle lutherie. Et la musique produite avec est le plus souvent une musique basée sur des notes, c’est-à-dire sur ce qui est le plus évident à pointer sur un clavier; au contraire des musique de textures, développées sur des instruments dépourvus de claviers traditionnels. Lorsque Eliane Radigue achète le ARP 2500 qui est devenu sa marque depuis, elle prend soin (bien qu'il s'agisse d'un instrument "côte Est") de l'acheter sans le clavier (et on peut imaginer la stupeur du vendeur en ce début des années '70, se retrouvant avec un clavier sans synthétiseur !) – et à l'écoute de son œuvre il est bien évident que sa pensée musicale ne doit rien à l'idée d'un clavier, de notes discrètes, d'attaques marquées ; à tel point que l'on peut se demander comment elle a pu travailler avec un Moog pour "Arthesis", en 1973… L'imitation de l'instrument traditionnel n'est pas le seul format adopté par les contrôleurs pour ordinateur: l'autre grande famille s'inspire du modèle du studio son, et notamment de la table de mixage – le nombre de mixettes MIDI (ou USB, ce qui revient ici au même) disponibles est proprement hallucinant ; et ce à tous les prix. Et effectivement on peut penser que le modèle sur lequel sont basés de tels contrôleurs sera plus proche de l'essence même des possibles sur l'ordinateur – il s'agit également de création sonore, d'un travail de quasi-sculpture du son, d'une immersion dans la pâte sonore ; d'ailleurs dans de nombreux cas on peut affirmer que ce que le laptop a permis c'est d'amener le studio sur scène – comme une suite aux groupes de rock allemand (Can ou Kraftwerk) qui ont fait du studio leur instrument. L'analogie est effectivement plus proche,sans être toutefois pleinement satisfaisante : les possibilités décuplées offertes par l'appareil digital, travaillant en même temps au niveau du micro-contrôle et de la macro composition, et ce en temps réel, s'accommodent mal de la pensée déterministe d'une table de mixage. Dans un studio, on ne voudrait pas faire un mixage sur un appareil qui, lorsqu'on ajuste un paramètre (le panoramique par exemple) en modifie un autre, par contrecoup (change le niveau des graves, ou le volume) ; pourtant cette interaction entre les différents éléments ou gestes est ce qui rend un instrument vivant, et c'est ce qui fait la beauté de certains synthés analogiques ou encore de pédales de Fuzz. Autant, pour un ordinateur ou son contrôleur il est simple (c'est même le B-A-BA d'un appareil digital) de reproduire exactement les mêmes valeurs et les mêmes résultats, ce que nous recherchons dans un instrument c'est une part d'instabilité, d'inquantifiable – et à rester dans une logique où chaque contrôleur correspond à un paramètre, on est dans une logique de jeu très pauvre, on sous-exploite les potentialités de l'ordinateur-instrument. On entend souvent, de la part de musiciens débutants (ou débutants dans le jeu avec le laptop) la phrase "j'ai besoin de beaucoup de contrôleurs car je veux contrôler beaucoup de paramètres" – souvent cela conduit à des envies de contrôleurs faits sur mesure, amas de potentiomètres, de switches, de faders et de boutons, alors que le mapping d'un seul contrôle à plusieurs paramètres peut aboutir à un geste unique et global, bien plus musical, bien plus proche de ce qui existe dans le monde de l'instrument traditionnel par sa complexité même. On pourrait croire que dans un instrument à archet, par exemple un violoncelle, les fonctions des deux mains sont bien distinctes : la main gauche se pose sur la corde en un endroit précis et s'occupe de la hauteur de la note jouée, tandis que la droite, par le truchement de l'archet, crée le timbre de cette note ainsi que son évolution dans le temps – son enveloppe. Pourtant en vérité il n'en est rien, il s'agit au contraire d'un geste complexe des deux mains à la fois : la justesse de la main gauche est corrigée de manière quasi-intuitive (de cette intuition qui vient après des années de pratique) par la pression de l'archet, tandis que le type d'appui de la main gauche participe au timbre produit par la main droite maniant l'archet. L'exemple du feedback de guitare est encore plus parlant : la production, le contrôle et la modulation contrôlée de feedbacks ou Larsens sur une guitare électrique est pour ainsi dire impossible à expliquer, à quantifier. Une explicitation des gestes nécessaires pour parvenir à reproduire et contrôler ce phénomène serait sans doute fastidieuse et peu probante : se tourner d'un ou deux degrés d'un côté ou de l'autre, se baisser très légèrement, changer l'angle que forment les micros de la guitare avec le plan du haut-parleur. Je n'ai entendu parler que de Robert Fripp qui, lors d'enregistrements de la trilogie berlinoise de David Bowie se soit ainsi amusé à faire (en studio) des marques au sol, autant de repères lui permettant, en cet endroit précis, à telle distance précise de son ampli de retrouver une note donnée dans ses feed-backs. Histoire apocryphe ? Toujours estil que l'exercice du feedback contrôlé vient naturellement pour qui a une pratique minimale de la guitare, et qui plus est vient d'un coup – un peu comme faire du vélo ou nager, il y a un déclic qui fait que l'on sait faire d'un coup alors que l'instant d'avant on ne savait pas. Un geste global. Un geste musical, ici, loin des positionnements précautionneusement notés des faders. Dans le cas du contrôle de "beaucoup de paramètres", appliqué à l'instrument qu'est le laptop, il vaudrait sans doute mieux songer a un geste global incluant non pas des changements précis de paramètres discrets, mais des changements d'états d'un ensemble, aussi grand que l'on veut, de plusieurs paramètres, formant la matière même du son – et encore une fois l'instrument traditionnel est un exemple et le changement de volume produit souvent un changement de timbre ou de stabilité : c'est l'ensemble du sonore qui évolue. Allant vers un peu plus de chaos, ou un peu plus d'humanité, produire et suivre cette interpolation entre états sonores complexes pourrait également être jouée par l'action de 2 contrôles, donc au moins deux doigts – la difficulté à positionner 2 doigts dans exactement le même rapport (donc sur exactement les 2 mêmes valeurs de 2 faders par exemple) - surtout si on travaille avec une résolution plus grande que les 128 pas du MIDI - oblige à penser le geste de façon plus globale, ou plus musicale. Une façon peut-être de dégager peu à peu une gestuelle propre au jeu du laptop. Evidemment toutes ces interfaces ne font pas pour autant partie intégrante de l'instrument que pourrait être le laptop : parties ajoutées, instruments hybridés ou augmentés (notamment pour tout ce qui concerne les instruments MIDI, de la harpe à la guitare, qui au fond n'ont pas besoin de l'ordinateur pour être et produire du son, ni profiter de leur connexion MIDI), ils sont toujours différents de l'instrument visé lui-même, alors que ce qui devrait être primordial dans un jeu sur l'ordinateur-instrument c'est l'ordinateur lui-même. Ce qui est autour et permet d'en jouer plus facilement n'est que cela : ce qui est autour. Ces interfaces et contrôleurs sont un peu les équivalents modernes de l'archet de violon : l'archet est dit être un instrument mais c'est un instrument diablement incomplet. Ou un médiator – le nom même rappelle sa fonction de "médiation"; aujourd'hui on dirait sans doute interface. A chercher des contrôleurs plus proches de la nature même du laptop on en arrive à ces appareil qui sont euxmêmes soit des petits ordinateurs, soit des extensions naturelles de celui-ci et dont l'histoire se confond avec celle du supercalculateur. Le contrôle par écran tactile est peu développé, mais il est à parier que dans un avenir très proche le prix de ces écrans va baisser, entraînant leur démocratisation. Pour le moment peu de personnes semblent l'utiliser (Mathieu Chamagne fait parmi des rares). Par contre l'arrivée des iPhones, iPodTouch et autres iPad révolutionne la façon de contrôler son ordinateur : comme il s'agit là aussi d'ordinateurs, comme il s'agit également d'objets nouveaux, qui ne sont pas tributaires d'une histoire, musicale ou autre, leurs gestuelles sont vierges de référent. Et comme une simple connexion Wi-Fi leur permet d'envoyer au laptop (sous forme de flux MIDI ou OSC – Open Sound Control) les données provenant tant des mouvements qui leur sont imprimés (déplacements x-y-z) que des commandes dictées en touchant leur surface (jusqu'à 5 doigts simultanément sur un iPhone et 11 sur un iPad) on voit là une extension logique de l'ordinateur, dont la surface de contact est facilement éditable au gré de l'utilisateur avec des logiciels tes que TouchOSC, Fantastick, mrmr, C74 et quelques autres. Si le prix peut paraître trop élevé, il n'est que modique en comparaison avec le vétéran (pourtant âgé de moins de 10 ans) des surfaces tactiles, le Lemur, de JazzMutant (qui, il est vrai, calculait certaines fonctions et propriétés physiques avec son propre CPU). Et pour effectivement beaucoup moins cher, une simple manette Wii (connectée en Bluetooth) est un contrôleur des plus efficaces, et là encore sans passé de gestes et de fonctions. Plus près de l'essence hardware même de l'ordinateur, de son histoire propre, l'ajout de souris et de track-pads externes reste intrinsèquement cohérent avec le laptop – et les nouveaux track-pads externes Mac peuvent transmettre jusqu'à 11 points d'appuis, avec leur positions (bien sûr) et pressions respectives – et ça marche également sur PC, oui. Prôner des appareils relevant d'une histoire récente – d'une histoire pas encore formée – n'est pas qu'une posture, un gimmick. Il semble que ce soit justement le fait de gommer la relation pouvant exister dans l'imaginaire (tant du spectateur que du musicien) entre l'objet et l'attente d'une certaine musique qui puisse ouvrir la possibilité d'une forme nouvelle. D'avoir mentionné la "post laptop music" fait penser à Atau & Adam, le duo de Atau Tanaka et Adam Parkinson : les deux musiciens ne jouent que des iPhones (l'appareil étant en même temps contrôleur et générateur) et le fait que l'objet soit si commun, mais également qu'il ait, dans l'imaginaire collectif, une si proche relation à la musique (il dérive du iPod) permet que son acceptation en tant qu'instrument de musique se fasse tout naturellement. Cette acceptation "naturelle" venue – et faisons le pari que l'utilisation d'interfaces en rapport avec l'essence de ce que cet instrument-ordinateur est, et non pas rapportées d'autres mondes et d'autres histoires, va le permettre – il ne restera plus qu'à jouer du laptop. Ou alors passer à l'iPhone, ou à la flûte à bec. Bref, se préoccuper de musique. Kasper T. Toeplitz