Livre Blanc sur le « Peer-to-Peer
Transcription
Livre Blanc sur le « Peer-to-Peer
Livre Blanc sur le « Peer-to-Peer » Comment fonctionne-t-il ? A qui profite-t-il ? Comment lutter contre le téléchargement illégal de fichier protégés sur les réseaux Peer to Peer ? Paris 25 octobre 2007 Cet ouvrage est publié sous l’égide du Syndicat National de l’édition phonographique (SNEP) 27 rue du Dr Lancereaux 75008 Paris Livre blanc sur le « Peer-to-Peer » 2 Livre blanc sur le « Peer-to-Peer » Avertissement Le SNEP, particulièrement sensibilisé à la question du téléchargement illégal de fichiers protégés, s’intéresse naturellement au phénomène du “peer to peer". C’est pourquoi il lui a paru utile de rassembler dans un même document des éclairages à la fois techniques, économiques et juridiques. Toutefois, les contributions figurant dans ce Livre Blanc ont été réalisées en toute indépendance par leurs auteurs, et leurs contenus respectifs n’engagent que ces derniers. Elles ont bien sûr, au même titre que les discussions qui les ont accompagnées pendant un an, nourri la réflexion du SNEP en la matière et orienté la mise au point des propositions formulées en conclusion de cet ouvrage. 3 Livre blanc sur le « Peer-to-Peer » 4 Livre blanc sur le « Peer-to-Peer » INTRODUCTION Lutter contre le téléchargement illégal de fichiers protégés par les droits d’auteur ou droits voisins sur les réseaux « peer to peer » 5 Livre blanc sur le « Peer-to-Peer » Le 21e siècle s’est ouvert sous le signe des technologies de l’information et de leur généralisation progressive. Dans l’entreprise, les réseaux de communication et les systèmes d’information qui leur sont associés ont permis l’émergence de nouvelles pratiques professionnelles et sont désormais reconnus comme créateurs de valeur. Dans les foyers, les accès à Internet haut débit se développent de façon spectaculaire. Et, là aussi, de nouvelles pratiques sont apparues comme les échanges directs de « pair à pair » ou peer to peer. Le peer to peer, une approche prometteuse Dans cet univers électronique, le peer to peer s’est ainsi peu à peu imposé comme un véhicule commode pour des usages et des applications très variés et dont beaucoup sont encore à inventer. L’arrivée des nouvelles technologies n’est évidemment pas étrangère au phénomène d’individualisation de notre société relevé par de nombreux sociologues. Celles-ci ont joué un rôle majeur dans l’émergence de nouvelles formes d’organisation et de nouveaux moyens d’échange qui, à leur tour, se traduisent par la mise en place de nouveaux rapports sociaux, de nouveaux principes de gouvernance, concourrant à l’évolution de notre société. En mouvement perpétuel, celle-ci doit intégrer des changements de plus en plus rapides. Les progrès déjà constatés vont être suivis d’autres tant elles sont riches en termes de perspectives offertes. Seulement, à côté de ces évolutions et progrès incontestables, sont apparus des usages pervers tels que le téléchargement illégal des fichiers protégés par des droits d’auteurs ou droits voisins. D’abord marginaux, ils se sont développés de façon spectaculaire. La France étant un des pays où cet usage reste le plus massif. Ils menacent aujourd’hui les industries culturelles européennes et ternissent en même temps l’image des technologies dont ils se servent. Parce que le peer to peer recèle des perspectives prometteuses dans différents domaines du savoir, il serait absurde de le combattre en tant que tel. Mais, parce qu’il est aujourd’hui techniquement et juridiquement possible de contrecarrer ces détournements de produits culturels pour les inscrire dans un cadre respectueux des droits de chacun, c’est-à-dire des créateurs et de leur public, il serait invraisemblable de ne pas agir. Le téléchargement illégal de fichiers protégés, un phénomène très développé en France Les statistiques sont en effet éloquentes ... 6 Livre blanc sur le « Peer-to-Peer » En 2003, dans le monde, selon l’Idate, près de 150 milliards de fichiers musicaux se sont échangés sur les réseaux P2P contre 50 milliards vendus sur support physique. En France, pour l’année 2005, un milliard de fichiers musicaux ont été téléchargés, soit environ l’équivalent des ventes physiques de titres1, dont seulement 20 millions sur des plateformes de téléchargement légal. Pour les films, 120 millions de fichiers ont été téléchargés soit environ l’équivalent des ventes de DVD en France en 2005. Ce phénomène s’est poursuivi en 2006 et 2007 Il faut savoir que la France est l’un des pays où les abonnements haut débit sont les moins chers pour une bande passante donnée, que la proportion des internautes pratiquant le téléchargement (musique, films, jeux vidéo et logiciels) y est élevée (supérieure à 50 %) mais que celle des fichiers téléchargés légalement y est en revanche très faible à 15% et, surtout, plus faible que celle constatée dans la plupart des autres pays. Une large part de la bande passante est par conséquent occupée par des applications « peer to peer » (90 % selon une étude de la société Sandvine). Autre donnée qui doit aujourd’hui interpeller : la baisse importante des revenus de l’industrie musicale. Le chiffre d'affaires des producteurs de disques était de 1 302 millions d’euros en 2002, date de démarrage du haut débit dans l’Hexagone. Il a été en 2006 de 819,2 millions d’euros. Au premier semestre 2007, le chiffre d'affaires des ventes physiques a encore baissé de – 20 %, et le marché numérique (téléphonie et Internet) progresse, lui, trop peu : 30 660 milliers d’euros en 2005, 43 545 milliers d’euros en 2006 et 22 973 milliers d’euros en 2007. Le marché de l’offre légale dématérialisée devrait poursuivre sa croissance. Pour ce qui concerne la musique, chiffré à 43,5 millions d’euros pour la France en 2006, il devrait atteindre 100 à 120 millions en 2010. Il est donc impératif d’agir pour que cette offre légale puisse se développer sereinement sans être parasitée par un piratage intempestif. Risque d’appauvrissement, voire de tarissement de la création Car les produits piratés sont purement et simplement soustraits du circuit économique, alors même qu’ils servent de ‘’faire-valoir’’ voire de ‘’produits d’appel’’ pour les abonnements aux 1 Selon l’IFPI, les ventes physiques de disques en France en 2005 se sont élevées à 24,7 millions de single et 83 millions d’albums. 7 Livre blanc sur le « Peer-to-Peer » réseaux électroniques. Difficile alors de ne pas imaginer les conséquences négatives pour ceux, créateurs et plus généralement industries musicales et cinématographiques, qui se trouvent ainsi, via le téléchargement illégal de fichiers protégés, dépossédés de leurs richesses : leur situation économique est d’abord fragilisée et peut, par la suite, être menacée de disparition. Œuvrer pour contenir et maîtriser ce phénomène, c’est faire comprendre à tous que chacun doit pouvoir vivre des fruits de son travail, notamment les créateurs. La pratique du téléchargement illégal de fichiers met en danger la création artistique. Dans un premier temps, on risque d’assister à une réduction de la diversité des œuvres, au bénéfice notamment des œuvres les plus commerciales, celles visant une clientèle internationale la plus large possible et présentant un risque faible car consommée abondamment sur une période courte. Dans un second temps, se profile une menace de tarissement qui, s’il n’est pas total, laissera simplement subsister une création monolithique et, somme toute, indigente, car la loi du plus fort sera plus prégnante que jamais. Tous ceux qui interviennent dans le processus de production des œuvres sont concernés, c’est-àdire non seulement les artistes mais également ceux qui prennent des risques à leurs côtés. La technologie du « peer to peer » n’est pas en cause Le Livre Blanc que nous présentons ici n’a pas pour propos de remettre en question le « peer to peer » qui constitue une technologie très innovante aux potentiels considérables et qui n’a pas à faire les frais des usages illégaux qui s’appuient sur elle - un peu comme si les constructeurs automobiles se voyaient accusés des excès de vitesse commis par certains automobilistes. Il s’agit simplement de souligner auprès des pouvoirs publics les conséquences graves à moyen et long terme qu’aurait le fait de laisser se développer des usages non respectueux du droit de propriété des créateurs, éditeurs et producteurs, ou de considérer les ‘’pillages’’ ainsi commis avec un certain laxisme, alors même qu’il existe des moyens techniques et juridiques pour endiguer le phénomène. Pourquoi un Livre Blanc consacré à cette question ? Notre ambition est ici de montrer que comme toute technologie, le « peer to peer » doit être au service du bien-être collectif et de l’intérêt général et non être détourné par des intérêts particuliers et mercantiles de court terme. 8 Livre blanc sur le « Peer-to-Peer » C’est pourquoi nous avons souhaité aborder la question de la circulation des œuvres sur les réseaux « peer to peer » dans sa globalité – sans bien sûr prétendre épuiser le sujet. Et c’est aussi au travers d’une approche pluridisciplinaire rendue possible grâce à la collaboration de plusieurs universitaires renommés dans leurs disciplines, qu’est né ce Livre Blanc. L’ouvrage débute par un important volet technique (parfois déroutant pour le non initié) destiné à permettre une bonne compréhension de la technologie « peer to peer », notamment dans son architecture et dans les moyens dont on dispose pour la contrôler. Ensuite sont abordés les aspects économiques et juridiques de la question du téléchargement illégal au moyen de logiciels d’échange en « peer to peer », au travers notamment de la loi sur le droit d’auteur et les droits voisins dans la société de l’information du 1er août 2006. Que les auteurs qui y ont participé, tout particulièrement Guy Pujolle du Laboratoire de l’Université Paris 6, sous l’égide duquel ce livre blanc a été réalisé, soient vivement remerciés pour leurs précieuses et riches contributions qui, nous l’espérons, permettront à beaucoup de mieux comprendre ce qu’il faut bien considérer comme un phénomène de société. Des remerciements doivent également être adressés à Frédéric Goldsmith, ancien directeur juridique du Syndicat national de l’édition phonographique (SNEP) et désormais délégué général de l’Association des producteurs de cinéma (APC), à qui revient l’initiative de ce livre blanc, aux côtés d’Ahmed Serhrouchni de l’Ecole nationale supérieure des télécommunications. Ce sont eux qui, à l’occasion de contacts avec les spécialistes concernés, ont eu l’idée de réunir leurs compétences et leur expertise dans un ouvrage unique et pluridisciplinaire. Frédéric Goldsmith est en outre l’auteur du chapitre de conclusion et des propositions qu’il contient, rédigé à partir d’une synthèse de débats entre contributeurs. Enfin, ce livre blanc a bénéficié de l’aide précieuse de Françoise Payen, journaliste indépendante, qui a travaillé à son éditorialisation et à la rédaction de son introduction. Hervé RONY Directeur Général du SNEP 9 Livre blanc sur le « Peer-to-Peer » 10 Livre blanc sur le « Peer-to-Peer » Biographie des auteurs Guy Pujolle est professeur à l’Université Paris 6 et responsable de nombreux grands projets de recherche français et européens. Auteur de plus d’une centaine d’articles et de nombreux ouvrages en langues française et anglaise il est également membre du conseil scientifique de France Télécom. Ses recherches portent actuellement sur la conception et le développement des futurs grands réseaux IP qui associeront le fixe et le mobile. Ahmed Serhrouchni est spécialiste en architecture et en sécurité des réseaux de communication. Maître de conférences à l'Ecole nationale supérieure des télécommunications de Paris (ENST), il est également chercheur au laboratoire Traitement et Communication de l'Information (URA 820) du CNRS. Marc-Michel Pic est ingénieur (ENSPM) et docteur en systèmes informatiques (Paris VIJussieu). Passionné par l'information et ses applications pratiques, de l'image numérique aux ordinateurs à haute performance en passant par les langages de compilation, il a publié différents articles pour des revues et conférences internationales et participé à des ouvrages collectifs. Il a exercé des responsabilités dans le monde industriel et dans le monde de la recherche (CEA). Il participe à plusieurs comités de normalisation, dont celui concernant MPEG à l'AFNOR/ISO et est membre de Cyberlex. Il a fondé la société AdVestigo en 2002. Anne-Gaëlle Geffroy a rejoint l’équipe numérique du CERNA en 2004 en tant que doctorante. Elle est normalienne et agrégée d’économie. Ses travaux de recherche, et notamment ceux coécrits avec Olivier Bomsel, portent sur l’économie industrielle des DRMs et sur l’économie de la propriété littéraire et artistique. Ils sont disponibles à l’adresse suivante : http ://www.cerna.ensmp.fr//CVs/Geffroy.html Olivier Bomsel est Professeur d’Economie Industrielle à l’Ecole des Mines de Paris. Il a créé en 1998 l’équipe de recherche sur l’économie numérique au CERNA, le centre d’Economie Industrielle de l’Ecole des mines. Il a depuis publié de nombreux travaux sur l’économie des réseaux et des contenus numériques (http://www.cerna.ensmp.fr/CVs/PubliBomsel.html). Il est également producteur de films et de séries TV. Pierre Sirinelli est professeur à l'université Paris-1 (Panthéon-Sorbonne) et doyen honoraire de la faculté Jean Monnet. Il est par ailleurs président de l'AFPIDA (association pour la protection internationale du droit d'auteur), vice-président de l'ALAI (association littéraire et artistique internationale), directeur du CERDI (centre d'études et de recherche en droit de l'immatériel) et directeur du DESS de droit du numérique et des nouvelles techniques. Il publie très régulièrement des travaux dans ce domaine Frédéric Goldsmith est avocat de formation. Il a travaillé plusieurs années au sein d’un cabinet international, puis a intégré l’ADAMI. Il a rejoint le SNEP (Syndicat national de l’édition phonographique) en 1995 et y a occupé le poste de Directeur des affaires juridiques et sociales et des nouvelles technologies. Il est actuellement Délégué général de l’Association des producteurs de cinéma. Il est l’auteur d’articles sur les questions touchant aux relations entre le numérique et les secteurs de la culture. Il est membre de Cyberlex. 11 Livre blanc sur le « Peer-to-Peer » 12 Livre blanc sur le « Peer-to-Peer » Chapitre 1 Typologie des réseaux et applications de « peer-to-peer » Guy Pujolle et Ahmed Serhrouchni 13 Livre blanc sur le « Peer-to-Peer » 1 - Introduction - Problèmes et questions liés à l’émergence des réseaux peer to peer L’avènement des réseaux Pair-à-Pair (an anglais peer-to-peer) est l’un des événements qui a le plus marqué le développement d’Internet ces dernières années. La proportion des flux P2P, par rapport à l’ensemble des flux de communication numérique dans l’Internet, atteint les 80% et cela posent aujourd’hui le problème de l’adaptation de ces nouvelles applications dans le contexte de l’Internet. Ainsi, le développement des réseaux peer-to-peer pose de façon aigue trois séries de questions : 1.1 Questions relatives au modèle de valeurs fondant la pratique de l’Internet ; la philosophie sous-jacente est une philosophie communautariste dans laquelle les internautes ne sont plus simplement consommateurs (« clients ») mais aussi acteurs (« serveurs »). 1.2 Questions juridiques : ce sont des questions concernant notamment : (i) le droit d’auteur (contenus multimédias, logiciels piratés), (ii) la sécurité - les logiciels nuisibles (vers, espions, etc.) et (iii) la protection des personnes (circulation de documents portant atteinte à la dignité humaine). Ces questions, qui ont toujours accompagné le développement d’Internet, sont vite devenues cruciales avec le peer-to-peer. Napster, premier logiciel peerto-peer grand public, apparu en juin 1999, a été fermé en 2002, en raison du grand nombre de copies illégales circulant sur ce réseau. L’émergence de Napster a eu une grande importance car elle a introduit auprès du grand public le partage de fichiers distribués sans contrôle. De nos jours, le problème du contrôle des flux d’Internet est posé. La question de savoir s’il est possible, voire souhaitable, de contrôler Internet, et de quelle façon, est le sujet de débats d’actualité. 1.3 Questions techniques : les réseaux peer-to-peer font l’objet de nombreuses recherches, leur impact sur les infrastructures existantes est fort. La recherche dans l’amélioration des réseaux peer-to-peer et dans l’adaptation des infrastructures conduit à de véritables défis conceptuels et techniques. Ces trois types de questions se nourrissent les unes les autres. Par exemple, l’abandon du modèle Client-Serveur semble être une traduction d’un modèle de valeurs « communautariste » dans lequel les internautes participeraient activement au développement d’Internet. Par ailleurs, le fait que Napster, qui reposait sur une architecture centralisée, ait été fermé pour raisons juridiques a, entre autres, conduit les développeurs et les utilisateurs à favoriser par la suite des 14 Livre blanc sur le « Peer-to-Peer » architectures décentralisées. D’autres interrogations se profilent. La première concerne les concepteurs et les utilisateurs des réseaux peer-to-peer qui font preuve de méfiance vis-à-vis de tout contrôle (toujours le précédent Napster) ou de tout bridage de leur réseau. Ensuite, les pare-feu des entreprises et de certains FAI peuvent-ils bloquer les flux peer-to-peer. Les concepteurs en réponse à ces questions tentent de banaliser au maximum ces flux peer-to-peer pour ne pas qu’on puisse les repérer. Cette clandestinité crée cependant des soucis dans la recherche d’améliorations de l’infrastructure. 2. Définitions et principes de fontionnement des applications Peer to Peer Un réseau est constitué par un ensemble de machines interconnectées permettant ainsi l’échange d’informations et le partage des ressources physiques (unité centrale, mémoire de stockage, bande passante, imprimante, etc.), de fichiers, la diffusion d’informations et ainsi de suite. Ces réseaux ont été initialement conçus pour des architectures client/serveur. Selon l’architecture client/serveur, il y a une entité centrale plus puissante, le serveur, et plusieurs entités de puissances inférieures, les clients. Le serveur est l’unité d’enregistrement centrale aussi bien que le seul fournisseur de services aux clients. Un client ne demande que le contenu ou l’exécution des services, sans partager aucune de ses ressources propres. Avec ce modèle, le contrôle et la responsabilité de l’information diffusée dépendent du serveur. Or cette architecture présente beaucoup d’inconvénients pour la marche d’un réseau, à commencer par l’existence d’un point central qui représente une certaine fragilité : en cas de panne le système s’arrête. L’architecture peer-to-peer propose une alternative à l’architecture client/serveur en offrant de nombreux avantages, comme une plus grande fiabilité, une répartition du trafic et de la charge, une meilleure résistance aux fautes et un anonymat, entre autres. Une application peer-to-peer se déroule sur un ensemble de nœuds (que l’on appelle des pairs) qui peuvent être aussi bien clients et serveurs ou les deux à la fois. Ces pairs sont reliés entre eux par des liens de communication. Ces liens de communication peuvent traverser des nœuds intermédiaires. Ces nœuds et ces liens définissent par eux-mêmes un réseau peer-to-peer qui est un réseau overlay (ou de recouvrement). Ce réseau de recouvrement est un réseau virtuel placé au dessus d’une infrastructure physique. Chaque pair comporte un ensemble d’objets (des fichiers de musique, article, etc..) et des ressources physiques (mémoire de stockage, bande passante, unité centrale, etc.). 15 Livre blanc sur le « Peer-to-Peer » Quelques définitions supplémentaires sont nécessaires à la bonne compréhension de ce chapitre. Un système peer-to-peer est un système reparti utilisant l’architecture de réseaux peer-to-peer. Un service peer-to-peer est un service fourni par les pairs d’un système peer-to-peer. L’application peer-to-peer est un service ou un ensemble de services peer-to-peer s’exécutant sur des pairs au bénéfice des utilisateurs du système. Le terme peer-to-peer fait référence aux systèmes et applications qui utilisent des ressources réparties avec l’objectif d’accomplir des tâches critiques d’une façon décentralisée. Le terme peer-to-peer provient aussi de la relation réciproque entre entités de même statut pour réaliser des échanges d’objets. Les utilisateurs des systèmes peer-to-peer ont besoin de mécanismes qui localisent et récupèrent ces objets dans le réseau. Le mécanisme de Lookup consiste à localiser un objet dans le réseau, spécifié par une clé unique d’identification et le mécanisme de Search a pour objet de localiser un objet en fonction des mots-clés d’identification. 3. Classification des systèmes peer-to-peer Avec la croissance des réseaux, le peer-to-peer suscite de plus en plus l’attention dans la recherche comme alternative aux réseaux client/serveur. Plusieurs études essayent de classifier les systèmes peer-to-peer. Trois grandes catégories peuvent être identifiées : centralisé, décentralisé, et hybride. La catégorie décentralisée peut encore être divisée en décentralisé mais structuré et en décentralisé et non structuré. La différence principale entre ces systèmes est le mécanisme utilisé pour rechercher des ressources dans le réseau peer-to-peer. 3.1 - Réseaux peer-to-peer centralisés Dans les systèmes peer-to-peer centralisés, la description et l’adresse des ressources sont stockées dans un annuaire d’un serveur central. Ainsi, les nœuds envoient des requêtes au serveur central pour trouver quels nœuds ont les ressources désirées. Le serveur ne fournit que la capacité de rechercher et négocie les téléchargements entre clients. De ce fait, le contenu reste du côté client, ne passant jamais par le serveur. Après avoir reçu une requête d’un pair, l’index central recherche le meilleur pair dans son annuaire pour répondre à sa requête. Le meilleur pair est celui qui est le plus économique, le plus rapide ou le plus disponible selon les besoins de l’utilisateur. Lorsque le nombre de participants devient trop grand ce modèle comporte quelques inconvénients dus à son infrastructure centralisée, notamment la surcharge de l’annuaire responsable d’accueillir les informations de tous les participants. Cette catégorie de réseaux 16 Livre blanc sur le « Peer-to-Peer » peer-to-peer ne peut pas s’étendre à de très grands réseaux. De plus, l’existence d’un centre unique, même s’il est dupliqué, ne permet pas une bonne fiabilité du réseau. Celui-ci peut tomber en panne à cause d’un seul nœud. Napster a été l’exemple le plus connu reposant sur ce modèle. Napster Napster est souvent considéré comme le premier réseau peer-to-peer Son architecture est centralisée : les pairs du réseau annoncent les fichiers dont ils disposent au serveur central et contactent ce serveur central pour obtenir les coordonnées (adresse IP et numéro de port) d’un pair possédant les fichiers recherchés. Chaque utilisateur doit posséder le logiciel Napster sur son ordinateur afin de participer au partage des fichiers. Étant connecté à l’Internet, le client établit une connexion TCP avec le Serveur Central Napster et lui déclare les fichiers qu’il souhaite partager. Ce serveur détient donc un annuaire avec toutes les adresses IP des clients participants connectés à lui, ainsi qu’une liste des ressources partagées. Ainsi, tout client qui souhaite obtenir un fichier interroge le Serveur Central. Le Serveur Central lui communique les adresses IP de ceux qui possèdent le fichier désiré. Le logiciel Napster permet ainsi au client de se connecter directement sur les ordinateurs qui proposent le fichier. Le fichier en lui-même ne transite pas par le serveur central, qui fonctionne simplement comme un moteur de recherche : une fois l’adresse IP trouvée, les ordinateurs clients peuvent se connecter directement entre eux. Mais il ne s’agit pas d’un réseau totalement « pair à pair », dans la mesure où sans le serveur central, le réseau ne peut pas fonctionner. 3.2 - Réseaux peer-to-peer décentralisés et non structurés Les systèmes décentralisés et non structurés sont ceux au sein desquels il n’existe ni annuaire centralisé, ni connaissance où se situent les nœuds du réseau (la topologie), ni adresse sur l’emplacement des fichiers. Le logiciel de P2P Gnutella en est un exemple. Ce réseau est formé de nœuds qui rejoignent le réseau P2P en suivant quelques règles simples. L’emplacement des fichiers n’est fondé sur aucune connaissance de la topologie. Pour trouver un fichier, un pair demande tout simplement à ses voisins qui eux-mêmes vont demander à leurs voisins s’ils n’ont pas le fichier considéré, et ainsi de suite. Ces architectures non structurées sont extrêmement résistantes aux nœuds entrant et sortant du système. Par contre, l’actuel mécanisme de recherche n’est pas adapté aux très grands réseaux (on dit que le réseau ne passe pas à l’échelle) et génère une charge importante sur les participants du réseau. Les exemples de cette catégorie sont nombreux comme FreeNet ou Gnutella. 17 Livre blanc sur le « Peer-to-Peer » Gnutella Gnutella a été le premier réseau peer-to-peer totalement décentralisé. Succédant à Napster, dont la centralisation présentait une faiblesse avérée, Gnutella a tiré profit de cette expérience. Gnutella propose un protocole ouvert, décentralisé pour des recherches distribuées sur un ensemble de pairs non hiérarchisés. Dans Gnutella, tous les pairs sont à la fois serveur et client. Ce protocole n’a pas de répertoire centralisé et n’a aucun contrôle sur la topologie ou l’emplacement des fichiers. Le réseau est formé avec des pairs qui intègrent le réseau en suivant quelques règles simples. L’emplacement des données n’est fondé sur aucune connaissance de la topologie. Pour localiser un objet, un client demande à ses voisins qui eux-mêmes demandent à leurs voisins. Ce genre de systèmes permet simplement l’entrée et la sortie des clients, mais le mécanisme utilisé passe mal à l’échelle et génère de fortes charges dans le réseau. La première version de Gnutella utilisait un mécanisme d’inondation pour la recherche, ce qui pose évidemment un problème dès que le réseau devient très grand. Les versions les plus récentes de Gnutella utilisent la définition de super-pairs ou ultra-pairs (pairs avec la meilleure bande passante) pour améliorer la performance du réseau. Cependant, cette solution reste encore limitée toujours à cause des mécanismes d’inondation même si l’inondation ne se fait que sur les ultra-pairs et non sur l’ensemble des pairs. De nombreuses applications d’échange de fichiers implémentent le protocole Gnutella comme Limewire, BearShare, Gnucleos, Phex. Le protocole Gnutella définit comment les clients sont interconnectés dans le réseau. Il repose sur l’utilisation de descripteurs (Ping, Pong, Query, QueryHit et Push) pour la communication entre les clients et d’un ensemble de règles qui gèrent leurs échanges. Ainsi, lorsqu’un client cherche un objet, il lance une requête (Query) en spécifiant cet objet à tous ses voisins. Si l’un des voisins possède l’objet en question, il répond à la requête en renvoyant une réponse (QueryHit) au voisin qui lui a retransmis la requête, spécifiant où l’objet peut être téléchargé (son adresse IP et son port TCP). La réponse remonte ainsi de proche en proche jusqu’au client qui a initialisé la requête. Le client initiateur de la requête choisit ensuite les fichiers à télécharger en envoyant directement une requête de téléchargement au client qui possède le fichier. Si le nœud qui a reçu la requête ne peut la satisfaire, il propage la requête à tous ses voisins, sauf celui qui a initialisé le mouvement. En d’autres termes, Gnutella inonde le réseau pour trouver l’objet désiré. Néanmoins, pour ne pas inonder le réseau durant un temps trop long, Gnutella utilise un temps maximum (ou temporisateur) pendant lequel l’inondation se propage. Lorsqu’un client souhaite rejoindre le réseau, il doit connaître au moins un autre client déjà 18 Livre blanc sur le « Peer-to-Peer » connecté, et c’est à ce dernier que le nouveau client est rattaché. Étant connecté, un client envoie périodiquement des requêtes (Ping) à ses voisins. Cela permet de sonder le réseau à la recherche d’autres clients. Tous les clients qui reçoivent un Ping répondent avec un Pong qui contient l’adresse et la quantité de données partagée. La responsabilité de déterminer la fréquence d’émission des Pings revient aux programmes utilisant Gnutella. En effet, des Pings fréquents permettent d’assurer les liens entre un client et le reste du réseau, puisque dans l’environnement dynamique que propose Gnutella (les clients rejoignent et quittent le réseau sans arrêt) la connexion n’est pas fiable. Toutefois, si un client se trouve derrière un pare-feu, il est impossible d’établir une connexion TCP avec ce client (serveur dans ce cas) sur lequel se trouvent les fichiers désirés. Afin de pallier ce problème, le client peut par lui-même établir une connexion TCP, et télécharger les fichiers vers le client distant. Le descripteur Push joue donc le rôle de « dire » au client serveur qu’il doit initialiser le transfert. 3.3 - Les réseaux peer-to-peer décentralisés mais structurés Les systèmes décentralisés mais structurés n’ont toujours pas de serveur central mais ils sont « structurés » dans le sens où leur topologie est strictement contrôlée et les fichiers sont stockés dans des endroits spécifiques pour faciliter les recherches. Ils sont dits structurés car les nœuds participants à l’application P2P sont reliés entre eux selon une structure particulière comme un anneau. Ce type de réseau a été défini pour rendre des services de routage et de localisation fondés sur le peer-to-peer. Les systèmes peer-to-peer décentralisés mais structurés possèdent un algorithme de recherche pour lequel une ressource donnée se trouve en un endroit parfaitement déterminé à l’avance. Cet endroit a été calculé pour qu’il soit le plus simple d’accès aux autres peers du réseau. L’algorithme de recherche est donc complètement déterministe, et les liens entre les pairs sont faits suivant des règles bien définies. Cette structure permet la découverte efficace des fichiers partagés. De plus, elle est particulièrement appropriée au développement de réseaux à grande échelle. Dans cette catégorie, on peut placer Chord, CAN (Content Adressable Network), Tapestry, Pastry, Kademlia et Viceroy. Pour trouver un fichier dans un réseau peer-to-peer classique, on fait de l’inondation de requêtes sur le réseau, en interrogeant tous les ordinateurs connectés jusqu’à trouver un ordinateur qui le détient. Pour simplifier cette recherche, les concepteurs des réseaux peer-to-peer se sont tournés vers des structures de données connues. En effet, améliorer les algorithmes de recherche nécessite d’organiser le réseau, donc de le structurer, ce qui est bien l’objectif de ces réseaux 19 Livre blanc sur le « Peer-to-Peer » peer to peer décentralisés mais structurés. Les algorithmes permettant de retrouver les fichiers partagés dans le réseau utilisent des clés assez complexes et nous renvoyons le lecteur à des livres spécialisés pour en savoir plus. Ils ont les propriétés suivantes : • La fiabilité. L’algorithme de découverte et de routage garantit que pour une clé donnée il est capable de déterminer le pair le plus proche possédant le bon fichier. Dans des conditions statiques, une réponse négative à une requête signifie que la ressource requise n’est pas disponible dans la communauté. • La performance. Le nombre de sauts nécessaires est limité. Par exemple, dans une communauté d’un million de pairs, la longueur moyenne du chemin à parcourir par une requête avoisine 5 sauts. • Le passage à l’échelle. Deux caractéristiques confèrent aux algorithmes de recherche la possibilité de passer à l’échelle. La première est liée au nombre moyen de sauts nécessaires au routage des requêtes qui reste petit même dans le cas de communautés comptant un grand nombre de participants. La seconde est relative aux tables de routage qui restent elles aussi d’une taille raisonnable en regard du nombre de participants. • L’équilibre de la charge et du trafic. L’utilisation de fonctions qui permettent de créer des communautés équilibrées où les pairs ont statistiquement en charge une part égale de ressources à référencer. De plus, cet équilibre de la charge induit l’équilibre du trafic au sein de la communauté, dans l’hypothèse où chaque ressource est sollicitée de manière équivalente. • La tolérance aux fautes. De par l’absence de centralisation, qui exclut tout point central, l’algorithmique de recherche présente une bonne tolérance face à des suppressions aléatoires de nœuds. Les requêtes peuvent être acheminées même si une partie des nœuds disparaît. • Le coût de maintenance. La nature dynamique du modèle peer-to-peer nécessite la mise en place d’un processus de maintenance qui permet de garantir le bon fonctionnement des algorithmes de recherche. Pour cela, le processus de maintenance, exécuté de manière asynchrone par chaque pair, vise à vérifier régulièrement que les entrées des tables de routage sont correctes. 20 Livre blanc sur le « Peer-to-Peer » 3.4 - Les réseaux peer-to-peer hybrides Les réseaux hybrides permettent de résoudre des problèmes de l’approche purement distribuée tout en gardant l’efficacité de la solution centralisée. Les réseaux fondés sur ces mécanismes de localisation et de routage de données peuvent supporter un nombre de pairs de l’ordre du million. Cette solution combine les caractéristiques des modèles centralisés et décentralisés. La décentralisation signifie, entre autres, l’extensibilité, la tolérance aux fautes et le passage à l’échelle. La centralisation partielle implique quelques centres serveurs qui contiennent des données importantes pour le système. Chaque utilisateur élit son Super-pair, qui est « le serveur central » pour « des nœuds locaux » et peut communiquer avec d’autres Super-pairs. FastTrack, KaZaA, BitTorrent, eDonkey/eMule sont quelques exemples que nous allons détailler. FastTrack FastTrack est un réseau hybride de partage de fichiers. Les pairs forment un recouvrement structuré fondé sur l’architecture des super-nœuds (SN) et des nœuds-ordinaires (NO) pour faciliter les recherches. Les SN forment les nœuds qui ont le plus de bande passante, le plus de capacité disque et le plus de puissance de traitement. Toutes les requêtes leur sont envoyées. Ensuite, une recherche fondée sur la diffusion du genre Gnutella est effectuée. Les principales applications qui implémentent le réseau FastTrack sont KaZaA, Grokster et Morpheus. Nous allons juste décrire KaZaA qui est certainement l’application peer-to-peer la plus connue. KaZaA Les utilisateurs disposant d’une connexion très rapide sont immédiatement considérés comme des SN et jouent alors le rôle de serveur. C’est eux qui hébergent la liste des fichiers partagés par les clients. Les serveurs principaux ne gèrent donc que les connections et la liste des SN. Cette méthode permet au réseau KaZaA de disposer d’une quantité croissante de serveurs de recherche avec le nombre de clients présents. Les SN restent des pairs, et pour cela ils partagent et téléchargent aussi des fichiers. Le temps d’unité centrale consommé par la fonction des SN est de l’ordre de 10% et le client peut refuser de devenir SN. Les SN communiquent entre eux pour les recherches. En fonction du temporisateur des paquets, la recherche est plus au moins profonde sur le réseau. Les échanges entre clients se font via le protocole HTTP. KaZaA est le client le plus connu du réseau. Une version « Spyware Free » est disponible et s’appelle KaZaA Lite. Cette version permet aux clients d’éviter le chargement de logiciels espions. Cependant, elle demande l’utilisation 21 Livre blanc sur le « Peer-to-Peer » d’uniquement Windows. Il faut également disposer d’Internet Explorer et de Windows Média Player. Lorsqu’un NO exécute l’application pour appartenir au réseau, il établit une connexion TCP avec le SN (NO-SN) et (lui) envoie les données à partager (appelées méta-données) par la suite. Ce mécanisme permet aux SN de maintenir une table des fichiers partagés parmi les NO. De plus, il existe des connexions parmi les SN (SN-SN). D’une façon générale l’algorithme utilisé est le suivant : 1- Contacter un SN afin de lui fournir la requête. Selon l’origine, la requête peut directement contacter un SN ou bien être retransmise par les différents pairs intermédiaires jusqu’à atteindre un SN. 2- Attendre les résultats fournis par le SN. Les résultats obtenus sont sous la forme d’une liste de couples pairs et ensemble de ressources répondant à la requête. 3- Choisir parmi ces résultats le NO et la ressource répondant le mieux à la requête. Si les résultats fournis ne sont pas satisfaisants, un élargissement du champ de la requête est possible. En effet, un SN n’étant responsable que d’une partie des NO, il peut contacter l’ensemble des SN qu’il connaît, afin de leur soumettre la requête. 4- Établir une connexion TCP directe avec le NO choisi pour récupérer la ressource désirée. Cela définit les réseaux hybrides puisqu’il associe des caractéristiques des réseaux centralisés et décentralisés. KaZaA permet l’hétérogénéité parmi les pairs participants et, pour mieux en profiter, on regroupe des pairs en plusieurs hiérarchies. Les pairs de plus haute hiérarchie doivent respecter : (i) la durée de la connexion, (ii) la bande passante, (iii) la capacité de l’unité centrale et (iv) la possibilité d’avoir des nœuds avec des adresses IP publiques et privées. BitTorent BitTorrent (ou simplement BT) est un réseau peer-to-peer hybride qui permet le partage des fichiers à travers l’Internet. L’efficacité de ce réseau augmente lorsqu’il y a beaucoup de clients, puisque plus il y a de clients qui téléchargent, plus il y a de clients qui partagent, et il ne faut pas attendre dans une file virtuelle pour commencer, à condition qu’au moins une personne partage le fichier complet désiré. BT est un protocole open source, et grâce à cela, diverses applications l’implémentent (comme BitTorrent officiel, Azureus, ABC, BitComet, etc.) dont certains offrent diverses améliorations en proposant notamment une interface graphique améliorée et divers petits outils, plugins, etc. Dans un réseau de partage de fichiers, le serveur partage sa bande passante entre les clients qui souhaitent récupérer les fichiers proposés. Or, plus il y a de clients, plus la bande passante consommée est importante, ce qui peut très vite devenir une source de problèmes. Le fonctionnement de BitTorrent est fondé sur la centralisation des informations sur un serveur, mais soulage la bande passante en permettant aux clients (les pairs) de s’échanger les parties de 22 Livre blanc sur le « Peer-to-Peer » fichiers qu’ils ont téléchargées. Le serveur est alors une graine (en anglais seed) qui démarre le processus et envoie au moins une copie entière du fichier originel. On peut même supprimer la source du serveur au bout d’un certain temps, et laisser les clients s’échanger entre eux (ceux qui ont un fichier complet devenant eux-mêmes des graines). Ce réseau utilise les techniques de téléchargement depuis différents pairs pour un même fichier (appelé « multisourcing ») et la division de fichiers en morceaux, ce qui évite d’attendre un utilisateur ayant les parties adjacentes à la partie déjà téléchargée (si le fichier est composé de 10 parties et si les 5 premières parties ont été reçues, le client n’est pas obligé d’attendre la partie 6 pour continuer ; il peut très bien recevoir ensuite la partie 8 ou toute autre partie). Toutefois, il est toujours nécessaire de centraliser ces informations en un seul et même endroit. Celui-ci est réalisé par ce qui est appelé le « traqueur » (en anglais tracker), qui énumère toute l’activité relative aux différents fichiers qu’il référence. L’adresse du traqueur est indiquée dans le fichier « torrent ». C’est lui qui contient toutes les informations permettant aux clients de télécharger les contenus. Le traqueur utilise un simple protocole sur une couche au-dessus de HTTP dans lequel un téléchargeur envoie l’information sur le fichier. Le traqueur répond avec une liste aléatoire des contacts des clients qui sont en train de télécharger le même fichier. Ces clients sont appelés les sangsues (en anglais leechers). Les sangsues utilisent ensuite cette information pour se connecter entre eux. De plus, le protocole est conçu pour décourager les free-riders. Par rapport à d’autres réseaux peer-to-peer, BT a plusieurs avantages lors du partage de fichiers. En effet, dès que des parties du fichier sont téléchargées, elles sont déjà disponibles pour les autres clients. De plus, un système de « récompense » permet de recevoir plus si l’on donne plus. Celui qui donne peu ou pas du tout ne recevra rien. C’est ce qui s’appelle la technique « Tit-for-tat ». Les dernières mises à jour de BT contiennent un moteur de recherche, ce qui manquait à BT. Il s’agit aussi d’une de ses principales faiblesses. Cette nouveauté fait suite à une mise à jour qui permet de décentraliser les traqueurs. Pour cela BT utilise le protocole Kademlia qui distribue les traqueurs. Ce système permet également d’alléger la bande passante nécessaire pour mettre les fichiers en ligne. Avec des traqueurs décentralisés et un moteur de recherche, BT améliore considérablement son efficacité. eDonkey/eMule Le réseau eDonkey (ou eD2k) est un réseau qui a été développé par MetaMachine en septembre 2000 mais c’est au cours de l’année 2001 qu’il a connu son véritable essor. L’application eD2k est un réseau peer-to-peer hybride pour le partage des fichiers dont les applications clientes sont 23 Livre blanc sur le « Peer-to-Peer » exécutées par les pairs situés aux extrémités de la chaîne et qui ne sont donc connectés qu’à un seul serveur. Les serveurs sont semblables aux super-nœuds de KaZaA, sauf qu’ils ne sont pas connectés entre eux. eD2k est gratuit et existe en deux versions : Windows et Linux. Dans tous les cas, il permet le téléchargement de différentes ressources et utilise un protocole de transfert de fichiers multi source, appelé MFTP (Multisource File Transfert Protocol). Le projet eMule est né en 2002 à partir d’un utilisateur qui n’était pas content avec les clients eD2k. Initialement fondé sur le réseau eD2k, depuis la version v.42.1, eMule utilise deux réseaux différents : (i) le réseau eD2k classique, basé sur les serveurs et (ii) un réseau sans serveur, basé sur Kademlia. Par nature, les deux réseaux disposent des mêmes fonctions. Ils permettent tous deux, par des moyens différents, de trouver les autres utilisateurs et les fichiers désirés. Chaque client eD2k est préconfiguré avec une liste de serveurs et doit en choisir un pour se connecter et accéder au réseau. Lorsqu’un client établit une connexion TCP avec un serveur, ce dernier vérifie si les autres clients peuvent librement communiquer avec le nouveau client. Cela signifie que les autres clients peuvent établir des connexions TCP directement avec ce nouveau client. Si la réponse est affirmative, le serveur assigne au nouveau client une identification forte (high ID). Sinon, le serveur assigne au nouveau client une identification faible (low ID). Le réseau eD2k est fondé sur le protocole MFTP qui est capable d’optimiser les temps de téléchargement de fichiers. Sur un système classique, le client ne peut télécharger des fichiers qu’à partir de pairs sources disposant du fichier complet. Grâce au MFTP, un client peut à la fois télécharger une partie d’un fichier à partir de plusieurs sources et aussi partager les parties déjà téléchargées. L’efficacité est évidente puisqu’au moment du téléchargement d’une partie d’un fichier à partir d’un client, lui aussi, permet déjà le transfert de cette partie aux autres clients. L’architecture d’eD2k est hybride et est proche du super-nœud/nœud-ordinaire du réseau FastTrack/KaZaA. Il ne fonctionne pas à partir d’un serveur centralisé de type Napster. Mais son application en elle-même fonctionne selon un principe centralisé et il n’existe pas sur son réseau de serveurs qui centralisent sous forme de pointeurs toutes les ressources disponibles sur chaque client. De plus, le serveur utilise une base de données qui maintient les informations concernant les clients et les fichiers. Un serveur eMule ne stocke jamais de fichiers, il joue le rôle d’une table d’index. L’application eMule ajoute plusieurs nouvelles fonctions et une interface graphique agréable à eD2k, entre autres l’échange d’informations entre les serveurs, les clients et les fichiers. 24 Livre blanc sur le « Peer-to-Peer » 4. Conclusion Les problématiques en jeu dans un réseau peer-to-peer sont nombreuses, et ne se résument pas à l’algorithme de recherche uniquement. Au contraire, les recherches actuelles fournissent de nombreuses pistes pour mieux utiliser la topologie sous-jacente, structurer le réseau pour le rendre plus équilibré ou plus fiable. Les réseaux peer-to-peer permettent de déployer de nouvelles fonctionnalités comme la fiabilité et la rapidité, de nouveaux protocoles comme la récupération sur plusieurs sources simultanément et de nouvelles applications comme la téléphonie, la distribution de canaux de télévision, etc. Si le peer-to-peer est apparu comme un réseau peu fiable, conçu par des utilisateurs pour échanger des fichiers souvent illégalement, il devient un véritable domaine de recherche fournissant des modèles fiables. On peut alors imaginer de nombreuses applications légales pour distribuer des données : logiciels ou contenus multimédias libres de droits, des attributs aux nœuds (CPU, bande passante, disque dur, etc.) appartenant à un réseau, ou même des contenus propriétaires chiffrés avec une gestion payante des droits de déchiffrement. Ce qui est important, pour prédire l’avenir d’une technologie, c’est sa vitesse d’adoption par les utilisateurs. Et les utilisateurs n’adoptent pas une technologie mais des applications. Le peer-topeer permet d’introduire des applications où l’utilisateur n’est pas seulement un consommateur mais aussi un fournisseur, où la décentralisation n’est pas un objectif mais un outil, où la puissance considérable de chaque PC pourrait être un peu mieux utilisée, où l’adresse physique de la machine est sans importance au contraire de celle de l’utilisateur. Bref, un monde nouveau pour les applications qui sauront en tirer partie. 25 Livre blanc sur le « Peer-to-Peer » 26 Livre blanc sur le « Peer-to-Peer » Chapitre 2 Le contrôle des flux circulant sur les réseaux Guy Pujolle 27 Livre blanc sur le « Peer-to-Peer » 1- Introduction : Le réseau Internet et les protocoles Internet Le réseau Internet n’en est qu’à son age de pierre. Les premiers protocoles, IP2, TCP3 et UDP4 ont été extrêmement bien conçus à la fin des années 70 pour résister à de nombreuses propositions d’architectures qui sont arrivées dans les années 80 comme les architectures constructeur dont les plus connues sont SNA, DNA, DecNet. L’architecture TCP/IP a également résisté à une attaque beaucoup plus sérieuse de la part de l’ISO (International Standardization Organization) lorsque la proposition OSI (Open System Interconnection) a été développée. Même la défense américaine, en tant que grand défenseur de la technologie TCP/IP, avait annoncé l’abandon des profils TCP/IP au profit de profils OSI. Mais elle a vite fait marche arrière lorsqu’il s’est avéré que chaque équipementier faisait sa propre pile de protocoles OSI indépendamment les uns des autres et que l’interconnexion de toutes ces architectures OSI était extrêmement complexe. Il faut reconnaître que la conception de base des protocoles de l’Internet était excellente puisque l’une des toutes premières architectures proposées est encore en vigueur et même a pris une place ultra dominante dans le monde des réseaux. Ceci s’explique par la grande simplicité du protocole IP et des deux couches transport bien adaptées aux flots transportés. IPv4 en attendant IPv6 Cependant, après avoir conquis le monde, cette pile protocolaire a du faire face à de nombreux problèmes de jeunesse : l’introduction de la qualité de service, de la sécurité, de la gestion de la mobilité pour ne prendre que les principales fonctionnalités. Pour remplir ces nouvelles fonctions, il a fallu mettre de nombreuses rustines aux différents protocoles et l’introduction de la nouvelle version IPv6 qui rassemble ces rustines de façon élégante n’a pas encore été possible pour une raison de coût, trop élevé pour les entreprises. De plus, la version v4 a réussi le tour de force d’introduire en son sein toutes les nouvelles fonctionnalités proposées dans le cadre d’IPv6, d’une manière moins élégante certes mais qui fonctionnent tout à fait correctement. On considère que les rustines représentent aujourd’hui plus de lignes de codes que les protocoles de base eux-mêmes. Les améliorations apportées sans cesse font que nous nous dirigeons vers une pile protocolaire stable, sécurisé et apportant de la qualité de service ainsi 2 L'Internet Protocol (IP) est un protocole utilisé pour le routage des paquets sur les réseaux. Son rôle est de sélectionner le meilleur chemin à travers les réseaux pour l'acheminement des paquets. 3 Transmission Control Protocol (TCP, « protocole de contrôle de transmissions »). Il s’agit d’un protocole de transport fiable, en mode connecté. 28 Livre blanc sur le « Peer-to-Peer » que la mobilité du terminal. Cette version IPv4 stabilisée ou le protocole IPv6, si ce standard entrait en vigueur, sera utilisée dans l’Internet en 2010 et représente un passage à l’age de bronze du monde des réseaux. Dans ce chapitre, nous allons nous intéresser essentiellement au contrôle de ce nouvel Internet. On peut prédire, vers 2010, l’apparition de pilotes automatiques des réseaux IP grâce à de nouvelles techniques en cours de développement, l’intégration d’architectures de sécurité et l’apparition de protocoles garantissant la qualité de service dans les réseaux. Nous allons commencer par la qualité de service qui implique un contrôle des flux avant d’aller un peu plus loin dans les techniques de pilotage automatique. 2- Le contrôle des flux dans la génération Internet actuelle Le filtrage de flux consiste à reconnaître l’application qui transite dans les paquets. Suivant l’application, il est possible de rejeter les paquets, les accélérer, les ralentir, les mettre en attente. Cette reconnaissance est de plus en plus importante puisque la nouvelle génération d’Internet souhaite contrôler les flux pour leur donner une qualité de service. 2.1 - Les numéros de port Dans la génération Internet d’aujourd’hui, le filtrage des flux s’effectue sur ce que l’on appelle un numéro de port. Ce numéro est une valeur qui se trouve dans le paquet IP et qui indique l’application transportée dans la zone de données du paquet. Par exemple, le port 80 indique un service HTTP, le port 7 le service ECHO, le 53 le service DNS, le 21 un transfert de fichier FTP, le 25 le passage d’un message de type SMTP, et ainsi de suite. Les pare-feu se servent du numéro de port pour déterminer l’application correspondante et accepter de la laisser passer ou non. Les applications peer-to-peer ont également des numéros de port. Globalement, les numéros de port sont compris entre 0 et 65535. Entre 0 et 1023, il s’agit des ports réservés à l’avance par des applications précises et reconnues du monde Internet. Les ports numérotés entre 1024 et 49151 sont les ports enregistrés et enfin entre 49152 et 65535, il s’agit des ports dynamiques ou privés (cf. Table 2.1). Les protocoles reconnus sont ceux qui ont été normalisés par l’IETF5, l’organisme de normalisation d’Internet et les standards IETF 4 User Datagram Protocol (ou UDP, protocole de datagramme utilisateur) est un des principaux protocoles de télécommunication utilisé par Internet. Il fait partie de la couche transport de la pile de protocole TCP/IP 5 Internet Engineering Task Force (IETF). 29 Livre blanc sur le « Peer-to-Peer » s’appellent des RFC6. Un protocole défini dans un RFC peut avoir un numéro de port reconnu. Les ports enregistrés correspondent à des protocoles qui n’ont pas besoin d’avoir un RFC. Ces numéros sont demandés directement à l’organisme qui s’occupe des attributions de numéro de port, l’IANA, en expliquant la raison de la demande. Enfin les ports dynamiques représentent une zone franche ou tout un chacun peut prendre autoritairement un numéro de port. Il n’y a aucun contrôle et rien n’empêche qu’il y ait plusieurs applications sur un même numéro de port. En fait, ces numéros sont utilisés comme le nom l’indique dynamiquement, c’est-à-dire qu’à un instant donné on attribue pour la période de temps de la session au maximum un numéro permettant à deux clients de communiquer en privé. Tableau 2.1 - Les champs d’adresses privées Il faut noter que certaines applications peer-to-peer bien connues ont des numéros de port enregistrés comme BitTorrent (port TCP 6881-6999). Début 2007, on estime qu’environ 80% du trafic n’utilisent pas de numéro de port reconnu ou enregistré. 2.2 - Les translations d’adresses Un élément qui complique la gestion des ports provient des translations d’adresses ou NAT (Network Address Translation). En effet, quand un particulier ou une entreprise a plusieurs machines à connecter, il ne lui est donné en général qu’une seule adresse IP qui est dite publique. Cette adresse publique est routable7, c’est-à-dire qu’un routeur est capable de déterminer la direction à prendre pour aller vers cette adresse. Comme les adresses publiques ne sont pas assez nombreuses pour toutes les machines à connecter, les opérateurs n’en décernent qu’un nombre très limité aux utilisateurs. Par exemple, derrière un modem ADSL s’il y a plusieurs machines connectées, elles doivent se partager une adresse IP routable unique. Pour cela on utilise un NAT qui consiste à donner des adresses privées parmi des champs réservés dans l’adresse IP et à faire correspondre à cette adresse privée, l’adresse publique plus un numéro de port de telle sorte que, aussi bien pour les paquets entrants que sortants, il est 6 Request for Comments (RFC). Un routeur est un matériel de communication de réseau informatique destiné au routage. Son travail est de limiter les domaines de diffusion et de déterminer le prochain nœud du réseau auquel un paquet de données doit être envoyé, afin que ce dernier atteigne sa destination finale le plus rapidement possible. Ce processus nommé routage intervient à la couche 3 (couche réseau) du modèle OSI (Open Systems Interconnection). 7 30 Livre blanc sur le « Peer-to-Peer » possible de faire le lien avec le terminal ayant une adresse privée. 2.3 –Reconnaissance des applications P2P Les applications peer-to-peer ainsi que certaines autres applications, comme les applications RPC8 ont été construites pour travailler sur des ports dynamiques : l’application démarre sur un numéro de port enregistré puis continue sur un numéro de port fixé entre les deux terminaux communiquant. Il est donc très difficile de déterminer la nature d’une application qui utilise un port dynamique puisque le numéro de port a été choisi de façon aléatoire. Il faut en général être capable de suivre l’évolution de la connexion à partir de son début, en repérant l’application par son numéro de port initial puis en gardant en mémoire ses changements de port. Cette solution est cependant assez complexe puisqu’il faut arriver à retrouver dans les paquets du flot l’information de changement et noter la nouvelle valeur du port. Comme nous allons le voir, plus loin, la nouvelle génération d’équipement de filtrage ne se sert plus du numéro de port mais de la reconnaissance de la syntaxe du flot, ce qui va permettre une meilleure détermination des applications. 3- Les pare-feu Les pare-feu constituent des remparts indispensables pour se protéger des accès extérieurs. Ils sont aujourd’hui couramment employés, à la fois par les particuliers et par les entreprises. Les pare-feu opèrent en mettant en place des règles de filtrage. Ils inspectent tous les paquets qui transitent et vérifient s’ils sont conformes à la politique de sécurité implémentée par les règles de filtrage. Si c’est le cas, les paquets sont autorisés à traverser le pare-feu et à poursuivre leur acheminement vers leur destinataire. Au contraire, si ce n’est pas le cas, alors les paquets sont détruits. Les pare-feu les plus classiques distinguent cinq éléments qui caractérisent les flux : l’adresse IP de la source, le port utilisé par la source, l’adresse IP du destinataire, le port utilisé par le destinataire et enfin le protocole de transport spécifié dans un paquet. Une règle de filtrage mentionne donc la valeur de chacun de ces cinq éléments, et ordonne une action à entreprendre lorsque toutes les valeurs sont valides. L’action entreprise est soit d’autoriser soit d’interdire le paquet, c’est-à-dire respectivement de laisser passer le paquet ou bien de le détruire. Typiquement, un pare-feu adopte pour politique de bloquer tous les paquets pour lesquels aucune règle d’acceptation ne convient. La politique inverse, qui laisse passer les paquets pour 8 Remote Procedure Call (RPC). Il s’agit d’un protocole permettant de lancer une procédure d'un programme sur un ordinateur distant. 31 Livre blanc sur le « Peer-to-Peer » lesquels il n’y a pas de règle indiquée, est dangereuse pour un réseau puisque ces paquets peuvent porter des attaques. Un sixième élément peut être pris en compte dans les pare-feu : l’état d’une connexion. Les pare-feu avec et sans état Lorsqu’une communication est établie avec les cinq éléments mentionnés précédemment, on considère que la connexion est à l’état actif ou établi. Autrement, l’état est considéré comme inactif. On distingue donc deux catégories de pare-feu : - les pare-feu sans état : ils ne maintiennent pas l’état des connexions, et se contentent du 5-uplets pour autoriser ou interdire les flux qui transitent sur le réseau ; - les pare-feu avec état : ils maintiennent l’état des connexions et sont capables de distinguer si une communication s’effectue sur un port déjà ouvert ou bien sur un port que le paquet demande d’ouvrir. La notion d’état est utile pour les protocoles à ports dynamiques : avec des applications exploitant ces protocoles comme les applications peer-to-peer, une communication s’établit sur un port fixe vers un destinataire, puis lorsque ce dernier est contacté, il convient avec l’émetteur de poursuivre la communication sur un autre port arbitrairement sélectionné. De cette façon, le destinataire reste disponible pour servir un autre correspondant qui tenterait de le joindre ultérieurement sur le port fixe. Face à cette situation, seul un pare-feu avec état est capable d’autoriser l’usage du port dynamique. Pour cela, il lui faut analyser les paquets et déterminer s’ils sont liés ou non à une connexion préalablement établie. Imaginons par exemple, un protocole peer-to-peer dans lequel un destinataire demande à la source de remplacer le port statique initial par un port dynamique qu’il lui impose. Trois étapes successives se déroulent : la source émet un premier paquet vers un port fixé du destinataire. Puis le destinataire lui répond en précisant le port sur lequel il souhaite poursuivre la communication, et la source reprend la communication en utilisant le port mentionné. Pour le pare-feu sans état, seules les deux premières étapes sont possibles puisqu’elles peuvent correspondre à une règle statique simplement basée sur le 5-uplets initial. L’ouverture d’un port dynamique lui est impossible, car aucune règle n’en permet la définition (à moins d’être totalement permissive, et d’ouvrir tous les ports possibles, mais ce n’est pas une politique de sécurité satisfaisante). En revanche, pour le pare-feu avec état, la troisième étape est possible. En effet, ce type de pare-feu est capable d’analyser les flux et de déterminer que le port dynamique sur lequel la source tente de communiquer correspond à la demande qui a été 32 Livre blanc sur le « Peer-to-Peer » faite précédemment par la destination. La gestion des états offre une performance accrue dans le traitement des paquets, mais elle a un coût car elle introduit une latence supplémentaire pour le pare-feu, qui doit en outre savoir analyser les protocoles correctement (et pour cela connaître leur syntaxe). L’état est facilement discernable avec le protocole TCP, puisque ce dernier positionne des bits qui indiquent si la connexion est nouvelle, se poursuit ou bien se termine. Au contraire, le protocole UDP ne fournit pas ces indications. Pourtant, le pare-feu ne peut pas attribuer éternellement le statut d’actif à une connexion UDP. Généralement, il alloue le statut actif à une connexion UDP pendant un certain délai. Passé ce délai, la connexion est considérée comme perdue et devient par conséquent inactive. Toutefois, cette manière de procéder est très approximative, et ne convient pas aux applications de téléphonie sur IP qui utilisent très majoritairement le protocole UDP pour transporter la parole. En effet, si lors d’une communication, les intervenants cessent de parler, le silence correspondant n’est pas transmis, et aucun paquet ne sera transporté durant cet intervalle de temps. Le pare-feu risque de considérer ce silence comme une terminaison de la communication, ce qui serait une décision erronée. Un pare-feu est utile pour centraliser la politique de sécurité au sein d’un équipement unique. De cette manière, la gestion du contrôle des applications autorisées n’est pas laissée aux utilisateurs, mais est à la charge du réseau, ce qui réduit les possibilités de contourner les règles imposées au sein d’une entreprise. Les fonctionnalités d’un NAT (Network Address Translation) sont très souvent implémentées en parallèle avec les fonctionnalités de pare-feu. En effet, l’opération réalisée par le NAT comme par le pare-feu doit s’appliquer au niveau d’une passerelle, point de jonction entre le réseau local privé et le réseau public. En outre, dans ces deux fonctions, une notion de filtrage est requise : lorsque les flux traversent le réseau, le boîtier NAT détecte l’adresse IP source privée et la translate avec une adresse IP publique, tandis que le pare-feu inspecte l’adresse IP source pour s’avoir si l’utilisateur est autorisé à émettre des flux. Dans le même temps, le parefeu détecte les ports et protocoles utilisés par l’application pour opérer un filtrage avec une granularité plus forte. Autrement dit, l’analyse des paquets est un mécanisme partagé par la fonction de NAT comme par la fonction de pare-feu, ce qui justifie leur couplage. 33 Livre blanc sur le « Peer-to-Peer » 4- Le filtrage applicatif des données. Tous les réseaux utilisent aujourd’hui le protocole IP pour la couche réseau et les protocoles TCP ou UDP pour la couche de transport. Dans un cadre classique la majorité des flux sont reconnus par leur numéro de port et peuvent être traités. Pour opérer les modifications d’adresses IP et de port requises par la translation d’adresse, le boîtier NAT doit impérativement connaître le format et la syntaxe des protocoles sous-jacents : en l’occurrence pour l’adressage IP, c’est le protocole IP qui est utilisé (couche de niveau réseau), et pour le port, c’est le protocole TCP ou bien UDP qui est utilisé (couche de niveau transport). Cependant, les attaquants ou ceux qui utilisent des applications P2P cherchent à modifier les numéros de port de façon non voyante ou de plus en plus d’utiliser des ports connus pour réaliser leur communication. Par exemple, une application P2P qui utilise le port 80, a priori réservé à l’application HTTP, ne sera pas arrêtée puisque le coupe-feu interprétera de façon erronée cette information. Il faut donc trouver de nouvelles solutions permettant de filtrer les flux mais sans utiliser le numéro de port. L’idée poursuivie depuis une dizaine d’années consiste à reconnaître la syntaxe du flux : la position des 0 et des 1 permet de déterminer exactement l’application transportée dans un paquet. En effet, chaque protocole à des spécificités qui sont reconnaissables. Le filtrage sur la syntaxe est néanmoins beaucoup plus complexe que la reconnaissance du numéro de port, car les protocoles sont très nombreux et chaque jour de nouveaux protocoles entrent en fonctionnement. La réponse apportée dans ce cadre est donc une solution de filtrage de tous les protocoles utilisés par les applications. Les passerelles de niveau applicatif (ALG). Une nouvelle gamme de passerelles multimédias a été mise en œuvre pour permettre la reconnaissance des flux : on les appelle ALG (Application Layer Gateways). Il existe un grand nombre de solutions commerciales de ce type, embarqué le plus souvent au sein d’un pare-feu : les flux sont filtrés et s’ils sont reconnus, les modifications nécessaires au bon fonctionnement du NAT sont opérées parallèlement à l’acceptation de ces flux à traverser le pare-feu. C’est dans cet esprit que le projet libre Netfilter sous Linux (http://www.netfilter.org), propose la reconnaissance d’un très grand nombre de protocoles, des couches basses aux couches les plus hautes. Les modules de reconnaissance sont également disponibles pour les protocoles H.323 et SIP correspondant à la signalisation téléphonique, c’est-à-dire le passage de paquets qui ont pour but lors de l’arrivée au destinataire de déclencher une sonnerie. Deux modules sont 34 Livre blanc sur le « Peer-to-Peer » nécessaires, le premier (ip_conntrack) réalisant le suivi de connexion (car les flux utilisent des ports qui sont dynamiques et doivent être détectés durant la communication) et le second (ip_nat) réalisant la translation d’adresse. La technologie Netfilter est accessible par défaut dans toutes les distributions actuelles de Linux, avec la commande iptables. Elle est fournie avec un ensemble de filtres pour la reconnaissance des protocoles les plus standards. Selon les distributions Linux, le module de suivi de connexion n’est pas toujours fourni, mais peut être complété facilement avec la technologie patch-o-matic qui automatise les mises à jour de Netfilter. Cette solution est simple à mettre en place et transparente au niveau de l’application des utilisateurs. En effet, l’application n’a pas à modifier la structure des paquets envoyés, c’est le boîtier qui se charge, en émission (du réseau local vers le réseau Internet), de les rendre valides, et en réception (du réseau Internet vers le réseau local) de les distribuer au terminal adéquat. Mais le boîtier NAT a une tâche beaucoup plus lourde à accomplir puisqu’il doit filtrer des protocoles complexes, de niveau applicatif, ce qui réclame des ressources de traitements conséquents. Cette fonctionnalité implique donc à la fois la reconnaissance des protocoles, mais aussi des traitements pour remonter jusqu’au niveau applicatif des paquets qui peuvent considérablement freiner les transmissions. On peut donc lui préférer d’autres solutions alternatives. 5- Filtrage de nouvelle génération Nous avons examiné la première solution de reconnaissance par l’utilisation du numéro de port. Même si cette indication continue à être utilisée pour réguler les flots des utilisateurs standards, elle ne permet pas de détecter les applications qui se veulent pirate, donc les applications P2P et les attaques. Il faut alors utiliser des filtres de nouvelle génération que nous allons décrire dans cette section. Une application peut en cacher une autre Les solutions de filtrage et de reconnaissance des ports dynamiques de la première génération que nous avons introduits dans la section précédente, ne sont toutefois pas suffisantes, car certaines applications peer-to-peer sont capables de se connecter sur un port ouvert. Par exemple, un tunnel peut être réalisé sur le port 80, qui gère le protocole HTTP. À l’intérieur de l’application HTTP, un flot de paquets d’une autre application peut passer. Le pare-feu voit entrer une application HTTP, qui, en réalité, délivre des paquets d’une autre application. Une entreprise ne peut pas bloquer tous les ports, sans quoi ses applications ne pourraient plus se dérouler. On peut bien sûr essayer d’ajouter d’autres facteurs de détection, comme l’appartenance à des groupes d’adresses IP connues, c’est-à-dire à des ensembles d’adresses IP qui ont été définies à l’avance. De nouveau, l’emprunt d’une adresse connue est assez facile à mettre en œuvre. De plus, les flots provenant des applications peer-to-peer peuvent transiter par des ports qu’il est impossible de bloquer comme les ports DNS sinon le réseau lui-même ne pourrait plus fonctionner. 35 Livre blanc sur le « Peer-to-Peer » Une solution beaucoup plus puissante de filtrage, consiste à examiner les flots non plus aux niveaux 3 ou 4 (adresse IP ou adresse de port) mais au niveau applicatif. Cela s’appelle un filtre applicatif. L’idée est de reconnaître directement sur le flot de paquets l’identité de l’application plutôt que de se fier à des numéros de port et de pister les ports dynamiques. Cette solution permet d’identifier une application insérée dans une autre et de reconnaître les applications sur des ports non conformes. La difficulté avec ce type de filtre réside dans la mise à jour des filtres chaque fois qu’une nouvelle application apparaît. Le pare-feu muni d’un tel filtre applicatif peut toutefois interdire toute application non reconnue, ce qui permet de rester à un niveau de détection et de sécurité élevé. Lorsqu’un utilisateur est connecté, tout son flot de paquets transite systématiquement via le filtre. Les paquets sont donc tous interceptés par ce dernier et suivent un cycle de cheminement parfaitement déterminé. Les filtrages de nouvelle génération utilisent les signatures des protocoles, c’est-à-dire un moyen de reconnaissance du protocole par l’intermédiaire d’un certain nombre d’éléments qui produisent une signature qui est unique pour chaque application. A ces éléments différentiateurs, il est possible d’associer des éléments plus classiques comme les adresses, les numéros de ports, etc. que l’on appelle parfois les attributs du protocole. On pourra donc filtrer sur la signature et les attributs comme rechercher une application peer-to-peer d’un certain type travaillant avec un site d’une certaine adresse et utilisant, par exemple, un numéro de port dynamique déterminé. Il n’y a pas deux protocoles qui possèdent la même signature. En mettant en place des filtres qui syntaxiquement permettent de déterminer la signature, il est possible d’identifier les flots sur le réseau. L’avantage de cette nouvelle technologie est de pouvoir reconnaître des flots fortement encapsulés et en quelque sorte cachés. Cette technique n’utilise plus la notion de port ou si elle l’utilise ce n’est que pour mettre en place une technique de filtrage simplifiée en vérifiant que la signature correspond bien au numéro de port quand celui-ci a une signification. Les difficultés de cette technologie proviennent de la mise à jour des filtres avec l’apparition de nouvelles applications et en particulier de nouvelles applications peer-to-peer. Mais cette mise à jour peut-être faite quotidiennement avec des mécanismes aujourd’hui assez classiques dans la mise à jour de logiciel. Ces filtres sont appelés filtres de niveau 7 ou filtres applicatifs. Ils vont remplacer petit à petit les filtres de niveau 4 ou filtre de transport travaillant essentiellement sur les numéros de port. Une solution pour traverser les filtres sans être reconnu est de chiffrer les informations 36 Livre blanc sur le « Peer-to-Peer » nécessaires à la détermination de la signature. Cependant, pour cela, il faut au préalable ouvrir la connexion et mettre en accord les deux correspondants sur des clés de chiffrement communes. Cela laisse le temps de suivre la connexion qui se met en place et de l’identifier. Pour que le chiffrement puisse être réellement opérationnel, il faut que les deux correspondants se mettent d’accord au préalable sur les clefs de chiffrement à utiliser, ce qui limite de nouveau la taille du groupe pouvant utiliser cette solution de traversée des filtres sans être reconnu. Il est également à noter que les filtres doivent intervenir le plus tôt possible dans la chaîne de transmission. En effet, les chiffrements interviennent en général dans les tunnels, par exemple un tunnel IPSec, et plus le filtre se trouve près de la machine terminal, et plus est forte la chance que le flot ne soit pas chiffré. Pour contrer le chiffrement, il suffit de détruire tous les paquets dont il n’est pas possible de déterminer l’application et donc en particulier les paquets chiffrés. De nombreux filtres applicatifs sont commercialisés depuis quelques années avec des qualités plus ou moins bonnes en fonction de l’implémentation des éléments de filtrage et de leur mise à jour automatique. Des logiciels libres de filtrage autour de Linux en particulier sont disponibles mais assez complexes à utiliser aujourd’hui. 6- Le contrôle des filtres et de l’Internet Une fois le flot reconnu, il est possible de décider des actions à mettre en œuvre comme détruire le flot concerné, le ralentir, l’accélérer, le compresser, le chiffrer, etc. Ces actions sont réalisées par ce que l’on peut nommer des agents, plus ou moins intelligents. Ces agents sont des composants logiciels capables de mettre en exécution des règles que l’on appelle classiquement des politiques (du mot anglais policy) ou encore règles de politique. 6.1 – Définition des politiques de régulation du trafic Une politique s’exprime sous la forme « si condition, alors action ». Par exemple, « si l’application est de type parole téléphonique, alors mettre les paquets en priorité Premium » ou encore « si l’application est un peer-to-peer de type xx et que les adresses IP appartiennent à la classe yy alors supprimer les paquets ». Une politique peut se définir à différents niveaux. Le niveau le plus haut correspond à celui de l’utilisateur, la détermination d’une politique s’effectuant par une discussion entre l’utilisateur et l’opérateur. On utilise pour cette discussion soit le langage naturel, soit des règles déjà préparées par l’opérateur du réseau. Dans ce dernier cas, l’utilisateur ne peut que choisir parmi ces règles la politique la plus proche de ce qu’il souhaite voir appliquer. On parle alors de politique définie au niveau « business ». Cette politique doit être traduite dans un langage de niveau réseau permettant de déterminer le 37 Livre blanc sur le « Peer-to-Peer » protocole réseau de gestion de la qualité de service et son paramétrage. Enfin, il faut traduire ce langage de niveau réseau en un langage de bas niveau correspondant à la programmation des nœuds du réseau, ce que l’on peut appeler la configuration du nœud. Une normalisation importante a été effectuée sur ces différents niveaux de langage, business, réseau et configuration à l’IETF et au DMTF (Distributed Management Task Force). L’objectif de ce travail de normalisation des modèles d’information liés aux différents niveaux de langage est d’obtenir un modèle général qui puisse se décliner en modèles d’information par domaine, ainsi qu’une représentation indépendante des équipements et des implémentations. 6.2 – Le contrôle de l’application des politiques Le contrôle par politique est donc un contrôle qui s’appuie sur l’application de règles de politique dans un réseau et la meilleure façon d’appliquer ce contrôle est de configurer les filtres suivant les règles définies par le gestionnaire du réseau. Cette configuration peut être plus ou moins automatique suivant le niveau de définition de la politique. Si l’on est au niveau de la configuration des nœuds, le travail est plus ou moins manuel et effectué par un ingénieur qui configure les équipements du réseau par l’intermédiaire d’une programmation de bas niveau. L’automatisation est obtenue en partant d’un niveau beaucoup plus haut dans lequel le gestionnaire du réseau définit les règles de politique au niveau business et c’est le système qui effectue automatiquement les traductions nécessaires pour avoir du code de configuration qui est introduit dans les équipements de réseau. Cette automatisation a dans un premier temps été réalisée dans un environnement centralisé. Les nœuds du réseau prennent le nom de PEP (Policy Enforcement Point). Les politiques y sont appliquées pour gérer les flux des utilisateurs. Le PDP (Policy Decision Point) est le point qui prend les décisions et choisit les politiques à appliquer aux PEP. La communication entre le PEP et le PDP s’effectue par le biais d’un protocole comme NetConf (Network Configuration) qui est suffisamment générique, parce qu’employant un format XML, pour s’adapter à toute sorte d’équipements de réseau. Le système comporte également une console utilisateur, qui contient des outils de gestion des politiques. Ces derniers permettent notamment d’entrer les politiques dans une base de données, nommée Policy Repository, qui entrepose les règles de politique que le PDP vient rechercher pour les appliquer aux nœuds du réseau. Cette architecture est décrite à la figure suivante. 38 Livre blanc sur le « Peer-to-Peer » Figure - Architecture d’un système géré par politique Des variantes de ce schéma de base peuvent inclure plusieurs PDP susceptibles de gérer un même nœud de transfert du réseau. Dans ce cas, les PDP ont des rôles différents. Une autre variante correspond à une décentralisation des fonctions du PDP dans des PDP locaux, appelés LPDP (Local Policy Decision Point). En règle générale, un PDP gère un seul domaine administratif, et les règles de politique sont communes à la configuration de l’ensemble des nœuds du domaine. Un problème de cohérence se pose lorsque le client émetteur et le client récepteur ne se trouvent pas dans le même domaine administratif. Dans ce cas, les PDP des deux domaines doivent négocier pour se mettre d’accord sur les règles de politique à adopter pour que la communication se déroule de bout en bout avec la qualité voulue. 7- La nouvelle architecture de contrôle La solution décrite à la section précédente est une solution centralisée qui n’est pas vraiment satisfaite par sa lourdeur et sa fragilité ainsi que par sa difficulté de passer à l’échelle. Une nouvelle architecture a été créée depuis le début des années 2005 pour réaliser la configuration automatique d’une façon totalement distribuée. C’est cette architecture qui représente le mieux l’Internet des années 2010 du point de vue du contrôle. L’objectif est toujours de configurer les 39 Livre blanc sur le « Peer-to-Peer » équipements de réseau et donc essentiellement les filtres et les éléments qui mettront en pratique les décisions prises à partir des flux reconnus par ces filtres. En d’autres termes la configuration s’effectue sur ce que l’on appelle les conditionneurs de trafic qui sont les éléments à l’intérieur d’un équipement de réseau qui détruisent, ralentissent, accélèrent, compressent, chiffrent les flux. 7.1 – L’architecture « autonomic » Cette nouvelle architecture que l’on appelle architecture « autonomic » est présentée dans les lignes qui suivent. Le mot anglais autonomic veut dire à la fois spontané et autonome, c’est-àdire que nous avons à faire à une architecture capable spontanément et de façon autonome de se configurer. Une autre manière de présenter ces architectures est de dire qu’elles sont capables de s’auto configurer, de s’auto adapter, de s’auto réparer, de s’auto ajuster et plus globalement de s’autocontrôler. Cette architecture comporte 5 plans, les trois premiers étant classiques et les deux suivant tout à fait nouveau : - Un plan de donnée qui est simplement le réseau physique lui-même dans lequel les paquets avancent pour aller vers une destination. - Un plan de contrôle qui regroupe l’ensemble des algorithmes de contrôle du réseau. Ce plan de contrôle contient les algorithmes de gestion de la qualité de service, de la mobilité, de la sécurité, les algorithmes de contrôle des entrées, de détermination de la meilleure configuration des conditionneurs de trafic, du contrôle de la configuration des filtres et ainsi de suite. - Un plan de gestion qui regroupe les éléments nécessaires à la gestion du réseau, c’est-àdire les fonctions nécessaires pour prendre en charge la sécurité, la comptabilité, la planification, les performances, etc. - Un plan de connaissance, dont l’objectif est de mettre à disposition des autres plans une vision du réseau au travers de connaissances, c’est-à-dire d’informations traitées et mises dans leur contexte. - Un plan de pilotage, parfois appelé également plan de gouvernance, qui contient la mécanique qui a pour objectif de piloter les algorithmes de contrôle. Ce plan de pilotage peut être inclus dans le plan de connaissance ou dans le plan de contrôle pour réduire à quatre le nombre de plans. Au travers de cette architecture, le contrôle automatique du réseau s’effectue de la façon suivante : en partant du plan de données, il peut en être extrait des informations provenant de 40 Livre blanc sur le « Peer-to-Peer » mesures effectuées sur ce plan. Certaines mesures peuvent être réalisées par le plan de gestion et envoyées au plan de pilotage. Ces mesures en les replaçant dans leur contexte deviennent des connaissances qui sont échangées par les agents du plan de connaissance, un agent pouvant se trouver dans tous les équipements du plan de connaissance. Il est évident que chaque agent ne peut avoir une connaissance complète du réseau. En effet, si le réseau est très grand cela ne sert à rien de connaître l’état d’un nœud situé très loin car lorsque la connaissance arrive au nœud la recherchant, cette connaissance n’est plus valable car l’état du réseau a pu fortement changer. En fait, il a été démontré qu’il faut avoir une bonne connaissance de son environnement immédiat et avoir une connaissance beaucoup plus floue de ce qui se trouve loin. Pour cela, on définit des vues situées. Dans chaque équipement, l’agent qui gère le plan de connaissance ne reçoit de l’information que de certains points de son voisinage formant sa vue située. Le plan de connaissance est donc alimenté par les informations provenant du plan de données. Ce plan de connaissance alimente lui-même le plan de pilotage pour lui permettre de prendre des décisions. Tout d’abord en permettant au plan de pilotage de choisir les algorithmes de contrôle du plan de contrôle, étant donné l’état du réseau déterminé par le plan de connaissance. Ensuite, en déterminant les valeurs optimales des paramètres de ces algorithmes. Le plan de pilotage alimente donc le plan de contrôle qui lui-même configure les équipements de réseau du plan de données, ce qui referme la boucle de notre architecture. Cette architecture et son utilisation sont décrites à la figure suivante. Figure - L’architecture autonomic 7.2 – L’auto-pilotage Comme nous venons de le voir, la nouvelle génération Internet possédera des fonctions d’autocontrôle capables de toujours optimiser, réparer, contrôler et gérer le réseau. Les filtres jouent un rôle capital dans cette architecture puisque le contrôle s’exerce sur les flux d’information circulant dans le réseau. Cependant, pour contrôler ces flux, il faut dans un premier temps les reconnaître. L’autopilotage consiste en tout premier lieu à récupérer des connaissances du réseau et en 41 Livre blanc sur le « Peer-to-Peer » particulier la nature des applications et leurs caractéristiques par l’utilisation des filtres applicatifs. Ces connaissances sont ensuite regroupées dans le plan de connaissance et alimentent les processus de décision permettant de ralentir, détruire accélérer les flux des réseaux IP. Pour en revenir aux applications peer-to-peer, elles doivent donc être en tout premier lieu reconnues par les filtres puis les algorithmes du plan de contrôle doivent appliquer les politiques décidées par le gestionnaire du réseau pour les éliminer, les accélérer, les protéger, etc. 8- Conclusion En début 2007, plusieurs équipementiers proposent des filtres applicatifs, pas toujours complètement à jour par rapport aux nouvelles applications qui apparaissent tous les mois mais suffisamment matures pour reconnaître les principales applications peer-to-peer. Les filtres peuvent être commandés localement par des algorithmes qui sont configurés à la main par le gestionnaire du réseau sous la forme de règles de politique. L’automatisation globale n’interviendra que dans les années qui viennent. Globalement, on peut dire que l’on dispose aujourd’hui d’un ensemble d’outils capables de gérer les flots de l’Internet et en particulier les applications peer-to-peer, de telle sorte que l’Internet en y associant des éléments d’authentification devient un environnement parfaitement maîtrisé. 42 Livre blanc sur le « Peer-to-Peer » Chapitre 3 Le filtrage par la reconnaissance de contenus Marc Pic 43 Livre blanc sur le « Peer-to-Peer » 1- Introduction à la problématique de la reconnaissance automatique du contenu Les échanges sur les réseaux peer-to-peer sont de différentes natures, tant en matière de médias qu’en matière de contenus. Parmi les contenus, un grand nombre d’échanges concernent des contenus protégés par le droit d’auteur et constituent, lorsqu’ils sont effectués sans autorisation, des actes de contrefaçon aux yeux de la loi. Cependant, l’usage des réseaux peerto-peer ne peut être considéré comme illégal par lui-même. La mise en œuvre d’un filtrage de ces réseaux ne peut donc se faire qu’en étant en mesure de séparer le bon grain de l’ivraie. Comment mettre en œuvre cette séparation dans le monde réel ? L’idéal est de disposer d’outils permettant de reconnaître la nature d’un contenu échangé. Un tel outil compare deux contenus comme par exemple deux fichiers musicaux ou deux vidéos pour déterminer le niveau de similarité entre eux. Par extension, il faut également que cet outil permette de retrouver quels sont les documents présentant des similarités avec un contenu « suspect » au sein d’un large ensemble de contenus, ce que l’on nomme une base de références. 1.1 – Définitions des termes et outils Ces outils existent déjà pour un nombre croissant de médias : le texte bien sûr (détection de plagiats), la musique, les images fixes, les vidéos. Ces outils sont basés sur des technologies variées majoritairement issues de la discipline scientifique dénommée traitement du signal. Historiquement, cette discipline a principalement été exploitée pour des applications militaires, telles que la reconnaissance de formes de pistes d’aviations sur les photos aériennes ou satellitaires, ou encore la reconnaissance d’un profil de navire ou de sous-marin à partir de l’enregistrement acoustique d’un sonar. Les moyens de calcul nécessaires pour la mise en œuvre de ces méthodes, réservés initialement aux budgets de la Défense, sont devenus accessibles au fil du temps. Parallèlement, les technologies de reconnaissance se sont raffinées, pour permettre de passer de reconnaissances extrêmement spécifiques à des outils (presque) généralistes. Pour permettre un déploiement facile d’une technologie de reconnaissance de contenus, il faut pouvoir disposer d’une représentation synthétique des éléments les plus caractéristiques du contenu. Il s’agit d’une sorte de résumé de ce contenu, qui ne focaliserait pas sur les points sémantiquement les plus forts de ce contenu, mais sur ceux qui ont le plus de chances d’être conservés au cours des transformations qui peuvent affecter ce contenu. On dénomme 44 Livre blanc sur le « Peer-to-Peer » empreinte (fingerprint en anglais) cette représentation synthétique, car elle joue un rôle similaire à l’empreinte des doigts de la main pour caractériser un humain. Comme elle, elle ne contient pas l’ensemble de l’information qui constitue un être humain, mais elle est suffisante pour distinguer de manière fiable les humains les uns des autres. Ce concept d’empreinte présente, en outre, plusieurs avantages : • elle est peu volumineuse par rapport au contenu original, donc aisément transportable ; • elle ne contient que des éléments partiels et codés de l’information initiale, on ne peut donc pas régénérer le contenu initial à partir d’elle (sinon il s’agirait d’une méthode de compression et non d’une empreinte), ce qui permet de sécuriser l’utilisation de cette technologie, comme nous le verrons dans la partie stratégie d’emploi ; • elle permet également de matérialiser la reconnaissance et donc de transporter des métadonnées ; • la constitution de la base de référence se fait directement à partir des empreintes, qui peuvent donc être collectées indépendamment à partir de différentes sources. Définition des termes de la reconnaissance de contenus Empreinte : ensemble de caractéristiques extraites d’un contenu permettant son identification même s’il a subi des transformations. Hash (ou HashCode)/ Hashes : signature numérique permettant d’identifier un fichier de manière exacte ; la moindre transformation, le moindre bit modifié rend impossible l’identification. Référence : un fichier de contenu protégé, fourni par les ayants-droit, permettant de calculer une empreinte de référence. Suspect : un fichier de contenu suspect (par exemple téléchargé sur un protocole peer-to-peer ou sur un site web) dont on souhaite savoir s’il est tout ou partie une œuvre protégée. La comparaison des empreintes va permettre de savoir s’il est similaire ou non. Base de Références : une base de données constituée des empreintes des fichiers de référence. Un suspect va être recherché dans une base de références lorsque l’on souhaite déterminer s’il est protégé ou non. 45 Livre blanc sur le « Peer-to-Peer » 1.2 – Positionnement des stratégies d’usage L’application de ces technologies à la protection des contenus protégés par le droit d’auteur transitant sur les protocoles peer-to-peer peut alors se faire de différentes manières : - En premier lieu, il est possible de l’employer au sein d’un mécanisme de type « radar »9 de l’internet. Il s’agit d’un logiciel fonctionnant sur un serveur placé en un point quelconque du réseau en tant qu’observateur. Il va constater des mises à disposition de contenus par des internautes, en vérifiant au moyen de la technologie de reconnaissance de contenu que les échanges portent sur des œuvres protégées ou non. Cette reconnaissance s’effectue en téléchargeant le contenu mis à disposition, puis en calculant son empreinte et en comparant cette empreinte avec celles présentes dans une base de données de références contenant des œuvres protégées. Les réseaux peer-to-peer présentent l’avantage d’identifier de manière unique les fichiers qui transitent par eux au moyen d’un hashcode ; un téléchargement et une reconnaissance unique sont alors suffisants pour vérifier la nature de nombreux échanges portant sur le même fichier binaire. Cette vérification peut alors entraîner différentes réactions : l’émission de messages d’avertissement ou d’amendes à l’encontre de l’internaute abonné, via la résolution de son adresse IP chez son fournisseur d’accès Internet, par exemple, ou des mécanismes plus complexes tels que ceux envisagés dans le mécanisme connu sous le nom de « riposte graduée ». Le mécanisme opère en temps séparé : la reconnaissance de contenu s’effectuant indépendamment de la constatation du partage. Le temps de traitement peut ainsi se permettre d’être relativement long. - En second lieu, il est possible de l’employer pour « détecter » sur un site User Generated Content (UGC) des contenus indésirables postés par certains internautes. La majorité de ces contenus indésirables sont des œuvres protégées, soit dans leur partie audio, soit dans leur partie vidéo, soit dans les deux. Le mécanisme consiste alors, suite à une reconnaissance avérée de tout ou partie d’une œuvre protégée, à appliquer pendant l’intervalle de temps compris entre le postage du contenu par l’internaute et sa publication sur le site (de quelques secondes à quelques minutes), soit un filtrage pur et simple soit un mécanisme de partage de revenu induit par la présence de ce fichier protégé (revenu indirect de type publicité ou direct de type paiement au stream ou au téléchargement). 9 L’appellation radar est employée différemment suivant les contextes. L’usage que nous considérerons dans ce document est celui défini ici. 46 Livre blanc sur le « Peer-to-Peer » - Enfin, il est possible de l’employer dans un mécanisme de « garde-barrière » des échanges peer-to-peer. Pour ce faire les réactions du mécanisme de filtrage réseau doivent être extrêmement rapides (il faut traiter plusieurs giga-octets de données par seconde dans un flux opérateur courant). Nous verrons plus loin quelle stratégie doit alors être mise en œuvre pour contourner cette difficulté. 2 – La reconnaissance de contenus 2.1 – Le principe Le challenge des technologies de reconnaissance du contenu consiste à être capable de reconnaître des contenus qui ont pu subir des transformations importantes et cumulées de la manière la plus sûre possible, sans commettre de fausse reconnaissance. Pour cela, il faut pouvoir extraire des éléments caractéristiques des contenus recherchés qui présentent deux propriétés distinctes : - D’une part, il faut que ces éléments caractéristiques soient conservés (ou peu modifiés) lorsque le contenu est transformé par toutes les transformations « autorisées » (les transformations fréquentes lors du cycle de vie du document). - D’autre part, il faut que ces éléments caractéristiques permettent de distinguer aisément des contenus distincts ; il faut donc que la variabilité potentielle de ces éléments soit forte pour permettre de caractériser de manière individuelle tous les contenus que l’on peut souhaiter caractériser. Ces deux propriétés sont généralement contradictoires, ce qui rend difficile le travail de définition des éléments caractéristiques exploitables dans le monde réel. Différentes catégories de caractéristiques ont été envisagées pour ce faire : caractéristiques fréquentielles, d’énergie, de couleurs, contours, formes, textures (pour la vidéo), etc… Malheureusement, chaque caractéristique individuelle tend à avantager soit le premier point, soit le second. Il est donc d’usage aujourd’hui d’exploiter simultanément plusieurs caractéristiques élémentaires pour produire l’empreinte d’un contenu. L’ensemble des éléments caractéristiques d’un contenu, plus éventuellement quelques métadonnées, va constituer l’empreinte de ce contenu. 47 Livre blanc sur le « Peer-to-Peer » 2.2 Les risques d’erreur La difficulté de sélection des caractéristiques amène naturellement à des risques d’erreurs. Ces erreurs peuvent être de deux natures (liées aux deux propriétés précédemment évoquées) : les faux positifs et les faux négatifs. On appelle Faux Positif une reconnaissance erronée d’un contenu que l’on a faussement associé à un élément de la base de référence. Parmi les faux positifs, lorsque l’on effectue une recherche au sein d’une base, on dénomme Collision le cas où le système propose comme réponse un candidat erroné dans la base alors que le suspect est effectivement présent dans celle-ci mais correspond à un autre candidat. On appelle Faux Négatif, le fait de ne pas reconnaître un contenu effectivement présent dans la base. Le risque de faux positifs et celui de faux négatifs sont liés de manière complexe. Grossièrement, ils varient de manières opposées. Réduire le taux de faux négatifs consiste à réduire les contraintes imposées sur la reconnaissance, ce qui a pour conséquence d’augmenter le risque de faux positifs, et inversement. 2.3 – La prise en compte des transformations de contenu Quelles sont les transformations de contenus qui nécessitent d’être prise en compte dans le cas des échanges pirates de contenus sur les réseaux de pair-à-pair ? Ce sont celles qui correspondent aux manipulations, volontaires ou involontaires, que les utilisateurs de vidéos ou d’audio au format numérique peuvent appliquer couramment au contenu, en voici un échantillon représentatif (mais non exhaustif) : - Transcodage (modification du format d’encodage) : pour faciliter la lecture du contenu sur un support ou sur un autre, ce qui entraîne des approximations sur les valeurs des pixels, des effets de blocs (compression par DCT et autres) et des entrelacements des lignes des images. - Modification des tailles d’images et des ratios de taille (partie vidéo) : pour s’adapter aux différents formats d’écrans sur lesquels les contenus sont joués (ipods, téléphones cellulaires, etc…) les utilisateurs modifient la largeur et la hauteur des vidéos, entraînant éventuellement des modifications de l’aspect de l’image (l’image semble alors compressée ou, dilatée dans une direction), des troncatures sur les bords de celleci ou des effets de pixellisation (apparition de blocs inélégants). - Modification de l’échantillonnage (partie audio) : la fréquence d’échantillonnage peut être modifiée pour favoriser la compression par exemple, il peut s’ensuivre une perte de qualité auditive. 48 Livre blanc sur le « Peer-to-Peer » - Découpage / Insertion de logos / Incrustation (partie vidéo) : des opérations d’éditions sur les images d’une vidéo sont couramment pratiqué par les pirates pour se faire connaître (insertion de logos), pour ajouter des sous-titres (incrustation de textes), ou pour nettoyer des images parasitées (têtes de spectateurs lors d’un camcording10 par exemple). - Montage et Mashup : des montages particuliers peuvent être réalisés d’un ou de plusieurs contenus audio ou vidéo. Les séquences sont découpées pour être recollées de manière à former un message différent de l’original ou à créer une œuvre composite à partir de plusieurs sources. Les mashups sont des montages qui regroupent plus d’une source. Ces opérations peuvent être particulièrement déstabilisantes pour les technologies basées sur l’analyse de l’évolution temporelle de contenus. « the Analogic Gap » 11(DA/AD): franchir la barrière de l’analogique consiste pour un - CD ou un DVD à être joué dans le monde réel (analogique par opposition au monde numérique binaire des ordinateurs) puis re-digitalisé au moyen de différents outils : un CD peut ainsi être joué sur des enceintes et être enregistré grâce à un microphone, un film peut être joué en salle de cinéma et réacquis au moyen d’un caméscope (camcording). Ce passage dans l’univers analogique, puis le retour dans l’univers digital introduisent des perturbations difficiles à prédire, donc à contrer. En général les perturbations affectent la géométrie de l’image ou la position des notes dans les sons, perturbent les couleurs et la luminosité, ajoutent du bruit (aléatoire ou mécanique), et de l’incohérence (flou) dans les contenus renumérisés. Obtenir une reconnaissance robuste sur ce dernier type de transformations est un des challenges des technologies actuelles de reconnaissance de contenus. 3 - Outils de caractérisation du signal : principales méthodologies actuelles et directions futures. 3.1 - Empreinte Vidéo La caractérisation de la vidéo se sépare aujourd’hui en deux grandes familles de méthodologies : 10 une première famille basée sur le découpage des vidéos en images élémentaires, Enregistrement d’un film dans une salle de cinéma au moyen d’un caméscope. 49 Livre blanc sur le « Peer-to-Peer » localisées dans le temps, puis sur la reconnaissance des images individuelles, perçues comme des « tranches » du film, que l’on va effectuer au moyen de propriétés locales ou globales de ces images : détection de formes, d’objets, contours, histogrammes de couleurs, etc… On parle de caractérisation spatiale du contenu. - Une seconde famille basée sur la caractérisation « longitudinale » du film, c’est-àdire au moyen de caractéristiques propres à l’évolution du film : déplacement d’un objet, modification temporelle de l’intensité d’une fréquence dans une direction donnée, etc… On parle alors de caractérisation temporelle du contenu. Images composant la vidéo Espace Temps Figure 1 : Caractérisation Spatiale vs. Caractérisation Temporelle Ces deux méthodologies visent à repérer les films dans des contextes différents : - Ainsi, une modification de l’ordre des séquences d’un film (tel que ce que l’on trouve dans les mash-ups, ces « cadavres exquis » composés par mixages de plusieurs sources, et dont sont friands les utilisateurs de sites User Generated Content (UGC) tels que YouTube, DailyMotion, …) peut fortement perturber la seconde famille de technologie – l’évolution temporelle des caractéristiques ayant changé–, alors que la première va retrouver les images – dans un ordre simplement modifié. - A l’opposé, une transformation globale des couleurs utilisées (par l’application d’un filtre sépia par exemple qui donne un aspect « année 30 » à l’ensemble du film) peut fortement perturber une technologie de la première catégorie basée sur la couleur, alors que l’évolution dans le temps du rapport pixels blancs sur pixels noirs sera peut perturber. Ces deux méthodologies peuvent être mixées dans certains produits industriels avancés. 11 On parle souvent de transformation DA/AD pour Digitale vers Analogique puis Analogique vers 50 Livre blanc sur le « Peer-to-Peer » 3.1.1 - Méthodologies spatiales : L’information spatiale dans une vidéo, est l’information que l’on peut extraire à partir des images indépendamment de leurs images voisines. La caractérisation d’une telle information s’appuie sur des techniques développées pour l’indexation et la recherche d’images fixes. Ce domaine à fait son apparition dans les années 90 et a suscité et suscite jusqu’à présent beaucoup de travaux de recherches pour cerner et quantifier l’information pertinente transportée par les images. On peut classer ces approches en trois axes principaux qui sont : la caractérisation de la forme, celle de la couleur et celle de la texture. Ces caractérisations étant coûteuses en puissance de calcul et en taille de stockage du résultat, elles ne peuvent être appliquées à l’ensemble des images d’une vidéo. Ceci n’est de toute façon jamais nécessaire car les vidéos présentent une forte redondance temporelle nécessitée par la faible durée de la rémanence rétinienne : un affichage correct d’un film requiert de 25 à 30 images par seconde pour les formats actuels, alors que les mouvements d’une scène naturelle courante (capturée par une caméra) n’affectent que des régions limitées de l’image entre chaque image. Grâce à cette redondance, il suffit de caractériser le film au moyen de quelques images extraites tout au long de la vidéo dans des positions particulièrement significatives. Ces positions « saillantes », correspondent à des évènements constitutifs des vidéos. Les plus importants de ces évènements sont les changements de plans. A cela, s’ajoute les évènements qui correspondent aux mouvements d’objets et aux manipulations de caméra brusques. Le choix de l’ensemble des évènements à retenir est basé sur la distribution de ceux-ci le long des documents vidéo. Cette stratégie permet une bonne couverture pendant la caractérisation des documents vidéo. Un autre critère, aussi important que le précédent, est la robustesse de ces évènements et de leur détection aux différentes transformations qu’une vidéo peut subir. Ce qui nécessite de sélectionner comme images saillantes, non pas les images au cours desquelles les transitions ou les mouvements s’effectuent, mais au contraire des images particulièrement « nettes » à bonne distance de ces phénomènes. En effet un nouveau montage du film pourrait perturber gravement la prise d’empreinte en substituant des transitions artificielles aux transitions originales. A l’étape de la segmentation, succède l’étape de la caractérisation. Dans cette étape, le processus cherche à extraire les informations pertinentes de la vidéo pour décrire chacune des Digitale. 51 Livre blanc sur le « Peer-to-Peer » positions saillantes. Puis, ces informations sont quantifiées et structurées sous forme de vecteurs de caractéristiques. L’ensemble de ces images est appelé l’ensemble des images clefs [V2, V3] voir la Figure 1Bis. Après cette étape, chacune des images clef est indexée à l’aide de techniques d’indexation d’images fixes. Images clé Figure 1Bis : Extraction des images clé Sur chaque image clé sont appliquées des méthodes de caractérisation provenant des catégories précitées : o forme : de nombreuses techniques s’attachent à la description des formes au sein d’une image, citons parmi elles : les transformées fréquentielles et spectrales, description globale ou locale des contours (rectangularité, circularité, excentricité), échelles de courbures, description syntaxique des contours, description des régions, moments invariants (Legendre, Zernike, Chebyshev …), matrice de forme, enveloppe convexe, o couleur : Parmi les composantes essentielles porteuses d’information dans un document visuel on trouve la couleur. Le codage de cette dernière dans les documents est varié suivant les différents espaces de couleurs employés (RGB, CMY, HSV, HSB, HLS, CIELUV, CIELAB, Munsell, etc…) Généralement, il existe des fonctions linéaires permettant la conversion des valeurs colorimétriques d’un espace à un autre. La caractérisation des documents visuels en se basant sur la couleur a été étudiée intensivement et différentes approches ont été proposées. Parmi les approches les plus populaires on trouve : l'histogramme de couleur, les couleurs dominantes, et les moments statistiques de couleur. 52 Livre blanc sur le « Peer-to-Peer » o texture : Dans ce genre de méthodes des le vecteur de caractéristiques est obtenu par des statistiques extraites directement du signale représenté dans le domaine spatial. Les statistiques les plus utilisées incluent les histogrammes, les moments, les matrices de cooccurrence calculées sur les niveaux de gris, etc. matrice de coocurrence, fonction d’auto-corrélation, local binary pattern, multiscale LBP. Des méthodes spectrales peuvent également être employées (Laplacien de gaussienne (LoG), Gabor,…) Ces caractéristiques, locales ou globales sont mises en correspondance lors de la recherche de contenus similaires entre les différentes images candidates des films à identifier. La figure présente un exemple de mise en correspondance à partir d’un sous-ensemble de points de l’image retenus pour leur robustesse et caractérisé par des variables statistiques locales. Figure 2 : Reconnaissance et mise en correspondance de points entre une image suspecte et une image candidate. 3.1.2 - Méthodologies temporelles : La caractérisation temporelle de la vidéo peut se tout d’abord se faire sur les propriétés exploitées localement sur chaque image. Des transpositions très efficaces en temps de calcul ont été réalisées au moyen de simples suivis d’orientations des images (Transformée de Hough), d’histogrammes de couleurs ou de coupes transverses. Cependant, la principale information que fournit l’étude temporelle de la vidéo est le mouvement [V5]. Le mouvement représente une source de caractérisation très riche. La source d’où provient le mouvement permet de le classifier en trois catégories. Le mouvement local, le mouvement global et le mouvement de la caméra. Le mouvement de la caméra exprime généralement le 53 Livre blanc sur le « Peer-to-Peer » zoom ou le redressement de la caméra et leurs effets sur la prise de vue. Le mouvement local concerne le mouvement d’un objet. Figure 3 : Exemple de représentation temporelle d’un film au moyen de propriétés extraites tout au long du film Figure 4 : Exemple de mise en correspondance entre deux films, au moyen de la similarité de l’évolution temporelle. 3.2 - Empreintes Audio La première étape de la caractérisation d’un document audio consiste à le décomposer en frames qui sont regroupées par la suite en clips dont chacun est caractérisé par un ensemble de descripteurs. Ces frames jouent un rôle un peu similaire aux images d’un contenu vidéo. Les documents audio dont on a extrait leurs vecteurs caractéristiques sont échantillonnés à une fréquence de référence (typiquement 22050 KHz afin d’éviter les effets aliasing). Ensuite le document est divisé en un ensemble de frames dont le nombre d’échantillons par frame est fixé en fonction du type de fichier à analyser. Pour un document audio riche en fréquences et qui contient beaucoup de variations comme la bande son associée à des films, émissions de variété ou émissions sportives, par exemple, le nombre d’échantillons dans une frame doit être faible (par exemple quelques centaines d’échantillons). En revanche, pour un document audio homogène ne contenant que de la parole ou de la musique par exemple, ce nombre doit être important. 54 Livre blanc sur le « Peer-to-Peer » Clip 1 Clip 2 Clip 3 Clip 4 Frame1 Frame2 Frame N Figure 5 : Décomposition d’un signal audio en clips De nombreux descripteurs audio existent, on peut les classer en descripteurs temporels, fréquentiels, mixtes, ou par ondelettes. Parmi les descripteurs temporels on peut citer [A8,A9]: l’Energie, VSTD : Volume standard deviation, VDR :Volume dynamic range, VU : Volume undulation, LER :Low Energy ratio [A9]. Les descripteurs fréquentiels [A8,A9] courants sont le ZCR (Zero Crossing Rate), HZCRR (High Zero Crossing Rate) [A10], ou des descripteurs dérivés basés sur des statistiques du ZCR [A8]. Les descripteurs fréquentiels sont basés sur la Transformée de Fourier du signal audio parmi eux le SPC (fréquence central), BW (Largeur de bande), ERSB1,2 ,3 [A8,A9], Flux spectral [A10], spectral roll of point [A9,A11], la fréquence fondamentale, ainsi que les dérivées de la fréquence fondamentale [A11]. Les descripteurs mixtes sont une combinaison entre les descripteurs temporels et fréquentiels par exemple la 4ME, [A6, A7, A8], les descripteurs par transformée en ondelettes [A1] qui permet d’exploiter l’aspect fréquentiel et temporel du signal. A partir de ces descripteurs, une approche par frame ou une approche par évolution dans le temps peut –être retenue. La composition de l’empreinte se fait sur les vecteurs calculés localement ou par intégration sur des durées d’évolution. 55 Livre blanc sur le « Peer-to-Peer » Signal prétraité Frame 1 Frame 2 Frame 3 Temps (secondes) ... Frame n Calcul des descripteurs Locaux ou Evolutifs Vecteur 1 Vecteur 2 Vecteur 3 Vecteur n Paquet 1 Paquet n/5 Figure 6 : Calcul d’empreinte d’un document audio 3.3 - Exploitation mixte audio et vidéo, pour les contenus audiovisuels. Différentes techniques ont été étudiées pour permettre d’exploiter pour la reconnaissance des contenus à la fois les médias audio et vidéo. Ces techniques visent à améliorer la qualité ou la vitesse de reconnaissance en exploitant les éléments d’informations d’un média avec l’autre. Par exemple, il s’agit de focaliser la reconnaissance audio sur des tronçons de la piste son qui correspondent aux images identifiées comme similaires par la technologie vidéo. 4 - Méthodes d’évaluation des résultats Des concours et des benchmarks commencent à cibler la problématique de la reconnaissance de contenus protégés par les droits d’auteur, dans des contextes proches de ceux du peer-to-peer (sites UGC12 et diffusion webTV). Notons en particulier CIVR-2007 : • CIVR-2007 : Le Video Copy Detection Showcase organisé par le Dr Alexis Joly de l’équipe Imedia/INRIA est la première édition d’un concours annuel soutenu par le MUSCLE Network of Excellence. Il est organisé dans le cadre de la conférence internationale Content Image and Video Recognition 2007. Le concours consistait en deux phases de recherches autour d’une base de références commune. Cette base contenait environ 150 heures de vidéo provenant de différentes sources : clips vidéo de 12 User Generated Content sites : Sites tels YouTube, DailyMotion, MySpace, MetaCafé, etc… 56 Livre blanc sur le « Peer-to-Peer » sites UGC, Archives TV de l’INA, ainsi que des longs métrages. Les requêtes posées au cours de la première phase consistaient en des données transcodées, bruitées et retouchées de différentes durées (entre 1 minute et 3 heures). Certaines provenaient de camcording. Les requêtes de la seconde phase correspondaient à des flux télévisuels composites. Dans ces flux différents morceaux (mashups) provenaient de la base de référence, mais avaient été préparés par des archivistes audiovisuels professionnels au moyen d’outils d’éditions standards dans le monde de l’audiovisuel. Différentes transformations avaient été appliquées sur ces contenus pour brouiller les pistes : cropping, fade cuts; flips; insertion of logos, borders, texts, moving texts, moving characters, etc.; colorimetric manipulations: contrast, gamma, etc… Les questions posées pouvaient appartenir ou non à la base, de sorte à mesurer également les faux positifs non issus de collisions. Les résultats de ce concours sont disponibles sur : http://www-rocq.inria.fr/imedia/civr-bench/index.html 5 - Stratégies d’exploitation de ces outils dans le cadre du filtrage Peer-toPeer et avantages de leur exploitation 5.1 – Identification du hash protocolaire Pour pouvoir s’appliquer au filtrage de contenus sur des infrastructures de type opérateur télécom, il est nécessaire de combiner la reconnaissance de contenus décrite dans ce chapitre avec des stratégies d’identification à temps de calcul très faible. Il est de plus indispensable, pour être déployable dans un environnement réseau opérateur, de répondre aux contraintes de disponibilité, de robustesse et d’exploitation regroupées sous le vocable de ‘carrier-grade’. Heureusement, les flux peer-to-peer possèdent une caractéristique qui rend cette identification à la volée aisée et extrêmement rapide : il s’agit du hash protocolaire. Chaque protocole peer-topeer utilise, pour identifier un fichier binaire précis, une signature exacte calculée sur le contenu (sur le principe des signatures MD5 par exemple). Ce hash est structurant pour l’ensemble des réseaux peer-to-peer, car ils fonctionnent selon le principe de la Distributed Hash Table (DHT). Chaque fois qu’un fichier précis (au bit près) sera échangé sur ce protocole, cette signature sera employée par les logiciels clients du peer-to-peer pour communiquer entre eux sur cet échange. Si l’on a pu vérifier préalablement qu’une signature protocolaire correspondait à un fichier dont le contenu a été identifié par une technologie d’empreinte comme copyrighté, alors tous les échanges utilisant cette signature protocolaire sont des échanges transgressant les droits d’auteur. 57 Livre blanc sur le « Peer-to-Peer » Exemple de signature dans les protocoles peer-to-peer. P2P Protocol filtering : GNUTELLA Interception Type : 3A # of paquets : 1 Date : 10/04/2007 1/1 Paquet Size : Variable Characteristics : 1) 26 first bytes are assimilated to constant (see note for var.) : 47 45 54 20 2f 75 72 69 2d 72 65 73 2f 4e 32 52 3f 75 72 6e 3a 73 68 61 31 3a 2) 32 next bytes encode the hash in SHA-1 in hexadecimal: (in sample : 4a 36 47 34 50 4c 52 42 49 35 59 58 45 4d 49 53 43 52 58 45 4e 43 50 33 4e 47 44 47 50 34 50 4e ) Figure 7 : Exemple de capture de trame sur un protocole peer-to-peer (ici GNUTELLA) permettant l’identification du contenu proposé à l’échange par son HASH. 58 Livre blanc sur le « Peer-to-Peer » 5.2 – Traitement des contenus suspects La mise en œuvre de cette stratégie s’effectue donc par un mécanisme à deux étages : - d’une part, un système de téléchargements de contenus suspects qui vérifie au moyen d’une empreinte numérique si un contenu donné est protégé par le droit d’auteur ou non par rapport à une base de références fournies par les sociétés d’auteurs et de producteurs, puis qui calcule le hash protocolaire (pour les différents protocoles surveillés) des contenus protégés et constitue une base de hashes protocolaires de contenus protégés - d’autre part, un système d’interception à haut-débit (de type produit de « deep packet inspection » déjà largement déployé dans les réseaux IP), qui se situe sur les liaisons des opérateurs télécoms (suivant le cas au niveau BAS, DSLAM, ou autre) et qui est alimenté de la base de hashes protocolaires précédente et qui va observer les échanges entre clients peer-to-peer, détecter ceux qui exploitent les hashes présents dans sa base et en réduire la priorité de traitement. Cette partie n’a besoin que d’un mécanisme d’identification de chaîne pour repérer l’endroit où se situe le hash et d’un algorithme de recherche dans la base de hashes. Elle peut donc s’effectuer à très haute vitesse et en l’occurence pour atteindre des vitesses compatibles avec la bande passante concernée sur des matériels standardisés et parfaitement agréés à un déploiement par les opérateurs. Réseaux P2P surveillés Réseau FAI Base de hashes Réplique locale Equipement réseau de filtrage BLOQUE / LAISSE PASSER Suivant le HASH Téléchargements de Suspects Identification par reconnaissance du contenu Base de Hashes de contenus diffusés illégalement Diffusion régulière des hashes vers les différents points de filtrage des FAI Calcul des Empreintes à partir des originaux Réseau FAI Base de hashes Réplique locale Equipement réseau de filtrage BLOQUE / LAISSE PASSER Suivant le HASH Réseau FAI Audio, Video. Base de hashes Réplique locale Originaux à protéger Collecte : les hashes des contenus illicites sont identifiés et placés dans une base de données Filtrage FAI : Les hashes illicites sont exploités pour bloqués les communications illicites Equipement réseau de filtrage BLOQUE / LAISSE PASSER Suivant le HASH Figure 8 : Un mécanisme de filtrage par le contenu des échanges peer-to-peer au niveau des opérateurs, accéléré par l’utilisation des hashes protocolaires. 59 Livre blanc sur le « Peer-to-Peer » 5.3 – Optimisation de l’identification et obstacles possibles Des stratégies optimisantes peuvent être envisagées pour rendre le système plus performant : - réduction de la base de hashes cibles aux contenus les plus fréquents ou les plus sensibles - couplage du téléchargement avec des outils de type « radar de l’internet » qui détecte les échanges illicites en se positionnant comme des clients peer-to-peer standard Plusieurs difficultés pourront se présenter à l’avenir, sachant que des solutions sont envisageables : - le cryptage des échanges : les protocoles d’échanges peuvent se protéger de l’interception de l’information en cryptant (avec négociation et authentification) les paquets décrivant les contenus à échanger. Ce point constituera probablement à l’avenir le plus important défi pour ces technologies. - la fragmentation des hashes protocolaires : au lieu de représenter un fichier par un hash, on peut représenter ce fichier sous forme de petits fragments pour chacun desquels un hash sera employé. - la sophistication des DHT qui peuvent complexifier l’interprétation des données qui transitent. Notons que, par contre, les méthodologies de surveillance P2P (telle que le « radar » évoqué plus haut) ne sont pas affectées par ces difficultés, car elles opèrent dans la position de l’utilisateur, qui dans tous les cas doit être en mesure de réceptionner et d’émettre des contenus. Notons également que la mise en œuvre des technologies de filtrage avancées nécessite impérativement la constitution d’une base de hashes. Cette base peut justement dans une première phase être constituée au moyen des radars mentionnés précédemment. Ces deux approches étant ainsi beaucoup plus complémentaires qu’orthogonales. 6 - Conclusion sur le filtrage des contenus protégés : portée universelle de la méthodologie au-delà du peer-to-peer et évolutions envisagées Les modes d’échanges numériques des contenus médias sont variés et se diversifieront encore 60 Livre blanc sur le « Peer-to-Peer » plus à l’avenir (UGC, P2P-UGC13). Les contenus protégés seront donc soumis à des échanges de plus en plus complexes et les solutions de DRM (Digital Rights Management) de première génération ne permettront pas de stopper ces échanges. Il sera nécessaire de déployer des mécanismes de reconnaissance des contenus. Ces mécanismes peuvent par exemple être liés à des environnements contrôlés qui permettent une monétisation des échanges. Les sites User Generated Content (UGC) en sont un exemple (YouTube, DailyMotion, MySpace, MetaCafé,…). Dans ces sites les internautes-utilisateurs mettent à disposition du contenu (vidéo et audio) qui est ensuite téléchargé par d’autres internautesutilisateurs. Ces contenus s’avèrent souvent soumis au droit d’auteur. Cependant le support de ces sites étant constitué par des serveurs contrôlés par des sociétés commerciales, il est possible d’agir sur le contenu partagé. Lorsqu’un utilisateur « poste » (publie, uploade) un contenu sur ces sites, une vérification au moyen d’une empreinte et d’une base de contenus de références peut être réalisée pour déterminer si le contenu posté est entièrement ou partiellement soumis au droit d’auteur. Précisons le sens du terme partiellement : il arrive par exemple qu’un internaute ait créé un contenu vidéo personnel à partir de films et de photos de vacances, puis qu’il décide d’en illustrer une partie au moyen d’une musique célèbre. Seule une partie du contenu sera alors soumise au droit d’auteur. Il est possible lors de la vérification de découvrir cette partie protégée. Ce qui permet d’interdire le contenu à la publication, ou bien de proposer à l’internaute de remplacer sa bande-son par une autre libre de droits (outil existant sur certains sites UGC actuels), ou encore, si le gestionnaire de droits correspondant le permet, d’autoriser la publication du contenu contre rémunération. Cette rémunération peut être soit un paiement forfaitaire d’un droit par celui qui publie, soit –ce qui est plus dans l’esprit du temps- un reversement de droits publicitaires proportionnés par l’éditeur du site UGC. On assiste alors à une transition de l’usage des outils de reconnaissance, qui d’un rôle de garde-barrière du net, deviennent progressivement des outils de comptabilité et de facturation de micro échanges monétaires (billing). Le filtrage dans les réseaux où la base est répartie L’approche web 2.0 / sites communautaires d’échanges / UGC est une des tendances lourdes du net : techniquement elle est confronté à un challenge majeur, celui de l’expansion sans fin des ressources centralisées nécessaires au bon fonctionnement des sites d’échanges. Or, il existe des solutions à ce problème, et ces solutions proviennent… du peer-to-peer. On voit ainsi apparaître des solutions hybrides (Zudeo ou Joost ou Babelgum) qui exploitent des supports logiciels peerto-peer pour remplacer une infrastructure logicielle d’hébergement traditionnelle. On est bien 13 P2P-UGC sont des sites de publications de contenus (vidéos principalement) qui fonctionne selon le principe des UGC, mais avec un logiciel Peer-to-Peer en support. Cf. Zudeo.com par exemple. 61 Livre blanc sur le « Peer-to-Peer » sur un site communautaire où les internautes postent (upload) leur contenu pour les mettre à la disposition de tous, ces contenus sont bien présents à tout instant comme sur les sites web, mais ces contenus sont majoritairement rendus disponibles aux internautes grâce aux autres internautes qui possèdent chacun un petit morceau de la grande base répartie entre eux. Cette solution permet une croissance sans faille du site, sans recourir à des moyens pharaoniques (à comparer à 1 500 serveurs pour MySpace au début 2007). En quoi peut consister une solution de filtrage de contenus sur de tels sites ? en un mécanisme directement inclus dans le logiciel client peer-to-peer, avec l’accord de l’éditeur du service. Là encore, un avantage majeur de cette stratégie est que la puissance nécessaire à la vérification du contenu prend place chez l’internaute et non chez l’éditeur du service. En conclusion, les technologies de reconnaissance de contenus permettent aujourd’hui d’identifier de manière robuste les contenus musicaux et audiovisuels. Les applications principales de ces technologies pour la protection des droits sont, dans l’immédiat les outils de surveillance et d’émissions de messages ou d’amendes (radars de l’internet), ainsi que les outils de filtrages volontaires des sites web UGC et bientôt, en combinaison avec des produits de telecom IP éprouvés et largement déployés, les outils de filtrage peer-to-peer des réseaux au niveau opérateur. Bibliographie résumée VIDEO [V1] [V2] [V3] [V4] [V5] M. Sonka, V.H., R. Boyle. , Image Processing, Analysis and Machine Vision. . Chapman &Hall Computing,. 1993. Eung Kwan Kang, S.J.K., Jong Soo Choi. Video retrieval based on key frame extraction in compressed domain. in ICIP 99 International Conference on Image Processing, 1999. Mukherjee D P, D.S.K., Saha S Key Frame Estimation in Video Using Randomness Measure of Feature Point Pattern. IEEE Transactions on Circuits and Systems for Video Technology, 2007. 17 (5): p. 612-620. Zhang, D.S., Image Retrieval Based On Shape., in the faculty of information technology 2002, Monash University. Kossentini, B.E.F., Retrieval by local motion. EURASIP Journal on applied signal processing, 2003. AUDIO [A1] S.R.Subramanya and A.Youssef "Wavelet Based Indexing of Audio Data in Audio /Multimedia Databases", Departement of Electrical and Computer Science,George Washington University,1998. [A2] Cheng Y., “Music Database Retrieval Based on Spectral Similarity”, International Symposium on Music Information Retrieval (ISMIR) 2001, Bloomington, USA, 62 Livre blanc sur le « Peer-to-Peer » October 2001. [A3] Haitsma J., Kalker T. and Oostveen J., “Robust Audio Hashing for Content Identification, Content Based Multimedia Indexing 2001, Brescia, Italy, September 2001. [A4] Oostveen J., Kalker T. and Haitsma J., “Feature Extraction and a Database Strategy for Video Fingerprinting”, 5th International Conference on Visual Information Systems, Taipei, Taiwan, March 2002. Published in: "Recent advances in Visual Information Systems", LNCS 2314, Springer, Berlin. pp. 117-128. [A5] Jaap Haitsma and Ton Kalker (Philips Research Eindhoven), A Highly Robust Audio Fingerprinting System, ISMIR 2002, 3rd International Conference on Music Information Retrieval, IRCAM – Centre Pompidou, Paris, France, October 13-17, 2002. [A6] K.D.Martin "Sound Source Recognition: a Theory Computational Model ", Phd Thesis in Electrical Engineering and Computer Science, MIT, June 1999. [A7] G.Tzanetakis "Manipulation, Analysis and Retrieval Systems for Audio Signals ", Phd Thesis, Princeton University, June 2002. [A8] Y.Wang, Z.Liu and J.C.Huang "Multimedia Content Analysis Using Both Audio and Visual Cues ", IEEE Signal Processing magazine, Nov 2000. [A9] S.Scheirer, M.Slaney "Construction and Evaluation of a Robust Multifeature Speech/Music Discriminator ", ICASSP, Munich Germany, Apr 1997. [A10] L.Lu, H.Jiang and J.C.Zhang "A Robust Audio Classification and Segmentation Method ", Microsoft Research China. [A11] M.S.Rossignol "Segmentation et Indexation des Signaux Sonores Musicaux", Thèse de Doctorat de L’université paris 6, Juillet 2000. 63 Livre blanc sur le « Peer-to-Peer » 64 Livre blanc sur le « Peer-to-Peer » Chapitre 4 L’économie de la propriété littéraire et artistique Anne-Gaëlle Geffroy 65 Livre blanc sur le « Peer-to-Peer » Le droit d’auteur et son équivalent anglo-saxon, le copyright, attribuent à leurs titulaires des droits exclusifs de reproduction, de distribution, de communication et de mise à disposition d’une œuvre littéraire et artistique, et ceci pour une durée limitée. Droits relatifs à l’expression, ils sont intimement liés à l’évolution des technologies qui modifient les possibilités d’expression (comme la photographie ou le cinéma) mais également de reproduction, de distribution et de protection. Né avec l’imprimerie, le droit d’auteur a connu de profonds remaniements du fait de l’arrivée des technologies de reproduction analogique domestiques et de diffusion hertzienne. Aujourd’hui, les nouvelles technologies de reproduction et de diffusion numériques lui commandent une nouvelle évolution. Si le copyright anglo-saxon relève avant tout d’une logique économique fondée sur les incitations, la construction du droit d’auteur en Europe occidentale a procédé d’une philosophie sensiblement différente. Attaché à la personnalité de l’auteur, le droit d’auteur s’applique moins naturellement aux différents investisseurs d’un projet créatif que le copyright et ajoute aux droits patrimoniaux des droits moraux, inaliénables et perpétuels, très développés 14 (droit de divulgation, droit à la paternité, droit au respect, droit de repentir). Les justifications des droits patrimoniaux de l’auteur eux-mêmes peuvent ne plus quitter le champ des incitations économiques pour se rapprocher de celui de l’éthique : permettre à l’auteur de jouir des fruits de son travail ou empêcher l’enrichissement injuste lié au contournement des droits (Becker 1993, Gordon 1993, Gordon & Bone, 1999). Cependant, et ceci notamment du fait de l’intégration européenne, le poids des principes économiques dans les législations sur le droit d’auteur augmente et les différences entre les logiques européenne et anglo-saxonne semblent s’atténuer peu à peu (Koelman, 2004). L’analyse économique des lois sur le droit d’auteur, discipline solidement établie aux Étatsunis, a une tradition beaucoup plus récente en Europe. Elle permet d’une part de décrire la rationalité économique des lois et décisions juridiques sur le droit d’auteur. Elle comporte également un volet normatif qui cherche à évaluer l’efficacité économique des mesures légales sur le marché des biens culturels en utilisant un critère de bien-être social (volume, qualité et diversité de la production culturelle, intensité de la diffusion des biens culturels). L’objet de ce chapitre est d’éclairer par cette analyse économique les débats entourant la mise en place des nouvelles réglementations sur le droit d’auteur dans l’univers numérique. Après avoir présenté les principes généraux de l’économie du droit d’auteur, il décrit les rapports complexes de ce droit avec la technologie. L’analyse de la rationalité économique des évolutions du droit d’auteur lors de la rupture provoquée par l’arrivée des technologies de 66 Livre blanc sur le « Peer-to-Peer » reproduction analogiques permettra ensuite de mettre en perspective ses évolutions actuelles dans l’univers numérique. Enfin, il cherchera à évaluer les différentes options réglementaires futures. 1. Les principes économiques de la propriété littéraire et artistique 1.1. L’arbitrage des lois sur le droit d’auteur entre incitations à la création et diffusion des biens culturels Les biens culturels, au même titre que les inventions techniques, sont des biens informationnels. Or l’information présente les deux caractéristiques principales qui définissent la catégorie économique de bien public (Arrow, 1962)15 : la non-rivalité et la non-excluabilité. La non-rivalité des biens culturels signifie que leur consommation par une personne supplémentaire ne diminue pas la quantité disponible pour les autres. Par exemple, un téléspectateur supplémentaire ne diminue pas la disponibilité d’une émission pour les autres. Cette non-rivalité tient au fait que leur production entraîne des coûts fixes élevés mais de faibles coûts variables. Les biens culturels sont également non-excluables en ce qu’il est difficile d’empêcher un individu de le consommer même s’il n’en paie pas le prix, même s’il se comporte en « passager clandestin ». L’excluabilité n’est pas, comme la rivalité, une caractéristique de la fonction de production mais une construction sociale, légale et technique. Par exemple, les routes sont non-rivales par nature, elles peuvent être ou non non-excluables selon que leur accès est restreint ou non par des péages. Si l’information est purement nonrivale et non-excluable, les biens culturels vont être, pour leur part, plus ou moins nonexcluables et non-rivaux selon l’état des technologies de reproduction, de transmission et de protection. Ces deux caractéristiques font que le marché des biens culturels est « défaillant» et que le bien être social, le bénéfice des consommateurs ajouté à celui des producteurs, ne sera pas maximal16. En effet, la non-excluabilité des biens culturels diminue le revenu espéré d’un projet 14 Les droits moraux ont longtemps été absents de la législation américaine sur le copyright. Ils y ont été ajoutés récemment et de manière beaucoup plus limitée. 15 Keneth J. Arrow (1962), « Economic Welfare and the Allocation of Ressources for Inventions », in Nelson, The Rate and Direction of Economic Activity : Economic ans Social Factors, Princeton University Press, Princeton 16 Pour une présentation générale et synthétique du problème voir François Lévêque et Yann Ménière (2003), Economie de la Propriété Intellectuelle, Editions La Découverte, Paris 67 Livre blanc sur le « Peer-to-Peer » créatif et par conséquent les incitations des entrepreneurs à s’y engager. Certaines œuvres ne seront pas produites du fait du manque à gagner anticipé par les créateurs. D’autre part, si des biens non-rivaux ne sont pas gratuits, les consommateurs seront inutilement rationnés : ceux dont le consentement à payer est inférieur au prix fixé seront exclus alors que leur consommation n’aurait rien coûté à personne. À nouveau, la richesse collective maximale n’est donc pas atteinte. Les contenus culturels sont l’objet d’un dilemme économique : à court terme, la libre diffusion des biens culturels est bénéfique pour la société car ces biens sont non rivaux mais, à plus long terme, leur production est remise en question si des mécanismes d’exclusion ne permettent pas d’inciter leurs créateurs. Afin de maximiser le bien-être social, les lois sur le droit d’auteur essaient de concilier deux objectifs contradictoires : le rétablissement des incitations à la production et la diffusion aux consommateurs. Pour cela, elles vont accorder un monopole d’exploitation aux titulaires de droits afin de rétablir l’excluabilité et les incitations à la création. Cependant, ces droits vont être limités à la fois dans leur durée, dans leur étendue et dans leur exclusivité. L’objet de l’analyse économique du droit d’auteur est de décrire et d’évaluer la définition du périmètre de ces droits selon un critère d’efficacité économique qui peut être défini comme la maximisation de la différence entre les bénéfices incitatifs du droit d’auteur et les coûts de la restriction de la diffusion culturelle augmentés de ceux de l’administration de sa protection. 1.2. Les bénéfices incitatifs du droit d’auteur 1.2.1 - Incitations de l’industrie culturelle par les droits d’auteur Pour qu’une nouvelle œuvre soit créée, le retour espéré de son exploitation doit être supérieur à son coût espéré17. La différence entre le prix de vente du bien culturel et son coût marginal de reproduction et de distribution doit couvrir les coûts fixes, en large partie irrécupérables, de production de l’œuvre. Elle doit également rémunérer la prise de risque liée à cette production. En effet, les biens culturels ont également la particularité de s’adresser à une demande imprévisible. Les marchés finaux de biens culturels sont parfois appelés « économie de casino », caractérisés selon Caves18 par la propriété du « nobody knows ». Aux coûts fixes de production, on peut ajouter les coûts fixes de promotion des biens culturels. En effet, en plus d’être des biens publics, les biens culturels sont également des biens 17 Ce paragraphe est structuré selon le premier modèle synthétique de l’économie du copyright développé par William Landes et Richard Posner (1989), « An Economic Analysis of Copyright Law », 18 Journal of Legal Studies, pp. r325-353 68 Livre blanc sur le « Peer-to-Peer » d’expérience dont la valeur n’est connue qu’après qu’ils aient été consommés. Dans les marchés caractérisés par ce phénomène d’ « anti-sélection », la théorie économique prévoit une qualité moyenne et un niveau de production global sous-optimal (Akerlof, 197019). Ce résultat a été forgé d’après l’observation du marché d’un autre bien d’expérience : celui des voitures d’occasion. Les revendeurs automobiles connaissent les défauts de leurs voitures, mais ne les divulguent pas aux acheteurs potentiels. Ignorant la qualité réelle, les acheteurs vont donc payer un prix moyen que la voiture soit en bon ou en mauvais état. Les vendeurs de voitures de qualité vont donc les retirer du marché : la qualité moyenne ainsi que la taille du marché diminue. S’il existe des mécanismes institutionnels pour résorber le risque de sous-production liés à l’antisélection sur les biens culturels (critiques artistiques, médias spécialisés, …), la promotion effectuée par les producteurs et les distributeurs permet également d’y remédier. Elle augmente également les revenus espérés des créateurs et par conséquent leurs incitations. En l’absence du monopole d’exploitation conféré par le droit d’auteur, le bien peut être commercialisé par des concurrents qui n’ont pas engagé de coûts fixes et qui ont pu observer le niveau réel de la demande. Sous l’effet de cette concurrence, le prix de marché se dirigera vers le coût marginal de reproduction. Les incitations sont alors souvent trop faibles pour que le bien soit produit à l’origine. Elles le sont d’autant plus, et le droit d’auteur est d’autant plus nécessaire à la création originale, que la part des coûts fixes dans le coût total est importante, que la différence de qualité entre l’original et la copie ne justifie pas une grande différence de tarif et que les utilisateurs sont trop nombreux pour que la limitation contractuelle des possibilités d’exploitation soit économiquement faisable20. En l’absence de droit exclusif d’exploitation, les producteurs de biens culturels ne pourront pas non plus développer des stratégies de tarification susceptibles d’augmenter leurs revenus espérés telles que le « versioning »21. Cette méthode de tarification extrêmement répandue consiste à offrir différentes qualités du même bien culturel à différents prix. Un livre sera ainsi d’abord mis sur le marché sous forme d’édition reliée puis sous la forme d’un livre de poche quelques mois plus tard. Les films sont, eux, exploités à travers la « chronologie des médias », la commercialisation des différentes versions 35mm, vidéo, télévision payante et télévision 18 Richard E. Caves (2000), Creative Industries, Contracts between art and commerce , Harvard University Press 19 Akerlof, George A. (1970), « The Market for Lemons: Quality Uncertainty and the Market Mechanism », Quarterly Journal of Economics, Vol. 90, No. 3, pp. 475-498 20 Un autre risque est de voir la production de contenus se diriger vers la recherche de succès rapides et éphémères afin de prendre de court les copieurs. Ce qui peut par exemple correspondre à des produits de type blockbusters de mauvaise qualité massivement exposés et promus au début de leur exploitation qui attirent un public nombreux avant que les informations objectives sur la qualité (critiques, bouche à oreille) ne soient disponibles et exploitées par les consommateurs. 69 Livre blanc sur le « Peer-to-Peer » gratuite, s’échelonnant par exclusivité temporelle et qualité décroissantes. Les distributeurs peuvent mieux s’adapter aux différents niveaux de consentement à payer de la population et augmenter leurs revenus espérés. 1.2.2 - Incitations des acteurs de la chaîne verticale par le droit d’auteur Les droits d’auteur exclusifs incitent également, au-delà de l’industrie prise comme un tout, les différents acteurs de la chaîne verticale. En effet, la production et la distribution de biens culturels impliquent la collaboration de nombreux types d’acteurs : auteurs, interprètes, producteurs et distributeurs. La cessibilité du droit d’auteur permet que les différentes tâches soient affectées de façon efficace entre les acteurs verticaux. Ainsi, les arrangements contractuels fondés sur l’exclusivité des droits d’auteur vont permettre de relever les incitations des différents acteurs via des mécanismes d’incitations à l’effort et de partage du risque. La question de la répartition du risque est notamment fondamentale pour le financement de cette « économie de casino ». Les contrats permis par la cessibilité du droit d’auteur exclusif permettent de partager efficacement le risque entre les acteurs selon leur capacité à le prendre en charge. Ainsi les contrats d’exploitation permettront aux auteurs ou aux interprètes, de surface financière généralement très limitée, de transférer la prise de risque financier vers des maillons de la chaîne verticale plus concentrés et donc plus à même de le diversifier dans de larges portefeuilles de projets. 1.3. Les coûts de la protection par le droit d’auteur et les limitations légales En regard des bénéfices, les lois sur le droit d’auteur vont considérer les coûts de la protection par le droit d’auteur pour déterminer le périmètre le plus efficace possible des droits exclusifs. Elles vont prendre en compte en premier lieu les coûts supportés par les consommateurs du fait de la restriction de la diffusion de biens non-rivaux. Elles vont également prendre en compte les coûts liés à la protection des droits d’auteur : les coûts de la surveillance et des poursuites légales mais également les coûts engagés par les titulaires de droits pour protéger techniquement leurs œuvres. Enfin, il faut y ajouter les coûts de recours à l’échange pour les parties ou coûts de transaction qui regroupent les coûts d’octroi de licences, de système de paiement, de recherche des ayants droit et de contrôle des utilisations. 21 Hal Varian (1997) 70 Livre blanc sur le « Peer-to-Peer » 1.3.1 - La limitation temporelle des droits d’auteur : un arbitrage incitations à la création/restriction de la diffusion Arbitrant entre les bénéfices et les coûts du droit d’auteur exclusif, les lois sur le droit limitent tout d’abord la durée du monopole d’exploitation conféré par le droit d’auteur. Pendant la période protégée, les revenus issus du monopole d’exploitation fournissent des incitations aux producteurs puis l’œuvre tombe dans le domaine public et les consommateurs peuvent y accéder gratuitement. Nous n’aborderons pas ici la question de la détermination de la durée optimale de la protection du droit d’auteur, qui, si elle a fait l’objet d’une vive controverse lors de l’extension de la durée de protection de 50 à 70 ans après la mort de l’auteur, est périphérique à l’adaptation des lois sur le droit d’auteur à l’univers numérique. 1.3.2 Les exceptions au droit d’auteur La seconde catégorie de limitations opérées par les lois sur le droit d’auteur concerne la définition d’usages dérogatoires à l’exclusivité. Pour ces usages spéciaux, l’autorisation des titulaires de droit n’est pas considérée comme obligatoire. Ils peuvent ou non donner lieu à des rémunérations compensatoires pour les ayants droit. Dans la plupart des lois sur le droit d’auteur, des exceptions sont prévues au moins dans les cas suivants : usage personnel, reportage d’actualité, critique, citation, usages éducatifs et archivage. La rationalité économique de ces exceptions est de ne pas considérer comme des infractions certaines utilisations qui « violent techniquement la loi sans pour autant violer son objectif profond » (Gordon, 1982). Une justification économique de la décision de rendre une utilisation exceptionnelle au droit d’auteur est que les coûts de recours à l’échange ou coûts de transaction excèdent la valeur des droits impliqués dans cet usage. Les avancées des technologies de gestion des droits (des paiements, de la redistribution aux ayants droit et du contrôle des utilisations) diminuent les coûts de transaction et vont donc avoir un impact sur le périmètre des exceptions. En réalité, la plupart des exceptions concernent des utilisations qui, en plus de présenter des coûts de transaction élevés, ont une valeur de marché très faible et une rentabilité sociale élevée. C’est le cas, par exemple, des exceptions pour usages éducatifs, citation ou reportage d’actualité. En revanche, le périmètre de l’exception pour usage personnel est au centre des controverses. Les coûts de transaction sur ces copies privées sont-ils prohibitifs ? Quel est leur impact réel sur les revenus des ayants droits et les dommages sur les incitations à la création ? La question de l’exception pour copie privée est apparue avec les technologies analogiques de reproduction domestiques. Nous décrirons dans la partie suivante la logique des décisions 71 Livre blanc sur le « Peer-to-Peer » américaines et européennes à ce sujet. Nous verrons ensuite comment cette logique est affectée par l’arrivée des technologies numériques. 2. Le droit d’auteur face aux nouvelles technologies de reproduction et de transmission des biens culturels Les nouvelles technologies de reproduction et de transmission des biens culturels permettent de nouveaux types d’utilisations personnelles et commerciales. La réglementation peut choisir de faire respecter les droits exclusifs ou de les rendre exceptionnels. Si elle souhaite faire respecter les droits d’auteur exclusifs, elle peut sanctionner les pratiques individuelles. Elle peut également sanctionner les technologies en interdisant leur commerce ou en imposant des réparations aux titulaires de droits les rendant non profitables dans le cas où le contournement des droits est leur principale source de revenus. Elle peut enfin imposer aux fournisseurs des technologies permettant ces usages des mesures garantissant qu’ils seront bridés ou les y inciter en les obligeant à payer des réparations aux titulaires. Si elle considère que les usages sont exceptionnels, la réglementation doit évaluer les dommages subis par les créateurs et la pertinence de la mise en place des systèmes de compensation permettant d’accorder des droits à rémunération. Quelles sont les conséquences de ces choix sur les incitations et le niveau de création culturelle? Lorsque les droits d’auteur sont restreints sans compensation, les producteurs de biens culturels perdent tout simplement les revenus issus de la commercialisation de ces usages. La différence entre l’application de droits exclusifs et de droits à rémunération se situe, quant à elle, dans l’institution de fixation de la valeur (Towse, 2001). Dans le cas de droits exclusifs, la valeur d’un bien culturel est établie à travers le processus de marché. Dans le cas de droits à rémunération, c’est un processus administratif qui fixe des taux de manière approximative. Le tableau ci-dessous illustre la difficulté de fixer administrativement une compensation appropriée aux bénéfices manqués des titulaires de droit à travers la grande disparité des montants de la taxe pour copie privée appliquée aux baladeurs numériques à disque dur dans différents pays européens. 72 Livre blanc sur le « Peer-to-Peer » Retail prices and PCR ( private copying remuneration) charges applicable to different CE ( consumer electronic) products in 2006 CD-R DVD-R iPod Nano© DVD Hard-disk 2Gb recorder (or closest (250GB) equivalent) Price PCR Price PCR Price PCR Price PCR Austria €0.69 €0.26 €0.99 €0.54 €199.00 €3.00 €599.00 €9.20 Belgium €0.49 €0.12 €1.31 €0.59 €155.00 - €475.00 1.50% Finland €0.80 €0.20 €2.10 €0.60 €225.00 €1.71 n/a €15.00 France €1.03 €0.35 €2.50 €1.10 €225.00 €8.00 €725.00 €35.00 Germany €0.27 €0.03 €0.75 €0.17 €149.00 €2.56 €317.00 €18.42 Netherlands €0.70 €0.14 €1.01 €0.60 €160.00 - €397.00 - Spain €0.53 €0.21 €1.56 €0.60 €149.00 €0.60 €467.50 €6.61 Le revenu global de la filière ainsi que sa répartition entre les différents acteurs de la filière vont être fixés par des taux en partie arbitraires. Ainsi, non seulement les incitations de la filière globale peuvent être amoindries ou distordues (l’application d’une règle de rémunération sur une technologie de distribution et d’une règle de propriété sur une autre va par exemple biaiser les prix relatifs) mais le partage des revenus entre acteurs verticaux ne sera plus un instrument d’optimisation du partage du risque et des incitations à l’effort dont les bénéfices ont été décrits plus haut. De plus, les stratégies de versioning organisant la mise en marché selon l’exclusivité temporelle et la complémentarité des différents canaux de distribution sont rendues impossibles. 2.1. Les évolutions analogiques des lois sur le droit d’auteur Dans les années 50 sont commercialisées les premières photocopieuses, les années 60 voient, quant à elles, arriver sur le marché les premiers magnétophones qui seront suivis par les premiers magnétoscopes dans les années 70. L’arrivée de ces technologies de reproduction domestique et leur adoption rapide par les consommateurs a suscité l’inquiétude des producteurs 73 Livre blanc sur le « Peer-to-Peer » de biens culturels et la réglementation sur le droit d’auteur a dû faire face à de nouvelles questions. Quel impact avaient ces nouveaux actes de copies privées domestiques, auparavant acceptés par tous, sur les revenus des producteurs et les incitations à création ? Constituaient-ils ainsi que la fourniture de technologies les permettant des infractions aux droits d’auteur ? Ces questions ont donné lieu à différentes réponses réglementaires aux États-unis et en Europe. 2.1.1 - Coûts et bénéfices des droits exclusifs sur les nouveaux usages Procéder à des transactions pour chaque enregistrement sonore, vidéo ou pour chaque photocopie était technologiquement trop coûteux par rapport à la valeur de ces copies pour rendre praticable le recours au marché. Le choix réglementaire devait donc se faire entre l’interdiction de ces copies ou une exemption du régime du droit d’auteur exclusif donnant ou non lieu à un système de compensation pour les créateurs. L’application de sanctions aux copieurs individuels était difficilement praticable, le grand nombre de contrevenants rendant les coûts d’une surveillance « analogique » prohibitifs et supposant des intrusions dans la vie privée injustifiables (d’entrer littéralement dans les domiciles). Une autre possibilité était de prendre en compte la responsabilité des fournisseurs de technologies. Interdire ces technologies de reproduction permettant à la fois des usages légaux et illégaux, restreignait la diffusion culturelle pour les consommateurs et freinait l’innovation. Mais cette interdiction pouvait également entraîner une perte de revenus pour les producteurs si les bénéfices tirés des utilisations légales étaient supérieurs au manque à gagner représenté par les utilisations illégales. Cependant, une possibilité moins coûteuse subsistait : celle d’imposer aux fournisseurs la mise en place de procédés techniques empêchant uniquement les utilisations illégales ou de les y inciter par un système de dommage. Afin de décider de l’attitude adéquate, les autorités réglementaires devaient mettre ces coûts d’application des droits exclusifs en regard des dommages subis par les créateurs. De façon intuitive, les copies privées diminuent les revenus des producteurs en fournissant un substitut gratuit. Cependant, certains effets potentiellement positifs des usages illégaux sur le revenu des ayants droits ont été mis en avant. L’arrivée des technologies de reproduction domestique analogiques a renouvelé la réflexion sur l’économie de la copie et des travaux ont mis en évidence certains mécanismes susceptibles d’agir de façon positive sur le revenu des producteurs et de compenser cet effet de substitution. Il s’agit principalement des effets d’exposition ou effets de sampling et de la possibilité d’appropriabilité indirecte. Cependant ces mécanismes théoriques sont dépendants d’hypothèses très restrictives, Stanley Liebowitz, un des pionniers de ces recherches, a 74 Livre blanc sur le « Peer-to-Peer » récemment dénoncé leur utilisation abusive dans les controverses actuelles sur l’impact du peerto-peer (Liebowitz, 2005). Par effet d’exposition ou effet sampling, les copies non autorisées analogiques pouvaient, dans certains cas, augmenter les revenus des producteurs. Les copies non autorisées donnent en effet une information supplémentaire sur le bien culturel et peuvent inciter le consommateur à l’acheter légalement. Elles permettent de lutter contre l’effet d’anti-sélection que nous avions évoqué plus haut dans les marchés de biens d’expérience. En diminuant le risque d’erreur du consommateur, elles augmenteraient son consentement à payer. Pour que cet effet fonctionne, il est cependant nécessaire que l’original soit d’une qualité supérieure à la copie non autorisée : qualité de l’enregistrement, extrait/durée complète. Cette condition n’est plus vérifiée dans l’univers numérique où copies et originaux se confondent. L’appropriabilité indirecte est un mécanisme économique mis en évidence par Stanley Liebowitz en 1985 lors d’une étude sur les impacts de la photocopie. Son principe est que la valeur des copies autorisées augmente avec la possibilité de copies et que cette valeur additionnelle peut, dans certaines circonstances, être répercutée sur le prix de vente des copies autorisées. Le vendeur s’approprie alors indirectement la valeur des copies non autorisées et leur effet sur ses revenus est nul. Il peut même être positif si les technologies de partage sont moins coûteuses que les technologies de distribution. Liebowitz rappelle que ce mécanisme, s’il fonctionne dans le cas des photocopies de journaux, est en fait extrêmement rare (Liebowitz, 2005) ; il est soumis à l’existence de l’une ou l’autre des conditions restrictives suivantes : - Que les consommateurs ne valorisent pas les possibilités de copies additionnelles. Ainsi le producteur peut augmenter son prix de façon uniforme. - À défaut, qu’il soit possible de discriminer par les prix les acheteurs qui copient de ceux qui ne copient pas. Le vendeur peut alors fixer un prix haut pour les copieurs. Cette condition était respectée dans le cadre de la première étude de Liebowitz sur l’impact de la photocopie : les éditeurs peuvent tarifer un prix plus haut aux bibliothèques, lieux où les journaux sont le plus susceptibles d’être photocopiés. Ces effets positifs des copies analogiques ont été la base de l’argumentation des fournisseurs de technologies en faveur de la dégradation des droits exclusifs. 75 Livre blanc sur le « Peer-to-Peer » 2.1.2 - Les réactions réglementaires européennes et américaines 2.1.2.1 - La décision Betamax de la Cour Suprême Américaine22 Aux États-unis, la question de la responsabilité des fournisseurs d’appareils de copie domestique a été jugée et écartée dans la célèbre décision Betamax de 1984. Dans cette affaire, les studios Universal et Walt Disney accusaient Sony d’enfreindre leurs droits de propriété exclusifs. Ils soutenaient que l’ad-skipping (avance rapide des publicités) permis par les magnétoscopes mettait en danger leurs revenus télévisuels. Au cours des cinq années de procès, ils ont demandé tour à tour l’interdiction de la vente de magnétoscopes, l’imposition de mesures techniques de blocage de la fonction d’enregistrement et l’octroi d’un droit à rémunération adossé sur une taxe sur les magnétoscopes et les cassettes vierges. La Cour Suprême, à l’issue d’un vote serré, a choisi Sony comme « gagnant ». Elle a tout d’abord considéré que l’enregistrement de programmes télévisés pour un visionnage ultérieur (time shifting) avait un impact négligeable sur les revenus des titulaires de droit et relevait des exceptions au droit d’auteur. Elle a ensuite statué sur la responsabilité indirecte des fabricants de magnétoscopes pour l’ad-skiping. Elle a rejeté la responsabilité indirecte considérant d’une part, que les fabricants ne pouvaient pas contrôler le comportement de leurs consommateurs et, d’autre part, que les magnétoscopes présentaient de substantielles fonctionnalités légales (time shifting)23. La Cour Suprême a considéré que l’ad-skipping ne diminuait pas significativement les revenus et s’est focalisée sur le fait que le time shifting pouvait les augmenter (Landes et Litchman, 2003). Que disent les arguments théoriques sur l’impact positif du time shifting ? L’appropriabilité indirecte supposerait que les producteurs de programmes audiovisuels puissent tarifier plus cher aux chaînes de télévision et donc que l’audience augmenterait ou que certains consommateurs visionnent volontairement les publicités (l’hypothèse d’ad-loving consumers est parfois avancée mais est difficile à généraliser). Les effets de sampling peuvent potentiellement fonctionner pour des programmes récurrents comme les séries mais peu pour les films, rarement regardés plusieurs fois. 2.1.2.2 - L’apparition des rémunérations pour copie privée en Europe En Europe, c’est la logique des droits à rémunération qui a été uniformément appliquée à toutes les technologies de reproduction domestiques. La règle de propriété n’a pas été 22 De nombreuses informations utilisées dans ce paragraphe sur les débats juridiques et notamment sur les communications entre les juges de la Cour Suprême proviennent de la synthèse effectuée par Jessica Litman en 2005, "The Sony Paradox", Case Western Reserve Law Review 23 La cour d’Appel qui avait précédemment jugé Sony responsable considérait elle que l’enregistrement était une infraction au copyright et distinguait les magnétoscopes des photocopieurs qui permettaient eux des usages légaux. 76 Livre blanc sur le « Peer-to-Peer » appliquée dans la mesure où le commerce des appareils de production a été autorisé librement et où l’enregistrement pour usage personnel est entré dans la liste des exceptions au droit d’auteur initiant la nouvelle catégorie d’exception pour copie privée24. Cependant, parallèlement à ces exceptions, ont été créées des rémunérations sur les produits permettant le contournement des droits d’auteur25. Introduites pour la première fois en 1966 en Allemagne sur les appareils d’enregistrement domestiques, ces rémunérations dédommagent les ayant droits du manque à gagner entraîné par les copies privées non sollicitées. Elles ont été ensuite adoptées par de nombreux pays européens et leur assiette s’est élargie aux supports d’enregistrement, s’adaptant au fur et à mesure des évolutions technologiques (VHS, CDR, DVDR, disques durs, mémoires portables…). Leur montant et la part revenant à chaque ayant droit (auteurs, artistes interprètes, producteurs)26 est fixé administrativement. Leur collecte et leur redistribution sont assurées par des sociétés de gestion collective. À la différence des États-unis, le préjudice subi par les titulaires de droit a été donc reconnu et n’a pas été considéré comme compensé par les revenus issus des nouvelles utilisations légales. Si l’interdiction du commerce de magnétoscopes était difficilement envisageable, on peut se demander pourquoi ni les autorités américaines ni les autorités européennes n’ont tenté d’imposer aux fabricants de magnétoscopes des mesures permettant de brider les fonctions d’ad-skipping. Elles auraient par exemple pu imposer de rendre le bouton d’avance rapide moins précis pour diminuer la facilité d’avance rapide des publicités (Landes et Litchman, 2003). La volonté de favoriser l’innovation technologique, et ce même aux dépens des incitations à la création culturelle, a pu peser dans ces décisions. 2.2. Le droit d’auteur face aux technologies numériques Les technologies numériques de reproduction et de transmission des biens culturels sont une nouvelle révolution à laquelle doivent faire face les législations sur le droit d’auteur. Si les effets négatifs de l’utilisation illégale du peer-to-peer sur les revenus des créateurs sont difficilement contestables, de nouvelles technologies de gestion des transactions et de contrôle sont également apparues. 2.2.1 - Les effets du peer-to-peer sur les revenus des industries culturelles Les technologies numériques ont rendu les biens culturels réellement non-rivaux en annulant pratiquement le coût marginal de reproduction et de transmission des fichiers. 24 L’exception pour copie privée a par exemple été incluse dans la loi française en 1957 Pour une analyse approfondie des rémunérations pour copie privée en Europe, on peut se référer à Bernt Hugenholtz et alii, « The Future of Levies in a Digital Environment», 2003. 25 77 Livre blanc sur le « Peer-to-Peer » De plus, en désolidarisant le bien culturel de son support physique (livre, cassette, disque), la numérisation fait disparaître un puissant mécanisme d’exclusion technique. Les technologies numériques domestiques permettent aux individus de réaliser des copies parfaites, sans perte de qualité, et de les partager avec de larges communautés sur les réseaux d’échange peer-to-peer. Des fichiers d’œuvres protégées par le droit d’auteur sont massivement échangés sur les réseaux peer-to-peer. L’institut GfK a par exemple évalué le nombre de fichiers téléchargés illégalement sur Internet en France pour l’année 2005. Un milliard de fichiers musicaux ont ainsi été téléchargés, soit environ l’équivalent des ventes physiques de titres27, dont seulement 20 millions sur les plateformes de téléchargement légales. Quant aux films, 120 millions de fichiers ont été téléchargés soit environ l’équivalent des ventes de DVD en France en 2005. On constate également, après une période de forte hausse, une baisse des revenus de l’industrie musicale française de presque 50 % depuis 2002. Il est difficile de nier l’impact négatif du partage illégal sur peer-to-peer. Les effets positifs ou neutres attribués aux copies sont invalides dans le monde numérique. L’effet sampling se réduit avec la différence de qualité entre les biens légaux et les biens illégaux disponibles sur peer-topeer. Ne pas graver un fichier illégalement téléchargé et l’acheter en magasin ou l’ignorer et le télécharger à nouveau sur une plateforme légale ressemble à un « acte de foi ». Certaines études avancent cependant que les téléchargeurs « éthiques » représentent une part non négligeable des utilisateurs des réseaux peer-to-peer. Mais, l’effet sampling, même dans les rares cas où il fonctionne, est ambigu (Liebowitz, 2002). En effet, il n’est pas certain que si l’internaute n’achète que ce qu’il aime, il achètera autant. L’appropriabilité indirecte, quant à elle, ne peut plus fonctionner dans la mesure où l’original ne se différencie plus de la copie et où un seul fichier, par propagation virale, peut suffire à alimenter les différents réseaux. L’effet de substitution se renforce avec cette uniformisation de la qualité. De plus, les réseaux peer-to-peer bouleversent, dans le cas des vidéos, le versioning réalisé par la chronologie des médias. Dès leur sortie en DVD et parfois même avant, les films sont disponibles en qualité équivalente sur les réseaux peer-to-peer ce qui met particulièrement à mal les fenêtres d’exploitation ultérieures : DVD, pay-per-view, télévision payante et gratuite mais également les services de téléchargement légaux de vidéos dont la fenêtre d’exploitation suit celle du DVD. 26 En France, la copie privée sonore est répartie entre auteurs, artistes-interprètes et producteurs selon la clé 1/2,1/4, 1/4 et selon la clé 1/3, 1/3, 1/3 pour la copie privée audiovisuelle 78 Livre blanc sur le « Peer-to-Peer » 2.2.2 - DRM et baisse des coûts d’application des droits exclusifs Si les dommages du peer-to-peer sur les revenus et les incitations des producteurs n’ont pas de commune mesure avec ceux des technologies de reproduction analogiques, les technologies numériques permettent également d’abaisser fortement les coûts de la protection des droits exclusifs et les coûts de transaction. Sur les réseaux numériques, la surveillance légale des infractions individuelles au droit d’auteur est beaucoup moins coûteuse et beaucoup plus praticable que pour les copies analogiques. Cependant, le nombre de contrevenants rend les coûts de poursuite élevés et suppose donc soit des sanctions assez sévères pour être dissuasives soit un système automatisé d’amendes. Sont également apparues avec la numérisation des technologies privées numériques de protection des droits d’auteur. Les DRM (Digital Rights Management systems) sont des systèmes logiciels qui permettent de contrôler les utilisations et de limiter les copies et les possibilités de transmission d’un fichier. Ils permettent également de versionner de façon très fine les caractéristiques d’utilisation des biens culturels. En dotant un fichier numérique d’un système DRM, il est possible de contrôler son accès par un consommateur mais également le nombre de fois où il peut le lire, l’écouter ou le regarder, le nombre de copies qu’il peut effectuer, le nombre de transferts vers d’autres appareils ou encore le temps pendant lequel il en a la jouissance. Les DRM diminuent également les coûts des transactions en permettant une gestion très peu coûteuse de l’octroi de licences d’utilisation, du paiement et de la redistribution aux ayants droit. La dégradation de droits exclusifs en droits à rémunération devient donc moins nécessaire du fait de leur existence. 2.2.3 - Les lois sur le droit d’auteur dans l’environnement numérique et la protection légale des DRM Les premières adaptations légales du droit d’auteur à l’univers numérique ont été mises en place par deux traités internationaux ratifiés sous l’égide de l’OMPI en 199628. ÉtatsUnis et Europe ont respectivement transposé leurs principes dans le DMCA29 et la Directive Européenne dite EUCD. Leur innovation majeure est la protection légale des mesures techniques de protection (MTP). Elles condamnent le contournement des mesures techniques de protection et le commerce de dispositifs, produits ou services visant à les 27 Selon l’IFPI, les ventes physiques de disques en France en 2005 se sont élevées à 24,7 millions de singles et 83 millions d’albums. 28 Traités de l'Organisation Mondiale de la Propriété Intellectuelle sur le droit d'auteur (WCT) et sur les interprétations et exécutions et les phonogrammes r(WPPT) 29 Digital Millenium Copyright Act, 1998 79 Livre blanc sur le « Peer-to-Peer » contourner. Mais cette solution de protection privée des droits exclusifs n’est pas suffisamment opérante car les DRM tardent à se déployer. Ils doivent être adoptés par l’ensemble de la chaîne verticale de distribution des biens culturels : par les producteurs, les distributeurs et les équipementiers. Or les fournisseurs de logiciels et d’équipements informatiques et électroniques profitent du piratage des biens culturels dont la valeur augmente celle de leurs produits. Ils ont peu intérêt à mettre en place des DRM efficaces. De plus, la grande compatibilité entre équipements et logiciels permise par les formats libres rend l’incompatibilité des DRM peu coûteuse. Aujourd’hui, par exemple, les filières de distribution de contenus d’Apple et de Sony composées de sites de vente de contenus en ligne, de logiciels de lecture médias et d’équipements de lecture sont entièrement exclusives grâce à l’incompatibilité de leur technologie DRM. Ces incompatibilités freinent le développement des plateformes de téléchargement légal. Elles confortent les DRM dans leur image de verrous et peuvent inciter les consommateurs à les contourner ou à se tourner vers les offres illégales largement compatibles30. 2.2.4 - Les autres options réglementaires 2.2.4.1 - La tentation de l’extension du droit à rémunération sur Internet : les propositions de licence globale Des propositions de licence globale qui dégraderaient les droits exclusifs en droits à rémunération sur Internet proposent de rendre légaux les échanges de fichiers sur Internet et de dédommager les titulaires de droits par la taxation des abonnements. Ces propositions émanant d’économistes, d’associations de consommateurs ou de sociétés de gestion collective d’artistes, ont fait débat en France, lors de la transposition de l’EUCD. Leur grand avantage est de procurer rapidement aux ayants droit des revenus. Mais elles mettent en danger les incitations à plus long terme. Il reviendrait à un processus administratif la tâche de fixer de façon adéquate la rémunération globale de la filière et le partage des revenus entre les différents ayants droit. Il y a un grand risque que le montant global soit sous-évalué et ne réduise les incitations à créer. Un dommage certain est que les acteurs verticaux ne pourront plus se coordonner librement et optimiser l’allocation des risques et des tâches entre eux. Ces désavantages généraux des systèmes de droit à rémunération sont plus grands dans la mesure où Internet pourrait devenir le canal principal de distribution des 30 Pour une analyse complète de ces mécanismes voir O. Bomsel, A.G. Geffroy et Gilles le Blanc (2006), Modem le Maudit, Économie de la distribution numérique des contenus, Presses de l’École des Mines de paris 80 Livre blanc sur le « Peer-to-Peer » biens culturels. La fixation des taux ne pourra alors plus se fonder sur un canal de distribution et des règles de répartition verticales de référence. De plus, la licence globale taxe injustement les internautes les moins consommateurs de biens culturels et pourrait restreindre l’accès des populations les moins aisées en augmentant le prix des abonnements. De plus, son application unilatérale nécessiterait que les autres pays acceptent également que leurs biens culturels nationaux soient soumis à une dégradation des droits d’auteur sur le territoire concerné. Il serait également nécessaire de circonscrire les accès aux seuls résidents nationaux. 2.2.4.2 - Les mesures d’application des droits exclusifs Afin d’appliquer les droits exclusifs, la réglementation peut encourager le déploiement des DRM, en favorisant notamment leur interopérabilité, mais elle doit également lutter contre les échanges illégaux sur les réseaux peer-to-peer. Elle peut le faire en engageant la responsabilité des individus et celle des intermédiaires techniques. Les poursuites légales des internautes contrevenants sont une voie de rétablissement de la règle de propriété. La question de la fixation du niveau de la sanction est délicate, le grand nombre des utilisateurs élevant le coût des poursuites. Afin d’éviter de devoir fixer des peines trop lourdes difficilement acceptables et applicables pour les tribunaux, un système de contrôle et de sanctions peu coûteux où la probabilité de détection de l’infraction serait élevée doit être mis en place. Les facilités technologiques de surveillance des réseaux peer-to-peer et la mise en place de sanctions automatiques pourraient permettre cette amélioration. Le gouvernement français a ainsi voulu mettre en place un système de réduction du niveau des sanctions substituant aux lourdes peines encourues et poursuites pour contrefaçon des amendes progressives et plus modestes. Cependant, cette mesure a été censurée par le Conseil Constitutionnel pour motif d’inégalité devant la loi. L’allègement des sanctions ne concernait pas des pratiques d’échange par d’autres moyens que les réseaux peer-to-peer comme les messageries. Un moyen complémentaire de faire respecter les droits exclusifs est d’engager la responsabilité des intermédiaires techniques. Les premiers fournisseurs de technologie à encourir des poursuites pour responsabilité indirecte sont les fournisseurs de logiciels peer-topeer. On recense à ce jour trois types de technologies peer-to-peer : des systèmes d’échanges centralisés de fichiers comme l’original Napster, des systèmes totalement décentralisés, et des systèmes hybrides, sans serveurs centraux, mais où des pairs agissent localement comme de 81 Livre blanc sur le « Peer-to-Peer » « mini Napsters » tels Grokster ou Kazaa31. En 2001 et 2003, les tribunaux américains ont considéré que les deux systèmes d’échanges Napster et Aimster, étaient coupables d’infractions au copyright puisqu’ils avaient matériellement contribué au contournement des droits exclusifs. En Europe, la dernière décision prise en 2002 à l’encontre des logiciels peer-to-peer hybrides n’a pas retenu leur responsabilité juridique. Dans l’affaire BUMA/Kazaa, la Cour d’appel d’Amsterdam a considéré que les logiciels de Kazaa n’étaient pas utilisés à des fins exclusives de contournement du droit d’auteur. Saisie en appel, la Cour de Cassation des Pays-Bas a confirmé cette décision. Aux États-unis, dans l’affaire MGM/Grokster, la Cour d’appel fédérale, s’appuyant sur la jurisprudence Sony-Betamax, n’a d’abord pas relevé de complicité à l’encontre des logiciels peer-to-peer décentralisés pour les infractions commises par leurs utilisateurs. Elle a mis en avant les usages non répréhensibles du peer-to-peer, comme l’échange de données privées ou libres de droits, ainsi que l’impossibilité pour les éditeurs de juguler les infractions des utilisateurs. Mais en juin 2005, la Cour Suprême a jugé en appel et à l’unanimité, que les éditeurs de peer-to-peer pouvaient être tenus responsables des violations du droit d’auteur commises par les utilisateurs s’ils les encourageaient activement. Trois critères de responsabilité ont été retenus : la promotion et la publicité des usages illégaux, l’absence de mise en place de technologie visant à empêcher ces usages, et un rôle explicite de ces usages dans le modèle d’affaires de l’entreprise. Cette décision historique a entraîné la fermeture de Grokster. Elle restreint le champ d’application de la décision Betamax, qui ne peut être invoquée en cas d’encouragement volontaire d’usages indirects illicites. Il existe cependant une limite importante à l’effectivité des sanctions contre les fournisseurs de logiciels peer-to-peer. En effet, la majorité d’entre eux se localisent dans des pays laxistes. Mais d’autres intermédiaires techniques pourraient eux aussi être impliqués dans la lutte contre les réseaux d’échange illégaux de biens culturels. Les fournisseurs d’accès à Internet pourraient être incités, par des amendes ou des subventions, à mettre en place des systèmes, techniques ou organisationnels, visant à réduire les échanges illégaux de biens culturels. 3 - Conclusion Si les technologies peer-to-peer sont incontestablement des technologies mixtes, permettant, audelà du piratage de biens culturels, des utilisations légales et prometteuses pour la croissance des revenus et le dynamisme des industries culturelles, leur fonctionnement actuel met en 31 Voir le chapitre 1 82 Livre blanc sur le « Peer-to-Peer » danger la création artistique. La gratuité des biens culturels piratés sur les réseaux peer-to-peer profite aujourd’hui aux consommateurs et aux vendeurs d’équipements, de logiciels et d’accès à Internet. Mais elle fait peser une menace sur le volume et la qualité de la production de bien culturels de demain et par conséquent sur les bénéfices de tous. Bibliographie Einhorn, Michael A. (2001), « Copyright, Prevention, and Rational Governance: File-Sharing and Napster », Columbia Journal of Law & the Arts Gordon, Wendy (1982), « Fair Use as Market Failure : A Structural and Economic Analysis of the Betamax Case and Its Predecessors », Columbia Law Review, (82), pp. 1600-1657 Gordon Wendy J. et Robert G. Bone, « Copyright » dans B. Bouckaert et G. De Gest (2000), Encyclopedia of Law and Economics, Volume II. Civil Law and Economics, Cheltenham : Edward Elgar, pp. 189-215 Klein, Benjamin, Lerner, Andres V. et Murphy, Kevin M. (2002), « The Economics of Copyright « Fair Use » in a Networked World », American Economic Review, 92 (2), pp. 205-208 Koelman Kamiel J. (2004), « Copyright Law & Economics in the EU Copyright Directive : Is the Droit d’Auteur Passé ? International Review of Intellectual Property and Competition Law No. 6/2004, pp. 603-638 Landes William M. and Richard A. Posner (1989), « An Economic Analysis of Copyright Law », 18 Journal of Legal Studies, pp. r325-353 Landes, William M. et Douglas Lichtman (2003), « Indirect Liability for Copyright Infringement: r an Economic Perspective », Harvard Journal of Law & Technology , Vol. 16, No. 2 Lévêque, François et Yann Ménière (2003), Economie de la Propriété Intellectuelle, Editions La Découverte, Paris Liebowitz, S. J. [1985], “Copying and Indirect Appropriability: Photocopying of Journals”, Journal of Political Economy, 93, pp. 945-957 Liebowitz, Stan J. (1985), « The Economics of Betamax: Unauthorized Copying of Advertising Based Television Broadcasts. » Liebowitz, Stan J. (2005), « Economists’ topsy-tursy view of piracy », Review of Economic Research on Copyright Issues, Vol. 2(1), pp. 5-17 Litman, Jessica (2005), “The Sony Paradox”, Case Western Reserve Law Review Varian Hal R. (1997), « Versioning Information Goods » dans Brian Kahin et Hal R. Varian (2000), Internet Publishing and Beyond. MIT Press 83 Livre blanc sur le « Peer-to-Peer » 84 Livre blanc sur le « Peer-to-Peer » Chapitre 5 A qui sert le « peer to peer » aujourd’hui32 Olivier Bomsel 32 Tiré de l’ouvrage « Gratuit », du même auteur, publié chez Folio (Editions Gallimard) 85 Livre blanc sur le « Peer-to-Peer » 1. Introduction : le téléchargement de films et fichiers musicaux en forte croissance33 L’échange de fichiers sur Internet par des logiciels dits de peer-to-peer, en français de pair-àpair, a pris, à partir de 2002, une ampleur considérable. En 2003, on considère que, dans le monde, se sont échangés plus de 150 milliards de fichiers musicaux34 via les réseaux « peer-to-peer ». Ces chiffres sont depuis en augmentation constante. Les échanges concernent principalement des fichiers audiovisuels correspondant à des œuvres sous copyright et constituent, de la sorte, un contournement systématique et massif des règles de propriété intellectuelle. Le phénomène a d’abord concerné les fichiers musicaux avant de s’étendre, grâce à de nouveaux logiciels, à l’échange de films et de programmes de télévision. Les protestations vigoureuses des ayants droit, notamment des majors de l’industrie du disque poursuivant pénalement les internautes suspects de contrefaçon, ont lancé, partout dans le monde, des débats sur la légitimité de ces systèmes d’échange. 12,00% 6 10,00% 5 8,00% 4 6,00% 3 4,00% 2 2,00% 1 0,00% -2,00% 0 1999 -4,00% 2000 2001 2002 2003* -1 Millions d'utilisateurs connectˇs aux rˇseaux de P2P chaque Taux de dˇcroissance Figure 1- Décroissance du marché mondial du disque et nombre d’utilisateurs du P2P Taux de dˇcroissance annuel du marchˇ mondial du disque Nombre d'utilisateurs P2P (en millions) chaque instant. -2 Sources : IFPI / RedShift / IDATE 33 Ce texte est extrait de « Gratuit ! », ouvrage sur le déploiement de l’économie numérique paru chez Folio en 2007. Sa publication a fait l’objet d’une autorisation des éditions Gallimard. 34 L’Idate estime qu’en 2003, près de 150 milliards de fichiers musicaux (contre 50 milliards vendus sur support physique), un milliard de films en DVD et 550 millions d’images ont été échangés sur les réseaux P2P. Cette étude fait l’hypothèse de 5 millions d’utilisateurs présents sur les différents systèmes P2P à chaque instant. Ce chiffre est loin de représenter le nombre total d’utilisateurs P2P, qui ne se connectent pas tous en continu. 86 Livre blanc sur le « Peer-to-Peer » 1.1 – Les effets de réseau dans l’économie numérique Cette affaire est très révélatrice des mécanismes de l’économie numérique et de la manière dont ceux-ci rencontrent les représentations sociales. Au plan économique, elle fait apparaître la violence des conflits d’intérêt opposant marques et distributeurs pour capturer le désir — le consentement-à-payer — du consommateur pour le produit livré. Car, dans l’économie numérique, ce consentement-à-payer s’appuie sur des effets de réseau, autrement dit sur des dynamiques cumulatives par lesquelles plus un produit est consommé et plus il est utile à ceux qui le consomment. Les effets de réseau sont liés à la circulation d’un code — un langage, une écriture, un standard, une marque, une monnaie… — et apparaissent aussi bien dans les marques, dans les contenus, que dans les équipements mettant des consommateurs en relation. Ils sont donc omniprésents dans l’économie numérique dont la particularité est de faire circuler l’information en code {0,1}. 1.2 – Les contenus gratuits dans les systèmes de distribution dématérialisés Offrir du gratuit permet d’atteindre des masses critiques de consommateurs qui convaincront de nouveaux souscripteurs de rejoindre le réseau. L’offre de contenus gratuits est, depuis le début de la radiodiffusion, le mode privilégié du déploiement des systèmes de distribution dématérialisés. L’originalité du peer-to-peer, par rapport aux modes traditionnels de distribution de contenus « en clair », financés par la publicité, est qu’il enfreint radicalement et massivement les règles de propriété intellectuelle au bénéfice des réseaux distributeurs. De là un vigoureux débat sur le respect de la propriété intellectuelle qui, dans chaque pays, va rencontrer les représentations économiques de la propriété et, plus largement, des modes de socialisation intégrant la fonction arbitrale de l’Etat. 1.3 – Quelle législation sur le droit d’auteur en environnement numérique ? Aux Etats-Unis où la propriété, qu’elle soit intellectuelle ou non, ne fait aucunement débat, et où le Congrès a voté, dès 1998, une loi sur l’application du copyright dans l’environnement numérique, le débat s’est concentré sur la légalité des logiciels de peer-to-peer. Un arrêt définitif a été rendu sur ce point par la Cour Suprême en juillet 2005. Nous y reviendrons. En France — où pourtant les marques sont protégées et bénéficient des lois les plus répressives pour écarter la contrefaçon — le débat s’est focalisé sur la légitimité de la propriété intellectuelle et l’extension de la gratuité à l’ensemble des produits culturels. Il a abouti, en juin 2006, au vote d’une loi contestée sur l’adaptation du droit d’auteur à l’environnement numérique, limitant à des peines symboliques les actes de contrefaçon commis par les consommateurs finaux. Saisi par des parlementaires désireux de l’assouplir, le Conseil Constitutionnel a finalement censuré le volet 87 Livre blanc sur le « Peer-to-Peer » trop laxiste de la loi, l’inégalité de traitement donné au viol de la propriété intellectuelle constituant, à ses yeux, une dangereuse incongruité. 1.4 – Le peer to peer au cœur d’un jeu économique complexe Les mécanismes économiques sous-jacents au déploiement du peer-to-peer mettent en cause des effets de réseau et des subventions croisées au sein de relations verticales. L’affaire engage, d’une part, des industries de biens culturels soumises à des problèmes de distribution spécifiques et, d’autre part, les industries de l’informatique et des télécommunications cherchant à déployer l’Internet à haut débit. Le peer-to-peer va permettre à Internet de distribuer des utilités gratuites engageant des effets de réseau. Selon les régions, les effets produits sur les groupes d’intérêt bénéficiaires de ces utilités divergent en fonction de la structure des industries de contenus et de leurs systèmes de distribution. Nous verrons qu’en France cette structure et les représentations économiques qui la sous-tendent privilégient la demande de gratuité au détriment de la qualité, de la diversité et de la compétitivité internationale des contenus. 2. Les industries de contenus En étendant sans cesse le champ de l’information et en facilitant sa diffusion, la numérisation dissocie deux classes d’investissements complémentaires : les contenus et les réseaux de communication ou de distribution. L’économie des réseaux, catégorie qui s’adosse à des équipements et des infrastructures matérielles, ne pose pas à l’économie productiviste classique de problème méthodologique fondamental. Bien au contraire, les problématiques industrielles et réglementaires de l’interconnexion ou de la tarification ont largement recours à des modèles de coûts. Tel n’est pas le cas de l’industrie des contenus. 2.1 – Particularités économiques des contenus Il nous faut donc revenir sur cette catégorie. La numérisation justifie la fédération de l’ensemble des biens informationnels, traditionnellement associés à des industries de support, autour d’une catégorie unique : celle du signifié, ou encore des contenus. On appellera contenus les biens informationnels identifiés par des droits d’auteur et de copie, et destinés à une large diffusion publique. Les contenus sont le produit d’une activité de création non scientifique — donc non fonctionnelle et non substituable — et se distinguent des inventions brevetées notamment en 88 Livre blanc sur le « Peer-to-Peer » ceci qu’ils s’adressent directement au consommateur final35. Ce sont par ailleurs des biens dits d’expérience, autrement dit des biens qu’on ne connaît véritablement qu’après les avoir consommés. Cette expérience est elle-même un processus cumulatif, générateur de trajectoires d’apprentissage qui influent sur la perception des œuvres, leur signification et, partant, l’utilité qu’en retire le consommateur. C’est en effet de l’expérience que résulte la dimension culturelle — au sens de l’expérience accumulée — des contenus. 2.2 – L’appréhension « hollywoodienne » des contenus et leur dimension industrielle Le raisonnement économique sur les contenus suppose qu’on reconnaisse à ceux-ci une fonction d’utilité individuelle et sociale. C’est là que les problèmes se posent. D’abord parce que l’utilité est une catégorie peu maniée par l’économie classique, surtout quand elle n’est pas rattachée à un critère objectif de performance ou de fonctionnalité matérielle. Ensuite parce que les modes d’identification des contenus ont des trajectoires fort différentes en Amérique et en Europe36. Les États-unis sont un pays récent et de langue importée. L’économie y existe depuis toujours. A tel point que la circulation des œuvres écrites y est traitée, dès l’Indépendance, comme une question économique. Après que l’industrie de l’édition et le marché du roman s’y sont déployés grâce au piratage des auteurs et des éditeurs anglais, la dynamique industrielle et institutionnelle d’Hollywood, initiée au début du XXe siècle, fédère les industries culturelles autour du cinéma et de la télévision. La division marquée du travail, le rôle central des scénaristes et des auteurs dans la fabrication des films, la possibilité, grâce au copyright, de concentrer les droits dans les mains des studios, contribuent à faire d’Hollywood l’institution référentielle de l’industrie des contenus. La spécialisation des studios dans la production, mais surtout dans la distribution des contenus audiovisuels sur tout le continent américain et audelà, leur a permis d’être très actifs dans le déploiement de la télévision et de constituer un puissant lobby de l’industrie du copyright. La capacité de cette industrie à produire et à diffuser mondialement des images en fait, par ailleurs, une institution majeure de la puissance américaine. Néanmoins, même lorsqu’il s’agit de films ou de créations d’avant-garde, Hollywood produit de l’entertainment, de la distraction, en assumant pleinement sa dimension utilitaire : il s’agit de loisirs que chacun peut, à sa guise, apprécier en tant que consommateur. 35 Les articles scientifiques, même validés par des comités de lecture, ressortissent du copyright et non du brevet. Ils constituent donc une exception à cette définition. Néanmoins, semblablement aux brevets, ils font l’objet d’une validation ex ante, et s’adressent à un public de professionnels. 36 L’ouvrage de Paul Starr « The Creation of the Media, Political Origins of Modern communications » présente une analyse comparée très exhaustive du développement des systèmes médiatiques aux EtatsUnis et en Europe. Outre le rôle essentiel de la propriété intellectuelle dans le déploiement des réseaux de contenus, il y insiste sur la dimension utilitariste de la perception de l’information aux Etats-Unis, notamment jusqu’à le seconde Guerre Mondiale, comparée à la notion de connaissance, privilégiée en Europe. Basic Books, New York 2004. r 89 Livre blanc sur le « Peer-to-Peer » Cette dimension industrielle et utilitariste des activités créatives aux Etats-Unis résulte de la conjonction de facteurs singuliers : un vaste marché de langue unique, une approche utilitaire des produits, pas de fonds culturel antérieur à intégrer et donc pas ou peu d’idéologie de l’Histoire. 2.3 – En Europe, entre Art et Culture et un statut ambigu En Europe continentale, les catégories fédératrices des œuvres sont les Arts et la Culture. On est ici confronté à une opposition entre économie et histoire. Car les œuvres, les trajectoires culturelles, ont existé en Europe bien avant le capitalisme, reflétant la diversité des communautés et des langages. Et, bien entendu, l’adaptation de cet héritage à la production et à la consommation de masse requiert un processus spécifique. Chaque pays dispose du sien, conscient, en outre, du handicap historique et linguistique qui, dans ce domaine, le sépare du monde anglo-saxon. La Culture est, singulièrement en France, la catégorie de cette transition. Elle désigne l’ensemble des expériences artistiques dont il faut que le public soit largement instruit, et recouvre un protocole étendu, cautionné par l’Etat, de création et de circulation des œuvres. Le dispositif culturel français résulte d’un rapprochement des institutions littéraires et audiovisuelles opéré dans les années 1960 sous le patronage d’André Malraux. Celui-ci, bien avant Internet et avant même que la télévision ne soit complètement déployée, perçoit que la diffusion des images est la grande révolution de l’accès à la connaissance37. Le Musée Imaginaire, qui décrit comment les œuvres et leur patrimoine de significations historiques circulent en images dans la société moderne, est l’un des piliers de l’institution culturelle française. Publié en 1947, réédité en 1965, le texte de Malraux véhicule les objectifs de diffusion des connaissances, de structuration de la société des loisirs et de contrôle public de l’information qui accompagneront le déploiement de la télévision. Or, autant l’imaginaire est source de modernité circulante, autant le musée, par sa relation sacrée à l’Histoire et à la « beauté », récuse la dimension utilitaire des contenus individués et n’assigne de valeur qu’à leur réunion et leur diversité au sein de l’institution. Le secteur culturel est en France, plus qu’ailleurs en Europe, un « musée imaginaire » largement adossé aux institutions centrales que sont les chaînes de télévision publiques, investies de missions éducatives. L’existence d’un secteur privé, même fortement réglementé, de l’édition et des médias montre que ce discours est plus idéologique qu’opérationnel et que, dans les faits, chacun reconnaît aux contenus une fonction d’utilité et de loisir. Elle montre aussi que la notion de Culture est une catégorie de 37 « Aujourd’hui, un étudiant dispose de la reproduction en couleurs de la plupart des œuvres magistrales, découvre nombre de peintures secondaires, les arts archaïques, les sculptures indienne, chinoise, japonaise et précolombienne des hautes époques, une partie de l’art byzantin, les fresques romanes, les arts sauvages et populaires… Car un musée imaginaire s’est ouvert qui va pousser à l’extrême l’incomplète confrontation imposée par les vrais musées : répondant à l’appel de ceux-ci, les arts plastiques ont inventé leur imprimerie. » Le musée imaginaire. Edition Folio. Gallimard 1965 pp.15 et 16. 90 Livre blanc sur le « Peer-to-Peer » transition destinée à opérer le passage des œuvres d’un statut de patrimoine historique, largement démocratisé, à celui d’une création industrielle destinée aux marchés mondialisés de loisirs. Quoi qu’il en soit, nous considérerons dans la suite que la transition est accomplie et que, par conséquent, les contenus sont utiles et justiciables de raisonnements économiques. L’originalité du secteur vient de ce que cette fonction d’utilité est difficilement représentable tant sont fortes les variations entre produits et entre individus. A quoi s’ajoute une composante temporelle faisant que l’utilité immédiate d’une œuvre « commerciale » n’est pas nécessairement le gage d’une valeur patrimoniale de long terme. C’est, en vérité, l’expérience de la consommation de l’œuvre et, le cas échéant, de celles qui lui font suite qui bâtissent sa réputation et son utilité de long terme. 2.4 – Particularités économiques des biens culturels Les droits d’auteur et de copie donnent lieu à des activités industrielles de création, d’agrégation et de distribution. La création est un investissement dont la valorisation est, par essence, risquée, car la valeur d’usage d’un bien culturel est aléatoire, ou, pour reprendre la formule de Richard Caves, « personne ne sait » à l’avance ce que sera son succès commercial38. Les droits structurent donc une activité de recherche et de développement dans laquelle le succès d’un produit est supposé compenser les échecs de plusieurs autres. Une des caractéristiques des industries de contenus est qu’en règle générale, les coûts échoués dans la production et la distribution ne peuvent s’amortir que sur l’exploitation durable d’un portefeuille réunissant plusieurs produits. 2.5 – Le « versionnage » des œuvres Car non seulement la demande pour un contenu est globalement très incertaine, mais la grande dispersion des préférences individuelles crée des profils de demande très spécifiques. La distribution des contenus doit viser à atteindre d’abord les consentements à payer les plus élevés pour toucher ensuite des consommateurs moins disants. Cet impératif induit ce qu’on appelle un versionnage, c’est-à-dire une mise en marché progressive d’éditions aux utilités décroissantes permettant de discriminer différentes clientèles. Le livre évolue de la couverture cartonnée en édition originale au livre de poche, en passant par une ou deux éditions intermédiaires. Le film migre de la salle de cinéma à la télévision gratuite en passant par le DVD et la télévision payante. Et cetera. 91 Livre blanc sur le « Peer-to-Peer » 2.6 – La mise sur le marché des contenus La mise en marché des contenus engendre de forts investissements de communication en vue de susciter le désir d’expérience. La mise en œuvre de ces investissements engage des modèles économiques très divers, adaptés aux différents médias. La règle couramment admise est que les versions les plus chères accompagnent les investissements de mise en marché les plus lourds. Un blockbuster sera ainsi mondialement annoncé avant sa sortie en salle, en sorte de lui créer une image qui attirera les premiers consommateurs. La notoriété acquise par le lancement en salle soutiendra la diffusion des versions ultérieures qui donneront lieu à des relances ciblées. Le budget de lancement d’un film peut représenter jusqu’à la moitié des coûts de fabrication du négatif. Celui d’un album de musique peut aller jusqu’à cent fois les coûts d’enregistrement. 2.7 – Créer des effets de réseau En fait, dès lors que l’utilité d’un bien est associée à une circulation symbolique, on voit surgir des effets de réseau. Ces effets sont multiples et dépendent fortement des formats (texte, musique, images) et des marchés visés par les produits. Plus une œuvre est consommée, plus son expérience est évaluée et, le cas échéant, prescrite ou déconseillée. S’appuyant sur la critique institutionnelle, puis sur une masse critique de consommateurs, le bouche-à-oreille accroît l’espérance d’utilité : il limite le risque expérimental du consommateur. Certains blockbusters au succès douteux — les ten ton turkeys39 d’Hollywood — sont même commercialisés avec d’énormes investissements publicitaires afin de pouvoir épuiser le marché avant la circulation du bouche-à-oreille. Les contenus sont également générateurs d’effets de mode, d’identifications communautaires. C’est le cas des hymnes politiques dont les Etats, à commencer par les princes de Hanovre gouvernant l’Angleterre, se sont largement servis pour structurer le sentiment national40. Mais aussi de la musique de variétés, celle qu’on joue dans les clubs, dont les succès se standardisent et contribuent à l’identification des générations. Et bien sûr des films, des programmes de télévision, des romans, de spectacles, d’expositions, largement discutés au sein de groupes de spectateurs, lecteurs ou regardeurs. La mise en marché de ces produits vise à réunir le plus vite possible les masses critiques nécessaires pour lancer le bouche-à-oreille et/ou l’effet de mode. Qu’il s’agisse d’envois de presse, 38 Richard Caves, Creative Industries, Harvard University Press, Cambridge, 2000. Littéralement, des dindes de dix tonnes, en français, des navets, ou mieux, des daubes, éventuellement, indigestes... 40 Voir sur ce sujet l’excellente étude d’Esteban Buch « La Neuvième de Beethoven » qui retrace l’histoire des hymnes anglais, français et autrichiens, et montre comment la neuvième symphonie de Beethoven a suscité en Europe et jusqu’en Rhodésie, un véritable culte identitaire. Gallimard, 1999. 39 92 Livre blanc sur le « Peer-to-Peer » d’avant-premières publiques, de présentations événementielles, le gratuit permet d’initier la circulation du produit avant son versionnage payant. C’est ainsi que, depuis ses débuts, la radio — du moins dans ses stations à vocation commerciale — a constitué le mode idéal de mise en marché de la musique. A tel point que les maisons de disques américaines ont longtemps soudoyé les programmateurs pour qu’ils diffusent intensivement leurs dernières productions. Cette pratique, connue sous le nom de « Payola », a donné lieu à divers commentaires et analyses économiques car elle a parfois été assimilée à un mode de distribution de la musique41, alors qu’elle n’est en fait que le catalyseur de ses effets de réseau. Elle rappelle que les contenus sont une source permanente d’apparition de marques d’auteur, d’acteurs, d’interprètes qui complètent le dispositif d’identification des produits et qui, elles aussi, engendrent des effets de réseau. Ces marques sont ensuite négociées comme des actifs, des apports en capital, dans le processus de production. Se crée ainsi une chaîne verticale de produits générateurs d’effets de réseau. 2.8 – Le système des studios hollywoodiens Pour maîtriser cette chaîne, les maisons de disques, ayant à investir bien davantage dans la marque d’un interprète que dans la production de sa musique, ne s’engagent à le faire que si elles peuvent fidéliser son bénéficiaire par contrat. Les studios d’Hollywood, quant à eux, ont longtemps maintenu les acteurs et les auteurs sous contrat avant que ceux-ci ne s’autonomisent et ne négocient leur marque — leur public captif — pour leur propre compte. Les studios s’échangeaient alors couramment, dans une pratique qui n’est pas sans rappeler l’interconnexion, leurs acteurs sous contrat pour des films isolés. La désintégration du système des studios que décrit Peter Biskind dans un essai intitulé en français Le Nouvel Hollywood42 est comparable à celle du démantèlement des monopoles de télécoms de la Nouvelle Economie. A partir des années 1970, les auteurs et les acteurs deviennent concurrents des studios dans la chaîne de relations verticales qui agrège les composants informationnels des films. 2.9 – Mutualisation des risques liés à chaque contenu La tarification des contenus reflète donc ces dynamiques d’utilité très singulières, en sorte de mutualiser les risques de chaque contenu individuel et limiter le risque du consommateur. Les ventes groupées, qu’il s’agisse des output deals des studios — vente exclusive à un distributeur de toute une classe de produits —, des abonnements aux chaînes payantes ou aux salles de cinéma, ou du regroupement de titres musicaux sur un album, visent à lisser l’utilité moyenne 41 Voir Ronald Coase « Payola in radio and television broadcasting », Journal of Law and Economics, Octobre 1979, 269-328. 42 Le titre original anglais Easy Riders, Raging Bulls, fait notamment référence au film de Dennis Hopper qui donna, en 1969, l’impulsion du cinéma d’auteur à Hollywood. Le Cherche Midi, Paris 2002. 93 Livre blanc sur le « Peer-to-Peer » des produits et à partager les effets de réseau des succès éventuels. Ces pratiques s’ajoutent à celle du versionnage où, comme nous l’avons vu, les formats successivement mis en marché suivent les consentements-à-payer décroissants du public. Ce versionnage est particulièrement sophistiqué pour les contenus audiovisuels qui, contrairement à la musique, ne suscitent pas de forte propension au stockage car ils ne se visionnent qu’un très petit nombre de fois. Ainsi, bien souvent, après les versions payantes, apparaissent les versions dites en clair. Celles-ci utilisent les mécanismes de marchés à deux versants, lesquels éliminent grâce à la gratuité financée par la publicité le risque encouru par le consommateur. Les marchés à deux versants peuvent néanmoins aussi se combiner aux modèles payants, étendant encore les combinaisons de versions possibles. La sophistication de ces mécanismes, à laquelle la numérisation contribue par la création permanente de nouvelles versions (sonneries musicales, vidéo à la demande, télévision en haute définition…), permet d’accroître les recettes moyennes de chaque contenu et de financer le développement de créations nouvelles. Ce qui frappe ici, c’est que, dans l’établissement des recettes, autrement dit dans la structuration des marchés de contenus, les logiques d’utilité l’emportent entièrement sur les logiques de coût : il n’a jamais été d’usage de vendre au consommateur un produit d’utilité aléatoire en fonction de ses coûts de fabrication.43 Car les inévitables déceptions auraient pour effet de faire plonger la demande globale et réduiraient les moyens disponibles pour renouveler et diversifier la création. On comprend alors à quel point ces biens, à la fois expérimentaux et informationnels, choquent la doctrine productiviste française puisqu’au fond, nul marché n’est plus éloigné de la tarification par les coûts. 2.10 – Contenus et infrastructures de distribution Parallèlement, la distribution des contenus s’appuie sur des investissements d’équipements et d’infrastructures. Il faut, bien entendu, compléter ces infrastructures par leurs systèmes d’exploitation techniques et commerciaux, lesquels engendrent des économies d’échelle et d’envergure. Ces investissements de distribution ont pour fonction de livrer aux consommateurs des utilités spécifiques qui se combinent à celles des contenus distribués. Les systèmes de distribution sont donc associés aux supports et aux versions des différents types de contenus : salles de cinéma, librairies, enseignes multimédia, diffuseurs hertziens et satellitaires, câblo-opérateurs, et désormais opérateurs télécoms. Bien entendu, ces supports d’utilité, et singulièrement ceux des infrastructures télécoms, sont eux aussi générateurs d’effets de réseau. C’est, on va le voir, la concurrence verticale autour de ces effets qui favorise le déploiement du peer-to-peer. 43 Ceci justifie notamment l’unicité du prix du livre, quel qu’en soit le distributeur, ou des places de cinéma, quel que soit le film proposé. 94 Livre blanc sur le « Peer-to-Peer » 3. Le déploiement des débits La numérisation fait apparaître de nouvelles capacités de transport dans chaque domaine où un système technique permettait l’acheminement d’un signal. Cela vaut pour le téléphone fixe et mobile, mais aussi pour toutes les infrastructures de distribution dématérialisée des contenus audiovisuels : le satellite, le câble, les fréquences hertziennes... La numérisation et les techniques de compression de l’information qui l’accompagnent engendrent une concurrence acharnée des moyens de transport, et, par là même, des systèmes de communications et de distribution dématérialisée. Chaque système technique ayant ses propres règles de compatibilité interne et sa spécialisation en termes d’utilité, on peut parler ici d’une concurrence multisystèmes généralisée. Cette concurrence, récurrente dans l’économie numérique, vise à offrir au consommateur l’ensemble des services d’accès à la communication et aux contenus à travers un point d’entrée unique. Dans toutes les régions du monde, la concurrence multisystèmes va conduire les opérateurs d’infrastructures à proposer aux consommateurs des services numériques fortement générateurs d’effets de réseau. L’enjeu est, d’une part, d’inciter les abonnés au bas débit à utiliser le haut débit, et, d’autre part, à mettre en œuvre des offres valorisant chacun des systèmes d’accès. Car, au bout du compte, seuls le relèvement effectif de l’utilité offerte au consommateur et la vente groupée de services via un accès exclusif peuvent permettre de financer la numérisation des équipements. 3.1 – Le peer to peer, produit d’appel pour les réseaux haut débit Le peer-to-peer est l’application idéale pour ce type de déploiement. En offrant aux abonnés de l’Internet à haut débit d’échanger des contenus sous copyright, le peer-to-peer va permettre aux opérateurs : • de fournir gratuitement une utilité ayant une immense valeur marchande, • de créer, autour de cette utilité, des effets de réseau, autrement dit des dynamiques d’utilité croissante avec le nombre des utilisateurs, • de susciter un appétit croissant pour la capacité des réseaux offrant ces utilités, • de structurer la demande et de fidéliser les clients autour du service d’accès, • de contourner massivement les règles de propriété intellectuelle, • d’affaiblir durablement la position des ayants droit des contenus face aux distributeurs. Le peer-to-peer est ainsi une application exceptionnelle qui cumule deux types d’effets de 95 Livre blanc sur le « Peer-to-Peer » réseau : elle mutualise, grâce à la décentralisation et à la fragmentation des fichiers, les ressources rares du réseau que sont les serveurs et le débit, autrement dit elle fait en sorte que plus il y a d’internautes et plus les fichiers sont aisément distribués; elle offre ensuite à ces internautes l’accès, sans aucune limitation d’usage, à de plus en plus de contenus gratuits contournés. Qui profite alors de ces externalités ? 3.2 – Les contenus diffusés par peer to peer subventionnent les infrastructures La caractéristique de cette situation est qu’elle met en scène une innovation technique génératrice d’effets de réseau dans une chaîne de biens complémentaires regroupant des équipements terminaux, des infrastructures de transport et d’accès, et des biens informationnels propriétaires. Formellement, cette situation ne diffère nullement du déploiement de la radio ou de la télévision dans lequel les effets de réseau des contenus, financés grâce aux recettes publicitaires, incitaient les diffuseurs à déployer leurs infrastructures et les consommateurs à acheter des équipements terminaux : des postes de radio et des téléviseurs. La différence essentielle réside dans le mode de tarification et le respect de la propriété intellectuelle. En effet, le peer-to-peer crée une demande d’élévation des débits, une demande additionnelle d’équipements associée au relèvement de leur utilité, et, bien entendu, une demande fortement croissante de contenus. Si les deux premières sont aisément servies par le marché de la fourniture d’accès et de l’informatique grand public, la troisième échappe aux transactions commerciales. En d’autres termes l’utilité des contenus obtenus en peer-to-peer est entièrement transférée, sans contrepartie financière, à la chaîne amont de l’accès. Les contenus subventionnent ainsi en nature le déploiement des infrastructures et des équipements d’Internet. L’industrie des contenus subit une externalité négative, une pollution due à l’émission croissante de produits gratuits contournés. 3.3 – 1 milliard d’euros détournés au profit des fournisseurs d’accès et d’infrastructures Nous avons tenté, dans une étude publiée en janvier 200444, de mesurer la valeur du transfert d’utilité, autrement dit les montants de la subvention en nature reçue par les fournisseurs d’accès. Le raisonnement est le suivant : sachant que 1999 est, en France, l’année du décollage de l’accès à Internet en bas débit et que 2002 est l’année où les abonnements en haut débit se substituent massivement aux abonnements en bas débit, nous avons cherché à mesurer quel 44 O.Bomsel, J.Charbonnel, G.Le Blanc, A.Zakaria : « Enjeux économiques de la distribution des contenus » Recherche Contango-Riam, Cerna Ecole des Mines de Paris, 2004. 96 Livre blanc sur le « Peer-to-Peer » surplus les consommateurs étaient prêts à payer pour obtenir le haut débit : la comparaison des tarifs fait apparaître un différentiel de 20 euros entre le prix mensuel de l’accès bas débit et le prix de l’accès haut débit. La question est ensuite de savoir à quelle utilité correspond ce différentiel de 20 euros par mois encaissé pour les deux services. Les études menées par les cabinets spécialisés montrent que les usages privilégiés par les consommateurs du haut débit concernent en priorité la consommation de contenus, même si, par ailleurs, ils profitent de la connexion permanente pour des applications de communication. Cette analyse est confirmée par le fait que dans cette période, près de 90% de la bande passante d’Internet est utilisée pour des échanges en peer-to-peer. On peut donc raisonnablement en déduire qu’au moins 50% du différentiel de prix entre les deux services est imputable à l’usage du peer-to-peer. En d’autres termes, la subvention en nature des contenus équivaut au moins à dix euros par mois, soit 120 euros par abonné et par an. Sachant qu’en 2006, le seuil des dix millions d’abonnés à Internet en haut débit a été atteint en France et que les débits n’ont cessé de croître depuis 2004, ce transfert d’utilité au bénéfice de l’accès dépasse le milliard d’euros. Ce transfert s’étend, en outre, à tous les fabricants d’équipements et de logiciels concourant à l’accès gratuit aux contenus. Les ordinateurs personnels, les lecteurs MP3, mais aussi l’ensemble de leurs fournisseurs, aux premiers rangs desquels Microsoft et Intel, profitent de la rente et des effets de réseau qui l’accompagnent. Comme dans le cas de l’accès, le surcroît d’utilité permet à tous ces acteurs de vendre davantage et plus cher leurs produits. 3.4 – Corrélation entre piratage et baisse des revenus ? L’originalité de cette subvention est qu’elle ne s’adresse qu’aux utilisateurs du peer-to-peer, autrement dit qu’elle permet d’offrir les ordinateurs et l’accès à un prix correspondant au consentement-à-payer du consommateur privilégiant les usages légaux, et d’atteindre sans baisse de prix d’autres utilisateurs primant le peer-to-peer. Il s’agit donc d’une subvention discriminée, bien moins coûteuse pour l’industrie de l’accès qu’une baisse de tarif générale accordée à tous les consommateurs. L’autre versant de la subvention est évidemment l’externalité négative, la pollution, engendrée dans l’industrie des contenus. La difficulté, compte tenu du renouvellement permanent des contenus et de la nature éminemment volatile de leur demande, est d’établir la corrélation entre le piratage et une baisse éventuelle de revenus. L’interprétation contestable de telles corrélations a donné lieu, comme dans le cas de l’effet de serre, à de nombreuses controverses. Ainsi, si l’on observe un lien statistique entre déploiement du haut débit et baisse des ventes de disques, les supporteurs du peer-to-peer l’assignent à une désaffection naturelle du support causée par le 97 Livre blanc sur le « Peer-to-Peer » manque de renouvellement de la création musicale et la désutilité croissante du regroupement des titres. Il est, de même, difficile d’établir que, pour des contenus très demandés, la dissémination gratuite en peer-to-peer ne constitue pas une subvention d’effets de réseau. Certains tubes, dont le fameux « Coup de boule» de l’été 2006 en France, sont désormais lancés et popularisés par les réseaux de peer-to-peer. 3.5 – Le peer to peer favorise la production de certains types de contenus Les économistes disposent cependant d’arguments échappant à la casuistique. Hal Varian, l’un des pionniers de l’économie numérique, a notamment proposé une évaluation du coût social du partage, i.e. une caractérisation des biens qui ne peuvent être produits en raison de l’existence de mécanismes de partage45. Dans un modèle à la fois simple et solide engageant un producteur monopoliste (hypothèse permettant d’examiner la question de la variété et de l’étendue de la gamme des biens produits), une population répartie entre participants aux réseaux de peer-topeer et une fraction non intéressée ou n’ayant pas accès à cette solution, et des coûts de transaction proportionnels au nombre d’utilisateurs du réseau partagé, il met en évidence un résultat significatif. Les biens peu coûteux et peu valorisés sont naturellement protégés du partage car les coûts de transaction (la recherche et l’information sur le bien) excèdent les bénéfices. Ils seront donc produits qu’il y ait partage ou non. Les biens très coûteux à développer et disposant d’une faible base de clientèle, mais bien valorisés, seront aussi produits car il s’en vendra assez pour couvrir les frais fixes. A l’inverse, les biens de valorisation moyenne, à coûts de développement élevés et faible cible de clients, sont perdus. On retrouve ici une catégorie familière de la diversité des contenus : les œuvres répondant aux goûts spécifiques d’une population locale, et ne bénéficiant pas de la valorisation des hits ou des blockbusters, ni des effets de réseau correspondants. Le peer-to-peer incite à l’exploitation intense et ultra-rapide de produit très commerciaux. Il pénalise prioritairement les produits moyennement coûteux à marché étroit, parmi lesquels se trouvent aussi des produits innovants à fort risque commercial. 3.6 – Renforcement de la concentration et des blockbusters Cette tendance s’observe sur tous les marchés de contenus contournés. Le piratage intensifie les conditions de concurrence entre industriels des contenus, favorisant les industries les plus concentrées disposant de marchés très vastes. Le déploiement du peer-to-peer renforce la concentration des maisons de disques et leur focalisation sur un petit nombre de produits à forte notoriété. Dans le cinéma et la télévision, il resserre les « fenêtres » d’exploitation des 45 Hal Varian « The Social Cost of Sharing », Berkeley University, Conference on Peer-to-Peer economics. 2002. 98 Livre blanc sur le « Peer-to-Peer » versions en réduisant notamment la prime donnée à l’exclusivité temporelle des premières diffusions. Les délais d’exploitation des films en salle s’en trouvent resserrés et les marchés ultérieurs réduits. Ces effets pénalisent davantage les industries moyennes opérant sur des marchés linguistiques limités. A plus long terme, comme le montre l’exemple du MP3, la circulation massive de fichiers en format ouvert favorise le déploiement d’équipements contournants et de bibliothèques numériques partageables qui risquent d’élever encore les coûts d’exclusion, i.e. des moyens de protection technique de la propriété intellectuelle. 3.7 – Risque pour la diversité culturelle Néanmoins, pour le grand public, les effets négatifs sur les contenus ne sont pas clairement perceptibles à court terme, tandis qu’au contraire, les primes du déploiement du haut débit sont à valeur immédiate. Dans ce contexte, aggravé par une incompréhension profonde de l’économie des contenus, les politiques en charge de défendre l’intérêt général ont eu du mal à prendre la mesure exacte du problème, et, conséquemment, à rendre un arbitrage acceptable par leurs électeurs. C’est ainsi que, malgré certaines cassandres46, l’influence croissante des bénéficiaires du peer-to-peer — ceux dont les marchés capturent les effets de réseau et les offrent en partage au consommateur — a occasionné le retard, l’hostilité démagogique et, pour finir, la maladresse fâcheuse des politiques dans l’adaptation du droit de propriété à l’environnement numérique. La France de l’exception culturelle s’est alors trouvée dans la situation humiliante — quoique, hélas, déjà vue — où les industriels d’Hollywood, favorisés par ailleurs dans la concurrence internationale, sont venus quotidiennement supplier les politiques de bien vouloir défendre l’intérêt national47. 4. Les buts de guerre Mais, on le devine, le déploiement est un jeu à deux phases dont la première est celle du gratuit. Le peer-to-peer n’échappe pas à cette règle. De quelle guerre alors est-il le cheval de Troie ? Qui sont, au bout du compte, les Hellènes embarqués dans ses flancs ? Que veulent-ils ? 4.1 – Scénarii de légalisation des échanges peer to peer L’idée a couru un temps que le peer-to-peer allait se déployer comme un service de diffusion en 46 Dont nous-même, évidemment. O. Bomsel, G. Le Blanc, « Remèdes au contournement de la propriété intellectuelle » Problèmes Economiques, 2004. 47 Au cours du premier semestre 2006, les représentants de la Motion Picture Association of America (MPAA) et les patrons des studios d’Hollywood ont en effet suivi quotidiennement les procédures engagées auprès des tribunaux sur la copiabilité des DVD ainsi que le débat parlementaire sur la transposition de la directive européenne sur le droit d’auteur. 99 Livre blanc sur le « Peer-to-Peer » clair engendrant, pour le consommateur, un certain nombre de nuisances : publicité, spams, risque de virus, incertitude sur la qualité des fichiers, et, potentiellement, des risques de procès… Le cumul de ces désutilités est supposé susciter, à terme, un consentement-à-payer pour un service sécurisé, fiable et légal. Cette philosophie a sous-tendu, d’un côté, la revendication de certains opérateurs de peer-to-peer d’obtenir la licence légale48 et, de l’autre, les modèles d’affaires de sociétés comme KaZaa, qui a annoncé son intention d’intégrer la distribution légale. 4.2 – Augmenter la désutilité du téléchargement illégal En fait, la désutilité du peer-to-peer gratuit dépend de la nature, de la taille des fichiers, du procédé de téléchargement, et de la sévérité de la répression du piratage. La désutilité associée au téléchargement d’un fichier musical dégradé est moins grande que celle d’un film, téléchargé durant plusieurs heures. Elle est maximale pour un jeu vidéo dont les fonctionnalités sont liées à la transcription extensive de toutes les lignes de code. Ceci explique que les éditeurs de jeu vidéo redoutent bien davantage la copie physique de leurs disques que le piratage sur le peer-topeer. Certains jeux vidéo en réseau, dont le célèbre World of Warcraft, utilisent couramment le peer-to-peer pour délivrer des mises à jour de leurs programmes. Néanmoins, les jeux proprement dits sont aujourd’hui principalement vendus sur des supports physiques et donnent lieu à des systèmes de paiement séparés. Le peer-to-peer est donc largement perçu comme un système de distribution adapté à l’environnement d’Internet, mais dont les usages illicites fragilisent la propriété et, plus grave, renchérissent le coût de son application. Or ce coût doit être supporté par l’industrie des contenus et leurs distributeurs loyaux. Et donc, au final, par le consommateur. En outre, le mode de déploiement associant débit et contenus gratuits structure un consentement-à-payer pour l’accès, le tuyau, plutôt que pour les services. En conséquence, le développement du peer-to-peer profite indéniablement au déploiement des infrastructures, mais défavorise Internet lorsque celui-ci concourt avec d’autres systèmes de distribution. C’est le cas, notamment pour les contenus audiovisuels : le déploiement de l’Internet à haut débit s’inscrit, on l’a dit, dans une compétition entre plusieurs systèmes de distribution. Les ayants droit ont donc intérêt à freiner la pénétration du peer-to-peer dès lors qu’elle ne leur 48 Fin septembre 2003, l’association “peer-to-peer United” rassemblant un certain nombre d’acteurs du peer-to-peer (LimeWire, Grokster, Blubster, etc...) a saisi le Congrès américain en vue d’établir un code de bonne conduite aboutissant à la licence légale. (Reuters). En France, fin Novembre 2003, l’Association des Auteurs, Musiciens, Interprètes (ADAMI) a pris position en faveur de la licence légale pour le peerto-peer. En 2005, l’UFC Que Choisir a également adopté cette position. 100 Livre blanc sur le « Peer-to-Peer » garantit pas l’accès à de nouveaux marchés. Leur volonté d’assigner les consommateurs vise ainsi à accroître la désutilité du piratage. Il est en effet illusoire de prétendre réprimer tous les utilisateurs de peer-to-peer. Néanmoins, le risque de procès abaisse l’utilité du gratuit et doit, idéalement, relever le consentement-à-payer du consommateur pour des offres payantes en ligne ou ailleurs. D’un point de vue économique, l’espérance mathématique de la sanction, autrement dit la probabilité d’une poursuite multipliée par le montant de l’amende, éventuellement augmenté d’autres ennuis encourus, s’ajoute aux autres facteurs de désutilité : plus celle-ci est élevée et plus les offres légales sont revalorisées. En revanche, l’accroissement de la désutilité du peer-to-peer réduit la subvention au déploiement des débits. Ce qui se joue alors dans l’encadrement judiciaire du peer-to-peer est le mode d’insertion d’Internet dans la compétition multisystèmes. Le droit, en la matière, reflète le rapport de force des acteurs dans cette compétition. 4.3 – La situation aux Etats-Unis Aux Etats-Unis où le peer-to-peer sert avant tout les câblo-opérateurs distributeurs de contenus, ceux-ci n’ont nullement intérêt à ce qu’Internet pollue trop gravement leur activité principale. Le piratage, fût-il occasionnel, est sévèrement réprimé. Les détenteurs de droits ont, en outre, obtenu de la Cour Suprême, en juillet 2005, un arrêt historique condamnant les logiciels de peer-to-peer incitant les consommateurs à contourner les droits de propriété intellectuelle. Cet arrêt, prononcé dans l’affaire de la plainte de la MGM contre Grokster, fait date en ceci qu’il brise une jurisprudence par laquelle des innovations portant potentiellement préjudice aux contenus étaient néanmoins encouragées. C’est ainsi qu’était interprété le fameux arrêt de 1983 opposant Sony aux studios Universal et Disney, ces derniers demandant l’interdiction du magnétoscope Betamax : la Cour Suprême avait, au terme de huit ans de procédure, fait droit à Sony, au motif que le magnétoscope n’était pas exclusivement destiné à copier des contenus. La Cour entendait ainsi encourager les innovations techniques indépendamment d’effets externes sur la valeur des contenus. Les studios avaient alors réagi en privilégiant le standard VHS, concurrent de celui de Sony, mieux adapté à la vente des cassettes vidéo pré-enregistrées. De là s’est déployé le marché de la VHS, relayé depuis par celui du DVD, très profitable à l’industrie des contenus. L’arrêt Sony vs. Universal et ses conséquences économiques a été, jusqu’en 2005, régulièrement invoqué pour débouter les studios face aux promoteurs du peer-to-peer. 4.4 – Le développement d’une technologie ne peut s’appuyer sur des « contenus volés » L’arrêt de 2005, prononcé à l’unanimité des neuf juges, a engendré la fermeture immédiate de Grokster et l’abandon de son logiciel d’échange. Même si ses règles d’application demeurent 101 Livre blanc sur le « Peer-to-Peer » ambiguës, notamment dans le cas de logiciels libres, cette décision est significative à deux égards. D’un point de vue économique, elle revient sur le signal de 1983, indiquant, cette fois, que le contournement de la propriété intellectuelle, autrement dit le vol, ne peut être l’incitation principale de l’innovation technique. L’admettre reviendrait, en effet, à biaiser un processus essentiel de la dynamique du capitalisme, la fameuse destruction créatrice explicitée par Schumpeter49. Car, s’il est logique que l’innovation technique périme des innovations antérieures et détruise des actifs industriels obsolètes, il n’y a pas lieu qu’elle détruise de la propriété non scientifique ou utilise son contournement comme une incitation. Il revient alors au droit, c’est le sens du jugement, d’apprécier la nature économique du mécanisme. L’autre conséquence de l’arrêt est de donner aux studios et aux câblo-opérateurs les moyens juridiques de fixer le moment et les modalités par lesquelles ils réduiront la subvention du peerto-peer et articuleront la distribution par Internet à la distribution par le câble. Car le peer-topeer, s’il permet, d’un côté, de déployer de nouvelles infrastructures et des équipements terminaux, introduit, par ailleurs, un aléa moral dans toute la chaîne de distribution des contenus : il incite alors les distributeurs numériques à s’abriter derrière cette pratique pour ne pas faire leurs meilleurs efforts de vente, ou pour détourner la valeur des contenus vers les équipements. La décision de donner aux ayants droit les moyens de restreindre l’aléa moral de leur distribution est un choix politique : elle réaffirme la primauté des règles de propriété intellectuelle sur les objectifs de diffusion massive, autrement dit le principe de l’internalisation des effets de la création intellectuelle par les industries de contenus. On observe, en 2006, que la bande passante d’Internet occupée par le peer-to-peer aux Etats-Unis est en recul, notamment pour le trafic descendant : les abonnements Internet y coûtent plus cher qu’en Europe pour des débits bien moindres et les échanges en peer-to-peer n’occupent que 48 % de la bande passante descendante50. Ces chiffres sont, en outre, très inférieurs à ceux observés en Europe51. 4.5 – En France, la primauté économique reste accordée aux industries d’équipement La situation européenne est moins claire, notamment dans les pays où Internet est associé aux télécoms. La première raison se trouve dans l’asymétrie existant entre des industries de contenus éparpillées et dépendantes des Etats et le secteur des technologies de l’information emmené par l’industrie des télécoms. A cette inégalité structurelle s’ajoute l’inadéquation des 49 Schumpeter décrit en effet le processus d’innovation comme une démarche tirée par la compétition pour l’efficacité productive ou fonctionnelle. Voir O.Bomsel, A.G. Geffroy, « DRM, Innovation and Creation » Communications and Strategies, n°62, second quarter 2006. 50 Selon Sandvine, fournisseur de solutions Internet, 48 % de la bande passante descendante et 76 % de bande passante montante sont occupés par le peer-to-peer aux Etats-Unis. 102 Livre blanc sur le « Peer-to-Peer » représentations économiques aux enjeux de compétitivité des industries culturelles. La vision productiviste dominante profite entièrement aux industries d’équipement qui incarnent le progrès technique et social des innovations numériques. Ce rapport de force permet aux détenteurs d’infrastructures et à leur clientèle, bénéficiaire des contenus gratuits, de peser activement dans le débat politique. Que font, en effet, les jeunes internautes si ce n’est soutenir la marche du progrès ? Les associations de consommateurs ne sont d’ailleurs pas en reste qui se sont prononcées, en France, pour la licence légale. A défaut de l’obtenir, elles cautionnent de la sorte une tarification abusive de l’accès qui fait payer à tous, le débit consommé par les contrefacteurs. Tous les consommateurs ne se trouvent pas ainsi également défendus. 4.6 – Derrière les contenus, affrontement des détenteurs d’infrastructures En outre, même si le but ultime des fournisseurs d’accès est de distribuer des contenus sur le modèle du câble, les détenteurs d’infrastructures n’ont rien à perdre, à court terme, au contournement des droits. Au contraire, il doit leur permettre de renforcer leur pouvoir de marché dans la relation verticale qui les oppose déjà aux ayants droit. Plus il y aura d’abonnés à l’ADSL et plus les conditions de distribution des contenus seront favorables aux opérateurs télécoms. Cette situation a d’ailleurs contribué, en 2006, au rapprochement de Canal + et TPS, les deux plates-formes françaises de télévision payante. La fusion permet notamment la concentration des catalogues de films et l’accroissement du pouvoir de marché de la télévision sur l’achat des droits audiovisuels. Comme aux Etats-Unis, la question fondamentale associée au peer-to-peer, autrement dit, au respect de la propriété intellectuelle, est de savoir comment et au bénéfice de qui se décide le passage à la seconde phase du jeu. L’application du droit donne, en cette matière, le contrôle de la subvention. La passe d’armes de l’été 2006 entre le Ministre français de la Culture et le Conseil Constitutionnel au sujet de la répression de la contrefaçon a porté très précisément sur ce point : la sévérité de la répression de la contrefaçon est le paramètre-clé de la désutilité du peer-to-peer, et donc du rapport de force entre ayants droit et distributeurs. Appliquer la loi commune revient à laisser aux ayants droit le soin de réguler la subvention. Réclamer une exception transfère ce pouvoir aux réseaux. Quelle que soit l’issue de ce bras de fer, il est clair qu’au bout du compte ce seront les contenus audiovisuels qui bénéficieront du déploiement de l’infrastructure filaire, car ce sont eux qui, sur le long terme, engendrent les effets de réseau les plus forts. Seule, la musique qui ne dispose pas de distribution dématérialisée alternative, n’aura pas cette latitude. Son contournement par Internet risque de se prolonger, d’autant plus que les équipementiers ont intérêt à faire durer la 51 La France détient le record des pays européens avec 85 % de la bande passante descendante et 90 % de la bande passante montante. Etude Sandvine 2005. 103 Livre blanc sur le « Peer-to-Peer » guerre des standards qui les oppose dans les DRM. Mis en concurrence avec des systèmes de distribution équivalents au câble, Internet devra alors faire la preuve de son efficacité commerciale. Au final, sa polarisation sur des fonctions d’échange handicape sa capacité à distribuer des contenus propriétaires et concentre ses effets de réseau sur le partage d’informations privées, à des coûts sans cesse décroissants. Grâce au système wi-fi, il est déjà le substitut du mobile dans l’échange de données sans fil. Le peer-topeer appliqué à la voix — Skype — en fait un substitut du téléphone classique. Il deviendra bientôt un rival du téléphone mobile. De plus en plus utile et de moins en moins cher, Internet risque alors d’apparaître comme tous les vecteurs de gratuité : le cheval de Troie de services payants sur un support groupé, le câble. 104 Livre blanc sur le « Peer-to-Peer » Chapitre 6 Le cadre juridique applicable à la protection des contenus en ligne et au « peer to peer » Pierre Sirinelli 105 Livre blanc sur le « Peer-to-Peer » I – Introduction – Les échanges peer to peer ont-il besoin d’un cadre spécifique ? Evoquer le cadre juridique applicable aux échanges peer-to-peer peut a priori surprendre. Certes, il est possible d’imaginer que ces échanges relèvent tant des règles applicables aux contenus (pour l’essentiel la propriété littéraire et artistique, mais pas uniquement) que de celles concernant les « tuyaux » ou les personnes intervenant peu ou prou dans le processus de communication. De ce point de vue, la loi (n° 2004-575) pour la confiance dans l’économie numérique (LCEN), du 21 juin 2004, fournit (non exclusivement) un cadre qui retient l’attention. Mais, à la vérité, les échanges « pair à pair » n’ont pas de statut particulier. Ils relèvent, par exemple, purement et simplement du droit commun du droit d’auteur. La neutralité de la technologie peer-to-peer interdit dans un premier temps d’envisager la question, de façon particulière. En réalité, cette technique n’est ni licite ni illicite par elle-même, seuls doivent être pris en considération les usages qui en sont faits. Cette neutralité technologique pourrait expliquer le silence de la directive du 22 mai 2001 à propos de ce mode d’échange. Toutefois, la discrétion du texte communautaire à ce propos a une explication plus prosaïque : Le P2P était tout simplement méconnu au moment où la directive a été négociée en sorte que personne n’a songé à appréhender la question (l’observation est, naturellement, encore plus exacte s’agissant des Traités de l’OMPI du 20 décembre 1996, parfois appelés « Traités Internet » et en partie à l’origine de la directive). 1.1 - Un « phénomène culturel et social » que le législateur ne pouvait plus ignorer Comment expliquer, alors, que le législateur français, qui n’était donc en rien tenu par l’examen de pareille question, se soit malgré tout emparé de la difficulté ? L’une des raisons de cette attention réside sans doute dans le constat que le thème était devenu un vrai débat de société au confluent de fortes attentes, d’intérêts antagonistes et d’enjeux économiques non négligeables. Ce qui a eu pour conséquence que des propositions, souvent opposées, émanant de différents acteurs, lui ont été présentées en sorte qu’il a pu paraître souhaitable d’arbitrer cette controverse. Il est vrai que les débats, dont la presse non spécialisée s’est largement faite l’écho, mêlaient nombre de paramètres : l’engouement des internautes pour pareille distribution des œuvres de l’esprit, les craintes des industries culturelles face aux échanges non autorisés, des analyses économiques (peu souvent concordantes) des pertes occasionnées par de pareils actes, les actions intentées par les ayants droit, la condamnation d’internautes ou encore celle, aux États- 106 Livre blanc sur le « Peer-to-Peer » Unis ou en Australie, d’éditeurs de logiciels permettant ces pratiques et faisant de ces dernières un business model, les revendications des consommateurs et les déclarations de certains hommes ou femmes politiques à l’approche d’élections nationales… Le tout sur fond d’équipement de la France et d’entrée du pays dans le 21ème siècle et la société de l’information. Cette dernière étant présentée comme le principal gisement d’emplois, il était difficile à la France, en retard dans le processus de transposition, de laisser penser que la question pouvait être ignorée. Le Parlement chargé de légiférer pouvait, en outre, se considérer comme éclairé par nombre de travaux, notamment ceux du Conseil supérieur de la propriété littéraire et artistique (CSPLA). Ce dernier a réuni, pendant plus d’un an, des professionnels de tous horizons mais aussi des consommateurs ou des représentants d’associations des familles, pour envisager les voies qu’il était possible d’explorer pour faire face à ce phénomène social et culturel. Le rapport52 qui a été adopté à la suite d’un examen des aspects techniques, économiques, sociologiques et juridiques a conduit au rejet de certaines solutions et à quelques propositions. L’idée maîtresse de ces travaux - et de cette plus modeste étude - est qu’il n’est pas du tout souhaitable de combattre en soi la technologie de pair à pair qui, non seulement, est susceptible d’être une chance pour les industries culturelles de demain mais qui peut, en outre, tout en répondant à un fort appétit de consommation d’œuvres, fournir l’occasion à de nombreux artistes de se faire connaître ou de sortir de l’ombre où ils se sentaient enfermés. 1.2 - La solution de la licence globale finalement écartée Certains parlementaires ont eu le sentiment qu’il fallait traiter le phénomène en légalisant les échanges non autorisés par les ayants droit tout en tentant de compenser les pertes que pareils actes pouvaient occasionner. L’idée leur en était venue après les travaux de l’« Alliance »53 désireuse de créer une « licence globale ». L’examen de pareille construction avait eu lieu en CSPLA54 qui ne l’avait pas retenue pour plusieurs raisons. En premier lieu, à cause de la difficulté à admettre que ce système – qui créait un cas de gestion collective obligatoire pour la 52 Rapport de la commission relative à la distribution des contenus numériques, La Documentation française, Consultable en ligne : < http://www.culture.gouv.fr/culture/cspla/index-cspla.htm >. Voir aussi. l’avis adopté au mois de décembre 2005 : < http://www.culture.gouv.fr/culture/cspla/indexcspla.htm >. 53 l’Alliance Public-Artistes regroupe, d’un côté, des représentants d'artistes-interprètes (sociétés de gestions collective, associations et syndicats : ADAMI, SPEDIDAM, FNS, SAMUP, SNM FO, UMJ, Qwartz), de certaines catégories d'auteurs (SAIF, UPC, SNAP CGT), et de l’autre, les consommateurs (CLCV, UFC Que Choisir, Association des Audionautes), la Ligue de l'enseignement et les familles (UNAF). 107 Livre blanc sur le « Peer-to-Peer » mise à la disposition des œuvres et leur téléchargement ascendant (upload) et reposait sur la qualification, quelque peu forcée, du téléchargement descendant (download) en copie privée – était conforme aux engagements internationaux de la France. En deuxième lieu, parce que les analyses économiques montraient que la construction reposait davantage sur une logique compensatoire (au demeurant insuffisante dans son volume) plutôt que sur une incitation à l’investissement, ce qui, à terme, pouvait tarir la création. En troisième lieu, parce que si l’idée paraissait simple dans son principe, elle reposait sur des hypothèses plus complexes dans lesquelles l’internaute, le fournisseur d’accès ou les ayants droit avaient dû mal à s’y retrouver. Système obligatoire ou optionnel ? Limité à certaines catégories d’œuvres ou général ? Avec des restrictions dans le temps ?… En définitive pour séduisante qu’elle soit au premier abord - y compris pour le signataire de ces lignes, lui-même consommateur - la licence globale suscitait autant de difficultés qu’elle paraissait en résoudre. Destinée à être une solution de simplicité, elle était loin de présenter cette qualité en sorte que ces divers constats, joints à l’observation de l’impossibilité (et, à tout le moins de l’inopportunité) de son admission sur le plan juridique, ont conduit à son rejet par le Parlement. 1.3 - Difficultés de mise en place d’un système de « réponse graduée » Parallèlement à cette démarche, les professionnels de l’industrie cinématographique et les fournisseurs d’accès envisageaient la possibilité de mettre sur pied un système de « réponse graduée »55. L’idée qui dominait pareille construction était de faire d’abord prendre conscience à l’internaute de l’illégalité de certains des actes accomplis. Après plusieurs avertissements, prenant diverses formes, du courriel à l’envoi d’une lettre recommandée, la poursuite de pareils actes pouvait entraîner la mise en œuvre de sanctions financières. La réponse graduée se voulait donc progressive, pédagogique et dissuasive. Elle n’a pas obtenu le succès attendu par ses promoteurs pour des raisons de forme et de fond. Quant au fond, les textes qui devaient la mettre en œuvre étaient complexes à écrire et certaines réserves se faisaient jour ici ou là. Le retard pris dans la rédaction a entraîné une procédure peu appréciée des parlementaires puisque l’amendement de plusieurs pages qui devait être soumis aux députés n’a été connu de ces derniers que la veille de l’ouverture des débats. Un travail de sape présentant cette construction comme totalement liberticide a tôt fait de lui ôter toute chance d’un examen serein. Il est vrai que la première désignation de ce système était celle de « riposte graduée », 54 Rapport de la commission relative à la distribution des contenus numériques, La Documentation française, Consultable en ligne : < http://www.culture.gouv.fr/culture/cspla/index-cspla.htm >. 55 Sur la question : < http://www.sacd.fr/actus/positions/2005/notevod_150206.pdf >. 108 Livre blanc sur le « Peer-to-Peer » expression évoquant la crise de Cuba et les possibilités d’escalade nucléaire. D’aucuns se sont emparés de ce parallèle pour présenter la proposition comme érigeant un système totalement répressif, ce qui était au rebours de l’intention de ses concepteurs, et se sont interrogés tout haut sur les difficultés de mise en œuvre. Quid de l’opinion de la CNIL ? Qui supportera les coûts des avertissements ? À qui s’adresse-t-on ? Aux abonnés ? Aux internautes ? Ces problèmes joints aux accusations de vouloir créer une « police privée de l’Internet » ont eu raison de cette idée à l’époque. La question se pose néanmoins de la poursuite des travaux sur ce sujet de façon à compléter les dispositifs existants pour ce qui concerne la grande masse des actes illicites commis. Comment donc essayer de favoriser l’essor d’échanges « pair à pair » sécurisés et légaux ? 1.4 - L’esprit de la loi du 1er août 2006 Même si la loi du 1er août 2006 porte moins la trace de ce mouvement que la loi votée le 30 juin 2006, en raison de la censure du Conseil constitutionnel intervenue le 27 juillet 2006, la construction peut être présentée comme étant articulée autour de deux axes : des efforts pour tenter de tarir les cas de contrefaçon dans l’amont (A) et, dans l’hypothèse d’actes illicites persistants (mais il est vrai que la loi n’impose aucune approche chronologique), le prononcé de sanctions mesurées en aval (B). Présenté à tort comme un dispositif destiné à accentuer la répression, l’ensemble des solutions adoptées révèle plutôt un souci de prévention : mieux vaut tenter d’éviter les hypothèses d’utilisations illicites que de penser pouvoir les éradiquer par une seule logique de sanction. Au demeurant, s’il faut, en désespoir de cause, envisager cette dernière dimension, autant que cela soit à l’encontre de ceux qui (pour reprendre le sous-titre de cette étude) profitent de la situation. Ceux dont le modèle économique est clairement l’incitation à la contrefaçon. L’idée générale est d’éviter que l’offre légale émergente ne soit concurrencée de façon déloyale par les échanges illicites. S’il faut encourager les échanges P2P, cela ne peut se faire qu’en la protégeant d’activités parasitaires et en offrant aux consommateurs un cadre sécurisé. 2 - La recherche de solutions visant à tarir les hypothèses de contrefaçon L’idée majeure de la construction est de tenter de sensibiliser certaines personnes autres que les internautes : éditeurs de certains logiciels (I) ou bien fournisseurs d’accès, abonnés à l’Internet (II). L’ensemble proposé veut éviter toute approche dogmatique et ne relève en rien d’une quelconque « chasse aux sorcières » : il s’agit de trouver des réponses appropriées, mesurées, à 109 Livre blanc sur le « Peer-to-Peer » une question redoutablement complexe. 2.1 - La sensibilisation des éditeurs de logiciels permettant les échanges d’œuvres ou d’éléments protégés Cette sensibilisation s’articule en deux volets. L’un (a) pénal (art. L. 335-2-1 CPI), l’autre (b) civil (L. 336-1 CPI). 2.1.1 - Le « volet pénal » : L. 335-2-1 du Code de la propriété intellectuelle Pas toujours comprise et parfois présentée de façon inexacte, cette construction est inspirée des jurisprudences américaine (aff. Grokster56) ou australienne (aff. Kaaza57) elle repose sur une observation de bon sens selon laquelle les éditeurs de logiciels dont le modèle économique est fondé sur l’incitation à la contrefaçon devraient voir leur responsabilité engagée. L’article 21 de la loi du 1er aout 2006 a donc inséré, dans le Code de la propriété intellectuelle, un article L. 335-2-1 ainsi rédigé : « Est puni de trois ans d'emprisonnement et de 300 000 € d'amende le fait : « 1° D'éditer, de mettre à la disposition du public ou de communiquer au public, sciemment et sous quelque forme que ce soit, un logiciel manifestement destiné à la mise à disposition du public non autorisée d'œuvres ou d'objets protégés ; « 2° D'inciter sciemment, y compris à travers une annonce publicitaire, à l'usage d'un logiciel mentionné au 1°. « Les dispositions du présent article ne sont pas applicables aux logiciels destinés au travail collaboratif, à la recherche ou à l'échange de fichiers ou d'objets non soumis à la rémunération du droit d'auteur ». Les peines encourues sont celles applicables à la contrefaçon. L’idée d’abaisser les sanctions n’est venue à l’esprit de personne dans la mesure où, d’une part, le délit est intentionnel et où, d’autre part, ces dernières ne seront pas fréquentes. En effet, pour tomber sous le coup de cette nouvelle disposition, l’éditeur du programme qui permet les échanges contrefaisants doit l'éditer, le mettre à la disposition du public ou le communiquer au public, « sciemment ». Il faut, en outre, que ce programme soit « manifestement destiné à la mise à disposition du public non autorisée d'œuvres ou d'objets protégés ». 56 57 Propr. intell. 2005, n° 16, p. 347 sq. Propr. intell. 2005, n° 17, p. 444 sq. 110 Livre blanc sur le « Peer-to-Peer » Suivant l’alinéa 2, des personnes autres que l’éditeur peuvent voir leur responsabilité engagée, tous ceux qui incitent à l’usage de pareils logiciels. Encore faut-il que cela soit « sciemment ». Bien que contesté par certains professionnels inquiets d’éventuelles répercussions de cette construction sur leur activité ainsi que par les tenants du logiciels libres soucieux de ne pas voir leur activité d’innovation entravée ou leur logique d’ouverture dénaturée, ce texte est pourtant l’un des rares à avoir traversé tout le processus parlementaire sans d’importantes modifications. Il n’innove pas puisque pareilles solutions ont été retenues à l’étranger mais il permet d’éviter les lourds débats qui auraient pu exister si les actions des ayants droit avaient été menées sur le terrain plus classique de la complicité par fourniture de moyens. Par rapport au texte en définitive promulgué, la « petite loi » du 30 juin 2006 ajoutait qu’il ne fallait pas, pour que puisse être engagée la responsabilité des personnes visées, que le logiciel concerné soit destiné « au travail collaboratif, à la recherche ou à l'échange de fichiers ou d'objets non soumis à la rémunération du droit d'auteur ». Ce dernier alinéa ayant été adjoint, à la suite d’un amendement suggéré, à l’Assemblée nationale, par les tenants des logiciels libres et maintenu en commission mixte paritaire en dépit de sa disparition au Sénat. L’idée était de soustraire ce type de programmes du champ de la nouvelle disposition afin de ne pas entraver la recherche. Annulation de certaines dispositions de la petite loi par le Conseil constitutionnel Cette exclusion a cependant disparu à la suite de la décision du Conseil constitutionnel du 27 juillet 2006 après que l’ensemble du dispositif eut vu sa constitutionnalité contestée. Ainsi, selon le Conseil (considérants 55 sq.) : 55. Considérant que les requérants font valoir que l’imprécision des termes « sciemment» « manifestement destinés » et « travail collaboratif » méconnaîtrait le principe de légalité des délits et des peines ; qu’ils ajoutent qu’en ne visant que les « objets et fichiers non soumis à rémunération du droit d’auteur » la clause d’exonération de responsabilité pénale instaure une discrimination qui lèse les droits moraux des auteurs ayant renoncé à une rémunération, ainsi que les droits voisins du droit d’auteur ; 56. Considérant que les termes « manifestement destinés » et « sciemment » sont suffisamment clairs et précis pour que les dispositions de caractère pénal qui s’y réfèrent ne méconnaissent pas le principe constitutionnel de légalité des délits et des peines ; 57. Considérant, en revanche, qu’il n’en est pas de même de la notion de « travail collaboratif » ; qu’en outre, le dernier alinéa de l’article 21 de la loi déférée, qui exonère de toute 111 Livre blanc sur le « Peer-to-Peer » responsabilité pénale les éditeurs de logiciels destinés au « travail collaboratif » ou à l’échange de fichiers ou d’objets non soumis à la rémunération du droit d’auteur, n’est ni utile à la délimitation du champ de l’infraction définie par les trois premiers alinéas de cet article, ni exhaustif quant aux agissements qu’ils excluent nécessairement ; qu’il laisse, enfin, sans protection pénale les droits moraux des auteurs ayant renoncé à une rémunération, ainsi que les droits voisins du droit d’auteur ; qu’il méconnaît donc tant le principe de légalité des délits et 16 des peines que le principe d’égalité ; qu’il doit être déclaré contraire à la Constitution . Des exigences constitutionnelles pas toutes satisfaites En résumé, suivant la position constante du Conseil, les exigences constitutionnelles relatives à la définition des faits punissables sont satisfaites dès lors que l'infraction nouvelle est définie « en termes suffisamment clairs et précis pour exclure l'arbitraire » 58 et que la loi précise (ou 59 n'exclut pas) l'élément intentionnel . Comme, en l'espèce, les éléments constitutifs des premiers alinéas sont énoncés sans ambiguïté au moyen de termes qui revêtent tous une acception juridique certaine, il faut regarder les exigences constitutionnelles comme satisfaites60. En revanche, le dernier alinéa de l’article 21 de la « petite loi », qui désignait les logiciels d'échanges ne tombant pas sous le coup de l'incrimination, paraissait moins précis. Le doute naissait tant des explications successives et contradictoires sur sa signification que de l'imprécision même de certaines expressions y figurant, comme celle de «travail collaboratif, » non éclairée par les travaux parlementaires. Ce sont ces considérations (entre autres) qui ont conduit le Conseil à conclure à la non-conformité de cette dernière disposition aux exigences constitutionnelles qui, en vertu de l'article 8 de la Déclaration de 1789 et de l'article 34 de la Constitution, s'imposent à la définition des infractions (et donc des faits justificatifs qui permettent d'en déterminer le périmètre exact)61. Par un effet assez paradoxal, la saisine du conseil constitutionnel a eu un effet contraire à celui recherché par les auteurs de la saisine ! Alors que ces derniers souhaitaient voir disparaître tout l’article 21 et donc voir anéantie toute la construction pénale, le texte nouveau contient désormais une incrimination plus large que celle voulue par le Parlement ! 58 n° 80-127 DC, 20 janvier 1981, cons. 7 ; n° 84-176 DC, 25 juillet 1984, cons. 6 ; n° 98-399, 5 mai 1998, cons. 7 ; n° 2001-455, 12 janvier 2002, cons. 82 ; n° 2004-492, 2 mars 2004, cons. 5 59 n° 99-411 DC, 16 juin 1999, cons. 16 ; n° 2003-467 DC, 13 mars 2003, 64 et 65, 73 et 75 ; n° 2003484, 20 novembre 2003, cons. 42 60 Cahier du Conseil constitutionnel, n°21 61 Cahier du Conseil constitutionnel, n°21 112 Livre blanc sur le « Peer-to-Peer » 2.1.2 - Le volet civil : l’article L. 336-1 du CPI Le volet civil (issu de l’article 27 de la loi du 1er août 2006) a son siège plus loin dans le Code de la propriété intellectuelle. La place de cette nouvelle disposition (article L. 336-1 CPI) n’est pas neutre puisque elle est insérée dans un nouveau chapitre, VII, consacré à la « Prévention du téléchargement illicite ». Il s’agit donc moins de punir que d’empêcher les actes illicites. Suivant ce texte, « lorsqu'un logiciel est principalement utilisé pour la mise à disposition illicite d'œuvres ou d'objets protégés par un droit de propriété littéraire et artistique, le président du tribunal de grande instance, statuant en référé, peut ordonner sous astreinte toutes mesures nécessaires à la protection de ce droit et conformes à l'état de l'art. « Les mesures ainsi ordonnées ne peuvent avoir pour effet de dénaturer les caractéristiques essentielles ou la destination initiale du logiciel. « L'article L. 332-4 est applicable aux logiciels mentionnés au présent article ». Présenté parfois comme destiné à créer un système de responsabilité du fait d’autrui ou une hypothèse de responsabilité sans faute, cet article ne poursuit pourtant pas de pareils objectifs. À l’instar de ce qui existe déjà dans l’environnement numérique, il n’instaure pas un régime de responsabilité a priori mais soumet certaines personnes à une obligation de dialogue ou de coopération avec l’autorité judiciaire. Certes, il vise le cas de logiciels « dévoyés » et contraint certaines personnes, à la demande du juge des référés, à prendre certaines mesures pour éviter des actes de contrefaçon accomplis par l’intermédiaire de programmes servant à des échanges de pair à pair illicites. Certes, l’inertie de la part de ces personnes après la décision du juge est susceptible d’entraîner le prononcé des sanctions, mais dans quel domaine est-il permis d’ignorer une décision de justice ? Il est vrai, cependant, que la personne qui aura, par exemple, édité un programme utilisé contre toute attente à des fins de contrefaçon peut voir sa responsabilité engagée parce que d’autres en auront fait un usage imprévu. Mais la responsabilité n’est pas automatique pour autant62. En quels cas, l’absence de réaction est-elle susceptible d’entraîner une éventuelle responsabilité ? Tous les logiciels « détournés » à des fins de contrefaçon ne sont pas concernés par le texte. Seulement ceux qui sont principalement utilisés à cet endroit. Même en pareil cas, la condamnation n’est pas automatique. Le juge peut, au vu des faits, ne pas ordonner de mesures. Ce peut être le cas, notamment, si la seule possibilité d’empêcher le 62 A l’instar de ce qui est prévu dans certaines dispositions de la loi pour la confiance dans l’économie numérique 113 Livre blanc sur le « Peer-to-Peer » trouble résidait dans l’adoption de mesures ayant « pour effet de dénaturer les caractéristiques essentielles ou la destination initiale du logiciel ». Et à supposer que le juge prenne la décision d’intervenir, la mesure prononcée devra être du domaine du possible puisqu’elle devra être en conformité avec l’état de l’art. À l’impossible nul n’est tenu. Ce que texte tente de bâtir, c’est une voie raisonnable où les intérêts des uns et des autres seraient également pris en considération. À la vérité, la disposition a surtout pour ambition d’éviter que, pour pouvoir échapper à d’éventuelles sanctions, la malice (traitée à l’art. 335-2-1) prenne le masque de l’ignorance. L’émotion chez certains est surtout née de ce que certaines mesures pourraient consister dans l’implémentation de dispositifs techniques. Par exemple de filtrage ou de reconnaissance auditive. Le monde du logiciel libre rejette cette idée car l’insertion de techniques qui reposeraient sur des systèmes propriétaires est étrangère à leur philosophie. Mais le texte n’a jamais eu pour ambition d’appréhender en priorité ce type de programmes et l’intérêt de la construction retenue est de permettre un dialogue entre les responsables de ces logiciels et l’autorité judiciaire. Toutes les voies sont à explorer. Loin de freiner l’innovation, cette mesure pourrait en certains cas la favoriser. 2.2 - Sensibilisation à des fins de prévention de certains acteurs de l’Internet Les articles 25 et 28 de la loi du 1er août 2006 relèvent davantage de la prévention que de la répression. Le premier s’adresse à l’abonné d’un accès à l’Internet, le deuxième aux fournisseurs d’accès. 2.2.1 – Obligation à la charge de l’abonné L’article 25, dû à une initiative du Sénat, a créé un article L. 335-12 du CPI ainsi rédigé : « Le titulaire d'un accès à des services de communication au public en ligne doit veiller à ce que cet accès ne soit pas utilisé à des fins de reproduction ou de représentation d'œuvres de l'esprit sans l'autorisation des titulaires des droits prévus aux livres Ier et II, lorsqu'elle est requise, en mettant en œuvre les moyens de sécurisation qui lui sont proposés par le fournisseur de cet accès en application du premier alinéa du I de l'article 6 de la loi n° 2004575 du 21 juin 2004 pour la confiance dans l'économie numérique ». Cette disposition met donc à la charge d'un abonné l'obligation, sous peine de sanctions pénales (l’article L. 335-12 du CPI est inséré dans le Chapitre 5 ayant trait aux « dispositions pénales »), 114 Livre blanc sur le « Peer-to-Peer » d'empêcher des actes de contrefaçon. L’attention de l’abonné aura été attirée par son fournisseur d’accès sur les dangers sur P2P puisque son opérateur est tenu (article L. 336-2 CPI, étudié infra, b)) de le sensibiliser à ce phénomène. Concrètement, il est possible d'imaginer que pèsera sur l'abonné l'obligation d'avoir recours à des moyens techniques afin d'éviter que des personnes présentes en son foyer utilisent l'accès à l’Internet pour procéder à des échanges pair à pair illicites. On peut songer ainsi au recours à un logiciel de filtrage. Mais le périmètre précis de cette obligation est encore délicat à appréhender. Que se passera-t-il, par exemple, lorsqu’un seul et même abonnement dessert divers postes d'une même institution ? Ou encore quand les actes de contrefaçon sont accomplis par des tiers qui usent d'une facilité technique offerte par un réseau Wifi ? Est-il encore possible d'envisager la responsabilité du titulaire de l'abonnement alors même que les actes répréhensibles sont accomplis en dehors du foyer ou d'un périmètre qu'il peut raisonnablement contrôler ? Le texte ne semblant pas lier le contenu de l'obligation à des contingences géographiques, il faudrait alors considérer que pèse sur l'abonné un devoir de sécurisation de sa bande passante. Le titulaire de l'accès à l'Internet devrait alors assortir son dispositif de clés ou de mesures techniques interdisant à des tiers de pénétrer dans son accès ou de venir en quelque sorte squatter son réseau pour accomplir, de façon anonyme, les actes d'échanges illicites. Dans une voie raisonnable, il ne devrait alors pas être possible de poursuivre l'abonné qui a effectué des actes de diligence en fonction d'un état déterminé de la technique. L'obligation qui pèse sur le titulaire de l'accès est celle d'avoir recours aux dispositifs présentés comme étant les plus fiables ou ceux qu'il est possible de recommander. Elle n'est pas celle de garantir l'efficacité de ces dispositifs. La norme de référence serait en quelque sorte la conformité aux « règles de l'art ». Autrement dit, l'article 25 ne pose pas l'obligation d'éradiquer tout acte de contrefaçon mais plus simplement de déployer les moyens connus pour les empêcher dans la mesure du possible. L'abonné qui apportera la preuve de cette diligence devrait échapper à la mise en œuvre de sa responsabilité. Le texte il est vrai est encore porteur de nombreuses interrogations. Certaines ayant trait à l'exigence d'un élément intentionnel ou aux difficultés d'ordre probatoire. Il est possible également de se demander si la responsabilité est susceptible d'être engagée, indépendamment de tout acte de contrefaçon, du seul fait de l'absence de précautions. Ou bien si cette carence n'est répréhensible qu'en présence d'actes illicites de la part des internautes. La deuxième interprétation paraît la plus probable mais, sur ce point comme à propos d'autres interrogations, des éléments de réponse sont attendues d'un futur décret. 115 Livre blanc sur le « Peer-to-Peer » 2.2.2 – Obligation à la charge du fournisseur d’accès à l’Internet L’article 28, dont l’économie était, tout comme celle de l’article 25, absente du projet de loi a créé un article L. 336-2 dans le Code de la propriété intellectuelle prévoyant, dans le nouveau chapitre (VI) consacré à la « prévention du téléchargement illicite », que « les personnes dont l'activité est d'offrir un accès à des services de communication au public en ligne adressent, à leurs frais, aux utilisateurs de cet accès des messages de sensibilisation aux dangers du téléchargement et de la mise à disposition illicites pour la création artistique. Un décret en Conseil d'État détermine les modalités de diffusion de ces messages ». L’initiative de cette disposition est due à l’Assemblée nationale, le Sénat se contentant de rajouter la soumission à un décret en Conseil d’État pour la mise en place des modalités de mise en œuvre. Il n’est pas certain que les fournisseurs d’accès apprécient et la charge qui leur incombe ainsi et le fait d’avoir à en supporter les frais. Au-delà de cette construction, se pose la question plus générale des obligations qui sont susceptibles de peser sur un fournisseur d’accès à l’Internet. On sait que ces intermédiaires ne peuvent, a priori, voir leur responsabilité engagée lorsqu’ils permettent l’accès à des contenus illicites. Cela résulte en quelque sorte de leur neutralité « historique » vis-à-vis des contenus, de laquelle la directive communautaire du 8 juin 2000 (relative au commerce électronique ; article 12 ayant trait au « simple transport ») et la loi du 21 juin 2004 pour la confiance dans l’économie numérique (LCEN) déduisent un principe d’irresponsabilité. Suivant ces textes, les fournisseurs d’accès ne peuvent être tenus pour responsables des informations transmises à condition, d’une part, qu’ils ne soient pas à l’origine de la transmission, d’autre part, qu’ils ne sélectionnent pas le destinataire de la transmission et, d’une troisième part, qu’ils ne sélectionnent ni ne modifient les informations faisant l’objet de la transmission. Mais cette exclusion de responsabilité, qui est donc soumise à conditions, ne permet pas une passivité totale. En effet, tant la directive que la loi pour la confiance dans l’économie numérique précisent qu’une juridiction ou une autorité administrative peuvent exiger de pareil prestataire qu’il mette un terme à une infraction ou fasse en sorte de prévenir celles-ci. Ainsi l’article 6, I-8 de la LCEN, permet à une autorité judiciaire de « prescrire en référé ou sur requête, à toute personne mentionnée au 2 ou, à défaut, à toute personne mentionnée au 1, toutes mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par le contenu d'un service de communication au public en ligne ». 116 Livre blanc sur le « Peer-to-Peer » Le précédent de la restriction de l’accès à des sites révisionnistes : décision de la Cour d’appel de Paris Sur le fondement de ce texte, hors droit d’auteur, la Cour de Paris, le 24 novembre 2006, a pu contraindre certains fournisseurs d’accès à empêcher l’accès à des sites révisionnistes hébergés à l’étranger. Pour leur défense les FAI faisaient valoir que les recours à l’encontre des auteurs des sites et de leurs hébergeurs n’étaient pas épuisés. Ils tentaient également de mettre en avant le fait que les mesures de filtrage qui leur étaient ainsi imposées étaient coûteuses et souvent inefficaces. Enfin, ils faisaient valoir que l’injonction qui leur était faite, non limitée dans le temps, était trop lourde. Ces divers arguments ont été rejetés par les magistrats, « dès lors qu’il est démontré que les associations ont accompli les diligences nécessaires pour mettre en cause, par priorité, les sociétés prestataires d’hébergement et que toute possibilité d’agir efficacement à l’encontre de celles-ci s’avère objectivement vaine et en tous cas incompatible avec les exigences d’une procédure conçue pour la prise rapide de mesures dictées par l’intérêt général » : « Considérant que cette argumentation, déjà développée par les fournisseurs d’accès au moment des débats parlementaires, n’a pas été retenue par le législateur qui, en dépit des difficultés techniques du filtrage, du coût et de la complexité de sa mise en œuvre et de son efficacité contestable, n’a pas exclu le recours à ce procédé et qui, en utilisant la formule "mesures propres à prévenir ou faire cesser un dommage” sans autre précision, a laissé au juge la possibilité d’empêcher ou, pour le moins, de limiter la consultation du contenu mis en ligne dans le cas où, comme en l’espèce, il n’est pas possible d’agir contre les hébergeurs étrangers ; Qu’une telle mesure, pour imparfaite qu’elle soit, a le mérite de réduire, autant que faire se peut en l’état actuel de la technique, l’accès des internautes à un site illicite (…) ; Que le nomadisme allégué du site de l’AAARGH ne saurait justifier la remise en cause d’une mesure propre à en entraver l’accès ; Qu’il n’est pas démontré par les prestataires d’accès qui invoquent des difficultés d’ordre technique l’impossibilité pour eux de mettre en place le filtrage effectué par les autres, étant observé que le premier juge a laissé à chacun de ces fournisseurs le soin de mettre en œuvre tous les moyens dont il peut disposer en l'état de sa structure et de la technologie ; Que le (...) moyen allégué par les appelants est donc inopérant ; Considérant qu’il est enfin prétendu que la mesure ordonnée, en ce qu’elle n’est pas limitée 117 Livre blanc sur le « Peer-to-Peer » dans le temps, contredit le caractère provisoire de la décision de référé ; qu’il est demandé à la cour de la cantonner et de la déclarer caduque à l'expiration d’un délai de deux mois à compter du présent arrêt si les associations demanderesses n’ont pas engagé dans ce délai les procédures nécessaires pour rendre exécutoire l’ordonnance du 20 avril 2005 à l’encontre des hébergeurs ou si, dans ce même délai, elles ne se sont pas constituées parties civiles sur la plainte contre X déposée par certaines d’entre elles auprès du procureur de la République le 25 janvier 2005 ; Considérant que l’ordonnance rendue en application de l’article 6-I.8 de la loi pour la confiance dans l’économie numérique s’inscrit dans le cadre d’une procédure qui, pour être spécifique, n’en relève pas moins des règles du référé de droit commun ; Que, cependant, le caractère provisoire de la décision énoncé par l’article 484 du nouveau code de procédure civile ne signifie pas que les mesures ordonnées soient nécessairement limitées dans le temps ; que si une telle limite s’impose lorsque la mesure est prise à titre conservatoire, ainsi qu’il résulte de la jurisprudence versée par les appelantes, elle ne saurait être admise, sauf à vider la décision de son sens et la priver d’efficacité, lorsque l’interruption de l'accès ordonnée par le président a pour but de faire cesser un dommage occasionné par le contenu d’un service de communication en ligne ; » Application en cas d’atteinte à la propriété littéraire et artistique lors d’échanges P2P Il n’est pas douteux que pareille disposition puisse être également applicable en cas de proposition par un site Web de contenus contrefaisants. L’article L. 332-1 du code de la propriété intellectuelle (issu de la loi pour la confiance dans l’économie numérique) prévoit lui-même, au point 4° de son deuxième alinéa, que : « Le président du tribunal de grande instance peut également, dans la même forme, ordonner : (…) 4º La suspension, par tout moyen, du contenu d'un service de communication au public en ligne portant atteinte à l'un des droits de l'auteur, y compris en ordonnant de cesser de stocker ce contenu ou, à défaut, de cesser d'en permettre l'accès. Dans ce cas, le délai prévu à l'article L. 332-2 est réduit à quinze jours ». La question peut donc se poser de l’application de pareils dispositifs, lors de la distribution d’œuvres par l’intermédiaire d’échanges P2P, à l’encontre des fournisseurs d'accès. 118 Livre blanc sur le « Peer-to-Peer » Si la loi paraît inviter le juge, par souci de réalisme, à privilégier les actions à l'encontre du fournisseur d'hébergement, elle ménage aussi la possibilité, afin de mieux lutter contre des contenus hébergés à l'étranger et à l'encontre desquels les décisions de justice françaises risquent d’être inefficaces, d’agir contre le fournisseur d’accès. La solution s’impose a fortiori lorsque le trouble ne provient pas d’un contenu hébergé. Ainsi, le rapport du sénateur Türk63 précisait que cette possibilité d’action contre les FAI était « le seul moyen de lutter contre des contenus illicites qui circulent sur Internet par le biais des systèmes de « peer to peer » décentralisé ». Et le parlementaire d’ajouter que « les progrès techniques qui pourraient intervenir dans le cadre de la communication publique en ligne devraient, à l'avenir, contribuer à améliorer les conditions du filtrage de l'accès à Internet afin de le rendre plus effectif ». Pour conclure, après avoir constaté que « lorsqu'il est décentralisé, le « peer to peer » n'utilise pas de serveur, mais la bande passante de chaque internaute » en sorte qu’il « n'existe donc pas d'hébergeur au sens de l'article 43-8 modifié de la loi du 30 septembre 1986 » : « En tout état de cause, la présente disposition ne saurait être entendue comme instituant une action subsidiaire à l'encontre du fournisseur d'accès, les justiciables devant intenter, en premier lieu, leur action à l'encontre du fournisseur d'hébergement. L'action prévue par l'article 43-12 nouveau pourra très bien être directement - et seulement - intentée à l'encontre du fournisseur d'accès ». La possibilité de demander la cessation du trouble à un fournisseur d’accès à l’Internet a été confirmée par la justice belge. Dans une ordonnance rendue le 29 juin 2007 (TRIBUNAL DE PREMIÈRE INSTANCE de Bruxelles, 29 juin 2007 : SCRL société belge des auteurs (SABAM) c/ SA Scarlet (anciennement Tiscali, il a été jugé, par référence directe à la directive commerce électronique du 8 juin 2000 (ce qui rend le raisonnement transposable en Doit français), qu’un FAI pouvait être contraint de prendre des mesures de blocage afin d’empêcher les échanges pair à pair illicites d’œuvres musicales. « Attendu que la directive 2000/31 du 8 juin 2000 relative à certains aspects juridiques des services de la société de l’information et notamment du commerce électronique dans le marché intérieur énonce en son article 15 que « les États membres ne doivent pas imposer aux prestataires [...] une obligation générale de surveiller les informations qu‘ils transmettent ou stockent » (…)Que l’article 15, qui fait partie de la section 4 de la directive consacrée à la « Responsabilité des prestataires intermédiaires », vise à éviter que le juge national déduise une faute dans le chef du prestataire du fait de la simple présence sur ses réseaux d’une information illicite au motif qu’il aurait manqué à une obligation générale de surveiller toutes les informations quelconques qu’il transmet (…); Que cette disposition qui règle ainsi la question de la responsabilité du prestataire s’adresse toutefois exclusivement au juge de la 63 Avis n° 351, Sénat 2003 - 2004 119 Livre blanc sur le « Peer-to-Peer » responsabilité et est sans incidence sur le présent litige dans la mesure où l’action en cessation ne suppose aucun constat préalable d’une faute dans le chef de l’intermédiaire64 ; Que la directive 2000/31 n’affecte en effet pas le pouvoir du juge de l’injonction et ne limite pas les mesures qui peuvent être prises par celui-ci à l’égard du prestataire ; Que les dispositions de la directive 2000/31 sur la responsabilité des prestataires intermédiaires et partant l'interdiction d’imposer une obligation générale de surveillance « ne doivent en effet pas faire obstacle au développement et à la mise en oeuvre effective, par les différentes parties concernées, de système technique de protection et d’identification ainsi que d’instruments techniques de surveillance rendus possibles par les techniques numériques » (voy. considérant 40 de la directive) ; Que l’ordre de cessation n’impose pas à Scarlet de « surveiller » son réseau ; Que les solutions identifiées par l’expert sont des « instruments techniques » qui se limitent à bloquer ou à filtrer certaines informations qui sont transmises sur le réseau de Scarlet ; qu’elles ne sont pas constitutives d’une obligation générale de surveiller le réseau ; Qu’en faisant droit à l’ordre de cessation sollicité le tribunal de céans n’ordonne dès lors aucune mesure contraire à l’article 15 de la directive 2000/31 (…); Attendu en outre que c’est à tort que Scarlet estime que cette injonction aurait pour effet de lui faire perdre l’exonération de responsabilité prévue à l’article 12 de la directive 2000/31 (article 18 de la loi du 11 mars 2003) qui bénéficie au prestataire dont l’activité se limite au simple transport ou de fourniture d’accès à internet à la condition notamment qu’il ne sélectionne ni ne modifie les informations faisant l’objet de la transmission ; Que selon le considérant 45 de la directive 2000/31, « les limitations de responsabilité des prestataires de services intermédiaires prévues dans la présente directive sont sans préjudice de la possibilité d’actions en cessation de différents types. Ces actions en cessation peuvent notamment revêtir la forme de décisions de tribunaux [...] exigeant qu‘il soit mis un terme à toute violation ou que l'on prévienne toute violation, y compris en retirant les informations illicites ou en rendant l'accès à ces dernières impossible » ; Que le seul fait que l’instrument technique de filtrage laisserait passer des oeuvres contrefaites du répertoire de la SABAM n’implique en outre nullement que ces oeuvres auraient été sélectionnées par Scarlet ; qu’en effet le fait de ne pas parvenir à bloquer un contenu n’implique pas que ce contenu ait été sélectionné par l’intermédiaire à défaut pour celui-ci de cibler l’information en vue de la fournir à sa clientèle ; que la mesure de blocage a un caractère purement technique et automatique, l’intermédiaire n’opérant aucun rôle actif dans le filtrage » (…) ; Que le tribunal de céans n’aperçoit pour le surplus pas en quoi les logiciels de blocage ou de filtrage violeraient le droit « au secret de la correspondance » ou la liberté 64 - Souligné par l’auteur 120 Livre blanc sur le « Peer-to-Peer » d’expression, Scarlet ne s’en expliquant au demeurant pas ; (…) Qu’il convient dès lors de faire droit à l’ordre cessation » Cette solution, logique, est bien le signe de la recherche d’un nouvel équilibre entre la volonté de permettre à certains intermédiaires de développer leurs activités, favorables à l’essor de la société de l’information, et le souci de préserver les droits de ceux qui sont à l’origine des contenus ou en gèrent l’exploitation. Il semble bien que, désormais, nombre d’intermédiaires ne puissent plus tenter de se réfugier derrière le statut confortable mis en place par la loi pour la confiance dans l’économie numérique. On sait que cette dernière, transposant la directive du 8 juin 2000, a multiplié les régimes en fonction des diverses activités des prestataires. A chaque activité, son statut. Mais il ne suffit pas à l’un des intermédiaires d’exercer une activité principale dans un domaine pour se voir appliquer le régime qui correspond à celle-ci dans toutes ses fonctions. Ainsi un fournisseur d’accès peut aussi être hébergeur ou fournisseur de contenu. Son statut est alors un véritable habit d’Arlequin composé de régimes différents, chacun correspondant à une fonction déterminée. En témoigne l’ordonnance de référé, rendue le 22 juin 2007, par le Président du Tribunal de Grande instance de Paris à propos du site Myspace. Ce portail communautaire laissait mettre en ligne des sketches de l’humoriste Jean-Yves Lafesse sans l’autorisation de ce dernier. Les services offerts par Myspace pouvaient être ainsi présentés : « la société Myspace dispose d’un site internet se définissant comme “un service de réseau social qui permet à ses membres de créer des profils personnels uniques en ligne afin de communiquer avec des amis anciens et nouveaux” aux termes du contrat d’utilisation produit ; (... Myspace …) propose à ses “membres” de créer une page personnelle comportant une trame spécifique au site avec en haut de la page un bandeau publicitaire et sur toute la page différents emplacements : au centre photographie du membre et autour différents cadres : identité du membre et contact - adresse URL du membre centre d’intérêts du membre - présentation du membre - différentes indications sur le membre (statut familial, références astrologiques, enfants) - amis du membre et commentaires des amis ». Poursuivie, Myspace faisait valoir pour sa défense sa prétendue qualité d’hébergeur et le statut d’irresponsabilité conditionnée qui en découle. Cette argumentation est rejetée par l’ordonnance qui constate que les fonctions de la société Myspace dépassent celles d’un simple hébergeur pour s’apparenter à celle d’un éditeur au statut bien différent. Selon l’ordonnance, « s’il est incontestable que la société défenderesse exerce les fonctions techniques de fournisseur d’hébergement, elle ne se limite pas à cette fonction technique ; qu’en effet, imposant une 121 Livre blanc sur le « Peer-to-Peer » structure de présentation par cadres, qu’elle met manifestement à la disposition des hébergés et diffusant, à l’occasion de chaque consultation, des publicités dont elle tire manifestement profit, elle a le statut d’éditeur et doit en assumer les responsabilités ». L’autoproclamation étant insuffisante à fonder une qualification juridique, il faut trouver des critères qui conduisent à une analyse plus exacte. Le premier critère réside logiquement dans la prise en considération de l’activité réelle de l’intermédiaire, en l’espèce loin d’être cantonné dans un rôle de prestataire purement technique. L’autre critère repose sur une analyse économique : le fait pour Myspace d’avoir recours à de la publicité et de jouer un rôle actif dans la diffusion de celle-ci. La solution semble la bienvenue. L’édification de régimes spéciaux correspond à une logique tirée de considérations techniques, économiques, industrielles, sociales et juridiques. Elle est souvent le fruit d’un arbitrage politique entre différentes contraintes et diverses aspirations. Chaque statut a sa logique et il ne serait pas sain que l’on puisse instrumentaliser les qualifications, quand bien même il existerait des doutes sur le tracé des frontières. Il serait malvenu que l’on admette que certains puissent forcer les qualifications pour se couler dans les statuts qui leur conviennent. Si la qualification d’hébergeur avait été retenue, Myspace n’aurait été responsable que pour autant que, dûment avertie de l’existence de contrefaçons sur le site hébergé, elle serait restée passive alors qu’elle avait les moyens de faire cesser le trouble. La responsabilité ne serait intervenue qu’a posteriori, en raison de l’inaction de l’hébergeur averti du trouble suivant les procédures ou hypothèses imposées par la loi. En revanche, en tant qu’éditrice, elle doit, en raison de rôle actif, répondre immédiatement des contenus qu’elle propose. Tout manquement aux règles de la propriété littéraire et artistique lui est directement imputable. Mais au-delà de cette solution indiscutablement logique, il semblerait que se dessine une nette évolution dans l’approche des difficultés liées au rôle des prestataires techniques. En témoigne une deuxième décision par laquelle le tribunal de grande instance de Paris (13 juillet 2007, 3ème chambre, deuxième section) a imposé à Dailymotion de procéder à un contrôle a priori relatif aux œuvres accessibles depuis le site. Le réalisateur et les producteurs du film « Joyeux Noël », constatant que l’œuvre audiovisuelle était offerte sur le site Internet Dailymotion ont saisi la justice pour faire constater l’atteinte aux droits d’auteur et formuler, à des fins de sensibilisation et de responsabilisation, des demandes d’indemnisation présentées comme mesurées. L’idée sous jacente à cette démarche judiciaire est d’inciter les sites communautaires à ne plus s’abriter derrière le statut de simple prestataire technique en rejetant la faute sur les seuls internautes qui installent des œuvres mais, au 122 Livre blanc sur le « Peer-to-Peer » contraire, à jouer un rôle actif dans la lutte contre la contrefaçon. Le tribunal a fait droit aux demandes du producteur, sans s’attacher à une éventuelle requalification en éditeur de contenu, en se fondant sur l’architecture du site et les moyens techniques mis en place par Dailymotion. Cette construction offrait aux internautes l’accès à des œuvres de toutes sortes, « tout en laissant le soin aux utilisateurs d’abonder le site dans des conditions telles qu’il était évident qu’ils le feraient avec des œuvres protégées par le droit d’auteur ». Cette décision paraît aller plus loin que la précédente dans la responsabilisation des prestataires puisqu’elle ne procède pas, à proprement parler, à une requalification de l’activité mais semble considérer que si le régime d’irresponsabilité conditionnelle n’impose pas au prestataire une obligation générale de recherche d’actes de contrefaçon, le régime bienveillant qui est le sien ne peut plus s’appliquer lorsque les activités illicites sont générées ou induites par le prestataire technique lui-même (« "si la loi n'impose pas aux prestataires techniques une obligation générale de rechercher les faits ou circonstances révélant des activités illicites, cette limite ne trouve pas à s'appliquer lorsque lesdites activités sont générées ou induites par le prestataire lui-même" »). C’est dire qu’il pourrait, suivant les hypothèses, exister une régime de « contrôle a priori » sur le contenu des œuvres diffusées sur un site communautaire. Apparaît ainsi l’idée d’un régime de responsabilité non plus pour faute mais fondée sur le « risque créé » ou le « risque profit » (voir, infra, conclusion de cette étude). Grâce tant à ces dispositions normatives qu’à cette construction jurisprudentielle qui en paraît issue, les actes de contrefaçon pourraient être en diminution. Mais comment traiter les actes qui perdureraient ? 3 - La sanction d’échanges non autorisés persistants À supposer la prévention et la sensibilisation inefficaces, se poserait alors la question de l’engagement de la responsabilité de certaines personnes65. L’examen de cette voie conduit à envisager successivement deux points : premièrement, l’analyse des actes de téléchargement par rapport aux règles de propriété intellectuelle (I); deuxièmement, les actes envisagés pouvant être considérés, en certains cas, comme relevant de la contrefaçon, quelles sont les sanctions encourues (II) ? 65 - Ce qui suppose que la preuve des échanges puisse être rapportée. A cet égard on relèvera que le Conseil d’État, dans un du 23 mai 2007, a annulé quatre décisions de la Commission nationale Informatique et Libertés (CNIL), en date du 18 octobre 2005, qui refusaient à plusieurs sociétés de gestion collective de droits d’auteur (SACEM et SDRM) et de droits voisins (SCPP, SPPF) la possibilité de procéder à un traitement portant sur les données relatives aux infractions des internautes utilisant les réseaux 123 Livre blanc sur le « Peer-to-Peer » 3.1 – L’analyse de certains actes de téléchargement non autorisés en contrefaçon Il convient de rappeler que, puisque la technique d’échange « pair à pair » est juridiquement neutre, tous les actes de téléchargement d’œuvres ne sont pas illégaux. Ne sont concernés que ceux qui, concernant des œuvres ou éléments protégés, n’auraient pas été autorisés par les ayants droits ou ne bénéficieraient pas d’une limite ou une exception aux droits de propriété littéraire et artistique. La loi du 1er août 2006 ne contient aucune disposition spécifique à ce propos. C’est dire qu’il y a là application pure et simple des règles de propriété littéraire et artistique et de la contrefaçon. L’analyse en actes de contrefaçon des téléchargements ascendants (upload) ou descendants (download) n’est pas douteuse. Elle était, avant l’intervention de la loi, celle de la plupart des décisions de justice, approuvées par la quasi unanimité de la doctrine et corroborée par les travaux de la commission spécialisée du Conseil Supérieur de la propriété littéraire et artistique. Trois séries de faits démontrent que cette solution est désormais certaine. D’une part, la tentative, avortée, de faire voter la licence globale. Cette construction, rejetée, postulait comme point de départ, la nécessité de l’adoption de textes destinés à bouleverser les analyses et celle d’imposer par la voie législative la solution selon laquelle le download devait être regardé comme un acte de copie privée. Cette volonté de modifier les textes atteste bien de la pertinence de l’analyse en contrefaçon sur le fondement des textes antérieurs… finalement demeurés inchangés. D’autre part, le désir consécutif à l’échec de la voie de la licence globale, d’adopter des peines moins lourdes que celles de la contrefaçon. Si des sanctions, même plus légères devaient être envisagées, c’est bien que les actes non autorisés devaient être regardés comme illicites. Enfin, la circulaire du ministère de la justice du 3 juillet 2007 le dit expressément, refusant au téléchargement la qualification de « copie privée », d’une part parce qu’il ne remplit pas les conditions du test des trois étapes issu de la Convention de Berne de 1886 et, d’autre part, parce qu’il s’agit d’une « copie faite par ou pour autrui ». Ce point étant acquis demeure la question de la sanction encourue pour l’accomplissement de pareils actes. 3.2 – Les sanctions encourues en cas d’échanges contrefaisants Certains membres de la commission « distribution des œuvres en ligne » du CSPLA, pourtant associés sur certaines questions aux consommateurs, avaient demandé que soit proposée une 124 Livre blanc sur le « Peer-to-Peer » aggravation des peines (cinq ans d’emprisonnement, mention expresse de la qualification de « criminalité en bande organisée »), ce qui leur fut refusé. Soucieuse de trouver une sortie « vers le haut », la commission avait pris le parti de n’envisager les sanctions que comme un pis aller envisageable lorsqu’aucune autre voie n’est encore explorable. Le dispositif de l’article 24 censuré par le conseil constitutionnel Le Parlement avait ultérieurement adopté, le 30 juin 2006, une disposition spécifique (article 24) qui proposait un allègement des sanctions mais qui a fait l’objet de la censure du Conseil constitutionnel. Cet article 24 s’affranchissait des règles habituelles relatives à la contrefaçon en allégeant les peines encourues. Ainsi, l'article L. 335-11 du Code de la propriété intellectuelle qu’il créait prévoyait que « les dispositions du présent chapitre (relatif aux sanctions en cas de contrefaçon) ne sont pas applicables à la reproduction non autorisée, à des fins personnelles, d'une œuvre, d'une interprétation, d'un phonogramme, d'un vidéogramme ou d'un programme protégés par un droit d'auteur ou un droit voisin et mis à disposition au moyen d'un logiciel d'échange de pair à pair. « Elles ne s'appliquent pas non plus à la communication au public, à des fins non commerciales, d'une œuvre, d'une interprétation, d'un phonogramme, d'un vidéogramme ou d'un programme au moyen d'un service de communication au public en ligne, lorsqu'elle résulte automatiquement et à titre accessoire de leur reproduction dans les conditions visées au premier alinéa. « Les actes visés aux deux premiers alinéas constituent des contraventions prévues et réprimées par décret en Conseil d'État ». En bref, les actes de download (al. 1) et ceux d’upload (al. 2) subséquents et accomplis à des fins non commerciales66 n’étaient plus des délits mais de simples contraventions. Un décret en Conseil d'État devant apporter un certain nombre de précisions importantes, relatives à ces sanctions (par fichiers retrouvés ou par constatation ?). Cette disposition qui était, pour le ministre de la Culture67, une des pierres angulaires de la construction législative a fait l’objet de la saisine du Conseil constitutionnel (point 4.2). Les reproches à son encontre étaient ainsi formulés : 66 Mais au mépris des règles du Code de la propriété intellectuelle Si cet article résultait bien d'un amendement présenté par le Gouvernement à l'Assemblée nationale, pareille disposition était totalement absente du premier projet de loi gouvernemental. 67 125 Livre blanc sur le « Peer-to-Peer » « Sur la discrimination des logiciels de "pair à pair" (art. 24 de la loi) L’article 24 de la loi introduit une différence de traitement pénal entre les reproductions d’un objet protégé non autorisées à des fins personnelles, mis à disposition à partir d’un logiciel de "pair à pair" d’une part ou d’un autre vecteur de communication d’autre part. Si le principe d'égalité ne s'oppose pas à ce que le législateur règle de façon différente des situations différentes ou à ce qu'il déroge à l'égalité pour des raisons d'intérêt général, il faut que dans l'un et l'autre cas la différence de traitement qui en résulte soit en rapport avec l'objet de la loi qui l'établit et que son motif soit précisé » (déc. n° 91-304 DC, 15 janv. 1992). Outre la violation du principe constitutionnel de la légalité des peines et des délits (le logiciel de "pair à pair" étant juridiquement indéfini et techniquement indéfinissable) cette disposition introduit une différence de traitement entre les vecteurs de communication qui ne repose sur aucune justification objective. En effet, l’atteinte au droit de la propriété intellectuelle est identique qu’elle résulte d’un logiciel de pair à pair ou d’un autre vecteur de communication (forums, news group, partage de disque dur, messagerie instantanée, […]). La différence de traitement pénal fondé sur le vecteur de communication ne repose sur aucun motif précis énoncé et donc justifié ; elle entraîne en conséquence une rupture d’égalité devant la loi non conforme à la constitution ». Le Conseil constitutionnel a déclaré l’article 24 de la loi votée le 30 juin 2006, contraire68 à la Constitution. Le considérant 64 de la décision du 27 juillet 2006 rappelle « que les requérants soutiennent que cette disposition méconnaît le principe d’égalité devant la loi pénale en instituant une différence de traitement injustifiée entre les personnes qui reproduisent ou communiquent des objets protégés au titre du droit d’auteur ou des droits voisins, selon qu’elles utilisent un logiciel de pair à pair ou un autre moyen de communication électronique ; qu’ils reprochent également au législateur d’avoir méconnu le principe de légalité des délits et des peines ; qu’ils estiment enfin que la loi ne contient aucune disposition relative aux modes de preuve de ces infractions et qu’elle est entachée d’incompétence négative » tandis que le considérant 65 précise « qu’au regard de l’atteinte portée au droit d’auteur ou aux droits voisins, les personnes qui se livrent, à des fins personnelles, à la reproduction non autorisée ou à la communication au public d’objets protégés au titre de ces droits sont placées dans la même situation, qu’elles utilisent un logiciel d’échange de pair à pair ou d’autres services de communication au public en ligne ; que les particularités des réseaux d’échange de pair à pair 126 Livre blanc sur le « Peer-to-Peer » ne permettent pas de justifier la différence de traitement qu’instaure la disposition contestée ; que, dès lors, l’article 24 de la loi déférée est contraire au principe de l’égalité devant la loi pénale ; qu’il y a lieu, sans qu’il soit besoin d’examiner les autres griefs, de le déclarer contraire à la Constitution ». En résumé, la disposition critiquée ayant pour but de faire échapper les actes de téléchargement illicites commis au moyen de logiciels d'échanges " pair à pair " à la qualification de délit de contrefaçon, tout en maintenant la soumission au droit commun de la contrefaçon des actes qui n'entraient pas dans cette catégorie, la censure était inévitable dans la mesure où il y avait une rupture d’égalité devant la loi pénale. Est-ce à dire que, de façon générale, toute discrimination entre les actes illicites, suivant que ces atteintes seraient commises au moyen d'un logiciel de pair à pair ou d'un autre moyen en ligne, est impossible ? Ou faut-il considérer que cette rupture pourrait dans certains cas être justifiée, par exemple par la mise en avant de certaines des spécificités du téléchargement réalisé au moyen d'un logiciel de pair à pair ? Ce ne serait alors qu’en l’absence de justifications solides et convaincantes que la censure serait inévitable ? L’interrogation n’est pas neutre car elle change la marge de manœuvre qui est laissée au législateur. Reste que la formule finale du considérant 65 (« qu’il y a lieu, sans qu’il soit besoin d’examiner les autres griefs, de le déclarer contraire à la Constitution») devrait plutôt inciter le Parlement à la prudence. Surtout si l’on se souvient du rattachement proclamé par le Conseil constitutionnel des droits d’auteur et droits voisins au droit de propriété. Certes, la censure du conseil constitutionnel à propos de la décriminalisation des échanges peer-to-peer, non autorisés, de fichiers protégés, est directement fondée sur le principe d'égalité devant la loi pénale. Mais certains spécialistes du droit des Biens estiment que ce rattachement des propriétés intellectuelles au droit fondamental de propriété interdit d'envisager des suppressions, voire des allégements, des sanctions en cas d'atteinte à ces droits sans que ces aménagements soient suffisamment justifiés en termes d'intérêt général ou de singularité des circonstances de réalisation69. Au demeurant, pourquoi faudrait-il traiter de façon plus bienveillante (ou laxiste) le P2P plutôt que d’autres modes de distribution électronique des œuvres, voire l’envoi d’un fichier protégé par courrier électronique ? 68 V. les considérants 63 sq. Thierry Revet, chronique de propriété et droits réels, revue trimestrielle de droit civil octobre 2006 p. 792 69 127 Livre blanc sur le « Peer-to-Peer » La circulaire du 3 janvier 2007 La volonté politique d’éviter des sanctions qui pourraient être regardées comme trop lourdes ne s’est cependant pas estompée en dépit de cet échec. Une circulaire du 3 janvier 2007 « relative au droit d'auteur et aux droits voisins dans la société de l'information et d'action publique dans le domaine de la lutte contre les atteintes à la propriété intellectuelle au moyen des nouvelles technologies informatiques », adressée aux procureurs généraux et aux magistrats du parquet et du siège, tout en rappelant que les échanges non autorisés doivent bien s’analyser en des actes de contrefaçon, tente de tracer les axes de ce que pourrait être la répression de pareils actes. La circulaire propose de distinguer diverses hypothèses de responsabilité qui devraient être appréhendées de manière différente. Le cas le plus grave et sanctionné le plus sévèrement a déjà été évoqué et concerne l'édition ou la distribution de logiciels dédiés ou utilisés pour la mise à disposition illicite d'œuvres protégées. Il s’agit alors de retenir des « peines principales hautement dissuasives ». S’agissant de la mise à disposition d'œuvres au public par les échanges de pair à pair, la circulaire parle de comportement « gravement répréhensible » qui, en amont de la chaîne de distribution, a pour conséquence de favoriser, en aval, nombre de téléchargements illicites. L’upload (forme illicite de représentation ou de communication au public) est donc plus grave que le download. Est considérée comme circonstance aggravante le fait que cette mise à disposition illicite précède la mise à disposition du public officielle en France et ainsi viole le principe de la « chronologie des médias » issu de la loi sur la communication audiovisuelle. Mais la circulaire opère ici de subtiles distinctions en précisant que lorsqu'un internaute ayant recours à un logiciel de pair à pair met automatiquement (et donc involontairement ?) certains fichiers en partage, il ne devrait pas être sévèrement sanctionné. S’agissant du « download », les sanctions, de nature exclusivement pécuniaires, devraient être fonction de différents facteurs (importance quantitative des téléchargements, récidive, moment où interviennent les actes…). Responsabilités des « contrefacteurs » selon la circulaire v.s. ex-article 24 On peut s’interroger sur pareille construction. En définitive, bien que non gravée dans le marbre de la Loi, elle paraît plus favorable à ceux qu’il convient, malgré tout, de désigner sous le terme technique de contrefacteurs que l’article 24 qui n’a pu franchir le cap du conseil constitutionnel. 128 Livre blanc sur le « Peer-to-Peer » Le texte annulé prévoyait une contravention dont personne n’était vraiment en mesure d’expliquer à quoi elle aurait été appliquée. Les trente-huit euros envisagés pour le « download » concernaient-ils la constatation de l’existence d’infractions ou devaient-ils s’appliquer à chaque fichier illicite trouvé? On mesure aisément que l’effet pratique ou financier n’aurait pas été le même. Reste que si le vœu paraître louable au plus grand nombre, la méthode retenue pour parvenir à ce résultat surprend sur le plan de la théorie juridique. Indépendamment des questions classiques de hiérarchie des Normes, il faut espérer que cette initiative ne soit pas perçue comme une méconnaissance du principe de séparation des pouvoirs. Certes le recours à des circulaires n’est pas rare en droit français mais le vote de la loi ayant montré les tensions qui pouvaient exister entre le législatif et l’exécutif, il ne faudrait pas que le droit d’auteur soit aussi perçu comme un terrain d’empiètement de l’exécutif sur le judiciaire ou comme un lieu de contournement des décisions du Conseil constitutionnel. A la vérité, les magistrats auraient sans doute d’eux-mêmes adopté cette approche modérée. Ils le faisaient avant même le vote de la loi puisque aucune peine d’emprisonnement n’a été prononcée en France contre un internaute indélicat. Quoiqu’il en soit, les dernières décisions rendues témoignent de cette volonté de clémence. Ainsi, après avoir estimé que « l'existence de l'élément intentionnel résulte de la matérialité du délit, sauf preuve contraire par le prévenu de sa bonne foi », la Cour de Paris, par arrêt du 15 mai 2007 (Paris, 15 mai 2007, 13ème chambre, Section A, Sebaux, / SCPP)) n’a condamné un internaute contrefacteur qu’à une peine de 1.000 euros d’amende et, dans une décision du 27 avril 2007 (Paris, 27 avril, 2007, 13ème chambre, Section B, Guillemot / SCPP), n’a sanctionné un autre internaute que d’une amende de 5000 euros avec sursis. 4 – Conclusion – Sagesse et prudence du législateur dans un monde en mouvement, à la croisée des évolutions technologiques et sociales En définitive, il convient de constater qu'il existe peu de particularités dans le régime juridique applicable à la distribution des œuvres en ligne. Certes il convient de relever la présence des dispositions relatives à l'éventuelle responsabilité de certains éditeurs de logiciels. Mais il n'est pas indifférent de préciser que des solutions proches ou identiques auraient pu être trouvées sur le fondement du droit commun. L'apport du texte nouveau réside surtout dans le désir d'éviter certains atermoiements 129 Livre blanc sur le « Peer-to-Peer » jurisprudentiels. Le péril existant en la demeure commandait qu’une solution certaine puisse être rapidement connue de tous. De façon plus positive, le « volet civil » de la nouvelle construction permet la recherche, dans une certaine souplesse, de solutions plus adaptées, issues d'un véritable dialogue et d’une pesée subtile des différents aspects du problème. Cette retenue législative est à louer. Dans le prolongement de la pensée de Montesquieu et de Portalis, le législateur contemporain a compris qu'il convenait de ne légiférer que « d'une main tremblante ». La sagesse commandait pareille attitude. Les données techniques et sociales sont trop complexes et fluctuantes pour que puisse être pris le risque d'une intervention législative qui risquerait de figer les situations ou d'hypothéquer l'avenir. De nouveaux modèles économiques émergent, de nouvelles pratiques se font jour, de nouvelles techniques offrent des possibilités méconnues il y a encore peu de temps… Il faut laisser du temps au temps afin que puissent mieux se dessiner les nouveaux contours de l’offre et de la demande, du souhaitable et du possible, afin que puissent être trouvés les équilibres délicats qui permettront d’arbitrer entre les revendications antagonistes. La prudence du législateur se manifeste également dans son appréhension du temps. Ainsi un bilan relatif à la loi du 1er août 2006 est attendu après une année de mise en œuvre de ces nouvelles dispositions, et le contenu de ce jeune texte pourrait être modifié en fonction des conséquences heureuses ou malheureuses constatées en pratique. Le phénomène est à rapprocher de celui qui touche certaines directives communautaires pour lesquelles un rapport d'application doit également être rédigé, tous les trois ans. On constate ainsi que le législateur n'intervient plus qu'avec retenue et ne grave plus son verbe dans le marbre éternel. Est arrivée l'ère des « législations à l'essai ». Les constructions futures ne peuvent naturellement pas ignorer les diverses aspirations, la réalité technique, les possibilités économiques, en bref, les faits. Les solutions retenues par la loi pour la confiance dans l'économie numérique témoignaient de ce souci de prendre en considération ces divers paramètres. Le choix de l'irresponsabilité, conditionnelle, de certains prestataires de l'Internet était révélateur du désir de promouvoir la société de l'information et du souci de permettre l'essor de l'infrastructure de cette dernière. Il s'agissait avant tout d'une décision stratégique. De ce point de vue, il n'est pas indifférent de constater que les solutions retenues tant par les directives que par la loi pour la confiance dans l'économie numérique (ou la lecture qui en était faite) allaient au rebours de l'évolution du droit de la responsabilité depuis plus de deux siècles. 130 Livre blanc sur le « Peer-to-Peer » Alors que le droit des obligations était autrefois assis sur l'idée de faute, le fondement de la responsabilité civile s'est peu à peu déplacé. En effet, le principe d'une responsabilité fondée uniquement sur la faute est apparu dans le courant du XIXe siècle comme insuffisamment protecteur en sorte qu'a été de plus en plus accueillie l’idée suivant laquelle chacun doit réparer les dommages qu'il cause à l'occasion de son activité, même non fautive. C'est ainsi qu'a progressivement triomphé l'idée suivant laquelle la responsabilité pouvait être également fondée sur le risque, orientation renforcée justement par l'évolution de la technique et l'essor du mécanisme de l'assurance. Schématiquement, le Droit devait se préoccuper de protéger les victimes des conséquences malheureuses du progrès technique tout en allégeant la situation des personnes à qui était demandée réparation grâce à une espèce de mutualisation liée au phénomène de l’Assurance. Le mouvement législatif du XXe siècle, au travers des lois spéciales de responsabilité, est fortement imprégné du concept de risque. Dans cette approche il est admis que certaines personnes doivent répondre, non plus seulement de leur faute, mais aussi du risque-créé. Ainsi lorsqu’un individu ou une entreprise introduit, du fait d'une nouvelle activité, un danger dans la vie sociale, cette personne doit répondre des dommages qu'elle peut ainsi engendrer. L'activité nouvelle ne peut être déployée qu’aux risques et périls de celui qui en est à l'origine ; les conséquences ne peuvent en être supportées par autrui. Cette approche, triomphante à l'ère de l'essor du machinisme, explique les solutions retenues en matière d'accidents du travail ou d'accident de la circulation. À danger nouveau, responsabilité nouvelle. Cette nouvelle conception du droit de la responsabilité a trouvé son prolongement dans une idée voisine celle du risque-contrepartie du profit. La personne qui, par son activité, recherche et obtient des bénéfices doit, par réciprocité, en supporter les charges. Celui qui recherche un profit et use de machines pour l'obtenir ou l'accroître doit répondre des dommages que cette activité est susceptible de générer. En bref, peu à peu, l'obligation à réparation se détache de l'idée de faute qui ne serait elle-même qu'une survivance de moins en moins justifiée de la confusion entre responsabilité pénale et responsabilité civile. Si la première doit demeurer subjective car il s'agit de punir, la seconde peut s'« objectiviser » car elle poursuit d'autres fins : la seule indemnisation. Ce mouvement se manifeste dans l'évolution de la jurisprudence, notamment celle relative à la responsabilité du fait des choses ou encore celle du fait d’autrui dont les régimes sont fort éloignés désormais des modèles voulus par le législateur en 1804. Parallèlement à ce mouvement, a également été avancée l'idée d'inverser la perspective à partir 131 Livre blanc sur le « Peer-to-Peer » de laquelle il est loisible d'asseoir la responsabilité. Tel est le but de la théorie de la responsabilité fondée sur la garantie. Dans cette approche, l'atteinte à un droit protégé doit entraîner une sanction, qui pourrait prendre la forme d'une obligation de réparer. La responsabilité civile devrait alors composer avec deux objectifs : celui d'assurer un droit à la sécurité, d'une part, et celui de maintenir un droit d'agir d'autre part. Ce système, préconisé par Starck, trouve des applications aujourd'hui dans la reconnaissance d'un principe de précaution ou dans l’idée d'une « responsabilité préventive ». Certes, il est totalement impossible de voir dans le droit positif français le triomphe d'un seul de ces fondements. Chacun joue son rôle dans l'équilibre à trouver. Mais d’aucuns ont pu estimer que la construction mise en place par la loi pour la confiance dans l'économie numérique paraissait s'affranchir presque totalement du mouvement profond qui explique le droit des obligations depuis bien plus de cent ans. L’observation doit cependant être nuancée pour trois séries de raisons. D’une part, parce que ces textes doivent connaître l’épreuve de leur mise en œuvre judiciaire et que la lecture, parfois monolithique, qui en a été fréquemment proposée n’est pas nécessairement la bonne. Les frémissements jurisprudentiels actuels témoignent de ce souci de trouver un équilibre entre deux aspirations à la sécurité qui paraissent (de prime abord seulement) antagonistes. Le fléau de la balance ne s’est pas encore fixé entre le désir de favoriser l’essor de nouvelles activités et le souci de ne pas sacrifier les droits de ceux qui, du fait de leur rôle dans la création, devraient être les premiers concernés par les nouveaux échanges. D’autre part, parce que dans la construction harmonieuse à trouver, il faut sans doute distinguer entre cessation du trouble et responsabilité. et, dans le cadre de cette dernière, entre exigence d’un contrôle a priori et simple obligation de diligence après information. Enfin, il convient d'observer que rien n'indique que les choix qui ont été retenus par la directive du 8 juin 2000, et donc par la loi pour la confiance dans l'économie numérique, soient gravés dans le marbre. Au contraire, faisant place à une espèce de législation à l'essai, le texte communautaire prévoit des possibilités de révision tous les trois ans, sur le fondement d'un rapport en forme de bilan. Car la Loi ne peut pas non plus être asservie aux seuls faits. L'adaptation du Droit aux faits est une composante du raisonnement législatif mais non le seul objectif à poursuivre. La loi est certes un arbitrage politique, un équilibre social, mais elle est également un acte de volonté. 132 Livre blanc sur le « Peer-to-Peer » Le droit d'auteur participe lui aussi de la recherche de ce compromis. Son économie traduit la volonté de trouver des solutions tenant compte, d'une part, des intérêts des créateurs, d'autre part, de ceux du public et, d'une troisième part, de ceux des investisseurs. Au gré des époques, en fonction des questions, les solutions peuvent varier et le centre de gravité se déplacer. Il va de soi, cependant, que le droit d'auteur ne doit, en aucun cas, consister en l'allocation de simples rentes et son régime ne doit en rien être maintenu par simple conservatisme. Les lois fondatrices du droit d'auteur dans les divers Etats de la planète ont toutes insisté sur l'idée de reconnaissance légitime de la place des créateurs et sur son rôle d’incitation à la création pour le Bien Commun. Le droit d'auteur ne doit pas non plus être un frein à l'innovation technique ni un obstacle à la satisfaction d'un appétit de savoir mais, si son évolution est possible, sa disparition n'est pas souhaitable. À quoi servirait une infrastructure de la société de l'information sans contenus à véhiculer et partager ? Né au XVIIIe siècle, en contemplation des usages et données techniques de l'époque, le droit d'auteur permet aux créateurs de contrôler les utilisations qui seront faites de leurs œuvres. Aujourd'hui, contesté par ceux qui veulent pouvoir jouir sans entrave des œuvres, il paraît, en outre, impuissant à faire participer l'auteur aux fruits des usages qui seront faits non pas de la création mais de la valeur de celle-ci. De nouveaux intermédiaires sont apparus, dont les modèles économiques sont très clairement fondés sur l'appétit de consommation d’œuvres. L’exploitation des œuvres de l'esprit, qui enrichissent le Patrimoine de l'Humanité, s'est pendant deux siècles réalisée dans le respect des trois piliers de tout système juridique : le droit de propriété, le droit de la responsabilité, le droit des contrats. Il serait regrettable que les nouveaux comportements détruisent ce qui a été patiemment bâti. Non pas qu'il faille préserver à tout prix des métiers anciens (ces derniers doivent s'adapter ou disparaître) mais tout simplement parce que la création et l'innovation sont les ressorts des économies européennes, le gisement des emplois de demain et surtout un facteur d'enrichissement commun. Enfin, il ne faut perdre de vue que sacrifier les créateurs, c'est aussi condamner la diversité culturelle. 133 Livre blanc sur le « Peer-to-Peer » 134 Livre blanc sur le « Peer-to-Peer » Chapitre 7 Conclusion et propositions Frédéric Goldsmith 135 Livre blanc sur le « Peer-to-Peer » 1. Pour un cadre légal qui garantisse un développement harmonieux des contenus et des réseaux __________________________________________________________ Nous sommes entrés dans une ère où les réseaux de distribution de données numériques, notamment les outils de communication de pair à pair (le peer-to-peer), jouent un rôle déterminant. Les profonds changements déjà intervenus en la matière depuis le début du millénaire, vont se poursuivre et marquer profondément nos sociétés. Les évolutions dans le domaine des communications électroniques n’en sont qu’à leur début. L’innovation, moteur de notre évolution Pour cette raison, les enjeux liés aux réseaux électroniques sont plus importants que ce qui est usuellement avancé. Ils sont stratégiques pour notre avenir et concernent tous les domaines de notre vie - économiques, sociaux, politiques et même géostratégiques. Il est par conséquent indispensable d’y accorder la plus grande attention. Opposer les évolutions technologiques aux institutions sur lesquelles repose notre société serait contreproductif. La technologie est utile. Elle a vocation à s’inscrire dans un cadre de régulation démocratique, tout comme l’ensemble des progrès techniques et autres mouvements d’innovation dans lesquels nous sommes amenés à nous situer. La propriété intellectuelle, un droit fondamental dans notre société Parmi les institutions fondamentales sur lesquelles repose notre société, le droit de propriété, avec la propriété intellectuelle comme sous-ensemble, figure en bonne place. Il fait partie des quelques droits constitutionnels considérés comme « inviolables et sacrés » dans la Déclaration des droits de l’Homme et du Citoyen de 1789. Le droit de propriété représente, d’une part un pilier économique majeur, qui permet de déterminer la capacité à investir dans la production de richesses et, d’autre part, un facteur déterminant de structuration des rapports sociaux, apte à canaliser et organiser des comportements sinon indistincts. La propriété intellectuelle est consubstantielle à l’innovation technique et à son pendant non scientifique, mais d’une utilité économique et sociale tout aussi essentielle car la création artistique est aussi une « innovation ». C’est elle qui incite à la prise de risques des acteurs économiques par le maillage contractuel qu’elle permet d’organiser. 136 Livre blanc sur le « Peer-to-Peer » La propriété immatérielle et la création de valeur Les débats actuels relatifs à la nécessité d’investir massivement dans l’enseignement supérieur et la recherche-développement montrent à quel point, demain, le rayonnement, la grandeur et la puissance des nations reposeront sur l’innovation technique et sur la richesse de leur création artistique, c’est-à-dire sur des biens immatériels. Ainsi, l’Europe ne peut fonder son avenir sur les industries purement manufacturières. Elle est condamnée à innover dans l’immatériel et les services, et donc à protéger ses créations. Ou bien, elle disparaîtra économiquement. Sur les réseaux électroniques, cette réalité va être plus que jamais vérifiée. La propriété intellectuelle : un actif immatériel … Même si elle se subdivise juridiquement en propriété littéraire et artistique d’un côté (se rapportant à des œuvres protégées par le droit d’auteur, et à des enregistrements sonores ou audiovisuels protégés par un droit voisin du droit d’auteur) et propriété industrielle de l’autre (se rapportant à des marques commerciales ou à des brevets industriels) la propriété intellectuelle n’est pas économiquement « sécable » dans l’univers globalisé des réseaux électroniques. L’affaiblissement de la propriété industrielle a des effets sur la propriété littéraire et artistique et réciproquement. Il s’agit dans tous les cas d’une économie de l’immatériel, dans laquelle les « contenus », qu’ils soient protégés par la propriété littéraire et artistique, par des marques ou des brevets, créent de la valeur ne serait-ce qu’en raison de l’innovation qui en est à la source même. … qui est l’objet d’une demande de la part du marché De leur côté, les activités de réseaux, les « tuyaux », ne créent de valeur qu’en combinant leur utilité aux contenus qu’ils délivrent. C’est la raison pour laquelle, en situation de concurrence, le niveau de prix auquel leur accès est facturé est proche du coût marginal de l’équipement. En conséquence, la perte de valeur des « contenus » protégés résultant de leur piratage est strictement néfaste à moyen et long terme pour toute l’économie. Si, passée une phase de « démocratisation », la rémunération des contenus n’est pas assurée, il y aura une destruction de valeur et probablement, très vite, un tarissement de la création. La valeur est dans ce schéma « captée » par les autres agents économiques en présence que sont les opérateurs de réseaux, les fournisseurs d’accès, les éditeurs de logiciels de P2P et les moteurs de recherche. Etablir d’urgence les conditions d’une juste rémunération de chaque agent 137 Livre blanc sur le « Peer-to-Peer » économique En matière de propriété intellectuelle, il est temps que la France et l’Europe prennent conscience de la valeur toute particulière des « biens immatériels » protégés par la propriété littéraire et artistique. De leur côté, les américains l’ont fait depuis longtemps. En tant que « biens informationnels », les œuvres ont non seulement une valeur en elles-mêmes mais sont également un vecteur d’image et donc un vecteur de richesse. L’action européenne doit être d’autant plus prononcée que les disparités linguistiques en Europe obligent celle-ci, contrairement aux États-unis, à mener une politique volontariste dans le domaine des biens et services culturels d’origine européenne. Or, actuellement, l’Europe se saborde car, à travers la contrefaçon massive sur les réseaux électroniques, elle laisse la valeur des contenus créatifs être en grande partie captée par des acteurs extra-territoriaux, aujourd’hui essentiellement basés aux États-unis (fabricants d’équipements de transmission et de lecture, éditeurs de logiciels, moteurs de recherche, ...) mais également, de façon croissante, dans de grands pays émergents voire,virtuellement « nulle part » ! Pour une rémunération juste de chacun, opérateurs techniques et auteurs Face à ce risque de dérive, l’affirmation du principe de la propriété intellectuelle assurera aux secteurs des industries culturelles la pleine reconnaissance de leurs « productions » et permettra de garder la richesse là où elle a été créée, notamment en France et en Europe, et de représenter un point d’appui pour l’émergence d’acteurs européens puissants. Par ailleurs, le sujet de la contrefaçon sur les réseaux rejoint un enjeu plus vaste et fondamental : l’autorité de l’État, c’est-à-dire sa capacité à faire appliquer les lois et règlements qu’il met en place et à faire respecter les valeurs sur lesquelles il repose sur les plans économique et social. Une prise en compte de cette question est souhaitable au plan international On peut créer un parallèle intéressant avec le droit de l’environnement. En effet, lorsque la propriété (comme l’environnement) est « endommagée », cela crée des nuisances à long terme. La solution réside non seulement dans les sanctions immédiates mais dans la mise en place de protocoles de convergence qui amènent en plusieurs étapes l’ensemble des acteurs économiques et sociaux à respecter les règles. C’est pourquoi les nations doivent réfléchir ensemble à la mise au point de protocoles qui leur permettront de lutter efficacement contre le piratage et la contrefaçon. 138 Livre blanc sur le « Peer-to-Peer » Agir pour garder une production artistique dynamique Pour rétablir l’effectivité de la propriété littéraire et artistique, il est nécessaire d’augmenter la « désutilité » du vol, à travers des actions combinées : • En responsabilisant les opérateurs techniques, qu’ils soient éditeurs de logiciels, opérateurs de stockage ou opérateurs de réseaux, afin qu’ils régulent la circulation des données protégées au travers de la coopération et/ou d’interventions réglementaires. • En sanctionnant effectivement les utilisateurs finaux dans des conditions adaptées aux diverses situations rencontrées et proportionnelles à la faute commise, ce qui suppose également un fort volet de prévention. Responsabiliser l’ensemble des acteurs Juridiquement, il faut se souvenir des racines du droit moderne face à la technologie. Avec l’arrivée du machinisme au 19ème siècle, est intervenue la construction jurisprudentielle de la responsabilité sans faute au sujet du fonctionnement des machines : le responsable est celui qui en a la garde car il a le pouvoir d’intervenir et de prévenir. Cette responsabilité se subdivise en gardien de la structure et gardien du comportement. Il est indispensable et même inéluctable que la réglementation, passé la première phase de l’Internet nécessaire à son « décollage », s’oriente vers un statut des intermédiaires techniques en tant que gardiens logiques et responsables de leurs outils de communication. En s’appuyant sur la technique Techniquement, la régulation des réseaux et des serveurs par leurs opérateurs est possible. Des outils existent pour réguler automatiquement les flux et les contenus afin de lutter contre la contrefaçon d’œuvres en ligne, indépendamment de tout traitement de données personnelles. Leurs performances sont d’ores et déjà considérables et vont en s’accroissant. Dans l’intérêt économique des opérateurs de réseaux eux-mêmes Cette régulation est nécessaire pour les réseaux eux-mêmes. En effet, avec la baisse des revenus de la voix et la maturation du marché du mobile puis de l’accès fixe, les opérateurs vont avoir besoin d’accroître le revenu par abonné (le fameux « ARPU »). Les contenus sont essentiels à cet égard. Au final, les coûts seront compensés par les gains en termes de rétablissement de la valeur et d’efficience des réseaux, sans compter la chute considérable du coût des outils de régulation dés lors qu’ils seront achetés en nombre. 139 Livre blanc sur le « Peer-to-Peer » Un modèle économique qui doit s’équilibrer à terme Contrairement à ce qui est parfois avancé, cela n’est nullement de nature à empêcher le développement du « Web 2.0 », d’abord fondé sur le partage d’éléments strictement personnels et qui peut s’inscrire pour le surplus dans des accords avec les ayants droit ou leurs représentants. Cela permet au demeurant de donner moins d’importance à la première fonction des mesures techniques de protection des œuvres (les « DRM ») c’est-à-dire la protection contre le vol, et de mettre davantage l’accent sur la seconde fonction de ces mesures de protection, c’est à dire la gestion des droits et la création de modèles économiques innovants pour les consommateurs. Cette dernière fonction est à l’heure actuelle fréquemment occultée par la première en raison de l’importance de la contrefaçon. Un échéancier trop long Tout montre cependant que l’échéancier des opérateurs de télécommunications en Europe se trouve être encore beaucoup trop long. La concurrence qu’ils se livrent pour acquérir des clients supplémentaires s’appuie sur une offre de débits élevés pourvoyeurs de contenus contournés : œuvres musicales complètes, films cinématographiques, logiciels. Cette concurrence est destructrice non seulement des contenus qu’elle soustrait au marché ainsi que des activités de distribution loyale, mais aussi de la capacité future de ces réseaux à structurer et capter le consentement à payer des consommateurs pour les contenus. L’Etat doit arbitrer cette guerre économique De fait, il s’avère que seul l’État peut provoquer aujourd’hui la bascule vers la seconde étape de l’Internet, celle où la valeur des contenus est rétablie et permet une rémunération juste de l’ensemble des acteurs économiques et sociaux dans une perspective de long terme. Seule la puissance publique peut mettre tous les acteurs face à des règles du jeu communes, qui actuellement ne parviennent pas à émerger en raison de la « course en avant » des acteurs économiques et de soi-disant « verrous juridiques » dans la réglementation française et européenne souvent mis en avant pour justifier l’inaction. 140 Livre blanc sur le « Peer-to-Peer » 2. Agir avant qu’il ne soit trop tard _________________________________________________________ L’État doit prendre les mesures suivantes, désormais de façon urgente : • Actions de régulation : o Création d’une autorité administrative indépendante ou, plus vraisemblablement, adaptation de la compétence et du fonctionnement d’une autorité administrative indépendante existante, pour traiter de questions relatives à la circulation illicite sur les réseaux et les serveurs électroniques des contenus protégés par la propriété littéraire et artistique. o Grandes missions confiées à cette autorité : * garantir la mise en œuvre par les opérateurs de la régulation des flux et des contenus sur les réseaux et serveurs électroniques à l’aide d’outils techniques, dans le cadre prévu par le droit européen ; * veiller à la bonne exécution d’un dispositif de prévention et de sanction approprié vis à vis des abonnés à l’Internet en cas de téléchargement illicite. o Sous l’égide de l’Etat : * expérimentation immédiate sur les réseaux électroniques des solutions techniques existantes en matière de régulation des flux et des contenus pour lutter contre le piratage en ligne ; * fixation d’objectifs nationaux de réduction du piratage en ligne, s’appuyant sur des indicateurs chiffrés et des outils de mesure officiels destinés à en assurer un suivi régulier. o Instauration d’un système national de dépôt d’empreintes d’œuvres - qui pourrait être géré par l’autorité ci-dessus - utilisables par les opérateurs techniques pour les besoins de la régulation des contenus sur les réseaux et les serveurs. 141 Livre blanc sur le « Peer-to-Peer » • Appui financier : o Mise en place d’un crédit d’impôt destiné à l’achat et à la mise en œuvre par les opérateurs des outils permettant la régulation des flux et des contenus sur les réseaux afin de lutter contre la contrefaçon d’œuvres. o Initiation d’un soutien actif des pouvoirs publics, notamment financier, au développement de solutions de régulation de flux et de contenus innovantes et porteuses de projets industriels pour notre pays. o Application d’une baisse à 5,5 % de la TVA applicable à la distribution sur les réseaux électroniques des contenus protégés par la propriété littéraire et artistique. o Réorientation d’une partie des crédits RIAM vers la recherche sur l’économie des industries créatives, ainsi que vers un appui technologique opérationnel aux organismes et entreprises des secteurs culturels. o Création d’une Agence de valorisation des contenus protégés sur les réseaux de communication électronique, dotée de fonds d’urgence pour les industries culturelles les plus touchées par la contrefaçon et par les mutations engendrées par la distribution immatérielle. 142 Livre blanc sur le « Peer-to-Peer » TABLE DES MATIERES Avertissement.............................................................................. Introduction................................................................................. Biographie des auteurs.............................................................. 3 5 11 Chapitre 1 : Typologie des réseaux et applications de peer to peer............................................................................................... 13 1 – Introduction - Problèmes et questions liés à l’émergence des réseaux peer to peer............................................................................. 14 1.1 - Questions relatives au modèle de valeurs fondant la pratique de l’Internet.................................................................................................. 1.2 - Questions juridiques............................................................................... 1.3 - Questions techniques............................................................................. 2 – Définitions et principes de fonctionnement des réseaux peer to peer......................................................................................................... 3 – Classification des systèmes P2P............................................................ 3.1 - Les réseaux P2P centralisés.................................................................... 3.2 - Les réseaux P2P décentralisés et non structurés..................................... 3.3 - Les réseaux P2P décentralisés mais structurés....................................... 3.4 - Les réseaux P2P hybrides....................................................................... 4 - Conclusion ............................................................................................. Chapitre 2 : Le contrôle des flux circulant sur les réseaux.................................................................................... 14 14 15 16 16 17 19 20 25 8 – Conclusion : ........................................................................................... 27 28 29 29 30 31 31 34 35 37 37 38 39 40 41 42 Chapitre 3 : Le Filtrage par la reconnaissance de contenus... 43 1 – Introduction - Le réseau Internet et les protocoles Internet ............. 2 – Le contrôle des flux dans la génération Internet actuelle.................. 2.1 - Les numéros de port............................................................................... 2.2 - Les translations d’adresses..................................................................... 2.3 - Reconnaissance des applications P2P..................................................... 3 – Les pare-feu............................................................................................. 4 – Le filtrage applicatif des données......................................................... 5 – Filtrage de nouvelle génération............................................................. 6 – Le contrôle des filtres et de l’Internet.................................................. 6.1 - Définition des politiques de régulation du trafic.................................... 6.2 - Le contrôle de l’application des politiques........................................... 7 – La nouvelle architecture de contrôle.................................................. 7.1 - L’architecture « autonomic »................................................................ 7.2 - l’auto-pilotage....................................................................................... 1 - Introduction à la problématique de la reconnaissance automatique 143 Livre blanc sur le « Peer-to-Peer » du contenu..................................................................................................... 2.1 - Le principe.............................................................................................. 2.2 - Les risques d’erreur................................................................................ 2.3 - La prise en compte des transformations de contenu............................... 44 44 46 47 47 48 48 3 - Outils de caractérisation du signal : principales méthodologies actuelles et directions futures................................................................. 49 1.1 - Définitions des termes et outils ............................................................. 1.2 - Positionnement des stratégies d’usage ................................................... 2 - La reconnaissance de contenus ............................................................. 3.1 - Empreinte Vidéo..................................................................................... 3.1.1 - Méthodologies spatiales................................................................. 3.1.2- Méthodologies temporelles................................................ .. ........ 3.2 - Empreintes Audio................................................................................... 3.3 - Exploitation mixte audio et vidéo, pour les contenus audiovisuels........ 4 - Méthodes d’évaluation des résultats..................................................... 5 - Stratégies d’exploitation de ces outils dans le cadre du filtrage Peer-to-Peer et avantages de leur exploitation ................................. 5.1 - Identification du hash protocolaire........................................................... 5.2 - Traitement des contenus suspects............................................................. 5.3 - Optimisation de l’identification et obstacles possibles............................. 49 51 53 54 56 56 57 57 59 60 6 - Conclusion sur le filtrage des contenus protégés : portée universelle de la méthodologie au-delà du peer-to-peer et évolutions envisagées............................................................................ 60 Chapitre 4 : L’économie de la propriété littéraire et artistique.................................................................................. 65 1 - Les principes économiques de la propriété littéraire et artistique................................................................................................... 67 1.1- L’arbitrage des lois sur le droit d’auteur entre incitations à la création et diffusion des biens culturels...................................................................... 1.2 - Les bénéfices incitatifs du droit d’auteur................................................. 1.2.1– Incitations de l’industrie culturelle par les droits d’auteur............. 1.2.2– Incitations des acteurs de la chaîne verticale par le droit d’auteur. 1.3 - Les coûts de la protection par le droit d’auteur et les limitations légales. 1.3.1 - La limitation temporelle des droits d’auteur : un arbitrage incitations à la création / restriction de la diffusion.................................. 1.3.2 - Les exceptions au droit d’auteur..................................................... 2 - Le droit d’auteur face aux nouvelles technologies de reproduction et de transmission des biens culturels................................................... 2.1 - Les évolutions analogiques des lois sur le droit d’auteur...................... 2.1.1 - Coûts et bénéfices des droits exclusifs sur les nouveaux usages.... 2.1.2 - Les réactions réglementaires européennes et américaines............. 2.1.2.1 - La décision Betamax de la Cour Suprême américaine...... 2.1.2.2 - L’apparition des rémunérations pour copie privée en Europe.............................................................................. 2.2 – Le droit d’auteur face aux technologies numériques............................. 2.2.1 - Les effets du peer to peer sur les revenus des industries culturelles...................................................................................... 2.2.2 - DRM et baisse des coûts d’application des droits exclusifs........................................................................................ 2.2.3 - Les lois sur le droit d’auteur dans l’environnement numérique et 67 68 68 70 70 71 71 72 73 74 76 76 76 77 77 79 144 Livre blanc sur le « Peer-to-Peer » la protection légale des DRM....................................................... 2.2.4 - Les autres options réglementaires................................................... 2.2.4.1 - La tentation de l’extension du droit à rémunération sur Internet : les propositions de licence légale..................................... 2.2.4.2 -Les mesures d’application des droits exclusifs.................. 79 80 3 – Conclusion............................................................................................... 80 81 82 Chapitre 5 : A qui sert le peer to peer aujourd’hui................. 85 1 - Introduction - Le téléchargement de films et fichiers musicaux en forte croissance.................................................................................... 1.1 - Les effets de réseau dans l’économie numérique ..................................... 1.2 - Les contenus gratuits dans les systèmes de distribution dématérialisés ... 1.3 - Quelle législation sur le droit d’auteur en environnement numérique ?... 1.4 - Le peer to peer au cœur d’un jeu économique complexe.......................... 2 - Les industries de contenu....................................................................... 2.1 - Particularités économiques des contenus.................................................. 2.2 - L’appréhension « hollywoodienne » des contenus et leur dimension industrielle.................................................................................................... 2.3 - En Europe, entre Art et Culture et un statut ambigu ................................ 2.4 - Particularités économiques des biens culturels......................................... 2.5 - Le « versionnage » des œuvres ................................................................ 2.6 - La mise sur le marché des contenus.......................................................... 2.7 - Créer des effets de réseau......................................................................... 2.8 - Le système des studios hollywoodiens .................................................... 2.9 - Mutualisation des risques liés à chaque contenu....................................... 2.10 - Contenus et infrastructures de distribution.............................................. 3 – Le déploiement des débits...................................................................... 3.1 - Le peer to peer, produit d’appel pour les réseaux haut débit.................... 3.2 - Les contenus diffusés par peer to peer subventionnent les infrastructures............................................................................................ 3.3 - 1 milliard d’euros détournés au profit des fournisseurs d’accès et d’infrastructures........................................................................................ 3.4 - Corrélation entre piratage et baisse des revenus ?................................... 3.5 - Le peer to peer favorise la production de certains types de contenus....... 3.6 – Renforcement de la concentration et des blockbusters ............................ 3.7 – Risque pour la diversité culturelle............................................................ 4 – Les buts de guerre.................................................................................. 4.1 – Scénarii de légalisation des échanges peer to peer................................... 4.2 – Augmenter la désutilité du téléchargement illégal................................... 4.3 – La situation aux Etats-Unis....................................................................... 4.4 – Le développement d’une technologie ne peut s’appuyer sur des « contenus volés »...................................................................................... 4.5 – En France, la primauté économique reste accordée aux industries d’équipement............................................................................................. 4.6 – Derrière les contenus, affrontement des détenteurs d’infrastructures...... 86 87 87 87 88 88 88 89 90 91 91 92 92 93 93 94 95 95 96 96 97 98 98 99 99 99 100 101 101 102 103 Chapitre 6 : Le cadre juridique applicable à la protection des contenus en ligne et au « peer to peer »........................ 105 1 - Introduction - Les échanges peer to peer ont-ils besoin d’un cadre spécifique ?............................................................................................. 106 145 Livre blanc sur le « Peer-to-Peer » 1.1 - Un « phénomène culturel et social » que le législateur ne pouvait plus ignorer........................................................................................................ 1.2 - La solution de la « licence globale » finalement écartée........................... 1.3 - Difficultés de mise en place d’un système de « réponse graduée ».................................................................................................... 1.4 - L’esprit de la loi du 1er août 2006............................................................. 2 – La recherche de solutions visant à tarir les hypothèses de contrefaçon............................................................................................... 2.1 - La sensibilisation des éditeurs de logiciels permettant les échanges d’œuvres ou d’éléments protégés............................................................ 2.1.1 - Le volet pénal : L.335-2-1 du Code de la propriété intellectuelle.... 2.1.2 - Le volet civil : L.336-1 du CPI......................................................... 2.2 – Sensibilisation à des fins de prévention de certains acteurs de l’Internet....................................................................................................... 2.2.1- Obligation à la charge de l’abonné..................................................... 2.2.2 - Obligation à la charge du fournisseur d’accès à Internet.................. 106 107 108 109 109 110 110 113 3 – La sanction d’échanges non autorisés persistants............................... 114 114 116 123 3.1- L’analyse de certains actes de téléchargement non autorisés en contrefaçon................................................................................................... 3.2 - Les sanctions encourues en cas d’échanges contrefaisants....................... 124 124 4 – Conclusion : Sagesse et prudence du législateur dans un monde en mouvement, à la croisée des évolutions technologiques et sociales.................................................................................................... 129 Chapitre 7 : Conclusion et propositions.................................... 135 1 - Pour un cadre légal qui garantisse un développement harmonieux des contenus et des réseaux : Conclusion…………………………… 2- Agir avant qu’il ne soit trop tard : Propositions................................... 136 141 146