Livre Blanc sur le « Peer-to-Peer

Transcription

Livre Blanc sur le « Peer-to-Peer
Livre Blanc sur le « Peer-to-Peer »
Comment fonctionne-t-il ?
A qui profite-t-il ?
Comment lutter contre le téléchargement illégal
de fichier protégés
sur les réseaux Peer to Peer ?
Paris 25 octobre 2007
Cet ouvrage est publié sous l’égide du
Syndicat National de l’édition phonographique (SNEP)
27 rue du Dr Lancereaux 75008 Paris
Livre blanc sur le « Peer-to-Peer »
2
Livre blanc sur le « Peer-to-Peer »
Avertissement
Le SNEP, particulièrement sensibilisé à la question du téléchargement illégal de fichiers
protégés, s’intéresse naturellement au phénomène du “peer to peer". C’est pourquoi il
lui a paru utile de rassembler dans un même document des éclairages à la fois
techniques, économiques et juridiques.
Toutefois, les contributions figurant dans ce Livre Blanc ont été réalisées en toute
indépendance par leurs auteurs, et leurs contenus respectifs n’engagent que ces derniers.
Elles ont bien sûr, au même titre que les discussions qui les ont accompagnées pendant
un an, nourri la réflexion du SNEP en la matière et orienté la mise au point des
propositions formulées en conclusion de cet ouvrage.
3
Livre blanc sur le « Peer-to-Peer »
4
Livre blanc sur le « Peer-to-Peer »
INTRODUCTION
Lutter contre le téléchargement illégal de fichiers
protégés par les droits d’auteur ou droits voisins
sur les réseaux « peer to peer »
5
Livre blanc sur le « Peer-to-Peer »
Le 21e siècle s’est ouvert sous le signe des technologies de l’information et de leur
généralisation progressive.
Dans l’entreprise, les réseaux de communication et les systèmes d’information qui leur sont
associés ont permis l’émergence de nouvelles pratiques professionnelles et sont désormais
reconnus comme créateurs de valeur.
Dans les foyers, les accès à Internet haut débit se développent de façon spectaculaire. Et, là
aussi, de nouvelles pratiques sont apparues comme les échanges directs de « pair à pair » ou
peer to peer.
Le peer to peer, une approche prometteuse
Dans cet univers électronique, le peer to peer s’est ainsi peu à peu imposé comme un véhicule
commode pour des usages et des applications très variés et dont beaucoup sont encore à
inventer.
L’arrivée des nouvelles technologies n’est évidemment pas étrangère au phénomène
d’individualisation de notre société relevé par de nombreux sociologues. Celles-ci ont joué un
rôle majeur dans l’émergence de nouvelles formes d’organisation et de nouveaux moyens
d’échange qui, à leur tour, se traduisent par la mise en place de nouveaux rapports sociaux, de
nouveaux principes de gouvernance, concourrant à l’évolution de notre société. En mouvement
perpétuel, celle-ci doit intégrer des changements de plus en plus rapides. Les progrès déjà
constatés vont être suivis d’autres tant elles sont riches en termes de perspectives offertes.
Seulement, à côté de ces évolutions et progrès incontestables, sont apparus des usages pervers
tels que le téléchargement illégal des fichiers protégés par des droits d’auteurs ou droits voisins.
D’abord marginaux, ils se sont développés de façon spectaculaire. La France étant un des pays
où cet usage reste le plus massif. Ils menacent aujourd’hui les industries culturelles européennes
et ternissent en même temps l’image des technologies dont ils se servent.
Parce que le peer to peer recèle des perspectives prometteuses dans différents domaines du
savoir, il serait absurde de le combattre en tant que tel. Mais, parce qu’il est aujourd’hui
techniquement et juridiquement possible de contrecarrer ces détournements de produits culturels
pour les inscrire dans un cadre respectueux des droits de chacun, c’est-à-dire des créateurs et de
leur public, il serait invraisemblable de ne pas agir.
Le téléchargement illégal de fichiers protégés, un phénomène très développé en
France
Les statistiques sont en effet éloquentes ...
6
Livre blanc sur le « Peer-to-Peer »
En 2003, dans le monde, selon l’Idate, près de 150 milliards de fichiers musicaux se sont
échangés sur les réseaux P2P contre 50 milliards vendus sur support physique.
En France, pour l’année 2005, un milliard de fichiers musicaux ont été téléchargés, soit environ
l’équivalent des ventes physiques de titres1, dont seulement 20 millions sur des plateformes de
téléchargement légal. Pour les films, 120 millions de fichiers ont été téléchargés soit environ
l’équivalent des ventes de DVD en France en 2005.
Ce phénomène s’est poursuivi en 2006 et 2007
Il faut savoir que la France est l’un des pays où les abonnements haut débit sont les moins chers
pour une bande passante donnée, que la proportion des internautes pratiquant le téléchargement
(musique, films, jeux vidéo et logiciels) y est élevée (supérieure à 50 %) mais que celle des
fichiers téléchargés légalement y est en revanche très faible à 15% et, surtout, plus faible que
celle constatée dans la plupart des autres pays. Une large part de la bande passante est par
conséquent occupée par des applications « peer to peer » (90 % selon une étude de la société
Sandvine).
Autre donnée qui doit aujourd’hui interpeller : la baisse importante des revenus de l’industrie
musicale.
Le chiffre d'affaires des producteurs de disques était de 1 302 millions d’euros en 2002, date de
démarrage du haut débit dans l’Hexagone. Il a été en 2006 de 819,2 millions d’euros. Au
premier semestre 2007, le chiffre d'affaires des ventes physiques a encore baissé de – 20 %, et
le marché numérique (téléphonie et Internet) progresse, lui, trop peu : 30 660 milliers d’euros en
2005, 43 545 milliers d’euros en 2006 et 22 973 milliers d’euros en 2007.
Le marché de l’offre légale dématérialisée devrait poursuivre sa croissance. Pour ce qui
concerne la musique, chiffré à 43,5 millions d’euros pour la France en 2006, il devrait atteindre
100 à 120 millions en 2010.
Il est donc impératif d’agir pour que cette offre légale puisse se développer sereinement sans
être parasitée par un piratage intempestif.
Risque d’appauvrissement, voire de tarissement de la création
Car les produits piratés sont purement et simplement soustraits du circuit économique, alors
même qu’ils servent de ‘’faire-valoir’’ voire de ‘’produits d’appel’’ pour les abonnements aux
1
Selon l’IFPI, les ventes physiques de disques en France en 2005 se sont élevées à 24,7 millions de single
et 83 millions d’albums.
7
Livre blanc sur le « Peer-to-Peer »
réseaux électroniques.
Difficile alors de ne pas imaginer les conséquences négatives pour ceux, créateurs et plus
généralement industries musicales et cinématographiques, qui se trouvent ainsi, via le
téléchargement illégal de fichiers protégés, dépossédés de leurs richesses : leur situation
économique est d’abord fragilisée et peut, par la suite, être menacée de disparition.
Œuvrer pour contenir et maîtriser ce phénomène, c’est faire comprendre à tous que chacun doit
pouvoir vivre des fruits de son travail, notamment les créateurs.
La pratique du téléchargement illégal de fichiers met en danger la création artistique. Dans un
premier temps, on risque d’assister à une réduction de la diversité des œuvres, au bénéfice
notamment des œuvres les plus commerciales, celles visant une clientèle internationale la plus
large possible et présentant un risque faible car consommée abondamment sur une période
courte. Dans un second temps, se profile une menace de tarissement qui, s’il n’est pas total,
laissera simplement subsister une création monolithique et, somme toute, indigente, car la loi du
plus fort sera plus prégnante que jamais.
Tous ceux qui interviennent dans le processus de production des œuvres sont concernés, c’est-àdire non seulement les artistes mais également ceux qui prennent des risques à leurs côtés.
La technologie du « peer to peer » n’est pas en cause
Le Livre Blanc que nous présentons ici n’a pas pour propos de remettre en question le « peer to
peer » qui constitue une technologie très innovante aux potentiels considérables et qui n’a pas à
faire les frais des usages illégaux qui s’appuient sur elle - un peu comme si les constructeurs
automobiles se voyaient accusés des excès de vitesse commis par certains automobilistes.
Il s’agit simplement de souligner auprès des pouvoirs publics les conséquences graves à moyen
et long terme qu’aurait le fait de laisser se développer des usages non respectueux du droit de
propriété des créateurs, éditeurs et producteurs, ou de considérer les ‘’pillages’’ ainsi commis
avec un certain laxisme, alors même qu’il existe des moyens techniques et juridiques pour
endiguer le phénomène.
Pourquoi un Livre Blanc consacré à cette question ?
Notre ambition est ici de montrer que comme toute technologie, le « peer to peer » doit être au
service du bien-être collectif et de l’intérêt général et non être détourné par des intérêts
particuliers et mercantiles de court terme.
8
Livre blanc sur le « Peer-to-Peer »
C’est pourquoi nous avons souhaité aborder la question de la circulation des œuvres sur les
réseaux « peer to peer » dans sa globalité – sans bien sûr prétendre épuiser le sujet.
Et c’est aussi au travers d’une approche pluridisciplinaire rendue possible grâce à la
collaboration de plusieurs universitaires renommés dans leurs disciplines, qu’est né ce Livre
Blanc.
L’ouvrage débute par un important volet technique (parfois déroutant pour le non initié) destiné
à permettre une bonne compréhension de la technologie « peer to peer », notamment dans son
architecture et dans les moyens dont on dispose pour la contrôler. Ensuite sont abordés les
aspects économiques et juridiques de la question du téléchargement illégal au moyen de
logiciels d’échange en « peer to peer », au travers notamment de la loi sur le droit d’auteur et les
droits voisins dans la société de l’information du 1er août 2006.
Que les auteurs qui y ont participé, tout particulièrement Guy Pujolle du Laboratoire de
l’Université Paris 6, sous l’égide duquel ce livre blanc a été réalisé, soient vivement remerciés
pour leurs précieuses et riches contributions qui, nous l’espérons, permettront à beaucoup de
mieux comprendre ce qu’il faut bien considérer comme un phénomène de société.
Des remerciements doivent également être adressés à Frédéric Goldsmith, ancien directeur
juridique du Syndicat national de l’édition phonographique (SNEP) et désormais délégué
général de l’Association des producteurs de cinéma (APC), à qui revient l’initiative de ce livre
blanc, aux côtés d’Ahmed Serhrouchni de l’Ecole nationale supérieure des télécommunications.
Ce sont eux qui, à l’occasion de contacts avec les spécialistes concernés, ont eu l’idée de réunir
leurs compétences et leur expertise dans un ouvrage unique et pluridisciplinaire. Frédéric
Goldsmith est en outre l’auteur du chapitre de conclusion et des propositions qu’il contient,
rédigé à partir d’une synthèse de débats entre contributeurs.
Enfin, ce livre blanc a bénéficié de l’aide précieuse de Françoise Payen, journaliste
indépendante, qui a travaillé à son éditorialisation et à la rédaction de son introduction.
Hervé RONY
Directeur Général du SNEP
9
Livre blanc sur le « Peer-to-Peer »
10
Livre blanc sur le « Peer-to-Peer »
Biographie des auteurs
Guy Pujolle est professeur à l’Université Paris 6 et responsable de nombreux grands projets de
recherche français et européens. Auteur de plus d’une centaine d’articles et de nombreux
ouvrages en langues française et anglaise il est également membre du conseil scientifique de
France Télécom. Ses recherches portent actuellement sur la conception et le développement des
futurs grands réseaux IP qui associeront le fixe et le mobile.
Ahmed Serhrouchni est spécialiste en architecture et en sécurité des réseaux de
communication. Maître de conférences à l'Ecole nationale supérieure des télécommunications
de Paris (ENST), il est également chercheur au laboratoire Traitement et Communication de
l'Information (URA 820) du CNRS.
Marc-Michel Pic est ingénieur (ENSPM) et docteur en systèmes informatiques (Paris VIJussieu). Passionné par l'information et ses applications pratiques, de l'image numérique aux
ordinateurs à haute performance en passant par les langages de compilation, il a publié
différents articles pour des revues et conférences internationales et participé à des ouvrages
collectifs. Il a exercé des responsabilités dans le monde industriel et dans le monde de la
recherche (CEA). Il participe à plusieurs comités de normalisation, dont celui concernant MPEG
à l'AFNOR/ISO et est membre de Cyberlex. Il a fondé la société AdVestigo en 2002.
Anne-Gaëlle Geffroy a rejoint l’équipe numérique du CERNA en 2004 en tant que doctorante.
Elle est normalienne et agrégée d’économie. Ses travaux de recherche, et notamment ceux coécrits avec Olivier Bomsel, portent sur l’économie industrielle des DRMs et sur l’économie de
la propriété littéraire et artistique. Ils sont disponibles à l’adresse suivante :
http ://www.cerna.ensmp.fr//CVs/Geffroy.html
Olivier Bomsel est Professeur d’Economie Industrielle à l’Ecole des Mines de Paris. Il a créé en
1998 l’équipe de recherche sur l’économie numérique au CERNA, le centre d’Economie
Industrielle de l’Ecole des mines. Il a depuis publié de nombreux travaux sur l’économie des
réseaux et des contenus numériques (http://www.cerna.ensmp.fr/CVs/PubliBomsel.html). Il est
également producteur de films et de séries TV.
Pierre Sirinelli est professeur à l'université Paris-1 (Panthéon-Sorbonne) et doyen honoraire de
la faculté Jean Monnet. Il est par ailleurs président de l'AFPIDA (association pour la protection
internationale du droit d'auteur), vice-président de l'ALAI (association littéraire et artistique
internationale), directeur du CERDI (centre d'études et de recherche en droit de l'immatériel) et
directeur du DESS de droit du numérique et des nouvelles techniques. Il publie très
régulièrement des travaux dans ce domaine
Frédéric Goldsmith est avocat de formation. Il a travaillé plusieurs années au sein d’un cabinet
international, puis a intégré l’ADAMI. Il a rejoint le SNEP (Syndicat national de l’édition
phonographique) en 1995 et y a occupé le poste de Directeur des affaires juridiques et sociales
et des nouvelles technologies. Il est actuellement Délégué général de l’Association des
producteurs de cinéma. Il est l’auteur d’articles sur les questions touchant aux relations entre le
numérique et les secteurs de la culture. Il est membre de Cyberlex.
11
Livre blanc sur le « Peer-to-Peer »
12
Livre blanc sur le « Peer-to-Peer »
Chapitre 1
Typologie des réseaux et applications
de « peer-to-peer »
Guy Pujolle et Ahmed Serhrouchni
13
Livre blanc sur le « Peer-to-Peer »
1 - Introduction - Problèmes et questions liés à l’émergence des
réseaux peer to peer
L’avènement des réseaux Pair-à-Pair (an anglais peer-to-peer) est l’un des événements qui a le
plus marqué le développement d’Internet ces dernières années. La proportion des flux P2P, par
rapport à l’ensemble des flux de communication numérique dans l’Internet, atteint les 80% et
cela posent aujourd’hui le problème de l’adaptation de ces nouvelles applications dans le
contexte de l’Internet.
Ainsi, le développement des réseaux peer-to-peer pose de façon aigue trois séries de questions :
1.1 Questions relatives au modèle de valeurs fondant la pratique de l’Internet ; la
philosophie sous-jacente est une philosophie communautariste dans laquelle les internautes
ne sont plus simplement consommateurs (« clients ») mais aussi acteurs (« serveurs »).
1.2 Questions juridiques : ce sont des questions concernant notamment : (i) le droit d’auteur
(contenus multimédias, logiciels piratés), (ii) la sécurité - les logiciels nuisibles (vers,
espions, etc.) et (iii) la protection des personnes (circulation de documents portant atteinte à
la dignité humaine). Ces questions, qui ont toujours accompagné le développement
d’Internet, sont vite devenues cruciales avec le peer-to-peer. Napster, premier logiciel peerto-peer grand public, apparu en juin 1999, a été fermé en 2002, en raison du grand nombre
de copies illégales circulant sur ce réseau. L’émergence de Napster a eu une grande
importance car elle a introduit auprès du grand public le partage de fichiers distribués sans
contrôle. De nos jours, le problème du contrôle des flux d’Internet est posé. La question de
savoir s’il est possible, voire souhaitable, de contrôler Internet, et de quelle façon, est le
sujet de débats d’actualité.
1.3 Questions techniques : les réseaux peer-to-peer font l’objet de nombreuses recherches,
leur impact sur les infrastructures existantes est fort. La recherche dans l’amélioration des
réseaux peer-to-peer et dans l’adaptation des infrastructures conduit à de véritables défis
conceptuels et techniques.
Ces trois types de questions se nourrissent les unes les autres. Par exemple, l’abandon du
modèle Client-Serveur semble être une traduction d’un modèle de valeurs « communautariste »
dans lequel les internautes participeraient activement au développement d’Internet. Par ailleurs,
le fait que Napster, qui reposait sur une architecture centralisée, ait été fermé pour raisons
juridiques a, entre autres, conduit les développeurs et les utilisateurs à favoriser par la suite des
14
Livre blanc sur le « Peer-to-Peer »
architectures décentralisées.
D’autres interrogations se profilent. La première concerne les concepteurs et les utilisateurs des
réseaux peer-to-peer qui font preuve de méfiance vis-à-vis de tout contrôle (toujours le
précédent Napster) ou de tout bridage de leur réseau. Ensuite, les pare-feu des entreprises et de
certains FAI peuvent-ils bloquer les flux peer-to-peer. Les concepteurs en réponse à ces
questions tentent de banaliser au maximum ces flux peer-to-peer pour ne pas qu’on puisse les
repérer. Cette clandestinité crée cependant des soucis dans la recherche d’améliorations de
l’infrastructure.
2. Définitions et principes de fontionnement des applications Peer to Peer
Un réseau est constitué par un ensemble de machines interconnectées permettant ainsi l’échange
d’informations et le partage des ressources physiques (unité centrale, mémoire de stockage,
bande passante, imprimante, etc.), de fichiers, la diffusion d’informations et ainsi de suite. Ces
réseaux ont été initialement conçus pour des architectures client/serveur.
Selon l’architecture client/serveur, il y a une entité centrale plus puissante, le serveur, et
plusieurs entités de puissances inférieures, les clients. Le serveur est l’unité d’enregistrement
centrale aussi bien que le seul fournisseur de services aux clients. Un client ne demande que le
contenu ou l’exécution des services, sans partager aucune de ses ressources propres. Avec ce
modèle, le contrôle et la responsabilité de l’information diffusée dépendent du serveur.
Or cette architecture présente beaucoup d’inconvénients pour la marche d’un réseau, à
commencer par l’existence d’un point central qui représente une certaine fragilité : en cas de
panne le système s’arrête. L’architecture peer-to-peer propose une alternative à l’architecture
client/serveur en offrant de nombreux avantages, comme une plus grande fiabilité, une
répartition du trafic et de la charge, une meilleure résistance aux fautes et un anonymat, entre
autres.
Une application peer-to-peer se déroule sur un ensemble de nœuds (que l’on appelle des pairs)
qui peuvent être aussi bien clients et serveurs ou les deux à la fois. Ces pairs sont reliés entre
eux par des liens de communication. Ces liens de communication peuvent traverser des nœuds
intermédiaires. Ces nœuds et ces liens définissent par eux-mêmes un réseau peer-to-peer qui est
un réseau overlay (ou de recouvrement). Ce réseau de recouvrement est un réseau virtuel placé
au dessus d’une infrastructure physique. Chaque pair comporte un ensemble d’objets (des
fichiers de musique, article, etc..) et des ressources physiques (mémoire de stockage, bande
passante, unité centrale, etc.).
15
Livre blanc sur le « Peer-to-Peer »
Quelques définitions supplémentaires sont nécessaires à la bonne compréhension de ce chapitre.
Un système peer-to-peer est un système reparti utilisant l’architecture de réseaux peer-to-peer.
Un service peer-to-peer est un service fourni par les pairs d’un système peer-to-peer.
L’application peer-to-peer est un service ou un ensemble de services peer-to-peer s’exécutant
sur des pairs au bénéfice des utilisateurs du système.
Le terme peer-to-peer fait référence aux systèmes et applications qui utilisent des ressources
réparties avec l’objectif d’accomplir des tâches critiques d’une façon décentralisée. Le terme
peer-to-peer provient aussi de la relation réciproque entre entités de même statut pour réaliser
des échanges d’objets. Les utilisateurs des systèmes peer-to-peer ont besoin de mécanismes qui
localisent et récupèrent ces objets dans le réseau.
Le mécanisme de Lookup consiste à localiser un objet dans le réseau, spécifié par une clé unique
d’identification et le mécanisme de Search a pour objet de localiser un objet en fonction des
mots-clés d’identification.
3. Classification des systèmes peer-to-peer
Avec la croissance des réseaux, le peer-to-peer suscite de plus en plus l’attention dans la
recherche comme alternative aux réseaux client/serveur. Plusieurs études essayent de classifier
les systèmes peer-to-peer. Trois grandes catégories peuvent être identifiées : centralisé,
décentralisé, et hybride. La catégorie décentralisée peut encore être divisée en décentralisé mais
structuré et en décentralisé et non structuré. La différence principale entre ces systèmes est le
mécanisme utilisé pour rechercher des ressources dans le réseau peer-to-peer.
3.1 - Réseaux peer-to-peer centralisés
Dans les systèmes peer-to-peer centralisés, la description et l’adresse des ressources sont
stockées dans un annuaire d’un serveur central. Ainsi, les nœuds envoient des requêtes au
serveur central pour trouver quels nœuds ont les ressources désirées. Le serveur ne fournit que
la capacité de rechercher et négocie les téléchargements entre clients. De ce fait, le contenu reste
du côté client, ne passant jamais par le serveur. Après avoir reçu une requête d’un pair, l’index
central recherche le meilleur pair dans son annuaire pour répondre à sa requête. Le meilleur pair
est celui qui est le plus économique, le plus rapide ou le plus disponible selon les besoins de
l’utilisateur. Lorsque le nombre de participants devient trop grand ce modèle comporte quelques
inconvénients dus à son infrastructure centralisée, notamment la surcharge de l’annuaire
responsable d’accueillir les informations de tous les participants. Cette catégorie de réseaux
16
Livre blanc sur le « Peer-to-Peer »
peer-to-peer ne peut pas s’étendre à de très grands réseaux. De plus, l’existence d’un centre
unique, même s’il est dupliqué, ne permet pas une bonne fiabilité du réseau. Celui-ci peut
tomber en panne à cause d’un seul nœud. Napster a été l’exemple le plus connu reposant sur ce
modèle.
Napster
Napster est souvent considéré comme le premier réseau peer-to-peer Son architecture est
centralisée : les pairs du réseau annoncent les fichiers dont ils disposent au serveur central et
contactent ce serveur central pour obtenir les coordonnées (adresse IP et numéro de port) d’un
pair possédant les fichiers recherchés.
Chaque utilisateur doit posséder le logiciel Napster sur son ordinateur afin de participer au
partage des fichiers. Étant connecté à l’Internet, le client établit une connexion TCP avec le
Serveur Central Napster et lui déclare les fichiers qu’il souhaite partager. Ce serveur détient
donc un annuaire avec toutes les adresses IP des clients participants connectés à lui, ainsi qu’une
liste des ressources partagées. Ainsi, tout client qui souhaite obtenir un fichier interroge le
Serveur Central. Le Serveur Central lui communique les adresses IP de ceux qui possèdent le
fichier désiré. Le logiciel Napster permet ainsi au client de se connecter directement sur les
ordinateurs qui proposent le fichier.
Le fichier en lui-même ne transite pas par le serveur central, qui fonctionne simplement comme
un moteur de recherche : une fois l’adresse IP trouvée, les ordinateurs clients peuvent se
connecter directement entre eux. Mais il ne s’agit pas d’un réseau totalement « pair à pair »,
dans la mesure où sans le serveur central, le réseau ne peut pas fonctionner.
3.2 - Réseaux peer-to-peer décentralisés et non structurés
Les systèmes décentralisés et non structurés sont ceux au sein desquels il n’existe ni annuaire
centralisé, ni connaissance où se situent les nœuds du réseau (la topologie), ni adresse sur
l’emplacement des fichiers. Le logiciel de P2P Gnutella en est un exemple. Ce réseau est formé
de nœuds qui rejoignent le réseau P2P en suivant quelques règles simples. L’emplacement des
fichiers n’est fondé sur aucune connaissance de la topologie. Pour trouver un fichier, un pair
demande tout simplement à ses voisins qui eux-mêmes vont demander à leurs voisins s’ils n’ont
pas le fichier considéré, et ainsi de suite. Ces architectures non structurées sont extrêmement
résistantes aux nœuds entrant et sortant du système. Par contre, l’actuel mécanisme de recherche
n’est pas adapté aux très grands réseaux (on dit que le réseau ne passe pas à l’échelle) et génère
une charge importante sur les participants du réseau. Les exemples de cette catégorie sont
nombreux comme FreeNet ou Gnutella.
17
Livre blanc sur le « Peer-to-Peer »
Gnutella
Gnutella a été le premier réseau peer-to-peer totalement décentralisé. Succédant à Napster, dont
la centralisation présentait une faiblesse avérée, Gnutella a tiré profit de cette expérience.
Gnutella propose un protocole ouvert, décentralisé pour des recherches distribuées sur un
ensemble de pairs non hiérarchisés. Dans Gnutella, tous les pairs sont à la fois serveur et client.
Ce protocole n’a pas de répertoire centralisé et n’a aucun contrôle sur la topologie ou
l’emplacement des fichiers. Le réseau est formé avec des pairs qui intègrent le réseau en suivant
quelques règles simples. L’emplacement des données n’est fondé sur aucune connaissance de la
topologie. Pour localiser un objet, un client demande à ses voisins qui eux-mêmes demandent à
leurs voisins. Ce genre de systèmes permet simplement l’entrée et la sortie des clients, mais le
mécanisme utilisé passe mal à l’échelle et génère de fortes charges dans le réseau.
La première version de Gnutella utilisait un mécanisme d’inondation pour la recherche, ce qui
pose évidemment un problème dès que le réseau devient très grand. Les versions les plus
récentes de Gnutella utilisent la définition de super-pairs ou ultra-pairs (pairs avec la meilleure
bande passante) pour améliorer la performance du réseau. Cependant, cette solution reste encore
limitée toujours à cause des mécanismes d’inondation même si l’inondation ne se fait que sur
les ultra-pairs et non sur l’ensemble des pairs. De nombreuses applications d’échange de fichiers
implémentent le protocole Gnutella comme Limewire, BearShare, Gnucleos, Phex.
Le protocole Gnutella définit comment les clients sont interconnectés dans le réseau. Il repose
sur l’utilisation de descripteurs (Ping, Pong, Query, QueryHit et Push) pour la communication
entre les clients et d’un ensemble de règles qui gèrent leurs échanges.
Ainsi, lorsqu’un client cherche un objet, il lance une requête (Query) en spécifiant cet objet à
tous ses voisins. Si l’un des voisins possède l’objet en question, il répond à la requête en
renvoyant une réponse (QueryHit) au voisin qui lui a retransmis la requête, spécifiant où l’objet
peut être téléchargé (son adresse IP et son port TCP). La réponse remonte ainsi de proche en
proche jusqu’au client qui a initialisé la requête. Le client initiateur de la requête choisit ensuite
les fichiers à télécharger en envoyant directement une requête de téléchargement au client qui
possède le fichier. Si le nœud qui a reçu la requête ne peut la satisfaire, il propage la requête à
tous ses voisins, sauf celui qui a initialisé le mouvement. En d’autres termes, Gnutella
inonde le réseau pour trouver l’objet désiré. Néanmoins, pour ne pas inonder le réseau
durant un temps trop long, Gnutella utilise un temps maximum (ou temporisateur) pendant
lequel l’inondation se propage.
Lorsqu’un client souhaite rejoindre le réseau, il doit connaître au moins un autre client déjà
18
Livre blanc sur le « Peer-to-Peer »
connecté, et c’est à ce dernier que le nouveau client est rattaché. Étant connecté, un client
envoie périodiquement des requêtes (Ping) à ses voisins. Cela permet de sonder le réseau à la
recherche d’autres clients. Tous les clients qui reçoivent un Ping répondent avec un Pong qui
contient l’adresse et la quantité de données partagée. La responsabilité de déterminer la
fréquence d’émission des Pings revient aux programmes utilisant Gnutella. En effet, des Pings
fréquents permettent d’assurer les liens entre un client et le reste du réseau, puisque dans
l’environnement dynamique que propose Gnutella (les clients rejoignent et quittent le réseau
sans arrêt) la connexion n’est pas fiable.
Toutefois, si un client se trouve derrière un pare-feu, il est impossible d’établir une connexion
TCP avec ce client (serveur dans ce cas) sur lequel se trouvent les fichiers désirés. Afin de
pallier ce problème, le client peut par lui-même établir une connexion TCP, et télécharger les
fichiers vers le client distant. Le descripteur Push joue donc le rôle de « dire » au client serveur
qu’il doit initialiser le transfert.
3.3 - Les réseaux peer-to-peer décentralisés mais structurés
Les systèmes décentralisés mais structurés n’ont toujours pas de serveur central mais ils sont
« structurés » dans le sens où leur topologie est strictement contrôlée et les fichiers sont stockés
dans des endroits spécifiques pour faciliter les recherches. Ils sont dits structurés car les nœuds
participants à l’application P2P sont reliés entre eux selon une structure particulière comme un
anneau. Ce type de réseau a été défini pour rendre des services de routage et de localisation
fondés sur le peer-to-peer.
Les systèmes peer-to-peer décentralisés mais structurés possèdent un algorithme de recherche
pour lequel une ressource donnée se trouve en un endroit parfaitement déterminé à l’avance. Cet
endroit a été calculé pour qu’il soit le plus simple d’accès aux autres peers du réseau.
L’algorithme de recherche est donc complètement déterministe, et les liens entre les pairs sont
faits suivant des règles bien définies. Cette structure permet la découverte efficace des fichiers
partagés. De plus, elle est particulièrement appropriée au développement de réseaux à grande
échelle. Dans cette catégorie, on peut placer Chord, CAN (Content Adressable Network),
Tapestry, Pastry, Kademlia et Viceroy.
Pour trouver un fichier dans un réseau peer-to-peer classique, on fait de l’inondation de requêtes
sur le réseau, en interrogeant tous les ordinateurs connectés jusqu’à trouver un ordinateur qui le
détient. Pour simplifier cette recherche, les concepteurs des réseaux peer-to-peer se sont tournés
vers des structures de données connues. En effet, améliorer les algorithmes de recherche
nécessite d’organiser le réseau, donc de le structurer, ce qui est bien l’objectif de ces réseaux
19
Livre blanc sur le « Peer-to-Peer »
peer to peer décentralisés mais structurés.
Les algorithmes permettant de retrouver les fichiers partagés dans le réseau utilisent des clés
assez complexes et nous renvoyons le lecteur à des livres spécialisés pour en savoir plus. Ils ont
les propriétés suivantes :
•
La fiabilité. L’algorithme de découverte et de routage garantit que pour une clé donnée
il est capable de déterminer le pair le plus proche possédant le bon fichier. Dans des
conditions statiques, une réponse négative à une requête signifie que la ressource
requise n’est pas disponible dans la communauté.
•
La performance. Le nombre de sauts nécessaires est limité. Par exemple, dans une
communauté d’un million de pairs, la longueur moyenne du chemin à parcourir par une
requête avoisine 5 sauts.
•
Le passage à l’échelle. Deux caractéristiques confèrent aux algorithmes de recherche la
possibilité de passer à l’échelle. La première est liée au nombre moyen de sauts
nécessaires au routage des requêtes qui reste petit même dans le cas de communautés
comptant un grand nombre de participants. La seconde est relative aux tables de routage
qui restent elles aussi d’une taille raisonnable en regard du nombre de participants.
•
L’équilibre de la charge et du trafic. L’utilisation de fonctions qui permettent de créer
des communautés équilibrées où les pairs ont statistiquement en charge une part égale
de ressources à référencer. De plus, cet équilibre de la charge induit l’équilibre du trafic
au sein de la communauté, dans l’hypothèse où chaque ressource est sollicitée de
manière équivalente.
•
La tolérance aux fautes. De par l’absence de centralisation, qui exclut tout point
central, l’algorithmique de recherche présente une bonne tolérance face à des
suppressions aléatoires de nœuds. Les requêtes peuvent être acheminées même si une
partie des nœuds disparaît.
•
Le coût de maintenance. La nature dynamique du modèle peer-to-peer nécessite la
mise en place d’un processus de maintenance qui permet de garantir le bon
fonctionnement des algorithmes de recherche. Pour cela, le processus de maintenance,
exécuté de manière asynchrone par chaque pair, vise à vérifier régulièrement que les
entrées des tables de routage sont correctes.
20
Livre blanc sur le « Peer-to-Peer »
3.4 - Les réseaux peer-to-peer hybrides
Les réseaux hybrides permettent de résoudre des problèmes de l’approche purement distribuée
tout en gardant l’efficacité de la solution centralisée. Les réseaux fondés sur ces mécanismes de
localisation et de routage de données peuvent supporter un nombre de pairs de l’ordre du
million. Cette solution combine les caractéristiques des modèles centralisés et décentralisés. La
décentralisation signifie, entre autres, l’extensibilité, la tolérance aux fautes et le passage à
l’échelle. La centralisation partielle implique quelques centres serveurs qui contiennent des
données importantes pour le système. Chaque utilisateur élit son Super-pair, qui est « le serveur
central » pour « des nœuds locaux » et peut communiquer avec d’autres Super-pairs. FastTrack,
KaZaA, BitTorrent, eDonkey/eMule sont quelques exemples que nous allons détailler.
FastTrack
FastTrack est un réseau hybride de partage de fichiers. Les pairs forment un recouvrement
structuré fondé sur l’architecture des super-nœuds (SN) et des nœuds-ordinaires (NO) pour
faciliter les recherches. Les SN forment les nœuds qui ont le plus de bande passante, le plus de
capacité disque et le plus de puissance de traitement. Toutes les requêtes leur sont envoyées.
Ensuite, une recherche fondée sur la diffusion du genre Gnutella est effectuée.
Les principales applications qui implémentent le réseau FastTrack sont KaZaA, Grokster et
Morpheus. Nous allons juste décrire KaZaA qui est certainement l’application peer-to-peer la
plus connue.
KaZaA
Les utilisateurs disposant d’une connexion très rapide sont immédiatement considérés comme
des SN et jouent alors le rôle de serveur. C’est eux qui hébergent la liste des fichiers partagés
par les clients. Les serveurs principaux ne gèrent donc que les connections et la liste des SN.
Cette méthode permet au réseau KaZaA de disposer d’une quantité croissante de serveurs de
recherche avec le nombre de clients présents.
Les SN restent des pairs, et pour cela ils partagent et téléchargent aussi des fichiers. Le temps
d’unité centrale consommé par la fonction des SN est de l’ordre de 10% et le client peut refuser
de devenir SN. Les SN communiquent entre eux pour les recherches. En fonction du
temporisateur des paquets, la recherche est plus au moins profonde sur le réseau. Les échanges
entre clients se font via le protocole HTTP. KaZaA est le client le plus connu du réseau. Une
version « Spyware Free » est disponible et s’appelle KaZaA Lite. Cette version permet aux
clients d’éviter le chargement de logiciels espions. Cependant, elle demande l’utilisation
21
Livre blanc sur le « Peer-to-Peer »
d’uniquement Windows. Il faut également disposer d’Internet Explorer et de Windows Média
Player.
Lorsqu’un NO exécute l’application pour appartenir au réseau, il établit une connexion TCP avec le SN (NO-SN) et
(lui) envoie les données à partager (appelées méta-données) par la suite. Ce mécanisme permet aux SN de maintenir
une table des fichiers partagés parmi les NO. De plus, il existe des connexions parmi les SN (SN-SN). D’une façon
générale l’algorithme utilisé est le suivant :
1-
Contacter un SN afin de lui fournir la requête. Selon l’origine, la requête peut directement contacter un SN
ou bien être retransmise par les différents pairs intermédiaires jusqu’à atteindre un SN.
2-
Attendre les résultats fournis par le SN. Les résultats obtenus sont sous la forme d’une liste de couples pairs
et ensemble de ressources répondant à la requête.
3-
Choisir parmi ces résultats le NO et la ressource répondant le mieux à la requête. Si les résultats fournis ne
sont pas satisfaisants, un élargissement du champ de la requête est possible. En effet, un SN n’étant
responsable que d’une partie des NO, il peut contacter l’ensemble des SN qu’il connaît, afin de leur
soumettre la requête.
4-
Établir une connexion TCP directe avec le NO choisi pour récupérer la ressource désirée.
Cela définit les réseaux hybrides puisqu’il associe des caractéristiques des réseaux centralisés et décentralisés. KaZaA
permet l’hétérogénéité parmi les pairs participants et, pour mieux en profiter, on regroupe des pairs en plusieurs
hiérarchies. Les pairs de plus haute hiérarchie doivent respecter : (i) la durée de la connexion, (ii) la bande passante,
(iii) la capacité de l’unité centrale et (iv) la possibilité d’avoir des nœuds avec des adresses IP publiques et privées.
BitTorent
BitTorrent (ou simplement BT) est un réseau peer-to-peer hybride qui permet le partage des
fichiers à travers l’Internet. L’efficacité de ce réseau augmente lorsqu’il y a beaucoup de clients,
puisque plus il y a de clients qui téléchargent, plus il y a de clients qui partagent, et il ne faut pas
attendre dans une file virtuelle pour commencer, à condition qu’au moins une personne partage
le fichier complet désiré.
BT est un protocole open source, et grâce à cela, diverses applications l’implémentent (comme
BitTorrent officiel, Azureus, ABC, BitComet, etc.) dont certains offrent diverses améliorations
en proposant notamment une interface graphique améliorée et divers petits outils, plugins, etc.
Dans un réseau de partage de fichiers, le serveur partage sa bande passante entre les clients qui
souhaitent récupérer les fichiers proposés. Or, plus il y a de clients, plus la bande passante
consommée est importante, ce qui peut très vite devenir une source de problèmes.
Le fonctionnement de BitTorrent est fondé sur la centralisation des informations sur un serveur,
mais soulage la bande passante en permettant aux clients (les pairs) de s’échanger les parties de
22
Livre blanc sur le « Peer-to-Peer »
fichiers qu’ils ont téléchargées. Le serveur est alors une graine (en anglais seed) qui démarre le
processus et envoie au moins une copie entière du fichier originel. On peut même supprimer la
source du serveur au bout d’un certain temps, et laisser les clients s’échanger entre eux (ceux
qui ont un fichier complet devenant eux-mêmes des graines). Ce réseau utilise les techniques de
téléchargement depuis différents pairs pour un même fichier (appelé « multisourcing ») et la
division de fichiers en morceaux, ce qui évite d’attendre un utilisateur ayant les parties
adjacentes à la partie déjà téléchargée (si le fichier est composé de 10 parties et si les 5
premières parties ont été reçues, le client n’est pas obligé d’attendre la partie 6 pour continuer ;
il peut très bien recevoir ensuite la partie 8 ou toute autre partie).
Toutefois, il est toujours nécessaire de centraliser ces informations en un seul et même endroit.
Celui-ci est réalisé par ce qui est appelé le « traqueur » (en anglais tracker), qui énumère toute
l’activité relative aux différents fichiers qu’il référence. L’adresse du traqueur est indiquée dans
le fichier « torrent ». C’est lui qui contient toutes les informations permettant aux clients de
télécharger les contenus. Le traqueur utilise un simple protocole sur une couche au-dessus de
HTTP dans lequel un téléchargeur envoie l’information sur le fichier. Le traqueur répond avec
une liste aléatoire des contacts des clients qui sont en train de télécharger le même fichier. Ces
clients sont appelés les sangsues (en anglais leechers). Les sangsues utilisent ensuite cette
information pour se connecter entre eux.
De plus, le protocole est conçu pour décourager les free-riders. Par rapport à d’autres réseaux
peer-to-peer, BT a plusieurs avantages lors du partage de fichiers. En effet, dès que des parties
du fichier sont téléchargées, elles sont déjà disponibles pour les autres clients. De plus, un
système de « récompense » permet de recevoir plus si l’on donne plus. Celui qui donne peu ou
pas du tout ne recevra rien. C’est ce qui s’appelle la technique « Tit-for-tat ».
Les dernières mises à jour de BT contiennent un moteur de recherche, ce qui manquait à BT. Il
s’agit aussi d’une de ses principales faiblesses. Cette nouveauté fait suite à une mise à jour qui
permet de décentraliser les traqueurs. Pour cela BT utilise le protocole Kademlia qui distribue
les traqueurs. Ce système permet également d’alléger la bande passante nécessaire pour mettre
les fichiers en ligne. Avec des traqueurs décentralisés et un moteur de recherche, BT améliore
considérablement son efficacité.
eDonkey/eMule
Le réseau eDonkey (ou eD2k) est un réseau qui a été développé par MetaMachine en septembre
2000 mais c’est au cours de l’année 2001 qu’il a connu son véritable essor. L’application eD2k
est un réseau peer-to-peer hybride pour le partage des fichiers dont les applications clientes sont
23
Livre blanc sur le « Peer-to-Peer »
exécutées par les pairs situés aux extrémités de la chaîne et qui ne sont donc connectés qu’à un
seul serveur. Les serveurs sont semblables aux super-nœuds de KaZaA, sauf qu’ils ne sont pas
connectés entre eux. eD2k est gratuit et existe en deux versions : Windows et Linux. Dans tous
les cas, il permet le téléchargement de différentes ressources et utilise un protocole de transfert
de fichiers multi source, appelé MFTP (Multisource File Transfert Protocol).
Le projet eMule est né en 2002 à partir d’un utilisateur qui n’était pas content avec les clients
eD2k. Initialement fondé sur le réseau eD2k, depuis la version v.42.1, eMule utilise deux
réseaux différents : (i) le réseau eD2k classique, basé sur les serveurs et (ii) un réseau sans
serveur, basé sur Kademlia. Par nature, les deux réseaux disposent des mêmes fonctions. Ils
permettent tous deux, par des moyens différents, de trouver les autres utilisateurs et les fichiers
désirés.
Chaque client eD2k est préconfiguré avec une liste de serveurs et doit en choisir un pour se
connecter et accéder au réseau. Lorsqu’un client établit une connexion TCP avec un serveur, ce
dernier vérifie si les autres clients peuvent librement communiquer avec le nouveau client. Cela
signifie que les autres clients peuvent établir des connexions TCP directement avec ce nouveau
client. Si la réponse est affirmative, le serveur assigne au nouveau client une identification forte
(high ID). Sinon, le serveur assigne au nouveau client une identification faible (low ID).
Le réseau eD2k est fondé sur le protocole MFTP qui est capable d’optimiser les temps de
téléchargement de fichiers. Sur un système classique, le client ne peut télécharger des fichiers
qu’à partir de pairs sources disposant du fichier complet. Grâce au MFTP, un client peut à la
fois télécharger une partie d’un fichier à partir de plusieurs sources et aussi partager les parties
déjà téléchargées. L’efficacité est évidente puisqu’au moment du téléchargement d’une partie
d’un fichier à partir d’un client, lui aussi, permet déjà le transfert de cette partie aux autres
clients. L’architecture d’eD2k est hybride et est proche du super-nœud/nœud-ordinaire du
réseau FastTrack/KaZaA. Il ne fonctionne pas à partir d’un serveur centralisé de type Napster.
Mais son application en elle-même fonctionne selon un principe centralisé et il n’existe pas sur
son réseau de serveurs qui centralisent sous forme de pointeurs toutes les ressources disponibles
sur chaque client.
De plus, le serveur utilise une base de données qui maintient les informations concernant les
clients et les fichiers. Un serveur eMule ne stocke jamais de fichiers, il joue le rôle d’une table
d’index. L’application eMule ajoute plusieurs nouvelles fonctions et une interface graphique
agréable à eD2k, entre autres l’échange d’informations entre les serveurs, les clients et les
fichiers.
24
Livre blanc sur le « Peer-to-Peer »
4. Conclusion
Les problématiques en jeu dans un réseau peer-to-peer sont nombreuses, et ne se résument pas à
l’algorithme de recherche uniquement. Au contraire, les recherches actuelles fournissent de
nombreuses pistes pour mieux utiliser la topologie sous-jacente, structurer le réseau pour le
rendre plus équilibré ou plus fiable. Les réseaux peer-to-peer permettent de déployer de
nouvelles fonctionnalités comme la fiabilité et la rapidité, de nouveaux protocoles comme la
récupération sur plusieurs sources simultanément et de nouvelles applications comme la
téléphonie, la distribution de canaux de télévision, etc.
Si le peer-to-peer est apparu comme un réseau peu fiable, conçu par des utilisateurs pour
échanger des fichiers souvent illégalement, il devient un véritable domaine de recherche
fournissant des modèles fiables. On peut alors imaginer de nombreuses applications légales pour
distribuer des données : logiciels ou contenus multimédias libres de droits, des attributs aux
nœuds (CPU, bande passante, disque dur, etc.) appartenant à un réseau, ou même des contenus
propriétaires chiffrés avec une gestion payante des droits de déchiffrement.
Ce qui est important, pour prédire l’avenir d’une technologie, c’est sa vitesse d’adoption par les
utilisateurs. Et les utilisateurs n’adoptent pas une technologie mais des applications. Le peer-topeer permet d’introduire des applications où l’utilisateur n’est pas seulement un consommateur
mais aussi un fournisseur, où la décentralisation n’est pas un objectif mais un outil, où la
puissance considérable de chaque PC pourrait être un peu mieux utilisée, où l’adresse physique
de la machine est sans importance au contraire de celle de l’utilisateur. Bref, un monde nouveau
pour les applications qui sauront en tirer partie.
25
Livre blanc sur le « Peer-to-Peer »
26
Livre blanc sur le « Peer-to-Peer »
Chapitre 2
Le contrôle des flux circulant sur les réseaux
Guy Pujolle
27
Livre blanc sur le « Peer-to-Peer »
1- Introduction : Le réseau Internet et les protocoles Internet
Le réseau Internet n’en est qu’à son age de pierre. Les premiers protocoles, IP2, TCP3 et UDP4
ont été extrêmement bien conçus à la fin des années 70 pour résister à de nombreuses
propositions d’architectures qui sont arrivées dans les années 80 comme les architectures
constructeur dont les plus connues sont SNA, DNA, DecNet. L’architecture TCP/IP a également
résisté à une attaque beaucoup plus sérieuse de la part de l’ISO (International Standardization
Organization) lorsque la proposition OSI (Open System Interconnection) a été développée.
Même la défense américaine, en tant que grand défenseur de la technologie TCP/IP, avait
annoncé l’abandon des profils TCP/IP au profit de profils OSI. Mais elle a vite fait marche
arrière lorsqu’il s’est avéré que chaque équipementier faisait sa propre pile de protocoles OSI
indépendamment les uns des autres et que l’interconnexion de toutes ces architectures OSI était
extrêmement complexe. Il faut reconnaître que la conception de base des protocoles de
l’Internet était excellente puisque l’une des toutes premières architectures proposées est encore
en vigueur et même a pris une place ultra dominante dans le monde des réseaux. Ceci s’explique
par la grande simplicité du protocole IP et des deux couches transport bien adaptées aux flots
transportés.
IPv4 en attendant IPv6
Cependant, après avoir conquis le monde, cette pile protocolaire a du faire face à de nombreux
problèmes de jeunesse : l’introduction de la qualité de service, de la sécurité, de la gestion de la
mobilité pour ne prendre que les principales fonctionnalités. Pour remplir ces nouvelles
fonctions, il a fallu mettre de nombreuses rustines aux différents protocoles et l’introduction de
la nouvelle version IPv6 qui rassemble ces rustines de façon élégante n’a pas encore été possible
pour une raison de coût, trop élevé pour les entreprises. De plus, la version v4 a réussi le tour de
force d’introduire en son sein toutes les nouvelles fonctionnalités proposées dans le cadre
d’IPv6, d’une manière moins élégante certes mais qui fonctionnent tout à fait correctement.
On considère que les rustines représentent aujourd’hui plus de lignes de codes que les
protocoles de base eux-mêmes. Les améliorations apportées sans cesse font que nous nous
dirigeons vers une pile protocolaire stable, sécurisé et apportant de la qualité de service ainsi
2
L'Internet Protocol (IP) est un protocole utilisé pour le routage des paquets sur les réseaux. Son rôle
est de sélectionner le meilleur chemin à travers les réseaux pour l'acheminement des paquets.
3
Transmission Control Protocol (TCP, « protocole de contrôle de transmissions »). Il s’agit d’un
protocole de transport fiable, en mode connecté.
28
Livre blanc sur le « Peer-to-Peer »
que la mobilité du terminal. Cette version IPv4 stabilisée ou le protocole IPv6, si ce standard
entrait en vigueur, sera utilisée dans l’Internet en 2010 et représente un passage à l’age de
bronze du monde des réseaux.
Dans ce chapitre, nous allons nous intéresser essentiellement au contrôle de ce nouvel Internet.
On peut prédire, vers 2010, l’apparition de pilotes automatiques des réseaux IP grâce à de
nouvelles techniques en cours de développement, l’intégration d’architectures de sécurité et
l’apparition de protocoles garantissant la qualité de service dans les réseaux. Nous allons
commencer par la qualité de service qui implique un contrôle des flux avant d’aller un peu plus
loin dans les techniques de pilotage automatique.
2- Le contrôle des flux dans la génération Internet actuelle
Le filtrage de flux consiste à reconnaître l’application qui transite dans les paquets. Suivant
l’application, il est possible de rejeter les paquets, les accélérer, les ralentir, les mettre en
attente. Cette reconnaissance est de plus en plus importante puisque la nouvelle génération
d’Internet souhaite contrôler les flux pour leur donner une qualité de service.
2.1 - Les numéros de port
Dans la génération Internet d’aujourd’hui, le filtrage des flux s’effectue sur ce que l’on appelle
un numéro de port. Ce numéro est une valeur qui se trouve dans le paquet IP et qui indique
l’application transportée dans la zone de données du paquet. Par exemple, le port 80 indique un
service HTTP, le port 7 le service ECHO, le 53 le service DNS, le 21 un transfert de fichier
FTP, le 25 le passage d’un message de type SMTP, et ainsi de suite.
Les pare-feu se servent du numéro de port pour déterminer l’application correspondante et
accepter de la laisser passer ou non. Les applications peer-to-peer ont également des numéros de
port. Globalement, les numéros de port sont compris entre 0 et 65535. Entre 0 et 1023, il s’agit
des ports réservés à l’avance par des applications précises et reconnues du monde Internet. Les
ports numérotés entre 1024 et 49151 sont les ports enregistrés et enfin entre 49152 et 65535, il
s’agit des ports dynamiques ou privés (cf. Table 2.1). Les protocoles reconnus sont ceux qui ont
été normalisés par l’IETF5, l’organisme de normalisation d’Internet et les standards IETF
4
User Datagram Protocol (ou UDP, protocole de datagramme utilisateur) est un des principaux
protocoles de télécommunication utilisé par Internet. Il fait partie de la couche transport de la pile de
protocole TCP/IP
5
Internet Engineering Task Force (IETF).
29
Livre blanc sur le « Peer-to-Peer »
s’appellent des RFC6. Un protocole défini dans un RFC peut avoir un numéro de port reconnu.
Les ports enregistrés correspondent à des protocoles qui n’ont pas besoin d’avoir un RFC. Ces
numéros sont demandés directement à l’organisme qui s’occupe des attributions de numéro de
port, l’IANA, en expliquant la raison de la demande. Enfin les ports dynamiques représentent
une zone franche ou tout un chacun peut prendre autoritairement un numéro de port. Il n’y a
aucun contrôle et rien n’empêche qu’il y ait plusieurs applications sur un même numéro de port.
En fait, ces numéros sont utilisés comme le nom l’indique dynamiquement, c’est-à-dire qu’à un
instant donné on attribue pour la période de temps de la session au maximum un numéro
permettant à deux clients de communiquer en privé.
Tableau 2.1 - Les champs d’adresses privées
Il faut noter que certaines applications peer-to-peer bien connues ont des numéros de port
enregistrés comme BitTorrent (port TCP 6881-6999). Début 2007, on estime qu’environ 80%
du trafic n’utilisent pas de numéro de port reconnu ou enregistré.
2.2 - Les translations d’adresses
Un élément qui complique la gestion des ports provient des translations d’adresses ou NAT
(Network Address Translation). En effet, quand un particulier ou une entreprise a plusieurs
machines à connecter, il ne lui est donné en général qu’une seule adresse IP qui est dite
publique. Cette adresse publique est routable7, c’est-à-dire qu’un routeur est capable de
déterminer la direction à prendre pour aller vers cette adresse. Comme les adresses publiques ne
sont pas assez nombreuses pour toutes les machines à connecter, les opérateurs n’en décernent
qu’un nombre très limité aux utilisateurs. Par exemple, derrière un modem ADSL s’il y a
plusieurs machines connectées, elles doivent se partager une adresse IP routable unique. Pour
cela on utilise un NAT qui consiste à donner des adresses privées parmi des champs réservés
dans l’adresse IP et à faire correspondre à cette adresse privée, l’adresse publique plus un
numéro de port de telle sorte que, aussi bien pour les paquets entrants que sortants, il est
6
Request for Comments (RFC).
Un routeur est un matériel de communication de réseau informatique destiné au routage. Son travail est
de limiter les domaines de diffusion et de déterminer le prochain nœud du réseau auquel un paquet de
données doit être envoyé, afin que ce dernier atteigne sa destination finale le plus rapidement possible. Ce
processus nommé routage intervient à la couche 3 (couche réseau) du modèle OSI (Open Systems
Interconnection).
7
30
Livre blanc sur le « Peer-to-Peer »
possible de faire le lien avec le terminal ayant une adresse privée.
2.3 –Reconnaissance des applications P2P
Les applications peer-to-peer ainsi que certaines autres applications, comme les applications
RPC8 ont été construites pour travailler sur des ports dynamiques : l’application démarre sur un
numéro de port enregistré puis continue sur un numéro de port fixé entre les deux terminaux
communiquant. Il est donc très difficile de déterminer la nature d’une application qui utilise un
port dynamique puisque le numéro de port a été choisi de façon aléatoire. Il faut en général être
capable de suivre l’évolution de la connexion à partir de son début, en repérant l’application par
son numéro de port initial puis en gardant en mémoire ses changements de port. Cette solution
est cependant assez complexe puisqu’il faut arriver à retrouver dans les paquets du flot
l’information de changement et noter la nouvelle valeur du port. Comme nous allons le voir,
plus loin, la nouvelle génération d’équipement de filtrage ne se sert plus du numéro de port mais
de la reconnaissance de la syntaxe du flot, ce qui va permettre une meilleure détermination des
applications.
3- Les pare-feu
Les pare-feu constituent des remparts indispensables pour se protéger des accès extérieurs. Ils
sont aujourd’hui couramment employés, à la fois par les particuliers et par les entreprises. Les
pare-feu opèrent en mettant en place des règles de filtrage. Ils inspectent tous les paquets qui
transitent et vérifient s’ils sont conformes à la politique de sécurité implémentée par les règles
de filtrage. Si c’est le cas, les paquets sont autorisés à traverser le pare-feu et à poursuivre leur
acheminement vers leur destinataire. Au contraire, si ce n’est pas le cas, alors les paquets sont
détruits.
Les pare-feu les plus classiques distinguent cinq éléments qui caractérisent les flux : l’adresse IP
de la source, le port utilisé par la source, l’adresse IP du destinataire, le port utilisé par le
destinataire et enfin le protocole de transport spécifié dans un paquet. Une règle de filtrage
mentionne donc la valeur de chacun de ces cinq éléments, et ordonne une action à entreprendre
lorsque toutes les valeurs sont valides. L’action entreprise est soit d’autoriser soit d’interdire le
paquet, c’est-à-dire respectivement de laisser passer le paquet ou bien de le détruire.
Typiquement, un pare-feu adopte pour politique de bloquer tous les paquets pour lesquels
aucune règle d’acceptation ne convient. La politique inverse, qui laisse passer les paquets pour
8
Remote Procedure Call (RPC). Il s’agit d’un protocole permettant de lancer une procédure d'un
programme sur un ordinateur distant.
31
Livre blanc sur le « Peer-to-Peer »
lesquels il n’y a pas de règle indiquée, est dangereuse pour un réseau puisque ces paquets
peuvent porter des attaques.
Un sixième élément peut être pris en compte dans les pare-feu : l’état d’une connexion.
Les pare-feu avec et sans état
Lorsqu’une communication est établie avec les cinq éléments mentionnés précédemment, on
considère que la connexion est à l’état actif ou établi. Autrement, l’état est considéré comme
inactif. On distingue donc deux catégories de pare-feu :
-
les pare-feu sans état : ils ne maintiennent pas l’état des connexions, et se contentent du
5-uplets pour autoriser ou interdire les flux qui transitent sur le réseau ;
-
les pare-feu avec état : ils maintiennent l’état des connexions et sont capables de
distinguer si une communication s’effectue sur un port déjà ouvert ou bien sur un port
que le paquet demande d’ouvrir.
La notion d’état est utile pour les protocoles à ports dynamiques : avec des applications
exploitant ces protocoles comme les applications peer-to-peer, une communication s’établit sur
un port fixe vers un destinataire, puis lorsque ce dernier est contacté, il convient avec l’émetteur
de poursuivre la communication sur un autre port arbitrairement sélectionné. De cette façon, le
destinataire reste disponible pour servir un autre correspondant qui tenterait de le joindre
ultérieurement sur le port fixe.
Face à cette situation, seul un pare-feu avec état est capable d’autoriser l’usage du port
dynamique. Pour cela, il lui faut analyser les paquets et déterminer s’ils sont liés ou non à une
connexion préalablement établie. Imaginons par exemple, un protocole peer-to-peer dans lequel
un destinataire demande à la source de remplacer le port statique initial par un port dynamique
qu’il lui impose. Trois étapes successives se déroulent : la source émet un premier paquet vers
un port fixé du destinataire. Puis le destinataire lui répond en précisant le port sur lequel il
souhaite poursuivre la communication, et la source reprend la communication en utilisant le port
mentionné. Pour le pare-feu sans état, seules les deux premières étapes sont possibles
puisqu’elles peuvent correspondre à une règle statique simplement basée sur le 5-uplets initial.
L’ouverture d’un port dynamique lui est impossible, car aucune règle n’en permet la définition
(à moins d’être totalement permissive, et d’ouvrir tous les ports possibles, mais ce n’est pas une
politique de sécurité satisfaisante). En revanche, pour le pare-feu avec état, la troisième étape est
possible. En effet, ce type de pare-feu est capable d’analyser les flux et de déterminer que le
port dynamique sur lequel la source tente de communiquer correspond à la demande qui a été
32
Livre blanc sur le « Peer-to-Peer »
faite précédemment par la destination. La gestion des états offre une performance accrue dans le
traitement des paquets, mais elle a un coût car elle introduit une latence supplémentaire pour le
pare-feu, qui doit en outre savoir analyser les protocoles correctement (et pour cela connaître
leur syntaxe).
L’état est facilement discernable avec le protocole TCP, puisque ce dernier positionne des bits
qui indiquent si la connexion est nouvelle, se poursuit ou bien se termine. Au contraire, le
protocole UDP ne fournit pas ces indications. Pourtant, le pare-feu ne peut pas attribuer
éternellement le statut d’actif à une connexion UDP. Généralement, il alloue le statut actif à une
connexion UDP pendant un certain délai. Passé ce délai, la connexion est considérée comme
perdue et devient par conséquent inactive. Toutefois, cette manière de procéder est très
approximative, et ne convient pas aux applications de téléphonie sur IP qui utilisent très
majoritairement le protocole UDP pour transporter la parole. En effet, si lors d’une
communication, les intervenants cessent de parler, le silence correspondant n’est pas transmis,
et aucun paquet ne sera transporté durant cet intervalle de temps. Le pare-feu risque de
considérer ce silence comme une terminaison de la communication, ce qui serait une décision
erronée.
Un pare-feu est utile pour centraliser la politique de sécurité au sein d’un équipement unique.
De cette manière, la gestion du contrôle des applications autorisées n’est pas laissée aux
utilisateurs, mais est à la charge du réseau, ce qui réduit les possibilités de contourner les règles
imposées au sein d’une entreprise.
Les fonctionnalités d’un NAT (Network Address Translation) sont très souvent implémentées
en parallèle avec les fonctionnalités de pare-feu. En effet, l’opération réalisée par le NAT
comme par le pare-feu doit s’appliquer au niveau d’une passerelle, point de jonction entre le
réseau local privé et le réseau public. En outre, dans ces deux fonctions, une notion de filtrage
est requise : lorsque les flux traversent le réseau, le boîtier NAT détecte l’adresse IP source
privée et la translate avec une adresse IP publique, tandis que le pare-feu inspecte l’adresse IP
source pour s’avoir si l’utilisateur est autorisé à émettre des flux. Dans le même temps, le parefeu détecte les ports et protocoles utilisés par l’application pour opérer un filtrage avec une
granularité plus forte. Autrement dit, l’analyse des paquets est un mécanisme partagé par la
fonction de NAT comme par la fonction de pare-feu, ce qui justifie leur couplage.
33
Livre blanc sur le « Peer-to-Peer »
4- Le filtrage applicatif des données.
Tous les réseaux utilisent aujourd’hui le protocole IP pour la couche réseau et les protocoles
TCP ou UDP pour la couche de transport. Dans un cadre classique la majorité des flux sont
reconnus par leur numéro de port et peuvent être traités.
Pour opérer les modifications d’adresses IP et de port requises par la translation d’adresse, le
boîtier NAT doit impérativement connaître le format et la syntaxe des protocoles sous-jacents :
en l’occurrence pour l’adressage IP, c’est le protocole IP qui est utilisé (couche de niveau
réseau), et pour le port, c’est le protocole TCP ou bien UDP qui est utilisé (couche de niveau
transport). Cependant, les attaquants ou ceux qui utilisent des applications P2P cherchent à
modifier les numéros de port de façon non voyante ou de plus en plus d’utiliser des ports connus
pour réaliser leur communication. Par exemple, une application P2P qui utilise le port 80, a
priori réservé à l’application HTTP, ne sera pas arrêtée puisque le coupe-feu interprétera de
façon erronée cette information. Il faut donc trouver de nouvelles solutions permettant de filtrer
les flux mais sans utiliser le numéro de port.
L’idée poursuivie depuis une dizaine d’années consiste à reconnaître la syntaxe du flux : la
position des 0 et des 1 permet de déterminer exactement l’application transportée dans un
paquet. En effet, chaque protocole à des spécificités qui sont reconnaissables. Le filtrage sur la
syntaxe est néanmoins beaucoup plus complexe que la reconnaissance du numéro de port, car
les protocoles sont très nombreux et chaque jour de nouveaux protocoles entrent en
fonctionnement.
La réponse apportée dans ce cadre est donc une solution de filtrage de tous les protocoles
utilisés par les applications.
Les passerelles de niveau applicatif (ALG).
Une nouvelle gamme de passerelles multimédias a été mise en œuvre pour permettre la
reconnaissance des flux : on les appelle ALG (Application Layer Gateways). Il existe un grand
nombre de solutions commerciales de ce type, embarqué le plus souvent au sein d’un pare-feu :
les flux sont filtrés et s’ils sont reconnus, les modifications nécessaires au bon fonctionnement
du NAT sont opérées parallèlement à l’acceptation de ces flux à traverser le pare-feu.
C’est dans cet esprit que le projet libre Netfilter sous Linux (http://www.netfilter.org), propose la reconnaissance d’un
très grand nombre de protocoles, des couches basses aux couches les plus hautes. Les modules de reconnaissance sont
également disponibles pour les protocoles H.323 et SIP correspondant à la signalisation téléphonique, c’est-à-dire le
passage de paquets qui ont pour but lors de l’arrivée au destinataire de déclencher une sonnerie. Deux modules sont
34
Livre blanc sur le « Peer-to-Peer »
nécessaires, le premier (ip_conntrack) réalisant le suivi de connexion (car les flux utilisent des ports qui sont
dynamiques et doivent être détectés durant la communication) et le second (ip_nat) réalisant la translation d’adresse.
La technologie Netfilter est accessible par défaut dans toutes les distributions actuelles de Linux, avec la commande
iptables. Elle est fournie avec un ensemble de filtres pour la reconnaissance des protocoles les plus standards. Selon
les distributions Linux, le module de suivi de connexion n’est pas toujours fourni, mais peut être complété facilement
avec la technologie patch-o-matic qui automatise les mises à jour de Netfilter.
Cette solution est simple à mettre en place et transparente au niveau de l’application des utilisateurs. En effet,
l’application n’a pas à modifier la structure des paquets envoyés, c’est le boîtier qui se charge, en émission (du réseau
local vers le réseau Internet), de les rendre valides, et en réception (du réseau Internet vers le réseau local) de les
distribuer au terminal adéquat. Mais le boîtier NAT a une tâche beaucoup plus lourde à accomplir puisqu’il doit filtrer
des protocoles complexes, de niveau applicatif, ce qui réclame des ressources de traitements conséquents. Cette
fonctionnalité implique donc à la fois la reconnaissance des protocoles, mais aussi des traitements pour remonter
jusqu’au niveau applicatif des paquets qui peuvent considérablement freiner les transmissions. On peut donc lui
préférer d’autres solutions alternatives.
5- Filtrage de nouvelle génération
Nous avons examiné la première solution de reconnaissance par l’utilisation du numéro de port.
Même si cette indication continue à être utilisée pour réguler les flots des utilisateurs standards,
elle ne permet pas de détecter les applications qui se veulent pirate, donc les applications P2P et
les attaques. Il faut alors utiliser des filtres de nouvelle génération que nous allons décrire dans
cette section.
Une application peut en cacher une autre
Les solutions de filtrage et de reconnaissance des ports dynamiques de la première génération
que nous avons introduits dans la section précédente, ne sont toutefois pas suffisantes, car
certaines applications peer-to-peer sont capables de se connecter sur un port ouvert. Par
exemple, un tunnel peut être réalisé sur le port 80, qui gère le protocole HTTP. À l’intérieur de
l’application HTTP, un flot de paquets d’une autre application peut passer. Le pare-feu voit
entrer une application HTTP, qui, en réalité, délivre des paquets d’une autre application.
Une entreprise ne peut pas bloquer tous les ports, sans quoi ses applications ne pourraient plus
se dérouler. On peut bien sûr essayer d’ajouter d’autres facteurs de détection, comme
l’appartenance à des groupes d’adresses IP connues, c’est-à-dire à des ensembles d’adresses IP
qui ont été définies à l’avance. De nouveau, l’emprunt d’une adresse connue est assez facile à
mettre en œuvre. De plus, les flots provenant des applications peer-to-peer peuvent transiter par
des ports qu’il est impossible de bloquer comme les ports DNS sinon le réseau lui-même ne
pourrait plus fonctionner.
35
Livre blanc sur le « Peer-to-Peer »
Une solution beaucoup plus puissante de filtrage, consiste à examiner les flots non plus aux
niveaux 3 ou 4 (adresse IP ou adresse de port) mais au niveau applicatif. Cela s’appelle un filtre
applicatif. L’idée est de reconnaître directement sur le flot de paquets l’identité de l’application
plutôt que de se fier à des numéros de port et de pister les ports dynamiques. Cette solution
permet d’identifier une application insérée dans une autre et de reconnaître les applications sur
des ports non conformes. La difficulté avec ce type de filtre réside dans la mise à jour des filtres
chaque fois qu’une nouvelle application apparaît. Le pare-feu muni d’un tel filtre applicatif peut
toutefois interdire toute application non reconnue, ce qui permet de rester à un niveau de
détection et de sécurité élevé.
Lorsqu’un utilisateur est connecté, tout son flot de paquets transite systématiquement via le
filtre. Les paquets sont donc tous interceptés par ce dernier et suivent un cycle de cheminement
parfaitement déterminé.
Les filtrages de nouvelle génération utilisent les signatures des protocoles, c’est-à-dire un
moyen de reconnaissance du protocole par l’intermédiaire d’un certain nombre d’éléments qui
produisent une signature qui est unique pour chaque application. A ces éléments
différentiateurs, il est possible d’associer des éléments plus classiques comme les adresses, les
numéros de ports, etc. que l’on appelle parfois les attributs du protocole. On pourra donc filtrer
sur la signature et les attributs comme rechercher une application peer-to-peer d’un certain type
travaillant avec un site d’une certaine adresse et utilisant, par exemple, un numéro de port
dynamique déterminé.
Il n’y a pas deux protocoles qui possèdent la même signature. En mettant en place des filtres qui
syntaxiquement permettent de déterminer la signature, il est possible d’identifier les flots sur le
réseau. L’avantage de cette nouvelle technologie est de pouvoir reconnaître des flots fortement
encapsulés et en quelque sorte cachés. Cette technique n’utilise plus la notion de port ou si elle
l’utilise ce n’est que pour mettre en place une technique de filtrage simplifiée en vérifiant que la
signature correspond bien au numéro de port quand celui-ci a une signification.
Les difficultés de cette technologie proviennent de la mise à jour des filtres avec l’apparition de
nouvelles applications et en particulier de nouvelles applications peer-to-peer. Mais cette mise à
jour peut-être faite quotidiennement avec des mécanismes aujourd’hui assez classiques dans la
mise à jour de logiciel.
Ces filtres sont appelés filtres de niveau 7 ou filtres applicatifs. Ils vont remplacer petit à petit
les filtres de niveau 4 ou filtre de transport travaillant essentiellement sur les numéros de port.
Une solution pour traverser les filtres sans être reconnu est de chiffrer les informations
36
Livre blanc sur le « Peer-to-Peer »
nécessaires à la détermination de la signature. Cependant, pour cela, il faut au préalable ouvrir la
connexion et mettre en accord les deux correspondants sur des clés de chiffrement communes.
Cela laisse le temps de suivre la connexion qui se met en place et de l’identifier. Pour que le
chiffrement puisse être réellement opérationnel, il faut que les deux correspondants se mettent
d’accord au préalable sur les clefs de chiffrement à utiliser, ce qui limite de nouveau la taille du
groupe pouvant utiliser cette solution de traversée des filtres sans être reconnu. Il est également
à noter que les filtres doivent intervenir le plus tôt possible dans la chaîne de transmission. En
effet, les chiffrements interviennent en général dans les tunnels, par exemple un tunnel IPSec, et
plus le filtre se trouve près de la machine terminal, et plus est forte la chance que le flot ne soit
pas chiffré. Pour contrer le chiffrement, il suffit de détruire tous les paquets dont il n’est pas
possible de déterminer l’application et donc en particulier les paquets chiffrés.
De nombreux filtres applicatifs sont commercialisés depuis quelques années avec des qualités
plus ou moins bonnes en fonction de l’implémentation des éléments de filtrage et de leur mise à
jour automatique. Des logiciels libres de filtrage autour de Linux en particulier sont disponibles
mais assez complexes à utiliser aujourd’hui.
6- Le contrôle des filtres et de l’Internet
Une fois le flot reconnu, il est possible de décider des actions à mettre en œuvre comme détruire
le flot concerné, le ralentir, l’accélérer, le compresser, le chiffrer, etc. Ces actions sont réalisées
par ce que l’on peut nommer des agents, plus ou moins intelligents. Ces agents sont des
composants logiciels capables de mettre en exécution des règles que l’on appelle classiquement
des politiques (du mot anglais policy) ou encore règles de politique.
6.1 – Définition des politiques de régulation du trafic
Une politique s’exprime sous la forme « si condition, alors action ». Par exemple, « si
l’application est de type parole téléphonique, alors mettre les paquets en priorité Premium » ou
encore « si l’application est un peer-to-peer de type xx et que les adresses IP appartiennent à la
classe yy alors supprimer les paquets ». Une politique peut se définir à différents niveaux. Le
niveau le plus haut correspond à celui de l’utilisateur, la détermination d’une politique
s’effectuant par une discussion entre l’utilisateur et l’opérateur. On utilise pour cette discussion
soit le langage naturel, soit des règles déjà préparées par l’opérateur du réseau. Dans ce dernier
cas, l’utilisateur ne peut que choisir parmi ces règles la politique la plus proche de ce qu’il
souhaite voir appliquer. On parle alors de politique définie au niveau « business ». Cette
politique doit être traduite dans un langage de niveau réseau permettant de déterminer le
37
Livre blanc sur le « Peer-to-Peer »
protocole réseau de gestion de la qualité de service et son paramétrage. Enfin, il faut traduire ce
langage de niveau réseau en un langage de bas niveau correspondant à la programmation des
nœuds du réseau, ce que l’on peut appeler la configuration du nœud.
Une normalisation importante a été effectuée sur ces différents niveaux de langage, business,
réseau et configuration à l’IETF et au DMTF (Distributed Management Task Force).
L’objectif de ce travail de normalisation des modèles d’information liés aux différents niveaux
de langage est d’obtenir un modèle général qui puisse se décliner en modèles d’information par
domaine, ainsi qu’une représentation indépendante des équipements et des implémentations.
6.2 – Le contrôle de l’application des politiques
Le contrôle par politique est donc un contrôle qui s’appuie sur l’application de règles de
politique dans un réseau et la meilleure façon d’appliquer ce contrôle est de configurer les filtres
suivant les règles définies par le gestionnaire du réseau. Cette configuration peut être plus ou
moins automatique suivant le niveau de définition de la politique. Si l’on est au niveau de la
configuration des nœuds, le travail est plus ou moins manuel et effectué par un ingénieur qui
configure les équipements du réseau par l’intermédiaire d’une programmation de bas niveau.
L’automatisation est obtenue en partant d’un niveau beaucoup plus haut dans lequel le
gestionnaire du réseau définit les règles de politique au niveau business et c’est le système qui
effectue automatiquement les traductions nécessaires pour avoir du code de configuration qui
est introduit dans les équipements de réseau.
Cette automatisation a dans un premier temps été réalisée dans un environnement centralisé. Les
nœuds du réseau prennent le nom de PEP (Policy Enforcement Point). Les politiques y sont
appliquées pour gérer les flux des utilisateurs. Le PDP (Policy Decision Point) est le point qui
prend les décisions et choisit les politiques à appliquer aux PEP. La communication entre le
PEP et le PDP s’effectue par le biais d’un protocole comme NetConf (Network Configuration)
qui est suffisamment générique, parce qu’employant un format XML, pour s’adapter à toute
sorte d’équipements de réseau. Le système comporte également une console utilisateur, qui
contient des outils de gestion des politiques. Ces derniers permettent notamment d’entrer les
politiques dans une base de données, nommée Policy Repository, qui entrepose les règles de
politique que le PDP vient rechercher pour les appliquer aux nœuds du réseau. Cette
architecture est décrite à la figure suivante.
38
Livre blanc sur le « Peer-to-Peer »
Figure - Architecture d’un système géré par politique
Des variantes de ce schéma de base peuvent inclure plusieurs PDP susceptibles de gérer un
même nœud de transfert du réseau. Dans ce cas, les PDP ont des rôles différents. Une autre
variante correspond à une décentralisation des fonctions du PDP dans des PDP locaux, appelés
LPDP (Local Policy Decision Point). En règle générale, un PDP gère un seul domaine
administratif, et les règles de politique sont communes à la configuration de l’ensemble des
nœuds du domaine.
Un problème de cohérence se pose lorsque le client émetteur et le client récepteur ne se trouvent
pas dans le même domaine administratif. Dans ce cas, les PDP des deux domaines doivent
négocier pour se mettre d’accord sur les règles de politique à adopter pour que la
communication se déroule de bout en bout avec la qualité voulue.
7- La nouvelle architecture de contrôle
La solution décrite à la section précédente est une solution centralisée qui n’est pas vraiment
satisfaite par sa lourdeur et sa fragilité ainsi que par sa difficulté de passer à l’échelle. Une
nouvelle architecture a été créée depuis le début des années 2005 pour réaliser la configuration
automatique d’une façon totalement distribuée. C’est cette architecture qui représente le mieux
l’Internet des années 2010 du point de vue du contrôle. L’objectif est toujours de configurer les
39
Livre blanc sur le « Peer-to-Peer »
équipements de réseau et donc essentiellement les filtres et les éléments qui mettront en pratique
les décisions prises à partir des flux reconnus par ces filtres. En d’autres termes la configuration
s’effectue sur ce que l’on appelle les conditionneurs de trafic qui sont les éléments à l’intérieur
d’un équipement de réseau qui détruisent, ralentissent, accélèrent, compressent, chiffrent les
flux.
7.1 – L’architecture « autonomic »
Cette nouvelle architecture que l’on appelle architecture « autonomic » est présentée dans les
lignes qui suivent. Le mot anglais autonomic veut dire à la fois spontané et autonome, c’est-àdire que nous avons à faire à une architecture capable spontanément et de façon autonome de se
configurer. Une autre manière de présenter ces architectures est de dire qu’elles sont capables de
s’auto configurer, de s’auto adapter, de s’auto réparer, de s’auto ajuster et plus globalement de
s’autocontrôler. Cette architecture comporte 5 plans, les trois premiers étant classiques et les
deux suivant tout à fait nouveau :
-
Un plan de donnée qui est simplement le réseau physique lui-même dans lequel les
paquets avancent pour aller vers une destination.
-
Un plan de contrôle qui regroupe l’ensemble des algorithmes de contrôle du réseau. Ce
plan de contrôle contient les algorithmes de gestion de la qualité de service, de la
mobilité, de la sécurité, les algorithmes de contrôle des entrées, de détermination de la
meilleure configuration des conditionneurs de trafic, du contrôle de la configuration des
filtres et ainsi de suite.
-
Un plan de gestion qui regroupe les éléments nécessaires à la gestion du réseau, c’est-àdire les fonctions nécessaires pour prendre en charge la sécurité, la comptabilité, la
planification, les performances, etc.
-
Un plan de connaissance, dont l’objectif est de mettre à disposition des autres plans une
vision du réseau au travers de connaissances, c’est-à-dire d’informations traitées et
mises dans leur contexte.
-
Un plan de pilotage, parfois appelé également plan de gouvernance, qui contient la
mécanique qui a pour objectif de piloter les algorithmes de contrôle. Ce plan de pilotage
peut être inclus dans le plan de connaissance ou dans le plan de contrôle pour réduire à
quatre le nombre de plans.
Au travers de cette architecture, le contrôle automatique du réseau s’effectue de la façon
suivante : en partant du plan de données, il peut en être extrait des informations provenant de
40
Livre blanc sur le « Peer-to-Peer »
mesures effectuées sur ce plan. Certaines mesures peuvent être réalisées par le plan de gestion et
envoyées au plan de pilotage. Ces mesures en les replaçant dans leur contexte deviennent des
connaissances qui sont échangées par les agents du plan de connaissance, un agent pouvant se
trouver dans tous les équipements du plan de connaissance. Il est évident que chaque agent ne
peut avoir une connaissance complète du réseau. En effet, si le réseau est très grand cela ne sert
à rien de connaître l’état d’un nœud situé très loin car lorsque la connaissance arrive au nœud la
recherchant, cette connaissance n’est plus valable car l’état du réseau a pu fortement changer.
En fait, il a été démontré qu’il faut avoir une bonne connaissance de son environnement
immédiat et avoir une connaissance beaucoup plus floue de ce qui se trouve loin. Pour cela, on
définit des vues situées. Dans chaque équipement, l’agent qui gère le plan de connaissance ne
reçoit de l’information que de certains points de son voisinage formant sa vue située.
Le plan de connaissance est donc alimenté par les informations provenant du plan de données.
Ce plan de connaissance alimente lui-même le plan de pilotage pour lui permettre de prendre
des décisions. Tout d’abord en permettant au plan de pilotage de choisir les algorithmes de
contrôle du plan de contrôle, étant donné l’état du réseau déterminé par le plan de connaissance.
Ensuite, en déterminant les valeurs optimales des paramètres de ces algorithmes. Le plan de
pilotage alimente donc le plan de contrôle qui lui-même configure les équipements de réseau du
plan de données, ce qui referme la boucle de notre architecture. Cette architecture et son
utilisation sont décrites à la figure suivante.
Figure - L’architecture autonomic
7.2 – L’auto-pilotage
Comme nous venons de le voir, la nouvelle génération Internet possédera des fonctions
d’autocontrôle capables de toujours optimiser, réparer, contrôler et gérer le réseau. Les filtres
jouent un rôle capital dans cette architecture puisque le contrôle s’exerce sur les flux
d’information circulant dans le réseau. Cependant, pour contrôler ces flux, il faut dans un
premier temps les reconnaître.
L’autopilotage consiste en tout premier lieu à récupérer des connaissances du réseau et en
41
Livre blanc sur le « Peer-to-Peer »
particulier la nature des applications et leurs caractéristiques par l’utilisation des filtres
applicatifs. Ces connaissances sont ensuite regroupées dans le plan de connaissance et
alimentent les processus de décision permettant de ralentir, détruire accélérer les flux des
réseaux IP.
Pour en revenir aux applications peer-to-peer, elles doivent donc être en tout premier lieu
reconnues par les filtres puis les algorithmes du plan de contrôle doivent appliquer les politiques
décidées par le gestionnaire du réseau pour les éliminer, les accélérer, les protéger, etc.
8- Conclusion
En début 2007, plusieurs équipementiers proposent des filtres applicatifs, pas toujours
complètement à jour par rapport aux nouvelles applications qui apparaissent tous les mois mais
suffisamment matures pour reconnaître les principales applications peer-to-peer. Les filtres
peuvent être commandés localement par des algorithmes qui sont configurés à la main par le
gestionnaire du réseau sous la forme de règles de politique. L’automatisation globale
n’interviendra que dans les années qui viennent.
Globalement, on peut dire que l’on dispose aujourd’hui d’un ensemble d’outils capables de
gérer les flots de l’Internet et en particulier les applications peer-to-peer, de telle sorte que
l’Internet en y associant des éléments d’authentification devient un environnement parfaitement
maîtrisé.
42
Livre blanc sur le « Peer-to-Peer »
Chapitre 3
Le filtrage par la reconnaissance de
contenus
Marc Pic
43
Livre blanc sur le « Peer-to-Peer »
1- Introduction à la problématique de la reconnaissance
automatique du contenu
Les échanges sur les réseaux peer-to-peer sont de différentes natures, tant en matière de médias
qu’en matière de contenus. Parmi les contenus, un grand nombre d’échanges concernent des
contenus protégés par le droit d’auteur et constituent, lorsqu’ils sont effectués sans
autorisation, des actes de contrefaçon aux yeux de la loi. Cependant, l’usage des réseaux peerto-peer ne peut être considéré comme illégal par lui-même. La mise en œuvre d’un filtrage de
ces réseaux ne peut donc se faire qu’en étant en mesure de séparer le bon grain de l’ivraie.
Comment mettre en œuvre cette séparation dans le monde réel ? L’idéal est de disposer d’outils
permettant de reconnaître la nature d’un contenu échangé. Un tel outil compare deux contenus
comme par exemple deux fichiers musicaux ou deux vidéos pour déterminer le niveau de
similarité entre eux. Par extension, il faut également que cet outil permette de retrouver quels
sont les documents présentant des similarités avec un contenu « suspect » au sein d’un large
ensemble de contenus, ce que l’on nomme une base de références.
1.1 – Définitions des termes et outils
Ces outils existent déjà pour un nombre croissant de médias : le texte bien sûr (détection de
plagiats), la musique, les images fixes, les vidéos. Ces outils sont basés sur des technologies
variées majoritairement issues de la discipline scientifique dénommée traitement du signal.
Historiquement, cette discipline a principalement été exploitée pour des applications militaires,
telles que la reconnaissance de formes de pistes d’aviations sur les photos aériennes ou
satellitaires, ou encore la reconnaissance d’un profil de navire ou de sous-marin à partir de
l’enregistrement acoustique d’un sonar. Les moyens de calcul nécessaires pour la mise en œuvre
de ces méthodes, réservés initialement aux budgets de la Défense, sont devenus accessibles au
fil du temps. Parallèlement, les technologies de reconnaissance se sont raffinées, pour
permettre de passer de reconnaissances extrêmement spécifiques à des outils (presque)
généralistes.
Pour permettre un déploiement facile d’une technologie de reconnaissance de contenus, il faut
pouvoir disposer d’une représentation synthétique des éléments les plus caractéristiques du
contenu. Il s’agit d’une sorte de résumé de ce contenu, qui ne focaliserait pas sur les points
sémantiquement les plus forts de ce contenu, mais sur ceux qui ont le plus de chances d’être
conservés au cours des transformations qui peuvent affecter ce contenu. On dénomme
44
Livre blanc sur le « Peer-to-Peer »
empreinte (fingerprint en anglais) cette représentation synthétique, car elle joue un rôle
similaire à l’empreinte des doigts de la main pour caractériser un humain. Comme elle, elle ne
contient pas l’ensemble de l’information qui constitue un être humain, mais elle est suffisante
pour distinguer de manière fiable les humains les uns des autres.
Ce concept d’empreinte présente, en outre, plusieurs avantages :
•
elle est peu volumineuse par rapport au contenu original, donc aisément
transportable ;
•
elle ne contient que des éléments partiels et codés de l’information initiale, on
ne peut donc pas régénérer le contenu initial à partir d’elle (sinon il s’agirait
d’une méthode de compression et non d’une empreinte), ce qui permet de
sécuriser l’utilisation de cette technologie, comme nous le verrons dans la partie
stratégie d’emploi ;
•
elle permet également de matérialiser la reconnaissance et donc de transporter
des métadonnées ;
•
la constitution de la base de référence se fait directement à partir des
empreintes, qui peuvent donc être collectées indépendamment à partir de
différentes sources.
Définition des termes de la reconnaissance de contenus
Empreinte : ensemble de caractéristiques extraites d’un contenu
permettant son identification même s’il a subi des transformations.
Hash (ou HashCode)/ Hashes : signature numérique permettant
d’identifier un fichier de manière exacte ; la moindre transformation, le
moindre bit modifié rend impossible l’identification.
Référence : un fichier de contenu protégé, fourni par les ayants-droit,
permettant de calculer une empreinte de référence.
Suspect : un fichier de contenu suspect (par exemple téléchargé sur un
protocole peer-to-peer ou sur un site web) dont on souhaite savoir s’il est
tout ou partie une œuvre protégée. La comparaison des empreintes va
permettre de savoir s’il est similaire ou non.
Base de Références : une base de données constituée des empreintes des
fichiers de référence. Un suspect va être recherché dans une base de
références lorsque l’on souhaite déterminer s’il est protégé ou non.
45
Livre blanc sur le « Peer-to-Peer »
1.2 – Positionnement des stratégies d’usage
L’application de ces technologies à la protection des contenus protégés par le droit
d’auteur transitant sur les protocoles peer-to-peer peut alors se faire de différentes
manières :
- En premier lieu, il est possible de l’employer au sein d’un mécanisme de type
« radar »9 de l’internet. Il s’agit d’un logiciel fonctionnant sur un serveur placé en un
point quelconque du réseau en tant qu’observateur. Il va constater des mises à
disposition de contenus par des internautes, en vérifiant au moyen de la technologie de
reconnaissance de contenu que les échanges portent sur des œuvres protégées ou non.
Cette reconnaissance s’effectue en téléchargeant le contenu mis à disposition, puis
en calculant son empreinte et en comparant cette empreinte avec celles présentes
dans une base de données de références contenant des œuvres protégées. Les
réseaux peer-to-peer présentent l’avantage d’identifier de manière unique les fichiers
qui transitent par eux
au moyen d’un hashcode ; un téléchargement et une
reconnaissance unique sont alors suffisants pour vérifier la nature de nombreux
échanges portant sur le même fichier binaire. Cette vérification peut alors entraîner
différentes réactions : l’émission de messages d’avertissement ou d’amendes à
l’encontre de l’internaute abonné, via la résolution de son adresse IP chez son
fournisseur d’accès Internet, par exemple, ou des mécanismes plus complexes tels
que ceux envisagés dans le mécanisme connu sous le nom de « riposte graduée ».
Le mécanisme opère en temps séparé : la reconnaissance de contenu s’effectuant
indépendamment de la constatation du partage. Le temps de traitement peut ainsi se
permettre d’être relativement long.
- En second lieu, il est possible de l’employer pour « détecter » sur un site User
Generated Content (UGC) des contenus indésirables postés par certains internautes. La
majorité de ces contenus indésirables sont des œuvres protégées, soit dans leur partie
audio, soit dans leur partie vidéo, soit dans les deux. Le mécanisme consiste alors, suite
à une reconnaissance avérée de tout ou partie d’une œuvre protégée, à appliquer pendant
l’intervalle de temps compris entre le postage du contenu par l’internaute et sa
publication sur le site (de quelques secondes à quelques minutes), soit un filtrage pur et
simple soit un mécanisme de partage de revenu induit par la présence de ce fichier
protégé (revenu indirect de type publicité ou direct de type paiement au stream ou au
téléchargement).
9
L’appellation radar est employée différemment suivant les contextes. L’usage que nous considérerons
dans ce document est celui défini ici.
46
Livre blanc sur le « Peer-to-Peer »
- Enfin, il est possible de l’employer dans un mécanisme de « garde-barrière » des
échanges peer-to-peer. Pour ce faire les réactions du mécanisme de filtrage réseau
doivent être extrêmement rapides (il faut traiter plusieurs giga-octets de données par
seconde dans un flux opérateur courant). Nous verrons plus loin quelle stratégie doit
alors être mise en œuvre pour contourner cette difficulté.
2 – La reconnaissance de contenus
2.1 – Le principe
Le challenge des technologies de reconnaissance du contenu consiste à être capable de
reconnaître des contenus qui ont pu subir des transformations importantes et cumulées de la
manière la plus sûre possible, sans commettre de fausse reconnaissance. Pour cela, il faut
pouvoir extraire des éléments caractéristiques des contenus recherchés qui présentent deux
propriétés distinctes :
-
D’une part, il faut que ces éléments caractéristiques soient conservés (ou peu
modifiés) lorsque le contenu est transformé par toutes les transformations
« autorisées » (les transformations fréquentes lors du cycle de vie du document).
-
D’autre part, il faut que ces éléments caractéristiques permettent de distinguer
aisément des contenus distincts ; il faut donc que la variabilité potentielle de ces
éléments soit forte pour permettre de caractériser de manière individuelle tous les
contenus que l’on peut souhaiter caractériser.
Ces deux propriétés sont généralement contradictoires, ce qui rend difficile le travail de
définition des éléments caractéristiques exploitables dans le monde réel. Différentes catégories
de caractéristiques ont été envisagées pour ce faire : caractéristiques fréquentielles, d’énergie, de
couleurs, contours, formes, textures (pour la vidéo), etc… Malheureusement, chaque
caractéristique individuelle tend à avantager soit le premier point, soit le second. Il est donc
d’usage aujourd’hui d’exploiter simultanément plusieurs caractéristiques élémentaires pour
produire l’empreinte d’un contenu.
L’ensemble des éléments caractéristiques d’un contenu, plus éventuellement quelques
métadonnées, va constituer l’empreinte de ce contenu.
47
Livre blanc sur le « Peer-to-Peer »
2.2 Les risques d’erreur
La difficulté de sélection des caractéristiques amène naturellement à des risques d’erreurs. Ces
erreurs peuvent être de deux natures (liées aux deux propriétés précédemment évoquées) : les
faux positifs et les faux négatifs. On appelle Faux Positif une reconnaissance erronée d’un
contenu que l’on a faussement associé à un élément de la base de référence. Parmi les faux
positifs, lorsque l’on effectue une recherche au sein d’une base, on dénomme Collision le cas où
le système propose comme réponse un candidat erroné dans la base alors que le suspect est
effectivement présent dans celle-ci mais correspond à un autre candidat. On appelle Faux
Négatif, le fait de ne pas reconnaître un contenu effectivement présent dans la base. Le risque
de faux positifs et celui de faux négatifs sont liés de manière complexe. Grossièrement, ils
varient de manières opposées. Réduire le taux de faux négatifs consiste à réduire les contraintes
imposées sur la reconnaissance, ce qui a pour conséquence d’augmenter le risque de faux
positifs, et inversement.
2.3 – La prise en compte des transformations de contenu
Quelles sont les transformations de contenus qui nécessitent d’être prise en compte dans le
cas des échanges pirates de contenus sur les réseaux de pair-à-pair ? Ce sont celles qui
correspondent aux manipulations, volontaires ou involontaires, que les utilisateurs de vidéos ou
d’audio au format numérique peuvent appliquer couramment au contenu, en voici un échantillon
représentatif (mais non exhaustif) :
-
Transcodage (modification du format d’encodage) : pour faciliter la lecture du contenu
sur un support ou sur un autre, ce qui entraîne des approximations sur les valeurs des
pixels, des effets de blocs (compression par DCT et autres) et des entrelacements des
lignes des images.
-
Modification des tailles d’images et des ratios de taille (partie vidéo) : pour s’adapter
aux différents formats d’écrans sur lesquels les contenus sont joués (ipods, téléphones
cellulaires, etc…) les utilisateurs modifient la largeur et la hauteur des vidéos,
entraînant éventuellement des modifications de l’aspect de l’image (l’image semble
alors compressée ou, dilatée dans une direction), des troncatures sur les bords de celleci ou des effets de pixellisation (apparition de blocs inélégants).
-
Modification de l’échantillonnage (partie audio) : la fréquence d’échantillonnage peut
être modifiée pour favoriser la compression par exemple, il peut s’ensuivre une perte
de qualité auditive.
48
Livre blanc sur le « Peer-to-Peer »
-
Découpage / Insertion de logos / Incrustation (partie vidéo) : des opérations d’éditions
sur les images d’une vidéo sont couramment pratiqué par les pirates pour se faire
connaître (insertion de logos), pour ajouter des sous-titres (incrustation de textes), ou
pour nettoyer des images parasitées (têtes de spectateurs lors d’un camcording10 par
exemple).
-
Montage et Mashup : des montages particuliers peuvent être réalisés d’un ou de
plusieurs contenus audio ou vidéo. Les séquences sont découpées pour être recollées
de manière à former un message différent de l’original ou à créer une œuvre
composite à partir de plusieurs sources. Les mashups sont des montages qui
regroupent plus d’une source. Ces opérations peuvent être particulièrement
déstabilisantes pour les technologies basées sur l’analyse de l’évolution temporelle de
contenus.
« the Analogic Gap » 11(DA/AD): franchir la barrière de l’analogique consiste pour un
-
CD ou un DVD à être joué dans le monde réel (analogique par opposition au monde
numérique binaire des ordinateurs) puis re-digitalisé au moyen de différents outils : un
CD peut ainsi être joué sur des enceintes et être enregistré grâce à un microphone, un
film peut être joué en salle de cinéma et réacquis au moyen d’un caméscope
(camcording). Ce passage dans l’univers analogique, puis le retour dans l’univers
digital introduisent des perturbations difficiles à prédire, donc à contrer. En général les
perturbations affectent la géométrie de l’image ou la position des notes dans les sons,
perturbent les couleurs et la luminosité, ajoutent du bruit (aléatoire ou mécanique), et
de l’incohérence (flou) dans les contenus renumérisés. Obtenir une reconnaissance
robuste sur ce dernier type de transformations est un des challenges des technologies
actuelles de reconnaissance de contenus.
3 - Outils de caractérisation du signal : principales méthodologies actuelles
et directions futures.
3.1 - Empreinte Vidéo
La caractérisation de la vidéo se sépare aujourd’hui en deux grandes familles de méthodologies :
10
une première famille basée sur le découpage des vidéos en images élémentaires,
Enregistrement d’un film dans une salle de cinéma au moyen d’un caméscope.
49
Livre blanc sur le « Peer-to-Peer »
localisées dans le temps, puis sur la reconnaissance des images individuelles,
perçues comme des « tranches » du film, que l’on va effectuer au moyen de
propriétés locales ou globales de ces images : détection de formes, d’objets,
contours, histogrammes de couleurs, etc… On parle de caractérisation spatiale du
contenu.
-
Une seconde famille basée sur la caractérisation « longitudinale » du film, c’est-àdire au moyen de caractéristiques propres à l’évolution du film : déplacement d’un
objet, modification temporelle de l’intensité d’une fréquence dans une direction
donnée, etc… On parle alors de caractérisation temporelle du contenu.
Images composant la vidéo
Espace
Temps
Figure 1 : Caractérisation Spatiale vs. Caractérisation Temporelle
Ces deux méthodologies visent à repérer les films dans des contextes différents :
-
Ainsi, une modification de l’ordre des séquences d’un film (tel que ce que l’on
trouve dans les mash-ups, ces « cadavres exquis » composés par mixages de
plusieurs sources, et dont sont friands les utilisateurs de sites User Generated
Content (UGC) tels que YouTube, DailyMotion, …) peut fortement perturber la
seconde famille de technologie – l’évolution temporelle des caractéristiques ayant
changé–, alors que la première va retrouver les images – dans un ordre simplement
modifié.
-
A l’opposé, une transformation globale des couleurs utilisées (par l’application d’un
filtre sépia par exemple qui donne un aspect « année 30 » à l’ensemble du film) peut
fortement perturber une technologie de la première catégorie basée sur la couleur,
alors que l’évolution dans le temps du rapport pixels blancs sur pixels noirs sera
peut perturber.
Ces deux méthodologies peuvent être mixées dans certains produits industriels avancés.
11
On parle souvent de transformation DA/AD pour Digitale vers Analogique puis Analogique vers
50
Livre blanc sur le « Peer-to-Peer »
3.1.1 - Méthodologies spatiales :
L’information spatiale dans une vidéo, est l’information que l’on peut extraire à partir des
images indépendamment de leurs images voisines. La caractérisation d’une telle information
s’appuie sur des techniques développées pour l’indexation et la recherche d’images fixes. Ce
domaine à fait son apparition dans les années 90 et a suscité et suscite jusqu’à présent beaucoup
de travaux de recherches pour cerner et quantifier l’information pertinente transportée par les
images. On peut classer ces approches en trois axes principaux qui sont : la caractérisation de la
forme, celle de la couleur et celle de la texture.
Ces caractérisations étant coûteuses en puissance de calcul et en taille de stockage du résultat,
elles ne peuvent être appliquées à l’ensemble des images d’une vidéo. Ceci n’est de toute façon
jamais nécessaire car les vidéos présentent une forte redondance temporelle nécessitée par la
faible durée de la rémanence rétinienne : un affichage correct d’un film requiert de 25 à 30
images par seconde pour les formats actuels, alors que les mouvements d’une scène naturelle
courante (capturée par une caméra) n’affectent que des régions limitées de l’image entre chaque
image. Grâce à cette redondance, il suffit de caractériser le film au moyen de quelques images
extraites tout au long de la vidéo dans des positions particulièrement significatives.
Ces positions « saillantes », correspondent à des évènements constitutifs des vidéos. Les plus
importants de ces évènements sont les changements de plans. A cela, s’ajoute les évènements
qui correspondent aux mouvements d’objets et aux manipulations de caméra brusques. Le choix
de l’ensemble des évènements à retenir est basé sur la distribution de ceux-ci le long des
documents vidéo. Cette stratégie permet une bonne couverture pendant la caractérisation des
documents vidéo. Un autre critère, aussi important que le précédent, est la robustesse de ces
évènements et de leur détection aux différentes transformations qu’une vidéo peut subir. Ce qui
nécessite de sélectionner comme images saillantes, non pas les images au cours desquelles les
transitions ou les mouvements s’effectuent, mais au contraire des images particulièrement
« nettes » à bonne distance de ces phénomènes. En effet un nouveau montage du film pourrait
perturber gravement la prise d’empreinte en substituant des transitions artificielles aux
transitions originales.
A l’étape de la segmentation, succède l’étape de la caractérisation. Dans cette étape, le
processus cherche à extraire les informations pertinentes de la vidéo pour décrire chacune des
Digitale.
51
Livre blanc sur le « Peer-to-Peer »
positions saillantes. Puis, ces informations sont quantifiées et structurées sous forme de vecteurs
de caractéristiques.
L’ensemble de ces images est appelé l’ensemble des images clefs [V2, V3] voir la Figure 1Bis.
Après cette étape, chacune des images clef est indexée à l’aide de techniques d’indexation
d’images fixes.
Images clé
Figure 1Bis : Extraction des images clé
Sur chaque image clé sont appliquées des méthodes de caractérisation provenant des catégories
précitées :
o
forme : de nombreuses techniques s’attachent à la description des formes au sein
d’une image, citons parmi elles : les transformées fréquentielles et spectrales,
description globale ou locale des contours (rectangularité, circularité, excentricité),
échelles de courbures, description syntaxique des contours, description des régions,
moments invariants (Legendre, Zernike, Chebyshev …), matrice de forme,
enveloppe convexe,
o
couleur : Parmi les composantes essentielles porteuses d’information dans un
document visuel on trouve la couleur. Le codage de cette dernière dans les
documents est varié suivant les différents espaces de couleurs employés (RGB,
CMY, HSV, HSB, HLS, CIELUV, CIELAB, Munsell, etc…) Généralement, il
existe des fonctions linéaires permettant la conversion des valeurs colorimétriques
d’un espace à un autre. La caractérisation des documents visuels en se basant sur la
couleur a été étudiée intensivement et différentes approches ont été proposées. Parmi
les approches les plus populaires on trouve : l'histogramme de couleur, les couleurs
dominantes, et les moments statistiques de couleur.
52
Livre blanc sur le « Peer-to-Peer »
o
texture : Dans ce genre de méthodes des le vecteur de caractéristiques est obtenu par
des statistiques extraites directement du signale représenté dans le domaine spatial.
Les statistiques les plus utilisées incluent les histogrammes, les moments, les
matrices de cooccurrence calculées sur les niveaux de gris, etc. matrice de coocurrence, fonction d’auto-corrélation, local binary pattern, multiscale LBP. Des
méthodes spectrales peuvent également être employées (Laplacien de gaussienne
(LoG), Gabor,…)
Ces caractéristiques, locales ou globales sont mises en correspondance lors de la recherche de
contenus similaires entre les différentes images candidates des films à identifier. La figure
présente un exemple de mise en correspondance à partir d’un sous-ensemble de points de
l’image retenus pour leur robustesse et caractérisé par des variables statistiques locales.
Figure 2 : Reconnaissance et mise en correspondance de points entre une image suspecte et
une image candidate.
3.1.2 - Méthodologies temporelles :
La caractérisation temporelle de la vidéo peut se tout d’abord se faire sur les propriétés
exploitées localement sur chaque image. Des transpositions très efficaces en temps de calcul ont
été réalisées au moyen de simples suivis d’orientations des images (Transformée de Hough),
d’histogrammes de couleurs ou de coupes transverses.
Cependant, la principale information que fournit l’étude temporelle de la vidéo est le
mouvement [V5].
Le mouvement représente une source de caractérisation très riche. La source d’où provient le
mouvement permet de le classifier en trois catégories. Le mouvement local, le mouvement
global et le mouvement de la caméra. Le mouvement de la caméra exprime généralement le
53
Livre blanc sur le « Peer-to-Peer »
zoom ou le redressement de la caméra et leurs effets sur la prise de vue. Le mouvement local
concerne le mouvement d’un objet.
Figure 3 : Exemple de représentation temporelle d’un film au moyen de propriétés extraites
tout au long du film
Figure 4 : Exemple de mise en correspondance entre deux films, au moyen de la similarité de
l’évolution temporelle.
3.2 - Empreintes Audio
La première étape de la caractérisation d’un document audio consiste à le décomposer en frames
qui sont regroupées par la suite en clips dont chacun est caractérisé par un ensemble de
descripteurs. Ces frames jouent un rôle un peu similaire aux images d’un contenu vidéo. Les
documents audio dont on a extrait leurs vecteurs caractéristiques sont échantillonnés à une
fréquence de référence (typiquement 22050 KHz afin d’éviter les effets aliasing). Ensuite le
document est divisé en un ensemble de frames dont le nombre d’échantillons par frame est fixé
en fonction du type de fichier à analyser.
Pour un document audio riche en fréquences et qui contient beaucoup de variations comme la
bande son associée à des films, émissions de variété ou émissions sportives, par exemple, le
nombre d’échantillons dans une frame doit être faible (par exemple quelques centaines
d’échantillons). En revanche, pour un document audio homogène ne contenant que de la parole
ou de la musique par exemple, ce nombre doit être important.
54
Livre blanc sur le « Peer-to-Peer »
Clip 1
Clip 2
Clip 3
Clip 4
Frame1
Frame2
Frame N
Figure 5 : Décomposition d’un signal audio en clips
De nombreux descripteurs audio existent, on peut les classer en descripteurs temporels,
fréquentiels, mixtes, ou par ondelettes.
Parmi les descripteurs temporels on peut citer [A8,A9]: l’Energie, VSTD : Volume standard deviation,
VDR :Volume dynamic range, VU : Volume undulation, LER :Low Energy ratio [A9]. Les descripteurs
fréquentiels [A8,A9] courants sont le ZCR (Zero Crossing Rate), HZCRR (High Zero Crossing Rate)
[A10], ou des descripteurs dérivés basés sur des statistiques du ZCR [A8]. Les descripteurs fréquentiels
sont basés sur la Transformée de Fourier du signal audio parmi eux le SPC (fréquence central), BW
(Largeur de bande), ERSB1,2 ,3 [A8,A9], Flux spectral [A10], spectral roll of point [A9,A11], la
fréquence fondamentale, ainsi que les dérivées de la fréquence fondamentale [A11]. Les descripteurs
mixtes sont une combinaison entre les descripteurs temporels et fréquentiels par exemple la 4ME, [A6,
A7, A8], les descripteurs par transformée en ondelettes [A1] qui permet d’exploiter l’aspect fréquentiel et
temporel du signal.
A partir de ces descripteurs, une approche par frame ou une approche par évolution dans le
temps peut –être retenue. La composition de l’empreinte se fait sur les vecteurs calculés
localement ou par intégration sur des durées d’évolution.
55
Livre blanc sur le « Peer-to-Peer »
Signal prétraité
Frame 1
Frame 2
Frame 3
Temps (secondes)
...
Frame n
Calcul des descripteurs
Locaux ou Evolutifs
Vecteur 1
Vecteur 2
Vecteur 3
Vecteur n
Paquet 1
Paquet n/5
Figure 6 : Calcul d’empreinte d’un document audio
3.3 - Exploitation mixte audio et vidéo, pour les contenus audiovisuels.
Différentes techniques ont été étudiées pour permettre d’exploiter pour la reconnaissance des
contenus à la fois les médias audio et vidéo. Ces techniques visent à améliorer la qualité ou la
vitesse de reconnaissance en exploitant les éléments d’informations d’un média avec l’autre. Par
exemple, il s’agit de focaliser la reconnaissance audio sur des tronçons de la piste son qui
correspondent aux images identifiées comme similaires par la technologie vidéo.
4 - Méthodes d’évaluation des résultats
Des concours et des benchmarks commencent à cibler la problématique de la reconnaissance de
contenus protégés par les droits d’auteur, dans des contextes proches de ceux du peer-to-peer
(sites UGC12 et diffusion webTV). Notons en particulier CIVR-2007 :
•
CIVR-2007 : Le Video Copy Detection Showcase organisé par le Dr Alexis Joly de
l’équipe Imedia/INRIA est la première édition d’un concours annuel soutenu par le
MUSCLE Network of Excellence. Il est organisé dans le cadre de la conférence
internationale Content Image and Video Recognition 2007. Le concours consistait en
deux phases de recherches autour d’une base de références commune. Cette base
contenait environ 150 heures de vidéo provenant de différentes sources : clips vidéo de
12
User Generated Content sites : Sites tels YouTube, DailyMotion, MySpace, MetaCafé, etc…
56
Livre blanc sur le « Peer-to-Peer »
sites UGC, Archives TV de l’INA, ainsi que des longs métrages. Les requêtes posées au
cours de la première phase consistaient en des données transcodées, bruitées et
retouchées de différentes durées (entre 1 minute et 3 heures). Certaines provenaient de
camcording. Les requêtes de la seconde phase correspondaient à des flux télévisuels
composites. Dans ces flux différents morceaux (mashups) provenaient de la base de
référence, mais avaient été préparés par des archivistes audiovisuels professionnels au
moyen d’outils d’éditions standards dans le monde de l’audiovisuel. Différentes
transformations avaient été appliquées sur ces contenus pour brouiller les pistes :
cropping, fade cuts; flips; insertion of logos, borders, texts, moving texts, moving
characters, etc.; colorimetric manipulations: contrast, gamma, etc… Les questions
posées pouvaient appartenir ou non à la base, de sorte à mesurer également les faux
positifs non issus de collisions.
Les résultats de ce concours sont disponibles sur :
http://www-rocq.inria.fr/imedia/civr-bench/index.html
5 - Stratégies d’exploitation de ces outils dans le cadre du filtrage Peer-toPeer et avantages de leur exploitation
5.1 – Identification du hash protocolaire
Pour pouvoir s’appliquer au filtrage de contenus sur des infrastructures de type opérateur
télécom, il est nécessaire de combiner la reconnaissance de contenus décrite dans ce chapitre
avec des stratégies d’identification à temps de calcul très faible. Il est de plus indispensable,
pour être déployable dans un environnement réseau opérateur, de répondre aux contraintes de
disponibilité, de robustesse et d’exploitation regroupées sous le vocable de ‘carrier-grade’.
Heureusement, les flux peer-to-peer possèdent une caractéristique qui rend cette identification à
la volée aisée et extrêmement rapide : il s’agit du hash protocolaire. Chaque protocole peer-topeer utilise, pour identifier un fichier binaire précis, une signature exacte calculée sur le contenu
(sur le principe des signatures MD5 par exemple). Ce hash est structurant pour l’ensemble des
réseaux peer-to-peer, car ils fonctionnent selon le principe de la Distributed Hash Table (DHT).
Chaque fois qu’un fichier précis (au bit près) sera échangé sur ce protocole, cette signature sera
employée par les logiciels clients du peer-to-peer pour communiquer entre eux sur cet échange.
Si l’on a pu vérifier préalablement qu’une signature protocolaire correspondait à un
fichier dont le contenu a été identifié par une technologie d’empreinte comme copyrighté,
alors tous les échanges utilisant cette signature protocolaire sont des échanges
transgressant les droits d’auteur.
57
Livre blanc sur le « Peer-to-Peer »
Exemple de signature dans les protocoles peer-to-peer.
P2P Protocol filtering : GNUTELLA
Interception Type : 3A
# of paquets : 1
Date : 10/04/2007
1/1
Paquet Size : Variable
Characteristics :
1) 26 first bytes are assimilated to constant (see note for var.) :
47 45 54 20 2f 75 72 69 2d 72 65 73 2f 4e 32 52 3f 75 72 6e 3a 73 68 61 31 3a
2) 32 next bytes encode the hash in SHA-1 in hexadecimal:
(in sample : 4a 36 47 34 50 4c 52 42 49 35 59 58 45 4d 49 53 43 52 58 45 4e 43 50 33 4e 47 44 47 50 34 50 4e )
Figure 7 : Exemple de capture de trame sur un protocole peer-to-peer (ici GNUTELLA)
permettant l’identification du contenu proposé à l’échange par son HASH.
58
Livre blanc sur le « Peer-to-Peer »
5.2 – Traitement des contenus suspects
La mise en œuvre de cette stratégie s’effectue donc par un mécanisme à deux étages :
- d’une part, un système de téléchargements de contenus suspects qui vérifie au moyen
d’une empreinte numérique si un contenu donné est protégé par le droit d’auteur ou non
par rapport à une base de références fournies par les sociétés d’auteurs et de producteurs,
puis qui calcule le hash protocolaire (pour les différents protocoles surveillés) des
contenus protégés et constitue une base de hashes protocolaires de contenus protégés
- d’autre part, un système d’interception à haut-débit (de type produit de « deep packet
inspection » déjà largement déployé dans les réseaux IP), qui se situe sur les liaisons des
opérateurs télécoms (suivant le cas au niveau BAS, DSLAM, ou autre) et qui est alimenté
de la base de hashes protocolaires précédente et qui va observer les échanges entre clients
peer-to-peer, détecter ceux qui exploitent les hashes présents dans sa base et en réduire la
priorité de traitement. Cette partie n’a besoin que d’un mécanisme d’identification de
chaîne pour repérer l’endroit où se situe le hash et d’un algorithme de recherche dans la
base de hashes. Elle peut donc s’effectuer à très haute vitesse et en l’occurence pour
atteindre des vitesses compatibles avec la bande passante concernée sur des matériels
standardisés et parfaitement agréés à un déploiement par les opérateurs.
Réseaux P2P surveillés
Réseau FAI
Base de hashes
Réplique locale
Equipement réseau
de filtrage
BLOQUE / LAISSE PASSER
Suivant le HASH
Téléchargements de
Suspects
Identification par
reconnaissance du contenu
Base
de Hashes
de contenus
diffusés
illégalement
Diffusion
régulière des
hashes vers les
différents points
de filtrage des
FAI
Calcul des Empreintes à
partir des originaux
Réseau FAI
Base de hashes
Réplique locale
Equipement réseau
de filtrage
BLOQUE / LAISSE PASSER
Suivant le HASH
Réseau FAI
Audio, Video.
Base de hashes
Réplique locale
Originaux à protéger
Collecte : les hashes
des contenus illicites
sont identifiés et placés
dans une base de
données
Filtrage FAI : Les
hashes illicites
sont exploités pour
bloqués les
communications
illicites
Equipement réseau
de filtrage
BLOQUE / LAISSE PASSER
Suivant le HASH
Figure 8 : Un mécanisme de filtrage par le contenu des échanges peer-to-peer au niveau des opérateurs,
accéléré par l’utilisation des hashes protocolaires.
59
Livre blanc sur le « Peer-to-Peer »
5.3 – Optimisation de l’identification et obstacles possibles
Des stratégies optimisantes peuvent être envisagées pour rendre le système plus performant :
- réduction de la base de hashes cibles aux contenus les plus fréquents ou les plus
sensibles
- couplage du téléchargement avec des outils de type « radar de l’internet » qui détecte les
échanges illicites en se positionnant comme des clients peer-to-peer standard
Plusieurs difficultés pourront se présenter à l’avenir, sachant que des solutions sont
envisageables :
- le cryptage des échanges : les protocoles d’échanges peuvent se protéger de
l’interception de l’information en cryptant (avec négociation et authentification) les
paquets décrivant les contenus à échanger. Ce point constituera probablement à l’avenir
le plus important défi pour ces technologies.
- la fragmentation des hashes protocolaires : au lieu de représenter un fichier par un hash,
on peut représenter ce fichier sous forme de petits fragments pour chacun desquels un
hash sera employé.
- la sophistication des DHT qui peuvent complexifier l’interprétation des données qui
transitent.
Notons que, par contre, les méthodologies de surveillance P2P (telle que le « radar » évoqué
plus haut) ne sont pas affectées par ces difficultés, car elles opèrent dans la position de
l’utilisateur, qui dans tous les cas doit être en mesure de réceptionner et d’émettre des contenus.
Notons également que la mise en œuvre des technologies de filtrage avancées nécessite
impérativement la constitution d’une base de hashes. Cette base peut justement dans une
première phase être constituée au moyen des radars mentionnés précédemment. Ces deux
approches étant ainsi beaucoup plus complémentaires qu’orthogonales.
6 - Conclusion sur le filtrage des contenus protégés : portée universelle de
la méthodologie au-delà du peer-to-peer et évolutions envisagées
Les modes d’échanges numériques des contenus médias sont variés et se diversifieront encore
60
Livre blanc sur le « Peer-to-Peer »
plus à l’avenir (UGC, P2P-UGC13). Les contenus protégés seront donc soumis à des échanges
de plus en plus complexes et les solutions de DRM (Digital Rights Management) de
première génération ne permettront pas de stopper ces échanges. Il sera nécessaire de
déployer des mécanismes de reconnaissance des contenus. Ces mécanismes peuvent par
exemple être liés à des environnements contrôlés qui permettent une monétisation des
échanges. Les sites User Generated Content (UGC) en sont un exemple (YouTube,
DailyMotion, MySpace, MetaCafé,…). Dans ces sites les internautes-utilisateurs mettent à
disposition du contenu (vidéo et audio) qui est ensuite téléchargé par d’autres internautesutilisateurs. Ces contenus s’avèrent souvent soumis au droit d’auteur. Cependant le support de
ces sites étant constitué par des serveurs contrôlés par des sociétés commerciales, il est possible
d’agir sur le contenu partagé. Lorsqu’un utilisateur « poste » (publie, uploade) un contenu sur
ces sites, une vérification au moyen d’une empreinte et d’une base de contenus de références
peut être réalisée pour déterminer si le contenu posté est entièrement ou partiellement soumis au
droit d’auteur. Précisons le sens du terme partiellement : il arrive par exemple qu’un internaute
ait créé un contenu vidéo personnel à partir de films et de photos de vacances, puis qu’il décide
d’en illustrer une partie au moyen d’une musique célèbre. Seule une partie du contenu sera alors
soumise au droit d’auteur. Il est possible lors de la vérification de découvrir cette partie
protégée. Ce qui permet d’interdire le contenu à la publication, ou bien de proposer à
l’internaute de remplacer sa bande-son par une autre libre de droits (outil existant sur certains
sites UGC actuels), ou encore, si le gestionnaire de droits correspondant le permet, d’autoriser la
publication du contenu contre rémunération. Cette rémunération peut être soit un paiement
forfaitaire d’un droit par celui qui publie, soit –ce qui est plus dans l’esprit du temps- un
reversement de droits publicitaires proportionnés par l’éditeur du site UGC.
On assiste alors à une transition de l’usage des outils de reconnaissance, qui d’un rôle de
garde-barrière du net, deviennent progressivement des outils de comptabilité et de
facturation de micro échanges monétaires (billing).
Le filtrage dans les réseaux où la base est répartie
L’approche web 2.0 / sites communautaires d’échanges / UGC est une des tendances lourdes du
net : techniquement elle est confronté à un challenge majeur, celui de l’expansion sans fin des
ressources centralisées nécessaires au bon fonctionnement des sites d’échanges. Or, il existe des
solutions à ce problème, et ces solutions proviennent… du peer-to-peer. On voit ainsi apparaître
des solutions hybrides (Zudeo ou Joost ou Babelgum) qui exploitent des supports logiciels peerto-peer pour remplacer une infrastructure logicielle d’hébergement traditionnelle. On est bien
13
P2P-UGC sont des sites de publications de contenus (vidéos principalement) qui fonctionne selon le
principe des UGC, mais avec un logiciel Peer-to-Peer en support. Cf. Zudeo.com par exemple.
61
Livre blanc sur le « Peer-to-Peer »
sur un site communautaire où les internautes postent (upload) leur contenu pour les mettre à la
disposition de tous, ces contenus sont bien présents à tout instant comme sur les sites web, mais
ces contenus sont majoritairement rendus disponibles aux internautes grâce aux autres
internautes qui possèdent chacun un petit morceau de la grande base répartie entre eux. Cette
solution permet une croissance sans faille du site, sans recourir à des moyens pharaoniques (à
comparer à 1 500 serveurs pour MySpace au début 2007). En quoi peut consister une solution
de filtrage de contenus sur de tels sites ? en un mécanisme directement inclus dans le logiciel
client peer-to-peer, avec l’accord de l’éditeur du service. Là encore, un avantage majeur de cette
stratégie est que la puissance nécessaire à la vérification du contenu prend place chez
l’internaute et non chez l’éditeur du service.
En conclusion, les technologies de reconnaissance de contenus permettent aujourd’hui
d’identifier de manière robuste les contenus musicaux et audiovisuels. Les applications
principales de ces technologies pour la protection des droits sont, dans l’immédiat les outils de
surveillance et d’émissions de messages ou d’amendes (radars de l’internet), ainsi que les outils
de filtrages volontaires des sites web UGC et bientôt, en combinaison avec des produits de
telecom IP éprouvés et largement déployés, les outils de filtrage peer-to-peer des réseaux au
niveau opérateur.
Bibliographie résumée
VIDEO
[V1]
[V2]
[V3]
[V4]
[V5]
M. Sonka, V.H., R. Boyle. , Image Processing, Analysis and Machine Vision. .
Chapman &Hall Computing,. 1993.
Eung Kwan Kang, S.J.K., Jong Soo Choi. Video retrieval based on key frame extraction
in compressed domain. in ICIP 99 International Conference on Image Processing,
1999.
Mukherjee D P, D.S.K., Saha S Key Frame Estimation in Video Using Randomness
Measure of Feature Point Pattern. IEEE Transactions on Circuits and Systems for
Video Technology, 2007. 17 (5): p. 612-620.
Zhang, D.S., Image Retrieval Based On Shape., in the faculty of information technology
2002, Monash University.
Kossentini, B.E.F., Retrieval by local motion. EURASIP Journal on applied signal
processing, 2003.
AUDIO
[A1]
S.R.Subramanya and A.Youssef "Wavelet Based Indexing of Audio Data in Audio
/Multimedia Databases", Departement of Electrical and Computer Science,George
Washington University,1998.
[A2]
Cheng Y., “Music Database Retrieval Based on Spectral Similarity”, International
Symposium on Music Information Retrieval (ISMIR) 2001, Bloomington, USA,
62
Livre blanc sur le « Peer-to-Peer »
October 2001.
[A3]
Haitsma J., Kalker T. and Oostveen J., “Robust Audio Hashing for Content
Identification, Content Based Multimedia Indexing 2001, Brescia, Italy, September
2001.
[A4]
Oostveen J., Kalker T. and Haitsma J., “Feature Extraction and a Database Strategy for
Video Fingerprinting”, 5th International Conference on Visual Information Systems,
Taipei, Taiwan, March 2002. Published in: "Recent advances in Visual Information
Systems", LNCS 2314, Springer, Berlin. pp. 117-128.
[A5]
Jaap Haitsma and Ton Kalker (Philips Research Eindhoven), A Highly Robust Audio
Fingerprinting System, ISMIR 2002, 3rd International Conference on Music
Information Retrieval, IRCAM – Centre Pompidou, Paris, France, October 13-17, 2002.
[A6]
K.D.Martin "Sound Source Recognition: a Theory Computational Model ", Phd Thesis
in Electrical Engineering and Computer Science, MIT, June 1999.
[A7]
G.Tzanetakis "Manipulation, Analysis and Retrieval Systems for Audio Signals ", Phd
Thesis, Princeton University, June 2002.
[A8]
Y.Wang, Z.Liu and J.C.Huang "Multimedia Content Analysis Using Both Audio and
Visual Cues ", IEEE Signal Processing magazine, Nov 2000.
[A9]
S.Scheirer, M.Slaney "Construction and Evaluation of a Robust Multifeature
Speech/Music Discriminator ", ICASSP, Munich Germany, Apr 1997.
[A10] L.Lu, H.Jiang and J.C.Zhang "A Robust Audio Classification and Segmentation Method
", Microsoft Research China.
[A11] M.S.Rossignol "Segmentation et Indexation des Signaux Sonores Musicaux", Thèse de
Doctorat de L’université paris 6, Juillet 2000.
63
Livre blanc sur le « Peer-to-Peer »
64
Livre blanc sur le « Peer-to-Peer »
Chapitre 4
L’économie de la propriété littéraire et
artistique
Anne-Gaëlle Geffroy
65
Livre blanc sur le « Peer-to-Peer »
Le droit d’auteur et son équivalent anglo-saxon, le copyright, attribuent à leurs titulaires des
droits exclusifs de reproduction, de distribution, de communication et de mise à disposition
d’une œuvre littéraire et artistique, et ceci pour une durée limitée. Droits relatifs à
l’expression, ils sont intimement liés à l’évolution des technologies qui modifient les
possibilités d’expression (comme la photographie ou le cinéma) mais également de
reproduction, de distribution et de protection. Né avec l’imprimerie, le droit d’auteur a
connu de profonds remaniements du fait de l’arrivée des technologies de reproduction
analogique domestiques et de diffusion hertzienne. Aujourd’hui, les nouvelles technologies
de reproduction et de diffusion numériques lui commandent une nouvelle évolution.
Si le copyright anglo-saxon relève avant tout d’une logique économique fondée sur les
incitations, la construction du droit d’auteur en Europe occidentale a procédé d’une philosophie
sensiblement différente. Attaché à la personnalité de l’auteur, le droit d’auteur s’applique moins
naturellement aux différents investisseurs d’un projet créatif que le copyright et ajoute aux
droits patrimoniaux des droits moraux, inaliénables et perpétuels, très développés
14
(droit de
divulgation, droit à la paternité, droit au respect, droit de repentir). Les justifications des droits
patrimoniaux de l’auteur eux-mêmes peuvent ne plus quitter le champ des incitations
économiques pour se rapprocher de celui de l’éthique : permettre à l’auteur de jouir des fruits de
son travail ou empêcher l’enrichissement injuste lié au contournement des droits (Becker 1993,
Gordon 1993, Gordon & Bone, 1999). Cependant, et ceci notamment du fait de l’intégration
européenne, le poids des principes économiques dans les législations sur le droit d’auteur
augmente et les différences entre les logiques européenne et anglo-saxonne semblent
s’atténuer peu à peu (Koelman, 2004).
L’analyse économique des lois sur le droit d’auteur, discipline solidement établie aux Étatsunis, a une tradition beaucoup plus récente en Europe. Elle permet d’une part de décrire la
rationalité économique des lois et décisions juridiques sur le droit d’auteur. Elle comporte
également un volet normatif qui cherche à évaluer l’efficacité économique des mesures légales
sur le marché des biens culturels en utilisant un critère de bien-être social (volume, qualité et
diversité de la production culturelle, intensité de la diffusion des biens culturels).
L’objet de ce chapitre est d’éclairer par cette analyse économique les débats entourant la mise
en place des nouvelles réglementations sur le droit d’auteur dans l’univers numérique. Après
avoir présenté les principes généraux de l’économie du droit d’auteur, il décrit les rapports
complexes de ce droit avec la technologie. L’analyse de la rationalité économique des
évolutions du droit d’auteur lors de la rupture provoquée par l’arrivée des technologies de
66
Livre blanc sur le « Peer-to-Peer »
reproduction analogiques permettra ensuite de mettre en perspective ses évolutions actuelles
dans l’univers numérique. Enfin, il cherchera à évaluer les différentes options réglementaires
futures.
1. Les principes économiques de la propriété
littéraire et artistique
1.1. L’arbitrage des lois sur le droit d’auteur entre incitations à la création et
diffusion des biens culturels
Les biens culturels, au même titre que les inventions techniques, sont des biens
informationnels. Or l’information présente les deux caractéristiques principales qui définissent
la catégorie économique de bien public (Arrow, 1962)15 : la non-rivalité et la non-excluabilité.
La non-rivalité des biens culturels signifie que leur consommation par une personne
supplémentaire ne diminue pas la quantité disponible pour les autres. Par exemple, un
téléspectateur supplémentaire ne diminue pas la disponibilité d’une émission pour les autres.
Cette non-rivalité tient au fait que leur production entraîne des coûts fixes élevés mais de
faibles coûts variables. Les biens culturels sont également non-excluables en ce qu’il est
difficile d’empêcher un individu de le consommer même s’il n’en paie pas le prix, même s’il se
comporte en « passager clandestin ». L’excluabilité n’est pas, comme la rivalité, une
caractéristique de la fonction de production mais une construction sociale, légale et technique.
Par exemple, les routes sont non-rivales par nature, elles peuvent être ou non non-excluables
selon que leur accès est restreint ou non par des péages. Si l’information est purement nonrivale et non-excluable, les biens culturels vont être, pour leur part, plus ou moins nonexcluables et non-rivaux selon l’état des technologies de reproduction, de transmission et
de protection.
Ces deux caractéristiques font que le marché des biens culturels est « défaillant» et que le bien
être social, le bénéfice des consommateurs ajouté à celui des producteurs, ne sera pas
maximal16. En effet, la non-excluabilité des biens culturels diminue le revenu espéré d’un projet
14
Les droits moraux ont longtemps été absents de la législation américaine sur le copyright. Ils y ont été
ajoutés récemment et de manière beaucoup plus limitée.
15
Keneth J. Arrow (1962), « Economic Welfare and the Allocation of Ressources for Inventions », in
Nelson, The Rate and Direction of Economic Activity : Economic ans Social Factors, Princeton
University Press, Princeton
16
Pour une présentation générale et synthétique du problème voir François Lévêque et Yann Ménière
(2003), Economie de la Propriété Intellectuelle, Editions La Découverte, Paris
67
Livre blanc sur le « Peer-to-Peer »
créatif et par conséquent les incitations des entrepreneurs à s’y engager. Certaines œuvres ne
seront pas produites du fait du manque à gagner anticipé par les créateurs. D’autre part, si des
biens non-rivaux ne sont pas gratuits, les consommateurs seront inutilement rationnés : ceux
dont le consentement à payer est inférieur au prix fixé seront exclus alors que leur
consommation n’aurait rien coûté à personne. À nouveau, la richesse collective maximale n’est
donc pas atteinte. Les contenus culturels sont l’objet d’un dilemme économique : à court
terme, la libre diffusion des biens culturels est bénéfique pour la société car ces biens sont
non rivaux mais, à plus long terme, leur production est remise en question si des
mécanismes d’exclusion ne permettent pas d’inciter leurs créateurs.
Afin de maximiser le bien-être social, les lois sur le droit d’auteur essaient de concilier deux
objectifs contradictoires : le rétablissement des incitations à la production et la diffusion aux
consommateurs. Pour cela, elles vont accorder un monopole d’exploitation aux titulaires de
droits afin de rétablir l’excluabilité et les incitations à la création. Cependant, ces droits vont
être limités à la fois dans leur durée, dans leur étendue et dans leur exclusivité.
L’objet de l’analyse économique du droit d’auteur est de décrire et d’évaluer la définition du
périmètre de ces droits selon un critère d’efficacité économique qui peut être défini comme la
maximisation de la différence entre les bénéfices incitatifs du droit d’auteur et les coûts de la
restriction de la diffusion culturelle augmentés de ceux de l’administration de sa protection.
1.2. Les bénéfices incitatifs du droit d’auteur
1.2.1 - Incitations de l’industrie culturelle par les droits d’auteur
Pour qu’une nouvelle œuvre soit créée, le retour espéré de son exploitation doit être supérieur à
son coût espéré17. La différence entre le prix de vente du bien culturel et son coût marginal de
reproduction et de distribution doit couvrir les coûts fixes, en large partie irrécupérables, de
production de l’œuvre. Elle doit également rémunérer la prise de risque liée à cette production.
En effet, les biens culturels ont également la particularité de s’adresser à une demande
imprévisible. Les marchés finaux de biens culturels sont parfois appelés « économie de
casino », caractérisés selon Caves18 par la propriété du « nobody knows ».
Aux coûts fixes de production, on peut ajouter les coûts fixes de promotion des biens culturels.
En effet, en plus d’être des biens publics, les biens culturels sont également des biens
17
Ce paragraphe est structuré selon le premier modèle synthétique de l’économie du copyright développé
par William Landes et Richard Posner (1989), « An Economic Analysis of Copyright Law », 18 Journal
of Legal Studies, pp. r325-353
68
Livre blanc sur le « Peer-to-Peer »
d’expérience dont la valeur n’est connue qu’après qu’ils aient été consommés. Dans les
marchés caractérisés par ce phénomène d’ « anti-sélection », la théorie économique prévoit une
qualité moyenne et un niveau de production global sous-optimal (Akerlof, 197019). Ce résultat a
été forgé d’après l’observation du marché d’un autre bien d’expérience : celui des voitures
d’occasion. Les revendeurs automobiles connaissent les défauts de leurs voitures, mais ne les
divulguent pas aux acheteurs potentiels. Ignorant la qualité réelle, les acheteurs vont donc payer
un prix moyen que la voiture soit en bon ou en mauvais état. Les vendeurs de voitures de qualité
vont donc les retirer du marché : la qualité moyenne ainsi que la taille du marché diminue. S’il
existe des mécanismes institutionnels pour résorber le risque de sous-production liés à l’antisélection sur les biens culturels (critiques artistiques, médias spécialisés, …), la promotion
effectuée par les producteurs et les distributeurs permet également d’y remédier. Elle augmente
également les revenus espérés des créateurs et par conséquent leurs incitations.
En l’absence du monopole d’exploitation conféré par le droit d’auteur, le bien peut être
commercialisé par des concurrents qui n’ont pas engagé de coûts fixes et qui ont pu observer le
niveau réel de la demande. Sous l’effet de cette concurrence, le prix de marché se dirigera vers
le coût marginal de reproduction. Les incitations sont alors souvent trop faibles pour que le bien
soit produit à l’origine. Elles le sont d’autant plus, et le droit d’auteur est d’autant plus
nécessaire à la création originale, que la part des coûts fixes dans le coût total est importante,
que la différence de qualité entre l’original et la copie ne justifie pas une grande différence de
tarif et que les utilisateurs sont trop nombreux pour que la limitation contractuelle des
possibilités d’exploitation soit économiquement faisable20.
En l’absence de droit exclusif d’exploitation, les producteurs de biens culturels ne pourront pas
non plus développer des stratégies de tarification susceptibles d’augmenter leurs revenus
espérés telles que le « versioning »21. Cette méthode de tarification extrêmement répandue
consiste à offrir différentes qualités du même bien culturel à différents prix. Un livre sera ainsi
d’abord mis sur le marché sous forme d’édition reliée puis sous la forme d’un livre de poche
quelques mois plus tard. Les films sont, eux, exploités à travers la « chronologie des médias »,
la commercialisation des différentes versions 35mm, vidéo, télévision payante et télévision
18
Richard E. Caves (2000), Creative Industries, Contracts between art and commerce , Harvard
University Press
19
Akerlof, George A. (1970), « The Market for Lemons: Quality Uncertainty and the Market
Mechanism », Quarterly Journal of Economics, Vol. 90, No. 3, pp. 475-498
20
Un autre risque est de voir la production de contenus se diriger vers la recherche de succès rapides et
éphémères afin de prendre de court les copieurs. Ce qui peut par exemple correspondre à des produits de
type blockbusters de mauvaise qualité massivement exposés et promus au début de leur exploitation qui
attirent un public nombreux avant que les informations objectives sur la qualité (critiques, bouche à
oreille) ne soient disponibles et exploitées par les consommateurs.
69
Livre blanc sur le « Peer-to-Peer »
gratuite, s’échelonnant par exclusivité temporelle et qualité décroissantes. Les distributeurs
peuvent mieux s’adapter aux différents niveaux de consentement à payer de la population et
augmenter leurs revenus espérés.
1.2.2 - Incitations des acteurs de la chaîne verticale par le droit d’auteur
Les droits d’auteur exclusifs incitent également, au-delà de l’industrie prise comme un tout, les
différents acteurs de la chaîne verticale. En effet, la production et la distribution de biens
culturels impliquent la collaboration de nombreux types d’acteurs : auteurs, interprètes,
producteurs et distributeurs. La cessibilité du droit d’auteur permet que les différentes tâches
soient affectées de façon efficace entre les acteurs verticaux.
Ainsi, les arrangements contractuels fondés sur l’exclusivité des droits d’auteur vont permettre
de relever les incitations des différents acteurs via des mécanismes d’incitations à l’effort et de
partage du risque. La question de la répartition du risque est notamment fondamentale pour le
financement de cette « économie de casino ». Les contrats permis par la cessibilité du droit
d’auteur exclusif permettent de partager efficacement le risque entre les acteurs selon leur
capacité à le prendre en charge. Ainsi les contrats d’exploitation permettront aux auteurs ou
aux interprètes, de surface financière généralement très limitée, de transférer la prise de risque
financier vers des maillons de la chaîne verticale plus concentrés et donc plus à même de le
diversifier dans de larges portefeuilles de projets.
1.3. Les coûts de la protection par le droit d’auteur et les limitations légales
En regard des bénéfices, les lois sur le droit d’auteur vont considérer les coûts de la protection
par le droit d’auteur pour déterminer le périmètre le plus efficace possible des droits exclusifs.
Elles vont prendre en compte en premier lieu les coûts supportés par les consommateurs du fait
de la restriction de la diffusion de biens non-rivaux. Elles vont également prendre en compte les
coûts liés à la protection des droits d’auteur : les coûts de la surveillance et des poursuites
légales mais également les coûts engagés par les titulaires de droits pour protéger techniquement
leurs œuvres. Enfin, il faut y ajouter les coûts de recours à l’échange pour les parties ou coûts de
transaction qui regroupent les coûts d’octroi de licences, de système de paiement, de recherche
des ayants droit et de contrôle des utilisations.
21
Hal Varian (1997)
70
Livre blanc sur le « Peer-to-Peer »
1.3.1 - La limitation temporelle des droits d’auteur : un arbitrage incitations à la
création/restriction de la diffusion
Arbitrant entre les bénéfices et les coûts du droit d’auteur exclusif, les lois sur le droit limitent
tout d’abord la durée du monopole d’exploitation conféré par le droit d’auteur. Pendant la
période protégée, les revenus issus du monopole d’exploitation fournissent des incitations aux
producteurs puis l’œuvre tombe dans le domaine public et les consommateurs peuvent y accéder
gratuitement. Nous n’aborderons pas ici la question de la détermination de la durée optimale de
la protection du droit d’auteur, qui, si elle a fait l’objet d’une vive controverse lors de
l’extension de la durée de protection de 50 à 70 ans après la mort de l’auteur, est périphérique à
l’adaptation des lois sur le droit d’auteur à l’univers numérique.
1.3.2 Les exceptions au droit d’auteur
La seconde catégorie de limitations opérées par les lois sur le droit d’auteur concerne la
définition d’usages dérogatoires à l’exclusivité. Pour ces usages spéciaux, l’autorisation des
titulaires de droit n’est pas considérée comme obligatoire. Ils peuvent ou non donner lieu à des
rémunérations compensatoires pour les ayants droit. Dans la plupart des lois sur le droit
d’auteur, des exceptions sont prévues au moins dans les cas suivants : usage personnel,
reportage d’actualité, critique, citation, usages éducatifs et archivage. La rationalité
économique de ces exceptions est de ne pas considérer comme des infractions certaines
utilisations qui « violent techniquement la loi sans pour autant violer son objectif
profond » (Gordon, 1982).
Une justification économique de la décision de rendre une utilisation exceptionnelle au droit
d’auteur est que les coûts de recours à l’échange ou coûts de transaction excèdent la valeur des
droits impliqués dans cet usage. Les avancées des technologies de gestion des droits (des
paiements, de la redistribution aux ayants droit et du contrôle des utilisations) diminuent les
coûts de transaction et vont donc avoir un impact sur le périmètre des exceptions.
En réalité, la plupart des exceptions concernent des utilisations qui, en plus de présenter des
coûts de transaction élevés, ont une valeur de marché très faible et une rentabilité sociale élevée.
C’est le cas, par exemple, des exceptions pour usages éducatifs, citation ou reportage
d’actualité. En revanche, le périmètre de l’exception pour usage personnel est au centre des
controverses. Les coûts de transaction sur ces copies privées sont-ils prohibitifs ? Quel est leur
impact réel sur les revenus des ayants droits et les dommages sur les incitations à la création ?
La question de l’exception pour copie privée est apparue avec les technologies analogiques
de reproduction domestiques. Nous décrirons dans la partie suivante la logique des décisions
71
Livre blanc sur le « Peer-to-Peer »
américaines et européennes à ce sujet. Nous verrons ensuite comment cette logique est
affectée par l’arrivée des technologies numériques.
2. Le droit d’auteur face aux nouvelles technologies de reproduction et de
transmission des biens culturels
Les nouvelles technologies de reproduction et de transmission des biens culturels permettent de
nouveaux types d’utilisations personnelles et commerciales. La réglementation peut choisir de
faire respecter les droits exclusifs ou de les rendre exceptionnels.
Si elle souhaite faire respecter les droits d’auteur exclusifs, elle peut sanctionner les
pratiques individuelles. Elle peut également sanctionner les technologies en interdisant
leur commerce ou en imposant des réparations aux titulaires de droits les rendant non
profitables dans le cas où le contournement des droits est leur principale source de
revenus. Elle peut enfin imposer aux fournisseurs des technologies permettant ces usages
des mesures garantissant qu’ils seront bridés ou les y inciter en les obligeant à payer des
réparations aux titulaires.
Si elle considère que les usages sont exceptionnels, la réglementation doit évaluer les
dommages subis par les créateurs et la pertinence de la mise en place des systèmes de
compensation permettant d’accorder des droits à rémunération.
Quelles sont les conséquences de ces choix sur les incitations et le niveau de création
culturelle? Lorsque les droits d’auteur sont restreints sans compensation, les producteurs de
biens culturels perdent tout simplement les revenus issus de la commercialisation de ces usages.
La différence entre l’application de droits exclusifs et de droits à rémunération se situe, quant à
elle, dans l’institution de fixation de la valeur (Towse, 2001). Dans le cas de droits exclusifs, la
valeur d’un bien culturel est établie à travers le processus de marché. Dans le cas de droits
à rémunération, c’est un processus administratif qui fixe des taux de manière
approximative. Le tableau ci-dessous illustre la difficulté de fixer administrativement une
compensation appropriée aux bénéfices manqués des titulaires de droit à travers la grande
disparité des montants de la taxe pour copie privée appliquée aux baladeurs numériques à
disque dur dans différents pays européens.
72
Livre blanc sur le « Peer-to-Peer »
Retail prices and PCR ( private copying remuneration) charges
applicable to different CE ( consumer electronic) products in 2006
CD-R
DVD-R
iPod Nano©
DVD Hard-disk
2Gb
recorder
(or closest
(250GB)
equivalent)
Price
PCR
Price
PCR
Price
PCR
Price
PCR
Austria
€0.69
€0.26
€0.99
€0.54
€199.00
€3.00
€599.00
€9.20
Belgium
€0.49
€0.12
€1.31
€0.59
€155.00
-
€475.00
1.50%
Finland
€0.80
€0.20
€2.10
€0.60
€225.00
€1.71
n/a
€15.00
France
€1.03
€0.35
€2.50
€1.10
€225.00
€8.00
€725.00
€35.00
Germany
€0.27
€0.03
€0.75
€0.17
€149.00
€2.56
€317.00
€18.42
Netherlands
€0.70
€0.14
€1.01
€0.60
€160.00
-
€397.00
-
Spain
€0.53
€0.21
€1.56
€0.60
€149.00
€0.60
€467.50
€6.61
Le revenu global de la filière ainsi que sa répartition entre les différents acteurs de la filière vont
être fixés par des taux en partie arbitraires. Ainsi, non seulement les incitations de la filière
globale peuvent être amoindries ou distordues (l’application d’une règle de rémunération
sur une technologie de distribution et d’une règle de propriété sur une autre va par
exemple biaiser les prix relatifs) mais le partage des revenus entre acteurs verticaux ne
sera plus un instrument d’optimisation du partage du risque et des incitations à l’effort
dont les bénéfices ont été décrits plus haut. De plus, les stratégies de versioning organisant la
mise en marché selon l’exclusivité temporelle et la complémentarité des différents canaux de
distribution sont rendues impossibles.
2.1. Les évolutions analogiques des lois sur le droit d’auteur
Dans les années 50 sont commercialisées les premières photocopieuses, les années 60 voient,
quant à elles, arriver sur le marché les premiers magnétophones qui seront suivis par les
premiers magnétoscopes dans les années 70. L’arrivée de ces technologies de reproduction
domestique et leur adoption rapide par les consommateurs a suscité l’inquiétude des producteurs
73
Livre blanc sur le « Peer-to-Peer »
de biens culturels et la réglementation sur le droit d’auteur a dû faire face à de nouvelles
questions. Quel impact avaient ces nouveaux actes de copies privées domestiques,
auparavant acceptés par tous, sur les revenus des producteurs et les incitations à
création ? Constituaient-ils ainsi que la fourniture de technologies les permettant des
infractions aux droits d’auteur ? Ces questions ont donné lieu à différentes réponses
réglementaires aux États-unis et en Europe.
2.1.1 - Coûts et bénéfices des droits exclusifs sur les nouveaux usages
Procéder à des transactions pour chaque enregistrement sonore, vidéo ou pour chaque
photocopie était technologiquement trop coûteux par rapport à la valeur de ces copies
pour rendre praticable le recours au marché. Le choix réglementaire devait donc se faire
entre l’interdiction de ces copies ou une exemption du régime du droit d’auteur exclusif donnant
ou non lieu à un système de compensation pour les créateurs.
L’application de sanctions aux copieurs individuels était difficilement praticable, le grand
nombre de contrevenants rendant les coûts d’une surveillance « analogique » prohibitifs et
supposant des intrusions dans la vie privée injustifiables (d’entrer littéralement dans les
domiciles). Une autre possibilité était de prendre en compte la responsabilité des
fournisseurs de technologies. Interdire ces technologies de reproduction permettant à la fois
des usages légaux et illégaux, restreignait la diffusion culturelle pour les consommateurs et
freinait l’innovation. Mais cette interdiction pouvait également entraîner une perte de revenus
pour les producteurs si les bénéfices tirés des utilisations légales étaient supérieurs au manque à
gagner représenté par les utilisations illégales. Cependant, une possibilité moins coûteuse
subsistait : celle d’imposer aux fournisseurs la mise en place de procédés techniques empêchant
uniquement les utilisations illégales ou de les y inciter par un système de dommage.
Afin de décider de l’attitude adéquate, les autorités réglementaires devaient mettre ces coûts
d’application des droits exclusifs en regard des dommages subis par les créateurs. De façon
intuitive, les copies privées diminuent les revenus des producteurs en fournissant un substitut
gratuit. Cependant, certains effets potentiellement positifs des usages illégaux sur le revenu
des ayants droits ont été mis en avant.
L’arrivée des technologies de reproduction domestique analogiques a renouvelé la réflexion sur
l’économie de la copie et des travaux ont mis en évidence certains mécanismes susceptibles
d’agir de façon positive sur le revenu des producteurs et de compenser cet effet de substitution.
Il s’agit principalement des effets d’exposition ou effets de sampling et de la possibilité
d’appropriabilité indirecte. Cependant ces mécanismes théoriques sont dépendants
d’hypothèses très restrictives, Stanley Liebowitz, un des pionniers de ces recherches, a
74
Livre blanc sur le « Peer-to-Peer »
récemment dénoncé leur utilisation abusive dans les controverses actuelles sur l’impact du peerto-peer (Liebowitz, 2005).
Par effet d’exposition ou effet sampling, les copies non autorisées analogiques pouvaient, dans
certains cas, augmenter les revenus des producteurs. Les copies non autorisées donnent en effet
une information supplémentaire sur le bien culturel et peuvent inciter le consommateur à
l’acheter légalement. Elles permettent de lutter contre l’effet d’anti-sélection que nous avions
évoqué plus haut dans les marchés de biens d’expérience. En diminuant le risque d’erreur du
consommateur, elles augmenteraient son consentement à payer. Pour que cet effet fonctionne, il
est cependant nécessaire que l’original soit d’une qualité supérieure à la copie non autorisée :
qualité de l’enregistrement, extrait/durée complète. Cette condition n’est plus vérifiée dans
l’univers numérique où copies et originaux se confondent.
L’appropriabilité indirecte est un mécanisme économique mis en évidence par Stanley
Liebowitz en 1985 lors d’une étude sur les impacts de la photocopie. Son principe est que la
valeur des copies autorisées augmente avec la possibilité de copies et que cette valeur
additionnelle peut, dans certaines circonstances, être répercutée sur le prix de vente des
copies autorisées. Le vendeur s’approprie alors indirectement la valeur des copies non
autorisées et leur effet sur ses revenus est nul. Il peut même être positif si les technologies de
partage sont moins coûteuses que les technologies de distribution. Liebowitz rappelle que ce
mécanisme, s’il fonctionne dans le cas des photocopies de journaux, est en fait extrêmement
rare (Liebowitz, 2005) ; il est soumis à l’existence de l’une ou l’autre des conditions restrictives
suivantes :
-
Que les consommateurs ne valorisent pas les possibilités de copies additionnelles. Ainsi
le producteur peut augmenter son prix de façon uniforme.
-
À défaut, qu’il soit possible de discriminer par les prix les acheteurs qui copient de
ceux qui ne copient pas. Le vendeur peut alors fixer un prix haut pour les copieurs.
Cette condition était respectée dans le cadre de la première étude de Liebowitz sur
l’impact de la photocopie : les éditeurs peuvent tarifer un prix plus haut aux
bibliothèques, lieux où les journaux sont le plus susceptibles d’être photocopiés.
Ces effets positifs des copies analogiques ont été la base de l’argumentation des fournisseurs de
technologies en faveur de la dégradation des droits exclusifs.
75
Livre blanc sur le « Peer-to-Peer »
2.1.2 - Les réactions réglementaires européennes et américaines
2.1.2.1 - La décision Betamax de la Cour Suprême Américaine22
Aux États-unis, la question de la responsabilité des fournisseurs d’appareils de copie
domestique a été jugée et écartée dans la célèbre décision Betamax de 1984. Dans cette affaire,
les studios Universal et Walt Disney accusaient Sony d’enfreindre leurs droits de propriété
exclusifs. Ils soutenaient que l’ad-skipping (avance rapide des publicités) permis par les
magnétoscopes mettait en danger leurs revenus télévisuels. Au cours des cinq années de procès,
ils ont demandé tour à tour l’interdiction de la vente de magnétoscopes, l’imposition de mesures
techniques de blocage de la fonction d’enregistrement et l’octroi d’un droit à rémunération
adossé sur une taxe sur les magnétoscopes et les cassettes vierges. La Cour Suprême, à l’issue
d’un vote serré, a choisi Sony comme « gagnant ». Elle a tout d’abord considéré que
l’enregistrement de programmes télévisés pour un visionnage ultérieur (time shifting) avait un
impact négligeable sur les revenus des titulaires de droit et relevait des exceptions au droit
d’auteur. Elle a ensuite statué sur la responsabilité indirecte des fabricants de magnétoscopes
pour l’ad-skiping. Elle a rejeté la responsabilité indirecte considérant d’une part, que les
fabricants ne pouvaient pas contrôler le comportement de leurs consommateurs et, d’autre part,
que les magnétoscopes présentaient de substantielles fonctionnalités légales (time shifting)23.
La Cour Suprême a considéré que l’ad-skipping ne diminuait pas significativement les revenus
et s’est focalisée sur le fait que le time shifting pouvait les augmenter (Landes et Litchman,
2003). Que disent les arguments théoriques sur l’impact positif du time shifting ?
L’appropriabilité indirecte supposerait que les producteurs de programmes audiovisuels puissent
tarifier plus cher aux chaînes de télévision et donc que l’audience augmenterait ou que certains
consommateurs visionnent volontairement les publicités (l’hypothèse d’ad-loving consumers est
parfois avancée mais est difficile à généraliser). Les effets de sampling peuvent potentiellement
fonctionner pour des programmes récurrents comme les séries mais peu pour les films, rarement
regardés plusieurs fois.
2.1.2.2 - L’apparition des rémunérations pour copie privée en Europe
En Europe, c’est la logique des droits à rémunération qui a été uniformément appliquée à
toutes les technologies de reproduction domestiques. La règle de propriété n’a pas été
22
De nombreuses informations utilisées dans ce paragraphe sur les débats juridiques et notamment sur les
communications entre les juges de la Cour Suprême proviennent de la synthèse effectuée par Jessica
Litman en 2005, "The Sony Paradox", Case Western Reserve Law Review
23
La cour d’Appel qui avait précédemment jugé Sony responsable considérait elle que l’enregistrement
était une infraction au copyright et distinguait les magnétoscopes des photocopieurs qui permettaient eux
des usages légaux.
76
Livre blanc sur le « Peer-to-Peer »
appliquée dans la mesure où le commerce des appareils de production a été autorisé librement et
où l’enregistrement pour usage personnel est entré dans la liste des exceptions au droit
d’auteur initiant la nouvelle catégorie d’exception pour copie privée24. Cependant,
parallèlement à ces exceptions, ont été créées des rémunérations sur les produits permettant le
contournement des droits d’auteur25. Introduites pour la première fois en 1966 en Allemagne sur
les appareils d’enregistrement domestiques, ces rémunérations dédommagent les ayant droits
du manque à gagner entraîné par les copies privées non sollicitées. Elles ont été ensuite
adoptées par de nombreux pays européens et leur assiette s’est élargie aux supports
d’enregistrement, s’adaptant au fur et à mesure des évolutions technologiques (VHS, CDR,
DVDR, disques durs, mémoires portables…). Leur montant et la part revenant à chaque
ayant droit (auteurs, artistes interprètes, producteurs)26 est fixé administrativement. Leur
collecte et leur redistribution sont assurées par des sociétés de gestion collective. À la
différence des États-unis, le préjudice subi par les titulaires de droit a été donc reconnu et n’a
pas été considéré comme compensé par les revenus issus des nouvelles utilisations légales.
Si l’interdiction du commerce de magnétoscopes était difficilement envisageable, on peut se
demander pourquoi ni les autorités américaines ni les autorités européennes n’ont tenté
d’imposer aux fabricants de magnétoscopes des mesures permettant de brider les fonctions
d’ad-skipping. Elles auraient par exemple pu imposer de rendre le bouton d’avance rapide
moins précis pour diminuer la facilité d’avance rapide des publicités (Landes et Litchman,
2003). La volonté de favoriser l’innovation technologique, et ce même aux dépens des
incitations à la création culturelle, a pu peser dans ces décisions.
2.2. Le droit d’auteur face aux technologies numériques
Les technologies numériques de reproduction et de transmission des biens culturels sont une
nouvelle révolution à laquelle doivent faire face les législations sur le droit d’auteur. Si les
effets négatifs de l’utilisation illégale du peer-to-peer sur les revenus des créateurs sont
difficilement contestables, de nouvelles technologies de gestion des transactions et de contrôle
sont également apparues.
2.2.1 - Les effets du peer-to-peer sur les revenus des industries culturelles
Les technologies numériques ont rendu les biens culturels réellement non-rivaux en
annulant pratiquement le coût marginal de reproduction et de transmission des fichiers.
24
L’exception pour copie privée a par exemple été incluse dans la loi française en 1957
Pour une analyse approfondie des rémunérations pour copie privée en Europe, on peut se référer à
Bernt Hugenholtz et alii, « The Future of Levies in a Digital Environment», 2003.
25
77
Livre blanc sur le « Peer-to-Peer »
De plus, en désolidarisant le bien culturel de son support physique (livre, cassette, disque),
la numérisation fait disparaître un puissant mécanisme d’exclusion technique. Les
technologies numériques domestiques permettent aux individus de réaliser des copies
parfaites, sans perte de qualité, et de les partager avec de larges communautés sur les
réseaux d’échange peer-to-peer.
Des fichiers d’œuvres protégées par le droit d’auteur sont massivement échangés sur les réseaux
peer-to-peer. L’institut GfK a par exemple évalué le nombre de fichiers téléchargés illégalement
sur Internet en France pour l’année 2005. Un milliard de fichiers musicaux ont ainsi été
téléchargés, soit environ l’équivalent des ventes physiques de titres27, dont seulement 20
millions sur les plateformes de téléchargement légales. Quant aux films, 120 millions de
fichiers ont été téléchargés soit environ l’équivalent des ventes de DVD en France en 2005.
On constate également, après une période de forte hausse, une baisse des revenus de
l’industrie musicale française de presque 50 % depuis 2002.
Il est difficile de nier l’impact négatif du partage illégal sur peer-to-peer. Les effets positifs ou
neutres attribués aux copies sont invalides dans le monde numérique. L’effet sampling se réduit
avec la différence de qualité entre les biens légaux et les biens illégaux disponibles sur peer-topeer. Ne pas graver un fichier illégalement téléchargé et l’acheter en magasin ou l’ignorer et le
télécharger à nouveau sur une plateforme légale ressemble à un « acte de foi ». Certaines études
avancent cependant que les téléchargeurs « éthiques » représentent une part non négligeable des
utilisateurs des réseaux peer-to-peer. Mais, l’effet sampling, même dans les rares cas où il
fonctionne, est ambigu (Liebowitz, 2002). En effet, il n’est pas certain que si l’internaute
n’achète que ce qu’il aime, il achètera autant. L’appropriabilité indirecte, quant à elle, ne peut
plus fonctionner dans la mesure où l’original ne se différencie plus de la copie et où un seul
fichier, par propagation virale, peut suffire à alimenter les différents réseaux. L’effet de
substitution se renforce avec cette uniformisation de la qualité. De plus, les réseaux peer-to-peer
bouleversent, dans le cas des vidéos, le versioning réalisé par la chronologie des médias. Dès
leur sortie en DVD et parfois même avant, les films sont disponibles en qualité équivalente sur
les réseaux peer-to-peer ce qui met particulièrement à mal les fenêtres d’exploitation
ultérieures : DVD, pay-per-view, télévision payante et gratuite mais également les services de
téléchargement légaux de vidéos dont la fenêtre d’exploitation suit celle du DVD.
26
En France, la copie privée sonore est répartie entre auteurs, artistes-interprètes et producteurs selon la
clé 1/2,1/4, 1/4 et selon la clé 1/3, 1/3, 1/3 pour la copie privée audiovisuelle
78
Livre blanc sur le « Peer-to-Peer »
2.2.2 - DRM et baisse des coûts d’application des droits exclusifs
Si les dommages du peer-to-peer sur les revenus et les incitations des producteurs n’ont pas de
commune mesure avec ceux des technologies de reproduction analogiques, les technologies
numériques permettent également d’abaisser fortement les coûts de la protection des droits
exclusifs et les coûts de transaction. Sur les réseaux numériques, la surveillance légale des
infractions individuelles au droit d’auteur est beaucoup moins coûteuse et beaucoup plus
praticable que pour les copies analogiques. Cependant, le nombre de contrevenants rend les
coûts de poursuite élevés et suppose donc soit des sanctions assez sévères pour être dissuasives
soit un système automatisé d’amendes. Sont également apparues avec la numérisation des
technologies privées numériques de protection des droits d’auteur. Les DRM (Digital Rights
Management systems) sont des systèmes logiciels qui permettent de contrôler les
utilisations et de limiter les copies et les possibilités de transmission d’un fichier.
Ils permettent également de versionner de façon très fine les caractéristiques d’utilisation des
biens culturels. En dotant un fichier numérique d’un système DRM, il est possible de
contrôler son accès par un consommateur mais également le nombre de fois où il peut le
lire, l’écouter ou le regarder, le nombre de copies qu’il peut effectuer, le nombre de
transferts vers d’autres appareils ou encore le temps pendant lequel il en a la jouissance.
Les DRM diminuent également les coûts des transactions en permettant une gestion très peu
coûteuse de l’octroi de licences d’utilisation, du paiement et de la redistribution aux ayants
droit. La dégradation de droits exclusifs en droits à rémunération devient donc moins nécessaire
du fait de leur existence.
2.2.3 - Les lois sur le droit d’auteur dans l’environnement numérique et la
protection légale des DRM
Les premières adaptations légales du droit d’auteur à l’univers numérique ont été mises
en place par deux traités internationaux ratifiés sous l’égide de l’OMPI en 199628. ÉtatsUnis et Europe ont respectivement transposé leurs principes dans le DMCA29 et la
Directive Européenne dite EUCD. Leur innovation majeure est la protection légale des
mesures techniques de protection (MTP). Elles condamnent le contournement des mesures
techniques de protection et le commerce de dispositifs, produits ou services visant à les
27
Selon l’IFPI, les ventes physiques de disques en France en 2005 se sont élevées à 24,7 millions de
singles et 83 millions d’albums.
28
Traités de l'Organisation Mondiale de la Propriété Intellectuelle sur le droit d'auteur (WCT) et sur les
interprétations et exécutions et les phonogrammes r(WPPT)
29
Digital Millenium Copyright Act, 1998
79
Livre blanc sur le « Peer-to-Peer »
contourner.
Mais cette solution de protection privée des droits exclusifs n’est pas suffisamment
opérante car les DRM tardent à se déployer. Ils doivent être adoptés par l’ensemble de la
chaîne verticale de distribution des biens culturels : par les producteurs, les distributeurs
et les équipementiers. Or les fournisseurs de logiciels et d’équipements informatiques et
électroniques profitent du piratage des biens culturels dont la valeur augmente celle de
leurs produits. Ils ont peu intérêt à mettre en place des DRM efficaces. De plus, la grande
compatibilité entre équipements et logiciels permise par les formats libres rend l’incompatibilité
des DRM peu coûteuse. Aujourd’hui, par exemple, les filières de distribution de contenus
d’Apple et de Sony composées de sites de vente de contenus en ligne, de logiciels de lecture
médias et d’équipements de lecture sont entièrement exclusives grâce à l’incompatibilité de leur
technologie DRM. Ces incompatibilités freinent le développement des plateformes de
téléchargement légal. Elles confortent les DRM dans leur image de verrous et peuvent inciter les
consommateurs à les contourner ou à se tourner vers les offres illégales largement
compatibles30.
2.2.4 - Les autres options réglementaires
2.2.4.1 - La tentation de l’extension du droit à rémunération sur Internet : les
propositions de licence globale
Des propositions de licence globale qui dégraderaient les droits exclusifs en droits à
rémunération sur Internet proposent de rendre légaux les échanges de fichiers sur Internet et de
dédommager les titulaires de droits par la taxation des abonnements. Ces propositions émanant
d’économistes, d’associations de consommateurs ou de sociétés de gestion collective d’artistes,
ont fait débat en France, lors de la transposition de l’EUCD.
Leur grand avantage est de procurer rapidement aux ayants droit des revenus. Mais elles
mettent en danger les incitations à plus long terme. Il reviendrait à un processus
administratif la tâche de fixer de façon adéquate la rémunération globale de la filière et le
partage des revenus entre les différents ayants droit. Il y a un grand risque que le montant
global soit sous-évalué et ne réduise les incitations à créer. Un dommage certain est que les
acteurs verticaux ne pourront plus se coordonner librement et optimiser l’allocation des risques
et des tâches entre eux. Ces désavantages généraux des systèmes de droit à rémunération sont
plus grands dans la mesure où Internet pourrait devenir le canal principal de distribution des
30
Pour une analyse complète de ces mécanismes voir O. Bomsel, A.G. Geffroy et Gilles le Blanc (2006),
Modem le Maudit, Économie de la distribution numérique des contenus, Presses de l’École des Mines de
paris
80
Livre blanc sur le « Peer-to-Peer »
biens culturels. La fixation des taux ne pourra alors plus se fonder sur un canal de distribution et
des règles de répartition verticales de référence. De plus, la licence globale taxe injustement
les internautes les moins consommateurs de biens culturels et pourrait restreindre l’accès
des populations les moins aisées en augmentant le prix des abonnements.
De plus, son application unilatérale nécessiterait que les autres pays acceptent également
que leurs biens culturels nationaux soient soumis à une dégradation des droits d’auteur
sur le territoire concerné. Il serait également nécessaire de circonscrire les accès aux seuls
résidents nationaux.
2.2.4.2 - Les mesures d’application des droits exclusifs
Afin d’appliquer les droits exclusifs, la réglementation peut encourager le déploiement des
DRM, en favorisant notamment leur interopérabilité, mais elle doit également lutter contre les
échanges illégaux sur les réseaux peer-to-peer. Elle peut le faire en engageant la responsabilité
des individus et celle des intermédiaires techniques.
Les poursuites légales des internautes contrevenants sont une voie de rétablissement de la règle
de propriété. La question de la fixation du niveau de la sanction est délicate, le grand nombre
des utilisateurs élevant le coût des poursuites. Afin d’éviter de devoir fixer des peines trop
lourdes difficilement acceptables et applicables pour les tribunaux, un système de contrôle et
de sanctions peu coûteux où la probabilité de détection de l’infraction serait élevée doit
être mis en place. Les facilités technologiques de surveillance des réseaux peer-to-peer et la
mise en place de sanctions automatiques pourraient permettre cette amélioration. Le
gouvernement français a ainsi voulu mettre en place un système de réduction du niveau des
sanctions substituant aux lourdes peines encourues et poursuites pour contrefaçon des amendes
progressives et plus modestes. Cependant, cette mesure a été censurée par le Conseil
Constitutionnel pour motif d’inégalité devant la loi. L’allègement des sanctions ne concernait
pas des pratiques d’échange par d’autres moyens que les réseaux peer-to-peer comme les
messageries.
Un moyen complémentaire de faire respecter les droits exclusifs est d’engager la
responsabilité des intermédiaires techniques. Les premiers fournisseurs de technologie à
encourir des poursuites pour responsabilité indirecte sont les fournisseurs de logiciels peer-topeer. On recense à ce jour trois types de technologies peer-to-peer : des systèmes d’échanges
centralisés de fichiers comme l’original Napster, des systèmes totalement décentralisés, et des
systèmes hybrides, sans serveurs centraux, mais où des pairs agissent localement comme de
81
Livre blanc sur le « Peer-to-Peer »
« mini Napsters » tels Grokster ou Kazaa31. En 2001 et 2003, les tribunaux américains ont
considéré que les deux systèmes d’échanges Napster et Aimster, étaient coupables d’infractions
au copyright puisqu’ils avaient matériellement contribué au contournement des droits exclusifs.
En Europe, la dernière décision prise en 2002 à l’encontre des logiciels peer-to-peer hybrides
n’a pas retenu leur responsabilité juridique. Dans l’affaire BUMA/Kazaa, la Cour d’appel
d’Amsterdam a considéré que les logiciels de Kazaa n’étaient pas utilisés à des fins exclusives
de contournement du droit d’auteur. Saisie en appel, la Cour de Cassation des Pays-Bas a
confirmé cette décision.
Aux États-unis, dans l’affaire MGM/Grokster, la Cour d’appel fédérale, s’appuyant sur la
jurisprudence Sony-Betamax, n’a d’abord pas relevé de complicité à l’encontre des logiciels
peer-to-peer décentralisés pour les infractions commises par leurs utilisateurs. Elle a mis en
avant les usages non répréhensibles du peer-to-peer, comme l’échange de données privées ou
libres de droits, ainsi que l’impossibilité pour les éditeurs de juguler les infractions des utilisateurs. Mais en juin 2005, la Cour Suprême a jugé en appel et à l’unanimité, que les éditeurs
de peer-to-peer pouvaient être tenus responsables des violations du droit d’auteur
commises par les utilisateurs s’ils les encourageaient activement. Trois critères de
responsabilité ont été retenus : la promotion et la publicité des usages illégaux, l’absence
de mise en place de technologie visant à empêcher ces usages, et un rôle explicite de ces
usages dans le modèle d’affaires de l’entreprise. Cette décision historique a entraîné la
fermeture de Grokster. Elle restreint le champ d’application de la décision Betamax, qui ne peut
être invoquée en cas d’encouragement volontaire d’usages indirects illicites.
Il existe cependant une limite importante à l’effectivité des sanctions contre les fournisseurs de
logiciels peer-to-peer. En effet, la majorité d’entre eux se localisent dans des pays laxistes. Mais
d’autres intermédiaires techniques pourraient eux aussi être impliqués dans la lutte contre les
réseaux d’échange illégaux de biens culturels. Les fournisseurs d’accès à Internet pourraient
être incités, par des amendes ou des subventions, à mettre en place des systèmes,
techniques ou organisationnels, visant à réduire les échanges illégaux de biens culturels.
3 - Conclusion
Si les technologies peer-to-peer sont incontestablement des technologies mixtes, permettant, audelà du piratage de biens culturels, des utilisations légales et prometteuses pour la croissance
des revenus et le dynamisme des industries culturelles, leur fonctionnement actuel met en
31
Voir le chapitre 1
82
Livre blanc sur le « Peer-to-Peer »
danger la création artistique.
La gratuité des biens culturels piratés sur les réseaux peer-to-peer profite aujourd’hui aux
consommateurs et aux vendeurs d’équipements, de logiciels et d’accès à Internet. Mais elle
fait peser une menace sur le volume et la qualité de la production de bien culturels de
demain et par conséquent sur les bénéfices de tous.
Bibliographie
Einhorn, Michael A. (2001), « Copyright, Prevention, and Rational Governance: File-Sharing
and Napster », Columbia Journal of Law & the Arts
Gordon, Wendy (1982), « Fair Use as Market Failure : A Structural and Economic Analysis of
the Betamax Case and Its Predecessors », Columbia Law Review, (82), pp. 1600-1657
Gordon Wendy J. et Robert G. Bone, « Copyright » dans B. Bouckaert et G. De Gest (2000),
Encyclopedia of Law and Economics, Volume II. Civil Law and Economics,
Cheltenham : Edward Elgar, pp. 189-215
Klein, Benjamin, Lerner, Andres V. et Murphy, Kevin M. (2002), « The Economics of
Copyright « Fair Use » in a Networked World », American Economic Review, 92 (2), pp.
205-208
Koelman Kamiel J. (2004), « Copyright Law & Economics in the EU Copyright Directive : Is
the Droit d’Auteur Passé ? International Review of Intellectual Property and Competition
Law No. 6/2004, pp. 603-638
Landes William M. and Richard A. Posner (1989), « An Economic Analysis of Copyright
Law », 18 Journal of Legal Studies, pp. r325-353
Landes, William M. et Douglas Lichtman (2003), « Indirect Liability for Copyright
Infringement: r an Economic Perspective », Harvard Journal of Law & Technology , Vol.
16, No. 2
Lévêque, François et Yann Ménière (2003), Economie de la Propriété Intellectuelle, Editions La
Découverte, Paris
Liebowitz, S. J. [1985], “Copying and Indirect Appropriability: Photocopying of Journals”,
Journal of Political Economy, 93, pp. 945-957
Liebowitz, Stan J. (1985), « The Economics of Betamax: Unauthorized Copying of Advertising
Based Television Broadcasts. »
Liebowitz, Stan J. (2005), « Economists’ topsy-tursy view of piracy », Review of Economic
Research on Copyright Issues, Vol. 2(1), pp. 5-17
Litman, Jessica (2005), “The Sony Paradox”, Case Western Reserve Law Review
Varian Hal R. (1997), « Versioning Information Goods » dans Brian Kahin et Hal R. Varian (2000),
Internet Publishing and Beyond. MIT Press
83
Livre blanc sur le « Peer-to-Peer »
84
Livre blanc sur le « Peer-to-Peer »
Chapitre 5
A qui sert le « peer to peer »
aujourd’hui32
Olivier Bomsel
32
Tiré de l’ouvrage « Gratuit », du même auteur, publié chez Folio (Editions Gallimard)
85
Livre blanc sur le « Peer-to-Peer »
1. Introduction : le téléchargement de films et
fichiers musicaux en forte croissance33
L’échange de fichiers sur Internet par des logiciels dits de peer-to-peer, en français de pair-àpair, a pris, à partir de 2002, une ampleur considérable. En 2003, on considère que, dans le
monde, se sont échangés plus de 150 milliards de fichiers musicaux34 via les réseaux
« peer-to-peer ». Ces chiffres sont depuis en augmentation constante. Les échanges concernent
principalement des fichiers audiovisuels correspondant à des œuvres sous copyright et
constituent, de la sorte, un contournement systématique et massif des règles de propriété
intellectuelle. Le phénomène a d’abord concerné les fichiers musicaux avant de s’étendre,
grâce à de nouveaux logiciels, à l’échange de films et de programmes de télévision. Les
protestations vigoureuses des ayants droit, notamment des majors de l’industrie du disque
poursuivant pénalement les internautes suspects de contrefaçon, ont lancé, partout dans le
monde, des débats sur la légitimité de ces systèmes d’échange.
12,00%
6
10,00%
5
8,00%
4
6,00%
3
4,00%
2
2,00%
1
0,00%
-2,00%
0
1999
-4,00%
2000
2001
2002
2003*
-1
Millions d'utilisateurs connectˇs
aux rˇseaux de P2P chaque
Taux de dˇcroissance
Figure 1- Décroissance du marché mondial du disque et nombre d’utilisateurs du P2P
Taux de
dˇcroissance
annuel du
marchˇ
mondial du
disque
Nombre
d'utilisateurs
P2P (en
millions)
chaque
instant.
-2
Sources : IFPI / RedShift / IDATE
33
Ce texte est extrait de « Gratuit ! », ouvrage sur le déploiement de l’économie numérique paru chez
Folio en 2007. Sa publication a fait l’objet d’une autorisation des éditions Gallimard.
34
L’Idate estime qu’en 2003, près de 150 milliards de fichiers musicaux (contre 50 milliards vendus sur
support physique), un milliard de films en DVD et 550 millions d’images ont été échangés sur les réseaux
P2P. Cette étude fait l’hypothèse de 5 millions d’utilisateurs présents sur les différents systèmes P2P à
chaque instant. Ce chiffre est loin de représenter le nombre total d’utilisateurs P2P, qui ne se connectent
pas tous en continu.
86
Livre blanc sur le « Peer-to-Peer »
1.1 – Les effets de réseau dans l’économie numérique
Cette affaire est très révélatrice des mécanismes de l’économie numérique et de la manière dont
ceux-ci rencontrent les représentations sociales. Au plan économique, elle fait apparaître la
violence des conflits d’intérêt opposant marques et distributeurs pour capturer le désir — le
consentement-à-payer — du consommateur pour le produit livré. Car, dans l’économie
numérique, ce consentement-à-payer s’appuie sur des effets de réseau, autrement dit sur des
dynamiques cumulatives par lesquelles plus un produit est consommé et plus il est utile à
ceux qui le consomment. Les effets de réseau sont liés à la circulation d’un code — un
langage, une écriture, un standard, une marque, une monnaie… — et apparaissent aussi bien
dans les marques, dans les contenus, que dans les équipements mettant des consommateurs en
relation. Ils sont donc omniprésents dans l’économie numérique dont la particularité est de faire
circuler l’information en code {0,1}.
1.2 – Les contenus gratuits dans les systèmes de distribution dématérialisés
Offrir du gratuit permet d’atteindre des masses critiques de consommateurs qui
convaincront de nouveaux souscripteurs de rejoindre le réseau. L’offre de contenus
gratuits est, depuis le début de la radiodiffusion, le mode privilégié du déploiement des
systèmes de distribution dématérialisés. L’originalité du peer-to-peer, par rapport aux modes
traditionnels de distribution de contenus « en clair », financés par la publicité, est qu’il enfreint
radicalement et massivement les règles de propriété intellectuelle au bénéfice des réseaux
distributeurs. De là un vigoureux débat sur le respect de la propriété intellectuelle qui, dans
chaque pays, va rencontrer les représentations économiques de la propriété et, plus largement,
des modes de socialisation intégrant la fonction arbitrale de l’Etat.
1.3 – Quelle législation sur le droit d’auteur en environnement numérique ?
Aux Etats-Unis où la propriété, qu’elle soit intellectuelle ou non, ne fait aucunement débat, et
où le Congrès a voté, dès 1998, une loi sur l’application du copyright dans l’environnement
numérique, le débat s’est concentré sur la légalité des logiciels de peer-to-peer. Un arrêt définitif
a été rendu sur ce point par la Cour Suprême en juillet 2005. Nous y reviendrons. En France —
où pourtant les marques sont protégées et bénéficient des lois les plus répressives pour écarter la
contrefaçon — le débat s’est focalisé sur la légitimité de la propriété intellectuelle et l’extension
de la gratuité à l’ensemble des produits culturels. Il a abouti, en juin 2006, au vote d’une loi
contestée sur l’adaptation du droit d’auteur à l’environnement numérique, limitant à des peines
symboliques les actes de contrefaçon commis par les consommateurs finaux. Saisi par des
parlementaires désireux de l’assouplir, le Conseil Constitutionnel a finalement censuré le volet
87
Livre blanc sur le « Peer-to-Peer »
trop laxiste de la loi, l’inégalité de traitement donné au viol de la propriété intellectuelle
constituant, à ses yeux, une dangereuse incongruité.
1.4 – Le peer to peer au cœur d’un jeu économique complexe
Les mécanismes économiques sous-jacents au déploiement du peer-to-peer mettent en cause des
effets de réseau et des subventions croisées au sein de relations verticales. L’affaire engage,
d’une part, des industries de biens culturels soumises à des problèmes de distribution
spécifiques et, d’autre part, les industries de l’informatique et des télécommunications
cherchant à déployer l’Internet à haut débit. Le peer-to-peer va permettre à Internet de
distribuer des utilités gratuites engageant des effets de réseau. Selon les régions, les effets
produits sur les groupes d’intérêt bénéficiaires de ces utilités divergent en fonction de la
structure des industries de contenus et de leurs systèmes de distribution. Nous verrons qu’en
France cette structure et les représentations économiques qui la sous-tendent privilégient la
demande de gratuité au détriment de la qualité, de la diversité et de la compétitivité
internationale des contenus.
2. Les industries de contenus
En étendant sans cesse le champ de l’information et en facilitant sa diffusion, la numérisation
dissocie deux classes d’investissements complémentaires : les contenus et les réseaux de
communication ou de distribution. L’économie des réseaux, catégorie qui s’adosse à des
équipements et des infrastructures matérielles, ne pose pas à l’économie productiviste classique
de problème méthodologique fondamental. Bien au contraire, les problématiques industrielles et
réglementaires de l’interconnexion ou de la tarification ont largement recours à des modèles de
coûts. Tel n’est pas le cas de l’industrie des contenus.
2.1 – Particularités économiques des contenus
Il nous faut donc revenir sur cette catégorie. La numérisation justifie la fédération de l’ensemble
des biens informationnels, traditionnellement associés à des industries de support, autour d’une
catégorie unique : celle du signifié, ou encore des contenus. On appellera contenus les biens
informationnels identifiés par des droits d’auteur et de copie, et destinés à une large diffusion
publique. Les contenus sont le produit d’une activité de création non scientifique — donc non
fonctionnelle et non substituable — et se distinguent des inventions brevetées notamment en
88
Livre blanc sur le « Peer-to-Peer »
ceci qu’ils s’adressent directement au consommateur final35. Ce sont par ailleurs des biens dits
d’expérience, autrement dit des biens qu’on ne connaît véritablement qu’après les avoir
consommés. Cette expérience est elle-même un processus cumulatif, générateur de trajectoires
d’apprentissage qui influent sur la perception des œuvres, leur signification et, partant, l’utilité
qu’en retire le consommateur. C’est en effet de l’expérience que résulte la dimension culturelle
— au sens de l’expérience accumulée — des contenus.
2.2 – L’appréhension « hollywoodienne » des contenus et leur dimension
industrielle
Le raisonnement économique sur les contenus suppose qu’on reconnaisse à ceux-ci une fonction
d’utilité individuelle et sociale. C’est là que les problèmes se posent. D’abord parce que l’utilité
est une catégorie peu maniée par l’économie classique, surtout quand elle n’est pas rattachée à
un critère objectif de performance ou de fonctionnalité matérielle. Ensuite parce que les modes
d’identification des contenus ont des trajectoires fort différentes en Amérique et en Europe36.
Les États-unis sont un pays récent et de langue importée. L’économie y existe depuis toujours.
A tel point que la circulation des œuvres écrites y est traitée, dès l’Indépendance, comme une
question économique. Après que l’industrie de l’édition et le marché du roman s’y sont
déployés grâce au piratage des auteurs et des éditeurs anglais, la dynamique industrielle et
institutionnelle d’Hollywood, initiée au début du XXe siècle, fédère les industries culturelles
autour du cinéma et de la télévision. La division marquée du travail, le rôle central des
scénaristes et des auteurs dans la fabrication des films, la possibilité, grâce au copyright, de
concentrer les droits dans les mains des studios, contribuent à faire d’Hollywood l’institution
référentielle de l’industrie des contenus. La spécialisation des studios dans la production,
mais surtout dans la distribution des contenus audiovisuels sur tout le continent américain et audelà, leur a permis d’être très actifs dans le déploiement de la télévision et de constituer un
puissant lobby de l’industrie du copyright. La capacité de cette industrie à produire et à
diffuser mondialement des images en fait, par ailleurs, une institution majeure de la puissance
américaine. Néanmoins, même lorsqu’il s’agit de films ou de créations d’avant-garde,
Hollywood produit de l’entertainment, de la distraction, en assumant pleinement sa dimension
utilitaire : il s’agit de loisirs que chacun peut, à sa guise, apprécier en tant que consommateur.
35
Les articles scientifiques, même validés par des comités de lecture, ressortissent du copyright et non du
brevet. Ils constituent donc une exception à cette définition. Néanmoins, semblablement aux brevets, ils
font l’objet d’une validation ex ante, et s’adressent à un public de professionnels.
36
L’ouvrage de Paul Starr « The Creation of the Media, Political Origins of Modern communications »
présente une analyse comparée très exhaustive du développement des systèmes médiatiques aux EtatsUnis et en Europe. Outre le rôle essentiel de la propriété intellectuelle dans le déploiement des réseaux de
contenus, il y insiste sur la dimension utilitariste de la perception de l’information aux Etats-Unis,
notamment jusqu’à le seconde Guerre Mondiale, comparée à la notion de connaissance, privilégiée en
Europe. Basic Books, New York 2004. r
89
Livre blanc sur le « Peer-to-Peer »
Cette dimension industrielle et utilitariste des activités créatives aux Etats-Unis résulte de la
conjonction de facteurs singuliers : un vaste marché de langue unique, une approche utilitaire
des produits, pas de fonds culturel antérieur à intégrer et donc pas ou peu d’idéologie de
l’Histoire.
2.3 – En Europe, entre Art et Culture et un statut ambigu
En Europe continentale, les catégories fédératrices des œuvres sont les Arts et la Culture. On est
ici confronté à une opposition entre économie et histoire. Car les œuvres, les trajectoires
culturelles, ont existé en Europe bien avant le capitalisme, reflétant la diversité des
communautés et des langages. Et, bien entendu, l’adaptation de cet héritage à la production et à
la consommation de masse requiert un processus spécifique. Chaque pays dispose du sien,
conscient, en outre, du handicap historique et linguistique qui, dans ce domaine, le sépare du
monde anglo-saxon. La Culture est, singulièrement en France, la catégorie de cette transition.
Elle désigne l’ensemble des expériences artistiques dont il faut que le public soit largement
instruit, et recouvre un protocole étendu, cautionné par l’Etat, de création et de circulation des
œuvres. Le dispositif culturel français résulte d’un rapprochement des institutions littéraires et
audiovisuelles opéré dans les années 1960 sous le patronage d’André Malraux. Celui-ci, bien
avant Internet et avant même que la télévision ne soit complètement déployée, perçoit que la
diffusion des images est la grande révolution de l’accès à la connaissance37. Le Musée
Imaginaire, qui décrit comment les œuvres et leur patrimoine de significations historiques
circulent en images dans la société moderne, est l’un des piliers de l’institution culturelle
française. Publié en 1947, réédité en 1965, le texte de Malraux véhicule les objectifs de
diffusion des connaissances, de structuration de la société des loisirs et de contrôle public de
l’information qui accompagneront le déploiement de la télévision. Or, autant l’imaginaire est
source de modernité circulante, autant le musée, par sa relation sacrée à l’Histoire et à la
« beauté », récuse la dimension utilitaire des contenus individués et n’assigne de valeur qu’à
leur réunion et leur diversité au sein de l’institution. Le secteur culturel est en France, plus
qu’ailleurs en Europe, un « musée imaginaire » largement adossé aux institutions centrales que
sont les chaînes de télévision publiques, investies de missions éducatives. L’existence d’un
secteur privé, même fortement réglementé, de l’édition et des médias montre que ce discours est
plus idéologique qu’opérationnel et que, dans les faits, chacun reconnaît aux contenus une
fonction d’utilité et de loisir. Elle montre aussi que la notion de Culture est une catégorie de
37
« Aujourd’hui, un étudiant dispose de la reproduction en couleurs de la plupart des œuvres magistrales,
découvre nombre de peintures secondaires, les arts archaïques, les sculptures indienne, chinoise,
japonaise et précolombienne des hautes époques, une partie de l’art byzantin, les fresques romanes, les
arts sauvages et populaires… Car un musée imaginaire s’est ouvert qui va pousser à l’extrême
l’incomplète confrontation imposée par les vrais musées : répondant à l’appel de ceux-ci, les arts
plastiques ont inventé leur imprimerie. » Le musée imaginaire. Edition Folio. Gallimard 1965 pp.15 et 16.
90
Livre blanc sur le « Peer-to-Peer »
transition destinée à opérer le passage des œuvres d’un statut de patrimoine historique,
largement démocratisé, à celui d’une création industrielle destinée aux marchés
mondialisés de loisirs.
Quoi qu’il en soit, nous considérerons dans la suite que la transition est accomplie et que,
par conséquent, les contenus sont utiles et justiciables de raisonnements économiques.
L’originalité du secteur vient de ce que cette fonction d’utilité est difficilement représentable
tant sont fortes les variations entre produits et entre individus. A quoi s’ajoute une composante
temporelle faisant que l’utilité immédiate d’une œuvre « commerciale » n’est pas
nécessairement le gage d’une valeur patrimoniale de long terme. C’est, en vérité, l’expérience
de la consommation de l’œuvre et, le cas échéant, de celles qui lui font suite qui bâtissent
sa réputation et son utilité de long terme.
2.4 – Particularités économiques des biens culturels
Les droits d’auteur et de copie donnent lieu à des activités industrielles de création, d’agrégation
et de distribution. La création est un investissement dont la valorisation est, par essence, risquée,
car la valeur d’usage d’un bien culturel est aléatoire, ou, pour reprendre la formule de
Richard Caves, « personne ne sait » à l’avance ce que sera son succès commercial38. Les droits
structurent donc une activité de recherche et de développement dans laquelle le succès d’un
produit est supposé compenser les échecs de plusieurs autres. Une des caractéristiques des
industries de contenus est qu’en règle générale, les coûts échoués dans la production et la
distribution ne peuvent s’amortir que sur l’exploitation durable d’un portefeuille
réunissant plusieurs produits.
2.5 – Le « versionnage » des œuvres
Car non seulement la demande pour un contenu est globalement très incertaine, mais la grande
dispersion des préférences individuelles crée des profils de demande très spécifiques. La
distribution des contenus doit viser à atteindre d’abord les consentements à payer les plus
élevés pour toucher ensuite des consommateurs moins disants. Cet impératif induit ce
qu’on appelle un versionnage, c’est-à-dire une mise en marché progressive d’éditions aux
utilités décroissantes permettant de discriminer différentes clientèles. Le livre évolue de la
couverture cartonnée en édition originale au livre de poche, en passant par une ou deux éditions
intermédiaires. Le film migre de la salle de cinéma à la télévision gratuite en passant par le
DVD et la télévision payante. Et cetera.
91
Livre blanc sur le « Peer-to-Peer »
2.6 – La mise sur le marché des contenus
La mise en marché des contenus engendre de forts investissements de communication en
vue de susciter le désir d’expérience. La mise en œuvre de ces investissements engage des
modèles économiques très divers, adaptés aux différents médias. La règle couramment admise
est que les versions les plus chères accompagnent les investissements de mise en marché les
plus lourds. Un blockbuster sera ainsi mondialement annoncé avant sa sortie en salle, en sorte
de lui créer une image qui attirera les premiers consommateurs. La notoriété acquise par le
lancement en salle soutiendra la diffusion des versions ultérieures qui donneront lieu à des
relances ciblées. Le budget de lancement d’un film peut représenter jusqu’à la moitié des coûts
de fabrication du négatif. Celui d’un album de musique peut aller jusqu’à cent fois les coûts
d’enregistrement.
2.7 – Créer des effets de réseau
En fait, dès lors que l’utilité d’un bien est associée à une circulation symbolique, on voit surgir
des effets de réseau. Ces effets sont multiples et dépendent fortement des formats (texte,
musique, images) et des marchés visés par les produits. Plus une œuvre est consommée, plus
son expérience est évaluée et, le cas échéant, prescrite ou déconseillée. S’appuyant sur la
critique institutionnelle, puis sur une masse critique de consommateurs, le bouche-à-oreille
accroît l’espérance d’utilité : il limite le risque expérimental du consommateur. Certains
blockbusters au succès douteux — les ten ton turkeys39 d’Hollywood — sont même
commercialisés avec d’énormes investissements publicitaires afin de pouvoir épuiser le marché
avant la circulation du bouche-à-oreille. Les contenus sont également générateurs d’effets de
mode, d’identifications communautaires. C’est le cas des hymnes politiques dont les Etats, à
commencer par les princes de Hanovre gouvernant l’Angleterre, se sont largement servis pour
structurer le sentiment national40. Mais aussi de la musique de variétés, celle qu’on joue dans les
clubs, dont les succès se standardisent et contribuent à l’identification des générations. Et bien
sûr des films, des programmes de télévision, des romans, de spectacles, d’expositions,
largement discutés au sein de groupes de spectateurs, lecteurs ou regardeurs. La mise en
marché de ces produits vise à réunir le plus vite possible les masses critiques nécessaires
pour lancer le bouche-à-oreille et/ou l’effet de mode. Qu’il s’agisse d’envois de presse,
38
Richard Caves, Creative Industries, Harvard University Press, Cambridge, 2000.
Littéralement, des dindes de dix tonnes, en français, des navets, ou mieux, des daubes, éventuellement,
indigestes...
40
Voir sur ce sujet l’excellente étude d’Esteban Buch « La Neuvième de Beethoven » qui retrace l’histoire
des hymnes anglais, français et autrichiens, et montre comment la neuvième symphonie de Beethoven a
suscité en Europe et jusqu’en Rhodésie, un véritable culte identitaire. Gallimard, 1999.
39
92
Livre blanc sur le « Peer-to-Peer »
d’avant-premières publiques, de présentations événementielles, le gratuit permet d’initier la
circulation du produit avant son versionnage payant. C’est ainsi que, depuis ses débuts, la
radio — du moins dans ses stations à vocation commerciale — a constitué le mode idéal de
mise en marché de la musique. A tel point que les maisons de disques américaines ont
longtemps soudoyé les programmateurs pour qu’ils diffusent intensivement leurs dernières
productions. Cette pratique, connue sous le nom de « Payola », a donné lieu à divers
commentaires et analyses économiques car elle a parfois été assimilée à un mode de distribution
de la musique41, alors qu’elle n’est en fait que le catalyseur de ses effets de réseau. Elle rappelle
que les contenus sont une source permanente d’apparition de marques d’auteur, d’acteurs,
d’interprètes qui complètent le dispositif d’identification des produits et qui, elles aussi,
engendrent des effets de réseau. Ces marques sont ensuite négociées comme des actifs, des
apports en capital, dans le processus de production. Se crée ainsi une chaîne verticale de
produits générateurs d’effets de réseau.
2.8 – Le système des studios hollywoodiens
Pour maîtriser cette chaîne, les maisons de disques, ayant à investir bien davantage dans la
marque d’un interprète que dans la production de sa musique, ne s’engagent à le faire que si
elles peuvent fidéliser son bénéficiaire par contrat. Les studios d’Hollywood, quant à eux, ont
longtemps maintenu les acteurs et les auteurs sous contrat avant que ceux-ci ne s’autonomisent
et ne négocient leur marque — leur public captif — pour leur propre compte. Les studios
s’échangeaient alors couramment, dans une pratique qui n’est pas sans rappeler
l’interconnexion, leurs acteurs sous contrat pour des films isolés. La désintégration du système
des studios que décrit Peter Biskind dans un essai intitulé en français Le Nouvel Hollywood42
est comparable à celle du démantèlement des monopoles de télécoms de la Nouvelle Economie.
A partir des années 1970, les auteurs et les acteurs deviennent concurrents des studios dans la
chaîne de relations verticales qui agrège les composants informationnels des films.
2.9 – Mutualisation des risques liés à chaque contenu
La tarification des contenus reflète donc ces dynamiques d’utilité très singulières, en sorte de
mutualiser les risques de chaque contenu individuel et limiter le risque du consommateur. Les
ventes groupées, qu’il s’agisse des output deals des studios — vente exclusive à un distributeur
de toute une classe de produits —, des abonnements aux chaînes payantes ou aux salles de
cinéma, ou du regroupement de titres musicaux sur un album, visent à lisser l’utilité moyenne
41
Voir Ronald Coase « Payola in radio and television broadcasting », Journal of Law and Economics,
Octobre 1979, 269-328.
42
Le titre original anglais Easy Riders, Raging Bulls, fait notamment référence au film de Dennis Hopper
qui donna, en 1969, l’impulsion du cinéma d’auteur à Hollywood. Le Cherche Midi, Paris 2002.
93
Livre blanc sur le « Peer-to-Peer »
des produits et à partager les effets de réseau des succès éventuels. Ces pratiques s’ajoutent à
celle du versionnage où, comme nous l’avons vu, les formats successivement mis en marché
suivent les consentements-à-payer décroissants du public. Ce versionnage est particulièrement
sophistiqué pour les contenus audiovisuels qui, contrairement à la musique, ne suscitent pas de
forte propension au stockage car ils ne se visionnent qu’un très petit nombre de fois. Ainsi, bien
souvent, après les versions payantes, apparaissent les versions dites en clair. Celles-ci utilisent
les mécanismes de marchés à deux versants, lesquels éliminent grâce à la gratuité financée par
la publicité le risque encouru par le consommateur. Les marchés à deux versants peuvent
néanmoins aussi se combiner aux modèles payants, étendant encore les combinaisons de
versions possibles. La sophistication de ces mécanismes, à laquelle la numérisation contribue
par la création permanente de nouvelles versions (sonneries musicales, vidéo à la demande,
télévision en haute définition…), permet d’accroître les recettes moyennes de chaque contenu et
de financer le développement de créations nouvelles. Ce qui frappe ici, c’est que, dans
l’établissement des recettes, autrement dit dans la structuration des marchés de contenus, les
logiques d’utilité l’emportent entièrement sur les logiques de coût : il n’a jamais été
d’usage de vendre au consommateur un produit d’utilité aléatoire en fonction de ses coûts
de fabrication.43 Car les inévitables déceptions auraient pour effet de faire plonger la demande
globale et réduiraient les moyens disponibles pour renouveler et diversifier la création. On
comprend alors à quel point ces biens, à la fois expérimentaux et informationnels, choquent la
doctrine productiviste française puisqu’au fond, nul marché n’est plus éloigné de la
tarification par les coûts.
2.10 – Contenus et infrastructures de distribution
Parallèlement,
la
distribution
des
contenus
s’appuie
sur
des
investissements
d’équipements et d’infrastructures. Il faut, bien entendu, compléter ces infrastructures par
leurs systèmes d’exploitation techniques et commerciaux, lesquels engendrent des économies
d’échelle et d’envergure. Ces investissements de distribution ont pour fonction de livrer aux
consommateurs des utilités spécifiques qui se combinent à celles des contenus distribués. Les
systèmes de distribution sont donc associés aux supports et aux versions des différents types de
contenus : salles de cinéma, librairies, enseignes multimédia, diffuseurs hertziens et satellitaires,
câblo-opérateurs, et désormais opérateurs télécoms. Bien entendu, ces supports d’utilité, et
singulièrement ceux des infrastructures télécoms, sont eux aussi générateurs d’effets de réseau.
C’est, on va le voir, la concurrence verticale autour de ces effets qui favorise le déploiement du
peer-to-peer.
43
Ceci justifie notamment l’unicité du prix du livre, quel qu’en soit le distributeur, ou des places de
cinéma, quel que soit le film proposé.
94
Livre blanc sur le « Peer-to-Peer »
3. Le déploiement des débits
La numérisation fait apparaître de nouvelles capacités de transport dans chaque domaine où un
système technique permettait l’acheminement d’un signal. Cela vaut pour le téléphone fixe et
mobile, mais aussi pour toutes les infrastructures de distribution dématérialisée des contenus
audiovisuels : le satellite, le câble, les fréquences hertziennes... La numérisation et les
techniques de compression de l’information qui l’accompagnent engendrent une
concurrence acharnée des moyens de transport, et, par là même, des systèmes de
communications et de distribution dématérialisée. Chaque système technique ayant ses
propres règles de compatibilité interne et sa spécialisation en termes d’utilité, on peut parler ici
d’une concurrence multisystèmes généralisée. Cette concurrence, récurrente dans l’économie
numérique, vise à offrir au consommateur l’ensemble des services d’accès à la communication
et aux contenus à travers un point d’entrée unique.
Dans toutes les régions du monde, la concurrence multisystèmes va conduire les opérateurs
d’infrastructures à proposer aux consommateurs des services numériques fortement
générateurs d’effets de réseau. L’enjeu est, d’une part, d’inciter les abonnés au bas débit à
utiliser le haut débit, et, d’autre part, à mettre en œuvre des offres valorisant chacun des
systèmes d’accès. Car, au bout du compte, seuls le relèvement effectif de l’utilité offerte au
consommateur et la vente groupée de services via un accès exclusif peuvent permettre de
financer la numérisation des équipements.
3.1 – Le peer to peer, produit d’appel pour les réseaux haut débit
Le peer-to-peer est l’application idéale pour ce type de déploiement. En offrant aux abonnés
de l’Internet à haut débit d’échanger des contenus sous copyright, le peer-to-peer va permettre
aux opérateurs :
•
de fournir gratuitement une utilité ayant une immense valeur marchande,
•
de créer, autour de cette utilité, des effets de réseau, autrement dit des dynamiques
d’utilité croissante avec le nombre des utilisateurs,
•
de susciter un appétit croissant pour la capacité des réseaux offrant ces utilités,
•
de structurer la demande et de fidéliser les clients autour du service d’accès,
•
de contourner massivement les règles de propriété intellectuelle,
•
d’affaiblir durablement la position des ayants droit des contenus face aux distributeurs.
Le peer-to-peer est ainsi une application exceptionnelle qui cumule deux types d’effets de
95
Livre blanc sur le « Peer-to-Peer »
réseau : elle mutualise, grâce à la décentralisation et à la fragmentation des fichiers, les
ressources rares du réseau que sont les serveurs et le débit, autrement dit elle fait en sorte que
plus il y a d’internautes et plus les fichiers sont aisément distribués; elle offre ensuite à ces
internautes l’accès, sans aucune limitation d’usage, à de plus en plus de contenus gratuits
contournés. Qui profite alors de ces externalités ?
3.2 – Les contenus diffusés par peer to peer subventionnent les infrastructures
La caractéristique de cette situation est qu’elle met en scène une innovation technique
génératrice d’effets de réseau dans une chaîne de biens complémentaires regroupant des
équipements terminaux, des infrastructures de transport et d’accès, et des biens informationnels
propriétaires. Formellement, cette situation ne diffère nullement du déploiement de la radio
ou de la télévision dans lequel les effets de réseau des contenus, financés grâce aux recettes
publicitaires,
incitaient
les
diffuseurs
à
déployer
leurs
infrastructures
et
les
consommateurs à acheter des équipements terminaux : des postes de radio et des
téléviseurs. La différence essentielle réside dans le mode de tarification et le respect de la
propriété intellectuelle.
En effet, le peer-to-peer crée une demande d’élévation des débits, une demande additionnelle
d’équipements associée au relèvement de leur utilité, et, bien entendu, une demande fortement
croissante de contenus. Si les deux premières sont aisément servies par le marché de la
fourniture d’accès et de l’informatique grand public, la troisième échappe aux transactions
commerciales. En d’autres termes l’utilité des contenus obtenus en peer-to-peer est
entièrement transférée, sans contrepartie financière, à la chaîne amont de l’accès. Les
contenus subventionnent ainsi en nature le déploiement des infrastructures et des
équipements d’Internet. L’industrie des contenus subit une externalité négative, une
pollution due à l’émission croissante de produits gratuits contournés.
3.3 – 1 milliard d’euros détournés au profit des fournisseurs d’accès et
d’infrastructures
Nous avons tenté, dans une étude publiée en janvier 200444, de mesurer la valeur du transfert
d’utilité, autrement dit les montants de la subvention en nature reçue par les fournisseurs
d’accès. Le raisonnement est le suivant : sachant que 1999 est, en France, l’année du décollage
de l’accès à Internet en bas débit et que 2002 est l’année où les abonnements en haut débit se
substituent massivement aux abonnements en bas débit, nous avons cherché à mesurer quel
44
O.Bomsel, J.Charbonnel, G.Le Blanc, A.Zakaria : « Enjeux économiques de la distribution des
contenus » Recherche Contango-Riam, Cerna Ecole des Mines de Paris, 2004.
96
Livre blanc sur le « Peer-to-Peer »
surplus les consommateurs étaient prêts à payer pour obtenir le haut débit : la comparaison des
tarifs fait apparaître un différentiel de 20 euros entre le prix mensuel de l’accès bas débit et le
prix de l’accès haut débit.
La question est ensuite de savoir à quelle utilité correspond ce différentiel de 20 euros par mois
encaissé pour les deux services. Les études menées par les cabinets spécialisés montrent que les
usages privilégiés par les consommateurs du haut débit concernent en priorité la consommation
de contenus, même si, par ailleurs, ils profitent de la connexion permanente pour des
applications de communication. Cette analyse est confirmée par le fait que dans cette période,
près de 90% de la bande passante d’Internet est utilisée pour des échanges en peer-to-peer. On
peut donc raisonnablement en déduire qu’au moins 50% du différentiel de prix entre les deux
services est imputable à l’usage du peer-to-peer. En d’autres termes, la subvention en nature des
contenus équivaut au moins à dix euros par mois, soit 120 euros par abonné et par an. Sachant
qu’en 2006, le seuil des dix millions d’abonnés à Internet en haut débit a été atteint en France et
que les débits n’ont cessé de croître depuis 2004, ce transfert d’utilité au bénéfice de l’accès
dépasse le milliard d’euros. Ce transfert s’étend, en outre, à tous les fabricants
d’équipements et de logiciels concourant à l’accès gratuit aux contenus. Les ordinateurs
personnels, les lecteurs MP3, mais aussi l’ensemble de leurs fournisseurs, aux premiers
rangs desquels Microsoft et Intel, profitent de la rente et des effets de réseau qui
l’accompagnent. Comme dans le cas de l’accès, le surcroît d’utilité permet à tous ces
acteurs de vendre davantage et plus cher leurs produits.
3.4 – Corrélation entre piratage et baisse des revenus ?
L’originalité de cette subvention est qu’elle ne s’adresse qu’aux utilisateurs du peer-to-peer,
autrement dit qu’elle permet d’offrir les ordinateurs et l’accès à un prix correspondant au
consentement-à-payer du consommateur privilégiant les usages légaux, et d’atteindre sans
baisse de prix d’autres utilisateurs primant le peer-to-peer. Il s’agit donc d’une subvention
discriminée, bien moins coûteuse pour l’industrie de l’accès qu’une baisse de tarif générale
accordée à tous les consommateurs.
L’autre versant de la subvention est évidemment l’externalité négative, la pollution, engendrée
dans l’industrie des contenus. La difficulté, compte tenu du renouvellement permanent des
contenus et de la nature éminemment volatile de leur demande, est d’établir la corrélation entre
le piratage et une baisse éventuelle de revenus. L’interprétation contestable de telles corrélations
a donné lieu, comme dans le cas de l’effet de serre, à de nombreuses controverses. Ainsi, si l’on
observe un lien statistique entre déploiement du haut débit et baisse des ventes de disques, les
supporteurs du peer-to-peer l’assignent à une désaffection naturelle du support causée par le
97
Livre blanc sur le « Peer-to-Peer »
manque de renouvellement de la création musicale et la désutilité croissante du regroupement
des titres. Il est, de même, difficile d’établir que, pour des contenus très demandés, la
dissémination gratuite en peer-to-peer ne constitue pas une subvention d’effets de réseau.
Certains tubes, dont le fameux « Coup de boule» de l’été 2006 en France, sont désormais lancés
et popularisés par les réseaux de peer-to-peer.
3.5 – Le peer to peer favorise la production de certains types de contenus
Les économistes disposent cependant d’arguments échappant à la casuistique. Hal Varian, l’un
des pionniers de l’économie numérique, a notamment proposé une évaluation du coût social du
partage, i.e. une caractérisation des biens qui ne peuvent être produits en raison de l’existence
de mécanismes de partage45. Dans un modèle à la fois simple et solide engageant un producteur
monopoliste (hypothèse permettant d’examiner la question de la variété et de l’étendue de la
gamme des biens produits), une population répartie entre participants aux réseaux de peer-topeer et une fraction non intéressée ou n’ayant pas accès à cette solution, et des coûts de
transaction proportionnels au nombre d’utilisateurs du réseau partagé, il met en évidence un
résultat significatif. Les biens peu coûteux et peu valorisés sont naturellement protégés du
partage car les coûts de transaction (la recherche et l’information sur le bien) excèdent les
bénéfices. Ils seront donc produits qu’il y ait partage ou non. Les biens très coûteux à
développer et disposant d’une faible base de clientèle, mais bien valorisés, seront aussi produits
car il s’en vendra assez pour couvrir les frais fixes. A l’inverse, les biens de valorisation
moyenne, à coûts de développement élevés et faible cible de clients, sont perdus. On retrouve
ici une catégorie familière de la diversité des contenus : les œuvres répondant aux goûts
spécifiques d’une population locale, et ne bénéficiant pas de la valorisation des hits ou des
blockbusters, ni des effets de réseau correspondants. Le peer-to-peer incite à l’exploitation
intense et ultra-rapide de produit très commerciaux. Il pénalise prioritairement les
produits moyennement coûteux à marché étroit, parmi lesquels se trouvent aussi des
produits innovants à fort risque commercial.
3.6 – Renforcement de la concentration et des blockbusters
Cette tendance s’observe sur tous les marchés de contenus contournés. Le piratage intensifie les
conditions de concurrence entre industriels des contenus, favorisant les industries les plus
concentrées disposant de marchés très vastes. Le déploiement du peer-to-peer renforce la
concentration des maisons de disques et leur focalisation sur un petit nombre de produits
à forte notoriété. Dans le cinéma et la télévision, il resserre les « fenêtres » d’exploitation des
45
Hal Varian « The Social Cost of Sharing », Berkeley University, Conference on Peer-to-Peer
economics. 2002.
98
Livre blanc sur le « Peer-to-Peer »
versions en réduisant notamment la prime donnée à l’exclusivité temporelle des premières
diffusions. Les délais d’exploitation des films en salle s’en trouvent resserrés et les marchés
ultérieurs réduits. Ces effets pénalisent davantage les industries moyennes opérant sur des
marchés linguistiques limités. A plus long terme, comme le montre l’exemple du MP3, la
circulation massive de fichiers en format ouvert favorise le déploiement d’équipements
contournants et de bibliothèques numériques partageables qui risquent d’élever encore les coûts
d’exclusion, i.e. des moyens de protection technique de la propriété intellectuelle.
3.7 – Risque pour la diversité culturelle
Néanmoins, pour le grand public, les effets négatifs sur les contenus ne sont pas clairement
perceptibles à court terme, tandis qu’au contraire, les primes du déploiement du haut débit sont
à valeur immédiate. Dans ce contexte, aggravé par une incompréhension profonde de
l’économie des contenus, les politiques en charge de défendre l’intérêt général ont eu du mal à
prendre la mesure exacte du problème, et, conséquemment, à rendre un arbitrage acceptable par
leurs électeurs. C’est ainsi que, malgré certaines cassandres46, l’influence croissante des
bénéficiaires du peer-to-peer — ceux dont les marchés capturent les effets de réseau et les
offrent en partage au consommateur — a occasionné le retard, l’hostilité démagogique et, pour
finir, la maladresse fâcheuse des politiques dans l’adaptation du droit de propriété à l’environnement numérique. La France de l’exception culturelle s’est alors trouvée dans la situation
humiliante — quoique, hélas, déjà vue — où les industriels d’Hollywood, favorisés par ailleurs
dans la concurrence internationale, sont venus quotidiennement supplier les politiques de bien
vouloir défendre l’intérêt national47.
4. Les buts de guerre
Mais, on le devine, le déploiement est un jeu à deux phases dont la première est celle du gratuit.
Le peer-to-peer n’échappe pas à cette règle. De quelle guerre alors est-il le cheval de Troie ?
Qui sont, au bout du compte, les Hellènes embarqués dans ses flancs ? Que veulent-ils ?
4.1 – Scénarii de légalisation des échanges peer to peer
L’idée a couru un temps que le peer-to-peer allait se déployer comme un service de diffusion en
46
Dont nous-même, évidemment. O. Bomsel, G. Le Blanc, « Remèdes au contournement de la propriété
intellectuelle » Problèmes Economiques, 2004.
47
Au cours du premier semestre 2006, les représentants de la Motion Picture Association of America
(MPAA) et les patrons des studios d’Hollywood ont en effet suivi quotidiennement les procédures
engagées auprès des tribunaux sur la copiabilité des DVD ainsi que le débat parlementaire sur la
transposition de la directive européenne sur le droit d’auteur.
99
Livre blanc sur le « Peer-to-Peer »
clair engendrant, pour le consommateur, un certain nombre de nuisances : publicité, spams,
risque de virus, incertitude sur la qualité des fichiers, et, potentiellement, des risques de
procès… Le cumul de ces désutilités est supposé susciter, à terme, un consentement-à-payer
pour un service sécurisé, fiable et légal. Cette philosophie a sous-tendu, d’un côté, la
revendication de certains opérateurs de peer-to-peer d’obtenir la licence légale48 et, de l’autre,
les modèles d’affaires de sociétés comme KaZaa, qui a annoncé son intention d’intégrer la
distribution légale.
4.2 – Augmenter la désutilité du téléchargement illégal
En fait, la désutilité du peer-to-peer gratuit dépend de la nature, de la taille des fichiers, du
procédé de téléchargement, et de la sévérité de la répression du piratage. La désutilité associée
au téléchargement d’un fichier musical dégradé est moins grande que celle d’un film, téléchargé
durant plusieurs heures. Elle est maximale pour un jeu vidéo dont les fonctionnalités sont liées à
la transcription extensive de toutes les lignes de code. Ceci explique que les éditeurs de jeu
vidéo redoutent bien davantage la copie physique de leurs disques que le piratage sur le peer-topeer. Certains jeux vidéo en réseau, dont le célèbre World of Warcraft, utilisent couramment le
peer-to-peer pour délivrer des mises à jour de leurs programmes. Néanmoins, les jeux
proprement dits sont aujourd’hui principalement vendus sur des supports physiques et donnent
lieu à des systèmes de paiement séparés.
Le peer-to-peer est donc largement perçu comme un système de distribution adapté à
l’environnement d’Internet, mais dont les usages illicites fragilisent la propriété et, plus
grave, renchérissent le coût de son application. Or ce coût doit être supporté par
l’industrie des contenus et leurs distributeurs loyaux. Et donc, au final, par le
consommateur. En outre, le mode de déploiement associant débit et contenus gratuits
structure un consentement-à-payer pour l’accès, le tuyau, plutôt que pour les services. En
conséquence, le développement du peer-to-peer profite indéniablement au déploiement des
infrastructures, mais défavorise Internet lorsque celui-ci concourt avec d’autres systèmes
de distribution. C’est le cas, notamment pour les contenus audiovisuels : le déploiement de
l’Internet à haut débit s’inscrit, on l’a dit, dans une compétition entre plusieurs systèmes
de distribution.
Les ayants droit ont donc intérêt à freiner la pénétration du peer-to-peer dès lors qu’elle ne leur
48
Fin septembre 2003, l’association “peer-to-peer United” rassemblant un certain nombre d’acteurs du
peer-to-peer (LimeWire, Grokster, Blubster, etc...) a saisi le Congrès américain en vue d’établir un code
de bonne conduite aboutissant à la licence légale. (Reuters). En France, fin Novembre 2003, l’Association
des Auteurs, Musiciens, Interprètes (ADAMI) a pris position en faveur de la licence légale pour le peerto-peer. En 2005, l’UFC Que Choisir a également adopté cette position.
100
Livre blanc sur le « Peer-to-Peer »
garantit pas l’accès à de nouveaux marchés. Leur volonté d’assigner les consommateurs vise
ainsi à accroître la désutilité du piratage. Il est en effet illusoire de prétendre réprimer tous les
utilisateurs de peer-to-peer. Néanmoins, le risque de procès abaisse l’utilité du gratuit et doit,
idéalement, relever le consentement-à-payer du consommateur pour des offres payantes en ligne
ou ailleurs. D’un point de vue économique, l’espérance mathématique de la sanction, autrement
dit la probabilité d’une poursuite multipliée par le montant de l’amende, éventuellement
augmenté d’autres ennuis encourus, s’ajoute aux autres facteurs de désutilité : plus celle-ci est
élevée et plus les offres légales sont revalorisées. En revanche, l’accroissement de la désutilité
du peer-to-peer réduit la subvention au déploiement des débits. Ce qui se joue alors dans
l’encadrement judiciaire du peer-to-peer est le mode d’insertion d’Internet dans la compétition
multisystèmes. Le droit, en la matière, reflète le rapport de force des acteurs dans cette
compétition.
4.3 – La situation aux Etats-Unis
Aux Etats-Unis où le peer-to-peer sert avant tout les câblo-opérateurs distributeurs de contenus,
ceux-ci n’ont nullement intérêt à ce qu’Internet pollue trop gravement leur activité principale.
Le piratage, fût-il occasionnel, est sévèrement réprimé. Les détenteurs de droits ont, en outre,
obtenu de la Cour Suprême, en juillet 2005, un arrêt historique condamnant les logiciels de
peer-to-peer incitant les consommateurs à contourner les droits de propriété intellectuelle. Cet
arrêt, prononcé dans l’affaire de la plainte de la MGM contre Grokster, fait date en ceci qu’il
brise une jurisprudence par laquelle des innovations portant potentiellement préjudice aux
contenus étaient néanmoins encouragées. C’est ainsi qu’était interprété le fameux arrêt de 1983
opposant Sony aux studios Universal et Disney, ces derniers demandant l’interdiction du
magnétoscope Betamax : la Cour Suprême avait, au terme de huit ans de procédure, fait droit à
Sony, au motif que le magnétoscope n’était pas exclusivement destiné à copier des contenus. La
Cour entendait ainsi encourager les innovations techniques indépendamment d’effets externes
sur la valeur des contenus. Les studios avaient alors réagi en privilégiant le standard VHS,
concurrent de celui de Sony, mieux adapté à la vente des cassettes vidéo pré-enregistrées. De là
s’est déployé le marché de la VHS, relayé depuis par celui du DVD, très profitable à l’industrie
des contenus. L’arrêt Sony vs. Universal et ses conséquences économiques a été, jusqu’en 2005,
régulièrement invoqué pour débouter les studios face aux promoteurs du peer-to-peer.
4.4 – Le développement d’une technologie ne peut s’appuyer sur des « contenus
volés »
L’arrêt de 2005, prononcé à l’unanimité des neuf juges, a engendré la fermeture immédiate de
Grokster et l’abandon de son logiciel d’échange. Même si ses règles d’application demeurent
101
Livre blanc sur le « Peer-to-Peer »
ambiguës, notamment dans le cas de logiciels libres, cette décision est significative à deux
égards. D’un point de vue économique, elle revient sur le signal de 1983, indiquant, cette fois,
que le contournement de la propriété intellectuelle, autrement dit le vol, ne peut être
l’incitation principale de l’innovation technique. L’admettre reviendrait, en effet, à biaiser un
processus essentiel de la dynamique du capitalisme, la fameuse destruction créatrice explicitée
par Schumpeter49. Car, s’il est logique que l’innovation technique périme des innovations
antérieures et détruise des actifs industriels obsolètes, il n’y a pas lieu qu’elle détruise de la
propriété non scientifique ou utilise son contournement comme une incitation. Il revient
alors au droit, c’est le sens du jugement, d’apprécier la nature économique du mécanisme.
L’autre conséquence de l’arrêt est de donner aux studios et aux câblo-opérateurs les moyens
juridiques de fixer le moment et les modalités par lesquelles ils réduiront la subvention du peerto-peer et articuleront la distribution par Internet à la distribution par le câble. Car le peer-topeer, s’il permet, d’un côté, de déployer de nouvelles infrastructures et des équipements
terminaux, introduit, par ailleurs, un aléa moral dans toute la chaîne de distribution des
contenus : il incite alors les distributeurs numériques à s’abriter derrière cette pratique pour ne
pas faire leurs meilleurs efforts de vente, ou pour détourner la valeur des contenus vers les
équipements. La décision de donner aux ayants droit les moyens de restreindre l’aléa moral de
leur distribution est un choix politique : elle réaffirme la primauté des règles de propriété
intellectuelle sur les objectifs de diffusion massive, autrement dit le principe de l’internalisation
des effets de la création intellectuelle par les industries de contenus. On observe, en 2006, que la
bande passante d’Internet occupée par le peer-to-peer aux Etats-Unis est en recul, notamment
pour le trafic descendant : les abonnements Internet y coûtent plus cher qu’en Europe pour des
débits bien moindres et les échanges en peer-to-peer n’occupent que 48 % de la bande passante
descendante50. Ces chiffres sont, en outre, très inférieurs à ceux observés en Europe51.
4.5 – En France, la primauté économique reste accordée aux industries
d’équipement
La situation européenne est moins claire, notamment dans les pays où Internet est associé aux
télécoms. La première raison se trouve dans l’asymétrie existant entre des industries de
contenus éparpillées et dépendantes des Etats et le secteur des technologies de l’information
emmené par l’industrie des télécoms. A cette inégalité structurelle s’ajoute l’inadéquation des
49
Schumpeter décrit en effet le processus d’innovation comme une démarche tirée par la compétition
pour l’efficacité productive ou fonctionnelle. Voir O.Bomsel, A.G. Geffroy, « DRM, Innovation and
Creation » Communications and Strategies, n°62, second quarter 2006.
50
Selon Sandvine, fournisseur de solutions Internet, 48 % de la bande passante descendante et 76 % de
bande passante montante sont occupés par le peer-to-peer aux Etats-Unis.
102
Livre blanc sur le « Peer-to-Peer »
représentations économiques aux enjeux de compétitivité des industries culturelles. La vision
productiviste dominante profite entièrement aux industries d’équipement qui incarnent le
progrès technique et social des innovations numériques. Ce rapport de force permet aux
détenteurs d’infrastructures et à leur clientèle, bénéficiaire des contenus gratuits, de peser
activement dans le débat politique. Que font, en effet, les jeunes internautes si ce n’est soutenir
la marche du progrès ? Les associations de consommateurs ne sont d’ailleurs pas en reste qui se
sont prononcées, en France, pour la licence légale. A défaut de l’obtenir, elles cautionnent de
la sorte une tarification abusive de l’accès qui fait payer à tous, le débit consommé par les
contrefacteurs. Tous les consommateurs ne se trouvent pas ainsi également défendus.
4.6 – Derrière les contenus, affrontement des détenteurs d’infrastructures
En outre, même si le but ultime des fournisseurs d’accès est de distribuer des contenus sur le
modèle du câble, les détenteurs d’infrastructures n’ont rien à perdre, à court terme, au
contournement des droits. Au contraire, il doit leur permettre de renforcer leur pouvoir de
marché dans la relation verticale qui les oppose déjà aux ayants droit. Plus il y aura d’abonnés à
l’ADSL et plus les conditions de distribution des contenus seront favorables aux opérateurs
télécoms. Cette situation a d’ailleurs contribué, en 2006, au rapprochement de Canal + et TPS,
les deux plates-formes françaises de télévision payante. La fusion permet notamment la
concentration des catalogues de films et l’accroissement du pouvoir de marché de la télévision
sur l’achat des droits audiovisuels. Comme aux Etats-Unis, la question fondamentale associée
au peer-to-peer, autrement dit, au respect de la propriété intellectuelle, est de savoir comment et
au bénéfice de qui se décide le passage à la seconde phase du jeu. L’application du droit donne,
en cette matière, le contrôle de la subvention. La passe d’armes de l’été 2006 entre le Ministre
français de la Culture et le Conseil Constitutionnel au sujet de la répression de la contrefaçon a
porté très précisément sur ce point : la sévérité de la répression de la contrefaçon est le
paramètre-clé de la désutilité du peer-to-peer, et donc du rapport de force entre ayants droit
et distributeurs. Appliquer la loi commune revient à laisser aux ayants droit le soin de réguler la
subvention. Réclamer une exception transfère ce pouvoir aux réseaux.
Quelle que soit l’issue de ce bras de fer, il est clair qu’au bout du compte ce seront les contenus
audiovisuels qui bénéficieront du déploiement de l’infrastructure filaire, car ce sont eux qui, sur
le long terme, engendrent les effets de réseau les plus forts. Seule, la musique qui ne dispose pas
de distribution dématérialisée alternative, n’aura pas cette latitude. Son contournement par
Internet risque de se prolonger, d’autant plus que les équipementiers ont intérêt à faire durer la
51
La France détient le record des pays européens avec 85 % de la bande passante descendante et 90 % de
la bande passante montante. Etude Sandvine 2005.
103
Livre blanc sur le « Peer-to-Peer »
guerre des standards qui les oppose dans les DRM.
Mis en concurrence avec des systèmes de distribution équivalents au câble, Internet devra alors
faire la preuve de son efficacité commerciale. Au final, sa polarisation sur des fonctions
d’échange handicape sa capacité à distribuer des contenus propriétaires et concentre ses effets
de réseau sur le partage d’informations privées, à des coûts sans cesse décroissants. Grâce au
système wi-fi, il est déjà le substitut du mobile dans l’échange de données sans fil. Le peer-topeer appliqué à la voix — Skype — en fait un substitut du téléphone classique. Il deviendra
bientôt un rival du téléphone mobile. De plus en plus utile et de moins en moins cher,
Internet risque alors d’apparaître comme tous les vecteurs de gratuité : le cheval de Troie
de services payants sur un support groupé, le câble.
104
Livre blanc sur le « Peer-to-Peer »
Chapitre 6
Le cadre juridique applicable à la
protection des contenus en ligne et au
« peer to peer »
Pierre Sirinelli
105
Livre blanc sur le « Peer-to-Peer »
I – Introduction – Les échanges peer to peer ont-il besoin d’un cadre
spécifique ?
Evoquer le cadre juridique applicable aux échanges peer-to-peer peut a priori surprendre.
Certes, il est possible d’imaginer que ces échanges relèvent tant des règles applicables aux
contenus (pour l’essentiel la propriété littéraire et artistique, mais pas uniquement) que de celles
concernant les « tuyaux » ou les personnes intervenant peu ou prou dans le processus de
communication. De ce point de vue, la loi (n° 2004-575) pour la confiance dans l’économie
numérique (LCEN), du 21 juin 2004, fournit (non exclusivement) un cadre qui retient
l’attention.
Mais, à la vérité, les échanges « pair à pair » n’ont pas de statut particulier. Ils relèvent, par
exemple, purement et simplement du droit commun du droit d’auteur. La neutralité de la
technologie peer-to-peer interdit dans un premier temps d’envisager la question, de façon
particulière. En réalité, cette technique n’est ni licite ni illicite par elle-même, seuls doivent
être pris en considération les usages qui en sont faits.
Cette neutralité technologique pourrait expliquer le silence de la directive du 22 mai 2001 à
propos de ce mode d’échange. Toutefois, la discrétion du texte communautaire à ce propos a
une explication plus prosaïque : Le P2P était tout simplement méconnu au moment où la
directive a été négociée en sorte que personne n’a songé à appréhender la question
(l’observation est, naturellement, encore plus exacte s’agissant des Traités de l’OMPI du 20
décembre 1996, parfois appelés « Traités Internet » et en partie à l’origine de la directive).
1.1 - Un « phénomène culturel et social » que le législateur ne pouvait plus ignorer
Comment expliquer, alors, que le législateur français, qui n’était donc en rien tenu par l’examen
de pareille question, se soit malgré tout emparé de la difficulté ? L’une des raisons de cette
attention réside sans doute dans le constat que le thème était devenu un vrai débat de société au
confluent de fortes attentes, d’intérêts antagonistes et d’enjeux économiques non négligeables.
Ce qui a eu pour conséquence que des propositions, souvent opposées, émanant de différents
acteurs, lui ont été présentées en sorte qu’il a pu paraître souhaitable d’arbitrer cette controverse.
Il est vrai que les débats, dont la presse non spécialisée s’est largement faite l’écho, mêlaient
nombre de paramètres : l’engouement des internautes pour pareille distribution des œuvres de
l’esprit, les craintes des industries culturelles face aux échanges non autorisés, des analyses
économiques (peu souvent concordantes) des pertes occasionnées par de pareils actes, les
actions intentées par les ayants droit, la condamnation d’internautes ou encore celle, aux États-
106
Livre blanc sur le « Peer-to-Peer »
Unis ou en Australie, d’éditeurs de logiciels permettant ces pratiques et faisant de ces dernières
un business model, les revendications des consommateurs et les déclarations de certains
hommes ou femmes politiques à l’approche d’élections nationales… Le tout sur fond
d’équipement de la France et d’entrée du pays dans le 21ème siècle et la société de l’information.
Cette dernière étant présentée comme le principal gisement d’emplois, il était difficile à la
France, en retard dans le processus de transposition, de laisser penser que la question pouvait
être ignorée. Le Parlement chargé de légiférer pouvait, en outre, se considérer comme éclairé
par nombre de travaux, notamment ceux du Conseil supérieur de la propriété littéraire et
artistique (CSPLA). Ce dernier a réuni, pendant plus d’un an, des professionnels de tous
horizons mais aussi des consommateurs ou des représentants d’associations des familles, pour
envisager les voies qu’il était possible d’explorer pour faire face à ce phénomène social et
culturel. Le rapport52 qui a été adopté à la suite d’un examen des aspects techniques,
économiques, sociologiques et juridiques a conduit au rejet de certaines solutions et à quelques
propositions.
L’idée maîtresse de ces travaux - et de cette plus modeste étude - est qu’il n’est pas du tout
souhaitable de combattre en soi la technologie de pair à pair qui, non seulement, est
susceptible d’être une chance pour les industries culturelles de demain mais qui peut, en
outre, tout en répondant à un fort appétit de consommation d’œuvres, fournir l’occasion à
de nombreux artistes de se faire connaître ou de sortir de l’ombre où ils se sentaient
enfermés.
1.2 - La solution de la licence globale finalement écartée
Certains parlementaires ont eu le sentiment qu’il fallait traiter le phénomène en légalisant les
échanges non autorisés par les ayants droit tout en tentant de compenser les pertes que pareils
actes pouvaient occasionner. L’idée leur en était venue après les travaux de l’« Alliance »53
désireuse de créer une « licence globale ». L’examen de pareille construction avait eu lieu en
CSPLA54 qui ne l’avait pas retenue pour plusieurs raisons. En premier lieu, à cause de la
difficulté à admettre que ce système – qui créait un cas de gestion collective obligatoire pour la
52
Rapport de la commission relative à la distribution des contenus numériques, La Documentation
française, Consultable en ligne : < http://www.culture.gouv.fr/culture/cspla/index-cspla.htm >. Voir
aussi. l’avis adopté au mois de décembre 2005 : < http://www.culture.gouv.fr/culture/cspla/indexcspla.htm >.
53
l’Alliance Public-Artistes regroupe, d’un côté, des représentants d'artistes-interprètes (sociétés de
gestions collective, associations et syndicats : ADAMI, SPEDIDAM, FNS, SAMUP, SNM FO, UMJ,
Qwartz), de certaines catégories d'auteurs (SAIF, UPC, SNAP CGT), et de l’autre, les consommateurs
(CLCV, UFC Que Choisir, Association des Audionautes), la Ligue de l'enseignement et les familles
(UNAF).
107
Livre blanc sur le « Peer-to-Peer »
mise à la disposition des œuvres et leur téléchargement ascendant (upload) et reposait sur la
qualification, quelque peu forcée, du téléchargement descendant (download) en copie privée –
était conforme aux engagements internationaux de la France. En deuxième lieu, parce que les
analyses économiques montraient que la construction reposait davantage sur une logique
compensatoire (au demeurant insuffisante dans son volume) plutôt que sur une incitation à
l’investissement, ce qui, à terme, pouvait tarir la création. En troisième lieu, parce que si l’idée
paraissait simple dans son principe, elle reposait sur des hypothèses plus complexes dans
lesquelles l’internaute, le fournisseur d’accès ou les ayants droit avaient dû mal à s’y retrouver.
Système obligatoire ou optionnel ? Limité à certaines catégories d’œuvres ou général ? Avec
des restrictions dans le temps ?…
En définitive pour séduisante qu’elle soit au premier abord - y compris pour le signataire de ces
lignes, lui-même consommateur -
la licence globale suscitait autant de difficultés qu’elle
paraissait en résoudre. Destinée à être une solution de simplicité, elle était loin de présenter cette
qualité en sorte que ces divers constats, joints à l’observation de l’impossibilité (et, à tout le
moins de l’inopportunité) de son admission sur le plan juridique, ont conduit à son rejet par le
Parlement.
1.3 - Difficultés de mise en place d’un système de « réponse graduée »
Parallèlement à cette démarche, les professionnels de l’industrie cinématographique et les
fournisseurs d’accès envisageaient la possibilité de mettre sur pied un système de « réponse
graduée »55. L’idée qui dominait pareille construction était de faire d’abord prendre conscience
à l’internaute de l’illégalité de certains des actes accomplis. Après plusieurs avertissements,
prenant diverses formes, du courriel à l’envoi d’une lettre recommandée, la poursuite de pareils
actes pouvait entraîner la mise en œuvre de sanctions financières. La réponse graduée se
voulait donc progressive, pédagogique et dissuasive. Elle n’a pas obtenu le succès attendu par
ses promoteurs pour des raisons de forme et de fond. Quant au fond, les textes qui devaient la
mettre en œuvre étaient complexes à écrire et certaines réserves se faisaient jour ici ou là. Le
retard pris dans la rédaction a entraîné une procédure peu appréciée des parlementaires puisque
l’amendement de plusieurs pages qui devait être soumis aux députés n’a été connu de ces
derniers que la veille de l’ouverture des débats. Un travail de sape présentant cette
construction comme totalement liberticide a tôt fait de lui ôter toute chance d’un examen
serein. Il est vrai que la première désignation de ce système était celle de « riposte graduée »,
54
Rapport de la commission relative à la distribution des contenus numériques, La Documentation
française, Consultable en ligne : < http://www.culture.gouv.fr/culture/cspla/index-cspla.htm >.
55
Sur la question : < http://www.sacd.fr/actus/positions/2005/notevod_150206.pdf >.
108
Livre blanc sur le « Peer-to-Peer »
expression évoquant la crise de Cuba et les possibilités d’escalade nucléaire. D’aucuns se sont
emparés de ce parallèle pour présenter la proposition comme érigeant un système totalement
répressif, ce qui était au rebours de l’intention de ses concepteurs, et se sont interrogés tout haut
sur les difficultés de mise en œuvre. Quid de l’opinion de la CNIL ? Qui supportera les coûts
des avertissements ? À qui s’adresse-t-on ? Aux abonnés ? Aux internautes ? Ces problèmes
joints aux accusations de vouloir créer une « police privée de l’Internet » ont eu raison de
cette idée à l’époque.
La question se pose néanmoins de la poursuite des travaux sur ce sujet de façon à compléter les
dispositifs existants pour ce qui concerne la grande masse des actes illicites commis.
Comment donc essayer de favoriser l’essor d’échanges « pair à pair » sécurisés et légaux ?
1.4 - L’esprit de la loi du 1er août 2006
Même si la loi du 1er août 2006 porte moins la trace de ce mouvement que la loi votée le 30 juin
2006, en raison de la censure du Conseil constitutionnel intervenue le 27 juillet 2006, la
construction peut être présentée comme étant articulée autour de deux axes : des efforts pour
tenter de tarir les cas de contrefaçon dans l’amont (A) et, dans l’hypothèse d’actes illicites
persistants (mais il est vrai que la loi n’impose aucune approche chronologique), le prononcé de
sanctions mesurées en aval (B).
Présenté à tort comme un dispositif destiné à accentuer la répression, l’ensemble des solutions
adoptées révèle plutôt un souci de prévention : mieux vaut tenter d’éviter les hypothèses
d’utilisations illicites que de penser pouvoir les éradiquer par une seule logique de sanction. Au
demeurant, s’il faut, en désespoir de cause, envisager cette dernière dimension, autant que cela
soit à l’encontre de ceux qui (pour reprendre le sous-titre de cette étude) profitent de la situation.
Ceux dont le modèle économique est clairement l’incitation à la contrefaçon. L’idée générale
est d’éviter que l’offre légale émergente ne soit concurrencée de façon déloyale par les
échanges illicites. S’il faut encourager les échanges P2P, cela ne peut se faire qu’en la
protégeant d’activités parasitaires et en offrant aux consommateurs un cadre sécurisé.
2 - La recherche de solutions visant à tarir les hypothèses de contrefaçon
L’idée majeure de la construction est de tenter de sensibiliser certaines personnes autres que les
internautes : éditeurs de certains logiciels (I) ou bien fournisseurs d’accès, abonnés à l’Internet
(II). L’ensemble proposé veut éviter toute approche dogmatique et ne relève en rien d’une
quelconque « chasse aux sorcières » : il s’agit de trouver des réponses appropriées, mesurées, à
109
Livre blanc sur le « Peer-to-Peer »
une question redoutablement complexe.
2.1 - La sensibilisation des éditeurs de logiciels permettant les échanges d’œuvres
ou d’éléments protégés
Cette sensibilisation s’articule en deux volets. L’un (a) pénal (art. L. 335-2-1 CPI), l’autre (b)
civil (L. 336-1 CPI).
2.1.1 - Le « volet pénal » : L. 335-2-1 du Code de la propriété intellectuelle
Pas toujours comprise et parfois présentée de façon inexacte, cette construction est inspirée des
jurisprudences américaine (aff. Grokster56) ou australienne (aff. Kaaza57) elle repose sur une
observation de bon sens selon laquelle les éditeurs de logiciels dont le modèle économique est
fondé sur l’incitation à la contrefaçon devraient voir leur responsabilité engagée.
L’article 21 de la loi du 1er aout 2006 a donc inséré, dans le Code de la propriété intellectuelle,
un article L. 335-2-1 ainsi rédigé :
« Est puni de trois ans d'emprisonnement et de 300 000 € d'amende le fait :
« 1° D'éditer, de mettre à la disposition du public ou de communiquer au public, sciemment et
sous quelque forme que ce soit, un logiciel manifestement destiné à la mise à disposition du
public non autorisée d'œuvres ou d'objets protégés ;
« 2° D'inciter sciemment, y compris à travers une annonce publicitaire, à l'usage d'un logiciel
mentionné au 1°.
« Les dispositions du présent article ne sont pas applicables aux logiciels destinés au travail
collaboratif, à la recherche ou à l'échange de fichiers ou d'objets non soumis à la rémunération
du droit d'auteur ».
Les peines encourues sont celles applicables à la contrefaçon. L’idée d’abaisser les sanctions
n’est venue à l’esprit de personne dans la mesure où, d’une part, le délit est intentionnel et où,
d’autre part, ces dernières ne seront pas fréquentes. En effet, pour tomber sous le coup de cette
nouvelle disposition, l’éditeur du programme qui permet les échanges contrefaisants doit
l'éditer, le mettre à la disposition du public ou le communiquer au public, « sciemment ». Il faut,
en outre, que ce programme soit « manifestement destiné à la mise à disposition du public non
autorisée d'œuvres ou d'objets protégés ».
56
57
Propr. intell. 2005, n° 16, p. 347 sq.
Propr. intell. 2005, n° 17, p. 444 sq.
110
Livre blanc sur le « Peer-to-Peer »
Suivant l’alinéa 2, des personnes autres que l’éditeur peuvent voir leur responsabilité engagée,
tous ceux qui incitent à l’usage de pareils logiciels. Encore faut-il que cela soit « sciemment ».
Bien que contesté par certains professionnels inquiets d’éventuelles répercussions de cette
construction sur leur activité ainsi que par les tenants du logiciels libres soucieux de ne pas voir
leur activité d’innovation entravée ou leur logique d’ouverture dénaturée, ce texte est pourtant
l’un des rares à avoir traversé tout le processus parlementaire sans d’importantes modifications.
Il n’innove pas puisque pareilles solutions ont été retenues à l’étranger mais il permet
d’éviter les lourds débats qui auraient pu exister si les actions des ayants droit avaient été
menées sur le terrain plus classique de la complicité par fourniture de moyens.
Par rapport au texte en définitive promulgué, la « petite loi » du 30 juin 2006 ajoutait qu’il ne
fallait pas, pour que puisse être engagée la responsabilité des personnes visées, que le logiciel
concerné soit destiné « au travail collaboratif, à la recherche ou à l'échange de fichiers ou
d'objets non soumis à la rémunération du droit d'auteur ». Ce dernier alinéa ayant été adjoint, à
la suite d’un amendement suggéré, à l’Assemblée nationale, par les tenants des logiciels libres et
maintenu en commission mixte paritaire en dépit de sa disparition au Sénat. L’idée était de
soustraire ce type de programmes du champ de la nouvelle disposition afin de ne pas entraver la
recherche.
Annulation de certaines dispositions de la petite loi par le Conseil constitutionnel
Cette exclusion a cependant disparu à la suite de la décision du Conseil constitutionnel du 27
juillet 2006 après que l’ensemble du dispositif eut vu sa constitutionnalité contestée. Ainsi,
selon le Conseil (considérants 55 sq.) :
55. Considérant que les requérants font valoir que l’imprécision des termes « sciemment» «
manifestement destinés » et « travail collaboratif » méconnaîtrait le principe de légalité des
délits et des peines ; qu’ils ajoutent qu’en ne visant que les « objets et fichiers non soumis à
rémunération du droit d’auteur » la clause d’exonération de responsabilité pénale instaure une
discrimination qui lèse les droits moraux des auteurs ayant renoncé à une rémunération, ainsi
que les droits voisins du droit d’auteur ;
56. Considérant que les termes « manifestement destinés » et « sciemment » sont
suffisamment clairs et précis pour que les dispositions de caractère pénal qui s’y réfèrent ne
méconnaissent pas le principe constitutionnel de légalité des délits et des peines ;
57. Considérant, en revanche, qu’il n’en est pas de même de la notion de « travail collaboratif
» ; qu’en outre, le dernier alinéa de l’article 21 de la loi déférée, qui exonère de toute
111
Livre blanc sur le « Peer-to-Peer »
responsabilité pénale les éditeurs de logiciels destinés au « travail collaboratif » ou à l’échange
de fichiers ou d’objets non soumis à la rémunération du droit d’auteur, n’est ni utile à la
délimitation du champ de l’infraction définie par les trois premiers alinéas de cet article, ni
exhaustif quant aux agissements qu’ils excluent nécessairement ; qu’il laisse, enfin, sans
protection pénale les droits moraux des auteurs ayant renoncé à une rémunération, ainsi que les
droits voisins du droit d’auteur ; qu’il méconnaît donc tant le principe de légalité des délits et 16
des peines que le principe d’égalité ; qu’il doit être déclaré contraire à la Constitution .
Des exigences constitutionnelles pas toutes satisfaites
En résumé, suivant la position constante du Conseil, les exigences constitutionnelles relatives à
la définition des faits punissables sont satisfaites dès lors que l'infraction nouvelle est définie «
en termes suffisamment clairs et précis pour exclure l'arbitraire »
58
et que la loi précise (ou
59
n'exclut pas) l'élément intentionnel . Comme, en l'espèce, les éléments constitutifs des premiers
alinéas sont énoncés sans ambiguïté au moyen de termes qui revêtent tous une acception
juridique certaine, il faut regarder les exigences constitutionnelles comme satisfaites60.
En revanche, le dernier alinéa de l’article 21 de la « petite loi », qui désignait les logiciels
d'échanges ne tombant pas sous le coup de l'incrimination, paraissait moins précis. Le doute
naissait tant des explications successives et contradictoires sur sa signification que de
l'imprécision même de certaines expressions y figurant, comme celle de «travail collaboratif, »
non éclairée par les travaux parlementaires. Ce sont ces considérations (entre autres) qui ont
conduit le Conseil à conclure à la non-conformité de cette dernière disposition aux exigences
constitutionnelles qui, en vertu de l'article 8 de la Déclaration de 1789 et de l'article 34 de la
Constitution, s'imposent à la définition des infractions (et donc des faits justificatifs qui
permettent d'en déterminer le périmètre exact)61.
Par un effet assez paradoxal, la saisine du conseil constitutionnel a eu un effet contraire à celui
recherché par les auteurs de la saisine ! Alors que ces derniers souhaitaient voir disparaître tout
l’article 21 et donc voir anéantie toute la construction pénale, le texte nouveau contient
désormais une incrimination plus large que celle voulue par le Parlement !
58
n° 80-127 DC, 20 janvier 1981, cons. 7 ; n° 84-176 DC, 25 juillet 1984, cons. 6 ; n° 98-399, 5 mai
1998, cons. 7 ; n° 2001-455, 12 janvier 2002, cons. 82 ; n° 2004-492, 2 mars 2004, cons. 5
59
n° 99-411 DC, 16 juin 1999, cons. 16 ; n° 2003-467 DC, 13 mars 2003, 64 et 65, 73 et 75 ; n° 2003484, 20 novembre 2003, cons. 42
60
Cahier du Conseil constitutionnel, n°21
61
Cahier du Conseil constitutionnel, n°21
112
Livre blanc sur le « Peer-to-Peer »
2.1.2 - Le volet civil : l’article L. 336-1 du CPI
Le volet civil (issu de l’article 27 de la loi du 1er août 2006) a son siège plus loin dans le Code
de la propriété intellectuelle. La place de cette nouvelle disposition (article L. 336-1 CPI) n’est
pas neutre puisque elle est insérée dans un nouveau chapitre, VII, consacré à la « Prévention du
téléchargement illicite ». Il s’agit donc moins de punir que d’empêcher les actes illicites.
Suivant ce texte, « lorsqu'un logiciel est principalement utilisé pour la mise à disposition
illicite d'œuvres ou d'objets protégés par un droit de propriété littéraire et artistique, le
président du tribunal de grande instance, statuant en référé, peut ordonner sous astreinte
toutes mesures nécessaires à la protection de ce droit et conformes à l'état de l'art.
« Les mesures ainsi ordonnées ne peuvent avoir pour effet de dénaturer les caractéristiques
essentielles ou la destination initiale du logiciel.
« L'article L. 332-4 est applicable aux logiciels mentionnés au présent article ».
Présenté parfois comme destiné à créer un système de responsabilité du fait d’autrui ou une
hypothèse de responsabilité sans faute, cet article ne poursuit pourtant pas de pareils objectifs.
À l’instar de ce qui existe déjà dans l’environnement numérique, il n’instaure pas un régime de
responsabilité a priori mais soumet certaines personnes à une obligation de dialogue ou de
coopération avec l’autorité judiciaire. Certes, il vise le cas de logiciels « dévoyés » et
contraint certaines personnes, à la demande du juge des référés, à prendre certaines
mesures pour éviter des actes de contrefaçon accomplis par l’intermédiaire de
programmes servant à des échanges de pair à pair illicites. Certes, l’inertie de la part de
ces personnes après la décision du juge est susceptible d’entraîner le prononcé des
sanctions, mais dans quel domaine est-il permis d’ignorer une décision de justice ?
Il est vrai, cependant, que la personne qui aura, par exemple, édité un programme utilisé contre
toute attente à des fins de contrefaçon peut voir sa responsabilité engagée parce que d’autres en
auront fait un usage imprévu. Mais la responsabilité n’est pas automatique pour autant62.
En quels cas, l’absence de réaction est-elle susceptible d’entraîner une éventuelle
responsabilité ? Tous les logiciels « détournés » à des fins de contrefaçon ne sont pas
concernés par le texte. Seulement ceux qui sont principalement utilisés à cet endroit. Même
en pareil cas, la condamnation n’est pas automatique. Le juge peut, au vu des faits, ne pas
ordonner de mesures. Ce peut être le cas, notamment, si la seule possibilité d’empêcher le
62
A l’instar de ce qui est prévu dans certaines dispositions de la loi pour la confiance dans l’économie
numérique
113
Livre blanc sur le « Peer-to-Peer »
trouble résidait dans l’adoption de mesures ayant « pour effet de dénaturer les caractéristiques
essentielles ou la destination initiale du logiciel ». Et à supposer que le juge prenne la décision
d’intervenir, la mesure prononcée devra être du domaine du possible puisqu’elle devra être en
conformité avec l’état de l’art. À l’impossible nul n’est tenu.
Ce que texte tente de bâtir, c’est une voie raisonnable où les intérêts des uns et des autres
seraient également pris en considération. À la vérité, la disposition a surtout pour ambition
d’éviter que, pour pouvoir échapper à d’éventuelles sanctions, la malice (traitée à l’art. 335-2-1)
prenne le masque de l’ignorance.
L’émotion chez certains est surtout née de ce que certaines mesures pourraient consister dans
l’implémentation de dispositifs techniques. Par exemple de filtrage ou de reconnaissance
auditive.
Le monde du logiciel libre rejette cette idée car l’insertion de techniques qui reposeraient sur
des systèmes propriétaires est étrangère à leur philosophie. Mais le texte n’a jamais eu pour
ambition d’appréhender en priorité ce type de programmes et l’intérêt de la construction retenue
est de permettre un dialogue entre les responsables de ces logiciels et l’autorité judiciaire.
Toutes les voies sont à explorer. Loin de freiner l’innovation, cette mesure pourrait en certains
cas la favoriser.
2.2 - Sensibilisation à des fins de prévention de certains acteurs de l’Internet
Les articles 25 et 28 de la loi du 1er août 2006 relèvent davantage de la prévention que de la
répression. Le premier s’adresse à l’abonné d’un accès à l’Internet, le deuxième aux
fournisseurs d’accès.
2.2.1 – Obligation à la charge de l’abonné
L’article 25, dû à une initiative du Sénat, a créé un article L. 335-12 du CPI ainsi rédigé :
« Le titulaire d'un accès à des services de communication au public en ligne doit veiller à ce
que cet accès ne soit pas utilisé à des fins de reproduction ou de représentation d'œuvres de
l'esprit sans l'autorisation des titulaires des droits prévus aux livres Ier et II, lorsqu'elle est
requise, en mettant en œuvre les moyens de sécurisation qui lui sont proposés par le
fournisseur de cet accès en application du premier alinéa du I de l'article 6 de la loi n° 2004575 du 21 juin 2004 pour la confiance dans l'économie numérique ».
Cette disposition met donc à la charge d'un abonné l'obligation, sous peine de sanctions pénales
(l’article L. 335-12 du CPI est inséré dans le Chapitre 5 ayant trait aux « dispositions pénales »),
114
Livre blanc sur le « Peer-to-Peer »
d'empêcher des actes de contrefaçon. L’attention de l’abonné aura été attirée par son fournisseur
d’accès sur les dangers sur P2P puisque son opérateur est tenu (article L. 336-2 CPI, étudié
infra, b)) de le sensibiliser à ce phénomène.
Concrètement, il est possible d'imaginer que pèsera sur l'abonné l'obligation d'avoir recours à
des moyens techniques afin d'éviter que des personnes présentes en son foyer utilisent l'accès à
l’Internet pour procéder à des échanges pair à pair illicites. On peut songer ainsi au recours à un
logiciel de filtrage. Mais le périmètre précis de cette obligation est encore délicat à appréhender.
Que se passera-t-il, par exemple, lorsqu’un seul et même abonnement dessert divers postes
d'une même institution ? Ou encore quand les actes de contrefaçon sont accomplis par des tiers
qui usent d'une facilité technique offerte par un réseau Wifi ? Est-il encore possible d'envisager
la responsabilité du titulaire de l'abonnement alors même que les actes répréhensibles sont
accomplis en dehors du foyer ou d'un périmètre qu'il peut raisonnablement contrôler ?
Le texte ne semblant pas lier le contenu de l'obligation à des contingences géographiques, il
faudrait alors considérer que pèse sur l'abonné un devoir de sécurisation de sa bande passante.
Le titulaire de l'accès à l'Internet devrait alors assortir son dispositif de clés ou de mesures
techniques interdisant à des tiers de pénétrer dans son accès ou de venir en quelque sorte
squatter son réseau pour accomplir, de façon anonyme, les actes d'échanges illicites.
Dans une voie raisonnable, il ne devrait alors pas être possible de poursuivre l'abonné qui a
effectué des actes de diligence en fonction d'un état déterminé de la technique. L'obligation qui
pèse sur le titulaire de l'accès est celle d'avoir recours aux dispositifs présentés comme étant les
plus fiables ou ceux qu'il est possible de recommander. Elle n'est pas celle de garantir l'efficacité
de ces dispositifs. La norme de référence serait en quelque sorte la conformité aux « règles de
l'art ».
Autrement dit, l'article 25 ne pose pas l'obligation d'éradiquer tout acte de contrefaçon
mais plus simplement de déployer les moyens connus pour les empêcher dans la mesure du
possible. L'abonné qui apportera la preuve de cette diligence devrait échapper à la mise en
œuvre de sa responsabilité.
Le texte il est vrai est encore porteur de nombreuses interrogations. Certaines ayant trait à
l'exigence d'un élément intentionnel ou aux difficultés d'ordre probatoire. Il est possible
également de se demander si la responsabilité est susceptible d'être engagée, indépendamment
de tout acte de contrefaçon, du seul fait de l'absence de précautions. Ou bien si cette carence
n'est répréhensible qu'en présence d'actes illicites de la part des internautes. La deuxième
interprétation paraît la plus probable mais, sur ce point comme à propos d'autres interrogations,
des éléments de réponse sont attendues d'un futur décret.
115
Livre blanc sur le « Peer-to-Peer »
2.2.2 – Obligation à la charge du fournisseur d’accès à l’Internet
L’article 28, dont l’économie était, tout comme celle de l’article 25, absente du projet de loi a
créé un article L. 336-2 dans le Code de la propriété intellectuelle prévoyant, dans le
nouveau chapitre (VI) consacré à la « prévention du téléchargement illicite », que « les
personnes dont l'activité est d'offrir un accès à des services de communication au public en
ligne adressent, à leurs frais, aux utilisateurs de cet accès des messages de sensibilisation aux
dangers du téléchargement et de la mise à disposition illicites pour la création artistique. Un
décret en Conseil d'État détermine les modalités de diffusion de ces messages ».
L’initiative de cette disposition est due à l’Assemblée nationale, le Sénat se contentant de
rajouter la soumission à un décret en Conseil d’État pour la mise en place des modalités de mise
en œuvre. Il n’est pas certain que les fournisseurs d’accès apprécient et la charge qui leur
incombe ainsi et le fait d’avoir à en supporter les frais.
Au-delà de cette construction, se pose la question plus générale des obligations qui sont
susceptibles de peser sur un fournisseur d’accès à l’Internet.
On sait que ces intermédiaires ne peuvent, a priori, voir leur responsabilité engagée
lorsqu’ils permettent l’accès à des contenus illicites. Cela résulte en quelque sorte de leur
neutralité « historique » vis-à-vis des contenus, de laquelle la directive communautaire du
8 juin 2000 (relative au commerce électronique ; article 12 ayant trait au « simple
transport ») et la loi du 21 juin 2004 pour la confiance dans l’économie numérique
(LCEN) déduisent un principe d’irresponsabilité.
Suivant ces textes, les fournisseurs d’accès ne peuvent être tenus pour responsables des
informations transmises à condition, d’une part, qu’ils ne soient pas à l’origine de la
transmission, d’autre part, qu’ils ne sélectionnent pas le destinataire de la transmission et,
d’une troisième part, qu’ils ne sélectionnent ni ne modifient les informations faisant l’objet
de la transmission. Mais cette exclusion de responsabilité, qui est donc soumise à
conditions, ne permet pas une passivité totale. En effet, tant la directive que la loi pour la
confiance dans l’économie numérique précisent qu’une juridiction ou une autorité
administrative peuvent exiger de pareil prestataire qu’il mette un terme à une infraction
ou fasse en sorte de prévenir celles-ci.
Ainsi l’article 6, I-8 de la LCEN, permet à une autorité judiciaire de « prescrire en référé ou sur
requête, à toute personne mentionnée au 2 ou, à défaut, à toute personne mentionnée au 1,
toutes mesures propres à prévenir un dommage ou à faire cesser un dommage occasionné par
le contenu d'un service de communication au public en ligne ».
116
Livre blanc sur le « Peer-to-Peer »
Le précédent de la restriction de l’accès à des sites révisionnistes : décision de la Cour
d’appel de Paris
Sur le fondement de ce texte, hors droit d’auteur, la Cour de Paris, le 24 novembre 2006, a pu
contraindre certains fournisseurs d’accès à empêcher l’accès à des sites révisionnistes hébergés
à l’étranger.
Pour leur défense les FAI faisaient valoir que les recours à l’encontre des auteurs des sites et de
leurs hébergeurs n’étaient pas épuisés. Ils tentaient également de mettre en avant le fait que les
mesures de filtrage qui leur étaient ainsi imposées étaient coûteuses et souvent inefficaces.
Enfin, ils faisaient valoir que l’injonction qui leur était faite, non limitée dans le temps, était trop
lourde.
Ces divers arguments ont été rejetés par les magistrats, « dès lors qu’il est démontré que les
associations ont accompli les diligences nécessaires pour mettre en cause, par priorité, les
sociétés prestataires d’hébergement et que toute possibilité d’agir efficacement à l’encontre de
celles-ci s’avère objectivement vaine et en tous cas incompatible avec les exigences d’une
procédure conçue pour la prise rapide de mesures dictées par l’intérêt général » :
« Considérant que cette argumentation, déjà développée par les fournisseurs d’accès au
moment des débats parlementaires, n’a pas été retenue par le législateur qui, en dépit des
difficultés techniques du filtrage, du coût et de la complexité de sa mise en œuvre et de son
efficacité contestable, n’a pas exclu le recours à ce procédé et qui, en utilisant la formule
"mesures propres à prévenir ou faire cesser un dommage” sans autre précision, a laissé au juge
la possibilité d’empêcher ou, pour le moins, de limiter la consultation du contenu mis en ligne
dans le cas où, comme en l’espèce, il n’est pas possible d’agir contre les hébergeurs étrangers ;
Qu’une telle mesure, pour imparfaite qu’elle soit, a le mérite de réduire, autant que faire se
peut en l’état actuel de la technique, l’accès des internautes à un site illicite (…) ; Que le
nomadisme allégué du site de l’AAARGH ne saurait justifier la remise en cause d’une mesure
propre à en entraver l’accès ;
Qu’il n’est pas démontré par les prestataires d’accès qui invoquent des difficultés d’ordre
technique l’impossibilité pour eux de mettre en place le filtrage effectué par les autres, étant
observé que le premier juge a laissé à chacun de ces fournisseurs le soin de mettre en œuvre
tous les moyens dont il peut disposer en l'état de sa structure et de la technologie ;
Que le (...) moyen allégué par les appelants est donc inopérant ;
Considérant qu’il est enfin prétendu que la mesure ordonnée, en ce qu’elle n’est pas limitée
117
Livre blanc sur le « Peer-to-Peer »
dans le temps, contredit le caractère provisoire de la décision de référé ; qu’il est demandé à la
cour de la cantonner et de la déclarer caduque à l'expiration d’un délai de deux mois à compter
du présent arrêt si les associations demanderesses n’ont pas engagé dans ce délai les
procédures nécessaires pour rendre exécutoire l’ordonnance du 20 avril 2005 à l’encontre des
hébergeurs ou si, dans ce même délai, elles ne se sont pas constituées parties civiles sur la
plainte contre X déposée par certaines d’entre elles auprès du procureur de la République le 25
janvier 2005 ;
Considérant que l’ordonnance rendue en application de l’article 6-I.8 de la loi pour la
confiance dans l’économie numérique s’inscrit dans le cadre d’une procédure qui, pour être
spécifique, n’en relève pas moins des règles du référé de droit commun ;
Que, cependant, le caractère provisoire de la décision énoncé par l’article 484 du nouveau
code de procédure civile ne signifie pas que les mesures ordonnées soient nécessairement
limitées dans le temps ; que si une telle limite s’impose lorsque la mesure est prise à titre
conservatoire, ainsi qu’il résulte de la jurisprudence versée par les appelantes, elle ne saurait
être admise, sauf à vider la décision de son sens et la priver d’efficacité, lorsque l’interruption
de l'accès ordonnée par le président a pour but de faire cesser un dommage occasionné par le
contenu d’un service de communication en ligne ; »
Application en cas d’atteinte à la propriété littéraire et artistique lors d’échanges
P2P
Il n’est pas douteux que pareille disposition puisse être également applicable en cas de
proposition par un site Web de contenus contrefaisants.
L’article L. 332-1 du code de la propriété intellectuelle (issu de la loi pour la confiance dans
l’économie numérique) prévoit lui-même, au point 4° de son deuxième alinéa, que :
« Le président du tribunal de grande instance peut également, dans la même forme, ordonner :
(…)
4º La suspension, par tout moyen, du contenu d'un service de communication au public en
ligne portant atteinte à l'un des droits de l'auteur, y compris en ordonnant de cesser de stocker
ce contenu ou, à défaut, de cesser d'en permettre l'accès. Dans ce cas, le délai prévu à l'article
L. 332-2 est réduit à quinze jours ».
La question peut donc se poser de l’application de pareils dispositifs, lors de la distribution
d’œuvres par l’intermédiaire d’échanges P2P, à l’encontre des fournisseurs d'accès.
118
Livre blanc sur le « Peer-to-Peer »
Si la loi paraît inviter le juge, par souci de réalisme, à privilégier les actions à l'encontre du
fournisseur d'hébergement, elle ménage aussi la possibilité, afin de mieux lutter contre des
contenus hébergés à l'étranger et à l'encontre desquels les décisions de justice françaises risquent
d’être inefficaces, d’agir contre le fournisseur d’accès. La solution s’impose a fortiori lorsque le
trouble ne provient pas d’un contenu hébergé. Ainsi, le rapport du sénateur Türk63 précisait que
cette possibilité d’action contre les FAI était « le seul moyen de lutter contre des contenus
illicites qui circulent sur Internet par le biais des systèmes de « peer to peer » décentralisé ». Et
le parlementaire d’ajouter que « les progrès techniques qui pourraient intervenir dans le cadre
de la communication publique en ligne devraient, à l'avenir, contribuer à améliorer les
conditions du filtrage de l'accès à Internet afin de le rendre plus effectif ». Pour conclure, après
avoir constaté que « lorsqu'il est décentralisé, le « peer to peer » n'utilise pas de serveur, mais
la bande passante de chaque internaute » en sorte qu’il « n'existe donc pas d'hébergeur au sens
de l'article 43-8 modifié de la loi du 30 septembre 1986 » : « En tout état de cause, la présente
disposition ne saurait être entendue comme instituant une action subsidiaire à l'encontre du
fournisseur d'accès, les justiciables devant intenter, en premier lieu, leur action à l'encontre du
fournisseur d'hébergement. L'action prévue par l'article 43-12 nouveau pourra très bien être
directement - et seulement - intentée à l'encontre du fournisseur d'accès ».
La possibilité de demander la cessation du trouble à un fournisseur d’accès à l’Internet a été
confirmée par la justice belge. Dans une ordonnance rendue le 29 juin 2007 (TRIBUNAL DE
PREMIÈRE INSTANCE de Bruxelles, 29 juin 2007 : SCRL société belge des auteurs
(SABAM) c/ SA Scarlet (anciennement Tiscali, il a été jugé, par référence directe à la directive
commerce électronique du 8 juin 2000 (ce qui rend le raisonnement transposable en Doit
français), qu’un FAI pouvait être contraint de prendre des mesures de blocage afin d’empêcher
les échanges pair à pair illicites d’œuvres musicales.
« Attendu que la directive 2000/31 du 8 juin 2000 relative à certains aspects juridiques des
services de la société de l’information et notamment du commerce électronique dans le marché
intérieur énonce en son article 15 que « les États membres ne doivent pas imposer aux
prestataires [...] une obligation générale de surveiller les informations qu‘ils transmettent ou
stockent » (…)Que l’article 15, qui fait partie de la section 4 de la directive consacrée à la «
Responsabilité des prestataires intermédiaires », vise à éviter que le juge national déduise une
faute dans le chef du prestataire du fait de la simple présence sur ses réseaux d’une information
illicite au motif qu’il aurait manqué à une obligation générale de surveiller toutes les
informations quelconques qu’il transmet (…); Que cette disposition qui règle ainsi la question
de la responsabilité du prestataire s’adresse toutefois exclusivement au juge de la
63
Avis n° 351, Sénat 2003 - 2004
119
Livre blanc sur le « Peer-to-Peer »
responsabilité et est sans incidence sur le présent litige dans la mesure où l’action en cessation
ne suppose aucun constat préalable d’une faute dans le chef de l’intermédiaire64 ; Que la
directive 2000/31 n’affecte en effet pas le pouvoir du juge de l’injonction et ne limite pas les
mesures qui peuvent être prises par celui-ci à l’égard du prestataire ; Que les dispositions de la
directive 2000/31 sur la responsabilité des prestataires intermédiaires et partant l'interdiction
d’imposer une obligation générale de surveillance « ne doivent en effet pas faire obstacle au
développement et à la mise en oeuvre effective, par les différentes parties concernées, de
système technique de protection et d’identification ainsi que d’instruments techniques de
surveillance rendus possibles par les techniques numériques » (voy. considérant 40 de la
directive) ; Que l’ordre de cessation n’impose pas à Scarlet de « surveiller » son réseau ; Que
les solutions identifiées par l’expert sont des « instruments techniques » qui se limitent à
bloquer ou à filtrer certaines informations qui sont transmises sur le réseau de Scarlet ; qu’elles
ne sont pas constitutives d’une obligation générale de surveiller le réseau ; Qu’en faisant droit
à l’ordre de cessation sollicité le tribunal de céans n’ordonne dès lors aucune mesure contraire
à l’article 15 de la directive 2000/31 (…); Attendu en outre que c’est à tort que Scarlet estime
que cette injonction aurait pour effet de lui faire perdre l’exonération de responsabilité prévue
à l’article 12 de la directive 2000/31 (article 18 de la loi du 11 mars 2003) qui bénéficie au
prestataire dont l’activité se limite au simple transport ou de fourniture d’accès à internet à la
condition notamment qu’il ne sélectionne ni ne modifie les informations faisant l’objet de la
transmission ;
Que selon le considérant 45 de la directive 2000/31, « les limitations de responsabilité des
prestataires de services intermédiaires prévues dans la présente directive sont sans préjudice de
la possibilité d’actions en cessation de différents types. Ces actions en cessation peuvent
notamment revêtir la forme de décisions de tribunaux [...] exigeant qu‘il soit mis un terme à
toute violation ou que l'on prévienne toute violation, y compris en retirant les informations
illicites ou en rendant l'accès à ces dernières impossible » ;
Que le seul fait que l’instrument technique de filtrage laisserait passer des oeuvres contrefaites
du répertoire de la SABAM n’implique en outre nullement que ces oeuvres auraient été
sélectionnées par Scarlet ; qu’en effet le fait de ne pas parvenir à bloquer un contenu
n’implique pas que ce contenu ait été sélectionné par l’intermédiaire à défaut pour celui-ci de
cibler l’information en vue de la fournir à sa clientèle ; que la mesure de blocage a un
caractère purement technique et automatique, l’intermédiaire n’opérant aucun rôle actif dans
le filtrage » (…) ; Que le tribunal de céans n’aperçoit pour le surplus pas en quoi les logiciels
de blocage ou de filtrage violeraient le droit « au secret de la correspondance » ou la liberté
64
- Souligné par l’auteur
120
Livre blanc sur le « Peer-to-Peer »
d’expression, Scarlet ne s’en expliquant au demeurant pas ; (…) Qu’il convient dès lors de faire
droit à l’ordre cessation »
Cette solution, logique, est bien le signe de la recherche d’un nouvel équilibre entre la volonté
de permettre à certains intermédiaires de développer leurs activités, favorables à l’essor de la
société de l’information, et le souci de préserver les droits de ceux qui sont à l’origine des
contenus ou en gèrent l’exploitation.
Il semble bien que, désormais, nombre d’intermédiaires ne puissent plus tenter de se réfugier
derrière le statut confortable mis en place par la loi pour la confiance dans l’économie
numérique. On sait que cette dernière, transposant la directive du 8 juin 2000, a multiplié les
régimes en fonction des diverses activités des prestataires. A chaque activité, son statut. Mais il
ne suffit pas à l’un des intermédiaires d’exercer une activité principale dans un domaine pour se
voir appliquer le régime qui correspond à celle-ci dans toutes ses fonctions. Ainsi un fournisseur
d’accès peut aussi être hébergeur ou fournisseur de contenu. Son statut est alors un véritable
habit d’Arlequin composé de régimes différents, chacun correspondant à une fonction
déterminée.
En témoigne l’ordonnance de référé, rendue le 22 juin 2007, par le Président du Tribunal de
Grande instance de Paris à propos du site Myspace. Ce portail communautaire laissait mettre en
ligne des sketches de l’humoriste Jean-Yves Lafesse sans l’autorisation de ce dernier. Les
services offerts par Myspace pouvaient être ainsi présentés : « la société Myspace dispose d’un
site internet se définissant comme “un service de réseau social qui permet à ses membres de
créer des profils personnels uniques en ligne afin de communiquer avec des amis anciens et
nouveaux” aux termes du contrat d’utilisation produit ; (... Myspace …) propose à ses
“membres” de créer une page personnelle comportant une trame spécifique au site avec en
haut de la page un bandeau publicitaire et sur toute la page différents emplacements : au centre
photographie du membre et autour différents cadres : identité du membre et contact - adresse
URL du membre centre d’intérêts du membre - présentation du membre - différentes indications
sur le membre (statut familial, références astrologiques, enfants) - amis du membre et
commentaires des amis ».
Poursuivie, Myspace faisait valoir pour sa défense sa prétendue qualité d’hébergeur et le statut
d’irresponsabilité conditionnée qui en découle. Cette argumentation est rejetée par l’ordonnance
qui constate que les fonctions de la société Myspace dépassent celles d’un simple hébergeur
pour s’apparenter à celle d’un éditeur au statut bien différent. Selon l’ordonnance, « s’il est
incontestable que la société défenderesse exerce les fonctions techniques de fournisseur
d’hébergement, elle ne se limite pas à cette fonction technique ; qu’en effet, imposant une
121
Livre blanc sur le « Peer-to-Peer »
structure de présentation par cadres, qu’elle met manifestement à la disposition des hébergés et
diffusant, à l’occasion de chaque consultation, des publicités dont elle tire manifestement profit,
elle a le statut d’éditeur et doit en assumer les responsabilités ».
L’autoproclamation étant insuffisante à fonder une qualification juridique, il faut trouver des
critères qui conduisent à une analyse plus exacte. Le premier critère réside logiquement dans la
prise en considération de l’activité réelle de l’intermédiaire, en l’espèce loin d’être cantonné
dans un rôle de prestataire purement technique. L’autre critère repose sur une analyse
économique : le fait pour Myspace d’avoir recours à de la publicité et de jouer un rôle actif dans
la diffusion de celle-ci.
La solution semble la bienvenue. L’édification de régimes spéciaux correspond à une logique
tirée de considérations techniques, économiques, industrielles, sociales et juridiques. Elle est
souvent le fruit d’un arbitrage politique entre différentes contraintes et diverses aspirations.
Chaque statut a sa logique et il ne serait pas sain que l’on puisse instrumentaliser les
qualifications, quand bien même il existerait des doutes sur le tracé des frontières. Il serait
malvenu que l’on admette que certains puissent forcer les qualifications pour se couler dans les
statuts qui leur conviennent. Si la qualification d’hébergeur avait été retenue, Myspace n’aurait
été responsable que pour autant que, dûment avertie de l’existence de contrefaçons sur le site
hébergé, elle serait restée passive alors qu’elle avait les moyens de faire cesser le trouble. La
responsabilité ne serait intervenue qu’a posteriori, en raison de l’inaction de l’hébergeur averti
du trouble suivant les procédures ou hypothèses imposées par la loi. En revanche, en tant
qu’éditrice, elle doit, en raison de rôle actif, répondre immédiatement des contenus qu’elle
propose. Tout manquement aux règles de la propriété littéraire et artistique lui est directement
imputable.
Mais au-delà de cette solution indiscutablement logique, il semblerait que se dessine une nette
évolution dans l’approche des difficultés liées au rôle des prestataires techniques. En témoigne
une deuxième décision par laquelle le tribunal de grande instance de Paris (13 juillet 2007, 3ème
chambre, deuxième section) a imposé à Dailymotion de procéder à un contrôle a priori relatif
aux œuvres accessibles depuis le site.
Le réalisateur et les producteurs du film « Joyeux Noël », constatant que l’œuvre audiovisuelle
était offerte sur le site Internet Dailymotion ont saisi la justice pour faire constater l’atteinte aux
droits d’auteur et formuler, à des fins de sensibilisation et de responsabilisation, des demandes
d’indemnisation présentées comme mesurées. L’idée sous jacente à cette démarche judiciaire est
d’inciter les sites communautaires à ne plus s’abriter derrière le statut de simple prestataire
technique en rejetant la faute sur les seuls internautes qui installent des œuvres mais, au
122
Livre blanc sur le « Peer-to-Peer »
contraire, à jouer un rôle actif dans la lutte contre la contrefaçon.
Le tribunal a fait droit aux demandes du producteur, sans s’attacher à une éventuelle
requalification en éditeur de contenu, en se fondant sur l’architecture du site et les moyens
techniques mis en place par Dailymotion. Cette construction offrait aux internautes l’accès à des
œuvres de toutes sortes, « tout en laissant le soin aux utilisateurs d’abonder le site dans des
conditions telles qu’il était évident qu’ils le feraient avec des œuvres protégées par le droit
d’auteur ».
Cette décision paraît aller plus loin que la précédente dans la responsabilisation des prestataires
puisqu’elle ne procède pas, à proprement parler, à une requalification de l’activité mais semble
considérer que si le régime d’irresponsabilité conditionnelle n’impose pas au prestataire une
obligation générale de recherche d’actes de contrefaçon, le régime bienveillant qui est le sien ne
peut plus s’appliquer lorsque les activités illicites sont générées ou induites par le prestataire
technique lui-même (« "si la loi n'impose pas aux prestataires techniques une obligation
générale de rechercher les faits ou circonstances révélant des activités illicites, cette limite ne
trouve pas à s'appliquer lorsque lesdites activités sont générées ou induites par le prestataire
lui-même" »). C’est dire qu’il pourrait, suivant les hypothèses, exister une régime de « contrôle
a priori » sur le contenu des œuvres diffusées sur un site communautaire. Apparaît ainsi l’idée
d’un régime de responsabilité non plus pour faute mais fondée sur le « risque créé » ou le
« risque profit » (voir, infra, conclusion de cette étude).
Grâce tant à ces dispositions normatives qu’à cette construction jurisprudentielle qui en paraît
issue, les actes de contrefaçon pourraient être en diminution. Mais comment traiter les actes qui
perdureraient ?
3 - La sanction d’échanges non autorisés persistants
À supposer la prévention et la sensibilisation inefficaces, se poserait alors la question de
l’engagement de la responsabilité de certaines personnes65. L’examen de cette voie conduit à
envisager successivement deux points : premièrement, l’analyse des actes de téléchargement par
rapport aux règles de propriété intellectuelle (I); deuxièmement, les actes envisagés pouvant être
considérés, en certains cas, comme relevant de la contrefaçon, quelles sont les sanctions
encourues (II) ?
65
- Ce qui suppose que la preuve des échanges puisse être rapportée. A cet égard on relèvera que le
Conseil d’État, dans un du 23 mai 2007, a annulé quatre décisions de la Commission nationale
Informatique et Libertés (CNIL), en date du 18 octobre 2005, qui refusaient à plusieurs sociétés de
gestion collective de droits d’auteur (SACEM et SDRM) et de droits voisins (SCPP, SPPF) la possibilité
de procéder à un traitement portant sur les données relatives aux infractions des internautes utilisant les
réseaux
123
Livre blanc sur le « Peer-to-Peer »
3.1 – L’analyse de certains actes de téléchargement non autorisés en contrefaçon
Il convient de rappeler que, puisque la technique d’échange « pair à pair » est juridiquement
neutre, tous les actes de téléchargement d’œuvres ne sont pas illégaux. Ne sont concernés que
ceux qui, concernant des œuvres ou éléments protégés, n’auraient pas été autorisés par les
ayants droits ou ne bénéficieraient pas d’une limite ou une exception aux droits de propriété
littéraire et artistique.
La loi du 1er août 2006 ne contient aucune disposition spécifique à ce propos. C’est dire qu’il y a
là application pure et simple des règles de propriété littéraire et artistique et de la
contrefaçon. L’analyse en actes de contrefaçon des téléchargements ascendants (upload)
ou descendants (download) n’est pas douteuse. Elle était, avant l’intervention de la loi, celle
de la plupart des décisions de justice, approuvées par la quasi unanimité de la doctrine et
corroborée par les travaux de la commission spécialisée du Conseil Supérieur de la propriété
littéraire et artistique. Trois séries de faits démontrent que cette solution est désormais certaine.
D’une part, la tentative, avortée, de faire voter la licence globale. Cette construction, rejetée,
postulait comme point de départ, la nécessité de l’adoption de textes destinés à bouleverser les
analyses et celle d’imposer par la voie législative la solution selon laquelle le download devait
être regardé comme un acte de copie privée. Cette volonté de modifier les textes atteste bien de
la pertinence de l’analyse en contrefaçon sur le fondement des textes antérieurs… finalement
demeurés inchangés.
D’autre part, le désir consécutif à l’échec de la voie de la licence globale, d’adopter des peines
moins lourdes que celles de la contrefaçon. Si des sanctions, même plus légères devaient être
envisagées, c’est bien que les actes non autorisés devaient être regardés comme illicites.
Enfin, la circulaire du ministère de la justice du 3 juillet 2007 le dit expressément, refusant au
téléchargement la qualification de « copie privée », d’une part parce qu’il ne remplit pas les
conditions du test des trois étapes issu de la Convention de Berne de 1886 et, d’autre part, parce
qu’il s’agit d’une « copie faite par ou pour autrui ».
Ce point étant acquis demeure la question de la sanction encourue pour l’accomplissement de
pareils actes.
3.2 – Les sanctions encourues en cas d’échanges contrefaisants
Certains membres de la commission « distribution des œuvres en ligne » du CSPLA, pourtant
associés sur certaines questions aux consommateurs, avaient demandé que soit proposée une
124
Livre blanc sur le « Peer-to-Peer »
aggravation des peines (cinq ans d’emprisonnement, mention expresse de la qualification de
« criminalité en bande organisée »), ce qui leur fut refusé. Soucieuse de trouver une sortie « vers
le haut », la commission avait pris le parti de n’envisager les sanctions que comme un pis aller
envisageable lorsqu’aucune autre voie n’est encore explorable.
Le dispositif de l’article 24 censuré par le conseil constitutionnel
Le Parlement avait ultérieurement adopté, le 30 juin 2006, une disposition spécifique (article
24) qui proposait un allègement des sanctions mais qui a fait l’objet de la censure du Conseil
constitutionnel.
Cet article 24 s’affranchissait des règles habituelles relatives à la contrefaçon en allégeant les
peines encourues. Ainsi, l'article L. 335-11 du Code de la propriété intellectuelle qu’il créait
prévoyait que « les dispositions du présent chapitre (relatif aux sanctions en cas de contrefaçon)
ne sont pas applicables à la reproduction non autorisée, à des fins personnelles, d'une œuvre,
d'une interprétation, d'un phonogramme, d'un vidéogramme ou d'un programme protégés par
un droit d'auteur ou un droit voisin et mis à disposition au moyen d'un logiciel d'échange de
pair à pair.
« Elles ne s'appliquent pas non plus à la communication au public, à des fins non commerciales,
d'une œuvre, d'une interprétation, d'un phonogramme, d'un vidéogramme ou d'un programme
au moyen d'un service de communication au public en ligne, lorsqu'elle résulte
automatiquement et à titre accessoire de leur reproduction dans les conditions visées au
premier alinéa.
« Les actes visés aux deux premiers alinéas constituent des contraventions prévues et réprimées
par décret en Conseil d'État ».
En bref, les actes de download (al. 1) et ceux d’upload (al. 2) subséquents et accomplis à des
fins non commerciales66 n’étaient plus des délits mais de simples contraventions. Un décret en
Conseil d'État devant apporter un certain nombre de précisions importantes, relatives à ces
sanctions (par fichiers retrouvés ou par constatation ?).
Cette disposition qui était, pour le ministre de la Culture67, une des pierres angulaires de la
construction législative a fait l’objet de la saisine du Conseil constitutionnel (point 4.2). Les
reproches à son encontre étaient ainsi formulés :
66
Mais au mépris des règles du Code de la propriété intellectuelle
Si cet article résultait bien d'un amendement présenté par le Gouvernement à l'Assemblée nationale,
pareille disposition était totalement absente du premier projet de loi gouvernemental.
67
125
Livre blanc sur le « Peer-to-Peer »
« Sur la discrimination des logiciels de "pair à pair" (art. 24 de la loi)
L’article 24 de la loi introduit une différence de traitement pénal entre les reproductions d’un
objet protégé non autorisées à des fins personnelles, mis à disposition à partir d’un logiciel de
"pair à pair" d’une part ou d’un autre vecteur de communication d’autre part.
Si le principe d'égalité ne s'oppose pas à ce que le législateur règle de façon différente des
situations différentes ou à ce qu'il déroge à l'égalité pour des raisons d'intérêt général, il faut
que dans l'un et l'autre cas la différence de traitement qui en résulte soit en rapport avec l'objet
de la loi qui l'établit et que son motif soit précisé » (déc. n° 91-304 DC, 15 janv. 1992).
Outre la violation du principe constitutionnel de la légalité des peines et des délits (le logiciel de
"pair à pair" étant juridiquement indéfini et techniquement indéfinissable) cette disposition
introduit une différence de traitement entre les vecteurs de communication qui ne repose sur
aucune justification objective.
En effet, l’atteinte au droit de la propriété intellectuelle est identique qu’elle résulte d’un logiciel
de pair à pair ou d’un autre vecteur de communication (forums, news group, partage de disque
dur, messagerie instantanée, […]).
La différence de traitement pénal fondé sur le vecteur de communication ne repose sur aucun
motif précis énoncé et donc justifié ; elle entraîne en conséquence une rupture d’égalité devant
la loi non conforme à la constitution ».
Le Conseil constitutionnel a déclaré l’article 24 de la loi votée le 30 juin 2006, contraire68 à la
Constitution. Le considérant 64 de la décision du 27 juillet 2006 rappelle « que les requérants
soutiennent que cette disposition méconnaît le principe d’égalité devant la loi pénale en
instituant une différence de traitement injustifiée entre les personnes qui reproduisent ou
communiquent des objets protégés au titre du droit d’auteur ou des droits voisins, selon qu’elles
utilisent un logiciel de pair à pair ou un autre moyen de communication électronique ; qu’ils
reprochent également au législateur d’avoir méconnu le principe de légalité des délits et des
peines ; qu’ils estiment enfin que la loi ne contient aucune disposition relative aux modes de
preuve de ces infractions et qu’elle est entachée d’incompétence négative » tandis que le
considérant 65 précise « qu’au regard de l’atteinte portée au droit d’auteur ou aux droits
voisins, les personnes qui se livrent, à des fins personnelles, à la reproduction non autorisée ou
à la communication au public d’objets protégés au titre de ces droits sont placées dans la même
situation, qu’elles utilisent un logiciel d’échange de pair à pair ou d’autres services de
communication au public en ligne ; que les particularités des réseaux d’échange de pair à pair
126
Livre blanc sur le « Peer-to-Peer »
ne permettent pas de justifier la différence de traitement qu’instaure la disposition contestée ;
que, dès lors, l’article 24 de la loi déférée est contraire au principe de l’égalité devant la loi
pénale ; qu’il y a lieu, sans qu’il soit besoin d’examiner les autres griefs, de le déclarer
contraire à la Constitution ».
En résumé, la disposition critiquée ayant pour but de faire échapper les actes de téléchargement
illicites commis au moyen de logiciels d'échanges " pair à pair " à la qualification de délit de
contrefaçon, tout en maintenant la soumission au droit commun de la contrefaçon des actes qui
n'entraient pas dans cette catégorie, la censure était inévitable dans la mesure où il y avait une
rupture d’égalité devant la loi pénale.
Est-ce à dire que, de façon générale, toute discrimination entre les actes illicites, suivant que ces
atteintes seraient commises au moyen d'un logiciel de pair à pair ou d'un autre moyen en ligne,
est impossible ? Ou faut-il considérer que cette rupture pourrait dans certains cas être justifiée,
par exemple par la mise en avant de certaines des spécificités du téléchargement réalisé au
moyen d'un logiciel de pair à pair ? Ce ne serait alors qu’en l’absence de justifications solides et
convaincantes que la censure serait inévitable ? L’interrogation n’est pas neutre car elle change
la marge de manœuvre qui est laissée au législateur. Reste que la formule finale du considérant
65 (« qu’il y a lieu, sans qu’il soit besoin d’examiner les autres griefs, de le déclarer contraire à
la Constitution») devrait plutôt inciter le Parlement à la prudence. Surtout si l’on se souvient du
rattachement proclamé par le Conseil constitutionnel des droits d’auteur et droits voisins
au droit de propriété.
Certes, la censure du conseil constitutionnel à propos de la décriminalisation des échanges
peer-to-peer, non autorisés, de fichiers protégés, est directement fondée sur le principe
d'égalité devant la loi pénale. Mais certains spécialistes du droit des Biens estiment que ce
rattachement des propriétés intellectuelles au droit fondamental de propriété interdit
d'envisager des suppressions, voire des allégements, des sanctions en cas d'atteinte à ces
droits sans que ces aménagements soient suffisamment justifiés en termes d'intérêt général
ou de singularité des circonstances de réalisation69.
Au demeurant, pourquoi faudrait-il traiter de façon plus bienveillante (ou laxiste) le P2P plutôt
que d’autres modes de distribution électronique des œuvres, voire l’envoi d’un fichier protégé
par courrier électronique ?
68
V. les considérants 63 sq.
Thierry Revet, chronique de propriété et droits réels, revue trimestrielle de droit civil octobre 2006 p.
792
69
127
Livre blanc sur le « Peer-to-Peer »
La circulaire du 3 janvier 2007
La volonté politique d’éviter des sanctions qui pourraient être regardées comme trop
lourdes ne s’est cependant pas estompée en dépit de cet échec. Une circulaire du 3 janvier
2007 « relative au droit d'auteur et aux droits voisins dans la société de l'information et
d'action publique dans le domaine de la lutte contre les atteintes à la propriété
intellectuelle au moyen des nouvelles technologies informatiques », adressée aux
procureurs généraux et aux magistrats du parquet et du siège, tout en rappelant que les
échanges non autorisés doivent bien s’analyser en des actes de contrefaçon, tente de tracer
les axes de ce que pourrait être la répression de pareils actes.
La circulaire propose de distinguer diverses hypothèses de responsabilité qui devraient
être appréhendées de manière différente.
Le cas le plus grave et sanctionné le plus sévèrement a déjà été évoqué et concerne
l'édition ou la distribution de logiciels dédiés ou utilisés pour la mise à disposition illicite
d'œuvres protégées. Il s’agit alors de retenir des « peines principales hautement dissuasives ».
S’agissant de la mise à disposition d'œuvres au public par les échanges de pair à pair, la
circulaire parle de comportement « gravement répréhensible » qui, en amont de la chaîne
de distribution, a pour conséquence de favoriser, en aval, nombre de téléchargements
illicites. L’upload (forme illicite de représentation ou de communication au public) est
donc plus grave que le download.
Est considérée comme circonstance aggravante le fait que cette mise à disposition illicite
précède la mise à disposition du public officielle en France et ainsi viole le principe de la «
chronologie des médias » issu de la loi sur la communication audiovisuelle.
Mais la circulaire opère ici de subtiles distinctions en précisant que lorsqu'un internaute ayant
recours à un logiciel de pair à pair met automatiquement (et donc involontairement ?) certains
fichiers en partage, il ne devrait pas être sévèrement sanctionné. S’agissant du « download », les
sanctions, de nature exclusivement pécuniaires, devraient être fonction de différents facteurs
(importance quantitative des téléchargements, récidive, moment où interviennent les actes…).
Responsabilités des « contrefacteurs » selon la circulaire v.s. ex-article 24
On peut s’interroger sur pareille construction. En définitive, bien que non gravée dans le marbre
de la Loi, elle paraît plus favorable à ceux qu’il convient, malgré tout, de désigner sous le terme
technique de contrefacteurs que l’article 24 qui n’a pu franchir le cap du conseil constitutionnel.
128
Livre blanc sur le « Peer-to-Peer »
Le texte annulé prévoyait une contravention dont personne n’était vraiment en mesure
d’expliquer à quoi elle aurait été appliquée. Les trente-huit euros envisagés pour le
« download » concernaient-ils la constatation de l’existence d’infractions ou devaient-ils
s’appliquer à chaque fichier illicite trouvé? On mesure aisément que l’effet pratique ou financier
n’aurait pas été le même.
Reste que si le vœu paraître louable au plus grand nombre, la méthode retenue pour parvenir à
ce résultat surprend sur le plan de la théorie juridique. Indépendamment des questions
classiques de hiérarchie des Normes, il faut espérer que cette initiative ne soit pas perçue
comme une méconnaissance du principe de séparation des pouvoirs. Certes le recours à des
circulaires n’est pas rare en droit français mais le vote de la loi ayant montré les tensions qui
pouvaient exister entre le législatif et l’exécutif, il ne faudrait pas que le droit d’auteur soit aussi
perçu comme un terrain d’empiètement de l’exécutif sur le judiciaire ou comme un lieu de
contournement des décisions du Conseil constitutionnel.
A la vérité, les magistrats auraient sans doute d’eux-mêmes adopté cette approche modérée. Ils
le faisaient avant même le vote de la loi puisque aucune peine d’emprisonnement n’a été
prononcée en France contre un internaute indélicat.
Quoiqu’il en soit, les dernières décisions rendues témoignent de cette volonté de clémence.
Ainsi, après avoir estimé que « l'existence de l'élément intentionnel résulte de la matérialité du
délit, sauf preuve contraire par le prévenu de sa bonne foi », la Cour de Paris, par arrêt du 15
mai 2007 (Paris, 15 mai 2007, 13ème chambre, Section A, Sebaux, / SCPP)) n’a condamné un
internaute contrefacteur qu’à une peine de 1.000 euros d’amende et, dans une décision du 27
avril 2007 (Paris, 27 avril, 2007, 13ème chambre, Section B, Guillemot / SCPP), n’a sanctionné
un autre internaute que d’une amende de 5000 euros avec sursis.
4 – Conclusion – Sagesse et prudence du législateur dans un monde en
mouvement, à la croisée des évolutions technologiques et sociales
En définitive, il convient de constater qu'il existe peu de particularités dans le régime juridique
applicable à la distribution des œuvres en ligne.
Certes il convient de relever la présence des dispositions relatives à l'éventuelle responsabilité
de certains éditeurs de logiciels. Mais il n'est pas indifférent de préciser que des solutions
proches ou identiques auraient pu être trouvées sur le fondement du droit commun.
L'apport du texte nouveau réside surtout dans le désir d'éviter certains atermoiements
129
Livre blanc sur le « Peer-to-Peer »
jurisprudentiels. Le péril existant en la demeure commandait qu’une solution certaine puisse
être rapidement connue de tous. De façon plus positive, le « volet civil » de la nouvelle
construction permet la recherche, dans une certaine souplesse, de solutions plus adaptées,
issues d'un véritable dialogue et d’une pesée subtile des différents aspects du problème.
Cette retenue législative est à louer. Dans le prolongement de la pensée de Montesquieu et de
Portalis, le législateur contemporain a compris qu'il convenait de ne légiférer que « d'une main
tremblante ». La sagesse commandait pareille attitude. Les données techniques et sociales sont
trop complexes et fluctuantes pour que puisse être pris le risque d'une intervention législative
qui risquerait de figer les situations ou d'hypothéquer l'avenir. De nouveaux modèles
économiques émergent, de nouvelles pratiques se font jour, de nouvelles techniques offrent des
possibilités méconnues il y a encore peu de temps… Il faut laisser du temps au temps afin que
puissent mieux se dessiner les nouveaux contours de l’offre et de la demande, du souhaitable et
du possible, afin que puissent être trouvés les équilibres délicats qui permettront d’arbitrer entre
les revendications antagonistes.
La prudence du législateur se manifeste également dans son appréhension du temps. Ainsi un
bilan relatif à la loi du 1er août 2006 est attendu après une année de mise en œuvre de ces
nouvelles dispositions, et le contenu de ce jeune texte pourrait être modifié en fonction des
conséquences heureuses ou malheureuses constatées en pratique. Le phénomène est à
rapprocher de celui qui touche certaines directives communautaires pour lesquelles un rapport
d'application doit également être rédigé, tous les trois ans.
On constate ainsi que le législateur n'intervient plus qu'avec retenue et ne grave plus son verbe
dans le marbre éternel. Est arrivée l'ère des « législations à l'essai ».
Les constructions futures ne peuvent naturellement pas ignorer les diverses aspirations, la réalité
technique, les possibilités économiques, en bref, les faits.
Les solutions retenues par la loi pour la confiance dans l'économie numérique témoignaient de
ce souci de prendre en considération ces divers paramètres. Le choix de l'irresponsabilité,
conditionnelle, de certains prestataires de l'Internet était révélateur du désir de promouvoir la
société de l'information et du souci de permettre l'essor de l'infrastructure de cette dernière. Il
s'agissait avant tout d'une décision stratégique.
De ce point de vue, il n'est pas indifférent de constater que les solutions retenues tant par les
directives que par la loi pour la confiance dans l'économie numérique (ou la lecture qui en était
faite) allaient au rebours de l'évolution du droit de la responsabilité depuis plus de deux siècles.
130
Livre blanc sur le « Peer-to-Peer »
Alors que le droit des obligations était autrefois assis sur l'idée de faute, le fondement de la
responsabilité civile s'est peu à peu déplacé.
En effet, le principe d'une responsabilité fondée uniquement sur la faute est apparu dans le
courant du XIXe siècle comme insuffisamment protecteur en sorte qu'a été de plus en plus
accueillie l’idée suivant laquelle chacun doit réparer les dommages qu'il cause à l'occasion de
son activité, même non fautive. C'est ainsi qu'a progressivement triomphé l'idée suivant laquelle
la responsabilité pouvait être également fondée sur le risque, orientation renforcée justement par
l'évolution de la technique et l'essor du mécanisme de l'assurance. Schématiquement, le Droit
devait se préoccuper de protéger les victimes des conséquences malheureuses du progrès
technique tout en allégeant la situation des personnes à qui était demandée réparation grâce à
une espèce de mutualisation liée au phénomène de l’Assurance.
Le mouvement législatif du XXe siècle, au travers des lois spéciales de responsabilité, est
fortement imprégné du concept de risque. Dans cette approche il est admis que certaines
personnes doivent répondre, non plus seulement de leur faute, mais aussi du risque-créé. Ainsi
lorsqu’un individu ou une entreprise introduit, du fait d'une nouvelle activité, un danger dans la
vie sociale, cette personne doit répondre des dommages qu'elle peut ainsi engendrer. L'activité
nouvelle ne peut être déployée qu’aux risques et périls de celui qui en est à l'origine ; les
conséquences ne peuvent en être supportées par autrui. Cette approche, triomphante à l'ère de
l'essor du machinisme, explique les solutions retenues en matière d'accidents du travail ou
d'accident de la circulation. À danger nouveau, responsabilité nouvelle.
Cette nouvelle conception du droit de la responsabilité a trouvé son prolongement dans une idée
voisine celle du risque-contrepartie du profit. La personne qui, par son activité, recherche et
obtient des bénéfices doit, par réciprocité, en supporter les charges. Celui qui recherche un
profit et use de machines pour l'obtenir ou l'accroître doit répondre des dommages que cette
activité est susceptible de générer.
En bref, peu à peu, l'obligation à réparation se détache de l'idée de faute qui ne serait elle-même
qu'une survivance de moins en moins justifiée de la confusion entre responsabilité pénale et
responsabilité civile. Si la première doit demeurer subjective car il s'agit de punir, la seconde
peut s'« objectiviser » car elle poursuit d'autres fins : la seule indemnisation.
Ce mouvement se manifeste dans l'évolution de la jurisprudence, notamment celle relative à la
responsabilité du fait des choses ou encore celle du fait d’autrui dont les régimes sont fort
éloignés désormais des modèles voulus par le législateur en 1804.
Parallèlement à ce mouvement, a également été avancée l'idée d'inverser la perspective à partir
131
Livre blanc sur le « Peer-to-Peer »
de laquelle il est loisible d'asseoir la responsabilité. Tel est le but de la théorie de la
responsabilité fondée sur la garantie. Dans cette approche, l'atteinte à un droit protégé doit
entraîner une sanction, qui pourrait prendre la forme d'une obligation de réparer. La
responsabilité civile devrait alors composer avec deux objectifs : celui d'assurer un droit à la
sécurité, d'une part, et celui de maintenir un droit d'agir d'autre part. Ce système, préconisé par
Starck, trouve des applications aujourd'hui dans la reconnaissance d'un principe de précaution
ou dans l’idée d'une « responsabilité préventive ».
Certes, il est totalement impossible de voir dans le droit positif français le triomphe d'un seul de
ces fondements. Chacun joue son rôle dans l'équilibre à trouver. Mais d’aucuns ont pu estimer
que la construction mise en place par la loi pour la confiance dans l'économie numérique
paraissait s'affranchir presque totalement du mouvement profond qui explique le droit des
obligations depuis bien plus de cent ans.
L’observation doit cependant être nuancée pour trois séries de raisons.
D’une part, parce que ces textes doivent connaître l’épreuve de leur mise en œuvre judiciaire et
que la lecture, parfois monolithique, qui en a été fréquemment proposée n’est pas
nécessairement la bonne. Les frémissements jurisprudentiels actuels témoignent de ce souci de
trouver un équilibre entre deux aspirations à la sécurité qui paraissent (de prime abord
seulement) antagonistes. Le fléau de la balance ne s’est pas encore fixé entre le désir de
favoriser l’essor de nouvelles activités et le souci de ne pas sacrifier les droits de ceux qui, du
fait de leur rôle dans la création, devraient être les premiers concernés par les nouveaux
échanges.
D’autre part, parce que dans la construction harmonieuse à trouver, il faut sans doute distinguer
entre cessation du trouble et responsabilité. et, dans le cadre de cette dernière, entre exigence
d’un contrôle a priori et simple obligation de diligence après information.
Enfin, il convient d'observer que rien n'indique que les choix qui ont été retenus par la directive
du 8 juin 2000, et donc par la loi pour la confiance dans l'économie numérique, soient gravés
dans le marbre. Au contraire, faisant place à une espèce de législation à l'essai, le texte
communautaire prévoit des possibilités de révision tous les trois ans, sur le fondement d'un
rapport en forme de bilan.
Car la Loi ne peut pas non plus être asservie aux seuls faits. L'adaptation du Droit aux faits est
une composante du raisonnement législatif mais non le seul objectif à poursuivre. La loi est
certes un arbitrage politique, un équilibre social, mais elle est également un acte de volonté.
132
Livre blanc sur le « Peer-to-Peer »
Le droit d'auteur participe lui aussi de la recherche de ce compromis. Son économie traduit la
volonté de trouver des solutions tenant compte, d'une part, des intérêts des créateurs, d'autre
part, de ceux du public et, d'une troisième part, de ceux des investisseurs. Au gré des époques,
en fonction des questions, les solutions peuvent varier et le centre de gravité se déplacer.
Il va de soi, cependant, que le droit d'auteur ne doit, en aucun cas, consister en l'allocation de
simples rentes et son régime ne doit en rien être maintenu par simple conservatisme. Les lois
fondatrices du droit d'auteur dans les divers Etats de la planète ont toutes insisté sur l'idée de
reconnaissance légitime de la place des créateurs et sur son rôle d’incitation à la création pour le
Bien Commun. Le droit d'auteur ne doit pas non plus être un frein à l'innovation technique ni un
obstacle à la satisfaction d'un appétit de savoir mais, si son évolution est possible, sa disparition
n'est pas souhaitable. À quoi servirait une infrastructure de la société de l'information sans
contenus à véhiculer et partager ?
Né au XVIIIe siècle, en contemplation des usages et données techniques de l'époque, le droit
d'auteur permet aux créateurs de contrôler les utilisations qui seront faites de leurs œuvres.
Aujourd'hui, contesté par ceux qui veulent pouvoir jouir sans entrave des œuvres, il paraît, en
outre, impuissant à faire participer l'auteur aux fruits des usages qui seront faits non pas de la
création mais de la valeur de celle-ci.
De nouveaux intermédiaires sont apparus, dont les modèles économiques sont très clairement
fondés sur l'appétit de consommation d’œuvres. L’exploitation des œuvres de l'esprit, qui
enrichissent le Patrimoine de l'Humanité, s'est pendant deux siècles réalisée dans le respect des
trois piliers de tout système juridique : le droit de propriété, le droit de la responsabilité, le droit
des contrats. Il serait regrettable que les nouveaux comportements détruisent ce qui a été
patiemment bâti. Non pas qu'il faille préserver à tout prix des métiers anciens (ces derniers
doivent s'adapter ou disparaître) mais tout simplement parce que la création et l'innovation sont
les ressorts des économies européennes, le gisement des emplois de demain et surtout un facteur
d'enrichissement commun.
Enfin, il ne faut perdre de vue que sacrifier les créateurs, c'est aussi condamner la diversité
culturelle.
133
Livre blanc sur le « Peer-to-Peer »
134
Livre blanc sur le « Peer-to-Peer »
Chapitre 7
Conclusion et propositions
Frédéric Goldsmith
135
Livre blanc sur le « Peer-to-Peer »
1. Pour un cadre légal qui garantisse un développement harmonieux
des contenus et des réseaux
__________________________________________________________
Nous sommes entrés dans une ère où les réseaux de distribution de données numériques,
notamment les outils de communication de pair à pair (le peer-to-peer), jouent un rôle
déterminant. Les profonds changements déjà intervenus en la matière depuis le début du
millénaire, vont se poursuivre et marquer profondément nos sociétés. Les évolutions dans le
domaine des communications électroniques n’en sont qu’à leur début.
L’innovation, moteur de notre évolution
Pour cette raison, les enjeux liés aux réseaux électroniques sont plus importants que ce qui est
usuellement avancé. Ils sont stratégiques pour notre avenir et concernent tous les domaines de
notre vie - économiques, sociaux, politiques et même géostratégiques. Il est par conséquent
indispensable d’y accorder la plus grande attention.
Opposer les évolutions technologiques aux institutions sur lesquelles repose notre société serait
contreproductif. La technologie est utile. Elle a vocation à s’inscrire dans un cadre de régulation
démocratique, tout comme l’ensemble des progrès techniques et autres mouvements
d’innovation dans lesquels nous sommes amenés à nous situer.
La propriété intellectuelle, un droit fondamental dans notre société
Parmi les institutions fondamentales sur lesquelles repose notre société, le droit de propriété,
avec la propriété intellectuelle comme sous-ensemble, figure en bonne place. Il fait partie des
quelques droits constitutionnels considérés comme « inviolables et sacrés » dans la Déclaration
des droits de l’Homme et du Citoyen de 1789.
Le droit de propriété représente, d’une part un pilier économique majeur, qui permet de
déterminer la capacité à investir dans la production de richesses et, d’autre part, un facteur
déterminant de structuration des rapports sociaux, apte à canaliser et organiser des
comportements sinon indistincts.
La propriété intellectuelle est consubstantielle à l’innovation technique et à son pendant non
scientifique, mais d’une utilité économique et sociale tout aussi essentielle car la
création artistique est aussi une « innovation ». C’est elle qui incite à la prise de risques des
acteurs économiques par le maillage contractuel qu’elle permet d’organiser.
136
Livre blanc sur le « Peer-to-Peer »
La propriété immatérielle et la création de valeur
Les débats actuels relatifs à la nécessité d’investir massivement dans l’enseignement supérieur
et la recherche-développement montrent à quel point, demain, le rayonnement, la grandeur et la
puissance des nations reposeront sur l’innovation technique et sur la richesse de leur création
artistique, c’est-à-dire sur des biens immatériels.
Ainsi, l’Europe ne peut fonder son avenir sur les industries purement manufacturières. Elle est
condamnée à innover dans l’immatériel et les services, et donc à protéger ses créations. Ou
bien, elle disparaîtra économiquement.
Sur les réseaux électroniques, cette réalité va être plus que jamais vérifiée.
La propriété intellectuelle : un actif immatériel …
Même si elle se subdivise juridiquement en propriété littéraire et artistique d’un côté (se
rapportant à des œuvres protégées par le droit d’auteur, et à des enregistrements sonores ou
audiovisuels protégés par un droit voisin du droit d’auteur) et propriété industrielle de l’autre (se
rapportant à des marques commerciales ou à des brevets industriels) la propriété intellectuelle
n’est pas économiquement « sécable » dans l’univers globalisé des réseaux électroniques.
L’affaiblissement de la propriété industrielle a des effets sur la propriété littéraire et artistique et
réciproquement. Il s’agit dans tous les cas d’une économie de l’immatériel, dans laquelle les
« contenus », qu’ils soient protégés par la propriété littéraire et artistique, par des marques ou
des brevets, créent de la valeur ne serait-ce qu’en raison de l’innovation qui en est à la source
même.
… qui est l’objet d’une demande de la part du marché
De leur côté, les activités de réseaux, les « tuyaux », ne créent de valeur qu’en combinant leur
utilité aux contenus qu’ils délivrent. C’est la raison pour laquelle, en situation de concurrence, le
niveau de prix auquel leur accès est facturé est proche du coût marginal de l’équipement. En
conséquence, la perte de valeur des « contenus » protégés résultant de leur piratage est
strictement néfaste à moyen et long terme pour toute l’économie. Si, passée une phase de
« démocratisation », la rémunération des contenus n’est pas assurée, il y aura une destruction
de valeur et probablement, très vite, un tarissement de la création. La valeur est dans ce
schéma « captée » par les autres agents économiques en présence que sont les opérateurs de
réseaux, les fournisseurs d’accès, les éditeurs de logiciels de P2P et les moteurs de recherche.
Etablir d’urgence les conditions d’une juste rémunération de chaque agent
137
Livre blanc sur le « Peer-to-Peer »
économique
En matière de propriété intellectuelle, il est temps que la France et l’Europe prennent conscience
de la valeur toute particulière des « biens immatériels » protégés par la propriété littéraire et
artistique. De leur côté, les américains l’ont fait depuis longtemps. En tant que « biens
informationnels », les œuvres ont non seulement une valeur en elles-mêmes mais sont
également un vecteur d’image et donc un vecteur de richesse. L’action européenne doit être
d’autant plus prononcée que les disparités linguistiques en Europe obligent celle-ci,
contrairement aux États-unis, à mener une politique volontariste dans le domaine des biens et
services culturels d’origine européenne.
Or, actuellement, l’Europe se saborde car, à travers la contrefaçon massive sur les réseaux
électroniques, elle laisse la valeur des contenus créatifs être en grande partie captée par des
acteurs extra-territoriaux, aujourd’hui essentiellement basés aux États-unis (fabricants
d’équipements de transmission et de lecture, éditeurs de logiciels, moteurs de recherche, ...)
mais également, de façon croissante, dans de grands pays émergents voire,virtuellement « nulle
part » !
Pour une rémunération juste de chacun, opérateurs techniques et auteurs
Face à ce risque de dérive, l’affirmation du principe de la propriété intellectuelle assurera aux
secteurs des industries culturelles la pleine reconnaissance de leurs « productions » et permettra
de garder la richesse là où elle a été créée, notamment en France et en Europe, et de représenter
un point d’appui pour l’émergence d’acteurs européens puissants. Par ailleurs, le sujet de la
contrefaçon sur les réseaux rejoint un enjeu plus vaste et fondamental : l’autorité de l’État,
c’est-à-dire sa capacité à faire appliquer les lois et règlements qu’il met en place et à faire
respecter les valeurs sur lesquelles il repose sur les plans économique et social.
Une prise en compte de cette question est souhaitable au plan international
On peut créer un parallèle intéressant avec le droit de l’environnement. En effet, lorsque la
propriété (comme l’environnement) est « endommagée », cela crée des nuisances à long terme.
La solution réside non seulement dans les sanctions immédiates mais dans la mise en place de
protocoles de convergence qui amènent en plusieurs étapes l’ensemble des acteurs économiques
et sociaux à respecter les règles.
C’est pourquoi les nations doivent réfléchir ensemble à la mise au point de protocoles qui leur
permettront de lutter efficacement contre le piratage et la contrefaçon.
138
Livre blanc sur le « Peer-to-Peer »
Agir pour garder une production artistique dynamique
Pour rétablir l’effectivité de la propriété littéraire et artistique, il est nécessaire d’augmenter la
« désutilité » du vol, à travers des actions combinées :
•
En responsabilisant les opérateurs techniques, qu’ils soient éditeurs de logiciels,
opérateurs de stockage ou opérateurs de réseaux, afin qu’ils régulent la circulation des
données protégées au travers de la coopération et/ou d’interventions réglementaires.
•
En sanctionnant effectivement les utilisateurs finaux dans des conditions adaptées aux
diverses situations rencontrées et proportionnelles à la faute commise, ce qui suppose
également un fort volet de prévention.
Responsabiliser l’ensemble des acteurs
Juridiquement, il faut se souvenir des racines du droit moderne face à la technologie. Avec
l’arrivée du machinisme au 19ème siècle, est intervenue la construction jurisprudentielle de la
responsabilité sans faute au sujet du fonctionnement des machines : le responsable est celui qui
en a la garde car il a le pouvoir d’intervenir et de prévenir. Cette responsabilité se subdivise en
gardien de la structure et gardien du comportement. Il est indispensable et même inéluctable que
la réglementation, passé la première phase de l’Internet nécessaire à son « décollage »,
s’oriente vers un statut des intermédiaires techniques en tant que gardiens logiques et
responsables de leurs outils de communication.
En s’appuyant sur la technique
Techniquement, la régulation des réseaux et des serveurs par leurs opérateurs est possible. Des
outils existent pour réguler automatiquement les flux et les contenus afin de lutter contre
la contrefaçon d’œuvres en ligne, indépendamment de tout traitement de données
personnelles. Leurs performances sont d’ores et déjà considérables et vont en s’accroissant.
Dans l’intérêt économique des opérateurs de réseaux eux-mêmes
Cette régulation est nécessaire pour les réseaux eux-mêmes. En effet, avec la baisse des revenus
de la voix et la maturation du marché du mobile puis de l’accès fixe, les opérateurs vont avoir
besoin d’accroître le revenu par abonné (le fameux « ARPU »). Les contenus sont essentiels à
cet égard. Au final, les coûts seront compensés par les gains en termes de rétablissement de la
valeur et d’efficience des réseaux, sans compter la chute considérable du coût des outils de
régulation dés lors qu’ils seront achetés en nombre.
139
Livre blanc sur le « Peer-to-Peer »
Un modèle économique qui doit s’équilibrer à terme
Contrairement à ce qui est parfois avancé, cela n’est nullement de nature à empêcher le
développement du « Web 2.0 », d’abord fondé sur le partage d’éléments strictement personnels
et qui peut s’inscrire pour le surplus dans des accords avec les ayants droit ou leurs
représentants.
Cela permet au demeurant de donner moins d’importance à la première fonction des mesures
techniques de protection des œuvres (les « DRM ») c’est-à-dire la protection contre le vol, et de
mettre davantage l’accent sur la seconde fonction de ces mesures de protection, c’est à dire la
gestion des droits et la création de modèles économiques innovants pour les consommateurs.
Cette dernière fonction est à l’heure actuelle fréquemment occultée par la première en raison de
l’importance de la contrefaçon.
Un échéancier trop long
Tout montre cependant que l’échéancier des opérateurs de télécommunications en Europe se
trouve être encore beaucoup trop long. La concurrence qu’ils se livrent pour acquérir des clients
supplémentaires s’appuie sur une offre de débits élevés pourvoyeurs de contenus contournés :
œuvres musicales complètes, films cinématographiques, logiciels. Cette concurrence est
destructrice non seulement des contenus qu’elle soustrait au marché ainsi que des activités de
distribution loyale, mais aussi de la capacité future de ces réseaux à structurer et capter le
consentement à payer des consommateurs pour les contenus.
L’Etat doit arbitrer cette guerre économique
De fait, il s’avère que seul l’État peut provoquer aujourd’hui la bascule vers la seconde étape de
l’Internet, celle où la valeur des contenus est rétablie et permet une rémunération juste de
l’ensemble des acteurs économiques et sociaux dans une perspective de long terme. Seule la
puissance publique peut mettre tous les acteurs face à des règles du jeu communes, qui
actuellement ne parviennent pas à émerger en raison de la « course en avant » des acteurs
économiques et de soi-disant « verrous juridiques » dans la réglementation française et
européenne souvent mis en avant pour justifier l’inaction.
140
Livre blanc sur le « Peer-to-Peer »
2. Agir avant qu’il ne soit trop tard
_________________________________________________________
L’État doit prendre les mesures suivantes, désormais de façon urgente :
•
Actions de régulation :
o Création d’une autorité administrative indépendante ou, plus vraisemblablement,
adaptation de la compétence et du fonctionnement d’une autorité administrative
indépendante existante, pour traiter de questions relatives à la circulation illicite sur
les réseaux et les serveurs électroniques des contenus protégés par la propriété
littéraire et artistique.
o Grandes missions confiées à cette autorité :
* garantir la mise en œuvre par les opérateurs de la régulation des flux et des
contenus sur les réseaux et serveurs électroniques à l’aide d’outils techniques, dans
le cadre prévu par le droit européen ;
* veiller à la bonne exécution d’un dispositif de prévention et de sanction approprié
vis à vis des abonnés à l’Internet en cas de téléchargement illicite.
o Sous l’égide de l’Etat :
* expérimentation immédiate sur les réseaux électroniques des solutions techniques
existantes en matière de régulation des flux et des contenus pour lutter contre le
piratage en ligne ;
* fixation d’objectifs nationaux de réduction du piratage en ligne, s’appuyant sur des
indicateurs chiffrés et des outils de mesure officiels destinés à en assurer un suivi
régulier.
o Instauration d’un système national de dépôt d’empreintes d’œuvres - qui pourrait
être géré par l’autorité ci-dessus - utilisables par les opérateurs techniques pour les
besoins de la régulation des contenus sur les réseaux et les serveurs.
141
Livre blanc sur le « Peer-to-Peer »
•
Appui financier :
o Mise en place d’un crédit d’impôt destiné à l’achat et à la mise en œuvre par les
opérateurs des outils permettant la régulation des flux et des contenus sur les
réseaux afin de lutter contre la contrefaçon d’œuvres.
o Initiation d’un soutien actif des pouvoirs publics, notamment financier, au
développement de solutions de régulation de flux et de contenus innovantes et
porteuses de projets industriels pour notre pays.
o Application d’une baisse à 5,5 % de la TVA applicable à la distribution sur les
réseaux électroniques des contenus protégés par la propriété littéraire et artistique.
o Réorientation d’une partie des crédits RIAM vers la recherche sur l’économie des
industries créatives, ainsi que vers un appui technologique opérationnel aux
organismes et entreprises des secteurs culturels.
o Création d’une Agence de valorisation des contenus protégés sur les réseaux de
communication électronique, dotée de fonds d’urgence pour les industries
culturelles les plus touchées par la contrefaçon et par les mutations engendrées par
la distribution immatérielle.
142
Livre blanc sur le « Peer-to-Peer »
TABLE DES MATIERES
Avertissement..............................................................................
Introduction.................................................................................
Biographie des auteurs..............................................................
3
5
11
Chapitre 1 : Typologie des réseaux et applications de peer to
peer...............................................................................................
13
1 – Introduction - Problèmes et questions liés à l’émergence des
réseaux peer to peer.............................................................................
14
1.1 - Questions relatives au modèle de valeurs fondant la pratique de
l’Internet..................................................................................................
1.2 - Questions juridiques...............................................................................
1.3 - Questions techniques.............................................................................
2 – Définitions et principes de fonctionnement des réseaux peer to
peer.........................................................................................................
3 – Classification des systèmes P2P............................................................
3.1 - Les réseaux P2P centralisés....................................................................
3.2 - Les réseaux P2P décentralisés et non structurés.....................................
3.3 - Les réseaux P2P décentralisés mais structurés.......................................
3.4 - Les réseaux P2P hybrides.......................................................................
4 - Conclusion .............................................................................................
Chapitre 2 : Le contrôle des flux circulant sur les
réseaux....................................................................................
14
14
15
16
16
17
19
20
25
8 – Conclusion : ...........................................................................................
27
28
29
29
30
31
31
34
35
37
37
38
39
40
41
42
Chapitre 3 : Le Filtrage par la reconnaissance de contenus...
43
1 – Introduction - Le réseau Internet et les protocoles Internet .............
2 – Le contrôle des flux dans la génération Internet actuelle..................
2.1 - Les numéros de port...............................................................................
2.2 - Les translations d’adresses.....................................................................
2.3 - Reconnaissance des applications P2P.....................................................
3 – Les pare-feu.............................................................................................
4 – Le filtrage applicatif des données.........................................................
5 – Filtrage de nouvelle génération.............................................................
6 – Le contrôle des filtres et de l’Internet..................................................
6.1 - Définition des politiques de régulation du trafic....................................
6.2 - Le contrôle de l’application des politiques...........................................
7 – La nouvelle architecture de contrôle..................................................
7.1 - L’architecture « autonomic »................................................................
7.2 - l’auto-pilotage.......................................................................................
1 - Introduction à la problématique de la reconnaissance automatique
143
Livre blanc sur le « Peer-to-Peer »
du contenu.....................................................................................................
2.1 - Le principe..............................................................................................
2.2 - Les risques d’erreur................................................................................
2.3 - La prise en compte des transformations de contenu...............................
44
44
46
47
47
48
48
3 - Outils de caractérisation du signal : principales méthodologies
actuelles et directions futures.................................................................
49
1.1 - Définitions des termes et outils .............................................................
1.2 - Positionnement des stratégies d’usage ...................................................
2 - La reconnaissance de contenus .............................................................
3.1 - Empreinte Vidéo.....................................................................................
3.1.1 - Méthodologies spatiales.................................................................
3.1.2- Méthodologies temporelles................................................ .. ........
3.2 - Empreintes Audio...................................................................................
3.3 - Exploitation mixte audio et vidéo, pour les contenus audiovisuels........
4 - Méthodes d’évaluation des résultats.....................................................
5 - Stratégies d’exploitation de ces outils dans le cadre du filtrage
Peer-to-Peer et avantages de leur exploitation .................................
5.1 - Identification du hash protocolaire...........................................................
5.2 - Traitement des contenus suspects.............................................................
5.3 - Optimisation de l’identification et obstacles possibles.............................
49
51
53
54
56
56
57
57
59
60
6 - Conclusion sur le filtrage des contenus protégés : portée
universelle de la méthodologie au-delà du peer-to-peer et
évolutions envisagées............................................................................
60
Chapitre 4 : L’économie de la propriété littéraire et
artistique..................................................................................
65
1 - Les principes économiques de la propriété littéraire et
artistique...................................................................................................
67
1.1- L’arbitrage des lois sur le droit d’auteur entre incitations à la création et
diffusion des biens culturels......................................................................
1.2 - Les bénéfices incitatifs du droit d’auteur.................................................
1.2.1– Incitations de l’industrie culturelle par les droits d’auteur.............
1.2.2– Incitations des acteurs de la chaîne verticale par le droit d’auteur.
1.3 - Les coûts de la protection par le droit d’auteur et les limitations légales.
1.3.1 - La limitation temporelle des droits d’auteur : un arbitrage
incitations à la création / restriction de la diffusion..................................
1.3.2 - Les exceptions au droit d’auteur.....................................................
2 - Le droit d’auteur face aux nouvelles technologies de reproduction
et de transmission des biens culturels...................................................
2.1 - Les évolutions analogiques des lois sur le droit d’auteur......................
2.1.1 - Coûts et bénéfices des droits exclusifs sur les nouveaux usages....
2.1.2 - Les réactions réglementaires européennes et américaines.............
2.1.2.1 - La décision Betamax de la Cour Suprême américaine......
2.1.2.2 - L’apparition des rémunérations pour copie privée en
Europe..............................................................................
2.2 – Le droit d’auteur face aux technologies numériques.............................
2.2.1 - Les effets du peer to peer sur les revenus des industries
culturelles......................................................................................
2.2.2 - DRM et baisse des coûts d’application des droits
exclusifs........................................................................................
2.2.3 - Les lois sur le droit d’auteur dans l’environnement numérique et
67
68
68
70
70
71
71
72
73
74
76
76
76
77
77
79
144
Livre blanc sur le « Peer-to-Peer »
la protection légale des DRM.......................................................
2.2.4 - Les autres options réglementaires...................................................
2.2.4.1 - La tentation de l’extension du droit à rémunération sur
Internet : les propositions de licence légale.....................................
2.2.4.2 -Les mesures d’application des droits exclusifs..................
79
80
3 – Conclusion...............................................................................................
80
81
82
Chapitre 5 : A qui sert le peer to peer aujourd’hui.................
85
1 - Introduction - Le téléchargement de films et fichiers musicaux en
forte croissance....................................................................................
1.1 - Les effets de réseau dans l’économie numérique .....................................
1.2 - Les contenus gratuits dans les systèmes de distribution dématérialisés ...
1.3 - Quelle législation sur le droit d’auteur en environnement numérique ?...
1.4 - Le peer to peer au cœur d’un jeu économique complexe..........................
2 - Les industries de contenu.......................................................................
2.1 - Particularités économiques des contenus..................................................
2.2 - L’appréhension « hollywoodienne » des contenus et leur dimension
industrielle....................................................................................................
2.3 - En Europe, entre Art et Culture et un statut ambigu ................................
2.4 - Particularités économiques des biens culturels.........................................
2.5 - Le « versionnage » des œuvres ................................................................
2.6 - La mise sur le marché des contenus..........................................................
2.7 - Créer des effets de réseau.........................................................................
2.8 - Le système des studios hollywoodiens ....................................................
2.9 - Mutualisation des risques liés à chaque contenu.......................................
2.10 - Contenus et infrastructures de distribution..............................................
3 – Le déploiement des débits......................................................................
3.1 - Le peer to peer, produit d’appel pour les réseaux haut débit....................
3.2 - Les contenus diffusés par peer to peer subventionnent les
infrastructures............................................................................................
3.3 - 1 milliard d’euros détournés au profit des fournisseurs d’accès et
d’infrastructures........................................................................................
3.4 - Corrélation entre piratage et baisse des revenus ?...................................
3.5 - Le peer to peer favorise la production de certains types de contenus.......
3.6 – Renforcement de la concentration et des blockbusters ............................
3.7 – Risque pour la diversité culturelle............................................................
4 – Les buts de guerre..................................................................................
4.1 – Scénarii de légalisation des échanges peer to peer...................................
4.2 – Augmenter la désutilité du téléchargement illégal...................................
4.3 – La situation aux Etats-Unis.......................................................................
4.4 – Le développement d’une technologie ne peut s’appuyer sur des
« contenus volés »......................................................................................
4.5 – En France, la primauté économique reste accordée aux industries
d’équipement.............................................................................................
4.6 – Derrière les contenus, affrontement des détenteurs d’infrastructures......
86
87
87
87
88
88
88
89
90
91
91
92
92
93
93
94
95
95
96
96
97
98
98
99
99
99
100
101
101
102
103
Chapitre 6 : Le cadre juridique applicable à la protection
des contenus en ligne et au « peer to peer »........................
105
1 - Introduction - Les échanges peer to peer ont-ils besoin d’un cadre
spécifique ?.............................................................................................
106
145
Livre blanc sur le « Peer-to-Peer »
1.1 - Un « phénomène culturel et social » que le législateur ne pouvait plus
ignorer........................................................................................................
1.2 - La solution de la « licence globale » finalement écartée...........................
1.3 - Difficultés de mise en place d’un système de « réponse
graduée »....................................................................................................
1.4 - L’esprit de la loi du 1er août 2006.............................................................
2 – La recherche de solutions visant à tarir les hypothèses de
contrefaçon...............................................................................................
2.1 - La sensibilisation des éditeurs de logiciels permettant les échanges
d’œuvres ou d’éléments protégés............................................................
2.1.1 - Le volet pénal : L.335-2-1 du Code de la propriété intellectuelle....
2.1.2 - Le volet civil : L.336-1 du CPI.........................................................
2.2 – Sensibilisation à des fins de prévention de certains acteurs de
l’Internet.......................................................................................................
2.2.1- Obligation à la charge de l’abonné.....................................................
2.2.2 - Obligation à la charge du fournisseur d’accès à Internet..................
106
107
108
109
109
110
110
113
3 – La sanction d’échanges non autorisés persistants...............................
114
114
116
123
3.1- L’analyse de certains actes de téléchargement non autorisés en
contrefaçon...................................................................................................
3.2 - Les sanctions encourues en cas d’échanges contrefaisants.......................
124
124
4 – Conclusion : Sagesse et prudence du législateur dans un monde en
mouvement, à la croisée des évolutions technologiques et
sociales....................................................................................................
129
Chapitre 7 : Conclusion et propositions....................................
135
1 - Pour un cadre légal qui garantisse un développement harmonieux
des contenus et des réseaux : Conclusion……………………………
2- Agir avant qu’il ne soit trop tard : Propositions...................................
136
141
146

Documents pareils