Difference between revisions of "Directive Copyright/Arguments MEPs"

From La Quadrature du Net
Jump to navigationJump to search
(Culture (CULT))
(Culture (CULT))
Line 125: Line 125:
 
En ce qui concerne le principe même de ces outils, il y a une négation flagrante du statut du créateur amateur, qui ne peut être reconnu et protégé que s'il est inscrit à une société de gestion collective de droits, en charge de fournir les empreintes d'oeuvres à "protéger" sur les plateformes de partage. Cette logique est contraire aux principes du droit d'auteur qui protège chaque créateur indépendamment de son statut professionnel ou amateur.  
 
En ce qui concerne le principe même de ces outils, il y a une négation flagrante du statut du créateur amateur, qui ne peut être reconnu et protégé que s'il est inscrit à une société de gestion collective de droits, en charge de fournir les empreintes d'oeuvres à "protéger" sur les plateformes de partage. Cette logique est contraire aux principes du droit d'auteur qui protège chaque créateur indépendamment de son statut professionnel ou amateur.  
  
 +
Le projet de directive ne propose aucune garantie pour assurer une réduction au maximum des erreurs de censure si aucune obligation de résultat ou de moyen n'est imposée par la directive. Il ne prend non plus en compte la territorialisation du droit, et les différences géographiques d'exercice du droit d'auteur, mettant les créateurs et utilisateurs dans une situation d'insécurité juridique permanente.
  
 
+
Pour conclure, cette disposition qui se veut protectrice pour les créateurs est en fait une voie de restriction des capacités de création et de diffusion, et n'apporte strictement aucun avantage aux créateurs eux-mêmes. Elle risque en outre de pousser à la création d'une culture hors-la-loi, qui se transfèrera vers des plateformes privées ou cachées, puisque les pratiques qui sont visées ne vont pas disparaître (elles sont trop massivement pratiquées par les internautes), seulement disparaître de la face visible d'Internet et décourager ainsi le renouvellement des générations de créateurs. Pour donner un exemple du transfert des pratiques, il suffit de regarder le résultat d'Hadopi en France, qui à sa création en 2008 ambitionnait de résoudre la question du partage d'oeuvres illicite en ligne, et qui en 2015 ne concerne que 9% des téléchargements de musique.
Quelle garantie avoir pour une réduction au maximum des erreurs de censure si aucune obligation de résultat ou de moyen n'est imposée par la directive ?
 
  
 
* Toute la culture qui repose sur l'utilisation d'autres oeuvres (parodie, critique, remix etc) est niée par l'existence même de ce genre de mesure de censure automatique
 
* Toute la culture qui repose sur l'utilisation d'autres oeuvres (parodie, critique, remix etc) est niée par l'existence même de ce genre de mesure de censure automatique

Revision as of 17:35, 15 February 2017

Voir https://pad.lqdn.fr/p/AtelierCopyright2

Rédaction d'argumentaires à destination des parlementaires européens concernant la réforme de la directive sur le droit d'auteur (2017). Préparation lors de l'atelier du 4 février 2017 à La Quadrature.


Texte de la directive assez minimaliste : volonté de minimiser les risques de conflits. Mais il reste 2 morceaux inquiétants :

  • article 11 : droit voisin pour les éditeurs de presse / droit d'auteur et droit de faire un lien. Pourrait ne pas être adopté, si mobilisation suffisante. On aimerait que la Q° de différentiel de valeur ne se traite pas sur une base de droit d'auteur, mais sur une base fiscale. // Campagne Save The Link auprès des parlementaires
  • article 13 : filtrage automatisé des plateformes. Reconnaissance automatique des contenus illicites par des robots, de type Robocopyright

Dommages collatéraux. Ne respecte pas le droit (parodie). Système de justice privée. À la base c'est à nouveau un pbl de transfert de valeurs. Va renforcer la centralisation (seuls les gros pourront se payer des robots) // Risque de passer. Il va falloir proposer des solutions alternatives.

Texte de l'article 13

Texte de la directive

Use of protected content by information society service providers storing and giving access to large amounts of works and other subject-matter uploaded by their users

1. Information society service providers that store and provide to the public access to large amounts of works or other subject-matter uploaded by their users shall, in cooperation with rightholders, take measures to ensure the functioning of agreements concluded with rightholders for the use of their works or other subject-matter or to prevent the availability on their services of works or other subject-matter identified by rightholders through the cooperation with the service providers. Those measures, such as the use of effective content recognition technologies, shall be appropriate and proportionate. The service providers shall provide rightholders with adequate information on the functioning and the deployment of the measures, as well as, when relevant, adequate reporting on the recognition and use of the works and other subject-matter.

2. Member States shall ensure that the service providers referred to in paragraph 1 put in place complaints and redress mechanisms that are available to users in case of disputes over the application of the measures referred to in paragraph 1.

3. Member States shall facilitate, where appropriate, the cooperation between the information society service providers and rightholders through stakeholder dialogues to define best practices, such as appropriate and proportionate content recognition technologies, taking into account, among others, the nature of the services, the availability of the technologies and their effectiveness in light of technological developments.


- commissions LIBE, JURI, ITRE, CULT : développer des argumentaires spécifiques

Libertés (LIBE, JURI)

L'article 13 de la réforme de la directive sur le droit d'auteur, en demandant aux plateformes de mettre en place des outils de détection automatique de contenus illicites, porte lourdement atteinte aux principes du droit. Dans un premier temps, cet article inverse la charge de la preuve : ça n'est pas à l'ayant-droit de prouver d'abord qu'il y a eu utilisation illicite de son oeuvre, mais à l'internaute qui a mis en ligne un contenu de prouver, après suppression automatique, que son contenu de violait pas les droits d'autrui. Ce mécanisme risque de porter largement atteinte à la liberté d'expression et de création, et le caractère automatique de la sanction décourage de tout recours et prive du droit au procès équitable qui sous-tend notre droit. Rien n'est indiqué dans la directive pour obliger les plateformes à tenir compte des réclamations faites ou mettre en place des procédures d'appel.

De même, cette mesure crée une rupture d'égalité forte devant la justice : alors que les ayant-droits n'ont pas à intenter d'action judiciaire pour faire supprimer des contenus, les éditeurs dont les contenus ont été abusivement supprimés doivent, eux, supporter la charge d'une action judiciaire pour faire valoir leurs droits à posteriori. Autre rupture d'égalité, celle qui ne manquera de se construire entre les ayant-droits qui seront assez riches pour avoir marqué l'ensemble ou une grande part de leur catalogue de façon à ce que les robots puissent détecter les réutilisations, et ceux qui ne pourront le faire : si cette automatisation du retrait de contenu illicite devient la norme, alors seuls ceux capables de supporter le coût de cette automatisation pourront faire valoir leurs droits.

La question des empreintes d’œuvres nécessaires à la mise en place d'outils de détection automatique de contenus illicites ne s'arrête pas là : la question se pose d'une plateforme n'ayant pas reçu d'empreintes, parce qu'ignorée par les ayant-droits. Serait-elle alors tenue tout de même de mettre en place des outils de détection ? Est-elle autorisée à continuer de mettre à disposition des espaces d'hébergement de contenu ? Si ce n'est pas le cas, alors il y aura de lourdes entraves à la concurrence dans le sens où les ayant-droits pourraient se trouver en position de juges des plateformes qu'ils jugent légitimes et qui peuvent, ou non, exister.

La question du contrôle des robots est également cruciale : qui contrôlera ces robots, vérifiera leurs paramétrages ? Qui pourra certifier que ces robots auront la finesse d'analyse nécessaire pour distinguer la reprise illicite d'une oeuvre et son détournement en parodie ? Qui pourra valider qu'il n'y aura pas d'abus, pas d'excès, pas d'interprétation abusive du droit d'auteur ? Au vu du fonctionnement de ce type de robots pour des plateformes de vidéo (Youtube), il est d'ores et déjà prouvé que ces robots font de nombreuses erreurs.

Parmi ces erreurs, il a par exemple déjà été constaté que les ayant-droits qui posent des empreintes sur des oeuvres peuvent se réapproprier eux-mêmes les oeuvres d'autres auteurs, et priver ceux-ci du libre choix de publication de leur création.

Au vu de ces nombreux points d'inquiétude, nous préconisons de refuser la systématisation de ce procédé de détection d'oeuvres protégées sur les plateformes de contenu, sous peine d'alourdir considérablement le régime juridique de la publication sur Internet et d'une inflation des atteintes aux droits fondamentaux.


  • Inversion de la charge de la preuve
  • Peut empêcher de poster des contenus légalement achetés (samples, extraits, etc.) > NoLife/INA
  • Parodie (exception au droit d'auteur)
  • Peut toucher les auteurs qui postent leur propres contenus
  • Droit de citation -> critique
  • Liberté d'expression
  • Peut aussi porter atteinte aux licences libres (ex. tout le contenu de ce site est sous licence XY sauf mention contraire)
  • Ne pas appliquer le robot si le contenu est sourcé, dans ce cas vérification humaine
  • Que le robot ne puisse pas supprimer les contenus en dessous d'un pourcentage donné
  • Problème du signalement abusif en toute impunité + censure à priori, posteur qui doit prouver qu'il est de bonne foi
  • Droit au procès équitable -> tenir compte des réclamations, obligation de la mise en place de procédures
  • Un tiers de confiance > médiateur ou instance ? CIL ?
  • Encadrement des robots, réparation dommages moraux (on encadre les dommages physiques des robots, mais pas moraux)
  • Censure arbitraire par automatisation
  • Dommages collatéraux (musique dans un jeux vidéo, vidéo/film par exemple)
  • Risque d'appropriation des contenus par un tiers > C17 « Le Zap » cite juste YouTube
  • Journaliste de 20 minutes qui fait une vidéo de dénoncement d'une reprise de sa vidéo par TF1 et qui se fait bloquer/censurer par TF1 car viole leur propriété, suivi d'un procès du journaliste envers TF1
  • Rupture de l'égalité devant la justice (pas de procès pour les ayants droits, alors que les gens publiant doivent faire un procès pour se défendre)
  • Créé de nouveaux intermédiaires qui peuvent avoir du pouvoir
  • Créé une inégalité entre ayant droits > ceux qui peuvent envoyer une empreinte et ceux qui ne peuvent pas / opt-out possible
  • Droit aux Ayant droits de ne pas donner leurs empreintes, mais du coup ne pas poursuivre les plateformes si celles-ci n'ont pas reçu d'empreintes (garde fou)
  • Une plateforme n'ayant pas reçu d'empreintes est-elle dans son droit ? Si non, entrave à la concurrence, et les ayant droits se posent en juge de quelle plateforme est légitime et peut exister ou non
  • Venez témoigner auprès des députés, de préférence en vidéo
  • Qui contrôle les robots, qu'il n'y a pas d'excès, d'abus, de copyfraud dans les robots ?
  • Comment fait le robot pour prendre en compte la territorialisation du droit ? (différences géographiques)

Ressources

Économie (ITRE / IMCO)

L'article 13 de la directive, en demandant aux plateformes de mettre en place des outils de détection automatique de contenus illicites, porte lourdement atteinte aux principes du droit. Mais au-delà, cela pose de nombreux problèmes de compatibilité avec la directive e-commerce qui régit la plus grande part des responsabilités respectives des acteurs de l'Internet, et met en péril de nombreux équilibres, sans produire de solution aux problèmes de transferts de valeurs.

Il faut tout d'abord noter que l'article 13 de la proposition de directive entre frontalement en conflit avec la directive e-commerce de 2000 : en effet, celle-ci n'impose aucune obligation de surveillance préalable des contenus pour les hébergeurs de services de partage de contenus en ligne. Il est impossible d'imaginer pouvoir concilier l'obligation générale d'installation d'outils de détection de contenus illicites avec cette absence de responsabilité a priori des hébergeurs sur le contenu. Cette directive a été mise en place pour permettre le développement de services Internet, l'obligation de surveillance étant considérée comme nuisant de façon disproportionnée au développement de nouveaux services, acteurs, et plus globalement de la participation sur Internet. Sans la directive e-commerce, il ne pourrait y avoir aucune sécurité juridique pour les hébergeurs. Cet équilibre, qui est en place depuis plus de 15 ans, a prouvé sa pertinence et sa nécessité. Revenir dessus à propos des contenus sous droit d'auteur est non seulement une aberration économique qui va casser un équilibre finement décidé, mais également un danger pour tous types de contenus par la suite. Il est probable qu'il puisse y avoir des ajustements à faire sur ce régime de responsabilité partagée, mais cela ne peut se faire par le biais d'une directive sur le droit d'auteur et sans réflexion et concertation globale préalable avec l'ensemble des acteurs du secteur, y compris les utilisateurs.


L'action de suppression et de contrôle automatique des contenus illicites ne rapporte aucun argent aux créateurs ou aux sociétés de gestion collectives de droits : en supprimant les contenus, il ne permet pas de résoudre la problématique du transfert de valeur. Pire, il prive même les créateurs de la visibilité qu'apporte l'exposition, y compris illégale, de leurs oeuvres sur Internet. Alors que la monétisation forcée d'une vidéo par Youtube induit un reversement aux ayant-droits, cette capacité de rémunération disparaît en cas de suppression et le dispositif de contrôle des contenus illicites ne peut jouer de rôle de redistribution.

Internet est devenu une ressource publicitaire majeure et même si ce modèle économique basé sur la publicité devrait être remis en question, ou du moins ne pas être l'unique modèle de rémunération, il peut cependant servir plus facilement de base au règlement du problème de transfert de valeur que ne le serait le principe de suppression des contenus. Par exemple, des mesures fiscales plus globales pourraient être envisagées : harmonisation fiscale européenne ou règlement de la question de la territorialisation des impôts pour les entreprises étrangères exerçant en Europe, changement de taux de rémunération sur les publicités ou le revenu général des plateformes etc. Il nous semble que la question du différentiel de revenus entre plateformes et créateurs ne peut être réglée qu'en traitant des problématiques de répartition, et pour cela il est fondamental que les sociétés de gestion collective des droits adaptent leurs modèles de répartition aux nouveaux usages nés du partage massif de contenus sur les plateformes Internet.

L'obligation générale de mise en place d'outils de détection automatique de contenus illicites va générer une forte inégalité entre plateformes, préjudiciable à l'émergence de nouveaux acteurs, notamment de petite taille. En effet, le développement ou l'achat de ce type de solutions est extrêmement coûteux. Les quelques entreprises qui sont actuellement en mesure de développer des outils performants de détection de contenus illicites, et qui souvent sont elles-mêmes actrices sur le marché des contenus numériques, vont en outre prendre un ascendant et mettre sous dépendance forte les plus petits acteurs qui vont devoir se tourner vers elles pour acheter ou louer les services de leurs outils. L'inflation probable du contentieux lié aux erreurs inévitables des outils est également source de coûts supplémentaires. Au final, ce sont les grosses plateformes déjà existante, pour beaucoup extra-européennes, qui vont être en mesure de conserver une qualité de service acceptable et d'être en règle avec la détection automatique de contenus illicites, alors que les petites structures ou les nouveaux entrants vont avoir un coût à assumer bien plus important, voire totalement rédhibitoire. Paradoxalement, cette mesure risque de favoriser le monopole des GAFA et de tuer l'émergence d'acteurs européens, en faisant monter de façon disproportionnée le coût d'accès au marché ou les risques financiers imprévisibles en cas de création d'un service de partage de contenu. Il s'agit vraiment de savoir quel modèle économique nous voulons favoriser au sein de l'union européenne : quelques plateformes ultra-centralisées où il n'y a plus aucun contenu illicite, mais qui créent des emplois et payent leurs impôts majoritairement en dehors du territoire européen, ou un réseau d'entreprises locales sans doute de taille plus modeste, mais implantées sur le territoire de l'Union, innovantes et qui pourraient se développer sans une crainte disproportionnée du contentieux pour cause de mauvaise législation sur la répartition des revenus générés par leurs services. Cette crainte n'est pas un fantasme : dans le passé, et encore récemment, plusieurs acteurs ont du fermer leurs services par incapacité à contrôler l'entrée de contenus illicites sur leurs espaces. Submergés par les contentieux et demandes de sociétés de gestion collective de droits, ils ont du renoncer à leur modèle (par exemple radio.blog.club, français, fermé sur décision de justice en 2012, ou Grooveshark, service d'écoute de musique en ligne américain qui n'a pu résister aux nombreux procès des Majors de l'industrie musicale).



  • Suppression interdite en-dessous d'un certain temps et/ou pourcentage total de l'œuvre
  • Question de la répartition des droits patrimoniaux par pourcentage / demande des youtubeurs, et volonté initiale de Google pour dévelppper le ContentID
  • Le robot en lui-même ne donne aucun argent aux créateurs ou aux SPRD, et il enlève en plus la visibilité : ne résout pas la problématique des transferts de valeurs. Les créateurs perdent la possibilité d'avoir des revenus puisque le contenu est supprimé.
  • Quand Youtube monétise de force une vidéo, elle reverse les droits aux ayants droits. Si le contenu est supprimé il n'y a aucune chance de rémunérer les ayant-droits. Le robot policier ne joue pas le rôle de redistributeurs. Amplifie le fossé de redistribution de valeur. Internet devient une ressource publicitaire majeure
  • Si le problème est une question de régler le différentiel de revenus, alors il faut une mesure fiscale plus générale (payer les impôts, changer les taux de rémunération etc) CF taxe Youtube + répartition fléchée. Question de répartition de l'argent générée par les plateformes sur les revenus publicitaires.
  • Le robot ne va pas gêner les grosses plateformes qui pourront se payer un robot correct, les petits ne pourront pas développer ou acheter des robots, donc vont mourir. Renforcement du monopole des GAFA. Plusieurs acteurs sont morts de ne pas pouvoir agir assez efficacement pour contrôler les violations de droits d'auteurs (Grooveshark / Radioblog (2007-2009) / Androïd-Google) + dépendance aux concurrents
  • Fait monter le coût d'accès au réseau et au marché économique pour les nouveaux entrants, start-ups etc.
  • pas de différence non-commercial / commercial, privé / public etc. Dégâts collatéraux sur les activités non-commerciales, sur les forums et commentaires de blogs etc
  • Pas de définition juridique de la plateforme en droit européen. Directive e-commerce définit éditeur / hébergeur, mais pas la "plateforme".
  • prendre l'exemple de Wikipédia / Dropbox / Slideshare / Flickr / Tumblr / 500px /
  • la directive e-commerce a été créée pour permettre aux nouveaux acteurs économiques de se développer : revenir dessus empêcherait de faire des champions européens de l'économie numérique #Frenchtech #licorne
  • Dans le domaine économique, qui veut-on privilégier ? Les grosses ou petits plateformes, les gros ou petits créateurs
  • Surcoût pour les industries culturelles : nécessité de poser des empreintes sur toutes les oeuvres
  • Ne prend pas en compte les nouveaux modes de financement de la culture (micro-financement, crowdfunding, financement par abonnement)

Ressources

Culture (CULT)

L'article 13 de la directive Copyright est dangereux non seulement sur le plan du droit ou des conséquences économiques sur le marché de la création artistique, mais également parce qu'il fait peser sur la création elle-même des menaces bien précises.

Les outils de censure automatique sont, par nature, incapables de discerner lors de la réutilisation d'une oeuvre, s'il s'agit d'une simple copie sans ajout, ou bien d'une parodie, d'une critique ou d'un remix (entre autres possibilités de reprise légitimes et légales d'un extrait d'oeuvre protégée). Toute la culture qui repose sur l'utilisation d'autres oeuvres pour alimenter la création, est donc niée et fortement mise en danger par ce type de mesures. Or, la culture transformative est extrêmement présente dans les nouveaux usages et services qui sont visés par cet article. Y porter atteinte de façon indifférenciée comme l'article 13 le demande, c'est donc mettre en péril une part très importante de la création audio et vidéo actuelle. Cette création transformative ou qui utilise des extraits d'autres oeuvres est une part de l'écosystème culturel global qui ne peut être supprimée sans conséquences. Par exemple, le rôle de vulgarisation scientifique et de partage de culture générale exercé par de nombreux créateurs de vidéos, qui rassemblent plusieurs centaines de milliers de visiteurs à chaque publication, participant ainsi à la vitalité de la création culturelle et éducative, notamment auprès d'un public jeune qui s'informe et se cultive plus volontiers sur Youtube que via des relais traditionnels.

De même, cette disposition ne propose aucun moyen ou même objectif pour marquer les oeuvres qui sont diffusées sous licence libre, ou qui sont entrées dans le domaine public. De la même façon, l'expérience du robot de détection d'oeuvres protégées sur Youtube a fait apparaître de nombreux conflits entre titulaires de droits, qui promet un contentieux important, et par ricochet une modification des conditions de création, les créateurs ne pouvant être assurés de contrôler comme ils le souhaitent la diffusion de leurs oeuvres. L'autopromotion d'artistes deviendra pratiquement impossible, puisqu'elle repose sur la diffusion d'oeuvres contrôlée par l'artiste ou ses agents. Comment faire sortir une oeuvre des empreintes de l'outil de détection, lorsqu'elle est volontairement diffusée ?

En ce qui concerne le principe même de ces outils, il y a une négation flagrante du statut du créateur amateur, qui ne peut être reconnu et protégé que s'il est inscrit à une société de gestion collective de droits, en charge de fournir les empreintes d'oeuvres à "protéger" sur les plateformes de partage. Cette logique est contraire aux principes du droit d'auteur qui protège chaque créateur indépendamment de son statut professionnel ou amateur.

Le projet de directive ne propose aucune garantie pour assurer une réduction au maximum des erreurs de censure si aucune obligation de résultat ou de moyen n'est imposée par la directive. Il ne prend non plus en compte la territorialisation du droit, et les différences géographiques d'exercice du droit d'auteur, mettant les créateurs et utilisateurs dans une situation d'insécurité juridique permanente.

Pour conclure, cette disposition qui se veut protectrice pour les créateurs est en fait une voie de restriction des capacités de création et de diffusion, et n'apporte strictement aucun avantage aux créateurs eux-mêmes. Elle risque en outre de pousser à la création d'une culture hors-la-loi, qui se transfèrera vers des plateformes privées ou cachées, puisque les pratiques qui sont visées ne vont pas disparaître (elles sont trop massivement pratiquées par les internautes), seulement disparaître de la face visible d'Internet et décourager ainsi le renouvellement des générations de créateurs. Pour donner un exemple du transfert des pratiques, il suffit de regarder le résultat d'Hadopi en France, qui à sa création en 2008 ambitionnait de résoudre la question du partage d'oeuvres illicite en ligne, et qui en 2015 ne concerne que 9% des téléchargements de musique.

  • Toute la culture qui repose sur l'utilisation d'autres oeuvres (parodie, critique, remix etc) est niée par l'existence même de ce genre de mesure de censure automatique
  • culture transformative de plus en plus présente dans les nouveaux usages
  • Youtubeurs de vulgarisation scientifique / histoire / vidéothèque d'Alexandrie pénalisés. Participent à l'écosystème culturel global
  • Robots pas subtils, peuvent pénaliser certaines pratiques culturelles (extraits pour critiques, parodie)
  • Comment marquer les oeuvres qui sont dans le domaine public ? Problèmes d'interprétations privées pour lesquelles les interprêtes autorisent la diffusion, mais l'oeuvre est déjà "marquée" par un autre titulaire de droits
  • Qui contrôle les robots, qu'il n'y a pas d'excès, d'abus, de copyfraud dans les robots ?
  • Négation de la pratique culturelle amateure (puisqu'il faut être inscrit à une SPRD pour être protégée)
  • création de culture hors la loi, prohibition
  • pratiques basées sur de la culture partagée sont la quotidien de millions de gens, notamment des jeunes jusqu'à 45 ans. Risque d'étouffement de la créativité ==> transfert vers des plateformes privées / cachées, problème de renouvellement des générations de créateurs
  • Limite l'autopromotion des artistes alors que les nouveaux modèles notamment musicaux incluent une publicité en ligne pour faire venir les gens sur scène.
  • Risque d'auto-shoot sur Youtube (cinéma / musique)
  • Comment fait le robot pour prendre en compte la territorialisation du droit ? (différences géographiques)
  • Hadopi, le peer-to-peer, sa seule "cible", ne représenterait plus que 9% des téléchargements de musique en 2015 : http://www.journaldunet.com/ebusiness/le-net/1168253-malmenee-l-hadopi-dresse-son-bilan/


Ressources