Fake news et délit de fausse nouvelle : la loi doit s’arrêter là où commencent les libertés

Les « fake news » ne datent pas d’hier ni le délit de fausse nouvelle. Mais Internet et les réseaux sociaux ont relancé les débats sur la lutte contre la « désinformation ». Or légiférer sans censurer relève d’une mission impossible, si l’on ne veut pas déstabiliser les fondements de
la démocratie.

Par Christiane Féral-Schuhl*, avocate associée, cabinet Féral-Schuhl/Sainte-Marie

En anglais, fake signifie « faux » (ou « truqué »). Il s’agit donc de « fausses informations » ou, plus précisément, d’informations délibérément fausses dont la diffusion vise à induire en erreur. Cette stratégie de désinformation du public a été largement évoquée dans les médias, notamment à l’occasion des dernières élections présidentielles aux Etats-Unis comme en France.

Mensonges, calomnies, tromperies, …
Il a en effet été beaucoup question de « faux comptes russes » de publicités sur Facebook dont l’objectif étaient de véhiculer des fausses informations sur des sujets sensibles au moment de la campagne présidentielle de Donald Trump, ou encore de fausses nouvelles véhiculées sur les réseaux sociaux durant la campagne présidentielle d’Emmanuel Macron. Le sujet
a également été évoqué lors de la campagne du Brexit ou encore du référendum en Catalogne. Actuellement, si aucun texte de droit commun
ne prévoit de réprimer la diffusion de fausses nouvelles, plusieurs textes spéciaux visent le délit de fausse nouvelle. L’article 27 de la loi du 29 juillet 1881 sur la liberté de la presse, les articles L.97, L.114 et L.117 du Code électoral, les article L.465-3-1 à L465- 3-3 du Code monétaire et financier ainsi que l’article L.443- 2 du Code de commerce sont autant de textes qui, bien qu’applicables dans des domaines spécifiques, renvoient tous à la notion de « fausse nouvelle » et présentent plusieurs traits communs : ils
ne posent aucune condition relative à l’auteur de la fausse nouvelle ; afin qu’une infraction puisse être qualifiée, ils exigent que la fausse nouvelle
ait fait l’objet d’une publication, une diffusion ou une reproduction ; enfin, ils emploient des termes tels que « informations mensongères », « bruits calomnieux », « nouvelles trompeuses ou destinées à tromper ».
Cependant, ces textes peuvent être difficiles à mettre en oeuvre, à l’instar
de l’article 27 précité de la loi de 1881 qui sanctionne d’une amende de 45.000 euros le fait d’avoir publié ou d’avoir relayé des informations créées et diffusées volontairement pour tromper le public. En effet, le texte prévoit que la « publication, la diffusion ou la reproduction » a été faite de
« mauvaise foi » et qu’elle est de nature à troubler la paix publique. Ces deux conditions constituent des obstacles importants pour contrer l’auteur de l’infraction qui ne manquera pas de faire valoir qu’il ne savait pas qu’il s’agissait d’une « fake news ». Quant aux hébergeurs, s’ils bénéficient d’un régime d’« irresponsabilité sauf », ils restent tenus de concourir à la lutte contre certaines infractions et, à ce titre, ils doivent mettre en place un dispositif de signalement. Mais cette obligation est circonscrite à des contenus qui relèvent de certaines catégories : l’apologie de crimes contre l’humanité, la provocation à la commission d’actes de terrorisme et de leur apologie, l’incitation à la haine raciale, à la haine à l’égard des personnes
en raison de leur sexe, de leur orientation ou identité sexuelle ou de leur handicap, ainsi que la pornographie enfantine, l’incitation à la violence, notamment l’incitation aux violences faites aux femmes, des atteintes à la dignité humaine. Le dispositif existant n’apparait donc pas adapté aux
« fake news ».
Devant l’ampleur du phénomène, certains acteurs du Web ont pris des initiatives telles que la mise en place d’outils de vérification de contenus,
à l’exemple de l’option proposée par Facebook aux internautes pour leur permettre de qualifier certains contenus comme de « fausses informations», ou encore ont rejoint le consortium Trust Project (1) qui réunit de grands éditeurs de presse pour lutter ensemble contre les « fake news ».

Du texte « Goulet » de 2017 …
Parallèlement, le constat de l’insuffisance du dispositif légal a conduit à plusieurs propositions de lois, notamment celle qui a été soumise par sénatrice Nathalie Goulet le 22 mars 2017 visant à sanctionner les personnes qui mettent à la disposition du public des contenus sans vérifier les sources. Ce texte (2) présumait que « l’éditeur, le diffuseur, le reproducteur, le moteur de recherche ou le réseau social ayant maintenu
à la disposition du public des nouvelles fausses non accompagnées des réserves nécessaires pendant plus de trois jours à compter de la réception du signalement de leur caractère faux » étaient de mauvaise foi. Certes, ils pouvaient rétablir leur bonne foi en démontrant qu’ils avaient fait des
« démarches suffisantes et proportionnelles aux moyens » dont ils avaient disposé pour vérifier le contenu litigieux. Le texte a déclenché une série
de critiques, la principale consistant à dénoncer la difficulté à délimiter la frontière entre la « fake news » et la liberté d’expression, la liberté d’opinion ou encore la liberté de la presse. Il en résultait un risque non négligeable d’atteinte à un droit fondamental et constitutionnel. Aucune suite n’a été donnée à cette proposition jusqu’en janvier 2018, date à laquelle le président de la République – à l’occasion de ses voeux à la presse (3) – a annoncé sa volonté de réguler la publication de contenus sur Internet au cours des périodes électorales.

… au texte « Macron » de 2018
Une proposition de loi relative à la lutte contre les fausses informations
(4) ainsi qu’un projet de loi organique (5) prévoient de modifier le code électoral pour encadrer les périodes pré-électorale et électorale, définies comme courant à compter de la date de publication du décret convoquant les électeurs, jusqu’à la fin des opérations de vote, soit sur une durée maximum de cinq semaines avant le scrutin. L’objectif du législateur est
de contrôler les canaux de diffusion des fausses nouvelles, tout particulièrement les réseaux sociaux et les sites web de partage de vidéo ainsi que les médias sous influence d’un Etat étranger. A cet effet, le dispositif se décline en trois grandes propositions :
D’une part, le texte met à la charge des plateformes une obligation de transparence accrue sur tous les contenus sponsorisés. Elles devront rendre publiques l’identité des annonceurs de contenus ainsi que celle des personnes qui contrôlent les annonceurs. Elles devront également publier les montants consacrés à ces contenus, afin d’identifier les contenus sponsorisés à des montants élevés.
D’autre part, dans le cas où une fausse nouvelle serait publiée sur Internet, il est proposé d’introduire une nouvelle action en référé devant
le juge civil pour faire cesser la diffusion massive et artificielle d’une fausse nouvelle. Cette procédure, inspirée du référé « LCEN » (6) qui permet à toute personne de demander au juge de prescrire aux hébergeurs ou aux fournisseurs d’accès toutes mesures propres à prévenir un dommage ou
à faire cesser un dommage occasionné par le contenu d’un service de communication au public en ligne. Cette action pourrait être engagée à la demande du ministère public ou de toute personne ayant intérêt à agir, uniquement pendant la période pré-électorale et électorale. Le tribunal
de grande instance de Paris serait exclusivement compétent, eu égard
au caractère national de l’écho donné à la diffusion massive de fausses informations. Le juge pourra notamment ordonner de supprimer le contenu mis en cause, de déréférencer le site, de fermer le compte utilisateur concerné ou encore de bloquer l’accès au site Internet.
Enfin, les pouvoirs du Conseil supérieur de l’audiovisuel (CSA) seront accrus afin de lutter contre toute tentative de déstabilisation par les services contrôlés ou influencés par des Etats étrangers. Si le régulateur considère qu’un Etat étranger propage une fausse nouvelle, il pourra
« suspendre » ou « révoquer » la convention d’un média sous influence de cet Etat. La commission de la Culture et la commission des Lois du Sénat
ont rejeté ces propositions le 26 juillet 2018, considérant que le dispositif continue de susciter les mêmes inquiétudes au regard de la censure, y ajoutant qu’en envisageant d’accroître la responsabilité des plateformes en cas de diffusion de fausses nouvelles, les principes posés dans la loi « LCEN » de 2004 sont susceptibles d’être remis en question. Il s’agit en effet d’une nouvelle exception, au même titre que pour les contenus terroristes ou pédopornographiques, au principe de limitation de responsabilité des intermédiaires techniques. Le projet de loi « Fausses nouvelles » devrait passer en commission mixte paritaire d’ici la fin de l’année.
On notera que, dans son avis du 19 avril 2018, le Conseil d’Etat partageait déjà l’opinion des sénateurs, en considérant que la mesure tendant au
« déréférencement d’un site diffusant ces fausses informations » apparaissait excessive, seuls devant être déréférencés les liens menant vers les pages diffusant ces informations.
Par ailleurs, le Conseil d’Etat proposait de prévoir que l’ordonnance du juge des référés soit rendue en premier et dernier ressort, afin de ne permettre que l’exercice d’un pourvoi en cassation dans des conditions de délai qui peuvent être précisées dans le texte réglementaire d’application de la future loi. Enfin, plus généralement, après avoir reconnu que« l’état actuel du droit, notamment en matière électorale, ne permet[tait] pas nécessairement de répondre à l’intégralité des risques induits par [les plateformes numériques] », a suggéré « d’harmoniser les différentes dispositions des propositions de loi pour ne retenir que la notion de “fausses informations” » et non celle de « fausses nouvelles », et a recommandé que « la lutte contre les fausses informations soit systématiquement circonscrite aux cas dans lesquels il est établi que
la diffusion de telles informations procède d’une intention délibérée de nuire ».

L’Europe contre « la désinformation »
Sur le plan européen, la Commission européenne a adopté des mesures fondées sur les conclusions et les recommandations présentées le 12 mars 2018 (8) par un groupe d’experts de haut niveau pour lutter contre la désinformation en ligne. Dans sa communication « Lutter contre la désinformation en ligne : une approche européenne » (9), datée du 24 avril 2018, elle préconise ainsi un code de bonnes pratiques et de nouvelles règles visant à accroître la transparence et l’équité des plateformes en ligne, notamment la mise en place d’un réseau indépendant de vérificateurs de faits ou encore une démarche d’autorégulation des acteurs. @

* Christiane Féral-Schuhl est ancien bâtonnier du Barreau
de Paris, et auteure de « Cyberdroit », dont la 7e édition
(2018-2019) est parue aux éditions Dalloz.

Vers un droit fondamental de l’accès à l’Internet dans la Constitution de 1958 ?

Comme il existe une Charte de l’environnement adossée à la Constitution française depuis 2004, une « Charte du numérique » faisant de l’accès à Internet un droit-liberté serait historique après une décennie de débats. Le 11 juillet, le projet a été rejeté. Mais la réflexion continue.

Par Christiane Féral-Schuhl*, avocate associée, cabinet Féral-Schuhl/Sainte-Marie

Un groupe de parlementaires de tous horizons politiques a proposé d’adosser à la Constitution de 1958 une « Charte du numérique », comme il y a une Charte de l’environnement adoptée, elle, en 2004 (1). Cette charte du numérique – qui comprend sept articles (2) – vise à consolider les grands principes du numérique en garantissant des droits et libertés numériques qui pourront alors faire l’objet d’un contrôle de constitutionnalité.

Droit d’accès aux réseaux numériques
La Charte du numérique, telle que proposée le 21 juin dernier par le groupe de travail informel commun à l’Assemblée nationale et au Sénat en vue de
« réfléchir à l’inclusion des droits et libertés numériques dans la Constitution », prévoit notamment que « la loi garantit à toute personne un droit d’accès aux réseaux numériques libre, égal et sans discrimination »
et que les réseaux numériques « respectent le principe de neutralité qui implique un trafic libre et l’égalité de traitement ». Ces propositions font écho à la déclaration commune signée le 28 septembre 2015 (3) par le président de l’Assemblée nationale (Claude Bartolone) et la présidente de
la Chambre des députés italienne (Laura Boldrini). Ce texte franco-italien
« sur les droits et devoirs numériques du citoyen » (4) devait être adressé
au Parlement européen pour inviter les Etats de l’Union européenne à y adhérer. Si l’on peut regretter que la Charte du numérique ait été aussitôt rejetée par la commission des lois, le 27 juin 2018 à l’Assemblée nationale, lors de l’étude du projet de loi constitutionnelle au motif que ses conséquences et implications étaient trop hasardeuses, on note qu’elle pourrait être reprise sous forme d’amendements au projet de loi constitutionnelle (5). Le sujet est d’importance. Il suffit, pour s’en convaincre, de constater que l’accès à l’Internet n’est pas libre dans tous
les pays, certains Etats limitant l’accès au réseau des réseaux en utilisant diverses techniques : blocage d’adresses IP de noms de domaine, censure
de certains mots-clés sur les moteurs de recherche ou encore filtrage des sites web contenants ces mots-clés (6). Il suffit également de rappeler que
le Saoudien Raif Badawi a été cruellement sanctionné pour avoir voulu ouvrir un blog afin d’inviter à un débat sur l’influence religieuse dans le Royaume d’Arabie saoudite. Cette initiative a été sévèrement sanctionnée : une peine de prison de dix ans, 1.000 coups de fouet et une amende. Son avocat, Waleed Abu al-Khair a également été condamné, à quinze ans de prison, pour l’avoir défendu et avoir prôné la liberté d’expression. De même, le blogueur mauritanien Cheikh Ould Mohamed Ould Mkheitir a été condamné à mort pour un billet jugé blasphématoire (7). Sa peine de mort avait été confirmée par la cour d’appel de Nouadhibou, tout en requalifiant les faits en « mécréance », mais annulée par la Cour suprême (8) avant de
se voir transformée en une condamnation à deux ans, toujours pour les mêmes faits (9). Il aura été incarcéré durant quatre ans. Quant au chinois Liu Xiaobo, il a également été déclaré coupable d’« avoir participé à la rédaction de la Charte 08, manifeste politique qui défendait une réforme démocratique pacifique et demandait un plus grand respect des droits humains fondamentaux en Chine, ainsi que la fin du système de parti unique ». Il avait été condamné à onze ans de prison pour ce manifeste signé par 303 intellectuels qui a circulé sous forme de pétition sur Internet. Récipiendaire du prix Nobel de la Paix en 2010, il est décédé en juillet 2017 alors qu’il venait de bénéficier d’une mise en liberté conditionnelle à raison de son état de santé très dégradé. Certains, à l’instar de Vinton Cerf (10) – l’un des pères fondateurs de l’Internet – considère que l’Internet est une
« technologie (…) facilitateur de droits, pas un droit en lui-même ».

Un nouveau droit-liberté fondamental
C’est en ce sens également que s’exprime Michaël Bardin, docteur en droit public, lequel considère que si « les juges, par cette décision [Hadopi de 2009, ndlr (11)], confirment bien qu’il est nécessaire de reconnaître l’importance contemporaine du droit d’accès à internet (…), pour autant,
le droit d’accès à internet n’est ni “un droit de l’homme” ni un “droit fondamental” en lui-même ». Et d’ajouter : « Il n’est et n’existe que comme moyen de concrétisation de la liberté d’expression et de communication.
En définitive, le droit d’accès à internet vient prendre sa juste place dans les moyens déjà connus et protégés que sont la presse, la radio ou encore la télévision » (12). Tel n’est pas l’avis du Conseil d’Etat qui qualifie le droit d’accès à l’Internet de droit fondamental (13). En ce sens également, la professeure universitaire Laure Marino observe que le Conseil constitutionnel a élevé la liberté d’accès à Internet au rang de nouveau droit fondamental : « Pour ce faire, le Conseil constitutionnel utilise la méthode d’annexion qu’il affectionne. Il décide que la liberté de communication et d’expression “implique” désormais la liberté d’accès
à Internet. Comme dans un jeu de poupées russes, cela signifie qu’elle l’intègre et l’enveloppe ou, mieux encore, qu’elle l’annexe. On peut se réjouir de cette création d’un nouveau droit-liberté : le droit d’accès à Internet. L’accès à Internet devient ainsi, en lui-même, un droit-liberté, en empruntant par capillarité la nature de son tuteur, la liberté d’expression. Ainsi inventé par le Conseil, le droit d’être connecté à Internet est donc un droit constitutionnel dérivé de l’article 11 de la Déclaration des droits de l’homme et du citoyen de 1789 » (14).

La coupure de l’accès Internet
C’est également la position exprimée en 2015 par la commission de réflexion et de propositions sur le droit et les libertés à l’âge du numérique (ComNum) de l’Assemblée nationale dans son rapport (15). Elle observe que plusieurs décisions prises au plan européen militent en ce sens. Ainsi, à titre d’exemple, dès 2009, et en plein débat sur la loi « Hadopi » que devait adopter la France quelques semaines plus tard, le Parlement européen s’est symboliquement opposé, par une recommandation (16), à la riposte graduée et à l’hypothèse de la coupure de l’accès Internet. Dans le même esprit, la directive européenne 2009/140/CE du 25 novembre 2009, composante du troisième « Paquet télécom » (17), prévoit que « les mesures prises par les Etats membres concernant l’accès des utilisateurs finals aux services et applications, et leur utilisation, via les réseaux de communications électroniques respectent les libertés et droits fondamentaux des personnes physiques tels qu’ils sont garantis par la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales et les principes généraux du droit communautaire ». Cette directive impose par conséquent le respect de la présomption d’innocence et la mise en place d’une procédure « préalable, équitable et impartiale » avant toute restriction de l’accès ; elle estime en conséquence que le droit d’accès à Internet comporte des enjeux qui dépassent largement ceux de l’accès à la presse, la radio ou la télévision (18). Plus encore, « l’accès à internet est indispensable non seulement à l’exercice du droit à la liberté d’expression, mais aussi à celui d’autres droits, dont le droit à l’éducation, le droit de s’associer librement avec d’autres et le droit de réunion, le droit de participer pleinement à la vie sociale, culturelle et politique et le droit au développement économique et social » (19). Comme l’indique le Conseil d’Etat dans son étude annuelle de 2014, la liberté d’entreprendre – qui découle de l’article 4 de la Déclaration des droits de l’homme et du citoyen – implique le droit pour les entreprises de développer des activités à caractère numérique. « La loi et la jurisprudence présentent aujourd’hui plusieurs garanties de ce que l’on pourrait qualifier de ‘’droit à une existence numérique’’ de l’entreprise, qui implique différents attributs : droit à un nom de domaine, droit à fournir des services sur Internet, droit d’utiliser certains instruments tels que la publicité, la cryptographie ou les contrats conclus par voie électronique ». Il va sans dire que la liberté d’entreprendre et le droit à une existence numérique impliquent également le droit d’accéder à Internet. On rappellera que la peine de suspension de l’accès à Internet n’a été prononcée qu’une seule fois par la justice française et jamais appliquée. Elle a été supprimée par le décret du 8 juillet 2013 (le rapport Robert de 2014 a émis une proposition de rétablissement de cette peine de suspension en la généralisant aux infractions qui mettent en péril un mineur).
Dans ce contexte, il convient d’acter que le droit fondamental d’accès à Internet doit être assuré dans ses fondements substantiels et pas seulement comme possibilité de connexion à la toile. L’accès comprend le libre choix des systèmes d’exploitation, des logiciels et des applications. La protection effective du droit d’accès exige des interventions publiques adéquates pour surmonter toute forme de fracture numérique – culturelle, infrastructurelle, économique – en ce qui concerne notamment l’accessibilité de la part des personnes handicapées.

A l’instar de la Charte de l’environnement
C’est donc dans cet objectif que le groupe parlementaire transpartisan a proposé d’adosser à la Constitution de 1958 la « Charte du numérique »,
à l’instar de la Charte de l’environnement adoptée en 2004. Les débats du
11 juillet 2018 à l’Assemblée nationale sur le projet de loi constitutionnelle
« pour une démocratie plus représentative, responsable et efficace » ont finalement abouti au rejet de cette charte.
Mais la réflexion, elle, va se poursuivre, d’autant que l’Internet Society (Isoc) soutient l’initiative française après avoir lancé une pétition « pour la consécration constitutionnelle des droits fondamentaux des utilisateurs du numérique ». @

* Ancien bâtonnier du Barreau de Paris,
et auteure de « Cyberdroit », dont la 7e édition
(2018-2019) est parue aux éditions Dalloz

Réforme du droit d’auteur : les eurodéputés rejettent le risque de filtrage généralisé d’Internet

En rejetant le 5 juillet 2018 la réforme controversée de la directive sur le droit d’auteur, les eurodéputés jouent les prolongations en renvoyant la poursuite des débats à septembre prochain. Le risque de filtrage généralisé de l’Internet est l’un des points noirs de ce projet législatif.

L’article 13 de la directive européenne « Droit d’auteur dans le marché unique numérique » est le plus controversé de la réforme du copyright, contre laquelle 318 eurodéputés se sont prononcés contre le 5 juillet à Strasbourg (versus 278 pour et 31 abstention). Cet article 13 est celui qui fait le plus débat – voire polémique – dans ce projet de texte qui vient d’être rejeté. Car il introduirait une responsabilité des plateformes du numériques – de YouTube à Facebook, en passant par Twitter, Dailymotion ou encore Wikipedia – sur le sort des contenus (musiques, films, photos, …) qu’elles hébergent et mettent à disposition sur Internet.

L’article 13 cristallise l’opposition
Cet article 13, qui avait pourtant obtenu le 20 juin dernier la bénédiction de la commission des Affaires juridiques (JURI) du Parlement européen (15 voix pour,
10 contre), présente le risque d’ouvrir la voie au filtrage généralisé d’Internet dans la mesure où les GAFA devraient supprimer de façon préventive les contenus considérés comme piratés. Leur responsabilité serait ainsi étendue à la lutte contre le piratage en ligne, au point de leur demander d’utiliser le filtrage automatique de téléchargement en cas de violation de la propriété intellectuelle. YouTube, la filiale vidéo de Google, utilise déjà un système d’identification des contenus protégés, baptisé Content ID, qui détecte automatiquement les violations présumées de droits d’auteur. Un fois que le contenu
« piraté » est repéré, YouTube le supprime aussitôt.
C’est la perspective de ce filtrage généralisé qui pose problème depuis la présentation de ce projet de directive en septembre 2016 par la Commission européenne. Le 25 mai dernier, les Etats membres, au sein du Conseil de l’Union européenne, s’étaient mis d’accord sur la responsabilisation des plateformes. Le projet de texte (1) oblige les prestataires de services à obtenir l’autorisation des ayants droits. Ainsi, l’article 13 stipule : « Quand il a aucune autorisation, par exemple parce que le détenteur de droits ne veut pas conclure une licence, le prestataire de services devra empêcher la disponibilité des œuvres identifiées par l’ayant droit. Sinon, les prestataires de service seront considérés comme responsables de l’infraction au copyright. (…) Sur la notification par l’ayant droit d’une oeuvre protégée non autorisé, le prestataire de services devra prendre des mesures urgentes pour supprimer l’oeuvre et l’empêcher de devenir disponible à l’avenir ». Autrement dit, en absence de d’autorisation de l’ayant droit, un fournisseur de services de partage de contenu en ligne sera tenu pour responsable s’il ne démontre pas qu’il a fait preuve des meilleurs efforts pour empêcher la disponibilité des œuvres spécifiques ou autres « en mettant en oeuvre des mesures efficaces et proportionnées, pour empêcher la disponibilité sur ses services des œuvres spécifiques ou autres identifiées par le détenteur de droits et pour lequel celui-ci a fourni au service des informations pertinentes et nécessaires pour l’application de ces mesures, et sur notification de l’ayant droit ». Cet article 13 soulève de nombreux problèmes de compatibilité avec la directive européenne de 2000 sur le commerce électronique (2), laquelle régit – depuis près de vingt ans maintenant – une bonne partie des responsabilités des acteurs de l’Internet qui ne sont soumis à aucune obligation de surveillance préalable des contenus. Le statut d’hébergeur à responsabilité limité avait d’ailleurs été conforté le 24 novembre 2011 par la Cour de justice de l’Union européenne (CJUE) dans un arrêt « Scarlet contre Sabam » dans lequel elle a décidé que« le droit de l’Union s’oppose à une injonction faite à un [fournisseur d’Internet] de mettre en place un système de filtrage de toutes les communications électroniques transitant par ses services ». La directive « e-commerce » de 2000 prévoit en effet, dans son article 15 intitulé « Absence d’obligation générale en matière de surveillance », que « les États membres ne doivent pas imposer aux [fournisseur d’Internet] une obligation générale de surveiller les informations qu’ils transmettent ou stockent, ou une obligation générale de rechercher activement des faits ou des circonstances révélant des activités illicites » (3).

Les arrêts « contre » de la CJUE
De plus, la CJUE avait estimé qu’« une telle obligation de surveillance générale serait incompatible » avec une autre directive et non des moindres : à savoir la directive « Propriété intellectuelle » du 29 avril 2004 (4), selon laquelle « les mesures [pour assurer le respect des droits de propriété intellectuelle] ne doivent pas être inutilement complexes ou coûteuses et ne doivent pas comporter de délais déraisonnables ». Ce qui n’est pas le cas du filtrage généralisé. Et comme si cela ne suffisait pas, les juges européens en ont appelé à la Charte des droits fondamentaux de l’Union européenne signée le 7 décembre 2000 et devenue « force juridique obligatoire » depuis l’entrée en vigueur du Traité de Lisbonne en décembre 2009. « La protection du droit de propriété intellectuelle est certes consacrée [par] la charte des droits fondamentaux de l’Union européenne (article 17, paragraphe 2). Cela étant, il ne ressort nullement (…) qu’un tel droit serait intangible et que sa protection devrait donc être assurée de manière absolue », a estimé la CJUE. Un autre arrêt européen, daté du 16 février 2012 celui-là (Sabam contre Netlog (5)), s’est lui aussi opposé à une surveillance généralisée du Net. En France, la loi pour la confiance dans l’économie numérique (LCEN) de 2004 est venue à son tour sanctuariser ce régime de responsabilité limitée de l’hébergeur.

Mises en garde et controverses
Malgré toutes ces précautions législatives et jurisprudentielles, le statut des hébergeurs du Net était menacé. Les mises en gardes des opposants et les campagnes des lobbies ont finalement abouti au rejet du 5 juillet. « Ces mesures [si elles devaient être adoptées à la rentrée, ndlr] vont sérieusement saper les libertés fondamentales de l’Internet. Placer les intérêts particuliers des grosses compagnies média avant notre capacité à participer librement en ligne est inacceptable », avait lancé le 20 juin dernier l’eurodéputée Julia Reda (photo), qui fut l’auteur en 2015 du premier rapport (6) demandé par le Parlement européen en vue de cette réforme du droit d’auteur à l’ère du numérique. Selon elle, « l’article 13 va forcer les plateformes Internet (réseaux sociaux, sites vidéo, hébergeurs de photos, etc.) à installer de puissants filtres pour inspecter tout contenu publié par des utilisateurs, aussi en images – et donc à bloquer la plupart des “mèmes” (7), ceux-ci étant en général basé sur des images connues et non libres de droits ». Du côté des utilisateurs, le Bureau européen des unions de consommateurs (Beuc), basé à Bruxelles, avait exprimé son inquiétude, par la voix de sa directrice générale, Monique Goyens :
« Internet tel que nous le connaissons ne sera plus le même à partir du moment où les plateformes devront systématiquement filtrer le contenu que les utilisateurs veulent télécharger. Internet va passer d’un lieu où les utilisateurs peuvent partager leurs créations et leurs idées à un lieu contraignant et contrôlé ». La Quadrature du Net, elle, avait dénoncé très tôt « l’automatisation de la censure au nom de la protection du droit d’auteur et, plus largement, contre la centralisation du Web » (8). Cette association de défense des droits et libertés numériques a pris acte des « garanties » présentées par l’eurodéputé rapporteur du texte, Axel Voss, à savoir contre des censures arbitraires ou abusives : la censure opérée par les plateformes ne doit pas conduire au filtrage de contenus qui ne contreviennent pas à un droit d’auteur, ni au déploiement d’une surveillance généralisée des contenus mis en ligne ; un mécanisme de contestation rapide auprès de la plateforme, ainsi que la possibilité de saisir un juge afin de faire valoir des exceptions au droit d’auteur qui rendraient le filtrage injustifié. Mais ce compromis n’avait pas convaincu La Quadrature du Net, ni même Wikipedia qui avait protesté le 4 juillet en se rendant inaccessible dans plusieurs pays européens. Surtout qu’un article 11 prévoit, lui, l’instauration d’un droit voisin pour les éditeurs de presse. Encore plus contesté que l’article 13, il fut adopté le 20 juin dernier de justesse (13 voix pour, 12 contre). Ce droit voisin va permettre aux journaux, magazines ou encore aux agences de presse de se faire rémunérer lors de la réutilisation en ligne de leurs contenus par les agrégateurs d’informations tels que Google News ou Yahoo News (9). Surnommée « taxe sur les liens » (link tax) pour les contenus d’actualité, cette mesure suppose aussi de surveiller et filtrer Internet pour la mettre en oeuvre. « Le filtrage automatique des téléchargements et les droits voisins vont entraîner une censure de la liberté d’expression en ligne et un délitement d’Internet tel que nous le connaissons », avait déclaré Siada El Ramly, directrice générale d’Edima (European Digital Media Association), organisation représentant les GAFA (10). Le 5 juillet, l’Edima a considéré le rejet du texte comme « une victoire pour la démocratie ». Quant à l’association CCIA (Computer & Communications Industry Association), basée aux Etats-Unis et porte-parole des mêmes géants américains du Net, elle avait fustigé aussi la réforme du droit d’auteur : « Les filtres de téléchargement présenteront une obligation générale de contrôler le contenu téléchargé par l’utilisateur, ce qui sera destructeur pour les droits fondamentaux des citoyens européens et pour responsabilité limité des plateformes – une pierre angulaire légale pour le secteur numérique européen ».
En France, l’Association des services Internet communautaires (Asic) – présidée par Giuseppe de Martino (11) – avait lancé un appel le 13 avril dernier, dans une tribune parue dans Le Monde et cosignée par le Syntec numérique, France Digitale, Tech in France et Renaissance numérique, en demandant « au gouvernement français de préserver l’Internet ouvert tel que nous le connaissons actuellement, en empêchant l’instauration d’un filtrage généralisé ». Ensemble, ils ont mis en garde : « Le développement d’Internet, la créativité, la diversité des contenus que l’on peut y trouver et qui font sa richesse s’en trouveraient gravement menacés ». Les eurodéputés les ont entendus.

« Outils automatiques » et contenus illicites
La Commission européenne, elle, incite fortement les plateformes à mettre en place des « outils automatiques » de détection pour lutter non seulement contre le piratage en ligne mais aussi les contenus à caractère terroriste, les incitations à la haine et à la violence, les contenus pédopornographiques, les produits de contrefaçon. C’est le sens de sa recommandation du 1er mars (12). Elle avait fixé l’échéance du mois de mai 2018 avant de décider s’il y a lieu ou pas de légiférer. @

Charles de Laubier

Données personnelles, RGPD et fichiers pénaux : l’ensemble de loi de 1978 est à réécrire

Quarante ans après sa version initiale, la loi « Informatique et Libertés » de 1978 va subir un lifting historique pour transposer le « Paquet européen » sur la protection des données qui entre en vigueur le 25 mai 2018. Mais il y a un risque d’insécurité juridique et un manque de lisibilité.

Par Christiane Féral-Schuhl*, avocate associée, cabinet Féral-Schuhl/Sainte-Marie

Le projet de loi sur la protection des données personnelles (1) vise à permettre l’application du « paquet européen de protection des données » composé, d’une part, du règlement européen pour la protection des données (RGPD) et d’autre part, de la directive applicable aux fichiers de la sphère pénale, tous deux applicables à compter de mai 2018. En faisant l’analyse du projet de loi, on relève des différences significatives de terminologie entre les deux textes.

Pouvoirs de la Cnil et marges des Etats
Ces différences se retrouvent dans plusieurs articles de la loi
« Informatique et Libertés » du 6 janvier 1978 pourraient donner lieu à des interprétations et des difficultés de compréhension de certaines notions, qui seront sources d’insécurité juridique. A cela s’ajoutent les critiques de la Commission nationale de l’informatique et des libertés (Cnil) et du Conseil d’Etat qui pointent le « manque de lisibilité » du texte (voir encadré page suivante). Le titre Ier du projet de loi, qui traite des dispositions communes au RGPD et à la directive européenne « Fichiers pénaux », définit les missions, les pouvoirs et les modalités de contrôle de la Cnil. On peut ainsi relever que l’Autorité de contrôle pourra « présenter des observations devant toute juridiction à l’occasion d’un litige relatif à l’application du règlement et de la loi du 6 janvier 1978 ».
Cette disposition interroge dans la mesure où seul le juge est le garant de l’interprétation du droit applicable aux données à caractère personnel.
La Cnil ne peut se voir ouvrir ce droit. Par ailleurs, à quel titre la Cnil interviendrait-elle dans le cadre d’une procédure civile ou d’une procédure pénale ? Les débats parlementaires auraient dû apporter des réponses sur ce point. Le projet de loi ouvre également la possibilité pour la Cnil de prononcer des sanctions dans un ordre de gradation plus pédagogique et mieux compréhensible par les responsables de traitement des données. Elle pourra, en outre, labelliser les objets connectés. Enfin, le titre Ier du projet de loi reprend le principe de l’interdiction de traitement de données dites
« sensibles » sauf en cas de traitement nécessaires à la recherche publique après autorisation de la Cnil et élargit le champ de ces données : interdiction de traiter des données génétiques, biométriques aux fins d’identifier une personne physique de manière unique, données concernant l’orientation sexuelle d’une personne.
S’agissant du titre II du projet de loi « RGPD », on relève que, en cas de divergences de législations entre Etats membres de l’Union européenne (UE) liées aux marges de manœuvre laissées à ces derniers sur plusieurs points, la loi nationale s’applique dès lors que la personne réside en France, y compris lorsque le responsable de traitement n’est pas établi en France. Faisant application de ces marges de manœuvres, le projet de loi limite la portée des obligations et des droits des personnes concernées (droit à l’information droit d’accès, droit de rectification, droit à l’effacement, droit à la portabilité, droit d’opposition, etc.), lorsqu’une telle limitation respecte l’essence des libertés et droits fondamentaux et qu’elle constitue une mesure nécessaire et proportionnée dans une société démocratique pour garantir certains objectifs (sécurité nationale, défense nationale, sécurité publique, prévention et la détection d’infractions pénales, protection de l’indépendance de la justice et des procédures judiciaires, objectifs importants d’intérêt public général de l’UE ou d’un Etat membre,…). Le projet de loi prévoit également, afin de renforcer l’obligation de sécurité, que les responsables de traitement seront tenus par une obligation de chiffrement de bout en bout où seules les personnes autorisées à accéder aux données auront la clef de déchiffrement.

Traitements « pénaux » : conditions strictes
Et ce, alors que par ailleurs le Conseil constitutionnel a rendu le 30 mars 2018 une décision où les Sages jugent conforme à la Constitution française l’article 434-15-2 du code pénal qui punit de trois ans de prison et de 270.000 euros d’amende « le fait, pour quiconque ayant connaissance de la convention secrète de déchiffrement d’un moyen de cryptologie susceptible d’avoir été utilisé pour préparer, faciliter ou commettre un crime ou un délit, de refuser de remettre ladite convention aux autorités judiciaires ». En sus, le projet de loi renforce la protection des données de santé afin qu’elles ne puissent être utilisées pour fixer les prix des assurances ou à des fins de choix thérapeutiques et médicaux et la sélection des risques.
Quant au titre III du projet de loi « RGPD », il concerne plus spécifiquement les dispositions portant transposition de la directive « Fichiers pénaux ». On retiendra dans ce cadre que l’ensemble des règles applicables aux traitements de données à caractère personnel en matière pénale – prévues par cette directive européenne – sont regroupées aux articles 70-1 à 70-27 (nouveaux) de la loi « Informatique et Libertés » du 6 janvier 1978. Le projet de loi français prévoit que le traitement des données sensibles à des fins pénales n’est possible que s’il répond à des conditions strictement définies : la nécessité absolue d’un traitement de données, l’existence de garanties appropriées pour les droits et libertés de la personne concernée, l’autorisation du traitement par un acte législatif ou réglementaire, la protection des intérêts vitaux d’une personne physique. De plus, le traitement des données sensibles à des fins pénales doit porter sur des données manifestement rendues publiques par la personne concernée (2).

Exactitude des données et profilage interdit
En outre, le projet de loi « RGPD » prévoit que les données à caractère personnel figurant dans les traitements en matière pénale mis en oeuvre par les autorités compétentes devront, « dans la mesure du possible », distinguer celles qui sont fondées sur des faits de celles qui reposent sur des appréciations personnelles – principe de l’exactitude des données (3). Les interdictions relatives aux décisions individuelles automatisées (4) sont applicables aux traitements de données personnelles en matière pénale – interdiction du profilage, par exemple (5). Il convient également de relever que le gouvernement a retenu des restrictions aux droits des personnes dans le cadre de ces traitements particuliers. Ces restrictions s’appliquent notamment pour éviter de gêner les enquêtes ou procédures judiciaires ou nuire à la prévention ou à la détection d’infractions pénales et à l’exécution de sanctions pénales ; protéger la sécurité publique ou la sécurité nationale ; ou encore garantir les droits et libertés d’autrui (6). Ces restrictions pourront consister à retarder ou limiter la fourniture des informations supplémentaires susceptibles d’être transmises à la personne concernée ou de ne pas les fournir, à limiter en totalité ou en partie le droit d’accès (le responsable du traitement devra consigner les motifs de fait ou de droit fondant da décision et les mettre à disposition de la Cnil) ou à ne pas informer la personne concernée de son refus de rectifier ou d’effacer les données la concernant ou le limiter le traitement. La personne concernée par ces traitements devrait toujours avoir la possibilité d’exercer ses droits par l’intermédiaire de la Cnil. C’est à cette dernière qu’il reviendra d’informer la personne concernée de son droit d’exercer un recours (7).
On notera que l’article 20 du projet de loi est une demande d’habilitation du gouvernement à légiférer par voie d’ordonnance, afin de procéder à une réécriture de l’ensemble de la loi du 6 janvier 1978, en vue notamment de mettre en cohérence l’ensemble de la législation applicable à la protection des données à caractère personnel. Cette ordonnance devra être adoptée dans un délai de six mois suivant la promulgation de la loi relative à la protection des données personnelles. Ce texte arrive péniblement et non sans mal en fin de processus législatif, le Sénat et l’Assemblée nationale n’étant pas parvenus à un accord – la commission mixte paritaire a échoué à trouver un consensus (8). Les sénateurs ont maintenu leur projet de loi qu’ils ont voté le 19 avril dernier à l’unanimité. Mais les députés auront le dernier mot le 14 mai prochain. @

Ancien bâtonnier du Barreau de Paris, et auteure de « Cyberdroit »,
dont la 7e édition (2018-2019) est parue aux éditions Dalloz.

ZOOM

Services de médias audiovisuels (SMA) : la nouvelle directive devrait être votée le… 1er octobre

La future nouvelle directive européenne sur les services de médias audiovisuels (SMA) pourrait être votée à l’automne. Si le cinéma, l’audiovisuel et les régulateurs concernés sont satisfaits, les acteurs
du Net, eux, restent presque sans voix. En France, la grande loi audiovisuelle a ses premiers jalons.

« Cet accord est une avancée historique pour la création. (…) Cela signifie concrètement que, pour la première fois, l’Europe accepte l’idée d’intégrer tous les diffuseurs établis à l’étranger mais qui ciblent notre marché dans l’écosystème de l’exception culturelle européenne », s’est félicitée le 26 avril Frédérique Bredin (photo de gauche), présidente du Centre national du cinéma et de l’image animée (CNC). Cet établissement public administratif, sous la tutelle du ministre de la Culture, est d’autant plus satisfait qu’il constitue la plaque tournante du financement du cinéma et de l’audiovisuel en France.

Exception culturelle versus dumping culturel
Le Parlement européen, le Conseil des ministres de l’Union européenne et la Commission européenne – réunis en « trilogue » ce jour-là – sont en effet parvenus à un « accord politique » (1) sur la nouvelle directive « Services de médias audiovisuels » (SMA). Et ce, alors que la fin des négociations est prévue d’ici juin prochain en prévision du vote final en séance plénière
du Parlement européen programmé pour septembre – voire début octobre. Selon nos constatations (2), une date indicative de séance plénière pour
la première et unique lecture est fixée au 1er octobre 2018. Le projet de nouvelle directive SMA prévoit notamment un quota minimal de 30 % d’œuvres européennes sur tous les services à la demande en Europe (Netflix, Amazon Video, YouTube, Apple, Facebook, …), alors que la proposition initiale proposait d’établir ce taux à 20 %. Ces mêmes plateformes vidéo pourront en outre être taxées et obligées d’investir dans la production audiovisuelle et cinématographique, selon le principe du
« pays de destination » (ou pays « ciblé ») – une brèche dans le principe de
« pays d’origine » cher à la Commission européenne et aux acteurs du Net (lire encadré page suivante).
Pour les eurodéputés,« le niveau de contribution dans chaque pays devra être proportionnel aux bénéfices qu’elles réalisent dans ce pays ». Le Conseil supérieur de l’audiovisuel (CSA), qui fut – sous la présidence d’Olivier Schrameck (photo de droite) – aux avant-postes pour préparer
le terrain, s’est réjoui le 26 avril également de cette avancée décisive : « La nouvelle directive renforce la pertinence et l’efficacité de la régulation en réduisant les asymétries réglementaires entre les différents types d’acteurs [par] l’extension du champ d’application de la directive aux plateformes de partage de vidéos, aux réseaux sociaux et aux plateformes de diffusion en direct sur Internet ». En France, où les défenseurs de « l’exception culturelle » et pourfendeurs de ce qu’ils appellent « le dumping culturel » sont légion, le cinéma, l’audiovisuel et les auteurs avaient déjà exprimé leur satisfaction à la suite de l’adoption, le 23 mai 2017 (3), de ce projet de directive concernant télévision de rattrapage, VOD, SVOD et plateformes vidéo. Mais, cette fois, le trilogue européen a validé le texte législatif européen qui fut présenté il y a deux ans et qui entre maintenant dans la dernière ligne droite de négociations avant sa promulgation à l’automne prochain – puis sa transposition par chacun des Etats membres. « Les bases d’une nouvelle régulation européenne ont été posées garantissant le financement et l’exposition de la création européenne. Toutes les plateformes de vidéo à la demande en Europe devront proposer a minima 30 % d’œuvres audiovisuelles et cinématographiques européennes dans leurs catalogues. Par ailleurs, chacun des Etats européens va pouvoir les soumettre à ses obligations d’investissement dans la création, même quand elles sont établies à l’étranger, en proportion du chiffre d’affaires généré sur son territoire », ont déclaré satisfaits le 27 avril six syndicats professionnels français du cinéma et de l’audiovisuel, parmi lesquels l’Union des producteurs de cinéma (UPC), le Syndicats de producteurs indépendants (SPI), l’Union syndicale de la production audiovisuelle (USPA) et le Syndicat des producteurs de films d’animation (SPFA).
Les cinéastes de la société civile des Auteurs- Réalisateurs- Producteurs (ARP) se sont aussi réjouis le même jour : « Cette décision inscrit la politique culturelle européenne dans un mouvement moderne et constructif, adapté au numérique sans pour autant abandonner les fondements qui ont fait la vitalité de notre écosystème. (…) En retenant le principe du pays de destination, les institutions européennes répondent par ailleurs à la nécessité d’enrayer les stratégies de dumping trop souvent pratiquées par les géants de l’économie numérique ».

Quid des algorithmes et de la rémunération ?
Mais l’ARP souhaite que le quota minimum de 30 % d’œuvres européennes et les obligations de financement de la création soient soumis à « un dispositif de contrôle efficace et contraignant ». De son côté, la Société des auteurs et compositeurs dramatiques (SACD) rappelle que « ce taux de 30 % n’est évidemment pas aussi élevé que les auteurs l’auraient souhaité à juste titre » – certains en France voulaient aller jusqu’à 60 % du catalogue – mais elle estime que « la fixation d’une telle règle commune constitue une novation positive et importante au niveau européen ». Cette société de gestion collective des droits salue l’autre avancée sur les obligations de financements de la création de la part de tous les services de vidéo à la demande : «Même établies à l’étranger, ces plateformes ne pourront plus
se soustraire aux politiques nationales de soutien à la création. C’est là le risque du dumping culturel qui se trouve directement combattu par cette directive ». La SACD demande cependant que les avancées obtenues soient
« rapidement complétées » par « la prise de nouvelles mesures permettant notamment d’intégrer un objectif de diversité culturelle dans les algorithmes de recommandation des plateformes » et par « des prolongements pour garantir aux auteurs le droit à une juste rémunération sur les plateformes numériques partout en Europe » – faisant référence sur ce dernier point à la révision en cours de la directive sur le droit d’auteur que la Commission européenne a démenti en février dernier le report (4).

Vers une nouvelle régulation audiovisuelle
Quant à la Société civile des auteurs multimédias (Scam), elle se félicite aussi que les plateformes vidéo et télé aient « l’obligation de contribuer à
la création, selon les règles en vigueur du territoire européen ciblé par leur offre et non pas celles du territoire dans lequel ils sont installés » et du
« taux de 30 % d’œuvres européennes dans leurs catalogues ». Et la Scam d’espérer en outre que « les discussions autour de la directive sur le droit d’auteur déboucheront sur un partage tangible de la valeur et, notamment dans ce cadre, sur un droit à rémunération au bénéfice des auteurs audiovisuels européens ». Cette nouvelle directive SMA arrive à point nommé pour le gouvernement qui prépare, sous la houlette du chef de l’Etat, une grande loi sur l’audiovisuel incluant la réforme sur l’audiovisuel public. Rappelons que l’une des promesses de campagne de l’ex-candidat Emmanuel Macron durant la campagne présidentielle de 2017 est d’« investir dans les industries créatives et culturelles françaises en créant un fonds d’investissement dédié de 200 millions d’euros» et de «favoriser la diffusion du spectacle vivant notamment en multipliant les spectacles coproduits et adapter le soutien au cinéma et à l’audiovisuel aux nouveaux formats ». Il a aussi promis de « simplifier la réglementation audiovisuelle en matière de publicité, de financement et de diffusion, pour lever les freins à la croissance de la production et de la diffusion audiovisuelles et préparer le basculement numérique, tout en préservant la diversité culturelle » (5). Alors que la grande loi sur l’audiovisuel est sur les rails, la ministre de la Culture, Françoise Nyssen (lire en Une), s’est félicitée elle aussi le 27 avril
de la nouvelle directive SMA: « Ce texte marque une nouvelle étape dans la régulation audiovisuelle. Il répond parfaitement à la volonté de la France en matière de promotion de la diversité culturelle, de financement de la création et de protection des publics. (…)
Cela permettra de remédier aux distorsions de concurrence et de prévenir les délocalisations opportunistes ».
La locataire de la rue de Valois s’est dite satisfaite que le champ de la régulation audiovisuelle soit étendu aux plateformes de partage de vidéos telles que YouTube ou Dailymotion, lesquels échappaient à l’obligation de prendre des mesures pour protéger les jeunes publics et de lutter contre les contenus haineux ou violents. Comme le souligne la Scam, « ces obligations s’appliquent désormais aux sites de partage de vidéos, mais aussi aux réseaux sociaux et aux plateformes de diffusion en direct (livestreaming)». Les acteurs du Net, eux, plutôt favorables à une autorégulation, n’ont pas réagi immédiatement. Dans le texte législatif, les eurodéputés ont aussi élargi à toutes les plateformes de nouvelles règles « efficientes et efficaces » interdisant tout contenu incitant à la violence, à la haine et au terrorisme, et soumettant la violence gratuite et la pornographie aux règles les plus strictes. « Même si la priorité est donnée à la corégulation et à l’autorégulation, les plateformes de partage de vidéos devront désormais réagir de façon responsable et rapide lorsqu’un contenu nocif est signalé par les utilisateurs », souligne le Parlement européen. @

Charles de Laubier