Décisions de justice à l’heure du RGPD : délicat équilibre entre liberté de la presse et vie privée

Jusqu’à maintenant, la jurisprudence favorise habituellement – mais pas toujours –
le droit à l’information en cas de différends sur la publication de données issues de comptes-rendus de procès ou de décisions de justice. Depuis l’entrée en vigueur du RGPD, la recherche d’un juste équilibre s’impose.

Par Christiane Féral-Schuhl*, avocate associée, cabinet Féral-Schuhl/Sainte-Marie

Entré en vigueur en mai 2018, le Règlement général sur la protection des données (RGPD) s’applique aussi aux comptesrendus de procès ou de décisions de justice citant des personnes physiques parties ou témoins aux procès. Le RGPD confie aux Etats membres de l’Union européenne le soin de concilier « […] par la loi, le droit à la protection des données à caractère personnel au titre du présent règlement et le droit à la liberté d’expression et d’information, y compris le traitement à des fins journalistiques et à des fins d’expression universitaire, artistique ou littéraire » (1).

Jurisprudence et droit à l’information
De même, le RGPD prévoit des règles similaires pour le « traitement et l’accès du public aux documents officiels » (2) afin de concilier les intérêts liés à la communication au public des documents administratifs et la protection des données à caractère personnel. Cela changera-t-il la jurisprudence qui jusqu’alors favorise habituellement – mais pas toujours – le droit à l’information ? Six mois après l’entrée en vigueur du RGPD, un arrêt de la cour d’appel de Paris daté du 28 novembre 2018 a confirmé une décision du président du tribunal de grande instance de Paris disant qu’il n’y avait pas lieu à référé concernant une demande de déréférencement à l’encontre de Google France de liens pointant vers un article publié sur le site Internet d’un journal – en l’occurrence Le Parisien (3). Les juges ont retenu que « l’information donnée au public sur la mise en cause pénale d’une personne et sa condamnation définitive participe du droit à l’information, particulièrement lorsqu’il s’agit d’infractions pénales sérieuses ». Elle a également relevé que « l’information communiquée quant à la mise en examen (…) ne constitu[ait] pas une atteinte à [la] vie privée s’agissant de la relation de faits publics et particip[ait] du droit du public à être informé ». Les juges, qui procèdent à une analyse de contexte pour apprécier l’intérêt de l’information sur un sujet d’actualité pour le public, en ont conclu que le demandeur « ne justifi[ait] pas de raisons prépondérantes et légitimes prévalant sur le droit d’expression et d’information ».
Toujours après la promulgation du RGPD, mais cette fois huit mois après, la Cour européenne des droits de l’homme (CEDH) s’est prononcée – dans un arrêt du 10 janvier 2019 – sur une décision par laquelle les juges allemands avaient interdit la publication dans la presse d’une photographie représentant une célébrité suisse alors incarcérée. La CEDH a précisé qu’il convenait d’apprécier « la notoriété de [l’intéressé], la contribution de la photo à un débat d’intérêt général, les circonstances dans lesquelles la photo litigieuse a été prise, le comportement antérieur de [l’intéressé] vis-à-vis des médias, la forme, le contenu et les répercussions pour [l’intéressé] de la publication de la photo litigieuse ainsi que la gravité de la sanction prononcée à l’encontre des requérantes ». Elle a notamment considéré en l’espèce que la photo litigieuse « n’avait pas de valeur informative supplémentaire par rapport à celle du texte de l’article », relatant « un fait connu du public depuis longtemps ». Il n’y avait « dès lors aucun motif d’en rendre compte de nouveau ». La CEDH a ainsi considéré qu’elle n’avait « aucune raison sérieuse de substituer son avis à celui des juridictions allemandes ».
Publier ou ne pas publier dans un contexte judiciaire : telle est la question au regard de la vie privée. La Cour de cassation, dans un arrêt du 12 mai 2016, a ainsi rejeté la demande de deux personnes ayant sollicité – sur le fondement de l’article 38 de la loi « Informatique et Libertés », la suppression d’informations identifiantes les concernant sur le moteur de recherche du site Internet d’un journal, en l’occurrence Lesechos.fr (4), qui donnait accès à un article de presse faisant état d’une condamnation prononcée à leur encontre il y a plusieurs années. La Cour a considéré que « le fait d’imposer à un organe de presse […] de supprimer du site Internet dédié à l’archivage de ses articles […] l’information elle-même contenue dans l’un de ces articles […] privant celui-ci de tout intérêt [ou] d’en restreindre l’accès en modifiant le référencement habituel, excède les restrictions qui peuvent être apportées à la liberté de la presse ».

Article en ligne et intimité de la vie privée
La notion d’« actualité » s’apprécie au cas par cas, à l’exemple de cette ordonnance de référé du 8 janvier 2016 (5) : le tribunal de grande instance de Paris a également rejeté la demande de suppression des nom et prénom d’une personne condamnée pour violence aggravée, dans un article paru en 2004 dans le quotidien 20 Minutes et toujours en ligne dix ans après les faits incriminés. Après avoir procédé à une analyse du contexte, le juge a notamment considéré « qu’il n’est donc nullement illégitime, dans ce contexte, pour la société 20 Minutes France, de mentionner l’identité du demandeur ». Donc « que dans ces conditions, il n’apparaît pas, avec l’évidence requise en matière de référé, que (le requérant) puisse se prévaloir d’une quelconque atteinte à l’intimité de sa vie privée ».

Actualité, intérêt légitime et droit à l’oubli
De même, s’agissant d’une demande de déréférencement de plusieurs liens sur Google Images pointant sur des articles faisant état de la condamnation du requérant, le juge a constaté en 2017 que le refus du moteur de recherche était fondé dès lors qu’il s’agissait d’une information exacte sur un sujet d’actualité récent (6). Ce parti pris n’est pas nouveau puisque, dans une affaire concernant la publication dans un journal d’un article relatif au placement en garde à vue d’un individu qui avait bénéficié d’un non-lieu. Ce dernier avait sollicité du directeur de la publication l’insertion d’un droit de réponse. Le journal s’était contenté de mettre à jour l’article. L’individu en cause l’a assigné aux fins de voir supprimer l’article. Les juges ont considéré en 2015 que le traitement des données litigieuses – l’âge, la profession du requérant et le fait qu’il ait été impliqué dans une procédure pénale – répondait à un intérêt légitime « tant en ce que l’information portait sur le fonctionnement de la justice et le traitement des affaires d’atteintes graves aux personnes qu’en ce qu’elle visait une personne exerçant une profession faisant appel au public et encadrant une activité proposée notamment à des enfants », et qu’aucun abus de la liberté de la presse n’était établi (7). C’est le même raisonnement qui conduit des juridictions étrangères à refuser le retrait de résultats affichés sur des moteurs de recherche.
Parfois, les juges considèrent que le droit au déréférencement doit obéir au principe de proportionnalité. Certaines décisions – surtout étrangères – visent à concilier les intérêts de la personne concernée par le traitement de données personnelles avec les intérêts des autres parties en présence, et donc le droit du public à avoir accès à l’information en cause. En quelque sorte, le juge recherche un équilibre entre le droit au respect de la vie privée et aux données à caractère personnel et le droit à la liberté d’expression et à l’information. Deux arrêts américains assez anciens sont également particulièrement éclairants sur ce point. Le premier arrêt rendu par la Cour suprême des Etats- Unis en 1989 concernait un journaliste qui demanda au FBI (9) l’accès aux documents concernant les arrestations, inculpations et condamnations visant quatre individus. Pour le seul survivant des quatre individus ciblés par le journaliste, le FBI refusa de transmettre l’information qu’il détenait sous forme compilée, estimant que la communication porterait atteinte à la vie privée des individus en question. La Cour suprême soutint à l’unanimité cette argumentation (10). Elle rejeta l’argument retenu par la cour d’appel, selon lequel il n’y a plus de Privacy Interest en présence d’informations déjà rendues publiques. Pour la Cour, il y a une importante différence entre une communication « éparpillée » de fragments d’information et la divulgation de l’information dans son ensemble (11). Le second arrêt est issu de la cour d’appel de l’Etat de Californie (12) qui a considéré en 1994 que « c’est la nature agrégée de l’information qui lui donne de la valeur aux yeux du défendeur ; c’est la même qualité qui rend sa diffusion constitutionnellement dangereuse ».
De même, un arrêt de la Cour de cassation belge du 29 avril 2016 retient l’attention. Dans cette affaire, le demandeur, médecin de profession, avait provoqué un grave accident de la circulation ayant entraîné la mort de deux personnes, alors qu’il se trouvait sous l’emprise d’alcool. Ce fait avait été relaté dans l’édition papier du quotidien Le Soir, en 1994. L’article avait été ensuite rendu accessible en ligne non anonymisé. La Cour de cassation a confirmé tout d’abord que la mise en ligne de cet article doit être assimilée à « une nouvelle divulgation du passé judiciaire du défendeur portant atteinte à son droit à l’oubli ». Par ailleurs, elle a relevé que si l’article 10 de la CEDH confère aux organes de presse écrite le droit de mettre en ligne des archives et au public celui d’accéder à ces archives, ces droits ne sont pas absolus et qu’ils doivent, le cas échéant et dans certaines circonstances, céder le pas à d’autres droits également respectables. Aussi, la Haute juridiction a-t-elle considéré que l’arrêt attaqué a justifié léga-lement sa décision en considérant que « le maintien en ligne de l’article litigieux non anonymisé, de très nombreuses années après les faits qu’il relate, est de nature à […] causer un préjudice disproportionné [au médecin] par rapport aux avantages liés au respect strict de la liberté d’expression [de l’éditeur] » (13).

Cas particulier de déréférencement du lien
En France, on relève une ordonnance du tribunal de grande instance de Paris en date du 19 décembre 2014 qui a admis les « raisons prépondérantes et légitimes prévalant sur le droit à l’information » invoquées par la demanderesse (14). Le juge a considéré que la nature des données personnelles, le temps écoulé depuis la condamnation – prononcée huit années auparavant – et l’absence de mention de la condamnation au casier judiciaire de l’intéressée justifiaient le déréférencement du lien renvoyant à un article de 2006. @

* Christiane Féral-Schuhl, présidente du Conseil national des
barreaux (CNB), est ancien bâtonnier du Barreau de Paris, et
auteure de « Cyberdroit », paru aux éditions Dalloz.

Consentement des internautes : cookies et autres traceurs sont dans le viseur de la Cnil, Europe oblige

Sont parues le 19 juillet au Journal Officiel les lignes directrices de la Cnil concernant les « opérations de lecture ou écriture dans le terminal d’un utilisateur (notamment aux cookies et autres traceurs) », en attendant ses recommandations pour début 2020, et le futur règlement « ePrivacy » européen.

Face aux entreprises et au secret des affaires, la liberté de la presse bat de l’aile devant les tribunaux

La liberté de la presse s’arrête-t-elle là où commence le secret des affaires et la confidentialité des procédures de conciliation ou de mandat ad hoc ? Les affaires
« Conforama » et « Consolis » rappellent la menace judiciaire qui pèse sur le droit d’informer. L’avenir de la démocratie est en jeu.

Fabrice Lorvo*, avocat associé, FTPA.

Deux décisions importantes ont été rendues en juin 2019, qui contribuent à la définition des limites de la liberté d’expression lorsqu’elle est confrontée aux dossiers économiques. Ces deux décisions concernent des révélations, faites par les sites de presse en ligne, sur la désignation d’un mandataire ad hoc dans l’intérêt de sociétés – d’un côté le groupe Conforama (1), de l’autre le groupe Consolis (2). Dans ces deux cas, c’est la responsabilité de l’organe de presse qui a été recherchée devant les tribunaux.

La presse non tenue à la confidentialité
Car selon l’article L611-15 du code du commerce, les procédures de mandat ad hoc et
de conciliation sont couvertes par la confidentialité (3). Il ne s’agit pas, ici, de contester la nécessité de protéger les droits et libertés des entreprises qui recourent à une mesure de prévention des difficultés. La confidentialité permet d’abord de favoriser le succès de la négociation en assurant aux créanciers ou partenaires que les efforts ou les sacrifices qu’ils vont consentir ne puissent servir de références ultérieures. La confidentialité permet aussi d’éviter que les difficultés de l’entreprise qui sollicite ces mesures ne soient aggravées par leur publicité (vis-à-vis des tiers, fournisseurs, clients et concurrents). Cependant, cette obligation de confidentialité pèse sur les personnes limitativement énumérées par le texte
(à savoir « toute personne qui est appelée à la procédure de conciliation ou à un mandat ad hoc ou qui, par ses fonctions, en a connaissance »). Il apparaît clairement que les organes de presse ne figurent pas sur la liste des personnes tenues à la confidentialité.
Si une des personnes énumérées par L611-15 astreints à la confidentialité viole son obligation légale pour informer la presse, cette dernière doit-elle s’autocensurer et ne pas diffuser l’information (puisqu’elle provient de la violation d’une disposition légale) ou doit-elle diffuser l’information au nom du droit à l’information du public ?
Dans l’affaire « Conforama », l’organe de presse – en l’occurrence Challenges – avait été condamné par le tribunal de commerce à retirer l’information de son site web et à ne plus évoquer l’affaire « sous astreinte de 10.000 euros par infraction constatée ». La cour d’appel de Paris a cassé ce jugement dans un arrêt (4) du 6 juin 2019. Elle a jugé que les difficultés économiques importantes (5) du groupe sud-africain Steinhoff et ses répercussions sur Conforama, qui se présente comme un acteur majeur de l’équipement de la maison en Europe et qui emploie 9.000 personnes en France, constituent sans conteste un sujet d’intérêt général tel que garantit par l’article 10 de la Convention de sauvegarde des droits de l’homme et des libertés fondamentales (CSDHLF). Si cette décision constitue manifestement un progrès, force est de constater que les dossiers économiques continuent de bénéficier d’une protection dérogatoire qui remet en cause tant la jurisprudence de la Cour européenne des droits de l’homme (CEDH) que la conception traditionnelle de la liberté d’expression.
D’abord, la cour d’appel de Paris suit respectueusement la jurisprudence de la Cour de cassation (6), selon laquelle – au nom de l’effectivité du principe – la confidentialité pèse aussi sur la presse, attachant ainsi la confidentialité à l’information et non aux personnes visées par L611-15. De plus, probablement par timidité, la cour d’appel ne s’est pas contentée de constater que les informations diffusées sur Conforama contribuaient à l’information légitime du public sur un débat d’intérêt général. Elle n’a pas pu s’empêcher
de relativiser l’appréciation par plusieurs autres constats. La cour a relevé que la publication des informations a été faite au mode conditionnel. Si l’information avait été publiée de manière affirmative, la publication aurait-elle perdue son caractère d’intérêt général ?

Préjudice versus intérêt général
De même, la cour d’appel a noté que la publication faisait suite « à plusieurs autres articles de presse décrivant les difficultés financières importantes du groupe Steinhoff, maison mère du groupe Conforama, et de ce dernier ». Si la publication avait été un scoop, aurait-elle perdue son caractère d’intérêt général ? Ensuite, la cour a mentionné que le déficit de la maison-mère de Conforama avait eu pour cause « des irrégularités comptables ». Si tel n’avait pas été le cas, la publication aurait-elle perdu de son caractère d’intérêt général ? Enfin, quel est le besoin de faire référence à l’absence de démonstration du préjudice du plaignant ? Si le préjudice avait été démontré, la publication aurait-elle perdu son caractère d’intérêt général ? Et comment démontrer le préjudice si ce n’est en prouvant que la conciliation a échoué ? Mais l’échec de la conciliation (dont le succès n’est jamais garanti) peut-il réellement être imputable à la publication de l’information ?

Le risque des dommages et intérêts
L’unique critère qui doit être appliqué par un tribunal est de savoir si la publication contribue à la nécessité d’informer le public sur une question d’intérêt général sans avoir à ajouter des critères surabondants. Ce critère unique est déjà difficile à apprécier du fait de son absence de définition. De plus, l’arrêt rendu par la Cour de cassation (7) dans l’affaire « Consolis » rajoute de l’incertitude en appréciant la manière dont l’organe de presse évoque ledit sujet d’intérêt général. Mergermarket avait diffusé sur son site web Debtwire.com, spécialisé dans le suivi de l’endettement des entreprises et consultable par abonnement, des articles sur l’évolution d’une procédure de conciliation demandée par la société Consolis en exposant notamment les négociations engagées avec les créanciers des sociétés du groupe, citant des données chiffrées sur la situation financière des sociétés.
La Cour de cassation a reconnu que la question de la résistance des opérations d’achat avec effet de levier (LBO) à la crise et les difficultés que des sociétés ainsi financées peuvent connaître relevait d’un débat d’intérêt général. Cependant, elle a aussi considéré que l’information diffusée portait sur le contenu même des négociations en cours et leur avancée. De ce fait, les informations divulguées n’étaient plus justifiées par un débat sur des questions d’intérêt général et ne contribuaient pas à la nécessité d’en informer le public puisque ces informations intéressaient, non le public en général, mais les cocontractants
et partenaires de ces sociétés en recherche de protection. En conséquence, un organe de presse peut informer le public mais à la condition de se contenter d’informations générales. A l’inverse, une information détaillée peut retirer à un sujet sa qualification d’intérêt général. L’absence de définition d’un sujet d’intérêt général et sa possible remise en cause en fonction de la manière dont l’information a été traitée sont de nature à exposer la presse à des sanctions d’une gravité inconnue à ce jour. En effet, les organes de presse sont dorénavant sous la menace d’une sanction pouvant conduire à leur disparition pure et simple. C’est là une seconde particularité dont bénéficient les dossiers économiques. Jusqu’à ce jour, et pour tous les sujets, les organes de presse bénéficiaient d’une immunité totale en cas d’abus de la liberté d’expression. Certes, le directeur de publication ainsi que le journaliste pouvaient s’exposer en cas de délits de presse (essentiellement la diffamation ou l’injure) à une peine de prison ainsi qu’à une amende, mais un organe de presse n’était jamais condamné à des dommages et intérêts. La raison en était simple, vu l’importance de la liberté de la presse (8), un abus – s’il doit être sanctionné – ne doit pas conduire à la disparition économique du journal. C’est pour cela aussi que régulièrement, la jurisprudence fermait la porte à toute tentative d’engager la responsabilité d’un organe de presse en dehors de la loi de 1881 sur la liberté de la presse (9) et notamment sur le fondement de la responsabilité civile (10).
La Cour de cassation vient de mettre définitivement fin à cette immunité de fait dans l’affaire « Mergermarket » (11). Après avoir obtenu en référé le retrait de l’ensemble des articles contenant les informations confidentielles et l’interdiction de publier d’autres articles, Consolis a ensuite assigné Mergermarket en indemnisation des préjudices subis du fait de la publication des articles litigieux et a obtenu devant la cour d’appel la somme de 175.854 euros.
Dans son arrêt, la Cour de cassation soumet donc l’organe de presse en ligne au régime de droit commun et juge « qu’ayant retenu qu’en divulguant des informations qu’elle savait couvertes par la confidentialité sans que cette divulgation soit justifiée par la nécessité d’informer le public sur une question d’intérêt général, la société Mergermarket avait commis une faute à l’origine d’un préjudice, c’est dans l’exercice de son pouvoir souverain que la cour d’appel a évalué le montant de la réparation propre à indemniser ce préjudice ».

La presse indépendante menacée
Quand on connaît les difficultés financières des organes de presse indépendants, seuls les groupes de presse puissants vont pouvoir survivre à des condamnations financières de cette nature. L’évolution de la jurisprudence sur ces dossiers économiques n’est pas de bon augure au regard des dossiers à venir concernant le périmètre strict du secret des affaires. C’est probablement lorsque la presse indépendante aura disparu qu’on se rendra compte des effets bénéfiques qu’elle avait sur notre démocratie, mais une fois de plus, il sera probablement trop tard. @

* Fabrice Lorvo est l’auteur du livre « Numérique : de la
révolution au naufrage ? », paru en 2016 chez Fauves Editions.

Contenus haineux, terroristes et violents sur le Net : lutter mondialement sans oublier le juge national

Les avocats de France – via le Conseil national des barreaux (CNB) – appellent à concilier lutte contre la haine et respect des droits fondamentaux. Et ce, au niveau international mais en gardant le juge au centre du dispositif. Il faut aussi former les magistrats et créer un parquet national numérique.

Par Christiane Féral-Schuhl*, avocate associée, cabinet Féral-Schuhl/Sainte-Marie

15 mars 2019 : une attaque terroriste en Nouvelle-Zélande contre deux mosquées dans la petite ville de Christchurch (au sud de l’île) était filmée et diffusée en direct sur les réseaux sociaux. En réponse à cet acte inqualifiable de retransmettre en live sur Internet (1) ce massacre innommable en luimême, la volonté de réguler le contenu des réseaux sociaux afin de prévenir et d’empêcher une diffusion des discours de haines relève désormais d’une dynamique internationale.

Régulation mondiale du Net sans précédent
Dans le prolongement de la proposition de loi visant à lutter contre la haine sur Internet,
qui fut déposée le 20 mars dernier à l’Assemblée nationale à l’initiative du gouvernement et qui a été débattue les 3 et 4 juillet en séances publiques en première lecture avant un vote des députés prévu le 9 juillet (2), le président de la République Emmanuel Macron et la Première ministre néo-zélandaise Jacinda Ardern ont lancé, le 15 mai, l’appel de Christchurch. Il vise à prévenir la diffusion de contenus terroristes et extrémistes violents sur Internet, dans une démarche inclusive, participative et respectueuse des droits fondamentaux – en impliquant gouvernements, plateformes en ligne et représentants de la société civile. Il s’agit de la première initiative internationale visant à réguler les contenus sur Internet en dépassant le cadre législatif strictement national et en engageant un dialogue constructif entre les différents acteurs. Dans ce contexte, le Conseil national des barreaux (CNB) – établissement d’utilité publique fondé en 1990 pour représenter l’ensemble des avocats inscrits à un barreau français – a été invité à participer à la réflexion visant à rendre les engagements de cet appel effectif et sa mise oeuvre conciliable avec les libertés fondamentales.
• Les dispositions de l’appel de Christchurch
L’appel de Christchurch (3) invite de manière volontaire, par plusieurs séries d’engagements, les fournisseurs de services en ligne et les gouvernements à lutter contre les contenus terroristes ou extrémistes violents et garantir un Internet libre, ouvert et sûr, respectueux des droits de l’Homme. Cet appel, adopté sur la base du volontariat, fait écho aux dispositions de la proposition de la loi française visant à lutter contre la haine sur Internet. Ainsi, parmi les dispositions les plus innovantes, l’appel propose, notamment, aux fournisseurs de services d’améliorer la transparence des conditions générales d’utilisation des plateformes, de mettre en oeuvre ces conditions d’utilisation en prenant en compte les droits de l’homme et les libertés fondamentales (et notamment de prioriser la modération des contenus terroristes, fermer les comptes lorsque c’est nécessaire et prévoir un système de contestation transparent). L’appel de Christchurch propose aussi de prendre en compte le risque de diffusion de contenus haineux ou terroristes via les « live stream », d’améliorer les mécanismes de signalement des contenus, d’évaluer les algorithmes de manière à éviter qu’ils dirigent les utilisateurs des réseaux vers des contenus terroristes, ou encore de mettre en place des conditions générales d’utilisation transparentes et exhaustives et avertissant sur les conséquences de la diffusion d’un tel contenu.
Les gouvernements et les fournisseurs de services en ligne s’engagent parallèlement à plus et mieux coopérer d’un point de vue technologique, scientifique et juridique pour atteindre ces résultats, tout en respectant un cadre légal et les droits fondamentaux des utilisateurs.
• Les propositions du CNB
La lutte contre la haine et les contenus terroristes et extrémistes est un sujet mondial et l’affaire de tous. Les avocats, en tant que citoyens, sont concernés par la prolifération de la haine sur Internet. Toutes les mesures visant à lutter contre l’expression de la haine sur les réseaux sociaux et sur Internet doivent entrer dans un cadre légal et respecter les libertés publiques, y compris la liberté d’expression.

Réfléchir à la mise en oeuvre de l’appel
Dans la continuité de ses travaux engagés au niveau national, le CNB a participé à une réunion internationale d’experts issus du monde universitaires, d’organisations gouvernementales et internationales, d’associations et de juristes pour réfléchir à la mise en oeuvre de cet appel. Lors de cette consultation, le Conseil national des barreaux a salué cette initiative visant à lutter contre la diffusion de contenus terroristes. Comme l’affirme justement l’appel, « La diffusion de ce type de contenu sur Internet a des effets délétères sur les droits des victimes, sur notre sécurité collective et sur les populations du monde entier ». L’échelle internationale est tout à fait pertinente et seule une dynamique inclusive permettant d’engager un dialogue entre toutes les parties prenantes peut permettre d’agir utilement.

Dans le respect des droits des utilisateurs
Par ailleurs, le CNB a formulé plusieurs propositions pour faire en sorte que la mise en oeuvre de l’appel de Christchurch soit conciliable avec le respect des droits des utilisateurs et la bonne administration de la justice. A cet égard, l’un des moyens les plus efficaces de lutter contre les contenus haineux est la simplification des mécanismes de signalement et, notamment, l’harmonisation des formulaires de signalement et la mise en place d’un bouton unique de signalement d’un contenu haineux ou terroriste. Ces simplifications techniques, présentes dans l’article 2 de la proposition de loi française (notamment « un dispositif de notification directement accessible et uniforme permettant à toute personne de notifier un contenu illicite dans la langue d’utilisation du service »), sont un moyen efficace d’assurer une plus grande transparence et une meilleure information des utilisateurs des services.
De la même manière, la mise en place de procédures de contestation en cas de retrait de contenus (« un dispositif permettant à l’utilisateur à l’origine de la publication du contenu retiré, rendu inaccessible ou déréférencé de contester cette décision ») est primordiale pour assurer l’information des utilisateurs sur leurs droits et leurs devoirs. Toutefois, et dans le prolongement des réserves qui ont été exprimées par le CNB le 19 mai dernier (4) à la suite de la publication de la proposition de loi visant à lutter contre la haine sur Internet (voir encadré ci-dessous), la principale préoccupation de la profession d’avocat est de préserver le rôle de l’Etat en matière de justice. Et ce, en assurant des moyens suffisants permettant de poursuivre systématiquement et dans des délais raisonnables les utilisateurs diffusant des contenus manifestement illicites. Ces moyens pourraient permettre d’améliorer la formation des magistrats et de créer un parquet national numérique (5) afin de mieux articuler retrait des contenus et poursuites pénales. Les dispositifs envisagés actuellement sont centrés sur l’autorégulation des plateformes en ligne. L’obligation des plateformes à retirer les contenus manifestement illicites dans des délais extrêmement contraints sous peine de sanctions financières élevées, voire disproportionnées, risquent d’aboutir au contournement des mécanismes judiciaires adéquats en généralisant l’autocensure préventive des fournisseurs de services en ligne, au détriment de la liberté d’expression.
Or, il est fondamental qu’un équilibre soit respecté entre régulation, autorégulation et mécanismes judiciaires, ces derniers étant les seuls à même de sauvegarder l’équilibre entre l’interdiction des contenus illicites et la liberté d’expression des utilisateurs des plateformes. Dans cette architecture en construction, le rôle du juge et l’existence d’un recours juridictionnel effectif doivent rester centraux pour décider de ce qui est illégal ou non. De la même manière, la généralisation des algorithmes pour le contrôle des contenus constitue un moyen efficace de vérification mais soulève la question de leur transparence et de leur accès par les juges et les avocats en cas de contestation du retrait d’un contenu. Ces offensives à l’échelle nationale et internationale contre les contenus terroristes, extrémistes violents et haineux traduisent un besoin de régulation des contenus sur Internet et il appartient à nos sociétés de faire preuve d’imagination pour préserver l’équilibre fragile entre régulation et sauvegarde des droits fondamentaux. @

* Christiane Féral-Schuhl, présidente du Conseil national
des barreaux (CNB), est ancien bâtonnier du Barreau de
Paris, et auteure de « Cyberdroit », dont la 7e édition
(2018-2019) est parue aux éditions Dalloz.

Explicabilité des algorithmes : à quel niveau faut-il mettre le curseur de la régulation ?

Le néologisme « explicabilité » prend de l’ampleur à l’heure des algorithmes
et de l’intelligence artificielle. En Europe, France comprise, la loi exige déjà qu’ils doivent être explicables dans un souci de transparence et de responsabilisation. La question est de savoir s’il faut encore plus réguler.

Par Winston Maxwell* et David Bounie**, Telecom Paris, Institut polytechnique de Paris

lL’« explicabilité » est devenue un principe incontournable de la future bonne régulation des algorithmes. L’explicabilité figure dans les recommandations que l’OCDE (1) a adoptées le 22 mai (2)
sur l’intelligence artificielle (IA), dans
la communication de la Commission européenne du 8 avril (3), dans le rapport du groupe d’experts correspondant (4),
et dans le rapport Villani (5). Garante de plus de transparence, l’explicabilité des algorithmes n’est pas un concept nouveau.

Explicabilité : déjà présente dans la loi
Dans les années 1980 et 1990, de nombreux travaux scientifiques en France et aux Etats-Unis ont étudié l’explicabilité de l’intelligence artificielle, explicabilité jugée nécessaire pour promouvoir l’acceptabilité des systèmes « experts » (6). L’année
2018 marque le renouveau du concept. Le rapport Villani évoque la nécessité d’« ouvrir les boîtes noires » (7) ; le groupe d’experts européens souligne l’importance de l’explicabilité pour la confiance dans les systèmes IA (8). Que recouvre ce terme qui ne figure nulle part dans les dictionnaires (9) ? Les nouvelles recommandations de l’OCDE font la meilleure synthèse, se focalisant sur les finalités des explications (10). Les législateurs français et européen n’ont pas attendu les conclusions de l’OCDE pour imposer des obligations de transparence.
Le règlement général sur la protection des données (RGPD) impose l’obligation de fournir « des informations utiles concernant la logique sous-jacente » de toute décision automatique entraînant un effet important sur la personne (11). La récente révision de
la Convention 108 du Conseil de l’Europe (12) confère aux personnes le droit d’obtenir connaissance « du raisonnement qui sous-tend le traitement ». La loi « Lemaire » et ses décrets d’application imposent à l’administration l’obligation de communiquer à l’individu les « règles définissant tout traitement » algorithmique et les « principales caractéristiques de sa mise en oeuvre » (14). Ces mêmes textes imposent aux plateformes l’obligation de communiquer les « critères de classement », ainsi que leur
« principaux paramètres » (15). Au niveau européen, le futur règlement « Plateformes » – surnommé aussi P2B (16) – imposera aux places de marché et aux moteurs de recherche l’obligation d’indiquer les « principaux paramètres » qu’ils utilisent pour classer les biens et les services sur leurs sites. Ce règlement, qui devait être adopté
le 20 juin 2019 par le Conseil de l’Union européenne, n’imposera pas en revanche la communication de l’algorithme lui-même, protégé par la directive sur le secret des affaires (17). Avec autant de dispositions déjà en place, faut-il encore plus réguler ? L’explicabilité est un problème qui dépasse le débat sur la transparence des plateformes. Elle touche à des secteurs clés de l’industrie, et risque de freiner le déploiement des algorithmes si les contours de l’explicabilité ne sont pas bien définis par le régulateur. La difficulté est à la fois économique et juridique. Sur le plan économique, l’utilisation des algorithmes les plus performants sera freinée si leur fonctionnement n’est pas suffisamment compris par les utilisateurs et les régulateurs. Par exemple, dans la lutte contre le blanchiment d’argent, les algorithmes les plus performants sont également les plus opaques. Or, les banques et leurs régulateurs n’adopteront ces algorithmes que si leur fonctionnement est compris et auditable.
Faire parler ces boîtes noires est donc une condition nécessaire à leur adoption par l’industrie et par l’administration. L’explicabilité est également déterminante pour des questions de responsabilité. En cas d’accident, de discrimination ou toute autre
« mauvaise » décision algorithmique, il sera essentiel d’auditer le système afin d’identifier la source de la mauvaise décision, corriger l’erreur pour l’avenir, et déterminer les éventuelles responsabilités. De plus, l’exploitant du système doit être
en mesure de démontrer sa conformité avec le RGPD et d’autres textes applicables. Comment démontrer une conformité si le fonctionnement interne de l’algorithme reste énigmatique pour son exploitant ? Une documentation expliquant le fonctionnement de l’algorithme sera nécessaire.

Apprentissage machine et interprétation
Un algorithme d’apprentissage machine (machine learning) est l’aboutissement de différentes phases de développement et de tests : on commence par la définition du problème à résoudre, le choix du modèle, le choix des données d’apprentissage, le choix des données de test et de validation, les ajustements des paramètres (tuning),
et le choix des données d’exploitation. Le modèle qui émerge après son apprentissage sera très performant mais presqu’aussi inscrutable que le cerveau humain. Si les théories mathématiques sous-jacentes aux modèles utilisés sont bien comprises, il
est délicat – pour ne pas dire souvent impossible – de comprendre le fonctionnement interne de certains modèles. C’est le cas bien souvent de certains modèles tels que les machines à vecteurs de support, les forêts aléatoires, les arbres améliorés par gradient, et les algorithmes d’apprentissage profonds tels que les réseaux de neurones artificiels, les réseaux de neurones convolutifs et les réseaux de neurones récurrents difficiles à interpréter.

Transparence, auditabilité et explicabilité
Le concept d’explicabilité – ou « explainable AI » (XAI) en anglais) –, parfois désigné par intelligibilité, est un thème de recherche en informatique en plein essor. Il est en particulier soutenu par un programme ambitieux de l’agence du département de la Défense des Etats-Unis, Darpa (18). Les recherches s’orientent sur le développement de méthodes qui aident à mieux comprendre ce que le modèle a appris, ainsi que des techniques pour expliquer les prédictions individuelles. Les solutions techniques se regroupent autour de deux familles : l’identification des facteurs les plus importants utilisés par le modèle (« saliency approach »), et la perturbation des données d’entrée afin de comprendre l’impact sur les décisions de sortie (« perturbation approach »).
Ces approches permettront la visualisation des facteurs déterminants dans la prise
de décision algorithmique.
Aux concepts d’interprétabilité et d’explicabilité sont associés ceux de transparence et d’« auditabilité » des algorithmes. L’idée est de rendre publics, ou bien de mettre sous séquestre, des algorithmes en vue les auditer pour étudier des difficultés potentielles. Comme illustré dans le débat sur le règlement « Plateformes » (P2B), imposer la communication des algorithmes se heurterait à la protection des secrets d’affaires, protégée par la directive européenne du 8 juin 2016 (19). Cependant, il existe des solutions intermédiaires, qui permettraient à la fois un audit approfondi du système
tout en protégeant le secret des affaires. La Cnil recommande de mettre en place
une plateforme nationale d’audit des algorithmes (20). L’une des difficultés pour le régulateur est l’impossibilité de répliquer le fonctionnement d’un algorithme à un moment T. Un algorithme d’apprentissage machine peut se mettre à jour régulièrement, apprenant à améliorer sa performance au fur et à mesure, en fonction des nouvelles données analysées. Ainsi, l’algorithme pourra donner un score de 93,87 % le lundi, et un score de 94,28 % le jeudi, s’appuyant sur exactement les mêmes données d’entrée. Cette absence de reproductibilité peut poser problème pour un régulateur en charge de valider un système avant sa mise en service, car le modèle changera lors de chaque nouvelle phase d’apprentissage. Pour un algorithme de moteur de recherche, ce n’est pas grave. Mais pour un algorithme pouvant provoquer des dommages corporels en cas d’erreur, cette évolutivité posera problème.
Exiger une transparence totale sur le fonctionnement de l’algorithme ne servirait à rien. Une telle exigence se heurterait à la protection du secret des affaires et, dans la plupart des cas, ne rendrait pas l’algorithme plus intelligible, même pour les initiés. La réglementation doit plutôt se concentrer sur les différentes finalités de l’explicabilité et les différents publics visés – grand public, régulateur, expert judiciaire.
Une explication envers un demandeur de crédit pourrait privilégier une approche dite
« contrefactuelle », par laquelle l’individu pourrait tester d’autres hypothèses d’entrée pour voir l’effet sur son score algorithmique.
Les outils d’explicabilité envers un régulateur seraient plus élaborés, permettant une explication du fonctionnement global de l’algorithme (dit « global explainability »), ainsi qu’une explication concernant chaque décision particulière (« local explainability »).
Les outils mis à la disposition du régulateur pourraient inclure des cartographies de pertinence (saliency maps), et autres outils de visualisation statistique. Enfin, en cas d’audit, l’exploitant de l’outil devra être en mesure de donner accès à l’ensemble de
la documentation concernant l’algorithme et les données d’apprentissage, et permettre au régulateur de conduire des tests, notamment des tests de perturbation de données d’entrée.
L’explicabilité, comme la régulation, est source de coûts. Un fort niveau d’explicabilité peut limiter le type de modèle utilisé, conduisant à des pertes de performance. Cependant, certains estiment que le compromis entre performance et explicabilité n’est que temporaire, et disparaîtra avec le progrès technique. La régulation est également source de coûts, surtout lorsque la régulation ne suit pas l’évolution technologique.

Privilégier une régulation « bacs à sable »
Ainsi, la Commission européenne et le Conseil d’Etat recommandent la régulation expérimentale – des « bacs à sable » de régulation – permettant de tester différentes approches de régulation pour déterminer celle qui sera la plus efficace. Le principe européen de la proportionnalité guidera le niveau de régulation. Le niveau d’exigences en matière d’explicabilité augmentera avec le niveau de risques. Pour certains usages, aucune explicabilité ne sera nécessaire. Pour un algorithme qui apprend à jouer aux échecs, le fonctionnement interne ne soulève pas d’enjeu réglementaire. Par conséquent, la boîte noire pourra rester fermée. @

* Winston Maxwell, ancien avocat associé du cabinet
Hogan Lovells, est depuis juin 2019 directeur d’étude, droit et
numérique à Telecom Paris, Institut polytechnique de Paris.
** David Bounie est professeur d’économie
à Telecom Paris, Institut polytechnique de Paris.