search


keyboard_tab Digital Service Act 2022/2065 FR

BG CS DA DE EL EN ES ET FI FR GA HR HU IT LV LT MT NL PL PT RO SK SL SV print pdf

2022/2065 FR cercato: 'modération' . Output generated live by software developed by IusOnDemand srl


expand index modération:

    CHAPITRE I
    DISPOSITIONS GÉNÉRALES

    CHAPITRE II
    RESPONSABILITE DES FOURNISSEURS DE SERVICES INTERMÉDIAIRES
  • 1 Art. 3 Définitions

  • CHAPITRE III
    OBLIGATIONS DE DILIGENCE POUR UN ENVIRONNEMENT EN LIGNE SÛR ET TRANSPARENT

    SECTION 1
    Dispositions applicables à tous les fournisseurs de services intermédiaires
  • 1 Art. 14 Conditions générales

  • SECTION 2
    Dispositions supplémentaires applicables aux fournisseurs de services d’hébergement, y compris les plateformes en ligne
  • 4 Art. 15 Obligations en matière de rapports de transparence incombant aux fournisseurs de services intermédiaires

  • SECTION 3
    Dispositions supplémentaires applicables aux fournisseurs de plateformes en ligne

    SECTION 4
    Dispositions supplémentaires applicables aux fournisseurs de plateformes en ligne permettant aux consommateurs de conclure des contrats à distance avec des professionnels

    SECTION 5
    Obligations supplémentaires de gestion des risques systémiques imposées aux fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne
  • 1 Art. 34 Évaluation des risques
  • 2 Art. 35 Atténuation des risques
  • 1 Art. 42 Obligations en matière de rapports de transparence

  • SECTION 6
    Autres dispositions concernant les obligations de diligence

    CHAPITRE IV
    MISE EN ŒUVRE, COOPÉRATION, SANCTIONS ET EXÉCUTION

    SECTION 1
    Autorités compétentes et coordinateurs nationaux pour les services numériques

    SECTION 2
    Compétences, enquête coordonnée et mécanismes de contrôle de la cohérence

    SECTION 3
    Comité européen des services numériques

    SECTION 4
    Surveillance, enquêtes, exécution et contrôle concernant les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne

    SECTION 5
    Dispositions communes relatives à l’exécution

    SECTION 6
    Actes délégués et actes d’exécution

    CHAPITRE V
    DISPOSITIONS FINALES


whereas modération:


definitions:


cloud tag: and the number of total unique words without stopwords is: 837

 

Article 3

Définitions

Aux fins du présent règlement, on entend par:

a)

“service de la société de l’information”: un service tel qu’il est défini à l’article 1er, paragraphe 1, point b), de la directive (UE) 2015/1535;

b)

“destinataire du service”: toute personne physique ou morale utilisant un service intermédiaire, notamment pour rechercher une information ou la rendre accessible;

c)

“consommateur”: toute personne physique agissant à des fins qui n’entrent pas dans le cadre de son activité commerciale, industrielle, artisanale ou libérale;

d)

“proposer des services dans l’Union”: permettre aux personnes physiques ou morales dans un ou plusieurs États membres d’utiliser les services d’un fournisseur de services intermédiaires qui a un lien étroit avec l’Union;

e)

“lien étroit avec l’Union”: un lien qu’un fournisseur de services intermédiaires a avec l’Union résultant soit de son établissement dans l’Union, soit de critères factuels spécifiques, tels que:

un nombre significatif de destinataires du service dans un ou plusieurs États membres par rapport à sa ou à leur population; ou

le ciblage des activités sur un ou plusieurs États membres;

f)

“professionnel”: toute personne physique, ou toute personne morale qu’elle soit privée ou publique, qui agit, y compris par l’intermédiaire d’une personne agissant en son nom ou pour son compte, à des fins entrant dans le cadre de son activité commerciale, industrielle, artisanale ou libérale;

g)

“service intermédiaire”: un des services de la société de l’information suivants:

i)

un service de “simple transport”, consistant à transmettre, sur un réseau de communication, des informations fournies par un destinataire du service ou à fournir l’accès à un réseau de communication;

ii)

un service de “mise en cache”, consistant à transmettre, sur un réseau de communication, des informations fournies par un destinataire du service, impliquant le stockage automatique, intermédiaire et temporaire de ces informations, effectué dans le seul but de rendre plus efficace la transmission ultérieure de ces informations à d’autres destinataires à leur demande;

iii)

un service d’”hébergement”, consistant à stocker des informations fournies par un destinataire du service à sa demande;

h)

“contenu illicite”: toute information qui, en soi ou par rapport à une activité, y compris la vente de produits ou la fourniture de services, n’est pas conforme au droit de l’Union ou au droit d’un État membre qui est conforme au droit de l’Union, quel que soit l’objet précis ou la nature précise de ce droit;

i)

“plateforme en ligne”: un service d’hébergement qui, à la demande d’un destinataire du service, stocke et diffuse au public des informations, à moins que cette activité ne soit une caractéristique mineure et purement accessoire d’un autre service ou une fonctionnalité mineure du service principal qui, pour des raisons objectives et techniques, ne peut être utilisée sans cet autre service, et pour autant que l’intégration de cette caractéristique ou de cette fonctionnalité à l’autre service ne soit pas un moyen de contourner l’applicabilité du présent règlement;

j)

“moteur de recherche en ligne”: un service intermédiaire qui permet aux utilisateurs de formuler des requêtes afin d’effectuer des recherches sur, en principe, tous les sites internet ou tous les sites internet dans une langue donnée, sur la base d’une requête lancée sur n’importe quel sujet sous la forme d’un mot-clé, d’une demande vocale, d’une expression ou d’une autre entrée, et qui renvoie des résultats dans quelque format que ce soit dans lesquels il est possible de trouver des informations en rapport avec le contenu demandé;

k)

“diffusion au public”: le fait de mettre des informations à la disposition d’un nombre potentiellement illimité de tiers, à la demande du destinataire du service ayant fourni ces informations;

l)

“contrat à distance”: le “contrat à distance” tel qu’il est défini à l’article 2, point 7), de la directive 2011/83/UE;

m)

“interface en ligne”: tout logiciel, y compris un site internet ou une section de site internet, et des applications, notamment des applications mobiles;

n)

“coordinateur pour les services numériques de l’État membre d’établissement”: le coordinateur pour les services numériques de l’État membre dans lequel l’établissement principal d’un fournisseur d’un service intermédiaire est situé, ou dans lequel son représentant légal réside ou est établi;

o)

“coordinateur pour les services numériques de l’État membre de destination”: le coordinateur pour les services numériques d’un État membre dans lequel le service intermédiaire est fourni;

p)

“destinataire actif d’une plateforme en ligne”: un destinataire du service qui a été en contact avec une plateforme en ligne, soit en demandant à la plateforme en ligne d’héberger des informations, soit en étant exposé aux informations hébergées par la plateforme en ligne et diffusées via son interface en ligne;

q)

“destinataire actif d’un moteur de recherche en ligne”: un destinataire du service qui a soumis une requête à un moteur de recherche en ligne et a été exposé aux informations indexées et présentées sur son interface en ligne;

r)

“publicité”: les informations destinées à promouvoir le message d’une personne physique ou morale, qu’elles aient des visées commerciales ou non commerciales, et présentées par une plateforme en ligne sur son interface en ligne, moyennant rémunération, dans le but spécifique de promouvoir ces informations;

s)

“système de recommandation”: un système entièrement ou partiellement automatisé utilisé par une plateforme en ligne pour suggérer sur son interface en ligne des informations spécifiques aux destinataires du service ou pour hiérarchiser ces informations, notamment à la suite d’une recherche lancée par le destinataire du service ou en déterminant de toute autre manière l’ordre relatif ou d’importance des informations affichées;

t)

modération des contenus”: les activités, qu’elles soient automatisées ou non, entreprises par des fournisseurs de services intermédiaires qui sont destinées, en particulier, à détecter et à identifier les contenus illicites ou les informations incompatibles avec leurs conditions générales, fournis par les destinataires du service, et à lutter contre ces contenus ou ces informations, y compris les mesures prises qui ont une incidence sur la disponibilité, la visibilité et l’accessibilité de ces contenus ou ces informations, telles que leur rétrogradation, leur démonétisation, le fait de rendre l’accès à ceux-ci impossible ou leur retrait, ou qui ont une incidence sur la capacité des destinataires du service à fournir ces informations, telles que la suppression ou la suspension du compte d’un destinataire;

u)

“conditions générales”: toutes les clauses, quelle que soit leur dénomination ou leur forme, qui régissent la relation contractuelle entre le fournisseur de services intermédiaires et les destinataires du service;

v)

“personnes handicapées”: les “personnes handicapées” visées à l’article 3, point 1), de la directive (UE) 2019/882 du Parlement européen et du Conseil (38);

w)

“communication commerciale”: la “communication commerciale” telle qu’elle est définie à l’article 2, point f), de la directive 2000/31/CE;

x)

“chiffre d’affaires”: le montant atteint par une entreprise au sens de l’article 5, paragraphe 1, du règlement (CE) n° 139/2004 du Conseil (39).

CHAPITRE II

RESPONSABILITE DES FOURNISSEURS DE SERVICES INTERMÉDIAIRES

Article 14

Conditions générales

1.   Les fournisseurs de services intermédiaires incluent dans leurs conditions générales des renseignements relatifs aux éventuelles restrictions qu’ils imposent en ce qui concerne l’utilisation de leur service vis-à-vis des informations fournies par les destinataires du service. Ces renseignements comprennent des informations sur les politiques, procédures, mesures et outils utilisés à des fins de modération des contenus, y compris la prise de décision fondée sur des algorithmes et le réexamen par un être humain, ainsi que sur le règlement intérieur de leur système interne de traitement des réclamations. Ils sont énoncés dans un langage clair, simple, intelligible, aisément abordable et dépourvu d’ambiguïté, et sont mis à la disposition du public dans un format facilement accessible et lisible par une machine.

2.   Les fournisseurs de services intermédiaires informent les destinataires du service de toute modification importante des conditions générales.

3.   Lorsqu’un service intermédiaire s’adresse principalement à des mineurs ou est utilisé de manière prédominante par des mineurs, le fournisseur de ce service intermédiaire explique les conditions et les éventuelles restrictions relatives à l’utilisation du service d’une manière compréhensible pour les mineurs.

4.   Lorsqu’ils appliquent et font respecter les restrictions visées au paragraphe 1, les fournisseurs de services intermédiaires agissent de manière diligente, objective et proportionnée en tenant dûment compte des droits et des intérêts légitimes de toutes les parties impliquées, et notamment des droits fondamentaux des destinataires du service, tels que la liberté d’expression, la liberté et le pluralisme des médias et d’autres libertés et droits fondamentaux tels qu’ils sont consacrés dans la Charte.

5.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne fournissent aux destinataires des services un résumé des conditions générales, y compris des mécanismes de recours et de réparation disponibles, concis, facilement accessible et lisible par une machine, dans un langage clair et dépourvu d’ambiguïté.

6.   Les très grandes plateformes en ligne et les très grands moteurs de recherche en ligne au sens de l’article 33 publient leurs conditions générales dans les langues officielles de tous les États membres dans lesquels ils proposent leurs services.

Article 15

Obligations en matière de rapports de transparence incombant aux fournisseurs de services intermédiaires

1.   Les fournisseurs de services intermédiaires mettent à la disposition du public, dans un format lisible par une machine et d’une manière facilement accessible, au moins une fois par an, des rapports clairs et facilement compréhensibles sur les éventuelles activités de modération des contenus auxquelles ils se sont livrés au cours de la période concernée. Ces rapports comprennent, en particulier, des informations sur les points suivants, selon le cas:

a)

pour les fournisseurs de services intermédiaires, le nombre d’injonctions reçues des autorités des États membres, y compris les injonctions émises conformément aux articles 9 et 10, classées par type de contenu illicite concerné, l’État membre qui a émis l’injonction et le délai médian nécessaire pour informer de sa réception l’autorité qui a émis l’injonction, ou toute autre autorité spécifiée dans l’injonction, et pour donner suite à l’injonction;

b)

pour les fournisseurs de services d’hébergement, le nombre de notifications soumises conformément à l’article 16, classées par type de contenu présumé illicite concerné, le nombre de notifications soumises par les signaleurs de confiance, toute action entreprise au titre des notifications en précisant si l’action a été entreprise sur la base de la législation ou des conditions générales du fournisseur, le nombre de notifications traitées de manière automatisée et le délai médian nécessaire pour entreprendre l’action;

c)

pour les fournisseurs de services intermédiaires, des informations utiles et compréhensibles sur les activités de modération des contenus auxquelles se sont livrés les fournisseurs de leur propre initiative, y compris l’utilisation d’outils automatisés, les mesures prises pour dispenser une formation et une assistance aux personnes chargées de la modération des contenus, le nombre et le type de mesures prises qui affectent la disponibilité, la visibilité et l’accessibilité des informations fournies par les destinataires du service et sur la capacité des destinataires à fournir des informations par l’intermédiaire du service, ainsi que d’autres restrictions connexes du service; les informations communiquées sont classées par type de contenu illicite ou d’infraction aux conditions générales du fournisseur de services, par méthode de détection et par type de restrictions appliquées;

d)

pour les fournisseurs de services intermédiaires, le nombre de réclamations reçues par l’intermédiaire des systèmes internes de traitement des réclamations conformément aux conditions générales du fournisseur et, en outre, pour les fournisseurs de plateformes en ligne, conformément à l’article 20, le fondement de ces réclamations, les décisions prises concernant ces réclamations, le délai médian nécessaire pour prendre ces décisions et le nombre de cas dans lesquels ces décisions ont été infirmées;

e)

tout recours à des moyens automatisés à des fins de modération des contenus, y compris une description qualitative, une indication des objectifs précis, des indicateurs de la précision et du taux d’erreur possible des moyens automatisés utilisés pour atteindre ces objectifs, et les éventuelles mesures de sauvegarde appliquées.

2.   Le paragraphe 1 du présent article ne s’applique pas aux fournisseurs de services intermédiaires qui peuvent être qualifiés de microentreprises ou de petites entreprises telles qu’elles sont définies dans la recommandation 2003/361/CE et qui ne sont pas de très grandes plateformes en ligne au sens de l’article 33 du présent règlement.

3.   La Commission peut adopter des actes d’exécution pour établir des modèles concernant la forme, le contenu et d’autres détails des rapports au titre du paragraphe 1 du présent article, y compris des périodes harmonisées pour l’établissement des rapports. Ces actes d’exécution sont adoptés en conformité avec la procédure consultative visée à l’article 88.

SECTION 2

Dispositions supplémentaires applicables aux fournisseurs de services d’hébergement, y compris les plateformes en ligne

Article 34

Évaluation des risques

1.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne recensent, analysent et évaluent de manière diligente tout risque systémique au sein de l’Union découlant de la conception ou du fonctionnement de leurs services et de leurs systèmes connexes, y compris des systèmes algorithmiques, ou de l’utilisation faite de leurs services.

Ils procèdent aux évaluations des risques au plus tard à la date d’application visée à l’article 33, paragraphe 6, deuxième alinéa, puis au moins une fois par an, et en tout état de cause avant de déployer des fonctionnalités susceptibles d’avoir une incidence critique sur les risques recensés en vertu du présent article. Cette évaluation des risques est spécifique à leurs services et proportionnée aux risques systémiques, de la gravité et de la probabilité desquels elle tient compte, et comprend les risques systémiques suivants:

a)

la diffusion de contenus illicites par l’intermédiaire de leurs services;

b)

tout effet négatif réel ou prévisible pour l’exercice des droits fondamentaux, en particulier le droit fondamental à la dignité humaine consacré à l’article 1er de la Charte, au respect de la vie privée et familiale consacré à l’article 7 de la Charte, à la protection des données à caractère personnel consacré à l’article 8 de la Charte, à la liberté d’expression et d’information, y compris la liberté et le pluralisme des médias, consacré à l’article 11 de la Charte, et à la non-discrimination consacré à l’article 21 de la Charte, les droits fondamentaux relatifs aux droits de l’enfant consacrés à l’article 24 de la Charte et le droit fondamental à un niveau élevé de protection des consommateurs consacré à l’article 38 de la Charte;

c)

tout effet négatif réel ou prévisible sur le discours civique, les processus électoraux et la sécurité publique;

d)

tout effet négatif réel ou prévisible lié aux violences sexistes et à la protection de la santé publique et des mineurs et les conséquences négatives graves sur le bien-être physique et mental des personnes.

2.   Lorsqu’ils procèdent à des évaluations des risques, les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne examinent notamment si et comment les facteurs suivants influencent les risques systémiques visés au paragraphe 1 et en tiennent compte:

a)

la conception de leurs systèmes de recommandation et de tout autre système algorithmique pertinent;

b)

leurs systèmes de modération des contenus;

c)

les conditions générales applicables et leur mise en application;

d)

les systèmes de sélection et de présentation de la publicité;

e)

les pratiques du fournisseur en matière de données.

Les évaluations examinent également si et comment les risques visés au paragraphe 1 sont influencés par la manipulation intentionnelle du service desdits fournisseurs, y compris par l’utilisation non authentique ou l’exploitation automatisée du service, ainsi que par l’amplification et la diffusion potentiellement rapide et à grande échelle de contenus illicites et d’informations incompatibles avec leurs conditions générales.

L’évaluation tient compte des aspects régionaux ou linguistiques spécifiques, y compris lorsqu’ils sont propres à un État membre.

3.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne conservent les documents justificatifs des évaluations des risques pendant au moins trois ans après la réalisation de ces évaluations, et les communiquent à la Commission et au coordinateur pour les services numériques de l’État membre d’établissement, à leur demande.

Article 35

Atténuation des risques

1.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne mettent en place des mesures d’atténuation raisonnables, proportionnées et efficaces, adaptées aux risques systémiques spécifiques recensés conformément à l’article 34, en tenant compte en particulier de l’incidence de ces mesures sur les droits fondamentaux. Ces mesures peuvent inclure, le cas échéant:

a)

l’adaptation de la conception, des caractéristiques ou du fonctionnement de leurs services, y compris leurs interfaces en ligne;

b)

l’adaptation de leurs conditions générales et de la mise en application de celles-ci;

c)

l’adaptation des processus de modération des contenus, y compris la rapidité et la qualité du traitement des notifications relatives à des types spécifiques de contenus illicites et, le cas échéant, le retrait rapide des contenus qui ont fait l’objet d’une notification ou le blocage de l’accès à ces contenus, en particulier en ce qui concerne les discours haineux illégaux ou la cyberviolence, ainsi que l’adaptation des processus décisionnels pertinents et des ressources dédiées à la modération des contenus;

d)

le test et l’adaptation de leurs systèmes algorithmiques, y compris leurs systèmes de recommandation;

e)

l’adaptation de leurs systèmes de publicité et l’adoption de mesures ciblées destinées à limiter la présentation de publicités, ou à en adapter la présentation, en association avec le service fourni;

f)

le renforcement des processus internes, des ressources, des tests, de la documentation ou de la surveillance d’une quelconque de leurs activités, notamment en ce qui concerne la détection des risques systémiques;

g)

la mise en place d’une coopération avec les signaleurs de confiance, ou l’ajustement de cette coopération, conformément à l’article 22, ainsi que la mise en œuvre des décisions prises par les organes de règlement extrajudiciaire des litiges en vertu de l’article 21;

h)

la mise en place d’une coopération avec d’autres fournisseurs de plateformes en ligne ou de moteurs de recherche en ligne, ou l’ajustement de cette coopération, sur la base des codes de conduite et des protocoles de crise visés aux articles 45 et 48, respectivement;

i)

l’adoption de mesures de sensibilisation et l’adaptation de leur interface en ligne, afin de donner plus d’informations aux destinataires du service;

j)

l’adoption de mesures ciblées visant à protéger les droits de l’enfant, y compris la vérification de l’âge et des outils de contrôle parental, ou des outils permettant d’aider les mineurs à signaler les abus ou à obtenir un soutien, s’il y a lieu;

k)

le recours à un marquage bien visible pour garantir qu’un élément d’information, qu’il s’agisse d’une image, d’un contenu audio ou vidéo généré ou manipulé, qui ressemble nettement à des personnes, à des objets, à des lieux ou à d’autres entités ou événements réels, et apparaît à tort aux yeux d’une personne comme authentique ou digne de foi, est reconnaissable lorsqu’il est présenté sur leurs interfaces en ligne, et, en complément, la mise à disposition d’une fonctionnalité facile d’utilisation permettant aux destinataires du service de signaler ce type d’information.

2.   Le comité, en coopération avec la Commission, publie des rapports exhaustifs une fois par an. Ces rapports comprennent les éléments suivants:

a)

le recensement et l’évaluation des risques systémiques les plus importants et récurrents signalés par les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne ou recensés via d’autres sources d’informations, notamment celles fournies conformément aux articles 39, 40 et 42;

b)

la définition de bonnes pratiques pour les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne en vue de l’atténuation des risques systémiques recensés.

Ces rapports présentent les risques systémiques ventilés par État membre dans lequel ils sont survenus et pour l’ensemble de l’Union, s’il y a lieu.

3.   La Commission, en coopération avec les coordinateurs pour les services numériques, peut publier des lignes directrices sur l’application du paragraphe 1 par rapport à des risques spécifiques, notamment en vue de présenter les bonnes pratiques et de recommander des mesures possibles, en tenant dûment compte des conséquences possibles des mesures sur les droits fondamentaux de toutes les parties concernées consacrés dans la Charte. Dans le cadre de l’élaboration de ces lignes directrices, la Commission organise des consultations publiques.

Article 42

Obligations en matière de rapports de transparence

1.   Les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne publient les rapports visés à l’article 15 au plus tard deux mois à compter de la date d’application visée à l’article 33, paragraphe 6, deuxième alinéa, puis au moins tous les six mois.

2.   Outre les informations visées à l’article 15 et à l’article 24, paragraphe 1, les rapports visés au paragraphe 1 du présent article, publiés par les fournisseurs de très grandes plateformes en ligne, précisent:

a)

les ressources humaines que le fournisseur de très grandes plateformes en ligne consacre à la modération des contenus en ce qui concerne le service proposé dans l’Union, ventilées par langue officielle concernée des États membres, y compris pour le respect des obligations énoncées aux articles 16 et 22 et de celles énoncées à l’article 20;

b)

les qualifications et les connaissances linguistiques des personnes accomplissant les activités visées au point a) ainsi que la formation et l’accompagnement qui leur sont apportés;

c)

les indicateurs de précision et les informations y afférentes visés à l’article 15, paragraphe 1, point e), ventilés par langue officielle des États membres.

Les rapports sont publiés dans au moins une des langues officielles des États membres.

3.   En plus des informations visées à l’article 24, paragraphe 2, les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne incluent, dans les rapports visés au paragraphe 1 du présent article, des informations sur le nombre mensuel moyen de destinataires du service dans chaque État membre.

4.   Les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne transmettent au coordinateur pour les services numériques de l’État membre d’établissement et à la Commission, sans retard injustifié dès leur achèvement, et mettent à la disposition du public au plus tard trois mois après la réception de chaque rapport d’audit conformément à l’article 37, paragraphe 4:

a)

un rapport exposant les résultats de l’évaluation des risques au titre de l’article 34;

b)

les mesures spécifiques d’atténuation mises en place en vertu de l’article 35, paragraphe 1;

c)

le rapport d’audit prévu à l’article 37, paragraphe 4;

d)

le rapport de mise en œuvre des recommandations d’audit prévu à l’article 37, paragraphe 6;

e)

s’il y a lieu, les informations relatives aux consultations menées par le fournisseur pour les besoins des évaluations des risques et de la conception des mesures d’atténuation des risques.

5.   Lorsqu’un fournisseur de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne considère que la publication d’informations conformément au paragraphe 4 pourrait mener à la divulgation d’informations confidentielles de ce fournisseur ou des destinataires du service, entraîner d’importantes vulnérabilités pour la sécurité de son service, porter atteinte à la sécurité publique ou nuire aux destinataires, il peut retirer ces informations des rapports accessibles au public. Dans ce cas, le fournisseur transmet les rapports complets au coordinateur pour les services numériques de l’État membre d’établissement et à la Commission, accompagnés d’un exposé des motifs pour lesquels ces informations ont été retirées des rapports accessibles au public.


whereas









keyboard_arrow_down