search


keyboard_tab Digital Service Act 2022/2065 FR

BG CS DA DE EL EN ES ET FI FR GA HR HU IT LV LT MT NL PL PT RO SK SL SV print pdf

2022/2065 FR cercato: 'bien' . Output generated live by software developed by IusOnDemand srl


expand index bien:

    CHAPITRE I
    DISPOSITIONS GÉNÉRALES

    CHAPITRE II
    RESPONSABILITE DES FOURNISSEURS DE SERVICES INTERMÉDIAIRES

    CHAPITRE III
    OBLIGATIONS DE DILIGENCE POUR UN ENVIRONNEMENT EN LIGNE SÛR ET TRANSPARENT

    SECTION 1
    Dispositions applicables à tous les fournisseurs de services intermédiaires

    SECTION 2
    Dispositions supplémentaires applicables aux fournisseurs de services d’hébergement, y compris les plateformes en ligne

    SECTION 3
    Dispositions supplémentaires applicables aux fournisseurs de plateformes en ligne
  • 1 Art. 24 Obligations en matière de rapports de transparence incombant aux fournisseurs de plateformes en ligne
  • 2 Art. 26 Publicité sur les plateformes en ligne

  • SECTION 4
    Dispositions supplémentaires applicables aux fournisseurs de plateformes en ligne permettant aux consommateurs de conclure des contrats à distance avec des professionnels

    SECTION 5
    Obligations supplémentaires de gestion des risques systémiques imposées aux fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne
  • 1 Art. 34 Évaluation des risques
  • 1 Art. 35 Atténuation des risques
  • 1 Art. 41 Fonction de contrôle de la conformité

  • SECTION 6
    Autres dispositions concernant les obligations de diligence
  • 1 Art. 43 Redevance de surveillance
  • 1 Art. 44 Normes

  • CHAPITRE IV
    MISE EN ŒUVRE, COOPÉRATION, SANCTIONS ET EXÉCUTION

    SECTION 1
    Autorités compétentes et coordinateurs nationaux pour les services numériques
  • 1 Art. 48 Protocoles de crise

  • SECTION 2
    Compétences, enquête coordonnée et mécanismes de contrôle de la cohérence

    SECTION 3
    Comité européen des services numériques

    SECTION 4
    Surveillance, enquêtes, exécution et contrôle concernant les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne

    SECTION 5
    Dispositions communes relatives à l’exécution

    SECTION 6
    Actes délégués et actes d’exécution

    CHAPITRE V
    DISPOSITIONS FINALES


whereas bien:


definitions:


cloud tag: and the number of total unique words without stopwords is: 828

 

Article 24

Obligations en matière de rapports de transparence incombant aux fournisseurs de plateformes en ligne

1.   En plus des informations visées à l’article 15, les fournisseurs de plateformes en ligne intègrent aux rapports visés dans cet article des informations sur les points suivants:

a)

le nombre de litiges transmis aux organes de règlement extrajudiciaire des litiges visés à l’article 21, les résultats du règlement des litiges, le délai médian nécessaire pour mener à bien les procédures de règlement des litiges et la proportion de litiges pour lesquels le fournisseur de la plateforme en ligne a mis en œuvre les décisions de l’organe;

b)

le nombre de suspensions imposées au titre de l’article 23, en faisant la distinction entre les suspensions prononcées en raison de la fourniture de contenus manifestement illicites, de la soumission de notifications manifestement infondées et de la soumission de réclamations manifestement infondées.

2.   Au plus tard le 17 février 2023 et au moins tous les six mois par la suite, les fournisseurs publient pour chaque plateforme en ligne ou chaque moteur de recherche en ligne, dans une section de leur interface en ligne accessible au public, des informations relatives à la moyenne mensuelle des destinataires actifs du service dans l’Union, calculée sous forme de moyenne au cours des six derniers mois et conformément à la méthodologie établie dans les actes délégués visés à l’article 33, paragraphe 3, lorsque ces actes délégués ont été adoptés.

3.   Les fournisseurs de plateformes en ligne ou de moteurs de recherche en ligne communiquent au coordinateur pour les services numériques de l’État membre d’établissement et à la Commission, à leur demande et dans les meilleurs délais, les informations visées au paragraphe 2, mises à jour jusqu’au moment de la demande. Ledit coordinateur pour les services numériques ou la Commission peuvent demander au fournisseur de la plateforme en ligne ou du moteur de recherche en ligne de fournir des informations complémentaires concernant le calcul visé audit paragraphe, y compris des explications et des justifications quant aux données utilisées. Ces informations ne contiennent pas de données à caractère personnel.

4.   Lorsque le coordinateur pour les services numériques de l’État membre d’établissement a des raisons de considérer, sur la base des informations reçues en application des paragraphes 2 et 3 du présent article, qu’un fournisseur de plateformes en ligne ou de moteurs de recherche en ligne atteint le seuil du nombre mensuel moyen de destinataires actifs du service dans l’Union fixé à l’article 33, paragraphe 1, il en informe la Commission.

5.   Les fournisseurs de plateformes en ligne soumettent à la Commission, dans les meilleurs délais, les décisions et les exposés des motifs visés à l’article 17, paragraphe 1, en vue de leur inclusion dans une base de données accessible au public, lisible par une machine, et gérée par la Commission. Les fournisseurs de plateformes en ligne veillent à ce que les informations soumises ne contiennent pas de données à caractère personnel.

6.   La Commission peut adopter des actes d’exécution pour établir des modèles concernant la forme, le contenu et d’autres détails des rapports au titre du paragraphe 1 du présent article. Ces actes d’exécution sont adoptés en conformité avec la procédure consultative visée à l’article 88.

Article 26

Publicité sur les plateformes en ligne

1.   Les fournisseurs de plateformes en ligne qui présentent de la publicité sur leurs interfaces en ligne veillent à ce que, pour chaque publicité spécifique présentée à chaque destinataire individuel, les destinataires du service puissent de manière claire, précise, non ambiguë et en temps réel:

a)

se rendre compte que les informations sont de la publicité, y compris au moyen de marquages bien visibles qui pourraient suivre des normes en vertu de l’article 44;

b)

identifier la personne physique ou morale pour le compte de laquelle la publicité est présentée;

c)

identifier la personne physique ou morale qui a payé pour la publicité, si cette personne est différente de la personne physique ou morale visée au point b); et

d)

déterminer les informations utiles, qui doivent être directement et facilement accessibles à partir de la publicité, concernant les principaux paramètres utilisés pour déterminer le destinataire auquel la publicité est présentée et, le cas échéant, la manière dont ces paramètres peuvent être modifiés.

2.   Les fournisseurs de plateformes en ligne fournissent aux destinataires du service une fonctionnalité leur permettant de déclarer si le contenu qu’ils fournissent constitue une communication commerciale ou s’il contient une telle communication.

Lorsque le destinataire du service soumet une déclaration en vertu du présent paragraphe, le fournisseur de plateformes en ligne veille à ce que les autres destinataires du service puissent se rendre compte de manière claire, non ambiguë et en temps réel, y compris au moyen de marquages bien visibles, qui pourraient suivre des normes en vertu de l’article 44, que le contenu fourni par le destinataire du service constitue une communication commerciale ou contient une telle communication, telle qu’elle est décrite dans cette déclaration.

3.   Les fournisseurs de plateformes en ligne ne présentent pas aux destinataires du service de publicité qui repose sur du profilage, tel qu’il est défini à l’article 4, point 4), du règlement (UE) 2016/679, en utilisant les catégories particulières de données à caractère personnel visées à l’article 9, paragraphe 1, du règlement (UE) 2016/679.

Article 34

Évaluation des risques

1.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne recensent, analysent et évaluent de manière diligente tout risque systémique au sein de l’Union découlant de la conception ou du fonctionnement de leurs services et de leurs systèmes connexes, y compris des systèmes algorithmiques, ou de l’utilisation faite de leurs services.

Ils procèdent aux évaluations des risques au plus tard à la date d’application visée à l’article 33, paragraphe 6, deuxième alinéa, puis au moins une fois par an, et en tout état de cause avant de déployer des fonctionnalités susceptibles d’avoir une incidence critique sur les risques recensés en vertu du présent article. Cette évaluation des risques est spécifique à leurs services et proportionnée aux risques systémiques, de la gravité et de la probabilité desquels elle tient compte, et comprend les risques systémiques suivants:

a)

la diffusion de contenus illicites par l’intermédiaire de leurs services;

b)

tout effet négatif réel ou prévisible pour l’exercice des droits fondamentaux, en particulier le droit fondamental à la dignité humaine consacré à l’article 1er de la Charte, au respect de la vie privée et familiale consacré à l’article 7 de la Charte, à la protection des données à caractère personnel consacré à l’article 8 de la Charte, à la liberté d’expression et d’information, y compris la liberté et le pluralisme des médias, consacré à l’article 11 de la Charte, et à la non-discrimination consacré à l’article 21 de la Charte, les droits fondamentaux relatifs aux droits de l’enfant consacrés à l’article 24 de la Charte et le droit fondamental à un niveau élevé de protection des consommateurs consacré à l’article 38 de la Charte;

c)

tout effet négatif réel ou prévisible sur le discours civique, les processus électoraux et la sécurité publique;

d)

tout effet négatif réel ou prévisible lié aux violences sexistes et à la protection de la santé publique et des mineurs et les conséquences négatives graves sur le bien-être physique et mental des personnes.

2.   Lorsqu’ils procèdent à des évaluations des risques, les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne examinent notamment si et comment les facteurs suivants influencent les risques systémiques visés au paragraphe 1 et en tiennent compte:

a)

la conception de leurs systèmes de recommandation et de tout autre système algorithmique pertinent;

b)

leurs systèmes de modération des contenus;

c)

les conditions générales applicables et leur mise en application;

d)

les systèmes de sélection et de présentation de la publicité;

e)

les pratiques du fournisseur en matière de données.

Les évaluations examinent également si et comment les risques visés au paragraphe 1 sont influencés par la manipulation intentionnelle du service desdits fournisseurs, y compris par l’utilisation non authentique ou l’exploitation automatisée du service, ainsi que par l’amplification et la diffusion potentiellement rapide et à grande échelle de contenus illicites et d’informations incompatibles avec leurs conditions générales.

L’évaluation tient compte des aspects régionaux ou linguistiques spécifiques, y compris lorsqu’ils sont propres à un État membre.

3.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne conservent les documents justificatifs des évaluations des risques pendant au moins trois ans après la réalisation de ces évaluations, et les communiquent à la Commission et au coordinateur pour les services numériques de l’État membre d’établissement, à leur demande.

Article 35

Atténuation des risques

1.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne mettent en place des mesures d’atténuation raisonnables, proportionnées et efficaces, adaptées aux risques systémiques spécifiques recensés conformément à l’article 34, en tenant compte en particulier de l’incidence de ces mesures sur les droits fondamentaux. Ces mesures peuvent inclure, le cas échéant:

a)

l’adaptation de la conception, des caractéristiques ou du fonctionnement de leurs services, y compris leurs interfaces en ligne;

b)

l’adaptation de leurs conditions générales et de la mise en application de celles-ci;

c)

l’adaptation des processus de modération des contenus, y compris la rapidité et la qualité du traitement des notifications relatives à des types spécifiques de contenus illicites et, le cas échéant, le retrait rapide des contenus qui ont fait l’objet d’une notification ou le blocage de l’accès à ces contenus, en particulier en ce qui concerne les discours haineux illégaux ou la cyberviolence, ainsi que l’adaptation des processus décisionnels pertinents et des ressources dédiées à la modération des contenus;

d)

le test et l’adaptation de leurs systèmes algorithmiques, y compris leurs systèmes de recommandation;

e)

l’adaptation de leurs systèmes de publicité et l’adoption de mesures ciblées destinées à limiter la présentation de publicités, ou à en adapter la présentation, en association avec le service fourni;

f)

le renforcement des processus internes, des ressources, des tests, de la documentation ou de la surveillance d’une quelconque de leurs activités, notamment en ce qui concerne la détection des risques systémiques;

g)

la mise en place d’une coopération avec les signaleurs de confiance, ou l’ajustement de cette coopération, conformément à l’article 22, ainsi que la mise en œuvre des décisions prises par les organes de règlement extrajudiciaire des litiges en vertu de l’article 21;

h)

la mise en place d’une coopération avec d’autres fournisseurs de plateformes en ligne ou de moteurs de recherche en ligne, ou l’ajustement de cette coopération, sur la base des codes de conduite et des protocoles de crise visés aux articles 45 et 48, respectivement;

i)

l’adoption de mesures de sensibilisation et l’adaptation de leur interface en ligne, afin de donner plus d’informations aux destinataires du service;

j)

l’adoption de mesures ciblées visant à protéger les droits de l’enfant, y compris la vérification de l’âge et des outils de contrôle parental, ou des outils permettant d’aider les mineurs à signaler les abus ou à obtenir un soutien, s’il y a lieu;

k)

le recours à un marquage bien visible pour garantir qu’un élément d’information, qu’il s’agisse d’une image, d’un contenu audio ou vidéo généré ou manipulé, qui ressemble nettement à des personnes, à des objets, à des lieux ou à d’autres entités ou événements réels, et apparaît à tort aux yeux d’une personne comme authentique ou digne de foi, est reconnaissable lorsqu’il est présenté sur leurs interfaces en ligne, et, en complément, la mise à disposition d’une fonctionnalité facile d’utilisation permettant aux destinataires du service de signaler ce type d’information.

2.   Le comité, en coopération avec la Commission, publie des rapports exhaustifs une fois par an. Ces rapports comprennent les éléments suivants:

a)

le recensement et l’évaluation des risques systémiques les plus importants et récurrents signalés par les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne ou recensés via d’autres sources d’informations, notamment celles fournies conformément aux articles 39, 40 et 42;

b)

la définition de bonnes pratiques pour les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne en vue de l’atténuation des risques systémiques recensés.

Ces rapports présentent les risques systémiques ventilés par État membre dans lequel ils sont survenus et pour l’ensemble de l’Union, s’il y a lieu.

3.   La Commission, en coopération avec les coordinateurs pour les services numériques, peut publier des lignes directrices sur l’application du paragraphe 1 par rapport à des risques spécifiques, notamment en vue de présenter les bonnes pratiques et de recommander des mesures possibles, en tenant dûment compte des conséquences possibles des mesures sur les droits fondamentaux de toutes les parties concernées consacrés dans la Charte. Dans le cadre de l’élaboration de ces lignes directrices, la Commission organise des consultations publiques.

Article 41

Fonction de contrôle de la conformité

1.   Les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne créent une fonction de contrôle de la conformité, qui est indépendante de leurs fonctions opérationnelles et composée d’un ou de plusieurs responsables de la conformité, y compris le responsable de la fonction de contrôle de la conformité. La fonction de contrôle de la conformité dispose d’une autorité, d’une taille et de ressources suffisantes, ainsi que de l’accès à l’organe de direction du fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne nécessaire pour contrôler le respect du présent règlement par ce fournisseur.

2.   L’organe de direction du fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne veille à ce que les responsables de la conformité disposent des qualifications professionnelles, des connaissances, de l’expérience et des aptitudes nécessaires pour mener à bien les tâches visées au paragraphe 3.

L’organe de direction du fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne veille à ce que le responsable de la fonction de contrôle de la conformité soit un cadre supérieur indépendant chargé spécifiquement de la fonction de contrôle de la conformité.

Le responsable de la fonction de contrôle de la conformité fait directement rapport à l’organe de direction du fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne et peut faire part de ses préoccupations auprès de cet organe et l’avertir lorsque les risques visés à l’article 34 ou le non-respect du présent règlement affectent ou sont susceptibles d’affecter le fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne concerné, sans préjudice des responsabilités de l’organe de direction dans ses fonctions de surveillance et de gestion.

Le responsable de la fonction de contrôle de la conformité n’est pas démis de ses fonctions sans l’accord préalable de l’organe de direction du fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne.

3.   Les responsables de la conformité sont investis des tâches suivantes:

a)

coopérer avec le coordinateur pour les services numériques de l’État membre d’établissement et la Commission aux fins du présent règlement;

b)

veiller à ce que tous les risques visés à l’article 34 soient recensés et dûment notifiés et à ce que des mesures d’atténuation des risques raisonnables, proportionnées et efficaces soient prises conformément à l’article 35;

c)

organiser et superviser les activités du fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne en lien avec l’audit indépendant en vertu de l’article 37;

d)

informer et conseiller la direction et les employés du fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne au sujet des obligations pertinentes au titre du présent règlement;

e)

contrôler le respect, par le fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne, de ses obligations au titre du présent règlement;

f)

le cas échéant, contrôler le respect, par le fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne, des engagements qu’il a pris au titre des codes de conduite en vertu des articles 45 et 46 ou des protocoles de crise en vertu de l’article 48.

4.   Les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne communiquent le nom et les coordonnées du responsable de la fonction de contrôle de la conformité au coordinateur pour les services numériques de l’État membre d’établissement et à la Commission.

5.   L’organe de direction du fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne détermine et supervise la mise en œuvre des dispositifs de gouvernance du fournisseur qui garantissent l’indépendance de la fonction de contrôle de la conformité, y compris la répartition des responsabilités au sein de l’organisation du fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne, la prévention des conflits d’intérêts et la bonne gestion des risques systémiques recensés conformément à l’article 34, et est tenu de rendre compte de cette mise en œuvre.

6.   L’organe de direction approuve et réexamine périodiquement, au moins une fois par an, les stratégies et les politiques relatives à la prise en compte, à la gestion, au suivi et à l’atténuation des risques recensés conformément à l’article 34 auxquels la très grande plateforme en ligne ou le très grand moteur de recherche en ligne est ou pourrait être exposé.

7.   L’organe de direction consacre suffisamment de temps à l’examen des mesures liées à la gestion des risques. Il participe activement aux décisions relatives à la gestion des risques et veille à ce que des ressources adéquates soient allouées à la gestion des risques recensés conformément à l’article 34.

Article 43

Redevance de surveillance

1.   La Commission perçoit auprès des fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne une redevance de surveillance annuelle au moment de leur désignation en vertu de l’article 33.

2.   Le montant total de la redevance de surveillance annuelle couvre les frais estimés que doit engager la Commission pour mener à bien les missions de surveillance que lui confie le présent règlement, en particulier les frais afférents aux désignations prévues à l’article 33, à la création, à la maintenance et au fonctionnement de la base de données visée à l’article 24, paragraphe 5, et au système de partage d’informations visé à l’article 85, aux saisines visées à l’article 59, à l’appui apporté au comité conformément à l’article 62 et aux missions de surveillance visées à l’article 56 et au chapitre IV, section 4.

3.   Une redevance de surveillance est perçue chaque année auprès des fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne pour chaque service pour lequel ils ont été désignés en vertu de l’article 33.

La Commission adopte des actes d’exécution fixant le montant de la redevance de surveillance annuelle pour chaque fournisseur de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne. Lorsqu’elle adopte ces actes d’exécution, la Commission applique la méthode établie dans l’acte délégué visé au paragraphe 4 du présent article et respecte les principes énoncés au paragraphe 5 du présent article. Ces actes d’exécution sont adoptés en conformité avec la procédure de consultation visée à l’article 88.

4.   La Commission adoptes des actes délégués conformément à l’article 87 fixant, dans le détail, la méthode et les procédures à employer pour:

a)

la détermination des frais estimés visés au paragraphe 2;

b)

la détermination des redevances de surveillance annuelles individuelles visées au paragraphe 5, points b) et c);

c)

la détermination du plafond global défini au paragraphe 5, point c); et

d)

les modalités nécessaires pour effectuer les paiements.

Lorsqu’elle adopte ces actes délégués, la Commission respecte les principes énoncés au paragraphe 5 du présent article.

5.   L’acte d’exécution visé au paragraphe 3 et l’acte délégué visé au paragraphe 4 respectent les principes suivants:

a)

l’estimation du montant total de la redevance de surveillance annuelle tient compte des frais engagés lors de l’exercice précédent;

b)

la redevance de surveillance annuelle est proportionnelle au nombre mensuel moyen de destinataires actifs dans l’Union de chaque très grande plateforme en ligne ou de chaque très grand moteur de recherche en ligne désigné en vertu de l’article 33;

c)

le montant total de la redevance de surveillance annuelle perçue auprès d’un fournisseur donné de très grandes plateformes en ligne ou de très grands moteurs de recherche ne dépasse en aucun cas 0,05 % de son résultat net mondial annuel de l’exercice précédent.

6.   Les redevances de surveillance annuelles individuelles perçues conformément au paragraphe 1 du présent article constituent des recettes affectées externes conformément à l’article 21, paragraphe 5, du règlement (UE, Euratom) 2018/1046 du Parlement européen et du Conseil (41).

7.   La Commission présente chaque année au Parlement européen et au Conseil un rapport sur le montant total des frais engagés pour l’accomplissement des missions qui lui incombent au titre du présent règlement et sur le montant total des redevances de surveillance annuelles individuelles perçues lors de l’exercice précédent.

SECTION 6

Autres dispositions concernant les obligations de diligence

Article 44

Normes

1.   La Commission consulte le comité et soutient et encourage le développement ainsi que la mise en œuvre de normes volontaires établies par les organismes de normalisation européens et internationaux pertinents, au minimum pour les aspects suivants:

a)

la soumission électronique des notifications au titre de l’article 16;

b)

les modèles et les normes de conception et de procédure à employer pour communiquer avec les destinataires du service de manière conviviale sur les restrictions résultant des conditions générales et les modifications qui leur sont apportées;

c)

la soumission électronique des notifications par les signaleurs de confiance au titre de l’article 22, y compris par l’intermédiaire d’interfaces de programme d’application;

d)

les interfaces spécifiques, y compris les interfaces de programme d’application, visant à faciliter le respect des obligations établies aux articles 39 et 40;

e)

l’audit des très grandes plateformes en ligne et des très grands moteurs de recherche en ligne au titre de l’article 37;

f)

l’interopérabilité des registres de publicités visés à l’article 39, paragraphe 2;

g)

la transmission de données entre les intermédiaires de publicité aux fins des obligations de transparence en vertu de l’article 26, paragraphe 1, points b), c) et d);

h)

les mesures techniques permettant de satisfaire aux obligations relatives à la publicité contenues dans le présent règlement, y compris les obligations relatives aux marquages bien visibles à employer pour les publicités et les communications commerciales visées à l’article 26;

i)

les interfaces de choix et la présentation des informations sur les principaux paramètres des différents types de systèmes de recommandation, conformément aux articles 27 et 38;

j)

les normes applicables aux mesures ciblées destinées à protéger les mineurs en ligne.

2.   La Commission soutient la mise à jour des normes à la lumière des évolutions technologiques et du comportement des destinataires des services en question. Les informations pertinentes concernant la mise à jour des normes sont mises à la disposition du public et facilement accessibles.

Article 48

Protocoles de crise

1.   Le comité peut recommander à la Commission de lancer l’élaboration, conformément aux paragraphes 2, 3 et 4, de protocoles de crise volontaires pour faire face aux situations de crise. Ces situations sont strictement limitées à des circonstances extraordinaires affectant la sécurité publique ou la santé publique.

2.   La Commission encourage et facilite la participation des fournisseurs de très grandes plateformes en ligne, de très grands moteurs de recherche en ligne et, le cas échéant, les fournisseurs d’autres plateformes en ligne ou d’autres moteurs de recherche en ligne, à l’élaboration, aux essais et à l’application de ces protocoles de crise. La Commission s’efforce de garantir que ces protocoles de crise comprennent une ou plusieurs des mesures suivantes:

a)

afficher de manière bien visible les informations relatives à la situation de crise fournies par les autorités des États membres ou au niveau de l’Union ou, en fonction du contexte de la crise, par d’autres organes fiables concernés;

b)

veiller à ce que le fournisseur de services intermédiaires désigne un point de contact spécifique pour la gestion des crises; le cas échéant, il peut s’agir du point de contact électronique visé à l’article 11 ou, dans le cas de fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne, du responsable de la conformité visé à l’article 41;

c)

le cas échéant, adapter les ressources dédiées au respect des obligations établies aux articles 16, 20, 22, 23 et 35 aux besoins découlant de la situation de crise.

3.   La Commission associe, selon qu’il convient, les autorités des États membres et peut également associer les organes et organismes de l’Union à l’élaboration, aux essais et à la supervision de l’application des protocoles de crise. La Commission peut également, si nécessaire et selon qu’il convient, associer des organisations de la société civile ou d’autres organisations pertinentes à l’élaboration des protocoles de crise.

4.   La Commission s’efforce de garantir que les protocoles de crise établissent clairement l’ensemble des éléments suivants:

a)

les paramètres spécifiques utilisés pour déterminer ce qui constitue la circonstance extraordinaire spécifique à laquelle le protocole de crise entend répondre, ainsi que les objectifs qu’il poursuit;

b)

le rôle de chacun des participants et les mesures qu’ils doivent mettre en place à titre préparatoire et en cas d’activation du protocole de crise;

c)

une procédure claire pour déterminer le moment auquel le protocole de crise doit être activé;

d)

une procédure claire pour déterminer la période au cours de laquelle les mesures à prendre en cas d’activation du protocole de crise doivent être prises, qui est strictement limitée à ce qui est nécessaire pour faire face aux circonstances extraordinaires spécifiques concernées;

e)

les mesures de sauvegarde contre les effets négatifs éventuels sur l’exercice des droits fondamentaux consacrés dans la Charte, en particulier la liberté d’expression et d’information et le droit à la non-discrimination;

f)

une procédure pour communiquer publiquement sur les mesures adoptées, leur durée et leurs résultats lorsque la situation de crise a pris fin.

5.   Si la Commission considère qu’un protocole de crise ne répond pas de manière efficace à une situation de crise, ou ne sauvegarde pas l’exercice des droits fondamentaux comme prévu au paragraphe 4, point e), elle demande aux participants de réviser le protocole de crise, notamment en prenant des mesures complémentaires.

CHAPITRE IV

MISE EN ŒUVRE, COOPÉRATION, SANCTIONS ET EXÉCUTION

SECTION 1

Autorités compétentes et coordinateurs nationaux pour les services numériques


whereas









keyboard_arrow_down