search


keyboard_tab Digital Service Act 2022/2065 FR

BG CS DA DE EL EN ES ET FI FR GA HR HU IT LV LT MT NL PL PT RO SK SL SV print pdf

2022/2065 FR cercato: 'fondamentaux' . Output generated live by software developed by IusOnDemand srl


expand index fondamentaux:

    CHAPITRE I
    DISPOSITIONS GÉNÉRALES
  • 1 Art. premier Objet

  • CHAPITRE II
    RESPONSABILITE DES FOURNISSEURS DE SERVICES INTERMÉDIAIRES

    CHAPITRE III
    OBLIGATIONS DE DILIGENCE POUR UN ENVIRONNEMENT EN LIGNE SÛR ET TRANSPARENT

    SECTION 1
    Dispositions applicables à tous les fournisseurs de services intermédiaires
  • 2 Art. 14 Conditions générales

  • SECTION 2
    Dispositions supplémentaires applicables aux fournisseurs de services d’hébergement, y compris les plateformes en ligne

    SECTION 3
    Dispositions supplémentaires applicables aux fournisseurs de plateformes en ligne

    SECTION 4
    Dispositions supplémentaires applicables aux fournisseurs de plateformes en ligne permettant aux consommateurs de conclure des contrats à distance avec des professionnels

    SECTION 5
    Obligations supplémentaires de gestion des risques systémiques imposées aux fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne
  • 2 Art. 34 Évaluation des risques
  • 2 Art. 35 Atténuation des risques
  • 3 Art. 36 Mécanisme de réaction aux crises

  • SECTION 6
    Autres dispositions concernant les obligations de diligence

    CHAPITRE IV
    MISE EN ŒUVRE, COOPÉRATION, SANCTIONS ET EXÉCUTION

    SECTION 1
    Autorités compétentes et coordinateurs nationaux pour les services numériques
  • 2 Art. 48 Protocoles de crise

  • SECTION 2
    Compétences, enquête coordonnée et mécanismes de contrôle de la cohérence

    SECTION 3
    Comité européen des services numériques

    SECTION 4
    Surveillance, enquêtes, exécution et contrôle concernant les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne

    SECTION 5
    Dispositions communes relatives à l’exécution

    SECTION 6
    Actes délégués et actes d’exécution

    CHAPITRE V
    DISPOSITIONS FINALES


whereas fondamentaux:


definitions:


cloud tag: and the number of total unique words without stopwords is: 716

 

Article premier

Objet

1.   Le présent règlement a pour objectif de contribuer au bon fonctionnement du marché intérieur des services intermédiaires en établissant des règles harmonisées pour un environnement en ligne sûr, prévisible et fiable qui facilite l’innovation et dans lequel les droits fondamentaux consacrés par la Charte, y compris le principe de protection des consommateurs, sont efficacement protégés.

2.   Le présent règlement établit des règles harmonisées applicables à la fourniture de services intermédiaires au sein du marché intérieur. En particulier, il établit:

a)

un cadre pour l’exemption conditionnelle de responsabilité des fournisseurs de services intermédiaires;

b)

des règles relatives à des obligations de diligence spécifiques, adaptées à certaines catégories spécifiques de fournisseurs de services intermédiaires;

c)

des règles relatives à la mise en œuvre et à l’exécution du présent règlement, y compris en ce qui concerne la coopération et la coordination entre les autorités compétentes.

Article 14

Conditions générales

1.   Les fournisseurs de services intermédiaires incluent dans leurs conditions générales des renseignements relatifs aux éventuelles restrictions qu’ils imposent en ce qui concerne l’utilisation de leur service vis-à-vis des informations fournies par les destinataires du service. Ces renseignements comprennent des informations sur les politiques, procédures, mesures et outils utilisés à des fins de modération des contenus, y compris la prise de décision fondée sur des algorithmes et le réexamen par un être humain, ainsi que sur le règlement intérieur de leur système interne de traitement des réclamations. Ils sont énoncés dans un langage clair, simple, intelligible, aisément abordable et dépourvu d’ambiguïté, et sont mis à la disposition du public dans un format facilement accessible et lisible par une machine.

2.   Les fournisseurs de services intermédiaires informent les destinataires du service de toute modification importante des conditions générales.

3.   Lorsqu’un service intermédiaire s’adresse principalement à des mineurs ou est utilisé de manière prédominante par des mineurs, le fournisseur de ce service intermédiaire explique les conditions et les éventuelles restrictions relatives à l’utilisation du service d’une manière compréhensible pour les mineurs.

4.   Lorsqu’ils appliquent et font respecter les restrictions visées au paragraphe 1, les fournisseurs de services intermédiaires agissent de manière diligente, objective et proportionnée en tenant dûment compte des droits et des intérêts légitimes de toutes les parties impliquées, et notamment des droits fondamentaux des destinataires du service, tels que la liberté d’expression, la liberté et le pluralisme des médias et d’autres libertés et droits fondamentaux tels qu’ils sont consacrés dans la Charte.

5.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne fournissent aux destinataires des services un résumé des conditions générales, y compris des mécanismes de recours et de réparation disponibles, concis, facilement accessible et lisible par une machine, dans un langage clair et dépourvu d’ambiguïté.

6.   Les très grandes plateformes en ligne et les très grands moteurs de recherche en ligne au sens de l’article 33 publient leurs conditions générales dans les langues officielles de tous les États membres dans lesquels ils proposent leurs services.

Article 34

Évaluation des risques

1.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne recensent, analysent et évaluent de manière diligente tout risque systémique au sein de l’Union découlant de la conception ou du fonctionnement de leurs services et de leurs systèmes connexes, y compris des systèmes algorithmiques, ou de l’utilisation faite de leurs services.

Ils procèdent aux évaluations des risques au plus tard à la date d’application visée à l’article 33, paragraphe 6, deuxième alinéa, puis au moins une fois par an, et en tout état de cause avant de déployer des fonctionnalités susceptibles d’avoir une incidence critique sur les risques recensés en vertu du présent article. Cette évaluation des risques est spécifique à leurs services et proportionnée aux risques systémiques, de la gravité et de la probabilité desquels elle tient compte, et comprend les risques systémiques suivants:

a)

la diffusion de contenus illicites par l’intermédiaire de leurs services;

b)

tout effet négatif réel ou prévisible pour l’exercice des droits fondamentaux, en particulier le droit fondamental à la dignité humaine consacré à l’article 1er de la Charte, au respect de la vie privée et familiale consacré à l’article 7 de la Charte, à la protection des données à caractère personnel consacré à l’article 8 de la Charte, à la liberté d’expression et d’information, y compris la liberté et le pluralisme des médias, consacré à l’article 11 de la Charte, et à la non-discrimination consacré à l’article 21 de la Charte, les droits fondamentaux relatifs aux droits de l’enfant consacrés à l’article 24 de la Charte et le droit fondamental à un niveau élevé de protection des consommateurs consacré à l’article 38 de la Charte;

c)

tout effet négatif réel ou prévisible sur le discours civique, les processus électoraux et la sécurité publique;

d)

tout effet négatif réel ou prévisible lié aux violences sexistes et à la protection de la santé publique et des mineurs et les conséquences négatives graves sur le bien-être physique et mental des personnes.

2.   Lorsqu’ils procèdent à des évaluations des risques, les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne examinent notamment si et comment les facteurs suivants influencent les risques systémiques visés au paragraphe 1 et en tiennent compte:

a)

la conception de leurs systèmes de recommandation et de tout autre système algorithmique pertinent;

b)

leurs systèmes de modération des contenus;

c)

les conditions générales applicables et leur mise en application;

d)

les systèmes de sélection et de présentation de la publicité;

e)

les pratiques du fournisseur en matière de données.

Les évaluations examinent également si et comment les risques visés au paragraphe 1 sont influencés par la manipulation intentionnelle du service desdits fournisseurs, y compris par l’utilisation non authentique ou l’exploitation automatisée du service, ainsi que par l’amplification et la diffusion potentiellement rapide et à grande échelle de contenus illicites et d’informations incompatibles avec leurs conditions générales.

L’évaluation tient compte des aspects régionaux ou linguistiques spécifiques, y compris lorsqu’ils sont propres à un État membre.

3.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne conservent les documents justificatifs des évaluations des risques pendant au moins trois ans après la réalisation de ces évaluations, et les communiquent à la Commission et au coordinateur pour les services numériques de l’État membre d’établissement, à leur demande.

Article 35

Atténuation des risques

1.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne mettent en place des mesures d’atténuation raisonnables, proportionnées et efficaces, adaptées aux risques systémiques spécifiques recensés conformément à l’article 34, en tenant compte en particulier de l’incidence de ces mesures sur les droits fondamentaux. Ces mesures peuvent inclure, le cas échéant:

a)

l’adaptation de la conception, des caractéristiques ou du fonctionnement de leurs services, y compris leurs interfaces en ligne;

b)

l’adaptation de leurs conditions générales et de la mise en application de celles-ci;

c)

l’adaptation des processus de modération des contenus, y compris la rapidité et la qualité du traitement des notifications relatives à des types spécifiques de contenus illicites et, le cas échéant, le retrait rapide des contenus qui ont fait l’objet d’une notification ou le blocage de l’accès à ces contenus, en particulier en ce qui concerne les discours haineux illégaux ou la cyberviolence, ainsi que l’adaptation des processus décisionnels pertinents et des ressources dédiées à la modération des contenus;

d)

le test et l’adaptation de leurs systèmes algorithmiques, y compris leurs systèmes de recommandation;

e)

l’adaptation de leurs systèmes de publicité et l’adoption de mesures ciblées destinées à limiter la présentation de publicités, ou à en adapter la présentation, en association avec le service fourni;

f)

le renforcement des processus internes, des ressources, des tests, de la documentation ou de la surveillance d’une quelconque de leurs activités, notamment en ce qui concerne la détection des risques systémiques;

g)

la mise en place d’une coopération avec les signaleurs de confiance, ou l’ajustement de cette coopération, conformément à l’article 22, ainsi que la mise en œuvre des décisions prises par les organes de règlement extrajudiciaire des litiges en vertu de l’article 21;

h)

la mise en place d’une coopération avec d’autres fournisseurs de plateformes en ligne ou de moteurs de recherche en ligne, ou l’ajustement de cette coopération, sur la base des codes de conduite et des protocoles de crise visés aux articles 45 et 48, respectivement;

i)

l’adoption de mesures de sensibilisation et l’adaptation de leur interface en ligne, afin de donner plus d’informations aux destinataires du service;

j)

l’adoption de mesures ciblées visant à protéger les droits de l’enfant, y compris la vérification de l’âge et des outils de contrôle parental, ou des outils permettant d’aider les mineurs à signaler les abus ou à obtenir un soutien, s’il y a lieu;

k)

le recours à un marquage bien visible pour garantir qu’un élément d’information, qu’il s’agisse d’une image, d’un contenu audio ou vidéo généré ou manipulé, qui ressemble nettement à des personnes, à des objets, à des lieux ou à d’autres entités ou événements réels, et apparaît à tort aux yeux d’une personne comme authentique ou digne de foi, est reconnaissable lorsqu’il est présenté sur leurs interfaces en ligne, et, en complément, la mise à disposition d’une fonctionnalité facile d’utilisation permettant aux destinataires du service de signaler ce type d’information.

2.   Le comité, en coopération avec la Commission, publie des rapports exhaustifs une fois par an. Ces rapports comprennent les éléments suivants:

a)

le recensement et l’évaluation des risques systémiques les plus importants et récurrents signalés par les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne ou recensés via d’autres sources d’informations, notamment celles fournies conformément aux articles 39, 40 et 42;

b)

la définition de bonnes pratiques pour les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne en vue de l’atténuation des risques systémiques recensés.

Ces rapports présentent les risques systémiques ventilés par État membre dans lequel ils sont survenus et pour l’ensemble de l’Union, s’il y a lieu.

3.   La Commission, en coopération avec les coordinateurs pour les services numériques, peut publier des lignes directrices sur l’application du paragraphe 1 par rapport à des risques spécifiques, notamment en vue de présenter les bonnes pratiques et de recommander des mesures possibles, en tenant dûment compte des conséquences possibles des mesures sur les droits fondamentaux de toutes les parties concernées consacrés dans la Charte. Dans le cadre de l’élaboration de ces lignes directrices, la Commission organise des consultations publiques.

Article 36

Mécanisme de réaction aux crises

1.   En cas de crise, la Commission, sur recommandation du comité, peut adopter une décision exigeant qu’un ou plusieurs fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche entreprennent une ou plusieurs des actions suivantes:

a)

évaluer si et, le cas échéant, comment et dans quelle mesure le fonctionnement et l’utilisation de leurs services contribuent de manière significative à une menace grave, telle qu’elle est visée au paragraphe 2, ou sont susceptibles de le faire;

b)

déterminer et appliquer des mesures spécifiques, efficaces et proportionnées, telles que celles prévues à l’article 35, paragraphe 1, ou à l’article 48, paragraphe 2, pour prévenir, éliminer ou limiter toute contribution à la menace grave identifiée en vertu du point a) du présent paragraphe;

c)

faire rapport à la Commission, à une date donnée ou à intervalles réguliers précisés dans la décision, sur les évaluations visées au point a), le contenu précis, la mise en œuvre et l’impact qualitatif et quantitatif des mesures spécifiques prises en application du point b), ainsi que sur tout autre aspect lié à ces évaluations ou mesures, précisé dans la décision.

Lorsqu’ils déterminent et appliquent des mesures conformément au point b) du présent paragraphe, le ou les fournisseurs de services tiennent dûment compte du caractère sérieux de la menace grave visée au paragraphe 2, de l’urgence des mesures ainsi que des répercussions réelles ou potentielles pour les droits et les intérêts légitimes de toutes les parties concernées, y compris de l’éventualité que les mesures ne respectent pas les droits fondamentaux consacrés dans la Charte.

2.   Aux fins du présent article, il y a lieu de conclure à une crise lorsque des circonstances extraordinaires entraînent une menace grave pour la sécurité publique ou la santé publique dans l’Union ou dans des parties importantes de l’Union.

3.   Lorsqu’elle adopte la décision visée au paragraphe 1, la Commission veille à respecter l’ensemble des exigences suivantes:

a)

les actions requises par la décision sont strictement nécessaires, justifiées et proportionnées, compte tenu notamment du caractère sérieux de la menace grave visée au paragraphe 2, de l’urgence des mesures ainsi que des répercussions réelles ou potentielles pour les droits et les intérêts légitimes de toutes les parties concernées, y compris de l’éventualité que les mesures ne respectent pas les droits fondamentaux consacrés dans la Charte;

b)

la décision définit une période raisonnable durant laquelle les mesures spécifiques visées au paragraphe 1, point b), doivent être prises, compte tenu notamment de l’urgence de ces mesures et du temps nécessaire pour leur élaboration et leur mise en œuvre;

c)

les actions requises par la décision sont limitées à une durée n’excédant pas trois mois.

4.   Après l’adoption de la décision visée au paragraphe 1, la Commission entreprend sans retard injustifié les actions suivantes:

a)

notifier la décision aux fournisseurs qui en sont les destinataires;

b)

rendre la décision publique; et

c)

informer le comité de la décision, l’inviter à faire part de son point de vue sur celle-ci et le tenir informé de toute évolution ultérieure relative à la décision.

5.   Le choix des mesures spécifiques à prendre en vertu du paragraphe 1, point b), et du paragraphe 7, deuxième alinéa, relève de la responsabilité du ou des fournisseurs visés par la décision de la Commission.

6.   La Commission peut, de sa propre initiative ou à la demande du fournisseur, engager un dialogue avec ce dernier afin de déterminer si, à la lumière de la situation particulière du fournisseur, les mesures prévues ou appliquées, visées au paragraphe 1, point b), sont efficaces et proportionnées pour atteindre les objectifs poursuivis. En particulier, la Commission veille à ce que les mesures prises par le fournisseur de services au titre du paragraphe 1, point b), respectent les exigences visées au paragraphe 3, points a) et c).

7.   La Commission contrôle l’application des mesures spécifiques prises en vertu de la décision visée au paragraphe 1 du présent article en s’appuyant sur les rapports visés au point c) dudit paragraphe et sur toute autre information pertinente, y compris les informations qu’elle peut demander en vertu de l’article 40 ou 67, en tenant compte de l’évolution de la crise. La Commission fait régulièrement rapport au comité sur ce contrôle, au moins une fois par mois.

Lorsque la Commission estime que les mesures spécifiques prévues ou appliquées en vertu du paragraphe 1, point b), ne sont pas efficaces ou proportionnées, elle peut, après consultation du comité, adopter une décision obligeant le fournisseur à réexaminer les mesures spécifiques qui ont été déterminées ou leur application.

8.   S’il y a lieu, au regard de l’évolution de la crise, la Commission peut, sur recommandation du comité, modifier la décision visée au paragraphe 1 ou au paragraphe 7, deuxième alinéa, en:

a)

révoquant la décision et, s’il y a lieu, en demandant à la très grande plateforme en ligne ou au très grand moteur de recherche en ligne de cesser d’appliquer les mesures déterminées et mises en œuvre en vertu du paragraphe 1, point b), ou du paragraphe 7, deuxième alinéa, en particulier lorsque les motifs justifiant de telles mesures n’existent plus;

b)

prolongeant la période visée au paragraphe 3, point c), pour une durée n’excédant pas trois mois;

c)

prenant en compte l’expérience acquise dans l’application des mesures, notamment l’éventualité que les mesures ne respectent pas les droits fondamentaux consacrés par la Charte.

9.   Les exigences des paragraphes 1 à 6 s’appliquent à la décision et à la modification de celle-ci visées au présent article.

10.   La Commission tient le plus grand compte de la recommandation formulée par le comité en vertu du présent article.

11.   Tous les ans après l’adoption de décisions conformément au présent article et, en tout état de cause, trois mois après la fin de la crise, la Commission fait rapport au Parlement européen et au Conseil sur l’application des mesures spécifiques prises en vertu desdites décisions.

Article 48

Protocoles de crise

1.   Le comité peut recommander à la Commission de lancer l’élaboration, conformément aux paragraphes 2, 3 et 4, de protocoles de crise volontaires pour faire face aux situations de crise. Ces situations sont strictement limitées à des circonstances extraordinaires affectant la sécurité publique ou la santé publique.

2.   La Commission encourage et facilite la participation des fournisseurs de très grandes plateformes en ligne, de très grands moteurs de recherche en ligne et, le cas échéant, les fournisseurs d’autres plateformes en ligne ou d’autres moteurs de recherche en ligne, à l’élaboration, aux essais et à l’application de ces protocoles de crise. La Commission s’efforce de garantir que ces protocoles de crise comprennent une ou plusieurs des mesures suivantes:

a)

afficher de manière bien visible les informations relatives à la situation de crise fournies par les autorités des États membres ou au niveau de l’Union ou, en fonction du contexte de la crise, par d’autres organes fiables concernés;

b)

veiller à ce que le fournisseur de services intermédiaires désigne un point de contact spécifique pour la gestion des crises; le cas échéant, il peut s’agir du point de contact électronique visé à l’article 11 ou, dans le cas de fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne, du responsable de la conformité visé à l’article 41;

c)

le cas échéant, adapter les ressources dédiées au respect des obligations établies aux articles 16, 20, 22, 23 et 35 aux besoins découlant de la situation de crise.

3.   La Commission associe, selon qu’il convient, les autorités des États membres et peut également associer les organes et organismes de l’Union à l’élaboration, aux essais et à la supervision de l’application des protocoles de crise. La Commission peut également, si nécessaire et selon qu’il convient, associer des organisations de la société civile ou d’autres organisations pertinentes à l’élaboration des protocoles de crise.

4.   La Commission s’efforce de garantir que les protocoles de crise établissent clairement l’ensemble des éléments suivants:

a)

les paramètres spécifiques utilisés pour déterminer ce qui constitue la circonstance extraordinaire spécifique à laquelle le protocole de crise entend répondre, ainsi que les objectifs qu’il poursuit;

b)

le rôle de chacun des participants et les mesures qu’ils doivent mettre en place à titre préparatoire et en cas d’activation du protocole de crise;

c)

une procédure claire pour déterminer le moment auquel le protocole de crise doit être activé;

d)

une procédure claire pour déterminer la période au cours de laquelle les mesures à prendre en cas d’activation du protocole de crise doivent être prises, qui est strictement limitée à ce qui est nécessaire pour faire face aux circonstances extraordinaires spécifiques concernées;

e)

les mesures de sauvegarde contre les effets négatifs éventuels sur l’exercice des droits fondamentaux consacrés dans la Charte, en particulier la liberté d’expression et d’information et le droit à la non-discrimination;

f)

une procédure pour communiquer publiquement sur les mesures adoptées, leur durée et leurs résultats lorsque la situation de crise a pris fin.

5.   Si la Commission considère qu’un protocole de crise ne répond pas de manière efficace à une situation de crise, ou ne sauvegarde pas l’exercice des droits fondamentaux comme prévu au paragraphe 4, point e), elle demande aux participants de réviser le protocole de crise, notamment en prenant des mesures complémentaires.

CHAPITRE IV

MISE EN ŒUVRE, COOPÉRATION, SANCTIONS ET EXÉCUTION

SECTION 1

Autorités compétentes et coordinateurs nationaux pour les services numériques


whereas









keyboard_arrow_down