search


keyboard_tab Digital Service Act 2022/2065 FR

BG CS DA DE EL EN ES ET FI FR GA HR HU IT LV LT MT NL PL PT RO SK SL SV print pdf

2022/2065 FR cercato: 'respectivement' . Output generated live by software developed by IusOnDemand srl


expand index respectivement:

    CHAPITRE I
    DISPOSITIONS GÉNÉRALES

    CHAPITRE II
    RESPONSABILITE DES FOURNISSEURS DE SERVICES INTERMÉDIAIRES

    CHAPITRE III
    OBLIGATIONS DE DILIGENCE POUR UN ENVIRONNEMENT EN LIGNE SÛR ET TRANSPARENT

    SECTION 1
    Dispositions applicables à tous les fournisseurs de services intermédiaires

    SECTION 2
    Dispositions supplémentaires applicables aux fournisseurs de services d’hébergement, y compris les plateformes en ligne

    SECTION 3
    Dispositions supplémentaires applicables aux fournisseurs de plateformes en ligne
  • 1 Art. 23 Mesures de lutte et de protection contre les utilisations abusives

  • SECTION 4
    Dispositions supplémentaires applicables aux fournisseurs de plateformes en ligne permettant aux consommateurs de conclure des contrats à distance avec des professionnels

    SECTION 5
    Obligations supplémentaires de gestion des risques systémiques imposées aux fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne
  • 2 Art. 33 Très grandes plateformes en ligne et très grands moteurs de recherche en ligne
  • 1 Art. 35 Atténuation des risques

  • SECTION 6
    Autres dispositions concernant les obligations de diligence

    CHAPITRE IV
    MISE EN ŒUVRE, COOPÉRATION, SANCTIONS ET EXÉCUTION

    SECTION 1
    Autorités compétentes et coordinateurs nationaux pour les services numériques

    SECTION 2
    Compétences, enquête coordonnée et mécanismes de contrôle de la cohérence

    SECTION 3
    Comité européen des services numériques

    SECTION 4
    Surveillance, enquêtes, exécution et contrôle concernant les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne

    SECTION 5
    Dispositions communes relatives à l’exécution

    SECTION 6
    Actes délégués et actes d’exécution

    CHAPITRE V
    DISPOSITIONS FINALES
  • 1 Art. 89 Modifications de la directive 2000/31/CE


whereas respectivement:


definitions:


cloud tag: and the number of total unique words without stopwords is: 460

 

Article 23

Mesures de lutte et de protection contre les utilisations abusives

1.   Les fournisseurs de plateformes en ligne suspendent, pendant une période raisonnable et après avoir émis un avertissement préalable, la fourniture de leurs services aux destinataires du service qui fournissent fréquemment des contenus manifestement illicites.

2.   Les fournisseurs de plateformes en ligne suspendent, pendant une période raisonnable et après avoir émis un avertissement préalable, le traitement des notifications et des réclamations soumises par l’intermédiaire des mécanismes de notification et d’action et des systèmes internes de traitement des réclamations prévus aux articles 16 et 20, respectivement, par des particuliers, des entités ou des plaignants qui soumettent fréquemment des notifications ou des réclamations manifestement infondées.

3.   Lorsqu’ils décident d’une suspension, les fournisseurs de plateformes en ligne apprécient au cas par cas et en temps opportun, de manière diligente et objective, si le destinataire du service, le particulier, l’entité ou le plaignant se livre aux utilisations abusives visées aux paragraphes 1 et 2, en tenant compte de l’ensemble des faits et circonstances pertinents qui ressortent des informations dont ils disposent. Ces circonstances comprennent au moins les éléments suivants:

a)

le nombre, en valeur absolue, d’éléments de contenus manifestement illicites ou de notifications ou de réclamations manifestement infondées, soumis au cours d’une période donnée;

b)

la proportion relative de ces éléments par rapport au nombre total d’éléments d’information fournis ou de notifications soumises au cours d’une période donnée;

c)

la gravité des utilisations abusives, y compris la nature des contenus illicites, et de leurs conséquences;

d)

lorsqu’il est possible de la déterminer, l’intention du destinataire du service, du particulier, de l’entité ou du plaignant.

4.   Les fournisseurs de plateformes en ligne énoncent de manière claire et détaillée, dans leurs conditions générales, leur politique relative aux utilisations abusives visées aux paragraphes 1 et 2, et donnent des exemples des faits et circonstances dont ils tiennent compte pour apprécier si certains comportements constituent des utilisations abusives et déterminer la durée de la suspension.

Article 33

Très grandes plateformes en ligne et très grands moteurs de recherche en ligne

1.   La présente section s’applique aux plateformes en ligne et aux moteurs de recherche en ligne qui ont un nombre mensuel moyen de destinataires actifs du service dans l’Union égal ou supérieur à 45 millions, et qui sont désignés comme des très grandes plateformes en ligne ou des très grands moteurs de recherche en ligne en vertu du paragraphe 4.

2.   La Commission adopte des actes délégués conformément à l’article 87 pour ajuster le nombre mensuel moyen de destinataires actifs du service dans l’Union visé au paragraphe 1 lorsque la population de l’Union augmente ou diminue d’au moins 5 % par rapport à sa population de 2020 ou par rapport à sa population après un ajustement effectué au moyen d’un acte délégué dans l’année au cours de laquelle le dernier acte délégué en date a été adopté. Dans ce cas de figure, elle ajuste le nombre de manière à ce qu’il corresponde à 10 % de la population de l’Union dans l’année au cours de laquelle elle adopte l’acte délégué, arrondi à la hausse ou à la baisse de sorte que le nombre puisse être exprimé en millions.

3.   La Commission peut adopter des actes délégués, conformément à l’article 87, après avoir consulté le comité, pour compléter les dispositions du présent règlement en établissant la méthodologie pour calculer le nombre mensuel moyen de destinataires actifs du service dans l’Union aux fins du paragraphe 1 du présent article et de l’article 24, paragraphe 2, en veillant à ce que cette méthode tienne compte des évolutions du marché et de la technologie.

4.   La Commission, après avoir consulté l’État membre d’établissement ou pris en compte les informations fournies par le coordinateur pour les services numériques de l’État membre d’établissement conformément à l’article 24, paragraphe 4, adopte une décision désignant comme une très grande plateforme en ligne ou un très grand moteur de recherche en ligne aux fins du présent règlement la plateforme en ligne ou le moteur de recherche en ligne dont le nombre mensuel moyen de destinataires actifs du service est égal ou supérieur au nombre visé au paragraphe 1 du présent article. La Commission prend cette décision sur la base des données communiquées par le fournisseur de la plateforme en ligne ou du moteur de recherche en ligne en vertu de l’article 24, paragraphe 2, des informations demandées en vertu de l’article 24, paragraphe 3, ou de toute autre information à la disposition de la Commission.

Le fait pour le fournisseur de la plateforme en ligne ou du moteur de recherche en ligne de ne pas se conformer à l’article 24, paragraphe 2, ou de ne pas donner suite à la demande du coordinateur pour les services numériques de l’État membre d’établissement ou de la Commission exprimée en vertu de l’article 24, paragraphe 3, n’empêche pas la Commission de désigner ce fournisseur comme un fournisseur d’une très grande plateforme en ligne ou d’un très grand moteur de recherche en ligne conformément au présent paragraphe.

Lorsque la Commission fonde sa décision sur d’autres informations dont elle dispose en vertu du premier alinéa du présent paragraphe, ou sur des informations complémentaires demandées en vertu de l’article 24, paragraphe 3, elle donne au fournisseur de la plateforme en ligne ou du moteur de recherche en ligne concerné un délai de dix jours ouvrables pour faire part de son point de vue sur ses conclusions préliminaires et sur son intention de désigner la plateforme en ligne ou le moteur de recherche en ligne comme une très grande plateforme en ligne ou un très grand moteur de recherche en ligne, respectivement. La Commission tient dûment compte du point de vue présenté par le fournisseur concerné.

Le fait pour le fournisseur de la plateforme en ligne ou du moteur de recherche en ligne concerné de ne pas faire part de son point de vue en vertu du troisième alinéa n’empêche pas la Commission de désigner cette plateforme en ligne ou ce moteur de recherche en ligne comme une très grande plateforme en ligne ou un très grand moteur de recherche en ligne, respectivement, sur la base des informations dont elle dispose.

5.   La Commission met fin à cette désignation si, pendant une période ininterrompue d’un an, la plateforme en ligne ou le moteur de recherche en ligne n’a pas un nombre mensuel moyen de destinataires actifs supérieur ou égal au nombre visé au paragraphe 1.

6.   La Commission notifie, sans retard injustifié, les décisions qu’elle prend en vertu des paragraphes 4 et 5 au fournisseur de la plateforme en ligne ou du moteur de recherche en ligne concerné, au comité et au coordinateur pour les services numériques de l’État membre d’établissement.

La Commission veille à ce que la liste des très grandes plateformes en ligne et des très grands moteurs de recherche en ligne désignés soit publiée au Journal officiel de l’Union européenne et tient cette liste à jour. Les obligations établies dans la présente section s’appliquent ou cessent de s’appliquer aux très grandes plateformes en ligne et aux très grands moteurs de recherche en ligne concernés quatre mois après la notification adressée au fournisseur concerné visée au premier alinéa.

Article 35

Atténuation des risques

1.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne mettent en place des mesures d’atténuation raisonnables, proportionnées et efficaces, adaptées aux risques systémiques spécifiques recensés conformément à l’article 34, en tenant compte en particulier de l’incidence de ces mesures sur les droits fondamentaux. Ces mesures peuvent inclure, le cas échéant:

a)

l’adaptation de la conception, des caractéristiques ou du fonctionnement de leurs services, y compris leurs interfaces en ligne;

b)

l’adaptation de leurs conditions générales et de la mise en application de celles-ci;

c)

l’adaptation des processus de modération des contenus, y compris la rapidité et la qualité du traitement des notifications relatives à des types spécifiques de contenus illicites et, le cas échéant, le retrait rapide des contenus qui ont fait l’objet d’une notification ou le blocage de l’accès à ces contenus, en particulier en ce qui concerne les discours haineux illégaux ou la cyberviolence, ainsi que l’adaptation des processus décisionnels pertinents et des ressources dédiées à la modération des contenus;

d)

le test et l’adaptation de leurs systèmes algorithmiques, y compris leurs systèmes de recommandation;

e)

l’adaptation de leurs systèmes de publicité et l’adoption de mesures ciblées destinées à limiter la présentation de publicités, ou à en adapter la présentation, en association avec le service fourni;

f)

le renforcement des processus internes, des ressources, des tests, de la documentation ou de la surveillance d’une quelconque de leurs activités, notamment en ce qui concerne la détection des risques systémiques;

g)

la mise en place d’une coopération avec les signaleurs de confiance, ou l’ajustement de cette coopération, conformément à l’article 22, ainsi que la mise en œuvre des décisions prises par les organes de règlement extrajudiciaire des litiges en vertu de l’article 21;

h)

la mise en place d’une coopération avec d’autres fournisseurs de plateformes en ligne ou de moteurs de recherche en ligne, ou l’ajustement de cette coopération, sur la base des codes de conduite et des protocoles de crise visés aux articles 45 et 48, respectivement;

i)

l’adoption de mesures de sensibilisation et l’adaptation de leur interface en ligne, afin de donner plus d’informations aux destinataires du service;

j)

l’adoption de mesures ciblées visant à protéger les droits de l’enfant, y compris la vérification de l’âge et des outils de contrôle parental, ou des outils permettant d’aider les mineurs à signaler les abus ou à obtenir un soutien, s’il y a lieu;

k)

le recours à un marquage bien visible pour garantir qu’un élément d’information, qu’il s’agisse d’une image, d’un contenu audio ou vidéo généré ou manipulé, qui ressemble nettement à des personnes, à des objets, à des lieux ou à d’autres entités ou événements réels, et apparaît à tort aux yeux d’une personne comme authentique ou digne de foi, est reconnaissable lorsqu’il est présenté sur leurs interfaces en ligne, et, en complément, la mise à disposition d’une fonctionnalité facile d’utilisation permettant aux destinataires du service de signaler ce type d’information.

2.   Le comité, en coopération avec la Commission, publie des rapports exhaustifs une fois par an. Ces rapports comprennent les éléments suivants:

a)

le recensement et l’évaluation des risques systémiques les plus importants et récurrents signalés par les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne ou recensés via d’autres sources d’informations, notamment celles fournies conformément aux articles 39, 40 et 42;

b)

la définition de bonnes pratiques pour les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne en vue de l’atténuation des risques systémiques recensés.

Ces rapports présentent les risques systémiques ventilés par État membre dans lequel ils sont survenus et pour l’ensemble de l’Union, s’il y a lieu.

3.   La Commission, en coopération avec les coordinateurs pour les services numériques, peut publier des lignes directrices sur l’application du paragraphe 1 par rapport à des risques spécifiques, notamment en vue de présenter les bonnes pratiques et de recommander des mesures possibles, en tenant dûment compte des conséquences possibles des mesures sur les droits fondamentaux de toutes les parties concernées consacrés dans la Charte. Dans le cadre de l’élaboration de ces lignes directrices, la Commission organise des consultations publiques.

Article 89

Modifications de la directive 2000/31/CE

1.   Les articles 12 à 15 de la directive 2000/31/CE sont supprimés.

2.   Les références aux articles 12 à 15 de la directive 2000/31/CE s’entendent comme étant faites respectivement aux articles 4, 5, 6 et 8 du présent règlement.


whereas









keyboard_arrow_down