search


keyboard_tab Digital Service Act 2022/2065 FR

BG CS DA DE EL EN ES ET FI FR GA HR HU IT LV LT MT NL PL PT RO SK SL SV print pdf

2022/2065 FR cercato: 'aider' . Output generated live by software developed by IusOnDemand srl


expand index aider:

    CHAPITRE I
    DISPOSITIONS GÉNÉRALES

    CHAPITRE II
    RESPONSABILITE DES FOURNISSEURS DE SERVICES INTERMÉDIAIRES

    CHAPITRE III
    OBLIGATIONS DE DILIGENCE POUR UN ENVIRONNEMENT EN LIGNE SÛR ET TRANSPARENT

    SECTION 1
    Dispositions applicables à tous les fournisseurs de services intermédiaires

    SECTION 2
    Dispositions supplémentaires applicables aux fournisseurs de services d’hébergement, y compris les plateformes en ligne

    SECTION 3
    Dispositions supplémentaires applicables aux fournisseurs de plateformes en ligne
  • 1 Art. 22 Signaleurs de confiance

  • SECTION 4
    Dispositions supplémentaires applicables aux fournisseurs de plateformes en ligne permettant aux consommateurs de conclure des contrats à distance avec des professionnels
  • 1 Art. 28 Protection des mineurs en ligne

  • SECTION 5
    Obligations supplémentaires de gestion des risques systémiques imposées aux fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne
  • 1 Art. 35 Atténuation des risques

  • SECTION 6
    Autres dispositions concernant les obligations de diligence

    CHAPITRE IV
    MISE EN ŒUVRE, COOPÉRATION, SANCTIONS ET EXÉCUTION

    SECTION 1
    Autorités compétentes et coordinateurs nationaux pour les services numériques

    SECTION 2
    Compétences, enquête coordonnée et mécanismes de contrôle de la cohérence

    SECTION 3
    Comité européen des services numériques

    SECTION 4
    Surveillance, enquêtes, exécution et contrôle concernant les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne
  • 1 Art. 72 Mesures de contrôle

  • SECTION 5
    Dispositions communes relatives à l’exécution

    SECTION 6
    Actes délégués et actes d’exécution

    CHAPITRE V
    DISPOSITIONS FINALES


whereas aider:


definitions:


cloud tag: and the number of total unique words without stopwords is: 480

 

Article 22

Signaleurs de confiance

1.   Les fournisseurs de plateformes en ligne prennent les mesures techniques et organisationnelles nécessaires pour veiller à ce que les notifications soumises par des signaleurs de confiance, agissant dans leur domaine d’expertise désigné, par l’intermédiaire des mécanismes visés à l’article 16, soient prioritaires et soient traitées et donnent lieu à des décisions dans les meilleurs délais.

2.   Le statut de signaleur de confiance au titre du présent règlement est attribué, sur demande présentée par une entité, quelle qu’elle soit, par le coordinateur pour les services numériques de l’État membre dans lequel l’entité présentant la demande est établie, à l’entité présentant la demande qui a démontré qu’elle remplit l’ensemble des conditions suivantes:

a)

elle dispose d’une expertise et de compétences particulières aux fins de détecter, d’identifier et de notifier des contenus illicites;

b)

elle est indépendante de tout fournisseur de plateformes en ligne;

c)

elle exerce ses activités aux fins de la soumission des notifications de manière diligente, précise et objective.

3.   Les signaleurs de confiance publient, au minimum une fois par an, des rapports détaillés et facilement compréhensibles sur les notifications soumises conformément à l’article 16 pendant la période concernée. Le rapport indique au moins le nombre de notifications, classées selon les critères suivants:

a)

l’identité du fournisseur de services d’hébergement;

b)

le type de contenu présumé illicite notifié;

c)

l’action entreprise par le fournisseur.

Ces rapports comprennent une explication des procédures mises en place pour garantir que le signaleur de confiance conserve son indépendance.

Les signaleurs de confiance envoient ces rapports au coordinateur pour les services numériques qui a attribué le statut de signaleur de confiance et les mettent à la disposition du public. Les informations figurant dans ces rapports ne contiennent pas de données à caractère personnel.

4.   Les coordinateurs pour les services numériques communiquent à la Commission et au comité les noms, adresses postales et adresses de courrier électronique des entités auxquelles ils ont attribué le statut de signaleur de confiance conformément au paragraphe 2 ou dont ils ont suspendu le statut de signaleur de confiance conformément au paragraphe 6 ou révoqué ledit statut conformément au paragraphe 7.

5.   La Commission publie les informations visées au paragraphe 4 dans une base de données mise à la disposition du public, dans un format facilement accessible et lisible par une machine, et tient à jour cette base de données.

6.   Lorsqu’un fournisseur de plateformes en ligne dispose d’informations indiquant qu’un signaleur de confiance a soumis, par l’intermédiaire des mécanismes visés à l’article 16, un nombre significatif de notifications manquant de précision, inexactes ou insuffisamment étayées, notamment des informations recueillies en lien avec le traitement de réclamations par des systèmes internes de traitement des réclamations visés à l’article 20, paragraphe 4, il communique ces informations au coordinateur pour les services numériques qui a attribué le statut de signaleur de confiance à l’entité concernée, en fournissant les explications et les documents justificatifs nécessaires. Dès réception des informations fournies par le fournisseur de plateformes en ligne et si le coordinateur pour les services numériques estime qu’il existe des raisons légitimes d’ouvrir une enquête, le statut de signaleur de confiance est suspendu pendant la durée de l’enquête. Cette enquête est menée dans les meilleurs délais.

7.   Le coordinateur pour les services numériques qui a attribué le statut de signaleur de confiance à une entité révoque ce statut s’il constate, à la suite d’une enquête menée soit de sa propre initiative, soit sur la base d’informations reçues de tiers, y compris les informations fournies par un fournisseur de plateformes en ligne en vertu du paragraphe 6, que l’entité ne remplit plus les conditions énoncées au paragraphe 2. Avant de révoquer ce statut, le coordinateur pour les services numériques donne à l’entité la possibilité de réagir aux conclusions de son enquête et à son intention de révoquer le statut de signaleur de confiance de l’entité.

8.   La Commission, après avoir consulté le comité, publie, si nécessaire, des lignes directrices pour aider les fournisseurs de plateformes en ligne et les coordinateurs pour les services numériques à appliquer les paragraphes 2, 6 et 7.

Article 28

Protection des mineurs en ligne

1.   Les fournisseurs de plateformes en ligne accessibles aux mineurs mettent en place des mesures appropriées et proportionnées pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service.

2.   Les fournisseurs de plateformes en ligne ne présentent pas sur leur interface de publicité qui repose sur du profilage, tel qu’il est défini à l’article 4, point 4), du règlement (UE) 2016/679 en utilisant des données à caractère personnel concernant le destinataire du service dès lors qu’ils ont connaissance avec une certitude raisonnable que le destinataire du service est un mineur.

3.   Le respect des obligations énoncées dans le présent article n’impose pas aux fournisseurs de plateformes en ligne de traiter des données à caractère personnel supplémentaires afin de déterminer si le destinataire du service est un mineur.

4.   La Commission, après avoir consulté le comité, peut publier des lignes directrices pour aider les fournisseurs de plateformes en ligne à appliquer le paragraphe 1.

SECTION 4

Dispositions supplémentaires applicables aux fournisseurs de plateformes en ligne permettant aux consommateurs de conclure des contrats à distance avec des professionnels

Article 35

Atténuation des risques

1.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne mettent en place des mesures d’atténuation raisonnables, proportionnées et efficaces, adaptées aux risques systémiques spécifiques recensés conformément à l’article 34, en tenant compte en particulier de l’incidence de ces mesures sur les droits fondamentaux. Ces mesures peuvent inclure, le cas échéant:

a)

l’adaptation de la conception, des caractéristiques ou du fonctionnement de leurs services, y compris leurs interfaces en ligne;

b)

l’adaptation de leurs conditions générales et de la mise en application de celles-ci;

c)

l’adaptation des processus de modération des contenus, y compris la rapidité et la qualité du traitement des notifications relatives à des types spécifiques de contenus illicites et, le cas échéant, le retrait rapide des contenus qui ont fait l’objet d’une notification ou le blocage de l’accès à ces contenus, en particulier en ce qui concerne les discours haineux illégaux ou la cyberviolence, ainsi que l’adaptation des processus décisionnels pertinents et des ressources dédiées à la modération des contenus;

d)

le test et l’adaptation de leurs systèmes algorithmiques, y compris leurs systèmes de recommandation;

e)

l’adaptation de leurs systèmes de publicité et l’adoption de mesures ciblées destinées à limiter la présentation de publicités, ou à en adapter la présentation, en association avec le service fourni;

f)

le renforcement des processus internes, des ressources, des tests, de la documentation ou de la surveillance d’une quelconque de leurs activités, notamment en ce qui concerne la détection des risques systémiques;

g)

la mise en place d’une coopération avec les signaleurs de confiance, ou l’ajustement de cette coopération, conformément à l’article 22, ainsi que la mise en œuvre des décisions prises par les organes de règlement extrajudiciaire des litiges en vertu de l’article 21;

h)

la mise en place d’une coopération avec d’autres fournisseurs de plateformes en ligne ou de moteurs de recherche en ligne, ou l’ajustement de cette coopération, sur la base des codes de conduite et des protocoles de crise visés aux articles 45 et 48, respectivement;

i)

l’adoption de mesures de sensibilisation et l’adaptation de leur interface en ligne, afin de donner plus d’informations aux destinataires du service;

j)

l’adoption de mesures ciblées visant à protéger les droits de l’enfant, y compris la vérification de l’âge et des outils de contrôle parental, ou des outils permettant d’aider les mineurs à signaler les abus ou à obtenir un soutien, s’il y a lieu;

k)

le recours à un marquage bien visible pour garantir qu’un élément d’information, qu’il s’agisse d’une image, d’un contenu audio ou vidéo généré ou manipulé, qui ressemble nettement à des personnes, à des objets, à des lieux ou à d’autres entités ou événements réels, et apparaît à tort aux yeux d’une personne comme authentique ou digne de foi, est reconnaissable lorsqu’il est présenté sur leurs interfaces en ligne, et, en complément, la mise à disposition d’une fonctionnalité facile d’utilisation permettant aux destinataires du service de signaler ce type d’information.

2.   Le comité, en coopération avec la Commission, publie des rapports exhaustifs une fois par an. Ces rapports comprennent les éléments suivants:

a)

le recensement et l’évaluation des risques systémiques les plus importants et récurrents signalés par les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne ou recensés via d’autres sources d’informations, notamment celles fournies conformément aux articles 39, 40 et 42;

b)

la définition de bonnes pratiques pour les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne en vue de l’atténuation des risques systémiques recensés.

Ces rapports présentent les risques systémiques ventilés par État membre dans lequel ils sont survenus et pour l’ensemble de l’Union, s’il y a lieu.

3.   La Commission, en coopération avec les coordinateurs pour les services numériques, peut publier des lignes directrices sur l’application du paragraphe 1 par rapport à des risques spécifiques, notamment en vue de présenter les bonnes pratiques et de recommander des mesures possibles, en tenant dûment compte des conséquences possibles des mesures sur les droits fondamentaux de toutes les parties concernées consacrés dans la Charte. Dans le cadre de l’élaboration de ces lignes directrices, la Commission organise des consultations publiques.

Article 72

Mesures de contrôle

1.   Pour l’accomplissement des tâches qui lui sont assignées par la présente section, la Commission peut prendre les mesures nécessaires pour contrôler la mise en œuvre et le respect effectifs du présent règlement par les fournisseurs des très grandes plateformes en ligne ou des très grands moteurs de recherche en ligne concernés. La Commission peut leur ordonner de donner accès à leurs bases de données et algorithmes, ainsi que de fournir des explications à cet égard. Ces mesures peuvent notamment imposer au fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne l’obligation de conserver tous les documents jugés nécessaires pour évaluer la mise en œuvre et le respect des obligations prévues par le présent règlement.

2.   Les mesures visées au paragraphe 1 peuvent comprendre la nomination d’experts et d’auditeurs externes indépendants, ainsi que d’experts et d’auditeurs des autorités nationales compétentes avec l’accord de l’autorité concernée, pour aider la Commission à contrôler la mise en œuvre et le respect effectifs des dispositions pertinentes du présent règlement et lui apporter une expertise et des connaissances spécifiques.


whereas









keyboard_arrow_down