search


keyboard_tab Digital Service Act 2022/2065 FR

BG CS DA DE EL EN ES ET FI FR GA HR HU IT LV LT MT NL PL PT RO SK SL SV print pdf

2022/2065 FR cercato: 'mineur' . Output generated live by software developed by IusOnDemand srl


expand index mineur:

    CHAPITRE I
    DISPOSITIONS GÉNÉRALES

    CHAPITRE II
    RESPONSABILITE DES FOURNISSEURS DE SERVICES INTERMÉDIAIRES
  • 2 Art. 3 Définitions

  • CHAPITRE III
    OBLIGATIONS DE DILIGENCE POUR UN ENVIRONNEMENT EN LIGNE SÛR ET TRANSPARENT

    SECTION 1
    Dispositions applicables à tous les fournisseurs de services intermédiaires
  • 3 Art. 14 Conditions générales

  • SECTION 2
    Dispositions supplémentaires applicables aux fournisseurs de services d’hébergement, y compris les plateformes en ligne

    SECTION 3
    Dispositions supplémentaires applicables aux fournisseurs de plateformes en ligne

    SECTION 4
    Dispositions supplémentaires applicables aux fournisseurs de plateformes en ligne permettant aux consommateurs de conclure des contrats à distance avec des professionnels
  • 5 Art. 28 Protection des mineurs en ligne

  • SECTION 5
    Obligations supplémentaires de gestion des risques systémiques imposées aux fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne
  • 1 Art. 34 Évaluation des risques
  • 1 Art. 35 Atténuation des risques

  • SECTION 6
    Autres dispositions concernant les obligations de diligence
  • 1 Art. 44 Normes

  • CHAPITRE IV
    MISE EN ŒUVRE, COOPÉRATION, SANCTIONS ET EXÉCUTION

    SECTION 1
    Autorités compétentes et coordinateurs nationaux pour les services numériques

    SECTION 2
    Compétences, enquête coordonnée et mécanismes de contrôle de la cohérence

    SECTION 3
    Comité européen des services numériques

    SECTION 4
    Surveillance, enquêtes, exécution et contrôle concernant les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne

    SECTION 5
    Dispositions communes relatives à l’exécution

    SECTION 6
    Actes délégués et actes d’exécution

    CHAPITRE V
    DISPOSITIONS FINALES


whereas mineur:


definitions:


cloud tag: and the number of total unique words without stopwords is: 770

 

Article 3

Définitions

Aux fins du présent règlement, on entend par:

a)

“service de la société de l’information”: un service tel qu’il est défini à l’article 1er, paragraphe 1, point b), de la directive (UE) 2015/1535;

b)

“destinataire du service”: toute personne physique ou morale utilisant un service intermédiaire, notamment pour rechercher une information ou la rendre accessible;

c)

“consommateur”: toute personne physique agissant à des fins qui n’entrent pas dans le cadre de son activité commerciale, industrielle, artisanale ou libérale;

d)

“proposer des services dans l’Union”: permettre aux personnes physiques ou morales dans un ou plusieurs États membres d’utiliser les services d’un fournisseur de services intermédiaires qui a un lien étroit avec l’Union;

e)

“lien étroit avec l’Union”: un lien qu’un fournisseur de services intermédiaires a avec l’Union résultant soit de son établissement dans l’Union, soit de critères factuels spécifiques, tels que:

un nombre significatif de destinataires du service dans un ou plusieurs États membres par rapport à sa ou à leur population; ou

le ciblage des activités sur un ou plusieurs États membres;

f)

“professionnel”: toute personne physique, ou toute personne morale qu’elle soit privée ou publique, qui agit, y compris par l’intermédiaire d’une personne agissant en son nom ou pour son compte, à des fins entrant dans le cadre de son activité commerciale, industrielle, artisanale ou libérale;

g)

“service intermédiaire”: un des services de la société de l’information suivants:

i)

un service de “simple transport”, consistant à transmettre, sur un réseau de communication, des informations fournies par un destinataire du service ou à fournir l’accès à un réseau de communication;

ii)

un service de “mise en cache”, consistant à transmettre, sur un réseau de communication, des informations fournies par un destinataire du service, impliquant le stockage automatique, intermédiaire et temporaire de ces informations, effectué dans le seul but de rendre plus efficace la transmission ultérieure de ces informations à d’autres destinataires à leur demande;

iii)

un service d’”hébergement”, consistant à stocker des informations fournies par un destinataire du service à sa demande;

h)

“contenu illicite”: toute information qui, en soi ou par rapport à une activité, y compris la vente de produits ou la fourniture de services, n’est pas conforme au droit de l’Union ou au droit d’un État membre qui est conforme au droit de l’Union, quel que soit l’objet précis ou la nature précise de ce droit;

i)

“plateforme en ligne”: un service d’hébergement qui, à la demande d’un destinataire du service, stocke et diffuse au public des informations, à moins que cette activité ne soit une caractéristique mineure et purement accessoire d’un autre service ou une fonctionnalité mineure du service principal qui, pour des raisons objectives et techniques, ne peut être utilisée sans cet autre service, et pour autant que l’intégration de cette caractéristique ou de cette fonctionnalité à l’autre service ne soit pas un moyen de contourner l’applicabilité du présent règlement;

j)

“moteur de recherche en ligne”: un service intermédiaire qui permet aux utilisateurs de formuler des requêtes afin d’effectuer des recherches sur, en principe, tous les sites internet ou tous les sites internet dans une langue donnée, sur la base d’une requête lancée sur n’importe quel sujet sous la forme d’un mot-clé, d’une demande vocale, d’une expression ou d’une autre entrée, et qui renvoie des résultats dans quelque format que ce soit dans lesquels il est possible de trouver des informations en rapport avec le contenu demandé;

k)

“diffusion au public”: le fait de mettre des informations à la disposition d’un nombre potentiellement illimité de tiers, à la demande du destinataire du service ayant fourni ces informations;

l)

“contrat à distance”: le “contrat à distance” tel qu’il est défini à l’article 2, point 7), de la directive 2011/83/UE;

m)

“interface en ligne”: tout logiciel, y compris un site internet ou une section de site internet, et des applications, notamment des applications mobiles;

n)

“coordinateur pour les services numériques de l’État membre d’établissement”: le coordinateur pour les services numériques de l’État membre dans lequel l’établissement principal d’un fournisseur d’un service intermédiaire est situé, ou dans lequel son représentant légal réside ou est établi;

o)

“coordinateur pour les services numériques de l’État membre de destination”: le coordinateur pour les services numériques d’un État membre dans lequel le service intermédiaire est fourni;

p)

“destinataire actif d’une plateforme en ligne”: un destinataire du service qui a été en contact avec une plateforme en ligne, soit en demandant à la plateforme en ligne d’héberger des informations, soit en étant exposé aux informations hébergées par la plateforme en ligne et diffusées via son interface en ligne;

q)

“destinataire actif d’un moteur de recherche en ligne”: un destinataire du service qui a soumis une requête à un moteur de recherche en ligne et a été exposé aux informations indexées et présentées sur son interface en ligne;

r)

“publicité”: les informations destinées à promouvoir le message d’une personne physique ou morale, qu’elles aient des visées commerciales ou non commerciales, et présentées par une plateforme en ligne sur son interface en ligne, moyennant rémunération, dans le but spécifique de promouvoir ces informations;

s)

“système de recommandation”: un système entièrement ou partiellement automatisé utilisé par une plateforme en ligne pour suggérer sur son interface en ligne des informations spécifiques aux destinataires du service ou pour hiérarchiser ces informations, notamment à la suite d’une recherche lancée par le destinataire du service ou en déterminant de toute autre manière l’ordre relatif ou d’importance des informations affichées;

t)

“modération des contenus”: les activités, qu’elles soient automatisées ou non, entreprises par des fournisseurs de services intermédiaires qui sont destinées, en particulier, à détecter et à identifier les contenus illicites ou les informations incompatibles avec leurs conditions générales, fournis par les destinataires du service, et à lutter contre ces contenus ou ces informations, y compris les mesures prises qui ont une incidence sur la disponibilité, la visibilité et l’accessibilité de ces contenus ou ces informations, telles que leur rétrogradation, leur démonétisation, le fait de rendre l’accès à ceux-ci impossible ou leur retrait, ou qui ont une incidence sur la capacité des destinataires du service à fournir ces informations, telles que la suppression ou la suspension du compte d’un destinataire;

u)

“conditions générales”: toutes les clauses, quelle que soit leur dénomination ou leur forme, qui régissent la relation contractuelle entre le fournisseur de services intermédiaires et les destinataires du service;

v)

“personnes handicapées”: les “personnes handicapées” visées à l’article 3, point 1), de la directive (UE) 2019/882 du Parlement européen et du Conseil (38);

w)

“communication commerciale”: la “communication commerciale” telle qu’elle est définie à l’article 2, point f), de la directive 2000/31/CE;

x)

“chiffre d’affaires”: le montant atteint par une entreprise au sens de l’article 5, paragraphe 1, du règlement (CE) n° 139/2004 du Conseil (39).

CHAPITRE II

RESPONSABILITE DES FOURNISSEURS DE SERVICES INTERMÉDIAIRES

Article 14

Conditions générales

1.   Les fournisseurs de services intermédiaires incluent dans leurs conditions générales des renseignements relatifs aux éventuelles restrictions qu’ils imposent en ce qui concerne l’utilisation de leur service vis-à-vis des informations fournies par les destinataires du service. Ces renseignements comprennent des informations sur les politiques, procédures, mesures et outils utilisés à des fins de modération des contenus, y compris la prise de décision fondée sur des algorithmes et le réexamen par un être humain, ainsi que sur le règlement intérieur de leur système interne de traitement des réclamations. Ils sont énoncés dans un langage clair, simple, intelligible, aisément abordable et dépourvu d’ambiguïté, et sont mis à la disposition du public dans un format facilement accessible et lisible par une machine.

2.   Les fournisseurs de services intermédiaires informent les destinataires du service de toute modification importante des conditions générales.

3.   Lorsqu’un service intermédiaire s’adresse principalement à des mineurs ou est utilisé de manière prédominante par des mineurs, le fournisseur de ce service intermédiaire explique les conditions et les éventuelles restrictions relatives à l’utilisation du service d’une manière compréhensible pour les mineurs.

4.   Lorsqu’ils appliquent et font respecter les restrictions visées au paragraphe 1, les fournisseurs de services intermédiaires agissent de manière diligente, objective et proportionnée en tenant dûment compte des droits et des intérêts légitimes de toutes les parties impliquées, et notamment des droits fondamentaux des destinataires du service, tels que la liberté d’expression, la liberté et le pluralisme des médias et d’autres libertés et droits fondamentaux tels qu’ils sont consacrés dans la Charte.

5.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne fournissent aux destinataires des services un résumé des conditions générales, y compris des mécanismes de recours et de réparation disponibles, concis, facilement accessible et lisible par une machine, dans un langage clair et dépourvu d’ambiguïté.

6.   Les très grandes plateformes en ligne et les très grands moteurs de recherche en ligne au sens de l’article 33 publient leurs conditions générales dans les langues officielles de tous les États membres dans lesquels ils proposent leurs services.

Article 28

Protection des mineurs en ligne

1.   Les fournisseurs de plateformes en ligne accessibles aux mineurs mettent en place des mesures appropriées et proportionnées pour garantir un niveau élevé de protection de la vie privée, de sûreté et de sécurité des mineurs sur leur service.

2.   Les fournisseurs de plateformes en ligne ne présentent pas sur leur interface de publicité qui repose sur du profilage, tel qu’il est défini à l’article 4, point 4), du règlement (UE) 2016/679 en utilisant des données à caractère personnel concernant le destinataire du service dès lors qu’ils ont connaissance avec une certitude raisonnable que le destinataire du service est un mineur.

3.   Le respect des obligations énoncées dans le présent article n’impose pas aux fournisseurs de plateformes en ligne de traiter des données à caractère personnel supplémentaires afin de déterminer si le destinataire du service est un mineur.

4.   La Commission, après avoir consulté le comité, peut publier des lignes directrices pour aider les fournisseurs de plateformes en ligne à appliquer le paragraphe 1.

SECTION 4

Dispositions supplémentaires applicables aux fournisseurs de plateformes en ligne permettant aux consommateurs de conclure des contrats à distance avec des professionnels

Article 34

Évaluation des risques

1.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne recensent, analysent et évaluent de manière diligente tout risque systémique au sein de l’Union découlant de la conception ou du fonctionnement de leurs services et de leurs systèmes connexes, y compris des systèmes algorithmiques, ou de l’utilisation faite de leurs services.

Ils procèdent aux évaluations des risques au plus tard à la date d’application visée à l’article 33, paragraphe 6, deuxième alinéa, puis au moins une fois par an, et en tout état de cause avant de déployer des fonctionnalités susceptibles d’avoir une incidence critique sur les risques recensés en vertu du présent article. Cette évaluation des risques est spécifique à leurs services et proportionnée aux risques systémiques, de la gravité et de la probabilité desquels elle tient compte, et comprend les risques systémiques suivants:

a)

la diffusion de contenus illicites par l’intermédiaire de leurs services;

b)

tout effet négatif réel ou prévisible pour l’exercice des droits fondamentaux, en particulier le droit fondamental à la dignité humaine consacré à l’article 1er de la Charte, au respect de la vie privée et familiale consacré à l’article 7 de la Charte, à la protection des données à caractère personnel consacré à l’article 8 de la Charte, à la liberté d’expression et d’information, y compris la liberté et le pluralisme des médias, consacré à l’article 11 de la Charte, et à la non-discrimination consacré à l’article 21 de la Charte, les droits fondamentaux relatifs aux droits de l’enfant consacrés à l’article 24 de la Charte et le droit fondamental à un niveau élevé de protection des consommateurs consacré à l’article 38 de la Charte;

c)

tout effet négatif réel ou prévisible sur le discours civique, les processus électoraux et la sécurité publique;

d)

tout effet négatif réel ou prévisible lié aux violences sexistes et à la protection de la santé publique et des mineurs et les conséquences négatives graves sur le bien-être physique et mental des personnes.

2.   Lorsqu’ils procèdent à des évaluations des risques, les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne examinent notamment si et comment les facteurs suivants influencent les risques systémiques visés au paragraphe 1 et en tiennent compte:

a)

la conception de leurs systèmes de recommandation et de tout autre système algorithmique pertinent;

b)

leurs systèmes de modération des contenus;

c)

les conditions générales applicables et leur mise en application;

d)

les systèmes de sélection et de présentation de la publicité;

e)

les pratiques du fournisseur en matière de données.

Les évaluations examinent également si et comment les risques visés au paragraphe 1 sont influencés par la manipulation intentionnelle du service desdits fournisseurs, y compris par l’utilisation non authentique ou l’exploitation automatisée du service, ainsi que par l’amplification et la diffusion potentiellement rapide et à grande échelle de contenus illicites et d’informations incompatibles avec leurs conditions générales.

L’évaluation tient compte des aspects régionaux ou linguistiques spécifiques, y compris lorsqu’ils sont propres à un État membre.

3.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne conservent les documents justificatifs des évaluations des risques pendant au moins trois ans après la réalisation de ces évaluations, et les communiquent à la Commission et au coordinateur pour les services numériques de l’État membre d’établissement, à leur demande.

Article 35

Atténuation des risques

1.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne mettent en place des mesures d’atténuation raisonnables, proportionnées et efficaces, adaptées aux risques systémiques spécifiques recensés conformément à l’article 34, en tenant compte en particulier de l’incidence de ces mesures sur les droits fondamentaux. Ces mesures peuvent inclure, le cas échéant:

a)

l’adaptation de la conception, des caractéristiques ou du fonctionnement de leurs services, y compris leurs interfaces en ligne;

b)

l’adaptation de leurs conditions générales et de la mise en application de celles-ci;

c)

l’adaptation des processus de modération des contenus, y compris la rapidité et la qualité du traitement des notifications relatives à des types spécifiques de contenus illicites et, le cas échéant, le retrait rapide des contenus qui ont fait l’objet d’une notification ou le blocage de l’accès à ces contenus, en particulier en ce qui concerne les discours haineux illégaux ou la cyberviolence, ainsi que l’adaptation des processus décisionnels pertinents et des ressources dédiées à la modération des contenus;

d)

le test et l’adaptation de leurs systèmes algorithmiques, y compris leurs systèmes de recommandation;

e)

l’adaptation de leurs systèmes de publicité et l’adoption de mesures ciblées destinées à limiter la présentation de publicités, ou à en adapter la présentation, en association avec le service fourni;

f)

le renforcement des processus internes, des ressources, des tests, de la documentation ou de la surveillance d’une quelconque de leurs activités, notamment en ce qui concerne la détection des risques systémiques;

g)

la mise en place d’une coopération avec les signaleurs de confiance, ou l’ajustement de cette coopération, conformément à l’article 22, ainsi que la mise en œuvre des décisions prises par les organes de règlement extrajudiciaire des litiges en vertu de l’article 21;

h)

la mise en place d’une coopération avec d’autres fournisseurs de plateformes en ligne ou de moteurs de recherche en ligne, ou l’ajustement de cette coopération, sur la base des codes de conduite et des protocoles de crise visés aux articles 45 et 48, respectivement;

i)

l’adoption de mesures de sensibilisation et l’adaptation de leur interface en ligne, afin de donner plus d’informations aux destinataires du service;

j)

l’adoption de mesures ciblées visant à protéger les droits de l’enfant, y compris la vérification de l’âge et des outils de contrôle parental, ou des outils permettant d’aider les mineurs à signaler les abus ou à obtenir un soutien, s’il y a lieu;

k)

le recours à un marquage bien visible pour garantir qu’un élément d’information, qu’il s’agisse d’une image, d’un contenu audio ou vidéo généré ou manipulé, qui ressemble nettement à des personnes, à des objets, à des lieux ou à d’autres entités ou événements réels, et apparaît à tort aux yeux d’une personne comme authentique ou digne de foi, est reconnaissable lorsqu’il est présenté sur leurs interfaces en ligne, et, en complément, la mise à disposition d’une fonctionnalité facile d’utilisation permettant aux destinataires du service de signaler ce type d’information.

2.   Le comité, en coopération avec la Commission, publie des rapports exhaustifs une fois par an. Ces rapports comprennent les éléments suivants:

a)

le recensement et l’évaluation des risques systémiques les plus importants et récurrents signalés par les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne ou recensés via d’autres sources d’informations, notamment celles fournies conformément aux articles 39, 40 et 42;

b)

la définition de bonnes pratiques pour les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne en vue de l’atténuation des risques systémiques recensés.

Ces rapports présentent les risques systémiques ventilés par État membre dans lequel ils sont survenus et pour l’ensemble de l’Union, s’il y a lieu.

3.   La Commission, en coopération avec les coordinateurs pour les services numériques, peut publier des lignes directrices sur l’application du paragraphe 1 par rapport à des risques spécifiques, notamment en vue de présenter les bonnes pratiques et de recommander des mesures possibles, en tenant dûment compte des conséquences possibles des mesures sur les droits fondamentaux de toutes les parties concernées consacrés dans la Charte. Dans le cadre de l’élaboration de ces lignes directrices, la Commission organise des consultations publiques.

Article 44

Normes

1.   La Commission consulte le comité et soutient et encourage le développement ainsi que la mise en œuvre de normes volontaires établies par les organismes de normalisation européens et internationaux pertinents, au minimum pour les aspects suivants:

a)

la soumission électronique des notifications au titre de l’article 16;

b)

les modèles et les normes de conception et de procédure à employer pour communiquer avec les destinataires du service de manière conviviale sur les restrictions résultant des conditions générales et les modifications qui leur sont apportées;

c)

la soumission électronique des notifications par les signaleurs de confiance au titre de l’article 22, y compris par l’intermédiaire d’interfaces de programme d’application;

d)

les interfaces spécifiques, y compris les interfaces de programme d’application, visant à faciliter le respect des obligations établies aux articles 39 et 40;

e)

l’audit des très grandes plateformes en ligne et des très grands moteurs de recherche en ligne au titre de l’article 37;

f)

l’interopérabilité des registres de publicités visés à l’article 39, paragraphe 2;

g)

la transmission de données entre les intermédiaires de publicité aux fins des obligations de transparence en vertu de l’article 26, paragraphe 1, points b), c) et d);

h)

les mesures techniques permettant de satisfaire aux obligations relatives à la publicité contenues dans le présent règlement, y compris les obligations relatives aux marquages bien visibles à employer pour les publicités et les communications commerciales visées à l’article 26;

i)

les interfaces de choix et la présentation des informations sur les principaux paramètres des différents types de systèmes de recommandation, conformément aux articles 27 et 38;

j)

les normes applicables aux mesures ciblées destinées à protéger les mineurs en ligne.

2.   La Commission soutient la mise à jour des normes à la lumière des évolutions technologiques et du comportement des destinataires des services en question. Les informations pertinentes concernant la mise à jour des normes sont mises à la disposition du public et facilement accessibles.


whereas









keyboard_arrow_down