search


keyboard_tab Digital Service Act 2022/2065 FR

BG CS DA DE EL EN ES ET FI FR GA HR HU IT LV LT MT NL PL PT RO SK SL SV print pdf

2022/2065 FR cercato: 'générales' . Output generated live by software developed by IusOnDemand srl


expand index générales:


whereas générales:


definitions:


cloud tag: and the number of total unique words without stopwords is: 1250

 

Article 3

Définitions

Aux fins du présent règlement, on entend par:

a)

“service de la société de l’information”: un service tel qu’il est défini à l’article 1er, paragraphe 1, point b), de la directive (UE) 2015/1535;

b)

“destinataire du service”: toute personne physique ou morale utilisant un service intermédiaire, notamment pour rechercher une information ou la rendre accessible;

c)

“consommateur”: toute personne physique agissant à des fins qui n’entrent pas dans le cadre de son activité commerciale, industrielle, artisanale ou libérale;

d)

“proposer des services dans l’Union”: permettre aux personnes physiques ou morales dans un ou plusieurs États membres d’utiliser les services d’un fournisseur de services intermédiaires qui a un lien étroit avec l’Union;

e)

“lien étroit avec l’Union”: un lien qu’un fournisseur de services intermédiaires a avec l’Union résultant soit de son établissement dans l’Union, soit de critères factuels spécifiques, tels que:

un nombre significatif de destinataires du service dans un ou plusieurs États membres par rapport à sa ou à leur population; ou

le ciblage des activités sur un ou plusieurs États membres;

f)

“professionnel”: toute personne physique, ou toute personne morale qu’elle soit privée ou publique, qui agit, y compris par l’intermédiaire d’une personne agissant en son nom ou pour son compte, à des fins entrant dans le cadre de son activité commerciale, industrielle, artisanale ou libérale;

g)

“service intermédiaire”: un des services de la société de l’information suivants:

i)

un service de “simple transport”, consistant à transmettre, sur un réseau de communication, des informations fournies par un destinataire du service ou à fournir l’accès à un réseau de communication;

ii)

un service de “mise en cache”, consistant à transmettre, sur un réseau de communication, des informations fournies par un destinataire du service, impliquant le stockage automatique, intermédiaire et temporaire de ces informations, effectué dans le seul but de rendre plus efficace la transmission ultérieure de ces informations à d’autres destinataires à leur demande;

iii)

un service d’”hébergement”, consistant à stocker des informations fournies par un destinataire du service à sa demande;

h)

“contenu illicite”: toute information qui, en soi ou par rapport à une activité, y compris la vente de produits ou la fourniture de services, n’est pas conforme au droit de l’Union ou au droit d’un État membre qui est conforme au droit de l’Union, quel que soit l’objet précis ou la nature précise de ce droit;

i)

“plateforme en ligne”: un service d’hébergement qui, à la demande d’un destinataire du service, stocke et diffuse au public des informations, à moins que cette activité ne soit une caractéristique mineure et purement accessoire d’un autre service ou une fonctionnalité mineure du service principal qui, pour des raisons objectives et techniques, ne peut être utilisée sans cet autre service, et pour autant que l’intégration de cette caractéristique ou de cette fonctionnalité à l’autre service ne soit pas un moyen de contourner l’applicabilité du présent règlement;

j)

“moteur de recherche en ligne”: un service intermédiaire qui permet aux utilisateurs de formuler des requêtes afin d’effectuer des recherches sur, en principe, tous les sites internet ou tous les sites internet dans une langue donnée, sur la base d’une requête lancée sur n’importe quel sujet sous la forme d’un mot-clé, d’une demande vocale, d’une expression ou d’une autre entrée, et qui renvoie des résultats dans quelque format que ce soit dans lesquels il est possible de trouver des informations en rapport avec le contenu demandé;

k)

“diffusion au public”: le fait de mettre des informations à la disposition d’un nombre potentiellement illimité de tiers, à la demande du destinataire du service ayant fourni ces informations;

l)

“contrat à distance”: le “contrat à distance” tel qu’il est défini à l’article 2, point 7), de la directive 2011/83/UE;

m)

“interface en ligne”: tout logiciel, y compris un site internet ou une section de site internet, et des applications, notamment des applications mobiles;

n)

“coordinateur pour les services numériques de l’État membre d’établissement”: le coordinateur pour les services numériques de l’État membre dans lequel l’établissement principal d’un fournisseur d’un service intermédiaire est situé, ou dans lequel son représentant légal réside ou est établi;

o)

“coordinateur pour les services numériques de l’État membre de destination”: le coordinateur pour les services numériques d’un État membre dans lequel le service intermédiaire est fourni;

p)

“destinataire actif d’une plateforme en ligne”: un destinataire du service qui a été en contact avec une plateforme en ligne, soit en demandant à la plateforme en ligne d’héberger des informations, soit en étant exposé aux informations hébergées par la plateforme en ligne et diffusées via son interface en ligne;

q)

“destinataire actif d’un moteur de recherche en ligne”: un destinataire du service qui a soumis une requête à un moteur de recherche en ligne et a été exposé aux informations indexées et présentées sur son interface en ligne;

r)

“publicité”: les informations destinées à promouvoir le message d’une personne physique ou morale, qu’elles aient des visées commerciales ou non commerciales, et présentées par une plateforme en ligne sur son interface en ligne, moyennant rémunération, dans le but spécifique de promouvoir ces informations;

s)

“système de recommandation”: un système entièrement ou partiellement automatisé utilisé par une plateforme en ligne pour suggérer sur son interface en ligne des informations spécifiques aux destinataires du service ou pour hiérarchiser ces informations, notamment à la suite d’une recherche lancée par le destinataire du service ou en déterminant de toute autre manière l’ordre relatif ou d’importance des informations affichées;

t)

“modération des contenus”: les activités, qu’elles soient automatisées ou non, entreprises par des fournisseurs de services intermédiaires qui sont destinées, en particulier, à détecter et à identifier les contenus illicites ou les informations incompatibles avec leurs conditions générales, fournis par les destinataires du service, et à lutter contre ces contenus ou ces informations, y compris les mesures prises qui ont une incidence sur la disponibilité, la visibilité et l’accessibilité de ces contenus ou ces informations, telles que leur rétrogradation, leur démonétisation, le fait de rendre l’accès à ceux-ci impossible ou leur retrait, ou qui ont une incidence sur la capacité des destinataires du service à fournir ces informations, telles que la suppression ou la suspension du compte d’un destinataire;

u)

“conditions générales”: toutes les clauses, quelle que soit leur dénomination ou leur forme, qui régissent la relation contractuelle entre le fournisseur de services intermédiaires et les destinataires du service;

v)

“personnes handicapées”: les “personnes handicapées” visées à l’article 3, point 1), de la directive (UE) 2019/882 du Parlement européen et du Conseil (38);

w)

“communication commerciale”: la “communication commerciale” telle qu’elle est définie à l’article 2, point f), de la directive 2000/31/CE;

x)

“chiffre d’affaires”: le montant atteint par une entreprise au sens de l’article 5, paragraphe 1, du règlement (CE) n° 139/2004 du Conseil (39).

CHAPITRE II

RESPONSABILITE DES FOURNISSEURS DE SERVICES INTERMÉDIAIRES

Article 14

Conditions générales

1.   Les fournisseurs de services intermédiaires incluent dans leurs conditions générales des renseignements relatifs aux éventuelles restrictions qu’ils imposent en ce qui concerne l’utilisation de leur service vis-à-vis des informations fournies par les destinataires du service. Ces renseignements comprennent des informations sur les politiques, procédures, mesures et outils utilisés à des fins de modération des contenus, y compris la prise de décision fondée sur des algorithmes et le réexamen par un être humain, ainsi que sur le règlement intérieur de leur système interne de traitement des réclamations. Ils sont énoncés dans un langage clair, simple, intelligible, aisément abordable et dépourvu d’ambiguïté, et sont mis à la disposition du public dans un format facilement accessible et lisible par une machine.

2.   Les fournisseurs de services intermédiaires informent les destinataires du service de toute modification importante des conditions générales.

3.   Lorsqu’un service intermédiaire s’adresse principalement à des mineurs ou est utilisé de manière prédominante par des mineurs, le fournisseur de ce service intermédiaire explique les conditions et les éventuelles restrictions relatives à l’utilisation du service d’une manière compréhensible pour les mineurs.

4.   Lorsqu’ils appliquent et font respecter les restrictions visées au paragraphe 1, les fournisseurs de services intermédiaires agissent de manière diligente, objective et proportionnée en tenant dûment compte des droits et des intérêts légitimes de toutes les parties impliquées, et notamment des droits fondamentaux des destinataires du service, tels que la liberté d’expression, la liberté et le pluralisme des médias et d’autres libertés et droits fondamentaux tels qu’ils sont consacrés dans la Charte.

5.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne fournissent aux destinataires des services un résumé des conditions générales, y compris des mécanismes de recours et de réparation disponibles, concis, facilement accessible et lisible par une machine, dans un langage clair et dépourvu d’ambiguïté.

6.   Les très grandes plateformes en ligne et les très grands moteurs de recherche en ligne au sens de l’article 33 publient leurs conditions générales dans les langues officielles de tous les États membres dans lesquels ils proposent leurs services.

Article 15

Obligations en matière de rapports de transparence incombant aux fournisseurs de services intermédiaires

1.   Les fournisseurs de services intermédiaires mettent à la disposition du public, dans un format lisible par une machine et d’une manière facilement accessible, au moins une fois par an, des rapports clairs et facilement compréhensibles sur les éventuelles activités de modération des contenus auxquelles ils se sont livrés au cours de la période concernée. Ces rapports comprennent, en particulier, des informations sur les points suivants, selon le cas:

a)

pour les fournisseurs de services intermédiaires, le nombre d’injonctions reçues des autorités des États membres, y compris les injonctions émises conformément aux articles 9 et 10, classées par type de contenu illicite concerné, l’État membre qui a émis l’injonction et le délai médian nécessaire pour informer de sa réception l’autorité qui a émis l’injonction, ou toute autre autorité spécifiée dans l’injonction, et pour donner suite à l’injonction;

b)

pour les fournisseurs de services d’hébergement, le nombre de notifications soumises conformément à l’article 16, classées par type de contenu présumé illicite concerné, le nombre de notifications soumises par les signaleurs de confiance, toute action entreprise au titre des notifications en précisant si l’action a été entreprise sur la base de la législation ou des conditions générales du fournisseur, le nombre de notifications traitées de manière automatisée et le délai médian nécessaire pour entreprendre l’action;

c)

pour les fournisseurs de services intermédiaires, des informations utiles et compréhensibles sur les activités de modération des contenus auxquelles se sont livrés les fournisseurs de leur propre initiative, y compris l’utilisation d’outils automatisés, les mesures prises pour dispenser une formation et une assistance aux personnes chargées de la modération des contenus, le nombre et le type de mesures prises qui affectent la disponibilité, la visibilité et l’accessibilité des informations fournies par les destinataires du service et sur la capacité des destinataires à fournir des informations par l’intermédiaire du service, ainsi que d’autres restrictions connexes du service; les informations communiquées sont classées par type de contenu illicite ou d’infraction aux conditions générales du fournisseur de services, par méthode de détection et par type de restrictions appliquées;

d)

pour les fournisseurs de services intermédiaires, le nombre de réclamations reçues par l’intermédiaire des systèmes internes de traitement des réclamations conformément aux conditions générales du fournisseur et, en outre, pour les fournisseurs de plateformes en ligne, conformément à l’article 20, le fondement de ces réclamations, les décisions prises concernant ces réclamations, le délai médian nécessaire pour prendre ces décisions et le nombre de cas dans lesquels ces décisions ont été infirmées;

e)

tout recours à des moyens automatisés à des fins de modération des contenus, y compris une description qualitative, une indication des objectifs précis, des indicateurs de la précision et du taux d’erreur possible des moyens automatisés utilisés pour atteindre ces objectifs, et les éventuelles mesures de sauvegarde appliquées.

2.   Le paragraphe 1 du présent article ne s’applique pas aux fournisseurs de services intermédiaires qui peuvent être qualifiés de microentreprises ou de petites entreprises telles qu’elles sont définies dans la recommandation 2003/361/CE et qui ne sont pas de très grandes plateformes en ligne au sens de l’article 33 du présent règlement.

3.   La Commission peut adopter des actes d’exécution pour établir des modèles concernant la forme, le contenu et d’autres détails des rapports au titre du paragraphe 1 du présent article, y compris des périodes harmonisées pour l’établissement des rapports. Ces actes d’exécution sont adoptés en conformité avec la procédure consultative visée à l’article 88.

SECTION 2

Dispositions supplémentaires applicables aux fournisseurs de services d’hébergement, y compris les plateformes en ligne

Article 17

Exposé des motifs

1.   Les fournisseurs de services d’hébergement fournissent à tous les destinataires du service affectés un exposé des motifs clair et spécifique pour l’une ou l’autre des restrictions suivantes imposées au motif que les informations fournies par le destinataire du service constituent un contenu illicite ou sont incompatibles avec leurs conditions générales:

a)

toute restriction de la visibilité d’éléments d’information spécifiques fournis par le destinataire du service, y compris le retrait de contenus, le fait de rendre l’accès à des contenus impossible ou le déclassement de contenus;

b)

la suspension, la fin ou autre restriction des paiements monétaires;

c)

la suspension ou la fin, en tout ou en partie, de la fourniture du service;

d)

la suspension ou la suppression du compte du destinataire du service.

2.   Le paragraphe 1 s’applique uniquement lorsque les coordonnées électroniques pertinentes sont connues du fournisseur. Il s’applique au plus tard à compter de la date à laquelle la restriction est imposée, indépendamment de la raison pour laquelle ou de la manière dont elle a été imposée.

Le paragraphe 1 ne s’applique pas lorsque les informations constituent un contenu commercial trompeur et de grande diffusion.

3.   L’exposé des motifs visé au paragraphe 1 comprend au minimum les informations suivantes:

a)

des informations indiquant si la décision implique soit de retirer des informations, de rendre l’accès à celles-ci impossible, de les déclasser, ou de restreindre leur visibilité, soit de suspendre ou de mettre fin aux paiements monétaires liés à ces informations, ou impose d’autres mesures visées au paragraphe 1 en ce qui concerne lesdites informations, et, le cas échéant, le champ d’application territorial de la décision et sa durée;

b)

les faits et circonstances sur base desquels la décision a été prise, y compris, le cas échéant, des informations indiquant si la décision a été prise en vertu d’une notification soumise conformément à l’article 16 ou sur la base d’enquêtes d’initiative volontaires et, lorsque cela est strictement nécessaire, l’identité de la personne à l’origine de la notification;

c)

le cas échéant, des informations relatives à l’utilisation de moyens automatisés pour prendre la décision, y compris des informations indiquant si la décision a été prise à l’égard de contenus détectés ou identifiés par des moyens automatisés;

d)

lorsque la décision concerne des contenus présumés illicites, une référence au fondement juridique sous-jacent et des explications quant aux raisons pour lesquelles ces informations sont considérées comme des contenus illicites sur ce fondement;

e)

lorsque la décision se fonde sur l’incompatibilité alléguée des informations avec les conditions générales du fournisseur de services d’hébergement, une référence aux clauses contractuelles sous-jacentes et des explications quant aux raisons pour lesquelles ces informations sont considérées comme incompatibles avec ces clauses;

f)

des informations claires et aisément compréhensibles relatives aux possibilités de recours à la disposition du destinataire du service en ce qui concerne cette décision, notamment, le cas échéant, par l’intermédiaire de mécanismes internes de traitement des réclamations, d’un règlement extrajudiciaire des litiges et d’un recours juridictionnel.

4.   Les informations fournies par les fournisseurs de services d’hébergement conformément au présent article sont claires et faciles à comprendre et aussi précises et détaillées que cela est raisonnablement possible compte tenu des circonstances données. En particulier, les informations sont de nature à permettre raisonnablement au destinataire du service concerné d’exercer les possibilités de recours visées au paragraphe 3, point f), de manière effective.

5.   Le présent article ne s’applique pas aux injonctions visées à l’article 9.

Article 20

Système interne de traitement des réclamations

1.   Les fournisseurs de plateformes en ligne fournissent aux destinataires du service, y compris aux particuliers ou aux entités qui ont soumis une notification, pour une période d’au moins six mois suivant la décision visée dans le présent paragraphe, l’accès à un système interne de traitement des réclamations efficace qui leur permet d’introduire, par voie électronique et gratuitement, des réclamations contre la décision prise par le fournisseur de la plateforme en ligne à la suite de la réception d’une notification ou contre les décisions suivantes prises par le fournisseur de la plateforme en ligne au motif que les informations fournies par les destinataires constituent un contenu illicite ou qu’elles sont incompatibles avec ses conditions générales:

a)

les décisions sur la question de savoir s’il y a lieu ou non de retirer les informations, de rendre l’accès à celles-ci impossible ou de restreindre leur visibilité;

b)

les décisions sur la question de savoir s’il y a lieu ou non de suspendre ou de mettre fin, en tout ou en partie, à la fourniture du service aux destinataires;

c)

les décisions sur la question de savoir s’il y a lieu ou non de suspendre ou de supprimer le compte des destinataires;

d)

les décisions sur la question de savoir s’il y a lieu ou non de suspendre la capacité de monétiser les informations fournies par les destinataires, de mettre fin à cette capacité ou de restreindre d’une autre manière cette capacité.

2.   La période d’au moins six mois visée au paragraphe 1 du présent article court à partir du jour où le destinataire du service est informé de la décision, conformément à l’article 16, paragraphe 5, ou à l’article 17.

3.   Les fournisseurs de plateformes en ligne veillent à ce que leurs systèmes internes de traitement des réclamations soient d’un accès et d’une utilisation aisés et permettent et facilitent la soumission de réclamations suffisamment précises et dûment étayées.

4.   Les fournisseurs de plateformes en ligne traitent les réclamations soumises par l’intermédiaire de leurs systèmes internes de traitement des réclamations en temps opportun, de manière non discriminatoire, diligente et non arbitraire. Lorsqu’une réclamation contient suffisamment de motifs pour que le fournisseur de la plateforme en ligne considère que sa décision de ne pas agir à la suite de la notification est infondée ou que les informations auxquelles la réclamation se rapporte ne sont pas illicites et ne sont pas incompatibles avec ses conditions générales, ou lorsqu’elle contient des informations indiquant que la conduite du plaignant ne justifie pas la mesure prise, le fournisseur infirme sa décision visée au paragraphe 1 dans les meilleurs délais.

5.   Les fournisseurs de plateformes en ligne informent les plaignants dans les meilleurs délais de la décision motivée qu’ils prennent en ce qui concerne les informations auxquelles la réclamation se rapporte et de la possibilité d’avoir accès à un règlement extrajudiciaire des litiges prévue à l’article 21 et des autres possibilités de recours disponibles.

6.   Les fournisseurs de plateformes en ligne veillent à ce que les décisions visées au paragraphe 5 soient prises sous le contrôle de collaborateurs dûment qualifiés, et pas uniquement par des moyens automatisés.

Article 21

Règlement extrajudiciaire des litiges

1.   Les destinataires du service, y compris les particuliers ou les entités qui ont soumis des notifications, qui sont destinataires des décisions visées à l’article 20, paragraphe 1, ont le droit de choisir tout organe de règlement extrajudiciaire des litiges qui a été certifié conformément au paragraphe 3 du présent article en vue de résoudre les litiges relatifs à ces décisions, y compris pour les réclamations qui n’ont pas été résolues par le système interne de traitement des réclamations visé audit article.

Les fournisseurs de plateformes en ligne veillent à ce que les informations relatives à la possibilité pour les destinataires du service d’avoir accès à un règlement extrajudiciaire des litiges, conformément au premier alinéa, soient facilement accessibles sur leur interface en ligne, claires et aisément compréhensibles.

Le premier alinéa est sans préjudice du droit du destinataire du service concerné d’engager, à tout moment, une procédure pour contester lesdites décisions prises par les fournisseurs de plateformes en ligne devant une juridiction conformément au droit applicable.

2.   Les deux parties s’engagent, de bonne foi, avec l’organe de règlement extrajudiciaire des litiges certifié qui est choisi en vue de résoudre le litige.

Les fournisseurs de plateformes en ligne peuvent refuser de s’engager avec cet organe de règlement extrajudiciaire des litiges si un litige concernant les mêmes informations et les mêmes motifs d’illégalité ou d’incompatibilité alléguée du contenu a déjà été résolu.

L’organe de règlement extrajudiciaire des litiges certifié n’a pas le pouvoir d’imposer aux parties un règlement du litige contraignant.

3.   Le coordinateur pour les services numériques de l’État membre dans lequel est établi l’organe de règlement extrajudiciaire des litiges certifie cet organe, à sa demande, pour une période maximale de cinq ans, qui peut être renouvelée, lorsque l’organe a démontré qu’il remplit l’ensemble des conditions suivantes:

a)

il est impartial et indépendant, y compris financièrement indépendant, des fournisseurs de plateformes en ligne et des destinataires du service fourni par les fournisseurs de plateformes en ligne, y compris des particuliers ou des entités qui ont soumis des notifications;

b)

il dispose de l’expertise nécessaire en ce qui concerne les questions liées à un ou plusieurs domaines particuliers de contenu illicite, ou en ce qui concerne l’application et la mise en application des conditions générales d’un ou de plusieurs types de plateformes en ligne, lui permettant de contribuer efficacement au règlement d’un litige;

c)

ses membres ne sont pas rémunérés en fonction de l’issue de la procédure;

d)

le processus de règlement extrajudiciaire des litiges qu’il propose est facilement accessible au moyen d’une technologie des communications électroniques et prévoit la possibilité d’engager le processus de règlement des litiges et de soumettre les documents justificatifs nécessaires en ligne;

e)

il est en mesure de régler des litiges de manière rapide, efficace et économiquement avantageuse, et dans au minimum une des langues officielles des institutions de l’Union;

f)

le processus de règlement extrajudiciaire des litiges qu’il propose se déroule conformément à des règles de procédure claires et équitables, qui sont aisément et publiquement accessibles et qui respectent le droit applicable, y compris le présent article.

Le cas échéant, le coordinateur pour les services numériques précise dans le certificat:

a)

les questions particulières sur lesquelles porte l’expertise de l’organe, visées au premier alinéa, point b); et

b)

la ou les langues officielles des institutions de l’Union dans laquelle ou lesquelles l’organe est en mesure de régler des litiges, comme il est prévu au premier alinéa, point e).

4.   Les organes de règlement extrajudiciaire des litiges certifiés font rapport, une fois par an, au coordinateur pour les services numériques qui les a certifiés, sur leur fonctionnement, en précisant au moins le nombre de litiges qu’ils ont reçus, les informations sur l’issue de ces litiges, le laps de temps moyen nécessaire à leur résolution et les éventuelles lacunes ou difficultés rencontrées. Ils fournissent des informations supplémentaires à la demande dudit coordinateur pour les services numériques.

Les coordinateurs pour les services numériques établissent tous les deux ans un rapport sur le fonctionnement des organes de règlement extrajudiciaire des litiges qu’ils ont certifiés. En particulier, ce rapport:

a)

indique le nombre de litiges que chaque organe de règlement extrajudiciaire des litiges certifié a reçus chaque année;

b)

indique l’issue des procédures portées devant ces organes et le laps de temps moyen nécessaire à la résolution des litiges;

c)

recense et explique les éventuelles lacunes ou difficultés systématiques ou sectorielles rencontrées en rapport avec le fonctionnement de ces organes;

d)

recense les bonnes pratiques concernant ce fonctionnement;

e)

formule, le cas échéant, des recommandations sur la manière d’améliorer ce fonctionnement.

Les organes de règlement extrajudiciaire des litiges certifiés mettent leurs décisions à la disposition des parties dans un délai raisonnable et au plus tard 90 jours civils après la réception de la plainte. En cas de litiges très complexes, l’organe de règlement extrajudiciaire des litiges certifié peut, de sa propre initiative, prolonger le délai de 90 jours civils, pour une période supplémentaire n’excédant pas 90 jours, dans la limite d’une durée totale maximale de 180 jours.

5.   Lorsque l’organe de règlement extrajudiciaire des litiges se prononce sur le litige en faveur du destinataire du service, y compris le particulier ou l’entité qui a soumis une notification, le fournisseur de la plateforme en ligne supporte tous les frais facturés par l’organe de règlement extrajudiciaire des litiges et rembourse à ce destinataire, y compris le particulier ou l’entité, toute autre dépense raisonnable qu’il a effectuée en lien avec le règlement du litige. Lorsque l’organe de règlement extrajudiciaire des litiges se prononce sur le litige en faveur du fournisseur de la plateforme en ligne, le destinataire du service, y compris le particulier ou l’entité, n’est pas tenu de rembourser les frais ou autres dépenses que le fournisseur de la plateforme en ligne a engagés ou dont il est redevable en lien avec le règlement du litige, à moins que l’organe de règlement extrajudiciaire des litiges constate que ce destinataire a manifestement agi de mauvaise foi.

Les frais facturés par l’organe de règlement extrajudiciaire des litiges aux fournisseurs de plateformes en ligne pour le règlement du litige sont raisonnables et n’excèdent en aucun cas les coûts engagés par l’organe. Pour les destinataires du service, le règlement du litige est accessible gratuitement ou moyennant une somme symbolique.

Les organes de règlement extrajudiciaire des litiges certifiés informent le destinataire du service, y compris les particuliers ou les entités qui ont soumis une notification, et le fournisseur de la plateforme en ligne concerné, des frais ou des mécanismes employés pour calculer les frais, avant le début du processus de règlement du litige.

6.   Les États membres peuvent établir des organes de règlement extrajudiciaire des litiges aux fins du paragraphe 1 ou apporter un soutien aux activités de certains ou de tous les organes de règlement extrajudiciaire des litiges qu’ils ont certifiés conformément au paragraphe 3.

Les États membres veillent à ce qu’aucune des activités qu’ils entreprennent au titre du premier alinéa ne nuise à la capacité de leurs coordinateurs pour les services numériques à certifier les organes concernés conformément au paragraphe 3.

7.   Le coordinateur pour les services numériques qui a certifié un organe de règlement extrajudiciaire des litiges révoque cette certification s’il constate, à la suite d’une enquête menée soit de sa propre initiative, soit sur la base d’informations reçues de tiers, que l’organe de règlement extrajudiciaire des litiges ne remplit plus les conditions énoncées au paragraphe 3. Avant de révoquer cette certification, le coordinateur pour les services numériques donne à cet organe la possibilité de réagir aux conclusions de son enquête et à son intention de révoquer la certification de l’organe de règlement extrajudiciaire des litiges.

8.   Les coordinateurs pour les services numériques notifient à la Commission la liste des organes de règlement extrajudiciaire des litiges qu’ils ont certifiés conformément au paragraphe 3, y compris, le cas échéant, les spécifications visées au second alinéa dudit paragraphe, ainsi que la liste des organes de règlement extrajudiciaire des litiges dont ils ont révoqué la certification. La Commission publie et tient à jour une liste de ces organes, comprenant ces spécifications, sur un site internet dédié, facilement accessible, prévu à cet effet.

9.   Le présent article est sans préjudice de la directive 2013/11/UE et des procédures et entités de règlement extrajudiciaire des litiges de consommation qu’elle établit.

Article 23

Mesures de lutte et de protection contre les utilisations abusives

1.   Les fournisseurs de plateformes en ligne suspendent, pendant une période raisonnable et après avoir émis un avertissement préalable, la fourniture de leurs services aux destinataires du service qui fournissent fréquemment des contenus manifestement illicites.

2.   Les fournisseurs de plateformes en ligne suspendent, pendant une période raisonnable et après avoir émis un avertissement préalable, le traitement des notifications et des réclamations soumises par l’intermédiaire des mécanismes de notification et d’action et des systèmes internes de traitement des réclamations prévus aux articles 16 et 20, respectivement, par des particuliers, des entités ou des plaignants qui soumettent fréquemment des notifications ou des réclamations manifestement infondées.

3.   Lorsqu’ils décident d’une suspension, les fournisseurs de plateformes en ligne apprécient au cas par cas et en temps opportun, de manière diligente et objective, si le destinataire du service, le particulier, l’entité ou le plaignant se livre aux utilisations abusives visées aux paragraphes 1 et 2, en tenant compte de l’ensemble des faits et circonstances pertinents qui ressortent des informations dont ils disposent. Ces circonstances comprennent au moins les éléments suivants:

a)

le nombre, en valeur absolue, d’éléments de contenus manifestement illicites ou de notifications ou de réclamations manifestement infondées, soumis au cours d’une période donnée;

b)

la proportion relative de ces éléments par rapport au nombre total d’éléments d’information fournis ou de notifications soumises au cours d’une période donnée;

c)

la gravité des utilisations abusives, y compris la nature des contenus illicites, et de leurs conséquences;

d)

lorsqu’il est possible de la déterminer, l’intention du destinataire du service, du particulier, de l’entité ou du plaignant.

4.   Les fournisseurs de plateformes en ligne énoncent de manière claire et détaillée, dans leurs conditions générales, leur politique relative aux utilisations abusives visées aux paragraphes 1 et 2, et donnent des exemples des faits et circonstances dont ils tiennent compte pour apprécier si certains comportements constituent des utilisations abusives et déterminer la durée de la suspension.

Article 27

Transparence du système de recommandation

1.   Les fournisseurs de plateformes en ligne qui utilisent des systèmes de recommandation établissent dans leurs conditions générales, dans un langage simple et compréhensible, les principaux paramètres utilisés dans leurs systèmes de recommandation, ainsi que les options dont disposent les destinataires du service pour modifier ou influencer ces principaux paramètres.

2.   Les principaux paramètres visés au paragraphe 1 expliquent pourquoi certaines informations sont suggérées au destinataire du service. Ils précisent, au minimum:

a)

les critères les plus importants pour déterminer les informations suggérées au destinataire du service;

b)

les raisons de l’importance relative de ces paramètres.

3.   Lorsque plusieurs options sont disponibles conformément au paragraphe 1 pour les systèmes de recommandation qui déterminent l’ordre relatif des informations présentées aux destinataires du service, les fournisseurs de plateformes en ligne prévoient également une fonctionnalité permettant aux destinataires du service de sélectionner et de modifier à tout moment leur option favorite. Cette fonctionnalité est directement et aisément accessible dans la rubrique spécifique de l’interface de la plateforme en ligne où les informations sont hiérarchisées.

Article 34

Évaluation des risques

1.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne recensent, analysent et évaluent de manière diligente tout risque systémique au sein de l’Union découlant de la conception ou du fonctionnement de leurs services et de leurs systèmes connexes, y compris des systèmes algorithmiques, ou de l’utilisation faite de leurs services.

Ils procèdent aux évaluations des risques au plus tard à la date d’application visée à l’article 33, paragraphe 6, deuxième alinéa, puis au moins une fois par an, et en tout état de cause avant de déployer des fonctionnalités susceptibles d’avoir une incidence critique sur les risques recensés en vertu du présent article. Cette évaluation des risques est spécifique à leurs services et proportionnée aux risques systémiques, de la gravité et de la probabilité desquels elle tient compte, et comprend les risques systémiques suivants:

a)

la diffusion de contenus illicites par l’intermédiaire de leurs services;

b)

tout effet négatif réel ou prévisible pour l’exercice des droits fondamentaux, en particulier le droit fondamental à la dignité humaine consacré à l’article 1er de la Charte, au respect de la vie privée et familiale consacré à l’article 7 de la Charte, à la protection des données à caractère personnel consacré à l’article 8 de la Charte, à la liberté d’expression et d’information, y compris la liberté et le pluralisme des médias, consacré à l’article 11 de la Charte, et à la non-discrimination consacré à l’article 21 de la Charte, les droits fondamentaux relatifs aux droits de l’enfant consacrés à l’article 24 de la Charte et le droit fondamental à un niveau élevé de protection des consommateurs consacré à l’article 38 de la Charte;

c)

tout effet négatif réel ou prévisible sur le discours civique, les processus électoraux et la sécurité publique;

d)

tout effet négatif réel ou prévisible lié aux violences sexistes et à la protection de la santé publique et des mineurs et les conséquences négatives graves sur le bien-être physique et mental des personnes.

2.   Lorsqu’ils procèdent à des évaluations des risques, les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne examinent notamment si et comment les facteurs suivants influencent les risques systémiques visés au paragraphe 1 et en tiennent compte:

a)

la conception de leurs systèmes de recommandation et de tout autre système algorithmique pertinent;

b)

leurs systèmes de modération des contenus;

c)

les conditions générales applicables et leur mise en application;

d)

les systèmes de sélection et de présentation de la publicité;

e)

les pratiques du fournisseur en matière de données.

Les évaluations examinent également si et comment les risques visés au paragraphe 1 sont influencés par la manipulation intentionnelle du service desdits fournisseurs, y compris par l’utilisation non authentique ou l’exploitation automatisée du service, ainsi que par l’amplification et la diffusion potentiellement rapide et à grande échelle de contenus illicites et d’informations incompatibles avec leurs conditions générales.

L’évaluation tient compte des aspects régionaux ou linguistiques spécifiques, y compris lorsqu’ils sont propres à un État membre.

3.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne conservent les documents justificatifs des évaluations des risques pendant au moins trois ans après la réalisation de ces évaluations, et les communiquent à la Commission et au coordinateur pour les services numériques de l’État membre d’établissement, à leur demande.

Article 35

Atténuation des risques

1.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne mettent en place des mesures d’atténuation raisonnables, proportionnées et efficaces, adaptées aux risques systémiques spécifiques recensés conformément à l’article 34, en tenant compte en particulier de l’incidence de ces mesures sur les droits fondamentaux. Ces mesures peuvent inclure, le cas échéant:

a)

l’adaptation de la conception, des caractéristiques ou du fonctionnement de leurs services, y compris leurs interfaces en ligne;

b)

l’adaptation de leurs conditions générales et de la mise en application de celles-ci;

c)

l’adaptation des processus de modération des contenus, y compris la rapidité et la qualité du traitement des notifications relatives à des types spécifiques de contenus illicites et, le cas échéant, le retrait rapide des contenus qui ont fait l’objet d’une notification ou le blocage de l’accès à ces contenus, en particulier en ce qui concerne les discours haineux illégaux ou la cyberviolence, ainsi que l’adaptation des processus décisionnels pertinents et des ressources dédiées à la modération des contenus;

d)

le test et l’adaptation de leurs systèmes algorithmiques, y compris leurs systèmes de recommandation;

e)

l’adaptation de leurs systèmes de publicité et l’adoption de mesures ciblées destinées à limiter la présentation de publicités, ou à en adapter la présentation, en association avec le service fourni;

f)

le renforcement des processus internes, des ressources, des tests, de la documentation ou de la surveillance d’une quelconque de leurs activités, notamment en ce qui concerne la détection des risques systémiques;

g)

la mise en place d’une coopération avec les signaleurs de confiance, ou l’ajustement de cette coopération, conformément à l’article 22, ainsi que la mise en œuvre des décisions prises par les organes de règlement extrajudiciaire des litiges en vertu de l’article 21;

h)

la mise en place d’une coopération avec d’autres fournisseurs de plateformes en ligne ou de moteurs de recherche en ligne, ou l’ajustement de cette coopération, sur la base des codes de conduite et des protocoles de crise visés aux articles 45 et 48, respectivement;

i)

l’adoption de mesures de sensibilisation et l’adaptation de leur interface en ligne, afin de donner plus d’informations aux destinataires du service;

j)

l’adoption de mesures ciblées visant à protéger les droits de l’enfant, y compris la vérification de l’âge et des outils de contrôle parental, ou des outils permettant d’aider les mineurs à signaler les abus ou à obtenir un soutien, s’il y a lieu;

k)

le recours à un marquage bien visible pour garantir qu’un élément d’information, qu’il s’agisse d’une image, d’un contenu audio ou vidéo généré ou manipulé, qui ressemble nettement à des personnes, à des objets, à des lieux ou à d’autres entités ou événements réels, et apparaît à tort aux yeux d’une personne comme authentique ou digne de foi, est reconnaissable lorsqu’il est présenté sur leurs interfaces en ligne, et, en complément, la mise à disposition d’une fonctionnalité facile d’utilisation permettant aux destinataires du service de signaler ce type d’information.

2.   Le comité, en coopération avec la Commission, publie des rapports exhaustifs une fois par an. Ces rapports comprennent les éléments suivants:

a)

le recensement et l’évaluation des risques systémiques les plus importants et récurrents signalés par les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne ou recensés via d’autres sources d’informations, notamment celles fournies conformément aux articles 39, 40 et 42;

b)

la définition de bonnes pratiques pour les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne en vue de l’atténuation des risques systémiques recensés.

Ces rapports présentent les risques systémiques ventilés par État membre dans lequel ils sont survenus et pour l’ensemble de l’Union, s’il y a lieu.

3.   La Commission, en coopération avec les coordinateurs pour les services numériques, peut publier des lignes directrices sur l’application du paragraphe 1 par rapport à des risques spécifiques, notamment en vue de présenter les bonnes pratiques et de recommander des mesures possibles, en tenant dûment compte des conséquences possibles des mesures sur les droits fondamentaux de toutes les parties concernées consacrés dans la Charte. Dans le cadre de l’élaboration de ces lignes directrices, la Commission organise des consultations publiques.

Article 39

Transparence renforcée de la publicité en ligne

1.   Les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne présentant de la publicité sur leurs interfaces en ligne tiennent et mettent à la disposition du public, dans une section spécifique de leur interface en ligne, à l’aide d’un outil de recherche fiable permettant d’effectuer des recherches multicritères et par l’intermédiaire d’interfaces de programme d’application, un registre contenant les informations visées au paragraphe 2, pour toute la période pendant laquelle ils présentent une publicité et jusqu’à un an après la dernière présentation de la publicité sur leurs interfaces en ligne. Ils veillent à ce que ce registre ne contienne aucune donnée à caractère personnel des destinataires du service auxquels la publicité a été ou aurait pu être présentée et s’efforcent, dans la mesure du raisonnable, de s’assurer de l’exactitude et de l’exhaustivité des informations.

2.   Ce registre contient au moins toutes les informations suivantes:

a)

le contenu de la publicité, y compris le nom du produit, du service ou de la marque, ainsi que l’objet de la publicité;

b)

la personne physique ou morale pour le compte de laquelle la publicité est présentée;

c)

la personne physique ou morale qui a payé la publicité, si cette personne est différente de celle visée au point b);

d)

la période au cours de laquelle la publicité a été présentée;

e)

le fait que la publicité était ou non destinée à être présentée spécifiquement à un ou plusieurs groupes particuliers de destinataires du service et, dans l’affirmative, les principaux paramètres utilisés à cette fin, y compris, s’il y a lieu, les principaux paramètres utilisés pour exclure un ou plusieurs de ces groupes particuliers;

f)

les communications commerciales publiées sur les très grandes plateformes en ligne et déterminées en vertu de l’article 26, paragraphe 2;

g)

le nombre total de destinataires du service atteint et, le cas échéant, les nombres totaux ventilés par État membre pour le ou les groupes de destinataires que la publicité ciblait spécifiquement.

3.   En ce qui concerne le paragraphe 2, points a), b) et c), lorsque le fournisseur d’une très grande plateforme en ligne ou d’un très grand moteur de recherche en ligne retire une publicité spécifique sur la base d’une allégation d’illégalité ou d’incompatibilité avec ses conditions générales ou rend impossible l’accès à cette publicité, le registre ne contient pas les informations visées dans lesdits points. Dans ce cas, le registre contient, pour la publicité spécifique concernée, les informations visées, selon le cas, à l’article 17, paragraphe 3, points a) à e), ou à l’article 9, paragraphe 2, point a) i).

La Commission peut, après consultation du comité, des chercheurs agréés visés à l’article 40 et du public, formuler des lignes directrices sur la structure, l’organisation et les fonctionnalités des registres visés dans le présent article.

Article 44

Normes

1.   La Commission consulte le comité et soutient et encourage le développement ainsi que la mise en œuvre de normes volontaires établies par les organismes de normalisation européens et internationaux pertinents, au minimum pour les aspects suivants:

a)

la soumission électronique des notifications au titre de l’article 16;

b)

les modèles et les normes de conception et de procédure à employer pour communiquer avec les destinataires du service de manière conviviale sur les restrictions résultant des conditions générales et les modifications qui leur sont apportées;

c)

la soumission électronique des notifications par les signaleurs de confiance au titre de l’article 22, y compris par l’intermédiaire d’interfaces de programme d’application;

d)

les interfaces spécifiques, y compris les interfaces de programme d’application, visant à faciliter le respect des obligations établies aux articles 39 et 40;

e)

l’audit des très grandes plateformes en ligne et des très grands moteurs de recherche en ligne au titre de l’article 37;

f)

l’interopérabilité des registres de publicités visés à l’article 39, paragraphe 2;

g)

la transmission de données entre les intermédiaires de publicité aux fins des obligations de transparence en vertu de l’article 26, paragraphe 1, points b), c) et d);

h)

les mesures techniques permettant de satisfaire aux obligations relatives à la publicité contenues dans le présent règlement, y compris les obligations relatives aux marquages bien visibles à employer pour les publicités et les communications commerciales visées à l’article 26;

i)

les interfaces de choix et la présentation des informations sur les principaux paramètres des différents types de systèmes de recommandation, conformément aux articles 27 et 38;

j)

les normes applicables aux mesures ciblées destinées à protéger les mineurs en ligne.

2.   La Commission soutient la mise à jour des normes à la lumière des évolutions technologiques et du comportement des destinataires des services en question. Les informations pertinentes concernant la mise à jour des normes sont mises à la disposition du public et facilement accessibles.

Article 50

Exigences applicables aux coordinateurs pour les services numériques

1.   Les États membres veillent à ce que les coordinateurs pour les services numériques accomplissent leurs missions au titre du présent règlement de manière impartiale, transparente et en temps utile. Les États membres veillent à ce que leurs coordinateurs pour les services numériques disposent de toutes les ressources nécessaires à l’accomplissement de leurs missions, y compris des ressources techniques, financières et humaines suffisantes pour surveiller correctement tous les fournisseurs de services intermédiaires relevant de leur compétence. Chaque État membre veille à ce que son coordinateur pour les services numériques dispose d’une autonomie suffisante dans la gestion de son budget dans les limites globales du budget, afin de ne pas porter atteinte à l’indépendance du coordinateur pour les services numériques.

2.   Lorsqu’ils accomplissent leurs missions et exercent leurs pouvoirs conformément au présent règlement, les coordinateurs pour les services numériques agissent en toute indépendance. Ils restent libres de toute influence extérieure, directe ou indirecte, et ne sollicitent ni n’acceptent aucune instruction d’aucune autre autorité publique ou partie privée.

3.   Le paragraphe 2 du présent article est sans préjudice des missions incombant aux coordinateurs pour les services numériques dans le cadre du système de surveillance et d’exécution prévu dans le présent règlement et de la coopération avec les autres autorités compétentes conformément à l’article 49, paragraphe 2. Le paragraphe 2 du présent article n’empêche pas l’exercice d’un contrôle juridictionnel et est également sans préjudice d’exigences proportionnées en matière de responsabilisation en ce qui concerne les activités générales des coordinateurs pour les services numériques, par exemple en ce qui concerne les dépenses financières ou les rapports à communiquer aux parlements nationaux, à condition que ces exigences ne portent pas atteinte à la réalisation des objectifs du présent règlement.


whereas









keyboard_arrow_down