search


keyboard_tab Digital Service Act 2022/2065 FR

BG CS DA DE EL EN ES ET FI FR GA HR HU IT LV LT MT NL PL PT RO SK SL SV print pdf

2022/2065 FR cercato: 'internes' . Output generated live by software developed by IusOnDemand srl


expand index internes:


whereas internes:


definitions:


cloud tag: and the number of total unique words without stopwords is: 760

 

Article 15

Obligations en matière de rapports de transparence incombant aux fournisseurs de services intermédiaires

1.   Les fournisseurs de services intermédiaires mettent à la disposition du public, dans un format lisible par une machine et d’une manière facilement accessible, au moins une fois par an, des rapports clairs et facilement compréhensibles sur les éventuelles activités de modération des contenus auxquelles ils se sont livrés au cours de la période concernée. Ces rapports comprennent, en particulier, des informations sur les points suivants, selon le cas:

a)

pour les fournisseurs de services intermédiaires, le nombre d’injonctions reçues des autorités des États membres, y compris les injonctions émises conformément aux articles 9 et 10, classées par type de contenu illicite concerné, l’État membre qui a émis l’injonction et le délai médian nécessaire pour informer de sa réception l’autorité qui a émis l’injonction, ou toute autre autorité spécifiée dans l’injonction, et pour donner suite à l’injonction;

b)

pour les fournisseurs de services d’hébergement, le nombre de notifications soumises conformément à l’article 16, classées par type de contenu présumé illicite concerné, le nombre de notifications soumises par les signaleurs de confiance, toute action entreprise au titre des notifications en précisant si l’action a été entreprise sur la base de la législation ou des conditions générales du fournisseur, le nombre de notifications traitées de manière automatisée et le délai médian nécessaire pour entreprendre l’action;

c)

pour les fournisseurs de services intermédiaires, des informations utiles et compréhensibles sur les activités de modération des contenus auxquelles se sont livrés les fournisseurs de leur propre initiative, y compris l’utilisation d’outils automatisés, les mesures prises pour dispenser une formation et une assistance aux personnes chargées de la modération des contenus, le nombre et le type de mesures prises qui affectent la disponibilité, la visibilité et l’accessibilité des informations fournies par les destinataires du service et sur la capacité des destinataires à fournir des informations par l’intermédiaire du service, ainsi que d’autres restrictions connexes du service; les informations communiquées sont classées par type de contenu illicite ou d’infraction aux conditions générales du fournisseur de services, par méthode de détection et par type de restrictions appliquées;

d)

pour les fournisseurs de services intermédiaires, le nombre de réclamations reçues par l’intermédiaire des systèmes internes de traitement des réclamations conformément aux conditions générales du fournisseur et, en outre, pour les fournisseurs de plateformes en ligne, conformément à l’article 20, le fondement de ces réclamations, les décisions prises concernant ces réclamations, le délai médian nécessaire pour prendre ces décisions et le nombre de cas dans lesquels ces décisions ont été infirmées;

e)

tout recours à des moyens automatisés à des fins de modération des contenus, y compris une description qualitative, une indication des objectifs précis, des indicateurs de la précision et du taux d’erreur possible des moyens automatisés utilisés pour atteindre ces objectifs, et les éventuelles mesures de sauvegarde appliquées.

2.   Le paragraphe 1 du présent article ne s’applique pas aux fournisseurs de services intermédiaires qui peuvent être qualifiés de microentreprises ou de petites entreprises telles qu’elles sont définies dans la recommandation 2003/361/CE et qui ne sont pas de très grandes plateformes en ligne au sens de l’article 33 du présent règlement.

3.   La Commission peut adopter des actes d’exécution pour établir des modèles concernant la forme, le contenu et d’autres détails des rapports au titre du paragraphe 1 du présent article, y compris des périodes harmonisées pour l’établissement des rapports. Ces actes d’exécution sont adoptés en conformité avec la procédure consultative visée à l’article 88.

SECTION 2

Dispositions supplémentaires applicables aux fournisseurs de services d’hébergement, y compris les plateformes en ligne

Article 17

Exposé des motifs

1.   Les fournisseurs de services d’hébergement fournissent à tous les destinataires du service affectés un exposé des motifs clair et spécifique pour l’une ou l’autre des restrictions suivantes imposées au motif que les informations fournies par le destinataire du service constituent un contenu illicite ou sont incompatibles avec leurs conditions générales:

a)

toute restriction de la visibilité d’éléments d’information spécifiques fournis par le destinataire du service, y compris le retrait de contenus, le fait de rendre l’accès à des contenus impossible ou le déclassement de contenus;

b)

la suspension, la fin ou autre restriction des paiements monétaires;

c)

la suspension ou la fin, en tout ou en partie, de la fourniture du service;

d)

la suspension ou la suppression du compte du destinataire du service.

2.   Le paragraphe 1 s’applique uniquement lorsque les coordonnées électroniques pertinentes sont connues du fournisseur. Il s’applique au plus tard à compter de la date à laquelle la restriction est imposée, indépendamment de la raison pour laquelle ou de la manière dont elle a été imposée.

Le paragraphe 1 ne s’applique pas lorsque les informations constituent un contenu commercial trompeur et de grande diffusion.

3.   L’exposé des motifs visé au paragraphe 1 comprend au minimum les informations suivantes:

a)

des informations indiquant si la décision implique soit de retirer des informations, de rendre l’accès à celles-ci impossible, de les déclasser, ou de restreindre leur visibilité, soit de suspendre ou de mettre fin aux paiements monétaires liés à ces informations, ou impose d’autres mesures visées au paragraphe 1 en ce qui concerne lesdites informations, et, le cas échéant, le champ d’application territorial de la décision et sa durée;

b)

les faits et circonstances sur base desquels la décision a été prise, y compris, le cas échéant, des informations indiquant si la décision a été prise en vertu d’une notification soumise conformément à l’article 16 ou sur la base d’enquêtes d’initiative volontaires et, lorsque cela est strictement nécessaire, l’identité de la personne à l’origine de la notification;

c)

le cas échéant, des informations relatives à l’utilisation de moyens automatisés pour prendre la décision, y compris des informations indiquant si la décision a été prise à l’égard de contenus détectés ou identifiés par des moyens automatisés;

d)

lorsque la décision concerne des contenus présumés illicites, une référence au fondement juridique sous-jacent et des explications quant aux raisons pour lesquelles ces informations sont considérées comme des contenus illicites sur ce fondement;

e)

lorsque la décision se fonde sur l’incompatibilité alléguée des informations avec les conditions générales du fournisseur de services d’hébergement, une référence aux clauses contractuelles sous-jacentes et des explications quant aux raisons pour lesquelles ces informations sont considérées comme incompatibles avec ces clauses;

f)

des informations claires et aisément compréhensibles relatives aux possibilités de recours à la disposition du destinataire du service en ce qui concerne cette décision, notamment, le cas échéant, par l’intermédiaire de mécanismes internes de traitement des réclamations, d’un règlement extrajudiciaire des litiges et d’un recours juridictionnel.

4.   Les informations fournies par les fournisseurs de services d’hébergement conformément au présent article sont claires et faciles à comprendre et aussi précises et détaillées que cela est raisonnablement possible compte tenu des circonstances données. En particulier, les informations sont de nature à permettre raisonnablement au destinataire du service concerné d’exercer les possibilités de recours visées au paragraphe 3, point f), de manière effective.

5.   Le présent article ne s’applique pas aux injonctions visées à l’article 9.

Article 20

Système interne de traitement des réclamations

1.   Les fournisseurs de plateformes en ligne fournissent aux destinataires du service, y compris aux particuliers ou aux entités qui ont soumis une notification, pour une période d’au moins six mois suivant la décision visée dans le présent paragraphe, l’accès à un système interne de traitement des réclamations efficace qui leur permet d’introduire, par voie électronique et gratuitement, des réclamations contre la décision prise par le fournisseur de la plateforme en ligne à la suite de la réception d’une notification ou contre les décisions suivantes prises par le fournisseur de la plateforme en ligne au motif que les informations fournies par les destinataires constituent un contenu illicite ou qu’elles sont incompatibles avec ses conditions générales:

a)

les décisions sur la question de savoir s’il y a lieu ou non de retirer les informations, de rendre l’accès à celles-ci impossible ou de restreindre leur visibilité;

b)

les décisions sur la question de savoir s’il y a lieu ou non de suspendre ou de mettre fin, en tout ou en partie, à la fourniture du service aux destinataires;

c)

les décisions sur la question de savoir s’il y a lieu ou non de suspendre ou de supprimer le compte des destinataires;

d)

les décisions sur la question de savoir s’il y a lieu ou non de suspendre la capacité de monétiser les informations fournies par les destinataires, de mettre fin à cette capacité ou de restreindre d’une autre manière cette capacité.

2.   La période d’au moins six mois visée au paragraphe 1 du présent article court à partir du jour où le destinataire du service est informé de la décision, conformément à l’article 16, paragraphe 5, ou à l’article 17.

3.   Les fournisseurs de plateformes en ligne veillent à ce que leurs systèmes internes de traitement des réclamations soient d’un accès et d’une utilisation aisés et permettent et facilitent la soumission de réclamations suffisamment précises et dûment étayées.

4.   Les fournisseurs de plateformes en ligne traitent les réclamations soumises par l’intermédiaire de leurs systèmes internes de traitement des réclamations en temps opportun, de manière non discriminatoire, diligente et non arbitraire. Lorsqu’une réclamation contient suffisamment de motifs pour que le fournisseur de la plateforme en ligne considère que sa décision de ne pas agir à la suite de la notification est infondée ou que les informations auxquelles la réclamation se rapporte ne sont pas illicites et ne sont pas incompatibles avec ses conditions générales, ou lorsqu’elle contient des informations indiquant que la conduite du plaignant ne justifie pas la mesure prise, le fournisseur infirme sa décision visée au paragraphe 1 dans les meilleurs délais.

5.   Les fournisseurs de plateformes en ligne informent les plaignants dans les meilleurs délais de la décision motivée qu’ils prennent en ce qui concerne les informations auxquelles la réclamation se rapporte et de la possibilité d’avoir accès à un règlement extrajudiciaire des litiges prévue à l’article 21 et des autres possibilités de recours disponibles.

6.   Les fournisseurs de plateformes en ligne veillent à ce que les décisions visées au paragraphe 5 soient prises sous le contrôle de collaborateurs dûment qualifiés, et pas uniquement par des moyens automatisés.

Article 22

Signaleurs de confiance

1.   Les fournisseurs de plateformes en ligne prennent les mesures techniques et organisationnelles nécessaires pour veiller à ce que les notifications soumises par des signaleurs de confiance, agissant dans leur domaine d’expertise désigné, par l’intermédiaire des mécanismes visés à l’article 16, soient prioritaires et soient traitées et donnent lieu à des décisions dans les meilleurs délais.

2.   Le statut de signaleur de confiance au titre du présent règlement est attribué, sur demande présentée par une entité, quelle qu’elle soit, par le coordinateur pour les services numériques de l’État membre dans lequel l’entité présentant la demande est établie, à l’entité présentant la demande qui a démontré qu’elle remplit l’ensemble des conditions suivantes:

a)

elle dispose d’une expertise et de compétences particulières aux fins de détecter, d’identifier et de notifier des contenus illicites;

b)

elle est indépendante de tout fournisseur de plateformes en ligne;

c)

elle exerce ses activités aux fins de la soumission des notifications de manière diligente, précise et objective.

3.   Les signaleurs de confiance publient, au minimum une fois par an, des rapports détaillés et facilement compréhensibles sur les notifications soumises conformément à l’article 16 pendant la période concernée. Le rapport indique au moins le nombre de notifications, classées selon les critères suivants:

a)

l’identité du fournisseur de services d’hébergement;

b)

le type de contenu présumé illicite notifié;

c)

l’action entreprise par le fournisseur.

Ces rapports comprennent une explication des procédures mises en place pour garantir que le signaleur de confiance conserve son indépendance.

Les signaleurs de confiance envoient ces rapports au coordinateur pour les services numériques qui a attribué le statut de signaleur de confiance et les mettent à la disposition du public. Les informations figurant dans ces rapports ne contiennent pas de données à caractère personnel.

4.   Les coordinateurs pour les services numériques communiquent à la Commission et au comité les noms, adresses postales et adresses de courrier électronique des entités auxquelles ils ont attribué le statut de signaleur de confiance conformément au paragraphe 2 ou dont ils ont suspendu le statut de signaleur de confiance conformément au paragraphe 6 ou révoqué ledit statut conformément au paragraphe 7.

5.   La Commission publie les informations visées au paragraphe 4 dans une base de données mise à la disposition du public, dans un format facilement accessible et lisible par une machine, et tient à jour cette base de données.

6.   Lorsqu’un fournisseur de plateformes en ligne dispose d’informations indiquant qu’un signaleur de confiance a soumis, par l’intermédiaire des mécanismes visés à l’article 16, un nombre significatif de notifications manquant de précision, inexactes ou insuffisamment étayées, notamment des informations recueillies en lien avec le traitement de réclamations par des systèmes internes de traitement des réclamations visés à l’article 20, paragraphe 4, il communique ces informations au coordinateur pour les services numériques qui a attribué le statut de signaleur de confiance à l’entité concernée, en fournissant les explications et les documents justificatifs nécessaires. Dès réception des informations fournies par le fournisseur de plateformes en ligne et si le coordinateur pour les services numériques estime qu’il existe des raisons légitimes d’ouvrir une enquête, le statut de signaleur de confiance est suspendu pendant la durée de l’enquête. Cette enquête est menée dans les meilleurs délais.

7.   Le coordinateur pour les services numériques qui a attribué le statut de signaleur de confiance à une entité révoque ce statut s’il constate, à la suite d’une enquête menée soit de sa propre initiative, soit sur la base d’informations reçues de tiers, y compris les informations fournies par un fournisseur de plateformes en ligne en vertu du paragraphe 6, que l’entité ne remplit plus les conditions énoncées au paragraphe 2. Avant de révoquer ce statut, le coordinateur pour les services numériques donne à l’entité la possibilité de réagir aux conclusions de son enquête et à son intention de révoquer le statut de signaleur de confiance de l’entité.

8.   La Commission, après avoir consulté le comité, publie, si nécessaire, des lignes directrices pour aider les fournisseurs de plateformes en ligne et les coordinateurs pour les services numériques à appliquer les paragraphes 2, 6 et 7.

Article 23

Mesures de lutte et de protection contre les utilisations abusives

1.   Les fournisseurs de plateformes en ligne suspendent, pendant une période raisonnable et après avoir émis un avertissement préalable, la fourniture de leurs services aux destinataires du service qui fournissent fréquemment des contenus manifestement illicites.

2.   Les fournisseurs de plateformes en ligne suspendent, pendant une période raisonnable et après avoir émis un avertissement préalable, le traitement des notifications et des réclamations soumises par l’intermédiaire des mécanismes de notification et d’action et des systèmes internes de traitement des réclamations prévus aux articles 16 et 20, respectivement, par des particuliers, des entités ou des plaignants qui soumettent fréquemment des notifications ou des réclamations manifestement infondées.

3.   Lorsqu’ils décident d’une suspension, les fournisseurs de plateformes en ligne apprécient au cas par cas et en temps opportun, de manière diligente et objective, si le destinataire du service, le particulier, l’entité ou le plaignant se livre aux utilisations abusives visées aux paragraphes 1 et 2, en tenant compte de l’ensemble des faits et circonstances pertinents qui ressortent des informations dont ils disposent. Ces circonstances comprennent au moins les éléments suivants:

a)

le nombre, en valeur absolue, d’éléments de contenus manifestement illicites ou de notifications ou de réclamations manifestement infondées, soumis au cours d’une période donnée;

b)

la proportion relative de ces éléments par rapport au nombre total d’éléments d’information fournis ou de notifications soumises au cours d’une période donnée;

c)

la gravité des utilisations abusives, y compris la nature des contenus illicites, et de leurs conséquences;

d)

lorsqu’il est possible de la déterminer, l’intention du destinataire du service, du particulier, de l’entité ou du plaignant.

4.   Les fournisseurs de plateformes en ligne énoncent de manière claire et détaillée, dans leurs conditions générales, leur politique relative aux utilisations abusives visées aux paragraphes 1 et 2, et donnent des exemples des faits et circonstances dont ils tiennent compte pour apprécier si certains comportements constituent des utilisations abusives et déterminer la durée de la suspension.

Article 35

Atténuation des risques

1.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne mettent en place des mesures d’atténuation raisonnables, proportionnées et efficaces, adaptées aux risques systémiques spécifiques recensés conformément à l’article 34, en tenant compte en particulier de l’incidence de ces mesures sur les droits fondamentaux. Ces mesures peuvent inclure, le cas échéant:

a)

l’adaptation de la conception, des caractéristiques ou du fonctionnement de leurs services, y compris leurs interfaces en ligne;

b)

l’adaptation de leurs conditions générales et de la mise en application de celles-ci;

c)

l’adaptation des processus de modération des contenus, y compris la rapidité et la qualité du traitement des notifications relatives à des types spécifiques de contenus illicites et, le cas échéant, le retrait rapide des contenus qui ont fait l’objet d’une notification ou le blocage de l’accès à ces contenus, en particulier en ce qui concerne les discours haineux illégaux ou la cyberviolence, ainsi que l’adaptation des processus décisionnels pertinents et des ressources dédiées à la modération des contenus;

d)

le test et l’adaptation de leurs systèmes algorithmiques, y compris leurs systèmes de recommandation;

e)

l’adaptation de leurs systèmes de publicité et l’adoption de mesures ciblées destinées à limiter la présentation de publicités, ou à en adapter la présentation, en association avec le service fourni;

f)

le renforcement des processus internes, des ressources, des tests, de la documentation ou de la surveillance d’une quelconque de leurs activités, notamment en ce qui concerne la détection des risques systémiques;

g)

la mise en place d’une coopération avec les signaleurs de confiance, ou l’ajustement de cette coopération, conformément à l’article 22, ainsi que la mise en œuvre des décisions prises par les organes de règlement extrajudiciaire des litiges en vertu de l’article 21;

h)

la mise en place d’une coopération avec d’autres fournisseurs de plateformes en ligne ou de moteurs de recherche en ligne, ou l’ajustement de cette coopération, sur la base des codes de conduite et des protocoles de crise visés aux articles 45 et 48, respectivement;

i)

l’adoption de mesures de sensibilisation et l’adaptation de leur interface en ligne, afin de donner plus d’informations aux destinataires du service;

j)

l’adoption de mesures ciblées visant à protéger les droits de l’enfant, y compris la vérification de l’âge et des outils de contrôle parental, ou des outils permettant d’aider les mineurs à signaler les abus ou à obtenir un soutien, s’il y a lieu;

k)

le recours à un marquage bien visible pour garantir qu’un élément d’information, qu’il s’agisse d’une image, d’un contenu audio ou vidéo généré ou manipulé, qui ressemble nettement à des personnes, à des objets, à des lieux ou à d’autres entités ou événements réels, et apparaît à tort aux yeux d’une personne comme authentique ou digne de foi, est reconnaissable lorsqu’il est présenté sur leurs interfaces en ligne, et, en complément, la mise à disposition d’une fonctionnalité facile d’utilisation permettant aux destinataires du service de signaler ce type d’information.

2.   Le comité, en coopération avec la Commission, publie des rapports exhaustifs une fois par an. Ces rapports comprennent les éléments suivants:

a)

le recensement et l’évaluation des risques systémiques les plus importants et récurrents signalés par les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne ou recensés via d’autres sources d’informations, notamment celles fournies conformément aux articles 39, 40 et 42;

b)

la définition de bonnes pratiques pour les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne en vue de l’atténuation des risques systémiques recensés.

Ces rapports présentent les risques systémiques ventilés par État membre dans lequel ils sont survenus et pour l’ensemble de l’Union, s’il y a lieu.

3.   La Commission, en coopération avec les coordinateurs pour les services numériques, peut publier des lignes directrices sur l’application du paragraphe 1 par rapport à des risques spécifiques, notamment en vue de présenter les bonnes pratiques et de recommander des mesures possibles, en tenant dûment compte des conséquences possibles des mesures sur les droits fondamentaux de toutes les parties concernées consacrés dans la Charte. Dans le cadre de l’élaboration de ces lignes directrices, la Commission organise des consultations publiques.

Article 79

Droit d’être entendu et droit d’accès au dossier

1.   Avant d’adopter une décision au titre de l’article 73, paragraphe 1, de l’article 74 ou de l’article 76, la Commission donne au fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne concerné ou à une autre personne visée à l’article 67, paragraphe 1, l’occasion de faire connaître son point de vue sur:

a)

les constatations préliminaires de la Commission, y compris sur tout grief retenu par la Commission; et

b)

les mesures que la Commission peut avoir l’intention de prendre au vu des constatations préliminaires visées au point a).

2.   Le fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne concerné ou une autre personne visée à l’article 67, paragraphe 1, peut présenter ses observations sur les constatations préliminaires de la Commission dans un délai raisonnable fixé par la Commission dans ses constatations préliminaires et qui ne peut être inférieur à quatorze jours.

3.   La Commission ne fonde ses décisions que sur les griefs au sujet desquels les parties concernées ont pu faire valoir leurs observations.

4.   Les droits de la défense des parties concernées sont pleinement respectés dans le déroulement de la procédure. Les parties ont le droit d’avoir accès au dossier de la Commission conformément aux modalités d’une divulgation négociée, sous réserve de l’intérêt légitime du fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne concerné ou d’une autre personne concernée à ce que leurs secrets d’affaires ne soient pas divulgués. La Commission est habilitée à adopter des décisions fixant ces modalités de divulgation en cas de désaccord entre les parties. Le droit d’accès au dossier de la Commission ne s’étend pas aux informations confidentielles et aux documents internes de la Commission, du comité, des coordinateurs pour les services numériques, d’autres autorités compétentes ou d’autres autorités publiques des États membres. En particulier, le droit d’accès ne s’étend pas à la correspondance entre la Commission et ces autorités. Aucune disposition du présent paragraphe n’empêche la Commission de divulguer et d’utiliser des informations nécessaires pour apporter la preuve d’une infraction.

5.   Les informations recueillies par application des articles 67, 68 et 69 ne sont utilisées qu’aux fins du présent règlement.


whereas









keyboard_arrow_down