search


keyboard_tab Digital Service Act 2022/2065 FR

BG CS DA DE EL EN ES ET FI FR GA HR HU IT LV LT MT NL PL PT RO SK SL SV print pdf

2022/2065 FR cercato: 'systèmes' . Output generated live by software developed by IusOnDemand srl


expand index systèmes:


whereas systèmes:


definitions:


cloud tag: and the number of total unique words without stopwords is: 955

 

Article 15

Obligations en matière de rapports de transparence incombant aux fournisseurs de services intermédiaires

1.   Les fournisseurs de services intermédiaires mettent à la disposition du public, dans un format lisible par une machine et d’une manière facilement accessible, au moins une fois par an, des rapports clairs et facilement compréhensibles sur les éventuelles activités de modération des contenus auxquelles ils se sont livrés au cours de la période concernée. Ces rapports comprennent, en particulier, des informations sur les points suivants, selon le cas:

a)

pour les fournisseurs de services intermédiaires, le nombre d’injonctions reçues des autorités des États membres, y compris les injonctions émises conformément aux articles 9 et 10, classées par type de contenu illicite concerné, l’État membre qui a émis l’injonction et le délai médian nécessaire pour informer de sa réception l’autorité qui a émis l’injonction, ou toute autre autorité spécifiée dans l’injonction, et pour donner suite à l’injonction;

b)

pour les fournisseurs de services d’hébergement, le nombre de notifications soumises conformément à l’article 16, classées par type de contenu présumé illicite concerné, le nombre de notifications soumises par les signaleurs de confiance, toute action entreprise au titre des notifications en précisant si l’action a été entreprise sur la base de la législation ou des conditions générales du fournisseur, le nombre de notifications traitées de manière automatisée et le délai médian nécessaire pour entreprendre l’action;

c)

pour les fournisseurs de services intermédiaires, des informations utiles et compréhensibles sur les activités de modération des contenus auxquelles se sont livrés les fournisseurs de leur propre initiative, y compris l’utilisation d’outils automatisés, les mesures prises pour dispenser une formation et une assistance aux personnes chargées de la modération des contenus, le nombre et le type de mesures prises qui affectent la disponibilité, la visibilité et l’accessibilité des informations fournies par les destinataires du service et sur la capacité des destinataires à fournir des informations par l’intermédiaire du service, ainsi que d’autres restrictions connexes du service; les informations communiquées sont classées par type de contenu illicite ou d’infraction aux conditions générales du fournisseur de services, par méthode de détection et par type de restrictions appliquées;

d)

pour les fournisseurs de services intermédiaires, le nombre de réclamations reçues par l’intermédiaire des systèmes internes de traitement des réclamations conformément aux conditions générales du fournisseur et, en outre, pour les fournisseurs de plateformes en ligne, conformément à l’article 20, le fondement de ces réclamations, les décisions prises concernant ces réclamations, le délai médian nécessaire pour prendre ces décisions et le nombre de cas dans lesquels ces décisions ont été infirmées;

e)

tout recours à des moyens automatisés à des fins de modération des contenus, y compris une description qualitative, une indication des objectifs précis, des indicateurs de la précision et du taux d’erreur possible des moyens automatisés utilisés pour atteindre ces objectifs, et les éventuelles mesures de sauvegarde appliquées.

2.   Le paragraphe 1 du présent article ne s’applique pas aux fournisseurs de services intermédiaires qui peuvent être qualifiés de microentreprises ou de petites entreprises telles qu’elles sont définies dans la recommandation 2003/361/CE et qui ne sont pas de très grandes plateformes en ligne au sens de l’article 33 du présent règlement.

3.   La Commission peut adopter des actes d’exécution pour établir des modèles concernant la forme, le contenu et d’autres détails des rapports au titre du paragraphe 1 du présent article, y compris des périodes harmonisées pour l’établissement des rapports. Ces actes d’exécution sont adoptés en conformité avec la procédure consultative visée à l’article 88.

SECTION 2

Dispositions supplémentaires applicables aux fournisseurs de services d’hébergement, y compris les plateformes en ligne

Article 20

Système interne de traitement des réclamations

1.   Les fournisseurs de plateformes en ligne fournissent aux destinataires du service, y compris aux particuliers ou aux entités qui ont soumis une notification, pour une période d’au moins six mois suivant la décision visée dans le présent paragraphe, l’accès à un système interne de traitement des réclamations efficace qui leur permet d’introduire, par voie électronique et gratuitement, des réclamations contre la décision prise par le fournisseur de la plateforme en ligne à la suite de la réception d’une notification ou contre les décisions suivantes prises par le fournisseur de la plateforme en ligne au motif que les informations fournies par les destinataires constituent un contenu illicite ou qu’elles sont incompatibles avec ses conditions générales:

a)

les décisions sur la question de savoir s’il y a lieu ou non de retirer les informations, de rendre l’accès à celles-ci impossible ou de restreindre leur visibilité;

b)

les décisions sur la question de savoir s’il y a lieu ou non de suspendre ou de mettre fin, en tout ou en partie, à la fourniture du service aux destinataires;

c)

les décisions sur la question de savoir s’il y a lieu ou non de suspendre ou de supprimer le compte des destinataires;

d)

les décisions sur la question de savoir s’il y a lieu ou non de suspendre la capacité de monétiser les informations fournies par les destinataires, de mettre fin à cette capacité ou de restreindre d’une autre manière cette capacité.

2.   La période d’au moins six mois visée au paragraphe 1 du présent article court à partir du jour où le destinataire du service est informé de la décision, conformément à l’article 16, paragraphe 5, ou à l’article 17.

3.   Les fournisseurs de plateformes en ligne veillent à ce que leurs systèmes internes de traitement des réclamations soient d’un accès et d’une utilisation aisés et permettent et facilitent la soumission de réclamations suffisamment précises et dûment étayées.

4.   Les fournisseurs de plateformes en ligne traitent les réclamations soumises par l’intermédiaire de leurs systèmes internes de traitement des réclamations en temps opportun, de manière non discriminatoire, diligente et non arbitraire. Lorsqu’une réclamation contient suffisamment de motifs pour que le fournisseur de la plateforme en ligne considère que sa décision de ne pas agir à la suite de la notification est infondée ou que les informations auxquelles la réclamation se rapporte ne sont pas illicites et ne sont pas incompatibles avec ses conditions générales, ou lorsqu’elle contient des informations indiquant que la conduite du plaignant ne justifie pas la mesure prise, le fournisseur infirme sa décision visée au paragraphe 1 dans les meilleurs délais.

5.   Les fournisseurs de plateformes en ligne informent les plaignants dans les meilleurs délais de la décision motivée qu’ils prennent en ce qui concerne les informations auxquelles la réclamation se rapporte et de la possibilité d’avoir accès à un règlement extrajudiciaire des litiges prévue à l’article 21 et des autres possibilités de recours disponibles.

6.   Les fournisseurs de plateformes en ligne veillent à ce que les décisions visées au paragraphe 5 soient prises sous le contrôle de collaborateurs dûment qualifiés, et pas uniquement par des moyens automatisés.

Article 22

Signaleurs de confiance

1.   Les fournisseurs de plateformes en ligne prennent les mesures techniques et organisationnelles nécessaires pour veiller à ce que les notifications soumises par des signaleurs de confiance, agissant dans leur domaine d’expertise désigné, par l’intermédiaire des mécanismes visés à l’article 16, soient prioritaires et soient traitées et donnent lieu à des décisions dans les meilleurs délais.

2.   Le statut de signaleur de confiance au titre du présent règlement est attribué, sur demande présentée par une entité, quelle qu’elle soit, par le coordinateur pour les services numériques de l’État membre dans lequel l’entité présentant la demande est établie, à l’entité présentant la demande qui a démontré qu’elle remplit l’ensemble des conditions suivantes:

a)

elle dispose d’une expertise et de compétences particulières aux fins de détecter, d’identifier et de notifier des contenus illicites;

b)

elle est indépendante de tout fournisseur de plateformes en ligne;

c)

elle exerce ses activités aux fins de la soumission des notifications de manière diligente, précise et objective.

3.   Les signaleurs de confiance publient, au minimum une fois par an, des rapports détaillés et facilement compréhensibles sur les notifications soumises conformément à l’article 16 pendant la période concernée. Le rapport indique au moins le nombre de notifications, classées selon les critères suivants:

a)

l’identité du fournisseur de services d’hébergement;

b)

le type de contenu présumé illicite notifié;

c)

l’action entreprise par le fournisseur.

Ces rapports comprennent une explication des procédures mises en place pour garantir que le signaleur de confiance conserve son indépendance.

Les signaleurs de confiance envoient ces rapports au coordinateur pour les services numériques qui a attribué le statut de signaleur de confiance et les mettent à la disposition du public. Les informations figurant dans ces rapports ne contiennent pas de données à caractère personnel.

4.   Les coordinateurs pour les services numériques communiquent à la Commission et au comité les noms, adresses postales et adresses de courrier électronique des entités auxquelles ils ont attribué le statut de signaleur de confiance conformément au paragraphe 2 ou dont ils ont suspendu le statut de signaleur de confiance conformément au paragraphe 6 ou révoqué ledit statut conformément au paragraphe 7.

5.   La Commission publie les informations visées au paragraphe 4 dans une base de données mise à la disposition du public, dans un format facilement accessible et lisible par une machine, et tient à jour cette base de données.

6.   Lorsqu’un fournisseur de plateformes en ligne dispose d’informations indiquant qu’un signaleur de confiance a soumis, par l’intermédiaire des mécanismes visés à l’article 16, un nombre significatif de notifications manquant de précision, inexactes ou insuffisamment étayées, notamment des informations recueillies en lien avec le traitement de réclamations par des systèmes internes de traitement des réclamations visés à l’article 20, paragraphe 4, il communique ces informations au coordinateur pour les services numériques qui a attribué le statut de signaleur de confiance à l’entité concernée, en fournissant les explications et les documents justificatifs nécessaires. Dès réception des informations fournies par le fournisseur de plateformes en ligne et si le coordinateur pour les services numériques estime qu’il existe des raisons légitimes d’ouvrir une enquête, le statut de signaleur de confiance est suspendu pendant la durée de l’enquête. Cette enquête est menée dans les meilleurs délais.

7.   Le coordinateur pour les services numériques qui a attribué le statut de signaleur de confiance à une entité révoque ce statut s’il constate, à la suite d’une enquête menée soit de sa propre initiative, soit sur la base d’informations reçues de tiers, y compris les informations fournies par un fournisseur de plateformes en ligne en vertu du paragraphe 6, que l’entité ne remplit plus les conditions énoncées au paragraphe 2. Avant de révoquer ce statut, le coordinateur pour les services numériques donne à l’entité la possibilité de réagir aux conclusions de son enquête et à son intention de révoquer le statut de signaleur de confiance de l’entité.

8.   La Commission, après avoir consulté le comité, publie, si nécessaire, des lignes directrices pour aider les fournisseurs de plateformes en ligne et les coordinateurs pour les services numériques à appliquer les paragraphes 2, 6 et 7.

Article 23

Mesures de lutte et de protection contre les utilisations abusives

1.   Les fournisseurs de plateformes en ligne suspendent, pendant une période raisonnable et après avoir émis un avertissement préalable, la fourniture de leurs services aux destinataires du service qui fournissent fréquemment des contenus manifestement illicites.

2.   Les fournisseurs de plateformes en ligne suspendent, pendant une période raisonnable et après avoir émis un avertissement préalable, le traitement des notifications et des réclamations soumises par l’intermédiaire des mécanismes de notification et d’action et des systèmes internes de traitement des réclamations prévus aux articles 16 et 20, respectivement, par des particuliers, des entités ou des plaignants qui soumettent fréquemment des notifications ou des réclamations manifestement infondées.

3.   Lorsqu’ils décident d’une suspension, les fournisseurs de plateformes en ligne apprécient au cas par cas et en temps opportun, de manière diligente et objective, si le destinataire du service, le particulier, l’entité ou le plaignant se livre aux utilisations abusives visées aux paragraphes 1 et 2, en tenant compte de l’ensemble des faits et circonstances pertinents qui ressortent des informations dont ils disposent. Ces circonstances comprennent au moins les éléments suivants:

a)

le nombre, en valeur absolue, d’éléments de contenus manifestement illicites ou de notifications ou de réclamations manifestement infondées, soumis au cours d’une période donnée;

b)

la proportion relative de ces éléments par rapport au nombre total d’éléments d’information fournis ou de notifications soumises au cours d’une période donnée;

c)

la gravité des utilisations abusives, y compris la nature des contenus illicites, et de leurs conséquences;

d)

lorsqu’il est possible de la déterminer, l’intention du destinataire du service, du particulier, de l’entité ou du plaignant.

4.   Les fournisseurs de plateformes en ligne énoncent de manière claire et détaillée, dans leurs conditions générales, leur politique relative aux utilisations abusives visées aux paragraphes 1 et 2, et donnent des exemples des faits et circonstances dont ils tiennent compte pour apprécier si certains comportements constituent des utilisations abusives et déterminer la durée de la suspension.

Article 27

Transparence du système de recommandation

1.   Les fournisseurs de plateformes en ligne qui utilisent des systèmes de recommandation établissent dans leurs conditions générales, dans un langage simple et compréhensible, les principaux paramètres utilisés dans leurs systèmes de recommandation, ainsi que les options dont disposent les destinataires du service pour modifier ou influencer ces principaux paramètres.

2.   Les principaux paramètres visés au paragraphe 1 expliquent pourquoi certaines informations sont suggérées au destinataire du service. Ils précisent, au minimum:

a)

les critères les plus importants pour déterminer les informations suggérées au destinataire du service;

b)

les raisons de l’importance relative de ces paramètres.

3.   Lorsque plusieurs options sont disponibles conformément au paragraphe 1 pour les systèmes de recommandation qui déterminent l’ordre relatif des informations présentées aux destinataires du service, les fournisseurs de plateformes en ligne prévoient également une fonctionnalité permettant aux destinataires du service de sélectionner et de modifier à tout moment leur option favorite. Cette fonctionnalité est directement et aisément accessible dans la rubrique spécifique de l’interface de la plateforme en ligne où les informations sont hiérarchisées.

Article 34

Évaluation des risques

1.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne recensent, analysent et évaluent de manière diligente tout risque systémique au sein de l’Union découlant de la conception ou du fonctionnement de leurs services et de leurs systèmes connexes, y compris des systèmes algorithmiques, ou de l’utilisation faite de leurs services.

Ils procèdent aux évaluations des risques au plus tard à la date d’application visée à l’article 33, paragraphe 6, deuxième alinéa, puis au moins une fois par an, et en tout état de cause avant de déployer des fonctionnalités susceptibles d’avoir une incidence critique sur les risques recensés en vertu du présent article. Cette évaluation des risques est spécifique à leurs services et proportionnée aux risques systémiques, de la gravité et de la probabilité desquels elle tient compte, et comprend les risques systémiques suivants:

a)

la diffusion de contenus illicites par l’intermédiaire de leurs services;

b)

tout effet négatif réel ou prévisible pour l’exercice des droits fondamentaux, en particulier le droit fondamental à la dignité humaine consacré à l’article 1er de la Charte, au respect de la vie privée et familiale consacré à l’article 7 de la Charte, à la protection des données à caractère personnel consacré à l’article 8 de la Charte, à la liberté d’expression et d’information, y compris la liberté et le pluralisme des médias, consacré à l’article 11 de la Charte, et à la non-discrimination consacré à l’article 21 de la Charte, les droits fondamentaux relatifs aux droits de l’enfant consacrés à l’article 24 de la Charte et le droit fondamental à un niveau élevé de protection des consommateurs consacré à l’article 38 de la Charte;

c)

tout effet négatif réel ou prévisible sur le discours civique, les processus électoraux et la sécurité publique;

d)

tout effet négatif réel ou prévisible lié aux violences sexistes et à la protection de la santé publique et des mineurs et les conséquences négatives graves sur le bien-être physique et mental des personnes.

2.   Lorsqu’ils procèdent à des évaluations des risques, les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne examinent notamment si et comment les facteurs suivants influencent les risques systémiques visés au paragraphe 1 et en tiennent compte:

a)

la conception de leurs systèmes de recommandation et de tout autre système algorithmique pertinent;

b)

leurs systèmes de modération des contenus;

c)

les conditions générales applicables et leur mise en application;

d)

les systèmes de sélection et de présentation de la publicité;

e)

les pratiques du fournisseur en matière de données.

Les évaluations examinent également si et comment les risques visés au paragraphe 1 sont influencés par la manipulation intentionnelle du service desdits fournisseurs, y compris par l’utilisation non authentique ou l’exploitation automatisée du service, ainsi que par l’amplification et la diffusion potentiellement rapide et à grande échelle de contenus illicites et d’informations incompatibles avec leurs conditions générales.

L’évaluation tient compte des aspects régionaux ou linguistiques spécifiques, y compris lorsqu’ils sont propres à un État membre.

3.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne conservent les documents justificatifs des évaluations des risques pendant au moins trois ans après la réalisation de ces évaluations, et les communiquent à la Commission et au coordinateur pour les services numériques de l’État membre d’établissement, à leur demande.

Article 35

Atténuation des risques

1.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne mettent en place des mesures d’atténuation raisonnables, proportionnées et efficaces, adaptées aux risques systémiques spécifiques recensés conformément à l’article 34, en tenant compte en particulier de l’incidence de ces mesures sur les droits fondamentaux. Ces mesures peuvent inclure, le cas échéant:

a)

l’adaptation de la conception, des caractéristiques ou du fonctionnement de leurs services, y compris leurs interfaces en ligne;

b)

l’adaptation de leurs conditions générales et de la mise en application de celles-ci;

c)

l’adaptation des processus de modération des contenus, y compris la rapidité et la qualité du traitement des notifications relatives à des types spécifiques de contenus illicites et, le cas échéant, le retrait rapide des contenus qui ont fait l’objet d’une notification ou le blocage de l’accès à ces contenus, en particulier en ce qui concerne les discours haineux illégaux ou la cyberviolence, ainsi que l’adaptation des processus décisionnels pertinents et des ressources dédiées à la modération des contenus;

d)

le test et l’adaptation de leurs systèmes algorithmiques, y compris leurs systèmes de recommandation;

e)

l’adaptation de leurs systèmes de publicité et l’adoption de mesures ciblées destinées à limiter la présentation de publicités, ou à en adapter la présentation, en association avec le service fourni;

f)

le renforcement des processus internes, des ressources, des tests, de la documentation ou de la surveillance d’une quelconque de leurs activités, notamment en ce qui concerne la détection des risques systémiques;

g)

la mise en place d’une coopération avec les signaleurs de confiance, ou l’ajustement de cette coopération, conformément à l’article 22, ainsi que la mise en œuvre des décisions prises par les organes de règlement extrajudiciaire des litiges en vertu de l’article 21;

h)

la mise en place d’une coopération avec d’autres fournisseurs de plateformes en ligne ou de moteurs de recherche en ligne, ou l’ajustement de cette coopération, sur la base des codes de conduite et des protocoles de crise visés aux articles 45 et 48, respectivement;

i)

l’adoption de mesures de sensibilisation et l’adaptation de leur interface en ligne, afin de donner plus d’informations aux destinataires du service;

j)

l’adoption de mesures ciblées visant à protéger les droits de l’enfant, y compris la vérification de l’âge et des outils de contrôle parental, ou des outils permettant d’aider les mineurs à signaler les abus ou à obtenir un soutien, s’il y a lieu;

k)

le recours à un marquage bien visible pour garantir qu’un élément d’information, qu’il s’agisse d’une image, d’un contenu audio ou vidéo généré ou manipulé, qui ressemble nettement à des personnes, à des objets, à des lieux ou à d’autres entités ou événements réels, et apparaît à tort aux yeux d’une personne comme authentique ou digne de foi, est reconnaissable lorsqu’il est présenté sur leurs interfaces en ligne, et, en complément, la mise à disposition d’une fonctionnalité facile d’utilisation permettant aux destinataires du service de signaler ce type d’information.

2.   Le comité, en coopération avec la Commission, publie des rapports exhaustifs une fois par an. Ces rapports comprennent les éléments suivants:

a)

le recensement et l’évaluation des risques systémiques les plus importants et récurrents signalés par les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne ou recensés via d’autres sources d’informations, notamment celles fournies conformément aux articles 39, 40 et 42;

b)

la définition de bonnes pratiques pour les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne en vue de l’atténuation des risques systémiques recensés.

Ces rapports présentent les risques systémiques ventilés par État membre dans lequel ils sont survenus et pour l’ensemble de l’Union, s’il y a lieu.

3.   La Commission, en coopération avec les coordinateurs pour les services numériques, peut publier des lignes directrices sur l’application du paragraphe 1 par rapport à des risques spécifiques, notamment en vue de présenter les bonnes pratiques et de recommander des mesures possibles, en tenant dûment compte des conséquences possibles des mesures sur les droits fondamentaux de toutes les parties concernées consacrés dans la Charte. Dans le cadre de l’élaboration de ces lignes directrices, la Commission organise des consultations publiques.

Article 38

systèmes de recommandation

Outre les exigences prévues à l’article 27, les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne qui utilisent des systèmes de recommandation proposent au moins une option pour chacun de leurs systèmes de recommandation qui ne repose pas sur du profilage, tel qu’il est défini à l’article 4, point 4), du règlement (UE) 2016/679.

Article 40

Accès aux données et contrôle des données

1.   Les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne donnent au coordinateur pour les services numériques de l’État membre d’établissement ou à la Commission, à leur demande motivée et dans un délai raisonnable spécifié dans cette demande, l’accès aux données nécessaires pour contrôler et évaluer le respect du présent règlement.

2.   Les coordinateurs pour les services numériques et la Commission n’utilisent les données auxquelles ils ont eu accès conformément au paragraphe 1 qu’à des fins de contrôle et d’évaluation du respect du présent règlement et tiennent dûment compte des droits et intérêts des fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne et des destinataires du service concerné, y compris la protection des données à caractère personnel, la protection des informations confidentielles, en particulier les secrets d’affaires, et le maintien de la sécurité de leur service.

3.   Aux fins du paragraphe 1, les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne expliquent, à la demande du coordinateur pour les services numériques de l’État membre d’établissement ou de la Commission, la conception, la logique, le fonctionnement et la procédure de test de leurs systèmes algorithmiques, y compris leurs systèmes de recommandation.

4.   Sur demande motivée du coordinateur pour les services numériques de l’État membre d’établissement, les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne fournissent, dans un délai raisonnable spécifié dans la demande, l’accès aux données à des chercheurs agréés qui satisfont aux exigences énoncées au paragraphe 8 du présent article, à la seule fin de procéder à des recherches contribuant à la détection, au recensement et à la compréhension des risques systémiques dans l’Union tels qu’ils sont énoncés à l’article 34, paragraphe 1, ainsi qu’à l’évaluation du caractère adéquat, de l’efficacité et des effets des mesures d’atténuation des risques prises en vertu de l’article 35.

5.   Dans les quinze jours suivant la réception d’une demande visée au paragraphe 4, les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne peuvent demander au coordinateur pour les services numériques de l’État membre d’établissement de modifier la demande, lorsqu’ils considèrent ne pas être en mesure de fournir l’accès aux données demandées pour une des deux raisons suivantes:

a)

ils n’ont pas accès aux données;

b)

fournir l’accès aux données entraînera d’importantes vulnérabilités pour la sécurité de leur service ou la protection d’informations confidentielles, en particulier des secrets d’affaires.

6.   Les demandes de modification en vertu du paragraphe 5 contiennent des propositions exposant une ou plusieurs solutions alternatives qui permettent de donner accès aux données demandées ou à d’autres données appropriées et suffisantes aux fins de la demande.

Le coordinateur pour les services numériques de l’État membre d’établissement se prononce sur la demande de modification dans les quinze jours et communique au fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne sa décision et, le cas échéant, la demande modifiée et le nouveau délai pour donner suite à la demande.

7.   Les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne facilitent et fournissent l’accès aux données conformément aux paragraphes 1 et 4 par l’intermédiaire d’interfaces appropriées spécifiées dans la demande, y compris des bases de données en ligne ou des interfaces de programmation d’application.

8.   Sur demande dûment motivée de chercheurs, le coordinateur pour les services numériques de l’État membre d’établissement accorde auxdits chercheurs le statut de chercheurs agréés pour la recherche spécifique visée dans la demande et adresse une demande motivée d’accès aux données au fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne conformément au paragraphe 4, lorsque les chercheurs démontrent qu’ils remplissent l’ensemble des conditions suivantes:

a)

ils sont affiliés à un organisme de recherche tel qu’il est défini à l’article 2, point 1), de la directive (UE) 2019/790;

b)

ils sont indépendants de tous intérêts commerciaux;

c)

leur demande indique la source de financement des recherches;

d)

ils sont à même de respecter les exigences spécifiques en matière de sécurité et de confidentialité des données correspondant à chaque demande ainsi que de protéger les données à caractère personnel, et ils décrivent dans leur demande les mesures techniques et organisationnelles appropriées qu’ils ont mis en place à cet effet;

e)

dans leur demande, ils démontrent que leur accès aux données et les périodes d’accès demandées sont nécessaires et proportionnés aux fins poursuivies par leur recherche et que les résultats escomptés de cette recherche contribueront aux fins énoncées au paragraphe 4;

f)

les activités de recherche prévues sont menées aux fins énoncées au paragraphe 4;

g)

ils se sont engagés à mettre gratuitement à la disposition du public les résultats de leurs recherches dans un délai raisonnable après l’achèvement de celles-ci, sous réserve des droits et des intérêts des destinataires du service concerné, conformément au règlement (UE) 2016/679.

Dès réception de la demande visée au présent paragraphe, le coordinateur pour les services numériques de l’État membre d’établissement informe la Commission et le comité.

9.   Les chercheurs peuvent également soumettre leur demande au coordinateur pour les services numériques de l’État membre de l’organisme de recherche auquel ils sont affiliés. Dès réception de la demande visée au présent paragraphe, le coordinateur pour les services numériques procède à une évaluation initiale visant à déterminer si les différents chercheurs remplissent toutes les conditions énoncées au paragraphe 8. Le coordinateur pour les services numériques concerné envoie la demande, accompagnée des documents justificatifs présentés par les chercheurs ainsi que de l’évaluation initiale, au coordinateur pour les services numériques de l’État membre d’établissement. Le coordinateur pour les services numériques de l’État membre d’établissement adopte dans les meilleurs délais, une décision quant à l’octroi à un chercheur du statut de chercheur agréé.

Tout en tenant dûment compte de l’évaluation initiale fournie, la décision finale d’octroyer à un chercheur le statut de chercheur agréé relève de la compétence du coordinateur pour les services numériques de l’État membre d’établissement, conformément au paragraphe 8.

10.   Le coordinateur pour les services numériques ayant octroyé le statut de chercheur agréé et adressé la demande motivée d’accès aux données aux fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne en faveur d’un chercheur agréé, adopte une décision mettant fin à cet accès s’il constate, à la suite d’une enquête menée soit de sa propre initiative, soit sur la base d’informations reçues de tiers, que le chercheur agréé ne remplit plus les conditions établies au paragraphe 8, et informe le fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne concerné de sa décision. Avant de mettre fin à l’accès, le coordinateur pour les services numériques donne au chercheur agréé la possibilité de réagir aux conclusions de l’enquête et à son intention de mettre fin à l’accès.

11.   Les coordinateurs pour les services numériques de l’État membre d’établissement communiquent au comité les noms et les coordonnées des personnes physiques ou des entités auxquelles ils ont accordé le statut de chercheur agréé conformément au paragraphe 8, ainsi que l’objet de la recherche pour laquelle la demande a été soumise, ou l’informent qu’ils ont mis fin à l’accès aux données conformément au paragraphe 10 si c’est le cas.

12.   Les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne donnent accès, sans retard injustifié, aux données, y compris, lorsque cela est techniquement possible, aux données en temps réel, à condition que ces données soient publiquement accessibles sur leur interface en ligne aux chercheurs, y compris ceux qui sont affiliés à des organismes et des associations à but non lucratif, qui remplissent les conditions énoncées au paragraphe 8, points b), c), d) et e), et qui utilisent les données uniquement à des fins de recherches contribuant à la détection, à la détermination et à la compréhension des risques systémiques dans l’Union en vertu de l’article 34, paragraphe 1.

13.   Après consultation du comité, la Commission adopte des actes délégués qui complètent le présent règlement en établissant les conditions techniques dans lesquelles les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne partagent des données en vertu des paragraphes 1 et 4 et les fins auxquelles ces données peuvent être utilisées. Ces actes délégués établissent les conditions spécifiques dans lesquelles un tel partage de données avec des chercheurs peut avoir lieu en conformité avec le règlement (UE) 2016/679, ainsi que les indicateurs objectifs pertinents, les procédures et, si nécessaire, les mécanismes consultatifs indépendants à l’appui du partage de données, en tenant compte des droits et des intérêts des fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne et des destinataires du service concernés, y compris la protection des informations confidentielles, notamment les secrets d’affaires, et en préservant la sécurité de leur service.

Article 44

Normes

1.   La Commission consulte le comité et soutient et encourage le développement ainsi que la mise en œuvre de normes volontaires établies par les organismes de normalisation européens et internationaux pertinents, au minimum pour les aspects suivants:

a)

la soumission électronique des notifications au titre de l’article 16;

b)

les modèles et les normes de conception et de procédure à employer pour communiquer avec les destinataires du service de manière conviviale sur les restrictions résultant des conditions générales et les modifications qui leur sont apportées;

c)

la soumission électronique des notifications par les signaleurs de confiance au titre de l’article 22, y compris par l’intermédiaire d’interfaces de programme d’application;

d)

les interfaces spécifiques, y compris les interfaces de programme d’application, visant à faciliter le respect des obligations établies aux articles 39 et 40;

e)

l’audit des très grandes plateformes en ligne et des très grands moteurs de recherche en ligne au titre de l’article 37;

f)

l’interopérabilité des registres de publicités visés à l’article 39, paragraphe 2;

g)

la transmission de données entre les intermédiaires de publicité aux fins des obligations de transparence en vertu de l’article 26, paragraphe 1, points b), c) et d);

h)

les mesures techniques permettant de satisfaire aux obligations relatives à la publicité contenues dans le présent règlement, y compris les obligations relatives aux marquages bien visibles à employer pour les publicités et les communications commerciales visées à l’article 26;

i)

les interfaces de choix et la présentation des informations sur les principaux paramètres des différents types de systèmes de recommandation, conformément aux articles 27 et 38;

j)

les normes applicables aux mesures ciblées destinées à protéger les mineurs en ligne.

2.   La Commission soutient la mise à jour des normes à la lumière des évolutions technologiques et du comportement des destinataires des services en question. Les informations pertinentes concernant la mise à jour des normes sont mises à la disposition du public et facilement accessibles.

Article 85

Système de partage d’informations

1.   La Commission met en place et maintient un système de partage d’informations fiable et sûr facilitant les communications entre les coordinateurs pour les services numériques, la Commission et le comité. D’autres autorités compétentes peuvent se voir accorder l’accès à ce système, lorsque cela s’avère nécessaire pour l’accomplissement des tâches qui leur sont confiées conformément au présent règlement.

2.   Les coordinateurs pour les services numériques, la Commission et le comité utilisent le système de partage d’informations pour toutes les communications au titre du présent règlement.

3.   La Commission adopte des actes d’exécution établissant les modalités pratiques et opérationnelles du fonctionnement du système de partage d’informations et de son interopérabilité avec d’autres systèmes pertinents. Ces actes d’exécution sont adoptés en conformité avec la procédure consultative visée à l’article 88.


whereas









keyboard_arrow_down