search


keyboard_tab Digital Service Act 2022/2065 FR

BG CS DA DE EL EN ES ET FI FR GA HR HU IT LV LT MT NL PL PT RO SK SL SV print pdf

2022/2065 FR cercato: 'présentation' . Output generated live by software developed by IusOnDemand srl


expand index présentation:

    CHAPITRE I
    DISPOSITIONS GÉNÉRALES

    CHAPITRE II
    RESPONSABILITE DES FOURNISSEURS DE SERVICES INTERMÉDIAIRES

    CHAPITRE III
    OBLIGATIONS DE DILIGENCE POUR UN ENVIRONNEMENT EN LIGNE SÛR ET TRANSPARENT

    SECTION 1
    Dispositions applicables à tous les fournisseurs de services intermédiaires

    SECTION 2
    Dispositions supplémentaires applicables aux fournisseurs de services d’hébergement, y compris les plateformes en ligne

    SECTION 3
    Dispositions supplémentaires applicables aux fournisseurs de plateformes en ligne

    SECTION 4
    Dispositions supplémentaires applicables aux fournisseurs de plateformes en ligne permettant aux consommateurs de conclure des contrats à distance avec des professionnels

    SECTION 5
    Obligations supplémentaires de gestion des risques systémiques imposées aux fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne
  • 1 Art. 34 Évaluation des risques
  • 2 Art. 35 Atténuation des risques
  • 1 Art. 39 Transparence renforcée de la publicité en ligne

  • SECTION 6
    Autres dispositions concernant les obligations de diligence
  • 1 Art. 44 Normes
  • 2 Art. 45 Codes de conduite

  • CHAPITRE IV
    MISE EN ŒUVRE, COOPÉRATION, SANCTIONS ET EXÉCUTION

    SECTION 1
    Autorités compétentes et coordinateurs nationaux pour les services numériques

    SECTION 2
    Compétences, enquête coordonnée et mécanismes de contrôle de la cohérence

    SECTION 3
    Comité européen des services numériques

    SECTION 4
    Surveillance, enquêtes, exécution et contrôle concernant les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne
  • 1 Art. 69 Pouvoir d’effectuer des inspections

  • SECTION 5
    Dispositions communes relatives à l’exécution

    SECTION 6
    Actes délégués et actes d’exécution
  • 2 Art. 86 Représentation

  • CHAPITRE V
    DISPOSITIONS FINALES


whereas présentation:


definitions:


cloud tag: and the number of total unique words without stopwords is: 792

 

Article 34

Évaluation des risques

1.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne recensent, analysent et évaluent de manière diligente tout risque systémique au sein de l’Union découlant de la conception ou du fonctionnement de leurs services et de leurs systèmes connexes, y compris des systèmes algorithmiques, ou de l’utilisation faite de leurs services.

Ils procèdent aux évaluations des risques au plus tard à la date d’application visée à l’article 33, paragraphe 6, deuxième alinéa, puis au moins une fois par an, et en tout état de cause avant de déployer des fonctionnalités susceptibles d’avoir une incidence critique sur les risques recensés en vertu du présent article. Cette évaluation des risques est spécifique à leurs services et proportionnée aux risques systémiques, de la gravité et de la probabilité desquels elle tient compte, et comprend les risques systémiques suivants:

a)

la diffusion de contenus illicites par l’intermédiaire de leurs services;

b)

tout effet négatif réel ou prévisible pour l’exercice des droits fondamentaux, en particulier le droit fondamental à la dignité humaine consacré à l’article 1er de la Charte, au respect de la vie privée et familiale consacré à l’article 7 de la Charte, à la protection des données à caractère personnel consacré à l’article 8 de la Charte, à la liberté d’expression et d’information, y compris la liberté et le pluralisme des médias, consacré à l’article 11 de la Charte, et à la non-discrimination consacré à l’article 21 de la Charte, les droits fondamentaux relatifs aux droits de l’enfant consacrés à l’article 24 de la Charte et le droit fondamental à un niveau élevé de protection des consommateurs consacré à l’article 38 de la Charte;

c)

tout effet négatif réel ou prévisible sur le discours civique, les processus électoraux et la sécurité publique;

d)

tout effet négatif réel ou prévisible lié aux violences sexistes et à la protection de la santé publique et des mineurs et les conséquences négatives graves sur le bien-être physique et mental des personnes.

2.   Lorsqu’ils procèdent à des évaluations des risques, les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne examinent notamment si et comment les facteurs suivants influencent les risques systémiques visés au paragraphe 1 et en tiennent compte:

a)

la conception de leurs systèmes de recommandation et de tout autre système algorithmique pertinent;

b)

leurs systèmes de modération des contenus;

c)

les conditions générales applicables et leur mise en application;

d)

les systèmes de sélection et de présentation de la publicité;

e)

les pratiques du fournisseur en matière de données.

Les évaluations examinent également si et comment les risques visés au paragraphe 1 sont influencés par la manipulation intentionnelle du service desdits fournisseurs, y compris par l’utilisation non authentique ou l’exploitation automatisée du service, ainsi que par l’amplification et la diffusion potentiellement rapide et à grande échelle de contenus illicites et d’informations incompatibles avec leurs conditions générales.

L’évaluation tient compte des aspects régionaux ou linguistiques spécifiques, y compris lorsqu’ils sont propres à un État membre.

3.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne conservent les documents justificatifs des évaluations des risques pendant au moins trois ans après la réalisation de ces évaluations, et les communiquent à la Commission et au coordinateur pour les services numériques de l’État membre d’établissement, à leur demande.

Article 35

Atténuation des risques

1.   Les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne mettent en place des mesures d’atténuation raisonnables, proportionnées et efficaces, adaptées aux risques systémiques spécifiques recensés conformément à l’article 34, en tenant compte en particulier de l’incidence de ces mesures sur les droits fondamentaux. Ces mesures peuvent inclure, le cas échéant:

a)

l’adaptation de la conception, des caractéristiques ou du fonctionnement de leurs services, y compris leurs interfaces en ligne;

b)

l’adaptation de leurs conditions générales et de la mise en application de celles-ci;

c)

l’adaptation des processus de modération des contenus, y compris la rapidité et la qualité du traitement des notifications relatives à des types spécifiques de contenus illicites et, le cas échéant, le retrait rapide des contenus qui ont fait l’objet d’une notification ou le blocage de l’accès à ces contenus, en particulier en ce qui concerne les discours haineux illégaux ou la cyberviolence, ainsi que l’adaptation des processus décisionnels pertinents et des ressources dédiées à la modération des contenus;

d)

le test et l’adaptation de leurs systèmes algorithmiques, y compris leurs systèmes de recommandation;

e)

l’adaptation de leurs systèmes de publicité et l’adoption de mesures ciblées destinées à limiter la présentation de publicités, ou à en adapter la présentation, en association avec le service fourni;

f)

le renforcement des processus internes, des ressources, des tests, de la documentation ou de la surveillance d’une quelconque de leurs activités, notamment en ce qui concerne la détection des risques systémiques;

g)

la mise en place d’une coopération avec les signaleurs de confiance, ou l’ajustement de cette coopération, conformément à l’article 22, ainsi que la mise en œuvre des décisions prises par les organes de règlement extrajudiciaire des litiges en vertu de l’article 21;

h)

la mise en place d’une coopération avec d’autres fournisseurs de plateformes en ligne ou de moteurs de recherche en ligne, ou l’ajustement de cette coopération, sur la base des codes de conduite et des protocoles de crise visés aux articles 45 et 48, respectivement;

i)

l’adoption de mesures de sensibilisation et l’adaptation de leur interface en ligne, afin de donner plus d’informations aux destinataires du service;

j)

l’adoption de mesures ciblées visant à protéger les droits de l’enfant, y compris la vérification de l’âge et des outils de contrôle parental, ou des outils permettant d’aider les mineurs à signaler les abus ou à obtenir un soutien, s’il y a lieu;

k)

le recours à un marquage bien visible pour garantir qu’un élément d’information, qu’il s’agisse d’une image, d’un contenu audio ou vidéo généré ou manipulé, qui ressemble nettement à des personnes, à des objets, à des lieux ou à d’autres entités ou événements réels, et apparaît à tort aux yeux d’une personne comme authentique ou digne de foi, est reconnaissable lorsqu’il est présenté sur leurs interfaces en ligne, et, en complément, la mise à disposition d’une fonctionnalité facile d’utilisation permettant aux destinataires du service de signaler ce type d’information.

2.   Le comité, en coopération avec la Commission, publie des rapports exhaustifs une fois par an. Ces rapports comprennent les éléments suivants:

a)

le recensement et l’évaluation des risques systémiques les plus importants et récurrents signalés par les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne ou recensés via d’autres sources d’informations, notamment celles fournies conformément aux articles 39, 40 et 42;

b)

la définition de bonnes pratiques pour les fournisseurs de très grandes plateformes en ligne et de très grands moteurs de recherche en ligne en vue de l’atténuation des risques systémiques recensés.

Ces rapports présentent les risques systémiques ventilés par État membre dans lequel ils sont survenus et pour l’ensemble de l’Union, s’il y a lieu.

3.   La Commission, en coopération avec les coordinateurs pour les services numériques, peut publier des lignes directrices sur l’application du paragraphe 1 par rapport à des risques spécifiques, notamment en vue de présenter les bonnes pratiques et de recommander des mesures possibles, en tenant dûment compte des conséquences possibles des mesures sur les droits fondamentaux de toutes les parties concernées consacrés dans la Charte. Dans le cadre de l’élaboration de ces lignes directrices, la Commission organise des consultations publiques.

Article 39

Transparence renforcée de la publicité en ligne

1.   Les fournisseurs de très grandes plateformes en ligne ou de très grands moteurs de recherche en ligne présentant de la publicité sur leurs interfaces en ligne tiennent et mettent à la disposition du public, dans une section spécifique de leur interface en ligne, à l’aide d’un outil de recherche fiable permettant d’effectuer des recherches multicritères et par l’intermédiaire d’interfaces de programme d’application, un registre contenant les informations visées au paragraphe 2, pour toute la période pendant laquelle ils présentent une publicité et jusqu’à un an après la dernière présentation de la publicité sur leurs interfaces en ligne. Ils veillent à ce que ce registre ne contienne aucune donnée à caractère personnel des destinataires du service auxquels la publicité a été ou aurait pu être présentée et s’efforcent, dans la mesure du raisonnable, de s’assurer de l’exactitude et de l’exhaustivité des informations.

2.   Ce registre contient au moins toutes les informations suivantes:

a)

le contenu de la publicité, y compris le nom du produit, du service ou de la marque, ainsi que l’objet de la publicité;

b)

la personne physique ou morale pour le compte de laquelle la publicité est présentée;

c)

la personne physique ou morale qui a payé la publicité, si cette personne est différente de celle visée au point b);

d)

la période au cours de laquelle la publicité a été présentée;

e)

le fait que la publicité était ou non destinée à être présentée spécifiquement à un ou plusieurs groupes particuliers de destinataires du service et, dans l’affirmative, les principaux paramètres utilisés à cette fin, y compris, s’il y a lieu, les principaux paramètres utilisés pour exclure un ou plusieurs de ces groupes particuliers;

f)

les communications commerciales publiées sur les très grandes plateformes en ligne et déterminées en vertu de l’article 26, paragraphe 2;

g)

le nombre total de destinataires du service atteint et, le cas échéant, les nombres totaux ventilés par État membre pour le ou les groupes de destinataires que la publicité ciblait spécifiquement.

3.   En ce qui concerne le paragraphe 2, points a), b) et c), lorsque le fournisseur d’une très grande plateforme en ligne ou d’un très grand moteur de recherche en ligne retire une publicité spécifique sur la base d’une allégation d’illégalité ou d’incompatibilité avec ses conditions générales ou rend impossible l’accès à cette publicité, le registre ne contient pas les informations visées dans lesdits points. Dans ce cas, le registre contient, pour la publicité spécifique concernée, les informations visées, selon le cas, à l’article 17, paragraphe 3, points a) à e), ou à l’article 9, paragraphe 2, point a) i).

La Commission peut, après consultation du comité, des chercheurs agréés visés à l’article 40 et du public, formuler des lignes directrices sur la structure, l’organisation et les fonctionnalités des registres visés dans le présent article.

Article 44

Normes

1.   La Commission consulte le comité et soutient et encourage le développement ainsi que la mise en œuvre de normes volontaires établies par les organismes de normalisation européens et internationaux pertinents, au minimum pour les aspects suivants:

a)

la soumission électronique des notifications au titre de l’article 16;

b)

les modèles et les normes de conception et de procédure à employer pour communiquer avec les destinataires du service de manière conviviale sur les restrictions résultant des conditions générales et les modifications qui leur sont apportées;

c)

la soumission électronique des notifications par les signaleurs de confiance au titre de l’article 22, y compris par l’intermédiaire d’interfaces de programme d’application;

d)

les interfaces spécifiques, y compris les interfaces de programme d’application, visant à faciliter le respect des obligations établies aux articles 39 et 40;

e)

l’audit des très grandes plateformes en ligne et des très grands moteurs de recherche en ligne au titre de l’article 37;

f)

l’interopérabilité des registres de publicités visés à l’article 39, paragraphe 2;

g)

la transmission de données entre les intermédiaires de publicité aux fins des obligations de transparence en vertu de l’article 26, paragraphe 1, points b), c) et d);

h)

les mesures techniques permettant de satisfaire aux obligations relatives à la publicité contenues dans le présent règlement, y compris les obligations relatives aux marquages bien visibles à employer pour les publicités et les communications commerciales visées à l’article 26;

i)

les interfaces de choix et la présentation des informations sur les principaux paramètres des différents types de systèmes de recommandation, conformément aux articles 27 et 38;

j)

les normes applicables aux mesures ciblées destinées à protéger les mineurs en ligne.

2.   La Commission soutient la mise à jour des normes à la lumière des évolutions technologiques et du comportement des destinataires des services en question. Les informations pertinentes concernant la mise à jour des normes sont mises à la disposition du public et facilement accessibles.

Article 45

Codes de conduite

1.   La Commission et le comité encouragent et facilitent l’élaboration de codes de conduite volontaires au niveau de l’Union pour contribuer à la bonne application du présent règlement, en tenant compte notamment des difficultés spécifiques à surmonter pour faire face à différents types de contenus illicites et de risques systémiques, conformément au droit de l’Union notamment en matière de concurrence et de protection des données à caractère personnel.

2.   Lorsqu’un risque systémique important au sens de l’article 34, paragraphe 1, apparaît et concerne plusieurs très grandes plateformes en ligne ou très grands moteurs de recherche en ligne, la Commission peut inviter les fournisseurs des très grandes plateformes en ligne concernées ou les fournisseurs des très grands moteurs de recherche en ligne concernés, et d’autres fournisseurs de très grandes plateformes en ligne, de très grands moteurs de recherche en ligne, de plateformes en ligne et d’autres services intermédiaires, selon qu’il convient, ainsi que les autorités compétentes concernées, des organisations de la société civile et d’autres parties prenantes concernées, à participer à l’élaboration de codes de conduite, y compris en formulant des engagements portant sur l’adoption de mesures spécifiques d’atténuation des risques, ainsi que d’un cadre pour la présentation de rapports réguliers concernant les mesures adoptées et leurs résultats.

3.   En donnant effet aux paragraphes 1 et 2, la Commission et le comité, ainsi que d’autres organes s’il y a lieu, s’efforcent de garantir que les codes de conduite établissent clairement leurs objectifs spécifiques, contiennent des indicateurs clés de performance pour mesurer la réalisation de ces objectifs et tiennent dûment compte des besoins et des intérêts de toutes les parties intéressées, et en particulier des citoyens, au niveau de l’Union. La Commission et le comité s’efforcent également de garantir que les participants communiquent régulièrement à la Commission et à leurs coordinateurs pour les services numériques de l’État membre d’établissement respectifs les mesures qu’ils adoptent et leurs résultats, mesurés par rapport aux indicateurs clés de performance que les codes de conduite contiennent. Les indicateurs de performance clés et les engagements en matière de présentation de rapports tiennent compte des différences de taille et de capacité entre les différents participants.

4.   La Commission et le comité évaluent si les codes de conduite satisfont aux objectifs spécifiés aux paragraphes 1 et 3, et contrôlent et évaluent régulièrement la réalisation de leurs objectifs, en tenant compte des indicateurs clés de performance qu’ils pourraient contenir. Ils publient leurs conclusions.

La Commission et le comité encouragent et facilitent également le réexamen régulier et l’adaptation des codes de conduite.

En cas de non-respect systématique des codes de conduite, la Commission et le comité peuvent inviter les signataires desdits codes à prendre les mesures qui s’imposent.

Article 69

Pouvoir d’effectuer des inspections

1.   Pour l’accomplissement des tâches qui lui sont assignées par la présente section, la Commission peut effectuer toutes les inspections nécessaires dans les locaux du fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne concerné ou d’une autre personne visée à l’article 67, paragraphe 1.

2.   Les fonctionnaires et les autres personnes les accompagnant mandatés par la Commission pour effectuer une inspection sont investis des pouvoirs suivants:

a)

pénétrer dans tous les locaux, terrains et moyens de transport du fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne concerné ou de l’autre personne concernée;

b)

examiner les livres et autres registres relatifs à la fourniture du service concerné, quel que soit le support sur lequel ils sont stockés;

c)

prendre ou obtenir sous quelque forme que ce soit une copie ou un extrait des livres ou autres registres;

d)

exiger du fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne ou de l’autre personne concernée qu’il donne accès à son organisation, à son fonctionnement, à son système informatique, à ses algorithmes, à son traitement des données et à ses pratiques commerciales, qu’il fournisse des explications à ce sujet et qu’il enregistre ou documente les explications données;

e)

sceller tout local utilisé pour les besoins de l’activité commerciale, industrielle, artisanale ou libérale du fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne ou de l’autre personne concernée, ainsi que les livres ou autres registres, pendant la période d’inspection et dans la mesure nécessaires à l’inspection;

f)

demander à tout représentant ou membre du personnel du fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne ou de l’autre personne concernée, des explications sur des faits ou des documents en rapport avec l’objet et le but de l’inspection et enregistrer les réponses;

g)

adresser des questions à tout représentant ou membre du personnel en rapport avec l’objet et le but de l’inspection et enregistrer les réponses.

3.   Les inspections peuvent être effectuées avec le concours d’auditeurs ou d’experts nommés par la Commission en vertu de l’article 72, paragraphe 2, et du coordinateur pour les services numériques ou des autorités nationales compétentes de l’État membre sur le territoire duquel l’inspection est menée.

4.   Lorsque les livres ou autres registres liés à la fourniture du service concerné dont la production est requise sont produits de manière incomplète ou lorsque les réponses aux questions posées en vertu du paragraphe 2 du présent article sont inexactes, incomplètes ou trompeuses, les fonctionnaires et les autres personnes les accompagnant mandatés par la Commission pour effectuer une inspection exercent leurs pouvoirs sur présentation d’une autorisation écrite précisant l’objet et le but de l’inspection ainsi que les sanctions prévues aux articles 74 et 76. En temps utile avant l’inspection, la Commission informe de l’inspection prévue le coordinateur pour les services numériques de l’État membre sur le territoire duquel l’inspection doit être effectuée.

5.   Au cours des inspections, les fonctionnaires et les autres personnes les accompagnant mandatés par la Commission, les auditeurs et les experts nommés par la Commission, le coordinateur pour les services numériques ou les autres autorités compétentes de l’État membre sur le territoire duquel l’inspection est effectuée peuvent exiger du fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne, ou de l’autre personne concernée, qu’il fournisse des explications sur son organisation, son fonctionnement, son système informatique, ses algorithmes, son traitement des données et ses pratiques commerciales, et peuvent adresser des questions à son personnel clé.

6.   Le fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne ou l’autre personne physique ou morale concernée est tenu de se soumettre aux inspections que la Commission a ordonnées par voie de décision. La décision indique l’objet et le but de l’inspection, fixe la date à laquelle elle commence et mentionne les sanctions prévues aux articles 74 et 76, ainsi que le droit de faire réexaminer la décision par la Cour de justice de l’Union européenne. La Commission consulte le coordinateur pour les services numériques de l’État membre sur le territoire duquel l’inspection doit être effectuée avant de prendre cette décision.

7.   Les agents du coordinateur pour les services numériques de l’État membre sur le territoire duquel l’inspection doit être effectuée et les autres personnes mandatées ou nommées par ledit coordinateur prêtent activement assistance, à la demande dudit coordinateur pour les services numériques ou de la Commission, aux fonctionnaires et aux autres personnes les accompagnant mandatés par la Commission dans le cadre de l’inspection. Ils disposent à cette fin des pouvoirs énumérés au paragraphe 2.

8.   Lorsque les fonctionnaires et les autres personnes les accompagnant mandatés par la Commission constatent que le fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne, ou l’autre personne concernée, s’oppose à une inspection ordonnée en vertu du présent article, l’État membre sur le territoire duquel l’inspection doit être effectuée leur accorde, sur demande de ces fonctionnaires ou des autres personnes les accompagnant et conformément au droit national de l’État membre, l’assistance nécessaire, y compris, le cas échéant conformément audit droit national, sous la forme de mesures coercitives prises par une autorité répressive compétente, pour leur permettre d’effectuer l’inspection.

9.   Si l’assistance prévue au paragraphe 8 requiert l’autorisation d’une autorité judiciaire nationale conformément au droit national de l’État membre concerné, cette autorisation est demandée par le coordinateur pour les services numériques de cet État membre à la demande des fonctionnaires et des autres personnes les accompagnant mandatés par la Commission. Cette autorisation peut également être demandée à titre préventif.

10.   Lorsqu’une autorisation visée au paragraphe 9 est demandée, l’autorité judiciaire nationale saisie vérifie que la décision de la Commission ordonnant l’inspection est authentique et que les mesures coercitives envisagées ne sont ni arbitraires ni excessives eu égard à l’objet de l’inspection. Lorsqu’elle procède à cette vérification, l’autorité judiciaire nationale peut demander à la Commission, directement ou par l’intermédiaire des coordinateurs pour les services numériques de l’État membre concerné, des explications détaillées notamment sur les motifs permettant à la Commission de suspecter l’existence d’une infraction au présent règlement, ainsi que sur la gravité de l’infraction suspectée et la nature de l’implication du fournisseur de la très grande plateforme en ligne ou du très grand moteur de recherche en ligne ou de l’autre personne concernée. Cependant, l’autorité judiciaire nationale ne peut ni remettre en cause la nécessité de l’inspection ni exiger la communication d’informations figurant dans le dossier de la Commission. Le contrôle de la légalité de la décision de la Commission est réservé à la Cour de justice de l’Union européenne.

Article 86

Représentation

1.   Sans préjudice de la directive (UE) 2020/1828 ou de tout autre type de représentation au titre du droit national, les destinataires de services intermédiaires ont à tout le moins le droit de mandater un organisme, une organisation ou une association pour exercer les droits conférés par le présent règlement pour leur compte, pour autant que cet organisme, cette organisation ou cette association remplisse toutes les conditions suivantes:

a)

il opère sans but lucratif;

b)

il a été régulièrement constitué, conformément au droit d’un État membre;

c)

ses objectifs statutaires comprennent un intérêt légitime à assurer le respect du présent règlement.

2.   Les fournisseurs de plateformes en ligne prennent les mesures techniques et organisationnelles nécessaires pour veiller à ce que les plaintes déposées par les organismes, organisations ou associations visés au paragraphe 1 du présent article au nom des destinataires du service à l’aide des mécanismes prévus à l’article 20, paragraphe 1, soient traitées et donnent lieu à des décisions de manière prioritaire et sans retard injustifié.

SECTION 6

Actes délégués et actes d’exécution


whereas









keyboard_arrow_down