search


keyboard_tab Digital Service Act 2022/2065 IT

BG CS DA DE EL EN ES ET FI FR GA HR HU IT LV LT MT NL PL PT RO SK SL SV print pdf

2022/2065 IT cercato: 'individuati' . Output generated live by software developed by IusOnDemand srl


expand index individuati:

    CAPO I
    DISPOSIZIONI GENERALI

    CAPO II
    RESPONSABILITÀ DEI PRESTATORI DI SERVIZI INTERMEDIARI

    CAPO III
    OBBLIGHI IN MATERIA DI DOVERE DI DILIGENZA PER UN AMBIENTE ONLINE TRASPARENTE E SICURO

    SEZIONE 1
    Disposizioni applicabili a tutti i prestatori di servizi intermediari

    SEZIONE 2
    Disposizioni aggiuntive applicabili ai prestatori di servizi di memorizzazione di informazioni, comprese le piattaforme online
  • 1 Art. 17 Motivazione

  • SEZIONE 3
    Disposizioni aggiuntive applicabili ai fornitori di piattaforme online

    SEZIONE 4
    Disposizioni aggiuntive applicabili ai fornitori di piattaforme online che consentono ai consumatori di concludere contratti a distanza con gli operatori commerciali

    SEZIONE 5
    Obblighi supplementari a carico dei fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi per la gestione dei rischi sistemici
  • 1 Art. 34 Valutazione del rischio
  • 2 Art. 35 Attenuazione dei rischi
  • 3 Art. 41 Funzione di controllo della conformità

  • SEZIONE 6
    Altre disposizioni relative agli obblighi in materia di dovere di diligenza

    CAPO IV
    ATTUAZIONE, COOPERAZIONE, SANZIONI ED ESECUZIONE

    SEZIONE 1
    Autorità competenti e coordinatori nazionali dei servizi digitali

    SEZIONE 2
    Competenze, indagini coordinate e meccanismi di coerenza

    SEZIONE 3
    Comitato europeo per i servizi digitali

    SEZIONE 4
    Vigilanza, indagini, esecuzione e monitoraggio in relazione ai fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi

    SEZIONE 5
    Disposizioni comuni in materia di esecuzione

    SEZIONE 6
    Atti delegati e atti di esecuzione

    CAPO V
    DISPOSIZIONI FINALI


whereas individuati:


definitions:


cloud tag: and the number of total unique words without stopwords is: 538

 

Articolo 17

Motivazione

1.   I prestatori di servizi di memorizzazione di informazioni forniscono a tutti i destinatari del servizio interessati una motivazione chiara e specifica per le seguenti restrizioni imposte a motivo del fatto che le informazioni fornite dal destinatario_del_servizio costituiscono contenuti illegali o sono incompatibili con le proprie condizioni_generali:

a)

eventuali restrizioni alla visibilità di informazioni specifiche fornite dal destinatario_del_servizio, comprese la rimozione di contenuti, la disabilitazione dell'accesso ai contenuti o la retrocessione dei contenuti;

b)

la sospensione, la cessazione o altra limitazione dei pagamenti in denaro;

c)

la sospensione o la cessazione totale o parziale della prestazione del servizio;

d)

la sospensione o la chiusura dell'account del destinatario_del_servizio.

2.   Il paragrafo 1 si applica solo se le pertinenti coordinate elettroniche sono note al prestatore. Esso si applica al più tardi dalla data a partire dalla quale la restrizione è imposta, indipendentemente dal motivo o dal modo in cui è imposta.

Il paragrafo 1 non si applica se le informazioni sono contenuti commerciali ingannevoli ad ampia diffusione.

3.   La motivazione di cui al paragrafo 1 contiene almeno le informazioni seguenti:

a)

l'informazione che indichi se la decisione comporti la rimozione delle informazioni, la disabilitazione dell'accesso alle stesse, la retrocessione o la limitazione della visibilità delle informazioni oppure la sospensione o la cessazione dei pagamenti in denaro relativi a tali informazioni o imponga altre misure di cui al paragrafo 1 in relazione alle informazioni, e, ove opportuno, la portata territoriale della decisione e la sua durata;

b)

i fatti e le circostanze su cui si basa la decisione adottata, compresa, ove opportuno, l'informazione che indichi se la decisione sia stata adottata in base a una segnalazione presentata a norma dell'articolo 16 oppure sia stata basata su indagini volontarie di propria iniziativa e, ove strettamente necessario, l'identità del notificante;

c)

ove opportuno, informazioni sugli strumenti automatizzati usati per adottare la decisione, ivi compresa l'informazione che indichi se la decisione sia stata adottata in merito a contenuti individuati o identificati per mezzo di strumenti automatizzati;

d)

se la decisione riguarda presunti contenuti illegali, un riferimento alla base giuridica invocata e una spiegazione delle ragioni per cui l'informazione è considerata contenuto_illegale in applicazione di tale base giuridica;

e)

se la decisione si basa sulla presunta incompatibilità delle informazioni con le condizioni_generali del prestatore di servizi di memorizzazione di informazioni, un riferimento alla clausola contrattuale invocata e una spiegazione delle ragioni per cui le informazioni sono ritenute incompatibili con tale clausola;

f)

informazioni chiare e di facile comprensione sui mezzi di ricorso a disposizione del destinatario_del_servizio in relazione alla decisione, in particolare, se del caso, attraverso i meccanismi interni di gestione dei reclami, la risoluzione extragiudiziale delle controversie e il ricorso per via giudiziaria.

4.   Le informazioni fornite dai prestatori di servizi di memorizzazione di informazioni a norma del presente articolo devono essere chiare e facilmente comprensibili e il più possibile precise e specifiche tenuto conto delle circostanze del caso. In particolare le informazioni devono essere tali da consentire ragionevolmente al destinatario_del_servizio interessato di sfruttare in modo effettivo le possibilità di ricorso di cui al paragrafo 3, lettera f).

5.   Il presente articolo non si applica agli ordini di cui all'articolo 9.

Articolo 34

Valutazione del rischio

1.   I fornitori die piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi individuano, analizzano e valutano con diligenza gli eventuali rischi sistemici nell'Unione derivanti dalla progettazione o dal funzionamento del loro servizio e dei suoi relativi sistemi, compresi i sistemi algoritmici, o dall'uso dei loro servizi.

Essi effettuano le valutazioni dei rischi entro la data di applicazione di cui all'articolo 33, paragrafo 6, secondo comma, e successivamente almeno una volta all'anno, e in ogni caso prima dell'introduzione di funzionalità che possono avere un impatto critico sui rischi individuati a norma del presente articolo. La valutazione del rischio deve essere specifica per i loro servizi e proporzionata ai rischi sistemici, tenendo in considerazione la loro gravità e la loro probabilità, e deve comprendere i seguenti rischi sistemici:

a)

la diffusione di contenuti illegali tramite i loro servizi;

b)

eventuali effetti negativi, attuali o prevedibili, per l'esercizio dei diritti fondamentali, in particolare i diritti fondamentali alla dignità umana sancito nell'articolo 1 della Carta, al rispetto della vita privata e familiare sancito nell'articolo 7 della Carta, alla tutela dei dati personali sancito nell'articolo 8 della Carta, alla libertà di espressione e di informazione, inclusi la libertà e il pluralismo dei media, sanciti nell'articolo 11 della Carta, e alla non discriminazione sancito nell'articolo 21 della Carta, al rispetto dei diritti del minore sancito nell'articolo 24 della Carta, così come all'elevata tutela dei consumatori, sancito nell'articolo 38 della Carta;

c)

eventuali effetti negativi, attuali o prevedibili, sul dibattito civico e sui processi elettorali, nonché sulla sicurezza pubblica;

d)

qualsiasi effetto negativo, attuale o prevedibile, in relazione alla violenza di genere, alla protezione della salute pubblica e dei minori e alle gravi conseguenze negative per il benessere fisico e mentale della persona.

2.   Nello svolgimento delle valutazioni dei rischi, i fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi tengono conto, in particolare, dell'eventualità e del modo in cui i seguenti fattori influenzano uno dei rischi sistemici di cui al paragrafo 1:

a)

la progettazione dei loro sistemi di raccomandazione e di qualsiasi altro sistema algoritmico pertinente;

b)

i loro sistemi di moderazione_dei_contenuti;

c)

le condizioni_generali applicabili e la loro applicazione;

d)

i sistemi di selezione e presentazione delle pubblicità;

e)

le pratiche del fornitore relative ai dati.

Le valutazioni analizzano inoltre se e in che modo i rischi di cui al paragrafo 1 siano influenzati dalla manipolazione intenzionale del loro servizio, anche mediante l'uso non autentico o lo sfruttamento automatizzato del servizio, nonché l'amplificazione e la diffusione potenzialmente rapida e ampia di contenuti illegali e di informazioni incompatibili con le condizioni_generali.

La valutazione tiene conto di specifici aspetti regionali o linguistici, anche laddove siano specifici di uno Stato membro.

3.   I fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi conservano i documenti giustificativi delle valutazioni dei rischi per almeno tre anni dopo l'esecuzione delle valutazioni dei rischi e, su richiesta, li comunicano alla Commissione e al coordinatore_dei_servizi_digitali_del_luogo_di_stabilimento.

Articolo 35

Attenuazione dei rischi

1.   I fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi adottano misure di attenuazione ragionevoli, proporzionate ed efficaci, adattate ai rischi sistemici specifici individuati a norma dell'articolo 34, prestando particolare attenzione agli effetti di tali misure sui diritti fondamentali. Tali misure possono comprendere, ove opportuno:

a)

l'adeguamento della progettazione, delle caratteristiche o del funzionamento dei loro servizi, anche delle loro interfacce online;

b)

l'adeguamento delle condizioni_generali e la loro applicazione;

c)

l'adeguamento delle procedure di moderazione_dei_contenuti, compresa la velocità e la qualità del trattamento delle segnalazioni concernenti tipi specifici di contenuti illegali e, se del caso, la rapida rimozione dei contenuti oggetto della notifica o la disabilitazione dell'accesso agli stessi, in particolare in relazione all'incitamento illegale all'odio e alla violenza online, nonché l'adeguamento di tutti i processi decisionali pertinenti e delle risorse dedicate alla moderazione_dei_contenuti;

d)

la sperimentazione e l'adeguamento dei loro sistemi algoritmici, compresi i loro sistemi di raccomandazione;

e)

l'adeguamento dei loro sistemi di pubblicità e l'adozione di misure mirate volte a limitare o ad adeguare la presentazione della pubblicità associata al servizio da esse prestato;

f)

il rafforzamento dei processi interni, delle risorse, della sperimentazione, della documentazione o della vigilanza sulle loro attività, in particolare per quanto riguarda il rilevamento dei rischi sistemici;

g)

l'avvio o l'adeguamento della cooperazione con i segnalatori attendibili in conformità dell'articolo 22 e l'attuazione della decisione degli organismi di risoluzione extragiudiziale delle controversie a norma dell'articolo 21;

h)

l'avvio o l'adeguamento della cooperazione con altri fornitori di piattaforme online o di motori di ricerca online attraverso i codici di condotta e i protocolli di crisi di cui rispettivamente agli articoli 45 e 48;

i)

l'adozione di misure di sensibilizzazione e l'adattamento della loro interfaccia_online al fine di dare ai destinatari del servizio maggiori informazioni;

j)

l'adozione di misure mirate per tutelare i diritti dei minori, compresi strumenti di verifica dell'età e di controllo parentale, o strumenti volti ad aiutare i minori a segnalare abusi o ottenere sostegno, a seconda dei casi;

k)

il ricorso a un contrassegno ben visibile per fare in modo che un elemento di un'informazione, sia esso un'immagine, un contenuto audio o video, generati o manipolati, che assomigli notevolmente a persone, oggetti, luoghi o altre entità o eventi esistenti e che a una persona appaia falsamente autentico o veritiero, sia distinguibile quando è presentato sulle loro interfacce online e, inoltre, la fornitura di una funzionalità di facile utilizzo che consenta ai destinatari del servizio di indicare tale informazione.

2.   Il comitato, in cooperazione con la Commissione, pubblica relazioni annuali esaustive. Le relazioni comprendono gli elementi seguenti:

a)

individuazione e valutazione dei rischi sistemici più rilevanti e ricorrenti segnalati dai fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi o identificati mediante altre fonti di informazione, in particolare le informazioni fornite in conformità degli articoli 39, 40 e 42;

b)

le migliori pratiche che consentano ai fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi di attenuare i rischi sistemici individuati.

Tali relazioni presentano i rischi sistemici suddivisi per Stato membro in cui si sono verificati e in tutta l'Unione, se del caso.

3.   La Commissione, in cooperazione con i coordinatori dei servizi digitali, può emanare orientamenti sull'applicazione del paragrafo 1 in relazione a rischi concreti, con l'obiettivo specifico di presentare le migliori pratiche e raccomandare eventuali misure, tenendo debitamente conto delle possibili conseguenze di tali misure sui diritti fondamentali di tutte le parti interessate sanciti dalla Carta. Nell'elaborazione di tali orientamenti la Commissione organizza consultazioni pubbliche.

Articolo 41

Funzione di controllo della conformità

1.   I fornitori di piattaforme online di dimensioni molto grandi e di motori di ricerca online di dimensioni molto grandi istituiscono una funzione di controllo della conformità indipendente dalle loro funzioni operative e composta da uno o più responsabili della conformità, compreso il capo della funzione di controllo della conformità. Tale funzione di controllo della conformità dispone di autorità, status e risorse sufficienti, nonché dell'accesso all'organo di gestione del fornitore della piattaforma_online di dimensioni molto grandi o del motore_di_ricerca_online di dimensioni molto grandi, per monitorare la conformità di tale fornitore al presente regolamento.

2.   L'organo di gestione del fornitore della piattaforma_online di dimensioni molto grandi o del motore_di_ricerca_online di dimensioni molto grandi assicura che i responsabili della conformità siano in possesso delle qualifiche professionali, delle conoscenze, dell'esperienza e delle capacità necessarie per svolgere i compiti di cui al paragrafo 3.

L'organo di gestione del fornitore della piattaforma_online di dimensioni molto grandi o del motore_di_ricerca_online di dimensioni molto grandi assicura che il capo della funzione di controllo della conformità sai un alto dirigente indipendente con responsabilità distinta per la funzione di controllo della conformità.

Il capo della funzione di controllo della conformità riferisce direttamente all'organo di gestione del fornitore della piattaforma_online di dimensioni molto grandi o del motore_di_ricerca_online di dimensioni molto grandi e può sollevare preoccupazioni e avvertire tale organo qualora i rischi di cui all'articolo 34 o l'inosservanza del presente regolamento incidano o possano incidere sul fornitore della piattaforma_online di dimensioni molto grandi o del motore_di_ricerca_online di dimensioni molto grandi in questione, fatte salve le responsabilità dell'organo di gestione nelle sue funzioni di supervisione e gestione.

Il capo della funzione di controllo della conformità non può essere rimosso senza previa approvazione dell'organo di gestione del fornitore della piattaforma_online di dimensioni molto grandi o del motore_di_ricerca_online di dimensioni molto grandi.

3.   I responsabili della conformità hanno i compiti seguenti:

a)

collaborare con il coordinatore_dei_servizi_digitali_del_luogo_di_stabilimento e con la Commissione ai fini del presente regolamento;

b)

assicurare che tutti i rischi di cui all'articolo 34 siano identificati e adeguatamente segnalati e che siano adottate misure di attenuazione dei rischi ragionevoli, proporzionate ed efficaci a norma dell'articolo 35;

c)

organizzare e sovrintendere alle attività del fornitore della piattaforma_online di dimensioni molto grandi o del motore_di_ricerca_online di dimensioni molto grandi relative alle revisioni indipendenti a norma dell'articolo 37;

d)

informare e consigliare i dirigenti e i dipendenti del fornitore della piattaforma_online di dimensioni molto grandi o del motore_di_ricerca_online di dimensioni molto grandi in merito ai pertinenti obblighi a norma del presente regolamento;

e)

monitorare la conformità del fornitore della piattaforma_online di dimensioni molto grandi o del motore_di_ricerca_online di dimensioni molto grandi agli obblighi derivanti dal presente regolamento;

f)

se del caso, monitorare la conformità del fornitore della piattaforma_online di dimensioni molto grandi o del motore_di_ricerca_online di dimensioni molto grandi agli impegni assunti a norma dei codici di condotta di cui agli articoli 45 e 46 o dei protocolli di crisi di cui all'articolo 48.

4.   I fornitori di piattaforme online di dimensioni molto grandi o di motori di ricerca online di dimensioni molto grandi comunicano il nome e le coordinate del capo della funzione di controllo della conformità al coordinatore_dei_servizi_digitali_del_luogo_di_stabilimento e alla Commissione.

5.   L'organo di gestione del fornitore della piattaforma_online di dimensioni molto grandi o del motore_di_ricerca_online di dimensioni molto grandi definisce, supervisiona ed è responsabile dell'attuazione dei sistemi di governance del fornitore che garantiscono l'indipendenza della funzione di controllo della conformità, comprese la separazione delle responsabilità all'interno dell'organizzazione del fornitore della piattaforma_online di dimensioni molto grandi o del motore_di_ricerca_online di dimensioni molto grandi, la prevenzione dei conflitti di interesse e la sana gestione dei rischi sistemici individuati a norma dell'articolo 34.

6.   L'organo di gestione approva e riesamina periodicamente, almeno una volta all'anno, le strategie e le politiche per l'assunzione, la gestione, il monitoraggio e l'attenuazione dei rischi individuati a norma dell'articolo 34 ai quali la piattaforma_online di dimensioni molto grandi o il motore_di_ricerca_online di dimensioni molto grandi sono o potrebbero essere esposti.

7.   L'organo di gestione dedica tempo sufficiente all'esame delle misure relative alla gestione dei rischi. Partecipa attivamente alle decisioni relative alla gestione dei rischi e provvede affinché siano assegnate adeguate risorse alla gestione dei rischi individuati in conformità dell'articolo 34.


whereas









keyboard_arrow_down