Per qualsiasi informazione inerente i prezzi o le modalità di effettuazione del servizio, contatta l'agente di zona oppure scrivi a info@entionline.it
o telefona allo 030/2531939.
Big Data, mercato pubblicitario, pluralismo e informazione
Le piattaforme digitali, come noto, hanno un crescente impatto sia sul settore della pubblicità online, sia sulla produzione e sul consumo d’informazione. Pertanto, lo sviluppo di questi servizi non implica solamente la necessità di dover valutare questi fenomeni dal punto di vista della concorrenza -analizzando la re-distribuzione e la composizione delle risorse pubblicitarie all’interno del mercato -ma anche da altri profili, quali la tutela del pluralismo politico, sociale e culturale, la salvaguardia dell’informazione come servizio di interesse generale, ivi incluso il diritto dei cittadini ad essere informati, la protezione della dignità delle persone, nel quadro del pieno rispetto della libertà d’espressionee della libertà editoriale.
In termini economici, la disponibilità di dati (personali e non) consente ai possessori di tali informazioni di avere una posizione di decisivo vantaggio competitivo nel mercato della pubblicità online, ove l’uso del dato è di vitale importanza nell’offerta di prodotti/servizi (c.d. “uso primario del dato”), consentendo, altresì, di sviluppare e migliorare i prodotti/servizi offerti (c.d. “uso secondario del dato”). Il valore molto elevato di queste informazioni per configurare specifici profili di abitudini di consumo spinge le piattaforme online a fare in modo di catturare quanta più attenzione possibile, anche attraverso la promozione e la proposizione di contenuti graditi all’utente. L’insieme dei dati così raccolto viene ulteriormente monetizzato con la cessione a soggetti terzi, in alcuni casi violando le norme di data protection, in altri casi facendo un uso dei dati personali tale da spingersi oltre il consenso acquisito dall’utentee violando diritti e libertà individuali. Per quanto riguarda la raccolta pubblicitaria, questa viene monetizzata attraverso la vendita di appositi spazi per l’online advertising presenti sui siti web, raggiungibili dagli utenti tramite terminali fissi e mobili (con sistemi cc.dd. di programmatice reservation advertising).
Con riferimento ai compiti istituzionali dell’AGCOM, il fenomeno della concentrazione dei Big Data nelle mani di alcune piattaforme online ha innanzitutto un impatto riguardante la creazione di posizioni dominanti all’interno dei mercati che compongono il Sistema Integrato delle Comunicazioni.
A tal proposito, il 18 luglio 2019 è stato avviato un procedimento finalizzato all’individuazione e all’analisi del mercato rilevante, all’accertamento di posizioni dominanti o comunque lesive del pluralismo nel settore della pubblicità online. Questo procedimento, che si sviluppa a valle degli approfondimenti condotti in questa e in altre indagini conoscitive svolte in questi anni dall’Autorità, costituisce la prima attività istruttoria che coinvolge direttamente anche le piattaforme online, e dunque la relazione tra valorizzazione, raccolta e profilazione del dato a fini commerciali. Un possibile esito potrà risolversi, ove necessario, nella definizione di opportuni rimedi, a eventuali posizioni dominanti, che potranno coinvolgere le varie fasi in cui si articola la pubblicità online e nelle quali si genera il vantaggio competitivo, incluse le fasi di raccolta e profilazione del dato. Oltre agli aspetti concorrenziali, il funzionamento del mercato della raccolta dei dati al fine dello sfruttamento pubblicitario può portare a importanti fenomeni patologici che impattano sugli obiettivi della regolazione e sui compiti istituzionali dell’AGCOM. Da questo punto di vista, come già si è analizzato nell’Interim Report dell’Autorità in questa Indagine conoscitiva, i principali problemi identificabili sono quelli relativi alla produzione e alla diffusione di fenomeni di disinformazione o della diffusione di contenuti che non rispettino la dignità umana (discorsi d’odio, promozione di contenuti con messaggi di violenza o di discriminazione sessuale/razziale,ecc.).
Con riferimento al tema della informazione e disinformazione, il presupposto di partenza è che le piattaforme online, basate su un modello di business fondato sulla raccolta pubblicitaria, puntano a catturare quanto più possibile l’attenzione del consumatore. Una volta conquistata, tali piattaforme mirano a far produrre il maggior numero di «azioni» (e.g.: like, scroll, search,ecc.,) all’utente in modo da immagazzinare quanti più dati possibili e della qualità più elevata. Il risultato di questo meccanismo è la profilazione dell’utente funzionale ad una proposizione selettiva di contenuti personalizzati a forte impatto emotivo e fortemente collegati alla propria “storia” di attività online. In questo contesto, hanno origine fenomeni noti come filter bubble e self-confirmation bias, caratterizzati da un meccanismo di causazione circolare per il quale l’utente con le proprie scelte, rivela le informazioni che lo interessano e, a sua volta, la selezione delle informazioni operata dall’algoritmo influenza le scelte dell’utente, confermandone la visione pregressa del mondo. Si realizza in questo modo una ri-proposizione circolare di contenuti confermativi delle proprie opinioni, credenze o convinzioni al singolo utente. Questo fenomeno viene poi ulteriormente rafforzato se l’utente -come accade nella fruizione di contenuti sui social network- è immerso in una determinata realtà di selezione di contenuti anche a seguito dell’interazione con i propri contattie della conseguente costruzione di cluster omogenei di ‘amici’ che condividono la stessa visione relativa ad argomenti sociali, politici e di attualità. Questo dà origine a fenomeni patologici quali il pensiero di gruppo (groupthink) e le “camere d’eco” che agiscono da fattore di polarizzazione, isolando gli ambienti di discussione e predisponendo così ambiti particolarmente favorevoli per coloro i quali vogliano realizzare strategie di microtargeting per campagne di disinformazione e malinformazione aventi ad oggetto tematiche ad alto impatto politico, culturale o commerciale. Tali campagne permettono -attraverso la raccolta e lo sfruttamento di quantità massive di dati, nonché facendo uso di algoritmi, bot e account fittizi/anonimi -di influenzare attivamente gli elettori su tematiche di ampio respiro, determinando l’agenda setting del confronto politico e aventi poi ricadute su importanti appuntamenti elettorali e quindi sul funzionamento democratico della società.
In ambito nazionale, AGCOM ha istituito un Tavolo Tecnico «fake news» con la Delibera n. 423/17/CONS per definire misure di auto-regolamentazione utilizzabili dalle piattaforme, in ottemperanza a quanto disposto dall’art. 7, comma 2, lett. e) del TUSMAR, che recita «l’assoluto divieto di utilizzare metodologie e tecniche capaci di manipolare in maniera non riconoscibile allo spettatore il contenuto delle informazioni». A livello europeo, nell’Ottobre del 2018, è stato firmato da alcune grandi piattaforme (Facebook, Google, Twitter, Mozilla), nonché da alcuni importanti attori dell’industria pubblicitaria, un documento, il Code Of Practice on Disinformation, contenente alcune misure di auto-regolamentazione che hanno prodotto i primi risultati. Le recentissime analisi preliminari pubblicate dalla Commissione europea sui primi rapporti da parte delle aziende mostrano che in molte aree di intervento, tra cui la riduzione degli incentivi monetari alla disinformazione, la trasparenza dei flussi finanziari della propaganda politica su Internet e la lotta agli account falsi, l’auto-regolazione da parte delle piattaforme può risultare, in ultima analisi, insufficiente.
a) Le iniziative Agcom sulla disinformazione online Il Tavolo tecnico per la garanzia del pluralismo e della correttezza dell’informazione sulle piattaforme digitali è stato avviato dall’Autorità al fine di promuovere una maggiore comprensione del fenomeno della disinformazione attraverso la partecipazione attiva degli stakeholder del sistema dell’informazione e di introdurre misure di contrasto attraverso l’adozione di strumenti volontari e di autoregolamentazione delle piattaforme. Nell’ultimo anno, il Tavolo ha svolto le proprie finalità istituzionali attraverso un’intensa attività di cooperazione e scambio di buone prassi tra i suoi componenti che, ad oggi, ammontano a oltre cinquanta soggetti tra imprese e associazioni nei settori interessati. Le attività svolte sono state condotte in parallelo dai cinque gruppi di lavoro in cui è articolato il Tavolo:
(A) metodologie di classificazione e rilevazione dei fenomeni di disinformazione online;
(B) definizione dei sistemi di monitoraggio dei flussi economici pubblicitari, da fonti nazionali ed estere, volti al finanziamento dei contenuti fake;
(C) fact-checking: organizzazione, tecniche, strumenti ed effetti;
(D) media e digital literacy;
(E) progettazione e realizzazione di campagne informative su disinformazione rivolte ai consumatori. Segue, pertanto, una sintetica illustrazione dei compiti assolti da ciascun gruppo.
- Il Gruppo di lavoro (A) si è concentrato sull’identificazione di metodi e strumenti per la rilevazione e il monitoraggio dei fenomeni rilevanti di disinformazione online, contribuendo alla pubblicazione di diversi rapporti sul sito AGCOM. In particolare, è stato compiuto uno sforzo definitorio fondato su una metodologia sperimentale per la ricognizione e l’analisi quali-quantitativa delle varie distorsioni dell’informazione online oggetto di classificazione (distinte in mis-informazione, malainformazione e disinformazione). In taleprospettiva, l’Autorità ha anche istituito l’Osservatorio sulla disinformazione online, avviando la sperimentazione di un sistema di monitoraggio della disinformazione online, in concomitanza del periodo che precede le elezioni europee di maggio 2019. L’Osservatorio presenta mensilmente i risultati delle elaborazioni svolte a partire da un database di milioni di documenti generati da fonti di informazione e disinformazione, seguendo l’impostazione metodologica già adottata per la redazione del Rapporto “News vs. fake nel sistema dell’informazione”.
- Il Gruppo di lavoro (B) ha concentrato la propria attività nella definizione di proposte operative e misure di contrasto alle strategie di disinformazione online di tipo commerciale, che realizzano ricavi da pubblicità online. Dopo una prima fase, culminata nella predisposizione del rapporto “Le strategie di disinformazione online e la filiera dei contenuti fake”, sono state avviate due iniziative, aventi ad oggetto l’istituzione di un sistema di monitoraggio della filiera della pubblicità onlinee, in parallelo, la qualificazione dei contesti editoriali di pregio attraverso l’adesione a sistemi di certificazione che rispondono a standard riconosciuti a livello internazionale. Con riferimento al monitoraggio, la finalità perseguita è l’introduzione di strumenti di trasparenza sui soggetti e le attività presenti nella filiera pubblicitaria online. Il sistema di monitoraggio progettato a tal fine si compone di un database accessibile a tutti gli operatori del settore, in cui ciascun soggetto indicala fase (o le fasi) della filiera in cui è attivo, specificando i servizi prestati, attraverso quali brand, nonché i legami societari/proprietari o di Partnership con altri attori della filiera pubblicitaria. Il sistema è concepito quale naturale evoluzione dell’Informativa Economica di Sistema (IES), che già presenta delle informazioni di natura anagrafica con riferimento agli operatori attivi nei processi di compravendita della pubblicità online. Le modalità tecniche di accesso al sistema per i soggetti interessati/attivi nel settore sono in corso di definizione, tenuto conto sia delle norme vigenti in materia di trattamento dei dati, sia dei compiti attribuiti all’Autorità dalle nuove norme in materia di imposta sui servizi digitali (c.d. Webtax). Il gruppo di lavoro, infine, ha collaborato congiuntamente al Gruppo C, alla produzione dei contributi presentati dall’Autorità nell’ambito dei lavori della Journalism Trust Initiative (JTI), coordinata dallo European Committee for Standardization (CEN) e promossada Reporters sans frontières (RSF). La definizione ex ante di Standard qualitativi appare infatti complementare rispetto all’approccio ex post, che informa la pratica del fact-checking come misura di contrasto alla disinformazione. - Il Gruppo di lavoro C “Fact-checking: organizzazione, tecniche, strumenti ed effetti” ha svolto attività di analisi e studio volte a definire il perimetro di azione e gli effetti della pratica del fact-checking sulle modalità di consumo di informazione da parte dei cittadini, ponendosi come obiettivo lo sviluppo, sotto l’egida dell’Autorità, di tecniche, strumenti e soluzioni condivise tra i soggetti interessati. In particolare, sulla scorta dell’esperienza internazionale dell’International Fact-Checking Network, che ha partecipato alla prima riunione del gruppo, è stata proposta una definizione condivisa di fact-checkinge delineato il quadro di insieme degli attori che offrono questo tipo di servizi a livello nazionale. Tenuto conto anche dei risultati delle ricerche svolte dal Gruppo di lavoro (B) è stata presentata, sotto l’egida dell’Autorità, una soluzione di mercato, declinabile in una piattaforma di fact-checking sul modello dell’iniziativa francese denominata CrossCheck, attualmente però non in corso. Parallelamente all’attività di coordinamento di questa iniziativa, la Segreteria Tecnica del Tavolo ha inoltre formulato due richieste di informazioni alle principali piattaforme online (Google e Facebook), specificamente dirette a una maggiore comprensione delle modalità di funzionamento dei servizi di fact-checkinggià resi disponibili, e delle condizioni o fattori di contesto che influiscono sull’efficacia di questo strumento quale misura di contrasto alla diffusione di contenuti fakeattraverso le suddette piattaforme.
- Il Gruppo di lavoro (D), dedicato alla media literacy, ha avviato un primo progetto di lungo termine condividendo indirizzi e riforme adottate in ambito europeo. In particolare, è stata data attuazione a quanto previsto dal “Action plan against disinformation” approvato dalla Commissione il 5 dicembre 2018, che raccomanda una tempestiva applicazione delle disposizioni rilevanti introdotte dalla direttiva europea 2018/1808 AVMS. Il primo progetto di media literacyavviato dal Tavolo si è rivolto al mondo della scuola e, in particolare, agli studenti delle scuole superiori, in considerazione anche del fatto che alcuni di essi sarebbero stati coinvolti per la prima volta in qualità di elettori alle elezioni europee. Sono stati pertanto prodotti due video sul tema della disinformazione onlineche sono stati veicolati attraverso alcune emittenti televisive nazionali e Facebook. I video sono stati pubblicati anche sul sito web di Agcom a questo indirizzo: https://www.agcom.it/disinformazione. Nella stessa pagina Agcom ha anche dedicato al tema diversi contenuti e in particolare: 1) una descrizione delle regole che i giovani devono seguire per evitare e combattere la disinformazione; 2) un collegamento ai siti dei principali fact.checkers; 3) una filmografia dedicata al tema; 4) le attività organizzate anche da altre istituzioni o organizzazioni, quali ad esempio i Corecom.Agcom, inoltre, ha supportato anche la formazione sull’alfabetizzazione digitale avviata da Facebook, Memedia (alfabetizzazione mediatica nel mondo dei meme): il programma di formazione è stato ideato e creato da uno dei massimi esperti in Italia e in Europa sul fenomeno della disinformazione online: Walter Quattrociocchi, Coordinatore del Data Science and Complexity Labdell'Università Ca' Foscari di Venezia. L'obiettivo era aiutare i giovani a comprendere meglio le notizie false e il fenomeno della disinformazione. L'iniziativa è stata patrocinata dal "Tavolo tecnico” dell'AGCOM e promosso da "Generazioni Connesse", il Safer Internet centre italiano coordinato dal Miur. L'evento è stato realizzato presso il Binario F di Roma, uno spazio creato a Roma da Facebook e messo a disposizione di imprese, famiglie, accademici, ONG ed editori / media al fine di insegnare e apprendere le competenze digitali. Al progetto in particolare hanno partecipato 40 studenti rappresentanti delle scuole romane, con il compito di diventare ambasciatori di questo importante argomento nelle rispettive scuole. Al termine della formazione, gli studenti hanno infatti ricevuto un kit di informazioni e formazione da utilizzare all'interno delle scuole.
- Il gruppo di lavoro (E) ha proseguito la propria attività pianificando misure dirette a favorire la trasparenza e l’informazione dei consumatori sui rischi legati al fenomeno della disinformazione online, promuovendo a tal fine anche la divulgazione dei risultati dell’attività di ricerca svolta dagli altri gruppi di lavoro. In particolare, è stato realizzato un intervento di formazione e sensibilizzazione dei giornalisti con la finalità di fornire una concreta e immediata risposta ad alcune criticità segnalate nel Report “News vs. Fake nel sistema dell’informazione” curato dal gruppo di lavoro (A). Pertanto, alcuni componenti del Tavolo, tra cui le associazioni di imprese come Centromarca e dei consumatori (Unione Nazionale Consumatori), hanno segnalato, con propri contributi, l’esigenza di sensibilizzare i giornalisti sul tema del danno reputazionale derivante dalle strategie mirate di disinformazione commerciale e sulla conseguente importanza di un’accurata informazione sui temi e le notizie che hanno un maggiore impatto sulle scelte di consumo, nonché sulla polarizzazione degli utenti di piattaforme onlineintorno a campagne denigratorie su determinati prodotti, servizi o brand. Pertanto, di concerto con Centromarca e gli ordini regionali dei giornalisti, sono state organizzate tre giornate di formazione a Roma (4 aprile 2019), Milano (10 maggio 2019) e Napoli (13 giugno 2019).
L’Autorità ha inoltre istituito un Osservatorio sulla disinformazione on line che ha prodotto report mensile in occasione delle elezioni europee, basato sulla metodologia già sperimentata in occasione delle elezioni politiche del 2018, allorché si era osservato un picco della disinformazione nella prossimità della settimana del voto, avente come temi principali quelli dellacriminalità e della immigrazione. Un fenomeno assai ridimensionatosi, invece, nel 2019.
Sempre, nel 2019, in occasione delle elezioni europee, sono stati individuati, di concerto con le piattaforme, gli impegni per garantire non solo la parità di accesso dei soggetti politici alle piattaforme digitali durante l’attuale campagna elettorale per le elezioni dei membri del Parlamento europeo spettanti all’Italia, ma anche un maggiore livello di trasparenza verso gli utenti. Gli impegni hanno costituito il secondo intervento di autoregolamentazione per le campagne elettorali promosso dall’Autorità nell’ambito del “Tavolo Tecnico per la garanzia del pluralismo e della correttezza dell’informazione sulle piattaforme digitali”. Dopo la prima applicazione delle linee guida durante le elezioni politiche del 2018, le disposizioni in materia di par condicio per le elezioni europee 2019, adottate con la Delibera n.94/19/CONS, hanno codificato la buona pratica elaborata con l’introduzione del Titolo VI rubricato “Piattaforme per la condivisione di video e social network”. Le disposizioni ivi recate hanno richiamato l’opportunità di promuovere l’adozione condivisa di misure di contrasto ai fenomeni di disinformazione online nell’ambito del Tavolo Pluralismo e Piattaforme, nonché l’impegno delle piattaforme nell’adozione di strumenti volontari a garanzia del pluralismo informativo per la campagna elettorale per il Parlamento UE del 2019. L’identificazione delle misure ha tenuto conto degli strumenti già previsti nel Codice di condotta sulla disinformazione online sottoscritto dalle piattaforme il 26 settembre 2018 sotto l’egida della Commissione Europea e delle raccomandazioni della Commissione stessa, contenute nel piano di azione europeo sulla disinformazione. Ad esempio, le piattaforme si sono impegnate, con riferimento ai messaggi pubblicitari di natura elettorale, di informare gli utenti delle piattaforme digitali circa la natura di “messaggio elettorale” e l’identità del soggetto politico committente, inserendo tali informazioni direttamente sul messaggio pubblicitario.
Agcom ha, inoltre, proceduto a rendere uniformi le attività di monitoraggio svolte in ambito nazionale con quelle a livello comunitario; in particolare, ha supportato la definizione di un piano di monitoraggio europeo da parte di una task force specificamente istituita dalla Commissione in ambito ERGA (European Regulators Group for Audiovisual Media Services), per monitorare l’implementazione del Codice alla luce dell’Action Plan del dicembre 2018, il cui coordinamento è stato affidato proprio ad AGCOM anche in ragione dell’esperienza già maturata in questa materia.
In particolare, ci sono state due fasi di monitoraggio svolte da 16 Autorità Nazionali di Regolamentazione (ANR) presenti nella task force dell’Erga; una prima fase di monitoraggio si è concentrata specificatamente sugli impegni assunti dalle piattaforme in campagna elettorale, con riferimento in particolar modo alla trasparenza dei messaggi politici elettorali durante le europee; una seconda fase ha riguardato tutti gli impegni assunti nel Codice e in generale la complessiva efficacia di questo strumento (Scrutiny of ad placements, Political advertising and issue-based advertising, Integrity of services, Empowering consumers, Empowering the research community). Si ricorda che i firmatari del Codice sono Facebook, Google, Twitter, Mozilla e Microsoft.
I risultati della prima fase sono stati pubblicati sul sito Erga; i risultati della seconda fase saranno inclusi in un report che Erga pubblicherà a fine gennaio. Il report sarà utilizzato dalla Commissione per decidere sull’efficacia del Codice e sulle eventuali modifiche da apportare.
Si ricorda, infine, che in preparazione di questi sviluppi regolamentari, già nell’ottobre 2018 l’Autorità aveva invitato, con lettere di sollecito, le principali piattaforme che veicolano inserzioni pubblicitarie e altri contenuti di natura politica ed elettorale in Italia (Facebook, Google e Twitter) ad “assumere un ruolo proattivo” nell’adozione di strumenti di autoregolamentazione. Rammentando gli impegni assunti all’interno del Tavolo, e nell’esercizio delle funzioni di moral suasion proprie del regolatore, il richiamo dell’Autorità era volto peraltro a rendere disponibili gli accessi alle API (Application Programming Interface) delle piattaforme per consentire l’attività di monitoraggio concordata dal Tavolo. Per quanto riguarda specificamente Facebook la richiesta era stata formulata anche nell’ambito di incontri svolti in seguito alla vicenda di Cambridge Analytica in relazione alla quale l’Autorità, il 20 marzo 2018, avevaformulato una specifica richiesta di informazioni. Nei mesi successivi, le risposte e i dati forniti da Facebook in merito all’impiego di data analytics per finalità di comunicazione politica daparte di soggetti terzi sono state valutate insufficienti adacquisire un quadro conoscitivo completo e adeguato ai fini dell’accertamento di eventuali violazioni del pluralismo informativo e dei diritti fondamentali collegati a tale principio, cui è preposta l’Autorità. Pertanto, l’evoluzione del quadro legislativo attuale verso una più precisa definizione dei poteri di intervento di AGCOM in questa materia appare ormai improcrastinabile ai fini di un’efficace tutela del pluralismo sui mezzi di informazione delle piattaforme online.
b) Il contrasto all’hatespeech
Per quanto riguarda il tema dei discorsi o delle espressioni d’odio (cd. Hatespeech), la diffusione di messaggi violenti è spesso il prodotto del sistema delle camere d’eco sopradescritto. Un tema, quello delle espressioni d’odio, che riguarda tutti i media, inclusi quelli tradizionali, ma che appare sempre più un’emergenza nella discussione sui social network, in un preoccupante quadro caratterizzato da un incremento delle segnalazioni delle espressioni d’odio e delle aggressioni adesse connesse. L’Autorità ha riconosciuto la necessità di avviare dei meccanismi di cooperazione con le piattaforme di condivisione video. In particolare, con la Delibera n.157/19/CONS, l’AGCOM ha approvato un “Regolamento recante disposizioni in materia di rispetto della dignità umana e del principio di non discriminazione e di contrasto all’hatespeech”. Nella Relazione introduttiva alla delibera, l’Autorità ha sottolineato come “nel corso degli ultimi anni” si sia “registrato un crescente e preoccupante acuirsi, nelle trasmissioni televisive di approfondimento informativo e di infotainment delle principali emittenti nazionali, del ricorso ad espressioni di discriminazione nei confronti di categorie o gruppi di persone (target) in ragione del loro particolare status economico-sociale, della loro appartenenza etnica, del loro orientamento sessuale o del loro credo religioso. Tali ripetuti episodi riflettono, indubbiamente, i mutamenti registrati nel dibattito politico, economico e sociale, a seguito del manifestarsi di fenomeni di particolare impatto mediatico-culturale e della relativa trasposizione nella cronaca socio-politica e nell’agenda setting delle diverse forze politiche, in confronti sempre più accesi e polarizzati: attacchi terroristici, fenomeni migratori, episodi di criminalità collegati a vario titolo a specifiche origini etniche o specifici orientamenti sessuali, antisemitismo e così via. Di fronte a fenomeni complessi, che richiederebbero letture multilivello, attenzione ai dati e al contesto, separazione tra il merito del dibattito sulle politiche pubbliche e le valutazioni su specifiche caratteristiche personali, si affermano, con forza, chiavi di lettura semplificate, polarizzanti, divisive e perciò stesso fautrici di discriminazione attraverso espressioni d’odio verso gruppi di persone identificate in base a talune caratteristiche comuni”.
Oltre ad introdurre specifiche misure cogenti in capo ai fornitori di servizi media audio visivi per il contrasto ai discorsi d’odio e alle rappresentazioni errate, violente o discriminatorie di alcuni individui o gruppi di individui, prevede anche che l’Autorità promuova, mediante procedure di co-regolamentazione, l’adozione da parte delle piattaforme di condivisione di video (cd video sharingplatforms) di specifiche misure volte a contrastare la diffusione in rete, e in particolare sui social network, di contenuti in violazione dei principi sanciti a tutela della dignità umana e per la rimozione dei contenuti d’odio. La possibilità data dai social network di poter produrre, in forma scritta e senza contatto fisico o visivo con l’interessato e talvolta attraverso account in forma anonima, contenuti o messaggi di istigazione all’odio trovano, infatti, nelle camere d’eco il meccanismo più efficace per una loro diffusione sulla rete a grandissima velocità, raggiungendo molti contatti senza produrre ricadute in termini di responsabilità per l’autore.
Tali misure dovranno prevedere anche sistemi efficaci di individuazione e segnalazione degli illeciti e dei loro responsabili, e le piattaforme che le adottano dovranno trasmettere all’Autorità dei report di monitoraggio effettuato sulle iniziative prese per l’individuazione dei contenuti d’odio online, con l’indicazione anche delle modalità operative e dei sistemi di verifica utilizzati.
Fonte: Rapporto 2020 AGCOM, AGCM E GARANTE sui Big Data