La moderazione dei contenuti sui social funziona male e andrebbe completamente rivista

<!–

A+ A-

–> [Tempo di lettura stimato: 8 minuti]

Spazio di propagazione di disinformazione e notizie non verificate, di diffusione di discorsi di incitamento all’odio e di istigazione alla violenza, canale di aggregazione per gruppi che veicolano messaggi terroristici e razzisti. Da tempo i social network sono sottoposti alla pressione di politica, istituzioni e opinione pubblica per arginare la circolazione di contenuti che possono mettere a rischio la tenuta delle nostre società e le aziende che gestiscono le piattaforme stanno cercando di correre ai ripari modificando le policy che regolano la community in modo tale da rendere i social un luogo ospitale per tutti quelli che li frequentano.

A fine marzo, ad esempio, Facebook ha annunciato di aver modificato le proprie policy vietando ogni forma di sostegno al nazionalismo e al separatismo bianco. La decisione di modificare le policy era arrivata a quasi due settimane di distanza dalla strage di Christchurch in Nuova Zelanda (dove un suprematista bianco ha ucciso 50 persone che si erano riunite in due moschee della città e aveva postato su Facebook un video in diretta di almeno uno dei due attacchi) ma era soprattutto il risultato di una pressione esercitata sul social network da parte di giuristi ed esperti dei diritti civili dopo la pubblicazione un anno fa di un’indagine giornalistica di Motherboard che aveva mostrato le criticità che nascevano nella moderazione dei contenuti a causa della distinzione tra “nazionalismo e separatismo bianco” e “suprematismo bianco”.

Leggi anche >> Facebook vieta il razzismo di nazionalismo e suprematismo bianco. Ma la decisione arriva tardi

Da quando ha modificato le proprie policy, il social network ha chiuso le pagine di alcune organizzazioni e persone di estrema destra nel Regno Unito, in Canada e negli Stati Uniti. Ad aprile Facebook Italia ha disattivato i profili di alcuni dirigenti e militanti del partito neofascista CasaPound per aver ripetutamente violato gli Standard della Comunità. Si tratta di interventi comunque molto controversi perché rischiano di fare delle piattaforme come Google o Facebook gli arbitri della libertà di espressione online, finendo con il decidere cosa è possibile dire e cosa no, come sottolinea Dan Gillmor su Twitter.

Alcuni anni fa aveva fatto discutere la rimozione da parte di YouTube di migliaia di video che documentavano atrocità in Siria nel tentativo di eliminare la propaganda estremista dalla sua piattaforma, rischiando così di mettere a repentaglio futuri procedimenti giudiziari di crimini di guerra. Un numero imprecisato di singoli video e alcuni canali di YouTube furono eliminati dopo l’introduzione di una nuova tecnologia che contrassegnava e rimuoveva automaticamente quei contenuti che potenzialmente violavano le sue linee guida. Alcuni video furono poi recuperati dopo reclami degli autori. Tra questi, il fondatore del sito investigativo Bellingcat Eliot Higgins aveva dichiarato di aver ricevuto una notifica via e-mail per un video caricato nel 2013 e un secondo avviso per un altro filmato dell’omicidio del giornalista James Foley che non era disponibile pubblicamente.

Gli Standard di Comunità dei social network e la moderazione dei contenuti e dei commenti sono una delle responsabilità più importanti su Internet perché coinvolge i diritti di miliardi di utenti e la libertà di espressione dei cittadini. Come scriveva nel 2008 Jeffrey Rosen sul New York Times a proposito dell’allora vice-consigliere generale di Google Nicole Wong, conosciuta come “The Decider” per le decisioni difficili che il suo team doveva prendere su contenuti controversi, “Wong e i suoi colleghi hanno probabilmente più influenza sulla definizione dei limiti dell’espressione online di chiunque altro sul pianeta”.

La moderazione dei contenuti online è un lavoro complesso, dai costi umani altissimi – come avevamo raccontato in un articolo sulle condizioni lavorative dei dipendenti delle società cui Facebook appalta la gestione dei commenti sulla piattaforma – e cruciale per le ricadute dirette sulla possibilità dei cittadini di esprimere le proprie opinioni, di informarsi e diffondere a loro volta informazioni, sul quale però le grandi piattaforme tecnologiche investono in maniera non adeguata.

Il sistema di moderazione funziona male e le società che gestiscono i social network non riusciranno a migliorarlo fino a quando continueranno ad occuparsi e prendersi cura della libertà di espressione online la metà di quanto si preoccupano dei loro profitti, scrivono Jillian York e Corynne McSherry su Eff. Sono almeno quattro le criticità grosse da affrontare che suggeriscono di rivedere interamente e profondamente la moderazione dei contenuti.

La moderazione dei contenuti è un lavoro pericoloso e stressante, ma non possiamo pensare di affidarla ai robot

La maggior parte delle piattaforme appalta il lavoro di moderazione ad altre aziende che assumono persone che revisionano ogni giorno i contenuti segnalati o che possono violare le policy dei social network. Come hanno mostrato alcune inchieste giornalistiche, come quelle di Casey Newton su The Verge o di Jason Koebler e Joseph Cox su Motherboard, si tratta di un lavoro mal pagato e devastante per la salute psico-fisica: i dipendenti di queste società hanno parlato dello stress continuo al quale erano sottoposti durante la moderazione dei contenuti, di crisi di panico, disturbi da stress post-traumatico, ricorso a battute offensive e razziste e adesione a teorie complottiste.

Leggi anche >> Come funziona la moderazione su Facebook. Una fonte lo rivela a Valigia Blu

Le aziende stanno valutando di autonomizzare questo lavoro ricorrendo ai robot e forse un giorno l’intelligenza artificiale sarà in grado di controllare istantaneamente ed efficacemente l’intera rete, ma nel frattempo la strada da seguire richiede linee guida non contraddittorie e investimenti in risorse umane. La moderazione dei contenuti e dei commenti online, infatti, è un lavoro complesso e ha un’importanza cruciale perché, come già detto, coinvolge i diritti dei cittadini e la libertà di espressione. E per questo andrebbe migliorata e potenziata investendo su personale altamente qualificato, aumentando il numero dei moderatori coinvolti, garantendo contratti dignitosi e uno stipendio alto.

Leggi anche >> La moderazione online è cruciale e ha costi umani elevatissimi. I social investono poco e male

La moderazione dei contenuti è incoerente e confusa

Il sistema di moderazione è poi incoerente per il suo stesso modo di funzionare. Basandosi per lo più sulle segnalazioni di violazioni reali o percepite delle policy della piattaforma da parte degli utenti, alcune persone finiscono per essere colpite più di altre.

Leggi anche >> Le minacce dello spin doctor di Salvini: le parole di odio tollerate da Facebook (e dalla politica)

Da un lato è più probabile che una persona con un profilo pubblico e con molti follower sia segnalata rispetto a una meno popolare. Dall’altro, però, sempre più spesso ci sono disparità di trattamento a secondo del ruolo ricoperto e della fama degli utenti – e lo abbiamo visto con la foto pubblicata da Luca Morisi, lo spin doctor del ministro dell’Interno Matteo Salvini, che ritraeva il leader della Lega mentre impugnava una mitragliatrice accompagnata dal messaggio “Vi siete accorti che fanno di tutto per gettare fango sulla Lega? Si avvicinano le Europee e se ne inventeranno di ogni per fermare il Capitano. Ma noi siamo armati e dotati di elmetto. Avanti tutta, buona Pasqua!”, che secondo Facebook non violava le policy della piattaforma nonostante potesse essere potenzialmente fonte di ispirazione di azioni violente e che se fosse stata condivisa da un utente senza un ruolo pubblico probabilmente sarebbe stata rimossa; con la pubblicazione da parte della Polizia di Stato sui propri profili Facebook, Twitter e Instagram del video delle aggressioni al 65enne pensionato di Manduria, morto il 23 aprile dopo aver subito una serie di violenze da più gruppi di giovani, senza che vi fosse alcuna esigenza investigativa da parte della polizia, con l’unico effetto di aver scatenato commenti di odio e violenza inaudita, senza considerare quello su sui da tempo molti esperti lanciano allarme rispetto a video di questo genere: rischio emulazione ; o con il particolare utilizzo dei social media da parte del presidente degli Stati Uniti, Donald Trump, che a volte ha violato le regole delle piattaforme, come recentemente ammesso da Facebook stesso che – a differenza del 2016 quando non aveva rimosso post del presidente USA che avrebbero potuto essere classificati come hate speech – è intervenuto per rimuovere i contenuti non consentiti.

È come se la piattaforma avesse difficoltà nel gestire i contenuti che istigano all’odio e alla violenza o di disinformazione nel momento in cui sono diffusi da personaggi che hanno più potere e influenza sul dibattito pubblico o che rivestono cariche istituzionali e politiche. In questi casi le policy della piattaforma sono applicate in modo meno stringente. Proprio quando dovrebbero essere imposta in modo molto severo considerando ruolo e potere di influenza sull’opinione pubblica. 

In passato, Facebook è stato criticato per alcune decisioni discutibili, come quando fu censurata (per poi essere ripristinata) la foto simbolo della guerra in Vietnam, le Nazioni Unite scoprirono che era stato complice nel diffondere discorsi di incitamento all’odio durante il genocidio della comunità Rohingya in Myanmar, o un moderatore aveva rimosso un post che conteneva un passaggio della Dichiarazione di Indipendenza degli Stati Uniti.

Le decisioni sulla moderazione dei contenuti possono causare danni reali agli utenti e alle imprese

E poi ci sono le distorsioni di una moderazione che interviene in modo automatico senza riuscire a distinguere la cornice in cui sono utilizzate parole o immagini. Alcuni utenti LGBTQ sono stati censurati su Twitter perché avevano usato parole come “lesbica” in post che cercavano di contrastare discorsi omofobi ma che erano stati valutati come contenuti indesiderati. Una scrittrice e attivista nera era stata bloccata per un post che segnalava espressioni razziste. Facebook si era poi scusato per l’errore dopo che la scrittrice aveva chiesto al social network di saper distinguere tra discorsi che incitano all’odio e altri che vogliono segnalare razzismo e stigmatizzazioni.

Una start-up che si occupa di salute femminile ha visto i suoi contenuti oscurati perché ritenuti “eccessivamente allusivi o sessualmente provocatori”, gli annunci di una Campagna Nazionale per prevenire le gravidanze indesiderate negli USA sono stati rimossi perché classificati come “contenuti inappropriati”, mentre un libro è stato censurato perché conteneva la parola “utero” nel titolo. 

In Italia, per fare un esempio più recente, un utente, Gino Pino, ha dichiarato di essere stato bloccato 30 giorni per aver pubblicato un contenuto satirico e di critica del fascismo che secondo Facebook non rispettava gli standard della community.

I ricorsi non sempre funzionano e la trasparenza è minima

Negli ultimi anni i social network hanno dato la possibilità di fare ricorso alle persone a cui sono stati rimossi i propri post. Tuttavia, gli utenti delle diverse piattaforme si lamentano del fatto che spesso i ricorsi restano senza risposta o inascoltati anche in presenza di errori evidenti, come nel caso da noi raccontato proprio nei giorni scorsi dell’amministratore della pagina “L’arrotino”, disattivata per 3 giorni per aver pubblicato un’immagine che contravveniva alle policy sul nudo: si trattava della copertina di uno degli album più famosi dei Led Zepelin. È evidente che c’è qualcosa che non va e non riguarda l’utilizzo dell’intelligenza artificiale ma la discrezionalità con le quali i moderatori umani prendono le decisioni sui contenuti da mantenere o cancellare.

Lo scorso anno c’è stato un incontro a Santa Clara in California al quale hanno partecipato organizzazioni, avvocati, ricercatori universitari ed esperti che sostengono il diritto alla libera espressione online che ha portato all’individuazione di alcune linee guida minime – noti come i principi di Santa Clara – che i social network potrebbero seguire per garantire una moderazione dei contenuti trasparente ed equa:

  1. Dati. Le piattaforme dovrebbero pubblicare il numero dei post rimossi e quali sono gli account permanentemente o temporaneamente sospesi a causa di violazioni delle loro linee guida sui contenuti.
  2. Notifiche. Le piattaforme dovrebbero inviare una notifica a tutti gli utenti i cui contenuti sono rimossi spiegando i motivi della rimozione o della sospensione dell’account, e fornire una guida dettagliata che illustri le linee guida utilizzate dai revisori, come viene utilizzato il rilevamento automatico in ogni categoria e, ricorrendo anche ad esempi concreti, quali sono i contenuti vietati e quali quelli non consentiti.
  3. Ricorsi. Ogni utente dovrebbe poter presentare ricorso in modo tempestivo. Nello specifico, in caso di contenuti che si ritiene violano le policy della piattaforma, dovrebbe essere data la possibilità di fare ricorso prima della rimozione dei post.

Queste misure, spiegano York e McSherry, sono solo l’inizio di un percorso che dovrebbe portare le piattaforme a uniformare le loro policy alle norme sui diritti umani, come raccomandato da David Kaye, il relatore speciale delle Nazioni Unite sulla promozione e la tutela del diritto alla libertà di opinione ed espressione, in un documento pubblicato lo scorso anno.

Immagine via pixabay.com

div#segnala{width:100%;text-align:center;margin-bottom:0;padding-bottom:4px;} div#segnala a{color:#55acee} div#segnala a:hover{color:#66bcfe}

Segnala un errore

Fonte: Valigia Blu – https://www.valigiablu.it/moderazione-contenuti-social-network/

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *