TimGate
header.weather.state

Oggi 19 agosto 2022 - Aggiornato alle 02:00

 /    /    /  yotube ha rimosso la cifra record di 11,4 milioni di video con la moderazione degli algortimi causa coronavirus da aprile a giugno 2020
YouTube, nuovo record di video rimossi con la moderazione automatica

- Credit: iStock

SOCIAL NETWORK26 agosto 2020

YouTube, nuovo record di video rimossi con la moderazione automatica

di Federico Bandirali

Nel 2° trimestre 2020 eliminati 11,4 milioni di video con i moderatori umani “a riposo” causa pandemia

Era prevedibile che sarebbe potuto succedere, ma la certezza ovviamente non l’aveva nessuno: YouTube ha rimosso più video nel secondo trimestre del 2020 di quanto mai fatto prima. Motivo? La società si è affidata alla moderazione dei contenuti con un algoritmo e non alle valutazioni dei moderatori di contenuti “umani”.

 

- LEGGI ANCHE- Coronavirus: l’intelligenza artificiale modera i video su YouTube

- E ANCHE - YouTube: video di fonti verificate sul coronavirus in homepage

 

Questo almeno è quanto risulta dal rapporto sull’applicazione delle linee guida della comunità che la piattaforma di proprietà di Google ha pubblicato martedì 25 agosto (via Protocol).

 

Nel report viene messo in evidenza come, tra aprile e giugno 2020, siano stati rimossi oltre 11,4 milioni di video. Per rendere l’idea dell’incremento, dovuto anche alla pandemia e ai tanti video complottisti o insensati sul Coronavirus SARS-CoV-2 (ma di amenità assortite ne venivano pubblicate anche prima), nello stesso arco temporale del 2019 Yotube aveva rimosso poco meno di 9 milioni di video.

 

“Quando abbiamo tenuto conto di una capacità di revisione umana notevolmente ridotta a causa della Covid-19, siamo stati costretti a fare una scelta tra una potenziale moderazione troppo contenuta e una potenzialmente eccessiva applicazione della policy in automatico”, ha scritto la società in un post sul blog.

 

Aggiungendo come, “poiché la responsabilità è la nostra massima priorità, abbiamo scelto quest’ultima opzione, utilizzando la tecnologia per aiutare con parte del lavoro normalmente svolto dai moderatori”.

 

Google, che possiede e detta legge su YouTube (anche se sarebbe più corretto indicare Alphabet, la holding guidata da Sundar Pichai che controlla anche Big-G), ha detto ai dipendenti a marzo di mettersi in smart working fino alla fine del 2020, poi esteso fino a metà 2021 a causa del protrarsi della pandemia da coronavirus.

 

- LEGGI ANCHE - Gli ultimi aggiornamenti sul coronavirus

 

La società, ai tempi, aveva chiarito che con le predette decisioni rispetto alla moderazione fatto maggior affidamento sulla tecnologia (e sugli algoritmi), rispetto al lavoro delle persone. Specificando come molti video che normalmente andrebbero bene sulla piattaforma avrebbero rischiato la cancellazione per errore, con altri ben congeniati per aggirare la moderazione automatica a subire sorte opposta.

 

I moderatori di YouTube, normalmente, lavorano da uffici appositamente predisposti per le revisioni; consentire che tale lavoro venga svolto al di fuori di un ambiente controllato avrebbe significato rischiare di esporre inavvertitamente i dati degli utenti e i video “sensibili”, con evidenti problemi per la privacy.

 

Youtube era perfettamente consapevole di come la rimozione di più video che non violavano le regole avrebbe comportato anche più appelli da parte dei creatori di contenuti. Per questo ha destinato più personale al processo di ricorso per gestire le richieste il più rapidamente possibile.

 

Il numero di appelli per l'eliminazione di contenuti è passato da 166.000 nel primo trimestre del 2020 a oltre 325.000 nel secondo. YouTube pertanto ha ripristinato più video nel secondo trimestre: 160.000, rispetto a poco più di 41.000 nel primo trimestre (sebbene la società abbia spiegato nel blog post come alcune delle reintegrazioni potrebbero essere state dovute a “ricorsi” presentati nel prima di aprile).

 

YouTube ha dichiarato infine chiarito come per aree particolarmente sensibili, quali la sicurezza dei minori e dei bambini e l’estremismo violento - a prescindere dal motivo politico - ha registrato più del triplo del numero di rimozioni rispetto al solito.

 

Valutando come l’inconveniente temporaneo per i creatori valesse il risultato finale: “Abbiamo accettato un livello di precisione inferiore per assicurarci di rimuovere il maggior numero possibile di contenuti pericolosi e contrari alla nostra policy”, ha chiosato la piattaforma.

 

Ed è francamente impossibile dare torto alla piattaforma, sebbene una volta tornati in condizioni “normali” sarebbe necessario raccogliere questa base e unirla agli sforzi della moderazione umana. Perché in questi mesi di pandemia – non solo in Italia – su YouTube sono stati pubblicati e mai rimossi video non solo fuorvianti rispetto al Covid-19, ma anche pericolosi. E le macchine si sono perse qualcosa che non sarebbe mai sfuggito all’occhio umano.