Un’inchiesta del New York Times mette in risalto le conseguenze negative del problema numero uno di Facebook: la moderazione dei contenuti pubblicati dagli utenti.
In effetti, la possibilità data a chiunque di pubblicare sui social qualsiasi tipo di contenuto, può consentire ai malintenzionati di inserire messaggi violenti, offensivi, oppure di caricare immagini d’odio e fake news.

Un problema che si è aggravato dopo l’allargamento di Facebook su scala globale e che ha fatto spesso finire sotto accusa la società fondata da Mark Zuckerberg che è corsa ai ripari facendo soprattutto ricorso alle soluzioni di intelligenza artificiale, che bloccano o eliminano i post tossici, mettendo in quarantena i profili delle persone che non rispettano le regole della community. Così facendo si è riusciti tutto sommato a tappare le falle, al netto di qualche contenuto artistico di troppo cassato e alcune sospensioni poco motivate.

L’inchiesta del New York Times

La recente inchiesta del New York Times, però, mette in evidenza un altro aspetto sconosciuto ai più: oltre ai software di AI, infatti, la moderazione di contenuti è affidata anche a migliaia di lavoratori in carne ed ossa che non sono però gestiti internamente da Facebook, ma da altre società: dal 2012 Facebook ha assunto almeno 10 società di consulenza e personale a livello globale per vagliare i suoi post, insieme a una più ampia rete di subappaltatori.

In particolare, rileva l’inchiesta del Times, la principale azienda attiva in questa azione di moderazione è Accenture. La società, uno dei leader globali nella system integration e nella consulenza ICT, ha infatti firmato con Facebook contratti per la moderazione dei contenuti e altri servizi del valore di almeno 500 milioni di dollari l’anno, con migliaia di moderatori umani coinvolti, dislocati in diverse parti del globo.

Un pesante lavoro di moderazione dei contenuti

Insomma, se oltre il 90% del materiale discutibile che arriva su Facebook e Instagram viene rimosso automaticamente dall’intelligenza artificiale, esistono comunque migliaia di persone che quotidianamente devono controllare l’adeguatezza dei post su questi social.
Il ritmo a cui lo fanno è veramente enorme: secondo alcuni ex moderatori che hanno lasciato l’incarico, un singolo operatore deve visionare dai 500 ai 700 post al giorno alcuni dei quali, purtroppo, sono crudeli e macabri, tanto da mettere a repentaglio la salute emotiva di questi lavoratori.

Un problema, questo, che è stato segnalato da diversi moderatori, alcuni dei quali hanno anche lasciato il lavoro e raccontato pubblicamente le loro condizioni. Il NYT si spinge addirittura a dire che “Accenture ha assorbito gli aspetti peggiori della moderazione dei contenuti e ha fatto propri i problemi dei contenuti di Facebook. Ma, come costo per fare business, ha dovuto affrontare i problemi di salute mentale dei lavoratori addetti alla revisione dei post”.

I problemi legali

Nel dicembre 2019 Accenture ha ammesso l’esistenza del problema, tanto da creare un’informativa legale di due pagine per informare i propri moderatori sui rischi di questo peculiare lavoro, che avrebbe “il potenziale per avere un impatto negativo sulla tua salute emotiva o mentale”.
Lo scorso ottobre, Accenture è andata oltre, evidenziando per la prima volta nella sua relazione annuale come la moderazione dei contenuti potesse essere considerata un fattore di rischio interno, tale da lasciare l’azienda vulnerabile al controllo dei media e a problemi legali di varia natura.

Il riferimento, probabilmente, è anche alla causa di class action promossa da due dipendenti di Accenture contro Facebook, che lamentavano stress e disturbi traumatici in seguito a questo lavoro. Il social network, in questo caso, si era inizialmente difeso sostenendo di non essere responsabile perché i lavoratori erano impiegati in aziende esterne.
Facebook aveva poi deciso di raggiungere un accordo da ben 52 milioni di dollari nel maggio 2020, ma evidentemente la situazione resta potenzialmente esplosiva.

Ecco perché, in questa fase, Accenture ha limitato i nuovi clienti in ambito moderazione social, tanto che eventuali nuovi contratti richiedono ormai l’approvazione dei vertici aziendali. Per il momento, però, Accenture non sembra intenzionata a rivedere i contratti in essere con Facebook, ritenuti troppo preziosi e remunerativi per rinunciarvi.

 

 

Moderazione dei contenuti, i lavoratori di Facebook stressati e traumatizzati: lo svela un’inchiesta del New York Times ultima modifica: 2021-09-07T10:07:31+00:00 da Sara Comi

LEAVE A REPLY

Please enter your comment!
Please enter your name here