.
.
.
.
Durante l’invasione dell’Ucraina, le piattaforme continuano a cancellare la documentazione sui crimini di guerra critici
.
.
Quando accadono atrocità – a Mariupol, Gaza, Kabul o Christchurch – gli utenti e le società di social media devono porsi una domanda difficile: come gestiamo i contenuti online che mostrano quelle atrocità? Possiamo e dobbiamo distinguere tra contenuti pro-violenza contenenti atrocità e documentazione di giornalisti o attivisti per i diritti umani? In un conflitto, le piattaforme dovrebbero schierarsi riguardo a chi è consentito il contenuto violento?
L’ultimo decennio ha dimostrato che le piattaforme dei social media svolgono un ruolo importante nella documentazione e nella conservazione delle prove dei crimini di guerra. Sebbene i social media non siano il luogo ideale per condividere tali contenuti, il fatto è che per coloro che vivono in zone di conflitto, queste piattaforme sono spesso il luogo più semplice per caricare rapidamente tali contenuti.
La maggior parte delle piattaforme ha politiche sempre più rigide sull’estremismo e sulla violenza grafica. In quanto tale, la documentazione delle violazioni dei diritti umani, così come controvoci, notizie, arte e protesta, viene spesso catturata in rete. Le piattaforme stanno rimuovendo i contenuti che potrebbero essere preziosi per il pubblico e che potrebbero persino essere utilizzati come prove in futuri processi per crimini di guerra. Questo è stato un problema in corso per anni che continua durante l’invasione russa dell’Ucraina.
YouTube ha pubblicizzato con orgoglio di aver rimosso oltre 15.000 video relativi all’Ucraina in soli 10 giorni a marzo. Anche YouTube, Facebook, Twitter e una serie di altre piattaforme utilizzano la scansione automatizzata per la stragrande maggioranza delle rimozioni di contenuti in queste categorie. Ma la velocità fornita dall’automazione porta anche a errori. Ad esempio, all’inizio di aprile, Facebook ha temporaneamente bloccato gli hashtag utilizzati per commentare e documentare le uccisioni di civili nella città di Bucha, nel nord dell’Ucraina. Meta, il proprietario di Facebook, ha affermato che ciò è accaduto perché scansionano e eliminano automaticamente i contenuti violenti.
Per molti anni abbiamo criticato le piattaforme per la loro eccessiva rimozione di contenuti ‘violenti’ o ‘estremisti’. Queste rimozioni finiscono per prendere di mira maggiormente gli utenti emarginati. Ad esempio, con il pretesto di fermare il terrorismo, le piattaforme spesso rimuovono selettivamente il contenuto dei curdi e dei loro sostenitori. Facebook ha ripetutamente rimosso i contenuti che criticavano il governo turco per la sua repressione del popolo curdo.
Facebook ha più volte ammesso il proprio errore o si è difeso collegando i contenuti rimossi al Partito dei Lavoratori del Kurdistan (PKK), che il Dipartimento di Stato americano designa un’organizzazione terroristica. Indipendentemente dal fatto che questa giustificazione sia genuina o meno (Facebook avrebbe lasciato le foto del partito al governo turco di Hamas, un’altra organizzazione terroristica designata dagli Stati Uniti), significa effettivamente che la piattaforma è allineata con il governo contro i dissidenti politici.
Quando una piattaforma rimuove contenuti ‘violenti’, può censurare efficacemente i giornalisti che documentano i conflitti e ostacolare gli attivisti per i diritti umani che potrebbero aver bisogno del contenuto come prova. All’inizio della rivolta siriana, senza accesso a canali mediatici ricettivi, gli attivisti si sono rivolti rapidamente a YouTube e ad altre piattaforme per organizzare e documentare le loro esperienze.
Sono stati accolti con un’efficace censura, poiché YouTube ha rimosso e rifiutato di ripristinare centinaia di migliaia di video che documentavano atrocità come attacchi chimici, attacchi a ospedali e strutture mediche e distruzione di infrastrutture civili. Al di là della censura, questo ostacola i casi di diritti umani che utilizzano sempre più i contenuti sui social media come prova. Un investigatore di crimini di guerra ha detto a Human Rights Watch che ‘mi trovo costantemente di fronte a possibili prove cruciali che non sono più accessibili a me’.
Durante l’invasione dell’Ucraina, le piattaforme online hanno aggiunto alcune sfumature promettenti alle loro politiche di moderazione dei contenuti che erano assenti dai precedenti conflitti. Ad esempio, Facebook ha iniziato a consentire agli utenti in Ucraina e in pochi altri paesi di usare discorsi violenti contro i soldati russi, come ‘morte agli invasori russi’, definendolo una forma di espressione politica. Twitter ha smesso di amplificare e raccomandare account governativi che limitano l’accesso alle informazioni e si impegnano in ‘conflitti interstatali armati’. Questo sembra essere un cenno alle preoccupazioni sulla disinformazione russa, ma resta da vedere se Twitter applicherà la sua nuova politica agli alleati degli Stati Uniti che probabilmente si comportano in modo simile, come l’Arabia Saudita. Naturalmente, potrebbe esserci disaccordo con alcune di queste ‘sfumature’, come l’annullamento da parte di Facebook del divieto del battaglione Azov, una milizia ucraina di origini neonaziste.
In definitiva, le piattaforme online hanno molte più sfumature da aggiungere alle loro pratiche di moderazione dei contenuti e, altrettanto importante, una maggiore trasparenza con gli utenti. Ad esempio, Facebook non ha informato gli utenti della sua inversione di tendenza su Azov; piuttosto, l’Intercept lo ha imparato dai materiali interni. Gli utenti sono spesso all’oscuro del motivo per cui i loro contenuti dissenzienti vengono rimossi o perché la propaganda del loro governo viene lasciata in sospeso, e questo può danneggiarli gravemente. Le piattaforme devono collaborare con giornalisti, attivisti per i diritti umani e i loro utenti per stabilire chiare politiche di moderazione dei contenuti che rispettino la libertà di espressione e il diritto di accesso alle informazioni.
.
Fonte: EFF (Electronic Frontier Foundation)
.
.
* Mukund Rathi
Membro Stanton Legal
Mukund Rathi è un avvocato e membro Stanton presso EFF, specializzato in controversie sulla libertà di parola. In precedenza ha lavorato presso la National Association of Criminal Defense Lawyers (NACDL) sui diritti alla privacy digitale nei casi penali e sulla garanzia della libertà per le persone incarcerate durante la pandemia di COVID-19. Mukund è stato tirocinante presso l’EFF come studente di legge. Ha conseguito la laurea in giurisprudenza presso la UC Berkeley School of Law e la B.S. in Informatica presso l’Università del Texas ad Austin. Gli piace arrampicarsi sulle cose e fare la pizza a casa.
.
.
.
.