Simon Ateba è il corrispondente capo della Casa Bianca per Today News Africa e copre il presidente Joe Biden, il vicepresidente Kamala Harris, il governo degli Stati Uniti, le Nazioni Unite, il FMI, la Banca mondiale e altre istituzioni finanziarie e internazionali a Washington e New York.
La società madre di Facebook, Meta, è stata citata in giudizio per 1.6 miliardi di dollari per aver presumibilmente alimentato la violenza etnica in Etiopia. La storica azione legale contro Meta è stata presentata all'Alta Corte del Kenya.
L'azione legale afferma che Meta ha promosso discorsi che hanno portato a violenze etniche e uccisioni in Etiopia utilizzando un algoritmo che assegna priorità e raccomanda contenuti odiosi e violenti su Facebook.
I firmatari cercano di impedire agli algoritmi di Facebook di raccomandare tali contenuti agli utenti di Facebook e costringono Meta a creare un fondo per le vittime di 200 miliardi ($ 1.6 miliardi di dollari).
Amnesty International, che sostiene che uno dei membri del suo staff nella regione sia stato preso di mira a seguito di post sulla piattaforma dei social media, si è unita ad altre sei organizzazioni legali e per i diritti umani come parti interessate nel caso.
“La diffusione di contenuti pericolosi su Facebook è al centro della ricerca del profitto di Meta, poiché i suoi sistemi sono progettati per mantenere le persone coinvolte. Questa azione legale è un passo significativo per ritenere Meta responsabile del suo modello di business dannoso”, ha affermato Flavia Mwangovya, vicedirettore regionale di Amnesty International per l'Africa orientale, il Corno e la regione dei Grandi Laghi.
“In Etiopia, le persone si affidano ai social media per notizie e informazioni. A causa dell'odio e della disinformazione su Facebook, anche i difensori dei diritti umani sono diventati bersaglio di minacce e vetriolo. Ho visto in prima persona come le dinamiche su Facebook hanno danneggiato il mio lavoro sui diritti umani e spero che questo caso riparerà lo squilibrio", ha dichiarato Fisseha Tekle, consulente legale di Amnesty International.
Fisseha Tekle è uno dei firmatari del caso, dopo essere stato oggetto di un flusso di post odiosi su Facebook per il suo lavoro di denuncia delle violazioni dei diritti umani in Etiopia. Cittadino etiope, ora vive in Kenya, teme per la sua vita e non osa tornare in Etiopia per vedere la sua famiglia a causa del vetriolo rivoltogli su Facebook.
L'azione legale afferma inoltre che esiste una disparità nell'approccio di Meta in situazioni di crisi in Africa rispetto ad altre parti del mondo, in particolare nel Nord America.
I firmatari hanno affermato che Meta ha la capacità di implementare aggiustamenti speciali ai suoi algoritmi per rimuovere rapidamente i contenuti infiammatori durante una crisi e che, nonostante sia stato distribuito in altre parti del mondo, secondo i firmatari nessuno di questi aggiustamenti è stato apportato durante il conflitto in Etiopia, garantire che i contenuti dannosi continuassero a proliferare.
I documenti interni di Meta divulgati dall'informatore Frances Haugen, noto come Facebook Papers, hanno mostrato che la società da 300 miliardi di dollari non disponeva inoltre di moderatori di contenuti sufficienti che parlassero le lingue locali.
Un rapporto dell'Oversight Board di Meta ha anche sollevato preoccupazioni sul fatto che Meta non avesse investito risorse sufficienti nella moderazione di contenuti in lingue diverse dall'inglese.
L'azione legale è intentata anche da Abraham Meareg, figlio di Meareg Amare, professore universitario all'Università di Bahir Dar nell'Etiopia settentrionale, che è stato braccato e ucciso nel novembre 2021, settimane dopo la diffusione su Facebook di post di incitamento all'odio e alla violenza contro di lui. . Il caso afferma che Facebook ha rimosso i post di odio solo otto giorni dopo l'uccisione del professor Meareg, più di tre settimane dopo che la sua famiglia aveva allertato per la prima volta l'azienda.
La Corte è stata informata che Abraham Meareg teme per la sua incolumità e chiede asilo negli Stati Uniti. Sua madre, fuggita ad Addis Abeba, è gravemente traumatizzata e urla ogni notte nel sonno dopo aver assistito all'uccisione del marito. Alla famiglia è stata sequestrata la casa a Bahir Dar dalla polizia regionale.
I post dannosi contro Meareg Amare e Fisseha Tekle non erano casi isolati. L'azione legale sostiene che Facebook sia inondato di post di odio, incitamento e pericolosi nel contesto del conflitto in Etiopia.
Meta utilizza sistemi algoritmici basati sul coinvolgimento per alimentare il feed di notizie, il ranking, i consigli e le funzionalità dei gruppi di Facebook, dando forma a ciò che viene visto sulla piattaforma. Meta guadagna quando gli utenti di Facebook rimangono sulla piattaforma il più a lungo possibile, vendendo pubblicità più mirata.
La visualizzazione di contenuti provocatori, compresi quelli che sostengono l'odio, che costituiscono incitamento alla violenza, all'ostilità e alla discriminazione, è un modo efficace per mantenere le persone sulla piattaforma più a lungo. Pertanto, la promozione e l'amplificazione di questo tipo di contenuto è fondamentale per il modello di business basato sulla sorveglianza di Facebook.
Studi interni risalenti al 2012 hanno indicato che Meta sapeva che i suoi algoritmi potevano causare gravi danni nel mondo reale. Nel 2016, la stessa ricerca di Meta ha chiaramente riconosciuto che "i nostri sistemi di raccomandazione accrescono il problema" dell'estremismo.
Nel settembre 2022, Amnesty International documentata in che modo gli algoritmi di Meta hanno amplificato e promosso in modo proattivo contenuti che incitano alla violenza, all'odio e alla discriminazione contro i Rohingya in Myanmar, aumentando sostanzialmente il rischio di un'esplosione di violenza di massa.
"Dall'Etiopia al Myanmar, Meta sapeva o avrebbe dovuto sapere che i suoi sistemi algoritmici stavano alimentando la diffusione di contenuti dannosi che portavano a gravi danni nel mondo reale", ha affermato Flavia Mwangovya.
“Meta si è dimostrata incapace di agire per arginare questo tsunami di odio. I governi devono intensificare e applicare una legislazione efficace per frenare i modelli di business basati sulla sorveglianza delle aziende tecnologiche".