Simon Ateba é correspondente-chefe da Casa Branca para o Today News Africa cobrindo o presidente Joe Biden, a vice-presidente Kamala Harris, governo dos EUA, ONU, FMI, Banco Mundial e outras instituições financeiras e internacionais em Washington e Nova York.
A empresa controladora do Facebook, Meta, foi processada em US$ 1.6 bilhão por supostamente alimentar a violência étnica na Etiópia. A ação legal histórica contra a Meta foi apresentada no Supremo Tribunal do Quênia.
A ação legal afirma que a Meta promoveu discursos que levaram à violência étnica e assassinatos na Etiópia, utilizando um algoritmo que prioriza e recomenda conteúdo violento e odioso no Facebook.
Os peticionários buscam impedir que os algoritmos do Facebook recomendem tal conteúdo aos usuários do Facebook e obrigam a Meta a criar um fundo para vítimas de 200 bilhões (US$ 1.6 bilhão).
A Anistia Internacional, que afirma que um de seus funcionários na região foi alvo de postagens na plataforma de mídia social, juntou-se a outras seis organizações jurídicas e de direitos humanos como partes interessadas no caso.
“A disseminação de conteúdo perigoso no Facebook está no centro da busca de lucro da Meta, pois seus sistemas são projetados para manter as pessoas envolvidas. Esta ação legal é um passo significativo para responsabilizar a Meta por seu modelo de negócios prejudicial”, disse Flavia Mwangovya, vice-diretora regional da Amnistia Internacional para a África Oriental, Corno de África e Região dos Grandes Lagos.
“Na Etiópia, as pessoas contam com as mídias sociais para notícias e informações. Por causa do ódio e da desinformação no Facebook, os defensores dos direitos humanos também se tornaram alvos de ameaças e vitríolos. Vi em primeira mão como a dinâmica no Facebook prejudicou meu próprio trabalho de direitos humanos e espero que este caso corrija o desequilíbrio”, disse Fisseha Tekle, consultora jurídica da Anistia Internacional.
Fisseha Tekle é um dos peticionários que instaurou o caso, depois de ter sido submetido a uma série de postagens odiosas no Facebook por seu trabalho expondo as violações dos direitos humanos na Etiópia. Cidadão etíope, ele agora mora no Quênia, teme por sua vida e não ousa voltar à Etiópia para ver sua família por causa do vitríolo dirigido a ele no Facebook.
A ação legal também alega que há uma disparidade na abordagem da Meta em situações de crise na África em comparação com outras partes do mundo, particularmente na América do Norte.
Os peticionários disseram que o Meta tem a capacidade de implementar ajustes especiais em seus algoritmos para remover rapidamente o conteúdo inflamatório durante uma crise e que, apesar de ter sido implantado em outras partes do mundo, segundo os peticionários, nenhum desses ajustes foi feito durante o conflito na Etiópia, garantindo que o conteúdo prejudicial continue a proliferar.
Documentos Meta internos divulgados pela denunciante Frances Haugen, conhecidos como Facebook Papers, mostraram que a empresa de US$ 300 bilhões também não tinha moderadores de conteúdo suficientes que falassem os idiomas locais.
Um relatório do Conselho de Supervisão da Meta também levantou preocupações de que a Meta não havia investido recursos suficientes na moderação de conteúdo em outros idiomas além do inglês.
A ação legal também está sendo movida por Abraham Meareg, filho de Meareg Amare, professor universitário da Universidade Bahir Dar, no norte da Etiópia, que foi caçado e morto em novembro de 2021, semanas depois que postagens incitando ódio e violência contra ele se espalharam no Facebook. . O caso afirma que o Facebook só removeu as postagens odiosas oito dias após a morte do professor Meareg, mais de três semanas depois que sua família alertou a empresa pela primeira vez.
A Corte foi informada de que Abraham Meareg teme por sua segurança e está buscando asilo nos Estados Unidos. Sua mãe, que fugiu para Addis Abeba, está gravemente traumatizada e grita todas as noites durante o sono depois de testemunhar o assassinato de seu marido. A família teve sua casa em Bahir Dar apreendida pela polícia regional.
As postagens prejudiciais direcionadas a Meareg Amare e Fisseha Tekle não foram casos isolados. A ação legal alega que o Facebook está inundado de postagens odiosas, incitantes e perigosas no contexto do conflito na Etiópia.
A Meta usa sistemas algorítmicos baseados em engajamento para alimentar o feed de notícias, classificação, recomendações e recursos de grupos do Facebook, moldando o que é visto na plataforma. Meta lucra quando os usuários do Facebook permanecem na plataforma o maior tempo possível, vendendo publicidade mais direcionada.
A exibição de conteúdos inflamatórios – inclusive os que advogam o ódio, constituindo incitação à violência, hostilidade e discriminação – é uma forma eficaz de manter as pessoas por mais tempo na plataforma. Como tal, a promoção e amplificação deste tipo de conteúdo é fundamental para o modelo de negócio baseado em vigilância do Facebook.
Estudos internos datados de 2012 indicaram que a Meta sabia que seus algoritmos poderiam resultar em sérios danos no mundo real. Em 2016, a própria pesquisa da Meta reconheceu claramente que “nossos sistemas de recomendação aumentam o problema” do extremismo.
Em setembro de 2022, a Anistia Internacional documentado como os algoritmos da Meta amplificaram e promoveram proativamente conteúdo que incitava violência, ódio e discriminação contra os rohingya em Mianmar e aumentava substancialmente o risco de um surto de violência em massa.
“Da Etiópia a Mianmar, a Meta sabia ou deveria saber que seus sistemas algorítmicos estavam alimentando a disseminação de conteúdo prejudicial, levando a sérios danos no mundo real”, disse Flavia Mwangovya.
“O Meta tem se mostrado incapaz de agir para conter esse tsunami de ódio. Os governos precisam intensificar e fazer cumprir uma legislação eficaz para controlar os modelos de negócios baseados em vigilância das empresas de tecnologia.”