Simon Ateba ist Chefkorrespondent des Weißen Hauses für Today News Africa und deckt Präsident Joe Biden, Vizepräsidentin Kamala Harris, die US-Regierung, die Vereinten Nationen, den IWF, die Weltbank und andere finanzielle und internationale Institutionen in Washington und New York ab.
Die Facebook-Muttergesellschaft Meta wurde auf 1.6 Milliarden US-Dollar verklagt, weil sie angeblich ethnische Gewalt in Äthiopien angeheizt hat. Die wegweisende Klage gegen Meta wurde beim Obersten Gericht in Kenia eingereicht.
Die Klage behauptet, Meta habe Reden gefördert, die zu ethnischer Gewalt und Morden in Äthiopien geführt hätten, indem sie einen Algorithmus verwendet, der hasserfüllte und gewalttätige Inhalte auf Facebook priorisiert und empfiehlt.
Die Petenten versuchen, die Algorithmen von Facebook daran zu hindern, Facebook-Nutzern solche Inhalte zu empfehlen, und zwingen Meta, einen Opferfonds in Höhe von 200 Milliarden (1.6 Milliarden US-Dollar) einzurichten.
Amnesty International, das behauptet, dass einer seiner Mitarbeiter in der Region aufgrund von Beiträgen auf der Social-Media-Plattform angegriffen wurde, schloss sich sechs anderen Menschenrechts- und Rechtsorganisationen als interessierte Parteien in dem Fall an.
„Die Verbreitung gefährlicher Inhalte auf Facebook steht im Mittelpunkt von Metas Streben nach Profit, da seine Systeme darauf ausgelegt sind, die Menschen zu beschäftigen. Diese Klage ist ein wichtiger Schritt, um Meta für sein schädliches Geschäftsmodell zur Rechenschaft zu ziehen“, sagte Flavia Mwangovya, stellvertretende Regionaldirektorin von Amnesty International für Ostafrika, Horn und die Region der Großen Seen.
„In Äthiopien verlassen sich die Menschen auf soziale Medien, um Nachrichten und Informationen zu erhalten. Aufgrund des Hasses und der Desinformation auf Facebook sind auch Menschenrechtsverteidiger zur Zielscheibe von Drohungen und Gehässigkeiten geworden. Ich habe aus erster Hand gesehen, wie die Dynamik auf Facebook meiner eigenen Menschenrechtsarbeit geschadet hat und hoffe, dass dieser Fall das Ungleichgewicht ausgleichen wird“, sagte Fisseha Tekle, Rechtsberaterin bei Amnesty International.
Fisseha Tekle ist einer der Petenten, der den Fall vorgebracht hat, nachdem er wegen seiner Arbeit zur Aufdeckung von Menschenrechtsverletzungen in Äthiopien mit einem Strom hasserfüllter Posts auf Facebook konfrontiert wurde. Er ist äthiopischer Staatsbürger, lebt jetzt in Kenia, fürchtet um sein Leben und wagt es nicht, nach Äthiopien zurückzukehren, um seine Familie zu sehen, weil er auf Facebook angegriffen wird.
In der Klage wird auch behauptet, dass Metas Herangehensweise in Krisensituationen in Afrika im Vergleich zu anderen Teilen der Welt, insbesondere Nordamerika, unterschiedlich ist.
Die Petenten sagten, dass Meta in der Lage sei, spezielle Anpassungen an seinen Algorithmen vorzunehmen, um aufrührerische Inhalte während einer Krise schnell zu entfernen, und dass laut den Petenten keine dieser Anpassungen während des Konflikts in Äthiopien vorgenommen wurden, obwohl sie anderswo auf der Welt eingesetzt wurden. sicherzustellen, dass sich schädliche Inhalte weiter verbreiten.
Interne Meta-Dokumente, die von der Whistleblowerin Frances Haugen, bekannt als Facebook Papers, offengelegt wurden, zeigten, dass das 300-Milliarden-Dollar-Unternehmen auch nicht über genügend Content-Moderatoren verfügte, die die Landessprachen sprechen.
Ein Bericht des Aufsichtsgremiums von Meta äußerte auch Bedenken, dass Meta nicht genügend Ressourcen in die Moderation von Inhalten in anderen Sprachen als Englisch investiert habe.
Die Klage wird auch von Abraham Meareg erhoben, dem Sohn von Meareg Amare, einem Universitätsprofessor an der Bahir Dar University im Norden Äthiopiens, der im November 2021 gejagt und getötet wurde, Wochen nachdem sich auf Facebook Posts verbreitet hatten, die zu Hass und Gewalt gegen ihn aufriefen . Der Fall behauptet, Facebook habe die hasserfüllten Posts erst acht Tage nach der Ermordung von Professor Meareg entfernt, mehr als drei Wochen, nachdem seine Familie das Unternehmen zum ersten Mal alarmiert hatte.
Dem Gericht wurde mitgeteilt, dass Abraham Meareg um seine Sicherheit fürchtet und in den Vereinigten Staaten um Asyl nachsucht. Seine Mutter, die nach Addis Abeba geflohen ist, ist schwer traumatisiert und schreit jede Nacht im Schlaf, nachdem sie die Ermordung ihres Mannes miterlebt hat. Das Haus der Familie in Bahir Dar wurde von der Regionalpolizei beschlagnahmt.
Die schädlichen Posts gegen Meareg Amare und Fisseha Tekle waren keine Einzelfälle. Die Klage behauptet, dass Facebook im Zusammenhang mit dem Äthiopien-Konflikt mit hasserfüllten, hetzerischen und gefährlichen Beiträgen überschwemmt ist.
Meta verwendet engagementbasierte algorithmische Systeme, um den Newsfeed, das Ranking, die Empfehlungen und die Gruppenfunktionen von Facebook zu unterstützen und so zu gestalten, was auf der Plattform zu sehen ist. Meta profitiert davon, wenn Facebook-Nutzer möglichst lange auf der Plattform bleiben, indem sie gezielter Werbung verkaufen.
Das Zeigen von hetzerischen Inhalten – einschließlich solcher, die Hass befürworten, die zu Gewalt, Feindseligkeit und Diskriminierung aufstacheln – ist ein wirksames Mittel, um Menschen länger auf der Plattform zu halten. Daher ist die Förderung und Erweiterung dieser Art von Inhalten der Schlüssel zum überwachungsbasierten Geschäftsmodell von Facebook.
Interne Studien aus dem Jahr 2012 zeigten, dass Meta wusste, dass seine Algorithmen zu ernsthaften Schäden in der realen Welt führen könnten. Im Jahr 2016 bestätigte Metas eigene Forschung eindeutig, dass „unsere Empfehlungssysteme das Problem“ des Extremismus verstärken.
September 2022 Amnesty International dokumentiert wie die Algorithmen von Meta proaktiv Inhalte verstärkten und förderten, die zu Gewalt, Hass und Diskriminierung gegen die Rohingya in Myanmar aufstachelten und das Risiko eines Ausbruchs von Massengewalt erheblich erhöhten.
„Von Äthiopien bis Myanmar wusste Meta oder hätte wissen müssen, dass seine algorithmischen Systeme die Verbreitung schädlicher Inhalte vorantreiben, die zu ernsthaften Schäden in der realen Welt führen“, sagte Flavia Mwangovya.
„Meta hat sich als unfähig erwiesen, diesen Tsunami des Hasses einzudämmen. Die Regierungen müssen sich verstärken und wirksame Gesetze durchsetzen, um die auf Überwachung basierenden Geschäftsmodelle von Technologieunternehmen einzudämmen.“