Simon Ateba is hoofkorrespondent van die Withuis vir Today News Africa wat president Joe Biden, visepresident Kamala Harris, Amerikaanse regering, VN, IMF, Wêreldbank en ander finansiële en internasionale instellings in Washington en New York dek.
Facebook-moedermaatskappy Meta is vir $1.6 miljard gedagvaar omdat hy na bewering etniese geweld in Ethiopië aangevuur het. Die landmerk-regstappe teen Meta is in Kenia se hooggeregshof ingedien.
Die regsaksie beweer dat Meta spraak bevorder het wat gelei het tot etniese geweld en moorde in Ethiopië deur 'n algoritme te gebruik wat haatlike en gewelddadige inhoud op Facebook prioritiseer en aanbeveel.
Die petisies poog om Facebook se algoritmes te keer om sulke inhoud aan Facebook-gebruikers aan te beveel en Meta te dwing om 'n 200 miljard ($1.6 miljard USD) slagofferfonds te skep.
Amnestie Internasionaal, wat beweer dat een van sy personeellede in die streek geteiken is as gevolg van plasings op die sosiale media-platform, het by ses ander menseregte- en regsorganisasies as belanghebbende partye in die saak aangesluit.
“Die verspreiding van gevaarlike inhoud op Facebook lê die kern van Meta se strewe na wins, aangesien sy stelsels ontwerp is om mense betrokke te hou. Hierdie regstappe is 'n belangrike stap om Meta verantwoordelik te hou vir sy skadelike sakemodel,” het Flavia Mwangovya, Amnestie Internasionaal se adjunk-streekdirekteur van Oos-Afrika, Horn en Groot Mere-streek gesê.
“In Ethiopië maak die mense staat op sosiale media vir nuus en inligting. Weens die haat en disinformasie op Facebook het menseregteverdedigers ook teikens van dreigemente en vitriool geword. Ek het eerstehands gesien hoe die dinamika op Facebook my eie menseregtewerk benadeel en hoop hierdie saak sal die wanbalans regstel,” sê Fisseha Tekle, regsadviseur by Amnesty International.
Fisseha Tekle is een van die aansoekers wat die saak aanhangig gemaak het, nadat hy aan 'n stroom haatlike plasings op Facebook onderwerp is vir sy werk wat menseregteskendings in Ethiopië blootlê. 'n Ethiopiese burger, woon nou in Kenia, vrees vir sy lewe en durf nie terugkeer na Ethiopië om sy gesin te sien nie weens die vitriool wat op Facebook op hom gerig is.
Die regsaksie beweer ook dat daar 'n verskil is in Meta se benadering in krisissituasies in Afrika in vergelyking met elders in die wêreld, veral Noord-Amerika.
Die petisies het gesê dat Meta die vermoë het om spesiale aanpassings aan sy algoritmes te implementeer om inflammatoriese inhoud vinnig te verwyder tydens 'n krisis, en dat ondanks die feit dat dit elders in die wêreld ontplooi is, volgens die petisies geen van hierdie aanpassings gemaak is tydens die konflik in Ethiopië nie, verseker dat skadelike inhoud voortgaan om te versprei.
Interne Meta-dokumente wat deur die fluitjieblaser Frances Haugen, bekend as die Facebook Papers, bekend gemaak is, het getoon dat die maatskappy van $300 miljard ook nie genoeg inhoudmodereerders gehad het wat plaaslike tale praat nie.
’n Verslag deur Meta se oorsigraad het ook kommer laat ontstaan dat Meta nie voldoende hulpbronne in die moderering van inhoud in ander tale as Engels belê het nie.
Die regstappe word ook aanhangig gemaak deur Abraham Meareg, die seun van Meareg Amare, 'n universiteitsprofessor aan die Bahir Dar-universiteit in die noorde van Ethiopië, wat in November 2021 gejag en vermoor is, weke nadat plasings wat haat en geweld teen hom aanhits op Facebook versprei het. . Die saak beweer dat Facebook eers die haatlike plasings verwyder het agt dae ná professor Meareg se moord, meer as drie weke nadat sy familie die maatskappy die eerste keer in kennis gestel het.
Die hof is ingelig dat Abraham Meareg vir sy veiligheid vrees en asiel in die Verenigde State soek. Sy ma wat na Addis Abeba gevlug het, is erg getraumatiseerd en skree elke aand in haar slaap nadat sy haar man se moord gesien het. Die gesin se huis in Bahir Dar is deur die streekpolisie in beslag geneem.
Die skadelike plasings wat Meareg Amare en Fisseha Tekle teiken was nie geïsoleerde gevalle nie. Die regsaksie beweer Facebook is oorspoel met haatlike, opruiende en gevaarlike plasings in die konteks van die Ethiopië-konflik.
Meta gebruik betrokkenheid-gebaseerde algoritmiese stelsels om Facebook se nuusvoer, rangorde, aanbevelings en groepfunksies aan te dryf, wat vorm wat op die platform gesien word. Meta wins wanneer Facebook-gebruikers so lank as moontlik op die platform bly, deur meer geteikende advertensies te verkoop.
Die vertoon van opruiende inhoud – insluitend dié wat haat voorstaan, wat aanhitsing tot geweld, vyandigheid en diskriminasie uitmaak – is ’n doeltreffende manier om mense langer op die platform te hou. As sodanig is die bevordering en versterking van hierdie tipe inhoud die sleutel tot die toesig-gebaseerde sakemodel van Facebook.
Interne studies wat terugdateer na 2012 het aangedui dat Meta geweet het dat sy algoritmes ernstige werklike skade kan veroorsaak. In 2016 het Meta se eie navorsing duidelik erken dat “ons aanbevelingstelsels die probleem van ekstremisme laat groei”.
In September 2022, Amnestie Internasionaal gedokumenteer hoe Meta se algoritmes inhoud proaktief versterk en bevorder het wat geweld, haat en diskriminasie teen die Rohingia in Mianmar aangehits het en die risiko van 'n uitbreek van massageweld aansienlik verhoog het.
"Van Ethiopië tot Mianmar, Meta het geweet of moes geweet het dat sy algoritmiese stelsels die verspreiding van skadelike inhoud aanwakker wat tot ernstige werklike skade lei," het Flavia Mwangovya gesê.
“Meta het getoon dat hy nie in staat is om op te tree om hierdie tsoenami van haat te stuit nie. Regerings moet opskerp en doeltreffende wetgewing afdwing om die toesiggebaseerde sakemodelle van tegnologiemaatskappye in toom te hou.”