Selon la BBC, Facebook et Instagram ont modifi leur algorithme pour invisibiliser le contenu post par les Palestiniens.

Selon la BBC, Facebook et Instagram ont modifié leur algorithme pour invisibiliser le contenu posté par les Palestiniens. Meta affirme avoir voulu limiter les contenus choquants, mais des contenus similaires n’ont pas été rétrogradés sur les pages israéliennes La BBC révèle que Meta a entravé la visibilité des médias et des internautes palestiniens. Des durcissements assumés par l’entreprise, qui évoque « des mesures temporaires » prises au lendemain du 7-Octobre. Facebook a fortement limité la visibilité des médias palestiniens à la suite des attaques du 7 octobre 2023, révèle une enquête de la BBC Instagram, autre propriété du groupe Meta, a également durci la modération des commentaires de comptes palestiniens, a admis l’entreprise, au nom de la lutte contre les discours de haine. Les chiffres compilés par la BBC montrent une très nette perte en engagement des médias palestiniens depuis le 7 octobre 2023, alors même que les autres médias couvrant le conflit, israéliens comme arabophones non-palestiniens, ont vu le leur augmenter. Ainsi, selon la BBC, les pages Facebook de 20 médias palestiniens opérant depuis la bande de Gaza ou la Cisjordanie ont perdu 77 % en engagement du public depuis le 7 octobre. Les vues du compte Facebook de Palestine TV auraient ainsi baissé de 60 %, malgré ses 5.8 millions d’abonnés. Au contraire, les 20 médias israéliens analysés auraient vu leur engagement augmenter de 37 %. Cette hausse, portée par la couverture du conflit, se retrouverait sur les pages de trente des médias arabophones analysés, tels qu’Al-Jazeera et Sky News Arabia, dont l’engagement a quasiment doublé. Une preuve que cette différence de visibilité ne s’explique pas uniquement par les difficultés de Facebook à modérer les contenus en langue arabe. Les « Facebook files », des documents internes qui avaient fuité en 2021, attestaient ainsi des effectifs insuffisants de ses équipes de modération arabophones, et de dysfonctionnements de ses algorithmes chargés de reconnaître les contenus critiquant le terrorisme. Ces derniers se trompaient plus de trois fois sur quatre, conduisant à la suppression de contenus légitimes. En réponse à ces données, Meta a rappelé que cette évolution était liée à des changements dans la politique de modération mis en œuvre en octobre 2023. Ceux-ci visaient notamment la suppression de contenus liés au Hamas, classé comme organisation terroriste par les Etats-Unis et membre de la liste d’organismes et individus dangereux de Facebook. L’alignement de cette liste sur les décisions de politique étrangère américaines, pouvant introduire des biais de modération dans des conflits à l’étranger, a été critiqué par d’anciens employés de Facebook. Un employé de Meta, sous couvert de l’anonymat, a expliqué à la BBC que l’algorithme d’Instagram avait aussi été changé dans la semaine suivant le 7-Octobre, afin de durcir la modération des commentaires écrits par des comptes palestiniens.
Back to Top