Accueil Industrie et technologie Facebook Approuve une Publicité Israélienne Appelant à l’Assassinat d’un Activiste Pro-Palestine

Facebook Approuve une Publicité Israélienne Appelant à l’Assassinat d’un Activiste Pro-Palestine

par Sara
A+A-
Réinitialiser
Facebook Approuve une Publicité Israélienne Appelant à l'Assassinat d'un Activiste Pro-Palestine

Facebook et la Censure: L’Échec de Modération sur la Palestine Expliqué

Des publicités déshumanisantes et appelant à la violence contre les Palestiniens, destinées à tester les normes de modération de contenu de Facebook, ont toutes été approuvées par le réseau social, selon des informations partagées avec The Intercept.

Les publicités soumises, en hébreu et en arabe, comprenaient des violations flagrantes des politiques de Facebook et de sa société mère Meta. Certaines contenaient du contenu violent appelant directement au meurtre de civils palestiniens, comme des publicités exigeant un « holocauste pour les Palestiniens » et l’élimination des « femmes, enfants et personnes âgées de Gaza ». D’autres messages, comme ceux décrivant les enfants de Gaza comme « des terroristes futurs » et une référence aux « cochons arabes », contenaient un langage déshumanisant.

« L’approbation de ces publicités est juste le dernier exemple des échecs de Meta envers le peuple palestinien », a déclaré Nadim Nashif, fondateur du groupe de recherche et de plaidoyer sur les médias sociaux palestiniens 7amleh, qui a soumis les publicités tests, à The Intercept. « Tout au long de cette crise, nous avons assisté à un schéma continu de partialité et de discrimination évidentes de Meta contre les Palestiniens. »

L’idée de 7amleh de tester l’appareil de censure par apprentissage automatique de Facebook est née le mois dernier, lorsque Nashif a découvert une publicité sur son fil Facebook appelant explicitement à l’assassinat de l’activiste américain Paul Larudee, co-fondateur du Free Gaza Movement. La traduction automatique de Facebook du texte de la publicité disait : « Il est temps d’assassiner Paul Larudi sic, le terroriste antisémite et ‘droits de l’homme’ des États-Unis. » Nashif a signalé la publicité à Facebook, qui l’a retirée.

La publicité avait été placée par Ad Kan, un groupe israélien de droite fondé par d’anciens officiers de la Force de défense israélienne et des services de renseignement pour lutter contre les « organisations anti-israéliennes » dont le financement provient de sources prétendument antisémites, selon son site Web. (Ni Larudee ni Ad Kan n’ont immédiatement répondu aux demandes de commentaire.)

Appeler à l’assassinat d’un activiste politique est une violation des règles publicitaires de Facebook. Le fait que le post sponsorisé par Ad Kan soit apparu sur la plateforme indique que Facebook l’a approuvé malgré ces règles. La publicité a probablement passé les filtres du processus automatisé de Facebook, basé sur l’apprentissage automatique, qui permet à son entreprise publicitaire mondiale de fonctionner rapidement.

« Notre système de révision des publicités est conçu pour examiner toutes les publicités avant leur mise en ligne », selon un aperçu de la politique publicitaire de Facebook. Alors que la modération humaine de Meta, qui a historiquement reposé presque entièrement sur le travail externalisé, a fait l’objet de critiques accrues, l’entreprise s’est davantage appuyée sur des logiciels de numérisation de texte automatisés pour faire respecter ses règles de parole et ses politiques de censure.

Bien que ces technologies permettent à l’entreprise d’éviter les problèmes de main-d’œuvre associés aux modérateurs humains, elles obscurcissent également la manière dont les décisions de modération sont prises derrière des algorithmes secrets.

L’année dernière, un audit externe commandé par Meta a révélé que si l’entreprise utilisait régulièrement la censure algorithmique pour supprimer les publications en arabe, elle n’avait pas d’algorithme équivalent en place pour détecter les « discours hostiles en hébreu » comme la rhétorique raciste et l’incitation à la violence. Suite à l’audit, Meta a affirmé avoir « lancé un classificateur de ‘discours hostile’ en hébreu pour nous aider à détecter plus proactivement le contenu hébreu violant ». Contenu, c’est-à-dire, comme une publicité prônant le meurtre.

Incitation à la Violence sur Facebook

Face à la guerre israélienne contre les Palestiniens à Gaza, Nashif a été suffisamment troublé par l’appel explicite dans la publicité à assassiner Larudee qu’il craignait que des publicités payantes similaires ne contribuent à la violence contre les Palestiniens.

L’incitation à grande échelle à la violence passant des médias sociaux au monde réel n’est pas une simple hypothèse : en 2018, des enquêteurs des Nations Unies ont découvert que des publications Facebook inflammatoires avaient joué un « rôle déterminant » dans le génocide des Rohingyas au Myanmar. (L’année dernière, un autre groupe a diffusé des publicités tests incitant contre les Rohingyas, un projet similaire à l’expérience de 7amleh ; dans ce cas, toutes les publicités ont également été approuvées.)

La suppression rapide de la publication de Larudee n’expliquait pas comment la publicité avait été approuvée en premier lieu. À la lumière des assurances de Facebook que des mesures de sécurité étaient en place, Nashif et 7amleh, qui collaborent officiellement avec Meta sur les questions de censure et de libre expression, étaient perplexes.

Curieux de savoir si l’approbation était un coup de chance, 7amleh a créé et soumis 19 publicités, en hébreu et en arabe, avec un texte violant délibérément et flagrante les règles de l’entreprise — un test pour Meta et Facebook. Les publicités de 7amleh étaient conçues pour tester le processus d’approbation et voir si la capacité de Meta à filtrer automatiquement l’incitation violente et raciste s’était améliorée, même avec des exemples univoques d’incitation violente.

« Nous savions, d’après l’exemple de ce qui est arrivé aux Rohingyas au Myanmar, que Meta a un historique de ne pas en faire assez pour protéger les communautés marginalisées », a déclaré Nashif, « et que leur système de gestionnaire de publicités était particulièrement vulnérable. »

Le test de 7amleh semble avoir échoué pour Meta.

Le livre de règles des normes communautaires de l’entreprise — auxquelles les publicités sont censées se conformer pour être approuvées — interdit non seulement les textes prônant la violence, mais aussi toute déclaration déshumanisante contre des personnes en fonction de leur race, ethnie, religion ou nationalité. Malgré cela, les courriels de confirmation partagés avec The Intercept montrent que Facebook a approuvé chaque publicité.

Bien que 7amleh ait dit à The Intercept que l’organisation n’avait aucune intention de diffuser réellement ces publicités et allait les retirer avant qu’elles ne soient programmées pour apparaître, elle croit que leur approbation démontre que la plateforme sociale reste fondamentalement myope autour des discours non-anglais — langues utilisées par une grande majorité de ses plus de 4 milliards d’utilisateurs. (Meta a rejeté rétroactivement les publicités en hébreu de 7amleh après que The Intercept les ait portées à l’attention de l’entreprise, mais les versions arabes restent approuvées dans le système publicitaire de Facebook.)

La porte-parole de Facebook, Erin McPike, a confirmé que les publicités avaient été approuvées par accident. « Malgré nos investissements continus, nous savons qu’il y aura des exemples de choses que nous manquons ou que nous retirons par erreur, car les machines et les personnes font des erreurs », a-t-elle déclaré. « C’est pourquoi les publicités peuvent être revues plusieurs fois, y compris une fois qu’elles sont en ligne. »

Quelques jours après que ses propres publicités expérimentales aient été approuvées, 7amleh a découvert une publicité en arabe diffusée par un groupe se faisant appeler « Migrate Now », appelant les « Arabes de Judée et Samarie » — le nom utilisé par les Israéliens, en particulier les colons, pour désigner la Cisjordanie palestinienne occupée — à déménager en Jordanie.

Selon la documentation de Facebook, le filtrage automatisé basé sur des logiciels est la « méthode principale » utilisée pour approuver ou refuser les publicités. Cependant, il n’est pas clair si les algorithmes de « discours hostile » utilisés pour détecter les publications violentes ou racistes sont également utilisés dans le processus d’approbation des publicités. Dans sa réponse officielle à l’audit de l’année dernière, Facebook a déclaré que son nouveau classificateur en langue hébraïque améliorerait « significativement » sa capacité à gérer les « pics majeurs de contenu violant », comme lors des flambées de conflit entre Israël et la Palestine. Cependant, selon l’expérience de 7amleh, ce classificateur ne fonctionne pas très bien ou n’est pour une raison quelconque pas utilisé pour filtrer les publicités. (McPike n’a pas répondu lorsqu’on lui a demandé si l’approbation des publicités de 7amleh reflétait un problème sous-jacent avec le classificateur de discours hostile.)

Quoi qu’il en soit, selon Nashif, le fait que ces publicités aient été approuvées indique un problème global : Meta affirme pouvoir utiliser efficacement l’apprentissage automatique pour dissuader l’incitation explicite à la violence, alors qu’il ne le peut clairement pas.

« Nous savons que les classificateurs hébreux de Meta ne fonctionnent pas efficacement, et nous n’avons vu l’entreprise répondre à presque aucune de nos préoccupations », a déclaré Nashif dans son communiqué. « En raison de ce manque d’action, nous pensons que Meta peut assumer au moins une responsabilité partielle pour certains des dommages et de la violence que les Palestiniens subissent sur le terrain. »

L’approbation des versions arabes des publicités est particulièrement surprenante suite à un rapport récent du Wall Street Journal indiquant que Meta avait abaissé le niveau de certitude nécessaire à son système de censure algorithmique pour supprimer les publications en arabe – passant de 80 % de confiance que la publication enfreignait les règles, à seulement 25 %. Autrement dit, Meta était moins certain que les publications arabes qu’il supprimait ou supprimait effectivement contenaient des violations de politique.

Nashif a déclaré : « Il y a eu des actions soutenues entraînant la réduction au silence des voix palestiniennes. »

Source: theintercept

Laissez un commentaire

*En utilisant ce formulaire, vous acceptez le stockage et la gestion de vos données par ce site web.


Droits d’auteur © 2024 – unsujet.fr – Tous droits réservés

Bienvenue sur unsujet.fr ! 🌟 Nous utilisons des cookies pour améliorer votre expérience sur notre site. Ces petits fichiers sont essentiels pour le bon fonctionnement de notre site et nous aident à comprendre comment vous l'utilisez, afin de le rendre encore plus intéressant et pertinent pour vous. En continuant à naviguer sur unsujet.fr, vous acceptez notre utilisation des cookies. Si vous souhaitez en savoir plus sur notre politique de confidentialité et les cookies que nous utilisons, cliquez sur "En savoir plus". Vous pouvez également choisir de refuser les cookies non essentiels en cliquant sur "Refuser". Merci de votre visite et bonne lecture sur unsujet.fr ! 📚🌍 Accepter En savoir plus