Buffalo Shooting Tests Internet Antiterrorism Accord

Business

WELLINGTON, Nouvelle-Zélande—La diffusion en direct d’une fusillade dans un supermarché de Buffalo, dans l’État de New York, a démontré les forces et les limites d’un accord mondial visant à contrer la diffusion de contenu terroriste en ligne.

L’objectif initial de Christchurch Call était de forger une réponse coordonnée des entreprises de médias sociaux lorsque des vidéos violentes et extrémistes sont diffusées sur leurs plateformes. Un porte-parole de Meta a déclaré que la société avait pris ses propres mesures, notamment en investissant dans la technologie de détection et en travaillant avec Christchurch Call et d’autres groupes.

Pourtant, l’attaque du week-end à Buffalo – diffusée sur Twitch, un site appartenant à Amazon.com Inc.

AMZN 0,25 %

qui se spécialise dans le streaming en direct montre que les entreprises technologiques sont encore loin de pouvoir ignifuger leurs plateformes. Twitch a déclaré avoir supprimé le flux moins de deux minutes après le début du tournage, plus rapidement que les plateformes n’ont répondu dans le passé. Mais des versions de la vidéo pouvaient encore être trouvées sur Facebook, Twitter et YouTube plus d’un jour plus tard.

« La fusillade de Buffalo donnera sans aucun doute un nouvel élan » à ce que l’Appel de Christchurch tente d’accomplir, a déclaré Paul Ash, coordinateur de l’accord pour le gouvernement néo-zélandais. « En tant que communauté, nous analyserons cet événement tragique et utiliserons ce que nous avons appris pour renforcer davantage nos mesures de réponse à la crise. »

L’un des succès de l’appel de Christchurch a été d’amener les entreprises technologiques à utiliser le Forum Internet mondial pour contrer le terrorisme comme point central pour partager les empreintes digitales – appelées hachages – des vidéos et des images d’attaques, a déclaré le professeur Dave Parry, responsable des technologies de l’information à l’Université Murdoch en Australie. .

Le forum, fondé par des entreprises technologiques en 2017 pour une collaboration technique, a déclaré que ses membres avaient ajouté environ 870 éléments de contenu distincts – 130 versions de la vidéo en direct et 740 images – à la base de données de partage de hachage dans la journée suivant le tournage de Buffalo. . Les hachages permettent aux algorithmes d’identifier le contenu problématique lors de son téléchargement.

A lire aussi  La PDG de FanDuel, Amy Howe, veut aider le secteur des paris sportifs à se développer

La surveillance d’Internet est une tâche herculéenne, compte tenu de la quantité de vidéos téléchargées et de la capacité des utilisateurs à manipuler les fichiers pour les rendre plus difficiles à détecter par les algorithmes. Les progrès de l’intelligence artificielle ne suffiront peut-être pas à relever le défi.

« Il y a énormément de séquences de type combat sur le Web, y compris des séquences de jeux vidéo, et souvent les vidéos d’attaque sont de toute façon de mauvaise qualité, ce qui rend une approche intelligente de » comprendre puis bloquer « beaucoup plus difficile », a déclaré M. Parry.

Les entreprises technologiques sont appelées à respecter la ligne de démarcation avec le contenu en ligne, en restreignant l’extrémisme violent sans porter atteinte à la liberté d’expression. Meta dit avoir interdit plus de 250 organisations suprémacistes blanches dans le monde et supprimé près de 900 mouvements sociaux militarisés de sa plateforme.

Les gouvernements identifient également les éléments qu’ils jugent contenir du contenu terroriste et extrémiste violent. En Australie, un pays membre de Christchurch Call, des responsables gouvernementaux ont déclaré avoir renvoyé près de 6 000 articles vers des plateformes entre le début de 2020 et la mi-mars de cette année, dont plus de 4 200 ont été supprimés.

« La réponse à la crise n’est qu’une partie », a déclaré M. Ash, décrivant l’appel de Christchurch comme un travail en cours.

Les domaines qui nécessitent des efforts supplémentaires comprennent la compréhension du rôle des algorithmes dans l’exposition des personnes à l’extrémisme violent et la conception d’interventions, a-t-il déclaré.

« Il est clair que la tâche d’empêcher la production et la diffusion de ce contenu reste une priorité clé », a déclaré M. Ash. Les dirigeants de l’appel de Christchurch feront le point sur les progrès plus tard cette année.

La cérémonie de lancement de l’Appel de Christchurch à Paris il y a trois ans.


Photo:

charles platiau/piscine/Shutterstock

Aliya Danzeisen, coordinatrice nationale du Conseil des femmes islamiques de Nouvelle-Zélande, qui fait partie du comité consultatif de l’appel, a déclaré que l’appel devait aller au-delà de son objectif immédiat d’arrêter la diffusion de la vidéo de Christchurch pour s’attaquer aux raisons pour lesquelles la haine basée sur des facteurs comme la religion et la race fleurissent en ligne.

« C’est juste en quelque sorte arrêté », a déclaré Mme Danzeisen.

Les gouvernements, a-t-elle dit, doivent mettre fin à l’anonymat et à l’impunité que les médias sociaux offrent aux extrémistes et à l’absence de conséquences juridiques pour les sociétés Internet sur le contenu qu’elles autorisent.

Mais d’autres disent que les entreprises de médias sociaux vont déjà trop loin dans la modération du contenu et le contrôle du discours.

Plus de 60 organisations de la société civile, dont Amnesty International, Reporters sans frontières et l’Electronic Frontier Foundation, se sont opposées à la législation adoptée par le Parlement de l’Union européenne en avril 2021 qui oblige les plateformes en ligne à supprimer les contenus terroristes dans l’heure suivant leur signalement. Soulignant sa base transnationale et l’absence de contrôle judiciaire, ils ont déclaré que la loi était ouverte aux abus des gouvernements et pouvait encourager une censure excessive et menacer la liberté d’expression.

Tous les efforts mondiaux pour aller au-delà de l’approche actuelle consistant à supprimer de manière réactive les contenus extrémistes sont confrontés à des défis qui pourraient être insurmontables, a déclaré M. Parry de l’Université Murdoch. Les médias sociaux sont internationaux, mais la réglementation est locale et soumise aux intérêts nationaux. Il n’y a pas d’accord entre les pays sur un ensemble commun d’outils ou de règles pour réglementer le contenu.

Rendre les algorithmes plus aléatoires pour réduire l’effet de chambre d’écho qui pousse le contenu vers les utilisateurs en fonction de leurs préférences de visionnage pourrait également se heurter à la résistance des annonceurs et des entreprises de médias sociaux.

Écrire à Stephen Wright à stephen.wright@wsj.com

Copyright ©2022 Dow Jones & Company, Inc. Tous droits réservés. 87990cbe856818d5eddac44c7b1cdeb8

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.