Facebook a déclaré avoir supprimé près d’un million et demi de vidéos de l’attaque terroriste qui a eu lieu dans une mosquée à Christchurch, le 15 mars dernier. Un nombre impressionnant qui pose tout de même de nombreuses questions.

L’attaque terroriste qui s’est déroulée à Christchurch, en Nouvelle-Zélande, a coûté la vie à 50 personnes. Une attaque perpétrée par un extrémiste adepte de la théorie du grand remplacement qui a été diffusée en direct sur le réseau social de Mark Zuckerberg grâce à une caméra placée sur le torse de l’assaillant. La caméra a diffusé le massacre durant près de 17 minutes avant que la police néo-zélandaise et Facebook ne bloquent le compte du terroriste.

Un laps de temps de réaction important de la part du réseau social qui est d’ailleurs la cible de nombreuses critiques à travers le monde. Ces 17 minutes ont laissé le temps à des internautes d’enregistrer la vidéo de l’attaque et de la multiplier afin de la partager sur les réseaux sociaux.

À ce propos, une responsable néo-zélandaise de Facebook, Mia Garlick, a déclaré avoir supprimé près de 1,5 million de vidéos de l’attaque sur sa plateforme au cours des premières 24 heures. Le réseau social précise que 1,2 million de ces copies a été supprimé avant leur publication, ce qui implique qu’au moins 300.000 copies de la vidéo ont tout de même pu être visionnées sur le site, sans chiffres précis.

Malgré l’indignation et les appels à ne pas partager ni visionner ces vidéos, des copies du live du terroriste continuent d’apparaître sur la toile, que ça soit sur Facebook, Twitter ou YouTube.

La Première ministre néo-zélandaise, Jacinda Arden, a déclaré que les autorités du pays ont tenté de nettoyer la toile de ces vidéos, mais que la responsabilité revenait aussi aux différentes plateformes de réseaux sociaux « c’est à ces plateformes qu’il appartient de faciliter ces retraits […] Je crois qu’il demeure des questions nécessitant des réponses ». Pour Mme Arden, Facebook et compagnies ont manqué de réactivité pour supprimer ces vidéos.

Le réseau social en question avait embauché 20.000 modérateurs afin de retirer les vidéos, photos, commentaires et publications qui n’ont pas leur place sur Facebook, mais cela ne semble pas être suffisant. La preuve est le live de 17 minutes qu’a pu diffuser le terroriste.

Selon David Ibsen, directeur exécutif de l’organisation américaine Counter Extremism Project, « la technologie capable de prévenir cela est disponible. Les entreprises de réseaux sociaux ont pris la décision de ne pas l’adopter ». Une opinion que partage le Premier ministre australien, Scott Morrison qui a également partagé ses doutes quant à la bonne foi des réseaux sociaux « l’aptitude réelle à aider du côté de ces entreprises technologiques [les réseaux sociaux] est très limitée ». Bien que des « assurances avaient été données » de la part des réseaux sociaux pour retirer et empêcher la réapparition de ces vidéos, celles-ci continuent d’être diffusées.

Des mesures devraient être prises par les réseaux sociaux pour s’assurer que ce genre de choses ne soient plus diffusées sur leur plateforme.