Facebook, Twitter et YouTube appliquent encore majoritairement leurs propres règles pour juger si un contenu est contrevenant ou violent, mais pourraient se voir contraints par les autorités françaises à supprimer plus de publications en vertu des nouvelles mesures de lutte contre le terrorisme.

©Bloomua / Shutterstock.com
©Bloomua / Shutterstock.com

Le Premier ministre Manuel Valls a annoncé mercredi une “intensification” du travail avec les acteurs internet, sans plus de précisions. Au cours du premier semestre 2014, ces grandes plateformes – qui sont régulièrement l’objet de polémiques sur les limites de la liberté d’expression – n’ont dû retirer que quelques dizaines de contenus à la demande du gouvernement.

– Twitter:
Le réseau social compte 284 millions d’utilisateurs dans le monde, qui publient chaque jour plus de 500 millions de tweets et ont tous accès à l’option “signaler” en bas de chaque message lorsqu’il leur semble illégal ou incitant à la violence.

Twitter ne pratique pas de modération “a priori” des contenus publiés sur sa plateforme, mais indique “vérifier tous les signalements de contenus qui contreviennent” à ses règles internes, qui interdisent par exemple “les menaces de violence à l’égard d’autrui“. Ses équipes techniques peuvent ensuite décider de supprimer un contenu s’il contrevient à ces règles.

Parallèlement, les autorités de chaque pays peuvent demander au groupe de retirer certains contenus frappés d’illégalité par les lois nationales. “Nous publions ces demandes d’information et de retrait de contenu dans notre rapport semestriel de transparence”, rappelle Twitter, dont le dernier exemplaire portant sur le premier semestre 2014 faisait état de 36 demandes d’informations (par exemple l’identité d’un détenteur de compte) et 107 demandes de suppressions de contenus en provenance des autorités françaises.

– YouTube (Google):
La plateforme de diffusion de vidéo (qui appartient à Google) rappelle qu’elle a “des politiques claires qui interdisent certains types de contenus comme ceux mettant en avant de la violence gratuite, des discours de haine et/ou d’incitation à commettre des actes violents, et nous supprimons les vidéos qui violent ces politiques quand elles nous sont signalées par nos utilisateurs“.

“Nous bloquons aussi les comptes enregistrés par des membres de groupes désignés comme +organisations terroristes étrangères+ et utilisés à titre officiel pour promouvoir leurs intérêts”, souligne le groupe.

Le 13 janvier, le patron de Google France, Nick Leeder, avait indiqué que plusieurs vidéos “illégales” en lien avec les attentats perpétrés contre Charlie Hebdo et la supérette casher avaient été effacées “le plus rapidement possible” de YouTube à la demande des autorités françaises.

– Facebook:
“Nous retirons des contenus et, lorsque nécessaire, communiquons avec les autorités, lorsque nous percevons un risque de blessures ou une menace directe pour la sécurité du public”, explique Facebook dans les “standards” destinés à sa communauté d’utilisateurs qui peuvent à tout moment “signaler un contenu” à une équipe active 24h/24.

“En moyenne, un signalement est traité en 72 heures, mais le processus peut être accéléré en cas de force majeure“, indique la plateforme.

“Vous ne devez pas menacer autrui ou organiser des actes de violence. Les organisations connues pour des activités terroristes ou criminelles ne sont pas autorisées à utiliser notre site“, ajoute le réseau social, qui souligne également qu’il ne “permet pas l’attaque d’individus ou de groupes sur la base de leur race, ethnicité, origine nationale, religion, sexe, orientation sexuelle, handicap ou état de santé”.

Dans son dernier rapport de transparence portant sur le premier semestre 2014, Facebook indiquait avoir reçu de la part des autorités françaises des demandes d’information concernant 2.599 comptes d’utilisateurs.

En outre, “en vertu des lois locales interdisant le négationnisme“, la plateforme indiquait avoir “limité l’accès” à 22 “éléments de contenu signalés”.

AFP