Twitch pourra bannir ses utilisateurs pour leur comportement en dehors de la plateforme

C’est une première dans le secteur, Twitch pourra prendre en compte et enquêter sur les plaintes relatives aux comportements graves de ses utilisateurs sans qu’un lien soit forcément établi avec la plateforme de streaming.

Ces nouvelles mesures ont été annoncées par la filiale d’Amazon dans un communiqué. La plateforme affirme vouloir combattre avec plus de fermeté les comportements graves et le harcèlement : “Actuellement, nos lignes de conduite stipulent que dans certains cas sérieux pour lesquels nous disposons de preuves vérifiables, nous pouvons prendre des mesures contre des utilisateurs se rendant coupables d’incitation à la haine ou de harcèlement en dehors de Twitch”. Bien conscient que des comportements répréhensibles peuvent avoir lieu en dehors de la plateforme, Twitch met en place des solutions pour mettre fin aux collaborations entre l’entreprise et les personnes inculpées.

Plusieurs cas de figure

Dans un premier temps, la plateforme de streaming poursuit sa lutte contre le harcèlement en ligne et prévoit d’étendre le traitement des plaintes pour harcèlement en interne à des cas en externe : “Par exemple, si nous étudions un signalement pour harcèlement survenu en direct sur un stream, tout harcèlement en lien avec cet événement ou qui se perpétue sur Twitter peut être pris en compte lorsqu’il nous est signalé”.

Le second cas de figure est quant à lui inédit. La plateforme pourra bannir des utilisateurs pour des faits ayant eu lieu exclusivement en dehors de Twitch. Une liste non exhaustive a été dressée par la plateforme :

  • Violence mortelle et extrémisme violent
  • Activités ou recrutement terroristes
  • Menaces explicites et/ou crédibles de violence de masse (menace à l’encontre d’un groupe de personnes, d’un événement ou d’un endroit où des personnes se rassemblent)
  • Dirigeant ou membre d’un groupe de haine notoire
  • Perpétuation ou complicité d’actes sexuels non consentants et/ou d’agressions sexuelles
  • Exploitation sexuelle d’enfants, comme la prédation sexuelle et la sollicitation ou la distribution de contenu pornographique représentant des mineurs
  • Actions mettant directement et explicitement en danger la sécurité physique de membres de la communauté Twitch, comme proférer des menaces de violence visant un événement Twitch
  • Menaces explicites et/ou crédibles à l’encontre de Twitch, dont les membres de l’équipe

Un cabinet d’investigation

Twitch affirme ne pas prendre de décision définitive sans avoir de sérieuses preuves du méfait. Pour vérifier la véracité des faits exposés lors d’un signalement, la plateforme fait appel à un service d’enquête privé : “Il s’agit d’un cabinet d’investigations doté d’une grande expérience dans ce domaine : il se spécialise en effet dans les enquêtes indépendantes sur le lieu de travail et dans les campus, y compris dans les cas d’agressions ou de discriminations sexuelles. Fort d’une grande expertise dans ces situations, ce cabinet est en mesure de mener ses enquêtes dans le respect de la vie privée de toutes les parties concernées”. Twitch n’a pas dévoilé le nom du cabinet en question.

Par ailleurs, l’entreprise assure vouloir respecter la vie privée des partis au maximum lors du traitement d’une plainte. Pour ce faire, la firme assure mettre le moins de personnes possible dans la confidence. Elle ajoute que du nouveau personnel sera formé : “Nous avons également augmenté la taille de notre équipe juridique interne, qui a été formée de façon approfondie afin de gérer des enquêtes sensibles et confidentielles en collaboration avec les forces de l’ordre”.

Pour les plaintes à propos de faits particulièrement graves et nécessitant une attention minutieuse et confidentielle, Twitch met à disposition cette adresse e-mail : OSIT@twitch.tv. Il faut également rappeler que ce service ne se substitue pas aux forces de l’ordre, porter plainte à la police est toujours une priorité.

Responsabilisation des plateformes

Les plateformes d’hébergement de contenu en user generated content comme Twitch, YouTube ou Facebook, bénéficient d’un statut particulier. Elles ne sont pas considérées comme des médias éditeurs de contenu, mais bien comme des plateformes d’hébergement. Elles n’ont donc aucun compte à rendre à propos des contenus problématiques qu’elles hébergent et dont elles ne connaissent pas l’existence. Seulement, de plus en plus de politiques envisagent de réformer ce statut.

Les autorités pointent du doigt le manque de rigueur des plateformes et des réseaux sociaux dans la lutte contre la désinformation. Fausses rumeurs, contenus mensongers, manipulation électorale, appels à la haine, apologie du terrorisme, etc. Des scandales à répétition ont eu lieu ces dernières années.

De plus, le business-modèle des réseaux sociaux et des plateformes s’appuie en partie sur le contenu publicitaire et sur les sponsors. Il est favorable aux yeux des annonceurs d’éviter certains contenus.

Anticiper de futures régulations

Dans ce contexte, la décision de Twitch n’est donc pas anodine. Beaucoup de plateformes décident de mettre les mains dans le cambouis pour redorer leur blason et pour se prémunir face aux futures sanctions.

L’exemple le plus marquant, mais aussi le plus interpellant, est celui de la suppression du compte Twitter de Donald Trump après l’assaut du Capitole en janvier passé. Le président sortant n’en était pourtant pas à sa première controverse, pourquoi a-t-il fallu attendre le drame pour bannir ce compte ? Si les mesures que Twitch met en place sont bienvenues, il est tout de même légitime de s’interroger sur la capacité d’autorégulation des plateformes.

Mark Zuckerberg, le patron le Facebook, a lui-même reconnu le 24 mars passé que les plateformes devraient pouvoir prouver qu’elles ont des systèmes d’identification et de destruction des contenus illégaux et de désinformation : “Quelles que soient leurs opinions politiques, les gens veulent s’assurer que les entreprises prennent leurs responsabilités en matière de lutte contre les contenus et activités illégaux sur leurs plateformes”, affirmait-il devant les législateurs américains.

Ces derniers, qui avaient également convoqué les patrons de Twitter et de Google, ont tout de même souligné la responsabilité de ces firmes : “Pendant trop longtemps, les géants de la Tech ont refusé de reconnaître le rôle qu’ils ont joué dans la fabrication et la propagation de fausses informations auprès de leur public. L’autorégulation de l’industrie a échoué”.

Il y a donc fort à parier qu’à l’instar de Twitch, les plateformes durcissent les règles de modération du contenu qu’elles hébergent et qu’une coopération s’installe entre elles et les autorités compétentes.