S’il est bien un reproche qu’on fait régulièrement aux réseaux sociaux, c’est celui de nuire à la santé mentale des plus jeunes. Et c’est probablement pour cela que Meta va maintenant changer sa politique de censure. Les adolescents qui utilisent Facebook et Instagram ne pourront bientôt plus pouvoir voir certains types de contenu, même si celui-ci est partagé par un ami. C’est une nouvelle politique de Meta afin de protéger les plus jeunes face à ces posts qui peuvent inciter au suicide ou aux pratiques alimentaires dangereuses telles que l’anorexie. Comme l’explique le magazine The Verge, si un jeune cherche du contenu en rapport avec ce sujet sur les réseaux de Meta, il sera directement renvoyé vers du contenu d’aide spécialisé. De la même manière, le jeune en question ne sera même pas mis au courant si un contenu de ce type est partagé par un de ses proches. Qui plus est, les comptes Facebook utilisés par des mineurs seront automatiquement réglés sur le paramètre de sélection du contenu par algorithme le plus strict, qui filtrera automatiquement les contenus jugés « sensibles » ou de « mauvaise qualité ». Un paramètre qui pourra toutefois être changé par l’utilisateur lui-même. Il ne s’agit pas de pur altruisme de la part de Meta. La compagnie est en effet sous pression de la part des autorités américaines en ce qui concerne sa gestion du contenu visible par les plus jeunes et de son effet sur la santé mentale. Mark Zuckerberg devra ainsi témoigner devant le sénat des États-Unis sur le sujet ce 31 janvier. L’Union européenne est aussi préoccupée par la question, et tient les compagnies responsables du contenu partagé sur leurs réseaux.