YouTube a décidé de faire preuve de plus d’intransigeance face aux vidéos générées par l’intelligence artificielle. Désormais, celles-ci pourront être supprimées si elles ne respectent pas certaines règles. Ce n’est plus un secret, l’intelligence artificielle générative est présente partout sur le web et la plateforme YouTube ne fait pas exception. Ce mardi 14 novembre, YouTube a annoncé certains changements liés à l’explosion de cette nouvelle technologie. Si l’IA peut développer la créativité, elle est également parfois porteuse de dangers pour les créateurs et les spectateurs. La plateforme souhaite pouvoir identifier clairement les contenus créés grâce à l’IA pour ne pas tromper le spectateur. “Nous demanderons aux créateurs de préciser quand ils ont généré, à l’aide d’outils d’intelligence artificielle, une vidéo manipulée ou synthétique mais réaliste”, peut-on lire dans le communiqué de YouTube. Dans les prochains mois, la plateforme imposera donc une labellisation des contenus. Ainsi, les créateurs auront l’obligation de préciser que la vidéo a été générée par l’IA ou, dans certains cas, un libellé visible s’affichera sur l’écran. Cette deuxième option s’appliquera pour les contenus jugés “sensibles”, comme “des élections, des conflits, des crises sanitaires ou des personnalités publiques”. Les artistes musicaux pourront aussi demander le retrait d’une vidéo créée artificiellement et reprenant leur voix sans leur accord. En cas de non-respect de cette réglementation de manière systématique, les Youtubeurs pourraient s’exposer à “des retraits de vidéos, à la suspension du programme de partenariat avec la plateforme (qui permet d’avoir davantage de visibilité et de générer de la publicité sur ses vidéos) ou à d’autres sanctions”. De plus, si les vidéos créées sont choquantes, violentes ou diffamatoires, YouTube promet qu’elles seront supprimées.