Une application de génération d’images et de vidéos par IA a conduit à l’exposition des fichiers multimédias de ses utilisateurs. C’est un défaut de configuration qui est à l’origine de l’exposition. Avec une note de 4,3/5 et plus de 500.000 téléchargements, l’application Video AI Art Generator & Maker avait tout pour mettre en confiance. En plus, celle-ci était disponible depuis le 13 juin 2023 sur le Play Store, le magasin d’applications de Google. Elle apparaissait donc bien légitime. Néanmoins, les chercheurs de Cybernews ont découvert que les médias utilisés dans son cadre ont été exposés. Comme son nom l’indique, l’application en question permettait de générer des images et des vidéos grâce à l’I.A. Pour cela, les utilisateurs pouvaient uploader leurs médias afin qu’ils servent de base pour la génération. Le souci, c’est qu’un bucket (une unité de stockage contenant des données sous forme d’objets) de Google Cloud Storage était mal configuré. De fait, n’importe qui pouvait accéder aux médias stockés, et ce, sans même devoir s’identifier. Cette situation a mené à l’exposition de 8,27 millions de fichiers multimédias, soit l’équivalent de 12 To de données. Outre un peu plus de 5 millions de médias générés par l’IA, ce sont plus de 1,57 million d’images et plus de 385.000 vidéos téléversées par les utilisateurs qui ont été exposées. Ces fichiers originaux peuvent afficher des informations sensibles et privées qui sont justement masquées par le travail de l’I.A. lors de la génération. Malgré le RGPD (le règlement général sur la protection des données) en Europe, malgré la validation de Google pour distribuer l’application sur le Play Store, cela ne suffit pas à totalement protéger les données des utilisateurs. Or, ce n’est pas un cas isolé. La plus grande vigilance est donc de mise, surtout lorsque vous utilisez ces outils IA.