Crédits : Pixabay

Attention, des arnaqueurs sont capables de reproduire votre voix pour arnaquer vos proches

À l’heure actuelle, certaines intelligences artificielles sont capables de reproduire des voix avec une précision déconcertante. Certaines personnes malintentionnées l’ont bien compris et mobilisent ces technologies pour aboutir à leurs fins.

Cela n’est plus à démontrer, les arnaques par téléphone ou messages sont monnaie courante. Une personne malintentionnée appelle une victime et se fait passer pour un employé de banque ou une victime reçoit un message d’un prétendu petit fils demandant d’envoyer de l’argent en toute urgence. Les exemples sont innombrables.

En parallèle, les intelligences artificielles se sont considérablement développées ces dernières années. Certaines d’entre elles arrivent à recréer des voix sur base de quelques échantillons et le résultat peut se révéler très convaincant. Les adeptes des arnaques par téléphones ou par messages ont bien compris que ces intelligences artificielles leur offraient de nouveaux moyens pour aboutir à leurs fins.

En effet, selon The Washington Post, des personnes malintentionnées utilisent certaines intelligences artificielles pour recréer la voix d’un proche de la victime potentielle. Ainsi, The Washington Post rapporte la mésaventure d’un couple de Canadiens, Greg Grace et Ruth Card. Cette dernière reçoit un jour un appel de Brandon, son petit-fils, qui lui explique qu’il est en prison sans téléphone ni portefeuille et qu’il a absolument besoin d’argent. En réalité, il ne s’agissait pas de Brandon, mais d’une reproduction de sa voix. Prise de peur, Ruth Card se rend dans une première banque et retire 2.207 dollars, c’est-à-dire le montant maximum autorisé par jour. Elle se rend ensuite dans une seconde banque pour retire encore plus d’argent. Fort heureusement, un employé avait déjà eu affaire à une arnaque de ce type et a averti Ruth Card à temps. Plus de peur que de mal finalement.

The Washington Post rapporte ensuite un cas similaire qui s’est moins bien terminé. Un jour, les parents de Benjamin Perkin ont reçu un appel d’un « avocat » les avertissant que leur fils avait tué un diplomate américain dans un accident de voiture. Le prétendu avocat réclamait 21.000 dollars pour couvrir des coûts juridiques. Au cours de l’entretien téléphonique, une reproduction de la voix de Benjamin Perkins a été diffusée, ils ont pu entendre leur « fils » dire qu’il les aimait et qu’il avait besoin de cet argent. Les parents de ce dernier ont été persuadés qu’il s’agissait bien de leur fils et sont allés dans différentes banques pour retirer de l’argent. Au final, ils ont transféré 21.000 dollars sur un terminal Bitcoin. Les parents de Benjamin Perkin ne reverront plus jamais leur argent.

Toujours selon The Washington Post, ce type d’arnaque s’est considérablement développé en 2022 et continue maintenant en 2023. La cause réside avant tout dans le fait que certaines de ces intelligences artificielles capables de reproduire des voix sont accessibles librement pour quelques euros ou même gratuitement. Il suffit d’isoler la voix d’une personne dans une vidéo YouTube, un post Facebook ou encore un TikTok et de la fournir au logiciel en question. Celui-ci effectuera ensuite le travail.

La société ElevenLabs propose un outil de clonage de voix et a constaté ce type d’arnaque qui passe principalement par l’accès gratuit à l’IA. Pour contrer ce phénomène, l’entreprise a retiré l’accès libre à son service gratuit. Dorénavant, une inscription avec une carte bancaire devra se faire avant de pouvoir avoir accès à l’intelligence artificielle. Chaque personne sera donc identifiée.

_
Suivez Geeko sur Facebook, Youtube et Instagram pour ne rien rater de l'actu, des tests et bons plans.