Crédit photo : Pixabay

Pourquoi l’IA ne risque pas de nous anéantir

Depuis le boom ChatGPT en 2022, la petite musique de l’apocalypse robotisée à la Terminator ne cesse de se faire entendre, mais une étude vient remettre l’église au milieu du village.

Iryna Gurevych et Harish Tayyar Madabushi, respectivement chercheurs des universités de Darmstadt et de Bath, ont cherché à mettre à l’épreuve de la réalité une crainte des temps modernes, issue du boom de l’IA, comme l’explique Science Alert. On parle bien entendu de la peur d’une apocalypse causée par la rébellion des machines.

Notons bien entendu que cette étude ne parle que d’un type bien précis d’intelligence artificielle : les LLM, ou larges modèles de langage. C’est-à-dire le genre d’IA dont on parle quand on parle de ChatGPT et consort. Mais c’est un choix bien logique. Après tout, l’idée d’une rébellion de l’algorithme de Google semble beaucoup moins enflammer les imaginations…

La crainte principale autour de l’IA tient surtout de nos jours autour d’une idée précise : celle d’une intelligence artificielle capable d’apprendre par elle-même sans la moindre intervention humaine, mais également celle d’une IA capable de prendre des initiatives, et pourquoi pas de réécrire son propre code, la rendant fondamentalement incontrôlable par l’être humain.

Il y a une semaine, d’ailleurs, ce genre de craintes semblent avoir trouvé une bonne raison de se renforcer alors que le Massachussets Institute of Technology avait mis au point le modèle EES, un robot capable d’apprendre de manière autonome, comme l’expliquait alors Techspot. Mais il convient de rappeler que c’est absolument l’exception, et non la règle, et que même comme cela, la marge d’initiative du modèle reste extrêmement limitée.

Pour déterminer le danger réel d’une apocalypse robotisée, les chercheurs ont décidé de mener des expériences, car c’est avant tout sur les expérimentations que la science est basée. Et pour bénéficier d’un échantillon suffisant, ils se sont basés sur quatre modèles LLM différents.

Les expériences avaient toutes le même but : causer des comportements inattendus, « déviants » chez les LLM. Et les tâches demandées étaient volontairement choisies comme particulièrement « provocatrices » de ce genre de comportement. Si jamais les IA en avaient été capables, elles auraient dû le révéler lors de ces tests.

Les conclusions ? Aucun comportement déviant n’a été observé. Aucune forme de « pensée émergente » ne s’est déclarée lors des tests. Les intelligence artificielle ne semblent tout simplement pas capables de développer des compétences nouvelles qui iraient à l’encontre de ce pour quoi elles ont été programmées, malgré les nombreux « signes » qui laissent à penser le contraire. On ne devrait même pas parler d’intelligence pour les LLM, contrairement, peut-être, à d’autres modèles à première vue plus simples. ChatGPT ne reste au font qu’un programme de suggestion de texte…

Alors est-ce que ça élimine totalement la menace d’une rébellion de l’IA ? Non. Mais il est peu probable que ce soient les LLM, eux qui nourrissent pourtant autant de fantasmes, qui y arrivent.

Et puis, reste une autre question : même si les IA parvenaient à développer des capacités émergentes, qu’est-ce qui nous dit qu’elles auraient envie de nous éliminer ?

_
Suivez Geeko sur Facebook, Youtube et Instagram pour ne rien rater de l'actu, des tests et bons plans.

Recevez nos dernières infos directement sur votre WhatsApp en vous abonnant à notre chaine.