Deux chercheurs de l’Université de Columbia ont réussi à créer un système d’intelligence artificielle autoréplicatif. Plutôt que de créer minutieusement chaque couche du réseau neuronal et de guider son développement au fur et à mesure de sa croissance, les chercheurs ont automatisé le processus.

Crédit photo : AFP
Crédit photo : AFP

Oscar Chang et Hod Lipson ont publié un compte rendu fascinant de leurs recherches ce mois-ci.

Intitulé ‘’Neural Network Quine’’, cet article explique le fonctionnement de leur méthode novatrice pour « faire croître » un réseau de neurones.

Dans une interview accordée au magazine en ligne The Registrer, Oscar Chang explique le raisonnement de son équipe derrière la création de cette IA autoréplicative :

“La motivation principale est le fait que les agents de l’IA sont alimentés par un apprentissage profond, et par un mécanisme d’autoréplication permettant la sélection naturelle de Darwin. Un groupe d’agents IA peut ainsi s’améliorer tout seul grâce à la sélection naturelle –comme dans la nature– s’il existe un mécanisme d’autoréplication pour les réseaux neuronaux.”

La méthode utilisée par Lipson et Chang repose donc sur la sélection naturelle tout en utilisant l’une des forces des IA : la prédiction des modèles.

Un réseau neuronal compare les données entre plusieurs couches pour déterminer ce qui est identique ou non, formant ainsi des modèles. Les différents composants du réseau, les agents, effectuent ainsi diverses tâches comme, par exemple, trouver toutes les images de chats parmi six millions de photos ou tenter de reproduire un style d’art.

Ces réseaux s’améliorent de plusieurs façons différentes : en faisant valoir deux agents, en abordant les différents aspects d’une tâche avec agents dédiés pour ensuite combiner les « connaissances » de chacun. À chaque nouvelle itération, le réseau devient plus performant.

Mais avec le programme de quine que Lipson et Chang ont mis au point, le réseau s’améliore en faisant évoluer les nouveaux agents et en déterminant à quoi ceux-ci ressembleront après avoir pris connaissance des nouvelles informations apportées.

À terme, un tel réseau serait capable de prédire sa propre croissance ce qui mettrait au point un système d’IA capable de résister aux attaques visant à le détruire ou à l’affaiblir. Dans les faits, les humains pourraient tenter de supprimer des parties de l’IA, voire le programme en entier, mais des fragments de son code pourraient être stockés dans un cloud sécurisé, ce qui permettrait de remettre le système en ligne de manière presque instantanée.

Pas d’inquiétude pour le moment, car les êtres humains ont encore le contrôle sur les IA. Une telle méthode de fonctionnement demanderait à cette dernière davantage de ressources, ce qui la rendrait moins efficace dans l’accomplissement des tâches. Il reste donc encore beaucoup de travail à effectuer avant de créer des systèmes complètement fonctionnels et autonomes.

Il est encore trop tôt pour comprendre les enjeux de cette nouvelle méthode sur le long terme, mais un phénomène similaire a également vu le jour dans la division DeepMind de Google. Elle enseigne aux IA une manière de créer de meilleurs algorithmes que les êtres humains. Mais c’est la première fois qu’un réseau neuronal, conçu dans un tout autre but (dans ce cas-ci, la reconnaissance d’images), utilise un système d’autoréplication intégré. La recherche en est encore à ses débuts, mais les itérations futures incluront certainement des réseaux équipés de techniques d’autoréplication.

Il est donc fort probable que dans le futur, l’intelligence artificielle se crée, progresse et intègre même d’autres réseaux grâce au processus de la sélection naturelle.

Article rédigé par Maxim Lopez