LaMDA peut tenir une conversation complète et cohérente sur un nombre infini de sujets.

La conférence I/O annuelle de Google est l’occasion pour la firme de présenter toutes sortes de nouvelles technologies, notamment en intelligence artificielle. Google en a profité pour dévoiler ses avancées sur le projet LaMDA.

LaMDA (Language Model for Dialogue Applications) est une IA capable de comprendre une conversation. Le bot peut se faire passer pour tout et n’importe quoi, et entamer une discussion sur n’importe quel sujet de façon naturelle. L’idée dernière LaMDA est de programmer des chatbot (robots de discussion) qui pourraient se faire passer pour une entreprise, une personne, une entité, ou autre. Pour mieux illustrer le concept de cette IA, Google a pris l’exemple d’une discussion avec la planète Pluton, et ensuite avec un avion en papier.

LaMDA est capable d’improviser des réponses en se faisant passer pour Pluton, c’est assez bluffant. Si l’IA arrive à s’engager dans n’importe quelle conversation, sans avoir besoin de scripte prédéfini, c’est grâce aux nombreux concepts qu’elle aurait emmagasinés et appris. Cela permet de garder le dialogue ouvert sans tourner en rond. Dans l’exemple de Pluton, « aucune réponse n’a été prédéfinie », affirme le patron de Google, Sundar Pichai. Le dialogue semble couler de source.

Ce chatbot diffère de ce que l’on connait déjà avec Alexa, Siri ou le Google Assistant actuel, car le but final est d’utiliser LaMDA à l’oral, dans une conversation fluide : « Contrairement à d’autres modèles de langage, LaMDA a été entraîné sur les dialogues. Durant son entraînement, il a repéré différentes nuances qui distinguent les conversations d’autres formes de langage », explique Google sur son blog.

Pour l’instant, l’IA n’est encore qu’au stade embryonnaire et ne s’est entraînée que sur du texte. La prochaine étape sera de pouvoir déceler des informations grâce au texte, à l’audio, à la vidéo et à l’image simultanément. Cela permettra de poser des questions à travers différentes sources d’information, comme dans une conversation sur messagerie classique, en somme.

De plus, Google s’est dit attentif aux biais d’une telle IA et tente de limiter les risques. En effet, une IA se contente d’interpréter les données qu’on lui donne, elle peut donc prendre en compte les préjugés, les discours haineux et de la désinformation, comme ça a déjà été le cas plusieurs fois par le passé. Un chatbot Twitter de Microsoft était notamment devenu profondément raciste, seulement 24 heures après avoir fait son entrée sur le réseau social.

La firme de Mountain View a affirmé être tentée d’ajouter LaMDA à Google Assistant à terme. Le bot sera, par ailleurs, certainement destiné à d’autres services et entreprises. Quoi qu’il en soit, LaMDA n’est encore qu’au stade de projet interne chez Google, et la firme n’a pas encore fourni d’information sur une éventuelle adaptation du logiciel IA pour le grand public.