OpenAI a présenté lors d’une annonce en livestream ce lundi 13 mai 2024, son nouveau modèle d’intelligence artificielle (IA) générative. GPT-4o, permet désormais au chatbot d’interagir avec ses utilisateurs, comme un assistant vocal. « Vous avez la transcription, l’intelligence et la capacité à parler, réunies ensemble pour vous apporter le mode vocal », a résumé Mira Murati, directrice technologique de l’éditeur de ChatGPT. Durant la présentation, Murati et ses collègues ont montré comment les utilisateurs pourront interagir avec l’outil. Une démonstration bluffante, où l’on a pu voir l’assistant vocal reproduire des conversations limpides. D’autres exemples de conversations ont été publiés dans un article sur le blog de OpenAI. On peut y voir l’assistant vocal chanter, jouer à pierre feuille ciseaux ou encore traduire en temps réel. ChatGPT va pouvoir désormais lire les émotions sur les visages des utilisateurs via la caméra de leur smartphone. Il pourra les guider pour faire des exercices de respiration, leur raconter une histoire par exemple. « Tu as l’air joyeux, avec une pointe d’excitation. (…) Tu veux me dire quelle est la source de toute cette bonne humeur ?» , a demandé la machine à un ingénieur d’OpenAI. Quand il lui a répondu qu’il était en train de montrer au public à quel point, elle est « utile et fabuleuse », elle s’est exclamée en retour « Oh arrête, tu me fais rougir ». Une amélioration qui sera disponible pour tous les utilisateurs. « Nous sommes vraiment ravis d’apporter GPT-4o à tous nos utilisateurs gratuits. Les utilisateurs payants continueront à bénéficier de limites en termes d’utilisation cinq fois plus élevées que les utilisateurs gratuits », a ainsi déclarée Mira Murati. La firme de San Francisco ne cesse de présenter des outils de plus en plus innovants et performants. Depuis le lancement de ChatGPT, les géants de la tech se sont lancés dans une course aux outils et assistants d’IA. Google doit par ailleurs présenter mardi ses dernières innovations durant la Google I/O.