Avez-vous déjà posé plus de cent questions à ChatGPT ? Alors vous avez sûrement déjà consommé un litre d’eau, voire beaucoup plus. Un demi-litre d’eau pour 20 à 50 prompts, c’est la consommation moyenne de ChatGPT. Un gaspillage en ressources qui n’est pas si étonnant que cela quand on parle de nouvelles technologies qui sont souvent très consommatrices en ce qui concerne l’or bleu. Si l’on savait déjà que le modèle de langage d’OpenAI était très consommateur en eau, on n’en connaissait pas exactement le chiffre, ce qui laissait beaucoup de place à la spéculation. Mais grâce à une étude réalisée par l’Université de Californie, on sait maintenant à peu près ce que coûte en eau une question posée au chatbot mondialement célèbre. Une consommation monstrueuse et qui n’est pas sans poser de larges problèmes de viabilité à long terme de cette technologie, que ce soit sur le plan écologique ou économique. Les grandes entreprises de la tech, comme Microsoft et OpenAI, sont d’ailleurs bien au courant, mais comptent bien trouver une solution afin de drastiquement réduire cette consommation. L’IA générative est une technologie relativement jeune, il y a donc de l’espoir en ce qui concerne la possibilité d’un modèle de langage moins coûteux en eau. Mais cela reste loin d’être garanti.