Parmi les craintes liées à l’IA, inutile de dire que la création d’intelligences artificielles destinées à tuer est on ne plus présente. Ce n’est heureusement pas encore le cas avec les IA d’OpenAI, même si on s’en rapproche peut-être un peu… Alors que les technologies d’OpenAI ne cessent de faire parler d’elles depuis la déferlante ChatGPT, il y a un secteur qui s’y intéresse de très près : la défense. Mais jusqu’à présent, l’entreprise partenaire de Microsoft avait interdit, dans sa politique, l’utilisation de ses technologies à des fins militaires. Cela a désormais changé, et OpenAI a supprimé cet élément de sa politique dans une discrète mise à jour des termes de l’entreprise (ce genre de changement est assez courant, même si c’est ici le sujet de ces changements qui interpelle). Néanmoins, la nouvelle politique d’OpenAI n’est pas aussi laxiste qu’on pourrait le craindre. Ainsi, comme l’explique un communiqué relayé par TechCrunch, la compagnie n’autorise pas pour autant toutes les utilisations militaires de l’IA, interdisant d’en faire des armes où tout autre objet destiné à tuer ou blesser. Il sera également interdit d’en faire des logiciels de surveillance. Ceci laisse dans les faits peu d’usages pour l’intelligence artificielle que l’on pourrait qualifier de purement militaire, si ce n’est dans des domaines tels que la cybersécurité, qui semble d’ailleurs être le domaine qu’OpenAI a en tête pour de potentiels usages dans le domaine de la défense. En d’autres termes, le changement dans les termes semble surtout être de l’ordre d’une formalité technique…