OpenAI, soutenue par Microsoft, a banni le développeur d'un bot imitant le candidat démocrate à l'élection présidentielle Dean Phillips. Il s'agit de la première mesure prise par le fabricant de ChatGPT en réponse à ce qu'il considère comme une utilisation abusive de ses outils d'intelligence artificielle (IA) dans le cadre d'une campagne politique, a rapporté le Washington Post samedi.

OpenAI n'a pas répondu immédiatement à une demande de commentaire de Reuters.

Dean.Bot, alimenté par ChatGPT d'OpenAI, a été créé par les entrepreneurs de la Silicon Valley Matt Krisiloff et Jed Somers, qui ont lancé un super PAC nommé We Deserve Better soutenant Phillips, avant les primaires du New Hampshire mardi, a ajouté le rapport.

Le PAC a reçu 1 million de dollars de la part du gestionnaire de fonds spéculatifs milliardaire Bill Ackman, qui a déclaré qu'il s'agissait "de loin de l'investissement le plus important que j'aie jamais fait dans une personne se présentant à une élection", dans un message publié sur la plateforme de médias sociaux X.

Le super PAC avait passé un contrat avec la start-up Delphi, spécialisée dans l'IA, pour construire le robot. OpenAI a suspendu le compte de Delphi vendredi en fin de journée, soulignant que les règles d'OpenAI interdisent l'utilisation de sa technologie dans les campagnes politiques. Delphi a retiré Dean.Bot après la suspension du compte, ajoute le rapport.

We Deserve Better n'a pas répondu immédiatement à une demande de commentaire, tandis que Delphi n'a pas pu être joint dans l'immédiat.

Dean.Bot, qui comportait une clause de non-responsabilité expliquant qu'il s'agissait d'un outil d'intelligence artificielle, pouvait converser avec les électeurs en temps réel par l'intermédiaire d'un site web, dans le cadre d'une utilisation précoce d'une technologie émergente qui, selon les chercheurs, pourrait nuire considérablement aux élections, a rapporté le Post.

Au début du mois, l'OpenAI a souligné que sa politique interdisait que sa technologie soit utilisée d'une manière qu'elle a identifiée comme potentiellement abusive, telle que la création de robots de conversation prétendant être de vraies personnes ou décourageant le vote. (Reportage de Gursimran Kaur à Bengaluru ; Rédaction de Sandra Maler)