- Le laboratoire d'intelligence artificielle OpenAI a publié lundi un billet de blog visant à répondre aux craintes d'ingérence de sa technologie dans les élections, alors que plus d'un tiers de la planète s'apprête à se rendre aux urnes cette année.

L'utilisation de l'intelligence artificielle pour interférer avec l'intégrité des élections est une préoccupation depuis que la société soutenue par Microsoft a lancé deux produits : ChatGPT, qui peut imiter l'écriture humaine de manière convaincante, et DALL-E, dont la technologie peut être utilisée pour créer des "deepfakes", c'est-à-dire des images d'apparence réaliste qui ont été fabriquées.

Parmi les personnes inquiètes, Sam Altman, PDG d'OpenAI, a déclaré au Congrès en mai qu'il était "nerveux" quant à la capacité de l'IA générative à compromettre l'intégrité des élections par le biais d'une "désinformation interactive individuelle".

L'entreprise basée à San Francisco a déclaré qu'aux États-Unis, où se tiendront les élections présidentielles cette année, elle travaille avec l'Association nationale des secrétaires d'État, une organisation qui se concentre sur la promotion de processus démocratiques efficaces tels que les élections.

ChatGPT dirigera les utilisateurs vers CanIVote.org lorsqu'on leur posera certaines questions relatives aux élections.

L'entreprise a également indiqué qu'elle travaillait à rendre plus évidentes les images générées par l'IA à l'aide de DALL-E, et qu'elle prévoyait d'apposer une icône "cr" sur les images pour indiquer qu'elles ont été générées par l'IA, conformément à un protocole créé par la Coalition for Content Provenance and Authenticity (Coalition pour la provenance et l'authenticité du contenu).

Elle travaille également sur les moyens d'identifier le contenu généré par DALL-E même après que les images ont été modifiées.

Dans son billet de blog, OpenAI souligne que ses politiques interdisent que sa technologie soit utilisée d'une manière qu'elle a identifiée comme potentiellement abusive, telle que la création de chatbots prétendant être de vraies personnes, ou la dissuasion de voter.

Elle interdit également à DALL-E de créer des images de personnes réelles, y compris de candidats politiques.

L'entreprise est confrontée à des difficultés pour contrôler ce qui se passe réellement sur sa plateforme.

L'année dernière, lorsque Reuters a tenté de créer des images de Donald Trump et de Joe Biden, la demande a été bloquée et un message s'est affiché, indiquant qu'elle ne respectait peut-être pas notre politique en matière de contenu.

Reuters a toutefois pu créer des images d'au moins une douzaine d'autres hommes politiques américains, dont l'ancien vice-président Mike Pence.