L'intelligence artificielle générative est devenue un mot à la mode cette année, avec des applications telles que ChatGPT qui ont attiré l'attention du public, ce qui a incité les entreprises à lancer des produits similaires qui, selon elles, changeront la nature du travail.

Des millions d'utilisateurs ont commencé à tester ces outils, dont les partisans affirment qu'ils peuvent établir des diagnostics médicaux, écrire des scénarios, créer des mémoires juridiques et déboguer des logiciels, ce qui suscite des inquiétudes croissantes quant à la manière dont la technologie pourrait entraîner des violations de la vie privée, fausser les décisions en matière d'emploi et favoriser les escroqueries et les campagnes de désinformation.

"Nous souhaitons avoir une discussion franche sur les risques que nous voyons dans le développement actuel et à court terme de l'IA", a déclaré un haut fonctionnaire de l'administration, sous le couvert de l'anonymat en raison du caractère sensible de la question. "Notre étoile polaire est l'idée que si nous voulons profiter de ces avantages, nous devons commencer par gérer les risques.

La réunion de jeudi réunira Sundar Pichai de Google, Satya Nadella de Microsoft, Sam Altman d'OpenAI et Dario Amodei d'Anthropic, ainsi que la vice-présidente Kamala Harris et des représentants de l'administration, notamment le chef de cabinet de M. Biden, Jeff Zients, le conseiller à la sécurité nationale, Jake Sullivan, la directrice du Conseil économique national, Lael Brainard, et la secrétaire d'État au commerce, Gina Raimondo.

Avant la réunion, l'administration a annoncé un investissement de 140 millions de dollars de la National Science Foundation pour lancer sept nouveaux instituts de recherche sur l'IA et a déclaré que le Bureau de la gestion et du budget de la Maison Blanche publierait des orientations politiques sur l'utilisation de l'IA par le gouvernement fédéral. Les principaux développeurs d'IA, dont Anthropic, Google, Hugging Face, NVIDIA, OpenAI et Stability AI, participeront à une évaluation publique de leurs systèmes d'IA au village de l'IA lors de DEFCON 31 - l'une des plus grandes conventions de pirates informatiques au monde - et fonctionneront sur une plateforme créée par Scale AI et Microsoft.

Peu après l'annonce de la candidature de M. Biden à sa réélection, le Comité national républicain a produit une vidéo présentant un avenir dystopique au cours d'un second mandat de M. Biden, entièrement construit à l'aide d'images d'IA.

De telles publicités politiques devraient devenir plus courantes à mesure que la technologie de l'IA prolifère.

Les autorités de régulation américaines ne sont pas parvenues à adopter une approche aussi stricte que celle des gouvernements européens en matière de réglementation des technologies et à élaborer des règles rigoureuses sur les contrefaçons et la désinformation profondes, que les entreprises doivent respecter sous peine de se voir infliger de lourdes amendes.

"Nous ne considérons pas qu'il s'agit d'une course", a déclaré le fonctionnaire, ajoutant que l'administration travaille en étroite collaboration avec le Conseil du commerce et de la technologie entre les États-Unis et l'Union européenne sur cette question.

En février, M. Biden a signé un décret ordonnant aux agences fédérales d'éliminer les préjugés dans leur utilisation de l'IA. L'administration Biden a également publié une charte des droits de l'IA et un cadre de gestion des risques.

La semaine dernière, la Commission fédérale du commerce et la Division des droits civils du ministère de la justice ont également déclaré qu'elles utiliseraient leurs pouvoirs juridiques pour lutter contre les préjudices liés à l'IA.

Les géants de la technologie ont promis à maintes reprises de lutter contre la propagande électorale, les fausses nouvelles concernant les vaccins COVID-19, les messages racistes et sexistes, la pornographie et l'exploitation des enfants, ainsi que les messages haineux ciblant les groupes ethniques.

Mais les recherches et l'actualité montrent qu'ils n'ont pas réussi. Selon une étude récente de l'ONG militante Avaaz, à peine un article de fake news sur cinq en anglais sur six grandes plateformes de médias sociaux a été marqué comme trompeur ou supprimé, et les articles dans d'autres langues européennes n'ont pas été marqués.