LONDRES/WASHINGTON, 11 août - Selon un sondage Reuters/Ipsos, de nombreux travailleurs aux États-Unis se tournent vers le ChatGPT pour les aider à effectuer des tâches de base, malgré les craintes qui ont conduit des employeurs tels que Microsoft et Google à en limiter l'utilisation.

Les entreprises du monde entier réfléchissent à la meilleure façon d'utiliser le ChatGPT, un programme de chatbot qui utilise l'IA générative pour tenir des conversations avec les utilisateurs et répondre à une myriade de questions. Les entreprises et les cabinets de sécurité craignent toutefois que ce programme n'entraîne des fuites de propriété intellectuelle et de stratégies.

Des exemples anecdotiques de personnes utilisant ChatGPT pour les aider dans leur travail quotidien incluent la rédaction de courriels, le résumé de documents et la réalisation de recherches préliminaires.

Quelque 28 % des personnes interrogées dans le cadre d'un sondage en ligne sur l'intelligence artificielle (IA) entre le 11 et le 17 juillet ont déclaré utiliser régulièrement ChatGPT au travail, tandis que 22 % seulement ont indiqué que leur employeur autorisait explicitement l'utilisation de tels outils externes.

Le sondage Reuters/Ipsos réalisé auprès de 2 625 adultes aux États-Unis avait un intervalle de crédibilité, une mesure de précision, d'environ 2 points de pourcentage.

Environ 10 % des personnes interrogées ont déclaré que leur patron interdisait explicitement les outils d'IA externes, tandis qu'environ 25 % ne savaient pas si leur entreprise autorisait l'utilisation de cette technologie.

ChatGPT est devenue l'application à la croissance la plus rapide de l'histoire après son lancement en novembre. Elle a suscité à la fois l'enthousiasme et l'inquiétude, amenant son développeur OpenAI à entrer en conflit avec les autorités de régulation, en particulier en Europe, où la collecte massive de données par l'entreprise a suscité des critiques de la part des organismes de protection de la vie privée.

Des examinateurs humains d'autres entreprises peuvent lire n'importe lequel des chats générés, et les chercheurs ont constaté qu'une intelligence artificielle similaire pouvait reproduire les données qu'elle avait absorbées au cours de sa formation, créant ainsi un risque potentiel pour les informations propriétaires.

"Les gens ne comprennent pas comment les données sont utilisées lorsqu'ils utilisent des services d'IA générative", a déclaré Ben King, vice-président de la confiance des clients chez Okta, une entreprise spécialisée dans la sécurité des entreprises.

"Pour les entreprises, il s'agit d'un point critique, car les utilisateurs n'ont pas de contrat avec de nombreux services d'IA - parce qu'il s'agit d'un service gratuit - et les entreprises n'auront donc pas fait passer le risque par leur processus d'évaluation habituel", a déclaré M. King.

OpenAI a refusé de commenter les implications de l'utilisation de ChatGPT par des employés individuels, mais a mis en avant un récent billet de blog de l'entreprise assurant les entreprises partenaires que leurs données ne seraient pas utilisées pour entraîner davantage le chatbot, à moins qu'elles n'en donnent l'autorisation explicite.

Lorsque les utilisateurs se servent de la carte Google, celle-ci recueille des données telles que le texte, la localisation et d'autres informations d'utilisation. L'entreprise permet aux utilisateurs de supprimer les activités passées de leur compte et de demander que les contenus introduits dans l'IA soient supprimés. Google, propriété d'Alphabet, n'a pas souhaité faire de commentaires lorsqu'on lui a demandé plus de détails.

Microsoft n'a pas répondu immédiatement à une demande de commentaire.

DES "TÂCHES INOFFENSIVES

Un employé américain de Tinder a déclaré que les travailleurs de l'application de rencontres utilisaient ChatGPT pour des "tâches inoffensives" comme la rédaction d'e-mails, même si l'entreprise ne l'autorise pas officiellement.

"Ce sont des courriels ordinaires. Sans conséquence, comme des invitations amusantes à des événements d'équipe, des courriels d'adieu lorsque quelqu'un part... Nous l'utilisons également pour des recherches générales", a déclaré l'employé, qui a refusé d'être nommé parce qu'il n'était pas autorisé à parler aux journalistes.

L'employé a déclaré que Tinder avait une règle "pas de ChatGPT" mais que les employés l'utilisaient encore d'une "manière générique qui ne révèle rien sur le fait que nous sommes chez Tinder".

Reuters n'a pas été en mesure de confirmer de manière indépendante comment les employés de Tinder utilisaient ChatGPT. Tinder a déclaré qu'il fournissait "des conseils réguliers aux employés sur les meilleures pratiques en matière de sécurité et de données".

En mai, Samsung Electronics a interdit à l'ensemble de son personnel d'utiliser ChatGPT et des outils d'IA similaires après avoir découvert qu'un employé avait téléchargé un code sensible sur la plateforme.

"Nous examinons des mesures visant à créer un environnement sécurisé pour l'utilisation de l'IA générative qui améliore la productivité et l'efficacité des employés", a déclaré Samsung dans un communiqué le 3 août.

"Toutefois, jusqu'à ce que ces mesures soient prêtes, nous restreignons temporairement l'utilisation de l'IA générative par le biais des appareils de l'entreprise."

Reuters a rapporté en juin qu'Alphabet avait mis en garde ses employés sur la manière dont ils utilisaient les chatbots, notamment Bard de Google, tout en commercialisant le programme à l'échelle mondiale.

Google a déclaré que, bien que Bard puisse faire des suggestions de code indésirables, il aide les programmeurs. L'entreprise a également déclaré qu'elle souhaitait faire preuve de transparence quant aux limites de sa technologie.

INTERDICTION DES COUVERTURES

Certaines entreprises ont déclaré à Reuters qu'elles adoptaient ChatGPT et d'autres plateformes similaires, tout en gardant la sécurité à l'esprit.

"Nous avons commencé à tester et à apprendre comment l'IA peut améliorer l'efficacité opérationnelle", a déclaré un porte-parole de Coca-Cola à Atlanta, en Géorgie, ajoutant que les données restent à l'intérieur de son pare-feu.

"En interne, nous avons récemment lancé notre version entreprise de Coca-Cola ChatGPT pour la productivité", a déclaré le porte-parole, ajoutant que Coca-Cola prévoit d'utiliser l'IA pour améliorer l'efficacité et la productivité de ses équipes.

Dawn Allen, directrice financière de Tate & Lyle, a déclaré à Reuters que le fabricant mondial d'ingrédients testait ChatGPT, ayant "trouvé un moyen de l'utiliser en toute sécurité".

"Nous avons différentes équipes qui décident de la manière dont elles veulent l'utiliser à travers une série d'expériences. Devrions-nous l'utiliser pour les relations avec les investisseurs ? Devrions-nous l'utiliser pour la gestion des connaissances ? Comment pouvons-nous l'utiliser pour effectuer des tâches plus efficacement ?"

Certains employés disent qu'ils ne peuvent pas du tout accéder à la plateforme sur les ordinateurs de leur entreprise.

"Il est complètement interdit sur le réseau du bureau, comme s'il ne fonctionnait pas", a déclaré un employé de Procter & Gamble, qui a souhaité rester anonyme parce qu'il n'était pas autorisé à parler à la presse.

P&G s'est refusé à tout commentaire. Reuters n'a pas été en mesure de confirmer de manière indépendante si les employés de P&G ne pouvaient pas utiliser ChatGPT.

Paul Lewis, directeur de la sécurité de l'information à la société de cybersécurité Nominet, a déclaré que les entreprises avaient raison de se méfier.

"Tout le monde bénéficie de cette capacité accrue, mais les informations ne sont pas totalement sûres et elles peuvent être dissimulées", a-t-il déclaré, citant des "invites malveillantes" qui peuvent être utilisées pour amener les chatbots IA à divulguer des informations.

"Une interdiction générale n'est pas encore justifiée, mais nous devons faire preuve de prudence", a déclaré M. Lewis. (Reportage de Richa Naidu, Martin Coulter et Jason Lange ; Rédaction d'Alexander Smith)