Au cours des 18 mois qui se sont écoulés depuis que l'OpenAI, soutenue par Microsoft, a dévoilé le ChatGPT au public, on a assisté à une montée en puissance de l'engagement public et des investissements dans l'IA générative, un ensemble d'applications qui peuvent être utilisées pour produire rapidement du texte, des images et du contenu audio.
Mais l'essor de ce secteur a soulevé des questions sur la manière dont les entreprises d'IA obtiennent les données utilisées pour entraîner leurs modèles, et sur la question de savoir si le fait de leur fournir des livres à succès et des films hollywoodiens sans l'autorisation de leurs créateurs constitue une violation du droit d'auteur.
La loi sur l'IA récemment adoptée par l'UE sera mise en œuvre par étapes au cours des deux prochaines années, ce qui laissera aux régulateurs le temps d'appliquer les nouvelles lois tandis que les entreprises seront confrontées à un nouvel ensemble d'obligations. Mais on ne sait pas encore comment certaines de ces règles fonctionneront dans la pratique.
L'un des articles les plus controversés de la loi stipule que les organisations déployant des modèles d'IA à usage général, tels que ChatGPT, devront fournir des "résumés détaillés" du contenu utilisé pour les former. L'AI Office, nouvellement créé, a déclaré qu'il prévoyait de publier un modèle à suivre par les organisations au début de l'année 2025, à la suite d'une consultation avec les parties prenantes.
Bien que les détails n'aient pas encore été précisés, les entreprises d'IA sont très réticentes à révéler sur quoi leurs modèles ont été formés, décrivant ces informations comme un secret commercial qui donnerait à leurs concurrents un avantage déloyal si elles étaient rendues publiques.
"Ce serait un rêve devenu réalité de voir les ensembles de données de mes concurrents, et de même pour eux de voir les nôtres", a déclaré Matthieu Riouf, PDG de la société Photoroom, spécialisée dans la retouche d'images à l'aide de l'IA.
"C'est comme la cuisine", a-t-il ajouté. Il y a une partie secrète de la recette que les meilleurs chefs ne partageraient pas, le "je ne sais quoi" qui la rend différente.
La granularité de ces rapports de transparence aura des conséquences importantes pour les petites entreprises d'IA et les grandes sociétés technologiques comme Google et Meta, qui ont placé la technologie au centre de leurs futures opérations.
PARTAGE DES SECRETS COMMERCIAUX
Au cours de l'année écoulée, plusieurs grandes entreprises technologiques, dont Google, OpenAI et Stability AI, ont fait l'objet de poursuites judiciaires de la part de créateurs affirmant que leur contenu avait été utilisé de manière inappropriée pour entraîner leurs modèles.
Alors que le président américain Joe Biden a adopté un certain nombre de décrets sur les risques de sécurité liés à l'IA, les questions relatives aux droits d'auteur n'ont pas encore été pleinement examinées. Les appels lancés aux entreprises technologiques pour qu'elles paient les détenteurs de droits sur les données ont reçu un soutien bipartisan au Congrès.
Face à l'attention croissante qu'elles suscitent, les entreprises technologiques ont signé une multitude d'accords de licence de contenu avec des médias et des sites web. OpenAI a notamment signé des accords avec le Financial Times et The Atlantic, tandis que Google a conclu des accords avec le site de médias sociaux Reddit de NewsCorp.
Malgré ces initiatives, OpenAI s'est attiré des critiques en mars lorsque Mira Murati, directrice technique, a refusé de répondre à une question du Wall Street Journal qui voulait savoir si des vidéos de YouTube avaient été utilisées pour former son outil de génération de vidéos, Sora, ce qui, selon l'entreprise, constituerait une violation de ses conditions générales d'utilisation.
Le mois dernier, OpenAI a dû faire face à d'autres réactions négatives pour avoir présenté une voix générée par l'IA, décrite comme "étrangement similaire" à la sienne par l'actrice Scarlett Johansson, lors d'une démonstration publique de la dernière version de ChatGPT.
Thomas Wolf, cofondateur de la startup Hugging Face, spécialisée dans l'IA, a déclaré qu'il était favorable à une plus grande transparence, mais que ce sentiment n'était pas partagé par l'ensemble de l'industrie. "Il est difficile de savoir comment cela va se passer. Il y a encore beaucoup de choses à décider", a-t-il déclaré.
Les législateurs de haut rang du continent restent divisés.
Dragos Tudorache, l'un des législateurs qui a supervisé la rédaction de la loi sur l'IA au Parlement européen, a déclaré que les entreprises d'IA devraient être obligées de rendre leurs ensembles de données publics.
"Ils doivent être suffisamment détaillés pour que Scarlett Johansson, Beyonce ou quiconque puisse savoir si leur travail, leurs chansons, leur voix, leur art ou leur science ont été utilisés pour entraîner l'algorithme", a-t-il déclaré.
Un fonctionnaire de la Commission a déclaré : "La loi sur l'IA reconnaît la nécessité d'assurer un équilibre approprié entre le besoin légitime de protéger les secrets commerciaux et, d'autre part, la nécessité de faciliter la capacité des parties ayant des intérêts légitimes, y compris les détenteurs de droits d'auteur, à exercer leurs droits en vertu du droit de l'Union.
Sous la présidence d'Emmanuel Macron, le gouvernement français s'est opposé en privé à l'introduction de règles qui pourraient entraver la compétitivité des startups européennes de l'IA.
S'exprimant lors de la conférence Viva Technology à Paris en mai, le ministre français des finances Bruno Le Maire a déclaré qu'il souhaitait que l'Europe soit un leader mondial en matière d'IA, et pas seulement un consommateur de produits américains et chinois.
"Pour une fois, l'Europe, qui a créé des contrôles et des normes, doit comprendre qu'il faut innover avant de réglementer", a-t-il déclaré. "Sinon, vous risquez de réglementer des technologies que vous ne maîtrisez pas, ou de mal les réglementer parce que vous ne les maîtrisez pas. (Rapport de Martin Coulter, rapport complémentaire de Leigh Thomas ; rédaction de Matt Scuffham et Elaine Hardcastle)