Les juges doivent décider d'ici la fin du mois de juin si YouTube, propriété d'Alphabet Inc, peut être poursuivi en justice pour ses recommandations de vidéos aux utilisateurs. Cette affaire vise à déterminer si une loi américaine qui protège les plateformes technologiques de toute responsabilité juridique pour les contenus mis en ligne par leurs utilisateurs s'applique également lorsque les entreprises utilisent des algorithmes pour cibler les utilisateurs avec des recommandations.

La décision de la Cour sur ces questions ne concerne pas seulement les plateformes de médias sociaux. Sa décision pourrait influencer le débat émergent sur la question de savoir si les entreprises qui développent des chatbots d'IA générative comme ChatGPT d'OpenAI, une entreprise dans laquelle Microsoft Corp. est un investisseur majeur, ou Bard de Google d'Alphabet, devraient être protégées contre les poursuites judiciaires telles que la diffamation ou les violations de la vie privée, selon des experts en technologie et en droit.

En effet, les algorithmes qui alimentent les outils d'IA générative tels que ChatGPT et son successeur GPT-4 fonctionnent d'une manière assez similaire à ceux qui suggèrent des vidéos aux utilisateurs de YouTube, ont ajouté les experts.

"Le débat porte en fait sur la question de savoir si l'organisation des informations disponibles en ligne par l'intermédiaire des moteurs de recommandation contribue à façonner le contenu au point d'engager la responsabilité", a déclaré Cameron Kerry, chercheur invité au groupe de réflexion Brookings Institution à Washington et spécialiste de l'IA. "Vous avez les mêmes types de problèmes avec un chatbot".

Les représentants d'OpenAI et de Google n'ont pas répondu aux demandes de commentaires.

Lors des plaidoiries en février, les juges de la Cour suprême ont exprimé leur incertitude quant à l'opportunité d'affaiblir les protections inscrites dans la loi, connue sous le nom de section 230 de la loi de 1996 sur la décence des communications (Communications Decency Act). Bien que l'affaire ne concerne pas directement l'IA générative, le juge Neil Gorsuch a fait remarquer que les outils d'IA qui génèrent de la "poésie" et des "polémiques" ne bénéficieraient probablement pas de ces protections juridiques.

Cette affaire n'est qu'une facette d'une conversation émergente sur la question de savoir si l'immunité prévue à l'article 230 doit s'appliquer aux modèles d'IA formés à partir d'une multitude de données en ligne existantes, mais capables de produire des œuvres originales.

Les protections prévues par l'article 230 s'appliquent généralement aux contenus de tiers provenant d'utilisateurs d'une plateforme technologique et non aux informations qu'une entreprise a contribué à développer. Les tribunaux ne se sont pas encore prononcés sur la question de savoir si une réponse d'un chatbot d'IA serait couverte.

LES CONSÉQUENCES DE LEURS PROPRES ACTIONS

Le sénateur démocrate Ron Wyden, qui a participé à la rédaction de cette loi lorsqu'il siégeait à la Chambre des représentants, a déclaré que le bouclier de responsabilité ne devrait pas s'appliquer aux outils d'IA générative parce que ces outils "créent du contenu".

"La section 230 vise à protéger les utilisateurs et les sites qui hébergent et organisent le discours des utilisateurs. Elle ne devrait pas protéger les entreprises des conséquences de leurs propres actions et produits", a déclaré M. Wyden dans un communiqué transmis à Reuters.

L'industrie technologique a fait pression pour préserver l'article 230 malgré l'opposition bipartisane à l'immunité. Selon eux, les outils tels que ChatGPT fonctionnent comme des moteurs de recherche, dirigeant les utilisateurs vers des contenus existants en réponse à une requête.

"L'IA ne crée rien en réalité. Il s'agit de prendre un contenu existant et de le présenter sous une forme différente", a déclaré Carl Szabo, vice-président et avocat général de NetChoice, un groupe commercial de l'industrie technologique.

Selon M. Szabo, un affaiblissement de l'article 230 constituerait une tâche impossible pour les développeurs d'IA et les exposerait à une avalanche de litiges susceptibles d'étouffer l'innovation.

Certains experts prévoient que les tribunaux pourraient adopter une position intermédiaire, en examinant le contexte dans lequel le modèle d'IA a généré une réponse potentiellement préjudiciable.

Dans les cas où le modèle d'IA semble paraphraser des sources existantes, le bouclier peut toujours s'appliquer. Mais les chatbots tels que ChatGPT sont connus pour créer des réponses fictives qui semblent n'avoir aucun lien avec des informations trouvées ailleurs en ligne, une situation qui, selon les experts, ne serait probablement pas protégée.

Hany Farid, technologue et professeur à l'université de Californie à Berkeley, a déclaré que l'argument selon lequel les développeurs d'IA devraient être à l'abri des poursuites concernant les modèles qu'ils ont "programmés, entraînés et déployés" va au-delà de l'imagination.

"Lorsque les entreprises sont tenues pour responsables, dans le cadre d'un procès civil, des préjudices causés par les produits qu'elles fabriquent, elles produisent des produits plus sûrs", a déclaré M. Farid. "Lorsqu'elles ne sont pas tenues pour responsables, elles fabriquent des produits moins sûrs.

L'affaire jugée par la Cour suprême concerne un appel interjeté par la famille de Nohemi Gonzalez, une étudiante californienne de 23 ans qui a été tuée par balle lors d'un carnage perpétré en 2015 par des militants islamistes à Paris, contre le rejet par un tribunal de première instance de l'action intentée par sa famille contre YouTube.

La plainte accusait Google de fournir un "soutien matériel" au terrorisme et affirmait que YouTube, par l'intermédiaire des algorithmes de la plateforme de partage de vidéos, recommandait illégalement à certains utilisateurs des vidéos du groupe militant État islamique, qui a revendiqué les attentats de Paris.