Six semaines avant le premier accident mortel aux États-Unis impliquant l'Autopilot de Tesla en 2016, le président du constructeur automobile, Jon McNeill, l'a essayé dans un Model X et a envoyé ses commentaires par courriel au chef de la conduite automatisée, Sterling Anderson, cinglant Elon Musk.

Le système a fonctionné parfaitement, a écrit M. McNeill, avec la douceur d'un conducteur humain.

"J'étais tellement à l'aise avec l'Autopilot que j'ai fini par rater des sorties parce que j'étais plongé dans des courriels ou des appels (je sais, je sais, ce n'est pas une utilisation recommandée)", a-t-il écrit dans l'e-mail daté du 25 mars de cette année-là.

Le courriel de M. McNeill, qui n'a pas été rapporté précédemment, est maintenant utilisé dans une nouvelle ligne d'attaque juridique contre Tesla au sujet de l'Autopilot.

Les avocats des plaignants dans un procès pour mort injustifiée en Californie ont cité le message dans une déposition alors qu'ils demandaient à un témoin de Tesla si l'entreprise savait que les conducteurs ne regarderaient pas la route lorsqu'ils utiliseraient son système d'aide à la conduite, selon des transcriptions non rapportées précédemment et examinées par Reuters.

Le système Autopilot peut diriger, accélérer et freiner tout seul sur route ouverte, mais ne peut pas remplacer complètement un conducteur humain, surtout en ville. Les documents de Tesla expliquant le système précisent qu'il ne rend pas la voiture autonome et qu'il nécessite un "conducteur totalement attentif" qui peut "prendre le relais à tout moment".

L'affaire, dont le procès doit se tenir à San Jose dans la semaine du 18 mars, concerne un accident mortel survenu en mars 2018 et fait suite à deux précédents procès californiens sur l'Autopilot que Tesla a remportés en faisant valoir que les conducteurs impliqués n'avaient pas tenu compte de ses instructions de rester attentifs lorsqu'ils utilisaient le système.

Cette fois, les avocats de l'affaire de San Jose disposent de témoignages de Tesla indiquant qu'avant l'accident, le constructeur automobile n'a jamais étudié la rapidité et l'efficacité avec lesquelles les conducteurs pourraient reprendre le contrôle si Autopilot se dirigeait accidentellement vers un obstacle, selon les transcriptions des dépositions.

Un témoin a déclaré que Tesla avait attendu 2021 pour ajouter un système de surveillance de l'attention des conducteurs à l'aide de caméras, soit environ trois ans après l'avoir envisagé pour la première fois. Cette technologie est conçue pour suivre les mouvements du conducteur et l'alerter s'il ne se concentre pas sur la route.

L'affaire concerne un accident de la route près de San Francisco qui a coûté la vie à Walter Huang, ingénieur chez Apple. Tesla soutient que M. Huang a mal utilisé le système parce qu'il jouait à un jeu vidéo juste avant l'accident.

Les avocats de la famille de M. Huang se demandent si Tesla a compris que les conducteurs - comme M. McNeill, son propre président - n'utiliseraient probablement pas ou ne pourraient pas utiliser le système comme prévu, et quelles mesures le constructeur automobile a prises pour les protéger.

Les experts en droit des véhicules autonomes estiment que cette affaire pourrait constituer le test le plus sévère à ce jour de l'affirmation de Tesla selon laquelle le système Autopilot est sûr - si les conducteurs font leur part du travail.

Matthew Wansley, professeur agrégé à la faculté de droit de Cardozo ayant une expérience dans l'industrie des véhicules automatisés, a déclaré que la connaissance par Tesla du comportement probable des conducteurs pourrait s'avérer déterminante sur le plan juridique.

"S'il était raisonnablement prévisible pour Tesla que quelqu'un utiliserait le système à mauvais escient, Tesla avait l'obligation de concevoir le système de manière à empêcher toute utilisation abusive prévisible", a-t-il déclaré.

Richard Cupp, professeur à la faculté de droit de Pepperdine, a déclaré que Tesla pourrait être en mesure de saper la stratégie des plaignants en faisant valoir que Huang a mal utilisé Autopilot intentionnellement.

Mais en cas de succès, les avocats des plaignants pourraient fournir un modèle pour d'autres poursuites concernant l'Autopilot. Tesla fait actuellement face à au moins une douzaine de poursuites de ce type, dont huit impliquent des décès, ce qui expose le constructeur automobile au risque de jugements monétaires importants.

Musk, Tesla et ses avocats n'ont pas répondu aux questions détaillées de Reuters pour cette histoire.

M. McNeill s'est refusé à tout commentaire. Anderson n'a pas répondu aux demandes. Tous deux ont quitté Tesla. M. McNeill est membre du conseil d'administration de General Motors et de sa filiale de conduite autonome, Cruise. Anderson a cofondé Aurora, une entreprise de technologie de conduite autonome.

Reuters n'a pas pu déterminer si Anderson ou Musk ont lu l'e-mail de McNeill.

PRÈS DE 1 000 ACCIDENTS

L'accident qui a tué Huang fait partie des centaines d'accidents américains où Autopilot était un facteur suspecté dans les rapports adressés aux régulateurs de la sécurité automobile.

L'agence américaine de sécurité routière (NHTSA) a examiné au moins 956 accidents dans lesquels l'utilisation d'Autopilot a été initialement signalée. L'agence a lancé séparément plus de 40 enquêtes sur des accidents impliquant les systèmes de conduite automatisée de Tesla, qui ont fait 23 morts.

Dans le cadre de la surveillance de la NHTSA, Tesla a rappelé plus de 2 millions de véhicules équipés d'Autopilot en décembre afin d'ajouter des alertes supplémentaires pour le conducteur. Le correctif a été mis en œuvre par le biais d'une mise à jour logicielle à distance.

La famille de Huang allègue qu'Autopilot a dirigé son Model X 2017 vers une barrière d'autoroute.

Tesla blâme Huang, affirmant qu'il n'a pas réussi à rester vigilant et à prendre le contrôle de la conduite. "Il est incontestable que, s'il avait été attentif à la route, il aurait eu la possibilité d'éviter cet accident", a déclaré Tesla dans un document déposé au tribunal.

Un juge de la Cour supérieure de Santa Clara n'a pas encore décidé quelles preuves les jurés entendront.

Tesla fait également l'objet d'une enquête pénale fédérale, rapportée pour la première fois par Reuters en 2022, concernant les affirmations de l'entreprise selon lesquelles ses voitures peuvent se conduire toutes seules. L'entreprise a révélé en octobre qu'elle avait reçu des citations à comparaître concernant les systèmes d'assistance à la conduite.

Bien qu'elle ait commercialisé des fonctions appelées Autopilot et Full Self-Driving, Tesla n'a pas encore réalisé l'ambition maintes fois exprimée par Musk de produire des véhicules autonomes ne nécessitant aucune intervention humaine.

Tesla affirme que le système Autopilot peut adapter la vitesse au trafic environnant et naviguer sur une voie d'autoroute. L'Autopilot "amélioré", qui coûte 6 000 dollars, ajoute des fonctions de changement de voie automatisé, de navigation sur les bretelles d'autoroute et de stationnement automatique. L'option "Full Self-Driving", qui coûte 12 000 dollars, ajoute des fonctions automatisées pour les rues de la ville, telles que la reconnaissance des feux rouges.

PRÊT À PRENDRE LE CONTRÔLE

À la lumière de l'e-mail de M. McNeill, les avocats des plaignants dans l'affaire Huang remettent en question l'affirmation de Tesla selon laquelle les conducteurs peuvent reprendre le volant en une fraction de seconde si l'Autopilot commet une erreur.

Le courriel montre comment les conducteurs peuvent devenir complaisants lorsqu'ils utilisent le système et ignorer la route, a déclaré Bryant Walker Smith, un professeur de l'université de Caroline du Sud spécialisé dans le droit des véhicules autonomes. Selon lui, le message de l'ancien président de Tesla "corrobore le fait que Tesla reconnaît qu'un comportement de conduite irresponsable et une conduite inattentive sont encore plus tentants dans ses véhicules".

L'avocat de la famille Huang, Andrew McDevitt, a lu des parties du courriel à haute voix lors d'une déposition, selon une transcription. Reuters n'a pas pu obtenir le texte intégral de la note de M. McNeill.

Les avocats des plaignants ont également cité des commentaires publics de Musk lors de l'examen de ce que Tesla savait sur le comportement des conducteurs. Après un accident mortel en 2016, M. Musk a déclaré lors d'une conférence de presse que les conducteurs avaient plus de mal à être attentifs après avoir utilisé le système de manière intensive.

"Les accidents liés à l'Autopilot sont beaucoup plus probables pour les utilisateurs experts", a-t-il déclaré. "Ce ne sont pas les néophytes".

Une analyse de sécurité de Tesla datant de 2017, un document de l'entreprise qui a été présenté comme preuve dans une affaire précédente, a clairement indiqué que le système repose sur des réactions rapides du conducteur. L'Autopilot pourrait faire une "manœuvre de direction inattendue" à grande vitesse, ce qui pourrait amener la voiture à faire un mouvement dangereux, selon le document, qui a été cité par les plaignants dans l'un des procès remportés par Tesla. Une telle erreur nécessite que le conducteur "soit prêt à reprendre le contrôle et puisse rapidement actionner le frein".

Lors des dépositions, un employé de Tesla et un témoin expert engagé par l'entreprise n'ont pas été en mesure d'identifier les recherches menées par le constructeur automobile avant l'accident de 2018 sur la capacité des conducteurs à prendre le contrôle en cas d'échec de l'Autopilot.

"Je ne suis au courant d'aucune recherche en particulier", a déclaré l'employé, désigné par Tesla comme la personne la plus qualifiée pour témoigner sur l'Autopilot.

Le constructeur automobile a expurgé le nom de l'employé des dépositions, arguant qu'il s'agissait d'informations légalement protégées.

M. McDevitt a demandé au témoin expert de Tesla, Christopher Monk, s'il pouvait citer des spécialistes de l'interaction humaine avec les systèmes automatisés que Tesla aurait consultés lors de la conception de l'Autopilot.

"Je ne peux pas", a répondu M. Monk, qui étudie la distraction des conducteurs et a travaillé auparavant pour la NHTSA, selon les dépositions.

M. Monk n'a pas répondu aux demandes de commentaires. Reuters n'a pas été en mesure de déterminer de manière indépendante si Tesla a fait des recherches depuis mars 2018 sur la vitesse à laquelle les conducteurs peuvent reprendre le contrôle, ou si elle a étudié l'efficacité des systèmes de surveillance par caméra qu'elle a activés en 2021.

BERCÉS PAR LA DISTRACTION

Le National Transportation Safety Board (NTSB), qui a enquêté sur cinq accidents liés à Autopilot, a depuis 2017 recommandé à plusieurs reprises à Tesla d'améliorer les systèmes de surveillance du conducteur dans ses véhicules, sans préciser exactement comment.

L'agence, qui mène des enquêtes et des recherches sur la sécurité mais ne peut pas ordonner de rappels, a conclu dans son rapport sur l'accident de Huang : "La surveillance inefficace de l'engagement du conducteur par le véhicule Tesla a contribué à l'accident, ce qui a facilité la complaisance et l'inattention du conducteur."

Dans ses commentaires de 2016, Musk a déclaré que les conducteurs ignoraient jusqu'à dix avertissements par heure concernant la nécessité de garder les mains sur le volant.

L'employé de Tesla a déclaré que l'entreprise avait envisagé d'utiliser des caméras pour surveiller l'attention des conducteurs avant l'accident de M. Huang, mais qu'elle n'avait introduit un tel système qu'en mai 2021.

Dans ses commentaires publics, M. Musk a longtemps résisté aux appels en faveur de systèmes de surveillance du conducteur plus avancés, arguant que ses voitures seraient bientôt entièrement autonomes et plus sûres que les véhicules pilotés par l'homme.

"Le système s'améliore tellement, tellement vite, que ce sera bientôt une question sans intérêt", a-t-il déclaré en 2019 lors d'un podcast avec le chercheur en intelligence artificielle Lex Fridman. "Je serais choqué si ce n'est pas d'ici l'année prochaine, au plus tard [...] que l'intervention d'un humain diminuera la sécurité."

Tesla admet aujourd'hui que ses voitures ont besoin de meilleures protections. Lorsqu'elle a rappelé les véhicules équipés d'Autopilot en décembre, elle a expliqué que ses systèmes de surveillance du conducteur n'étaient peut-être pas suffisants et que les alertes qu'elle a ajoutées lors du rappel aideraient les conducteurs à "adhérer à leur responsabilité de conduite continue".

Le rappel n'a toutefois pas entièrement résolu le problème, a déclaré Kelly Funkhouser, directeur associé de la technologie des véhicules chez Consumer Reports, l'une des principales sociétés américaines de test de produits. Ses essais sur route de deux véhicules Tesla après la correction apportée par le constructeur ont révélé que le système ne répondait pas, de multiples façons, aux problèmes de sécurité qui avaient déclenché le rappel.

"Autopilot fait généralement du bon travail", a déclaré M. Funkhouser. "Il échoue rarement, mais il lui arrive d'échouer".