
Tesla FSD Échoue au Test de l'Autobus Scolaire : La Sécurité de la Conduite Autonome Sous Surveillance
La promesse de véhicules entièrement autonomes a toujours été séduisante, mais les récentes démonstrations du mode Full Self-Driving (FSD) de Tesla ont ravivé les inquiétudes quant à la préparation de cette technologie en vue d'un déploiement à grande échelle. Alors que Elon Musk annonce l'arrivée imminente d'une Tesla autonome capable de naviguer de l'usine au domicile d'un client, un incident préoccupant survenu à Austin, au Texas, brosse un tableau moins optimiste.
Lors d'un test mené par The Dawn Project, une Tesla Model Y équipée du logiciel FSD n'a pas réussi à reconnaître à plusieurs reprises un autobus scolaire arrêté, avec des feux clignotants et des panneaux d'arrêt déployés. Plus alarmant encore, le véhicule a heurté des mannequins de la taille d'enfants placés sur la trajectoire de l'autobus lors de chacun des huit essais. Cette démonstration troublante soulève de sérieuses questions quant à la fiabilité du système FSD de Tesla dans des scénarios de sécurité cruciaux.
Il est important de noter que le FSD de Tesla est actuellement commercialisé comme un système "supervisé", nécessitant un conducteur pleinement attentif et prêt à intervenir. En effet, Tesla avertit explicitement les utilisateurs que le non-respect de ces instructions pourrait entraîner "des dommages, des blessures graves ou la mort". Cela soulève la question suivante : si le système nécessite une supervision humaine constante, est-il réellement "autonome" ?
The Dawn Project, dirigé par Dan O'Dowd, qui dirige également une entreprise développant des systèmes de conduite automatisés concurrents, s'est montré très critique à l'égard du FSD de Tesla. Ils ont même lancé des campagnes publicitaires soulignant les dangers potentiels du système, en particulier son incapacité à céder le passage aux autobus scolaires. À la lumière de ces préoccupations, la démonstration d'Austin alimente le débat en cours sur la sécurité et l'efficacité de la technologie de conduite autonome de Tesla. De plus, en avril de cette année, un accident impliquant une Tesla Model S utilisant le FSD a entraîné la mort d'un motocycliste à Washington, ce qui a encore aggravé le problème.
Pour ajouter à cela, les plans de Tesla concernant le Cybercab, un véhicule entièrement autonome, auraient été retardés. Alors que Musk avait initialement suggéré une date de lancement au 22 juin, il a ensuite tempéré les attentes, invoquant l'approche "super paranoïaque" de l'entreprise en matière de sécurité. Il a également fait allusion à une étape potentielle où une Tesla se conduirait de l'usine au domicile d'un client d'ici le 28 juin. Cependant, compte tenu des résultats des tests récents et des incidents antérieurs, ces déclarations doivent être accueillies avec un optimisme prudent.
Le problème fondamental ici ne concerne pas simplement la technologie de Tesla. Il s'agit des implications plus larges du déploiement de systèmes autonomes dans des environnements complexes du monde réel. Bien que les avantages potentiels des voitures autonomes (réduction des accidents, mobilité accrue pour les personnes âgées et handicapées et amélioration de la fluidité du trafic) soient indéniables, ces avantages ne peuvent être réalisés que si la technologie est manifestement sûre et fiable. La démonstration d'Austin nous rappelle brutalement que le chemin vers l'autonomie totale est semé d'embûches et que des tests et une validation rigoureux sont essentiels avant que ces systèmes ne soient lancés sur les voies publiques.
1 Image de Tesla FSD:

Source: Engadget