Une Tesla autonome heurte un cerf sans freiner : la sécurité des piétons est-elle menacée ?

Par Samuel Benchemoul

Self-Driving Tesla Hits Deer Without Braking—Is Pedestrian Safety at Risk?

Les voitures autonomes peuvent sembler futuristes, mais les constructeurs automobiles du monde entier travaillent dur pour en faire un élément normalisé de la société humaine. Il est facile de voir comment une voiture autonome pourrait vous faciliter la vie. Mais ce type de technologie autonome soulève également de sérieuses questions en matière d’éthique et de sécurité : à qui la voiture donne-t-elle la priorité en matière de sécurité dans une situation dangereuse ? Et pouvons-nous vraiment faire confiance à un logiciel pour prendre une décision de vie ou de mort ?

Récemment, un conducteur de Tesla a partagé une expérience qui soulève certainement certaines de ces graves questions de sécurité. L’utilisateur X @TheSeekerOf42 a publié des photos et des vidéos après avoir percuté un cerf sur la route alors que sa Tesla était en mode « Full Self Driving ». Le véhicule a subi quelques dégâts esthétiques mineurs. Plus inquiétant encore, la vidéo qu’il a partagée révèle que le véhicule autonome n’a même pas ralenti à l’approche du cerf, ni ne s’est arrêté après la collision.

« FSD ne s’est pas arrêté (sic), même après avoir frappé le cerf à pleine vitesse », a écrit @TheSeekerOf42 sur X.com. « Énorme surprise après avoir subi une douzaine de faux arrêts chaque jour !

Ne pas ralentir avant une collision et ne pas s’arrêter après semble être un problème de sécurité assez important pour les voitures autonomes. Mais s’agit-il d’un exemple d’erreur dans le logiciel, ou est-ce ainsi que le logiciel de conduite autonome de Tesla est censé fonctionner ? Jetons un coup d’oeil.

Comment fonctionne la technologie de conduite autonome ?

La plupart des voitures autonomes utilisent un ensemble de capteurs, de caméras et de technologies radar pour naviguer sur la route et détecter les éléments extérieurs à la voiture, tels que les obstacles et les panneaux de signalisation. Le logiciel prend en compte toutes les entrées de ses caméras et capteurs et utilise ces informations pour prendre des décisions en temps réel sur la route.

La technologie de conduite autonome de Tesla est légèrement différente car ses voitures n’utilisent que des caméras pour naviguer, choisissant de se passer du lidar et des scanners radar utilisés par d’autres systèmes. Les experts affirment que cela peut causer des problèmes majeurs, en particulier dans les cas où le logiciel de conduite autonome d’une Tesla rencontre quelque chose d’inhabituel.

« Le genre de choses qui ont tendance à mal se passer avec ces systèmes, c’est par exemple qu’ils n’ont pas été formés sur les images d’une double remorque renversée – ils ne savaient tout simplement pas ce que c’était », Phil Koopman, professeur agrégé d’électricité et d’électricité. génie informatique à l’Université Carnegie Mellon, a déclaré au WSJ. « Une personne aurait clairement dit « quelque chose d’important est à mi-chemin », mais la façon dont fonctionne l’apprentissage automatique consiste à s’entraîner sur un tas d’exemples. S’il rencontre quelque chose pour lequel il n’a pas beaucoup d’exemples, il se peut qu’il n’ait aucune idée de ce qui se passe.

Comment les voitures autonomes donnent-elles la priorité à la sécurité ?

Les voitures autonomes ont le potentiel d’éliminer complètement les erreurs humaines liées à la conduite. Un programme informatique ne se fatigue pas, ne sera pas plus émotif après une longue journée de travail et ne peut pas se laisser distraire par un texte ou le choix d’une nouvelle liste de lecture. Mais il ne peut pas non plus prendre de décisions éthiques.

Alors, que se passe-t-il lorsque le logiciel est confronté à un accident inévitable et doit choisir entre la sécurité de deux ou plusieurs personnes ? Malheureusement, la réponse à cette question reste encore assez floue. Dans le cas de @TheSeeker420, il ne semble pas que le logiciel de Tesla ait fait le moindre effort pour faire un écart ou ralentir, donnant la priorité à la sécurité de ses passagers plutôt qu’à l’évitement d’un obstacle extérieur.

Et si l’obstacle avait été un humain et non un cerf ? Le logiciel aurait-il réagi différemment ? Telles sont quelques-unes des questions difficiles posées par les voitures autonomes, présentant des dilemmes de sécurité et d’éthique auxquels il peut être difficile de répondre jusqu’à ce que la technologie de conduite automatisée progresse davantage. Quoi qu’il en soit, les constructeurs automobiles devront être extrêmement transparents et honnêtes en matière de sécurité s’ils veulent que les masses mettent leur vie entre les mains d’un programme informatique autonome.

Sources :

  • Wall Street Journal : « Les données cachées du pilote automatique qui révèlent pourquoi Teslas s’écrase » (2024)
  • Forbes : « Que sont les voitures autonomes ? La technologie expliquée »(2024)

Laisser un commentaire

2 × un =