
Accident de Voiture Autonome
Les pessimistes sur cette technologie vont surement sauter de joie en lisant cette triste nouvelle, mais oui, il y a déjà eu un accident mortel chez Tesla, un des pionniers dans l'histoire des voitures sans conducteur. Un coup très dur pour les développeurs de chez Uber, de chez Audi ainsi que pour tous les constructeurs de voitures sans chauffeurs.
- Les accidents liés aux véhicules autonomes suscitent souvent plus d'émoi que ceux impliquant des véhicules traditionnels, car ils questionnent notre confiance dans la technologie.
- L'implication de grands noms de l'automobile, comme Tesla, Uber ou Audi, montre à quel point la compétition est forte et le moindre incident peut impacter la réputation de toute une industrie.
- Chaque accident offre une occasion d’affiner la sécurité, mais aussi de mieux réglementer l’usage de ces véhicules innovants.
Y a-t-il déjà eu des accidents de voitures autonomes ?
Cela dit, il faut savoir que ce terrible incident chez Tesla est le premier de ce genre quand on parle de voitures équipées de pilotes automatiques. Alors certes, cela représente un obstacle de plus dans le lancement des voitures autonomes, mais les constructeurs ne vont pas pour autant lâcher prise.

Pour bien comprendre la portée des événements, il est essentiel de distinguer les différents types de véhicules autonomes :
- Niveau 2 : Assistance avancée à la conduite. Le conducteur doit rester vigilant.
- Niveau 3 : Automatisation conditionnelle, l’ordinateur gère dans certaines circonstances mais l’humain doit pouvoir intervenir rapidement.
- Niveau 4 : Automatisation élevée, la voiture gère seule dans la plupart des cas. Les accidents de niveau 4 sont rares, car peu de modèles circulent encore.
- Niveau 5 : Véhicule totalement autonome, sans volant ni pédales, qui n’existe encore qu’à l’état de prototype ou en expérimentation restreinte.
Les incidents documentés jusqu’ici concernent principalement des véhicules de niveau 2 ou 3. Un accident mortel est bien sûr un choc pour l’opinion publique, mais il faut rappeler, à titre de comparaison, que chaque année, les accidents impliquant des véhicules traditionnels causent plus d’1 million de morts dans le monde.
Illustration : En 2022, une étude de l’IIHS (Insurance Institute for Highway Safety) a révélé que la majorité des accidents impliquant des véhicules équipés d’une assistance à la conduite survenaient lorsque le conducteur détournait l'attention de la route, pensant que le système gérait totalement la conduite.
Un accident qui arrive au plus mauvais moment
Selon Richard Wallace, représentant du Center for Automotive Research dans le Michigan, ce tragique accident est une chose horrible, mais dans l’ensemble, cela ne va en aucun cas impacter la technologie. Certes, la perception des voitures autonomes va changer un peu, mais pas pour longtemps. Face à cette situation, les responsables ont ouvert une enquête. Il ne faut pas aussi oublier que la berline autonome de Tesla était équipée d’un pilotage automatique pouvant être activé et désactivé par le conducteur lui-même.
Il est intéressant de remarquer que ces accidents surviennent souvent dans des périodes charnières pour l’industrie automobile. Les constructeurs sont engagés dans une sorte de « course à l’innovation », comparable à une traversée d’un pont suspendu où chaque pas peut sembler risqué, mais aussi porteur de promesses extraordinaires. Un accident à ce moment-là agit comme une bourrasque, gelant momentanément l’avancée, mais ne stoppant pas la marche inévitable du progrès.
Par ailleurs, selon les déclarations faites par Frank Baressi, conducteur de poids lourd, Joshua Brown était en train de regarder un film au moment de l’accident. Face à cette information, Tesla a tenu à rappeler qu’en 2015, lors du lancement de l’Autopilot, il avait conseillé à ses clients de rester vigilants. Mais pour les développeurs, cet accident mortel les fragilise énormément.
Ce cas soulève une question fondamentale : dans quelle mesure le conducteur doit-il rester maître de la situation ?
- Doit-on faire confiance à l’intelligence artificielle, ou l’humain doit-il rester le garant ultime de la sécurité ?
- Comment sensibiliser efficacement les usagers sur leurs responsabilités, même lorsque la machine prend le relais ?
- Faut-il imposer des conditions plus strictes d’utilisation ou renforcer la formation à la conduite assistée ?
Concernant l’accident, Tesla a tenu à dire que « Ni l’Autopilot, ni le conducteur n'ont détecté la manœuvre du poids lourd (...) donc les freins n'ont pas été enclenchés ». De son côté, Mary Cummings, responsable du laboratoire de l’autonomie à Duke University a confié que « son inquiétude, sa crainte était que cet accident aurait pu être évité »« Je crains qu'il ne fasse faire un pas en arrière à l'industrie ».
La dimension psychologique est importante à souligner : chaque accident dévoile une faille dans l’infrastructure, l’algorithme ou le comportement humain. Pour beaucoup d’experts, il faut apprendre de ces erreurs, à la manière d'un navigateur qui ajuste sa route après chaque tempête.

Vraie partisane de l’autonomie des voitures, elle a déjà fait appel au gouvernement pour demander à ce que voitures autonomes ne puissent pas encore circuler sur les grandes routes, sauf si la technologie est totalement approuvée. Pas de « risques inutiles »« Il y aura des inconnues, des points qui vont être des surprises pour les ingénieurs et ça, je peux l'accepter. Mais je ne pense pas que nous devrions prendre des risques inutiles » disait-elle. [ Voir ici ]
Nouvel accident mortel en 2018
Un nouvel accident fatal a de nouveau eu lieu début 2018 mais cette fois-ci dans une Volvo Autonome Uber. Encore une fois la victime était entrain de regarder une vidéo au moment du drame.
Ce cas n’est pas isolé : plusieurs enquêtes ont révélé que la vigilance humaine reste indispensable, quelle que soit l’avancée des technologies embarquées. Voici quelques exemples récents :
- 2016 — Tesla Autopilot : Premier décès médiatisé, le conducteur regardait un film pendant que son véhicule était en mode « Autopilot ».
- 2018 — Uber à Tempe (Arizona) : Une piétonne est percutée par un SUV Volvo autonome sous supervision humaine, l’opératrice étant distraite par son téléphone.
- 2019 et après : Plusieurs incidents mineurs ont été recensés, impliquant notamment des véhicules Waymo ou Cruise, illustrant que même les systèmes les plus aboutis rencontrent des situations imprévues en environnement réel.
Ces accidents, bien que rarissimes par rapport au nombre total de kilomètres parcourus par des voitures autonomes, marquent profondément l’opinion publique et les pouvoirs publics. Ils rappellent que l’autonomie ne signifie pas encore infaillibilité.
Les leçons à retenir :
- La technologie progresse, mais aucun système n’est à l’abri d’erreurs ou de malentendus entre l’homme et la machine.
- Renforcer la formation des utilisateurs et l’information sur le rôle à tenir reste un axe essentiel.
- L’analyse approfondie de chaque incident nourrit l’amélioration continue des algorithmes et des systèmes de détection.
- Les constructeurs et autorités adoptent progressivement des mesures plus strictes de validation, comme l’exige la nouvelle réglementation européenne et américaine, applicable à tous les nouveaux modèles connectés.
À l’avenir, il est probable que davantage de systèmes de sécurité active seront imposés, tels que :
- Des détecteurs d’attention du conducteur (caméras internes, suivi du regard, alertes sonores répétées)
- Un enregistrement en temps réel de toutes les commandes et incidents pour une analyse a posteriori
- Des « boîtes noires » embarquées pour les véhicules autonomes, afin de remonter l’historique exact d'un accident, comme dans l’aviation
En conclusion, chaque accident est vécu comme un revers, mais aussi comme une étape indispensable sur le chemin de la fiabilité. La confiance dans la voiture autonome s’établit comme une cathédrale : pierre après pierre, épreuve après épreuve, en s’appuyant autant sur la technologie que sur la vigilance humaine et l’adaptation continue des lois et des usages.
👉 Lire aussi: Prix d'une voiture autonome