Quel est le véritable bilan des décès liés aux voitures autonomes ?

15 décembre 2025

À l’heure où l’on vante la perfection des algorithmes, une question persiste comme un caillou dans la chaussure des ingénieurs : jusqu’où sommes-nous prêts à confier nos vies à une machine ? La promesse d’une route sans morts portée par les voitures autonomes se heurte à la réalité, imparfaite et parfois brutale, des faits. Les chiffres, loin d’être anecdotiques, viennent rappeler que la révolution annoncée se fait avec son lot d’accidents et de paradoxes. Derrière chaque collision évitable, l’humain et la machine se renvoient la balle du blâme, dans un match où la technologie n’a pas encore le dernier mot.

À chaque accident, une interrogation muette s’impose : qui doit répondre de la tragédie, celui qui programme ou celui qui surveille ? Tandis que les voitures sans conducteur se font une place, discrète mais croissante, sur nos routes, leur bilan en matière de mortalité commence à émerger. Ce maigre inventaire, pourtant bien réel, vient bousculer la confiance placée dans une innovation censée protéger, et non exposer, ses usagers.

Voitures autonomes : où en est-on vraiment en matière de sécurité routière ?

La promesse d’un bouleversement de la sécurité routière grâce aux véhicules autonomes alimente les discours dans tous les événements technologiques. Les constructeurs automobiles multiplient les annonces : bientôt, plus d’erreur humaine au volant, l’intelligence artificielle anticipera chaque danger, et les statistiques d’accidents s’effondreront. Pourtant, la réalité du développement des véhicules autonomes se révèle bien plus complexe.

Du côté de Tesla, qui revendique la tête du peloton en matière de full self-driving, les chiffres avancent une baisse nette des accidents pour les kilomètres parcourus en mode autonome. Mais ces données, gardées au sein même de la firme et difficilement vérifiables, concernent principalement des situations où le conducteur humain reste prêt à intervenir à tout instant. Sans référentiel mondial pour agréger et analyser les incidents, comparer les performances devient mission quasi impossible.

Pour illustrer la diversité des situations rapportées, voici quelques points clés issus des rapports récents :

  • La NHTSA (National Highway Traffic Safety Administration) recense plusieurs centaines d’incidents impliquant des systèmes autonomes, mais sans toujours faire la distinction entre l’assistance à la conduite et l’autonomie complète.
  • Le plus souvent, c’est la mauvaise compréhension des capacités réelles du pilotage automatique ou une confiance excessive dans la technologie qui provoque l’accident avec les voitures autonomes.

Le débat sur la fiabilité du logiciel embarqué, la gestion de l’imprévu ou encore le partage des responsabilités reste ouvert. Les progrès sont indéniables, mais la route vers l’idéal zéro accident s’arrête souvent face à la réalité, là où la machine se heurte à l’inattendu.

Combien de décès ont été attribués aux véhicules autonomes à ce jour ?

Depuis que les premières voitures autonomes arpentent les routes américaines, la liste des décès officiellement liés à leur usage demeure courte, mais chaque drame fait écho bien au-delà du fait divers. L’accident survenu à Tempe, Arizona en 2018 reste dans tous les esprits : une piétonne perd la vie, renversée par une voiture d’Uber alors en phase de test. L’enquête de la NTSB (National Transportation Safety Board) met en lumière un double manquement : défaillance de la détection automatisée et absence de vigilance de la part du conducteur de sécurité.

Les données publiées par la NHTSA rapportent, à l’échelle des États-Unis, une dizaine de cas mortels impliquant des systèmes de conduite autonome, la plupart lors d’expérimentations sur route ouverte. Dans nombre de ces situations, les piétons et cyclistes se retrouvent les plus vulnérables, face à des réactions du véhicule inadaptées ou imprévues.

Voici quelques exemples qui ont marqué les dernières années :

  • En 2018 : décès d’une piétonne à Tempe, Arizona, percutée par une voiture Uber en mode autonome.
  • Pendant les années 2021 et 2022, plusieurs accidents mortels enregistrés par la NHTSA, impliquant des Tesla circulant sous Autopilot.

La question de la responsabilité exacte reste difficile à trancher : faut-il incriminer le système de pilotage, le constructeur ou le conducteur humain censé surveiller la conduite ? Les chiffres officiels ne racontent qu’une partie de l’histoire : leur exhaustivité dépend autant de la rigueur des contrôles locaux que de la volonté des industriels à jouer la transparence. Et même si des millions de kilomètres sont parcourus en mode autonome, chaque décès rappelle la distance qui sépare la promesse technologique de la sécurité réelle.

Entre progrès technologiques et zones d’ombre : que disent les enquêtes sur les accidents ?

Les analyses menées après chaque accident de véhicule autonome révèlent des progrès tangibles, mais aussi des angles morts persistants. Les avancées de l’intelligence artificielle et des systèmes embarqués impressionnent, sans toutefois effacer toutes les interrogations. Plusieurs études récentes mettent en évidence les limites du logiciel face aux situations inédites.

  • Les recherches de l’Insurance Institute for Highway Safety montrent que certains scénarios, tels que les comportements humains imprévus ou les dilemmes moraux, restent très difficiles à anticiper pour les algorithmes actuels.
  • L’Université de Grenoble et l’ENS Paris-Saclay ont démontré que, même en appliquant des méthodes formelles à la programmation, la complexité du trafic produit des situations impossibles à prévoir dans leur totalité.

Des groupes industriels, à l’image de l’alliance entre Huawei et Airbus, insistent sur le fait que l’intervention humaine reste indispensable, surtout en situation d’urgence. Selon l’UPEC (université Paris Créteil Val de Marne), de nombreux incidents ne proviennent pas d’un défaut du logiciel mais d’une supervision humaine insuffisante, ou d’une relation mal comprise entre l’utilisateur et le système.

L’association Partners for Automated Vehicle Education attire l’attention sur l’écart entre les modèles théoriques et la réalité de la circulation. Même les systèmes autonomes parmi les plus aboutis ne parviennent pas à effacer les erreurs humaines. La question de la répartition des responsabilités, quant à elle, reste délicate à trancher, même lors d’essais avancés.

voiture autonome

Vers une route plus sûre : quelles perspectives pour limiter les drames ?

L’arrivée massive des véhicules autonomes sur le réseau routier soulève un défi collectif : comment faire coexister la sécurité, l’innovation et le consentement du public ? Les travaux de Jean-François Bonnefon au CNRS, et le projet Moral Machine, rappellent combien il est urgent de clarifier les choix éthiques qui guident les algorithmes. Le fameux dilemme du tramway n’est plus réservé aux débats philosophiques : il se joue désormais à chaque décision prise par un logiciel, dans des circonstances parfois impossibles à éviter.

Alors que les constructeurs automobiles poursuivent leurs recherches, le consensus sur la gestion des situations extrêmes reste à inventer. En France, les autorités, en lien avec leurs partenaires européens, se tournent vers une réglementation renforcée :

  • exiger un dispositif de surveillance de l’attention du conducteur dans chaque véhicule automatisé,
  • obliger à la communication des données d’incident aux pouvoirs publics,
  • préciser le partage des responsabilités selon le mode autonome utilisé.

De leur côté, les utilisateurs vont devoir s’approprier ces nouveaux outils. Les associations militent pour une véritable formation à la conduite avec systèmes autonomes. Les pouvoirs publics prévoient d’instaurer une procédure d’évaluation ouverte à tous, où chaque accident sera examiné par des experts indépendants.

Impossible d’avancer sans lucidité : la société doit mener le débat sur les arbitrages imposés par l’utilitarisme algorithmique, tout en exigeant pédagogie et transparence de la part des industriels. Les routes du futur ne se dessineront pas simplement par des lignes de code, mais par des règles compréhensibles, partagées et appropriées par chacun.

Face au volant déserté, la question du contrôle revient toujours : qui pilote vraiment ? Entre les promesses des technologies et les leçons du réel, l’équilibre reste à inventer. La prochaine fois qu’un feu hésite entre orange et rouge, le doute persistera : à qui confiera-t-on le dernier mot ?

D'autres actualités sur le site