Mario Herger, prospectiviste spécialisé dans les technologies de mobilité, défend une thèse qui déplace le débat sur les voitures autonomes: continuer à en retarder le déploiement ne serait plus seulement une question de prudence réglementaire, mais un choix moralement discutable. Selon lui, les robotaxis seraient déjà beaucoup plus sûrs que les conducteurs humains, et l’inaction reviendrait à accepter des accidents évitables. L’argument frappe par sa radicalité, mais il s’inscrit dans une tendance plus large: la sécurité routière devient un terrain de comparaison directe entre l’humain et la machine, au-delà des promesses marketing.
La position de Herger, rapportée dans un contexte de débat public sur l’autorisation des services de robotaxis, se heurte à une réalité politique: les autorités avancent lentement, car chaque incident impliquant une conduite automatisée concentre l’attention médiatique et la responsabilité juridique. Or la question posée est simple à formuler, difficile à trancher: si une technologie réduit statistiquement le risque, à partir de quel seuil le blocage devient-il une faute?
Ce déplacement vers l’éthique n’efface pas les contraintes techniques, ni les angles morts de l’autonomie en conditions réelles. Mais il force une clarification: le statu quo n’est pas neutre. Il maintient sur les routes un système dominé par des erreurs humaines, alors que les promoteurs de l’autonomie affirment pouvoir faire mieux. Entre promesse de réduction des accidents et exigence de confiance, le débat se durcit.
Mario Herger: bloquer les robotaxis devient un choix moral
Le cur de l’argument de Mario Herger tient en une formule: si les robotaxis sont plus sûrs que les humains, les empêcher de circuler revient à prolonger une situation plus dangereuse. Il ne s’agit plus seulement de tester davantage, mais d’assumer que des collisions liées à l’erreur humaine continueront à se produire pendant que la technologie attend son feu vert. Dans sa logique, l’éthique ne consiste pas à viser le risque zéro, mais à choisir l’option qui minimise le dommage global.
Cette manière de poser le problème rappelle un raisonnement déjà présent en santé publique: lorsqu’un outil réduit la mortalité, retarder son adoption peut être critiqué, même si l’outil n’est pas parfait. Transposé à la route, cela signifie comparer deux systèmes imparfaits, l’un dominé par l’humain, l’autre par l’algorithme, et retenir celui qui produit le moins de victimes. Herger fait donc glisser le débat du peut-on faire confiance à une machine? vers combien d’accidents accepte-t-on pour préserver un modèle de conduite traditionnel?.
Le raisonnement a une force politique, car il renverse la charge de la preuve. Jusqu’ici, les acteurs de l’autonomie devaient démontrer qu’ils étaient suffisamment sûrs. Dans l’approche de Herger, ce sont les autorités et les opposants qui devraient justifier pourquoi ils maintiennent sur les routes un système où la majorité des accidents graves sont attribués à des comportements humains: inattention, vitesse, alcool, fatigue. Les débats sur la sécurité routière rappellent régulièrement que ces facteurs restent massifs, et que la technologie promet d’en supprimer une partie.
Mais cette posture a aussi une fragilité: elle suppose que la supériorité des robotaxis est déjà établie de manière robuste, comparable et généralisable. Or la sécurité d’un système autonome se mesure sur des kilomètres, des scénarios rares, des environnements très variés, et surtout sur des données accessibles. La thèse de Herger, telle qu’elle est formulée, pousse à une question de méthode: sur quelles métriques, quels périmètres et quelles conditions d’exploitation s’appuie-t-on pour dire beaucoup plus sûr?
Comparer la sécurité: métriques, données publiques et zones d’ombre
L’affirmation plus sûr que l’humain dépend d’abord d’une unité de mesure. Les comparaisons les plus courantes portent sur le nombre d’accidents par million de kilomètres, la gravité des collisions, ou la fréquence d’événements critiques (freinages d’urgence, quasi-accidents). Mais ces indicateurs ne valent que si les conditions sont comparables: rouler principalement en centre-ville à vitesse modérée n’expose pas aux mêmes risques que circuler sur autoroute, de nuit, sous la pluie.
Une autre difficulté tient à la transparence. Les services de robotaxis sont souvent opérés dans des zones limitées, avec des règles d’exploitation spécifiques, et avec des protocoles internes de sécurité. Les autorités peuvent exiger des rapports, mais le grand public, lui, n’accède pas toujours à un niveau de détail permettant de comparer sereinement avec la conduite humaine. Or l’argument éthique de Herger suppose une confiance dans la mesure: sans chiffres vérifiables, l’éthique se transforme en pari.
À cela s’ajoute la question des cas rares, ces situations statistiquement peu fréquentes mais potentiellement graves: travaux imprévus, comportements atypiques de piétons, véhicules d’urgence, conditions météo extrêmes, signalisation temporaire. Les systèmes autonomes progressent sur ces scénarios, mais leur performance est hétérogène selon les capteurs, les cartes, les données d’entraînement et la supervision à distance. Dire qu’un robotaxi est plus sûr sans préciser son domaine d’opération, c’est risquer une généralisation abusive.
Pourtant, l’argument de Herger n’est pas seulement technique, il est aussi institutionnel: il vise les blocages réglementaires et politiques. Dans de nombreux pays, les autorités se retrouvent coincées entre deux exigences contradictoires. D’un côté, réduire la mortalité routière reste un objectif public majeur. De l’autre, un accident impliquant une conduite automatisée déclenche une réaction plus forte qu’un accident impliquant un humain, parce que la responsabilité se déplace vers un système conçu, vendu et autorisé. Cette asymétrie de perception complique l’usage de métriques froides, même quand elles sont disponibles.
Pourquoi les autorités freinent: responsabilité juridique, acceptabilité sociale, assurance
Le freinage du déploiement ne relève pas uniquement d’un conservatisme. Il tient à la responsabilité: qui est responsable quand un robotaxi provoque une collision, l’opérateur, le constructeur, l’éditeur logiciel, le fournisseur de capteurs, ou l’autorité qui a délivré l’autorisation? Tant que cette chaîne n’est pas clarifiée, chaque incident devient un risque juridique et politique. Les régulateurs préfèrent souvent avancer par étapes, avec des périmètres restreints et des obligations de supervision.
L’acceptabilité sociale pèse au moins autant. Les accidents de la route causés par des humains sont tragiquement banalisés, tandis qu’un accident lié à un système autonome est perçu comme un échec technologique. Cette différence de traitement n’est pas rationnelle au sens statistique, mais elle est déterminante dans l’espace public. Les élus et les administrations le savent: autoriser une technologie qui promet de réduire les accidents ne protège pas contre le coût politique d’un cas spectaculaire.
Le secteur de l’assurance ajoute une couche. Pour un véhicule conduit par un humain, les modèles actuariels existent, même imparfaits. Pour un service autonome, l’assureur doit comprendre le risque, accéder à des données, et définir des clauses en cas de mise à jour logicielle ou de changement de périmètre d’exploitation. La question n’est pas seulement le système est-il sûr?, mais comment prouver qu’il l’est en continu?. Or un robotaxi évolue: nouvelles versions, nouveaux capteurs, nouvelles cartes, nouvelles règles d’interaction avec la voirie.
Dans ce contexte, qualifier le blocage d’ irresponsable est un geste rhétorique fort, mais il peut aussi être lu comme une manière de forcer la décision publique. La prudence réglementaire n’est pas seulement de la lenteur, c’est une tentative de construire un cadre de responsabilité compatible avec une technologie qui apprend et se met à jour. La tension se cristallise sur un point: l’éthique de Herger demande d’accélérer, l’État demande de maîtriser les conséquences d’une accélération.
Le calcul éthique: vies sauvées, risques résiduels et inégalités de mobilité
La thèse de Mario Herger prend tout son sens si l’on accepte un principe: une politique publique doit viser la réduction du dommage total. Si les robotaxis réduisent les collisions graves, alors chaque année de retard a un coût humain. Le débat devient un calcul moral: combien de victimes le statu quo produit-il, et combien de victimes une adoption plus rapide éviterait-elle? Même sans chiffres détaillés dans la déclaration rapportée, le raisonnement s’appuie sur une intuition largement partagée: l’erreur humaine reste la cause dominante des accidents.
Mais l’éthique ne se limite pas au nombre d’accidents. Elle inclut la distribution des risques. Un système autonome peut être excellent en moyenne, mais moins performant dans certains quartiers, certaines conditions météo, ou face à certains comportements. Il peut aussi déplacer le risque vers des usagers plus vulnérables si ses choix de conduite privilégient la protection des occupants au détriment des piétons, ou si ses modèles reconnaissent moins bien certaines silhouettes, tenues ou mobilités. Les critiques sur les biais algorithmiques, dans d’autres domaines, alimentent cette vigilance.
Le sujet touche également aux inégalités de mobilité. Les promoteurs des robotaxis mettent en avant l’accès pour les personnes âgées, handicapées, ou celles qui ne peuvent pas conduire. Si la technologie tient ses promesses, la retarder peut maintenir des populations dans une dépendance coûteuse aux transports spécialisés ou à l’entourage. Sous cet angle, l’éthique de Herger ne concerne pas seulement la sécurité, mais aussi l’autonomie individuelle et l’accès à la ville.
Reste un point décisif: l’éthique du déploiement rapide suppose un contrôle permanent, pas une autorisation ponctuelle. Autoriser des robotaxis tout en exigeant des audits, des rapports d’incidents, des seuils de performance et des mécanismes de retrait rapide peut répondre à l’objection majeure: réduire le risque moyen sans ignorer les risques résiduels. Le débat ne se joue donc pas entre feu vert et interdiction, mais entre un modèle d’expérimentation encadrée et une attente de maturité totale, qui n’arrive jamais dans les systèmes complexes.
La déclaration de Herger agit comme un révélateur: l’autonomie n’est plus seulement une innovation à évaluer, c’est une alternative à un système routier déjà meurtrier. Si les opérateurs parviennent à documenter de manière crédible la supériorité de leurs services sur des périmètres clairs, la pression éthique pourrait se retourner contre les décideurs publics, sommés d’expliquer pourquoi la réduction du risque attend.
Questions fréquentes
- Pourquoi Mario Herger parle-t-il d’un enjeu éthique plutôt que technique ?
- Parce qu’il affirme que les robotaxis seraient déjà plus sûrs que les conducteurs humains. Dans ce cadre, retarder leur déploiement ne serait pas neutre : cela reviendrait à accepter des accidents liés à l’erreur humaine qui pourraient être évités.
- Qu’est-ce qui rend la comparaison de sécurité entre robotaxis et humains difficile ?
- Les métriques varient (accidents par distance, gravité, événements critiques) et les conditions d’exploitation ne sont pas toujours comparables. Les robotaxis opèrent souvent dans des zones limitées, avec des vitesses et des scénarios spécifiques, et les données détaillées ne sont pas toujours publiques.
- Pourquoi les autorités avancent-elles lentement sur l’autorisation des robotaxis ?
- La responsabilité juridique en cas d’accident, l’acceptabilité sociale et les modèles d’assurance sont complexes. Un incident impliquant un système autonome entraîne aussi une réaction politique et médiatique plus forte qu’un accident impliquant un conducteur humain.