Une voiture autonome cause la mort d’un conducteur

--'--
--'--
Copié dans le presse-papier !

Première tragique : aux Etats-Unis, un automobiliste est mort dans l’accident d’une voiture Tesla qui circulait en pilotage automatique.

L’accident est survenu sur une route de Floride en mai dernier mais il vient seulement d’être rendu public. Un camion a, semble-t-il, coupé la route à une Tesla Model S en mode "autopilot". La voiture s’est alors encastrée sous le camion et le conducteur de la Tesla est décédé. Que s’est-il passé ? Apparemment, le "robot" de la voiture n’a perçu la différence entre la remorque du camion qui était blanche et le ciel très clair qui était donc lui aussi très blanc.

Enquête fédérale

Cela pose des questions quant à la fiabilité des voitures autonomes. D’ailleurs, une enquête a été ouverte par l’autorité américaine chargée de la sécurité routière (National Highway Traffic Safety Administration). Cela étant, si l’on analyse les choses plus froidement, on comprend que l’erreur d’appréciation commise par le système de pilotage est du même genre que celle qu'un être humain aurait pu commettre. La voiture n'a pas fait mieux que l'être humain. Le problème, c’est que l’on pourrait attendre d’un robot qu’il ne comette pas les même erreurs qu’un être humain et qu’il n’ait jamais un fonctionnement qui puisse conduire à un drame.

Mode autopilot 

Aussi tragique soit-il cet accident permettra, on l’espère, d’améliorer le système. Dans un communiqué, exprimant par ailleurs sa compassion à la famille de la victime, Tesla rappelle que le mode autopilot ne remplace pas l’attention du conducteur lui-même. La marque automobile souligne que ses véhicules ont déjà parcouru 200 millions de kilomètres sans accident corporels. D’ailleurs la personne décédée, Joshua Brown, avait posté, il y quelques temps, une vidéo où l’on voyait la voiture éviter in extremis une collision.

Qui "sacrifier" en cas d'accident ?

Cette affaire renvoie à une autre interrogation sur laquelle planchent actuellement les ingénieurs : que faire si une voiture autonome se retrouve dans une situation où elle risque de tuer son conducteur pour épargner d’autres personnes à l’extérieur (par exemple : des enfants qui traversent et un mur de chaque côté de la route) ? Comment décider ? Est-ce l’algorithme qui doit choisir ou le pilote qui doit indiquer sa préférence à l’avance ? Voilà une question technico-éthique à laquelle il faudra bien trouver prochainement une réponse.