Une question de morale
6 min

Une question de morale

La mort d’une piétonne provoquée par une voiture autonome d’Uber a relancé le débat sur la sécurité des voitures autopilotées. Les questions morales restent sans réponses: selon quels critères l’intelligence artificielle doit-elle prendre ses décisions dans les situations délicates?

La question est très simple: «Êtes-vous d’accord que le logiciel d’une voiture autonome minimise le nombre de victimes dans un accident, même si cela entraîne la mort des occupants du véhicule?» La plupart des participants à une enquête posant cette question aux Etats-Unis se sont prononcés de manière affirmative. A la deuxième question tout aussi simple leur demandant s’ils achèteraient un tel véhicule, ils ont majoritairement répondu par la négative. Ce n’est donc pas si simple qu’il n’y paraît.

L’unanimité règne sur le fait que les voitures autonomes sont en principe plus sûres que celles conduites par des êtres humains. Un système de conduite autonome n’est pas distrait pas le smartphone et ne connaît pas la fatigue, l’ivresse, la colère ou l’imprudence. Dans l’idéal, un tel système communique avec les autres véhicules sur la route, ce qui lui permet d’identifier à l’avance les situations dangereuses. Cela ne signifie pas pour autant qu’il n’y aura plus aucun accident. Il se peut qu’un enfant se précipite sur la route et que la voiture roulant à grande vitesse n’arrive plus à l’éviter ou qu’un capteur important soit couvert par de la boue. Dans un tel cas, c’est à l’IA (intelligence artificielle) de décider comment réagir. Dans de tels instants, les humains ne prennent pas de décisions conscientes, mais agissent par réflexe. Les éventuels morts sont considérés comme victimes d’un accident. L’IA a cependant la possibilité d’évaluer la situation: qui sauver et qui sacrifier? La question la plus épineuse est bien de savoir si les programmeurs du logiciel d’un tel véhicule doivent le préparer à cette situation?

Doit-on programmer la machine pour qu’elle sacrifie l’homme au lieu des enfants? Car elle est en mesure de décider.

Il ne s’agit plus ici de physique (ou du moins pas en première ligne), mais bien plutôt d’une question d’éthique: comment est-ce qu’un algorithme peut décider qui doit mourir dans un accident? Il existe dans ce domaine une multitude d’expériences de réflexion que l’on peut soi-même réaliser comme par exemple avec la «Moral Machine» du MIT (Massachusetts Institute of Technology). On peut simplifier le problème de la façon suivante: une voiture se trouve confrontée à une situation où elle doit décider si elle va renverser un groupe de cinq enfants ou un homme seul. Quelle est la décision correcte? De manière intuitive, la plupart des gens optent pour le sacrifice de l’homme.

 

Qui va subir les conséquences d’un accident: les occupants de la voiture ou les piétons? A l’avenir, les voitures autonomes devront peut-être trancher elles-mêmes. Image: Youtube/Scalable Cooperation.

Mais comme nous l’avons déjà dit: c’est compliqué. Pour illustrer ce dilemme, nous allons légèrement modifier l’expérience: imaginons que nous avons cinq enfants souffrant d’une maladie incurable. Une transplantation d’organes permettrait néanmoins de les sauver tous les cinq. Puis nous avons cet homme en bonne santé disposant précisément des organes nécessaires. Devrait-on le tuer pour sauver la vie des cinq enfants? Dans ce cas, il est évidemment impossible d’obtenir un consensus autour du sacrifice de l’homme. Notre sens de l’éthique nous fait nettement percevoir qu’il est pire d’éliminer une vie humaine que de laisser mourir quelqu’un. Et c’est exactement de cela qu’il s’agit: doit-on programmer la machine pour qu’elle sacrifie l’homme au lieu des enfants? Car elle est en mesure de décider.

Le logiciel serait ainsi en mesure de calculer par exemple quelles sont les victimes entraînant le préjudice économique le plus bas.

Le débat juridique et éthique à ce sujet est en cours aux États-Unis et en Europe. Il serait tout à fait possible de programmer l’algorithme pour qu’il optimise les victimes mortelles en fonction de l’âge, du sexe, du niveau de formation, de l’origine ethnique ou du revenu. En théorie, il serait possible de mettre à la disposition du véhicule toutes les informations disponibles sur ses occupants (grâce au smartphone et aux apps). Le logiciel serait ainsi en mesure de calculer par exemple quelles sont les victimes entraînant le préjudice économique le plus bas. Il n’en demeure pas moins que les Constitutions de toutes les démocraties occidentales établissent que la vie de cinq personnes n’a pas plus de valeur que celle d’un seul individu. Et la vie d’un senior ne vaut pas non plus moins que celle d’un enfant. Tout autre point de vue serait incompatible avec notre conception de la dignité humaine.

Un dilemme pour les constructeurs automobiles

Comment est-ce que les constructeurs automobiles gèrent ce dilemme? Certains le refoulent ou considèrent les réflexions évoquées ci-dessus comme de la «masturbation intellectuelle». D’autres abordent sérieusement le problème et cherchent des solutions. Enfin, quelques-uns essaient d’obtenir un avantage par rapport à la concurrence. Ainsi, un grand fabricant de voitures allemand vante les mérites de ses autos en soulignant qu’elles sont programmées pour sauver en premier lieu la vie de leurs occupants. Un argument de marketing tout à fait en mesure de convaincre des acheteurs hésitants. Les conséquences négatives en terme d’image de marque ne doivent cependant pas être sous-estimées: un riche homme d’affaires évite ainsi des blessures aux dépends de quelques pauvres enfants? Est-ce sérieux?

D’ici à ce que des véhicules autonomes prennent ce genre de décisions, les constructeurs continueront de développer des autos partiellement autonomes, qui savent se garer, adapter leur conduite sur l’autoroute, avertir des dangers ainsi que freiner et piloter. Le conducteur doit cependant toujours être prêt à reprendre le contrôle de son véhicule. Dans le moyen terme, les voitures ne seront pas encore capables de décider elles-mêmes comment réagir dans une situation potentiellement mortelle. C’est aux spécialistes en éthique, aux politiciens et aux juristes qu’il incombe de de se prononcer sur ces questions et non pas aux programmeurs de logiciels. Car comme nous l’avons déjà dit, c’est compliqué.

Pour de plus amples informations

De nombreux articles, qui ont partiellement servi de sources pour la présente réflexion, se sont déjà penchés sur le sujet. Voici quelques références dans la NZZ, «Die Zeit» et Forbes.com.

Publicité de voiture fictive: quand les autos identifient les dangers à l’avance. Vidéo: Youtube/HD Trailers

Participez à la discussion

Quel modèle de voiture autonome achèteriez-vous: un qui sauve en premier la vie des passagers du véhicule ou un qui cherche à minimiser le nombre de victimes d’un accident?

Lisez maintenant