Publicité
Normand Baillargeon

L’éthique des voitures autonomes

04-01-2018

Un tramway fonce à vive allure, sans pouvoir freiner, vers cinq personnes qui se trouvent plus loin sur les rails. Vous assistez à la scène et vous pourriez abaisser un levier qui ferait dévier le train vers une autre voie. Les cinq personnes seraient ainsi sauvées. Mais sur cette seconde voie se trouve une autre personne qui, elle, mourra. Abaissez-vous le levier ?

De nombreuses études ont démontré que la grande majorité des gens (90 %) disent que oui, justifiant leur choix par un principe « utilitariste », selon lequel mieux vaut sacrifier une vie pour en sauver cinq.

Mais voici une troublante variante de ce dilemme (initialement posé par la philosophe britannique Philippa Foot en 1967). Le train fonce encore vers cinq personnes. Cette fois vous assistez à la scène depuis une passerelle surplombant les rails. Vous êtes une personne frêle, mais à vos côtés se trouve une personne obèse, suffisamment lourde pour arrêter le train. La poussez-vous sur les rails ?

Ici, le même calcul utilitariste commanderait de répondre que oui. Mais cette fois, la majorité des gens assurent qu’ils ne le feraient pas. Expliquer cette différence a fait couler beaucoup d’encre. Il serait ainsi moralement plus difficile d’être celui qui tue volontairement quelqu’un que d’être celui qui choisit, entre deux accidents inévitables, le moins terrible d’entre eux. Et il y a un monde entre actionner un levier et pousser un être humain devant un train.

Avec l’avènement de la voiture autonome (mais aussi des agents de conversation intelligents et des robots dans les usines, les hôpitaux et ailleurs), de telles expériences de pensée n’ont jamais été autant d’actualité.

Imaginez une voiture sans un conducteur, dont l’algorithme peut prédire qu’elle glissera sur une plaque de verglas et tuera cinq piétons. Ce même calcul pourrait toutefois lui commander de dévier de sa route à tel moment et, cette fois, en tuer un seul. Ce problème du tramway se posera donc dans la réalité; rarement certes, mais il se posera.

Quelles seront les règles inscrites dans l’algorithme éthique de la voiture? Ces instructions seront-elles utilitaristes ? Qui en décidera ? Les programmeurs ? Le fabricant de la voiture ? Un consensus social ? Ces questions sont aussi difficiles qu’incontournables.

D’autant qu’il y aura des cas où, pour revenir à l’expérience de pensée du train, il n’y aura que vous sur la passerelle et vous êtes obèse ! Ce cas est celui où, pour sauver deux personnes ou plus, un calcul utilitariste demandera le sacrifice du passager de la voiture autonome.

Mais qui voudrait acheter ce genre de véhicule ? Les gens souhaitent que toutes les voitures autonomes proposées sur le marché soient utilitaristes, sauf la leur, car ils souhaitent privilégier la vie de leurs passagers. On se retrouve ainsi avec ce que les économistes appellent le problème du resquillage, ou du « passager clandestin » (free rider), où chacun veut profiter d’un bien commun auquel tous les autres contribuent, sans y contribuer soi-même.

De cruels dilemmes en vue

La voiture autonome, qui conduit de manière plus sécuritaire que l’automobiliste lambda, dont les réactions sont parfaites, qui n’est jamais fatiguée ni droguée, sauvera certainement de très nombreuses vies. Mais elle devra aussi être conçue pour résoudre des dilemmes éthiques comme ceux que j’ai évoqués, et même d’autres, qu’on ne peut que soupçonner.

Prenons le risque d’en imaginer quelques-uns. Le principe d’impartialité interdit que la voiture autonome puisse avoir accès aux données personnelles (âge, antécédents médicaux, handicap, par exemple) des personnes impliquées dans un dilemme éthique et en tienne compte pour le résoudre. Mais pourra-t-on le garantir ?

Devrait-on, comme on le propose parfois, permettre à tout acheteur de décider de l’algorithme éthique de sa voiture, la rendant, selon son bon plaisir, altruiste, égoïste ou neutre ?

Le principe d’égalité de traitement semble interdire que l’on puisse proposer à la vente une telle option, ce qui ne la rendrait accessible qu’aux personnes plus fortunées. Passerons-nous outre ce principe ? Un marché noir des programmes éthiques (ou plutôt immoraux) pour voitures est-il à craindre ? Ce n’est pas tout.

Car il se pourrait aussi que l’apprentissage profond (deep learning) amène à revoir les termes dans lesquels nous posons aujourd’hui ces questions. Plutôt que suivre un programme éthique inflexible, les machines apprendraient de leurs interactions avec le monde et feraient preuve de flexibilité.

Par exemple, ce robot qui soigne ce vieillard malade, ayant appris à concilier respect de son autonomie et le fait qu’il doive prendre des remèdes, saurait négocier avec son patient et décider quand et jusqu’à quel moment il est souhaitable de reporter provisoirement sa médication.

Chose certaine, il faudra sérieusement parler de tout cela car, pour le moment, la robotique a une longueur d’avance sur la « roboéthique ». Il est urgent de la combler.

Illustration: Vigg

Publicité

À lire aussi

Normand Baillargeon

Un nouvel ennemi: le dénialisme

Il n'y a pas de réchauffement climatique. La cigarette n'est pas nocive. Les vaccins tuent. Et nier la vérité, voire l'évidence, c'est souvent bon pour les affaires.
Normand Baillargeon

Parlons des licornes

Leur existence est impossible à démontrer. Pouvons-nous affirmer pour autant qu'elles existent? Leçon de logique.
Normand Baillargeon

Est-ce que le hasard existe en science?

La science n’est jamais entièrement fortuite, puisqu’elle exige une expertise que personne n’a jamais trouvée dans une boîte de Cracker Jack.