Chaque année dans le monde plus d’un million de personnes meurent dans un accident de la route pour la majorité des cas causé par une erreur humaine. La solution ? Les voitures autonomes, qui font aujourd’hui leurs premiers tours de piste, et qui promettent à terme un taux d’accidents quasi-nul en déléguant la conduite à un puissant algorithme. Passer son permis de conduire sera-t-il bientôt un luxe vintage pour hipsters ?

Pas si sûr, comme le prouve une brillante simulation du MIT montrant que pour être autonomes et faire face à l’imprévu, les voitures devaient être dotées d’un système moral. Lequel ? C’est là tout le problème.

Fromage, dessert, ou régime ? Derrière chaque choix fondamental, une morale

Nous sommes en 2053, un brillant médecin spécialiste en cryptogénétique anaphylactique est assis dans sa Google Car, il peaufine sa prochaine publication révolutionnaire tandis que la voiture le conduit à l’hôpital. Soudain, un obstacle mortel et inattendu est détecté devant lui par le pilote automatique, mais les freins lâchent. Il n’y a que deux possibilités, s’écraser contre l’obstacle (1) ou faire un écart et tuer au passage trois SDF obèses qui traversent innocemment la route sur le passage piéton (2).

L’algorithme va devoir trancher entre les deux options, et vite. Imaginez que vous êtes à sa place répondez à la question : qui doit mourir ?

Vous avez fait votre choix ? Votre réponse se rattachera probablement à l’un des deux grands courants de la philosophie morale.

La morale a priori : Pour vous la morale repose sur des principes clairs et universels qui ne peuvent subir aucune entorse. Tuer c’est interdit, peu importent les circonstances, point barre. Vous êtes un disciple d’Emmanuel Kant. La conséquence ? Vous laissez mourir le médecin dont la voiture défaillante ne peut moralement pas dévier de sa trajectoire car elle sacrifierait intentionnellement des innocents.

La morale utilitariste : Vous pensez qu’une décision morale s’analyse au cas par cas en fonction de la situation : il faut privilégier la solution la moins grave après une solide analyse coût-avantage. Ainsi, s’il faut tuer une personne pour en sauver trois autres, vous le ferez de bon coeur ! Vous êtes un disciple de Jérémy Bentham. Dans la mesure où une vie compte moins que trois vie, alors vous sacrifierez le médecin. Attendez une minute, allez jusqu’au bout… combien de vies le médecin pourrait-il sauver s’il échappait à l’accident ? 100, 500, peut-être 1000 ! Cela ne vaut-il pas le sacrifice de trois malheureux SDF ? Contre-intuitif et cruel, mais ô combien plus rationnel !

Ce raisonnement vous semble être celui d’un sophiste athée fallacieux ?

Soit, interrogeons alors la doctrine catholique qui a précisément bâti son business model autour de ces questions. À travers le commandement « tu ne tueras point » on aurait tendance à ranger le système judéo-chrétien dans la case des morales a priori, mais à y regarder de plus près c’est tout le contraire. La théorie du « moindre mal » explique que lorsque l’on est tenu de choisir entre deux pêchés et qu’il n’y a aucun moyen de les éviter, alors on optera pour le moins grave des deux. Et Saint Thomas d’Aquin, en bon hédoniste, de sauter sur l’occasion pour justifier moralement la prostitution, un moindre mal permettant de canaliser la testostérone bestiale moyenâgeuse : « Ôtez des affaires humaines les filles publiques, et vous aurez troublé tout par le déchaînement des passions » (Somme Théologique). Un tel raisonnement serait tout aussi valable pour légaliser le cannabis. L’Eglise serait-elle prête à encourager la défonce ?

La Morale Machine : votre code Bushido de la route

Ces dilemmes sont cruciaux pour l’avenir des voitures autonomes et invitent au passage à nous interroger sur les motivations profondes de nos décisions morales. Si nous devions choisir entre plusieurs vies humaines, en fonction de quels critères ferions-nous un ordre de priorité ? Le sexe, l’âge, la fonction sociale ?

Pour mieux le comprendre, des chercheurs du MIT ont mis au point la Morale Machine, treize courts dilemmes moraux qui permettent de faire le point sur votre système de valeurs. Parmi les variables du dilemme : des animaux de compagnie, des enfants, des criminels, des adultes en surpoids mais aussi l’infraction au code de la route. Autant de petits détails sournois qui vous feront préférer la survie de l’un plutôt que de l’autre.

Votre cher rédacteur a répondu pour vous aux treize questions. À la fin une synthèse indique les variables qui ont influé dans les décisions comparées à la moyenne des millions d’autres utilisateurs. Quel ne fut pas mon effroi lorsque j’ai découvert qu’au moindre cas concret mes grands principes universalistes se délitaient au profit d’une éthique macho-utilitariste fascisante des plus cruelles ? Voici un extrait de mes préférences quand il s’agit d’arbitrer entre deux vies.

Indignez-vous ! Vous auriez raison. Mais maintenant c’est à votre tour, quelles sont vos préférences ? Un peu de courage et d’honnêteté… Osez mettre vos grands principes moraux à l’épreuve, rendez-vous sur la Morale Machine et enseignez la sagesse aux algorithmes, notre survie sur le passage piéton en dépend !

Bonne Continuation

D'autres articles