Le dilemme du train:
"Un train sans conducteur fonce le long d'une voie sur laquelle trois personnes sont attachées. Vous pouvez les sauver en actionnant un aiguillage qui le fera changer de direction, vers une autre voie sur laquelle une seule personne est attachée. Le faites-vous?"

(Ce dilemme est aussi une parfaite métaphore de l'élection en cours)

J'ai souvent constaté quand on posait cette question aux gens que le premier réflexe était de chercher une échappatoire. :)
En l'occurrence: "on peut pas couper le courant, plutôt?", ou "j'essaie de foncer les détacher". J'ai l'impression que l'esprit a du mal avec les prises de position morales fortes.
Si vous jouez le jeu, sans essayer de tricher avec l'énoncé: vous avez une réponse?

Ce n'est pas une devinette, hein. Je vous donne la réponse majoritaire: la plupart des gens optent pour "le moindre mal" et changent le train de voie.

Après, le twist sur ce dilemme: imaginez maintenant qu'il n'y ait qu'une seule voie avec les trois personnes attachées. Le train peut être arrêté en cas de choc avec quelqu'un de suffisamment lourd. À côté de vous il y a un gros monsieur que vous pouvez faire tomber sur la voie. Le poussez-vous?

Dans les deux cas vous êtes acteur direct du dénouement: vous sacrifiez une vie de vos mains pour en sauver trois. Pourtant on perçoit clairement que les deux situations ne sont pas équivalentes alors qu'elles semblent avoir le même "poids moral".
La raison est bien sûr que la décision n'a pas le même poids émotionnel. Ce qui fait la différence, c'est la proximité.

C'est d'ailleurs ce qu'on essaie de quantifier quand on cherche des échappatoires et des solutions tangentes: qui sont ces gens? Est-ce que je sacrifie un enfant pour sauver trois nazis? Est-ce que je sauve un proche au prix de trois, dix, cent personnes?
Bref, nous ne sommes pas purement "utilitaristes".

C'est une question qui se pose concrètement en intelligence artificielle, notamment pour les voitures sans chauffeurs.
Dilemme 1: la voiture roule entourée de deux voitures. une avec une famille de cinq personnes, une avec une personne seule. Devant elle, un énorme chargement tombe d'un camion. Freiner ne suffira pas. Doit-elle: se déporter à gauche et mettre en danger la voiture avec la famille, à droite vers la voiture avec une seule personne, ou rester/freiner et sacrifier le conducteur?

@bouletcorp l'IA appelle le module "valorisation d'une vie" qui prend en compte l'historique médical, l'espérance de vie, la valeur ajoutée pour la société des métiers exercés ou en projet et décide "objectivement". Facile.

D'où l'intérêt d'une réflexion éthique sur l'IA. Quand on sera sortis du déni.

@hipparkhos

Ca a quand même l'air compliqué de récupérer les données de tout ce monde et de lancer le calcul en moins de temps qu'il en faut pour que la décision puisse encore être prise. ^^

@Bouletcorp

@bouletcorp @mimick la voiture d'en face transmet les données des passagers en 10 ms. Pas de problème.

Ceux qui refusent la transmission de leurs données sont sacrifiés.

Ma voiture transmettra des données que je prendrai soin de trafiquer un peu.

Follow

@hipparkhos @Bouletcorp

Je sais pas si ça me gêne plus de devoir mettre mes données confidentielles en local dans une voiture que j'emprunte ou de savoir que n'importe qui peut interroger ladite voiture sans identifications pour avoir lesdites données. :D

Sign in to participate in the conversation
Mastodon

Generalistic and moderated instance. All opinions are welcome, but hate speeches are prohibited. Users who don't respect rules will be silenced or suspended, depending on the violation severity.