Votre voiture devra-t-elle vous laisser mourir pour sauver des vies ?

Votre voiture devra-t-elle vous laisser mourir pour sauver des vies ?

Vous êtes en voiture, un poids-lourd arrive face à vous. Vous pouvez vous déportez sur la voie d'à côté, vous sauvant vous mais tuant plusieurs personnes dans les accidents causés ou vous pouvez percuter le poids-lourd, vous tuant sur le coup, mais ne faisant pas d'autre victime. Votre choix ? Et si c'était votre voiture autonome qui avait à le faire ?

Ce genre de question ô combien cruelle et les débats qui en découlent existent depuis fort longtemps. Si la nature humaine peut être fort surprenante, la question se posera fatalement quand il faudra programmer nos futures et tant attendues voitures autonomes.

Votre robot, celui pour lequel vous avez payé une somme conséquente, a décidé de vous tuer.

Cette simple phrase de Popular Science pourrait être lourde de sens dans quelques années. Certes, ce ne sera peut-être pas le robot lui-même qui l’aura décidé. Peut-être son programmeur, ou le cadre qui a décidé de la politique de sa compagnie, ou les dirigeants politiques qui ont voté cette loi. Quelqu’un, quelque part, a pourtant bel et bien autorisé ce robot à agir.

Et ce n’est assurément pas la seule situation de ce genre à laquelle nous pourrions être confrontés à l’avenir. Quels critères devra-t-on choisir pour “façonner l’éthique” de nos robots ? Commençons déjà par cette “simple” question : “votre voiture devrait-elle avoir le droit de vous tuer ?”

Tags :Sources :Gizmodo
Dernières Questions sur UberGizmo Help
  1. Sachant que le réflexe d’un humain serait d’éviter la collision avec le camion même si cela risque de tuer d’autres personnes, je pense que le comportement des voitures “robots” doit être calqué sur le notre.

  2. Pourquoi un poids-lourd arriverait en face? Si tout est autonome, on peut s’attendre à ce qu’il n’y ai pas de problème de ce genre, non?

    1. Il y a de fortes chances que, dans un premier temps, les voitures autonomes croisent les voitures “manuelles”. On ne va pas interdire du jour au lendemain de conduire nos voitures…

      1. J’imagine bien que du jour au lendemain tout ne sera pas autonome, mais là j’ai l’impression qu’on parle de décision à plus long terme. Je pense que la question ne se pose essentiellement pour cette phase de transition, sauf si elle dure éternellement.

      2. Surtout que, il y a un véhicule qui ne pourra jamais être autonome: les moto

        Donc il y aura toujours du “manuel” sur les routes.

  3. Je crois que asimov en son temps avait déjà bien creuser le sujet. Si le choix est inévitable la survie du plus grand nombre sera probablement la norme.

  4. après le: “c’est pas ma faute, on a hacké mon drone”

    on aura le: “je ne comprend pas, ma voiture a roulé toute seule sur ma belle-mère. c’est pas ma faute, je vous le jure. on a hacké ma voiture.”

    plus tard ce seront les avions et les trains longue distance: “je ne comprend pas, l’avion a disparu des radars, nous n’avons plus aucune trace de lui” “je ne comprend pas, le train n’a pas freiné dans le virage, on a hacké la loco”.

    que dire aussi quand ce seront des robots qui nous opéreront: “je ne comprend pas pourquoi l’opération s’est transformée en boucherie. le robot chirurgien a surement été hacké, c’est certain”.

    à y réfléchir, avec par exemple, les nouvelles voitures qui année après année sortent avec des équipements toujours plus useless (phare/essuie glace/cligno/clim/verrouillage/vérification des niveaux/des pressions automatique, assistance de conduite, de freinage, de stationnement..), les gens deviennent de plus en plus dépendant et le jours où ces systèmes tombent en panne, ils sont perdus et font des erreurs aux conséquences malheureuses.

    c’est comme avoir confiance en son système anti-noyade pour les piscines privées.. le jour où il y a une coupure de courant, que les piles n’ont pas été rechargées.. si les gens ont oublié de surveiller leurs enfants par excès de confiance en l’électronique, le drame est vite arrivé.

    1. Ça te dit rien le pilote automatique ?
      Ça fait très longtemps que ça existe et que je sache il n’y a jamais eu de problème de prise de contrôle à distance d’un avion ou que sais-je …
      Pour les robots qui opèrent tous seul je sais pas si ça existe, mais je sais qu’il existe des robots qui permettent à un chirurgien d’opéré à distance avec une très très grande précision …
      Mais le fameux bug ou hack reviendra toujours dans l’esprit des personnes qui ne veulent pas évoluer …

      Pour répondre à l’article, je pense que c’est cas vraiment très particulier comme situation et que si on automatise massivement tous les véhicules, il y a peu de chance que ça arrive mais on en est encore loin 😉

  5. Intéressant, sacrifier le minimum de vies dans une situation où cela est inévitable. Est-ce qu’il y aura une priorité parmi le sexe, l’âge, ou bien la fonction occupée aussi.
    Mettons que votre voiture soit impliquée dans un accident avec la voiture d’un ministre, seriez-vous sacrifié, car ayant moins de valeur?
    Dans le futur, grâce à la technologie, on va devoir se taper des tartines de procès relayés par les infos. Procès intentés par les proches des victimes aux constructeurs, car le système n’aurait pas fonctionné correctement, ou aurait du faire ceci….cela….bla bla bla.
    Puis si vous achetez une voiture de luxe, celle-ci vous protégera mieux qu’une Dacia, alors je vois pas pourquoi ces sales pauvres auraient une raison de se plaindre.

    1. C’est aussi le cas des autoroutes dont le but principal n’est pas normalement d’aller plus vite mais d’avoir plus de sécurité. Or, pas loin de 15 balles pour 100 km sur certaines portions, sans compter l’essence, c’est bien la preuve que l’égalité en terme de sécurité n’est pas un objectif prioritaire…

  6. Si tous les véhicules sont autonomes ce genre de problématique ne se posera pas.
    On ne pourra pas mélanger voiture robots et voitures pilotés par des simples humains aux réflexes imparfaits.

  7. La question est très théorique et vide de sens.

    Elle considère que les “autres” n’ont pas de réaction. Que la voiture se déporte “pour éviter le camion” ne veut pas dire que des morts sont inévitables, car il faut prendre en compte le fait que les autres voitures ont vu la perte de contrôle du camion et peuvent parfaitement avoir anticipé un mouvement d’esquive ou de freinage.

    Même dans un flux mélangé de voitures automatisées et manuelles, un événement inhabituel sera forcément détecté et pris en compte pour la suite des événements.

    Bref, il faut faire comme d’habitude.

  8. Mouais, il ne faut pas non plus fantasmer une Intelligence Artificielle qui ira jusqu’à ce niveau d’analyse afin de réaliser l’accident le moins meurtrier, d’autant plus qu’il faudra alors une sacrée bête de calcul pour analyser tous les scénarios possible en fonction de tous les paramètres et tout cela dans l’ordre du millième de seconde pour que cela soit efficace …

    Je pense que la voiture autonome prendra uniquement en compte le camion qui arrive et les véhicules autour d’elle pour se déporter du bon côté afin d’éviter la collision, cela entrainera peut-être une séquence en chaine de détection de collision des véhicules suivants mais pas plus.

    Votre article me fait beaucoup penser au film IRobot avec Will Smith, dans lequel lors d’un accident de voiture ( tiens donc .. ) un robot décide de sauver une femme, plutôt qu’un jeune enfant, car d’après son diagnostique purement mathématique, la femme avait une plus grand probabilité de survie par rapport à l’enfant. A l’opposé un humain aurait instinctivement sauvé l’enfant.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Publicité