Chicago a un ordinateur en guise de Pré-Cog, est-il raciste ?

Minority Report in real life

Nous vous en parlions il y a quelque temps, les ordinateurs peuvent aujourd'hui aller très loin dans l'analyse de l'humain. Tellement loin qu'une machine est devenue experte en prédiction de crime. La ville de Chicago l'utilise actuellement pour établir une liste de ses habitants potentiellement les plus dangereux.

Lorsque la police débarque chez Robert McDaniel, cet étudiant de 22 ans est on ne plus surpris. Son seul tort ? Faire partie de la liste noire de 400 personnes jugées potentiellement dangereuses, liste établie par une machine utilisée par la police de Chicago. En compilant des données issues de l’algorithme d’un ingénieur de l'”Illinois Institute of Technology” et en exploitant les études de certains sociologues de Yale, l’ordinateur calcule la probabilité que chacun a de se retrouver impliqué dans un crime violent.

L’ordinateur prend en considération l’environnement familial, le cursus, la zone de résidence de l’individu ainsi que de nombreuses informations directement issues des centres de police – fréquence et violence des incidents dans la zone, présence de criminels notoires dans le quartier, casier judiciaire, etc -. Selon Steven Caluris, l’un des hommes derrière le projet, “si vous êtes sur cette liste, il y a une raison.”

Alors, si pareil système est évidemment très intéressant, et énormément subventionné, il convient de rester prudent, “ces programmes créent un environnement dans lequel la police peut débarquer chez les gens sans raison n’importe quand”, telle est la crainte de Hanni Fakhoury, avocat chez “Electronic Frontier Foundation”.

Car, aussi “intelligent” soit-il, le système ne peut sur l’heure que se baser sur des statistiques, notamment raciales. Et c’est bien là que le bât blesse. Il ne s’agit donc pas de “marquer” une personne uniquement parce qu’elle a une certaine origine et qu’elle vit dans un quartier sensible par exemple… Il faudra de nombreuses années de réglages et de perfectionnement de l’algorithme pour éviter de tomber dans ses travers.

Tags :Sources :The Verge
Dernières Questions sur UberGizmo Help
  1. “Il faudra de nombreuses années de réglages et de perfectionnement de l’algorithme pour éviter de tomber dans ses travers.”…
    Heuu… Penser a mettre en place un tel système est déja un travers en soi. Tu est rédacteur d’un site sur les nouvelles technologies, tu devrais etre donc relativement bien informé des problèmes qui mêlent informatique et vie privée et tu arrive quand même a pondre une énormité pareille… Sérieusement? dis nous que c’était de l’humour…

    1. Non croquantes a souhait , merci de t’inquiéter :)

      Rageux? je ne pense pas (ou j’espere pas) . Mais une personne qui suit l’actualité numérique voit apparaître au moins toutes les deux semaines un projet avec des questionnements sur la vie privée, et la plupart des geeks ont vu ou entendu parler de minority report.

      a partir de la, et sur un site d’actualité numériques / geek, un rédacteur qui lâche de telles âneries, ce n’est pas énervant, c’est inquiétant. SI ceux qui transmettent l’information (donc, a priori , qui connaissent le mieux cette information) se mettent a trouver ça “normal “, c’est même très inquiétant

      1. Ceux qui transmettent l’information n’ont pas à trouver ça normal ou pas. Tu es assez grand pour t’en faire ta propre idée. Le journaliste doit rester neutre et c’est bien ce qu’il a fait il me semble.
        Si les biscottes étaient molles, c’est que c’était du pain de mie :)

        1. Désolé mais je rejoins bembp, lorsque le journaliste dit “Alors, si pareil système est évidemment très intéressant” il y a une opinion personnelle et aucune remise en question du proécédé. Et s’il trouve cela intéressant, moi ce genre de technologie m’inquiète.
          Je tiens à préciser que je ne mange pas de biscottes au réveil :)

  2. C’est quoi ces délires de racisme ?! Encore un fantasme de pseudo-media cherchant à faire du buzz…

    “L’ordinateur prend en considération l’environnement familial, le cursus, la zone de résidence de l’individu ainsi que de nombreuses informations directement issues des centres de police – fréquence et violence des incidents dans la zone, présence de criminels notoires dans le quartier, casier judiciaire, etc”

    A aucun moment il n’est fait allusion à la couleur de peau. Alors il n’y a aucune raison de parler de racisme… A force de stigmatiser les gens et de parler de racisme à tout va, c’est comme cela que vous faites monter le racisme !

  3. Ça existe déjà un système fiable de ce type, je l’ai vu dans “PERSON’S OF INTEREST” ;=)
    comme quoi la réalité va bientôt rattraper la fiction!!!

  4. @Aki “Car, aussi “intelligent” soit-il, le système ne peut sur l’heure que se baser sur des statistiques, notamment raciales”
    Voilà où est le racisme… Encore eût-il fallu lire l’article!!!

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Publicité