Google veut un interrupteur pour éviter les débordements d’une intelligence artificielle

intelligence artificielle

Aussi prometteuses puissent être les intelligences artificielles, il plane sur nos têtes l'ombre d'un Skynet, d'une intelligence telle qu'elle nous surpasserait aisément. Les conséquences pourraient être désastreuses. Nombreux sont les spécialistes à réfléchir à la question. Google travaille ainsi à la conception d'un interrupteur pour éviter une robocalypse.

L’équipe du projet Deep Mind a en ce sens développé un framework qui a pour but d’empêcher une IA d’apprendre à mettre un terme à une action humaine. Les ingénieurs ont imaginé une situation où un robot travaille dans un entrepôt, à trier des boîtes ou à sortir pour en rentrer davantage. Cette deuxième action est considérée plus importante, les chercheurs gratifient donc le robot d’une meilleure récompense chaque fois qu’il le fait. Mais une intervention humaine est nécessaire pour empêcher un accident parce qu’il pleut souvent.

Ceci altère significativement la tâche du robot, lui faisant vouloir rester dehors sous la pluie, et intégrer alors l’interruption humaine comme partie intégrante de sa tâche plutôt que comme un événement unique.

« Une interruption sécurisée peut être utile pour prendre le contrôle d’un robot qui se comporte mal et qui pourrait engendrer des conséquences irréversibles, ou pour le sortir d’une situation délicate, ou même pour l’utiliser de manière temporaire pour réaliser une tâche qu’il n’a pas apprise à effectuer ou pour laquelle il ne recevrait aucune récompense.« 

Ces mécanismes d’interruption ne sauraient par contre convenir à tous les algorithmes. Deep Mind prend comme exemple tous ceux qui sont liés à la recherche – une grande part du machine learning -. Quand, comment, définir et mettre en œuvre cette fameuse interruption ? Voilà tout l’enjeu de cette réflexion…

Tags :Via :Engadget
Dernières Questions sur UberGizmo Help
    1. je trouve bien qu’on se pose la question en avance pour commencer à penser des lois de la robotique un peu façon Asimov, justement parce que il faut les fixer maintenant qu’on est aux premières balbutiement de la technologie I.A.

    2. A quand l’interrupteur pour empêcher l’être humain de nuire ? Et si on commençait par ça ?
      Parce qu’une intelligence artificielle ne pourra jamais faire que ce pour quoi elle est programmée et si elle finit par nous surpasser elle trouvera bien logiquement le moyen de contrecarrer tous nos efforts pour la contrôler…

  1. @blade Tout a fait, si on peut éviter la possibilité future d’un scénario type Matrix, ou Terminator c’est une bonne idées de pousser la recherche dans ce sens la.

    1. Nous sommes déjà dans la matrice et ça fait longtemps. Personne ne s’en rend vraiment compte par ailleurs. Cette matrice, ce ne sont pas les robots mais l’être humain qui l’a crée… Quant à nous, nous nous croyons libres mais nous agissons tout à fait comme des robots.

  2. La notion de bien et de mal dans la gestions des algorithmes de contrôle reste floue, puisque subordonnée aux « désidératas » des décideurs »émetteurs » de ceux ci .
    La « machine » humaine fonctionne aussi avec des optimas franchissables établissant frontière nouvelle dans ce qui fût »optima » défini.

    En clair, dans cette forêt de « gestions » assistées, il convient d’ établir une gestion de la forêt …

    Mettons qu’ a terme après optima « robotique » « désiré » ladite intelligence n’ a lieu d’ être …
    De facto, la fin justifiant les moyens, ce désidérata n’ avait lieu d’ être.

    Paresse, en tout point, jamais ne nous fait « avancer », mais bel et bien « évoluer » .

    Ces messieurs-dames enregistreraient ils, elles, combien ils,elles sollicitent cognitif « naturel »,
    Et combien celui ci naturellement répond.

    Comblés, ou pas, le stimuli, valait explicitations .

    Les nécessaires réactions sont vôtres, avec leurs êtres relatifs respectifs .

    L’ amont s’ érode d’ abreuver l’ aval …

    Parfois ab nauseam .

    Sachons oeuvrer de justes milieux.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Publicité