On ne peut vraiment pas faire confiance aux robots

Adam Savage et Jamie Hyneman de Mythbusters ont récemment discuté avec Kevin Kelly de Wired à propos des robots, et ils ont abordé la question de la confiance que l'on peut accorder aux machines.

Difficile d’être plus clair qu’Adam Savage: « je sais comment les machines fonctionnent et je ne ferais pas confiance en une machine avec un pistolet… c’est la pire idée au monde ».

Il n’a sans doute pas tout à fait tort, et ce ne sont pas les preuves et les avertissements qui manquent. Et ce n’est encore qu’un début. Alors à quoi bon nier l’évidence? [FORA.tv]

Tags :
Dernières Questions sur UberGizmo Help
  1. N’importe quoi !!!

    Il est plus que temps d’arréter de confondre systématiquement automates et robots. De la même façon, les types d’intelligences artificielles équipant les robots doivent être clarifiés.

    Ce type donne dans le sensationnel pour se faire mousser mais ses affirmations sont d’un vide sidéral… d’une nullité qui donne une bonne apréciation de ce que la notion d’infini désigne.

    Il stigmatise les peurs ancrées chez les profanes du domaines afin de faire parler de lui et je trouve cela scandaleux.

    Je vous invite a lire mon interview sur ce genre de sujet qui vous permettra peut être de relativiser la « pertinence » des propos de ce gars : http://www.osereso.fr/l-intelligence-artificielle.html

  2. Nan mais là vous parlez de films…

    Un Tank est aussi une machine avec une arme ! Aprés tout dépend de l’origine de la décision de l’utiliser (initiative humaine via algo ou bien « pensée » robotisée)

  3. Je crois que ce type a raison car on peut se faire piquer le contrôle d’un drone si une faille est trouvée au niveau logiciel ou au niveau humain. Il est arrivé que des drones amis doivent être détruits en vol par avion de chasse, pourquoi je ne sais pas, panne ou tentative de piratage ?
    Plus ça sera autonome plus ça pourra nous échapper, à la suite d’une erreur de logique humaine au départ par exemple, ou d’un imprévu où même un humain aurait pu se tromper.

  4. @calibanproject

    aux dernière nouvelles les ia sont les héritières des systèmes experts et elles sont (je crois mes infos ne sont pas a jour) soumises au lois de la logique multivalués dans un cadre standard. a moins qu’entre temps des petits malins ai décidé d’aller voir dans le cadre non standard (mais j’en doute avec les pressions de rentabilités qu’ils ont sur le dos)

    anyw

  5. @calibanproject

    aux dernière nouvelles les ia sont les héritières des systèmes experts et elles sont (je crois mes infos ne sont pas a jour) soumises au lois de la logique multivalués dans un cadre standard. a moins qu’entre temps des petits malins ai décidé d’aller voir dans le cadre non standard (mais j’en doute avec les pressions de rentabilités qu’ils ont sur le dos)

    elles sont donc soumise a une incomplétude au sens mathématique, ce qui, traduits en loi de murphy dit « y’aura toujours un truc qui va planter ». si t’a envie de défendre ton steack, libre a toi, mais ne viens pas frimer avec des arguments d’attaché de presse techno.

    les IA plantent. comme n’importe quel système non totalement prédictible, il y a une imprécision, et une imprécision avec une arme a feu est dangereuse.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Publicité