L’intelligence artificielle aussi dangereuse que les armes nucléaires pour Elon Musk

IA Elon Musk

Après le célèbre physicien Stephen Hawking, d’autres voix s’élèvent pour sensibiliser aux risques potentiels de l'Intelligence Artificielle (IA en anglais). C’est au tour de Elon Musk de se mobiliser.

Suivez Gizmodo sur les réseaux sociaux ! Sur TwitterFacebook ou Google+ !

Fondateur de PayPal et de Space X, Elon Musk est également un physicien reconnu. Visiblement inquiet, il est récemment passé par le biais du réseau social Twitter afin de préciser ses idées sur l’évolution de l’intelligence artificielle, considérant que cette technologie représentait certainement un danger encore plus grand que celui des armes nucléaires.

Une déclaration qui permet à Elon Musk de se rallier à d’autres scientifiques tout aussi perplexes, tels que Stephen Hawking, mais qui sonne comme une contradiction par rapport aux récents investissements assurés par Musk.

Au mois de mars, celui-ci s’était ainsi associé avec Mark Zuckerberg et l’acteur Ashton Kutcher pour lever près de 40 millions de dollars en faveur du développement d’un langage informatique basé sur le système de fonctionnement « humain » (calquant la réflexion humaine). Elon Musk justifie en réalité son investissement comme un moyen de faire évoluer cette technologie « dans le bon sens », ou du moins dans le sens qui ne représentera pas de risque pour l’humanité. Voilà où nous en sommes : encadrer l’IA pour anticiper tout débordement futur. Et tout « soulèvement des machines » ?

Tags :Via :business inider
Dernières Questions sur UberGizmo Help
  1. Fort heureusement, les derniers développements en IA sont en toute logique encadrés par des personnes elles aussi bardées de diplômes, et à priori, de bon sens.
    Peut-être moins doués pour entasser des fortunes ou faire maîtriser leur people attitude savamment dosée en sensationnalisme, mais à priori dotées d’un minimum de bon sens.

    Par ailleurs je ne vois pas en quoi l’IA peut être plus dangereuse que les armes nucléaires.. Ces dernières peuvent annihiler la planète en quelques minutes. Que peut faire de pire une IA, qu’utiliser ces mêmes armes pour le même résultat? Faudrait avoir accès à l’étude scientifique complète… Ah on me dit dans l’oreillette qu’il ne s’agit que d’un tweet 😉

    1. bah les armes nucléaires ont un accès réseau ou en auront un donc ..

      marrant de croire encore que l’humain travaille pour le bien de l’humanité :p non certains humains le font & les autres sont justes la pour faire plus d’argent..

    2. Tu sembles bien naïf …..

      Tout d’abord avoir un doctorat ne protège pas les individus en mal de pouvoir et aux fantasmes sans limite.

      Le film Transcendance montre assez bien le pb d’une IA très puissante.
      Aujourd’hui la planète est HYPERCONNECTEE et si une IA peut se balader sur le net elle pourrait en prendre un contrôle à plus au moins grande échelle…
      Le pire des scénario serait le contrôle total d’internet….

      TOUT passe par internet aujourd’hui, la gestion de l’énergie et de l’eau de l’argent….. ca serait un retour en arriere de 300 ans…. mais avec 7 milliards de personne et non 1 ou 1.5 milliards…

    3. Il y a deux choses qui gouvernent le monde. Le cul et l’argent.
      Bon sens muahahaha

      C’est maintenant qu’il se réveille celui-là ?

  2. « qui sonne comme une contradiction par rapport aux récents investissements assurés par Musk. »

    Aucune contradiction : il s’agit de faire du fric. L’AI est un domaine de pointe où il devient très intéressant d’investir comme le montre les investissements massif de Google ou d’autres sociétés qui en ont les moyens. Le fondateur de PayPal ne peut pas l’ignorer. J’adore le prétexte selon lequel il s’agirait pour lui de faire le bien. C’est totalement crédible. Dans ce cas pourquoi ne pas investir plutôt dans la lutte contre la pauvreté par exemple, fléaux sans doute bien plus dangereux actuellement que l’AI.

    Au mois de mars, celui-ci s’était ainsi associé avec Mark Zuckerberg et l’acteur Ashton Kutcher

    C’est toujours utile les relations, y compris celle d’acteurs multimillionnaires qui gagneront encore quelques centaines de millions au passage.

    pour lever près de 40 millions de dollars en
    faveur du développement d’un langage informatique basé sur le système de fonctionnement « humain » (calquant la réflexion humaine).

    La seule nouvelle intéressante. Le développement d’un langage qui surpassera peut-être les langages archaïques actuels et qui envisage la programmation sous un angle un peu plus innovant. C’est le langage qui devrait être adapté à l’homme et non le contraire.

    Elon Musk justifie en réalité son investissement comme un moyen de faire évoluer cette technologie « dans le bon sens », ou du moins dans le sens qui ne représentera pas de risque pour l’humanité.

    Voilà où nous en sommes : encadrer l’IA pour anticiper tout débordement futur. Et tout « soulèvement des machines » ?

    Très hypothétique scénario qui s’il a été maintes fois exploité au cinéma n’a malheureusement aucune chance de se produire à moins qu’il ait été voulu. On prête à l’intelligence artificielle des désirs qui sont humains ( détruire autrui avec ou sans raison )
    ce qui n’a aucun sens, puisqu’une AI est totalement différente d’un être humain et n’a pas de désir à moins d’avoir été programmée pour cela. Une chose logique que pourrait éventuellement faire une AI serait de décider de l’éradication de l’être humain parce qu’il représenterait une menace, par exemple pour l’environnement ce qui est effectivement le cas. La solution pourrait alors résider dans l’extinction hautement souhaitable de cette engeance. Ces craintes sont donc en partie fondées et démontrent bien que nous avons conscience d’être des nuisibles. Mais hélas cela n’arrivera pas.

    1. nonjeeve, tu arrives à te contredire toi même dans ton propre message.
      Tu commence par dire « Très hypothétique scénario qui s’il a été maintes fois exploité au cinéma n’a malheureusement aucune chance de se produire à moins qu’il ait été voulu. »

      Et ensuite « Une chose logique que pourrait éventuellement faire une AI serait de décider de l’éradication de l’être humain parce qu’il représenterait une menace, par exemple pour l’environnement ce qui est effectivement le cas. La solution pourrait alors résider dans l’extinction hautement souhaitable de cette engeance. Ces craintes sont donc en partie fondées »

      Il faut choisir. En parties fondées, ou « aucune chance de se produire » Si les machines décident d’éliminer l’être humain, c’est bien un soulèvement. On ne peut pas à la fois dire qu’il n’y a aucune chance d’y avoir un soulèvement, mais que la crainte que ces machines éliminent l’humanité est sans fondement.

      Par ailleurs, ce que vous oubliez est que, même programmé au mieux, une intelligence artificielle restera à la merci des misanthropes.

      Le genre de propos que vous tenez sur la nuisibilité de l’espèce humaine me confirme dans mon opinion suivante. Parmi les 7 milliards d’humains qui peuplent la planète, il en existera bien quelques un ou quelques milliers qui aimeraient détruire le reste de l’humanité. Et remplacer quelques lignes de codes dans un programme accessible, voire en open source pour le transformer en machine à tuer sera probablement plus simple pour eux que de se constituer un arsenal de quelques milliers de bombes atomiques. C’est pourquoi une règlementation sur les intelligence artificielles, de façon à ce que le code ne puisse pas tomber dans n’importe quelles mains, serait logique.

      1. Je rectifie une coquille

        Il faut choisir. En parties fondées, ou « aucune chance de se produire » Si les machines décident d’éliminer l’être humain, c’est bien un soulèvement. On ne peut pas à la fois dire qu’il n’y a aucune chance d’y avoir un soulèvement, mais que la crainte que ces machines éliminent l’humanité est fondée.

  3. « […] sensibiliser aux risques potentiels de l’Intelligence Artificielle (IA en anglais) […]. »

    Justement non, ce n’est pas IA mais AI en anglais….

  4. IA en anglais çà donne quoi en Français?
    ah ben IA aussi, çà vallait le coup de mettre l’équivalence français anglais…

    Sinon par rapport à l’article, quand je vois qu’on essaye de lever 40 millions pour çà, et que parmis eux il y a des grosses fortunes, j’espère juste qu’ils se retrouvent pauvres… ils retrouveront peut-être la vrai valeur à l’argent.

    Et avant de dire que les IA sont plus dangereuses que les bombes A, il faudrait peut-être regarder sur quoi on est assis avant non? parcequ’avant qu’une IA face du mal à l’humanité, l’humain en qqs années en aura fait bien plus.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Publicité