La loi de Moore est morte, vive le progrès informatique

En 1965 Gordon Moore énonçait sa fameuse loi :le nombre de transistor dans un circuit intégré double tous les ans (plus tard il changera pour 18 mois.) Cette croissance exponentielle s'est vérifiée dans les années 80 et 90.

Mais de nos jours cela ne fonctionne plus, si on en croit Bill Dally.D’après une colonne du vice-président de Nvidia, parue dans Forbes, le temps des processeurs alignant toujours plus de transistors en série est fini. L’informatique est-elle condamnée à la stagnation ?

Voilà presque 10 ans qu’on entend parler de la fin de la loi de Moore. Si monsieur Dally nous en reparle, c’est surtout pour nous vendre ses processeurs multi-cœurs. Un domaine ou justement NVIDIA se développe. Mais en effet, l’avenir appartient sans doute au parallélisme. [Engagdget et Forbes]

Tags :
Dernières Questions sur UberGizmo Help
  1. De toute façon, quand la taille des processeur sera suffisamment petite, on pourra s’approcher de la vitesse de la lumière en fibre optique, et on aura atteint la vitesse maximale (le délai de propagation minimal) … A moins de faire encore plus petit … plus petit … plus petit … 😮

  2. @florian: Tu réfléchies uniquement en terme de technologie présente. La taille et la vitesse importeront peu quand le processeur pourra traiter plusieurs millions d’opérations simultanément.

  3. hélas l’avenir ne sera pas non plus dans le parallélisme car celui ci possède également ses limites, en effet la difficulté d’optimisation d’un code informatique augmente proportionnellement au nombre de coeurs! On a donc une sorte de limitation de la loi de moore non plus physique mais économique, parce qu’au bout d’un certain nombre de coeurs, cela reviendra trop cher d’en augmenter le nombre pour une augmentation si faible des performances.
    Par contre l’avenir est peut être dans un bon vieux cloud computing, avec derrière un bon gros cluster, un gros datacenter et un bon réseau en fibre optique!!

  4. Forcément, plus on se rapproche de la taille atomique, plus on galère ^^

    @Kevin : surtout que toutes les applications ne verraient pas forcément des gros gains de performance avec le parallélisme je pense…
    A plus long terme, l’avenir sera surement dans le CPU quantique, mais bon, on a le temps de voir venir hein, ça va pas être tout qu’on va régler le problème de la décohérence à mon avis…

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Publicité