Vision du futur par la R&D d'Intel

Juste avant la Intel Developer Conference (IDF) [suivez le Keynote en live sur live.ubegrizmo.com (en anglais) à 9am PT (18h, à Paris)], le plus grand fabricant de puce au monde a montré quelques-uns de ses projets R&D du moment. C'est de la recherche, alors tous ne deviendront pas des produits (voire aucun), mais certains sont prometteurs, tandis que d'autres sont juste cool à regarder. Voici ce qui a retenu notre attention:

Context awareness dans la voiture

Vision du futur par la R&D d'Intel
La voiture devrait probablement dire “regarde la route” ici

L’idée, c’est qu’un ordinateur intégré a conscience de ce qui se passe dans la voiture, mais également autour. Dans la voiture, il utilise la reconnaissance faciale pour voir combien de personnes sont dans la voiture, et il sait si vous êtes en train de regarder la route (ou votre ami(e) à côté de vous). L’ordinateur peut également « détecter » les véhicules autour de la voiture et d’autres choses comme ça, grâce à des capteurs externes ou radars. Quand les deux fonctionnent ensemble, il est par exemple possible, pour l’ordinateur, de savoir que vous regardez sur le côté droit, et il vous avertit si une autre voiture vient dans le sens opposé.

Smart computing Islands sur des surfaces de la vie quotidienne

Vision du futur par la R&D d'Intel
Voici un projecteur qui ajoute une caméra sur le côté

Basé sur l’analyse de deux couleurs et de la profondeur des images, un ordinateur peut sélectionner des objets sur une surface et également suivre un doigt qui agira comme un pointeur pour l’interface utilisateur qui est projeté sur la surface. Une fois que l’objet a été reconnu, il est possible de créer une quantité d’apps, les plus évidentes étant à objectif pédagogiques, mais cela ouvrirait la porte à bien d’autres choses.

Reconnaissance faciale rapide et à basse consommation

Vision du futur par la R&D d'Intel
La reconnaissance faciale existe déjà, mais comment peut-on l’intégrer?

Ce sujet de recherche utilise les mêmes block de construction basiques que le projet context awareness décrit ci-dessus. L’objectif global est de pouvoir reconnaître les individus rapidement et avoir une idée de ce qu’ils font. La finalité n’est pas biométrique, c’est-à-dire l’identification des individus (qui se concentre sur un taux d’erreur très bas). Au lieu de cela, il donne aux applications la possibilité de savoir ce que les gens font, afin qu’il puisse réagir en conséquence. Ca pourrait être utilisé pour des futurs espaces de vente, ou des applications domestiques, où un appareil (la TV?) réagirait différemment si un enfant l’utilisait. Il pourrait également chercher des paramétrages personnalisés pour un utilisateur particulier. Le programme fonctionne actuellement avec un processeur Atom, mais le calcul peut également être déchargé vers un cloud s’il y a beaucoup de sujets à suivre.

Ray Tracing pour les jeux basés sur le cloud

Vision du futur par la R&D d'Intel

Si vous suivez notre couverture Intel, vous savez probablement qu’Intel aime le ray-tracing (probablement parce que les CPUs sont très bons à ça…). Cette fois, la firme montre une démo ray-tracing dont le rendu est off-site depuis un centre de serveurs (en utilisant les processeurs haut de gamme d’Intel). C’est similaire à ce que des firmes comme OnLive font avec des jeux: parce que tous les calculs sont effectués dans le cloud, il peut être streamé dans un appareil comme un tablet ou un téléphone. Contrairement à un film, l’utilisateur peut envoyer des commandes vers le serveur — pour déplacer un joueur ou la caméra. Le seul problème fondamental de cette technologie est la latence du réseau qui pourrait limiter l’intéractivité. Habituellement, c’est résolu en étant proche du datacenter.

Dernières Questions sur UberGizmo Help

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Publicité