De la 3D sur iDevice sans lunettes

ipad3d

[youtube]http://www.youtube.com/watch?v=bBQQEcfkHoE&feature=youtu.be&hd=1[/youtube]

Nombreux sont celles et ceux à se plaindre de la 3D à foison distribuée au Cinéma ou sur des téléviseurs avec plus ou moins de résultats.

Avec ou sans lunettes, tout le monde n’est pas forcément réceptif aux systèmes de rendu 3D actuels,  entre maux de tête et fatigue visuelle, une catégorie non négligeable de personnes reste juste incompatible avec le procédé.

Plus sérieuse que la Jonathan Experiment qui voulait nous fournir de la 3D sans lunettes par un dispositif extravagant, voici tout simplement une application développée par un doctorant au Laboratoire d’Informatique de Grenoble qui permet de recréer une impression d’image tridimensionnelle à partir d’un simple écran 2D .[youtube]http://www.youtube.com/watch?v=7saRtCUgbNI&feature=youtu.be&hd=1[/youtube]

Le secret de l’application ? Tirer profit du capteur photo situé en façade des appareils Apple.

Qu’il s’agisse d’iPad ou d’iPhone, le capteur frontal repère les yeux de l’utilisateur et les traque en permanence, les données de déplacement et d’angle sont ainsi calculées puis retransmises au moteur graphique.

Ce moteur graphique calcule automatiquement en temps réel l’angle de l’image à afficher sur l’écran, ce qui produit une illusion d’optique parfaite et donne une impression d’image tridimensionnelle.

Pour le moment,  l’application est en développement et n’affiche que certains modèles prédéfinis. On pourrait imaginer par la suite disposer d’images animées, de films, ou de jeux qui permettraient d’interagir de la sorte avec l’utilisateur en plus du gyroscope plus largement utilisé jusqu’ici. [ Merci Jeremie ! ]

Tags :
Dernières Questions sur UberGizmo Help
  1. C’est juste l’adaptation du travail de Johnny Lee à une tablette … rien de révolutionnaire … c’est même criminel que de ne pas le citer !

  2. Oui, bravo à Johnny Lee pour tout son travail sur la wiimote !

    Maintenant, il faut bien voir que c’est un système purement monoutilisateur.
    Exit donc les télés et les salles.
    Db

  3. Y a pas à dire c’est très bon concept imaginez pouvoir activer ou desactiver la 3D comme sur la 3DS mais pour un ecran 2D, en revanche je vois déjà 2 gros B-, la première étant que ça va pomper la batterie mais moi personnellement ça ne me dérangerais pas vu l’innovation et la deuxieme est que cela ne fonctionnera que pour les iphones 4 et autres idevices de cette année grace à la camera faciale … Moi j’ai un iphone 3gs comme encore beaucoups d’autres et je suis près à parier qu’Apple mettra la main dessus pour en faire une révolution et tous nous faire racheter lol =)

  4. Qui plus est, à moins d’être fixé à ses co-téléspectateurs comme de joueurs de baby-foot, cette solution n’est valable que pour une seule personne.

  5. Salut,

    Je suis l’auteur de ce travail. Johnny Lee est cité dans la description de la vidéo sur Youtube.
    En réalité il n’est pas le premier à avoir travaillé sur ce type de techniques. Les premiers travaux remontent à 1995 dans le domaine des environnements virtuels. Mais la démo de Johnny Lee a permis de médiatiser considérablement cette technique.

    Mon but est d’étudier ce que cela peut apporter à l’interaction sur dispositifs mobiles.

  6. Vous êtes vraiment des bons petits haters hein…

    1. Ils citent votre cher Johnny Lee dans la description de la vidéo.
    2. Ils présentent ça sans aucune prétention.

    Mais comme on dit, « haters gonna hate »

  7. Je n’avais vu la copie d’écran mais c’est exactement l’outil de navigation en 3D développé par Johnny Lee.
    Que ce doctorant l’ait porté sur iDevices je veux bien mais, au moins, le travail original en .Net pourrait être cité.
    Db

  8. Sympa, mais cela ne permet pas de faire de la 3D comme la 3DS, car pour voir la 3D il faut déplacer soit le support soit la tête.
    Donc cela permettrai de faire des applications ou des jeux demandant de déplacer l’écran, ou de se déplacer, mais pour jouer normalement la 3D sera quasiment inexistante…

  9. Mon dieu que vous etes affligeants….

    ce projet est quand même loin d’un simple portage du travail de Johnny lee. certes le principe de base est le même, mais ici pas de wiimote, ni de capteur infrarouge.
    le eye tracking en temps réel ne doit pas être chose aisée.

    en tout cas, chapeau bas Jérémie et Laurence.
    cela augure des IHM vraiment intéressantes…
    Vous êtes à quel Labo a Grenoble?

    Cdlt
    Cybersurfeur

  10. @cybersurfeur :
    Merci pour ton soutien ^^.
    Effectivement faire du head-tracking temps réel sur iPhone n’a pas été super simple.
    On est au Laboratoire d’Informatique de Grenoble (LIG), équipe IIHM.

    @Se7t :
    Oui ce n’est pas pareil que sur 3DS. Le Head-Coupled Perspective a l’avantage d’être « actif », ce qui ouvre des possibilités pour l’interaction en entrée (ce n’est pas le cas avec l’écran 3D de la 3DS).
    A terme les deux technos ne seront peut-être pas incompatibles : combiner un écran autostéréoscopique avec du head-tracking pourrait donner un effet très convaincant. C’est déjà étudié depuis longtemps dans les labos de Réalité Virtuelle.

    1. Bonjour Jeremie F.,
      Bravo pour ton travail, nous (un groupe de quatre personnes à la fac de Limoges) sommes en train de faire la même chose pour PC mais avec deux webcams pour une meilleure appréciation de la profondeur. Donc je sais à quel point ce genre de programme est difficile à réaliser! Encore bravo!

      PS: si ce n’est pas trop indiscret, quelle méthode (en général) as-tu utilisé pour déterminer la profondeur (si tu l’as fait la fonction « zoom » bien évidemment 😉 )?

    2. Bravo pour ton travail, c’est excellent, je voulais le faire sur mon ordi portable mais je n’ai pas de connaissance en vision par ordinateur.
      Je vais demander quelque chose qui ne se fait pas mais aurait tu un lien où on pourrait avoir une application pour tester ce système sur mon iphone? (Même juste une ébauche de tes débuts la dessus

  11. Effectivement l’étape suivante sera de combiner 3D « stereoscopique » et eye-tracking….
    C’est théoriquement possible de le faire avec un écran 3D avec lunettes associées. Par contre, je suppose, pas avec un écran sans lunettes comme celui de la 3DS, qui par définition nécessite un placement des yeux qui ne bouge pas.

  12. bravo à vous jeremie et ton équipe, excellent boulot!!
    je n’ai jamais pris le temps de bricoler avec ma wiimote pour juste tester l’excellent travail de johnny lee mais vous recommencez à me faire rêver en m’imaginant deja avec mon iphone…
    n’hésitez pas à revenir nous prévenir dès que l’app sera dispo, j’ai hate

  13. Donc, si j’ai bien compris faut bouger les yeux/la tête en permanence ou l’appareil pour simuler l’effet 3D… Aucun rapport donc avec 3DS.
    Faudra aussi rappeler que la 3DS possède aussi une camera avant, donc le eye tracking est possible aussi (c’est le cas dans nintendogs) et elle possède aussi les gyroscope et autres accéléromètre. Bref…

  14. Sans vouloir déprécier le travail réalisé dans cette démonstration sur tablette c’est tout de même un peu dommage de ne pas citer le travail de Johnny Lee dans l’article.
    D’autant que Gizmodo en a parlé il y a 2 ans et demi. ça donne parfois l’impression qu’une nouveauté chasse l’autre. C’est bien de souligner les innovations antérieures et pas seulement la Jonathan experiment dont vous parliez il y a quelques semaines.
    Bon je ne suis pas sûr de me faire bien comprendre. Mais en tout cas la démonstration est très impressionnante bravo.

  15. En tout cas l’effet est saisissant ! Je suis roboticien et utilisateur de vision industrielle et connais un peu les implications du eye tracking, et faire ça en temps réel sur un iPad je dis bravo !

  16. Moi cela me fais aussi penser a VR Hologram 3D que j’avai sur mon diamond en 2007 :) mais cela utilisai l’accéléromètre pour produire un effet tres similaire :) http://www.youtube.com/watch?v=O8EgbEfaOn0 J’ai d’ailleur jamais compris pourquoi les jeux exploitai pas cela :(. Vous utilisé que du headtracking ou vous pensez aussi a utiliser l’accelero ? Car avec l’accelero cela serai deja compatible avec tout les telephone du marchet :)

  17. Bravo, je soutien à 100% ce type de projets qui finira par révolutionner la vie des geeks et du grand public. Je tiens à préciser que les Français excellent dans beaucoup de domaines, si si, il n’y a pas que les japonais et autres coréens (même si je respecte).

  18. chapeau superbe travail

    superbe dev et plein d’appli en perspective pour cette innovation

    bravo a vous

    en esperant que vous obtiendrez le soutient de bcp de gens et le moins possible de jaloux qui ne sont pas capable d’ecrire 3 lignes de dev pour une appli.

    encore chapeau

  19. Quand je vois comment Google Sky map réagit sur mon téléphone, je me demande s’il est bien utile d’effectuer un tracking aussi précis (et intense consommateur de ressources) pour avoir l’ivresse du truc (il suffit de se dire qu’on ne bouge plus la tête : on ne fait qu’orienter le téléphone).

        1. Relié a un kinect et a un ecran 3d ca dois le faire!..
          Moi je dis ca, je dis rein
          Aller Monsieur crosoft soyer cool! Embaucher la team, faite vous 2 ou 3 ( dizaine?) de million de benef. Et tout le monde sera content !

  20. Vous comparez deux choses qui n’ont rien à voir : Une impression de profondeur réaliste basée sur l’écart entre les deux yeux et une commande d’un moteur 3D. L’ensemble des deux couplés doit être super, mais l’un ne remplace absolument pas l’autre.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Publicité