Analyse d'image : position et orientation d'un objet en 3D - Sciences - Discussions
Marsh Posté le 28-09-2008 à 16:08:38
Un exemple de ce qui se fait dans les labos en matiere de tracking de solide.
http://cvlab.epfl.ch/research/comp [...] _tracking/
Bon courage
Marsh Posté le 28-09-2008 à 16:17:07
chewif a écrit : Un exemple de ce qui se fait dans les labos en matiere de tracking de solide. |
Je ne suis pas sûr que ce genre de technologie (très impressionnante au passage) soit à ma portée ni adaptée à mon cas (un jeu vidéo en temps réel qui tourne sur la machine de monsieur-tout-le-monde avec une web cam de qualité moyenne). Enfin si quelqu'un connait une bibliothèque libre qui fait ce genre de chose, c'est une idée à explorer...
EDIT : j'ai parlé un peu vite apparemment on peut télécharger du code sur ton lien ^^
EDIT-2 : en fait on peut rien télécharger sur le projet "rigid object 3D tracking", et le programme "BazAR" fonctionne plutôt mal avec ma web cam (résolution trop faible peut-être)
Marsh Posté le 28-09-2008 à 17:56:53
Bonjour,
youen a écrit : Je cherche à déterminer s'il est faisable de détecter la position et l'orientation en 3D d'un objet (le terme anglais serait "pose estimation", je ne sais pas s'il y a un équivalent français) pour l'appliquer aux jeux vidéo. L'idée serait d'utiliser une camera (web cam ou wiimote, car pour ceux qui l'ignore la manette de la console wii peut suivre jusqu'à 4 points infrarouges) pour détecter par exemple 4 LEDs infrarouges fixées sur un objet. Le système serait utilisable par exemple pour un jeu où on manie une épée (que ce soit dans un univers heroic-fantasy ou star wars, etc.), le joueur pourrait parer des coups, en donner etc. |
Voici une page de recherche de Johnny Chung Lee sur du tracking avec la Wiimote. Il y a d'abord du tracking 2D. Tu poses la difficulté du tracking 3D. La page l'évoque en fin et peut-être trouveras-tu des liens (voir sur son blog, par exemple l'utilisation simultanée de plusieurs Wiimotes).
Marsh Posté le 28-09-2008 à 18:25:43
Ache a écrit : Bonjour, |
Difficile de ne pas tomber sur un article parlant de lui quand on cherche quoi que ce soit sur les wiimotes ^^ Pour le tracking 2D, c'est assez enfantin avec une wiimote : on télécharge la lib WiiYourself, on écrit 4 lignes de code, et on récupère les coordonnées X,Y d'un spot infrarouge. C'est bien le passage à la 3D qui devient un peu plus compliqué... Je voudrais éviter d'avoir à utiliser plusieurs cameras, car ce serait compliqué à installer pour un joueur, sans parler du coût, et je pense éventuellement me servir d'une wiimote dans la main du joueur avec des LEDs accrochées dessus (ce qui donne accès aux boutons de la wiimote) + une wiimote qui "regarde" le joueur (pour tracker la position de la première wiimote), donc s'il faut encore rajouter une 3ème wiimote pour avoir une vue stéréoscopique, ça commence à faire beaucoup... En tout cas je sais que c'est tout a fait possible dans le cas idéal de tracker position/orientation en 3D avec 4 points non coplanaires et une seule caméra, je l'ai d'ailleurs déjà fait avec une web cam et 4 lumières colorées venant d'une guirlande électrique, le problème c'est quand les points sont cachés, que ce soit à cause d'un objet qui passe devant, ou simplement parce que la LED n'émet pas dans la bonne direction, ce qui rejoint mon problème actuel : comment choisir les LEDs ? Je pense que je vais acheter 4 LEDs IR classiques (ça coûte pas très cher ^^) et voir ce que ça donne...
Pour info, le coup des lumières colorées de la guirlande électrique, ça fonctionne très mal (pour détecter la position des points lumineux et identifier leur couleur), mais je suis loin d'être spécialiste en reconnaissance d'image. Par contre, quand les points lumineux sont correctement détectés, la fonction que j'utilise d'openCV a l'air de bien fonctionner pour donner la position et l'orientation de l'objet.
Marsh Posté le 29-09-2008 à 18:02:20
youen a écrit : |
Ça se chiffre à combien cette technologie, enfin les LEDs et la caméra, je suppose que les softs sont gratuits?
Marsh Posté le 30-09-2008 à 00:17:33
Bah c'est du tracking 6D par caméra, ya un bail que ça existe et que c'est fonctionnel, donc bien sûr que c'est faisable.
Par contre, si tu veux pouvoir utiliser plusieurs trackers différents, il faut utiliser pour chaque tracker 4 points coplanaires (oublie la reconnaissance de couleur, c'est trop bruité comme info), et un positionnement spécial des leds qui fait que le tracker ne doit avoir aucune symétrie d'aucune sorte. Aucun tracker ne doit être superposable d'aucune façon à un autre. Enfin, un système monocaméra c'est très ambitieux et à mon avis irréaliste, tu auras dans la pratique toujours des occultations.
J'ai pas mal travaillé sur ces sytèmes de tracking 6D, bossé sur plusieurs types de devices différents (Les trackers Dtrack entre autres, qui ressemblent pas mal à ce que tu veux faire), et utilisé plusieurs libs dédiées à cela pour des applications de réalité virtuelle, si tu as des questions n'hésite pas
Marsh Posté le 01-10-2008 à 21:50:04
Herbert de Vaucanson a écrit : Bah c'est du tracking 6D par caméra, ya un bail que ça existe et que c'est fonctionnel, donc bien sûr que c'est faisable. |
Hmm, l'avantage indéniable du mono camera c'est quand même la simplicité de mise en place par l'utilisateur... Et gérer 2 web cam c'est pas un peu lourd pour un seul PC ? (récupérer les images + les analyser, le tout à une fréquence aussi élevée que possible pour réduire la latence, genre 60fps si la camera le supporte). Pour ce qui est de l'occlusion, si les LEDs sont bien placées, il n'y a pas moyen de se débrouiller pour qu'au pire une seule LED soit cachée ? Et du coup essayer de suivre au mieux le mouvement des 3 autres LEDs... Enfin déjà je vais essayer de faire un truc qui fonctionne quand il n'y a pas d'occlusion
Je ne compte tracker le mouvement que d'un seul objet, pour la simple raison que je ne vois pas actuellement quoi faire d'un deuxième objet.
Par contre tu m'étonnes en parlant de 4 points coplanaires, il me semblait justement qu'il fallait qu'ils soient non coplanaires, car sinon la détection de l'orientation était imprécise, en particulier quand le plan est presque orthogonal à l'axe de vision de la camera.
Si tu peux me donner le nom de libs (libres ou gratuites de préférence) qui m'aiderait à faire tout ça, n'hésite pas
cappa a écrit : |
pour la camera, normalement n'importe quelle web cam pas trop pourrie doit faire l'affaire (j'en ai vu une qui monte en 1280x1024 à 60fps pour 40 euros), en la bidouillant au niveau du filtrage infrarouge (enlever le filtre anti infrarouge et le remplacer par un filtre qui ne laisse passer que les infra rouges, mais je n'ai jamais tenté ce genre de manip personnellement), quand aux LEDs en les achetant en petite quantité je dirais a peu près 2 euros les 4. Plus quelques fils et des piles... Donc ça coute pas grand chose (un peu plus cher s'il faut une deuxième camera, cf message de Herbert de Vaucanson). Je ne sais pas si ça a déjà été tenté, mais ce genre de matériel pourrait être très bon marché s'il était spécialisé pour ça et commercialisé a grande échelle. Les web cam "normales" font à la fois trop et pas assez : on a la couleur dont on a pas besoin, mais une résolution d'image et fréquence de capture trop faible. Au niveau du software, ça dépend de ce que tu veux... je connais rien de tout fait (capture, analyse et exploitation des images, qui donne donc en sortie la position et l'orientation de l'objet), ni payant ni gratuit, mais comme dit Herbert de Vaucanson, ça existe et ça fonctionne. Un peu comme l'affichage en relief (stéréoscopique), ça existe, ça fonctionne, mais ça n'a pas encore atteint le grand public (je me demande pourquoi d'ailleurs).
Marsh Posté le 01-10-2008 à 22:20:29
youen a écrit : |
Avec deux caméra ce qui risque d'être difficile, c'est la synchro. J'utilisais 6 caméra ayant des leds puissantes qui flashaient en permanence en infrarouge, les trackers étant constitués de boules réfléchissantes, cela permet de simplifier la synchro, et de multiplier les trackers à peu de frais.
Avec des points coplanaires, tu es plus précis, car tu supprimes un degré de liberté. Avec des points non coplanaires, et pour des leds indifférenciées, quelle que soit la configuration de tes leds, il y a plusieurs orientations qui vont donner la même projection sur la caméra, c'est tout un bordel pour s'y retrouver dans la projection. Avec 4 points coplanaires, quand tu as détecté 3 points, tu sais que le 4ème doit être dans le même plan, tu as un degré de liberté de moins, sa position sur l'axe normal au plan défini par les 3 autres est imposée, c'est 0. Bref, tu trouves plus rapidement le plan dans lequel se trouve ton tracker, ce qui permet de fixer 3 paramètres avec pas mal de redondance (deux orientations et une position), trouver les paramètres manquant à une seule cam peut être difficile non pas quand l'axe optique et le plan du tracker sont orthogonaux (au contraire), mais quand la plan focal de la caméra et le plan de ton tracker sont orthogonaux. A plusieurs caméras cela permet de passer outre ce pb. A une seule, je ne sais pas à quel point le cas dégénéré est génant et n'est pas patchable... A voir.
Une autre raison pourlaquelle j'utilise des points coplanaires, c'est que l'encombrement est plus simple à gérer pour les trackers, surtout quand on en est bardé (bon, là c'est pas ton cas)
Dans les libs open qui gèrent du tracking que j'ai utilisées (toutes libres), je peux te conseiller VRPN, Opentracker, Artoolkit, mais elles sont tout de même plus orientées "application de réalité virtuelle/réalité augmentée" via la gestion de tout un tas de trackers différents (Gyroscopes, accéléromètres, à ultrasons, magnétiques, par caméra, GPS...), pour ces applications (gestion de l'interfaçage, abstraction de tracker, interpolation, filtres (Kalman, lissage...), et moins "développement du tracker à partir d'image d'une caméra", mais ces libs de trackers sont assez complètes et ça ne m'étonnerait pas qu'elles puissent aussi gérer ça. Pour des trucs plus orientés "vision par ordinateur", il y a OpenCV.
Marsh Posté le 01-10-2008 à 22:24:36
youen a écrit : |
Ah si, ça fait plus de 10 ans que tu peux jouer chez toi à tous les jeux 3D s'appuyant sur directX ou openGL avec des lunettes de vision stéréoscopiques (Quake1 c'était déjà possible). Et ces lunettes ne coûtent pas cher en plus. Pourquoi ça ne marche pas ? Personnellement je ne trouve pas ça confortable, même en étant très habitué à tout ça, ça fout toujours la gerbe au bout de 5 mn, et au final, on préfère jouer en 3D projeté sur un écran 3D qu'en relief.
Recherche "Shutter Glasses" sur google, tu vas voir comme c'est accessible au grand public
Marsh Posté le 01-10-2008 à 23:52:26
Herbert de Vaucanson a écrit : |
C'est accessible au grand public mais ça ne l'a pas atteint. Je ne connais personne qui s'est équipé de ce genre de truc, du coup j'ai jamais testé, du coup je me suis jamais lancé à acheter un truc, et je pense que c'est le cas de beaucoup de gens. Pour le mal de tête, il y a peut-être les technologies à base de polarisation de la lumière qui sont plus faciles à supporter que les systèmes clignotants (jamais eu de problème au futuroscope avec les lunettes polarisées en tout cas mais ça dépend peut-être des gens). Je sais pas ce que ça vaut, mais y'a des écrans plats qui polarisent une colonne de pixels sur deux. Enfin ça ne résoudra jamais le problème de l'oeil qui fait la mise au point sur l'écran à 1 mètre alors que le cerveau croit que les yeux convergent sur un point beaucoup plus loin (j'imagine que c'est une des causes principales du mal de tête). Pour la gerbe par contre, je sais pas trop... le décalage entre l'image et les sensations de mouvement ?
Marsh Posté le 02-10-2008 à 00:07:43
Herbert de Vaucanson a écrit : |
Je comprend pas trop en quoi la synchro est simplifiée par un système réfléchissant plutot que des camera qui regardent directement les leds ? Et puis si c'est le même PC qui récupère les données de deux cameras identiques, la latence devrait être a peu près la même sur chaque camera non ? Je veux bien croire qu'il y aura un décalage pour les mouvements très rapides...
Herbert de Vaucanson a écrit : |
Effectivement, dans le cas que tu décris, c'est très clairement problématique. Mais je crois que le problème de précision dans le cas que je décrivais existe aussi. Quand tu fais tourner légèrement l'objet, les points ne bougent quasiment pas. Comme un cosinus qui ne varie presque pas aux alentours d'un angle de 0° ; la courbe est plate. Mais de toute façon dans mon cas je pense que la vitesse de réaction est plus importante que la précision. Et pour ce qui est de l'identification des points, je pensais comme je disais dans mon post initial à un système qui éteindrais les LEDs de temps en temps dans un ordre déterminé, et le reste du temps, le système track les points en prévoyant la position sur la prochaine frame en fonction de la vitesse actuelle, et le point le plus proche de la position prévue est identifié comme étant le même point. Du coup ça ferait perdre chaque point genre pendant 2 frames toutes les 1/2 seconde mettons, mais au moins on pourrait pas perdre la correspondance et obliger l'utilisateur à revenir dans une position particulière pour recalibrer les points. Enfin c'est juste une idée, ça marcherait pas forcément en pratique (je compte le tester en branchant les LEDs sur le port parallèle de mon PC, je viens de commander les LEDs et ce qu'il faut pour l'interface (enfin j'espère, parce que j'ai quelques notions en électronique mais pas des masses non plus ^^)).
Herbert de Vaucanson a écrit : |
Merci pour les infos, je regarderais tout ça (quand j'aurais le temps, car je vais pas avoir le temps d'avancer sur ce projet avant un moment malheureusement).
Marsh Posté le 02-10-2008 à 00:33:47
youen a écrit : |
Le problème de pas supporter le truc n'a rien à voir avec la techno utilisée, que ce soit les shutter glasses, les verres polarisés, les écrans alioscopiques (ce dont tu parles, mais ce n'est pas une question de polarisation d'une ligne sur deux, mais de direction d'émission de l'image, différente d'une colonne sur l'autre, qui permet une vision relief sans lunettes du tout), c'est exactement comme le mal de mer, c'est à cause d'incohérence entre les accélérations visuellement perçues, et celles perçues par ton oreille interne et tes différents muscles qui te retournent une info sur ton assiette.
Marsh Posté le 02-10-2008 à 00:38:04
youen a écrit : |
Tout simplement parce qu'on est sur que les 6 caméras ont chopé l'image au même moment : à l'instant du flash IR, qu'importe si leur framerate est déphasé ou non.
youen a écrit : |
Ton idée des leds clignotantes est très bonne, c'est d'ailleurs ce qui était utilisé avec le système pro dont je te parle pour faire des gants qui trackent ta main ainsi que tous tes doigts et offrent un retour tactile : les doigts étaient trackés par des leds clignotantes différenciées par un déphasage d'une frame chacune.
Marsh Posté le 02-10-2008 à 19:53:14
Herbert de Vaucanson a écrit : |
Hmm, contre le mal de mer (ou de voiture ou des jeux video) je ne connais aucune solution, si ce n'est que j'ai la chance de ne pas être concerné. Mais ce n'est pas spécialement lié à l'effet 3d si ? je connais des gens qui ne supportent pas de jouer à quake plus de 2 minutes, sans écran 3D... Peut-être que c'est aussi une question d'habitude.
Quand aux technologies d'images polarisées sur écran plat, il y a ça : http://www.iz3d.com/t-3dproductex.aspx (en fait l'équivalent de deux écrans l'un derrière l'autre, le premier module l'intensité des pixels, qui sont polarisés par un filtre entre les deux, et le deuxième écran "fait tourner" la polarisation dans un sens ou dans l'autre pour dispatcher sur un oeil ou sur l'autre, ou sur les deux), et je suis certain d'avoir bien lu un article sur un écran plat standard sur lequel avait été monté un filtre qui polarise une ligne (ou colonne je sais plus) de pixels sur deux (un coup dans un sens, un coup dans l'autre). J'ai aussi déjà vu (pour de vrai) un écran 3D sans lunettes, et c'était pas terrible ; si la technologie n'est pas améliorée, elle me parait assez inutilisable (images fantomes, et quand on se déplace on perd ou on récupère l'effet 3D, enfin bizarre). Mais c'était peut-être une sorte de prototype, j'ai vu ça dans un salon (CeBit en allemagne).
Marsh Posté le 02-10-2008 à 19:56:20
Herbert de Vaucanson a écrit : |
OK, au début je croyais que du coup tu n'avais une image que sur certaines frames, mais en fait il y a un flash par frame, c'est juste qu'il n'est pas forcément au même instant dans la frame de chaque camera, c'est ça ?
Herbert de Vaucanson a écrit : |
Ben je te tiendrais au courant si j'arrive à faire marcher ça
Marsh Posté le 02-10-2008 à 20:01:48
youen a écrit : |
Nope, c'est pas une question d'habitude, c'est mon boulot de bosser avec ces machins là depuis plusieurs années, et tout ce qui est à vision relief grand champ, les casques d'immersion ou les CAVE, ça me fout toujours la gerbe au bout de qq minutes
youen a écrit : |
Oui, c'est ce dont je te parlais, l'Allioscopie : c'est un français, Pierre Allio qui a inventé ce concept, qui permet de faire du relief sans lunettes multipoint de vue (quand tu tournes autour de l'écran, tu changes de point de vue, tu as vraiment l'impression de tourner autour de l'objet, que tu vois en relief, sans lunettes, sur un écran plat 2D). En fait, ça date de ton grand-père : c'est le même principe que les tailles crayons ou cartes avec deux images qui se montre alternativement quand tu fais légèrement tourner la carte. L'idée c'est de rajouter des prismes... (enfin j'ai déjà expliqué ça plus haut je crois ).
Dans la pratique, pour en avoir vu qq uns, la techno n'est pas encore super mature, car sa divise ta résolution horizontale par "2 fois le nombre de point de vue relief" que tu veux créer.
Marsh Posté le 02-10-2008 à 20:04:27
youen a écrit : Bonjour, |
Va plutôt poser ta question sur la cat Graphisme : http://forum.hardware.fr/hfr/Graph [...] ujet-1.htm
Marsh Posté le 02-10-2008 à 20:05:13
il faut aller voir ce que fait "total immersion", je crois que ça existe déjà, en mocap. Ils utilisent les boules réfélchissante car c'est plus simple à mettre en oeuvre sur un costume que de faire clignoter des led. Par contre, il y a souvent plusieurs caméras pour avoir des info redondantes et limiter les erreurs et si un capteur est masqué.
Les systèmes d'analyse d'image purs sans aucun capteur existe, à condition d'avoir une image suffisamment contrasté, en mono caméra, et de connaitre la géométrie réelle du solide.
(voir total immersion aussi)
après il y a aussi le système polemus, par champs magnétique, ou des systèmes hybrides avec des mini centrales inertielles, emmeteur ultrason, etc.
Marsh Posté le 02-10-2008 à 20:24:54
T'es un peu grilled barnabe
Après, ce que fait total immersion est très bien (pour avoir joué au sabrolaser dans un CAVE avec leur truc, je confirme que c'est fun ), mais c'est aussi très payant
Marsh Posté le 02-10-2008 à 21:40:58
Herbert de Vaucanson a écrit : T'es un peu grilled barnabe |
Pas compris
Sinon, effectivement, des LEDs ça coûte rien, une web cam très bien, 2 webs cams à l'extrême limite, mais je compte pas investir plus...
Hum, maintenant que c'est parti ici...
Marsh Posté le 03-10-2008 à 02:33:57
dommage que wiiyourself soit en cpp
Marsh Posté le 03-10-2008 à 13:00:40
Dommage ?
La très grande majorité des libs dans le domaine est en cpp
Marsh Posté le 03-10-2008 à 13:04:19
Herbert de Vaucanson a écrit : T'es un peu grilled barnabe |
ils vendent bien leurs trucs, c'est bien présenté et tout, mais ne développent en réalité pas grand chose, sinon une interface jolie. Ils rachètent surtout des brevets mais n'inventent rien par eux-mêmes, et ont quelques commerciaux aux dents longues, qui vendent bien leurs trucs, et c'est tout.
Marsh Posté le 03-10-2008 à 13:07:28
c'est pas vraiment du graphisme. A la limite dans la catégorie développement, si il y en a une...
Marsh Posté le 03-10-2008 à 13:14:26
barnabe a écrit :
|
Tu lui dis d'utiliser les trucs de total immersion, je réponds que c'est payant donc pas trop possible pour lui, et tu me réponds qu'ils ne développent rien eux-mêmes mais rachètent des brevets (je ne comprends pas le rapport et la logique de l'enchainement)
Marsh Posté le 03-10-2008 à 13:16:36
Herbert de Vaucanson a écrit : |
le rapport avec quoi ? Je parlais juste de total immersion. Le truc avec le sabro Laser, ça utilisait un Polémus non ? un truc à fil qui fonctionne par champ magnétique.
Marsh Posté le 03-10-2008 à 13:25:27
barnabe a écrit : |
J'ai édité, je ne comprends pas pourquoi tu me réponds en me parlant du mode de fonctionnement du dev chez total immersion à mon post dans lequel je disais que comme c'était payant, il ne pouvait pas l'utiliser.
Sinon nope, j'suis pas très fan du Polhemus et de l'aspect "fil à la patte", surtout dans un CAVE. C'était du Dtrack (tracking avec 6 cam + boules réfléchissantes comme expliqué plus haut) ou du Intersense 6D. A ma connaissance, c'est plus trop utilisé.
Marsh Posté le 03-10-2008 à 13:43:58
OpenCV supporte le multi-caméra, et c'est assez simple d'utilisation.
De plus il y a déjà des routines toutes faites qui permettent de les calibrer (avec l'utilisation d'un damier si mes souvenirs sont bons).
De là à reconstruire l'espace 3D avec les nuages de points détectés, c'est une autre histoire.
Si t'as des questions sur OpenCV, je l'utilise presque tous les jours, donc hésite pas.
Marsh Posté le 03-10-2008 à 14:09:16
Herbert de Vaucanson a écrit : |
intersense, je crois qu'ils ont fermé boutique. J'avais déjà utiliser un système intersense ; il s'agissait d'une mini centrale inertielle, avec des emetteurs à ultra son, et un système de micro à ultra son qu'on disposait sur un mur ou sur un plafond. Et après calibration du bouzin (situer exactement le système de captation dans l'espace), le tout fonctionnait pas trop mal, mais manquait cruellement de précision quand-même...
Marsh Posté le 03-10-2008 à 14:13:17
barnabe a écrit : |
Pas à ma connaissance, je pense que j'en aurai entendu parler
barnabe a écrit : |
Oui voilà, c'est ça
Enfin pour la précision, tout dépend de ce que tu voulais faire avec, mais pour des applications de tracking pour la RA ou la RV, c'était largement suffisant pour nous
Marsh Posté le 03-10-2008 à 14:48:35
Herbert de Vaucanson a écrit : |
Herbert de Vaucanson a écrit : |
ou alors il ont arrêté le secteur broadcast (comme total immersion d'ailleurs ; trop de contraintes techniques, trop peu de temps...)
Ou ils ont été racheté. Intersense appartenait à l'époque à Vinten.
RA, RV..késako ?
Le manque de précision du truc venait surtout de la techno utilisée : les ultrasons, dont la longueur d'onde était trop longue par rapport à un système infrarouge, par contre l'avantage c'est que les signaux ultrason sont assez robustes aux perturbations, peu de chose peut venir brouiller les signaux...contrairement aux infrarouges.
Marsh Posté le 03-10-2008 à 14:54:03
barnabe a écrit : |
Oui nan mais je ne te demandais pas pourquoi c'était imprécis (ça je sais bien tout ça, merci ), mais je te demandais quelle était ton application pour que la précision de ces trackers soit insuffisante, quelles étaient tes contraintes quoi, pourquoi tu avais besoin de plus de précision.
Sinon RA, c'est pour Réalité Augmentée, et RV, Réalité Virtuelle. Je suis curieux de voir dans quel autre cadre tu as pu utiliser différents trackers comme ça.
Marsh Posté le 03-10-2008 à 15:03:10
Herbert de Vaucanson a écrit : |
dans mon ancienne boîte, pour une utilisation broadcast.
Pour des incrustes sur fond vert ou bleu, pour faire bouger des caméras et tracker les mouvements en temps réel, afin de faire bouger les incrustations (le décor). On s'est fait prêté un système intersense (on était même devenu plus ou moins mandataire pour installer les sytèmes intersense)
tant que tu mets des capteurs et que tu trackes des objets, et que tu filmes en caméra fixe, la précision des systèmes comme polhémus et intersense est suffisante, mais dès que tu trackes les déplacements de la caméra elle-même, la précision devient insuffisante, car elle dépend de la focale de la caméra, et de la distance entre la caméra et l'objet, la moindre erreur angulaire se traduit à l'image par des erreurs trop importantes (nous fabriquions des têtes de caméra trackées par des codeurs, très précises.) plus la focale est longue, plus l'objet est loin, moins l'erreur est acceptable.
Je sais pas si j'ai été très clair dans mes explications...
Marsh Posté le 03-10-2008 à 16:02:02
Ah ok, sisi c'est clair, marrant comme application
Marsh Posté le 03-10-2008 à 16:07:51
juste pour dire en passant que le temp de calcul n'est plus *trop* une limite non plus avec un quad-core (et ça l'était déjà plus quand j'ai fini mon doctorat en 2006).
Pour la reconstruction 3D, si c'est pas dense, c'est assez facile à faire.
Marsh Posté le 03-10-2008 à 16:10:12
Euh... On parle de tracking là, pas de reconstruction de scène 3D à partir de stéréoscopie
Les systèmes de tracking dont on parle viennent très souvent avec leur propre controller et fournissent directement (ou presque) des positions 6D, ça n'occupe pas de temps de calcul
Marsh Posté le 03-10-2008 à 16:12:25
Herbert de Vaucanson a écrit : Euh... On parle de tracking là, pas de reconstruction de scène 3D à partir de stéréoscopie |
Lag inter-topics v_v
J'etait restait sur une optique fait main du PO
Ofc si le capteur envoie la purée direct :E splufacile
Marsh Posté le 03-10-2008 à 16:22:11
Joel F a écrit : |
rien pigé...
Marsh Posté le 03-10-2008 à 16:23:04
Reply
Marsh Posté le 28-09-2008 à 15:54:17
Bonjour,
Je ne sais pas si c'est le meilleur endroit pour poster ça, mais je n'ai pas trouvé mieux... Si quelqu'un connait un forum mieux indiqué merci de me donner des liens.
Je cherche à déterminer s'il est faisable de détecter la position et l'orientation en 3D d'un objet (le terme anglais serait "pose estimation", je ne sais pas s'il y a un équivalent français) pour l'appliquer aux jeux vidéo. L'idée serait d'utiliser une camera (web cam ou wiimote, car pour ceux qui l'ignore la manette de la console wii peut suivre jusqu'à 4 points infrarouges) pour détecter par exemple 4 LEDs infrarouges fixées sur un objet. Le système serait utilisable par exemple pour un jeu où on manie une épée (que ce soit dans un univers heroic-fantasy ou star wars, etc.), le joueur pourrait parer des coups, en donner etc.
Actuellement je voudrais essayer de fabriquer un prototype pour faire des essais, mais je ne sais pas trop comment choisir les LEDs : il faudrait qu'elles soient visibles depuis un maximum d'angles, ce qui n'est pas du tout le cas d'une LED standard, qui émet plutot dans un cone de 17° en général pour ce que j'en ai vu. Quelqu'un saurait m'aiguiller dans ce domaine ? Peut-être qu'il existe des types de LEDs particulières ? Ou alors mettre une sorte de capuchon dessus qui diffuserait la lumière dans toutes les directions ? Le problème suivant est le placement des LEDs sur l'objet (je pense qu'il en faut au moins 4, non coplanaires, le problème étant de les rendre visibles quels que soient les mouvements du joueur...).
Et si vous avez des suggestions pour tous les autres problèmes, je suis preneur aussi... Ceux que je prévois sont les suivants :
EDIT : question subsidiaire : seriez vous intéressé par un jeu du genre décrit ci-dessus ?
Message édité par youen le 28-09-2008 à 16:02:48