La Plate-Forme technologique Evr@
Un article de Wiki-evr@.
Version du 2 mars 2006 à 14:56 (modifier) Gi (Discuter | Contributions) (→Galerie) ← Différence précédente |
Version actuelle (28 février 2017 à 20:23) (modifier) (défaire) Davesne (Discuter | Contributions) (→Contexte et objectifs scientifiques) |
||
(34 révisions intermédiaires masquées) | |||
Ligne 1 : | Ligne 1 : | ||
{{en2|The Evr@ technological platform}} | {{en2|The Evr@ technological platform}} | ||
- | [[Image: | + | [[Image:Affiche_evr@.JPG]] |
- | '''Evr@''' (Environnements Virtuels et de Réalité Augmentée ) est | + | |
+ | '''Evr@''' (Environnements Virtuels et de Réalité Augmentée ) est la plate-forme technologique de Réalité Virtuelle et Augmentée de l'UEVE et de Genopole. Elle est hébergée au laboratoire [http://www.ibisc.univ-evry.fr IBISC] (Informatique, Biologie Intégrative et Systèmes Complexes). | ||
__TOC__ | __TOC__ | ||
+ | |||
+ | == Document de référence == | ||
+ | * [https://hal.archives-ouvertes.fr/hal-01224571 <image>source="pdf.png"</image> Rapport d'activité de la plateforme EVR@, 24 novembre 2016] | ||
+ | |||
+ | == Contexte == | ||
+ | * [https://maps.google.com/maps/ms?ie=UTF8&hl=fr&msa=0&msid=108064758265890176853.0004926aac291f47914f9&t=h&ll=25.799891,20.039063&spn=123.465771,225&z=2&source=embed Carte des acteurs de la Réalité Virtuelle et Augmentée en France] | ||
== Présentation == | == Présentation == | ||
+ | === Synopsis === | ||
+ | La plateforme technologique EVR@ (Environnements Virtuels et de Réalité Augmentée), inaugurée en mai 2004 en présence des représentants de ses différents financeurs (UEVE, Conseil Général de l’Essonne, CNRS), est la plateforme de Réalité Virtuelle et Augmentée de l’Université d’Evry Val d’Essonne ; elle est également l’une des 14 plateformes technologiques et plateaux technique référencés par le Genopole®. | ||
+ | EVR@ s’inscrit pleinement dans les missions essentielles de l’UEVE : recherche, pédagogie et valorisation auprès d’un large public (chercheurs, industriels, étudiants, lycéens et familles). | ||
+ | |||
=== Contexte et objectifs scientifiques === | === Contexte et objectifs scientifiques === | ||
- | + | La plateforme technologique EVR@ est un outil « grandeur nature » pour la validation expérimentale de modèles théoriques impliquant une interaction entre un humain et un environnement virtuel ou réel assistée par l’ordinateur. D’un point de vue historique, les domaines scientifiques concernés jusqu’à présent sont ceux de l’équipe Réalité Augmenté et Télétravail Collaboratif, dirigée par le professeur Malik Mallem, membre du laboratoire IBISC, ex LSC, dont l’équipe s’est directement impliquée dans la création de la plateforme EVR@ et sa mise en service inaugurée en mai 2004. | |
- | Le | + | Le périmètre de la plateforme technologique EVR@ (voir Dispositifs) a été dessiné, par investissements successifs, pour servir en premier lieu les activités de recherche de l’équipe IRA2, qui concernent l’assistance informatisée à l’interaction d’une personne ou d’un ensemble de personnes, dans le cadre de leur travail ou de leur loisir. La question centrale qui se pose est : « Comment l’informatique couplée à des périphériques de retour sensoriel (vision, retour d’effort, interaction tactile, etc.) peut améliorer l’interaction de personnes dont le métier n’est pas l’informatique (en termes de confort ou de gain de temps - donc de productivité- par exemple) ? ». |
- | + | Répondre à cette question nécessite des compétences du point de vue de la recherche, mais aussi l’apport de matériels spécifiques et l’utilisation et la conception d’outils logiciels. Du point de vue de la recherche, le périmètre a historiquement évolué, partant de la Réalité Augmentée, dont le professeur Malik Mallem a été un des précurseurs dès les années 1980. La problématique d’étude de l’interaction d’une ou de plusieurs personnes avec des environnements virtuels ou distants, initiée par Samir Otmane (PR UEVE), a suivi et a réellement débuté juste avant la construction de la plateforme EVR@ « grandeur nature ». Parallèlement, le projet académique ARITI initié en 1998 par Samir Otmane et Malik Mallem concernant l’application de la Réalité Augmentée au service de la téléopération de robots a permis la connexion d’activités de recherche et applicatives différentes (Réalité Augmentée/Virtuelle et robotique). L’implication de Laredj Benchikh (MCF UEVE) a permis la réalisation d’un démonstrateur issu du projet ARITI sur des robots industriels FANUC, utilisés également en TPs à l’UFR-ST. | |
- | + | La plateforme technologique EVR@ permet la mise en œuvre matérielle et logicielle de problématiques métier inspirées par la question centrale donnée plus haut. Elle permet donc l’articulation de la recherche théorique et des projets applicatifs dont chacun pose une problématique métier spécifique. | |
- | + | ||
- | + | ||
- | La plateforme EVR@ est un atout technologique majeur pour atteindre un plus grand réalisme de l'interaction homme/machine. | ||
- | + | [[Image:Site distant.jpg|right|300px|thumb|Site distant avec le robot 4ddl en premier plan et le robot FANUC LRMate-200i derrière]] | |
- | [[Image:Site distant.jpg|right|300px|thumb|Site distant avec le robot | + | |
- | === | + | === Dispositifs === |
<!--La partie gauche de la figure figure 1 présente les éléments constituant la plateforme EVR@. --> | <!--La partie gauche de la figure figure 1 présente les éléments constituant la plateforme EVR@. --> | ||
Le dispositif sélectionné est un plan ou écran de projection. Celui-ci permet une forte immersion des utilisateurs grâce à une visualisation stéréo qui autorise la perception de la troisième dimension dans les images affichées. Il permet également, grâce à la technique de rétro-projection, de laisser l’utilisateur libre de ses mouvements sans entraîner d’occlusions dans l’image dues à la position arrière du projecteur. | Le dispositif sélectionné est un plan ou écran de projection. Celui-ci permet une forte immersion des utilisateurs grâce à une visualisation stéréo qui autorise la perception de la troisième dimension dans les images affichées. Il permet également, grâce à la technique de rétro-projection, de laisser l’utilisateur libre de ses mouvements sans entraîner d’occlusions dans l’image dues à la position arrière du projecteur. | ||
Le pilotage du robot distant peut être effectué par un flystick manipulé dans les trois dimensions par l'opérateur. | Le pilotage du robot distant peut être effectué par un flystick manipulé dans les trois dimensions par l'opérateur. | ||
- | Les deux caméras infrarouge disposées des deux cotés du plan de projection permettent de repérer en temps réel | + | Les deux caméras infrarouge disposées des deux cotés du plan de projection permettent de repérer en temps réel la position et l'orientation du flystick grâce à un ensemble de marqueurs situés sur ce dernier offrant ainsi six degrés de liberté. Les mouvements de l'opérateur peuvent donc être retranscrits fidèlement dans le monde virtuel puis être traduit par des commandes au niveau du robot distant. |
<!--Cette vidéo illustre ce processus dans le cadre applicatif du projet ARITI.--> | <!--Cette vidéo illustre ce processus dans le cadre applicatif du projet ARITI.--> | ||
- | <!--[[Image:ARITI robot.gif|right|thumb|Un des robots sur le site distant : le robot 4 axes du projet [[ARITI]]]]--> | ||
- | |||
- | <!--gallery> | ||
- | Image:Flystick.jpg|Le flystick : un joystick manipulable en 3-dimensions | ||
- | Image:Fanuc-LRMate200i.jpg|Un des robots sur le site distant : le robot FANUC LRMate-200i | ||
- | </gallery--> | ||
- | |||
- | |||
- | [[Image:Flystick.jpg|left|thumb|Le flystick : un joystick manipulable en 3-dimensions]] | ||
=== Lignes directrices scientifiques === | === Lignes directrices scientifiques === | ||
- | # | + | [[Image:Flystick.jpg|left|thumb|Le flystick : un joystick manipulable en 3-dimensions]] |
- | # | + | # Étude de l'interaction homme/machine: Nouveaux paradigmes d'interaction (3D HCI, Modélisation interactive 3D) |
- | #* Objectif: étude et développement de nouveaux formalismes et des outils logiciels pour la gestion de la collaboration | + | # Étude du travail collaboratif |
- | #* Domaines d'applications: | + | #* Objectif : étude et développement de nouveaux formalismes et des outils logiciels pour la gestion de la collaboration |
- | #*# Téléopération collaborative : en développant de nouveaux Systèmes Multi-Agents (SMA) de collaboration adaptés aux applications de téléopération collaborative multi-utilisateurs ( | + | #* Domaines d'applications : |
- | #*# Présence /Télé-Présence Collaborative : en prenant en compte les nouveaux paradigmes de perception, d’interaction et de communication pouvant être développés dans les environnements de réalité mixte (RV/RA) | + | #*# Téléopération collaborative : en développant de nouveaux Systèmes Multi-Agents (SMA) de collaboration adaptés aux applications de téléopération collaborative multi-utilisateurs (voir le projet [http://ariti.ibisc.univ-evry.fr/ ARITI-C]), |
- | # Architecture logicielle pour le prototypage rapide des applications de Réalité Mixée | + | #*# Présence/Télé-Présence Collaborative : en prenant en compte les nouveaux paradigmes de perception, d’interaction et de communication pouvant être développés dans les environnements de réalité mixte (RV/RA), |
- | #* Objectif: développer une architecture logicielle ouverte permettant le prototypage rapide des applications de Réalité | + | # Architecture logicielle pour le prototypage rapide des applications de Réalité Mixée, |
- | #* Cette architecture doit permettre: | + | #* Objectif : développer une architecture logicielle ouverte permettant le prototypage rapide des applications de Réalité Mixée (RM - Voir le projet [[ARCS]]), |
- | #*# | + | #* Cette architecture doit permettre : |
- | #*# | + | #*# Une exploitation efficace (comme le fait un système d’exploitation des ordinateurs) des différents modules (matériel et logiciel) utilisés dans les environnements de RM, |
+ | #*# Une programmation rapide des applications ainsi que la mise à jour et le développement de nouvelles briques logicielles doit être possible et plus facile. | ||
+ | |||
+ | === Partenariats scientifiques === | ||
+ | * [http://www.istia.univ-angers.fr/Automatisation/LISA/ Laboratoire d'Ingénierie des Systèmes Automatisés (LISA)] et sa plateforme technologique PREVISE inaugurée le 18/01/2005 [http://gsc2.cemif.univ-evry.fr/images/5/5d/Evra_previse_012005.pdf <image>source="Pdf.png"</image>Pdf] | ||
== Galerie == | == Galerie == | ||
Ligne 58 : | Ligne 61 : | ||
Image:Ariti2.jpg|Le robot 4 axes utilisé pour ARITI | Image:Ariti2.jpg|Le robot 4 axes utilisé pour ARITI | ||
Image:Fanuc-LRMate200i.jpg|Le robot Fanuc LRMate-200i | Image:Fanuc-LRMate200i.jpg|Le robot Fanuc LRMate-200i | ||
- | Image:Site distant.jpg|Vue globale du site distant | + | Image:Site distant.jpg|Vue globale du site distant (esclave) |
Image:Evra_big.jpg|Dispositif du site maître | Image:Evra_big.jpg|Dispositif du site maître | ||
Image:Projecteur Mirage 4000.jpg|Projecteur Mirage 4000 | Image:Projecteur Mirage 4000.jpg|Projecteur Mirage 4000 | ||
Image:Nomad.jpg|Casque semi- transparent pour la réalité mixée | Image:Nomad.jpg|Casque semi- transparent pour la réalité mixée | ||
+ | Image:Evra genopole 1.jpg|Site maître <br/><small>(Crédit : [http://www.genopole.org genopole])</small> | ||
+ | Image:Evra genopole 3.jpg|Site maître <br/><small>(Crédit : [http://www.genopole.org genopole])</small> | ||
+ | Image:Evra genopole 4.jpg|Site maître <br/><small>(Crédit : [http://www.genopole.org genopole])</small> | ||
+ | Image:Evra genopole 5.jpg|Site esclave <br/><small>(Crédit : [http://www.genopole.org genopole])</small> | ||
</gallery> | </gallery> | ||
</center> | </center> | ||
Ligne 67 : | Ligne 74 : | ||
== Communication == | == Communication == | ||
=== Articles de presse === | === Articles de presse === | ||
+ | * [http://evra.ibisc.univ-evry.fr/images/a/ac/Opticsvalley_lumiere_32-022007.pdf <image>source="pdf.png"</image>Lumière n°32 OpticsValley, janvier/février 2007] | ||
* [http://gsc2.cemif.univ-evry.fr/%7Emediawiki/images/a/af/Evra_republicain13mai2004.pdf <image>source="pdf.png"</image>Article du Républicain, 3 mai 2004] | * [http://gsc2.cemif.univ-evry.fr/%7Emediawiki/images/a/af/Evra_republicain13mai2004.pdf <image>source="pdf.png"</image>Article du Républicain, 3 mai 2004] | ||
* [http://gsc2.cemif.univ-evry.fr/%7Emediawiki/images/8/87/Evra_usinenouvellemai04.pdf <image>source="pdf.png"</image>Article du magazine Usine Nouvelle, mai 2004] | * [http://gsc2.cemif.univ-evry.fr/%7Emediawiki/images/8/87/Evra_usinenouvellemai04.pdf <image>source="pdf.png"</image>Article du magazine Usine Nouvelle, mai 2004] | ||
* [[:Image:Evra sonovisionjuilletaout04.jpg|Article du magazine Sonovision, juillet-août 2004]] | * [[:Image:Evra sonovisionjuilletaout04.jpg|Article du magazine Sonovision, juillet-août 2004]] | ||
- | * [http://www.critt-ccst.fr/newsletters/newsletter20.htm | + | * [http://www.critt-ccst.fr/newsletters/newsletter20.htm Newsletter du CRITT n°20, février 2006],[http://gsc2.cemif.univ-evry.fr/%7Emediawiki/images/d/d9/Evra_CRITT_newsletter20-022006.pdf <image>source="pdf.png"</image>Document PDF interne] |
+ | * [http://www.savoirs.essonne.fr/index.php?id=558&print=146 Article paru dans Banque des Savoirs, 29 mai 2006], [http://gsc2.cemif.univ-evry.fr/%7Emediawiki/images/4/4a/Evra_banque_des_savoirs-29052006.pdf <image>source="pdf.png"</image> Document PDF interne] | ||
+ | * [[:Image:Evra_journal_interne_genopole_juin2006.jpg|Article paru dans le journal interne de la Génopole, juin 2006]] | ||
+ | * [http://gsc2.cemif.univ-evry.fr/%7Emediawiki/images/9/98/Evra_sonovisionjuin2006.pdf <image>source="pdf.png"</image>Article du magazine Sonovision, juin 2006] |
Version actuelle
Evr@ (Environnements Virtuels et de Réalité Augmentée ) est la plate-forme technologique de Réalité Virtuelle et Augmentée de l'UEVE et de Genopole. Elle est hébergée au laboratoire IBISC (Informatique, Biologie Intégrative et Systèmes Complexes).
Sommaire |
[modifier] Document de référence
[modifier] Contexte
[modifier] Présentation
[modifier] Synopsis
La plateforme technologique EVR@ (Environnements Virtuels et de Réalité Augmentée), inaugurée en mai 2004 en présence des représentants de ses différents financeurs (UEVE, Conseil Général de l’Essonne, CNRS), est la plateforme de Réalité Virtuelle et Augmentée de l’Université d’Evry Val d’Essonne ; elle est également l’une des 14 plateformes technologiques et plateaux technique référencés par le Genopole®. EVR@ s’inscrit pleinement dans les missions essentielles de l’UEVE : recherche, pédagogie et valorisation auprès d’un large public (chercheurs, industriels, étudiants, lycéens et familles).
[modifier] Contexte et objectifs scientifiques
La plateforme technologique EVR@ est un outil « grandeur nature » pour la validation expérimentale de modèles théoriques impliquant une interaction entre un humain et un environnement virtuel ou réel assistée par l’ordinateur. D’un point de vue historique, les domaines scientifiques concernés jusqu’à présent sont ceux de l’équipe Réalité Augmenté et Télétravail Collaboratif, dirigée par le professeur Malik Mallem, membre du laboratoire IBISC, ex LSC, dont l’équipe s’est directement impliquée dans la création de la plateforme EVR@ et sa mise en service inaugurée en mai 2004. Le périmètre de la plateforme technologique EVR@ (voir Dispositifs) a été dessiné, par investissements successifs, pour servir en premier lieu les activités de recherche de l’équipe IRA2, qui concernent l’assistance informatisée à l’interaction d’une personne ou d’un ensemble de personnes, dans le cadre de leur travail ou de leur loisir. La question centrale qui se pose est : « Comment l’informatique couplée à des périphériques de retour sensoriel (vision, retour d’effort, interaction tactile, etc.) peut améliorer l’interaction de personnes dont le métier n’est pas l’informatique (en termes de confort ou de gain de temps - donc de productivité- par exemple) ? ». Répondre à cette question nécessite des compétences du point de vue de la recherche, mais aussi l’apport de matériels spécifiques et l’utilisation et la conception d’outils logiciels. Du point de vue de la recherche, le périmètre a historiquement évolué, partant de la Réalité Augmentée, dont le professeur Malik Mallem a été un des précurseurs dès les années 1980. La problématique d’étude de l’interaction d’une ou de plusieurs personnes avec des environnements virtuels ou distants, initiée par Samir Otmane (PR UEVE), a suivi et a réellement débuté juste avant la construction de la plateforme EVR@ « grandeur nature ». Parallèlement, le projet académique ARITI initié en 1998 par Samir Otmane et Malik Mallem concernant l’application de la Réalité Augmentée au service de la téléopération de robots a permis la connexion d’activités de recherche et applicatives différentes (Réalité Augmentée/Virtuelle et robotique). L’implication de Laredj Benchikh (MCF UEVE) a permis la réalisation d’un démonstrateur issu du projet ARITI sur des robots industriels FANUC, utilisés également en TPs à l’UFR-ST.
La plateforme technologique EVR@ permet la mise en œuvre matérielle et logicielle de problématiques métier inspirées par la question centrale donnée plus haut. Elle permet donc l’articulation de la recherche théorique et des projets applicatifs dont chacun pose une problématique métier spécifique.
[modifier] Dispositifs
Le dispositif sélectionné est un plan ou écran de projection. Celui-ci permet une forte immersion des utilisateurs grâce à une visualisation stéréo qui autorise la perception de la troisième dimension dans les images affichées. Il permet également, grâce à la technique de rétro-projection, de laisser l’utilisateur libre de ses mouvements sans entraîner d’occlusions dans l’image dues à la position arrière du projecteur.
Le pilotage du robot distant peut être effectué par un flystick manipulé dans les trois dimensions par l'opérateur. Les deux caméras infrarouge disposées des deux cotés du plan de projection permettent de repérer en temps réel la position et l'orientation du flystick grâce à un ensemble de marqueurs situés sur ce dernier offrant ainsi six degrés de liberté. Les mouvements de l'opérateur peuvent donc être retranscrits fidèlement dans le monde virtuel puis être traduit par des commandes au niveau du robot distant.
[modifier] Lignes directrices scientifiques
- Étude de l'interaction homme/machine: Nouveaux paradigmes d'interaction (3D HCI, Modélisation interactive 3D)
- Étude du travail collaboratif
- Objectif : étude et développement de nouveaux formalismes et des outils logiciels pour la gestion de la collaboration
- Domaines d'applications :
- Téléopération collaborative : en développant de nouveaux Systèmes Multi-Agents (SMA) de collaboration adaptés aux applications de téléopération collaborative multi-utilisateurs (voir le projet ARITI-C),
- Présence/Télé-Présence Collaborative : en prenant en compte les nouveaux paradigmes de perception, d’interaction et de communication pouvant être développés dans les environnements de réalité mixte (RV/RA),
- Architecture logicielle pour le prototypage rapide des applications de Réalité Mixée,
- Objectif : développer une architecture logicielle ouverte permettant le prototypage rapide des applications de Réalité Mixée (RM - Voir le projet ARCS),
- Cette architecture doit permettre :
- Une exploitation efficace (comme le fait un système d’exploitation des ordinateurs) des différents modules (matériel et logiciel) utilisés dans les environnements de RM,
- Une programmation rapide des applications ainsi que la mise à jour et le développement de nouvelles briques logicielles doit être possible et plus facile.
[modifier] Partenariats scientifiques
- Laboratoire d'Ingénierie des Systèmes Automatisés (LISA) et sa plateforme technologique PREVISE inaugurée le 18/01/2005 Pdf
[modifier] Galerie
Site maître |
Site maître |
Site maître |
Site esclave |
[modifier] Communication
[modifier] Articles de presse
- Lumière n°32 OpticsValley, janvier/février 2007
- Article du Républicain, 3 mai 2004
- Article du magazine Usine Nouvelle, mai 2004
- Article du magazine Sonovision, juillet-août 2004
- Newsletter du CRITT n°20, février 2006,Document PDF interne
- Article paru dans Banque des Savoirs, 29 mai 2006, Document PDF interne
- Article paru dans le journal interne de la Génopole, juin 2006
- Article du magazine Sonovision, juin 2006