interagir L’espace « Interagir, Comprendre, Créer » se situe à la croisée de nombreux domaines scientifiques tels que l’interaction humain-machine, la robotique, l’intelligence artificielle, le traitement des contenus mono et multimédias, la représentation des connaissances, le traitement des « Big data ». Dans une approche de rencontre des disciplines STIC et SHS, il entend aborder également la question des usages, des facteurs humains, des enjeux juridiques, des modèles économiques et des chaînes de valeur. Au programme, une quarantaine de projets présentés chaque jour lors de sessions posters, d’exposés oraux ou de démonstrations. Durant les deux jours, des ateliers et tables rondes seront l’occasion d’approfondir les échanges entre tous les acteurs publics et privés autour de thématiques telles que l’éthique en robotique, la traduction automatique à l’ère du Digital Single Market, les jeux et enjeux des données en recherche et l’arrivée des casques de réalité virtuelle dans des applications grand public.

Les sessions "Focus posters" sont des plages du programme dédiées à la présentation des posters dans les espaces. Néanmoins, les zones posters restent ouvertes, et les posters affichés, pour la journée entière.

 

Programme

Mercredi 16 novembre 2016

 

  • 11h30 - 12h30 : Focus posters & présentations Flash 
A l’issue d’un « one minute madness » rythmé, venez découvrir plus en détail les projets financés par l’ANR dans le domaine de l’IHM, de la robotique, du traitement des données,  des contenus multimédias et des connaissances. Au programme, une session posters d’une quarantaine de projets et des démonstrations à ne pas manquer !
 
Modérateur: Vincent Rapp, ANR.

NIVEAU S2 

 

  • 13h30 - 15h00 : Table Ronde « Jeux de données et données en jeu : l’accès des données à des fins de recherche »

L’accès aux données est devenu un véritable enjeu pour la recherche. Le « fair use » en pratique aux Etats-Unis donne aux chercheurs américains la possibilité d’accéder à de grandes base de données. Les cadres législatifs européen et national sont plus restrictifs et exige des chercheurs des démarches parfois complexes et longues pour accéder aux données (dossiers patients, réseaux sociaux, etc.) avec une préoccupation légitime de protection des droits et de la vie privée. Illustrée par la présentation de cas concrets issus de projets financés, cette session se propose de réunir chercheurs et acteurs de la réglementation pour un échange et une meilleure compréhension des besoins et des attentes et l’élaboration de bonnes pratiques.

Participation de projets:

  • Philippe Boutinaud et Pierre-Yves Hervé (Cadesis) pour le projet Biomist : "Gestion sémantique de données d’Imagerie Bio Médicale pour la recherche" (Télécharger la présentation)
  • Jean Charlet pour le projet ACCORDYS : "Agrégation de Contenus et de COnnaissances pour Raisonner à partir de cas dans la DYSmorphologie fœtale" (Télécharger la présentation)
  • Aurélie Névéol pour le projet CABeRneT : "Compréhension Automatique de Textes Biomédicaux pour la Recherche Translationnelle." (Télécharger la présentation)
  • Camille Roth pour le projet Algopol : "Politique des algorithmes"
  • Julien Velcin pour le projet ImagiWeb : "Images sur le Web : analyse de la dynamique des images sur le Web 2.0."
  • Mathieu Roche (CIRAD-LIRMM) pour le projet SIFR : "Indexation sémantique de ressources biomédicales francophones."

Modérateur : Guillaume Gravier, IRISA

Intervenant : Félicien Vallet, CNIL

NIVEAU S2 SALLE AB (JOUXTANT L'ESPACE)

 

  • 15h00 - 15h30 : Démonstration 
Florian Gosselin (CEA) pour le projet MANDARIN « Manipulation dextre haptique pour opérations industrielles en réalité virtuelle » 

NIVEAU S2 

 

  • 15h30 - 17h00 : Table Ronde « Usages et limites des casques de réalité virtuelle dans les foyers »

Que ce soit au CES de Las Vegas, à Shangaï ou à Laval Virtual, la réalité virtuelle et les visiocasques ont fait une entrée très médiatisée dans des applications grand public. Comme le souligne Philippe Fuchs dans son dernier ouvrage « Les casques de réalité virtuelle et de jeux vidéo », cette évolution n’est pas sans risque si les constructeurs ne s’appuient pas sur les nombreux travaux menés depuis vingt ans dans le domaine de la réalité virtuelle. En réunissant industriels, chercheurs et utilisateurs, cette session entend poser un regard critique sur l’utilisation des visiocasques dans les foyers et ouvrir le débat sur les opportunités et nécessités de nouvelles questions de recherche en sciences cognitives notamment.

Participation de projets :

  • Benoît Martin (Université de Lorraine) pour le projet  eGlasses : « Les lunettes interactives pour l’informatique mobile et perceptuelle ».
  • Claude Andriot (CEA) pour le projet  MANDARIN : « Manipulation dextre haptique pour opérations industrielles en réalité virtuelle ».

Modérateur : Domitile Lourdeaux, Heudiasyc - UTC.

Intervenants :

  • Philippe Fuchs, Mines ParisTech, CAOR - Centre de Robotique(Télécharger la présentation)
  • Jean-Louis Vercher, Institut des Sciences du Mouvement - Aix Marseille.

NIVEAU S2 SALLE AB (JOUXTANT L'ESPACE)

 

Jeudi 17 novembre 2016

  

  • 13h00 - 14h30 : Table Ronde « Ethique et robotique : l’autonomie des robots en question »

Dans un contexte où l’intelligence artificielle revient sur le devant de la scène, cette table ronde sera dédiée aux considérations éthiques dans le développement des systèmes autonomes et intelligents. A partir de présentations de projets ANR, les questions soulevées par l’autonomie opérationnelle, les capacités décisionnelles, la planification d’actions et la prise de décision autonome ou partagée avec les humains ainsi que les capacités d’apprentissage seront abordées au sein d’un dialogue interdisciplinaire.

 

Participation des projets :

 Modérateur : Raja Chatila, Directeur de l’Institut des Systèmes Intelligents et de Robotique.

NIVEAU S2 SALLE AB (JOUXTANT L'ESPACE)

 

  • 14h30 - 15h30 : Focus posters & présentations Flash 

A l’issue d’un « one minute madness » rythmé, venez découvrir plus en détail les projets financés par l’ANR dans le domaine de l’IHM, de la robotique, du traitement des données,  des contenus et des connaissances. Au programme, une session posters d’une quarantaine de projets et des démonstrations à ne pas manquer !

Modératrices :

  • Béatrice Arnulphy, ANR
  • Christelle Ayache, Cap Digital

NIVEAU S2 

 

  • 15h30 - 17H00 : Table Ronde « Traduction automatique à l’ère du Digital Single Market »

A partir de présentations de projets ANR et de démonstrations, cette table ronde sera l’occasion de dresser l’état des lieux de la traduction automatique aujourd’hui, des initiatives nationales et européennes dans le contexte du Digital Single Market. 

Participation de projets :

  • François Yvon (LIMSI-CNRS), pour le projet TRANSREAD  : "Lecture et interaction bilingues enrichies par les données d'alignement" (Télécharger la présentation)
  • François Brown de Colstoun (Lingua et Machina), pour le projet KEHATH  : "Méthodes qualité avancées pour la post-édition de traduction automatique » et CRISTAL  : « Contextes RIches en connaissanceS pour la TrAduction terminoLogique" (Télécharger la présentation)
  • Loïc Barrault (LIUM), pour le projet M2CR  : "Multimodal Multilingual Continuous Representation for Human Language Understanding" (Télécharger la présentation)

Intervenants :

  • Jean Senellart, SYSTRAN (Editeur de logiciel de traduction automatique) (Télécharger la présentation)
  • Khalid Choukri, ELDA (Evaluation et distribution de ressources languagières) (Télécharger la présentation)
  • Juliette Khan, LNE (Campagne d’évaluation TRAD) - intervenant à confirmer
  • Holger Schwenk, Facebook

Modérateur : Edouard Geoffrois, ANR

 NIVEAU S2 SALLE AB (JOUXTANT L'ESPACE)

projets participants

 

  • AcceSciTech : « Accès aux documents scientifiques et techniques pour les personnes handicapées visuelles » 
  • ACCORDYS : « Agrégation de Contenus et de COnnaissances pour Raisonner à partir de cas dans la DYSmorphologie fœtale » 
  • AIDA : « Automobile Intelligible pour Déficients Auditifs »
  • ALFFA : « Traitement Automatique de la Parole pour les Langues Africaines »
  • Algopol : « Politique des algorithmes »
  • ARROW : « Robots rapides et précis avec un large espace de travail opérationnel »
  • ASFALDA : « Analyse Sémantique en Frames : Annotation, Lexique, Discours et Automatisation
  • ASPIQ : « Techniques ASP pour l'interrogation d'informations web hétérogènes multisources à grande échelle »
  • ASTERIX : « Analyse Spatio-temporelle pour la Télédétection de l’Environnement par Reconnaissance dans les Images compleXes »
  • Biomist : « Gestion sémantique de données d’Imagerie Bio Médicale pour la recherche »
  • CABeRneT : « Compréhension Automatique de Textes Biomédicaux pour la Recherche Translationnelle »
  • CAMOMILE : “Collaborative Annotation of multi-MOdal, multI-Lingual and multi-mEdia documents”
  • Campus AAR : « Campus « Archives Audiovisuelles de la Recherche »
  • ChaNTeR : « Chant numérique avec contrôle temps Réel »
  • CHROME : « Textures de Foules : peuplement d’environnements interactifs immenses »
  • CineCitta : « Cinématography Virtuelle Interactive »
  • C-MUMS : « Modèles et Descripteurs pour le développement du plissement cortical normal et pathologique »
  • COACHES : « Cooperative Autonomous Robots in Complex and Humans Environments »
  • Colib'read : « Méthodes d’extraction d’information biologique dans les données HTS non assemblées »
  • ContNomina : « Exploitation du contexte pour la reconnaissance de noms propres dans les documents diachroniques audio »
  • COSIMA : « Médias Collaboratifs Situés »
  • CrABEx : « Création de contenu graphique 3D assistée par une base d'exemples »
  • CreAdapt : « Adaptation Créative par Evolution »
  • CRISTAL : « Contextes RIches en connaissanceS pour la TrAduction terminoLogique »
  • CULTE : “Cultural Urban Learning Transmedia Experience”
  • DIADEMS : « Description,Indexation, Acces aux Documents Ethnomusicologiques et Sonores »
  • DRAO : « Dessin Réaliste Assisté par Ordinateur »
  • EDISON 3D : « Edition et Diffusion Sonore spatialisée en 3 dimensions »
  • EGLASSES : « Les lunettes interactives pour l'informatique mobile, perceptuelle »
  • ENTRACTE : « Comprendre et plannifier l'action anthropomorphe »
  • ETHICAA : « Agents Autonomes et Ethique »
  • FaBiole : « Agrégation Dynamique et Verte du Spectre »
  • FIRE-ID : « Reconnaissance à grain fin dans les grandes bases de données d’images »
  • FITOC : « Connecter, Collaborer, Analyser : du Travail Individuel vers l’Analytique Visuelle Collaborative »
  • GROPLAN : « Généralisation du Relevé, avec Ontologies et Photogrammétrie, pour l'Archéologie Navale et Sous-marine »
  • HAMECMOPSYS : « Contrôle tokamak des profils radiaux plasma en dimension infinie »
  • Hybride : « Hybridation de la fouille de données et du traitement automatique des langues »
  • ImagiWeb : « Images sur le Web : analyse de la dynamique des images sur le Web 2.0. »
  • INEDIT : « INteractivité dans l’Ecriture De l’Interaction et du Temps »
  • INGREDIBLE : « INteraction Gestuelle cREDIBLE »
  • JOKER : "JOKe and Empathy of a Robot/ECA: Towards social and affective relations with a robot"
  • LEGOS : Evaluation de l’apprentissage sensorimoteur dans des systèmes interactifs geste-son »
  • LimICoS : « Commande des microsystèmes piézoélectriques multivariables avec minimisation de capteurs »
  • Lindicle : "Semantic Web Data Interlinking in cross-lingual Environment"
  • LOGIMA : « Logiques, représentations structurées, morphologie mathématique et incertain pour l'interprétation sémantique d'images et de vidéos »
  • MANDARIN : « MANipulation Dextre hAptique pour opéRations INdustrielles en RV »
  • MAPSTYLE : « Représentations stylisées en cartographie »
  • MaRDi : « Dialogue Homme-Robot »
  • MIXCAM : « Reconstruction Visuelle Temps-réel en Mixant des Caméras de Profondeur et Couleur »
  • MLVIS : « Apprentissage Automatique pour l'annotation visuelle dans les media sociaux
  • MoCA : « Mon petit monde de compagnons artificiels »
  • MONUMENTUM : « Modélisation numérique et gestion de données pour la conservation des structures maçonnées
  • MUCKE : "Multimedia And User Credibility Knowledge Extraction"
  • NARECA : « Agent Conversationnel Animé Narratif »
  • OCKTOPUS : « Triage de contenu et connaissances en ligne : optimiser la productivité des recherches utilisateurs »
  • PAGODA : « Algorithmique robuste pour l’interrogation de données en présence d’ontologie »
  • PANAM : « Pédagogie artistique numérique accessible et multimodale »
  • POEME : « Environement Immersif pour l'Exploration de Contenus Photographiques »
  • Polymnie : « Analyse et synthèse dans les grammaires catégorielles abstraites : du lexique au discours »
  • Qualinca : « Qualité et interopérabilité de grands catalogues documentaires »
  • Readers : "Evaluation And DEvelopment of Reading Systems"
  • READMI : « Epitaxie par jets moléculaires localisée d’hétérostructures antimoinées pour la réalisation d’un inverseur à base de transistors complémentaires à effet tunnel »
  • REFRAME : "Rethinking the Essence, Flexibility and Reusability of Advanced Model Exploitation"
  • RIDDLE : « Robots perceptuels et interactifs dédiés aux environnements quotidiens »
  • ROBOERGOSUM : « Robots Conscients »
  • SEPICOT : « Structures polymères à base de microleviers en mode statique pour l’analyse environnementale »
  • SIFR : « Indexation sémantique de ressources biomédicales francophones »
  • SYNCHNEURO : « Etude du réseau épileptique à l’aide de l’automatique »
  • TransRead : « Lecture et interaction bilingues enrichies par les données d'alignement. »
  • uComp : "Embedded Human Computation for Knowledge Extraction and Evaluation"
  • VERA : « Analyse d'erreurs avancée pour la reconnaissance de la parole »
  • ViSen : "Tagging visual data with semantic descriptions"
  • VISIIR : « Recherche interactive d’image par commande visuelle »
  • Visioland : « Atterrissage basé vision d'un avion de ligne »