TECHNOFERENCE : Nouvelles expériences son et vidéo (visioconférence)

Date : Jeudi 06 Octobre 2016 à 9h00
Lieu : La cité de l’objet connecté, 7 rue du Bon Puits, 49480, Saint Sylvain d’Anjou
Organisé par : Pôle Images & Réseaux

La Technoférence « Nouvelles expériences son et vidéo » aura lieu le jeudi 6 octobre de 8h30 à 12h30 au centre INRIA de Rennes (et à partir de 9h en visioconférence à Nantes, Brest, Lannion, Vannes et Angers).

Introduction Marchés :
– Nouveaux services TV, les perspectives (Yves DAVOT, TF1)
– ATSC3.0 pour les nuls (Gérard FARIA, Teamcast Technology)

I. Nouveaux services en vidéo professionelle
– Mesure automatique de la qualité perçue et applications (Gerardo RUBINO, Directeur de recherche INRIA, responsable de l’équipe Dionysos de l’INRIA Rennes -Bretagne Atlantique)
Dans les applications et services centrées sur la transmission de contenu audio (par exemple, téléphonie IP) ou vidéo (par exemple, distributeurs de contenu vidéo), l’objectif final est celui de fournir la meilleure qualité possible telle que l’utilisateur la perçoit, un concept éminemment subjectif. Dans la présentation, nous décrirons une technologie capable de mesurer automatiquement cette qualité perceptuelle, et quelques unes de ses possibles utilisations industrielles.
– La vidéo d’entreprise démocratisée (Nicolas LEGALL, Développeur chez My MovieUP )
La vidéo est un outil indispensable pour toutes les organisations. Or, la création vidéo est complexe, coûteuse et peu flexible. My movie UP a donc développé une solution accessible en ligne, pour démocratiser la création vidéo. Concrètement, de la prise de vue à la diffusion la vidéo sur www.my-movieup.com est un jeu d’enfant.

II. Le son 3D
– La perception sonore à l’Université de Bretagne Occidentale (Mathieu PAQUIER, Professeur à l’UBO, membre de l’équipe IHSEV-thème Perception Sonore du Lab-STICC CNRS UMR 6285, responsable du Master Image & Son de l’UBO)
L’équipe SON du Lab-STICC étudie la perception sonore, notamment la perception de l’espace. Ce domaine possède une partie fondamentale (utilisation des indices interauraux et monauraux, sonie, démasquage) et une partie appliquée (liée aux procédés de restitution sonore spatialisée, notamment le son 3D, lié ou non à une image).
– L’audio 3D pour la réalité virtuelle (Xavier BONJOUR, Président)
Présentation des enjeux liés à l’audio dans la réalité virtuelle et augmentée et des projets R&D de 3D Sound Labs.

III. Vidéo du futur
– Amélioration de la qualité d’expérience vidéo grâce au format UHD-TV phase 2 (Marilyne CLARE, Research Project Leader et Mickael RAULET, Advanced Research Manager)
L’UHD-TV phase 2 et notamment les technologies HDR (High Dynamic Range) et HFR (High Frame Rate) permettent d’apporter une réelle  nouvelle qualité d’expérience en télévision, en améliorant contrastes, couleurs, détails et mouvements. La présentation rappellera les bases de ces technologies, indiquera les résultats des tests subjectifs menés par le projet collaboratif 4EVER-2, parlera des impacts techniques sur la transmission de la télévision et indiquera les travaux prévus par 4EVER-2 d’ici fin 2017.
– La technologie light field et ses cas d’usage (Didier DOYEN, Chef de projet)
Des systèmes d’acquisition tels que les caméras « plenoptic » ou les rig de cameras permettent de capturer le light field. Mais l’utilisation de ces nouveaux contenus nécessite une adaptation de la chaine de l’image. Cette présentation introduit le concept de contenu light field, décrit des cas d’usage exploitant ces contenus et montre l’impact sur les workflows actuels.

+ d’infos & inscriptions

Mots-clés : Audiovisuel / cinéma

Publié le : 16 septembre 2016 Laisser un commentaire

Laisser un commentaire

XHTML: Vous pouvez utlisez ces balises : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>