L'objectif de ce thème est d'apporter des solutions aux besoins de composition de documents multimédia [3], [4]. En effet, la nature dynamique des objets manipulés, tels que la vidéo et l'audio, ainsi que la définition de leur ordonnancement temporel (le scénario) rendent plus complexe la réalisation d'outils auteur. En s'appuyant sur des techniques de résolution de contraintes [6], nous avons proposé de nouvelles interfaces adaptées à ce type d'environnement [21] ainsi que de nouvelles fonctions de manipulation pour les auteurs [8]. Nous avons cherché à identifier les composants du logiciel qui sont indépendants du format source pour les offrir sous forme d'une boîte à outils appelée Kaomi [7]. Ce travail a été mené par Laurent Tardif dans le cadre de sa thèse (1997-2000) que j'ai co-encadrée avec M. Jourdan. Les résultats de ces travaux se sont concrétisés sous forme de prototypes [22] réalisés dans le cadre de plusieurs collaborations industrielles (cf. section 2 ci-dessous). J'ai également obtenu pour l'année 2001 un support financier de l'Inria pour assurer le développement par un ingénieur d'un éditeur du langage SMIL (Synchronised Multimédia Integration Language) du W3C. Comme cet outil, appelé LimSee, suscite l'intérêt de nombreux partenaires, un nouveau financement vient d'être obtenu pour 2002-2003 pour en continuer le développement.
Plus récemment, nous avons étendu le modèle de composition multimédia pour les médias complexes comme la vidéo [30]. Ce modèle ([15], [19]) permet non seulement de décrire les segments constituant une vidéo (plans, scènes) mais aussi des objets (comme des véhicules ou des personnages) dans le flot d'images vidéo. Ainsi, à ces objets internes à la vidéo peuvent être associés des comportements (hyperliens) ou des relations spatiales ou temporelles avec d'autres objets du document [15] de façon à obtenir des présentations multimédia plus riches grâce à une synchronisation plus fine entre médias. C'est l'objet du travail de thèse (1999-2002) de Tien Tran-Thuong que j'encadre : il a spécifié un modèle de décomposition de média (en adaptant une partie des spécifications de MPEG7) et proposé le concept de sous-élément pour exploiter ces descriptions de média dans le modèle de composition de média [14] ; il développe également le prototype Video-Madeus qui permet l'édition de la structure interne de média complexes comme la vidéo et l'intégration de fragments de média structurés au sein de documents multimédia.