
Bonjour, nous avons le plaisir de vous inviter au séminaire des étudiants du LRDE. Il aura lieu le mercredi 11 juillet 2012 à partir de 9h30 en Amphi 3 (KB). ----------------------------------------------------------------------- Au programme : *SPOT, VERIFICATION DU LOCUTEUR, CLIMB, VAUCANSON, OLENA* http://publis.lrde.epita.fr/Seminar-2012-07-11 SPOT * 9h30 : Méthodes de réduction par ordre partiel dans Spot -- Pierre Parutto * 10h00 : Réduction par simulation directe pour les TGBA -- Thomas Badie VERIFICATION DU LOCUTEUR * 10h30 : Séparation de locuteur -- Victor Lenoir 11h - 11h15 : PAUSE * 11h15 : Modèles de mélanges de gaussiennes fondés sur des matrices de covariance pleines -- Benjamin Roux CLIMB * 11h45 : Optimisation en Common Lisp et son application à Climb -- François Ripault * 12h15 : Construction d’une interface pour et avec Climb -- Laurent Senta * 12h45 - 14h00 : PAUSE DEJEUNER VAUCANSON * 14h00 : Vers Vaucanson 2.0 -- David Moreira OLENA * 14h30 : Approche parallèle pour le calcul de l'arbre des formes en n-dimensions -- Sébastien Crozet * 15h00 : Extraction de texte avec des ondelettes -- Raphael Boissel * 15h30 - 15h45 : PAUSE * 15h45 : Améliorer Horn-Schunck -- Sylvain Lobry * 16h15 : Inpainting rapide préservant la structure -- Coddy Levi Les Résumés des exposés : ************************** SPOT * 9h30 : Méthodes de réduction par ordre partiel dans Spot -- Pierre Parutto Spot est une bibliothèque de model checking implémentant une approche par automates. Pour le moment les algorithmes de vérification de propriétés dans Spot utilisent l’espace d’états sans réduction du système. Ils souffrent donc de l’explosion combinatoire de la taille de ce dernier. Une manière de résoudre ce problème est d’utiliser des méthodes de réduction par ordre partiel. Ces méthodes permettent d’ignorer certains comportements équivalents du système pour une certaine propriété. Ainsi il est possible de réduire la taille de l’espace d’états généré tout en conservant le même comportement général. Le but de ce travail est d’évaluer comment ces méthodes d’ordre partiel peuvent être intégrées dans Spot. * 10h00 : Réduction par simulation directe pour les TGBA -- Thomas Badie L’approche par automates du model checking s’appuie traditionnellement sur des Automates de Büchi (BA) qu’on souhaite les plus petits possible. Etessami et al. ont présenté une méthode de réduction d’un BA basée sur une relation de simulation (dite directe) entre ses états. Spot, bibliothèque de model checking, utilise principalement des TGBA qui généralisent les BA. Nous montrons qu’en adaptant cette simulation aux TGBA on obtient des automates plus concis que les BA équivalents. Cette nouvelle technique est incluse dans Spot 0.9 et a permis de produire des automates plus petits que dans les précédentes versions. VERIFICATION DU LOCUTEUR * 10h30 : Séparation de locuteur -- Victor Lenoir La séparation de locuteur et la détection de voix jouent un important rôle dans les systèmes de reconnaissance du locuteur, principalement dans le cas d’un signal à plusieurs locuteurs. Nous allons présenter une méthode de séparation de locuteur basée sur des méthodes variationnelles et sur les speaker factors tel que décrite dans l’état de l’art de systèmes de reconnaissance du locuteur. Afin de tester les performances de cette méthode un ensemble de tests sera effectué sur les données interview de NIST-SRE 2010. 11h - 11h15 : PAUSE * 11h15 : Modèles de mélanges de gaussiennes fondés sur des matrices de covariance pleines -- Benjamin Roux Le modèle du monde représenté par les mélanges de gaussiennes (UBM - GMM) est l’approche état de l’art pour les systèmes de vérification du locuteur. On utilise généralement des matrices de covariance diagonale. Cette simplification permet d’avoir un apprentissage rapide des différents modèles. Nous allons explorer le cas des matrices de covariance pleines. On va présenter la complexité additionelle et les gains en termes de performances. Toutes les expériences seront menées sur des données issues de NIST-SRE 2010. CLIMB * 11h45 : Optimisation en Common Lisp et son application à Climb -- François Ripault Common Lisp est un langage de programmation dynamique. Bien qu’il ne soit pas a priori axé sur la performance, il s’avère que le langage offre certaines fonctionnalités liées à l’optimisation. Cependant, le gain en performance a un impact sur la généricité du code, l’optimisation limitant celle-ci. Climb est une bibliothèque de traitement d’image écrite dans ce langage, ayant pour objectif de se comparer à des équivalents écrits dans des langages statiques tels que C++. L’objectif est de profiter de la généricité qu’offre Common Lisp pour l’écriture d’une bibliothèque de traitement d’image. Mais une telle bibliothèque a également des contraintes de performance, il s’agit donc de trouver un terrain d’entente entre ces deux aspects. Nous présenterons les différentes fonctionnalités qu’offre Common Lisp pour optimiser un programme, et leur utilisation dans Climb pour rendre la bibliothèque plus rapide, sans pour autant diminuer sa généricité. Nous présenterons également les premiers résultats du travail d’optimisation dans Climb, le travail restant et les apports de l’utilisation de Common Lisp pour une telle tâche. * 12h15 : Construction d’une interface pour et avec Climb -- Laurent Senta Climb est une bibliothèque de traitement d’image générique. Encore à l’état de prototype, Climb fournit déjà un certain nombre d’outils comme les morphers et l’opérateur $ qui permettent de simplifier la définition de chaînes d’algorithmes. Afin de prolonger cet aspect, une interface graphique a été développée. Celle-ci permet de construire des chaînes de traitement d’image sans connaissance en programmation, tout en offrant un retour à la fois visuel et interactif. Notre approche utilise les algorithmes et outils définis dans la bibliothèque pour construire la logique interne de l’application ainsi que ses différents aspects interactifs. La généricité étant l’une des caractéristiques principales de Climb, nous avons été capables d’étendre son champ d’application au-delà du traitement d’image et ainsi montrer qu’elle peut être utilisée dans des situations différentes telles que la construction d’une interface graphique. * 12h45 - 14h00 : PAUSE DEJEUNER VAUCANSON * 14h00 : Vers Vaucanson 2.0 -- David Moreira Vaucanson est une plate-forme de manipulation d’automates et de transducteurs dont l’interface et le développement se sont montrés complexes et inefficaces. Des travaux de spécifications et de design ont été effectués afin d’avoir un coeur efficace en terme de développement et de vitesse. Cette version 2.0 de Vaucanson est actuellement en développement. Ce rapport présente la version 2.0 de Vaucanson et son utilisation par le portage de deux algorithmes : l’évaluation d’un mot par un automate et la déterminisation d’automates. Dans une seconde partie, nous montrerons si Vaucanson 2.0 tient ses promesses en termes de vitesse d’exécution. OLENA * 14h30 : Approche parallèle pour le calcul de l'arbre des formes en n-dimensions -- Sébastien Crozet L’arbre des formes est une transformée d’image utile pour effectuer des traitements sur des images discrètes de façon auto-duale. Un algorithme (non publié), travaillant sur des images n-dimensionnelles dans l’espace des complexes cellulaires, nous permet déjà de construire un arbre des formes en temps quasi-linéaire. Cependant, cet algorithme reste souvent largement plus lent que d’autres approches en temps (n log(n)) sur des images naturelles en 2D ou 3D, le nombre de cellules à traiter dans l’espace des complexes étant très élevé. En vue d’améliorer ces temps de calculs, nous présentons une approche pour paralléliser l’algorithme de calcul d’arbre quasi-linéaire en exhibant des propriétés topologiques et algorithmiques qui ne peuvent être facilement obtenues par les autres approches existantes. * 15h00 : Extraction de texte avec des ondelettes -- Raphael Boissel Nous allons présenter une méthode permettant de différencier le texte du non-texte dans une image en utilisant des descripteurs inspirés des algorithmes de compression de données. L’objectif principal de cette approche est de calculer un signal qui va permettre à des systèmes d’apprentissage supervisés (comme des kppv ou des machines à vecteurs de support) de classifier le texte et le fond d’une image. Afin de calculer ce signal, nous utiliserons des méthodes à base d’ondelettes similaires à celles utilisées dans les formats de compression jpeg ou png. Nous allons également étudier quelles ondelettes produisent les meilleurs résultats, avec quel système d’apprentissage et comparer cela avec d’autres descripteurs, qui ne sont pas à base d’ondelettes. Enfin, nous verrons comment il est possible de diminuer le temps de calcul nécessaire pour ces descripteurs en utilisant l’élévation en ondelette et des méthodes optimisées pour calculer l’image polaire. * 15h30 - 15h45 : PAUSE * 15h45 : Améliorer Horn-Schunck -- Sylvain Lobry Calculer le flux optique a de nombreuses applications telles que l’estimation de mouvement ou un premier pas vers l’inpainting vidéo. L’équation du flux optique ne peut pas être résolue telle quelle à cause du problème de fenêtrage (deux inconnues pour une seule équation). Un ensemble d’algorithme essaie de résoudre cette équation en se basant sur une stratégie globale, c’est-à-dire en essayant d’avoir des petites variations dans le flux. Le premier d’entre eux est l’algorithme d’Horn- Schunck. Celui-ci, même s’il marche dans de nombreux cas, a plusieurs inconvénients, y compris celui d’être lent et de ne pas pouvoir trouver les grands déplacements. Dans le but de résoudre ces problèmes, plusieurs stratégies ont été développées. Nous présenterons la méthode et analyserons les bénéfices apportés en appliquant une stratégie multi-échelle à l’algorithme d’Horn-Schunck. * 16h15 : Inpainting rapide préservant la structure -- Coddy Levi L’inpainting consiste à réparer des parties d’une image de façon visuellement plausible. Son but peut être de réparer des régions endommagées, ou de supprimer des objets tels que du texte superposé à une vidéo. De nombreuses approches ont été proposées pour répondre au problème dans le cas de petites ou de larges régions. Cependant la plupart d’entre elles ne sont pas adaptées à des applications en temps réel. Nous proposons une méthode plus simple basée sur la reconstruction de structure et la diffusion des couleurs afin de répondre au problème dans une optique de temps réel. -- Daniela Becker Responsable administrative du LRDE