Bonjour,
Vous êtes tous cordialement invités à assister au séminaire qui aura lieu le mercredi 9 mai 2007 à 14 heures en salle IP 11 (KB).
----------------------------------------------------------------------- Le programme :
*MARKOV & VERIFICATION DU LOCUTEUR*
http://www.lrde.epita.fr/cgi-bin/twiki/view/Publications/Seminar-2007-05-09
MARKOV 14h00 : Validation des performances d'un algorithme d'apprentissage -- Johan Oudinet 14h30 : Génération de texte en langage naturel -- Jean-Philippe Garcia-Ballester 15h00 : Apprentissage pour la vérification -- Nicolas Neri
VERIFICATION DU LOCUTEUR 15h45 : De nouveaux outils pour la vérification du locuteur -- Julien Ramakichenin 16h15 : Adaptation client pour la vérification du locuteur -- Charles Melin 17h00 : Vérification du locuteur: approches sélectives -- Geoffroy Querol 17h30 : Compensation de canal par Factor Analysis-- Charles-Alban Deledalle 18h00 : Comparaison entre l'utilisation du noyau linéaire et non linéaire pour les systèmes de vérification du locuteur fondés sur les méthodes SVM -- Reda Dehak
-----------------------------------------------------------------------
Les Résumés des exposés : **************************
Markov
Validation des performances d'un algorithme d'apprentissage -- Johan Oudinet
En apprentissage supervisé, les chercheurs n'ont que peu de données pour évaluer les performances de leurs algorithmes d'apprentissage. Ils doivent donc utiliser des heuristiques de test. Mais ces heuristiques, comme leur nom l'indique, peuvent faire des erreurs. Nous évaluerons deux types d'erreurs que ces heuristiques sont susceptibles de commettre : le test trouve qu'il y a une différence significative entre deux algorithmes alors que ce n'est pas le cas (Type I), ou au contraire, le test ne détecte pas la différence existante entre deux algorithmes d'apprentissage (Type II).
Nous commencerons par exposer les différentes sources de variabilité qui peuvent induire en erreur une méthode de test, puis nous étudierons en détail les performances de différentes heuristiques de test, dans l'objectif de trouver la méthode que devrait utiliser les chercheurs pour valider avec certitude les performances de leurs algorithmes.
Génération de texte en langage naturel -- Jean-Philippe Garcia-Ballester
Le domaine du traitement du langage naturel est un domaine à la frontière de la linguistique et de l'informatique, et il existe ainsi deux approches à ce problème : les approches basées sur des règles (liée aux propriétés du langage, comme la grammaire), donc plutôt orientées linguistique, et des approches probabilistes, basées sur des modèles mathématiques, donc plutôt orientées informatique. Le but de cette présentation est de présenter les méthodes de génération de texte. Bien que toutes les méthodes existantes utilisent à la fois des approches linguistiques et probabilistes, nous ne présenterons que les méthodes majoritairement probabilistes. Nous commencerons par exposer les différentes méthodes, puis nous les comparerons, d'abord suivant les domaines dans lesquels les algorithmes sont adaptés ou non, puis suivant l'occupation mémoire et le temps CPU.
Apprentissage pour la vérification -- Nicolas Neri
APMC est un outil distribué de vérification de systèmes probabilistes. Dans APMC, il existe une étape de modélisation de système. Cette étape est longue en temps et très coûteuse en espace mémoire car celle-ci est réalisé à la main. En effet il est possible de devoir vérifier des systèmes ayant plus de 1099 états ce qui nécessiterait un temps considérable. En ces termes un apprentissage du système peut être utile pour éviter cette lourde étape. Nous nous intéresserons donc au problème de l'apprentissage pour la vérification en étudiant les différents modèles d'apprentissage et leurs domaines de définition.
Vérification du locuteur
De nouveaux outils pour la vérification du locuteur -- Julien Ramakichenin
L'état de l'art des systèmes de vérification du locuteur utilise des mélanges de gaussiennes (GMM). Ces modèles sont utilisés pour représenter le modèle du monde (UBM) à partir duquel sont construits les modèles des locuteurs. Ces modèles probabilistes représentent la distribution des vecteurs acoustiques extraits du signal de parole.
Nous avons développé un ensemble d'outils pour la manipulation et l'exploitation de ces types de modèles. Étant donné la quantité de données à traiter, l'optimisation faisait partie des objectifs principaux. Nous présenterons cet ensemble d'outils ainsi que les améliorations apportées par rapport aux systèmes existants.
Adaptation client pour la vérification du locuteur -- Charles Melin
La vérification du locuteur repose initialement sur l'apprentissage d'un modèle du monde (UBM). Ce modèle subit ensuite des transformations dites d'adaptation qui ont été largement étudiées depuis 1997. D'un point de vue général, il existe 2 types de techniques : celles de lissage et celles d'estimation. Les techniques de lissage visent à combler l'information manquante dans l'ensemble des observations disponibles (absence de phonèmes) pour un locuteur cible. Les techniques d'estimation utilisent d'autres paramètres. Elles sont généralement plus complexes et non-convergentes mais nécessitent moins de données d'adaptation. Notre objectif est donc d'intégrer ces différentes techniques de façon optimisée à nos outils. En particulier, la technique MAP considérée comme une référence dans le domaine, sera ajoutée en priorité. Il sera alors possible d'effectuer des comparaisons entre ces techniques.
Vérification du locuteur: approches sélectives -- Geoffroy Querol
L'état de l'art en vérification automatique du locuteur propose d'utiliser une modélisation probabiliste (GMM) de la distribution des paramètres acoustiques du signal de la parole. Nous avons exploré la possibilité d'extraire seulement certains des paramètres de ces modèles afin de discriminer les locuteurs dans ce nouvel espace. Je présenterai deux approches différentes basées sur l'extraction des informations acoustiques réagissant le plus fréquemment pour les modèles GMM.
La fusion des résultats de plusieurs systèmes joue un rôle prépondérant sur les performances d'un système global. Je présenterai une comparaison des méthodes utilisées dans le but d'obtenir une fusion optimale.
Compensation de canal par Factor Analysis-- Charles-Alban Deledalle
Dans le cadre de la vérification du locuteur, le LRDE participe depuis 2 ans aux évaluations de reconnaissance du locuteur organisées par le NIST. Le NIST fournit une vaste base d'enregistrement audio, une partie est destineé à l'entraînement du système et l'autre aux tests. Cette année, ces deux bases sont réalisées sur des canaux différents : téléphone pour l'entraînement et microphone pour les tests. Pour pallier cette difficulté, l'information provenant du canal doit être retirée du signal. Parmi différentes techniques de compensation de canal, je vous présenterai une méthode prometteuse à base de Factor Analysis que j'étudie et développe en ce moment au laboratoire.
Comparaison entre l'utilisation du noyau linéaire et non linéaire pour les systèmes de vérification du locuteur fondés sur les méthodes SVM -- Reda Dehak
Je présenterai les résultats d'une comparaison entre l'utilisation d'une fonction noyau linéaire et une fonction noyau non linéaire dans le cas des systèmes de vérification du locuteur fondés sur les méthodes SVM. Ces deux noyaux sont construits à partir d'une distance définie dans l'espace des paramètres GMM. Je présenterai le lien existant entre ces deux fonctions noyaux et comment exploiter les résultats des méthodes de compensation du canal (NAP) dans les deux cas.
On a démontré l'importance de la normalisation des paramètres des modèles GMM dans le cas de la fonction noyau non linéaire. Toutes nos expérimentations ont été conduites sur la base d'évaluation NIST-SRE 2006 core condition (all trial). Le meilleur score (un EER de 6.3% est obtenu avec un noyau non linéaire sur des GMMs normalisés.