Bonjour,
Vous êtes tous cordialement invités à assister au séminaire qui aura
lieu le mercredi 9 mai 2007 à 14 heures en salle IP 11 (KB).
-----------------------------------------------------------------------
Le programme :
*MARKOV & VERIFICATION DU LOCUTEUR*
http://www.lrde.epita.fr/cgi-bin/twiki/view/Publications/Seminar-2007-05-09
MARKOV
14h00 : Validation des performances d'un algorithme d'apprentissage --
Johan Oudinet
14h30 : Génération de texte en langage naturel -- Jean-Philippe
Garcia-Ballester
15h00 : Apprentissage pour la vérification -- Nicolas Neri
VERIFICATION DU LOCUTEUR
15h45 : De nouveaux outils pour la vérification du locuteur -- Julien
Ramakichenin
16h15 : Adaptation client pour la vérification du locuteur -- Charles Melin
17h00 : Vérification du locuteur: approches sélectives -- Geoffroy Querol
17h30 : Compensation de canal par Factor Analysis-- Charles-Alban Deledalle
18h00 : Comparaison entre l'utilisation du noyau linéaire et non
linéaire pour les systèmes de vérification du locuteur fondés sur les
méthodes SVM -- Reda Dehak
-----------------------------------------------------------------------
Les Résumés des exposés :
**************************
Markov
Validation des performances d'un algorithme d'apprentissage -- Johan Oudinet
En apprentissage supervisé, les chercheurs n'ont que peu de données pour
évaluer les performances de leurs algorithmes d'apprentissage. Ils
doivent donc utiliser des heuristiques de test. Mais ces heuristiques,
comme leur nom l'indique, peuvent faire des erreurs. Nous évaluerons
deux types d'erreurs que ces heuristiques sont susceptibles de commettre
: le test trouve qu'il y a une différence significative entre deux
algorithmes alors que ce n'est pas le cas (Type I), ou au contraire, le
test ne détecte pas la différence existante entre deux algorithmes
d'apprentissage (Type II).
Nous commencerons par exposer les différentes sources de variabilité qui
peuvent induire en erreur une méthode de test, puis nous étudierons en
détail les performances de différentes heuristiques de test, dans
l'objectif de trouver la méthode que devrait utiliser les chercheurs
pour valider avec certitude les performances de leurs algorithmes.
Génération de texte en langage naturel -- Jean-Philippe Garcia-Ballester
Le domaine du traitement du langage naturel est un domaine à la
frontière de la linguistique et de l'informatique, et il existe ainsi
deux approches à ce problème : les approches basées sur des règles (liée
aux propriétés du langage, comme la grammaire), donc plutôt orientées
linguistique, et des approches probabilistes, basées sur des modèles
mathématiques, donc plutôt orientées informatique. Le but de cette
présentation est de présenter les méthodes de génération de texte. Bien
que toutes les méthodes existantes utilisent à la fois des approches
linguistiques et probabilistes, nous ne présenterons que les méthodes
majoritairement probabilistes. Nous commencerons par exposer les
différentes méthodes, puis nous les comparerons, d'abord suivant les
domaines dans lesquels les algorithmes sont adaptés ou non, puis suivant
l'occupation mémoire et le temps CPU.
Apprentissage pour la vérification -- Nicolas Neri
APMC est un outil distribué de vérification de systèmes probabilistes.
Dans APMC, il existe une étape de modélisation de système. Cette étape
est longue en temps et très coûteuse en espace mémoire car celle-ci est
réalisé à la main. En effet il est possible de devoir vérifier des
systèmes ayant plus de 1099 états ce qui nécessiterait un temps
considérable. En ces termes un apprentissage du système peut être utile
pour éviter cette lourde étape. Nous nous intéresserons donc au problème
de l'apprentissage pour la vérification en étudiant les différents
modèles d'apprentissage et leurs domaines de définition.
Vérification du locuteur
De nouveaux outils pour la vérification du locuteur -- Julien Ramakichenin
L'état de l'art des systèmes de vérification du locuteur utilise des
mélanges de gaussiennes (GMM). Ces modèles sont utilisés pour
représenter le modèle du monde (UBM) à partir duquel sont construits les
modèles des locuteurs. Ces modèles probabilistes représentent la
distribution des vecteurs acoustiques extraits du signal de parole.
Nous avons développé un ensemble d'outils pour la manipulation et
l'exploitation de ces types de modèles. Étant donné la quantité de
données à traiter, l'optimisation faisait partie des objectifs
principaux. Nous présenterons cet ensemble d'outils ainsi que les
améliorations apportées par rapport aux systèmes existants.
Adaptation client pour la vérification du locuteur -- Charles Melin
La vérification du locuteur repose initialement sur l'apprentissage d'un
modèle du monde (UBM). Ce modèle subit ensuite des transformations dites
d'adaptation qui ont été largement étudiées depuis 1997. D'un point de
vue général, il existe 2 types de techniques : celles de lissage et
celles d'estimation. Les techniques de lissage visent à combler
l'information manquante dans l'ensemble des observations disponibles
(absence de phonèmes) pour un locuteur cible. Les techniques
d'estimation utilisent d'autres paramètres. Elles sont généralement plus
complexes et non-convergentes mais nécessitent moins de données
d'adaptation. Notre objectif est donc d'intégrer ces différentes
techniques de façon optimisée à nos outils. En particulier, la technique
MAP considérée comme une référence dans le domaine, sera ajoutée en
priorité. Il sera alors possible d'effectuer des comparaisons entre ces
techniques.
Vérification du locuteur: approches sélectives -- Geoffroy Querol
L'état de l'art en vérification automatique du locuteur propose
d'utiliser une modélisation probabiliste (GMM) de la distribution des
paramètres acoustiques du signal de la parole. Nous avons exploré la
possibilité d'extraire seulement certains des paramètres de ces modèles
afin de discriminer les locuteurs dans ce nouvel espace. Je présenterai
deux approches différentes basées sur l'extraction des informations
acoustiques réagissant le plus fréquemment pour les modèles GMM.
La fusion des résultats de plusieurs systèmes joue un rôle prépondérant
sur les performances d'un système global. Je présenterai une comparaison
des méthodes utilisées dans le but d'obtenir une fusion optimale.
Compensation de canal par Factor Analysis-- Charles-Alban Deledalle
Dans le cadre de la vérification du locuteur, le LRDE participe depuis 2
ans aux évaluations de reconnaissance du locuteur organisées par le
NIST. Le NIST fournit une vaste base d'enregistrement audio, une partie
est destineé à l'entraînement du système et l'autre aux tests. Cette
année, ces deux bases sont réalisées sur des canaux différents :
téléphone pour l'entraînement et microphone pour les tests. Pour pallier
cette difficulté, l'information provenant du canal doit être retirée du
signal. Parmi différentes techniques de compensation de canal, je vous
présenterai une méthode prometteuse à base de Factor Analysis que
j'étudie et développe en ce moment au laboratoire.
Comparaison entre l'utilisation du noyau linéaire et non linéaire pour
les systèmes de vérification du locuteur fondés sur les méthodes SVM --
Reda Dehak
Je présenterai les résultats d'une comparaison entre l'utilisation d'une
fonction noyau linéaire et une fonction noyau non linéaire dans le cas
des systèmes de vérification du locuteur fondés sur les méthodes SVM.
Ces deux noyaux sont construits à partir d'une distance définie dans
l'espace des paramètres GMM. Je présenterai le lien existant entre ces
deux fonctions noyaux et comment exploiter les résultats des méthodes de
compensation du canal (NAP) dans les deux cas.
On a démontré l'importance de la normalisation des paramètres des
modèles GMM dans le cas de la fonction noyau non linéaire. Toutes nos
expérimentations ont été conduites sur la base d'évaluation NIST-SRE
2006 core condition (all trial). Le meilleur score (un EER de 6.3% est
obtenu avec un noyau non linéaire sur des GMMs normalisés.
--
Daniela Becker
Responsable administrative du LRDE