Bonjour,
Vous êtes tous cordialement invités à assister au séminaire qui aura
lieu le mercredi 16 mai 2007 à 14 heures en Amphi 2 (KB).
-----------------------------------------------------------------------
Le programme :
*Olena, Transformers et DD*
http://www.lrde.epita.fr/cgi-bin/twiki/view/Publications/Seminar-2007-05-16
OLENA
14h00 : Une bibliothèque de conteneurs en C++ via SCOOP -- Thomas Moulard
DD
14h30 : Diagrammes de décision à valeurs supprimées -- Samuel Charron
TRANSFORMERS
15h00 : Préprocesseur C/C++ reversible -- Quentin Hocquet
15h45 : Définition formelle de la Désambiguïsation avec des Grammaires
Attribuées -- Nicolas Pierron
16h15 : Désambiguïsation guidée par la sémantique -- Renaud Durlin
16h45 : Centaur : Une infrastructure pour la transformation de C ++ --
Benoit Sigoure
-----------------------------------------------------------------------
Les Résumés des exposés :
**************************
OLENA
Une bibliothèque de conteneurs en C++ via SCOOP -- Thomas Moulard
SCOOP est le paradigme de programmation utilisé par Olena. Il permets
l'expression de mécanismes utiles qui ne sont pas directement
disponibles dans le C++ actuel tels que les concepts, les types virtuels
ou bien les where-clauses. Ce paradigme présente également l'avantage
d'être très rapide et sur car l'ensemble des vérifications sont
réalisées à la compilation. Ces outils peuvent également être utilisés
dans d'autres contextes tels que la réécriture de la bibliothèque de
conteneurs du C++ comme nous le verrons ici.
Cette présentation se déroulera en trois parties. Tout d'abord, un tour
d'horizon rapide du paradigme sera réalisé. Puis, on expliquera comment
implémenter une hiérarchie SCOOP via les outils fournis par les
bibliothèques d'Olena. Enfin, la nouvelle bibliothèque de conteneurs
sera présentée, ainsi que les nouvelles possibilités offertes par
rapport à la bibliothèque traditionnelle. En particulier, celle-ci
permets l'écriture de morphers pouvant effectuer des transformations sur
les types de conteneurs.
DD
Diagrammes de décision à valeurs supprimées -- Samuel Charron
Les diagrammes de décision sont des structures permettant de représenter
de grands ensembles de données. Le partage de données communes aux
éléments de l'ensemble permet une grande compacité en mémoire.
Différentes techniques ont déjà été proposées pour certaines familles de
diagrammes de décisions afin de réduire encore l'utilisation mémoire.
L'une d'elles, la réduction, existe dans le domaine des Diagrammes de
Décision Binaires (BDD).
En appliquant cette technique aux Diagrammes de Décisions de Données
(DDD), nous espérons un gain de mémoire. Cependant, la définition de la
réduction doit être adaptée aux DDD et SDD (Set Decision Diagrams) afin
de conserver leurs propriétés. De même la manipulation usuelle des DDD
doit être adaptée pour tenir compte de la réduction.
Durant la présentation, nous verrons comment nous avons réalisé
l'adaptation de la réduction des BDD aux DDD. Puis à travers une
implémentation générique des diagrammes de décision, nous montrerons les
abstractions réalisées afin de pouvoir utiliser de manière générique
cette technique aussi bien pour les BDD, que pour les DDD et SDD.
TRANSFORMERS
Préprocesseur C/C++ reversible -- Quentin Hocquet
La transformation de programme C++ présente une difficulté
supplémentaire par rapport à la plupart des autres langages: la phase de
preprocessing. Il s’agit d’une étape complexe, dans la mesure où elle
n’a absolument pas été pensée pour être inversible. Pourtant
l’utilisateur d’un système de transformation de C++ souhaite retrouver
son code d’origine, avec les directives de compilation et la mise en
page initiale.
Ce séminaire présentera les techniques utilisées pour rendre le
processus réversible et pour créer sa réciproque.
Définition formelle de la Désambiguïsation avec des Grammaires
Attribuées -- Nicolas Pierron
Le problème actuel de la désambiguïsation dans Transformers avec des
grammaires attribuées est que l'on ne possède pas de preuve permettant
de certifier cette approche. L'usage actuel des grammaires attribuées
pour la désambiguïsation du C et d'une partie du C++ laisse à penser que
cette méthode est correcte.
Afin de supprimer tout doute, une définition et une formalisation de
notre approche est nécessaire. Ce travail comporte deux volets. La
première partie porte sur la preuve de la validité de l'approche
utilisée dans Transformers. La seconde partie est consacrée à la
correction et au re-développement des outils existants afin de
correspondre au modèle défini.
Désambiguïsation guidée par la sémantique -- Renaud Durlin
Une approche élégante pour gérer les grammaires ambiguës consiste à
utiliser un parseur LR généralisé qui produira non pas un arbre mais une
forêt de parse. Une étape supplémentaire, appelée désambiguisation,
survenant juste après le parsing, est alors nécessaire. Celle-ci
consiste à analyser cette forêt pour obtenir l'unique arbre valide
correspondant à l'entrée en prenant en compte les règles de sémantiques
contextuelles.
C'est cette approche qui a été retenue dans Transformers avec le
formalisme des grammaires attribuées. Le travail effectué présentera une
comparaison entre ce formalisme et deux autres techniques de
désambiguisation : la première à l'aide d'ASF+SDF et la deuxième à
l'aide du langage Stratego.
Le but de cette comparaison sera double : montrer que les grammaires
attribuées sont parfaitement adaptées à ce problème et exhiber les
faiblesses de celles-ci par rapport aux deux autres méthodes en vue
d'une amélioration possible du système utilisé dans Transformers.
Centaur : Une infrastructure pour la transformation de C ++ -- Benoit
Sigoure
Transformers a choisi de suivre la grammaire du standard pour ses
parseurs de C et C++. Ces grammaires ayant été conçues pour des parseurs
LALR, elles sont relativement difficiles à manipuler lorsqu'il s'agit
d'écrire des transformations ou faire de l'analyse statique. Le but de
Centaur est de fournir aux utilisateurs de Transformers une bibliothèque
de fonctions permettant de manipuler aisément du code C++. Elle
permettra d'accéder simplement aux informations disponibles dans l'AST
et ses annotations (pour répondre à des requêtes telles que: lister les
éléments d'un namespace, rechercher des méthodes dans une class en
fonction de plusieurs critères, lister les class parentes d'une class, etc.)
--
Daniela Becker
Bonjour,
nous avons le plaisir de vous présenter le n°9 du bulletin du LRDE.
C'est un numéro spécial consacré aux quatre sessions du séminaire CSI en
mai et juin avec les résumés de toutes les présentations des étudiants.
Dates de séminaire à retenir : les 9, 16 et 23 mai, puis le 6 juin.
Vous pouvez télécharger le bulletin en couleur à la page suivante:
http://publis.lrde.epita.fr/200705-l-air-de-rien-9
--
Daniela Becker
Bonjour,
Vous êtes tous cordialement invités à assister au séminaire qui aura
lieu le mercredi 9 mai 2007 à 14 heures en salle IP 11 (KB).
-----------------------------------------------------------------------
Le programme :
*MARKOV & VERIFICATION DU LOCUTEUR*
http://www.lrde.epita.fr/cgi-bin/twiki/view/Publications/Seminar-2007-05-09
MARKOV
14h00 : Validation des performances d'un algorithme d'apprentissage --
Johan Oudinet
14h30 : Génération de texte en langage naturel -- Jean-Philippe
Garcia-Ballester
15h00 : Apprentissage pour la vérification -- Nicolas Neri
VERIFICATION DU LOCUTEUR
15h45 : De nouveaux outils pour la vérification du locuteur -- Julien
Ramakichenin
16h15 : Adaptation client pour la vérification du locuteur -- Charles Melin
17h00 : Vérification du locuteur: approches sélectives -- Geoffroy Querol
17h30 : Compensation de canal par Factor Analysis-- Charles-Alban Deledalle
18h00 : Comparaison entre l'utilisation du noyau linéaire et non
linéaire pour les systèmes de vérification du locuteur fondés sur les
méthodes SVM -- Reda Dehak
-----------------------------------------------------------------------
Les Résumés des exposés :
**************************
Markov
Validation des performances d'un algorithme d'apprentissage -- Johan Oudinet
En apprentissage supervisé, les chercheurs n'ont que peu de données pour
évaluer les performances de leurs algorithmes d'apprentissage. Ils
doivent donc utiliser des heuristiques de test. Mais ces heuristiques,
comme leur nom l'indique, peuvent faire des erreurs. Nous évaluerons
deux types d'erreurs que ces heuristiques sont susceptibles de commettre
: le test trouve qu'il y a une différence significative entre deux
algorithmes alors que ce n'est pas le cas (Type I), ou au contraire, le
test ne détecte pas la différence existante entre deux algorithmes
d'apprentissage (Type II).
Nous commencerons par exposer les différentes sources de variabilité qui
peuvent induire en erreur une méthode de test, puis nous étudierons en
détail les performances de différentes heuristiques de test, dans
l'objectif de trouver la méthode que devrait utiliser les chercheurs
pour valider avec certitude les performances de leurs algorithmes.
Génération de texte en langage naturel -- Jean-Philippe Garcia-Ballester
Le domaine du traitement du langage naturel est un domaine à la
frontière de la linguistique et de l'informatique, et il existe ainsi
deux approches à ce problème : les approches basées sur des règles (liée
aux propriétés du langage, comme la grammaire), donc plutôt orientées
linguistique, et des approches probabilistes, basées sur des modèles
mathématiques, donc plutôt orientées informatique. Le but de cette
présentation est de présenter les méthodes de génération de texte. Bien
que toutes les méthodes existantes utilisent à la fois des approches
linguistiques et probabilistes, nous ne présenterons que les méthodes
majoritairement probabilistes. Nous commencerons par exposer les
différentes méthodes, puis nous les comparerons, d'abord suivant les
domaines dans lesquels les algorithmes sont adaptés ou non, puis suivant
l'occupation mémoire et le temps CPU.
Apprentissage pour la vérification -- Nicolas Neri
APMC est un outil distribué de vérification de systèmes probabilistes.
Dans APMC, il existe une étape de modélisation de système. Cette étape
est longue en temps et très coûteuse en espace mémoire car celle-ci est
réalisé à la main. En effet il est possible de devoir vérifier des
systèmes ayant plus de 1099 états ce qui nécessiterait un temps
considérable. En ces termes un apprentissage du système peut être utile
pour éviter cette lourde étape. Nous nous intéresserons donc au problème
de l'apprentissage pour la vérification en étudiant les différents
modèles d'apprentissage et leurs domaines de définition.
Vérification du locuteur
De nouveaux outils pour la vérification du locuteur -- Julien Ramakichenin
L'état de l'art des systèmes de vérification du locuteur utilise des
mélanges de gaussiennes (GMM). Ces modèles sont utilisés pour
représenter le modèle du monde (UBM) à partir duquel sont construits les
modèles des locuteurs. Ces modèles probabilistes représentent la
distribution des vecteurs acoustiques extraits du signal de parole.
Nous avons développé un ensemble d'outils pour la manipulation et
l'exploitation de ces types de modèles. Étant donné la quantité de
données à traiter, l'optimisation faisait partie des objectifs
principaux. Nous présenterons cet ensemble d'outils ainsi que les
améliorations apportées par rapport aux systèmes existants.
Adaptation client pour la vérification du locuteur -- Charles Melin
La vérification du locuteur repose initialement sur l'apprentissage d'un
modèle du monde (UBM). Ce modèle subit ensuite des transformations dites
d'adaptation qui ont été largement étudiées depuis 1997. D'un point de
vue général, il existe 2 types de techniques : celles de lissage et
celles d'estimation. Les techniques de lissage visent à combler
l'information manquante dans l'ensemble des observations disponibles
(absence de phonèmes) pour un locuteur cible. Les techniques
d'estimation utilisent d'autres paramètres. Elles sont généralement plus
complexes et non-convergentes mais nécessitent moins de données
d'adaptation. Notre objectif est donc d'intégrer ces différentes
techniques de façon optimisée à nos outils. En particulier, la technique
MAP considérée comme une référence dans le domaine, sera ajoutée en
priorité. Il sera alors possible d'effectuer des comparaisons entre ces
techniques.
Vérification du locuteur: approches sélectives -- Geoffroy Querol
L'état de l'art en vérification automatique du locuteur propose
d'utiliser une modélisation probabiliste (GMM) de la distribution des
paramètres acoustiques du signal de la parole. Nous avons exploré la
possibilité d'extraire seulement certains des paramètres de ces modèles
afin de discriminer les locuteurs dans ce nouvel espace. Je présenterai
deux approches différentes basées sur l'extraction des informations
acoustiques réagissant le plus fréquemment pour les modèles GMM.
La fusion des résultats de plusieurs systèmes joue un rôle prépondérant
sur les performances d'un système global. Je présenterai une comparaison
des méthodes utilisées dans le but d'obtenir une fusion optimale.
Compensation de canal par Factor Analysis-- Charles-Alban Deledalle
Dans le cadre de la vérification du locuteur, le LRDE participe depuis 2
ans aux évaluations de reconnaissance du locuteur organisées par le
NIST. Le NIST fournit une vaste base d'enregistrement audio, une partie
est destineé à l'entraînement du système et l'autre aux tests. Cette
année, ces deux bases sont réalisées sur des canaux différents :
téléphone pour l'entraînement et microphone pour les tests. Pour pallier
cette difficulté, l'information provenant du canal doit être retirée du
signal. Parmi différentes techniques de compensation de canal, je vous
présenterai une méthode prometteuse à base de Factor Analysis que
j'étudie et développe en ce moment au laboratoire.
Comparaison entre l'utilisation du noyau linéaire et non linéaire pour
les systèmes de vérification du locuteur fondés sur les méthodes SVM --
Reda Dehak
Je présenterai les résultats d'une comparaison entre l'utilisation d'une
fonction noyau linéaire et une fonction noyau non linéaire dans le cas
des systèmes de vérification du locuteur fondés sur les méthodes SVM.
Ces deux noyaux sont construits à partir d'une distance définie dans
l'espace des paramètres GMM. Je présenterai le lien existant entre ces
deux fonctions noyaux et comment exploiter les résultats des méthodes de
compensation du canal (NAP) dans les deux cas.
On a démontré l'importance de la normalisation des paramètres des
modèles GMM dans le cas de la fonction noyau non linéaire. Toutes nos
expérimentations ont été conduites sur la base d'évaluation NIST-SRE
2006 core condition (all trial). Le meilleur score (un EER de 6.3% est
obtenu avec un noyau non linéaire sur des GMMs normalisés.
--
Daniela Becker
Responsable administrative du LRDE
Bonjour,
Nous avons le plaisir de vous présenter le n°8 du bulletin du LRDE.
Vous y trouverez une introduction aux méthodes de la biométrie avec
notamment un projet du LRDE : la vérification du locuteur et la
participation du labo à la campagne NIST-SRE 2006.
Un autre article présente un aspect différent de la biométrie :
l'identification grâce à la géométrie de la main
dans le cadre de la collaboration du labo dans le réseau BIOSECURE.
Enfin, une brève description d'une nouvelle version d'OLENA, sortie
récemment, annonce déjà la sortie prochaine d'OLENA 1.0.
Vous pouvez télécharger le bulletin en couleur à la page suivante:
http://publis.lrde.epita.fr/200703-l-air-de-rien-8
--
Daniela Becker
The Olena Team is proud to announce the release of Olena 0.11. This
version is an update of the Olena generic and efficient image
processing library developed at the LRDE (http://olena.lrde.epita.fr).
This new version brings support for recent versions of the GNU (g++
4.0 and 4.1) and Intel (icpc 9.1) C++ compilers. Swilena, the set of
Python and Ruby wrappers for Olena, has been improved. Finally Olena
0.11 supports Mac OS X (version 10.3) and includes a lot of fixes over
the previous version.
More information is available at:
http://olena.lrde.epita.fr/cgi-bin/twiki/view/Olena/Olena011
Les membres de l'équipe Olena sont fiers de vous annoncer la sortie
d'Olena 0.11. Il s'agit d'une mise à jour de la bibliothèque de
traitement d'images générique et performante développée au LRDE
(http://olena.lrde.epita.fr). Cette nouvelle version apporte le
support des versions récentes des compilateurs C++ de GCC (g++ 4.0 et
4.1) et ICC (icpc 9.1). Swilena, un ensemble de « wrappers »
(adaptateurs) pour utiliser Olena depuis Python et Ruby, a été
amélioré. Enfin, Olena 0.11 supporte désormais Mac OS X (version 10.3)
et apporte de nombreux correctifs à la version précédente.
Pour plus d'informations, consulter :
http://olena.lrde.epita.fr/cgi-bin/twiki/view/Olena/Olena011
--
Roland Levillain, for the Olena Team.
roland(a)lrde.epita.fr
The next edition of CurVe (version 1.12) is out. Please find the official
announcement attached below.
--
The @-quartet now available on iTunes ! http://www.didierverna.com/records/
Didier Verna EPITA / LRDE, 14-16 rue Voltaire Tel.+33 (1) 44 08 01 85
94276 Le Kremlin-Bicêtre, France Fax.+33 (1) 53 14 59 22
Geoffroy Fouquier wrote:
> I am pleased to announce that the following paper has been accepted
> to the Icassp 2007 (http://www.icassp2007.org/) an International
> Conference on Acoustics, Speech, and Signal Processing
>
> Geoffroy Fouquier, Laurence Likforman, Jérôme Darbon and Bülent Sankur.
> The Biosecure Geometry-based System for Hand Modality.
>
> We present an identification and authentification system based on
> hand modality which is part of a reference system for all modalities
> developed within the Biosecure consortium. It relies on simple
> geometric features extracted from hand boundary. The different steps
> of this system are detailed, namely: pre-processing, feature
> extraction and hand matching. This system has been tested on the
> Biosecure hand database which consists of 4500 hand images of 750
> individuals. Results are detailed with respect to different enrolment
> conditions such as population size, enrolment size, and image
> resolution.
félicitations :-)
I am pleased to announce that the following paper has been accepted
to the Icassp 2007 (http://www.icassp2007.org/) an International
Conference on Acoustics, Speech, and Signal Processing
Geoffroy Fouquier, Laurence Likforman, Jérôme Darbon and Bülent Sankur.
The Biosecure Geometry-based System for Hand Modality.
We present an identification and authentification system based on
hand modality which is part of a reference system for all modalities
developed within the Biosecure consortium. It relies on simple
geometric features extracted from hand boundary. The different steps
of this system are detailed, namely: pre-processing, feature
extraction and hand matching. This system has been tested on the
Biosecure hand database which consists of 4500 hand images of 750
individuals. Results are detailed with respect to different enrolment
conditions such as population size, enrolment size, and image
resolution.
--
Geoffroy Fouquier
Geoffroy.Fouquier(a)lrde.epita.fr
I am pleased to announce that the following paper has been accepted
to the Mirage 2007 (http://acivs.org/mirage2007/) an international
conference on Computer Vision / Computer Graphics Collaboration
Techniques and Applications.
J. Darbon. A Note on the Dicerete Binary Mumford-Shah Model.
This paper is concerned itself with the analysis of the twophase
Mumford-Shah model also known as the active contour without
edges model introduced by Chan and Vese. It consists of approximating
an observed image by a piecewise constant image which can take only
two values. First we show that this model with the L1-norm as data
fidelity yields a contrast invariant filter which is a well known property
of morphological filters. Then we consider a discrete version of the original
problem. We show that an inclusion property holds for the minimizers.
The latter is used to design an efficient graph-cut based algorithm which
computes an exact minimizer. Some preliminary results are presented
***************************************************************************
I am also pleased to announce that the following twin papers have
been published in the Journal of Mathmematical Imaging and Vision
(http://www.springerlink.com/content/u8388810354q/?p=e3972a8e80d5433daf4bc20…)
J. Darbon and M. Sigelle
Image Restoration with Discrete Constrained Total Variation Part I: Fast and
Exact Optimization
Journal of Mathematical Imaging and Vision. Journal of Mathematical Imaging and
Vision. Vol 26 n.3, pp. 277-291, December 2006.
This paper deals with the total variation minimization problem in image
restoration for convex data fidelity functionals. We propose a new and fast
algorithm which computes an exact solution in the discrete framework. Our
method relies on the decomposition of an image into its level sets. It maps the
original problems into independent binary Markov Random Field optimization
problems at each level. Exact solutions of these binary problems are found
thanks to minimum cost cut techniques in graphs. These binary solutions are
proved to be monotone increasing with levels and yield thus an exact solution
of the discrete original problem. Furthermore we show that minimization of
total variation under L1 data fidelity term yields a self-dual contrast
invariant filter. Finally we present some results.
J. Darbon and M. Sigelle
Image Restoration with Discrete Constrained Total Variation Part II: Levelable
Functions, Convex and Non-Convex Cases
In Part II of this paper we extend the results obtained in Part I for total
variation minimization in image restoration towards the following directions:
first we investigate the decomposability property of energies on levels, which
leads us to introduce the concept of levelable regularization functions (which
TV is the paradigm of). We show that convex levelable posterior energies can be
minimized exactly using the level-independant cut optimization scheme seen in
Part I. Next we extend this graph cut scheme to the case of non-convex
levelable energies.We present convincing restoration results for images
corrupted with impulsive noise. We also provide a minimum-cost based algorithm
which computes a global minimizer for Markov Random Field with convex priors.
Last we show that non-levelable models with convex local conditional posterior
energies such as the class of generalized Gaussian models can be exactly
minimized with a generalized coupled Simulated Annealing.
----------------------------------------------------------------
This message was sent using IMP, the Internet Messaging Program.
I am pleased to announce that I have been invited to speak at the next IMECS
conference, Hong Kong, March 2007. The chosen topic is given below. A
corresponding paper will be available soon.
CLOS solutions to binary methods
Impementing binary methods in traditional object oriented languages is
difficult: numerous problems arise, such as typing (covariance vs.
contravariance of the arguments), polymorphism on multiple arguments (lack of
multi-methods) etc. The purpose of this paper is to demonstrate how those
problems are either solved, or inexistent in the Common Lisp Object System
(CLOS). Several solutions for implementing binary methods in CLOS are
proposed. They mainly consist in re-programming a binary-method specific
object system through the CLOS meta-object protocol.
--
Didier Verna, didier(a)lrde.epita.fr, http://www.lrde.epita.fr/~didier
EPITA / LRDE, 14-16 rue Voltaire Tel.+33 (1) 44 08 01 85
94276 Le Kremlin-Bicêtre, France Fax.+33 (1) 53 14 59 22 didier(a)xemacs.org