Bonjour,
nous avons le plaisir de vous présenter le n°11 du bulletin du LRDE.
C'est un numéro Spécial Rentrée qui présente les activités de recherche,
de développement et d'enseignement du LRDE ainsi que ses membres avec
l'arrivée d'un nouvel enseignant-chercheur.
Deux des membres de l'équipe font un gros plan sur une activité récente
: développement d’une plateforme de cartographie de systèmes
d’information dans le cadre d'une prestation d'un côté, et de l'autre,
un séjour sabbatique d’un mois au sein du groupe RECO du Centre de
Recherche en Informatique de Montréal (CRIM).
Vous trouverez dans ce numéro également une présentation de l'option
Calcul Scientifique et Image (CSI) à l'intérieur du cursus EPITA.
Vous pouvez télécharger le bulletin en couleur à la page suivante:
http://publis.lrde.epita.fr/200705-l-air-de-rien-11
--
Daniela Becker
We are pleased to announce that the following papers have been accepted
to The Speaker and Language Recognition Workshop (IEEE - Odyssey 2008 --
http://www.speakerodyssey.com).
** Reda Dehak, Najim Dehak, Patrick Kenny, Pierre Dumouchel. Kernel
Combination for SVM Speaker Verification.
http://publis.lrde.epita.fr/200709-ODYSSEY-A
We present a new approach for constructing the kernels used to build
support vector machines for speaker verification. The idea is to
construct new kernels by taking linear combination of many kernels such
as the GLDS and GMM supervector kernels. In this new kernel combination,
the combination weights are speaker dependent rather than universal
weights on score level fusion and there is no need for extra-data to
estimate them. An experiment on the NIST 2006 speaker recognition
evaluation dataset (all trial) was done using three different kernel
functions (GLDS kernel, linear and Gaussian GMM supervector kernels). We
compared our kernel combination to the optimal linear score fusion
obtained using logistic regression. This optimal score fusion was
trained on the same test data. We had an equal error rate of $\simeq
5,9\%$ using the kernel combination technique which is better than the
optimal score fusion system ($\simeq 6,0\%$).
** Reda Dehak, Najim Dehak, Patrick Kenny, Pierre Dumouchel. Comparison
Between Factor Analysis and GMM Support Vector Machines for Speaker
Verification.
http://publis.lrde.epita.fr/200709-ODYSSEY-B
We present a comparison between speaker verification systems based on
factor analysis modeling and support vector machines using GMM
supervectors as features. All systems used the same acoustic features
and they were trained and tested on the same data sets. We test two
types of kernel (one linear, the other non-linear) for the GMM support
vector machines. The results show that factor analysis using speaker
factors gives the best results on the core condition of the NIST 2006
speaker recognition evaluation. The difference is particularly marked on
the English language subset. Fusion of all systems gave an equal error
rate of 4.2% (all trials) and 3.2% (English trials only).
** Patrick Kenny, Najim Dehak, Reda Dehak, Vishwa Gupta, Pierre
Dumouchel. The Role of Speaker Factors in the NIST Extended Data Task.
http://publis.lrde.epita.fr/200709-ODYSSEY-C
We tested factor analysis models having various numbers of speaker
factors on the core condition and the extended data condition of the
2006 NIST speaker recognition evaluation. In order to ensure strict
disjointness between training and test sets, the factor analysis models
were trained without using any of the data made available for the 2005
evaluation. The factor analysis training set consisted primarily of
Switchboard data and so was to some degree mismatched with the 2006 test
data (drawn from the Mixer collection). Consequently, our initial
results were not as good as those submitted for the 2006 evaluation.
However we found that we could compensate for this by a simple
modification to our score normalization strategy, namely by using 1000
z-norm utterances in zt-norm.
Our purpose in varying the number of speaker factors was to evaluate the
eigenvoiceMAP and classicalMAP components of the inter-speaker
variability model in factor analysis. We found that on the core
condition (i.e. 2?3 minutes of enrollment data), only the eigenvoice MAP
component plays a useful role. On the other hand, on the extended data
condition (i.e. 15?20 minutes of enrollment data) both the classical MAP
component and the eigenvoice component proved to be useful provided that
the number of speaker factors was limited. Our best result on the
extended data condition (all trials) was an equal error rate of 2.2% and
a detection cost of 0.011.
--
Daniela Becker
Le fonds unique interministériel doté de 720 M? sur la période 2006-2008 est
logé au sein du fonds de compétitivité des entreprises (FCE).
Les projets présentés doivent être des projets de recherche et développement
collaboratifs, labellisés par un pôle de compétitivité, impliquant
plusieurs entreprises et au moins un laboratoire ou centre de recherche.
Les dossiers devront être remis avant le 30 novembre 2007 (12h).
http://www.competitivite.gouv.fr/spip.php?article217
je vous rappelle qu'il y a maintenant un pôle libre dans
Systém@tic.
Olivier.
Hello,
I am pleased to announce the next edition of Patcher (version 3.9).
Patcher is an XEmacs package for automating the maintenance of projects
based on version control systems such as CVS. Patcher is the official
tool for XEmacs development.
New in this release:
- Support for Darcs (diff output filtering)
- The :change-logs-user-[name|mail] project options now inherit from the
:user-[name|mail] ones
--
Didier Verna <didier(a)lrde.org>
Hello,
I'm happy to announce that I will be a program committee member for the
next European Lisp Symposium (ELS'08) which is going to take place in
Istanbul, Turkey, in April. More information will be available at a later
time.
--
Didier Verna <didier(a)lrde.org>
The next edition of CurVe, a curriculum vitae class for LaTeX2e has been
released. This is version 1.13 of the package.
What's new in this version:
===========================
** Support for title alignment
suggested by Lars Kasper
** Support for footnotes
suggested by Alain Coletta
** Let rubrics honor the current \linewidth
so that they can be used inside minipage environments for instance
** Changed default value of \subrubricbeforespace
to 20pt
** Fix some overfull boxes
reported by Nico Schlömer
** FAQ and documentation update
Description:
============
CurVe is a class package that hopefully will make your life easier when you
want to write your CV. It provides you with a set of commands to create
rubrics, entries in these rubrics etc. CurVe will then properly format your CV
for you (possibly splitting it onto multiple pages, repeating the titles etc),
which is usually the most painful part of CV writing. Another nice feature of
CurVe is its ability to manage different CV "flavors" simultaneously. It is in
fact often the case that you want to maintain slightly divergent versions of
your CV at the same time, in order to emphasize on different aspects of your
background. CurVe also comes with support for AUC-TeX.
--
Didier Verna, didier(a)lrde.epita.fr, http://www.lrde.epita.fr/~didier
EPITA / LRDE, 14-16 rue Voltaire Tel.+33 (1) 44 08 01 85
94276 Le Kremlin-Bicêtre, France Fax.+33 (1) 53 14 59 22 didier(a)xemacs.org
I'm happy to announce the next edition f FiNK, the LaTeX2e FIle Name Keeper.
--
Didier Verna, didier(a)lrde.epita.fr, http://www.lrde.epita.fr/~didier
EPITA / LRDE, 14-16 rue Voltaire Tel.+33 (1) 44 08 01 85
94276 Le Kremlin-Bicêtre, France Fax.+33 (1) 53 14 59 22 didier(a)xemacs.org
I am pleased to announce that the article:
How to make Lisp go faster than C (IMECS'06)
has been republished in the IAENG International Journal of Computer
Science (volume 32 #4, ISSN 1819-656X, Dec. 2006).
--
Didier Verna, didier(a)lrde.epita.fr, http://www.lrde.epita.fr/~didier
EPITA / LRDE, 14-16 rue Voltaire Tel.+33 (1) 44 08 01 85
94276 Le Kremlin-Bicêtre, France Fax.+33 (1) 53 14 59 22 didier(a)xemacs.org
Bonjour,
Vous êtes tous cordialement invités à assister au séminaire qui aura
lieu le mercredi 06 juin 2007 à 15 heures en Amphi 2 (KB).
-----------------------------------------------------------------------
Le programme :
*LISP, OLENA & TRANSFORMERS*
http://www.lrde.epita.fr/cgi-bin/twiki/view/Publications/Seminar-2007-06-06
LISP
15h00 : Étude de problèmes de performances en C et en Common Lisp --
William Caldwell
OLENA
15h30 : Olena, comme les autres ? -- Thierry Geraud
16h00 : Génie logiciel au coeur d'Olena -- Nicolas Ballas
16h30 : Canevas d'algorithmes morphologiques -- Ugo Jardonnet
17h15 : Étude comparative de Concept C++ et perspective d'intégration
dans SCOOP -- Alexandre Abraham
TRANSFORMERS
17h45 : SCOOL, orientation objet d'un langage statique -- Maxime Van Noppen
18h15 : Aide à la manipulation des grammaires attribuées -- Florian Quèze
-----------------------------------------------------------------------
Les Résumés des exposés :
**************************
LISP
Étude de problèmes de performances en C et en Common Lisp -- William
Caldwell
Dans son article "Beating C in Scientific Computing Applications",
Didier Verna a laissé un certain nombre de questions en suspens. Notre
but est de chercher des explications aux performances inattendues en C
et en Common Lisp concernant l'inlining et les algorithmes d'assignation
et de division.
Ce travail vise à trouver des explications à des résultats expérimentaux
exposés dans l'article.
OLENA
Olena, comme les autres ? -- Thierry Geraud
Si, d'un point de vue lointain, toutes les bibliothèques de traitement
d'images se ressemblent, elles n'ont néanmoins pas été pensées avec les
mêmes objectifs et, par conséquent, ne partagent pas le même ensemble de
caractéristiques. Cet exposé, non technique, a pour but de présenter les
traits principaux qui permettent de définir l'identité de la
bibliothèque Olena. Nous expliquerons nos intentions et nous
justifierons les options que nous avons choisies, ainsi que les
compromis que nous avons dû réaliser. En particulier, nous insisterons
sur les aspects originaux de notre démarche qui, d'une part, peuvent
permettre à Olena de se distinguer des autres bibliothèques et, d'autre
part, peuvent inciter des utilisateurs potentiels à choisir notre
bibliothèque.
Génie logiciel au coeur d'Olena -- Nicolas Ballas
Pour s'assurer de la qualité d'un logiciel et de la facilité de son
développement, le génie logiciel définit un certain nombre de critères à
respecter.
Dans le domaine du traitement d'images, un nombre important de types
différents d'images existent. Il est donc difficile de construire une
bibliothèque, dédiée à ce domaine, proposant des outils réutilisables,
facilement extensibles ou encore compatibles avec des logiciels tiers.
Nous verrons comment différentes techniques, issues du paradigme de
programmation SCOOP mis en place dans Olena, répondent à ce problème.
Enfin nous analyserons des solutions fournies par d'autres bibliothèques
de traitement d'images.
Canevas d'algorithmes morphologiques -- Ugo Jardonnet
Olena est une bibliothèque générique de traitement d'images déve- loppée
au LRDE. Elle propose un grand nombre d'algorithmes mor- phologiques. La
morphologie mathématique, inventée à l'origine pour traiter des images
binaires, ore des outils très puissants de traitement et d'analyse
d'images. Des similarités apparaissant dans l'écriture des algorithmes,
il est possible de classier ces outils et, ainsi, de proposer un certain
nombre de "canevas" d'algorithmes. Il s'agit alors d'apporter des
solutions d'implémentation non redondante de ces canevas. Celles-ci
doivent etre cohérantes avec les notations mathématiques manipulées. A
travers une brève initiation à la morphologie mathématique, cet exposé
presentera diérents canevas d'algorithmes retenus par Olena.
Étude comparative de Concept C++ et perspective d'intégration dans SCOOP
-- Alexandre Abraham
La fin de cette décennie verra l'avènement de C++0x et avec lui du
nouveau paradigme de "concepts". Les concepts fourniront un mé- canisme
de typage abstrait pour les types paramétrés ainsi que tout l'équipement
d'adaptation des types concrets à ces types abstraits comme le fait
actuellement la bibliothèque "Static", composant du projet Olena.
Nous ferons donc un comparatif de ces approches en exhibant leurs points
forts et faibles ainsi que leurs capacités particulières afin de
proposer un support de documentation et une base pour la future
intégration des concepts dans le paradigme SCOOP.
Les concepts pourraient en effet simplifier l'écriture du code client et
enrichir SCOOP de fonctions supplémentaires.
TRANSFORMERS
SCOOL, orientation objet d'un langage statique -- Maxime Van Noppen
SCOOL est un langage statique orienté objet qui a été créé afin de
pouvoir utiliser toute la puissance du C++ statique avec une plus grande
facilité grâce à une syntaxe plus expressive et agréable. Il n'a pas
pour but d'être directement compilé mais d'être traduit en C++ utilisant
le paradigme SCOOP. C'est ce paradigme qui va nous permettre d'équiper
le C++ des fonctionnalités statiques dont nous avons besoin.
Le travail à effectuer s'oriente selon deux axes complémentaires. Le
premier axe de travail, plus formel, sera de vérifier, avec les membres
d'Olena notemment, que le langage dispose de toute l'expressivité dont
ils ont besoin et que sa syntaxe est la plus simple et la plus agréable
possible. Le second axe, plus implémentatoire, va être de continuer
l'implémentation du traducteur. Un chantier principal sera ouvert afin
d'améliorer la gestion du côté orienté objet du langage. C'est à dire,
au moins avoir l'héritage statique ainsi que la possibilité de manipuler
des objets aisément. Un travail plus annexe mais non moins important
pour le projet sera effectué afin d'améliorer la qualité des messages
d'erreurs fournis lors de la phase de traduction afin d'augmenter le
confort d'utilisation de l'ensemble.
Aide à la manipulation des grammaires attribuées -- Florian Quèze
Transformers fournit un ensemble d'outils permettant la désambiguïsation
d'arbres produits par l'analyse syntaxique suivant une grammaire ambiguë
telle que celle du C++.
Le projet Transformers désambiguïse à l'aide de grammaires attribuées.
Cependant, nous ne disposons pas actuellement d'outils permettant la
compréhension approfondie d'un comportement incorrect des grammaires
attribuées.
L'objectif de ce travail est de fournir des outils facilitant la
manipulation des grammaires attribuées, en offrant des moyens de
visualisation agréables pour les développeurs.
--
Daniela Becker
Bonjour,
Vous êtes tous cordialement invités à assister au séminaire qui aura
lieu le mercredi 23 mai 2007 à 14 heures en Amphi 2 (KB).
-----------------------------------------------------------------------
Le programme :
*Vaucanson, Théorie des Jeux et Parallélisme*
http://www.lrde.epita.fr/cgi-bin/twiki/view/Publications/Seminar-2007-05-23
VAUCANSON
14h00 : Un format universel de description d'automates et son
utilisation dans Vaucanson -- Florian Lesaint
14h30 : Boosting Vaucanson - partie 1 -- Guillaume Lazzara
15h00 : Boosting Vaucanson - partie 2 -- Jimmy Ma
15h45 : Suppression des transitions spontanées -- Vivien Delmon
16h15 : Transducteurs synchronisés -- Guillaume Leroi
THEORIE DES JEUX
16h45 : Méthodes algorithmiques de recherche d'équilibres de Nash --
Antoine Leblanc
PARALLELISME
17h15 : Conception d'une bibliothèque générique de parallélisation en C
++ s'appuyant sur l'existant -- Elie Bleton
-----------------------------------------------------------------------
Les Résumés des exposés :
**************************
VAUCANSON
Un format universel de description d'automates et son utilisation dans
Vaucanson -- Florian Lesaint
La proposition XML présentée à CIAA 2005 (Conference on Implementation
and Application of Automata) montre certaines lacunes.
Le but est de finaliser la proposition d'un format universel
pour la description d'automates afin de faciliter la
communication entre les divers outils qui leur sont consacrés.
Une seconde étape consistera à modifier VAUCANSON pour lui permettre de
supporter ce format, via une réimplémentation de son parseur XML. Ce
sera l'occasion de passer d'un modèle DOM à un modèle SAX, afin d'en
réduire l'utilisation mémoire et espérer ainsi pallier les piètres
performances de VAUCANSON.
Boosting Vaucanson - partie 1 -- Guillaume Lazzara
Suite aux séminaires de l'année dernière, il en ressort que les
performances globales de Vaucanson pouvaient largement être améliorées
par l'usage de tables de hachage et plus particulièrement celles de la
bibliothèque Boost Multi Index.
Pour ce séminaire, nous chercherons à tirer parti des nouvelles
fonctionnalités offertes par Boost. Ceci impliquera l'apparition d'une
nouvelle implémentation de graphe. L'étude de cette nouvelle
implémentation ayant été réalisé indépendament de Vaucanson, nous
présenterons les enjeux induits par son intégration dans Vaucanson.
Boosting Vaucanson - partie 2 -- Jimmy Ma
Au cours de ces séminaires, Vaucanson a été muni d'une nouvelle
implémentation d'automates. Notre but étant d'évaluer l'impact de ces
changements sur les performances, en particulier dans les algorithmes.
Dans un premier temps, nous dresserons un bilan brut sur les nouvelles
performances. Le but étant de trouver les algorithmes où les nouvelles
fonctionnalités apportées ne sont pas pleinement exploitées.
Dans un deuxième temps, nous fournirons une nouvelle implémentation de
certains algorithmes en utilisant la nouvelle API. Enfin, nous
dresserons un bilan global sur l'état actuel de Vaucanson.
Enfin, nous dresserons un bilan global sur l'état actuel de Vaucanson.
Suppression des transitions spontanées -- Vivien Delmon
Beaucoup d'algorithmes sur les automates prennent en entrée des
automates sans transitions spontanées. L'algorithme de suppression de
ces dernières est donc un point central dans Vaucanson.
L'implémentation actuelle de l'algorithme générique est assez rapide
mais gourmande en mémoire. Une autre version proposée par Sylvain
Lombardy devrait être moins gourmande et plus rapide par la même
occasion. Par ailleurs, un algorithme a été publié par Mehryar Mohri des
AT&T Labs et sera également mis à l'épreuve lors de ce séminaire.
Ces deux algorithmes seront implémentés d'une part sur l'API actuelle de
Vaucanson et d'autre part sur la future API qui devrait apporter de
nouvelles fonctions grâce notamment à l'intégration d'une structure
basée sur les Boost Multi Index.
Transducteurs synchronisés -- Guillaume Leroi
Un transducteur synchronisé est un transducteur dont les étiquettes
sont des couples de lettre et les fonctions finales sont de la forme
(L,1) ou (1,L) (où 1 est le mot vide et L un langage rationnel).
Une opération de base dans le calcul d'un transducteur synchronisé est
la circulation des sorties d'un transducteur. La circulation consiste
à déplacer un mot w en arrière à travers un état. Ce mot w est un
préfixe commun à toutes les étiquettes des transitions sortantes de
cet état. On le supprime donc pour le rajouter en suffixe de toutes
les transitions entrantes de ce même état.
Cette opération de circulation est nécessaire pour permettre, par
exemple, la minimisation d'un transducteur séquentiel ou la
resynchronisation d'un transducteur.
Ce séminaire se propose de présenter l'implémentation de ces
algorithmes dans Vaucanson, ainsi que de proposer une structure de
données pour les transducteurs synchronisés adaptable aux transducteurs
à plus de deux bandes.
THEORIE DES JEUX
Méthodes algorithmiques de recherche d'équilibres de Nash -- Antoine Leblanc
La théorie des jeux est généralement décrite comme une approche
mathématique de problèmes de prise de décisions. Les équilibres de Nash
sont l'un des principaux concepts qu'elle a introduits. Dans un jeu, un
équilibre de Nash est une position dans laquelle aucun des joueurs n'a
intérêt à changer sa stratégie. L'un des problèmes majeurs engendrés par
ces équilibres est celui de la complexité algorithmique...
Le but de cet exposé sera non seulement de faire le point sur les
avantages et inconvénients des algorithmes usuels, mais également de
présenter une nouvelle méthode de calcul basée sur une approche
géométrique du problème.
PARALLELISME
Conception d'une bibliothèque générique de parallélisation en C ++
s'appuyant sur l'existant -- Elie Bleton
Nous avons pour but la conception d'une bibliothèque générique de
parallélisation et de distribution d'application en C++, la libpapa.
Cette bibliothèque cible les développeurs souhaitant paralléliser ou
répartir soit une application existante basée sur du code non
modifiable, soit une nouvelle application, qui peut alors tirer le
meilleur parti de la bibliothèque.
La libpapa n'a pas vocation à remplacer les solutions existantes mais à
fournir des abstractions de haut niveau pour le développeur.
Ce séminaire abordera les solutions existantes que libpapa se propose
de reprendre ou d'encapsuler, les choix faits au niveau de la
modélisation de cette bibliothèque ainsi que des exemples d'utilisation
possible.
--
Daniela Becker