Hello,
I'm happy to announce that I will hold a special 90 minutes session on
Lisp at the next ACCU conference, April 2008, Oxford. The abstract is
given below.
Performance and Genericity: the forgotten power of Lisp
Lisp is one of the eldest languages around, and probably still is the
most versatile of them. In our current times where there seem to be a
regain of interest for dynamic and functional programming, many of those
recent languages (Ruby to name one) acknowledge the fact that they were
inspired by Lisp, but not quite as powerful.
So why is it that so many people seem to acknowledge the power of Lisp
but so few of us are actually using it? Two important reasons are that
people either still think it is slow, or think that being so old, it
must be dead, so they simply have forgotten all about it.
The purpose of this session of twofold: first we want to remind people
of the power of Lisp, and second, we want to break the myth of slowness.
In a first step, we illustrate the expressive power of Lisp by showing
how straightforward it is to implement binary methods, a concept
otherwise difficult to reach in traditionnal OO languages. This will
allow us to provide a "guided-tour" of some of the powerful features of
Common Lisp: CLOS (the Object System) and its multiple-dispatch
paradigm, the CLOS MOP (the Meta-Object Protocol) and it's ability to
let us rewrite new, specialized, objet-systems for our own purpose, and
finally the Common Lisp particular package system.
In a second step, we present a recent research demonstrating that Lisp
can run as fast as C, given that it is properly typed and optimized.
This is done by analyzing the behavior and performance of pixel access
and arithmetic operations in equivalent Lisp and C code for some simple
image processing algorithms.
--
Didier Verna, didier(a)lrde.epita.fr, http://www.lrde.epita.fr/~didier
EPITA / LRDE, 14-16 rue Voltaire Tel.+33 (0)1 44 08 01 85
94276 Le Kremlin-Bicêtre, France Fax.+33 (0)1 53 14 59 22 didier(a)xemacs.org
Bonjour,
nous avons le plaisir de vous présenter le n°12 du bulletin du LRDE.
C'est un numéro spécial consacré aux deux sessions du séminaire CSI en
janvier 2008 avec les résumés de toutes les présentations. Les étudiants
de la promo 2008 y présenteront leur travail concluant les années
passées au LRDE.
Dates de séminaire à retenir : les 9 et 16 janvier 2008.
Vous pouvez télécharger le bulletin en couleur à la page suivante :
http://publis.lrde.epita.fr/200801-l-air-de-rien-12
--
Daniela Becker
Bonjour,
Vous êtes tous cordialement invités à assister au séminaire qui aura
lieu le mercredi 09 janvier 2008 à 14 heures en Amphi 2 (KB).
-----------------------------------------------------------------------
Le programme :
*Olena, DD, Vérification du locuteur, Théorie des Jeux & Vaucanson*
http://www.lrde.epita.fr/cgi-bin/twiki/view/Publications/Seminar-2008-01-09
OLENA
14h00 : Une introduction à SCOOP, un paradigme C++ orienté objet --
Thomas Moulard
DD
14h30 : Homolib -- Samuel Charron
VERIFICATION DU LOCUTEUR
15h00 : SVM-MLLR et fusion pour la vérification du locuteur -- Geoffroy
Querol
THEORIE DES JEUX
15h45 : Étude du fictitious play dans le cas d'un jeu à fonctions
d'utilité identiques -- Jean Philippe Garcia Ballester
VAUCANSON
16h15 : Booster la généricité de Vaucanson -- Guillaume Lazzara
16h45 : Transducteurs synchronisés -- Guillaume Leroi
-----------------------------------------------------------------------
Les Résumés des exposés :
**************************
OLENA
Une introduction à SCOOP, un paradigme C++ orienté objet -- Thomas Moulard
Le C++ a réussi à supporter à la fois la programmation orienté objet
classique et la programmation générique, cependant certains problèmes
récurrents restent difficiles à résoudre. SCOOP est un paradigme orienté
objet dont le but est de mélanger approche orienté objet classique et
programmation générique afin d'allier élégance, sécurité et rapidité. Le
paradigme fournit des méthodes virtuelles, les arguments covariants, les
types virtuels et les multi-méthodes typées statiquement sans avoir
besoin d'étendre le langage. SCOOP fournit également des mécanismes
d'écriture de morphers qui permettent d'exprimer en C++ des fonctions de
type vers type. Cette présentation fait un tour d'horizon de SCOOP en
présentant d'une part le paradigme en lui-même et d'autre part son
utilisation en C++ au travers d'exemples.
DD
Homolib -- Samuel Charron
Les Diagrammes de Décision sont une famille de structures de données
permettant de représenter avec peu de mémoire de grands ensembles de
données. Ces structures peuvent être de taille fixe (un tuple) ou
variable (une liste, un conteneur associatif, ...), la manipulation du
DD ne se faisant pas de la même manière. Les Data Decision Diagrams et
Set Decision Diagrams manipulent des données de taille variable grâce à
des opérations, les homomorphismes. Cependant la définition d’une
opération correcte peut dérouter l’utilisateur, et passe souvent par de
nombreuses erreurs, difficiles à identifier. Ce séminaire propose une
bibliothèque d’algorithmes fournissant une vue plus abstraite que les
homomorphismes "bruts" des données manipulées, en reprenant les
algorithmes définis dans les modules "List" et "Map" d’Objective Caml.
L’utilisateur peut se concentrer sur les parties spécifiques à son problème.
VERIFICATION DU LOCUTEUR
SVM-MLLR et fusion pour la vérification du locuteur -- Geoffroy Querol
Afin d'améliorer la performance globale des systèmes de vérification du
locuteur, il faut diversifier les approches. Le but de ce travail est
d'étudier les performances d'un système SVM-MLLR. Cette méthode se base
sur la construction, à partir du modèle du monde, d'une transformation
linéaire des vecteurs moyennes (mean supervectors) maximisant la
vraisemblance du modèle transformé par rapport aux données locuteur. On
évaluera deux approches différentes : logarithme du rapport de
vraisemblance (GMM-MLLR) et utilisation des SVMs pour évaluer les scores
de décision.
THEORIE DES JEUX
Étude du fictitious play dans le cas d'un jeu à fonctions d'utilité
identiques -- Jean Philippe Garcia Ballester
Le fictitious play, en théorie des jeux, est une règle d'apprentissage
dans laquelle chaque joueur suppose que ses adversaires jouent une
stratégie fixe (potentiellement mixte, c'est-à-dire une distribution de
probabilité sur un ensemble de stratégies). À chaque tour, chaque joueur
joue ainsi le meilleur coup contre la stratégie de ses adversaires,
déterminée de manière empirique à partir de leurs coups précédents.
La convergence de telles stratégies n'est pas assurée, mais on sait que
si il y a convergence, alors les stratégies jouées correspondront
statistiquement à un équilibre de Nash. Il est donc très intéressant de
connaître les critères de convergence.
Nous nous intéresserons pour cette présentation au cas des jeux où les
fonctions d'utilité (le gain d'un joueur en fonction des stratégies
jouées) de chaque joueur sont identiques.
Nous étudierons d'abord des résultats de convergence dans ce cas
particulier. Afin de réduire la complexité en temps, nous verrons une
variante de cet algorithme, qui consiste à autoriser une erreur dans la
meilleure réponse des joueurs. Nous présenterons enfin un exemple
d'application du fictitious play pour résoudre un problème a priori non
lié à la théorie des jeux : un problème d'optimisation, c'est-à-dire
calculer le maximum des valeurs prises par une fonction.
VAUCANSON
Booster la généricité de Vaucanson -- Guillaume Lazzara
L'architecture du projet Vaucanson a été conçue initialement autour du
design pattern Element. Ce dernier a l'énorme avantage de distinguer à
la fois les concepts et les implémentations. C'est à dire que pour un
type d'automate comme les automates booléens, on peut théoriquement
avoir plusieurs implémentations qui se côtoient dans un même programme.
Malgré toutes ces précautions, aujourd'hui, ajouter une nouvelle
structure s'avère très délicat et remet en cause de nombreux points au
sein du projet. C'est pour cette raison que durant ce séminaire nous
tenterons de répondre à ces problèmes. Les problèmes de performances
qu'a pu rencontrer le projet sont également une bonne motivation pour
s'attaquer à ce sujet : il est aujourd'hui indispensable de proposer des
nouvelles structures plus efficaces, notamment implémentées avec la
bibliothèque Boost.
Transducteurs synchronisés -- Guillaume Leroi
Lors de cette présentation, un algorithme de resynchronisation sera
décrit ainsi que son implémentation dans Vaucanson. De plus, des
explications sont données sur l'ajout des transducteurs a délai borné,
ainsi que sur les difficultés qui peuvent être rencontrées lors de
l'extension de la hierarchie de classes de Vaucanson.
--
Daniela Becker
I'm happy to announce that the first European Lisp Symposium,
which I'm co-organizing, is born, and will take place in Bordeaux in May
2008. Please find the call for papers below:
**********************************************************************
* *
* 1st European Lisp Symposium (ELS 2008) *
* *
* http://prog.vub.ac.be/~pcostanza/els08 *
* *
* Bordeaux, France, May 22-23, 2008 *
* LaBRI, Universite Bordeaux 1 *
* *
**********************************************************************
Important Dates:
****************
* Submission of research papers: February 11, 2008
* Work-in-progress papers: March 24, 2008
* Author notification: April 7, 2008
* First final versions due: April 28, 2008
Accepted research papers will be invited for a special issue of the
Journal of Universal Computer Science (J.UCS). See the symposium
website for more details.
Scope:
******
The European Lisp Symposium 2008 invites high quality papers about
novel research results, insights and lessons learned from practical
applications, and educational perspectives, all involving Lisp
dialects, including Common Lisp, Scheme, ISLISP, Dylan, and so on.
Topics include, but are not limited to:
* Language design and implementation techniques
* Language integration, interoperation and deployment
* Experience reports and case studies
* Reflection and meta-level architectures
* Educational approaches
* Software adaptation and evolution
* Configuration management
* Artificial intelligence
* Large and ultra-large-scale systems
* Development methodologies
* Development support and environments
* Persistent systems
* Scientific computing
* Parallel and distributed computing
* Data mining
* Semantic web
* Dynamic optimization
* Innovative applications
* Hardware and virtual machine support
* Domain-oriented programming
We also encourage submissions about past approaches that have been
largely forgotten about, as long as they are presented in a new
setting.
We invite submissions in two categories:
original contributions and work-in-progress papers.
*** Original contributions have neither been published previously nor
are under review by other refereed events or publications. Research
papers should describe work that advances the current state of the
art, or presents old results from a new perspective. Experience papers
should be of broad interest and should describe insights gained from
substantive practical applications. The program committee will
evaluate each contributed paper based on its relevance, significance,
clarity, and originality.
Accepted papers will be published in the Journal of Universal Computer
Science (J.UCS). Authors of accepted papers are expected to present
their work at the symposium main track in Bordeaux on May 23, 2008.
*** Work in progress describes ongoing work that is not ready for
publication yet, but would benefit strongly from feedback by other
researchers, practitioners and educators. Such contributions will not
be published in the symposium proceedings, but will be made available
at the symposium website. The work-in-progress track will be organized
as a series of writers' workshops where authors work together to
improve their papers. Some authors who submit papers for the main
track will be suggested to contribute their work in this track
instead, if the program committee decides that their submission is not
yet ready for a publication.
The writers' workshops will take place at the symposium in Bordeaux on
May 22, 2008.
Submissions:
************
Papers for the main track must be submitted electronically, preferably
as PDF or PostScript file (level 1 or 2). However, submissions in RTF
or Word format are also accepted. Initial submissions may not exceed
15 pages in the J.UCS style, including all appendices. (Invited papers
for the journal publication will have a page limitation of 25 pages in
the same format.) See the symposium website for more details,
including about the submission procedure.
Papers for the work-in-progress track may be in PDF, PostScript level
1 or 2, RTF or Word, and may not exceed 25 pages. There are no further
requirements on their format. Papers for the work-in-progress track
must be sent via email to pascal.costanza(a)vub.ac.be.
Program Chair:
**************
* Pascal Costanza, Vrije Universiteit Brussel, Belgium
Program Committee:
******************
* Marco Antoniotti, Universita Milano Bicocca, Italy
* Marie Beurton-Aimar, Universite Bordeaux 1, France
* Jerry Boetje, College of Charlston, USA
* Theo D'Hondt, Vrije Universiteit Brussel, Belgium
* Irene Durand, Universite Bordeaux 1, France
* Marc Feeley, Universite de Montreal, Canada
* Erick Gallesio, Universite de Nice / Sophia Antipolis, France
* Rainer Joswig, Independent Consultant, Germany
* Antonio Leitao, Technical University of Lisbon, Portugal
* Henry Lieberman, MIT, USA
* Scott McKay, ITA Software, Inc., USA
* Ralf Moeller, Hamburg University of Technology, Germany
* Nicolas Neuss, Universitaet Karlsruhe, Germany
* Kent Pitman, PTC, USA
* Christophe Rhodes, Goldsmiths College, University of London, UK
* Jeffrey Mark Siskind, Purdue University, USA
* Didier Verna, EPITA Research and Development Laboratory, France
--
Didier Verna, didier(a)lrde.epita.fr, http://www.lrde.epita.fr/~didier
EPITA / LRDE, 14-16 rue Voltaire Tel.+33 (0)1 44 08 01 85
94276 Le Kremlin-Bicêtre, France Fax.+33 (0)1 53 14 59 22 didier(a)xemacs.org
I'm happy to announce the next edition of FiXme: version 3.3
New in this release:
* Document incompatibility between marginal layout and the ACM SIG classes
* Honor twoside option in marginal layout
* Support KOMA-Script classes version 2006/07/30 v2.95b
* Documentation improvements
* Fix incompatibility with AMS-Art
* Fix bug in \fixme@footnotetrue
FiXme provides you with a way of inserting fixme notes in documents.
Such notes can appear in the margin of the document, as index entries,
in the log file and as warnings on stdout. It is also possible to
summarize them in a list, and in the index. When you switch from draft
to final mode, any remaining fixme note will be logged, but removed from
the document's body. Additionally, critical notes will abort compilation
with an informative message. FiXme also comes with support for AUC-TeX.
Grab it here:
http://www.lrde.epita.fr/~didier/software/latex.php#fixme
or wait until it propagates through CTAN...
--
Didier Verna, didier(a)lrde.epita.fr, http://www.lrde.epita.fr/~didier
EPITA / LRDE, 14-16 rue Voltaire Tel.+33 (0)1 44 08 01 85
94276 Le Kremlin-Bicêtre, France Fax.+33 (0)1 53 14 59 22 didier(a)xemacs.org
I'm happy to announce the next edition of CurVe, a Curriculum
Vitae class for LaTeX2e. New in this release: Polish localization, and
an option to reverse-count bibliographic entries.
Grab it directly from here:
http://www.lrde.epita.fr/~didier/software/latex.php#curve
or wait until it propagates through CTAN.
--
Didier Verna, didier(a)lrde.epita.fr, http://www.lrde.epita.fr/~didier
EPITA / LRDE, 14-16 rue Voltaire Tel.+33 (0)1 44 08 01 85
94276 Le Kremlin-Bicêtre, France Fax.+33 (0)1 53 14 59 22 didier(a)xemacs.org
I'm happy to announce the next edition of FiNK, the LaTeX2e File
Name Keeper, version 2.1.
This package looks over your shoulder and keeps track of files \input'ed
(the LaTeX way) or \include'ed in your document. You then have a
permanent access to the directory, name and extension of the file
currently being processed through several macros. FiNK also comes with
support for AUC-TeX.
This version fixes a bug preventing proper expansion in math mode.
--
Didier Verna, didier(a)lrde.epita.fr, http://www.lrde.epita.fr/~didier
EPITA / LRDE, 14-16 rue Voltaire Tel.+33 (1) 44 08 01 85
94276 Le Kremlin-Bicêtre, France Fax.+33 (1) 53 14 59 22 didier(a)xemacs.org
Bonjour,
nous avons le plaisir de vous présenter le n°11 du bulletin du LRDE.
C'est un numéro Spécial Rentrée qui présente les activités de recherche,
de développement et d'enseignement du LRDE ainsi que ses membres avec
l'arrivée d'un nouvel enseignant-chercheur.
Deux des membres de l'équipe font un gros plan sur une activité récente
: développement d’une plateforme de cartographie de systèmes
d’information dans le cadre d'une prestation d'un côté, et de l'autre,
un séjour sabbatique d’un mois au sein du groupe RECO du Centre de
Recherche en Informatique de Montréal (CRIM).
Vous trouverez dans ce numéro également une présentation de l'option
Calcul Scientifique et Image (CSI) à l'intérieur du cursus EPITA.
Vous pouvez télécharger le bulletin en couleur à la page suivante:
http://publis.lrde.epita.fr/200705-l-air-de-rien-11
--
Daniela Becker
We are pleased to announce that the following papers have been accepted
to The Speaker and Language Recognition Workshop (IEEE - Odyssey 2008 --
http://www.speakerodyssey.com).
** Reda Dehak, Najim Dehak, Patrick Kenny, Pierre Dumouchel. Kernel
Combination for SVM Speaker Verification.
http://publis.lrde.epita.fr/200709-ODYSSEY-A
We present a new approach for constructing the kernels used to build
support vector machines for speaker verification. The idea is to
construct new kernels by taking linear combination of many kernels such
as the GLDS and GMM supervector kernels. In this new kernel combination,
the combination weights are speaker dependent rather than universal
weights on score level fusion and there is no need for extra-data to
estimate them. An experiment on the NIST 2006 speaker recognition
evaluation dataset (all trial) was done using three different kernel
functions (GLDS kernel, linear and Gaussian GMM supervector kernels). We
compared our kernel combination to the optimal linear score fusion
obtained using logistic regression. This optimal score fusion was
trained on the same test data. We had an equal error rate of $\simeq
5,9\%$ using the kernel combination technique which is better than the
optimal score fusion system ($\simeq 6,0\%$).
** Reda Dehak, Najim Dehak, Patrick Kenny, Pierre Dumouchel. Comparison
Between Factor Analysis and GMM Support Vector Machines for Speaker
Verification.
http://publis.lrde.epita.fr/200709-ODYSSEY-B
We present a comparison between speaker verification systems based on
factor analysis modeling and support vector machines using GMM
supervectors as features. All systems used the same acoustic features
and they were trained and tested on the same data sets. We test two
types of kernel (one linear, the other non-linear) for the GMM support
vector machines. The results show that factor analysis using speaker
factors gives the best results on the core condition of the NIST 2006
speaker recognition evaluation. The difference is particularly marked on
the English language subset. Fusion of all systems gave an equal error
rate of 4.2% (all trials) and 3.2% (English trials only).
** Patrick Kenny, Najim Dehak, Reda Dehak, Vishwa Gupta, Pierre
Dumouchel. The Role of Speaker Factors in the NIST Extended Data Task.
http://publis.lrde.epita.fr/200709-ODYSSEY-C
We tested factor analysis models having various numbers of speaker
factors on the core condition and the extended data condition of the
2006 NIST speaker recognition evaluation. In order to ensure strict
disjointness between training and test sets, the factor analysis models
were trained without using any of the data made available for the 2005
evaluation. The factor analysis training set consisted primarily of
Switchboard data and so was to some degree mismatched with the 2006 test
data (drawn from the Mixer collection). Consequently, our initial
results were not as good as those submitted for the 2006 evaluation.
However we found that we could compensate for this by a simple
modification to our score normalization strategy, namely by using 1000
z-norm utterances in zt-norm.
Our purpose in varying the number of speaker factors was to evaluate the
eigenvoiceMAP and classicalMAP components of the inter-speaker
variability model in factor analysis. We found that on the core
condition (i.e. 2?3 minutes of enrollment data), only the eigenvoice MAP
component plays a useful role. On the other hand, on the extended data
condition (i.e. 15?20 minutes of enrollment data) both the classical MAP
component and the eigenvoice component proved to be useful provided that
the number of speaker factors was limited. Our best result on the
extended data condition (all trials) was an equal error rate of 2.2% and
a detection cost of 0.011.
--
Daniela Becker
Le fonds unique interministériel doté de 720 M? sur la période 2006-2008 est
logé au sein du fonds de compétitivité des entreprises (FCE).
Les projets présentés doivent être des projets de recherche et développement
collaboratifs, labellisés par un pôle de compétitivité, impliquant
plusieurs entreprises et au moins un laboratoire ou centre de recherche.
Les dossiers devront être remis avant le 30 novembre 2007 (12h).
http://www.competitivite.gouv.fr/spip.php?article217
je vous rappelle qu'il y a maintenant un pôle libre dans
Systém@tic.
Olivier.