We are happy to announce that the following paper has been accepted
for publication at the 20th International SPIN Symposium on Model
Checking of Software (SPIN'13) that will take place in Stony Brook,
NY, USA on 8-9 July 2013.
Compositional Approach to Suspension and
Other Improvements to LTL Translation
Tomáš Babiak (1), Thomas Badie (2), Alexandre Duret-Lutz (2),
Mojmír Křetínský (1), and Jan Strejček (1)
(1) Faculty of Informatics, Masaryk University, Brno, Czech Republic
(2) LRDE, EPITA, Kremlin-Bicêtre, France
http://publis.lrde.epita.fr/201307-Spin
Recently, there was defined a fragment of LTL (containing fairness
properties among other interesting formulae) whose validity over a
given infinite word depends only on an arbitrary suffix of the
word. Building upon an existing translation from LTL to Büchi
automata, we introduce a compositional approach where subformulae of
this fragment are translated separately from the rest of an input
formula and the produced automata are composed in a way that the
subformulae are checked only in relevant accepting strongly connected
components of the final automaton. Further, we suggest improvements
over some procedures commonly applied to generalized Büchi automata,
namely over generalized acceptance simplification and over
degeneralization. Finally we show how existing simulation-based
reductions can be implemented in a signature-based framework in a way
that improves the determinism of the automaton.
--
Alexandre Duret-Lutz
We are pleased to announce the release of Spot 1.1.
Spot is a model-checking library developed collaboratively by LRDE
and LIP6. It provides algorithms and data structures to implement
the automata-theoretic approach to LTL model checking.
This release features several improvements developped with our
collegues from the Mazaryk University (also authors of the ltl3ba
translator) as detailed in the following paper:
Tomáš Babiak, Thomas Badie, Alexandre Duret-Lutz, Mojmír
Křetínský, Jan Strejček: Compositional Approach to Suspension and
Other Improvements to LTL Translation. To appear in the
proceedings of SPIN'13.
You can find the new release here:
http://spot.lip6.fr/dl/spot-1.1.tar.gz
A summary of the changes follows. Please report any issue
to <spot(a)lrde.epita.fr>.
New in spot 1.1 (2013-04-28):
* New features in the library:
- The postprocessor class now takes an optional option_map
argument that can be used to specify fine-tuning options, making
it easier to benchmark different scenarios while developing new
postprocessings.
- A new translator class implements a complete translation chain,
from LTL/PSL to TGBA/BA/Monitor. It performs pre- and
post-processings in addition to the core translation, and offers
an interface similar to that used in the postprocessor class, to
specify the intent of the translation.
- The degeneralization algorithm has learned three new tricks:
level reset, level caching, and SCC-based ordering. The former
two are enabled by default. Benchmarking has shown that the
latter one does not always have a positive effect, so it is
disabled by default. (See SPIN'13 paper.)
- The scc_filter() function, which removes dead SCCs and also
simplify acceptance conditions, has learnt how to simplify
acceptance conditions in a few tricky situations that were not
simplified previously. (See SPIN'13 paper.)
- An experimental "don't care" (direct) simulation has been
implemented. This simulations consider the acceptance
of out-of-SCC transitions as "don't care". It is not
enabled by default because it currently is very slow.
- remove_x() is a function that take a formula, and rewrite it
without the X operator. The rewriting is only correct for
stutter-insensitive LTL formulas (See K. Etessami's paper in IFP
vol. 75(6). 2000) This algorithm is accessible from the
command-line using ltlfilt's --remove-x option.
- is_stutter_insensitive() takes any LTL formula, and check
whether it is stutter-insensitive. This algorithm is accessible
from the command-line using ltlfilt's --stutter-insensitive
option.
- A new translation, called compsusp(), for "Compositional
Suspension" is implemented on top of ltl_to_tgba_fm().
(See SPIN'13 paper.)
- Some experimental LTL rewriting rules that trie to gather
suspendable formulas are implemented and can be activated
with the favor_event_univ option of ltl_simplifier. As
always please check doc/tl/tl.tex for the list of rules.
- Several functions have been introduced to check the
strength of an SCC.
is_inherently_weak_scc()
is_weak_scc()
is_syntactic_weak_scc()
is_complete_scc()
is_terminal_scc()
is_syntactic_terminal_scc()
Beware that the costly is_weak_scc() function introduced in Spot
1.0, which is based on a cycle enumeration, has been renammed to
is_inherently_weak_scc() to match established vocabulary.
* Command-line tools:
- ltl2tgba and ltl2tgta now honor a new --extra-options (or -x)
flag to fine-tune the algorithms used. The available options
are documented in the spot-x (7) manpage. For instance use '-x
comp-susp' to use the afore-mentioned compositional suspension.
- The output format of 'ltlcross --json' has been changed slightly.
In a future version we will offer some reporting script that turn
such JSON output into various tables and graphs, and these change
are required to make the format usable for other benchmarks (not
just ltlcross).
- ltlcross will now count the number of non-accepting, terminal,
weak, and strong SCCs, as well as the number of terminal, weak,
and strong automata produced by each tool.
* Documentation:
- org-mode files used to generate the documentation about
command-line tools (shown at http://spot.lip6.fr/userdoc/tools.html)
is distributed in doc/org/. The resulting html files are also
in doc/userdoc/.
* Bug fixes:
- There was a memory leak in the LTL simplification code, that could
only be triggered when disabling advanced simplifications.
- The translation of the PSL formula !{xxx} was incorrect when xxx
simplified to false.
- Various warnings triggered by new compilers.
--
Alexandre Duret-Lutz
We are happy to announce that the following paper has been accepted
for publication in the International Journal of Document Analysis and
Recognition (IJDAR):
Guillaume Lazzara (1) and Thierry Géraud (1)
Efficient Multiscale Sauvola's Binarization
http://publis.lrde.epita.fr/201302-IJDAR
(1) EPITA Research and Development Laboratory (LRDE)
This work is focused on the most commonly used binarization method:
Sauvola's. It performs relatively well on classical documents. However,
three main defects remain : the window parameter of Sauvola's formula do
not fit automatically to the content; it is not robust to low contrasts;
it is non-invariant with respect to contrast inversion. Thus, on
documents such as magazines, the content may not be retrieved correctly
which is crucial for indexing purpose. In this paper, we describe how to
implement an efficient multiscale implementation of Sauvola's algorithm
in order to guarantee good binarization for both small and large objects
inside a single document without adjusting the window size to the
content. We also describe on how to implement it in an efficient way,
step by step. Pixel-based accuracy and OCR evaluations are performed on
more than 120 documents. This implementation remains notably fast
compared to the original algorithm. For fixed parameters, text
recognition rates and binarization quality are equal or better than
other methods on small and medium text and is significantly improved on
large text. Thanks to the way it is implemented, it is also more robust
on textured text and on image binarization. This implementation extends
the robustness of Sauvola's algorithm by making the results almost
insensible to the window size whatever the object sizes. Its properties
make it usable in full document analysis toolchains.
--
Guillaume Lazzara
EPITA Research and Development Laboratory (LRDE)
14-16 rue Voltaire F-94276 Le Kremlin-Bicetre France
phone +33 1 53 14 59 39 - fax +33 1 53 14 59 22
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 24 avril 2013 (11--12h), Salle L-Alpha du LRDE.
Au programme:
* 11h: Designing robust distributed systems with weakly interacting feedback structures
-- Peter Van Roy, Université catholique de Louvain
http://www.info.ucl.ac.be/~pvr/WIFSpaper.pdf
Large distributed systems on the Internet are subject to hostile
environmental conditions such as node failures, erratic communications,
and partitioning, and global problems such as hotspots, attacks,
multicast storms, chaotic behavior, and cascading failures. How can we
build these systems to function in predictable fashion in such
situations as well as being easy to understand and maintain? In our work
on building self-managing systems in the SELFMAN project, we have
discovered a useful design pattern for building complex systems, namely
as a set of Weakly Interacting Feedback Structures (WIFS). A feedback
structure consists of a graph of interacting feedback loops that
together maintain one global system property. We give examples of
biological and computing systems that use WIFS, such as the human
respiratory system and the TCP family of network protocols. We then show
the usefulness of the design pattern by applying it to the Scalaris
key/value store from SELFMAN. Scalaris is based on a structured
peer-to-peer network with extensions for data replication and
transactions. Scalaris achieves high performance: from 4000 to 14000
read-modify-write transactions per second on a cluster with 1 to 15
nodes each containing two dual-core Intel Xeon processors at 2.66 GHz.
Scalaris is a self-managing system that consists of five WIFS, for
connectivity, routing, load balancing, replication, and transactions. We
conclude by explaining why WIFS are an important design pattern for
building complex systems and we outline how to extend the WIFS approach
to allow proving global properties of these systems.
-- Peter Van Roy is coauthor of the classic programming textbook
"Concepts, Techniques, and Models of Computer Programming" and professor
at the Université catholique de Louvain in Belgium. His group hosts the
Mozart Programming System (see www.mozart-oz.org), with which he
explores the relationship between programming languages and distributed
programming. He wrote the Aquarius Prolog compiler, the first to
generate code competitive in performance with C compilers. He received a
M.S. and Ph.D. in Computer Science from the University of California at
Berkeley and a French "Habilitation à Diriger des Recherches" from the
Université Paris Diderot.
!!! Attention !!!
La session prévue le 10 avril 2013 sur les "Langages de développement
et sécurité --- Mind your language" par Eric Jaeger et Olivier Levillain (ANSSI)
est reportée au Mercredi 29 mai 2013.
Et le 22 mai Basile Starynkevitch, CEA LIST, montrera comment "Etendre le compilateur
GCC avev MELT".
Pour plus de renseignements, consultez http://seminaire.lrde.epita.fr/.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible.
--
Akim Demaille
Akim.Demaille(a)lrde.epita.fr
_______________________________________________
Seminaire mailing list
Seminaire(a)lrde.epita.fr
https://www.lrde.epita.fr/mailman/listinfo/seminaire
Chers collègues,
La session d'avril du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 10 avril 2013 (10--12h), Salle L-Alpha du LRDE.
Au programme:
* 10h: Langages de développement et sécurité --- Mind your language
-- Eric Jaeger et Olivier Levillain, ANSSI (Agence nationale de la sécurité des
systèmes d'information)
http://www.ssi.gouv.fr/fr/anssi/publications/publications-scientifiques/aut…
Il existe de nombreux langages informatiques, et les débats concernant
leurs avantages et inconvénients respectifs sont nombreux, mais peu
considèrent la question du développement d'applications sécurisées,
c'est-à-dire robustes contre les actions d'agents malveillants. C'est
l'optique abordée dans cette présentation, qui rebondit sur de
nombreuses illustrations dans différents langages afin de pouvoir cerner
ce que seraient les bonnes propriétés d'un langage vis-à-vis de la
sécurité, mais aussi des recommandations de codage pertinentes ou encore
des outils pertinents pour le développement et l'évaluation
d'applications de sécurité.
-- Eric Jaeger travaille à l'ANSSI depuis 2004. Après plusieurs années
dans les laboratoires, pendant lesquelles il a notamment travaillé sur
les apports et les limites des méthodes formelles pour les
développements de sécurité, il est devenu chef du centre de formation à
la sécurité des systèmes d'information (CFSSI). Il est à l'origine des
études sur les langages commandées par l'ANSSI depuis 2008 (JavaSec sur
le langage Java, et LaFoSec sur les langages fonctionnels).
-- Olivier Levillain travaille dans les laboratoires de l'ANSSI depuis
septembre 2007 et est aujourd'hui responsable du laboratoire sécurité
des réseaux et protocoles. Il a été l'un des promoteurs et a participé
au suivi des études JavaSec et LaFoSec entre 2008 et 2012. Il prépare
également une thèse sur la sécurité des navigateurs web, se consacrant
pour l'instant essentiellement aux protocoles SSL/TLS.
Nous vous rappellons que le prochain Séminaire LRDE aura lieu le Mercredi
27 mars. Matthieu Faessel et Michel Bilodeau du Centre de Morphologie
Mathématique (Fontainebleau), Mines ParisTech, interviendront sur
"SMIL : Simple Morphological Image Library"
Nous avons le plaisir de vous annoncer d'ores et déjà le programme
des séances suivantes.
Le 24 avril nous accueillerons Peter Van Roy, Université catholique de Louvain,
qui fera un exposé sur "Designing robust distributed systems with weakly
interacting feedback structures".
Le 22 mai Basile Starynkevitch, CEA LIST, montrera comment "Etendre le compilateur
GCC avev MELT".
Pour plus de renseignements, consultez http://seminaire.lrde.epita.fr/.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible.
--
Akim Demaille
Akim.Demaille(a)lrde.epita.fr
_______________________________________________
Seminaire mailing list
Seminaire(a)lrde.epita.fr
https://www.lrde.epita.fr/mailman/listinfo/seminaire
;; ______ _ _____ _ __ ____
;; | ____| | | / ____| ( ) /_ | |___ \
;; | |__ | | | (___ |/ | | __) |
;; | __| | | \___ \ | | |__ <
;; | |____ | |____ ____) | | | ___) |
;; |______| |______| |_____/ |_| |____/
;;
;; European Lisp Symposium 2013 - ELS'13
;; Madrid, Spain
;;
;; June 1-4, 2013
;;
;; http://els2013.european-lisp-symposium.org/
** DEADLINE EXTENSION: March 17th **
The purpose of the European Lisp Symposium is to provide a forum for
the discussion and dissemination of all aspects of design,
implementation and application of any of the Lisp and Lisp-inspired
dialects, including Common Lisp, Scheme, Emacs Lisp, AutoLisp, ISLISP,
Dylan, Clojure, ACL2, ECMAScript, Racket, SKILL, Hop and so on. We
encourage everyone interested in Lisp to participate.
The main theme of the 2013 European Lisp Symposium is on the use of
these languages with respect to the current grand challenges: big
tables, open data, semantic web, network programming, discovery,
robustness, runtime failures, etc.
The European Lisp Symposium 2013 solicits the submission of papers
with these specific themes in mind, alongside the more traditional
tracks which have appeared in the past editions.
We invite submissions in the following forms:
Papers: Technical papers of up to 15 pages that describe original
results or explain known ideas in new and elegant ways.
Demonstrations: Abstracts of up to 4 pages for demonstrations of
tools, libraries, and applications.
Tutorials: Abstracts of up to 4 pages for in-depth presentations about
topics of special interest for at least 90 minutes and up to 180
minutes.
Lightning talks: Abstracts of up to one page for talks to last for no
more than 5 minutes.
All submissions should be formatted following the ACM SIGS guidelines
and include ACM classification categories and terms. For more
information on the submission guidelines and the ACM keywords, see:
http://www.acm.org/sigs/publications/proceedings-templates and
http://www.acm.org/about/class/1998.
Invited speakers:
Florian Loitsch, Google: Dart, why you should care.
Gérard Assayag, Ircam: Lisp and Music Research.
Important dates:
March, 17th 2013: submission deadline ** EXTENDED **
April, 5th 2013: acceptance results
June, 1-4 2013: symposium
Program Commitee:
Pascal Costanza, Intel, Belgium
Ludovic Courtes, INRIA, France
Theo D'Hondt, Vrije Universiteit Brussel, Belgium
Florian Loitsch, Google, Denmark
Christian Queinnec, UPMC, France
Kurt Noermark, Aalborg University, Denmark
Olin Shivers, Northeastern University, USA
Manuel Serrano, INRIA, France
Didier Verna, EPITA, France
Chair:
Juan Jose Garcia-Ripoll, local organizer
Christian Queinnec, PC co-chair
Manuel Serrano, PC co-chair
--
Resistance is futile. You will be jazzimilated.
Scientific site: http://www.lrde.epita.fr/~didier
Music (Jazz) site: http://www.didierverna.com
EPITA/LRDE, 14-16 rue Voltaire, 94276 Le Kremlin-Bicêtre, France
Tel. +33 (0)1 44 08 01 85 Fax. +33 (0)1 53 14 59 22
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 27 mars 2013 (11--12h), Salle L-Alpha du LRDE.
Au programme:
* 11h: SMIL : Simple Morphological Image Library
-- Matthieu Faessel et Michel Bilodeau, Centre de Morphologie Mathématique (Fontainebleau), Mines ParisTech
http://cmm.ensmp.fr/~faessel/smil/doc/index.html
SMIL est une bibliothèque de traitement d'images 2D/3D. Elle a été
développée pour répondre à une demande de plus en plus forte (en
particulier dans le cas de projets industriels) en termes de
performances : taille d'images (2D ou 3D) et temps d'exécution.
Développée en C++ et utilisant les templates, elle peut être utilisée
avec n'importe quel type standard de données. Un effort important a été
porté sur la factorisation du code (par le biais de functors), d'une
part, pour faciliter l'intégration de nouvelles fonctions, et d'autre
part pour concentrer les parties du code permettant l'optimisation. Ces
"briques" communes optimisées utilisent le code SIMD généré par
l'auto-vectorisation de gcc et sont également parallélisées grâce à
l'utilisation d'OpenMP.
-- Matthieu Faessel et Michel Bilodeau sont chercheurs au Centre de
Morphologie Mathématique, Mines ParisTech. Ils travaillent dans des
domaines tels que le contrôle industriel, la vision par ordinateur,
l'étude des matériaux et le développement d'architectures logicielles et
matérielles.
Pour plus de renseignements, consultez http://seminaire.lrde.epita.fr/.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible.
--
Akim Demaille
Akim.Demaille(a)lrde.epita.fr
_______________________________________________
Seminaire mailing list
Seminaire(a)lrde.epita.fr
https://www.lrde.epita.fr/mailman/listinfo/seminaire
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 20 février 2013 (11--12h), Salle L-Alpha du LRDE.
Au programme:
* 11h: Une représentation d'images 2D discrète, continue et auto-duale
-- Thierry Géraud, EPITA-LRDE
http://www.lrde.epita.fr/people/theo
En morphologie mathématique, la représentation d'une image par l'arbre
des formes n'est en fait pas vraiment auto-duale: elle se heurte à la
dualité entre séparation et connexité (c4 vs. c8 en 2D) et au final des
aberrations apparaissent. À la recherche d'un algorithme original pour
le calcul de l'arbre des formes, une nouvelle représentation discrète
d'images 2D est apparue. Définie sur la grille de Khalimsky avec la
topologie d'Alexandroff et s'appuyant sur l'analyse multivoque, cette
représentation a la particularité de satisfaire à de nombreuses
propriétés du continu et de s'affranchir des problèmes topologiques
classiques.
-- Thierry Géraud est enseignant-chercheur au Laboratoire de Recherche et
Développement de l'EPITA (LRDE), habilité à diriger les recherches.
Il est chercheur invité au laboratoire A3SI (ESIEE, LIGM,
Univ. Paris-Est Marne-la-Vallée). Il dirige le développement d'Olena,
une plateforme libre de traitement d'images. Il en utilise, conçoit
et maintient le cœur: Milena, une bibliothèque moderne, générique et
efficace, écrite en C++.
Pour plus de renseignements, consultez http://seminaire.lrde.epita.fr/.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible.
--
Akim Demaille
Akim.Demaille(a)lrde.epita.fr
_______________________________________________
Seminaire mailing list
Seminaire(a)lrde.epita.fr
https://www.lrde.epita.fr/mailman/listinfo/seminaire
I'm happy to announce that my contribution to TUG 2011, the next TeX
Users Group International conference, has been accepted. Please find the
title and abstract below.
LaTeX Coding Standards
Because LaTeX (and ultimately TeX) is only a macro-expansion system, the
language does not impose any kind of good software engineering practice,
program structure or coding style whatsoever. As a consequence, writing
beautiful code (for some definition of "beautiful") requires a lot of
self-discipline from the programmer.
Maybe because in the LaTeX world, collaboration is not so widespread
(most packages are single-authored), the idea of some LaTeX Coding
Standards is not so pressing as with other programming languages. Some
people may, and probably have developed their own programming habits,
but when it comes to the LaTeX world as a whole, the situation is close
to anarchy.
Over the years, the permanent flow of personal development experiences
contributed to shape my own taste in terms of coding style. The issues
involved are numerous and their spectrum is very large: they range from
simple code layout (formatting, indentation, naming schemes etc.),
mid-level concerns such as modularity and encapsulation, to very
high-level concerns like package interaction/conflict management and
even some rules for proper social behavior.
In this talk, I will report on all these experiences and describe what I
think are good (or at least better) programming practices. I believe
that such practices do help in terms of code readability,
maintainability and extensibility, all key factors in software
evolution. They help me, perhaps they will help you too.
--
Resistance is futile. You will be jazzimilated.
Scientific site: http://www.lrde.epita.fr/~didier
Music (Jazz) site: http://www.didierverna.com
EPITA/LRDE, 14-16 rue Voltaire, 94276 Le Kremlin-Bicêtre, France
Tel. +33 (0)1 44 08 01 85 Fax. +33 (0)1 53 14 59 22
Bonjour,
nous avons le plaisir de vous inviter au séminaire des étudiants du
LRDE. Il aura lieu le mercredi 16 janvier 2013 à partir de 10 heures en
Amphi 3 (KB).
-----------------------------------------------------------------------
Au programme :
SPOT
* 10h00 : Réduction par simulation pour les TGBA -- Thomas Badie
* 10h30 : Méthodes de réduction par ordre partiel adaptatives -- Pierre
Parutto
VERIFICATION DU LOCUTEUR
* 11h00 : Spherical Discriminant Analysis -- Victor Lenoir
CLIMB
* 11h30 : Parallélisation de Climb -- Laurent Senta
* 12h00 - 14h00 : PAUSE DEJEUNER
VAUCANSON
* 14h00 : FSMXML pour Vaucanson 2.0 -- David Moreira
OLENA
* 14h30 : Calcul du flux optique dans des séquences avec des parties
manquantes -- Sylvain Lobry
* 15h00 : Inpainting rapide préservant la structure -- Coddy Levi
Les Résumés des exposés :
**************************
SPOT
* 10h00 : Réduction par simulation pour les TGBA -- Thomas Badie
L'approche par automates du model checking s'appuie traditionnellement
sur des Automates de Büchi (BA) qu'on souhaite les plus petits
possible. Spot, bibliothèque de model checking, utilise principalement
des TGBA qui généralisent les BA. Nous avons déjà présenté une méthode
de réduction par simulation (dite directe). Cette technique a permis
de produire des automates plus petits que dans les précédentes
versions.
La simulation consiste à fusionner les états ayant le même suffixe
infini. Nous montrons que nous pouvons aussi fusionner ceux ayant le
même préfixe infini (c'est la cosimulation). On peut répéter la
simulation et la cosimulation pour créer la simulation itérée. Cette
méthode est incluse dans Spot 1.0 et est une grande amélioration de la
simulation.
On expérimente aussi une méthode qui consiste à modifier certaines
conditions d'acceptations (appellées sans importances). Puisque celles
qui sont sur les transitions entre composantes fortement
connexes n'ont pas d'influence sur le langage, on peut les modifier
pour aider la simulation.
* 10h30 : Méthodes de réduction par ordre partiel adaptatives -- Pierre
Parutto
Le model checking explicite de systèmes concurrents souffre d'une
croissance exponentielle du nombre d'états représentant un
système. Les méthodes de réduction par ordre partiel sont un
ensemble de méthodes permettant de combattre ce
problème. Celles-ci permettent d'ignorer les états redondants lors
de la génération de l'espace d'états. Parmi elles, nous avons
choisi les algorithmes two phase et ample set comme base pour nos
investigations. Ceux-ci ont été implémentés dans Spot, la
bibliothèque C++ de model checking développée au
LRDE, en utilisant l'interface DiVine. En se basant sur ces
méthodes et sur le fait que les algorithmes dans Spot sont
calculés à la volée, nous avons défini une nouvelle classe de
méthodes appelées méthodes de réduction par ordre partiel
adaptatives. L'idée est de se baser sur l'état courant de
l'automate de la formule et non sur la formule tout entière. Les
résultats obtenus sur notre suite de tests montrent que cette
méthode donne de meilleurs résultats que les méthodes d'ordre
partiel classiques.
VERIFICATION DU LOCUTEUR
* 11h00 : Spherical Discriminant Analysis -- Victor Lenoir
Le rôle de la vérification de locuteur est de vérifier
l’identité présumée d’un segment de
parole. Actuellement, les meilleures performances sont
obtenues par un mapping de chaque segment de parole d’un
locuteur vers un vecteur appelé I-vector. Le score de la
vérification de locuteur est calculé par une distance
cosine entre ces deux vecteurs représentant chacun un
locuteur. Ce rapport décrit une technique de réduction
de dimension appelée Spherical Discriminant Analysis
(SDA). Les objectifs de cette projection sont de maximiser
la distance cosinus entre deux locuteurs différents et de
minimiser la distance cosinus entre deux même locuteurs; il
a été montré que le sous-espace de la SDA, qui est plus
approprié pour la distance cosinus que la Linear
Discriminant Analysis (LDA), obtient de meilleures performances
en reconnaissance faciale. Nous allons comparer les
performances obtenues par la SDA avec celles obtenues par la
LDA.
CLIMB
* 11h30 : Parallélisation de Climb -- Laurent Senta
Climb est une bibliothèque de traitement d’image générique développée
en Common Lisp. Elle fournit une couche de génécité bas-niveau
utiliséee pour définir de nouveaux algorithmes de traitement d’image.
Il est aussi possible de créer des chaînes de traitements soit en
utilisant un "Domain Specific Language" déclaratif ou bien à l’aide
d’une interface graphique. Afin d’améliorer les performances de la
bibliothèque, ces différents niveaux peuvent être parallélisés. Nous
décrirons les différents aspects de ce processus de
parallélisation. Pour chaque niveau, nous détaillons l’implémentation
des traitements parallèles, leurs impacts sur l’utilisabilité de la
bibliothèque ainsi que les gains de performance obtenus.
VAUCANSON
* 14h00 : FSMXML pour Vaucanson 2.0 -- David Moreira
Vaucanson est une bibliothèque de manipulation d'automates et de
transducteurs. La version 2.0 est aujourd'hui en cours de
développement et le design a été revu pour avoir des parties statiques
et dynamiques. Dans Vaucanson 1.4, les entrées/sorties utilisent
intensivement le format XML spécifié par le groupe de Vaucanson,
FSMXML. Mes travaux consistent à développer et rafraîchir des
spécifications du format présent dans Vaucanson 1.4. Cette mise à jour
nous permet la sauvegarde et la lecture d'automates aux Weight Sets
particuliers tels que des expressions rationnelles ou même des
automates pondérés.
OLENA
* 14h30 : Calcul du flux optique dans des séquences avec des parties
manquantes -- Sylvain Lobry
Calculer le flux optique peut être un premier pas vers l'inpainting
vidéo. Pour cette application, nous devons manipuler des séquences
avec des zones manquantes, celles à inpainter. Le flux optique peut
être calculé de manière locale ou globale. Les méthodes globales ont
généralement de meilleurs résultats. Dans le cas de séquences avec
des zones manquantes, les méthodes globales ne peuvent pas être
utilisées de manière directe à cause du manque d'informations dans ces
régions. Nous présentons une méthode combinant des algorithmes locaux
et globaux afin de calculer le flux optique dans ce type de séquences
ce qui nous permet d'inpainter efficacement et simplement des vidéos.
* 15h00 : Inpainting rapide préservant la structure -- Coddy Levi
Le texte sujet à extraction via l'analyse de document peut être
présent dans deux formes : foncé sur fond clair ou clair sur fond
foncé, appelé Inverse Video. Nous présenterons les
problématiques liées à l'extraction de l'inverse video dans
Scribo en utilisant la chaîne de traitement déjà existante, les
problèmes ainsi introduits et les pistes explorées pour
l'amélioration des résultats.
--
Daniela Becker
Responsable administrative du LRDE