The Olena Team is proud to announce the release of Olena 2.1.
Olena is a platform dedicated to image processing and pattern
recognition. Its core component is a generic and efficient C++
library called Milena. Milena provides a framework to implement
simple, fast, safe, reusable and extensible image processing tool
chains. The library provides many ready-to-use image data structures
(regular 1D, 2D, 3D images, graph-based images, etc.) and algorithms.
Milena's algorithms are built upon classical entities from the image
processing field (images, points/sites, domains, neighborhoods, etc.).
This design allows image processing developers and practitioners to
easily understand, modify, develop and extend new algorithms while
retaining the core traits of Milena: genericity and efficiency.
On top of Milena, the Olena platform also features optional modules
such as Swilena, a component exposing Milena to other languages thanks
to the Simplified Wrapper and Interface Generator (SWIG); and the
Scribo module for Document Image Analysis (see below).
The Olena platform is Free Software. It is distributed under the
conditions of the GNU General Public License (GPL) version 2. See the
file COPYING shipped with the Olena distribution.
Release notes are available at:
http://olena.lrde.epita.fr/Olena210
You can download packages of the Olena 2.1 distribution here:
http://www.lrde.epita.fr/dload/olena/2.1/olena-2.1.tar.gz (50 MB)
http://www.lrde.epita.fr/dload/olena/2.1/olena-2.1.tar.bz2 (37 MB)
The SHA1 digests of theses packages are:
bae986faa08c908bd0e167e96c168033a53b5b47 olena-2.1.tar.gz
54f756b033a45d4c2fe1233c10fc43f99f9f552f olena-2.1.tar.bz2
This version is mostly a ``fix-up'' release of Olena 2.0, containing
many corrections and improvements since the previous release.
Here is a list of major changes since Olena 2.0:
* New and improved algorithms (binarization, skeletonization, layout
analysis) and I/O routines (PDF, VTK).
* Minimal support for FFTW 3 (Fast Fourier Transform).
* The Scribo distribution now contains a Doxygen
documentation.
* Support for modern toolchains and especially recent C++ compilers
(GCC 4.8, Clang 3.5).
The file NEWS, milena/NEWS, scribo/NEWS and swilena/NEWS, included in
the archive, contain a more complete list of user-visible changes.
Please report any problem by e-mail to <olena-bugs(a)lrde.epita.fr>.
--
Roland Levillain
EPITA Research and Development Laboratory (LRDE)
14-16, rue Voltaire - FR-94276 Le Kremlin-Bicêtre Cedex - France
Phone: +33 1 53 14 59 45 - Fax: +33 1 53 14 59 22 - www.lrde.epita.fr
Bonjour,
nous avons le plaisir de vous inviter au séminaire des étudiants-chercheurs du
LRDE. Il aura lieu le jeudi 10 juillet 2014 à partir de 10h30 en Amphi 3 (KB).
-----------------------------------------------------------------------
Au programme :
Matin :
VAUCANSON
* 10h30 : Composition de transducteurs dans Vaucanson
2 - Valentin Tolmer
* 11h00 : Recherche de mots synchronisants dans un
DFA - Antoine Pietri
OLENA
* 11h30 : Détection de logotypes et autres invariants caractéristiques
à l’aide de descripteurs SIFT - Anthony Seure
* 12h15 : Inpainting d’images couleur - Nicolas Allain
* 12h45 : Utilisation du clustering pour la reconnaissance
de caractères - Antoine Lecubin
Après-midi :
Speaker ID
* 14h30 : Regroupement de locuteur à base de Self-
Organizing Map - Jean-Luc Bounthong
* 15h00 : Le partitionnement de Newman-Girvan pour
les systèmes de reconnaissance du locuteur — Jimmy Yeh
* 15h30 : L’algorithme de partitionnement de Markov
pour les systèmes de reconnaissance du locuteur - Fanny Riols
* 16h15 : Détection de communautés avec l’algorithme
de l’Infomap - Mickael Saada
SPOT
* 16h45 : Un Feedback Arc Set pour Spot - Alexandre Lewkowicz
Les Résumés des exposés :
**************************
VAUCANSON
* 10h30 : Composition de transducteurs dans Vaucanson
2 - Valentin Tolmer
Les transducteurs sont utilisés dans beaucoup de
domaines, comme par exemple en linguistique pour
modéliser des règles phonologiques, pour les expressions
régulières, pour des languages de spécification,
pour de la reconnaissance vocale... Quand on les manipule,
un outil pour le moins indispensable est la
composition. En tant que tel, il est essentiel de l’implémenter
dans Vaucanson, de manière efficace. Ce
rapport va présenter les fondations sur lesquelles
s’appuie la composition de transducteurs, puis son
implémentation et son optimisation. La composition
est considérée ici comme un cas particulier du produit
d’automates à transitions spontanées, donc trois
algorithmes de produit sont présentés ici, suivi de
concepts d’implémentation essentiels.
* 11h00 : Recherche de mots synchronisants dans un
DFA - Antoine Pietri
Le problème de recherche de mots synchronisants
les plus courts possibles est un problème important
qui a beaucoup d’applications (orienteurs mécaniques,
problème de coloration de route, vérification
de modèles, bioinformatique, protocoles réseaux,
etc.) Un mot synchronisant (ou une séquence de
réinitialisation) pour un automate fini déterministe
est une séquence d’étiquettes qui envoie n’importe
quel état de l’automate d’entrée à un seul et même
état. Trouver le plus court mot synchronisant dans
un automate général est NP-complet, c’est pourquoi
la plupart des algorithmes sont des heuristiques qui
cherchent à trouver des mots les plus courts possibles
en temps polynomial. Dans cet exposé, nous comparerons
les différentes approches utilisées par les
algorithmes principaux les plus connus (Glouton et
Cycle, SynchroP et SynchroPL), en termes de complexité
spatiale et temporelle, et les résultats effectifs
(longueur moyenne des mots trouvés, temps utilisé
par l’algorithme en moyenne). Nous discuterons
aussi des différentes représentations intermédiaires
utilisées par ces algorithmes, et comment utiliser les
informations qu’elles contiennent.
OLENA
* 11h30 : Détection de logotypes et autres invariants caractéristiques
à l’aide de descripteurs SIFT - Anthony Seure
La détection d’éléments discriminants dans une
image est un sujet très actif de vision par ordinateur.
Aujourd’hui, les applications sont très diverses,
allant de la robotique à la photographie numérique
assistée. Notre exposé se concentrera sur la détection
de logotypes dans des images naturelles. Pour
ce faire, nous nous basons sur Olena, une plateforme
libre, générique et performante de traitement
d’images afin d’implémenter un détecteur de points clés
: les descripteurs SIFT.
* 12h15 : Inpainting d’images couleur - Nicolas Allain
L’inpainting est une technique de traitement
d’images. Son but est de reconstruire une zone
d’une image sans connaître l’aspect originel de ladite
image. Il existe deux grandes familles de méthodes
d’inpainting : l’une est basée sur la prolongation des
zones à fort contraste, l’autre sur la synthèse de textures.
Ce procédé est utile dans le cas de sous-titres
incrustés dans une vidéo ou de texte dans une image.
Un inpainting est également utilisé sur des images
dégradées, abîmées, ou présentant un objet non désiré.
Notre but est de reconstruire le fond caché par
du texte précédemment segmenté. Nous étudions la
méthode de Khodadadi basée sur l’ordre dans lequel
les pixels dégradés de l’image sont reconstruits
via une synthèse de texture. Nous utilisons le critère
de l’erreur quadratique moyenne pour évaluer nos
résultats. Nous analysons les résultats obtenus, les
améliorations effectuées, et les progrès obtenus.
* 12h45 : Utilisation du clustering pour la reconnaissance
de caractères - Antoine Lecubin
Nous présenterons une méthode d’amélioration
de la classification dans l’application de reconnaissance
de caractères du laboratoire basée sur le
groupement des caractères en classes. Nous verrons
d’abord comment déterminer et imbriquer les
groupes de caractères les plus intéressants à classer
ensemble grâce à un algorithme de clustering appliqué
aux données fournies par le descripteur à base
d’ondelettes. Puis nous nous pencherons sur l’adaptation
de la phase de classification pour qu’elle s’effectue
en plusieurs temps et prenne en compte ces
groupements. Enfin nous nous intéresserons à l’évolution
du taux de reconnaissance obtenue grâce à
cette méthode.
Speaker ID
* 14h30 : Regroupement de locuteur à base de Self-
Organizing Map - Jean-Luc Bounthong
Les i-vectors représentent actuellement l’état de
l’art dans le domaine de la vérification du locuteur.
Des résultats intéressants sont obtenus à partir de
classifieurs tel que la distance cosinus (CD). Cependant,
un tel classifieur nécessite un apprentissage supervisé
et devient donc inutilisable avec une base de
données sans étiquette. Dans cette étude, nous explorerons
une méthode à base de Self-Organizing Map
(SOM) pour étiqueter une base de données quelconque.
L’objectif étant de fournir une méthode pour
entraîner les classifieurs supervisés sur une base de
données non étiquetée. Nous allons aussi comparer
l’efficacité de notre méthode avec d’autres méthodes
telles que Infomap, Markov Clustering et Girvan-
Newman.
* 15h00 : Le partitionnement de Newman-Girvan pour
les systèmes de reconnaissance du locuteur — Jimmy Yeh
La distance cosinus est la méthode de décision la
plus utilisée, elle nécessite une base d’apprentissage
étiquetée afin d’appliquer des algorithmes supervisés.
Pour augmenter la taille de la base de développement
et dans le but de réduire les coûts de constitution
de ces bases, l’utilisation de données non étiquetées
pour l’entraînement du système devient nécessaire.
Le but de ce travail est de tester le partitionnement
de Newman-Girvan afin d’étiqueter les
i-vectors inconnus.
* 15h30 : L’algorithme de partitionnement de Markov
pour les systèmes de reconnaissance du locuteur - Fanny Riols
Grâce à des méthodes d’apprentissage supervisé
(la Distance Cosinus avec l’Analyse Discriminante
Linéaire et la méthodeWithin Class Covariance), des
progrès significatifs ont été réalisés dans ce domaine.
Cependant, de récentes recherches proposent d’utiliser
une base de données non étiquetées d’i-vectors,
afin d’augmenter la taille de l’ensemble des données
d’entraînement et de réduire le coût de constitution
de cette base. C’est pourquoi nous basons notre
étude sur l’espace des i-vectors, et travaillons ainsi
avec des méthodes d’apprentissage non supervisé.
Dans cette étude, nous utilisons une méthode de
partitionnement, le processus de Markov Clustering
(MCL), afin de regrouper de façon naturelle les ivectors
qui représentent un même locuteur dans un
ensemble d’entités. L’algorithme MCL est un algorithme
de partitionnement non supervisé rapide et
extensible, basé sur la simulation de flux stochastiques
dans les graphes. Le résultat du partitionnement
est utilisé dans le système supervisé standard
de vérification du locuteur pour évaluer les performances.
Nous allons aussi comparer celles-ci avec
d’autres méthodes de regroupement, comme l’Infomap,
le Self-Organizing Map et Girvan Newmann.
* 16h15 : Détection de communautés avec l’algorithme
de l’Infomap - Mickael Saada
Les récentes recherches sur les i-vectors proposent
d’utiliser des données non étiquetées pour
augmenter la taille des données d’entraînement et
par la même occasion réduire les coûts de la collecte
de ces données. C’est pourquoi nous basons
notre étude dans l’espace des i-vectors et travaillons
sur des méthodes non supervisées. Dans cette étude,
nous explorerons la méthode de l’Infomap qui permet
de trouver les structures communautaires dans
des réseaux afin d’étiqueter des données non étiquetées.
Le but de cette méthode est de maximiser la modularité
d’un graphe en associant les paires de sommets
qui maximisent la modularité. Cet algorithme
est divisé en 3 parties : un algorithme "glouton",
le recuit simulé et l’algorithme du heat-bath. Nous
allons aussi comparer l’efficacité de notre méthode
avec d’autres méthodes telles que Markov Clustering,
Grivan-Newman et Self-Organizing Map.
SPOT
* 16h45 : Un Feedback Arc Set pour Spot - Alexandre Lewkowicz
Spot est une bibliothèque extensible pour le model
checking qui utilise les automates de Büchi généralisés
à transitions acceptantes. Il contient de nombreux
algorithmes de pointes. Dans cet exposé, nous
nous concentrons sur deux de ses algorithmes qui
construisent des automates avec plus de transitions
que nécessaire. En pratique ces constructions utiliseraient
moins de transitions si elles pouvaient calculer
un feedback arc set (FAS), c’est-à-dire un ensemble
de transitions à retirer du graphe pour le rendre
acyclique. Dans l’absolu, on veut un FAS minimal,
mais ce problème est NP-difficile. Nous adaptons et
améliorons une heuristique proposée par Eades et
al. qui permet une construction en temps linéaire.
Nous montrons comment cet algorithme bénéficie à
la complémentation d’automates de Büchi déterministes
et la traduction d’automates de Rabin en automates
de Büchi. En fonction de l’automate traité
on remarque une amélioration montant jusqu’à 31%.
Ces résultats varient beaucoup selon le nombre de
cycles et d’états acceptant.
--
Daniela Becker
Responsable administrative - LRDE
ILC 2014 - International Lisp Conference
"Lisp on the Move"
August 15-17 2014, Université de Montréal, Montréal, Canada
Sponsored by the Association of Lisp Users
In cooperation with: ACM SIGPLAN
http://ilc2014.iro.umontreal.ca/
Latest News:
* Registration is now open.
See http://ilc2014.iro.umontreal.ca/registration.php
* Invited speakers announced.
Christian Queinnec, Ambrose Bonnaire-Sergeant, Stefan Monnier,
Marc Battyani.
Scope:
Lisp is one of the greatest ideas from computer science and a major
influence for almost all programming languages and for all
sufficiently complex software applications.
The International Lisp Conference is a forum for the discussion of
Lisp and, in particular, the design, implementation and application of
any of the Lisp dialects. We encourage everyone interested in Lisp to
participate.
This year's focus is directed towards integrated solutions, including
mobile computing. The conference also provides slots for lightning talks,
to be registered on-site every day.
The full programme is available here:
http://ilc2014.iro.umontreal.ca/program.php
Important Dates:
- July 14, 2014: Early registration deadline
- August 15, 2014: Conference starts
Organizing Committee:
General Chair: Marc Feeley (Université de Montréal, Montréal, Canada)
Programme Chair: Didier Verna (EPITA Research lab, Paris, France)
Local chair: Marc Feeley (Université de Montréal, Montréal, Canada)
Programme Committee:
Charlotte Herzeel, IMEC, ExaScience Life Lab, Belgium
Dave Herman, Mozilla Research, USA
Greg Pfeil, Clozure Associates, USA
Irène Anne Durand, LaBRI University of Bordeaux, France
Jim Newton, Cadence Design Systems, France
Kuroda Hisao, Mathematical Systems Inc., Japan
Matthew Might, University of Utah, USA
Nicolas Neuss, Friedrich Alexander Universitat, Germany
Ralf Möller, TUHH, Germany
Sam Tobin-Hochstadt, Northeastern University, USA
William Byrd, University of Utah, USA
Contact: ilc14-organizing-committee at alu.org
For more information, see http://ilc2014.iro.umontreal.ca/
--
Resistance is futile. You will be jazzimilated.
Lisp, Jazz, Aïkido: http://www.didierverna.info
I am happy to announce that the following paper has been accepted at
the International SPIN Symposium on Model Checking of Software, to be
held on July 21–23 in San Jose, California.
Is There a Best Büchi Automaton for Explicit Model Checking?
František Blahoudek¹ Alexandre Duret-Lutz²
Mojmír Křetínský¹ Jan Strejček¹
¹Masaryk University, Brno, Czech Republic
²LRDE, EPITA, Le Kremlin-Bicêtre, France
https://www.lrde.epita.fr/wiki/Publications/blahoudek.14.spin
Abstract:
LTL to Büchi automata (BA) translators are traditionally optimized
to produce automata with a small number of states or a small number
of non-deterministic states. In this paper, we search for properties
of Büchi automata that really influence the performance of explicit
model checkers. We do that by manual analysis of several automata
and by experiments with common LTL-to-BA translators and realistic
verification tasks. As a result of these experiences, we gain a
better insight into the characteristics of automata that work well
with Spin.
--
Alexandre Duret-Lutz
Bonjour,
Je vous informe que je présenterai notre expérience de MOOC à la
conférence "Informatique et MOOC" organisée par la Société Informatique
de France :
http://www.societe-informatique-de-france.fr/enseignement/j-pedago/j-pedago…
Mardi 24 juin matin
Olivier Ricou, LRDE, EPITA. Python pour les enseignants des classes
préparatoires
Olivier.
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 11 juin 2014.
Attention : changement d'horaire pour cette session !!
Elle aura lieu de 14h30 à 16h00 en Salle L0 au LRDE.
Au programme:
* 14h30 : Méthodes rapides pour le traitement, l'analyse et la synthèse en informatique graphique
-- Tamy Boubekeur, Professeur, Telecom ParisTech
http://www.telecom-paristech.fr/~boubek
L'informatique graphique 3D, qu'il s'agisse de modélisation de formes,
d'analyse d'animation ou de synthèse d'images, exploite intensivement
divers types de structures spatiales telles que les hiérarchies volumes
englobant, les cages de déformation, les squelettes d'animation ou bien
encore les structures médianes.
Dans cette présentation, je reviendrai sur quelques uns de nos travaux
récents sur ce sujet. Je détaillerai notamment une nouvelle forme de
représentation d'objets 3D, les Sphere-Meshes, bien adaptés à
l'approximation extrême de forme et à l'auto-rigging pour la déformation
interaction. Je discuterai ensuite plusieurs projets liés à l'analyse de
formes, dont le système CageR pour l'ingénierie inverse de modèles issus
de performance capture. J'aborderai enfin le rendu temps-réel et le
calcul GPU dans le cadre l'éclairage global, qui s'appuie lui aussi sur
la gestion efficace d'une structure particulière : un arbre de radiance.
À chaque étape, je donnerai des éléments sur l'implémentation pratique
de ces approches et sur les nombreux défis qu'il reste à relever.
-- Tamy Boubekeur est, depuis 2014, Professeur en Informatique au sein du
département de Traitement du Signal et des Images de Telecom ParisTech
(CNRS LTCI, Institut Mines-Telecom). Il a obtenu son doctorat à
l'Université de Bordeaux, au sein de l'INRIA en 2007. De 2004 à 2007, il
était chercheur invité régulier à UBC (Vancouver, Canada). En 2007, il
est devenu chercheur associé à TU Berlin (Allemagne), avant de rejoindre
en 2008 Telecom ParisTech en tant que Maître de Conférences, où il a
créé l'équipe d'informatique graphique. Il a obtenu son Habilitation à
Diriger des Recherches en 2012 à l'Université Paris XI. Il a reçu
plusieurs prix scientifiques, dont le prix Gunter Enderle en 2006.
-- Il publie régulièrement dans les conférences internationales et
journaux majeurs de l'informatique graphique et de la vision par
ordinateur.
Pour plus de renseignements, consultez http://seminaire.lrde.epita.fr/.
Vous pouvez d'ailleurs y trouver les vidéos de séminaires du passé.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible.
--
Akim Demaille
Akim.Demaille(a)lrde.epita.fr
_______________________________________________
Seminaire mailing list
Seminaire(a)lrde.epita.fr
https://lists.lrde.epita.fr/listinfo/seminaire
We are pleased to announce that the following paper has been accepted
to the 21st International Conference on Image Processing (ICIP'14).
A Morphological Method for Music Score Staff Removal
Thierry Géraud
EPITA Research and Development Laboratory (LRDE)
thierry.geraud(a)lrde.epita.fr
Removing the staff in music score images is a key to improve the
recognition of music symbols and, with ancient and degraded
handwritten music scores, it is not a straightforward task. In this
paper we present the method that has won in 2013 the staff removal
competition, organized at the International Conference on Document
Analysis and Recognition (ICDAR). The main characteristics of this
method is that it essentially relies on mathematical morphology
filtering. So it is simple, fast, and its full source code is
provided to favor reproducible research.
We are pleased to announce that the following paper has been accepted
in the 18th international conference on Discrete Geometry for Computer
Imagery (DGCI'14).
On making nD images well-composed by a self-dual local interpolation
Nicolas Boutry Thierry Géraud Laurent Najman
EPITA Research and
Development Laboratory (LRDE)
nicolas.boutry(a)lrde.epita.fr
Natural and synthetic discrete images are generally not well-composed,
leading to many topological issues: connectivities in binary images are
not equivalent, the Jordan Separation theorem is not true anymore, and
so on. Conversely, making images well-composed solves those problems and
then gives access to many powerful tools already known in mathematical
morphology as the Tree of Shapes which is of our principal interest.
In this paper, we present two main results: a characterization of 3D
well-composed gray-valued images; and a counter-example showing that no
local self-dual interpolation with a classical set of properties makes
well-composed images with one subdivision in 3D, as soon as we choose
the mean operator to interpolate in 1D. Then, we briefly discuss various
constraints that could be interesting to change to make the problem
solvable in nD.
We are pleased to announce that the following paper has been accepted
in the 21st International Conference on Image Processing (ICIP'14).
A First Parallel Algorithm to Compute the Morphological
Tree of Shapes of nD Images
Sebastien Crozet Thierry Géraud
EPITA Research and
Development Laboratory (LRDE)
sebastien.crozet(a)lrde.epita.fr
The tree of shapes is a self-dual tree-based image representation
belonging to the field of mathematical morphology. This representation
is highly interesting since it is invariant to contrast changes and
inversion, and allows for numerous and powerful applications. A new
algorithm to compute the tree of shapes has been recently presented:
it has a quasi-linear complexity; it is the only known algorithm that
is also effective for nD images with n > 2; yet it is sequential. With
the increasing size of data to process, the need of a parallel
algorithm to compute that tree is of prime importance; in this paper,
we present such an algorithm. We also give some benchmarks that show
that the parallel version is computationally effective. As a
consequence, that makes possible to process 3D images with some
powerful self-dual morphological tools.
--
Edwin Carlinet
Doctorant à l'Université Paris-Est / EPITA
We are pleased to announce that the following paper has been accepted
in the 21st International Conference on Image Processing (ICIP'14).
A precise skew estimation algorithm for document images using
KNN clustering and Fourier transform
Jonathan Fabrizio
EPITA Research and
Development Laboratory (LRDE)
jonathan.fabrizio(a)lrde.epita.fr
In this article, we propose a simple and precise skew estimation
algorithm for binarized document images. The estimation is performed
in the frequency domain. To get a precise result, the Fourier
transform is not applied to the document itself but the document is
preprocessed: all regions of the document are clustered using a KNN
and contours of grouped regions are smoothed using the convex hull to
form more regular shapes, with better orientation. No assumption has
been made concerning the nature or the content of the document. This
method has been shown to be very accurate and was ranked first at the
DISEC’13 contest, during the ICDAR competitions.
--
Edwin Carlinet
Doctorant à l'Université Paris-Est / EPITA