Bonjour,
J'ai le plaisir de vous inviter à la soutenance de ma thèse intitulée
"Intégration d'informations spatiales floues dans un filtre particulaire
pour le suivi mono- et multi-objets dans des séquences d'images 2D" qui se
déroulera le vendredi 26 novembre 2010 à 14h en Amphi Opale, à Télécom
ParisTech, 46 rue Barrault, 75013 Paris devant le jury composé de :
Rapporteurs :
Mylène Masson (Professeur, UTC)
Wojciech Pieczynski (Professeur, Télécom SudParis)
Examinateurs :
Elise Arnaud (Maître de Conférence, Université Joseph Fourier)
Maurice Milgram (Professeur, ISIR)
Invité :
Jacques Blanc-Talon (Ingénieur de recherche, DGA)
Directrices de thèse :
Séverine Dubuisson (Maître de Conférence, LIP6)
Isabelle Bloch (Professeur, Télécom ParisTech)
La soutenance sera suivie d'un pot en salle C48 auquel vous êtes
chaleureusement conviés.
Cordialement,
Nicolas Widynski
***************************
Résumé :
Dans cette thèse, nous nous intéressons au suivi d’objets par filtrage
particulaire dans des séquences d’images 2D.
Dans ce contexte, nous proposons une méthode originale d'intégration
d’informations floues dans le filtre particulaire, afin de guider le suivi
d’objets en ajoutant des informations spatiales, qui peuvent être de type
structurel ou de forme. Cela permet de mieux guider les particules pendant
la phase prédictive, et grâce au modèle hybride défini, d’intégrer au
filtre particulaire une information synthétisée des k dernières
estimations ainsi que la dernière observation.
Nous proposons également d’intégrer des contraintes spatiales floues dans
le filtre particulaire dans le cas multi-objets. Ce type d’information
permet de représenter des contraintes complexes entre plusieurs objets.
A cette contribution, nous ajoutons celle d’un nouveau modèle de filtre
particulaire pour le suivi multi-objets, qui est une amélioration de
l’échantillonnage partitionné.
Enfin, nous proposons de définir des vraisemblances à modèles multiples.
Cette notion est adaptée lorsque l’objet change d’apparence au cours du
temps. En définissant la vraisemblance par une loi de mélange dont les
poids dépendent de l’objet et de l’image, il est ainsi possible de
pondérer les vraisemblances en considérant l’état dans lequel se trouve
l’objet.
Toutes ces contributions ont été évaluées sur des séquences réelles, et
les résultats montrent l’apport des approches proposées par rapport à
d’autres filtres particulaires classiques.
***************************
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 10 novembre 2010 (14h-16h30).
Au programme:
* 14h: Programmation par propriétés : application au traitement d'images
-- Vicent Tariel
L'idée d'une fonction est que la quantité d'entrée détermine
complètement la quantité de sortie. En informatique, la quantité est une
structure de données qui peut être simple, booléenne, entière, ou
complexe, image, graphe, arbre. Dans ce domaine, un champ de recherche
est de construire un ensemble de fonctions élémentaires, puis par
composition d'en créer des plus compliquées. Pour cette dernière, une
solution pratique est le langage Caméléon conçu par V. Tariel et O.
Cugnon de Sevricourt, qui est un langage de flux de données génériques
dont la sortie est prévue en janvier 2011. Générique signifie que tous
les types de données peuvent être intégrés dans le langage. Pour cette
première, ce séminaire couvrira quelques définitions de fonctions
primaires reliées à l'image, incorporées à la bibliothèque standard de
Caméléon. A la manière de l'implémentation de la bibliothèque standard
du C++, il y aura l'utilisation d'un côté de l'algorithme générique
for_each en typage statique et de l'autre des opérateurs et des
itérateurs organisés en programmation orientée objet. L'itérateur
localise l'action suivant différents paradigmes : ensemble fini et
dénombrable, voisinage, convolution, zone d'influence. L'opérateur agit
suivant différents paradigmes : arithmétique, croissance de régions.
-- Ayant d'un côté un profile "informatique", ingénieur ESIEE avec un
master en traitement d'images, et de l'autre côté un profile "science
des matériaux", thèse en physique à l'école polytechnique avec un autre
master en science des matériaux, le domaine de recherche de Vincent
Tariel est axé sur l'image aussi bien expérimentalement, préparation de
l'échantillon, microscopie, que numériquement, segmentation,
caractérisation géométrique et physique, modélisation.
-- Il est rattaché au Department of Applied Mathematics, Australian
National University
Pour plus de renseignements, consultez http://seminaire.lrde.epita.fr/.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible.
Hello,
I'm pleased to announce that my paper entitled "Classes, Styles,
Conflicts: the Biological Realm of LaTeX" has been published in the
TUGboat journal, volume 32 n. 2, pages 162 -- 172.
A live video recording of the presentation, made at the TUG 2010
conference in San Francisco, is also available at the following adress:
http://river-valley.tv/classes-styles-conflicts-the-biological-realm-of-lat…
--
Resistance is futile. You will be jazzimilated.
Scientific site: http://www.lrde.epita.fr/~didier
Music (Jazz) site: http://www.didierverna.com
EPITA/LRDE, 14-16 rue Voltaire, 94276 Le Kremlin-Bicêtre, France
Tel. +33 (0)1 44 08 01 85 Fax. +33 (0)1 53 14 59 22
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 13 octobre 2010 (14h-16h).
Au programme:
* 14h: Recherche d'images et indexation multimédia basées contenu
-- David Picard
Dans la recherche multimédia basée contenu, on distingue trois champs
d'applications différents : la recherche de cible dans laquelle on
désire retrouver un document particulier ; la recherche interactive,
dans laquelle l'utilisateur définit l'objet de la requête au fil de son
interaction avec le système ; et la catégorisation, où il s'agit
d'étiqueter les données en un certain nombre de classes prédéfinies.
Cette présentation fera le tour d'horizon de mes travaux de recherche
dans deux de ces domaines. Une première partie concernera la recherche
de cible, où je présenterai le cas particulier de la recherche de
quasi-copies dans de très grands volumes de données, et en particulier
une application à la recherche de scènes urbaines identiques dans le
cadre du projet iTowns. Dans la deuxième partie, je développerai mes
travaux récents sur la classification d'images. L'accent y sera mis
sur la
fusion de descripteurs multimédias et les techniques d'apprentissage
statistique permettant d'apprendre conjointement l'opération de fusion
avec la fonction de classification.
-- David Picard est actuellement maître de conférences à l'ENSEA
(Cergy-Pontoise) au sein du laboratoire ETIS. Ses travaux de recherche
sont centrés sur la reconnaissance de forme, l'apprentissage statistique
ainsi que l'indexation de documents multimédia et la recherche
d'information dans un contexte distribué. Il a obtenu sa thèse en 2008
sur la recherche d'image basée contenu à l'aide d'un système
multi-agents, dans le cadre de données distribuées sur un réseau. Il a
effectué ensuite un stage post-doctoral au LIP6 de l'université Pierre
et Marie Curie, financé par le projet iTowns en partenariat avec l'IGN,
pour la conception d'un moteur de recherche multimédia dans un contexte
à la StreetView des rues de Paris.
Pour plus de renseignements, consultez http://seminaire.lrde.epita.fr/.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible.
--
Jonathan Fabrizio
Bonjour,
nous avons le plaisir de vous annoncer la sortie du n°20 du bulletin du
LRDE.
C'est un numéro double Spécial Rentrée qui présente l'ensemble des
membres du LRDE avec en particulier la présentation de trois stagiaires
venus d'Asie et le récit de la récente expérience indienne d'un des
enseignants-chercheurs du labo. Ce numéro donne également un aperçu des
activités du LRDE et de la majeure CSI dont font partie tous les élèves
épitéens intégrant le labo.
Vous y trouverez également les dernières publications et l'annonce du
prochain séminaire LRDE du 13 octobre 2010.
Vous pouvez télécharger le bulletin en couleur à la page suivante :
http://publis.lrde.epita.fr/201009-l-air-de-rien-20
--
Daniela Becker
Responsable administrative du LRDE
Hello,
I'm happy to announce the first public release of Declt.
Declt (pronounce dec'let) is a reference manual generator for Common Lisp.
It extracts and formats documentation from ASDF systems, including the
system itself and its components, the packages defined in the system and
definitions like constants, special variables, macros, functions,
generic functions and methods, conditions, structures and classes.
Reference manuals are generated in Texinfo format which can be
subsequently converted into info, HTML, DVI, PostScript or PDF. The
generated manuals are fully indexed and provide a complete set of
cross-references between documentation elements. For instance, files and
packages point to the definitions they provide, and those definitions
point back to package and file in which they can be found.
Get it at:
http://www.lrde.epita.fr/~didier/software/lisp/misc.php#declt
Declt requires SBCL to work (if you're interested in porting it, grep
PORTME in the sources). Also, ASDF 2 has not been tested yet.
--
Resistance is futile. You will be jazzimilated.
Scientific site: http://www.lrde.epita.fr/~didier
Music (Jazz) site: http://www.didierverna.com
EPITA/LRDE, 14-16 rue Voltaire, 94276 Le Kremlin-Bicêtre, France
Tel. +33 (0)1 44 08 01 85 Fax. +33 (0)1 53 14 59 22
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
4th European Lisp Symposium
Special Focus on Parallelism & Efficiency
March 31 - April 1st, 2011
TUHH, Hamburg University of Technology
Hamburg, Germany
http://www.european-lisp-symposium.org/
~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~~
Important Dates
~~~~~~~~~~~~~~~~
+ Submission Deadline: January 09, 2011
+ Author Notification: February 06, 2011
+ Final Paper Due: February 28, 2011
+ Symposium: March 31 - April 1st, 2011
Authors of accepted research contributions will be invited to submit
an extended version of their papers for journal publication.
Scope
~~~~~~
The purpose of the European Lisp Symposium is to provide a forum for
the discussion and dissemination of all aspects of design,
implementation and application of any of the Lisp dialects, including
Common Lisp, Scheme, Emacs Lisp, AutoLisp, ISLISP, Dylan, Clojure,
ACL2, ECMAScript, Racket and so on. We encourage everyone interested
in Lisp to participate.
The European Lisp Symposium 2011 invites high quality papers about
novel research results, insights and lessons learned from practical
applications, and educational perspectives. We also encourage
submissions about known ideas as long as they are presented in a new
setting and/or in a highly elegant way.
This year's focus will be directed towards "Parallelism & Efficiency".
We especially invite submissions in the following areas:
+ Parallel and distributed computing
+ Code generation for multi-core architectures
+ Code generation for HTM
+ Large and ultra-large systems
+ Optimization techniques
+ Embedded applications
Contributions are also welcome in other areas, including but not
limited to:
+ Context-, aspect-, domain-oriented and generative programming
+ Macro-, reflective-, meta- and/or rule-based development approaches
+ Language design and implementation
+ Language integration, inter-operation and deployment
+ Development methodologies, support and environments
+ Educational approaches and perspectives
+ Experience reports and case studies
Technical Program:
~~~~~~~~~~~~~~~~~~
We invite submissions in the following forms:
* Papers: Technical papers of up to 15 pages that describe original
results or explain known ideas in new and elegant ways.
* Demonstrations: Abstracts of up to 4 pages for demonstrations of
tools, libraries, and applications.
* Tutorials: Abstracts of up to 4 pages for in-depth presentations
about topics of special interest for at least 90 minutes and up to
180 minutes.
* Lightning talks: Abstracts of up to one page for talks to last for
no more than 5 minutes.
All submissions should be formatted following the ACM SIGS guidelines
and include ACM classification categories and terms. For more
information on the submission guidelines and the ACM keywords, see:
http://www.acm.org/sigs/publications/proceedings-templateshttp://www.acm.org/about/class/1998
Submissions should be uploaded to Easy Chair, at the following address:
http://www.easychair.org/conferences/?conf=els2011
Programme Chair
~~~~~~~~~~~~~~~~
Didier Verna - EPITA Research and Development Laboratory, France
Local Chair
~~~~~~~~~~~~
Ralf Moeller - Hamburg University of Technology, Germany
Programme Committee
~~~~~~~~~~~~~~~~~~~~
Antonio Leitao - Instituto Superior Tecnico/INESC-ID, Portugal
Christophe Rhodes - Goldsmiths College, University of London, UK
David Edgar Liebke - Relevance Inc., USA
Didier Verna - EPITA Research and Development Laboratory, France
Henry Lieberman - MIT Media Laboratory, USA
Jay McCarthy - Brigham Young University, USA
Jose Luis Ruiz Reina - Universidad de Sevilla, Spain
Marco Antoniotti - Universita Milano Bicocca, Italy
Manuel Serrano - INRIA, France
Michael Sperber - DeinProgramm, Germany
Pascal Costanza - Vrije Universiteit of Brussel, Belgium
Scott McKay - ITA Software, USA
--
Resistance is futile. You will be jazzimilated.
Scientific site: http://www.lrde.epita.fr/~didier
Music (Jazz) site: http://www.didierverna.com
EPITA/LRDE, 14-16 rue Voltaire, 94276 Le Kremlin-Bicêtre, France
Tel. +33 (0)1 44 08 01 85 Fax. +33 (0)1 53 14 59 22
Hello,
I'm happy to announce the first public release of Clon, the Command-Line
Options Nuker library for Common Lisp.
Get it at: http://www.lrde.epita.fr/~didier/software/lisp/clon.php
Clon is a library for managing command-line options in standalone Common
Lisp applications.
It provides a unified option syntax with both short and long names,
automatic completion of partial names and automatic retrieval /
conversion of option arguments from the command-line, associated
environment variables, fallback or default values.
Clon comes with a set of extensible option types (switches, paths,
strings etc.).
Clon also provides automatic generation and formatting of help strings,
with support for highlighting on tty's through ISO/IEC 6429 SGR. This
formatting is customizable through "themes".
--
Resistance is futile. You will be jazzimilated.
Scientific site: http://www.lrde.epita.fr/~didier
Music (Jazz) site: http://www.didierverna.com
Hello,
as a program committee member, it is my pleasure to announce the next
International Lisp Conference:
***********************************************************************
* *
* International Lisp Conference 2010 *
* October 19-21, 2010 *
* John Ascuaga's Nugget (Casino) *
* Reno/Sparks, Nevada, USA (near Lake Tahoe) *
* *
* Collocated with SPLASH 2010 (OOPSLA & DLS & more) *
* see also http://splashcon.org as well as *
* http://www.dynamic-languages-symposium.org/dls-10/ *
* *
* In association with ACM SIGPLAN (PENDING) *
* *
***********************************************************************
The Association of Lisp Users is pleased to announce that the 2010
International Lisp Conference will be held in Reno, Nevada, in
collocation with SPLASH 2010. The scope includes all areas related to
the Lisp family of programming languages.
Accepted papers will be published in the ACM Digital Library (PENDING).
Extended Abstracts and Papers must be written in English and submitted
electronically at http://www.easychair.org/conferences?conf=ilc2010 in
PDF or WORD format. If an Extended Abstract is submitted, it must be
between 2 and 4 pages, with full paper to follow before final deadline.
Final submissions must not exceed 15 pages and need to use the ACM
format, for which templates which can be found at:
http://www.acm.org/sigs/pubs/proceed/template.html.
Important Dates:
****************
* Deadline for Abstract Submission August 1, 2010
* Deadline for Paper Submission September 6, 2010
* Author notification September 20, 2010
* Final paper due (in electronic form) October 5, 2010
* Conference October 19-21, 2010
Scope:
******
Lisp is one of the greatest ideas from computer science and a major
influence for almost all programming languages and for all
sufficiently complex software applications.
The International Lisp Conference is a forum for the discussion of
Lisp and, in particular, the design, implementation and application of
any of the Lisp dialects. We encourage everyone interested in Lisp to
participate.
We invite high quality submissions in all areas involving Lisp
dialects and any other languages in the Lisp family, including, but
not limited to, ACL2, AutoLisp, Clojure, Common Lisp, ECMAScript,
Dylan, Emacs Lisp, ISLISP, Racket, Scheme, etc.
Topics may include any and all combinations of Lisp and:
* Language design and implementation
* Language critique
* Language integration, inter-operation and deployment
* Applications (especially commercial)
* 'Pearls' (of wisdom)
* Experience reports and case studies
* Reflection, meta-object protocols, meta-programming
* Domain-specific languages
* Programming paradigms and environments
* Parallel and distributed computing
* Software evolution
* Theorem proving
* Scientific computing
* Data mining
* Semantic web
We also encourage submissions about known ideas as long as they are
presented in a new setting and/or in a highly elegant way.
Authors concerned about the appropriateness of a topic may communicate
by electronic mail with the program chair prior to submission.
Each paper should explain its contributions in both general and
technical terms, identifying what has been accomplished, explaining
why it is significant, and comparing it with previous work. Authors
should strive to make their papers understandable to a broad audience.
Each paper will be judged according to its significance, novelty,
correctness, clarity, and elegance.
The official language of the conference is English. Some further
information is available at the conference web site, with more details
added later. See: http://www.international-lisp-conference.org
Technical Program:
******************
Original submissions in all areas related to the conference themes are
invited for the following categories.
* Papers: Technical papers of up to 15 pages that describe original
results or explain known ideas in new and elegant ways, or extended
abstracts of 4 pages soon followed by the corresponding full paper.
* Demonstrations: Abstracts of up to 4 pages for demonstrations of
tools, libraries, and applications.
* Tutorials: Abstracts of up to 4 pages for in-depth presentations
about topics of special interest for at least 90 minutes and up to
180 minutes.
* Workshops: Abstracts of up to 4 pages for groups of people who
intend to work on a focused topic for half a day.
* Panel discussions: Abstracts of up to 4 pages for discussions about
current themes. Panel discussion proposals must mention panel
members who are willing to partake in a discussion.
* Lightning talks: Abstracts of up to one page for talks to last for
no more than 5 minutes.
Depending on the technical content, each submitted paper will be
classified by the program committee as either a technical paper or as
an experience paper; and authors will be informed about this
classification. Note that all interesting submissions are considered
valuable contributions to the success of the ILC series of
conferences. As in past ILC's since 2007, accepted papers in both
categories will be presented at the conference, included in the
proceedings, and submitted to the ACM digital library.
Organizing Committee:
*********************
* General Chair:
JonL White The Ginger IceCream Factory of Palo Alto, ALU
* Program Chair:
Antonio Leitao Instituto Superior Tecnico/INESC-ID
* Conference Treasurer:
Duane Rettig Franz, Inc., ALU Director
* Publicity Chair:
Daniel Herring ALU Director
* ALU Treasurer:
Rusty Johnson TASC, Inc., ALU Director
Program Committee:
******************
* Antonio Leitao Instituto Superior Tecnico/INESC-ID, Portugal
* Alex Fukunaga University of Tokyo, Japan
* Charlotte Herzeel Vrije Universiteit Brussel, Belgium
* Christophe Rhodes Goldsmiths College, University of London, UK
* Didier Verna EPITA Research and Development Laboratory, France
* Duane Rettig Franz, Inc., USA
* Giuseppe Attardi University of Pisa, Italy
* Jeff Shrager Symbolic Systems Program, Stanford University, USA
* Joe Marshall Google, Inc., USA
* Julian Padget University of Bath, UK
* Keith Corbet Clozure Associates, USA
* Kent Pitman PTC, USA
* Manuel Serrano INRIA Sophia Antipolis, France
* Marc Feeley University of Montreal, Canada
* Marie Beurton-Aimar University of Bordeaux 1, France
* Mark Stickel SRI International, USA
* Matthias Felleisen Northeastern University, USA
* Scott McKay ITA Software, USA
Contacts:
*********
* Questions: ilc10-organizing-committee at alu.org
* Program Chair: ilc2010 at easychair.org
For more information, see http://www.international-lisp-conference.org
--
Resistance is futile. You will be jazzimilated.
Scientific site: http://www.lrde.epita.fr/~didier
Music (Jazz) site: http://www.didierverna.com
EPITA/LRDE, 14-16 rue Voltaire, 94276 Le Kremlin-Bicêtre, France
Tel. +33 (0)1 44 08 01 85 Fax. +33 (0)1 53 14 59 22
Bonjour,
nous avons le plaisir de vous inviter au séminaire des étudiants du
LRDE. Il aura lieu le mercredi 9 juin 2010 à 14 heures en Amphi Masters
(KB).
-----------------------------------------------------------------------
Au programme:
*CLIMB, OLENA, SPOT, VAUCANSON*
http://publis.lrde.epita.fr/Seminar-2010-06-09
CLIMB
* 14h00 : Généricité par propriétés : une approche dynamique -- Loïc
Denuzière
* 14h30 : Approche fonctionnelle de la généricité du traitement d'image
et documentation de projet -- Christopher Chedeau
OLENA
* 15h00 : Filtrage à base de contours pour la segmentation d'images --
Edwin Carlinet
* 15h30 : Outils pour la dématérialisation dans SCRIBO -– Julien Marquegnies
SPOT
* 16h15 : Minimisation d’automates représentant des obligations -– Félix
Abecassis
VAUCANSON
* 16h45 : Vers Vaucanson 2.0 -– Alex Hamelin
-----------------------------------------------------------------------
Les Résumés des exposés :
**************************
CLIMB
* 14h00 : Généricité par propriétés : une approche dynamique -- Loïc
Denuzière
La généricité par propriétés est un paradigme de programmation orientée
objet qui permet de modéliser de manière générique certains systèmes
délicats à représenter en programmation objet classique. Elle a été
introduite par le paradigme orienté C++ SCOOP utilisé dans Olena, une
bibliothèque de traitement d'images. Le principe fondamental est de
caractériser une classe non pas par ses relations d'héritage, mais par
une liste des propriétés que possèdent ses instances. Nous présenterons
ce paradigme et montrerons qu'il peut s'étendre à d'autres langages que
le C++ et d'autres domaines d'application que le traitement d'images.
Nous introduirons ensuite un exemple d'implémentation de généricité par
propriétés en Common Lisp qui tire parti des capacités dynamiques de ce
langage ainsi que de son extensibilité.
* 14h30 : Approche fonctionnelle de la généricité du traitement d'image
et documentation de projet -- Christopher Chedeau
Olena est l'une des bibliothèques de traitement d'images dont la
généricité est la plus poussée. Celle-ci vient principalement d'une
vision différente de la notion d'image via des concepts clés tels que
les fenêtres, accumulateurs ainsi que les morphers. On va s'attacher à
en faire une description détaillée ainsi que montrer comment les
implémenter en Lisp.
La documentation d'un projet comme Olena est une tâche difficile. Il
faut d'abord faire changer les mentalités et voir la documentation comme
un gain de temps et non l'inverse. La documentation doit être un effort
collaboratif et s'adresser à un large panel de personnes. Des conseils
pratiques de mise en application sont enfin disponibles pour vous aider
dans votre projet.
OLENA
* 15h00 : Filtrage à base de contours pour la segmentation d'images --
Edwin Carlinet
Nous proposons une nouvelle méthode basée sur l'utilisation des
contours, dédiée à la segmentation des images. Les derniers temps ont
été marqués par le développement des techniques de traitement d'image
utilisant les filtres connectés qui préservent les contours des objets
et deviennent ainsi de puissants outils à des fins de segmentation. Les
méthodes de segmentation à base d'opérateurs connectés procèdent
généralement en deux étapes. Elles calculent un attribut sur les
composantes connectées puis filtrent celles qui ne satisfont pas un
critère. Nous proposons un nouvel algorithme basé sur l'union-find qui
permet de calculer un attribut sur les contours des composantes
connectées. Nous introduisons ainsi les attributs basés sur les contours
et en proposons qui évaluent l'énergie d'une composante connectée. Pour
finir, nous concluons avec le filtrage à base de contours pour produire
une nouvelle méthode de segmentation.
* 15h30 : Outils pour la dématérialisation dans SCRIBO -– Julien Marquegnies
SCRIBO, pour Semi-automatic and Collaborative Retrieval of Information
Based on Ontologies, est un projet de dématérialisation et d'annotation
semi-automatique ayant pour finalité la mise en place d'algorithmes et
d'outils collaboratifs visant à extraire des connaissances à partir de
textes et d'images.
L'extraction des différentes structures d'un document numérisé se base
sur la mise en place d'une chaîne de traitements constituée d'un certain
nombre d'étapes primordiales afin d'optimiser la qualité du rendu. Le
redressement de l'image, en amont de la chaîne, est une phase nécessaire
afin de corriger l'éventuel angle dû à la numérisation du document. De
plus, l'extraction et l'étude des informations des caractères composant
le texte permet non seulement de réaliser une reconstitution la plus
fidèle possible du texte mais également de préparer ce dernier à son
passage dans l'OCR.
Ainsi, nous présenterons dans un premier temps un algorithme permettant
de détecter rapidement l'inclinaison d'un document pour de petits
angles, puis l'étude menée sur l'extraction des différentes
caractéristiques des caractères.
SPOT
* 16h15 : Minimisation d’automates représentant des obligations -– Félix
Abecassis
Le model checking est une discipline s’intéressant à la vérification
automatique de la conformité d’un système fini vis-à-vis d’une propriété.
Spot est une bibliothèque de model checking basée sur une approche
automate: le système à vérifier est représenté par un automate de Büchi
généralisé basé sur les transitions, les propriétés sont exprimées par
des formules de logique temporelle linéaire (LTL) et sont traduites en
automate de Büchi.
Les formules LTL peuvent être classées dans une hiérarchie selon le type
de propriété qu'elles représentent. Nous étudierons le cas des formules
LTL représentant des propriétés d'obligation, ces formules peuvent être
reconnues par un type plus précis d’automates dont il est possible de
calculer une forme minimale canonique.
VAUCANSON
* 16h45 : Vers Vaucanson 2.0 -– Alex Hamelin
Vaucanson est une plateforme de manipulation d'automates finis et de
transducteurs. Son utilisation a su mettre en évidence son interface
trop complexe lors de la manipulation des automates. Une nouvelle
approche de sa définition fut par conséquent considérée, impliquant
l'utilisation du concept de kind d'un automate. La précédente équipe de
développement de Vaucanson démarra cette série de changements qui se
conclurent par l'implémentation du kind labels-are-letters. Toutefois,
ces modifications lais- sèrent la bibliothèque dans un état de
fonctionnement transitoire.
Dans la continuité de leur travail et de façon à restaurer la force
ainsi que la généricité de Vaucanson, nous introduirons deux nouveaux
kind d'automates dans la bibliothèque: labels-are-words et
labels-are-series. Ce travail pourra mener à plusieurs changements
impliquant d'une part la réécriture d'algorithmes et d'autre part la
modification de structures de données, ceci afin de permettre une
manipulation plus facile, mais aussi plus puissante, des automates.
--
Daniela Becker
Responsable administrative du LRDE