Bonjour,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu ce
mercredi 2 juin 2010 (14h-17h) en Amphi 4 au Kremlin-Bicêtre.
Au programme:
* 14h: Généricité et topologie discrète en C++
-- Julien Lamy
http://www-ulpmed.u-strasbg.fr/ipb/
Le traitement d'images est par nature un procédé discret, au cours
duquel un signal continu est décomposé en un ensemble de pixels, ou de
voxels pour des images tri-dimensionnelles. Au niveau géométrique, cette
nature discrète pose peu de problèmes, car la plupart des opérations
géométriques sont indépendantes de la grille sous-jacente ; au niveau
topologique, le problème est tout autre. Deux des notions fondamentales
de la topologie, le voisinage et la connexité, sont radicalement
différentes entre un espace continu et un espace discret : il est entre
autres impossible de subdiviser un voisinage discret de façon infinie
comme c'est le cas dans un espace euclidien.
Bien que certaines bibliothèques de traitement d'images contiennent des
algorithmes topologiques, notamment de squelettisation, le type de
voisinage utilisé par ces algorithmes est généralement fixé par le code,
ce qui empêche une adaptation facile à un autre type de connexité ou à
un espace de dimension différente.
Ce séminaire présente une méthode générique pour intégrer les notions
discrètes de voisinage et de connexité à une bibliothèque de traitement
d'images programmée en C++. Je montrerai également comment obtenir de
façon simple un algorithme de squelettisation homotopique en utilisant
ces notions.
-- Julien Lamy est titulaire d'un doctorat de l'Université de Strasbourg.
De 2001 à 2006, il a travaillé au sein de l'équipe de R&D de l'IRCAD
(Institut de recherche contre les cancers de l'appareil digestif,
Strasbourg) au développement d'algorithmes de traitement d'images
médicales. Depuis 2008, il est ingénieur de recherche au Laboratoire
d'imagerie et de neurosciences cognitives de l'Université de Strasbourg.
* 15h: Interface générique pour la parallélisation d’applications de
recherche en imagerie biomédicale
-- Yann Cointepas
http://www.lnao.fr/
Le projet BrainVISA (http ://brainvisa.info) est en train de développer,
avec le soutien du projet européen HiPiP (http ://hipip.
eu), une architecture générique pour la parallélisation des
applications. Cette architecture fournira un accès à divers moyens
de calculs (fermes de stations de travail, clusters, centres de calculs,
etc.) en s’appuyant sur des solutions existantes pour la gestion
des ressources (Sun Grid Engine, Condor, LSF, etc.) Cette architecture
est développée pour répondre aux besoins croissants
de moyens de calcul dans le monde de la recherche en neuroimagerie. Au
cours de ce séminaire, j’aborderai rapidement le
contexte de la recherche en neuroimagerie en me focalisant sur les
besoins en parallélisation d’applications. Ensuite, je détaillerai
la solution que nous avons choisie pour répondre à ces besoins.
-- Yann Cointepas a obtenu un doctorat de Traitement du signal et des
images à l’Ecole Nationale des Télécommunications de Paris en 1999.
Depuis 2003, il a un poste d’ingénieur-chercheur à la Direction des
Sciences du Vivant du CEA. Il travaille au sein du laboratoire LNAO
situé à NeuroSpin. Il fait également partie des personnels de l’IFR 49.
Il est un des architectes historiques du projet BrainVISA. Ses activités
de recherche concernent principalement l’analyse structurelle du cerveau
humain avec de l’imagerie par résonance magnétique (IRM) et
plus particulièrement l’étude de la connectivité cérébrale à partir
d’IRM de diffusion.
--
Daniela Becker
Responsable administrative du LRDE
We are happy to announce that the following paper has been accepted for
publication at the 2010 International Conference on Image Processing
(ICIP) that will take place in Hong Kong on September 26 - 29, 2010:
Roland Levillain (1,2), Thierry Géraud (1,2) and Laurent Najman (2)
Why and How to Design a Generic and Efficient Image Processing
Framework: The Case of the Milena Library
http://publis.lrde.epita.fr/201009-ICIP
(1) EPITA Research and Development Laboratory (LRDE)
(2) Université Paris-Est, Laboratoire d'Informatique Gaspard-Monge,
Equipe A3SI, ESIEE Paris
Most image processing frameworks are not generic enough to provide true
reusability of data structures and algorithms. In fact, genericity
allows users to write and experiment virtually any method on any
compatible input(s). In this paper, we advocate the use of generic
programming in the design of image processing software, while preserving
performances close to dedicated code. The implementation of our
proposal, Milena, a generic and efficient library, illustrates the
benefits of our approach.
--
Roland Levillain - LRDE/EPITA - A3SI/ESIEE/IGM/UMLV-Paris Est
EPITA Research and Development Laboratory (LRDE)
14-16, rue Voltaire - FR-94276 Le Kremlin-Bicêtre Cedex - France
Phone: +33 1 53 14 59 45 - Fax: +33 1 53 14 59 22 - www.lrde.epita.fr
Chers collègues,
La prochaine session du séminaire Performance et Généricité du
LRDE (Laboratoire de Recherche et Développement de l'EPITA) aura
lieu le mercredi 2 juin 2010 (14h-16h).
Au programme:
Généricité et topologie discrète en C++
--- Julien Lamy
Le traitement d'images est par nature un procédé discret, au
cours duquel un signal continu est décomposé en un ensemble de
pixels, ou de voxels pour des images tri-dimensionnelles. Au
niveau géométrique, cette nature discrète pose peu de problèmes,
car la plupart des opérations géométriques sont indépendantes
de la grille sous-jacente ; au niveau topologique, le problème
est tout autre. Deux des notions fondamentales de la topologie,
le voisinage et la connexité, sont radicalement différentes entre
un espace continu et un espace discret : il est entre autres
impossible de subdiviser un voisinage discret de façon infinie
comme c'est le cas dans un espace euclidien. Bien que certaines
bibliothèques de traitement d'images contiennent des algorithmes
topologiques, notamment de squelettisation, le type de voisinage
utilisé par ces algorithmes est généralement fixé par le code, ce
qui empêche une adaptation facile à un autre type de connexité ou
à un espace de dimension différente. Ce séminaire présente une
méthode générique pour intégrer les notions discrètes de voisinage
et de connexité à une bibliothèque de traitement d'images
programmée en C++. Je montrerai également comment obtenir de
façon simple un algorithme de squelettisation homotopique en
utilisant ces notions.
Julien Lamy est titulaire d'un doctorat de l'Université de
Strasbourg. De 2001 à 2006, il a travaillé au sein de l'équipe
de R&D de l'IRCAD (Institut de recherche contre les cancers de
l'appareil digestif, Strasbourg) au développement d'algorithmes
de traitement d'images médicales. Depuis 2008, il est ingénieur
de recherche au Laboratoire d'imagerie et de neurosciences
cognitives de l'Université de Strasbourg.
http://www-ulpmed.u-strasbg.fr/ipb/
Interface générique pour la parallélisation d'applications de
recherche en imagerie biomédicale
--- Yann Cointepas
Le projet BrainVISA (http://brainvisa.info) est en train de
développer, avec le soutien du projet européen HiPiP
(http://hipip.eu), une architecture générique pour la
parallélisation des applications. Cette architecture fournira un
accès à divers moyens de calculs (fermes de stations de travail,
clusters, centres de calculs, etc.) en s'appuyant sur des solutions
existantes pour la gestion des ressources (Sun Grid Engine, Condor,
LSF, etc.) Cette architecture est développée pour répondre aux
besoins croissants de moyens de calcul dans le monde de la
recherche en neuroimagerie. Au cours de ce séminaire, j'aborderai
rapidement le contexte de la recherche en neuroimagerie en me
focalisant sur les besoins en parallélisation d'applications.
Ensuite, je détaillerai la solution que nous avons choisie pour
répondre à ces besoins.
Yann Cointepas a obtenu un doctorat de Traitement du signal et
des images à l'Ecole Nationale des Télécommunications de Paris
en 1999. Depuis 2003, il a un poste d'ingénieur-chercheur à la
Direction des Sciences du Vivant du CEA. Il travaille au sein du
laboratoire LNAO situé à NeuroSpin. Il fait également partie
des personnels de l'IFR 49. Il est un des architectes
historiques du projet BrainVISA. Ses activités de recherche
concernent principalement l'analyse structurelle du cerveau
humain avec de l'imagerie par résonance magnétique (IRM) et plus
particulièrement l'étude de la connectivité cérébrale à partir
d'IRM de diffusion.
http://www.lnao.fr/
Pour plus de renseignements, consultez
http://seminaire.lrde.epita.fr/.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser
cette information le plus largement possible.
Bonjour,
nous avons le plaisir de vous annoncer l sortie du n°19 du bulletin du LRDE.
C'est un numéro qui présente le parcours d'un ancien élève du LRDE, puis
la recherche du groupe Olena en collaboration avec l'IGR. Le projet SPOT
a fait l'objet de deux releases.
Vous y trouverez les dernières publications et l'annonce du prochain
séminaire LRDE du 2 juin 2010.
Vous pouvez télécharger le bulletin en couleur à la page suivante :
http://publis.lrde.epita.fr/201005-l-air-de-rien-19
--
Daniela Becker
Responsable administrative du LRDE
We are happy to announce that the following paper has been accepted for
publication at the Workshop on Applications of Digital Geometry and
Mathematical Morphology (WADGMM) that will take place in Istanbul,
Turkey on August 22, 2010:
Roland Levillain (1,2), Thierry Géraud (1,2) and Laurent Najman (2)
Writing Reusable Digital Geometry Algorithms in a Generic
Image Processing Framework
http://publis.lrde.epita.fr/201008-WADGMM
(1) EPITA Research and Development Laboratory (LRDE)
(2) Université Paris-Est, Laboratoire d'Informatique Gaspard-Monge,
Equipe A3SI, ESIEE Paris
Digital Geometry software should reflect the generality of the
underlying mathematics: mapping the latter to the former requires
genericity. By designing generic solutions, one can effectively reuse
digital geometry data structures and algorithms. We propose an image
processing framework centered on the Generic Programming paradigm in
which an algorithm on the paper can be turn into a single code, written
once and usable with various input types. This approach enables users
to design and implement new methods at a lower cost, try cross-domain
experiments and help generalize results.
--
Roland Levillain - LRDE/EPITA - A3SI/ESIEE/IGM/UMLV-Paris Est
EPITA Research and Development Laboratory (LRDE)
14-16, rue Voltaire - FR-94276 Le Kremlin-Bicêtre Cedex - France
Phone: +33 1 53 14 59 45 - Fax: +33 1 53 14 59 22 - www.lrde.epita.fr
+------------------------------------------------------------+
| CALL FOR PAPERS |
| 7th European Lisp Workshop |
| June 22 2010, Maribor, Slovenia, co-located with ECOOP |
+------------------------------------------------------------+
Important Dates
===============
Submission deadline: April 25, 2010 ** EXTENDED **
Notification of acceptance: May 05, 2010
ECOOP early registration deadline: May 10, 2010
7th European Lisp Workshop: June 22, 2010
Please note that registration must be done with ECOOP itself.
For more information visit http://www.european-lisp-workshop.org
Contact: Didier Verna, didier(a)lrde.epita.fr
Invited Speaker
===============
Manuel Serrano (INRIA, France)
http://www-sop.inria.fr/members/Manuel.Serrano/
Overview
========
"...Please don't assume Lisp is only useful for Animation and
Graphics, AI, Bio-informatics, B2B and E-Commerce, Data Mining,
EDA/Semiconductor applications, Expert Systems, Finance, Intelligent
Agents, Knowledge Management, Mechanical CAD, Modeling and Simulation,
Natural Language, Optimization, Research, Risk Analysis, Scheduling,
Telecom, and Web Authoring just because these are the only things they
happened to list."
-- Kent Pitman
Lisp, one of the eldest computer languages still in use today, is
gaining momentum again. The structure of Lisp makes it easy to extend
the language or even to implement entirely new dialects without
starting from scratch, making it the ideal candidate for writing
Domain Specific Languages. Common Lisp, with the Common Lisp Object
System (CLOS), was the first object-oriented programming language to
receive an ANSI standard and remains the most complete and advanced
object system of any programming language, while influencing many
other object-oriented programming languages that followed.
This workshop will address the near-future role of Lisp-based
languages in research, industry and education. We solicit
contributions that discuss the opportunities Lisp provides to capture
and enhance the possibilities in software engineering. We want to
promote lively discussion between researchers proposing new approaches
and practitioners reporting on their experience with the strengths and
limitations of current Lisp technologies.
The workshop will have two components: there will be formal talks, and
interactive turorial/demo/coding sessions.
Papers
======
Formal presentations in the workshop should take between 20 minutes
and half an hour; additional time will be given for questions and
answers. Suggested topics include (but are not limited to):
- Context-, aspect-, domain-oriented and generative programming
- Macro-, reflective-, meta- and/or rule-based development approaches
- Protocol meta-programming and libraries
- New language features and abstractions
- Software evolution
- Development aids
- Persistent systems
- Dynamic optimization
- Implementation techniques
- Hardware Support
- Efficiency, distribution and parallel programming
- Educational approaches and perspectives
- Experience reports and case studies
Interactive Tutorial/Demo/Coding Sessions
=========================================
Additionally, we invite less formal talks in the form of interactive
tutorial/demo/coding sessions. The purpose of these sessions is both
to demonstrate and receive feedback on any interesting Lisp system,
either stable or under development. Being less formal than technical
paper presentations, these sessions are expected to be highly
interactive.
Submission Guidelines
=====================
Potential contributors are encouraged to submit:
- a long paper (around 10 pages) presenting scientific and/or
empirical results about Lisp-based uses or new approaches for
software engineering purposes,
- a short essay (5 pages) defending a position about where
research, practice or education based on Lisp should be heading in
the near future,
- a proposal for an interactive tutorial/demo/coding session (1-2
pages) describing the involved library or application, and the
subject of the session.
Papers (both long and short) should be formatted following the ACM SIGS
guidelines and include ACM classification categories and terms (see below).
Authors will later be required to sign an ACM copyright form, as the workshop
proceedings will be published in the ACM Digital Library.
For more information on the submission guidelines and the ACM keywords, see:
http://www.acm.org/sigs/publications/proceedings-templateshttp://www.acm.org/about/class/1998
Submissions should be uploaded to Easy Chair, at the following address:
http://www.easychair.org/conferences/?conf=elw2010
Organizers
==========
Didier Verna, EPITA Research and Development Laboratory, Paris
Charlotte Herzeel, Programming Technology Lab, Vrije Universiteit, Brussel
Robert Strandh, LaBRI, University of Bordeaux 1, France
Christophe Rhodes, Goldsmiths College, University of London
--
Resistance is futile. You will be jazzimilated.
Scientific site: http://www.lrde.epita.fr/~didier
Music (Jazz) site: http://www.didierverna.com
EPITA/LRDE, 14-16 rue Voltaire, 94276 Le Kremlin-Bicêtre, France
Tel. +33 (0)1 44 08 01 85 Fax. +33 (0)1 53 14 59 22
+------------------------------------------------------------+
| CALL FOR PAPERS |
| 7th European Lisp Workshop |
| June 22 2010, Maribor, Slovenia, co-located with ECOOP |
+------------------------------------------------------------+
Important Dates
===============
Submission deadline: April 25, 2010 ** EXTENDED **
Notification of acceptance: May 05, 2010
ECOOP early registration deadline: May 10, 2010
7th European Lisp Workshop: June 22, 2010
Please note that registration must be done with ECOOP itself.
For more information visit http://www.european-lisp-workshop.org
Contact: Didier Verna, didier(a)lrde.epita.fr
Invited Speaker
===============
Manuel Serrano (INRIA, France)
http://www-sop.inria.fr/members/Manuel.Serrano/
Overview
========
"...Please don't assume Lisp is only useful for Animation and
Graphics, AI, Bio-informatics, B2B and E-Commerce, Data Mining,
EDA/Semiconductor applications, Expert Systems, Finance, Intelligent
Agents, Knowledge Management, Mechanical CAD, Modeling and Simulation,
Natural Language, Optimization, Research, Risk Analysis, Scheduling,
Telecom, and Web Authoring just because these are the only things they
happened to list."
-- Kent Pitman
Lisp, one of the eldest computer languages still in use today, is
gaining momentum again. The structure of Lisp makes it easy to extend
the language or even to implement entirely new dialects without
starting from scratch, making it the ideal candidate for writing
Domain Specific Languages. Common Lisp, with the Common Lisp Object
System (CLOS), was the first object-oriented programming language to
receive an ANSI standard and remains the most complete and advanced
object system of any programming language, while influencing many
other object-oriented programming languages that followed.
This workshop will address the near-future role of Lisp-based
languages in research, industry and education. We solicit
contributions that discuss the opportunities Lisp provides to capture
and enhance the possibilities in software engineering. We want to
promote lively discussion between researchers proposing new approaches
and practitioners reporting on their experience with the strengths and
limitations of current Lisp technologies.
The workshop will have two components: there will be formal talks, and
interactive turorial/demo/coding sessions.
Papers
======
Formal presentations in the workshop should take between 20 minutes
and half an hour; additional time will be given for questions and
answers. Suggested topics include (but are not limited to):
- Context-, aspect-, domain-oriented and generative programming
- Macro-, reflective-, meta- and/or rule-based development approaches
- Protocol meta-programming and libraries
- New language features and abstractions
- Software evolution
- Development aids
- Persistent systems
- Dynamic optimization
- Implementation techniques
- Hardware Support
- Efficiency, distribution and parallel programming
- Educational approaches and perspectives
- Experience reports and case studies
Interactive Tutorial/Demo/Coding Sessions
=========================================
Additionally, we invite less formal talks in the form of interactive
tutorial/demo/coding sessions. The purpose of these sessions is both
to demonstrate and receive feedback on any interesting Lisp system,
either stable or under development. Being less formal than technical
paper presentations, these sessions are expected to be highly
interactive.
Submission Guidelines
=====================
Potential contributors are encouraged to submit:
- a long paper (around 10 pages) presenting scientific and/or
empirical results about Lisp-based uses or new approaches for
software engineering purposes,
- a short essay (5 pages) defending a position about where
research, practice or education based on Lisp should be heading in
the near future,
- a proposal for an interactive tutorial/demo/coding session (1-2
pages) describing the involved library or application, and the
subject of the session.
Papers (both long and short) should be formatted following the ACM SIGS
guidelines and include ACM classification categories and terms (see below).
Authors will later be required to sign an ACM copyright form, as the workshop
proceedings will be published in the ACM Digital Library.
For more information on the submission guidelines and the ACM keywords, see:
http://www.acm.org/sigs/publications/proceedings-templateshttp://www.acm.org/about/class/1998
Submissions should be uploaded to Easy Chair, at the following address:
http://www.easychair.org/conferences/?conf=elw2010
Organizers
==========
Didier Verna, EPITA Research and Development Laboratory, Paris
Charlotte Herzeel, Programming Technology Lab, Vrije Universiteit, Brussel
Robert Strandh, LaBRI, University of Bordeaux 1, France
Christophe Rhodes, Goldsmiths College, University of London
--
Resistance is futile. You will be jazzimilated.
Scientific site: http://www.lrde.epita.fr/~didier
Music (Jazz) site: http://www.didierverna.com
EPITA/LRDE, 14-16 rue Voltaire, 94276 Le Kremlin-Bicêtre, France
Tel. +33 (0)1 44 08 01 85 Fax. +33 (0)1 53 14 59 22
We are pleased to announce the release of Spot 0.6.
Spot is a model-checking library developed collaboratively by LRDE and
LIP6. It provides algorithms and data structures to implement the
automata-theoretic approach to LTL model checking.
This release adds support for W (weak until) and M (strong release)
LTL operators, it also improves LTL rewriting rules as well as the
degeneralization algorithm. The result is that a lot of LTL formulae
from our benchmark are translated to smaller automata, and the
reduction is even more important when producing never claims.
You can find the new release here:
http://spot.lip6.fr/dl/spot-0.6.tar.gz
New in spot 0.6 (16-04-2010):
* Several optimizations to improve some auxiliary steps
of the LTL translation (not the core of the translation):
- Better degeneralization
- SCC simplifications has been tuned for degeneralization
(ltl2tgba now has two options -R3 and -R3f: the latter will
remove every acceptance condition that used to be removed
in Spot 0.5 while the former will leave useless acceptance conditions
going to accepting SCC. Experience shows that -R3 is more
favorable to degeneralization).
- ltl2tgba will perform SCC optimizations before degeneralization
and not the converse
- We added a syntactic simplification rule to rewrite F(a)|F(b) as F(a|b).
We only had a rule for the more specific FG(a)|FG(b) = F(Ga|Gb).
- The syntactic simplification rule for F(a&GF(b)) = F(a)&GF(b) has
be disabled because the latter formula is in fact harder to translate
efficiently.
* New LTL operators: W (weak until) and its dual M (strong release)
- Weak until allows many LTL specification to be specified more
compactly.
- All LTL translation algorithms have been updated to
support these operators.
- Although they do not add any expressive power, translating
"a W b" is more efficient (read smaller output automaton) than
translating the equivalent form using the U operator.
- Basic syntactic rewriting rules will automatically rewrite "a U
(b | G(a))" and "(a U b)|G(a)" as "a W b", so you will benefit
from the new operators even if you do not use them. Similar
rewriting rules exist for R and M, although they are less used.
* New options have been added to the CGI script for
- SVG output
- SCC simplifications
* Bug fixes:
- The precedence of the "->" and "<->" Boolean operators has been
adjusted to better match other tools.
Spot <= 0.5 used to parse "a & b -> c & d" as "a & (b -> c) & d";
Spot >= 0.6 will parse it as "(a & b) -> (c & d)".
- The random graph generator was fixed (again!) not to produce
dead states as documented.
- Locations in the error messages of the LTL parser were off by one.
--
Alexandre Duret-Lutz
Hello,
I'm pleased to inform you that my paper entitled
"Revisiting the Visitor: the Just Do It Pattern"
has just been published in J.UCS., Volume 16, Issue 2, pages 246 -- 271.
You can find it here:
http://www.jucs.org/jucs_16_2/revisiting_the_visitor_the
The abstract is given below:
While software design patterns are a generally useful concept, they are
often (and mistakenly) seen as ready-made universal recipes for solving
common problems. In a way, the danger is that programmers stop thinking
about their actual problem, and start looking for pre-cooked solutions
in some design pattern book instead. What people usually forget about
design patterns is that the underlying programming language plays a
major role in the exact shape such or such pattern will have on the
surface. The purpose of this paper is twofold: we show why design
pattern expression is intimately linked to the expressiveness of the
programming language in use, and we also demonstrate how a blind
application of them can in fact lead to very poorly designed code.
--
Resistance is futile. You will be jazzimilated.
Scientific site: http://www.lrde.epita.fr/~didier
Music (Jazz) site: http://www.didierverna.com
EPITA/LRDE, 14-16 rue Voltaire, 94276 Le Kremlin-Bicêtre, France
Tel. +33 (0)1 44 08 01 85 Fax. +33 (0)1 53 14 59 22
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
mercredi 28 avril 2010 (14h-16h) en Amphi Masters au Kremlin-Bicêtre.
Au programme:
14h. Diagrammes de Décision à la Demande (DDoD)
--- Alban Linard
Les Diagrammes de Décision (DDs) forment une vaste famille de
structures de données, qui permettent de représenter et manipuler très
efficacement de grandes quantités d'informations. Cependant, parmi
les nombreux types de DDs, l'utilisateur est souvent désemparé pour
choisir le bon. Souvent, aucun type ne répondant exactement à ce
qu'il cherche, l'utilisateur doit faire adapter ses données au type de
DDs choisi. Le problème est que chaque type de DDs possède sa propre
définition. Il n'existe aucun socle commun qui permette de définir
n'importe quel type de DD. Ce problème se reflète au niveau des
opérations manipulant les DDs. Celles-ci sont aussi spécifiques à
chaque type. Cet exposé présente les Polymorphic Decision Diagrams,
un cadre assez général permettant de spécifier de nombreux types de
DDs existants. L'utilisateur peut ainsi décrire simplement les DDs
correspondant le mieux aux données qu'il souhaite représenter. Ce
cadre permet de plus d'ajouter dans la spécification les informations
qui permettront de retrouver les performances des types définis
jusqu'à présent. Un exemple concret impliquant des loutres permettra
de montrer les possibilités offertes par ce cadre.
Alban Linard est post-doctorant à l'université de Genève, dans
l'équipe "Software Modeling and Verification". Sa thèse s'est
déroulée conjointement au LIP6, dans l'équipe Modélisation et
Vérification et au LRDE. Il s'intéresse aux Diagrammes de Décision
et à leur application dans le model checking.
15h. Architecture logicielle pour des outils génériques en traitement
d'images
--- Roland Levillain
La plupart des frameworks de traitement d'images ne sont pas assez
génériques pour garantir une réutilisabilité effective des structures
de données et des algorithmes, tout en préservant performances et
facilité d'utilisation, et en restant proche de la théorie. Dans
cette présentation, nous proposons un cadre logiciel pour le
traitement d'images centré sur le paradigme de programmation
générique, cherchant à répondre tant aux besoins pratiques que
théoriques des scientifiques et des développeurs : la mise au point de
méthodes rapides et réutilisables, un niveau de généricité progressif,
la possibilité de traiter des ensembles de données volumineux, une
gestion de la mémoire automatique et efficace, la vérification
statique des types, l'orthogonalité des structures de données et des
algorithmes, etc. Cette approche permet aux utilisateurs de concevoir
et d'implémenter de nouvelles méthodes délivrées des contraintes
habituellement imposées pas les outils logiciels, de pratiquer des
expériences inter-domaines, de généraliser certains résultats et de
transformer facilement des prototypes en de vraies applications.
Roland Levillain est diplômé de l'EPITA (2003) et titulaire d'un
Mastère Spécialisé en Signal, Image et Reconnaissance des Formes
(SIRF) de l'ENST (2004). Depuis 2005, il travaille à l'EPITA et au
Laboratoire de Recherche et Développement de l'EPITA (LRDE) en tant
qu'enseignant-chercheur. Ses travaux portent sur le génie logiciel
en traitement d'images. Il participe au développement du projet
Olena, une plate-forme générique et performante pour le traitement
d'images, et poursuit une thèse sur le sujet depuis 2007.
--
Daniela Becker