Bonjour,
nous avons le plaisir de vous inviter au séminaire des étudiants du
LRDE. Il aura lieu le mercredi 9 juin 2010 à 14 heures en Amphi Masters
(KB).
-----------------------------------------------------------------------
Au programme:
*CLIMB, OLENA, SPOT, VAUCANSON*
http://publis.lrde.epita.fr/Seminar-2010-06-09
CLIMB
* 14h00 : Généricité par propriétés : une approche dynamique -- Loïc
Denuzière
* 14h30 : Approche fonctionnelle de la généricité du traitement d'image
et documentation de projet -- Christopher Chedeau
OLENA
* 15h00 : Filtrage à base de contours pour la segmentation d'images --
Edwin Carlinet
* 15h30 : Outils pour la dématérialisation dans SCRIBO -– Julien Marquegnies
SPOT
* 16h15 : Minimisation d’automates représentant des obligations -– Félix
Abecassis
VAUCANSON
* 16h45 : Vers Vaucanson 2.0 -– Alex Hamelin
-----------------------------------------------------------------------
Les Résumés des exposés :
**************************
CLIMB
* 14h00 : Généricité par propriétés : une approche dynamique -- Loïc
Denuzière
La généricité par propriétés est un paradigme de programmation orientée
objet qui permet de modéliser de manière générique certains systèmes
délicats à représenter en programmation objet classique. Elle a été
introduite par le paradigme orienté C++ SCOOP utilisé dans Olena, une
bibliothèque de traitement d'images. Le principe fondamental est de
caractériser une classe non pas par ses relations d'héritage, mais par
une liste des propriétés que possèdent ses instances. Nous présenterons
ce paradigme et montrerons qu'il peut s'étendre à d'autres langages que
le C++ et d'autres domaines d'application que le traitement d'images.
Nous introduirons ensuite un exemple d'implémentation de généricité par
propriétés en Common Lisp qui tire parti des capacités dynamiques de ce
langage ainsi que de son extensibilité.
* 14h30 : Approche fonctionnelle de la généricité du traitement d'image
et documentation de projet -- Christopher Chedeau
Olena est l'une des bibliothèques de traitement d'images dont la
généricité est la plus poussée. Celle-ci vient principalement d'une
vision différente de la notion d'image via des concepts clés tels que
les fenêtres, accumulateurs ainsi que les morphers. On va s'attacher à
en faire une description détaillée ainsi que montrer comment les
implémenter en Lisp.
La documentation d'un projet comme Olena est une tâche difficile. Il
faut d'abord faire changer les mentalités et voir la documentation comme
un gain de temps et non l'inverse. La documentation doit être un effort
collaboratif et s'adresser à un large panel de personnes. Des conseils
pratiques de mise en application sont enfin disponibles pour vous aider
dans votre projet.
OLENA
* 15h00 : Filtrage à base de contours pour la segmentation d'images --
Edwin Carlinet
Nous proposons une nouvelle méthode basée sur l'utilisation des
contours, dédiée à la segmentation des images. Les derniers temps ont
été marqués par le développement des techniques de traitement d'image
utilisant les filtres connectés qui préservent les contours des objets
et deviennent ainsi de puissants outils à des fins de segmentation. Les
méthodes de segmentation à base d'opérateurs connectés procèdent
généralement en deux étapes. Elles calculent un attribut sur les
composantes connectées puis filtrent celles qui ne satisfont pas un
critère. Nous proposons un nouvel algorithme basé sur l'union-find qui
permet de calculer un attribut sur les contours des composantes
connectées. Nous introduisons ainsi les attributs basés sur les contours
et en proposons qui évaluent l'énergie d'une composante connectée. Pour
finir, nous concluons avec le filtrage à base de contours pour produire
une nouvelle méthode de segmentation.
* 15h30 : Outils pour la dématérialisation dans SCRIBO -– Julien Marquegnies
SCRIBO, pour Semi-automatic and Collaborative Retrieval of Information
Based on Ontologies, est un projet de dématérialisation et d'annotation
semi-automatique ayant pour finalité la mise en place d'algorithmes et
d'outils collaboratifs visant à extraire des connaissances à partir de
textes et d'images.
L'extraction des différentes structures d'un document numérisé se base
sur la mise en place d'une chaîne de traitements constituée d'un certain
nombre d'étapes primordiales afin d'optimiser la qualité du rendu. Le
redressement de l'image, en amont de la chaîne, est une phase nécessaire
afin de corriger l'éventuel angle dû à la numérisation du document. De
plus, l'extraction et l'étude des informations des caractères composant
le texte permet non seulement de réaliser une reconstitution la plus
fidèle possible du texte mais également de préparer ce dernier à son
passage dans l'OCR.
Ainsi, nous présenterons dans un premier temps un algorithme permettant
de détecter rapidement l'inclinaison d'un document pour de petits
angles, puis l'étude menée sur l'extraction des différentes
caractéristiques des caractères.
SPOT
* 16h15 : Minimisation d’automates représentant des obligations -– Félix
Abecassis
Le model checking est une discipline s’intéressant à la vérification
automatique de la conformité d’un système fini vis-à-vis d’une propriété.
Spot est une bibliothèque de model checking basée sur une approche
automate: le système à vérifier est représenté par un automate de Büchi
généralisé basé sur les transitions, les propriétés sont exprimées par
des formules de logique temporelle linéaire (LTL) et sont traduites en
automate de Büchi.
Les formules LTL peuvent être classées dans une hiérarchie selon le type
de propriété qu'elles représentent. Nous étudierons le cas des formules
LTL représentant des propriétés d'obligation, ces formules peuvent être
reconnues par un type plus précis d’automates dont il est possible de
calculer une forme minimale canonique.
VAUCANSON
* 16h45 : Vers Vaucanson 2.0 -– Alex Hamelin
Vaucanson est une plateforme de manipulation d'automates finis et de
transducteurs. Son utilisation a su mettre en évidence son interface
trop complexe lors de la manipulation des automates. Une nouvelle
approche de sa définition fut par conséquent considérée, impliquant
l'utilisation du concept de kind d'un automate. La précédente équipe de
développement de Vaucanson démarra cette série de changements qui se
conclurent par l'implémentation du kind labels-are-letters. Toutefois,
ces modifications lais- sèrent la bibliothèque dans un état de
fonctionnement transitoire.
Dans la continuité de leur travail et de façon à restaurer la force
ainsi que la généricité de Vaucanson, nous introduirons deux nouveaux
kind d'automates dans la bibliothèque: labels-are-words et
labels-are-series. Ce travail pourra mener à plusieurs changements
impliquant d'une part la réécriture d'algorithmes et d'autre part la
modification de structures de données, ceci afin de permettre une
manipulation plus facile, mais aussi plus puissante, des automates.
--
Daniela Becker
Responsable administrative du LRDE
Bonjour,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu ce
mercredi 2 juin 2010 (14h-17h) en Amphi 4 au Kremlin-Bicêtre.
Au programme:
* 14h: Généricité et topologie discrète en C++
-- Julien Lamy
http://www-ulpmed.u-strasbg.fr/ipb/
Le traitement d'images est par nature un procédé discret, au cours
duquel un signal continu est décomposé en un ensemble de pixels, ou de
voxels pour des images tri-dimensionnelles. Au niveau géométrique, cette
nature discrète pose peu de problèmes, car la plupart des opérations
géométriques sont indépendantes de la grille sous-jacente ; au niveau
topologique, le problème est tout autre. Deux des notions fondamentales
de la topologie, le voisinage et la connexité, sont radicalement
différentes entre un espace continu et un espace discret : il est entre
autres impossible de subdiviser un voisinage discret de façon infinie
comme c'est le cas dans un espace euclidien.
Bien que certaines bibliothèques de traitement d'images contiennent des
algorithmes topologiques, notamment de squelettisation, le type de
voisinage utilisé par ces algorithmes est généralement fixé par le code,
ce qui empêche une adaptation facile à un autre type de connexité ou à
un espace de dimension différente.
Ce séminaire présente une méthode générique pour intégrer les notions
discrètes de voisinage et de connexité à une bibliothèque de traitement
d'images programmée en C++. Je montrerai également comment obtenir de
façon simple un algorithme de squelettisation homotopique en utilisant
ces notions.
-- Julien Lamy est titulaire d'un doctorat de l'Université de Strasbourg.
De 2001 à 2006, il a travaillé au sein de l'équipe de R&D de l'IRCAD
(Institut de recherche contre les cancers de l'appareil digestif,
Strasbourg) au développement d'algorithmes de traitement d'images
médicales. Depuis 2008, il est ingénieur de recherche au Laboratoire
d'imagerie et de neurosciences cognitives de l'Université de Strasbourg.
* 15h: Interface générique pour la parallélisation d’applications de
recherche en imagerie biomédicale
-- Yann Cointepas
http://www.lnao.fr/
Le projet BrainVISA (http ://brainvisa.info) est en train de développer,
avec le soutien du projet européen HiPiP (http ://hipip.
eu), une architecture générique pour la parallélisation des
applications. Cette architecture fournira un accès à divers moyens
de calculs (fermes de stations de travail, clusters, centres de calculs,
etc.) en s’appuyant sur des solutions existantes pour la gestion
des ressources (Sun Grid Engine, Condor, LSF, etc.) Cette architecture
est développée pour répondre aux besoins croissants
de moyens de calcul dans le monde de la recherche en neuroimagerie. Au
cours de ce séminaire, j’aborderai rapidement le
contexte de la recherche en neuroimagerie en me focalisant sur les
besoins en parallélisation d’applications. Ensuite, je détaillerai
la solution que nous avons choisie pour répondre à ces besoins.
-- Yann Cointepas a obtenu un doctorat de Traitement du signal et des
images à l’Ecole Nationale des Télécommunications de Paris en 1999.
Depuis 2003, il a un poste d’ingénieur-chercheur à la Direction des
Sciences du Vivant du CEA. Il travaille au sein du laboratoire LNAO
situé à NeuroSpin. Il fait également partie des personnels de l’IFR 49.
Il est un des architectes historiques du projet BrainVISA. Ses activités
de recherche concernent principalement l’analyse structurelle du cerveau
humain avec de l’imagerie par résonance magnétique (IRM) et
plus particulièrement l’étude de la connectivité cérébrale à partir
d’IRM de diffusion.
--
Daniela Becker
Responsable administrative du LRDE
We are happy to announce that the following paper has been accepted for
publication at the 2010 International Conference on Image Processing
(ICIP) that will take place in Hong Kong on September 26 - 29, 2010:
Roland Levillain (1,2), Thierry Géraud (1,2) and Laurent Najman (2)
Why and How to Design a Generic and Efficient Image Processing
Framework: The Case of the Milena Library
http://publis.lrde.epita.fr/201009-ICIP
(1) EPITA Research and Development Laboratory (LRDE)
(2) Université Paris-Est, Laboratoire d'Informatique Gaspard-Monge,
Equipe A3SI, ESIEE Paris
Most image processing frameworks are not generic enough to provide true
reusability of data structures and algorithms. In fact, genericity
allows users to write and experiment virtually any method on any
compatible input(s). In this paper, we advocate the use of generic
programming in the design of image processing software, while preserving
performances close to dedicated code. The implementation of our
proposal, Milena, a generic and efficient library, illustrates the
benefits of our approach.
--
Roland Levillain - LRDE/EPITA - A3SI/ESIEE/IGM/UMLV-Paris Est
EPITA Research and Development Laboratory (LRDE)
14-16, rue Voltaire - FR-94276 Le Kremlin-Bicêtre Cedex - France
Phone: +33 1 53 14 59 45 - Fax: +33 1 53 14 59 22 - www.lrde.epita.fr
Chers collègues,
La prochaine session du séminaire Performance et Généricité du
LRDE (Laboratoire de Recherche et Développement de l'EPITA) aura
lieu le mercredi 2 juin 2010 (14h-16h).
Au programme:
Généricité et topologie discrète en C++
--- Julien Lamy
Le traitement d'images est par nature un procédé discret, au
cours duquel un signal continu est décomposé en un ensemble de
pixels, ou de voxels pour des images tri-dimensionnelles. Au
niveau géométrique, cette nature discrète pose peu de problèmes,
car la plupart des opérations géométriques sont indépendantes
de la grille sous-jacente ; au niveau topologique, le problème
est tout autre. Deux des notions fondamentales de la topologie,
le voisinage et la connexité, sont radicalement différentes entre
un espace continu et un espace discret : il est entre autres
impossible de subdiviser un voisinage discret de façon infinie
comme c'est le cas dans un espace euclidien. Bien que certaines
bibliothèques de traitement d'images contiennent des algorithmes
topologiques, notamment de squelettisation, le type de voisinage
utilisé par ces algorithmes est généralement fixé par le code, ce
qui empêche une adaptation facile à un autre type de connexité ou
à un espace de dimension différente. Ce séminaire présente une
méthode générique pour intégrer les notions discrètes de voisinage
et de connexité à une bibliothèque de traitement d'images
programmée en C++. Je montrerai également comment obtenir de
façon simple un algorithme de squelettisation homotopique en
utilisant ces notions.
Julien Lamy est titulaire d'un doctorat de l'Université de
Strasbourg. De 2001 à 2006, il a travaillé au sein de l'équipe
de R&D de l'IRCAD (Institut de recherche contre les cancers de
l'appareil digestif, Strasbourg) au développement d'algorithmes
de traitement d'images médicales. Depuis 2008, il est ingénieur
de recherche au Laboratoire d'imagerie et de neurosciences
cognitives de l'Université de Strasbourg.
http://www-ulpmed.u-strasbg.fr/ipb/
Interface générique pour la parallélisation d'applications de
recherche en imagerie biomédicale
--- Yann Cointepas
Le projet BrainVISA (http://brainvisa.info) est en train de
développer, avec le soutien du projet européen HiPiP
(http://hipip.eu), une architecture générique pour la
parallélisation des applications. Cette architecture fournira un
accès à divers moyens de calculs (fermes de stations de travail,
clusters, centres de calculs, etc.) en s'appuyant sur des solutions
existantes pour la gestion des ressources (Sun Grid Engine, Condor,
LSF, etc.) Cette architecture est développée pour répondre aux
besoins croissants de moyens de calcul dans le monde de la
recherche en neuroimagerie. Au cours de ce séminaire, j'aborderai
rapidement le contexte de la recherche en neuroimagerie en me
focalisant sur les besoins en parallélisation d'applications.
Ensuite, je détaillerai la solution que nous avons choisie pour
répondre à ces besoins.
Yann Cointepas a obtenu un doctorat de Traitement du signal et
des images à l'Ecole Nationale des Télécommunications de Paris
en 1999. Depuis 2003, il a un poste d'ingénieur-chercheur à la
Direction des Sciences du Vivant du CEA. Il travaille au sein du
laboratoire LNAO situé à NeuroSpin. Il fait également partie
des personnels de l'IFR 49. Il est un des architectes
historiques du projet BrainVISA. Ses activités de recherche
concernent principalement l'analyse structurelle du cerveau
humain avec de l'imagerie par résonance magnétique (IRM) et plus
particulièrement l'étude de la connectivité cérébrale à partir
d'IRM de diffusion.
http://www.lnao.fr/
Pour plus de renseignements, consultez
http://seminaire.lrde.epita.fr/.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser
cette information le plus largement possible.
Bonjour,
nous avons le plaisir de vous annoncer l sortie du n°19 du bulletin du LRDE.
C'est un numéro qui présente le parcours d'un ancien élève du LRDE, puis
la recherche du groupe Olena en collaboration avec l'IGR. Le projet SPOT
a fait l'objet de deux releases.
Vous y trouverez les dernières publications et l'annonce du prochain
séminaire LRDE du 2 juin 2010.
Vous pouvez télécharger le bulletin en couleur à la page suivante :
http://publis.lrde.epita.fr/201005-l-air-de-rien-19
--
Daniela Becker
Responsable administrative du LRDE
We are happy to announce that the following paper has been accepted for
publication at the Workshop on Applications of Digital Geometry and
Mathematical Morphology (WADGMM) that will take place in Istanbul,
Turkey on August 22, 2010:
Roland Levillain (1,2), Thierry Géraud (1,2) and Laurent Najman (2)
Writing Reusable Digital Geometry Algorithms in a Generic
Image Processing Framework
http://publis.lrde.epita.fr/201008-WADGMM
(1) EPITA Research and Development Laboratory (LRDE)
(2) Université Paris-Est, Laboratoire d'Informatique Gaspard-Monge,
Equipe A3SI, ESIEE Paris
Digital Geometry software should reflect the generality of the
underlying mathematics: mapping the latter to the former requires
genericity. By designing generic solutions, one can effectively reuse
digital geometry data structures and algorithms. We propose an image
processing framework centered on the Generic Programming paradigm in
which an algorithm on the paper can be turn into a single code, written
once and usable with various input types. This approach enables users
to design and implement new methods at a lower cost, try cross-domain
experiments and help generalize results.
--
Roland Levillain - LRDE/EPITA - A3SI/ESIEE/IGM/UMLV-Paris Est
EPITA Research and Development Laboratory (LRDE)
14-16, rue Voltaire - FR-94276 Le Kremlin-Bicêtre Cedex - France
Phone: +33 1 53 14 59 45 - Fax: +33 1 53 14 59 22 - www.lrde.epita.fr
+------------------------------------------------------------+
| CALL FOR PAPERS |
| 7th European Lisp Workshop |
| June 22 2010, Maribor, Slovenia, co-located with ECOOP |
+------------------------------------------------------------+
Important Dates
===============
Submission deadline: April 25, 2010 ** EXTENDED **
Notification of acceptance: May 05, 2010
ECOOP early registration deadline: May 10, 2010
7th European Lisp Workshop: June 22, 2010
Please note that registration must be done with ECOOP itself.
For more information visit http://www.european-lisp-workshop.org
Contact: Didier Verna, didier(a)lrde.epita.fr
Invited Speaker
===============
Manuel Serrano (INRIA, France)
http://www-sop.inria.fr/members/Manuel.Serrano/
Overview
========
"...Please don't assume Lisp is only useful for Animation and
Graphics, AI, Bio-informatics, B2B and E-Commerce, Data Mining,
EDA/Semiconductor applications, Expert Systems, Finance, Intelligent
Agents, Knowledge Management, Mechanical CAD, Modeling and Simulation,
Natural Language, Optimization, Research, Risk Analysis, Scheduling,
Telecom, and Web Authoring just because these are the only things they
happened to list."
-- Kent Pitman
Lisp, one of the eldest computer languages still in use today, is
gaining momentum again. The structure of Lisp makes it easy to extend
the language or even to implement entirely new dialects without
starting from scratch, making it the ideal candidate for writing
Domain Specific Languages. Common Lisp, with the Common Lisp Object
System (CLOS), was the first object-oriented programming language to
receive an ANSI standard and remains the most complete and advanced
object system of any programming language, while influencing many
other object-oriented programming languages that followed.
This workshop will address the near-future role of Lisp-based
languages in research, industry and education. We solicit
contributions that discuss the opportunities Lisp provides to capture
and enhance the possibilities in software engineering. We want to
promote lively discussion between researchers proposing new approaches
and practitioners reporting on their experience with the strengths and
limitations of current Lisp technologies.
The workshop will have two components: there will be formal talks, and
interactive turorial/demo/coding sessions.
Papers
======
Formal presentations in the workshop should take between 20 minutes
and half an hour; additional time will be given for questions and
answers. Suggested topics include (but are not limited to):
- Context-, aspect-, domain-oriented and generative programming
- Macro-, reflective-, meta- and/or rule-based development approaches
- Protocol meta-programming and libraries
- New language features and abstractions
- Software evolution
- Development aids
- Persistent systems
- Dynamic optimization
- Implementation techniques
- Hardware Support
- Efficiency, distribution and parallel programming
- Educational approaches and perspectives
- Experience reports and case studies
Interactive Tutorial/Demo/Coding Sessions
=========================================
Additionally, we invite less formal talks in the form of interactive
tutorial/demo/coding sessions. The purpose of these sessions is both
to demonstrate and receive feedback on any interesting Lisp system,
either stable or under development. Being less formal than technical
paper presentations, these sessions are expected to be highly
interactive.
Submission Guidelines
=====================
Potential contributors are encouraged to submit:
- a long paper (around 10 pages) presenting scientific and/or
empirical results about Lisp-based uses or new approaches for
software engineering purposes,
- a short essay (5 pages) defending a position about where
research, practice or education based on Lisp should be heading in
the near future,
- a proposal for an interactive tutorial/demo/coding session (1-2
pages) describing the involved library or application, and the
subject of the session.
Papers (both long and short) should be formatted following the ACM SIGS
guidelines and include ACM classification categories and terms (see below).
Authors will later be required to sign an ACM copyright form, as the workshop
proceedings will be published in the ACM Digital Library.
For more information on the submission guidelines and the ACM keywords, see:
http://www.acm.org/sigs/publications/proceedings-templateshttp://www.acm.org/about/class/1998
Submissions should be uploaded to Easy Chair, at the following address:
http://www.easychair.org/conferences/?conf=elw2010
Organizers
==========
Didier Verna, EPITA Research and Development Laboratory, Paris
Charlotte Herzeel, Programming Technology Lab, Vrije Universiteit, Brussel
Robert Strandh, LaBRI, University of Bordeaux 1, France
Christophe Rhodes, Goldsmiths College, University of London
--
Resistance is futile. You will be jazzimilated.
Scientific site: http://www.lrde.epita.fr/~didier
Music (Jazz) site: http://www.didierverna.com
EPITA/LRDE, 14-16 rue Voltaire, 94276 Le Kremlin-Bicêtre, France
Tel. +33 (0)1 44 08 01 85 Fax. +33 (0)1 53 14 59 22
+------------------------------------------------------------+
| CALL FOR PAPERS |
| 7th European Lisp Workshop |
| June 22 2010, Maribor, Slovenia, co-located with ECOOP |
+------------------------------------------------------------+
Important Dates
===============
Submission deadline: April 25, 2010 ** EXTENDED **
Notification of acceptance: May 05, 2010
ECOOP early registration deadline: May 10, 2010
7th European Lisp Workshop: June 22, 2010
Please note that registration must be done with ECOOP itself.
For more information visit http://www.european-lisp-workshop.org
Contact: Didier Verna, didier(a)lrde.epita.fr
Invited Speaker
===============
Manuel Serrano (INRIA, France)
http://www-sop.inria.fr/members/Manuel.Serrano/
Overview
========
"...Please don't assume Lisp is only useful for Animation and
Graphics, AI, Bio-informatics, B2B and E-Commerce, Data Mining,
EDA/Semiconductor applications, Expert Systems, Finance, Intelligent
Agents, Knowledge Management, Mechanical CAD, Modeling and Simulation,
Natural Language, Optimization, Research, Risk Analysis, Scheduling,
Telecom, and Web Authoring just because these are the only things they
happened to list."
-- Kent Pitman
Lisp, one of the eldest computer languages still in use today, is
gaining momentum again. The structure of Lisp makes it easy to extend
the language or even to implement entirely new dialects without
starting from scratch, making it the ideal candidate for writing
Domain Specific Languages. Common Lisp, with the Common Lisp Object
System (CLOS), was the first object-oriented programming language to
receive an ANSI standard and remains the most complete and advanced
object system of any programming language, while influencing many
other object-oriented programming languages that followed.
This workshop will address the near-future role of Lisp-based
languages in research, industry and education. We solicit
contributions that discuss the opportunities Lisp provides to capture
and enhance the possibilities in software engineering. We want to
promote lively discussion between researchers proposing new approaches
and practitioners reporting on their experience with the strengths and
limitations of current Lisp technologies.
The workshop will have two components: there will be formal talks, and
interactive turorial/demo/coding sessions.
Papers
======
Formal presentations in the workshop should take between 20 minutes
and half an hour; additional time will be given for questions and
answers. Suggested topics include (but are not limited to):
- Context-, aspect-, domain-oriented and generative programming
- Macro-, reflective-, meta- and/or rule-based development approaches
- Protocol meta-programming and libraries
- New language features and abstractions
- Software evolution
- Development aids
- Persistent systems
- Dynamic optimization
- Implementation techniques
- Hardware Support
- Efficiency, distribution and parallel programming
- Educational approaches and perspectives
- Experience reports and case studies
Interactive Tutorial/Demo/Coding Sessions
=========================================
Additionally, we invite less formal talks in the form of interactive
tutorial/demo/coding sessions. The purpose of these sessions is both
to demonstrate and receive feedback on any interesting Lisp system,
either stable or under development. Being less formal than technical
paper presentations, these sessions are expected to be highly
interactive.
Submission Guidelines
=====================
Potential contributors are encouraged to submit:
- a long paper (around 10 pages) presenting scientific and/or
empirical results about Lisp-based uses or new approaches for
software engineering purposes,
- a short essay (5 pages) defending a position about where
research, practice or education based on Lisp should be heading in
the near future,
- a proposal for an interactive tutorial/demo/coding session (1-2
pages) describing the involved library or application, and the
subject of the session.
Papers (both long and short) should be formatted following the ACM SIGS
guidelines and include ACM classification categories and terms (see below).
Authors will later be required to sign an ACM copyright form, as the workshop
proceedings will be published in the ACM Digital Library.
For more information on the submission guidelines and the ACM keywords, see:
http://www.acm.org/sigs/publications/proceedings-templateshttp://www.acm.org/about/class/1998
Submissions should be uploaded to Easy Chair, at the following address:
http://www.easychair.org/conferences/?conf=elw2010
Organizers
==========
Didier Verna, EPITA Research and Development Laboratory, Paris
Charlotte Herzeel, Programming Technology Lab, Vrije Universiteit, Brussel
Robert Strandh, LaBRI, University of Bordeaux 1, France
Christophe Rhodes, Goldsmiths College, University of London
--
Resistance is futile. You will be jazzimilated.
Scientific site: http://www.lrde.epita.fr/~didier
Music (Jazz) site: http://www.didierverna.com
EPITA/LRDE, 14-16 rue Voltaire, 94276 Le Kremlin-Bicêtre, France
Tel. +33 (0)1 44 08 01 85 Fax. +33 (0)1 53 14 59 22
We are pleased to announce the release of Spot 0.6.
Spot is a model-checking library developed collaboratively by LRDE and
LIP6. It provides algorithms and data structures to implement the
automata-theoretic approach to LTL model checking.
This release adds support for W (weak until) and M (strong release)
LTL operators, it also improves LTL rewriting rules as well as the
degeneralization algorithm. The result is that a lot of LTL formulae
from our benchmark are translated to smaller automata, and the
reduction is even more important when producing never claims.
You can find the new release here:
http://spot.lip6.fr/dl/spot-0.6.tar.gz
New in spot 0.6 (16-04-2010):
* Several optimizations to improve some auxiliary steps
of the LTL translation (not the core of the translation):
- Better degeneralization
- SCC simplifications has been tuned for degeneralization
(ltl2tgba now has two options -R3 and -R3f: the latter will
remove every acceptance condition that used to be removed
in Spot 0.5 while the former will leave useless acceptance conditions
going to accepting SCC. Experience shows that -R3 is more
favorable to degeneralization).
- ltl2tgba will perform SCC optimizations before degeneralization
and not the converse
- We added a syntactic simplification rule to rewrite F(a)|F(b) as F(a|b).
We only had a rule for the more specific FG(a)|FG(b) = F(Ga|Gb).
- The syntactic simplification rule for F(a&GF(b)) = F(a)&GF(b) has
be disabled because the latter formula is in fact harder to translate
efficiently.
* New LTL operators: W (weak until) and its dual M (strong release)
- Weak until allows many LTL specification to be specified more
compactly.
- All LTL translation algorithms have been updated to
support these operators.
- Although they do not add any expressive power, translating
"a W b" is more efficient (read smaller output automaton) than
translating the equivalent form using the U operator.
- Basic syntactic rewriting rules will automatically rewrite "a U
(b | G(a))" and "(a U b)|G(a)" as "a W b", so you will benefit
from the new operators even if you do not use them. Similar
rewriting rules exist for R and M, although they are less used.
* New options have been added to the CGI script for
- SVG output
- SCC simplifications
* Bug fixes:
- The precedence of the "->" and "<->" Boolean operators has been
adjusted to better match other tools.
Spot <= 0.5 used to parse "a & b -> c & d" as "a & (b -> c) & d";
Spot >= 0.6 will parse it as "(a & b) -> (c & d)".
- The random graph generator was fixed (again!) not to produce
dead states as documented.
- Locations in the error messages of the LTL parser were off by one.
--
Alexandre Duret-Lutz
Hello,
I'm pleased to inform you that my paper entitled
"Revisiting the Visitor: the Just Do It Pattern"
has just been published in J.UCS., Volume 16, Issue 2, pages 246 -- 271.
You can find it here:
http://www.jucs.org/jucs_16_2/revisiting_the_visitor_the
The abstract is given below:
While software design patterns are a generally useful concept, they are
often (and mistakenly) seen as ready-made universal recipes for solving
common problems. In a way, the danger is that programmers stop thinking
about their actual problem, and start looking for pre-cooked solutions
in some design pattern book instead. What people usually forget about
design patterns is that the underlying programming language plays a
major role in the exact shape such or such pattern will have on the
surface. The purpose of this paper is twofold: we show why design
pattern expression is intimately linked to the expressiveness of the
programming language in use, and we also demonstrate how a blind
application of them can in fact lead to very poorly designed code.
--
Resistance is futile. You will be jazzimilated.
Scientific site: http://www.lrde.epita.fr/~didier
Music (Jazz) site: http://www.didierverna.com
EPITA/LRDE, 14-16 rue Voltaire, 94276 Le Kremlin-Bicêtre, France
Tel. +33 (0)1 44 08 01 85 Fax. +33 (0)1 53 14 59 22