Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 7 décembre 2016 (11h--12h), Salle L0 du LRDE.
Vous trouverez sur le site du séminaire [1] les prochaines séances,
les résumés, captations vidéos et planches des exposés précédents [2],
le détail de cette séance [3] ainsi que le plan d'accès [4].
[1] http://seminaire.lrde.epita.fr
[2] http://seminaire.lrde.epita.fr/Archives
[3] http://seminaire.lrde.epita.fr/2016-12-07
[4] http://www.lrde.epita.fr/Contact
Au programme du Mercredi 7 décembre 2016 :
* 11h--12h: Des données spatio-temporelles aux dynamiques urbaines
-- Julien Perret, équipe COGIT, LaSTIG, IGN
http://recherche.ign.fr/labos/cogit/cv.php?prenom=Julien&nom=Perret
La ville est un système complexe façonné par des dynamiques opérant
à
des échelles différentes. En tant que chercheur en sciences de
l'information géographique travaillant dans l'interdisciplinarité, je
travaille en collaboration avec des spécialistes du transport, des
géographes, des urbanistes, des historiens, des démographes, et des
physiciens, afin de proposer de meilleurs outils, modèles et données
pour l'étude multi-échelle des dynamiques urbaines.
Je présente mes contributions dans un ordre correspondant à l'échelle
spatiale, de la plus large à la plus fine : la très grande échelle
pour
les questions liées à la mobilité, la grande échelle pour celles
liées à
l'urbanisme et la petite échelle pour les questions liées à
l'évolution
du territoire sur le long terme.
Pour chaque partie, je vais m'attacher à proposer un cheminement
commun
: tout d'abord la question des sources d'information, des
connaissances
manipulées, leur représentation, leur stockage ; ensuite, la question
de
l'analyse de ces données, de leur enrichissement, de leur croisement
;
enfin, l'interaction avec ces données, leur visualisation, leur
interprétation, leur validation, leur correction par des
utilisateurs.
-- Julien Perret (Dr. Université de Rennes 1 2006) est chercheur en
Informatique et en Sciences de l'Information Géographique au sein de
l'équipe de Cartographie et Géomatique (COGIT) du Laboratoire des
Sciences et Technologies de l'Information Géographique (LaSTIG) de
l'Institut National de l'Information Géographique et Forestière
(IGN).
Ses sujets de recherche portent principalement sur les données
spatio-temporelles et en particulier les données géo-historiques,
l'appariement de données géographiques et géo-historiques, la
simulation
urbaine 2D et 3D, la modélisation des systèmes complexe et
l'optimisation stochastique. Il contribue à la mise en place de
nouveaux
standards pour la recherche reproductible par la diffusion des
travaux
de recherche sous la forme de données libres et de logiciels libres.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible. N'hésitez pas à nous faire
parvenir vos suggestions d'orateurs.
--
Guillaume TOCHON
Maître de conférences // Assistant Professor
LRDE, EPITA
18, rue Pasteur
94270 Le Kremlin-Bicêtre
_______________________________________________
Seminaire mailing list
Seminaire(a)lrde.epita.fr
https://lists.lrde.epita.fr/listinfo/seminaire
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 23 novembre 2016 (11h--12h), Salle L0 du LRDE.
Vous trouverez sur le site du séminaire [1] les prochaines séances,
les résumés, captations vidéos et planches des exposés précédents [2],
le détail de cette séance [3] ainsi que le plan d'accès [4].
[1] http://seminaire.lrde.epita.fr
[2] http://seminaire.lrde.epita.fr/Archives
[3] http://seminaire.lrde.epita.fr/2016-11-23
[4] http://www.lrde.epita.fr/Contact
Au programme du Mercredi 23 novembre 2016 :
* 11h--12h: Analyse du mouvement avec applications bio-médicales
-- Elodie Puybareau, LIGM
http://ciliola.fr
L’analyse du mouvement, ou l’analyse d’une séquence d’images, est
l’extension naturelle de l’analyse d’images à l’analyse de séries
temporelles d’images. De nombreuses méthodes d’analyse de mouvement
ont
été développées dans le contexe de vision par ordinateur, comprenant
le
suivi de caractéristiques, le flot optique, l’analyse de
points-clefs,
le recalage d’image, etc.
Dans cet exposé, nous présenterons les outils que nous avons
développés
pour l'analyse de mouvement adaptés à l’analyse de séquences
biomédicales, et en particulier pour les cellules ciliées. Ces
cellules,
couvertes de cils qui battent, sont présentes chez l’homme dans les
zones nécessitant des mouvements de fluide. Dans les poumons et les
voies respiratoires supérieures par exemple, les cils sont
responsables
de l’épuration muco-ciliaire, qui permet d’évacuer des poumons la
poussière et autres impuretés inhalées. Les altérations de
l’épuration
muco-ciliaire peuvent être liées à des maladies génétiques ou
acquises.
Ces maladies, touchant les cils, sont potentiellement handicapantes.
Elles peuvent cependant être caractérisées par l’analyse du mouvement
des cils sous un microscope, avec une résolution temporelle
importante.
Nous avons développé plusieurs outils et techniques pour réaliser ces
analyses de manière automatique et avec une haute précision.
-- Elodie Puybareau est en thèse d'Imagerie Bio-Médicale depuis le
1er
décembre 2013 au LIGM. Ses travaux portent surtout sur l’analyse du
mouvement à partir de vidéos, afin d'en extraire divers paramètres
qui
s'appliquent à des sujets bio-médicaux.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible. N'hésitez pas à nous faire
parvenir vos suggestions d'orateurs.
--
Guillaume TOCHON
Maître de conférences // Assistant Professor
LRDE, EPITA
18, rue Pasteur
94270 Le Kremlin-Bicêtre
_______________________________________________
Seminaire mailing list
Seminaire(a)lrde.epita.fr
https://lists.lrde.epita.fr/listinfo/seminaire
The Vcsn team is proud to announce the release of Vcsn 2.4, code-named "the
quotient tools"!
Noteworthy changes include, besides a few bug fixes:
- full support for quotient operators on all entities: labels, expressions,
automata, expansions, etc.
In [2]: c = vcsn.context('lan, q')
...: c
Out[2]: {...}? -> Q
In [3]: label = vcsn.context('law, q').label
...: label('abc') / label('c')
Out[3]: ab
In [4]: exp = c.expression
In [5]: exp('ab').ldivide(exp('ab*c'))
Out[5]: ab{\}ab*c
In [6]: e = exp('ab').ldivide(exp('ab*c'))
...: e
Out[6]: ab{\}ab*c
In [7]: e.automaton().expression()
Out[7]: b*c
Operators {\} (left quotient) and {/} (right quotient) are available in
the rational expressions:
In [8]: e = exp('ab {\} abc*')
...: e
Out[8]: ab{\}abc*
In [9]: e.expansion()
Out[9]: \e.[b{\}bc*]
In [10]: e.derived_term().expression()
Out[10]: c*
In [11]: e.inductive().expression()
Out[11]: \e+cc*
- an overhaul of the "Vcsn Tools" (previously known as TAF-Kit). Because
the tools are now automatically generated, they are much more extensive
than previously: (almost) all of the dyn algorithms are now available from
the shell. It now also supports the 'daut' format for automata.
$ vcsn thompson -Ee '[ab]*c' | vcsn proper | vcsn determinize | vcsn minimize | vcsn to-expression
(a+b)*c
$ vcsn random-expression -C 'lal(abc), z' '+, ., w., length=20, w="min=-2, max=10"'
(a+<2>(ac)+<5>(acca))a
- an new method to construct an automaton from an extended expression:
`expression.inductive`. This provides an alternative to
`expression.derived_term`. Currently provides a single flavor: generation
of standard automata.
In [2]: vcsn.B.expression('! [ab]*a[ab]*').inductive().expression()
Out[2]: \e+bb*
In [3]: vcsn.B.expression('! [ab]*a[ab]*').automaton().expression()
Out[3]: b*
- `automaton.evaluate` works properly on non-free automata, including
multitape automata:
In [2]: c = vcsn.context('lan(a-z), nmin')
a = (c|c).levenshtein()
a('foo|bar')
Out[2]: 3
- input/output support for FAdo's format for transducers, and improved
compatibility with OpenFST.
For more information, please visit http://vcsn.lrde.epita.fr, in
particular https://vcsn.lrde.epita.fr/Vcsn2.4. Packages of Vcsn 2.4 should
appear soon on various distributions (MacPorts, Debian, ArchLinux, Docker Hub).
Vcsn 2.4 is also available online, at http://vcsn-sandbox.lrde.epita.fr.
People who worked on this release:
- Akim Demaille
- Clément Gillard
- Lucien Boillod
- Sarasvati Moutoucomarapoulé
- Sébastien Piat
- Younes Khoudli
People who have influenced this release:
- Alexandre Duret-Lutz
- Jacques Sakarovitch
- Luca Saiu
- Sylvain Lombardy
We are happy to announce the release of Spot 2.2.
You can find the new release here:
http://www.lrde.epita.fr/dload/spot/spot-2.2.tar.gz
See https://spot.lrde.epita.fr/ for documentation and installation
instructions.
Spot 2.2 fixes some serious bugs and adds an assortments of small
improvements. These changes have been contributed by Alexandre
Gbaguidi Aisse, Étienne Renault, and myself. A detailed list of what
is new is given below.
As always, please direct any feedback to <spot(a)lrde.epita.fr>.
New in spot 2.2 (2016-11-14)
Command-line tools:
* ltlfilt has a new option --from-ltlf to help reducing LTLf (i.e.,
LTL over finite words) model checking to LTL model checking. This
is based on a transformation by De Giacomo & Vardi (IJCAI'13).
* "ltldo --stats=%R", which used to display the serial number of the
formula processed, was renamed to "ltldo --stats=%#" to free %R
for the following feature.
* autfilt, dstar2tgba, ltl2tgba, ltlcross, ltldo learned to measure
cpu-time (as opposed to wall-time) using --stats=%R. User or
system time, for children or parent, can be measured separately by
adding additional %[LETTER]R options. The difference between %r
(wall-clock time) and %R (CPU time) can also be used to detect
unreliable measurements. See
https://spot.lrde.epita.fr/oaut.html#timing
Library:
* from_ltlf() is a new function implementing the --from-ltlf
transformation described above.
* is_unambiguous() was rewritten in a more efficient way.
* scc_info learned to determine the acceptance of simple SCCs made
of a single self-loop without resorting to remove_fin() for complex
acceptance conditions.
* remove_fin() has been improved to better deal with automata with
"unclean" acceptance, i.e., acceptance sets that are declared but
not used. In particular, this helps scc_info to be more efficient
at deciding the acceptance of SCCs in presence of Fin acceptance.
* Simulation-based reductions now implement just bisimulation-based
reductions on deterministic automata, to save time. As an example,
this halves the run time of
genltl --rv-counter=10 | ltl2tgba
* scc_filter() learned to preserve state names and highlighted states.
* The BuDDy library has been slightly optimized: the initial setup
of the unicity table can now be vectorized by GCC, and all calls
to setjmp are now avoided when variable reordering is disabled
(the default).
* The twa class has three new methods:
aut->intersects(other)
aut->intersecting_run(other)
aut->intersecting_word(other)
currently these are just convenient wrappers around
!otf_product(aut, other)->is_empty()
otf_product(aut, other)->accepting_run()->project(aut)
otf_product(aut, other)->accepting_word()
with any Fin-acceptance removal performed before the product.
However the plan is to implement these more efficiently in the
future.
Bugs:
* ltl2tgba was always using the highest settings for the LTL
simplifier, ignoring the --low and --medium options. Now
genltl --go-theta=12 | ltl2tgba --low --any
is instantaneous as it should be.
* The int-vector compression code could encode 6 and 22 in the
same way, causing inevitable issues in our LTSmin interface.
(This affects tests/ltsmin/modelcheck with option -z, not -Z.)
* str_sere() and str_utf8_sere() were not returning the same
string that print_sere() and print_utf8_sere() would print.
* Running the LTL parser in debug mode would crash.
* tgba_determinize() could produce incorrect deterministic automata
when run with use_simulation=true (the default) on non-simplified
automata.
* When the automaton_stream_parser reads an automaton from an
already opened file descriptor, it will not close the file
anymore. Before that the spot.automata() python function used to
close a file descriptor twice when reading from a pipe, and this
led to crashes of the 0MQ library used by Jupyter, killing the
Python kernel.
* remove_fin() could produce incorrect result on incomplete
automata tagged as weak and deterministic.
* calling set_acceptance() several times on an automaton could
result in unexpected behaviors, because set_acceptance(0,...)
used to set the state-based acceptance flag automatically.
* Some buffering issue caused syntax errors to be displayed out
of place by the on-line translator.
--
Alexandre Duret-Lutz
ELS'17 - 10th European Lisp Symposium
VUB - Vrije Universiteit Brussel
Belgium
April 3-4, 2017
In co-location with <Programming> 2017
http://www.european-lisp-symposium.org/
The purpose of the European Lisp Symposium is to provide a forum for
the discussion and dissemination of all aspects of design,
implementation and application of any of the Lisp and Lisp-inspired
dialects, including Common Lisp, Scheme, Emacs Lisp, AutoLisp, ISLISP,
Dylan, Clojure, ACL2, ECMAScript, Racket, SKILL, Hop and so on. We
encourage everyone interested in Lisp to participate.
The 10th European Lisp Symposium invites high quality papers about
novel research results, insights and lessons learned from practical
applications and educational perspectives. We also encourage
submissions about known ideas as long as they are presented in a new
setting and/or in a highly elegant way.
Topics include but are not limited to:
- Context-, aspect-, domain-oriented and generative programming
- Macro-, reflective-, meta- and/or rule-based development approaches
- Language design and implementation
- Language integration, inter-operation and deployment
- Development methodologies, support and environments
- Educational approaches and perspectives
- Experience reports and case studies
We invite submissions in the following forms:
Papers: Technical papers of up to 8 pages that describe original
results or explain known ideas in new and elegant ways.
Demonstrations: Abstracts of up to 2 pages for demonstrations of
tools, libraries, and applications.
Tutorials: Abstracts of up to 4 pages for in-depth presentations
about topics of special interest for at least 90 minutes and up to
180 minutes.
The symposium will also provide slots for lightning talks, to be
registered on-site every day.
All submissions should be formatted following the ACM SIGS guidelines
and include ACM classification categories and terms. For more
information on the submission guidelines and the ACM keywords, see:
http://www.acm.org/sigs/publications/proceedings-templates and
http://www.acm.org/about/class/1998. The conference proceedings will be
published in the ACM Digital Library.
Important dates:
- 30 Jan 2017 Submission deadline
- 27 Feb 2017 Notification of acceptance
- 20 Mar 2017 Final papers due
- 03-04 Apr 2017 Symposium
Programme chair:
Alberto Riva, University of Florida, USA
Programme committee:
tba
Search Keywords:
#els2017, ELS 2017, ELS '17, European Lisp Symposium 2017,
European Lisp Symposium '17, 10th ELS, 10th European Lisp Symposium,
European Lisp Conference 2017, European Lisp Conference '17
--
Resistance is futile. You will be jazzimilated.
Lisp, Jazz, Aïkido: http://www.didierverna.info