Hello,
After more than 3 years of hyper-sleep, I'm happy to announce the
release of FiXme version 4.3.
What's new in this version:
* Add a paragraph about the duplication of notes in captions
* Update support for the KOMA-Script classes to the tocbasic interface
* Separate inline notes from the text they follow
* Fix potential inline layouts color leakage
* Fix several bracket parsing problems
Grab it directly here:
http://www.lrde.epita.fr/~didier/software/latex.php#fixme
or wait until it propagates through CTAN...
--
Resistance is futile. You will be jazzimilated.
Lisp, Jazz, Aïkido: http://www.didierverna.info
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 18 janvier 2017 (11h--12h), Salle L0 du LRDE.
Vous trouverez sur le site du séminaire [1] les prochaines séances,
les résumés, captations vidéos et planches des exposés précédents [2],
le détail de cette séance [3] ainsi que le plan d'accès [4].
[1] http://seminaire.lrde.epita.fr
[2] http://seminaire.lrde.epita.fr/Archives
[3] http://seminaire.lrde.epita.fr/2017-01-18
[4] http://www.lrde.epita.fr/Contact
Au programme du Mercredi 18 janvier 2017 :
* 11h--12h: Analyse topologique de données pour la visualisation
scientifique: où en est-on et où va-t-on?
-- Julien Tierny - CNRS - LIP6 - UPMC
http://lip6.fr/Julien.Tierny
La visualisation scientifique est un domaine qui vise à aider les
utilisateurs à (i) représenter, (ii) explorer et (iii) analyser des
données géométriques acquises ou simulées, à des fins
d'interprétation,
de validation ou de communication. Parmi les techniques existantes,
les
algorithmes inspirés par la théorie de Morse ont démontré leur
utilité
dans ce contexte pour l'extraction efficace et robuste de structures
d'intérêts, et ce, à plusieurs échelles d'importance.
Dans cette présentation, je donnerai un bref tutoriel sur l'analyse
topologique de champs scalaires, en introduisant quelques concepts
clés
comme celui de graphe de Reeb, de complexe de Morse-Smale ou de
diagramme de persistance. Par ailleurs, j'illustrerai ces notions par
des cas d'applications concrets en astrophysique, chimie moléculaire
ou
encore en combustion. Ensuite, je discuterai certaines problématiques
pratiques ayant récemment émergé avec le développement des ressources
de
calcul haute-performance. Ces problématiques induisent non seulement
des
jeux de données d'une taille inédite, mais également des types
nouveaux
de données, comme les champs scalaires multivariés ou incertains. Ces
difficultés ne sont pas uniquement intéressantes pour la communauté
de
recherche à cause de leur forte importance pratique, mais aussi parce
qu'elles nécessitent un redémarrage complet de l'effort de recherche
entrepris dans ce domaine ces vingt dernières années. En particulier,
je
présenterai de nouvelles directions de recherche, étayées par des
résultats préliminaires récents concernant l'analyse topologique dans
un
contexte de calcul haute-performance, ainsi que l'analyse topologique
de
champs scalaires incertains ou bivariés.
-- Julien Tierny a obtenu un Doctorat en informatique de l'Université
Lille 1 en 2008, et l'Habilitation à Diriger des Recherches de
l'Université Pierre-et-Marie-Curie en 2016. Depuis septembre 2014, il
est chercheur permanent au CNRS, affilié avec le laboratoire LIP6
(UPMC), après avoir été chercheur à Télécom ParisTech entre 2010 et
2014. Avant cela, lauréat d'une bourse Fulbright, il a été chercheur
associé en post-doctorat au Scientific Computing and Imaging
Institute
de l'Université d'Utah. Ses intérêts de recherche comprennent
l'analyse
topologique et géométrique de données pour la visualisation
scientifique. Il a reçu en 2016 la "Mention Honorable" du concours
IEEE
Scientific Visualization Contest ainsi que le prix du meilleur
article
de la conférence IEEE VIS.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible. N'hésitez pas à nous faire
parvenir vos suggestions d'orateurs.
--
Guillaume TOCHON
Maître de conférences // Assistant Professor
LRDE, EPITA
18, rue Pasteur
94270 Le Kremlin-Bicêtre
_______________________________________________
Seminaire mailing list
Seminaire(a)lrde.epita.fr
https://lists.lrde.epita.fr/listinfo/seminaire
I am happy to announce that the following paper has been
accepted at the 25rd Euromicro International Conference on Parallel,
Distributed, and Network-Based Processing (PDP 2017) to be held in St Petersburg,
Russia on March 6-8.
Title and authors:
Title : Parallel Satisfiability Solver Based on Hybrid Partitioning Method
Tarek Menour (1,3), Souheib Baarir(1,2,3).
(1) Paris Ouest Nanterre la Défense University
(2) LRDE, EPITA, Kremlin-Bicêtre, France
(3) LIP6 Laboratory, CNRS UMR 7606, Paris, France
Abstract :
This paper presents a hybrid partitioning method used to improve the performance of solving a Satisfiability (SAT) problem. The principle of our approach consists firstly in applying a static partitioning to decompose the search tree in finite set of disjoint sub-trees, then assign each sub-tree to one computing core. However it is not easy to choose the relevant branching variables to partition the search tree. We propose in this context to partition the search tree according to the variables that occur more frequently than others. The advantage of this method is to give a good disjoint sub-trees. However, the drawback is the imbalance load between computing cores.
To overcome this drawback, we propose, as novelty, to extend the static partitioning by combining with a new dynamic partitioning that assures a good load balancing between cores. Each time a new waiting core is detected, the dynamic partitioning select automatically by using an estimation function the computing core which has the most work to do in order to partition dynamically its sub-tree in two parts. It keeps one part and gives the second part to the waiting core. Preliminary results show that a good speedup is achieved by using our hybrid method.
ELS'17 - 10th European Lisp Symposium
VUB - Vrije Universiteit Brussel
Belgium
April 3-4, 2017
In co-location with <Programming> 2017
Sponsored by Brunner Software GmbH
http://www.european-lisp-symposium.org/
The purpose of the European Lisp Symposium is to provide a forum for
the discussion and dissemination of all aspects of design,
implementation and application of any of the Lisp and Lisp-inspired
dialects, including Common Lisp, Scheme, Emacs Lisp, AutoLisp, ISLISP,
Dylan, Clojure, ACL2, ECMAScript, Racket, SKILL, Hop and so on. We
encourage everyone interested in Lisp to participate.
The 10th European Lisp Symposium invites high quality papers about
novel research results, insights and lessons learned from practical
applications and educational perspectives. We also encourage
submissions about known ideas as long as they are presented in a new
setting and/or in a highly elegant way.
Topics include but are not limited to:
- Context-, aspect-, domain-oriented and generative programming
- Macro-, reflective-, meta- and/or rule-based development approaches
- Language design and implementation
- Language integration, inter-operation and deployment
- Development methodologies, support and environments
- Educational approaches and perspectives
- Experience reports and case studies
We invite submissions in the following forms:
Papers: Technical papers of up to 8 pages that describe original
results or explain known ideas in new and elegant ways.
Demonstrations: Abstracts of up to 2 pages for demonstrations of
tools, libraries, and applications.
Tutorials: Abstracts of up to 4 pages for in-depth presentations
about topics of special interest for at least 90 minutes and up to
180 minutes.
The symposium will also provide slots for lightning talks, to be
registered on-site every day.
All submissions should be formatted following the ACM SIGS guidelines
and include ACM classification categories and terms. For more
information on the submission guidelines and the ACM keywords, see:
http://www.acm.org/sigs/publications/proceedings-templates and
http://www.acm.org/about/class/1998. The conference proceedings will be
published in the ACM Digital Library.
Submissions should be uploaded to Easy Chair, at the following address:
https://www.easychair.org/conferences/?conf=els17
Note: to help us with the review process please indicate the type of
submission by entering either "paper", "demo", or "tutorial" in the
Keywords field.
Important dates:
- 30 Jan 2017 Submission deadline
- 27 Feb 2017 Notification of acceptance
- 20 Mar 2017 Final papers due
- 03-04 Apr 2017 Symposium
Programme chair:
Alberto Riva, University of Florida, USA
Programme committee:
Marco Antoniotti, Università Milano Bicocca, Italy
Marc Battyani, FractalConcept
Theo D'Hondt, Vrije Universiteit Brussel, Belgium
Marc Feeley, Université de Montreal, Canada
Stelian Ionescu, Google
Rainer Joswig, Independent Consultant, Germany
António Menezes Leitão, Technical University of Lisbon, Portugal
Nick Levine, RavenPack
Henry Lieberman, MIT, USA
Mark Tarver, Shen Programming Group
Jay McCarthy, University of Massachusetts Lowell, USA
Christian Queinnec, Université Pierre et Marie Curie, France
François-René Rideau, Bridgewater Associates, USA
Nikodemus Siivola, ZenRobotics Ltd
Alessio Stalla, Università degli Studi di Genova, Italy
Search Keywords:
#els2017, ELS 2017, ELS '17, European Lisp Symposium 2017,
European Lisp Symposium '17, 10th ELS, 10th European Lisp Symposium,
European Lisp Conference 2017, European Lisp Conference '17
--
Resistance is futile. You will be jazzimilated.
Lisp, Jazz, Aïkido: http://www.didierverna.info
Bonjour à tous,
Nous avons le plaisir de vous inviter à la soutenance de thèse de Nicolas
Boutry intitulée ``Une étude du bien-composé à la dimension n''.
Celle-ci aura lieu le 14 Décembre 2016 à 14h00 à l'ESIEE Paris, situé
au 2, boulevard Blaise Pascal, Cité Descartes, à Noisy-le-Grand (93).
Vous trouverez un plan d'accès à l'école à l'adresse suivante :
http://www.esiee.fr/Infos-pratiques/acces.php
La soutenance sera suivie d'un pot.
Le manuscrit est accessible ici :
https://www.lrde.epita.fr/images/b/b9/BOUTRY-PHD-2016-10-9.pdf
Composition du jury de thèse
----------------------------
Rapporteurs :
Nicolas PASSAT (Université de Reims Champagne-Ardenne)
Rocio GONZÁLEZ-DÍAZ (Universidad de Sevilla)
Jacques-Olivier LACHAUD (Université Savoie Mont Blanc)
Examinateurs :
Longin Jan LATECKI (Temple University)
Loïc MAZO (Université de Strasbourg)
Michel COUPRIE (ESIEE Paris - Université Paris-Est Marne-la-Vallée)
Directeurs de thèse :
Laurent NAJMAN (ESIEE Paris - Université Paris-Est Marne-la-Vallée)
Thierry GÉRAUD (EPITA)
Résumé de la thèse
------------------
Le processus de discrétisation faisant inévitablement appel à des capteurs,
et ceux-ci étant limités de par leur nature, de nombreux effets secondaires
apparaissent alors lors de ce processus; en particulier, nous perdons la
propriété d'être "bien-composé" dans le sens où deux objects discrétisés
peuvent être connectés ou non en fonction de la connexité utilisée dans
l'image discrète, ce qui peut amener à des ambigüités. De plus, les images
discrétisées sont des tableaux de valeurs numériques, et donc ne
possèdent pas de topologie par nature, contrairement à notre modélisation
usuelle du monde en mathématiques et en physique.
Perdre toutes ces propriétés rend difficile l'élaboration d'algorithmes
topologiquement corrects en traitement d'images: par exemple, le calcul
de l'arbre des formes nécessite que la representation d'une image donnée
soit continue et bien-composée; dans le cas contraire, nous risquons
d'obtenir des anomalies dans le résultat final.
Quelques représentations continues et bien-composées existent déjà,
mais elles ne sont pas simultanément n-dimensionnelles et auto-duales.
La n-dimensionalité est cruciale sachant que les signaux usuels sont de
plus en plus tridimensionnels (comme les vidéos 2D) ou 4-dimensionnels
(comme les CT-scans). L'auto-dualité est nécéssaire lorsqu'une même
image contient des objets à contrastes divers.
Nous avons donc développé une nouvelle façon de rendre les images
bien-composées par interpolation de façon auto-duale et en n-D;
suivie d'une immersion par l'opérateur span, cette interpolation devient
une représentation auto-duale continue et bien-composée du signal
initial n-D. Cette représentation bénéficie de plusieurs propriétés
topologiques fortes: elle vérifie le théorème de la valeur intermédiaire,
les contours de chaque coupe de la représentation sont déterminés par
une union disjointe de surfaces discrètes, et ainsi de suite.
Pour large diffusion, désolé pour les réceptions multiples
Chères collègues, chers collègues,
L’EPITA recrute deux Enseignants-Chercheurs en informatique, la recherche s’effectuera
au sein du laboratoire de recherche de l’école. Les enseignements se feront dans le cadre de
la majeure Intelligence Artificielle de l’école. Les candidats doivent faire la preuve de leur capacité
à s’intégrer dans l’équipe de recherche et dans la formation concernée.
Veuillez trouver les descriptifs des postes ci-dessous.
date limite de candidature : 10 janvier 2017
Bien cordialement
Réda DEHAK
https://www.lrde.epita.fr/wiki/Open_positions_-_Research
L'EPITA recrute deux Enseignants-Chercheurs en informatique
Mots Clés : Machine Learning, Data Science, Speech, Text and signal Processing, BigData.
L’Ecole Pour l’Informatique et les Techniques Avancées (EPITA, http://www.epita.fr <http://www.epita.fr/>), école d’ingénieur en informatique située à Paris, recherche deux enseignants-chercheurs pour assurer des cours dans le cycle ingénieur et pour participer aux activités de recherche de l’équipe Speaker ID <https://www.lrde.epita.fr/wiki/Speaker_ID> du Laboratoire de Recherche et Développement de l’EPITA (LRDE).
Recherche
Les nouveaux collègues rejoindront l’équipe Speaker ID <https://www.lrde.epita.fr/wiki/Speaker_ID> du LRDE, ils devront apporter une expertise complémentaire dans ce domaine, afin d’augmenter le spectre de compétences de l’équipe. Cette équipe dispose déjà de fortes compétences dans le domaine de l’apprentissage automatique, la théorie de la décision, le traitement automatique de la parole et particulièrement dans le domaine de la reconnaissance du locuteur et des émotions. L’équipe travaille en collaboration avec des laboratoires reconnus mondialement et participe régulièrement à des concours internationaux de reconnaissance du locuteur où elle a obtenu d’excellents résultats.
Compétences exigées
Traitement de la parole, du langage naturel, Analyse de texte (ou éventuellement systèmes de recommandation)
Expérience significative de la mise en œuvre d’algorithmes d’analyse de données, d’apprentissage supervisé (SVM, RVM, régression, réseaux de neurones classiques ou profonds, modèle de Markov...) ou non-supervisé (clustering, méthodes de projection et visualisation...)
Excellente connaissance d’au moins un langage de prototypage scientifique rapide (Python, Matlab, Julia)
Maîtrise d’au moins un langage parmi Scala et C++
Expérience sur la manipulation des données réelles
Expérience sur le traitement des signaux et/ou de données massives
Expérience en développement informatique
Enseignement
Les enseignants-chercheurs interviendront dans différents modules en Informatique, apprentissage automatique et reconnaissance des formes durant tout le cycle ingénieur de niveau bac+3 à bac+5. Ils doivent faire preuve d’une expérience significative en enseignement. Ils auront vocation à enseigner principalement les différentes facettes du DataScience (statistiques, analyse de données et BigData, Apprentissage automatique et extraction des connaissance …). Ils interviendront notamment dans la majeure Sciences Cognitives et Informatique Avancée (SCIA) de l’EPITA.
Objectifs de recherche de l’équipe
Faire de la reconnaissance du langage en profitant de l’expérience en reconnaissance du locuteur
Développer des compétences en reconnaissance de la parole et traitement du langage naturel.
Développer de nouvelles compétences en Apprentissage automatique : Système de recommandation, Indexation audio et de masse de données, etc…
Dossier de la candidature en version électronique
CV
Lettre de motivation
Résumé de thèse
Copie des diplômes
Publications
Lettre de recommandation
…
à envoyer à Réda Dehak avant le 10 janvier 2017 :
Tel : 01 44 08 01 86, <reda.dehak-at-lrde.epita.fr>
--
Réda Dehak
Enseignant Chercheur et responsable de la majeure SCIA
LRDE-EPITA, 14-16 rue voltaire, 94270 le Kremlin Bicêtre, France
Tél. +33 1 44 08 01 86
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 7 décembre 2016 (11h--12h), Salle L0 du LRDE.
Vous trouverez sur le site du séminaire [1] les prochaines séances,
les résumés, captations vidéos et planches des exposés précédents [2],
le détail de cette séance [3] ainsi que le plan d'accès [4].
[1] http://seminaire.lrde.epita.fr
[2] http://seminaire.lrde.epita.fr/Archives
[3] http://seminaire.lrde.epita.fr/2016-12-07
[4] http://www.lrde.epita.fr/Contact
Au programme du Mercredi 7 décembre 2016 :
* 11h--12h: Des données spatio-temporelles aux dynamiques urbaines
-- Julien Perret, équipe COGIT, LaSTIG, IGN
http://recherche.ign.fr/labos/cogit/cv.php?prenom=Julien&nom=Perret
La ville est un système complexe façonné par des dynamiques opérant
à
des échelles différentes. En tant que chercheur en sciences de
l'information géographique travaillant dans l'interdisciplinarité, je
travaille en collaboration avec des spécialistes du transport, des
géographes, des urbanistes, des historiens, des démographes, et des
physiciens, afin de proposer de meilleurs outils, modèles et données
pour l'étude multi-échelle des dynamiques urbaines.
Je présente mes contributions dans un ordre correspondant à l'échelle
spatiale, de la plus large à la plus fine : la très grande échelle
pour
les questions liées à la mobilité, la grande échelle pour celles
liées à
l'urbanisme et la petite échelle pour les questions liées à
l'évolution
du territoire sur le long terme.
Pour chaque partie, je vais m'attacher à proposer un cheminement
commun
: tout d'abord la question des sources d'information, des
connaissances
manipulées, leur représentation, leur stockage ; ensuite, la question
de
l'analyse de ces données, de leur enrichissement, de leur croisement
;
enfin, l'interaction avec ces données, leur visualisation, leur
interprétation, leur validation, leur correction par des
utilisateurs.
-- Julien Perret (Dr. Université de Rennes 1 2006) est chercheur en
Informatique et en Sciences de l'Information Géographique au sein de
l'équipe de Cartographie et Géomatique (COGIT) du Laboratoire des
Sciences et Technologies de l'Information Géographique (LaSTIG) de
l'Institut National de l'Information Géographique et Forestière
(IGN).
Ses sujets de recherche portent principalement sur les données
spatio-temporelles et en particulier les données géo-historiques,
l'appariement de données géographiques et géo-historiques, la
simulation
urbaine 2D et 3D, la modélisation des systèmes complexe et
l'optimisation stochastique. Il contribue à la mise en place de
nouveaux
standards pour la recherche reproductible par la diffusion des
travaux
de recherche sous la forme de données libres et de logiciels libres.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible. N'hésitez pas à nous faire
parvenir vos suggestions d'orateurs.
--
Guillaume TOCHON
Maître de conférences // Assistant Professor
LRDE, EPITA
18, rue Pasteur
94270 Le Kremlin-Bicêtre
_______________________________________________
Seminaire mailing list
Seminaire(a)lrde.epita.fr
https://lists.lrde.epita.fr/listinfo/seminaire
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 23 novembre 2016 (11h--12h), Salle L0 du LRDE.
Vous trouverez sur le site du séminaire [1] les prochaines séances,
les résumés, captations vidéos et planches des exposés précédents [2],
le détail de cette séance [3] ainsi que le plan d'accès [4].
[1] http://seminaire.lrde.epita.fr
[2] http://seminaire.lrde.epita.fr/Archives
[3] http://seminaire.lrde.epita.fr/2016-11-23
[4] http://www.lrde.epita.fr/Contact
Au programme du Mercredi 23 novembre 2016 :
* 11h--12h: Analyse du mouvement avec applications bio-médicales
-- Elodie Puybareau, LIGM
http://ciliola.fr
L’analyse du mouvement, ou l’analyse d’une séquence d’images, est
l’extension naturelle de l’analyse d’images à l’analyse de séries
temporelles d’images. De nombreuses méthodes d’analyse de mouvement
ont
été développées dans le contexe de vision par ordinateur, comprenant
le
suivi de caractéristiques, le flot optique, l’analyse de
points-clefs,
le recalage d’image, etc.
Dans cet exposé, nous présenterons les outils que nous avons
développés
pour l'analyse de mouvement adaptés à l’analyse de séquences
biomédicales, et en particulier pour les cellules ciliées. Ces
cellules,
couvertes de cils qui battent, sont présentes chez l’homme dans les
zones nécessitant des mouvements de fluide. Dans les poumons et les
voies respiratoires supérieures par exemple, les cils sont
responsables
de l’épuration muco-ciliaire, qui permet d’évacuer des poumons la
poussière et autres impuretés inhalées. Les altérations de
l’épuration
muco-ciliaire peuvent être liées à des maladies génétiques ou
acquises.
Ces maladies, touchant les cils, sont potentiellement handicapantes.
Elles peuvent cependant être caractérisées par l’analyse du mouvement
des cils sous un microscope, avec une résolution temporelle
importante.
Nous avons développé plusieurs outils et techniques pour réaliser ces
analyses de manière automatique et avec une haute précision.
-- Elodie Puybareau est en thèse d'Imagerie Bio-Médicale depuis le
1er
décembre 2013 au LIGM. Ses travaux portent surtout sur l’analyse du
mouvement à partir de vidéos, afin d'en extraire divers paramètres
qui
s'appliquent à des sujets bio-médicaux.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible. N'hésitez pas à nous faire
parvenir vos suggestions d'orateurs.
--
Guillaume TOCHON
Maître de conférences // Assistant Professor
LRDE, EPITA
18, rue Pasteur
94270 Le Kremlin-Bicêtre
_______________________________________________
Seminaire mailing list
Seminaire(a)lrde.epita.fr
https://lists.lrde.epita.fr/listinfo/seminaire
The Vcsn team is proud to announce the release of Vcsn 2.4, code-named "the
quotient tools"!
Noteworthy changes include, besides a few bug fixes:
- full support for quotient operators on all entities: labels, expressions,
automata, expansions, etc.
In [2]: c = vcsn.context('lan, q')
...: c
Out[2]: {...}? -> Q
In [3]: label = vcsn.context('law, q').label
...: label('abc') / label('c')
Out[3]: ab
In [4]: exp = c.expression
In [5]: exp('ab').ldivide(exp('ab*c'))
Out[5]: ab{\}ab*c
In [6]: e = exp('ab').ldivide(exp('ab*c'))
...: e
Out[6]: ab{\}ab*c
In [7]: e.automaton().expression()
Out[7]: b*c
Operators {\} (left quotient) and {/} (right quotient) are available in
the rational expressions:
In [8]: e = exp('ab {\} abc*')
...: e
Out[8]: ab{\}abc*
In [9]: e.expansion()
Out[9]: \e.[b{\}bc*]
In [10]: e.derived_term().expression()
Out[10]: c*
In [11]: e.inductive().expression()
Out[11]: \e+cc*
- an overhaul of the "Vcsn Tools" (previously known as TAF-Kit). Because
the tools are now automatically generated, they are much more extensive
than previously: (almost) all of the dyn algorithms are now available from
the shell. It now also supports the 'daut' format for automata.
$ vcsn thompson -Ee '[ab]*c' | vcsn proper | vcsn determinize | vcsn minimize | vcsn to-expression
(a+b)*c
$ vcsn random-expression -C 'lal(abc), z' '+, ., w., length=20, w="min=-2, max=10"'
(a+<2>(ac)+<5>(acca))a
- an new method to construct an automaton from an extended expression:
`expression.inductive`. This provides an alternative to
`expression.derived_term`. Currently provides a single flavor: generation
of standard automata.
In [2]: vcsn.B.expression('! [ab]*a[ab]*').inductive().expression()
Out[2]: \e+bb*
In [3]: vcsn.B.expression('! [ab]*a[ab]*').automaton().expression()
Out[3]: b*
- `automaton.evaluate` works properly on non-free automata, including
multitape automata:
In [2]: c = vcsn.context('lan(a-z), nmin')
a = (c|c).levenshtein()
a('foo|bar')
Out[2]: 3
- input/output support for FAdo's format for transducers, and improved
compatibility with OpenFST.
For more information, please visit http://vcsn.lrde.epita.fr, in
particular https://vcsn.lrde.epita.fr/Vcsn2.4. Packages of Vcsn 2.4 should
appear soon on various distributions (MacPorts, Debian, ArchLinux, Docker Hub).
Vcsn 2.4 is also available online, at http://vcsn-sandbox.lrde.epita.fr.
People who worked on this release:
- Akim Demaille
- Clément Gillard
- Lucien Boillod
- Sarasvati Moutoucomarapoulé
- Sébastien Piat
- Younes Khoudli
People who have influenced this release:
- Alexandre Duret-Lutz
- Jacques Sakarovitch
- Luca Saiu
- Sylvain Lombardy
We are happy to announce the release of Spot 2.2.
You can find the new release here:
http://www.lrde.epita.fr/dload/spot/spot-2.2.tar.gz
See https://spot.lrde.epita.fr/ for documentation and installation
instructions.
Spot 2.2 fixes some serious bugs and adds an assortments of small
improvements. These changes have been contributed by Alexandre
Gbaguidi Aisse, Étienne Renault, and myself. A detailed list of what
is new is given below.
As always, please direct any feedback to <spot(a)lrde.epita.fr>.
New in spot 2.2 (2016-11-14)
Command-line tools:
* ltlfilt has a new option --from-ltlf to help reducing LTLf (i.e.,
LTL over finite words) model checking to LTL model checking. This
is based on a transformation by De Giacomo & Vardi (IJCAI'13).
* "ltldo --stats=%R", which used to display the serial number of the
formula processed, was renamed to "ltldo --stats=%#" to free %R
for the following feature.
* autfilt, dstar2tgba, ltl2tgba, ltlcross, ltldo learned to measure
cpu-time (as opposed to wall-time) using --stats=%R. User or
system time, for children or parent, can be measured separately by
adding additional %[LETTER]R options. The difference between %r
(wall-clock time) and %R (CPU time) can also be used to detect
unreliable measurements. See
https://spot.lrde.epita.fr/oaut.html#timing
Library:
* from_ltlf() is a new function implementing the --from-ltlf
transformation described above.
* is_unambiguous() was rewritten in a more efficient way.
* scc_info learned to determine the acceptance of simple SCCs made
of a single self-loop without resorting to remove_fin() for complex
acceptance conditions.
* remove_fin() has been improved to better deal with automata with
"unclean" acceptance, i.e., acceptance sets that are declared but
not used. In particular, this helps scc_info to be more efficient
at deciding the acceptance of SCCs in presence of Fin acceptance.
* Simulation-based reductions now implement just bisimulation-based
reductions on deterministic automata, to save time. As an example,
this halves the run time of
genltl --rv-counter=10 | ltl2tgba
* scc_filter() learned to preserve state names and highlighted states.
* The BuDDy library has been slightly optimized: the initial setup
of the unicity table can now be vectorized by GCC, and all calls
to setjmp are now avoided when variable reordering is disabled
(the default).
* The twa class has three new methods:
aut->intersects(other)
aut->intersecting_run(other)
aut->intersecting_word(other)
currently these are just convenient wrappers around
!otf_product(aut, other)->is_empty()
otf_product(aut, other)->accepting_run()->project(aut)
otf_product(aut, other)->accepting_word()
with any Fin-acceptance removal performed before the product.
However the plan is to implement these more efficiently in the
future.
Bugs:
* ltl2tgba was always using the highest settings for the LTL
simplifier, ignoring the --low and --medium options. Now
genltl --go-theta=12 | ltl2tgba --low --any
is instantaneous as it should be.
* The int-vector compression code could encode 6 and 22 in the
same way, causing inevitable issues in our LTSmin interface.
(This affects tests/ltsmin/modelcheck with option -z, not -Z.)
* str_sere() and str_utf8_sere() were not returning the same
string that print_sere() and print_utf8_sere() would print.
* Running the LTL parser in debug mode would crash.
* tgba_determinize() could produce incorrect deterministic automata
when run with use_simulation=true (the default) on non-simplified
automata.
* When the automaton_stream_parser reads an automaton from an
already opened file descriptor, it will not close the file
anymore. Before that the spot.automata() python function used to
close a file descriptor twice when reading from a pipe, and this
led to crashes of the 0MQ library used by Jupyter, killing the
Python kernel.
* remove_fin() could produce incorrect result on incomplete
automata tagged as weak and deterministic.
* calling set_acceptance() several times on an automaton could
result in unexpected behaviors, because set_acceptance(0,...)
used to set the state-based acceptance flag automatically.
* Some buffering issue caused syntax errors to be displayed out
of place by the on-line translator.
--
Alexandre Duret-Lutz