Programming for Separation of Concerns (PSC) at
ACM Symposium on Applied Computing (SAC)
March 25-29, 2012
Riva del Garda (Trento) Italy
Description and Objectives
--------------------------
Complex systems are intrinsically expensive to develop because several
concerns must be addressed simultaneously. Once the development phase is over,
these systems are often hard to reuse and evolve because their concerns are
intertwined and making apparently small changes force programmers to modify
many parts. Moreover, legacy systems are difficult to evolve due to additional
problems, including: lack of a well defined architecture, use of several
programming languages and paradigms, etc.
Separation of concerns (SoC) techniques such as computational reflection,
aspect-oriented programming and subject-oriented programming have been
successfully employed to produce systems whose concerns are well separated,
thereby facilitating reuse and evolution of system components or systems as a
whole. However, a criticism of techniques such as computational reflection is
that they may bring about degraded performance compared with conventional
software engineering techniques. Besides, it is difficult to precisely
evaluate the degree of flexibility for reuse and evolution of systems provided
by the adoption of these SoC techniques. Other serious issues come to mind,
such as: is the use of these techniques double-edged? Can these systems suffer
a ripple effect, whereby a small change in some part has unexpected and
potentially dangerous effects on the whole?
The Programming for Separation of Concerns (PSC) track at the 2012 Symposium
on Applied Computing (SAC) aims to bring together researchers to share
experiences in using SoC techniques, and explore the practical problems of
existing tools, environments, etc. The track will address questions like: Can
performance degradation be limited? Are unexpected changes dealt with by
reflective or aspect-oriented systems? Is there any experience of long term
evolution that shows a higher degree of flexibility of systems developed with
such techniques? How such techniques cope with architectural erosion? Are
these techniques helpful to deal with evolution of legacy systems?
Topics
------
Authors are invited to submit original papers. Submissions are encouraged, but
not limited, to the following topics:
- Software architectures
- Configuration management systems
- Software reuse and evolution
- Performance issues for metalevel and aspect oriented systems
- Software engineering tools
- Consistency, integrity and security
- Generative approaches
- Experiences in using reflection, composition filters, aspect- and subject-
orientation
- Evolution of legacy systems
- Reflective and aspect oriented middleware for distributed systems
- Modelling of SoC techniques to allow predictable outcomes from their use
- Formal methods for metalevel systems
Paper Submission
----------------
Original papers from the above mentioned or other related areas will be
considered. Only full papers about original and unpublished research are
sought. Parallel submission to other conferences or tracks is not acceptable.
Papers can be submitted in electronic format via the SAC website
(www.softconf.com/c/sac2012/) within 31 August 2011. Please make sure that the
authors name and affiliation do not appear on the submitted paper.
Peer groups with expertise in the track focus area will blindly review
submissions to the track. At least one author of the accepted paper should
register and participate in the PSC track. Accepted papers will be published
in the annual conference ACM proceedings.
The camera-ready version of the accepted paper should be prepared using the
ACM format (guidelines will be given on the SAC website). The maximum number
of pages allowed for the final papers is six (6), with the option, at
additional cost, to add two (2) more pages.
A set of papers submitted to the PSC track and not accepted as full papers
will be selected as poster papers and published in the ACM proceedings as
2-page papers, with the option, at additional cost, to add one (1) more page.
Important Dates
---------------
Paper Due August 31, 2011
Author Notification Oct. 12, 2011
Camera Ready Nov. 2, 2011
Please check the web site for updates:
www.dmi.unict.it/~tramonta/sac/
--
Resistance is futile. You will be jazzimilated.
Scientific site: http://www.lrde.epita.fr/~didier
Music (Jazz) site: http://www.didierverna.com
EPITA/LRDE, 14-16 rue Voltaire, 94276 Le Kremlin-Bicêtre, France
Tel. +33 (0)1 44 08 01 85 Fax. +33 (0)1 53 14 59 22
We are happy to announce that the following paper has been
accepted for publication at the 23rd Symposium on Signal and
Image Processing (GRETSI) that will take place in Bordeaux,
France on September 5 - 8, 2011.
Nous avons le plaisir de vous annoncer que l'article suivant a
été accepté pour publication au 23e colloque GRETSI (Traitement
du Signal et des Images), qui aura lieu à Bordeaux en France, du
5 au 8 septembre 2011.
Roland Levillain (1,2), Thierry Géraud (1,2) and Laurent Najman (2)
Une approche générique du logiciel pour le traitement d'images
préservant les performances
http://publis.lrde.epita.fr/201109-GRETSI
(1) EPITA Research and Development Laboratory (LRDE)
(2) Université Paris-Est, Laboratoire d'Informatique Gaspard-Monge,
Equipe A3SI, ESIEE Paris
De plus en plus d'outils logiciels modernes pour le traitement
d'images sont conçus en prenant en compte le problème de la
généricité du code, c'est-à-dire la possibilité d'écrire des
algorithmes réutilisables, compatibles avec de nombreux types
d'entrées. Cependant, ce choix de conception se fait souvent au
détriment des performances du code exécuté. Du fait de la grande
variété des types d'images existants et de la nécessité d'avoir
des implémentations rapides, généricité et performance
apparaissent comme des qualités essentielles du logiciel en
traitement d'images. Cet article présente une approche
préservant les performances dans un framework logiciel générique
tirant parti des caractéristiques des types de données utilisés.
Grâce à celles-ci, il est possible d'écrire des variantes
d'algorithmes génériques offrant un compromis entre généricité et
performance. Ces alternatives sont capables de préserver une
partie des aspects génériques d'origine tout en apportant des
gains substantiels à l'exécution. D'après nos essais, ces
optimisations génériques fournissent des performances supportant
la comparaison avec du code dédié, allant parfois même jusqu'à
surpasser des routines optimisées manuellement.
--
Roland Levillain - LRDE/EPITA - A3SI/ESIEE/LIGM/UMLV-Paris Est
Laboratoire de Recherche et de Développement de l'EPITA (LRDE)
14-16, rue Voltaire - 94276 Le Kremlin-Bicêtre Cedex
Tél. : 01 53 14 59 45 - Fax : 01 53 14 59 13 - www.lrde.epita.fr
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 18 mai 2011 (14h-16h).
Au programme:
* 14h: Utilisation des distances tangentes pour la compensation de
mouvement : Application au codec Theora
-- Jonathan Fabrizio
Pour encoder de manière efficace une séquence vidéo, la redondance
temporelle est souvent utilisée. Pour cela, le mouvement entre l'image
considérée et une image de référence est estimé. Cela permet de générer
une prédiction à partir de l'image de référence et seule la différence
entre la prédiction et l'image réelle est enregistrée. Pour estimer ce
mouvement, les codecs se contentent souvent de suivre l'évolution
spatiale de blocs dans l'image. Ils associent, pour chaque bloc de
l'image considérée, un bloc similaire dans un voisinage proche dans
l'image de référence. Nous présentons ici une méthode originale pour
réaliser cette prédiction par compensation de mouvement. Notre méthode
utilise les distances tangentes. Cela permet non seulement d'estimer
l'évolution de la position des blocs de l'image mais en partie aussi
l'évolution du bloc lui-même. Nos prédictions sont donc de meilleure
qualité. Utilisée dans l'encodage de séquences, on peut espérer un gain
de compression non négligeable. Pour valider l'efficacité de la
méthode,
nous intégrons cette méthode dans le codec Theora et mesurons son
efficacité en comparant les résultats obtenus avec notre méthode et
ceux
obtenus par une stratégie classique (le block-matching).
-- Jonathan Fabrizio est enseignant-chercheur au LRDE depuis l'été
2009.
Il travaille actuellement sur la localisation et l'extraction
automatique de texte dans les images.
Pour plus de renseignements, consultez http://seminaire.lrde.epita.fr/.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible.
_______________________________________________
Seminaire mailing list
Seminaire(a)lrde.epita.fr
https://www.lrde.epita.fr/mailman/listinfo/seminaire