Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 9 mai 2012 (14h00-17h30).
Au programme:
* 14h00: Un modèle générique de traitement et de représentation des images
-- Antoine Manzanera
http://www.ensta-paristech.fr/~manzaner
Concilier généricité et performance des systèmes de vision a toujours
été au cœur des préoccupations scientifiques du laboratoire
d'Électronique et Informatique d'ENSTA-ParisTech. Nous y avons abordé ce
problème sous différents points de vue: électronique, algorithmique, et
logiciel. Depuis nos travaux sur les rétines programmables et leur
algorithmique exotique, nous avons progressivement intégré la
multiplicité des modèles et structures de données, ainsi que l'emprise
des architectures sur étagères, pour appréhender l'hétérogénéité des
systèmes multi-plateformes.
Dans cette présentation à deux voix, on abordera le problème sous deux
angles complémentaires, l'un touchant au modèle et aux algorithmes,
l'autre au logiciel et aux plateformes de calcul.
Ce premier exposé présente un modèle générique de traitement et de
représentation des images fondé sur les espaces de caractéristiques
"local jets" (LJ, ou dérivées partielles multi-échelles), comme exemple
de cadre algorithmique unifié. Grâce à un espace où la métrique
naturelle est directement liée à la similarité visuelle, ce cadre permet
d'aborder un grand nombre d'opérateurs de traitement d'images de bas
niveau, qui correspondent généralement à la rétro-projection dans
l'espace image de points de l'espace des caractéristiques transformé. Il
permet aussi d'aborder des représentations visuelles de plus haut niveau
(modèles d'objet par exemple) à partir de statistiques globales
extraites de l'espace des caractéristiques. On justifiera cette
représentation et on l'illustrera par diverses applications : Moyennes
non locales (NL-Means) par Convolution dans l'espace LJ pour le
débruitage de vidéos, Calcul du flux optique par recherche du plus
proche voisin dans l'espace LJ, Modélisation de fond statique par
échantillonnage de l'espace LJ, Détection d'objets par transformée de
Hough dense...
-- Antoine Manzanera est diplômé de l'Université Claude Bernard à Lyon
(Licence de Maths 1991 et Master d'Informatique Fondamentale 1993), et
Docteur de Télécom-ParisTech en Signal et Images ("Vision artificielle
rétinienne", 2000). Depuis 2001 il est Enseignant-Chercheur à
l'ENSTA-ParisTech. Dans ses recherches, il s'intéresse au Traitement
d'Images et à la Vision de bas niveau, du modèle mathématique à
l'implantation parallèle sur un système embarqué. Il enseigne
principalement en 2ème et 3ème année du cycle Ingénieur ENSTA, et dans
le Master d'Informatique de l'UMPC (Paris 6), dans les spécialités
Imagerie et IAD.
* 15h30: Analyse des mouvements apparents dans un flux vidéo
-- Matthieu Garrigues
http://www.ensta-paristech.fr/~garrigues
Dans ce second exposé, Matthieu Garrigues parlera de ses travaux sur
l'analyse des mouvements apparents dans un flux vidéo. La primitive de
base, présentée dans un séminaire précédent, permet le suivi temps réel
(supérieur à 30 images par seconde) de plusieurs milliers de particules.
Ces travaux nous ont permis de développer un cadre générique facilitant
l'analyse de scènes dynamiques prises de caméras fixes ou mobiles. Nous
montrerons comment cette brique logicielle a été utilisée dans deux
exemples d'applications : L'extraction des plans principaux et
l'estimation de la profondeur dans un système mono-caméra. Le suivi de
particules a été implémenté sur processeurs graphiques avec le framework
CUDA, et sur CPU-multicœurs avec OpenMP. Nous expliquerons comment C++ a
été utilisé pour factoriser un maximum de code entre ces deux
implémentations.
-- Matthieu Garrigues est diplômé de la promotion CSI 2009 de l'EPITA.
Depuis, il s'intéresse au développement et à l'implantation
d'applications de vision sur des architectures parallèles. Il est
actuellement ingénieur de recherche à l'unité d'électronique et
d'informatique de l'ENSTA, où il travaille sur l'analyse temps réel de
scènes acquises par des systèmes mobiles mono-caméra.
Pour plus de renseignements, consultez http://seminaire.lrde.epita.fr/.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible.
--
Akim Demaille
Akim.Demaille(a)lrde.epita.fr
Chers collègues,
attention : changement d'horaire !
Le séminaire commencera à 14h30 et non à 14h.
Au programme:
* 14h: Le point de vue d'un théoricien sur l'intérêt de la généricité pour le traitement d'images
-- Laurent Najman
Pour plus de renseignements, consultez http://seminaire.lrde.epita.fr/.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible.
--
Akim Demaille
Akim.Demaille(a)lrde.epita.fr
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 21 mars 2012 (14h-16h).
Au programme:
* 14h: Le point de vue d'un théoricien sur l'intérêt de la généricité pour le traitement d'images
-- Laurent Najman
Une question fondamentale pour mes recherches est de savoir ce qu'est
une image. Cela peut sembler à première vue une question trop simple :
une image, c'est un ensemble de points. Mais ces points sont reliés
entre eux, c'est ce qu'on appelle une structure, et ils ont des données
de types multiples qui leur sont attachées. La bibliothèque Milena,
développée au LRDE, est une bibliothèque générique dédiée au traitement
d'images. Dans Milena, trois axes indépendants sont développés : l'axe
des structures, l'axe des données, et celui des algorithmes,
c'est-à-dire de ce qu'on peut faire avec une image.
Dans cet exposé, je vais développer plusieurs exemples dans lesquels je
choisirai un algorithme et un type de données, en faisant varier la
structure. Changer la structure, c'est penser les images d'une manière
différente, et c'est quelque chose d'extrêmement porteur en recherche.
- Un premier exemple est celui d'un algorithme classique de
segmentation : la ligne de partage des eaux. Originellement pensé sur
les pixels, sa traduction dans le cadre des arêtes donne le problème
classique d'arbre couvrant de poids minimum. Si la ligne de partage
des eaux est très connue en traitement d'images, les arbres de
poids minimum sont très utilisés en classification. Un pont naturel
est alors établi entre deux communautés différentes, et les idées
provenant de ces deux communautés peuvent être combinées.
- Un deuxième exemple est celui de la représentation arborescente des
images. Pour illustrer, tant les lignes de niveaux que les
composantes connexes des ensembles de niveaux (les coupes) des
images sont naturellement structurées en arbre : deux lignes ou deux
composantes sont soit disjointes soit emboîtées. On peut filtrer
une image en éliminant de l'arbre tous les nœuds qui ne vérifient
pas un critère. Mais on peut aussi considérer l'arbre lui-même comme
une image, et appliquer sur cet arbre un algorithme de traitement
d'images. C'est une idée récursive très riche.
D'autres exemples pourront être développés en fonction du temps : liens
entre ligne de partage des eaux topologique et segmentation
hiérarchique, topologie discrète dans divers cadres...
La bibliothèque Milena permet d’appliquer la plupart des algorithmes
existants à une nouvelle structure, ce qui est un gain de temps
incontestable. Cela permet de se concentrer sur ce qui fait le cœur de
mon métier: chercher un algorithme plus efficace, adapté à un type de
structure, ou encore chercher quelles sont les propriétés mathématiques
d’un algorithme sur une structure donnée.
-- Laurent Najman a reçu l’habilitation à diriger les recherches de
l'université de la Marne-La-Vallée en 2006, un doctorat en mathématiques
appliquées de l’université de Paris-Dauphine en 1994, et un diplôme
d’ingénieur de l'École des Mines de Paris en 1991.
-- Il a travaillé chez Thomson-CSF sur la segmentation d'images
infrarouges en utilisant la morphologie mathématique, chez Animation
Science sur des systèmes de particules pour l'infographie et de la
visualisation scientifique, puis chez OCÉ sur des problèmes d’analyse et
de traitement d'images pour l'impression.
-- Depuis 2002, il est enseignant-chercheur à l’ESIEE, actuellement
professeur, membre du Laboratoire d’Informatique Gaspard-Monge
(Université Paris-Est). Ses recherches portent sur la morphologie
mathématique discrète et l’optimisation discrète.
Pour plus de renseignements, consultez http://seminaire.lrde.epita.fr/.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible.
--
Akim Demaille
Akim.Demaille(a)lrde.epita.fr
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 14 mars 2012 (14h-16h).
Au programme:
* 14h: Reusable Generic Look Ahead Multithreaded Cache - a case study for a high resolution player
-- Guillaume Chatelet
L'industrie des effets spéciaux produit une grande quantité d'images
qu'il faut traiter et afficher. Dans le cadre de ses développements
internes, Mikros Image a développé et mis en Open Source un player
d'images temps réel : duke. Dans cet exposé je décrirai quels sont les
enjeux techniques d'un tel logiciel (allocation mémoire, accès disque,
multiplicité des formats, affichage, traitement...) puis j'expliquerai
plus en détails les étapes de la conception d'un composant essentiel
permettant de lire et décoder le plus rapidement possible les images à
afficher. Ce composant ayant pour but d'être intégré dans d'autres
outils, il doit être réutilisable.
-- Guillaume Chatelet est diplômé de l'ENSICaen et titulaire d'un DEA en
intelligence artificielle et algorithmique. Il travaille en qualité
d'ingénieur recherche et développement à Mikros Image depuis sept ans.
En 2007, il contribue à la bibliothèque Loki, initiée par Andrei
Alexandrescu, puis à la plateforme Eclipse.
Pour plus de renseignements, consultez http://seminaire.lrde.epita.fr/.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible.
--
Akim Demaille
Akim.Demaille(a)lrde.epita.fr
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 15 février 2012 (14h-17h). Nous sommes heureux de vous
annoncer qu'un second exposé est programmé !
Au programme:
* 14h: Des performances dans les nuages avec la virtualisation des langages
-- Yann Régis-Gianas
http://www.pps.jussieu.fr/~yrg/
«The effective exploitation of his powers of abstraction must be
regarded as one of the most vital activities of a competent programmer.»
disait Dijsktra.
En effet, pour aborder la complexité d'un problème, l'explicitation des
concepts utiles à sa formalisation et à sa résolution est bien souvent
une étape clé. Lorsque que l'on étend ce processus à une classe de
problèmes qui partagent les mêmes concepts, il est naturel de se doter
d'un langage le plus approprié possible pour manipuler ces abstractions
spécifiques à un domaine (en anglais, «Domain Specific Language»).
Comment implémenter ces DSLs? Une première approche classique reflète
les constructions du DSL sous la forme d'un jeu de fonctions de
bibliothèque. L'avantage de cette approche est d'utiliser directement
son langage généraliste préféré, et sa chaîne de compilation optimisée,
de façon à générer du code machine à moindre frais. Par contre, dans ce
cadre, l'écriture de passe d'optimisations spécifiques au DSL --- à
moins d'utiliser des techniques pointues de méta-programmation --- est a
priori impossible.
Une seconde approche, opposée, consiste à écrire un compilateur pour le
DSL à partir de zéro. Toute liberté est alors donnée à l'implémenteur
d'intégrer à son compilateur des passes d'optimisation spécifiques… mais
au prix d'une réimplémentation de passes de compilation déjà présentes,
et certainement plus abouties, dans le compilateur de son langage
généraliste favori.
Dans cet exposé, je présenterai les travaux de Martin Odersky et son
équipe sur la virtualisation de DSLs à l'intérieur du langage de
programmation Scala. La virtualisation de langage utilise intensivement
le polymorphisme et la composition mixin de Scala ainsi que des
techniques de génération de code à l'exécution pour embarquer des
langages spécifiques dans Scala dont la compilation peut réutiliser des
modules du compilateur mais aussi étendre ces derniers par des
optimisations spécifiques au domaine.
-- Yann Régis-Gianas est un ancien élève de l'EPITA, promo CSI 2003. À sa
sortie de l'école, il a poursuivi un troisième cycle en passant un DEA à
l'Université Paris Diderot et une thèse à l'INRIA Rocquencourt. Il est
aujourd'hui maître de conférence à Paris Diderot et travaille sur le
design des langages de programmation et de preuve.
* 15h30: Certification d'annotations de coût dans les compilateurs
-- Nicolas Ayache
Nous traitons du problème de la conception d'un compilateur où des
informations sur le coût à l'exécution du code objet sont retournées en
tant qu'annotations de coût sur le code source, et ce de façon certifiée
correcte. Pour cela, nous avons besoin d'une idée souple et précise :
(i) du sens donné aux annotations de coût, (ii) de la méthode pour les
prouver correctes et précises, et (iii) de la manière d'en composer les
preuves. Nous proposons ce que nous appelons une approche par étiquetage
pour répondre à ces trois questions. Dans un premier temps, nous
montrons son application sur un compilateur jouet. L'étude formelle qui
en découle suggère que l'approche par étiquetage a de bonnes propriétés
de compositionnalité et de passage à l'échelle. Afin de s'en convaincre
davantage, nous rapportons notre retour d'expérience sur
l'implémentation d'un compilateur prototype écrit en ocaml pour un large
sous-ensemble du langage C.
-- Nicolas Ayache, ancien doctorant Université Paris-Sud / CEA-LIST, est
actuellement Post-doc au laboratoire PPS (Preuves, Programmes et
Systèmes) à l'université Paris Diderot.
Pour plus de renseignements, consultez http://seminaire.lrde.epita.fr/.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible.
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 16 novembre 2011 (14h-16h).
Au programme:
* 14h: Interactive 2D and 3D Segmentation with ilastik
-- Ullrich Köthe
http://www.ilastik.org
The ilastik system developed by our group uses machine learning and
simple interaction techniques to empower users without special image
processing expertise to segment and analyze their 2- and 3-dimensional
image data on their own. It offers a number of easy-to-use workflows for
various common analysis tasks. The talk will present two of these
workflows (“interactive classification” and “region carving”), going
from an online demonstration of the high-level user experience down to
the algorithmic and software design details. Special emphasis will be
put on aspects of genericity and parallelization which facilitate
convenient adaptation of basic building blocks to different contexts
without loss of performance. Examples from challenging biological
applications will illustrate our system's capabilities.
-- Ullrich Köthe is a senior researcher in the Multidimensional Image
Processing Group at the Interdisciplinary Centre for Scientific
Computing of the University of Heidelberg, Germany, where he heads
advanced research on image and data analysis for industry and the life
sciences. Formerly, he was with the Cognitive Systems Group at the
University of Hamburg (1999-2007) and with the Fraunhofer-Institute for
Computer Graphics in Rostock (1992-1999).
-- Ullrich Köthe's main field of research is the development of
user-friendly image analysis methods. He is interested in all techniques
that facilitate genericity and re-usability, from machine learning and
probabilistic modeling to generic programming and empirical performance
evaluation. Dr. Köthe is the originator and maintainer of the
open-source image analysis library VIGRA and co-developer of the
interactive ilastik toolkit, which have been designed to put these ideas
into practice.
Pour plus de renseignements, consultez http://seminaire.lrde.epita.fr/.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible.
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 26 octobre 2011 (14h-15h30).
Au programme:
* 14h: Pourquoi Javascript est-il aussi rapide/lent ?
-- Nicolas Pierron
http://www.mozilla-europe.org/fr/
Cette présentation montre comment Javascript, un langage dynamique,
interprété et non-typé, fait pour être aussi rapide et quels sont les
avancées qu'il reste encore à faire pour obtenir des performances
identiques au langage C. Pour illustrer cette présentation, on
s’intéressera à l’évolution du navigateur Mozilla Firefox et aux
différentes approches pour résoudre ce problème.
-- Diplômé de la promotion CSI 2008 de l'EPITA, Nicolas Pierron travaille
actuellement à Mozilla Paris sur le nouveau moteur Javascript IonMonkey.
Pour plus de renseignements, consultez http://seminaire.lrde.epita.fr/.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible.
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 6 juillet 2011 (14h-15h).
Au programme:
* 14h: Un algorithme rapide pour le Compressive Sensing sur
architectures parallèles
-- Alexandre Borghi
http://www.lri.fr
Dans ce séminaire je présenterai un algorithme de résolution approchée
pour le problème du Compressive Sensing basé sur la programmation
convexe. Cet algorithme a la particularité d'avoir été pensé dès sa
conception pour tirer partie des architectures matérielles modernes, ce
qui permet une implémentation efficace et rapide sur ces celles-ci. Bien
qu'une résolution approchée soit en pratique suffisante pour obtenir
rapidement une solution de très bonne qualité, une variante exacte très
rapide sera aussi présentée. Cette dernière n'est toutefois utilisable
que sous certaines conditions. Trois types d'architectures parallèles
sont ici envisagées : des processeurs multi-coeurs avec unités de calcul
vectoriel, des processeurs graphiques (GPU) et le processeur Cell.
-- Alexandre Borghi est diplômé de la promotion CSI 2007 de l'EPITA et
effectue actuellement sa thèse au LRI de l'Université Paris-SUD XI. Il
s'intéresse principalement à l'adaptation de l'algorithmique aux
architectures parallèles.
Pour plus de renseignements, consultez http://seminaire.lrde.epita.fr/.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible.
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 15 juin 2011 (14h-17h).
Au programme:
* 14h: Modèle basé-contexte pour l'annotation automatique du multimédia
-- Nicolas Ballas
http://www.kalisteo.fr/en/index.htmhttp://caor.mines-paristech.fr/
Ces dernières années ont vu exploser le nombre de vidéos disponibles sur
internet. Pour permettre leur exploitation, il est nécessaire de mettre
en place des systèmes analysant automatiquement ces données multimédia.
De tels systèmes permettent notamment d'indexer automatiquement des
vidéos en fonction de leurs contenus. Durant cette présentation, je
m'intéresserai aux récentes avancées effectuées dans ce domaine. Je
présenterai des descripteurs vidéos, développés dans le cadre de ma
thèse, qui capturent le mouvement et l'apparence d'une vidéo pour les
résumer dans une courte signature. Ces signatures peuvent être utilisées
a posteriori pour détecter différents évènements ou concepts dans les
vidéos.
-- Nicolas Ballas effectue sa thèse entre le laboratoire LVIC du CEA/List
et le laboratoire CAOR de l'école des Mines de Paris. Il s'intéresse
principalement au problème de perception automatique à travers l'étude
d'algorithmes combinant vision par ordinateur et apprentissage
automatique.
* 15h30: Traitement d'images sur processeur graphique avec CUDA et C++
-- Matthieu Garrigues
http://uei.ensta-paristech.fr
Conçus à l'origine pour le rendu 2D et 3D, les processeurs graphiques
(GPU) peuvent aujourd'hui être considérés comme des processeurs
génériques massivement parallèles. Mais ce parallélisme impose des
contraintes sur les algorithmes implantés et les types de données
utilisés. D'autre part, le bus de communication entre le processeur
central (CPU) et le GPU peut être un goulot d'étranglement.
Ce séminaire débutera par un aperçu des avantages et inconvénients de la
programmation GPU, puis je présenterai l'implantation d'un algorithme
temps réel de suivi de points dans une vidéo. Je terminerai par
l’introduction de deux petites boîtes à outils : Cuimg et Dige. Cuimg
utilise C++ pour simplifier l'écriture d'algorithmes de traitement
d'images avec CUDA, tandis que Dige, basée sur le framework Qt, permet
le prototypage rapide d'interfaces graphiques.
-- Matthieu Garrigues est diplômé de la promotion CSI 2009 de l'EPITA.
Depuis, il s'intéresse au développement et l'implantation d'applications
de vision par ordinateur sur des architectures parallèles. Il est
actuellement ingénieur de recherche à l'unité d'électronique et
d'informatique de l'ENSTA.
Pour plus de renseignements, consultez http://seminaire.lrde.epita.fr/.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible.
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 18 mai 2011 (14h-16h).
Au programme:
* 14h: Utilisation des distances tangentes pour la compensation de
mouvement : Application au codec Theora
-- Jonathan Fabrizio
Pour encoder de manière efficace une séquence vidéo, la redondance
temporelle est souvent utilisée. Pour cela, le mouvement entre l'image
considérée et une image de référence est estimé. Cela permet de générer
une prédiction à partir de l'image de référence et seule la différence
entre la prédiction et l'image réelle est enregistrée. Pour estimer ce
mouvement, les codecs se contentent souvent de suivre l'évolution
spatiale de blocs dans l'image. Ils associent, pour chaque bloc de
l'image considérée, un bloc similaire dans un voisinage proche dans
l'image de référence. Nous présentons ici une méthode originale pour
réaliser cette prédiction par compensation de mouvement. Notre méthode
utilise les distances tangentes. Cela permet non seulement d'estimer
l'évolution de la position des blocs de l'image mais en partie aussi
l'évolution du bloc lui-même. Nos prédictions sont donc de meilleure
qualité. Utilisée dans l'encodage de séquences, on peut espérer un gain
de compression non négligeable. Pour valider l'efficacité de la
méthode,
nous intégrons cette méthode dans le codec Theora et mesurons son
efficacité en comparant les résultats obtenus avec notre méthode et
ceux
obtenus par une stratégie classique (le block-matching).
-- Jonathan Fabrizio est enseignant-chercheur au LRDE depuis l'été
2009.
Il travaille actuellement sur la localisation et l'extraction
automatique de texte dans les images.
Pour plus de renseignements, consultez http://seminaire.lrde.epita.fr/.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible.