Chers collègues,
Un séminaire spécial sur la thématique des automates aura lieu le
Mercredi 8 février 2017 (13h30--15h00), Salle L0 du LRDE (Laboratoire
de Recherche et Développement de l'EPITA).
Vous trouverez sur le site du séminaire [1] les prochaines séances,
les résumés, captations vidéos et planches des exposés précédents [2],
le détail de cette séance [3] ainsi que le plan d'accès [4].
[1] http://seminaire.lrde.epita.fr
[2] http://seminaire.lrde.epita.fr/Archives
[3] http://seminaire.lrde.epita.fr/2017-02-08
[4] http://www.lrde.epita.fr/Contact
Au programme du Mercredi 8 février 2017 :
* 13h30 -- 14h30: Vcsn : une visite guidée
-- Akim Demaille, LRDE
http://vcsn.lrde.epita.fr
Vcsn est une plateforme consacrée aux automates et aux expressions
rationnelles. Parce qu'elle traite une large variété de natures
d'automates, elle place en son coeur le concept de "contexte", qui
type
les automates, les expressions rationnelles, etc. La plateforme
repose
sur une bibliothèque C++14 "templatée" par des contextes, au dessus
de
laquelle la couche "dyn" qui, grâce à de l'effacement de type et de
la
compilation à la volée, offre à l'utilisateur le confort d'une
bibliothèque traditionnelle avec la généricité et les performances
d'une
bibliothèque templatée. Ces bibliothèques sont ensuite exposées au
travers d'outils en ligne de commande, mais aussi Python et surtout
IPython, qui permettent une exploration interactive simple
d'algorithmes. La bibliothèque Vcsn repose sur un ensemble d'objets
---
automates, étiquettes, poids, polynômes, expressions rationnelles et
développements rationnels --- sur lesquels sont fournis plus de trois
cents algorithmes. Dans certains cas, Vcsn offre des fonctionalités
inégalées, et certains de ces algorithmes ont des performances
supérieures à celles des projets comparables.
Nous ferons une présentation de l'architecture générale de Vcsn, sous
la
forme d'une démonstration guidée par les questions, ainsi qu'un
exposé
des objectifs de Vcsn 3.0.
-- Akim Demaille est enseignant-chercheur à l'EPITA depuis
pratiquement la
création du LRDE. Il y a enseigné la logique, la théorie des
langages,
la construction des compilateurs, la modélisation orientée-objet et
la
programmation en C++. Depuis 2013, il investit son temps de recherche
dans la plateforme Vcsn. Il a également contribué à divers logiciels
libres, tels GNU Autoconf, GNU Automake, GNU Bison et même GNU a2ps,
à
un temps où ASCII et PostScript n'étaient pas l'un et l'autre
obsolètes.
* 14h30 -- 15h: Un outil en ligne de manipulation d'automates et de
semi-groupes
-- Charles Paperman, Université Paris Diderot
paperman.cadilhac.name/pairs
Je présenterai un outil en ligne dont l'objectif est de manipuler
et
tester des propriétés algébriques pour des automates. Une courte
présentation de la théorie algébrique des automates sera donnée à la
volée. Les seuls concepts nécessaires à la compréhension de l'exposé
sont les expressions régulières, ainsi que la minimisation et la
déterminisation d'automates finis.
-- Charles Paperman a fini son doctorat en 2013 sous la direction de
Jean-Éric Pin et Olivier Carton, au LIAFA, et travaille désormais au
laboratoire de Logique Mathématique de l'Université Paris Diderot
avec
Arnaud Durand. Ses sujets d'étude s'articulent autour de la logique,
la
théorie des automates, et la complexité des circuits, avec une
approche
algébrique.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible. N'hésitez pas à nous faire
parvenir vos suggestions d'orateurs.
--
Guillaume TOCHON
Maître de conférences // Assistant Professor
LRDE, EPITA
18, rue Pasteur
94270 Le Kremlin-Bicêtre
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 18 janvier 2017 (11h--12h), Salle L0 du LRDE.
Vous trouverez sur le site du séminaire [1] les prochaines séances,
les résumés, captations vidéos et planches des exposés précédents [2],
le détail de cette séance [3] ainsi que le plan d'accès [4].
[1] http://seminaire.lrde.epita.fr
[2] http://seminaire.lrde.epita.fr/Archives
[3] http://seminaire.lrde.epita.fr/2017-01-18
[4] http://www.lrde.epita.fr/Contact
Au programme du Mercredi 18 janvier 2017 :
* 11h--12h: Analyse topologique de données pour la visualisation
scientifique: où en est-on et où va-t-on?
-- Julien Tierny - CNRS - LIP6 - UPMC
http://lip6.fr/Julien.Tierny
La visualisation scientifique est un domaine qui vise à aider les
utilisateurs à (i) représenter, (ii) explorer et (iii) analyser des
données géométriques acquises ou simulées, à des fins
d'interprétation,
de validation ou de communication. Parmi les techniques existantes,
les
algorithmes inspirés par la théorie de Morse ont démontré leur
utilité
dans ce contexte pour l'extraction efficace et robuste de structures
d'intérêts, et ce, à plusieurs échelles d'importance.
Dans cette présentation, je donnerai un bref tutoriel sur l'analyse
topologique de champs scalaires, en introduisant quelques concepts
clés
comme celui de graphe de Reeb, de complexe de Morse-Smale ou de
diagramme de persistance. Par ailleurs, j'illustrerai ces notions par
des cas d'applications concrets en astrophysique, chimie moléculaire
ou
encore en combustion. Ensuite, je discuterai certaines problématiques
pratiques ayant récemment émergé avec le développement des ressources
de
calcul haute-performance. Ces problématiques induisent non seulement
des
jeux de données d'une taille inédite, mais également des types
nouveaux
de données, comme les champs scalaires multivariés ou incertains. Ces
difficultés ne sont pas uniquement intéressantes pour la communauté
de
recherche à cause de leur forte importance pratique, mais aussi parce
qu'elles nécessitent un redémarrage complet de l'effort de recherche
entrepris dans ce domaine ces vingt dernières années. En particulier,
je
présenterai de nouvelles directions de recherche, étayées par des
résultats préliminaires récents concernant l'analyse topologique dans
un
contexte de calcul haute-performance, ainsi que l'analyse topologique
de
champs scalaires incertains ou bivariés.
-- Julien Tierny a obtenu un Doctorat en informatique de l'Université
Lille 1 en 2008, et l'Habilitation à Diriger des Recherches de
l'Université Pierre-et-Marie-Curie en 2016. Depuis septembre 2014, il
est chercheur permanent au CNRS, affilié avec le laboratoire LIP6
(UPMC), après avoir été chercheur à Télécom ParisTech entre 2010 et
2014. Avant cela, lauréat d'une bourse Fulbright, il a été chercheur
associé en post-doctorat au Scientific Computing and Imaging
Institute
de l'Université d'Utah. Ses intérêts de recherche comprennent
l'analyse
topologique et géométrique de données pour la visualisation
scientifique. Il a reçu en 2016 la "Mention Honorable" du concours
IEEE
Scientific Visualization Contest ainsi que le prix du meilleur
article
de la conférence IEEE VIS.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible. N'hésitez pas à nous faire
parvenir vos suggestions d'orateurs.
--
Guillaume TOCHON
Maître de conférences // Assistant Professor
LRDE, EPITA
18, rue Pasteur
94270 Le Kremlin-Bicêtre
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 7 décembre 2016 (11h--12h), Salle L0 du LRDE.
Vous trouverez sur le site du séminaire [1] les prochaines séances,
les résumés, captations vidéos et planches des exposés précédents [2],
le détail de cette séance [3] ainsi que le plan d'accès [4].
[1] http://seminaire.lrde.epita.fr
[2] http://seminaire.lrde.epita.fr/Archives
[3] http://seminaire.lrde.epita.fr/2016-12-07
[4] http://www.lrde.epita.fr/Contact
Au programme du Mercredi 7 décembre 2016 :
* 11h--12h: Des données spatio-temporelles aux dynamiques urbaines
-- Julien Perret, équipe COGIT, LaSTIG, IGN
http://recherche.ign.fr/labos/cogit/cv.php?prenom=Julien&nom=Perret
La ville est un système complexe façonné par des dynamiques opérant
à
des échelles différentes. En tant que chercheur en sciences de
l'information géographique travaillant dans l'interdisciplinarité, je
travaille en collaboration avec des spécialistes du transport, des
géographes, des urbanistes, des historiens, des démographes, et des
physiciens, afin de proposer de meilleurs outils, modèles et données
pour l'étude multi-échelle des dynamiques urbaines.
Je présente mes contributions dans un ordre correspondant à l'échelle
spatiale, de la plus large à la plus fine : la très grande échelle
pour
les questions liées à la mobilité, la grande échelle pour celles
liées à
l'urbanisme et la petite échelle pour les questions liées à
l'évolution
du territoire sur le long terme.
Pour chaque partie, je vais m'attacher à proposer un cheminement
commun
: tout d'abord la question des sources d'information, des
connaissances
manipulées, leur représentation, leur stockage ; ensuite, la question
de
l'analyse de ces données, de leur enrichissement, de leur croisement
;
enfin, l'interaction avec ces données, leur visualisation, leur
interprétation, leur validation, leur correction par des
utilisateurs.
-- Julien Perret (Dr. Université de Rennes 1 2006) est chercheur en
Informatique et en Sciences de l'Information Géographique au sein de
l'équipe de Cartographie et Géomatique (COGIT) du Laboratoire des
Sciences et Technologies de l'Information Géographique (LaSTIG) de
l'Institut National de l'Information Géographique et Forestière
(IGN).
Ses sujets de recherche portent principalement sur les données
spatio-temporelles et en particulier les données géo-historiques,
l'appariement de données géographiques et géo-historiques, la
simulation
urbaine 2D et 3D, la modélisation des systèmes complexe et
l'optimisation stochastique. Il contribue à la mise en place de
nouveaux
standards pour la recherche reproductible par la diffusion des
travaux
de recherche sous la forme de données libres et de logiciels libres.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible. N'hésitez pas à nous faire
parvenir vos suggestions d'orateurs.
--
Guillaume TOCHON
Maître de conférences // Assistant Professor
LRDE, EPITA
18, rue Pasteur
94270 Le Kremlin-Bicêtre
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 23 novembre 2016 (11h--12h), Salle L0 du LRDE.
Vous trouverez sur le site du séminaire [1] les prochaines séances,
les résumés, captations vidéos et planches des exposés précédents [2],
le détail de cette séance [3] ainsi que le plan d'accès [4].
[1] http://seminaire.lrde.epita.fr
[2] http://seminaire.lrde.epita.fr/Archives
[3] http://seminaire.lrde.epita.fr/2016-11-23
[4] http://www.lrde.epita.fr/Contact
Au programme du Mercredi 23 novembre 2016 :
* 11h--12h: Analyse du mouvement avec applications bio-médicales
-- Elodie Puybareau, LIGM
http://ciliola.fr
L’analyse du mouvement, ou l’analyse d’une séquence d’images, est
l’extension naturelle de l’analyse d’images à l’analyse de séries
temporelles d’images. De nombreuses méthodes d’analyse de mouvement
ont
été développées dans le contexe de vision par ordinateur, comprenant
le
suivi de caractéristiques, le flot optique, l’analyse de
points-clefs,
le recalage d’image, etc.
Dans cet exposé, nous présenterons les outils que nous avons
développés
pour l'analyse de mouvement adaptés à l’analyse de séquences
biomédicales, et en particulier pour les cellules ciliées. Ces
cellules,
couvertes de cils qui battent, sont présentes chez l’homme dans les
zones nécessitant des mouvements de fluide. Dans les poumons et les
voies respiratoires supérieures par exemple, les cils sont
responsables
de l’épuration muco-ciliaire, qui permet d’évacuer des poumons la
poussière et autres impuretés inhalées. Les altérations de
l’épuration
muco-ciliaire peuvent être liées à des maladies génétiques ou
acquises.
Ces maladies, touchant les cils, sont potentiellement handicapantes.
Elles peuvent cependant être caractérisées par l’analyse du mouvement
des cils sous un microscope, avec une résolution temporelle
importante.
Nous avons développé plusieurs outils et techniques pour réaliser ces
analyses de manière automatique et avec une haute précision.
-- Elodie Puybareau est en thèse d'Imagerie Bio-Médicale depuis le
1er
décembre 2013 au LIGM. Ses travaux portent surtout sur l’analyse du
mouvement à partir de vidéos, afin d'en extraire divers paramètres
qui
s'appliquent à des sujets bio-médicaux.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible. N'hésitez pas à nous faire
parvenir vos suggestions d'orateurs.
--
Guillaume TOCHON
Maître de conférences // Assistant Professor
LRDE, EPITA
18, rue Pasteur
94270 Le Kremlin-Bicêtre
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 18 mai 2016 (11h--12h30), Salle L0 du LRDE.
Vous trouverez sur le site du séminaire [1] les prochaines séances,
les résumés, captations vidéos et planches des exposés précédents [2],
le détail de cette séance [3] ainsi que le plan d'accès [4].
[1] http://seminaire.lrde.epita.fr
[2] http://seminaire.lrde.epita.fr/Archives
[3] http://seminaire.lrde.epita.fr/2016-05-18
[4] http://www.lrde.epita.fr/Contact
Au programme du Mercredi 18 mai 2016 :
* 11h: Un avant-goût de Julia
-- Didier Verna -- EPITA/LRDE
http://www.didierverna.info/
Julia est un langage de programmation relativement jeune, développé au
MIT, et vendu comme langage dynamique à haute performance pour le calcul
scientifique numérique. L'un des co-auteurs du langage a une
connaissance de Scheme, et Julia s'inspire en effet largement de Scheme,
Common Lisp et Dylan, au point qu'il pourrait presque revendiquer un
lien de parenté avec Lisp. Tout ceci est déjà suffisant pour capter
notre attention, mais il y a plus: Julia semble également tirer parti de
techniques modernes d'optimisation pour les langages dynamiques, en
particulier grâce à son compilateur « Just-in-Time » basé sur LLVM.
Dans cette présentation, nous ferons un tour des aspects les plus
saillants du langage, avec une légère emphase sur ce qui en fait (ou
pas) un Lisp, quelques fois même (pas toujours) un meilleur Lisp que
Lisp lui-même.
-- Didier Verna est enseignant-chercheur au Laboratoire de Recherche et
Développement de l'EPITA. Il s'intéresse aux langages dynamiques
multi-paradigmes et en particulier aux implications de l'homoiconicité
(à tout le moins de la réflexivité) en termes de méta-programmation,
d'extensibilité et de génie logiciel en général. Didier Verna préside le
comité de pilotage du Symposium Européen sur Lisp. Il est également très
impliqué dans le logiciel libre; il fût l'un des mainteneurs d'XEmacs
pendant plus de 15 ans.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible. N'hésitez pas à nous faire
parvenir vos suggestions d’orateurs.
--
Akim Demaille
Akim.Demaille(a)lrde.epita.fr
Chers collègues,
En mars, nous vous invitons à une deuxième session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) après celle de demain Mercredi 16 mars, où
nous recevons Guillaume Torchon, Grenoble-INP & GIPSA-lab, pour parler d’"Analyse hiérarchique d’images
multimodales ». Vous pouvez dès à présent noter le 2e rendez-vous du LRDE :
Mercredi 23 mars 2016 (11h--12h), Salle L0 du LRDE.
Vous trouverez sur le site du séminaire [1] les prochaines séances,
les résumés, captations vidéos et planches des exposés précédents [2],
le détail de cette séance [3] ainsi que le plan d'accès [4].
[1] http://seminaire.lrde.epita.fr
[2] http://seminaire.lrde.epita.fr/Archives
[3] http://seminaire.lrde.epita.fr/2016-03-23
[4] http://www.lrde.epita.fr/Contact
Au programme du Mercredi 23 mars 2016 :
* 11h: Boost.SIMD - Maximisez votre CPU directement depuis C++
-- Joël Falcou, Université Paris Sud, NumScale
https://github.com/NumScale/boost.simd
Les extensions multimédia (SSE, AVX, NEON) sont une composante majeure
des processeurs d'aujourd'hui qui restent plus que sous-utilisées. Les
principales raisons de cette sous-utilisation sont la relative obscurité
des jeux d'instructions, leur variété entre et même au sein des
différentes familles de puces et surtout, une méconnaissance de la
disponibilité des ces unités de calculs.
Boost.SIMD est une bibliothèque permettant d'exploiter ces extensions de
manière efficace et expressive, facilitant l'utilisation, la diffusion
et la portabilité de tels codes, ouvrant la porte à des accélérations de
l'ordre de 4 à 10 sur un simple cœur.
Cet exposé présentera les fonctionnalités de Boost.SIMD, les challenges
posés par son implémentation, comment le C++ moderne répond à plusieurs
de ces problèmes et les éléments bloquants qu'il reste à résoudre.
-- Joël Falcou est maître de conférences en informatique au LRI,
Université Paris Sud. Ses travaux de thèse ont porté sur la
programmation parallèle pour la vision artificielle et plus
particulièrement sur les applications de la programmation générative
pour la création d'outils d'aide à la parallélisation. Il est également
conseiller scientifique chez NumScale.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible. N'hésitez pas à nous faire
parvenir vos suggestions d’orateurs.
--
Akim Demaille
Akim.Demaille(a)lrde.epita.fr
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 16 mars 2016 (11h--12h), Salle L0 du LRDE.
Vous trouverez sur le site du séminaire [1] les prochaines séances,
les résumés, captations vidéos et planches des exposés précédents [2],
le détail de cette séance [3] ainsi que le plan d'accès [4].
[1] http://seminaire.lrde.epita.fr
[2] http://seminaire.lrde.epita.fr/Archives
[3] http://seminaire.lrde.epita.fr/2016-03-16
[4] http://www.lrde.epita.fr/Contact
Au programme du Mercredi 16 mars 2016 :
* 11h: Analyse hiérarchique d'images multimodales
-- Guillaume Tochon - Grenoble-INP & GIPSA-lab
Il y a un intérêt grandissant pour le développement d’outils de
traitements adaptés aux images multimodales (plusieurs images de la même
scène acquises avec différentes caractéristiques). Permettant une
représentation plus complète de la scène en question, ces images
multimodales ont de l'intérêt dans plusieurs domaines du traitement
d'images. Les exploiter et les manipuler de manière optimale soulève
cependant plusieurs questions.
Dans cet exposé, nous étendrons les représentations hiérarchiques, outil
puissant pour le traitement et l’analyse d’images classiques, aux images
multimodales afin de mieux exploiter l’information additionnelle
apportée par la multimodalité et améliorer les techniques classiques de
traitement d’images. En particulier, nous nous concentrerons
principalement sur deux modalités différentes, fréquemment rencontrées
dans le domaine de la télédétection:
- La modalité spectrale-spatiale, propre aux images hyperspectrales
(images à très haute résolution spectrale - plusieurs centaines de
canaux). Une intégration adaptée de cette information spectrale-spatiale
lors de l'étape de construction de la représentation hiérarchique (en
l’occurrence, un arbre de partition binaire) nous permettra par la
suite, via un processus de minimisation énergétique, de proposer une
carte de segmentation de l'image optimale vis-à-vis de l'opération de
démélange spectral.
- La modalité sensorielle, c'est-à-dire les images acquises par des
capteurs de différentes natures. Ces images "multisources", porteuses
d'informations à la fois redondantes et complémentaires, sont
particulièrement intéressantes pour des applications de segmentation.
Nous proposerons une méthode se basant sur le très récent concept de
tresses de partitions (extensions des hiérarchies de partitions
classiques) afin de réaliser l'analyse hiérarchique de ces images
multisources, et en obtiendrons une segmentation (là encore) via un
processus de minimisation énergétique.
- Enfin, nous décrirons très brièvement une méthode d'analyse d'images
multitemporelles permettant d'effectuer du suivi d'objet, en se basant
également sur les représentations hiérarchiques des différentes images
de la séquence.
-- Guillaume Tochon a obtenu un diplôme d'ingénieur de Grenoble-INP (école
ENSE3) en 2012 et un doctorat de l'université de Grenoble Alpes
(rattaché au laboratoire GIPSA-lab) en 2015, tous deux en spécialisation
``traitement du signal et des images''. Il est actuellement attaché
temporaire d'enseignement et de recherche à Grenoble-INP et conduit ses
recherches au sein du département Images et Signaux du GIPSA-lab. Ses
activités de recherches se situent à l'intersection entre la morphologie
mathématique et la fusion de données, se focalisant notamment sur
l'utilisation de représentations hiérarchiques pour l'analyse d'images
multimodales, pour diverses applications telles que la segmentation ou
le démélange spectral.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible. N'hésitez pas à nous faire
parvenir vos suggestions d’orateurs.
--
Akim Demaille
Akim.Demaille(a)lrde.epita.fr
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 17 février 2016 (11h--12h), Salle L0 du LRDE.
Vous trouverez sur le site du séminaire [1] les prochaines séances,
les résumés, captations vidéos et planches des exposés précédents [2],
le détail de cette séance [3] ainsi que le plan d'accès [4].
[1] http://seminaire.lrde.epita.fr
[2] http://seminaire.lrde.epita.fr/Archives
[3] http://seminaire.lrde.epita.fr/2016-02-17
[4] http://www.lrde.epita.fr/Contact
Au programme du Mercredi 17 février 2016 :
* 11h: Computing with (nearly) unlimited resources
-- Stephan Hadinger, Head of Solutions Architecture, AWS
https://aws.amazon.com
Le cloud computing donne accès à des ressources de stockage et de calcul
quasiment illimitées, pour un coût toujours plus bas. Devant l’explosion
de la quantité des données générées et le besoin de réagir toujours plus
vite, il n’a jamais été aussi facile d’accéder aux technologies de
traitement massif.
Nous illustrerons de nombreux cas d’usage du cloud : Hadoop,
dataware-house de plusieurs Po, traitement temps réel de millions
d’événements par seconde, IOT, Machine Learning…
En particulier, l’utilisation d’algorithmes massivement parallèles prend
toute son importance et permet de tirer pleinement parti de l’élasticité
du cloud, par exemple: Monte-Carlo dans le domaine financier,
modélisation de protéines en 3D pour du screening, analyse génomique,
analyse de logs…
-- Stephan Hadinger a fait une longue carrière dans l'IT, spécialisé dans
les domaines Infrastructure, B2C et B2B afin de permettre aux
entreprises de tirer un maximum de bénéfices de leurs investissements
technologiques. Dans son rôle d'Architecte Solutions avec Amazon Web
Services, Stephan travaille avec des entreprises françaises de toutes
tailles pour les aider à migrer vers le Cloud et utiliser leur IT pour
mieux servir leurs clients.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible. N'hésitez pas à nous faire
parvenir vos suggestions d’orateurs.
--
Akim Demaille
Akim.Demaille(a)lrde.epita.fr
Chers collègues,
La prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) aura lieu le
Mercredi 27 janvier 2016 (11h--12h), Salle L0 du LRDE.
Vous trouverez sur le site du séminaire [1] les prochaines séances,
les résumés, captations vidéos et planches des exposés précédents [2],
le détail de cette séance [3] ainsi que le plan d'accès [4].
[1] http://seminaire.lrde.epita.fr
[2] http://seminaire.lrde.epita.fr/Archives
[3] http://seminaire.lrde.epita.fr/2016-01-27
[4] http://www.lrde.epita.fr/Contact
Au programme du Mercredi 27 janvier 2016 :
* 11h: Une introduction à la preuve formelle de sécurité
-- Pierre-Yves Strub -- IMDEA Software Institute - Espagne
http://www.strub.nu
La cryptographie joue un rôle clé dans la sécurité des infrastructures
de communication. Il est donc d'une importance capitale de construire
des systèmes cryptographiques apportant de fortes garanties de sécurité.
C'est dans ce but que les constructions cryptographiques sont étudiées
scrupuleusement et viennent avec une preuve de sécurité bornant la
probabilité qu'un adversaire casse le crypto-système.
La majorité des preuves de sécurité sont réductionnistes: elles
construisent, à partir d'un adversaire PPT (Probabilistic
Polynomial-Time) violant avec une probabilité écrasante la sécurité de
la construction cryptographique, un second adversaire PPT cassant une
hypothèse de sécurité. Cette approche, connue sous le nom de "sécurité
formelle", permet sur le principe de fournir des preuves mathématiques
rigoureuses et détaillées de sécurité.
Les récentes constructions cryptographiques (et donc leur analyse de
sécurité) sont de plus en plus complexes, et il n'est pas rare qu'elles
incluent maintenant la preuve sécurité de l'implémentation du
crypto-système, ou de sa résistance aux canaux cachés. En conséquence,
les preuves de sécurité de ces algorithmes présentent un niveau de
complexité tel qu'un grand nombre d'entre elles sont fausses ---
prouvant la sécurité d'une construction qui ne l'est pas.
Une solution prometteuse pour pallier ce problème est de développer des
outils formels d'aide à la construction et vérification de
crypto-systèmes. Bien que de nombreux outils existent pour la
cryptographie symbolique, peu d'effort a été fait pour la cryptographie
calculatoire --- pourtant utilisée largement parmi les cryptographes.
Après avoir introduit le domaine de la preuve formelle et de la sécurité
formelle, je présenterai EasyCrypt, un outil d'aide à la preuve des
constructions cryptographiques dans le modèle calculatoire. EasyCrypt
adopte une approche reposant sur la formalisation de constructions
cryptographiques à partir de code concret, dans laquelle la sécurité et
les hypothèses de sécurité sont modélisées à partir de programmes
probabilistes et où les adversaires sont représentés par du code non
spécifié. Une telle approche permet l'utilisation d'outils existants
pour la vérification de programmes.
EasyCrypt est développé conjointement entre l'IMDEA Software Institute
et Inria.
-- Pierre-Yves Strub est chercheur au "IMDEA Software Institute", institut
madrilène de recherche en informatique. En 2008, il obtient une thèse en
informatique de l'École Polytechnique, puis rejoint l'équipe FORMES du
laboratoire commun INRIA-Tsinghua University (Pékin, Chine). Avant
d'intégrer IMDEA en 2012, il passe deux ans au laboratoire commun
MSR-INRIA (Paris, France). Ses recherches portent sur les méthodes
formelles, la logique en informatique, la vérification de programmes, la
sécurité formelle et la formalisation des mathématiques.
-- Depuis qu'il a rejoint IMDEA, ses recherches portent principalement sur
la preuve formelle assistée par ordinateur en sécurité/cryptographie. Il
est l'un des principaux concepteur et développeur d'EasyCrypt, un outil
dédié à la preuve de sécurité de constructions cryptographiques.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible. N'hésitez pas à nous faire
parvenir vos suggestions d’orateurs.
--
Akim Demaille
Akim.Demaille(a)lrde.epita.fr
Chers collègues,
Pour la prochaine session du séminaire Performance et Généricité du LRDE
(Laboratoire de Recherche et Développement de l'EPITA) il y a un changement
de date et d’horaire : elle aura lieu le Mercredi 14 octobre 2015 à 11h30--12h30,
Salle L0 du LRDE.
Vous trouverez sur le site du séminaire [1] les prochaines séances,
les résumés, captations vidéos et planches des exposés précédents [2],
le détail de cette séance [3] ainsi que le plan d'accès [4].
[1] http://seminaire.lrde.epita.fr
[2] http://seminaire.lrde.epita.fr/Archives
[3] http://seminaire.lrde.epita.fr/2015-10-14
[4] http://www.lrde.epita.fr/Contact
Au programme du Mercredi 14 octobre 2015 :
* 11h30: Intégrales de Morton pour la Simplification Géométrique Haute Vitesse
-- Tamy Boubekeur, Telecom ParisTech - CNRS - University Paris-Saclay
http://perso.telecom-paristech.fr/~boubek/
Le traitement géométrique 3D temps-réel a progressivement atteint un
niveau de performance rendant un grand nombre de primitives inspirées du
traitement du signal compatible avec les applications interactives. Cela
a souvent été rendu possible grâce à la co-conception des opérateurs,
des structures de données et du support matériel d’exécution. Parmi les
principales classes d'opérateurs géométriques, le filtrage et le
sur-échantillonnage (par raffinement) ont été exprimés sous des
contraintes temps-réel avec succès. Cependant, l'opérateur de
sous-échantillonnage --- la simplification adaptative --- demeure un cas
problématique pour les données non triviales.
Dans ce contexte, nous proposons un nouvel algorithme de simplification
géométrique rapide basé sur un nouveau concept : les intégrales de
Morton. En sommant les quadriques d'erreurs associées aux échantillons
géométriques selon leur ordre de Morton, notre approche permet
d'extraire de manière concurrente les nœuds correspondants à une coupe
adaptative dans la hiérarchie implicite ainsi définie, et d'optimiser la
position des sommets du maillage simplifié en parallèle. Cette méthode
est inspirée des images intégrales et exploite les avancées récentes en
construction et parcours haute performance de hiérarchies spatiales.
L'implémentation GPU de notre approche peut simplifier des maillages
composés de plusieurs millions d'éléments à un taux de rafraîchissement
interactif, tout en fournissant une géométrie simplifiée de qualité
supérieure aux méthodes uniformes et en préservant notamment les
structures géométriques saillantes. Notre algorithme est compatible avec
les maillages indexés, les soupes polygonales et les nuages de points,
et peut prendre en compte des attributs de surfaces (normal ou couleur
par exemple) et des métriques d'erreurs alternatives.
-- Tamy Boubekeur est Professeur en Science Informatique à Télécom
ParisTech (Institut Mines-Télécom, CNRS UMR 5141, Université
Paris-Saclay). Il mène ses activités de recherche dans le domaine de
l’informatique graphique 3D, s'intéressant tout particulièrement à la
modélisation et à la synthèse de formes, de matières et d’animation 3D
numériques, mais également aux systèmes visuels interactifs à hautes
performances.
-- De 2004 à 2007, il a été membre de l’INRIA Bordeaux (France) et
chercheur invité régulier à l’Université de Colombie Britannique à
Vancouver (Canada). Il a obtenu son Doctorat en Informatique à
l’Université des Sciences et Technologies de Bordeaux en 2007. Par la
suite, il a rejoint l’Unversité Technique de Berlin (TU Berlin) comme
chercheur associé. En 2008, il a rejoint le Département de Traitement du
Signal et des Images de Télécom ParisTech comme Maître de Conférences et
a créé le groupe d’informatique graphique. Il a obtenu son Habilitation
à Diriger des Recherches (HDR) en Informatique à l’Université Paris XI
en 2012 avant de devenir Professeur à Télécom ParisTech en 2013.
L'entrée du séminaire est libre. Merci de bien vouloir diffuser cette
information le plus largement possible. N'hésitez pas à nous faire
parvenir vos suggestions d’orateurs.