Bonjour à tous⋅tes,
si jamais ça vous intéresse, je co-organise un petit séminaire demain
midi autour de l'extraction de données structurées dans les documents
anciens. On y parlera de la technique la plus performante à ce jour
pour lire des tableaux manuscrits, à ma connaissance. Il y a un lien
zoom pour y assister à distance.
Bonne journée,
Joseph
Begin forwarded message:
Date: Wed, 27 Mar 2024 10:18:15 +0100
From: Joseph Chazalon <joseph.chazalon(a)lrde.epita.fr>
To: ner-for-historical-docs(a)groupes.renater.fr
Subject: [ner-for-historical-docs] Rappel et lien visio pour séminaire
S. Tarride demain (28 mars 2024)
Chères et chers membres de la liste,
Nous vous rappelons que nous aurons le plaisir d'écouter Solène Tarride
(TEKLIA) demain (jeudi 28 mars) de 12:00 à 13:00.
Voici un résumé des informations pratiques importantes :
Date et heure : jeudi 28 mars de 12:00 à 13:00
Lieu : Maison de la Recherche de Sorbonne Université, 28 rue Serpente,
75006 Paris Salle : S001 au rez de chaussée.
Merci d'indiquer votre présence via ce formulaire pour éviter les
problèmes d'accès :
https://evento.renater.fr/survey/ner-for-historical-docs-participation-au-s…
Visio :
https://univ-eiffel.zoom.us/j/82108329996
Mot de passe : 9SrAWc4b
Déjeuner : le déjeuner n'est PAS pris en charge pour cette séance
Titre et résumé de l'intervention :
"Extraction d'informations structurées dans des documents historiques"
Dans cette présentation, TEKLIA partagera son expérience pratique sur
l'utilisation du modèle DAN (vision encodeur-décodeur) pour
l'extraction d'informations à partir de documents historiques. Je
présenterai des cas d'usage sur des formulaires (PSE-RYZ), des tableaux
(Socface, CICR) et des registres (Esposalles). Nous discuterons des
aspects techniques sur toute la chaîne : l'annotation et la
représentation des documents, les stratégies d'entraînement,
l'estimation de scores de confiance, la prédiction des informations et
de leur localisation grâce au mécanisme d'attention. Enfin, nous
aborderons également les limites de telles architectures, notamment les
hallucinations et les difficultés liées aux mises en page complexes.
En espérant vous recevoir nombreux⋅ses,
Joseph, pour le comité d'organisation
______________________
Current mailing list -- current(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/current.ml.lre.epita.fr//
______________________
Doctorants mailing list -- doctorants(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/doctorants.ml.lre.epita.fr//
______________________
Docs mailing list -- docs(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/docs.ml.lre.epita.fr//
______________________
Docs.strasbourg mailing list -- docs.strasbourg(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/docs.strasbourg.ml.lre.epita.fr…
Bonjour,
Dans le cadre des séminaires de l'équipe Sécurité /Systèmes, nous écouterons sur Teams Raphael Joud, Ingénieur de Grenoble-INP - UGA, jeudi 04/04/2024 à 14h30.
Raphael Joud nous parlera de ses travaux sur "Analyses Side Channel contre la Confidentialité des modèles de Deep Learning Embarqués".
Résumé:
Le déploiement des modèles de Deep Learning (DL) sur des plateformes embarquées prend de plus en plus d’importance. Ces modèles étant amenés à réaliser des tâches et manipuler des données parfois sensibles, leur sécurité doit être assurée, notamment dans le cadre des projets de régulation européens. Cependant, la sécurisation des modèles de DL n’est pas pensée au moment de leur conception et leurs d´déploiements les exposent aux attaques physiques en plus des nombreuses attaques algorithmiques déjà existantes. Cette présentation se concentre sur les menaces visant la confidentialité des modèles de DL exploitant les attaques matérielles, plus spécifiquement les analyses side channel. Les paramètres qui font la spécificité d’un modèle sont ciblés sous l’angle de la fidélité. Ce type de scénario ne se concentre pas seulement sur la performance du modèle victime, mais vise à en obtenir un clone. Tout d’abord, nous ´étudions l’obtention de l’architecture de modèles quantifiés dans un contexte boîte noire restrictif. Ces ´évaluations ont été réalisées en ne s’appuyant que sur des analyses simples de reconnaissance de motifs observés au niveau des ´émanations ´électromagnétiques du circuit. Ensuite, nous nous concentrons sur l’extraction des paramètres d’un modèle de DL implémenté sur un mmicrocontrôleur32 bits (Cortex-M7). En s’appuyant sur une méthode d’extraction itérative, nous mettons en ´évidence plusieurs défis liés à l’extraction complète d’un modèle par analyse side channel. A partir de ces résultats, nous considérons différentes contre-mesures visant à renforcer la confidentialité des modèles embarqués.
Bio :
Ingénieur de Grenoble-INP - UGA, j’ai récemment soutenu ma thèse au sein de l’équipe commune du CEA Leti et Mines Saint-Étienne du département Systèmes et Architectures Sécurisées (SAS) localisé à Gardanne (13). Cette étude portait sur les menaces que représentent les analyses side channel pour la confidentialité de réseaux de neurones profonds embarqués sur microcontrôleurs, et le développement de contremesures adaptées à ces menaces.
Cordialement,
Ghada Gharbi
________________________________________________________________________________
Microsoft Teams Besoin d'aide ?<https://aka.ms/JoinTeamsMeeting?omkt=fr-FR>
Rejoindre la réunion maintenant<https://teams.microsoft.com/l/meetup-join/19%3ameeting_ODQ5ZGE2NmMtZTY5Yi00…>
ID de réunion : 366 862 938 667
Code secret : v6q2tj
________________________________
Pour les organisateurs : Options de réunion<https://teams.microsoft.com/meetingOptions/?organizerId=9a220f60-43fb-406a-…> | Réinitialiser le code confidentiel de participation<https://dialin.teams.microsoft.com/usp/pstnconferencing>
[cid:b3bc0f80-e4ba-4608-a7f5-f5686177391b]<https://www.epita.fr/>
Ghada GHARBI
Enseignante - Chercheure
EPITA Toulouse
[cid:2f7c886c-0234-4bf3-b78c-3d2e66feb6da]<https://www.facebook.com/epita/> [cid:e3a819a8-c591-42a0-964c-9ded6b6dc12c] <https://www.instagram.com/epita.national/> [cid:d0caad79-ccc3-49d6-85b5-a89b97a8deb5] <https://www.linkedin.com/school/epita-ecole-ingenieurs-informatique> [cid:5820090a-e5d4-43b2-ab14-526487d91282] <https://twitter.com/epita> [cid:ea58d222-9145-4534-9df3-0c3cdad74d5a] <https://www.epita.fr/> [cid:4521b6d3-f2dd-4074-a3b7-916c693e943c] <https://www.youtube.com/channel/UC33NtVL7bStj4FmWeIstKqg>
______________________
Doctorants mailing list -- doctorants(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/doctorants.ml.lre.epita.fr//
______________________
Docs mailing list -- docs(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/docs.ml.lre.epita.fr//
______________________
Docs.strasbourg mailing list -- docs.strasbourg(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/docs.strasbourg.ml.lre.epita.fr…
Bonjour,
Dans le cadre des séminaires de l'équipe Sécurité /Systèmes, nous écouterons sur Teams Raphael Joud, Ingénieur de Grenoble-INP - UGA, jeudi 04/04/2024 à 14h30.
Raphael Joud nous parlera de ses travaux sur "Analyses Side Channel contre la Confidentialité des modèles de Deep Learning Embarqués".
Résumé:
Le déploiement des modèles de Deep Learning (DL) sur des plateformes embarquées prend de plus en plus d’importance. Ces modèles étant amenés à réaliser des tâches et manipuler des données parfois sensibles, leur sécurité doit être assurée, notamment dans le cadre des projets de régulation européens. Cependant, la sécurisation des modèles de DL n’est pas pensée au moment de leur conception et leurs d´déploiements les exposent aux attaques physiques en plus des nombreuses attaques algorithmiques déjà existantes. Cette présentation se concentre sur les menaces visant la confidentialité des modèles de DL exploitant les attaques matérielles, plus spécifiquement les analyses side channel. Les paramètres qui font la spécificité d’un modèle sont ciblés sous l’angle de la fidélité. Ce type de scénario ne se concentre pas seulement sur la performance du modèle victime, mais vise à en obtenir un clone. Tout d’abord, nous ´étudions l’obtention de l’architecture de modèles quantifiés dans un contexte boîte noire restrictif. Ces ´évaluations ont été réalisées en ne s’appuyant que sur des analyses simples de reconnaissance de motifs observés au niveau des ´émanations ´électromagnétiques du circuit. Ensuite, nous nous concentrons sur l’extraction des paramètres d’un modèle de DL implémenté sur un mmicrocontrôleur32 bits (Cortex-M7). En s’appuyant sur une méthode d’extraction itérative, nous mettons en ´évidence plusieurs défis liés à l’extraction complète d’un modèle par analyse side channel. A partir de ces résultats, nous considérons différentes contre-mesures visant à renforcer la confidentialité des modèles embarqués.
Bio :
Ingénieur de Grenoble-INP - UGA, j’ai récemment soutenu ma thèse au sein de l’équipe commune du CEA Leti et Mines Saint-Étienne du département Systèmes et Architectures Sécurisées (SAS) localisé à Gardanne (13). Cette étude portait sur les menaces que représentent les analyses side channel pour la confidentialité de réseaux de neurones profonds embarqués sur microcontrôleurs, et le développement de contremesures adaptées à ces menaces.
Cordialement,
Ghada Gharbi
________________________________________________________________________________
Microsoft Teams Besoin d'aide ?<https://aka.ms/JoinTeamsMeeting?omkt=fr-FR>
Rejoindre la réunion maintenant<https://teams.microsoft.com/l/meetup-join/19%3ameeting_ODQ5ZGE2NmMtZTY5Yi00…>
ID de réunion : 366 862 938 667
Code secret : v6q2tj
________________________________
Pour les organisateurs : Options de réunion<https://teams.microsoft.com/meetingOptions/?organizerId=9a220f60-43fb-406a-…> | Réinitialiser le code confidentiel de participation<https://dialin.teams.microsoft.com/usp/pstnconferencing>
________________________________________________________________________________
______________________
Doctorants mailing list -- doctorants(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/doctorants.ml.lre.epita.fr//
______________________
Docs mailing list -- docs(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/docs.ml.lre.epita.fr//
______________________
Docs.strasbourg mailing list -- docs.strasbourg(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/docs.strasbourg.ml.lre.epita.fr…
Bonjour,
Dans le cadre des séminaires de l'équipe Sécurité /Systèmes, nous écouterons sur Teams Raphael Joud, Ingénieur de Grenoble-INP - UGA, jeudi 04/04/2024 à 14h30.
Raphael Joud nous parlera de ses travaux sur "Analyses Side Channel contre la Confidentialité des modèles de Deep Learning Embarqués".
Résumé:
Le déploiement des modèles de Deep Learning (DL) sur des plateformes embarquées prend de plus en plus d’importance. Ces modèles étant amenés à réaliser des tâches et manipuler des données parfois sensibles, leur sécurité doit être assurée, notamment dans le cadre des projets de régulation européens. Cependant, la sécurisation des modèles de DL n’est pas pensée au moment de leur conception et leurs d´déploiements les exposent aux attaques physiques en plus des nombreuses attaques algorithmiques déjà existantes. Cette présentation se concentre sur les menaces visant la confidentialité des modèles de DL exploitant les attaques matérielles, plus spécifiquement les analyses side channel. Les paramètres qui font la spécificité d’un modèle sont ciblés sous l’angle de la fidélité. Ce type de scénario ne se concentre pas seulement sur la performance du modèle victime, mais vise à en obtenir un clone. Tout d’abord, nous ´étudions l’obtention de l’architecture de modèles quantifiés dans un contexte boîte noire restrictif. Ces ´évaluations ont été réalisées en ne s’appuyant que sur des analyses simples de reconnaissance de motifs observés au niveau des ´émanations ´électromagnétiques du circuit. Ensuite, nous nous concentrons sur l’extraction des paramètres d’un modèle de DL implémenté sur un mmicrocontrôleur32 bits (Cortex-M7). En s’appuyant sur une méthode d’extraction itérative, nous mettons en ´évidence plusieurs défis liés à l’extraction complète d’un modèle par analyse side channel. A partir de ces résultats, nous considérons différentes contre-mesures visant à renforcer la confidentialité des modèles embarqués.
Bio :
Ingénieur de Grenoble-INP - UGA, j’ai récemment soutenu ma thèse au sein de l’équipe commune du CEA Leti et Mines Saint-Étienne du département Systèmes et Architectures Sécurisées (SAS) localisé à Gardanne (13). Cette étude portait sur les menaces que représentent les analyses side channel pour la confidentialité de réseaux de neurones profonds embarqués sur microcontrôleurs, et le développement de contremesures adaptées à ces menaces.
Cordialement,
Ghada Gharbi
________________________________________________________________________________
Microsoft Teams Besoin d'aide ?<https://aka.ms/JoinTeamsMeeting?omkt=fr-FR>
Rejoindre la réunion maintenant<https://teams.microsoft.com/l/meetup-join/19%3ameeting_Zjk0Y2ZhMGUtYTE2ZC00…>
ID de réunion : 336 164 718 883
Code secret : bJvW8E
________________________________
Pour les organisateurs : Options de réunion<https://teams.microsoft.com/meetingOptions/?organizerId=9a220f60-43fb-406a-…> | Réinitialiser le code confidentiel de participation<https://dialin.teams.microsoft.com/usp/pstnconferencing>
________________________________________________________________________________
______________________
Doctorants mailing list -- doctorants(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/doctorants.ml.lre.epita.fr//
______________________
Docs mailing list -- docs(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/docs.ml.lre.epita.fr//
______________________
Docs.strasbourg mailing list -- docs.strasbourg(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/docs.strasbourg.ml.lre.epita.fr…
Bonjour,
Dans le cadre des séminaires de l'équipe Sécurité /Systèmes, nous écouterons sur Teams Raphael Joud, Ingénieur de Grenoble-INP - UGA, jeudi 04/04/2024 à 14h30.
Raphael Joud nous parlera de ses travaux sur "Analyses Side Channel contre la Confidentialité des modèles de Deep Learning Embarqués".
Résumé:
Le déploiement des modèles de Deep Learning (DL) sur des plateformes embarquées prend de plus en plus d’importance. Ces modèles étant amenés à réaliser des tâches et manipuler des données parfois sensibles, leur sécurité doit être assurée, notamment dans le cadre des projets de régulation européens. Cependant, la sécurisation des modèles de DL n’est pas pensée au moment de leur conception et leurs d´déploiements les exposent aux attaques physiques en plus des nombreuses attaques algorithmiques déjà existantes. Cette présentation se concentre sur les menaces visant la confidentialité des modèles de DL exploitant les attaques matérielles, plus spécifiquement les analyses side channel. Les paramètres qui font la spécificité d’un modèle sont ciblés sous l’angle de la fidélité. Ce type de scénario ne se concentre pas seulement sur la performance du modèle victime, mais vise à en obtenir un clone. Tout d’abord, nous ´étudions l’obtention de l’architecture de modèles quantifiés dans un contexte boîte noire restrictif. Ces ´évaluations ont été réalisées en ne s’appuyant que sur des analyses simples de reconnaissance de motifs observés au niveau des ´émanations ´électromagnétiques du circuit. Ensuite, nous nous concentrons sur l’extraction des paramètres d’un modèle de DL implémenté sur un mmicrocontrôleur32 bits (Cortex-M7). En s’appuyant sur une méthode d’extraction itérative, nous mettons en ´évidence plusieurs défis liés à l’extraction complète d’un modèle par analyse side channel. A partir de ces résultats, nous considérons différentes contre-mesures visant à renforcer la confidentialité des modèles embarqués.
Bio :
Ingénieur de Grenoble-INP - UGA, j’ai récemment soutenu ma thèse au sein de l’équipe commune du CEA Leti et Mines Saint-Étienne du département Systèmes et Architectures Sécurisées (SAS) localisé à Gardanne (13). Cette étude portait sur les menaces que représentent les analyses side channel pour la confidentialité de réseaux de neurones profonds embarqués sur microcontrôleurs, et le développement de contremesures adaptées à ces menaces.
Cordialement,
Ghada Gharbi
________________________________________________________________________________
Microsoft Teams Besoin d'aide ?<https://aka.ms/JoinTeamsMeeting?omkt=fr-FR>
Rejoindre la réunion maintenant<https://teams.microsoft.com/l/meetup-join/19%3ameeting_ODQ5ZGE2NmMtZTY5Yi00…>
ID de réunion : 366 862 938 667
Code secret : v6q2tj
________________________________
Pour les organisateurs : Options de réunion<https://teams.microsoft.com/meetingOptions/?organizerId=9a220f60-43fb-406a-…> | Réinitialiser le code confidentiel de participation<https://dialin.teams.microsoft.com/usp/pstnconferencing>
________________________________________________________________________________
______________________
Doctorants mailing list -- doctorants(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/doctorants.ml.lre.epita.fr//
______________________
Docs mailing list -- docs(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/docs.ml.lre.epita.fr//
______________________
Docs.strasbourg mailing list -- docs.strasbourg(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/docs.strasbourg.ml.lre.epita.fr…
Bonjour,
Dans le cadre des séminaires de l'équipe Sécurité /Systèmes, nous écouterons sur Teams Raphael Joud, Ingénieur de Grenoble-INP - UGA, jeudi 04/04/2024 à 14h30.
Raphael Joud nous parlera de ses travaux sur "Analyses Side Channel contre la Confidentialité des modèles de Deep Learning Embarqués".
Résumé:
Le déploiement des modèles de Deep Learning (DL) sur des plateformes embarquées prend de plus en plus d’importance. Ces modèles étant amenés à réaliser des tâches et manipuler des données parfois sensibles, leur sécurité doit être assurée, notamment dans le cadre des projets de régulation européens. Cependant, la sécurisation des modèles de DL n’est pas pensée au moment de leur conception et leurs d´déploiements les exposent aux attaques physiques en plus des nombreuses attaques algorithmiques déjà existantes. Cette présentation se concentre sur les menaces visant la confidentialité des modèles de DL exploitant les attaques matérielles, plus spécifiquement les analyses side channel. Les paramètres qui font la spécificité d’un modèle sont ciblés sous l’angle de la fidélité. Ce type de scénario ne se concentre pas seulement sur la performance du modèle victime, mais vise à en obtenir un clone. Tout d’abord, nous ´étudions l’obtention de l’architecture de modèles quantifiés dans un contexte boîte noire restrictif. Ces ´évaluations ont été réalisées en ne s’appuyant que sur des analyses simples de reconnaissance de motifs observés au niveau des ´émanations ´électromagnétiques du circuit. Ensuite, nous nous concentrons sur l’extraction des paramètres d’un modèle de DL implémenté sur un mmicrocontrôleur32 bits (Cortex-M7). En s’appuyant sur une méthode d’extraction itérative, nous mettons en ´évidence plusieurs défis liés à l’extraction complète d’un modèle par analyse side channel. A partir de ces résultats, nous considérons différentes contre-mesures visant à renforcer la confidentialité des modèles embarqués.
Bio :
Ingénieur de Grenoble-INP - UGA, j’ai récemment soutenu ma thèse au sein de l’équipe commune du CEA Leti et Mines Saint-Étienne du département Systèmes et Architectures Sécurisées (SAS) localisé à Gardanne (13). Cette étude portait sur les menaces que représentent les analyses side channel pour la confidentialité de réseaux de neurones profonds embarqués sur microcontrôleurs, et le développement de contremesures adaptées à ces menaces.
Cordialement,
Ghada Gharbi
________________________________________________________________________________
Microsoft Teams Besoin d'aide ?<https://aka.ms/JoinTeamsMeeting?omkt=fr-FR>
Rejoindre la réunion maintenant<https://teams.microsoft.com/l/meetup-join/19%3ameeting_Zjk0Y2ZhMGUtYTE2ZC00…>
ID de réunion : 336 164 718 883
Code secret : bJvW8E
________________________________
Pour les organisateurs : Options de réunion<https://teams.microsoft.com/meetingOptions/?organizerId=9a220f60-43fb-406a-…> | Réinitialiser le code confidentiel de participation<https://dialin.teams.microsoft.com/usp/pstnconferencing>
________________________________________________________________________________
______________________
Doctorants mailing list -- doctorants(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/doctorants.ml.lre.epita.fr//
______________________
Docs mailing list -- docs(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/docs.ml.lre.epita.fr//
______________________
Docs.strasbourg mailing list -- docs.strasbourg(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/docs.strasbourg.ml.lre.epita.fr…
Title: Topology-based Explanations for Neural Networks
Abstract:
The seminar will be a summary of the research activities conducted on the topic of Explainable AI. The first part of the talk will be about the development of Self-Explainable Graph Neural Networks. Successively, the discussion will shift towards providing logic explanations for neural networks' predictions. Finally, different applications will be presented, spanning NLP, Drug Discovery and Reinforcement Learning.
BIO:
Alessio Ragno is a Ph.D. student in Artificial Intelligence at Sapienza University of Rome, supervised by Professor Roberto Capobianco. With a passion for applying AI to various scientific realms, Alessio focuses on Explainable AI (XAI) to enhance understanding and usability.
His research involves creating topology-based XAI methods tailored to specific AI models, aiming to make neural network predictions more interpretable. Prior to his Ph.D., Alessio earned Master's and Bachelor's degrees in AI & Robotics and Computer and Control Engineering, respectively.
Alessio gained practical experience in AI's application to chemistry and drug discovery during his time at the University of North Carolina and collaborations with Sapienza University of Rome's Pharmaceutical Chemistry and Technology Department. His dedication lies in making AI more accessible and transparent for meaningful scientific advancements.
________________________________________________________________________________
Microsoft Teams Besoin d'aide ?<https://aka.ms/JoinTeamsMeeting?omkt=fr-FR>
Rejoindre la réunion maintenant<https://teams.microsoft.com/l/meetup-join/19%3ameeting_NGE3ODZiMmMtZDY2MS00…>
ID de réunion : 316 761 014 068
Code secret : GvFQ64
________________________________
Appel par téléphone
+33 1 73 44 50 21,,721133954#<tel:+33173445021,,721133954#> France, Paris
Trouver un numéro local<https://dialin.teams.microsoft.com/b1f8449c-d1c4-451a-9b29-7e5316542160?id=…>
ID de la conférence téléphonique : 721 133 954#
Pour les organisateurs : Options de réunion<https://teams.microsoft.com/meetingOptions/?organizerId=63181773-1d26-4dee-…> | Réinitialiser le code confidentiel de participation<https://dialin.teams.microsoft.com/usp/pstnconferencing>
________________________________________________________________________________
______________________
Current mailing list -- current(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/current.ml.lre.epita.fr//
______________________
Doctorants mailing list -- doctorants(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/doctorants.ml.lre.epita.fr//
______________________
Docs mailing list -- docs(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/docs.ml.lre.epita.fr//
______________________
Docs.strasbourg mailing list -- docs.strasbourg(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/docs.strasbourg.ml.lre.epita.fr…
Bonjour à tous,
Je vous annonce que le prochain séminaire de l'axe ML sera donné par Alessio Ragno (https://alessio.ragno.info/), doctorant en visite à Epita (Lyon)
Ci-dessous, le titre et l'abstract du talk.
Merci de bien vouloir remplir le framadate suivant : https://framadate.org/SL6e6uySXrMDrSv6
Au plus tard le vendredi 22 mars, afin de fixer rapidement un créneau pour la semaine prochaine
Bonne fin de journée,
----------------------------------------------------------------------------------------------------------------------------------------
Title: Topology-based Explanations for Neural Networks
Abstract:
The seminar will be a summary of the research activities conducted on the topic of Explainable AI. The first part of the talk will be about the development of Self-Explainable Graph Neural Networks. Successively, the discussion will shift towards providing logic explanations for neural networks' predictions. Finally, different applications will be presented, spanning NLP, Drug Discovery and Reinforcement Learning.
BIO:
Alessio Ragno is a Ph.D. student in Artificial Intelligence at Sapienza University of Rome, supervised by Professor Roberto Capobianco. With a passion for applying AI to various scientific realms, Alessio focuses on Explainable AI (XAI) to enhance understanding and usability.
His research involves creating topology-based XAI methods tailored to specific AI models, aiming to make neural network predictions more interpretable. Prior to his Ph.D., Alessio earned Master's and Bachelor's degrees in AI & Robotics and Computer and Control Engineering, respectively.
Alessio gained practical experience in AI's application to chemistry and drug discovery during his time at the University of North Carolina and collaborations with Sapienza University of Rome's Pharmaceutical Chemistry and Technology Department. His dedication lies in making AI more accessible and transparent for meaningful scientific advancements.
[Une image contenant texte, clipart, signe Description générée automatiquement]
Idir Benouaret
Enseignant-Chercheur
[https://lh6.googleusercontent.com/dCYVl9pmYNgg1wBndkYtELRR9DX8RRY5d_e4N2Xhk…]
[https://lh4.googleusercontent.com/O8lm18dZZ188g_iBNOmO2UX8qPx8zNmCfFbItUDzk…]
[https://lh4.googleusercontent.com/iJejRKKnVTGA2lyz-eMOKQvI9vVP-ftzUIqzCoeoR…]
[https://lh6.googleusercontent.com/J3eMugeLIjhhZigE4aw44kR3o5SCCOf3J7YJfPDTC…]
[https://lh3.googleusercontent.com/2nPXgKhjFiG8S9uTa2TTXP1-CcUjZnjdJ5CVAd3_f…]
[Une image contenant texte, clipart Description générée automatiquement]
+33 4 28 29 37 63
[https://lh6.googleusercontent.com/hGLtorzP2LwpWN7a7qPxHUf-Ufq7UmoJXpduyzZWG…]
______________________
Current mailing list -- current(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/current.ml.lre.epita.fr//
______________________
Doctorants mailing list -- doctorants(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/doctorants.ml.lre.epita.fr//
______________________
Docs mailing list -- docs(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/docs.ml.lre.epita.fr//
______________________
Docs.strasbourg mailing list -- docs.strasbourg(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/docs.strasbourg.ml.lre.epita.fr…