Bonjour,
Dans le cadre des séminaires de l'équipe Sécurité /Systèmes, nous écouterons sur Teams
Raphael Joud, Ingénieur de Grenoble-INP - UGA, jeudi 04/04/2024 à 14h30.
Raphael Joud nous parlera de ses travaux sur "Analyses Side Channel contre la
Confidentialité des modèles de Deep Learning Embarqués".
Résumé:
Le déploiement des modèles de Deep Learning (DL) sur des plateformes embarquées prend de
plus en plus d’importance. Ces modèles étant amenés à réaliser des tâches et manipuler des
données parfois sensibles, leur sécurité doit être assurée, notamment dans le cadre des
projets de régulation européens. Cependant, la sécurisation des modèles de DL n’est pas
pensée au moment de leur conception et leurs d´déploiements les exposent aux attaques
physiques en plus des nombreuses attaques algorithmiques déjà existantes. Cette
présentation se concentre sur les menaces visant la confidentialité des modèles de DL
exploitant les attaques matérielles, plus spécifiquement les analyses side channel. Les
paramètres qui font la spécificité d’un modèle sont ciblés sous l’angle de la fidélité. Ce
type de scénario ne se concentre pas seulement sur la performance du modèle victime, mais
vise à en obtenir un clone. Tout d’abord, nous ´étudions l’obtention de l’architecture de
modèles quantifiés dans un contexte boîte noire restrictif. Ces ´évaluations ont été
réalisées en ne s’appuyant que sur des analyses simples de reconnaissance de motifs
observés au niveau des ´émanations ´électromagnétiques du circuit. Ensuite, nous nous
concentrons sur l’extraction des paramètres d’un modèle de DL implémenté sur un
mmicrocontrôleur32 bits (Cortex-M7). En s’appuyant sur une méthode d’extraction itérative,
nous mettons en ´évidence plusieurs défis liés à l’extraction complète d’un modèle par
analyse side channel. A partir de ces résultats, nous considérons différentes
contre-mesures visant à renforcer la confidentialité des modèles embarqués.
Bio :
Ingénieur de Grenoble-INP - UGA, j’ai récemment soutenu ma thèse au sein de l’équipe
commune du CEA Leti et Mines Saint-Étienne du département Systèmes et Architectures
Sécurisées (SAS) localisé à Gardanne (13). Cette étude portait sur les menaces que
représentent les analyses side channel pour la confidentialité de réseaux de neurones
profonds embarqués sur microcontrôleurs, et le développement de contremesures adaptées à
ces menaces.
Cordialement,
Ghada Gharbi
________________________________________________________________________________
Microsoft Teams Besoin d'aide ?<https://aka.ms/JoinTeamsMeeting?omkt=fr-FR>
Rejoindre la réunion
maintenant<https://teams.microsoft.com/l/meetup-join/19%3ameeting_ODQ5ZG…
ID de réunion : 366 862 938 667
Code secret : v6q2tj
________________________________
Pour les organisateurs : Options de
réunion<https://teams.microsoft.com/meetingOptions/?organizerId=9a220f60…
| Réinitialiser le code confidentiel de
participation<https://dialin.teams.microsoft.com/usp/pstnconferencing>
________________________________________________________________________________
______________________
Doctorants mailing list -- doctorants(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/doctorants.ml.lre.epita.fr//
______________________
Docs mailing list -- docs(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/docs.ml.lre.epita.fr//
______________________
Docs.rennes mailing list -- docs.rennes(a)ml.lre.epita.fr
https://lists.lrde.epita.fr/postorius/lists/docs.rennes.ml.lre.epita.fr//