Session 1 (Chair Jinfeng Zhong)
9h30 - Louenas Bounia Extension des raisons majoritaires aux forêts aléatoires en classification multi-classe
9h50 - Davide Callegarin, Amel Hidouri and Christophe Nicolle Vers des SNN explicables où chaque neurone compte
10h10 - Boyu Zhu and Romain Giot Dataset Bias Detection for Biometric Verification with the Biometric Confusion Matrix: A Preliminary Experiment on Keystroke Dynamics
Session 2 (Chair Moncef Garouani)
15h - Antonin Poché, Thomas Mullor, Gabriele Sarti, Frédéric Boisnard, Corentin Friedrich, Charlotte Claye, François Hoofd, Raphael Bernas, Céline Hudelot and Fanny Jourdan. Interpreto: An Explainability Library for LLMs
16h - Maëlle Moranges and Thomas Guyet. Amélioration de l'interprétabilité des explications de SHAP grâce à la découverte de sous-groupes
16h30 - Thomas George and Aziz Bacha. Explicabilité des modèles de vision: Attribution aux caractéristiques d'entraînements