Publié le 23/12/2024

Mise à jour le 22/08/2025

Siba Haidar, enseignante-chercheuse à l’ESIEA, co-signe une étude internationale sur l’IA et les biais

Siba Haidar, enseignante-chercheuse à l’ESIEA, co-signe une étude internationale sur l’IA et les biais

L’ESIEA contribue à la recherche sur une IA plus éthique

L’ESIEA, école d’ingénieurs spécialisée en sciences et technologies du numérique, se distingue une nouvelle fois grâce à l’expertise de ses enseignants-chercheurs. Siba Haidar, PhD, enseignante-chercheuse en informatique, a récemment co-signé un article scientifique publié dans le Journal of Computer Science and Technology (vol. 39, n° 5, septembre 2024). Cette étude s’intéresse à un enjeu crucial : comment concevoir une intelligence artificielle (IA) capable d’être performante tout en réduisant les biais discriminatoires, notamment sexistes et raciaux. Une thématique essentielle à l’heure où les technologies prennent une place croissante dans notre quotidien.

Comprendre l’impact des biais en IA

Les IA peuvent reproduire, voire amplifier, les inégalités présentes dans les données sur lesquelles elles s’entraînent. Les biais sexistes et raciaux sont particulièrement préoccupants : recommandations inéquitables, reconnaissance faciale moins précise pour certaines populations, stéréotypes intégrés dans les systèmes. Dans ce contexte, les travaux de Siba Haidar et de ses collègues apportent des éléments de réponse en explorant une approche innovante : l’apprentissage fédéré. Cette méthode d’entraînement décentralisée permet de travailler sur plusieurs ensembles de données sans les centraliser, limitant ainsi le risque d’exposition et de manipulation des informations sensibles.

Un sujet d’étude appliqué à la vidéosurveillance

L’article, intitulé Balancing Accuracy and Training Time in Federated Learning for Violence Detection in Surveillance Videos, met en lumière un cas d’usage concret : la détection d’actes violents dans des vidéos de surveillance. Bien que technique, ce sujet touche directement des questions sociétales et éthiques. Comment garantir la performance d’un système d’IA sans renforcer les préjugés ou stigmatiser certaines populations ? Comment associer rapidité d’analyse, respect de la vie privée et équité ?

Une innovation technique : l’architecture Diff Gated

Pour répondre à ces défis, l’équipe a conçu une architecture innovante appelée Diff Gated. Cette solution optimise la détection d’événements violents tout en réduisant le temps d’entraînement. Elle intègre des techniques avancées telles que la super-convergence et le transfert d’apprentissage, permettant d’obtenir des résultats probants en termes de précision et d’efficacité. L’article met également en avant l’intérêt de convertir des bases de données centralisées en données compatibles avec l’apprentissage fédéré, garantissant une meilleure confidentialité.

Des résultats prometteurs

Les travaux montrent que cette nouvelle approche permet d’obtenir des performances supérieures aux méthodes classiques. Sans dévoiler l’ensemble des résultats, l’étude démontre qu’il est possible de concilier performance technique et enjeux éthiques. Les résultats obtenus ouvrent la voie à des applications variées, allant bien au-delà de la vidéosurveillance : santé, finance, éducation… autant de secteurs où la lutte contre les biais est primordiale.

L’ESIEA, une école tournée vers l’avenir

Cette publication illustre l’importance que l’ESIEA accorde à la recherche appliquée et à la formation par l’innovation. Les étudiants bénéficient d’un enseignement enrichi par des enseignants-chercheurs impliqués dans des projets de pointe. L’ESIEA offre ainsi un cadre idéal pour celles et ceux qui souhaitent allier expertise technique, sens éthique et engagement sociétal.