Les codes cachés de l’IA : les clés d’une IA éthique
Les organisations déploient l’IA auprès de leurs équipes. Mais acculturent-elles aux biais dans l’IA et à ces impacts ? Peut-on adopter une IA éthique sans comprendre les biais dans l’IA ?
Comme l’IA est intégrée dans des outils de recommandations, de décisions…. qui sont construits par des humain·es avec des objectifs précis, à partir de données, … avec aussi leurs biais.
En effet, les équipes sont formées aux utilisations et aux bénéfices qu’iels peuvent avoir avec l’IA. Mais il est aussi important de les sensibiliser aux biais.

Acculturer ses équipes aux biais dans l’IA : les clés d’une IA éthique ?
Dans le cadre de la Nantes Digital Week et du Salon Data IA, en septembre, nous avons animé l’atelier « Décoder et déconstruire les biais dans l’IA ».
Notons que cet atelier permet d’acculturer les équipes sur les biais algorithmiques dans l’IA qui perpétuent les inégalités, il est adapté de La Fresque du sexisme.
Réussir à décoder et déconstruire les biais dans l’IA avec un atelier
Cet atelier a plusieurs objectifs :
1) Comprendre en quoi l’IA est biaisée à travers des exemples concrets de biais algorithmiques.
2) Prendre conscience de l’impact d’une IA biaisée grâce à des données chiffrées et à l’analyse de cas pratiques.
3) Réfléchir collectivement aux leviers d’action pour promouvoir une IA plus éthique et inclusive.
Cet atelier de 2h30 s’adresse à un public varié (de novices à expert·es) : consultant·es, développeur·euses, data scientists, utilisateurices, chercheureuses…
Une personne qui anime peut encadrer 12 participantes et participants.


De super retour sur l’atelier :
D’ailleurs découvrez le témoignage de Marina Mendoza Vienne sur notre atelier :
« Merci pour cet atelier qui met en lumière les nombreux biais qui peuvent s’immiscer à chaque étape de la création d’une IA. Il est tellement nécessaire de rappeller qu’il y a toujours des humains avec leurs propres biais derrière la conception de chaque algorithme. Et merci pour ton énergie Anabelle ! « .
Cet atelier a été co-conçu avec :
– Roxane De Pelet, Spécialisée sur les enjeux d’égalité & co-créatrice de la Fresque du sexisme
– Gabriela Del Barco Renard, Inclusion & Equity advocate consultant and facilitator | Responsible and Equitable AI
Et dans le cadre du projet Erasmus + DIVERSIFAIR. Financé par l’Union européenne, avec la contribution de :
– Louise Aupetit, Diversifair Project Manager
– Steven Vethman, Researcher: Intersectionality, Discrimination and AI

