Les codes cachés de l’IA : les clés d’une IA éthique

Les codes cachés de l’IA : les clés d’une IA éthique

Les organisations déploient l’IA auprès de leurs équipes. Mais acculturent-elles aux biais dans l’IA et à ces impacts ? Peut-on adopter une IA éthique sans comprendre les biais dans l’IA ?

Comme l’IA est intégrée dans des outils de recommandations, de décisions…. qui sont construits par des humain·es avec des objectifs précis, à partir de données, … avec aussi leurs biais.

En effet, les équipes sont formées aux utilisations et aux bénéfices qu’iels peuvent avoir avec l’IA. Mais il est aussi important de les sensibiliser aux biais.

Acculturer ses équipes aux biais dans l’IA : les clés d’une IA éthique ?

Dans le cadre de la Nantes Digital Week et du Salon Data IA, en septembre, nous avons animé l’atelier « Décoder et déconstruire les biais dans l’IA ».

Notons que cet atelier permet d’acculturer les équipes sur les biais algorithmiques dans l’IA qui perpétuent les inégalités, il est adapté de La Fresque du sexisme.

Réussir à décoder et déconstruire les biais dans l’IA avec un atelier

Cet atelier a plusieurs objectifs :
1) Comprendre en quoi l’IA est biaisée à travers des exemples concrets de biais algorithmiques.
2) Prendre conscience de l’impact d’une IA biaisée grâce à des données chiffrées et à l’analyse de cas pratiques.
3) Réfléchir collectivement aux leviers d’action pour promouvoir une IA plus éthique et inclusive.

Cet atelier de 2h30 s’adresse à un public varié (de novices à expert·es) : consultant·es, développeur·euses, data scientists, utilisateurices, chercheureuses…

Une personne qui anime peut encadrer 12 participantes et participants.

Anabelle Pasillas anime l'atelier Décoder et déconstruire les biais dans l'IA.
Des participantes de l'atelier Décoder et déconstruire les biais dans l'IA qui manipulent les cartes de la fresque pour comprendre le développement d'une IA.

De super retour sur l’atelier :

D’ailleurs découvrez le témoignage de Marina Mendoza Vienne sur notre atelier :

« Merci pour cet atelier qui met en lumière les nombreux biais qui peuvent s’immiscer à chaque étape de la création d’une IA. Il est tellement nécessaire de rappeller qu’il y a toujours des humains avec leurs propres biais derrière la conception de chaque algorithme. Et merci pour ton énergie Anabelle ! « .

Cet atelier a été co-conçu avec :
Roxane De Pelet, Spécialisée sur les enjeux d’égalité & co-créatrice de la Fresque du sexisme
Gabriela Del Barco Renard, Inclusion & Equity advocate consultant and facilitator | Responsible and Equitable AI

Et dans le cadre du projet Erasmus + DIVERSIFAIR. Financé par l’Union européenne, avec la contribution de :
Louise Aupetit, Diversifair Project Manager
Steven Vethman, Researcher: Intersectionality, Discrimination and AI

Anabelle Pasillas anime l'atelier Décoder et déconstruire les biais dans l'IA.