• Actualités
Publié le

L’IA et les femmes : « ne laissons pas les inégalités d’hier coder le monde de demain »

Dans cette page :


L’intelligence artificielle (IA) n’est plus une promesse futuriste ; elle est devenue une technologie qui transforme en profondeur nos sociétés. De la manière dont nous travaillons à celle dont nous apprenons, recrutons, accédons au crédit ou recevons des soins, les algorithmes façonnent désormais les trajectoires individuelles et collectives. Cependant, derrière cette avancée technologique se cache une réalité sociétale préoccupante : l’IA est loin d’être un outil neutre. Au contraire, elle reflète, et parfois renforce, des biais sociaux et historiques qui traversent nos civilisations, particulièrement en ce qui concerne les inégalités de genre. Pour Genane Youness, l’enjeu de cette transformation dépasse le simple cadre technique pour devenir un impératif de justice sociale, de rigueur scientifique et d’innovation durable.

Un miroir déformant de nos inégalités

30%

des professionnels du secteur de l’Intelligence Artificielle sont des femmes.*

*Représentation des femmes dans l’IA selon l’UNESCO.

Il existe un mythe tenace selon lequel les algorithmes seraient intrinsèquement objectifs. En réalité, les systèmes d’intelligence artificielle « apprennent » à partir de données massives produites par nos sociétés. Ces données ne sont pas neutres ; elles racontent l’histoire de nos organisations, de nos pratiques professionnelles et, inévitablement, de nos disparités persistantes.

Cette situation est d’autant plus complexe que le secteur de l’IA manque lui-même de mixité. Selon les chiffres de l’UNESCO, les femmes ne représentent qu’environ 30 % des professionnels du secteur et moins de 20 % des chercheurs.* Cette sous-représentation n’est pas sans conséquence : elle influence indirectement la conception même des systèmes. Pour autant, le problème ne réside pas uniquement dans l’intention des concepteurs. Les biais se nichent prioritairement dans les données d’entraînement. Si un système est nourri par des archives historiques où certains métiers étaient exclusivement masculins, il apprendra mécaniquement à reproduire cette exclusion, transformant une tendance passée en une règle de sélection pour l’avenir.

*Source : International Women’s Day: New factsheet highlights gender disparities in innovation and technology

Des exemples concrets de défaillances algorithmiques

Système d’IA lié à un cloud de plateformes de services, finance, sécurité, mobile.

L’histoire récente de la tech fourmille d’exemples illustrant ce risque de cristallisation des préjugés. Le cas le plus emblématique reste celui de l’algorithme de recrutement d’Amazon, qui a dû être abandonné en 2017 après avoir pénalisé systématiquement les candidatures féminines. Le modèle, entraîné sur une décennie de CV majoritairement masculins, avait conclu que le profil idéal était, par définition, un homme.

D’autres recherches ont mis en lumière des écarts de performance inacceptables dans des outils du quotidien. Des systèmes de reconnaissance faciale présentent des taux d’erreur plus élevés pour les femmes ou les personnes à la peau foncée.* Dans le domaine de la justice, des outils d’évaluation du risque ont également montré des signes de partialité. Même nos assistants vocaux participent à cette construction sociale : en étant configurés par défaut avec des voix féminines pour des tâches de service ou d’assistance, ils renforcent inconsciemment les stéréotypes de genre traditionnels.

*Source : Gender Shades: Intersectional Accuracy Disparities in Commercial Gender Classification

Le danger de la normalisation par les données

Le risque majeur est de voir l’IA prolonger indéfiniment des inégalités que nous tentons pourtant de combattre. En France, les données de l’INSEE rappellent que les femmes gagnent encore, en moyenne, 15 % de moins que les hommes à temps de travail équivalent.* Si un système d’IA intègre ces écarts comme des régularités statistiques sans les questionner, il risque de les valider et de les normaliser à une échelle industrielle. L’IA ne se contente pas d’observer le monde : elle peut contribuer à le figer. Il est donc crucial de rappeler qu’une réalité statistique passée n’est pas nécessairement une norme acceptable pour notre futur.

*Source : Écart de salaire entre femmes et hommes en 2024

IA et emploi : anticiper un impact genré

Briser le plafond de verre entre les femmes et l’IA

Sans une intervention volontariste, les bénéfices économiques et stratégiques de l’IA risquent de creuser davantage le fossé entre les genres.

La révolution de l’IA transforme radicalement le marché du travail, mais cet impact n’est pas réparti équitablement. Des études de l’OCDE et de McKinsey tirent la sonnette d’alarme : les postes administratifs ou d’assistanat, aujourd’hui majoritairement occupés par des femmes, sont les plus exposés au risque d’automatisation.*

À l’inverse, les métiers dits « de demain », data science, cybersécurité, développement d’IA, restent des bastions masculins. Sans une intervention volontariste, les bénéfices économiques et stratégiques de l’IA risquent de creuser davantage le fossé entre les genres. Il est impératif d’accompagner la reconversion des femmes et de briser le plafond de verre qui les éloigne encore trop souvent des carrières technologiques.

*Source : Les effets de l’IA sur la vie professionnelle des femmes

L’équité algorithmique : un défi scientifique et technique

Face à ces dérives, un nouveau domaine de recherche a émergé depuis le milieu des années 2010 : l’équité algorithmique. Ce domaine montre que les biais peuvent s’infiltrer à chaque étape du processus : dans le choix des variables (genre, âge, origine), dans la modélisation mathématique ou encore dans les critères d’évaluation de la performance. L’enjeu scientifique est de taille car, comme l’ont prouvé les chercheurs, certaines définitions mathématiques de l’équité sont techniquement incompatibles entre elles.

C’est sur ce terrain complexe que travaille l’unité de recherche CESI LINEACT. Les chercheurs y développent des métriques spécifiques pour détecter les biais, notamment dans les processus d’embauche. L’objectif est double : comprendre comment l’injustice émerge dans les décisions automatisées et fournir des outils pour mesurer ces phénomènes de manière cohérente et transparente.

Vers une IA de confiance : régulation et éducation

Genane Youness, enseignante-chercheuse à CESI école d’ingénieurs

Pour éviter que l’IA ne devienne une « boîte noire » impénétrable, l’Europe se dote de nouveaux outils. L’AI Act européen impose désormais une exigence de transparence, d’explicabilité et d’audibilité. Il ne s’agit plus seulement de créer des systèmes performants, mais de pouvoir rendre compte de la manière dont les décisions sont produites.

Toutefois, la régulation ne suffit pas sans un volet éducatif massif. C’est l’ambition du projet national CAIRE (Citizen-oriented Artificial Intelligence training for a Responsible Education), qui vise à former plus de 28 000 citoyens et professionnels. Genane Youness, enseignante-chercheuse à CESI école d’ingénieurs, y conçoit des ateliers pédagogiques pour rendre accessibles les concepts de biais algorithmiques et de mesures de correction. Former à l’IA ne doit pas se limiter à l’apprentissage du code ; il s’agit avant tout d’apprendre à questionner les effets sociaux des technologies que nous utilisons.

Construire l’avenir avec les femmes

Pour que l’IA reflète enfin la diversité du monde réel, il est indispensable que les femmes s’impliquent massivement dans son développement. Cela nécessite des formations inclusives mais aussi la mise en avant de modèles inspirants et de mentors capables d’accompagner les nouvelles vocations dès le plus jeune âge.

En conclusion, l’équité algorithmique n’est pas une option, mais une nécessité absolue.

L’IA n’est pas condamnée par nature à reproduire le passé ; son orientation dépend de nos choix de conception, de nos cadres réglementaires et de notre éveil collectif face aux biais ancrés dans nos structures sociales.

Genane Youness, enseignante-chercheuse à CESI école d’ingénieurs

En cette Journée internationale des droits des femmes, le message est simple : faisons de l’équité technologique une priorité pour garantir que les algorithmes de demain ne soient pas écrits par les préjugés d’hier.