FemmesTechIA

8 mars : et si on parlait de celles qui ont inventé l'informatique ?

L'informatique a été fondée par des femmes. Alors pourquoi sont-elles si peu aujourd'hui dans ce secteur ? Un regard personnel sur l'histoire, les biais algorithmiques, ce qu'on fait pour les corriger, et les raisons d'espérer.

8 mars 2026
Benoit Maret
7 min de lecture

En ce 8 mars, Journée internationale des droits des femmes, c'est le moment idéal pour se demander pourquoi l' informatique — un secteur pourtant lancé par des femmes — est devenu un monde si masculin.

Mon propre parcours parle de lui-même : quand j'étais en école d'ingénieur, il n'y avait pas une seule femme dans ma promotion. Et ce n'est pas un cas isolé ! Pourtant, en 1978, 50 % des étudiant·es en informatique en France étaient des femmes. Aujourd'hui, elles ne sont plus qu'entre 10 et 15 %.

Comment en est-on arrivé là ?


Quand coder était "un truc de femmes"

C'est fou de se dire qu'au début, la programmation était vue comme une tâche féminine, presque domestique. On la comparait souvent au tricot ou à la cuisine : il suffisait de "suivre la recette".

C'est dans cet esprit qu'Ada Lovelace a écrit le tout premier algorithme au XIXe siècle. C'est aussi dans cet esprit que six mathématiciennes — les « ENIAC girls » — ont programmé l'un des premiers ordinateurs au monde. Pourtant, lors de la présentation officielle de la machine en 1946, elles n'ont même pas été créditées. Elles n'ont pas été invitées au dîner de gala.

Le "divorce" des années 80

Tout a basculé avec l'arrivée de l'ordinateur personnel. Le marketing a alors tout misé sur les garçons : des publicités montraient l'ordinateur dans la chambre du fils, les filles absentes du cadre. C'est là qu'est née la culture Bro (ou Brogrammer) — un univers de geeks qui peut être profondément sexiste, et dont l'écho se fait encore sentir : aujourd'hui, 62 % des lycéennes pensent qu'il est difficile pour une fille d'intégrer une école d'informatique à cause de cette ambiance.

Des machines qui apprennent à être sexistes

Le problème continue, et il prend une forme nouvelle avec l'intelligence artificielle. Comme 90 % des développeurs sont des hommes, les outils qu'ils créent ne sont pas neutres — même quand personne ne le fait intentionnellement.

Quelques exemples concrets :

  • Une étude a montré que l'IA génère trois fois plus d'hommes que de femmes dans ses images, et associe systématiquement ces dernières à des métiers moins bien payés.
  • Sur Facebook, des algorithmes montrent les offres d'emploi de chauffeurs de camion en priorité aux hommes.
  • Aux Pays-Bas, un logiciel d'aide sociale a injustement ciblé des mères célibataires comme fraudeuses potentielles.

Le vrai danger, c'est l'effet boule de neige. L'IA apprend sur des données issues de notre société — qui est déjà traversée par des inégalités. Si on ne corrige pas ces données à la source, la machine ne fait pas que reproduire nos vieux préjugés : elle les amplifie et les grave dans le futur.

Harcèlement et exclusion

Et ce n'est pas seulement une question d'algorithmes. Il y a aussi la violence qui se passe derrière les écrans — et parfois bien en face.

Deux affaires ont particulièrement marqué l'industrie tech ces dernières années. En 2021, l'État de Californie a attaqué en justice Activision Blizzard — le studio derrière Call of Duty et World of Warcraft — pour discrimination et harcèlement sexuel systémique. La plainte décrit un "boys club" où les femmes, qui représentaient à peine 20 % des effectifs, subissaient des comportements humiliants au quotidien, des inégalités salariales flagrantes, et une hiérarchie qui fermait les yeux. Plus de 500 signalements ont été recensés. L'affaire s'est conclue en 2024 par un accord de 55 millions de dollars — sans que la partie harcèlement ne soit jamais jugée sur le fond.

En France, c'est Ubisoft qui a été ébranlé par une vague de témoignages à l'été 2020, révélant une culture toxique installée depuis des années : agressions sexuelles, insultes dégradantes, RH qui protégeaient les harceleurs plutôt que les victimes. Le syndicat Solidaires Informatique a porté plainte pour "harcèlement sexuel institutionnel", avec une formule glaçante : l'entreprise aurait jugé "plus profitable de maintenir des harceleurs en place que de protéger ses employés". Trois anciens hauts cadres ont été renvoyés devant le tribunal correctionnel de Bobigny — le procès était prévu en mars 2025.

Ces affaires ne sont pas des exceptions. Elles sont le symptôme d'une industrie qui, faute de diversité, a laissé prospérer une culture où les femmes n'étaient pas les bienvenues. À cela s'ajoute la violence numérique plus diffuse : près des trois quarts des femmes dans le monde ont subi une forme de cyber-violence, ce qui pousse beaucoup d'entre elles à l'autocensure, voire à quitter carrément le secteur.

Le tableau est sombre. Mais il n'est pas figé.

Alors, est-ce qu'on fait quelque chose ?

La bonne nouvelle, c'est que oui — et pas seulement sur le papier.

Du côté de la loi, l'Europe a pris une longueur d'avance avec l'AI Act, entré en vigueur début 2025. Les discriminations basées sur des attributs sensibles — race, genre, opinions politiques — via des données biométriques sont désormais explicitement interdites. Pour les systèmes à haut risque (recrutement, crédit, aide sociale...), les entreprises ont l'obligation d'auditer leurs données d'entraînement pour détecter les biais, et d'informer leurs utilisateurs des limites de l'algorithme. Les sanctions peuvent grimper jusqu'à 35 millions d'euros. Le texte sera pleinement applicable en 2026, on est donc encore en phase de rodage — mais c'est un signal fort.

Du côté technique, les chercheurs ne restent pas les bras croisés non plus. Plusieurs approches coexistent :

  • Le débiaisage des données : avant même d'entraîner un modèle, on analyse la provenance des données, on vérifie si elles sont équilibrées, et on pondère les groupes sous-représentés. Simple en théorie, complexe en pratique.
  • Les algorithmes "fairness-aware" : des chercheurs d'Inria ont par exemple développé FairGrad, un algorithme qui augmente dynamiquement le poids des données des groupes désavantagés. Le modèle est légèrement moins performant au sens statistique — mais beaucoup plus juste.
  • Les outils d'audit : IBM (AI Fairness 360) et Google (What-If Tool) proposent des outils permettant de visualiser l'impact des décisions algorithmiques et de tester différents scénarios d'équité.
  • L'explicabilité : rendre l'IA compréhensible par un humain — un médecin, un recruteur — pour qu'il puisse repérer et contester une décision biaisée.

Il faut néanmoins rester honnête sur les limites. Supprimer la variable "genre" d'un jeu de données ne suffit pas : d'autres variables corrélées — les études, la localisation, les loisirs — peuvent reconstituer le biais de manière invisible. Et certains préjugés ne viennent pas des données elles-mêmes, mais de la façon dont les développeurs formulent le problème, choisissent les objectifs à optimiser, perçoivent le monde.

Ce qui ramène, inévitablement, à la question du départ : si les équipes qui conçoivent ces systèmes sont homogènes, les angles morts le seront aussi.

Des raisons d'espérer

Heureusement, les choses bougent aussi sur le terrain. Plus de 700 start-ups ont signé le Pacte Parité, avec l'objectif d'atteindre 40 % de femmes dans leurs directions d'ici 2028. L'objectif national est aussi de doubler la part des filles dans les filières scientifiques, pour passer de 25 % à 40 %.

L'informatique ne doit plus être un club fermé. Il faut créer des espaces — des hackerspaces féministes, des communautés bienveillantes — où l'on réapprend à utiliser la technologie pour ses propres besoins, sans avoir à se battre pour sa place.

La technologie appartient à tout le monde. Il est plus que temps que nos promotions d'ingénieurs le reflètent.


Sources

Articles