Les lignes directrices en matière de genre et d'éthique sont essentielles pour éviter des inégalités encore plus marquées entre les hommes et les femmes du fait de l'intelligence artificielle.
En 2020, la Commission européenne a publié un document novateur intitulé « Concernant l'intelligence artificielle : une approche européenne de l'excellence et de la confiance » (https://apo-opa.info/3YEmrOo).
Elle a certes suscité des débats concernant la réglementation, la technologie et la concurrence, cependant un aspect crucial est passé largement inaperçu : la nécessité urgente d'empêcher l'IA de perpétuer des discriminations interdites. Trois ans plus tard, avec l'essor de ChatGPT et l'augmentation des investissements dans l'intelligence artificielle générale (IAG), il devient évident que les préjugés sexistes dans l'IA requièrent notre attention immédiate, déclare Anna Collard, Vice-présidente en stratégie de contenu et conseillère auprès de KnowBe4 AFRIQUE (https://www.KnowBe4.com).
« À mesure que l'IA s'infiltre dans tous les aspects des activités commerciales et de la société, nous ne pouvons pas nous permettre d'ignorer le débat concernant l'égalité des genres. Si nous nous abstenons d'aborder cette question, nous risquons d'ancrer la discrimination et les préjugés dans nos systèmes », déclare-t-elle. « Pour y parvenir, il nous faut procéder à un examen approfondi des fondements du développement de l'IA, des données sur lesquelles elle repose et de la manière dont nous identifions et combattons les préjugés au sein de son code. »
La question a également été soulevée (https://apo-opa.info/3YIT1OX) par Gabriela Ramos, sous-directrice générale des sciences sociales et humaines à l'UNESCO, lors du Forum économique mondial (FEM). Mme Ramos met en évidence une préoccupation majeure : l'exclusion des femmes à chaque étape du cycle de vie de l'IA, source d'un fossé entre les genres entraînant un risque significatif, à savoir la création d'un système économique et technologique immensément inéquitable à l'ère d’une numérisation accélérée. Les statistiques relatives à cette question sont alarmantes : les hommes diplômés en TIC sont plus nombreux que les femmes de 400 % (https://apo-opa.info/3sbrkST), les femmes représentent seulement environ 33 % (https://apo-opa.info/45a6LVq) de la main-d'œuvre des grandes entreprises technologiques mondiales, seulement 22 % (https://apo-opa.info/3seSlox) des femmes exercent une profession dans le domaine de l'IA, les femmes auteurs contribuent à seulement 14 % (https://apo-opa.info/3saETBU) des articles de recherche concernant l'IA, et les entreprises dirigées par des femmes reçoivent un maigre 2 % (https://apo-opa.info/3KHdbDi) du financement en capital-risque. Ces chiffres soulignent l'urgence d'agir pour lutter contre les préjugés sexistes dans l'IA et promouvoir l'inclusion et la diversité dans ce secteur.
La présence de préjugés sexistes ressurgit clairement dans les statistiques et suscite des inquiétudes légitimes quant à leur répercussion potentielle dans les systèmes d'IA. Nous devons reconnaître l'existence de ces préjugés, le risque significatif lié à la perpétuation de ces pratiques, et unir nos efforts afin d'y remédier et de les limiter. En favorisant la sensibilisation, la collaboration et les mesures proactives, nous pouvons œuvrer à la création d'un paysage de l'IA plus équitable et plus inclusif au bénéfice de tous.
En favorisant la sensibilisation, la collaboration et mesures proactives, nous pouvons œuvrer à la création d'un paysage de l'IA plus équitable et plus inclusif au bénéfice de tous
« Cela suscite des inquiétudes légitimes quant au risque de voir ce préjugé influencer l'intelligence artificielle. », déclare Mme Collard. « Il est essentiel de reconnaître l'existence de ces préjugés, le risque significatif lié à la perpétuation de ces pratiques discriminatoires, et nous unir afin d'y remédier et de les limiter. »
Plusieurs femmes ont déjà tiré la sonnette d'alarme dans ce domaine. Dans un article (https://apo-opa.info/47AR3Ea) publié dans la revue Gender, Technology and Development, Subadra Panchanadeswaran, professeure à l'école de travail social de l'université Adelphi, et Ardra Manasi du Centre for Women's Global Leadership de l'université Rutgers, ont fait part de leurs préoccupations concernant les préjugés sexistes dans l'IA. Elles ont souligné la nécessité d'établir des cadres éthiques et d'inclure l'égalité entre les genres dans le développement de l'IA, des politiques gouvernementales et des approches globales de l'égalité.
Anu Madgavkar, dans une analyse de McKinsey (https://apo-opa.info/3OAu9nS), partage un sentiment similaire. Elle souligne la nécessité d'aller au-delà du simple codage de l'IA et des données acquises par cette dernière. Il est primordial d'examiner l'impact de cette technologie sur la vie, l'emploi et la carrière des femmes. Mme Madgavkar insiste sur l'importance pour les femmes, comme pour d'autres groupes, de s'adapter et d’apprendre à utiliser ces technologies. En effet, selon les estimations, 160 millions de femmes devront opérer des transitions professionnelles en raison de l'IA.
« L'IA présente le potentiel de révolutionner diverses industries et d'améliorer nos vies de multiples façons », déclare Mme Collard. « Toutefois, il est essentiel de s'attaquer aux nombreux risques associés à l'IA, tels que les préjugés sexistes et raciaux. Conscients de ces préoccupations, nous pouvons œuvrer à la conception de systèmes d'IA brisant les normes de genre et encourageant la diversité et l'inclusion. » L'un des objectifs fondamentaux est de veiller à ce que les algorithmes d'IA soient exempts de préjugés et favorisent la diversité, selon Mme Collard.
Il représente le fervent espoir de la plupart des chercheurs et des analystes qui se tournent vers l'avenir. L'IA détient le potentiel de combler le fossé entre les genres et instaurer l'égalité si longtemps insaisissable. Toutefois, ceci nécessite des efforts conscients pour éliminer les préjugés dans la collecte des données et une plus grande diversité dans les domaines de la technologie et du développement de l'IA, la résolution de ce problème restant une priorité au sein du développement dans son ensemble.
Dans son livre « Femmes invisibles : comment le manque de données sur les femmes dessine un monde fait pour les hommes », l'auteure Caroline Criado Perez décrit les effets néfastes des préjugés sexistes sur les femmes dans la collecte de données massives (big data).
« Comme le décrit le livre de Mme Perez, il existe une statistique alarmante selon laquelle les femmes sont 47 % plus exposées (https://apo-opa.info/3E2DGPy) à des blessures graves dans le même accident de voiture que les hommes, uniquement en raison de la conception des ceintures de sécurité basée sur des données centrées sur l'homme. Imaginez maintenant que l'IA reproduise ces préjugés à différents niveaux de la société et de l'entreprise, les implications en deviennent dès lors très réelles », conclut Mme Collard.
Distribué par APO Group pour KnowBe4.