4 August, 2020
HomeJe m'informeCultureL’Intelligence Artificielle se mêle de vos décisions et de vos choix

L’Intelligence Artificielle se mêle de vos décisions et de vos choix

Un pacte pour une intelligence artificielle non sexiste

Début juin, le Laboratoire de l’égalité a produit un Pacte « Pour une intelligence artificielle égalitaire »[1]. Si ce Pacte interpelle le monde professionnel du numérique, il le fait au nom de tous les usagères et usagers de l’IA, c’est-à-dire nous toutes et tous car l’IA se mêle de nos décisions et de nos choix.

Tout d’abord, il faut se débarrasser de quelques fantasmes : l’intelligence artificielle dont on parle, appelée aussi « IA faible » n’a pas grand-chose en commun avec Terminator. Quand Alphago de Google bat le champion du monde de Go, en 2017, il n’est pas intelligent. Il est peut-être extraordinaire au Go, mais il est incapable de tenir une conversation intéressante avec un enfant de 10 ans. En revanche, ces algorithmes, même s’ils n’ont pas d’intentionnalité, produisent des résultats qui influencent nos choix ou notre rapport au monde numérique et façonnent la société numérique de demain.

Prenons un exemple très commun d’IA faible : les GPS. L’importance de la reconnaissance vocale semblait dans ce cas évidente : pas question de taper sur un clavier pendant que l’on conduit. Les premiers GPS à reconnaissance vocale comprenaient les voix d’homme mieux que les voix de femmes, même quand ils parlaient depuis la place passager. Ce n’est pas parce que les voix d’hommes sont plus simples à comprendre, mais parce que l’apprentissage vocal était fait par une équipe de développement largement composée d’hommes, à l’image des métiers du numérique (c’est-à-dire au moins à 85%).

Ce phénomène a fini par générer un sentiment d’impuissance chez les femmes qui se découvraient en difficulté pour interagir avec cette nouvelle technologie. Combien de fois ont-elles eu envie de dire : « ça ne marche pas avec moi » … ce qui était littéralement vrai, mais l’incompétence n’était pas du côté de l’utilisatrice.

Ce problème de reconnaissance vocale a été très simplement résolu. Les IA sont maintenant entrainées avec des voix d’hommes et de femmes, mais aussi avec d’autres accents que l’accent parisien… Or, si dès le départ, l’équipe de développement avait été plus mixte, on aurait tout de suite constaté que le produit avait des difficultés récurrentes pour interagir avec la moitié de l’humanité…

Malheureusement, les solutions ne sont pas toutes aussi simples. Anja Lambrecht et Catherine Tucker[2] ont mené une étude sur le ciblage publicitaire des réseaux sociaux. Elles ont fabriqué une offre d’emploi fictive sans aucun critère qualifiant le sexe de la personne recherchée. À la fin de la campagne, les hommes ont été 20% plus nombreux à voir l’annonce que les femmes. L’algorithme a-t-il supposé que les hommes seraient plus intéressés que les femmes par des annonces d’emploi ? La raison est plus compliquée.

Une publicité envoyée vers un homme coûte moins cher que la même publicité adressée à une femme, car les femmes sont jugées plus susceptibles d’acheter : elles représentent 67% du nombre des achats sur les plateformes d’e-commerce. Donc, pour maximiser le nombre de personnes contactées à un moindre coût, il vaut mieux privilégier les hommes… une sorte de taxe rose à l’envers… Là où le procédé est absurde, c’est que l’algorithme ne prend en compte que la fréquence d’achat et non le montant des achats. Pourtant, les hommes dépensent en moyenne 28% plus que les femmes sur Internet. Par ailleurs, l’algorithme oublie également que les femmes achètent souvent pour toute la famille, alors que les hommes achètent le plus souvent pour eux. Aucune intentionnalité sexiste n’est tapie derrière ces exemples qui ne sont qu’une minuscule partie de l’iceberg des biais de l’IA. C’est pour que de telles erreurs ne soient plus commises que ce pacte existe : insistant autant sur l’importance de la mixité dans les métiers du numérique que sur l’équité et la transparence des algorithmes.

Isabelle Collet, professeure à l’université de Genève


[1] https://www.laboratoiredelegalite.org/le-pacte-pour-une-intelligence-artificielle-egalitaire-entre-les-femmes-et-les-hommes/

[2] Lambrecht, A. & Tucker, C. (2018)., Algorithmic Bias? An Empirical Study into Apparent Gender-Based Discrimination in the Display of STEM Career Ads. SSRN. https://ssrn.com/abstract=2852260

Share