Assistants vocaux : le sexisme codé par défaut

La commande vocale – l’une des technologies numériques parmi les plus sophistiquées installées dans des appareils grand public – véhicule clichés et préjugés. Au XXIe siècle, des esprits rétrogrades habitent les enceintes connectées. Une étude de l’Unesco montre que nous sommes encore loin du « gender equality by design » et qu’un revirement des progrès accomplis en faveur de l’égalité des sexes, notamment dans le domaine de l’éducation, est à l’œuvre.

Nous rêvions d’être sur la bonne voie, vers une égalité hommes-femmes qui progresse, lentement mais assurément, à la maison comme au bureau. C’était sans compter sur le numérique et ses outils intelligents qui nous font faire un grand bond en arrière. Pourquoi les enceintes connectées portent-elles toutes un nom de femme ? Pourquoi les assistants vocaux sont-ils réglés par défaut sur une voix féminine ? Parce que le monde de l’IA (Intelligence artificielle) est masculin, certes. Néanmoins, cela montre surtout que les machines programmées pour obéir offrent, non sans succès, l’illusion d’un pouvoir, en référence à celui que les hommes exercent sur les femmes, comme à une autre époque, finalement non révolue.

« Je rougirais si je le pouvais » : telle est la réponse aguicheuse de Siri, l’assistant vocal d’Apple, à une insulte vulgaire et sexiste qui lui était adressée. C’est également le titre qu’ont choisi les auteurs d’une étude publiée par l’Unesco pour l’EQUALS Skills Coalition, composante du programme international EQUALS, qui rassemble gouvernements et organisations afin de promouvoir la parité hommes-femmes dans le secteur des technologies. Ce travail de l’agence onusienne pour l’éducation, la science et la culture affiche le bilan assez sombre d’une persistance des écarts de traitement entre les sexes à l’ère numérique et, cela dans la plupart des régions du monde. En les examinant sous l’angle du genre, ce rapport de l’Unesco jette une lumière particulière sur les assistants vocaux, l’étude montrant comment les inégalités entre les hommes et les femmes dans le secteur du numérique se retrouvent « codées en dur » dans des produits high-tech.

Dès leur lancement, ces services numériques – Siri d’Apple (2011), Alexa d’Amazon (2014), Cortana de Microsoft (2014) et Google Assistant (2016) – ont été présentés comme « des femmes ». Puisqu’ils portent un prénom féminin, Alexa en référence à la bibliothèque d’Alexandrie, Cortana pour l’héroïne du jeu vidéo Halo, Siri qui signifie « belle femme qui vous mène à la victoire » en norrois (ancien scandinave) : ces logiciels ont selon ce critère été dotés d’une voix de femme, installée par défaut. Si l’option d’une voix masculine parfois a été ajoutée plus tard – par Siri en 2013 et par Google Assistant en 2017 –, elle demeure très rarement proposée par défaut ; du reste, cette alternative n’existe pas sur les assistants vocaux de Microsoft et d’Amazon.

Les assistants vocaux des marques moins connues sont eux aussi généralement dotés d’une « identité féminine » Installés sur plus de deux milliards d’appareils connectés à internet dans le monde, y compris des enceintes ad hoc, les assistants vocaux développés par les quatre grands groupes internet représentent ensemble déjà plus de 90 % des principaux marchés en volume comme en fréquence d’utilisation par les consommateurs.

USAGES DES ASSISTANTS VOCAUX EN FRANCE (février 2019)

Près de la moitié (46 %) des internautes ont déjà utilisé un assistant vocal sur un smartphone, un ordinateur, une tablette, une enceinte ou une télévision connectée.

Siri d’Apple est arrivé le premier sur le marché français en 2012, suivi de Google Assistant en 2017 et d’Alexa d’Amazon en 2018. Cortana de Microsoft est lancé en 2014 à destination des entreprises.

Un assistant vocal sur smartphone est principalement utilisé pour rechercher une information sur internet (78 % des utilisateurs) ; pour effectuer un appel vocal (71 %) ; pour dicter un mail ou un SMS (68 %) ; pour trouver une adresse ou un itinéraire (66 %) et pour demander la météo (57 %).

11 % des internautes ont une enceinte Google Home, Amazon Echo ou Apple HomePod. Le taux de pénétration de ces équipements atteint 14 % au Royaume-Uni – taux le plus élevé d’Europe – et 10 % en Allemagne, contre 25 % aux États-Unis.

Les premières enceintes connectées lancées en France furent les Google Home en août 2017 ; les enceintes Amazon Echo et HomePod d’Apple seront commercialisées à partir de juin 2018. Fin 2018, le marché français compte une trentaine de modèles qui intègrent tous les assistants vocaux de Google ou d’Amazon (sauf l’enceinte d’Apple bien sûr). S’ajoute un grand nombre d’appareils connectés généralement équipés eux aussi de Google Assistant ou d’Alexa d’Amazon.

La plupart des internautes équipés d’une enceinte connectée l’ont déjà utilisée pour demander la météo (78 %) ; rechercher une information sur internet (75 %) ; écouter de la musique via des plateformes gratuites (65 %) ; écouter la radio (65 %), tandis qu’un tiers seulement (36 %) s’en servent pour contrôler certains appareils connectés à domicile.

Source : Étude Hadopi/CSA : Assistants vocaux et enceintes connectées, csa.fr, mai 2019.

 

La technologie est en train de changer de paradigme, passant du texte à la voix. Les assistants vocaux gèrent désormais plus d’un milliard de tâches par mois. Tout d’abord accessibles sur smartphone et tablette, les assistants numériques sont intégrés désormais dans tous les équipements de la vie quotidienne, téléviseurs, voitures, thermostats, ampoules électriques et micro-ondes. La voix d’un assistant numérique est prête à guider nos moindres intentions. Plus la technologie à commande vocale deviendra précise, plus se généralisera l’usage de l’internet conversationnel piloté par une machine, qui écoute et parle comme une personne. Et, pourtant, une recherche vocale nécessite 150 fois plus de puissance de calcul et d’espace de stockage qu’une recherche internet classique basée sur du texte. Selon les observateurs du secteur, la planète pourrait compter en 2021 un plus grand nombre d’assistants numériques que d’êtres humains, ces assistants vocaux devenant des interfaces essentielles à nos actions quotidiennes.

Si l’on en croit Google, les assistants vocaux « offrent une nouvelle relation plus humaine avec la technologie ». Ces machines sont intentionnellement humanisées, comme l’explique Jonathan Foster, à la tête de l’équipe d’écriture de Content Intelligence UX chez Microsoft à propos de Cortana, dotée d’une « personnalité » attrayante : « On nous a demandé de créer l’un des personnages les plus singuliers que nous n’ayons jamais rencontrés… Nous avons doté [Cortana] de faux-semblants, d’opinions, de défis, de goûts et de dégoûts, voire de sensibilités et d’espoirs. Des artifices, bien sûr, mais nous approfondissons en sachant que de vraies personnes font appel à ce monde imaginaire et qu’elles veulent des détails et de l’originalité. Elles posent les questions et nous leur donnons des réponses. Certes, la personnalité de Cortana est née d’un concept créatif, [elle est ] telle que nous la souhaitions et telle que nous espérions que les gens la découvrent… Un ensemble de principes est au cœur de notre travail… [Nous…] prenons du recul et réfléchissons à l’impact que nous pourrions avoir sur la culture, sur la conception de la vie privée, sur les habitudes d’interaction humaine et de bienséance sociale, sur les groupes exclus ou marginalisés et sur les états émotionnels. Et sur les enfants. »

De nombreuses études montrent que les voix féminines sont souvent perçues comme serviables, alors que les voix masculines inspirent plutôt l’autorité. Les voix féminines sont donc privilégiées pour les assistants numériques car, comme le souligne Jessi Hempel dans le magazine Wired : « Nous voulons que les appareils numériques nous aident, mais nous voulons aussi en être les maîtres. » Les adjectifs « serviable » et « humble » sont effectivement les plus utilisés pour décrire la « personnalité » des assistants vocaux, deux caractéristiques associées aux stéréotypes féminins, expliquent les auteurs de l’étude.

Lorsqu’un utilisateur demande à un assistant numérique s’il est une femme, seul Alexa répond sans ambiguïté « Je suis un personnage féminin ». La réponse de Siri est « Je suis sans sexe, comme les cactus et certaines espèces de poissons » ou « Je n’ai pas de sexe » ; Google Assistant réplique « Je suis tout compris » (sic) et Cortana, « Eh bien, techniquement, je suis un nuage de données infinitésimales ». Néanmoins, l’obséquiosité « féminine » de Siri et la servilité exprimée en général par ces assistants numériques identifiables à une jeune femme donnent l’impression contraire et elles illustrent parfaitement la dangereuse ambiguïté de ce choix technologique. Ces machines vocales programmées pour avoir réponse à tout accueillent les agressions verbales, y compris le harcèlement sexuel, au mieux avec indifférence, sinon avec un ton séducteur, ou même parfois en s’excusant. Le logiciel d’intelligence artificielle utilisé par Siri, lancé en 2011, n’a été mis à jour qu’en 2019 pour répliquer plus fermement à une insulte par une formule telle que : « Je ne sais pas comment répondre à cela » au lieu de « Je rougirais si je le pouvais ». Si Apple, Amazon, Google et Microsoft ont fini par éliminer certaines réponses au ton bienveillant ou séducteur face au harcèlement sexuel, il n’existe aucune « assistante numérique » qui soit tout simplement programmée pour se défendre verbalement.

Ces assistants numériques à la voix féminine perpétuent ainsi l’idée que les femmes sont serviables, dociles, séductrices, à l’écoute de la moindre injonction de type « Hey » ou « OK », mode de déclenchement usuel d’un assistant vocal, et ils contribuent de cette façon à renforcer ces préjugés sexistes encore largement répandus. En outre, les réponses apportées par les assistants vocaux reflètent et confortent la domination masculine, en faisant des allusions aux films, aux musiques ou aux émissions de télévision ayant du succès auprès des hommes. Les répercussions de ces subjectivités qui assimilent les machines à des femmes, et vice-versa, n’ont pas soulevé de grands mouvements de protestation parmi les utilisateurs.

Il est important de comprendre que ce biais machiste existe car les programmes d’intelligence artificielle sont le fruit d’une vision partiale. Ils reflètent, délibérément ou pas, les savoirs, les intérêts, les expériences de leurs créateurs. Le travail présenté par l’Unesco invite à réfléchir à l’avenir d’un monde qui serait peuplé d’assistants numériques dotés d’une « personnalité féminine » paradoxalement entièrement conçue et développée par des hommes. En effet de nombreuses statistiques démontrent que les inégalités entre les sexes persistent et même se creusent. De nos jours, les femmes et les filles ont 25 % de chances en moins que les hommes de tirer parti, pour l’essentiel, de la technologie numérique ; quatre fois moins de chances de savoir programmer des ordinateurs, et elles sont 13 fois moins susceptibles de déposer un brevet de technologie. Dans les pays du G20, seulement 7 % des brevets TIC sont générés par des femmes et la moyenne mondiale atteint 2 %.

Plus le secteur est à la pointe du progrès, moins le nombre de femmes qui y travaillent est significatif, constate l’Unesco. De nombreuses entreprises qui recrutent des experts en intelligence artificielle et en data indiquent que moins de 1 % des candidatures qu’elles reçoivent proviennent de femmes.

Selon un rapport de la Commission européenne de 2018, le nombre de femmes ayant suivi des études liées aux TIC a diminué dans l’Union européenne depuis 2011, alors même que les perspectives d’emploi dans ce domaine ont considérablement augmenté. Aux États-Unis, le pourcentage de femmes diplômées en informatique et en sciences de l’information a régulièrement diminué au cours des trente dernières années pour atteindre aujourd’hui 18 % à peine, contre 37 % au milieu des années 1980.

La représentativité des sexes au sein de l’effectif de Google est similaire à celle des autres multinationales du secteur de la technologie : les femmes représentent moins d’un tiers de l’effectif total, un quart des postes de direction, un tiers des postes techniques, et seulement 10 % travaillent sur l’intelligence artificielle. Les statistiques 2017 sur la fréquentation des conférences mondiales consacrées à l’apprentissage automatique indiquent que seulement 12 % des chercheurs invités sont des femmes.

Le stéréotype selon lequel la technologie est un domaine masculin entame la confiance des filles dès leur plus jeune âge, expliquent les auteurs de l’étude. Dans les pays de l’OCDE, à l’âge de 15 ans 0,5 % des filles aspirent à une carrière dans les TIC, contre 5 % des garçons, alors qu’à l’école primaire et secondaire, l’écart entre les sexes concernant les compétences numériques est inexistant et même inversé en faveur des filles. La confiance de ces dernières décline d’abord lentement, puis précipitamment, de sorte qu’à l’époque où les étudiantes terminent leurs études supérieures, seule une infime minorité parmi elles obtient un diplôme en TIC. À l’échelle mondiale, moins d’un tiers des inscrits dans l’enseignement supérieur spécialisé dans les TIC sont des femmes – une disparité sans égale dans les autres disciplines, y compris dans les domaines traditionnellement dominés par les hommes tels que la médecine et les sciences.

« La portée et l’impact de la technologie sont si importants que la représentation limitée des femmes dans les équipes techniques menace à la fois de perpétuer les inégalités et d’imposer de nouveaux types de déséquilibre entre les sexes », écrivent les auteurs. Les technologies grand public engendrées par des équipes à dominante masculine reflètent des biais de genre qui imprègnent la société avec une rapidité sans précédent et sont du même coup difficiles à corriger. Alors que de plus en plus d’activités humaines s’effectuent en ligne, les progrès considérables accomplis par les sociétés en matière d’égalité des sexes dans des environnements hors ligne sont, sans nul doute compromis si les femmes ne jouent pas un rôle plus actif dans la construction, mais aussi dans l’utilisation, des outils numériques, avertit l’Unesco.

Les usages numériques sont passés d’optionnels à obligatoires. Les compétences qu’ils requièrent sont devenues essentielles. Les changements en cours sont majeurs et ils ne sauraient être conduits par une seule moitié de l’humanité. La participation limitée des femmes au développement des nouvelles technologies exclut tout garde-fou à la reproduction et à l’intégration dans les algorithmes de préjugés sexistes. Les projections et les performances de la machine sont limitées aux décisions et aux valeurs humaines de ceux qui les conçoivent et les développent. L’IA est donc partiale. Les biais algorithmiques sexistes procèdent d’une défaillance grave au regard de l’évolution du monde, un préjudice porté à la modernité. « Chaque secteur devenant un secteur technologique, ces lacunes devraient faire rougir les décideurs politiques, les éducateurs et les citoyens ordinaires », protestent les auteurs du rapport.

L’intelligence artificielle exerce une influence considérable sur la vie quotidienne car elle assure une multitude de fonctions dans des domaines majeurs, aussi variés que nombreux, comme l’information, la culture, la médecine, la finance, la justice, l’enseignement, la politique ou la recherche. La prise en compte de la problématique du genre devient de plus en plus décisive à mesure que les technologies d’intelligence artificielle atteignent des performances en termes de communication quasiment assimilables à celles des humains. Pour lutter contre cette fracture de plus en plus profonde entre les sexes, le rapport de l’Unesco recommande la mise en place d’une éducation et d’une formation aux savoirs numériques plus « inclusives » et respectueuses de l’égalité des sexes. La constitution d’équipes techniques plus respectueuses de cette égalité devrait contribuer à la création de produits technologiques reflétant davantage la diversité humaine. Quand les chercheurs en intelligence artificielle soulignent, de leur côté, la nécessité de contrôler les machines vocales, en les imprégnant notamment de codes éthiques, codes à la création desquels les femmes doivent être associées.

Soulever la question de la pertinence des interactions entre les humains et leurs machines vocales revient à s’interroger sur l’influence de ces dernières sur les relations sociales en général. C’est ce qu’illustre la protestation des parents découvrant que la soumission à toute épreuve de l’assistant vocal du foyer encourageait leur enfant à oublier les règles de base de la politesse : ni « merci » ni « s’il vous plaît ». Amazon et Google ont dû reconfigurer leurs appareils respectifs afin que l’obtention de la réponse soit conditionnée à une demande formulée poliment, dans la version « kids » uniquement.

En mars 2019, une première initiative de chercheurs ont répondu à l’une des recommandations de l’Unesco consistant à solliciter la création d’assistants vocaux de genre neutre : la publication d’un échantillon d’une voix sans sexe, baptisée Q, située entre 145 Hz et 175 Hz. Testée auprès de 4 000 personnes, cette voix est bien reconnue comme humaine mais difficile à classer entre féminine et masculine. L’Unesco préconise tout simplement de ne plus installer sur les assistants vocaux une voix de femme par défaut. Mais surtout, plus important encore, l’agence onusienne propose que les opérateurs d’assistants vocaux abandonnent les faux-semblants et présentent sans équivoque leur technologie en tant que « non humaine » dès le début des interactions. Dans l’État de Californie, aux États-Unis, un projet de loi adopté en janvier 2019 va dans ce sens : il rend « illégal le fait pour quiconque d’utiliser un bot pour communiquer ou interagir en ligne avec une autre personne, dans le but de l’induire en erreur quant à son identité artificielle ».

Source :

  • I’d blush if I could. Closing Gender Divides In Digital Skills Through Edication ; Mark West, Rebecca Kraut and Han Ei Chew ; EQUALS Global Partnership, UNESCO, with The German Federal Ministry for Economic Cooperation and Development, unesdoc.unesco.org, May 2019.

 

 

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici