Doingbuzz – Le pouvoir de l'information à votre portée
COMMENT UNE IA ( Intelligence artificielle) PEUT DEVENIR RACISTE OU SEXISTE
25/06/2020 à 16h37 par La redaction

Parfois les intelligences artificielles se comportent exactement comme le proverbial oncle raciste ou sexiste de nos repas de famille. Comment expliquer cela ? Chercheur au sein de Normale-Sup et du pôle FAIR de Facebook, Stéphane d’Ascoli répond à cette question (et à bien d’autres) dans un ouvrage très bien fait paru aux Editions First, “Comprendre la révolution de l’intelligence artificielle”. Décryptage de l’expert.

COMMENT UNE IA ( Intelligence artificielle) PEUT DEVENIR RACISTE OU SEXISTELorsqu’on parle d’IA raciste ou sexiste, de quoi parle-t-on exactement ? Que font ces intelligences artificielles ?

Stéphane d’Ascoli : On commence à avoir beaucoup d’exemples. Il y a eu des cas dans le recrutement, notamment une IA d’Amazon qui défavorisait les CV de femmes à compétences égales. On a aussi les outils de reconnaissance faciale type Face ID qui fonctionnent moins bien sur les personnes noires. C’est problématique et ça peut l’être encore plus si ce problème d’efficacité se retrouve sur des IA censées, par exemple, poser un diagnostic médical. La manière dont certaines IA traitent et traduisent des phrases peut aussi refléter une conception très biaisée. Par exemple, on demande le féminin de “docteur” et on obtient “infirmière”. Le fait que certaines IA discriminent certaines populations est d’autant plus problématique qu’elles influencent désormais des décisions potentiellement sensibles : obtention d’un prêt, d’un poste, décision de justice, etc.

Pourquoi une IA peut devenir raciste ou sexiste ?

SdA : On a tendance à s’imaginer que les IA sont froides, objectives et parfaitement rationnelles mais ce n’est pas le cas. Elles apprennent de nos données et nos données sont biaisées. Si, pendant dix ans, les femmes ont été défavorisées lors du processus de recrutement d’une entreprise et que celle-ci utilise ces données pour entraîner une IA, il y a des chances que l’IA déduise que les CV de femmes sont moins pertinents pour cette entreprise et qu’elle continue de les défavoriser. Les intelligences artificielles n’ont pas notre esprit critique, elles ne remettent pas en question ce qu’on leur apprend. Elles sont donc assez conservatrices. Les IA reflètent le monde tel qu’il est, pas le monde tel qu’on voudrait qu’il soit. Il n’y a pas de notion de justice ou de progrès social avec elles. Un autre facteur qui peut amener une intelligence artificielle à traiter différemment les utilisateurs, c’est le manque de données. Si on entraîne une IA de reconnaissance faciale sur des bases photo où l’on trouve majoritairement des personnes blanches, elle risque de moins bien fonctionner sur des personnes noires. Et n’oublions pas enfin que les algorithmes peuvent refléter les biais de leurs concepteurs.

Comment éviter qu’une IA devienne raciste ou sexiste ?

SdA  : Ce n’est pas facile. Déjà, il faut identifier le biais et le traiter. Et cela peut s’avérer très compliqué. Avant, on avait des algos parfaitement déterminés, on savait précisément ce qu’ils faisaient. Mais, de plus en plus, les IA vont sélectionner elles-même les caractéristiques importantes. C’est tout l’intérêt du deep learning mais cela les rend beaucoup plus difficiles à contrôler. Un exemple assez drôle sur le sujet, c’est celui de deux hôpitaux qui fournissaient des images de rayons X de patients. Une IA devait déterminer si l’image révélait ou non une fracture. Le problème c’est que les hôpitaux avaient des taux très différents de cas (90% de patients avaient une fracture pour l’hôpital A et 10% seulement pour l’hôpital B). On s’est aperçu que pour déterminer si l’image montrait ou non une fracture, l’IA ne l’analysait pas du tout : elle se contentait de contrôler le logo de l’hôpital. Car l’hôpital A avait effectivement beaucoup plus de cas de fractures ! Ce type de biais est difficile à repérer et il est aussi très dur à corriger : même si on enlève le logo, les images de chaque hôpital ont certainement des spécificités (résolutions différentes etc.). Donc l’intelligence artificielle pourra continuer d’identifier l’hôpital par d’autre moyens. C’est le même problème qui se pose avec les biais sexistes ou racistes : on peut se dire qu’on retire la donnée de genre ou d’ethnicité. Mais l’IA pourra souvent déduire ce paramètre d’autres données. Il faut cependant essayer au maximum d’identifier les biais discriminants et trouver un moyen de les retirer. Pour empêcher les IA de devenir racistes ou sexistes, il est également important de s’assurer que les jeux de données sur lesquels on va entraîner l’IA sont équilibrés et diversifiés. En l’occurrence, ça, ce n’est pas très compliqué à faire. Et une fois que l’IA est opérationnelle, il faut impérativement la tester pour vérifier qu’elle traite de façon identique les utilisateurs.

“Comprendre la révolution de l’intelligence artificielle” de Stéphane d’Ascoli (Editions First)

RECEVEZ NOTRE NEWSLETTER ET ALERTE MAIL

Saisissez votre adresse e-mail pour vous abonner à Doingbuzz et recevoir une notification de chaque nouvel article par e-mail.

Rejoignez les 83 668 autres abonnés

Ne partez pas sans partager :

Contenu sponsorisé

Doingbuzz TV

U outil inclusif pour vendre et acheter partout au Togo.

togopapel groupe emploi whatsapp doingbuzz-🇧🇯 Bénin- 🇧🇯 Bénin - 🇧🇯 Bénin -🇧🇯 Bénin-🇳🇪 Niger - 🇸🇳 Sénégal - 🇸🇳 Sénégal - 🇸🇳 Sénégal - 🇹🇬 Togo - 🇹🇬 Togo - 🇹🇬 Togo - 🇹🇬 Togo - 🇹🇬 Togo - 🇹🇬 Togo - 🇹🇬 Togo - 🇹🇬 Togo 🇨🇮- Côte d'Ivoire 🇨🇮- Côte d'Ivoire 🇨🇮- Côte d'Ivoire -🇨🇲 Cameroun -🇨🇲 Cameroun -🇨🇲 Cameroun -🇨🇲 Cameroun - 🇫🇷 France - 🇫🇷 France - 🇲🇱 Mali - 🇧🇫 Burkina Faso - 🇧🇫 Burkina Faso -🇬🇦 Gabon -🇬🇳 Guinéé - 🇲🇱 Mali - 🇲🇱 Mali - 🇨🇩 Congo -Pour les autres pays

NB: NE PAYEZ AUCUN FRAIS DE DOSSIERS POUR UNE OFFRE D’EMPLOI

Plus de news

Le fils de Baye Niasse, Cheikh Bassirou répond sévèrement à Macron

28/10/2020

Le fils...

Le président de la France, Emmanuel Macron,...
Le site d'information Doingbuzz débarque finalement au Sénégal.

28/10/2020

Le site...

Le site d'information Doingbuzz débarque finalement au...
Violences en Côte d’Ivoire : Fatou Bensouda met en garde

28/10/2020

Violences en...

  Le nom de Fatou Bensouda est...
PSG : Thomas Tuchel sur la blessure de Neymar

28/10/2020

PSG :...

La star du PSG, Neymar, a senti...
Émigration clandestine : Mame Goor s’en prend encore à Sonko... Regardez !

28/10/2020

Émigration clandestine...

Lors d’une visité guidée au quai de...
Togo/Pétrolegate : Nouvelles révélations très accablantes

28/10/2020

Togo/Pétrolegate :...

Le Pétrolegate, l’affaire de détournement de fonds...
Alassane Ouattara : "Il est temps que Laurent Gbagbo revienne en Côte d'Ivoire"

28/10/2020

Alassane Ouattara...

Le président ivoirien Alassane Ouattara a accordé...
Côte d'Ivoire : Un article discriminatoire de France 24 vivement critiqué

28/10/2020

Côte d’Ivoire...

Ce mardi 27 octobre 2020 le media...
Franc CFA : Kako Nubukpo recadre sérieusement Nathalie Goulet

28/10/2020

Franc CFA...

Le franc CFA est la monnaie héritée...
Kim Kardashian affole la toile avec ses nouvelles photos en bikini 

28/10/2020

Kim Kardashian...

A l'occasion de son anniversaire de naissance...
Carmen Sama, la veuve de DJ Arafat parle de son prochain mariage

28/10/2020

Carmen Sama,...

Veuve depuis le 12 août  2019, Carmen...
Burkina Faso : Le père du président Roch Kaboré est mort

28/10/2020

Burkina Faso...

Le Burkina Faso en deuil. Le Président...
Alassane Ouattara sur RFI : « je ne peux pas changer la date du scrutin présidentiel »

28/10/2020

Alassane Ouattara...

  Le président ivoirien Alassane Ouattara a remis les pendules...
Guinée : les observateurs de la CEDEAO n'ont pas partagé de grosses sommes

28/10/2020

Guinée :...

Une information circule depuis quelques jours et...
Avant la Présidentielle du 31 octobre/ Gnamien Konan demande pardon à Alassane Ouattara

28/10/2020

Avant la...

Gnamien Konan, en “ex-humble collaborateur” du président...
Réduction des bureaux de vote : la CEI contredit officiellement Ouattara

28/10/2020

Réduction des...

Le Président de la Commission électorale indépendante...
Guinée: nouvelle bataille pour la levée du siège chez Cellou…

28/10/2020

Guinée: nouvelle...

Deux ministères  viennent d'être assignés en justice...
Côte d'Ivoire : scène de guerre à Abengourou et Kotobi, plusieurs blessés par balle enregistrés

28/10/2020

Côte d’Ivoire...

Crise pré-électorale/ Côte d'Ivoire : scène de...
Présidentielle 2020 / Le secteur privé s’engage au côté du candidat Ouattara

28/10/2020

Présidentielle 2020...

Sous la férule de l’initiative citoyenne du...
UN Togo récompense les lauréats de son concours

27/10/2020

UN Togo...

Ce lundi 26 octobre 2020, le concours...

Parfois les intelligences artificielles se comportent exactement comme le proverbial oncle raciste ou sexiste de nos repas de famille. Comment expliquer cela ? Chercheur au sein de Normale-Sup et du pôle FAIR de Facebook, Stéphane d’Ascoli répond à cette question (et à bien d’autres) dans un ouvrage très bien fait paru aux Editions First, “Comprendre la révolution de l’intelligence artificielle”. Décryptage de l’expert.

COMMENT UNE IA ( Intelligence artificielle) PEUT DEVENIR RACISTE OU SEXISTELorsqu’on parle d’IA raciste ou sexiste, de quoi parle-t-on exactement ? Que font ces intelligences artificielles ?

Stéphane d’Ascoli : On commence à avoir beaucoup d’exemples. Il y a eu des cas dans le recrutement, notamment une IA d’Amazon qui défavorisait les CV de femmes à compétences égales. On a aussi les outils de reconnaissance faciale type Face ID qui fonctionnent moins bien sur les personnes noires. C’est problématique et ça peut l’être encore plus si ce problème d’efficacité se retrouve sur des IA censées, par exemple, poser un diagnostic médical. La manière dont certaines IA traitent et traduisent des phrases peut aussi refléter une conception très biaisée. Par exemple, on demande le féminin de “docteur” et on obtient “infirmière”. Le fait que certaines IA discriminent certaines populations est d’autant plus problématique qu’elles influencent désormais des décisions potentiellement sensibles : obtention d’un prêt, d’un poste, décision de justice, etc.

Pourquoi une IA peut devenir raciste ou sexiste ?

SdA : On a tendance à s’imaginer que les IA sont froides, objectives et parfaitement rationnelles mais ce n’est pas le cas. Elles apprennent de nos données et nos données sont biaisées. Si, pendant dix ans, les femmes ont été défavorisées lors du processus de recrutement d’une entreprise et que celle-ci utilise ces données pour entraîner une IA, il y a des chances que l’IA déduise que les CV de femmes sont moins pertinents pour cette entreprise et qu’elle continue de les défavoriser. Les intelligences artificielles n’ont pas notre esprit critique, elles ne remettent pas en question ce qu’on leur apprend. Elles sont donc assez conservatrices. Les IA reflètent le monde tel qu’il est, pas le monde tel qu’on voudrait qu’il soit. Il n’y a pas de notion de justice ou de progrès social avec elles. Un autre facteur qui peut amener une intelligence artificielle à traiter différemment les utilisateurs, c’est le manque de données. Si on entraîne une IA de reconnaissance faciale sur des bases photo où l’on trouve majoritairement des personnes blanches, elle risque de moins bien fonctionner sur des personnes noires. Et n’oublions pas enfin que les algorithmes peuvent refléter les biais de leurs concepteurs.

Comment éviter qu’une IA devienne raciste ou sexiste ?

SdA  : Ce n’est pas facile. Déjà, il faut identifier le biais et le traiter. Et cela peut s’avérer très compliqué. Avant, on avait des algos parfaitement déterminés, on savait précisément ce qu’ils faisaient. Mais, de plus en plus, les IA vont sélectionner elles-même les caractéristiques importantes. C’est tout l’intérêt du deep learning mais cela les rend beaucoup plus difficiles à contrôler. Un exemple assez drôle sur le sujet, c’est celui de deux hôpitaux qui fournissaient des images de rayons X de patients. Une IA devait déterminer si l’image révélait ou non une fracture. Le problème c’est que les hôpitaux avaient des taux très différents de cas (90% de patients avaient une fracture pour l’hôpital A et 10% seulement pour l’hôpital B). On s’est aperçu que pour déterminer si l’image montrait ou non une fracture, l’IA ne l’analysait pas du tout : elle se contentait de contrôler le logo de l’hôpital. Car l’hôpital A avait effectivement beaucoup plus de cas de fractures ! Ce type de biais est difficile à repérer et il est aussi très dur à corriger : même si on enlève le logo, les images de chaque hôpital ont certainement des spécificités (résolutions différentes etc.). Donc l’intelligence artificielle pourra continuer d’identifier l’hôpital par d’autre moyens. C’est le même problème qui se pose avec les biais sexistes ou racistes : on peut se dire qu’on retire la donnée de genre ou d’ethnicité. Mais l’IA pourra souvent déduire ce paramètre d’autres données. Il faut cependant essayer au maximum d’identifier les biais discriminants et trouver un moyen de les retirer. Pour empêcher les IA de devenir racistes ou sexistes, il est également important de s’assurer que les jeux de données sur lesquels on va entraîner l’IA sont équilibrés et diversifiés. En l’occurrence, ça, ce n’est pas très compliqué à faire. Et une fois que l’IA est opérationnelle, il faut impérativement la tester pour vérifier qu’elle traite de façon identique les utilisateurs.

“Comprendre la révolution de l’intelligence artificielle” de Stéphane d’Ascoli (Editions First)

RECEVEZ NOTRE NEWSLETTER ET ALERTE MAIL

Saisissez votre adresse e-mail pour vous abonner à Doingbuzz et recevoir une notification de chaque nouvel article par e-mail.

Rejoignez les 83 668 autres abonnés

Ne partez pas sans partager :

Laisser votre commentaire