Doing Buzz: Emploi, Actualité, Concours,Tech, People, Télécharger etc..
COMMENT UNE IA ( Intelligence artificielle) PEUT DEVENIR RACISTE OU SEXISTE
25/06/2020 à 16h37 par La redaction

Parfois les intelligences artificielles se comportent exactement comme le proverbial oncle raciste ou sexiste de nos repas de famille. Comment expliquer cela ? Chercheur au sein de Normale-Sup et du pôle FAIR de Facebook, Stéphane d’Ascoli répond à cette question (et à bien d’autres) dans un ouvrage très bien fait paru aux Editions First, “Comprendre la révolution de l’intelligence artificielle”. Décryptage de l’expert.

COMMENT UNE IA ( Intelligence artificielle) PEUT DEVENIR RACISTE OU SEXISTELorsqu’on parle d’IA raciste ou sexiste, de quoi parle-t-on exactement ? Que font ces intelligences artificielles ?

Stéphane d’Ascoli : On commence à avoir beaucoup d’exemples. Il y a eu des cas dans le recrutement, notamment une IA d’Amazon qui défavorisait les CV de femmes à compétences égales. On a aussi les outils de reconnaissance faciale type Face ID qui fonctionnent moins bien sur les personnes noires. C’est problématique et ça peut l’être encore plus si ce problème d’efficacité se retrouve sur des IA censées, par exemple, poser un diagnostic médical. La manière dont certaines IA traitent et traduisent des phrases peut aussi refléter une conception très biaisée. Par exemple, on demande le féminin de “docteur” et on obtient “infirmière”. Le fait que certaines IA discriminent certaines populations est d’autant plus problématique qu’elles influencent désormais des décisions potentiellement sensibles : obtention d’un prêt, d’un poste, décision de justice, etc.

Pourquoi une IA peut devenir raciste ou sexiste ?

SdA : On a tendance à s’imaginer que les IA sont froides, objectives et parfaitement rationnelles mais ce n’est pas le cas. Elles apprennent de nos données et nos données sont biaisées. Si, pendant dix ans, les femmes ont été défavorisées lors du processus de recrutement d’une entreprise et que celle-ci utilise ces données pour entraîner une IA, il y a des chances que l’IA déduise que les CV de femmes sont moins pertinents pour cette entreprise et qu’elle continue de les défavoriser. Les intelligences artificielles n’ont pas notre esprit critique, elles ne remettent pas en question ce qu’on leur apprend. Elles sont donc assez conservatrices. Les IA reflètent le monde tel qu’il est, pas le monde tel qu’on voudrait qu’il soit. Il n’y a pas de notion de justice ou de progrès social avec elles. Un autre facteur qui peut amener une intelligence artificielle à traiter différemment les utilisateurs, c’est le manque de données. Si on entraîne une IA de reconnaissance faciale sur des bases photo où l’on trouve majoritairement des personnes blanches, elle risque de moins bien fonctionner sur des personnes noires. Et n’oublions pas enfin que les algorithmes peuvent refléter les biais de leurs concepteurs.

Comment éviter qu’une IA devienne raciste ou sexiste ?

SdA  : Ce n’est pas facile. Déjà, il faut identifier le biais et le traiter. Et cela peut s’avérer très compliqué. Avant, on avait des algos parfaitement déterminés, on savait précisément ce qu’ils faisaient. Mais, de plus en plus, les IA vont sélectionner elles-même les caractéristiques importantes. C’est tout l’intérêt du deep learning mais cela les rend beaucoup plus difficiles à contrôler. Un exemple assez drôle sur le sujet, c’est celui de deux hôpitaux qui fournissaient des images de rayons X de patients. Une IA devait déterminer si l’image révélait ou non une fracture. Le problème c’est que les hôpitaux avaient des taux très différents de cas (90% de patients avaient une fracture pour l’hôpital A et 10% seulement pour l’hôpital B). On s’est aperçu que pour déterminer si l’image montrait ou non une fracture, l’IA ne l’analysait pas du tout : elle se contentait de contrôler le logo de l’hôpital. Car l’hôpital A avait effectivement beaucoup plus de cas de fractures ! Ce type de biais est difficile à repérer et il est aussi très dur à corriger : même si on enlève le logo, les images de chaque hôpital ont certainement des spécificités (résolutions différentes etc.). Donc l’intelligence artificielle pourra continuer d’identifier l’hôpital par d’autre moyens. C’est le même problème qui se pose avec les biais sexistes ou racistes : on peut se dire qu’on retire la donnée de genre ou d’ethnicité. Mais l’IA pourra souvent déduire ce paramètre d’autres données. Il faut cependant essayer au maximum d’identifier les biais discriminants et trouver un moyen de les retirer. Pour empêcher les IA de devenir racistes ou sexistes, il est également important de s’assurer que les jeux de données sur lesquels on va entraîner l’IA sont équilibrés et diversifiés. En l’occurrence, ça, ce n’est pas très compliqué à faire. Et une fois que l’IA est opérationnelle, il faut impérativement la tester pour vérifier qu’elle traite de façon identique les utilisateurs.

“Comprendre la révolution de l’intelligence artificielle” de Stéphane d’Ascoli (Editions First)

Service commercial

RECEVEZ NOTRE NEWSLETTER ET ALERTE MAIL

Saisissez votre adresse e-mail pour vous abonner à Doingbuzz et recevoir une notification de chaque nouvel article par e-mail.

Rejoignez les 75 355 autres abonnés

DOINGBUZZ TV

pub
Ne partez pas sans partager :

Vous êtes sur whatsapp, intégrez et récevez nos articles depuis nos groupes disponible sur whatsapp

🚨 DOINGBUZZ ACTUALITE
(PLEIN) DOINGBUZZ ACTUALITE (PLEIN) DOINGBUZZ ACTUALITE (PLEIN) DOINGBUZZ ACTUALITE - OFFRE D'EMPLOI - BOURSE D'ETUDES - ANNONCE -BUSINESS - GODOGODOO groupe emploi whatsapp doingbuzz-🇧🇯 Bénin- 🇧🇯 Bénin - 🇧🇯 Bénin -🇧🇯 Bénin-🇳🇪 Niger - 🇸🇳 Sénégal - 🇸🇳 Sénégal - 🇹🇬 Togo - 🇹🇬 Togo - 🇹🇬 Togo - 🇹🇬 Togo - 🇹🇬 Togo - 🇹🇬 Togo - 🇹🇬 Togo 🇨🇮- Côte d'Ivoire 🇨🇮- Côte d'Ivoire 🇨🇮- Côte d'Ivoire -🇨🇲 Cameroun -🇨🇲 Cameroun -🇨🇲 Cameroun -🇨🇲 Cameroun - 🇫🇷 France - 🇫🇷 France - 🇲🇱 Mali - 🇧🇫 Burkina Faso - 🇧🇫 Burkina Faso -🇬🇦 Gabon -🇬🇳 Guinéé - 🇲🇱 Mali - 🇲🇱 Mali - 🇨🇩 Congo -Pour les autres pays

NB: NE PAYEZ AUCUN FRAIS DE DOSSIERS POUR UNE OFFRE D’EMPLOI

Parfois les intelligences artificielles se comportent exactement comme le proverbial oncle raciste ou sexiste de nos repas de famille. Comment expliquer cela ? Chercheur au sein de Normale-Sup et du pôle FAIR de Facebook, Stéphane d’Ascoli répond à cette question (et à bien d’autres) dans un ouvrage très bien fait paru aux Editions First, “Comprendre la révolution de l’intelligence artificielle”. Décryptage de l’expert.

COMMENT UNE IA ( Intelligence artificielle) PEUT DEVENIR RACISTE OU SEXISTELorsqu’on parle d’IA raciste ou sexiste, de quoi parle-t-on exactement ? Que font ces intelligences artificielles ?

Stéphane d’Ascoli : On commence à avoir beaucoup d’exemples. Il y a eu des cas dans le recrutement, notamment une IA d’Amazon qui défavorisait les CV de femmes à compétences égales. On a aussi les outils de reconnaissance faciale type Face ID qui fonctionnent moins bien sur les personnes noires. C’est problématique et ça peut l’être encore plus si ce problème d’efficacité se retrouve sur des IA censées, par exemple, poser un diagnostic médical. La manière dont certaines IA traitent et traduisent des phrases peut aussi refléter une conception très biaisée. Par exemple, on demande le féminin de “docteur” et on obtient “infirmière”. Le fait que certaines IA discriminent certaines populations est d’autant plus problématique qu’elles influencent désormais des décisions potentiellement sensibles : obtention d’un prêt, d’un poste, décision de justice, etc.

Pourquoi une IA peut devenir raciste ou sexiste ?

SdA : On a tendance à s’imaginer que les IA sont froides, objectives et parfaitement rationnelles mais ce n’est pas le cas. Elles apprennent de nos données et nos données sont biaisées. Si, pendant dix ans, les femmes ont été défavorisées lors du processus de recrutement d’une entreprise et que celle-ci utilise ces données pour entraîner une IA, il y a des chances que l’IA déduise que les CV de femmes sont moins pertinents pour cette entreprise et qu’elle continue de les défavoriser. Les intelligences artificielles n’ont pas notre esprit critique, elles ne remettent pas en question ce qu’on leur apprend. Elles sont donc assez conservatrices. Les IA reflètent le monde tel qu’il est, pas le monde tel qu’on voudrait qu’il soit. Il n’y a pas de notion de justice ou de progrès social avec elles. Un autre facteur qui peut amener une intelligence artificielle à traiter différemment les utilisateurs, c’est le manque de données. Si on entraîne une IA de reconnaissance faciale sur des bases photo où l’on trouve majoritairement des personnes blanches, elle risque de moins bien fonctionner sur des personnes noires. Et n’oublions pas enfin que les algorithmes peuvent refléter les biais de leurs concepteurs.

Comment éviter qu’une IA devienne raciste ou sexiste ?

SdA  : Ce n’est pas facile. Déjà, il faut identifier le biais et le traiter. Et cela peut s’avérer très compliqué. Avant, on avait des algos parfaitement déterminés, on savait précisément ce qu’ils faisaient. Mais, de plus en plus, les IA vont sélectionner elles-même les caractéristiques importantes. C’est tout l’intérêt du deep learning mais cela les rend beaucoup plus difficiles à contrôler. Un exemple assez drôle sur le sujet, c’est celui de deux hôpitaux qui fournissaient des images de rayons X de patients. Une IA devait déterminer si l’image révélait ou non une fracture. Le problème c’est que les hôpitaux avaient des taux très différents de cas (90% de patients avaient une fracture pour l’hôpital A et 10% seulement pour l’hôpital B). On s’est aperçu que pour déterminer si l’image montrait ou non une fracture, l’IA ne l’analysait pas du tout : elle se contentait de contrôler le logo de l’hôpital. Car l’hôpital A avait effectivement beaucoup plus de cas de fractures ! Ce type de biais est difficile à repérer et il est aussi très dur à corriger : même si on enlève le logo, les images de chaque hôpital ont certainement des spécificités (résolutions différentes etc.). Donc l’intelligence artificielle pourra continuer d’identifier l’hôpital par d’autre moyens. C’est le même problème qui se pose avec les biais sexistes ou racistes : on peut se dire qu’on retire la donnée de genre ou d’ethnicité. Mais l’IA pourra souvent déduire ce paramètre d’autres données. Il faut cependant essayer au maximum d’identifier les biais discriminants et trouver un moyen de les retirer. Pour empêcher les IA de devenir racistes ou sexistes, il est également important de s’assurer que les jeux de données sur lesquels on va entraîner l’IA sont équilibrés et diversifiés. En l’occurrence, ça, ce n’est pas très compliqué à faire. Et une fois que l’IA est opérationnelle, il faut impérativement la tester pour vérifier qu’elle traite de façon identique les utilisateurs.

“Comprendre la révolution de l’intelligence artificielle” de Stéphane d’Ascoli (Editions First)

Service commercial

RECEVEZ NOTRE NEWSLETTER ET ALERTE MAIL

Saisissez votre adresse e-mail pour vous abonner à Doingbuzz et recevoir une notification de chaque nouvel article par e-mail.

Rejoignez les 75 355 autres abonnés

DOINGBUZZ TV

pub
Ne partez pas sans partager :
0 0 vote
Note l'article
S’abonner
Notifier de
0 Commentaires
Commentaires en ligne
Voir tous les commentaires
0
Veuillez émettre un commentaire sur cet articlex
()
x