L’Intelligence Artificielle est-elle Discriminante et Misogyne 2


Ou Mesdames, devez-vous vous inquiéter, des biais de l’intelligence artificielle, celle-ci va-t-elle amplifier les discriminations ? 

Hier lors de la signature d’un contrat d’assurance, pour l’obtention d’un prêt, ou lors d’un entretien d’embauche, votre interlocuteur analysait les éléments que vous lui aviez apportés, et la décision dépendait en partie de votre présentation du dossier. Mais, demain avec l’intelligence artificielle, l’algorithme donnera une réponse basée sur des milliards de données corrélées, sur des probabilités, et personne ne sera en mesure d’analyser ou de contester cette décision.

Des milliards de données mémorisées et corrélées

Si L’algorithme a mémorisé un fort taux d’impayés dans le quartier ou vous habitez, si,il a déduit de vos achats que vous étiez en surpoids, ou si par votre nom il vous a identifié comme étant d’une origine ayant un fort taux d’échecs, alors même que vous êtes vous, irréprochable, la réponse à votre demande sera refusée, et vous n’aurez alors aucune explication.

Imaginez Mesdames, qu’il y ai, une offre d’emploi de conducteur de grue, de direction d’orchestre symphonique, il y a de très fortes chances que l’Intelligence artificielle n’ait pas encore fait son EvEolution et que votre candidature soit elle aussi rejetée, sur la base de probabilités d’échecs.

Il est aussi fort probable que pour un poste de cadre, l’Intelligence artificielle sera plus positive vis-à-vis d’un candidat d’origine asiatique que d’une autre origine. Car elle aura mémorisé que 27% des descendants de parents asiatiques occupent aujourd’hui un poste de cadre, alors  que ce pourcentage descends à 14% en moyenne pour les Français toutes origines  confondues, qu’il est de 9% pour les fils de Maghrébins, et de 5% pour ceux d’Afrique subsaharienne. Certainement,l’IA ne fera que reproduire et amplifier les a priori existants.  

Explicabilité de la décision de l’Intelligence artificielle

L’explicabilité n’est pas prévu par ce réseau de neurones dit artificiels ou profonds qu’on appelle le Deep Learning.  Outil fustigé jusqu’aux années 80 mais de plus présent dans l’Intelligence artificielle aujourd’hui. Il faut savoir, que si on est capable de décoder un programme informatique standard, on est incapable de savoir ce qui se passe dans la « black box » du deep Learning. On connaît ce qui y entre et on considère comme juste ce qui en sort, alors qu’on est incapable d’expliquer ce qui se passe dedans.

Les américains ont eux pris conscience du problème, et, c’est pourquoi ils ont lancé un programme militaire dont la seule ambition est d’expliquer l’Intelligence artificielle : https://www.darpa.mil/program/explainable-artificial-intelligence

Prolifération de Biais indirects et habiles

De quels biais parle-t-on ? Du sexe, de la zone d’origine du candidat, de l’historique de sa famille, de son lieu d’habitation, de son comportement, conduite, consommation et éventuellement vie privée et secrète. L’algorithme ne fera lui en fait, que reproduire et amplifier les discriminations déjà existantes . Si aucune femme n’a occupé tel poste, ou n’a jamais réussi dans tel secteur d’activité,  il en déduira que les femmes sont moins performantes dans ce secteur ,et rejettera la demande, et cela ne fera qu’amplifier les discriminations, et les certitudes statistiques du Deep Learning.

Autre biais potentiel, Les Geeks féminins étant peu présents dans l’IA dont le Deep Learning (moins de 15%) l’algorithme est donc le plus souvent construit par des hommes qui sont pour beaucoup passés directement des jeux en ligne aux algorithmes. On peut donc imaginer que cela amplifiera la discrimination dont les femmes sont victimes.

L’intelligence artificielle a-t-elle pris le pas sur les humains  

Si on s’intéresse un peu aux mathématiques, l’intelligence artificielle basée sur les probabilités, mais truffée de biais, voire de doublons, ne laissera plus aucune chance à l’ascenseur social, qu’on pourrait appeler en simplifiant espérance mathématique.

En théorie des probabilités, l’espérance mathématique d’une variable aléatoire réelle est, intuitivement, la valeur que l’on s’attend à trouver, en moyenne, si l’on répète un grand nombre de fois la même expérience aléatoire. Pour simplifier si vous êtes une personne originaire de telle partie du monde, si vous résidez dans un quartier dit difficile, avant l’IA si vous répétiez inlassablement vos candidatures, vous aviez des chances de réussir, c’est ce que l’on appelle « l’espérance mathématique ». Cette espérance mathématique disparaîtra vraisemblablement avec l’Intelligence artificielle.

Un exemple parmi d’autres, de la perte de contrôle par les humains de l’IA qui a incité l’université Carnegie Mellon (CMU)  https://www.cmu.edu/   à Pittsburg aux USA première à accueillir un Super Calculateur et spécialisée dans la robotique et l’Intelligence Artificielle depuis 1979, a créé un centre de recherche sur l’éthique de l’intelligence artificielle, le K & Lhttps://www.cmu.edu/ethics-ai/agenda/index.html          L’université a remarqué lors d’une de ses études qu’une Intelligence artificielle offrait systématiquement des postes moins bien rémunérés aux femmes qu’aux hommes. Les chercheurs n’ont alors ni pu identifier le biais ou l’origine de ce fait, d’où l’idée de création de ce centre d’études.

À quoi s’attendre alors qu’il est impossible d’auditer une décision algorithmique de Deep Learning

On lit beaucoup de textes enthousiastes sur les perspectives de développement, on lit moins de textes sur l’éthique, les biais cognitifs algorithmiques ou sur les doublons (grand sujet) lors de la construction de l’algo.

Bien sûr, il n’est pas question que la France devienne le donneur de leçons d’éthique en intelligence artificielle alors que les États-Unis et la Chine eux font du business.

Néanmoins, la non-neutralité des machines et des calculs construits par des humains doit nous mettre en garde contre une confiance aveugle et une vision naïve des données produites par les algorithmes. On rappellera les déboires de Facebook lors des présidentielles US, ou encore récemment cette recherche douteuse sur la reconnaissance faciale concernant l’identification des homosexuels.

La réalité “gênante”, c’est que les algorithmes qui sont mis en service contiennent nombre de biais voir des erreurs de doublons, et que personne ne peut auditer ce qui se passe dans cette « black box » du Deep Learning. Pour faire un parallèle la black box c’est un peu comme un médicament on ne sait pas ce qu’il fait, on ne peut juger que ses résultats et les effets secondaires.

 

En conclusion, Les technos et autres super Geeks devraient cesser de se considérer comme de purs scientifiques, car en fait ils construisent les outils de notre vie de demain, mais cela c’est une autre histoire.

Autres articles sur le même sujet ou sur des sujets proches publiés dans différents médias dont Forbes, Huff Posts, etc .

Analyse Sur l’Intelligence Artificielle en Général.

Intelligence Artificielle Tout ce que vous Vouliez Savoir sans Oser le Demander

Analyse sur Les Femmes d’Influence et l’Intelligence Artificielle  

 

Visionnaires Ultra-connectées les femmes devenues Hyper Influentes vont elles conquérir le monde grâce au digital.

Analyse sur ce Sport de Combat qu’est l’Éloquence

http://bernard-jomard.com/2018/01/29/leloquence-influenceur-sport-de-combat-influence/

Analyse Sur l’Intelligence Artificielle et sur le Monde de la Communication

jomard.com/2018/05/22/avenir-agences-communication-media/

Analyse Sur l’Intelligence Artificielle et sur les Start Up.

Start-up entre Rêve et Réalité

Analyse Sur l’Intelligence Artificielle et sur le Marketing Digital

Les Influenceurs et le Marketing Digital en 2018 Tout Savoir


Laissez un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

2 commentaires sur “L’Intelligence Artificielle est-elle Discriminante et Misogyne