Intelligence artificielle : Les biais et le robot qui ne mentait jamais

La victoire des chihuahua

Nous allons repartir de l'expérience simple le robot qui connaissait les chiens pour illustrer ce qu'est un biais.

Avec plus de 400.000 images analysés, et à mon grand regret le chihuahua est très souvent devant le labrador.
Le moteur inceptionV3 est entrainé à reconnaitre tous objets de l'environnement de manière non ciblée.
C'est un modèle généraliste de reconnaissance d'image.

Le résultat aurait pu en être tout autrement.

Mon chien préféré est le labrador

J'aurais pu "entrainer" inceptionV3 à très bien reconnaitre les labradors et beaucoup moins bien les chihuahua.
Le chihuahua serait donc venu augmenter les nombre d'images non significatives.
Le labrador atteindrait sans doute la première position du classement.

J'aurais pu vous présenter fièrement la conclusion suivante : "L'Intelligence Artificielle a décidé que le labrador était le chien le mieux représenté sous le hashtag #dogs"

Si je fais ça, j'introduis un biais d'analyse : celui de ma préférence pour les labradors.
Ce qui "fausse" le résultat ou au contraire vient conforter ma thèse.
Enfin je pourrais clore le débat : "L'intelligence artificielle ne se trompe pas, elle ne ment pas."

Vous n'avez accès qu'au résultat et aucun moyen de le vérifier, vous lui faites confiance. Cela a l'air solide.
Cela pose clairement un problème de transparence.

Elle ne ment pas : elle a une vision partielle des choses

Pas dans l'application des règles de classement elles-mêmes mais dans le choix des données d'analyse de départ et dans la manière d'éduquer les intelligences artificielles.

Si on transpose le problème dans la vraie vie : soyez rassurés, cela se produit déjà.

Des experts commencent à démontrer que les moteurs d'intelligence ont des tendances racistes et sexistes.
Article du Telegraph : Robots, sexist and racists?

La revue Science (Semantics derived automatically from language corpora contain human-like biases) constate que ces biais existent dans les moteurs d'intelligence artificielle et qu'il est logique de les y retrouver.

Ces moteurs analysent des jeux de données larges mais comportant implicitement des traces de biais moraux ou historiques.

L'existence de ces biais peut être diminuée ou accentuée. Cela dépend directement du créateur ou du groupe de créateur du système ou du produit.

Par exemple, si on confie le développement d'un logiciel de reconnaissance de couleur à un créateur atteint de daltonisme. Le moteur crée aura de fortes chances de confondre les couleurs.

Consciemment ou non, le fait d'éduquer l'intelligence artficielle à partir nos données, lui fait aussi intégrer les parties moins glorieuses de nos comportements dans une proportion variable.

C'est pourquoi DeepMind/Google commence sérieusement à travailler sur la partie éthique.

C'est également pourquoi ce sujet doit être largement partagé et compris.