Les challenges de l’IA aujourd’hui

IA, pour intelligence artificielle, est quelque chose que nous pensons connaître sous le nom de Terminator, Skynet, Wall-E, ou encore Jarvis ! En serons-nous là demain ? La communauté scientifique est unanime : non, nous sommes encore loin de ces IA complètement autonomes qui pourraient nous asservir un jour.

Démystifions tout cela ensemble, et avant de débattre d’un lendemain lointain, découvrons les challenges d’aujourd’hui.

 Démystifions l’IA

Reprenons les bases : d’après l’un de ses pères, Marvin Lee Minsky, l’IA est « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ». Autrement dit, c’est une science qui a pour but de penser et de concevoir des outils informatiques qui miment le fonctionnement cognitif d’un humain. Des machines intelligentes qui raisonnent, analysent et interagissent comme nous.

Cette définition a été donnée en 1956. Et maintenant, en 2018, où en sommes-nous ?

Après une période de creux, appelé l’hiver de l’IA, où les espoirs ont été déçus et les financements coupés, l’IA est redevenue à la mode ces dernières années. Pourquoi ? Grâce d’une part aux développements de processeurs (unité de calcul et de traitement d’instructions machine) de plus en plus puissants et d’autre part, à la possibilité de multiplication de gros volumes de données, matière première pour l’apprentissage des réseaux de neurones. Ces nouvelles technologies ont permis l’essor du Deep learning ou apprentissage profond : des programmes intelligents pouvant réaliser des prédictions plus précises que l’Homme.

 IA spécialisée versus généraliste…ou pourquoi Skynet n’est pas pour demain

Dans le monde de l’IA, un domaine est particulièrement en plein essor : le Machine Learning ou apprentissage automatique.

Celui-ci consiste à créer des algorithmes (les réseaux de neurones) qui apprennent à partir de plusieurs exemples afin d’inférer des règles. Cela permet aux algorithmes, lors d’un nouveau cas, de pouvoir le comparer à ce qu’ils connaissent (ce qu’ils ont appris) de plus proche pour ensuite faire une prédiction.

Par exemple, il est possible d’utiliser de l’IA pour aider dans le choix d’un traitement médical, surtout dans le cas de cancers : à partir de l’apprentissage de données de précédents patients ayant eu et lutté contre un cancer, il est possible de prédire la probabilité qu’un patient souffrant du même cancer réponde positivement ou non à un traitement médical. En effet, avec les bonnes données et le bon algorithme, nous obtenons des IA puissantes en termes de calcul et capables de réaliser des prédictions très précises.

Et c’est justement l’un de leurs points faibles : une IA utilisée pour du diagnostic médical ne sait faire que du diagnostic médical et seulement cela !

Alors qu’en tant qu’humain, nous sommes multifonctions. Nous avons plusieurs fonctions cognitives qui nous permettent de discuter, écouter et élaborer une stratégie en même temps. Tout se fait « instantanément » dans notre cerveau et cela à chaque instant. Vous même lecteur, en même temps que vous lisez ces lignes, vous reconnaissez les caractères, les mots, leur attribuez une sémantique, vous les analysez et les assimilez. L’ensemble de ces fonctions cognitives accessible à chacun d’entre nous est loin d’être évident à modéliser par une machine.

Des travaux scientifiques sont en cours pour créer des IA généralistes (capables de mimer plus d’une fonction cognitive) mais il n’y a pas encore d’application existante auprès du grand public à l’heure actuelle.

La transparence et l’interprétabilité : un challenge technique !

Techniquement, le challenge de l’IA est l’interprétabilité. Si l’on peut interpréter ce qu’il se passe dans un algorithme, on peut expliquer et justifier les décisions. Le processus décisionnel des algorithmes et donc des structures et personnes qui se basent sur ces algorithmes devient alors transparent. Le règlement général sur la protection des données (RGPD) impose justement de la transparence dans l’utilisation des algorithmes. D’ailleurs, Mounir Majhoubi, Secrétaire d’Etat en charge du numérique, a expliqué à l’Assemblée nationale :« si un algorithme ne peut pas être expliqué, il ne peut pas être utilisé dans le service public »[1]. Autrement dit, un assureur, un médecin, un banquier ainsi que toute structure utilisant de l’IA devrait être capable d’expliquer, non pas l’algorithme ou le code, mais la logique suivie par ces machines pour aboutir à une conclusion.  Nous savons comment mathématiquement les réseaux de neurones (algorithmes qui permettent l’apprentissage automatique) fonctionnent puisque nous en sommes les auteurs, cependant nous sommes loin de comprendre comment ils « raisonnent ». Une fois les données apprises par l’algorithme, ce dernier fournit un résultat ou une prédiction qu’il est difficile d’expliquer.

Seriez-vous d’accord pour confier votre diagnostic médical à une boite noire qui ne répondrait que « oui » ou « non » sans justification ? Il est fort probable que non !

De nombreux travaux de recherche sont en cours et des entreprises spécialisées se sont développées pour apporter des éléments de réponse à cette problématique.

Cette question de l’interprétabilité et de la transparence des IA fait partie des questions sur la responsabilité de chacun face à l’IA. Satya Nadella, PDG de Microsoft, a ainsi appelé à une « responsabilité algorithmique » de chacune et chacun des développeurs. Cet appel s’inscrit dans le même mouvement que celui des pétitions contre les drones autonomes, qui ont été diffusées et signées par des étudiants, des enseignants, et des chercheurs en informatique. De nombreux débats sont organisés pour sensibiliser sur ces questions.

L’Union Européenne a d’ailleurs voté en 2017 en faveur de la mise en place de règles éthiques pour l’utilisation de l’IA et des robots et organise le 4 octobre 2018 à Bruxelles l’« AI convention Europe » pour discuter des développements, des dernières innovations et des bouleversements qui en découlent. Au niveau mondial depuis 2017, chaque année sous l’égide de l’ONU, est organisé le sommet “AI for Good Global Summit”, qui rassemble autour des bienfaits de l’IA et vise à améliorer la qualité et la durabilité de la vie sur notre planète tout en formulant des stratégies pour assurer un développement sûr, inclusif et fiable de ces technologies mais aussi un accès équitable à leurs avantages.

L’équité en IA

Au niveau sociétal, l’un des challenges est l’équité, soit l’égalité de tous devant les IA. Nous l’avons expliqué précédemment : afin de faire une prédiction, les IA nécessitent l’apprentissage de données qui sont ainsi la base à partir de laquelle elles élaborent leur raisonnement. Que se passe-t-il si l’on ne fournit à l’IA (intentionnellement ou non) que des données décrivant les réponses physiologiques d’hommes face aux traitements médicaux pour lutter contre un cancer ?

Lorsque cette IA devra prédire la réponse pour des femmes ou des enfants à ces mêmes traitements pour lutter contre ce même cancer, ses analyses seront erronées puisqu’elle n’a jamais été entraînée dessus. En statistique, cela s’appelle un biais de sélection, autrement dit ; la population représentée par les données n’est pas représentative de la population générale.

Un exemple concret de l’impact de ce type de biais est la description par Google en 2015 d’une photo d’un couple de personnes afro-américaines comme étant des gorilles. L’IA derrière n’ayant pas eu un jeu de données diversifié et représentatif de la population générale, elle a fait une prédiction en comparant cette photo à ce qu’elle connaissait de plus proche (en l’occurrence ici des gorilles). Google s’est depuis excusé et a œuvré afin de rectifier cette erreur. Néanmoins cela attire notre attention sur l’importance des données qui alimentent nos IA et l’importance des personnes qui codent ces IA.

Si un système, quel qu’il soit, n’est réalisé, pensé et utilisé que par des personnes d’une même catégorie socio-professionnelle, alors c’est tout le reste de la société qui est mis sur le banc de touche.

 Afin de limiter l’impact des biais en IA, de nombreuses recherches sont en cours. C’est une question complexe qui nécessite du temps car cela implique, entre autres, d’agir sur la récolte et l’analyse des données, de débattre de ce qu’est une bonne donnée (en fonction de l’objectif choisi) et de trouver le bon algorithme pour y répondre.

 La place des femmes en IA

Les femmes sont peu nombreuses dans les sciences et encore moins dans l’informatique. D’après les propos de chercheuses recueillis en 2017 par le monde.fr « L’informatique est le seul domaine où, après avoir été proportionnellement bien représentée, la part des femmes est en nette régression, alors que dans toutes les filières scientifiques et techniques, elle augmente de 5 % en 1972 à 26 % en 2010 »[2].

En conséquence, la majorité des études sont faites par des hommes et portent sur l’étude de panels composés d’hommes.

Il est donc urgent de tous s’approprier cette question de l’IA et de ne pas laisser son genre déterminer son choix professionnel. La question n’est pas de tous devenir développeur, développeuse informatique ou chercheur, chercheuse, mais de réaliser que les outils de demain se font avec la contribution des femmes et des hommes d’aujourd’hui.

Des initiatives « de terrain » pour communiquer sur la place des femmes dans les sciences existent, comme les conférences ELLE Active, les interviews de femmes scientifiques. Des visites dans les écoles (collèges et lycées) par les membres des associations « Femmes & Sciences» en France, ainsi que des équipes de chercheurs, sont organisées pour démystifier les métiers scientifiques auprès des lycéennes et lycéens ! Des journées « Filles et Math» ainsi que des visites de laboratoires dans le cadre de plusieurs évènements sont mis en place tout au long de l’année (Circuit scientifique Bordelais aura lieu du 8 au 12 octobre 2018, Fête de la science) pour les lycées et collèges et pour les plus grands «Pint of science» existe ! Le but de toutes ces démarches étant de faire découvrir les sciences à travers les femmes et les hommes qui travaillent dans ces domaines.

[1]Citation reprise de l’article http://www.itforbusiness.fr/news/item/10107-ia-et-rgpd-lesliaisons-dangereuses 

[2]Article « Les femmes de plus en plus minoritaires dans le secteur de l’informatique » : https://www.lemonde.fr/campus/article/2017/12/11/femmes-et-informatique-vingt-ans-dedesamour_5227726_4401467.html

Ikram Chraibi Kaadoud

Docteure en informatique spécialisée en Intelligence artificielle et en science cognitive chez Onepoint
Ayant réalisé une thèse CIFRE, à la jonction des sciences cognitives, de l'IA et des neurosciences computationnelles, elle a su jouer les intermédiaires entre les mondes de la recherche et de l'industrie. Ses travaux de recherches portent sur l’extraction et la représentation des connaissances en s’inspirant des fonctions cognitives humaines, notamment le raisonnement et la planification, ainsi que l'étude du cortex préfrontal. Au niveau machine learning, c'est la question de l'interprétabilité des réseaux de neurones, ou du "raisonnement" des algorithmes, qu'elle étudie. Chercheuse IA et Sciences Cognitives, c'est une médiatrice scientifique convaincue qui prône "une science à la portée de toutes et de tous" !
Ikram Chraibi Kaadoud

Les derniers articles par Ikram Chraibi Kaadoud (tout voir)

Ikram Chraibi Kaadoud

Ikram Chraibi Kaadoud

Ayant réalisé une thèse CIFRE, à la jonction des sciences cognitives, de l'IA et des neurosciences computationnelles, elle a su jouer les intermédiaires entre les mondes de la recherche et de l'industrie. Ses travaux de recherches portent sur l’extraction et la représentation des connaissances en s’inspirant des fonctions cognitives humaines, notamment le raisonnement et la planification, ainsi que l'étude du cortex préfrontal. Au niveau machine learning, c'est la question de l'interprétabilité des réseaux de neurones, ou du "raisonnement" des algorithmes, qu'elle étudie. Chercheuse IA et Sciences Cognitives, c'est une médiatrice scientifique convaincue qui prône "une science à la portée de toutes et de tous" !