News
Quand l'Intelligence Artificielle approche l'Intelligence humaine
Pour un passionné de technique, peu de sujets sont aussi sources d'agacement et d'émerveillement que l'Intelligence Artificielle (IA).
1/ L’IA n’est pas UNE technologie
D'agacement d'abord, car le terme remonte à 1955 et a connu beaucoup d’évolution, aussi il ne recouvre pas une technologie mais un ensemble particulièrement hétérogène et disparate. Il y a peu de rapports entre les systèmes expert et le deep learning, qui font tous deux parties de l’IA ainsi que d’autres domaines très variés, si bien que techniquement parler d’IA en générale est très hasardeux, au risque de mettre dans le même panier des chatbots et des réseaux de neurones, ce qui n’a beaucoup de sens ! Le résultat est également particulièrement frustrant pour qui s’intéresse à en savoir plus, puisqu’il ne permet pas directement de savoir de quoi on parle effectivement.
Je précise pour éviter cet accueil que je parlerai essentiellement de deep learning / réseaux de neurones dans la suite de l’article. Ces technologies sont très largement responsables de la montée en puissance de la renommée de l’IA, de par leur résultat impressionnant[1] et leur anthropomorphisme, alimentant au passage le fantasme d’une intelligence proche celle humaine.
2/ Artificielle signifie également factice
L’IA est un terme qui emprunte également à la science-fiction, et qui nourrit l’idée d’ordinateur capable de rivaliser avec l’intelligence humaine. Or, si cela a été obtenu dans le go, on n’en est même pas proche dans le cas de l’intelligence artificielle générale ! Yann Le Cun rappelait dans sa leçon inaugurale au Collège de France[2] que les capacités du cerveau restent un million de fois supérieures aux systèmes utilisés pour l’IA. Cette différence apparaît notamment dans le manque d’intelligence générale de l’IA : les modèles se trompent régulièrement sur des cas ne présentant pas de difficultés apparentes : le cas récent des voitures Tesla est symptomatique[3], et d’autres articles ont montré que ce type de faille est générale et intrinsèque aux modèles[4].
Cette limitation est aujourd’hui une des grandes limites des réseaux de neurones, en les limitant à l’aide à la décision et nécessitant toujours la supervision d’un opérateur, parfois récalcitrant, dans les domaines où une erreur peut être impactante.
Il est intéressant aussi de rappeler, toujours en prenant les chiffres de Yann Le Cun, qu’un ordinateur disposant de la puissance d’un cerveau humain consommerait aujourd’hui la puissance d’un quart de réacteur nucléaire ! Certes l’efficacité énergétique s’améliore, mais le numérique dans son ensemble est plutôt dans la mauvaise direction[5], en bref le cerveau humain de par son efficience a de beaux jours et de belles décennies devant lui.
3/ Quand l’IA nous ouvre une fenêtre sur notre propre intelligence !
Mais les fabuleux développements des réseaux de neurones ces dernières années ont ceci de particulièrement enthousiasmant qu’il relance la citation d’Alan Turing “Les tentatives de création de machines pensantes nous seront d'une grande aide pour découvrir comment nous pensons nous-mêmes.”[6]. Trois exemples particulièrement me viennent à l’esprit :
3.1/ La traduction automatique est un domaine où les progrès des réseaux de neurones sont particulièrement impressionnants. Les réseaux de neurones étant des algorithmes ne manipulant que des nombres réels, il est nécessaire de convertir les mots en une série de nombre, ce qui introduit tout un ensemble de questions passionnantes sur la sémantique (dans quelle mesure le sens d’un mot est-il lié à son contexte) et également sur la représentation numérique de ces mots : aimer sera-t-il plus proche de haïr ou d’adorer ? Peut-on donner un sens aux différentes composantes de ces représentations numériques ?
On arrive notamment à des résultats avec ces représentations numériques tels que
King – Man + Woman ~= Queen
ou
Paris – France + Gemarny ~= Berlin[7]
Je ne connais actuellement pas de travaux où des linguistes auraient exploités les résultats des réseaux de neurones, il n’en reste pas moins très enthousiasmant d’envisager que l’IA vienne enrichir notre connaissance de notre langage.
3.2/ Un autre domaine en plein essor est la reconnaissance d’image, une date clé de l’essor des réseaux de neurones étant le succès sur la compétition image Net en 2013[8]. La particularité de ces réseaux, dit convolutionels, est d’extraire des patterns intermédiaires. De la vient une première interrogation : quelle est la nature de ces patterns ? Arriverons-nous à avoir des réseaux capables d’apprendre le concept de tête, d’œil, de roue en apprenant à distinguer des chiens, des chats et des camions ?
3.3/ Un autre domaine particulièrement intéressant est l’usage du “transfert learning” : alors qu’une des grandes faiblesses des méthodes de deep learning est la dépendance aux données d’entrainement, avec le risque de biais, de passéisme[9] et le coût de constitution d’un référentiel de qualité de ces données, une pratique courante et puissante consiste à effectuer du transfert learning, c’est à dire utiliser une part de réseau entrainée sur une autre base. Cela montre bien que, sous conditions, ces modèles possèdent un potentiel de généralisation.
4/ Le besoin d’une forme sagesse pour l’IA
En conclusion, il est bon de rappeler qu’aussi prometteuses soient-elles, les technologies de l’IA sont en haut de la courbe du « hype » du Gartner[10], le pic des attentes exagérées (pic of inflated expectations en vo), avec en plus un imaginaire particulièrement fort et totalement décalé de la réalité. Il va y avoir de grands impacts de l’IA, notamment en traduction et plus que probablement dans la santé. Mais la révolution sera loin d’être aussi générale que beaucoup le prédisent, et il est très important de démystifier l’IA pour mieux appréhender ces apports, et éviter de gâcher son potentiel en projets chimériques.
Pour un secteur que je connais bien, l’enseignement, il n’y aura pas de révolution de l’IA.
Nicolas Rousset
nicolas.rousset@polytechnique.org
Télécharger la Lettre de XMP-Consult n°8 (juin 2020) en .PDF |
[1] Notamment en reconnaissance d’image et en traduction automatique, mais on pense bien sûr à la victoire au jeu de go
[2] https://www.college-de-france.fr/site/yann-lecun/inaugural-lecture-2016-02-04-18h00.htm
[3] https://www.20minutes.fr/high-tech/2723847-20200221-tesla-autopilot-trompe-bouts-scotch-colles-panneau-limitation-vitesse
[4] https://arxiv.org/pdf/1312.6199.pdf, en résumé on peut prendre n’importe quelle image et faire dire au modèle qu’il s´agit d’une autruche, avec des différences indiscernables à l’oeil nu
[5] https://theshiftproject.org/article/pour-une-sobriete-numerique-rapport-shift/
[6] https://citation-celebre.leparisien.fr/auteur/alan-turing
[7] T. Mikolov et al. Linguistic Regularities in Continuous Space Word Representations. NAACL HLT 2013 et Mikolov et al. - 2013 - Efficient Estimation of Word Representations in Vector Space
[8] http://image-net.org/challenges/LSVRC/2012/results.html
[9] https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G
[10] https://www.gartner.com/smarterwithgartner/5-trends-appear-on-the-gartner-hype-cycle-for-emerging-technologies-2019/
Aucun commentaire
Vous devez être connecté pour laisser un commentaire. Connectez-vous.