Ar.2: Histoire d'une fabuleuse rencontre entre l’intelligence artificielle et les neurosciences
Dernière mise à jour : 14 août 2022

CHAPITRE I : Mémoire et Apprentissage
Article 2: Histoire d'une rencontre fabuleuse entre l’intelligence artificielle et les neurosciences
[Bienvenue dans la série “Brain & AI”: une série qui confronte le point de vue des neurosciences à celui de l'intelligence artificielle! La série sera composée de plusieurs chapitres avec différents articles. Chaque article peut être lu de manière indépendante.]

Vous voici au sein du second article (" Histoire d'une rencontre fabuleuse entre l’intelligence artificielle et les neurosciences") du premier chapitre de cette série "Mémoire et Apprentissage".
L'article ci-dessous fait suite au premier article "Tout savoir sur la mémoire en 3 questions-réponses". Il fait le parallèle entre l'apprentissage humain (Article 1 pour plus de précisions) et l'apprentissage des machines basées sur l'intelligence artificielle.
Introduction
“While there are many domains where AI is superior, humans still have an advantage when tasks depend on the flexible use of episodic memory” (un type de mémoire relatif à nos événements dans la vie) dit Martin Chadwick, un chercheur chez DeepMind.
L’intelligence artificielle (IA) a connu de nombreuses avancées depuis la moitié du XXe siècle. On retient de nombreux succès publics tels que la victoire de Deep Blue - ordinateur d’IBM - face à Garry Kasparov - champion d’échecs - lors d’une partie disputée en 1997 (voir image 1). Mais le domaine de l’IA puisa entre autres son inspiration des neurosciences. La complexité du cerveau et son incroyable capacité à mémoriser et à apprendre font l’oeuvre d’une véritable source de réflexion. L’histoire des systèmes d’apprentissage est donc parsemée de biomimétisme. Par conséquent, les neurosciences ont contribué et contribuent encore à l'amélioration de l'IA de deux manières différentes: premièrement comme aide à la création de nouveaux algorithmes; deuxièmement comme validation des techniques d’intelligence artificielle.

Image 1: Frise historique des événements clefs de l’intelligence artificielle (1).
La naissance des premiers neurones
Le terme d’intelligence artificielle apparut en 1955 et fut prononcé par Marvin Minsky, reconnu comme grand acteur dans le domaine. Mais l'intérêt pour l'IA se manifesta quelques années plus tôt.
En 1943, Warren McCulloch et Walter Pitts publient un article traitant de “neurones artificiels” inspirés de leurs équivalents biologiques (2). Six ans plus tard, les travaux du psychologue et neuropsychologue canadien Donald Hebb participeront fortement à améliorer ces neurones artificiels. Il publie en 1949 le livre “The organisation of Behaviour: a Neuropsychological theory” (3). Il y engage l’idée selon laquelle l’apprentissage des humains réside dans la force de connexions entre les neurones. En outre, il définit la règle d’apprentissage suivante: lorsque deux neurones sont excités conjointement, l’efficacité de la connexion qui les relie augmente (par la création d’un nouveau lien entre ces neurones ou bien, par le renforcement de ce dernier). Inversement, l’activation à contretemps de ces deux neurones produit une diminution d’efficacité de cette connexion.

Image 2: Exemples des neurones artificiels tirés de l’article de Warren McCulloch et Walter Pitts (2).
Le Perceptron ou la première machine douée d'apprentissage
Les travaux de McCulloch, Pitts et Hebb inspirèrent la création de l’un des premiers systèmes d’apprentissage en 1957: le Perceptron (4). Le Perceptron était un ordinateur analogique créé par Frank Rosenblatt composé des neurones de McCulloch et Pitts. Cet ordinateur était capable d’assimiler des tâches d’apprentissage simples (exemple: reconnaître la lettre A face à la lettre C). Le Perceptron était un classifieur linéaire binaire: il pouvait définir si un objet appartenait à une classe plutôt qu'à une autre. Autrement dit, après un entraînement, il pouvait être capable de vous répondre “Oui” ou “Non” suite à une entrée donnée (par exemple, dire qu’il ne s’agit pas d’un “A” si vous lui présentez un “C”). Pour ce faire, le système calculait des sommes pondérées c’est à dire qu’il calculait la somme totale des données entrantes en tenant compte de leurs poids dans la décision. Prenons pour exemple l’image 3-C où les données d’entrées sont des pixels. Sur le schéma, tous les pixels ont un poids similaire dans la décision (0,25). Si le pixel 1 et 3 s’allument et que la somme de ces pixels multipliée par leurs poids est supérieure à un seuil donné, le système s’illuminera (“Bright”). Si le Perceptron donne une réponse incorrecte (exemple: il donne la réponse “Bright” alors qu’il fallait répondre “Dark”), on l’indique à ce dernier pour qu’il puisse changer le poids des pixels concernés afin de produire une réponse correcte. En l'occurrence, il pourra ici diminuer le poids synaptique des pixels 1 et 3 pour que le résultat soit en dessous du seuil établi.



Image 3: en haut - A: Rosenblatt et le Perceptron (5). Au milieu - B: Organisation du Perceptron (4). En bas - C: schématisation de l’organisation du Perceptron (6).
C’est un modèle simplifié à l’extrême des calculs opérés par les neurones biologiques. En effet, dans le cerveau, un neurone peut passer l’information à un autre neurone si et seulement si, ce premier neurone s’active au-delà d’un certain seuil. Pour cela, il doit préalablement avoir reçu un ensemble d’excitations dont la somme dépasse le seuil cité. Ainsi, chaque neurone a une capacité de synthèse (comme le calcul de la somme des poids synaptiques des neurones du Perceptron) pour produire une réponse positive ou neutre (i.e. sans excitation). Mais le Perceptron ne compte qu’une seule couche de neurones. Cela le limite à la résolution de problèmes très simples (il est par exemple incapable de reconnaître une écriture manuscrite pour la distinction de la lettre “A” versus la lettre “C”).
