Intelligence artificielle (IA) connexionniste : définition et usage
Le connexionnisme en intelligence artificielle a donné naissance au deep learning. C'est-à-dire à l'apprentissage automatique s'appuyant sur des réseaux de neurones artificiels.
L'IA connexionniste, c'est quoi ?
A la base de l'intelligence artificielle connexionniste, on retrouve le connexionnisme, courant issu des sciences cognitives et développé dans les années 50. Le principe fondateur de cette discipline vise à expliquer les phénomènes mentaux grâce à des réseaux de neurones formels. Appliqué au système d’apprentissage supervisé (base du machine learning tel qu’il est connu aujourd’hui, où un modèle est entraîné à partir d’un jeu d’apprentissage pour ensuite réaliser des prédictions de manière autonome), le premier algorithme d'apprentissage reposant sur cette théorie voit le jour en 1957.
Dans sa première version, le perceptron (nom donné à cet algorithme d’apprentissage) est un classifieur binaire basé sur un réseau de neurones formels : il permet de classer des données d’entrée en deux catégories distinctes (ou classes). Délaissée un temps au profit de l’intelligence artificielle symbolique, qui est régie par un ensemble de règles définies à l'avance par les humains, cette approche revient en force dans les années 1980 et 1990 avec l'augmentation de la puissance de calcul. Aujourd’hui largement plébiscitée, elle impulse des modèles d'apprentissage novateurs, dont les réseaux de neurones artificiels qui ont donné naissance au deep learning (apprentissage profond).
Comment fonctionne l'IA connexionniste ?
L’intelligence artificielle connexionniste tend à reproduire le schéma de fonctionnement d’un cerveau humain, de manière dite élémentaire. Ce réseau de neurones artificiels se compose de plusieurs couches (chacune étant constituée de neurones), au minimum trois :
- Une couche d’entrée qui va capter les données brutes (formes, couleurs d'une image, lettres, phrases d'un texte, sons…) ; les neurones de la couche vont transmettre ces informations, suivant les paramètres qui auront été déterminés, à la seconde couche.
- Une seconde couche, appelée aussi couche cachée (il peut y en avoir plusieurs), va traiter les informations reçues, toujours en fonction d’un ensemble de paramètres ; ces informations triées et traitées vont ensuite être transmises à la troisième couche.
- Une couche de sortie, ou la troisième couche, qui traite, de la même manière que la seconde couche, les informations, et qui va en plus formuler une réponse de sortie.
Le but de ce réseau de neurones ? Réaliser une prédiction (réponse apportée par la couche de sortie) à partir des données brutes (récupérées par la couche d’entrée). Dans l'optique de reconnaitre une image de chat par exemple, chaque couche du réseau va se concentrer sur une caractéristique de l'animal : taille, silhouette, présence d'oreilles, d'yeux, de quatre pattes... Pierre angulaire du deep learning, cette technique d’apprentissage permet de traiter, d’analyser et d’exploiter rapidement un gigantesque volume de données.