Intelligence artificielle (IA) connexionniste : définition et usage

L'intelligence artificielle connexionniste ou statistique fait partie des 4 grandes familles de l'IA. Dans sa définition simple, elle désigne l'ensemble des méthodes d'apprentissage réalisé à partir de données : machine learning, deep learning, réseau de neurones. Explications et cas d'usage.

L'intelligence artificielle connexionniste, c'est quoi ?

A la base de cette approche, on retrouve le connexionnisme, courant issu des sciences cognitives et développé dans les années 50. Le principe fondateur de cette discipline visait à expliquer les phénomènes mentaux grâce à des réseaux de neurones artificiels.

Appliqué au système d’apprentissage supervisé (base du machine learning tel qu’il est connu aujourd’hui, où un modèle est entraîné à partir d’un jeu d’apprentissage pour ensuite réaliser des prédictions de manière autonome), le premier algorithme voit le jour en 1957.

Dans sa première version, le perceptron (nom donné à cet algorithme d’apprentissage) est un classifieur binaire basé sur un réseau de neurones formels : il pouvait classifier des données d’entrée en deux catégories distinctes. Délaissée un temps au profit de l’intelligence artificielle symbolique, dont la machine était régie par un ensemble de règles définies par les humains et n’agissait qu’en fonction des enseignements reçus, cette approche revient en force dans les années 1980. Aujourd’hui largement plébiscitée, elle impulse des modèles novateurs, dont le deep learning (apprentissage profond) et les réseaux de neurones artificiels associés à ces méthodes d’apprentissage.

Comment fonctionne l'IA connexionniste ?

L’intelligence artificielle connexionniste ou statistique tend à reproduire le schéma de fonctionnement d’un cerveau humain, de manière dite élémentaire. Ce réseau de neurones artificiels se compose de plusieurs couches (chacune étant constituée de neurones), au minimum trois :

  • Une couche d’entrée qui va capter les données brutes (forme, couleur, lettres de mots en provenance d’un document écrit…) ; les neurones de la couche vont transmettre ces informations, suivant les paramètres qui auront été déterminés, à la seconde couche.
  • Une seconde couche, appelée aussi couche cachée (il peut y en avoir plusieurs), qui va traiter les informations reçues, toujours en fonction d’un ensemble de paramètres ; ces informations triées et traitées vont ensuite être transmises à la troisième couche.
  • Une couche de sortie, ou la troisième couche, qui traite, de la même manière que la seconde couche, les informations, et qui va en plus formuler une réponse de sortie.

Le but de ce réseau de neurones est que le modèle réalise une prédiction (réponse apportée par la couche de sortie) à partir des données brutes (récupérées par la couche d’entrée). Par ailleurs, la couche d’entrée apprend à partir des résultats produits par la couche de sortie (d’où le caractère automatisé).

Pierre angulaire du deep learning, ces techniques d’apprentissage ultra-performantes permettent de traiter, d’analyser et d’exploiter rapidement un gigantesque volume de données.

Dictionnaire de l'intelligence artificielle