Perceptron : retour sur l'ancêtre du machine learning

Le perceptron est l'un des plus anciens algorithmes du machine learning, qui permet de faire fonctionner un réseau de neurones artificiels.

Le perceptron, c'est quoi ?

Le perceptron est un neurone artificiel, une unité qui appartient à un réseau de neurones artificiel. Pour mieux comprendre ce concept, il est nécessaire de revenir à la définition de réseau de neurones. Un cerveau humain est constitué de milliards de neurones, des cellules nerveuses connectées entre elles, qui permettent de traiter des informations. Le réseau de neurones artificiels tend à copier le fonctionnement du cerveau humain, en recréant des neurones fictifs. Le perceptron est un algorithme qui reçoit des données avec un certain poids, qui les calcule et qui produit un résultat transmis à d'autres perceptrons par des liens interconnectés. Le réseau de neurones artificiels avec une capacité d'apprentissage autonome est à la base du machine learning et de l'intelligence artificielle (IA).

Le perceptron, l'un des plus anciens algorithmes de machine learning, a été inventé en 1957 par Frank Rosenblatt, au sein du Cornell Aeronautical Laboratory. Quelques années plus tôt en 1951, deux mathématiciens américains, Marvin Minsky et Dean Edmonds, avaient réussi à mettre en pratique un réseau de neurones artificiels. Mais c'est le psychologue de formation Frank Rosenblatt qui devient le véritable inventeur du perceptron. Il crée un modèle d'apprentissage, avec une simulation sous la forme d'un logiciel d'abord sur un IBM 704, puis sur une machine spécifique nommée Mark 1. Cette dernière était destinée à la reconnaissance d'images, le réseau de neurones artificiels permettant de traiter les informations entrées, de les classifier et d'obtenir un résultat en toute autonomie. Le premier système de machine learning efficace repose toutefois sur des perceptrons simples, limitant les possibilités de calculs.

Qu'est-ce que le perceptron (simple) monocouche ?

Un réseau de neurones artificiels simple est composé d'entrées et d'une seule sortie. Le cheminement des informations se fait par un circuit de liens qui relient entre eux des perceptrons ou algorithmes traitant les données. Le perceptron simple ou monocouche fonctionne sur un modèle basique de type classifieur linéaire (qui sépare deux classes).

L'inconvénient de ce système tient dans l'impossibilité de travailler sur des données complexes et en grand nombre. Le modèle d'apprentissage basé sur le perceptron monocouche reste basique et limité dans ses applications, car la séparation des classes n'est effective que de manière linéaire.

Qu'est-ce que le perceptron multicouche ?

Un perceptron multicouche est un modèle de réseaux artificiels, qui comprend plusieurs couches cachées, et permet de produire un séparateur non linéaire. Il est constitué de plusieurs entrées et sorties.

Il s'agit d'un réseau à propagation directe (feedforward) disposant d'un nombre de neurones artificiels variable, qui compose plusieurs couches du système neuronal. On dépasse alors le machine learning pour entrer dans l'ère du deep learning, avec des systèmes d'apprentissage pouvant traiter des données en profondeur.

Dictionnaire de l'intelligence artificielle