Classification naïve bayésienne : définition et principaux avantages

Classification naïve bayésienne : définition et principaux avantages La classification naïve bayésienne est un type de classification issue des sciences mathématiques. C'est devenu un algorithme d'apprentissage très utilisé en machine learning.

La classification naïve bayésienne, qu'est-ce que c'est ?

La classification naïve bayésienne s'apparente à une classification bayésienne probabiliste simple (dite naïve). Elle repose sur le théorème de Bayes, qui n'est autre qu'un modèle de probabilités.

La méthode de classification naïve bayésienne est très utilisée dans le cadre du machine learning (ou apprentissage) supervisé. Un jeu de données (data set) va, par exemple, permettre à l’outil d'apprendre à classer des images de produits en fonction de leur caractéristique (forme, couleur...). Dans le cas de l'apprentissage supervisé, les données d'entrainement étiquetées et annotées, et le modèle déterminera par lui même les caractéristiques de classification. 

Pourquoi le classifieur naïf bayésien est dit naïf ?

Entrant dans la catégorie des classificateurs linéaires, le classifieur naïf Bayes part du principe de l'existence d'une forte indépendance des hypothèses ou variables du modèle, et que ces variables sont simples (d'où le terme naïf). Exemple : une moto sera reconnue et classée comme telle compte tenu de sa forme allongée, de ses deux roues, de sa taille d'un mètre cinquante à deux mètres... 

Quels sont les avantages de la classification naïve bayésienne ?

Ce type de classification simple permet à un modèle de machine learning d’apprendre rapidement. Il n’est pas nécessaire de fournir un gros volume de données lors de la phase d’apprentissage. Son exécution est de plus très rapide, comparativement à d’autres méthodes de machine learning autrement plus complexes et lourdes à mettre en œuvre.

La classification naïve bayésienne offre des résultats très efficaces dans des domaines variés. C’est aujourd’hui un algorithme largement plébiscité pour le machine learning du fait de ses calculs de probabilités peu coûteux qui lui confèrent une grande agilité.

Exemples d'application de la classification naïve bayésienne

A l’origine, la classification naïve bayésienne est utilisée dans la création de filtres antispam, la classification de documents (par catégories) ou encore les moteurs d'indexation et de recherche. Forte de ses résultats, à la fois efficaces et rapides, elle a été appliquée à d’autres domaines, comme le marketing digital et les systèmes de recommandation : à partir des données relatives au comportement d’achat d’un internaute (ce qu’il a déjà acheté), l’algorithme peut déterminer efficacement les produits ou services susceptibles d’intéresser le visiteur d’un site.

Classification naïve bayésienne vs régression logistique

La classification ou régression logistique est une autre méthode classification, également très utilisée en machine learning. Ce modèle est facilement interprétable, à l’instar de la classification naïve bayésienne. Ces deux modèles ont pour point commun d'être des classifieurs linéaires.

Concrètement, la régression logistique est modèle linéaire généralisé recourant à une fonction logistique pour faire le lien entre un ensemble de variables (par exemple des médicaments prescrits à certaines doses) et une variable qualitative (l'état de santé de patients dans notre cas). Après avoir ingéré un historique de données, le modèle a pour objectif de prédire la probabilité qu'un événement survienne, soit la guérison dans notre exemple. Quand la valeur prédite est supérieure à un certain seuil (toujours situé entre 0 et 1), cela signifie que l'événement peut se produire.