Biais algorithmique en IA : définition, exemples et techniques de lutte

Biais algorithmique en IA : définition, exemples et techniques de lutte [BIAIS ALGORITHMIQUE] C'est un enjeu clé de l'IA. Des historiques d'apprentissage reproduisent par exemple au sein des modèles de machine learning les discriminations qu'ils peuvent contenir naturellement.

Un biais algorithmique, c'est quoi ?

En intelligence artificielle, le biais algorithmique est un véritable enjeu. Il sous-tend l'ingestion de données subjectives par le modèle de machine learning. A lieu de se baser sur un data set représentatif, ce dernier se retrouve confronter à des données d'apprentissage biaisées introduisant une distorsion dans le traitement algorithmique du processus d'entrainement. Les biais engendrent ensuite une déviation systématique des résultats du modèle. 

Des données d'apprentissage biaisées reproduisent par exemple les discriminations qui peuvent transparaitre dans les historiques de données quand ils sont utilisés tel quel pour entraîner le modèle. Il peut s'agir des discriminations à l'embauche pour les personnes de couleurs, dépassant un certain âge ou du fait de l'identité sexuelle. Tout comme notre environnement physique, le biais offre une perception tendancieuse d’un écosystème numérique. S’il constitue une aide décisionnelle dans certaines circonstances, il est susceptibles d’altérer l’efficacité de l’IA.

Quels sont les principaux biais en IA ?

En considérant les champs d’application et les fonctions des systèmes concernés, l’IA (intelligence artificielle) est confrontée à différents types de biais algorithmiques :

  • Le biais de confirmation : Il sous-tend que le programmeur peut être sujet à des biais cognitifs qu'il peut traduire sous forme de biais algorithmiques. Une étude de l'institut AI Now de 2018 démontre que la surreprésentation des hommes blancs chez les data scientists et la sous représentation des minorités peut conduire les data scientists à ne pas suffisamment prendre en considération les biais et les discriminations potentiels. 
  • Le biais statistique : Il peut être issu des données d'entrainement voire de l'algorithme lui-même.  En 2015, Amazon a arrêté d'utiliser une IA d'aide au recrutement car elles discriminait les CV de candidats féminins du fait d'un data set d'apprentissage biaisé. Les biais statistiques peuvent aussi provenir de choix liés à l'algorithme statistique. C'est le cas du biais de variable omise, du biais de sélection ou du biais d'endogénéité.
  • Le biais économique : Il renvoie à un système d’incitation qui s’inscrit essentiellement dans une démarche commerciale ou marketing, en vue de favoriser une cible plutôt qu’une autre, par exemple tels ou tels profils sociaux culturels. Par exemple, pour une campagne publicitaire.

Comment lutter contre les biais qui peuvent émerger de l’IA ?

Le biais constitue un enjeu d’éthique et d’équité en intelligence artificielle. De par sa nature, et surtout son usage, il présente un caractère discriminatoire. Il existe cependant des solutions et des moyens pour contrer les biais algorithmiques :

  • Posséder une connaissance initiale du sujet à traiter,
  • Elaborer une définition précise des besoins réels des utilisateurs du futur modèle d'IA,
  • Utiliser des sources d’information fiables et communes pour constituer la base d'apprentissage,
  • Privilégier les équipes et les profils pluridisciplinaires,
  • Contrôler la cohérence des variables du modèles,
  • Identifier les biais potentiels à l’aide d’outils numériques spécialisés.