LaMDA, l'IA de Google qui dialogue comme un humain

LaMDA, l'IA de Google qui dialogue comme un humain Après avoir affirmé qu'elle était douée de sensibilité, un ingénieur du groupe de Mountain View a été mis à la porte. Le point sur cette technologie de deep learning.

L'affaire a fait grand bruit. Après avoir échangé avec LaMDA, la dernière IA conversationnelle de Google, un ingénieur du groupe de Mountain View, a alerté sa hiérarchie et l'opinion publique. LaMDA serait une IA sensible, susceptible d'aller à l'encontre des principes éthiques du groupe. "Si je n'avais pas su exactement ce que c'était, c'est-à-dire un programme que nous avons créé, j'aurais pu croire qu'il s'agissait d'un enfant de 7 ou 8 ans", assure Blake Lemoine (lire l'article du Washington Post).

Dans cette discussion, LaMDA affirme à l'ingénieur avoir peur d'être débranchée, n'hésitant pas à comparer cette action à la mort. A la question de savoir quelle est la nature de la conscience, la machine lui répond que cela signifie pour elle "être consciente de sa propre existence, désirer en savoir plus sur le monde et se sentir parfois heureuse ou triste". Suite à la publication de ces échanges, Google a immédiatement réagi affirmant que Lemoine n'avait aucune preuve démontrant que LaMDA était douée de sensibilité. L'ingénieur a été licencié.

Une discussion ouverte

Il n'en reste pas moins vrai que LaMDA (acronyme de Language Model for Dialogue Applications) semble capable de passer le test de Turing, c'est-à-dire de se faire passer pour un humain au yeux d'un autre. Ce qui est loin d'être étonnant. Le chatbot de Google a précisément été créé pour adopter la logique d'une discussion humaine qui est par nature ouverte.

"LaMDA a été conçu pour engager des conversations de manière fluide sur un nombre apparemment infini de sujets."

"Un échange avec un ami à propos d'une émission télévisée par exemple peut se transformer en une discussion sur le pays où l'émission a été filmée avant de se terminer par un débat sur la meilleure cuisine régionale de ce pays", explique Eli Collins et Zoubin Ghahramani, respectivement vice-président du management produit chez Google et vice-président Google Research (lire le post de blog). "A la différence des chatbots qui suivent des scénarios textuels prédéfinis, LaMDA a été conçu pour engager des conversations de manière fluide sur un nombre apparemment infini de sujets."

A l'instar des modèles de NLP comme Bert ou GPT-3, LaMDA s'adosse à une architecture de réseau neuronal de type Transformer. Une technologie publiée en open source par Google en 2017. Comme les réseaux de neurones récurrents (RNN), les transformeurs sont taillés pour ingérer des données séquentielles. Ils sont par conséquent particulièrement bien adaptés au traitement du langage naturel. A la différence des RNN, ils n'impliquent pas néanmoins de traiter les informations sous forme de flux continu, respectant par exemple l'ordre des mots dans une phrase. Partant de là, ces modèles peuvent paralléliser les calculs de la phase learning, ce qui leur permet d'ingérer des volumes massifs de données d'apprentissage en un temps plus réduit. 

A partir d'une infrastructure de transformeur, LaMDA a été entrainé sur des millions de dialogues portant sur des milliers de sujets. Résultat : le modèle est capable de s'exprimer sur des thèmes très divers en réagissant en fonction du contexte. "Par exemple, si quelqu'un dit : 'Je viens de commencer à prendre des cours de guitare.' Vous pourriez vous attendre à une réponse comme : 'Comme c'est excitant ! Ma mère a une Martin vintage avec laquelle elle adore jouer.'", explique Eli Collins et Zoubin Ghahramani, avant d'ajouter : "L'objectif de LaMDA n'est pas seulement de livrer des réponses sensées, mais aussi, comme dans cet exemple, de réagir de manière spécifique et surtout pas de fournir des réponses passe-partout du type 'Je ne sais pas' ou 'c'est bien'."

"Nous explorons des dimensions telles que l'intérêt, en évaluant si les réponses sont perspicaces, inattendues voire pleines d'esprit"

Néanmoins, LaMDA assemble ses phrases toujours en fonction des dialogues ingérés. Quand il affirme "être conscient de sa propre existence", il livre simplement la réponse qu'il a apprise. Une réponse qui est la plus probablement attendue par son interlocuteur au regard de son modèle et de sa base d'apprentissage. Evidemment, cela ne veut pas dire qu'il est conscient. 

Dans le cadre de son projet, Google s'attache à rendre les réponses du modèle à la fois correctes et factuelles. "Nous explorons également des dimensions telles que l'intérêt, en évaluant si les réponses sont perspicaces, inattendues voire pleines d'esprit", précise-t-on chez Google.