LaMDA : l'IA de Google qui dialogue comme un humain
Après avoir affirmé que LaMDA était douée de sensibilité, un ingénieur du groupe de Mountain View a été mis à la porte. Cette technologie de deep learning est néanmoins capable de passer le test de Turing.
LaMDA, c'est quoi ?
LaMDA, acronyme de language model dialogue applications, est une famille de modèles de langage développé par Google. La première génération de cette technologie a été annoncée en juin 2021, et la deuxième génération en juin 2022. Orienté NLP (pour natural language processing), LaMDA est une IA conçue comme son nom l'indique pour tenir une conversation.
LaMDA est-il doué de sensibilité ?
L'affaire a fait grand bruit. Après avoir échangé avec LaMDA, un ingénieur de Google, a alerté sa hiérarchie et l'opinion publique. LaMDA serait une IA sensible, susceptible d'aller à l'encontre des principes éthiques du groupe qui l'a créée. "Si je n'avais pas su exactement ce que c'était, c'est-à-dire un programme que nous avons développé, j'aurais pu croire qu'il s'agissait d'un enfant de 7 ou 8 ans", assure Blake Lemoine (lire l'article du Washington Post).
Dans cette discussion, LaMDA affirme à l'ingénieur avoir peur d'être débranchée, n'hésitant pas à comparer cette action à la mort. A la question de savoir quelle est la nature de la conscience, la machine lui répond que cela signifie pour elle "être consciente de sa propre existence, désirer en savoir plus sur le monde et se sentir parfois heureuse ou triste". Suite à la publication de ces échanges, Google a immédiatement réagi affirmant que Lemoine n'avait aucune preuve démontrant que LaMDA était douée de sensibilité. L'ingénieur a été licencié.
LaMDA est-il capable de passer le test de Turing ?
LaMDA semble en effet capable de passer le test de Turing, c'est-à-dire de se faire passer pour un humain au yeux d'un autre. Ce qui est loin d'être étonnant. Le chatbot de Google a précisément été créé pour adopter la logique d'une discussion humaine qui est par nature ouverte.
"LaMDA a été conçu pour engager des conversations de manière fluide sur un nombre apparemment infini de sujets."
"Un échange avec un ami à propos d'une émission télévisée par exemple peut se transformer en une discussion sur le pays où l'émission a été filmée avant de se terminer par un débat sur la meilleure cuisine régionale de ce pays", explique Eli Collins et Zoubin Ghahramani, respectivement vice-président du management produit chez Google et vice-président Google Research (lire le post de blog). "A la différence des chatbots qui suivent des scénarios textuels prédéfinis, LaMDA a été conçu pour engager des conversations de manière fluide sur un nombre apparemment infini de sujets."
Comment fonctionne LaMDA ?
A l'instar des modèles de NLP comme Bert ou GPT-3, LaMDA s'adosse à une architecture de réseau neuronal de type Transformer. Une technologie publiée en open source par Google en 2017. Comme les réseaux de neurones récurrents (RNN), les transformeurs sont taillés pour ingérer des données séquentielles. Ils sont par conséquent particulièrement bien adaptés au traitement du langage naturel. A la différence des RNN, ils n'impliquent pas néanmoins de traiter les informations sous forme de flux continu, respectant par exemple l'ordre des mots dans une phrase. Partant de là, ces modèles peuvent paralléliser les calculs de la phase learning, ce qui leur permet d'ingérer des volumes massifs de données d'apprentissage en un temps plus réduit.
Quel est le potentiel de LaMDA ?
LaMDA a été entrainé sur des millions de dialogues portant sur des milliers de sujets. Résultat : le modèle est capable de s'exprimer sur des thèmes très divers en réagissant en fonction du contexte. "Par exemple, si quelqu'un dit : 'Je viens de commencer à prendre des cours de guitare.' Vous pourriez vous attendre à une réponse comme : 'Comme c'est excitant ! Ma mère a une Martin vintage avec laquelle elle adore jouer.'", explique Eli Collins et Zoubin Ghahramani, avant d'ajouter : "L'objectif de LaMDA n'est pas seulement de livrer des réponses sensées, mais aussi, comme dans cet exemple, de réagir de manière spécifique et surtout pas de fournir des réponses passe-partout du type 'Je ne sais pas' ou 'c'est bien'."
Néanmoins, LaMDA assemble ses phrases toujours en fonction des dialogues ingérés. Quand il affirme "être conscient de sa propre existence", il livre simplement la réponse qu'il a apprise. Une réponse qui est la plus probablement attendue par son interlocuteur au regard de son modèle et de sa base d'apprentissage. Evidemment, cela ne veut pas dire qu'il est conscient. Dans le cadre de son projet, Google s'attache à rendre les réponses du modèle à la fois correctes et factuelles. "Nous explorons également des dimensions telles que l'intérêt, en évaluant si les réponses sont perspicaces, inattendues voire pleines d'esprit", précise-t-on chez Google.