Ce début d’année 2023 a été marqué par la mise en avant d’un nouvel outil technologique sur la scène publique, à savoir ChatGPT, un chatbot présenté comme étant capable de répondre à une large variété de questions et de demandes formulées par tout un chacun. Cet outil, bien que généralement considéré comme une révolution, est plutôt le fruit de l’évolution de la recherche scientifique autour de la construction du dialogue entre l’humain et la machine, via le langage humain. Dans cet article, nous proposons un aperçu de ce domaine pour ensuite discuter du cas spécifique de ChatGPT. Nous clôturerons par nos recherches sur le sujet au sein du CETIC.
Le terme « chatbot » désigne un programme informatique capable de dialoguer avec un utilisateur via le langage humain. L’origine de ce terme est généralement associée au test inventé par Turing en 1950. Celui-ci vise à évaluer les capacités anthropomorphiques d’une machine : dans quelle mesure est-elle capable de mener des conversations indiscernables de celle d’un humain ? Ce test, encore d’application aujourd’hui, a permis de donner un cap pour la mise au point de chatbots de plus en plus performants. Dans un premier temps, ce domaine d’expérimentation est cependant resté confiné au sein d’une petite communauté de passionnés de technologie. Par la suite, vers les années 2010, l’arrivée d’assistants virtuels tels que Siri, Alexia, Google Assistant et Cortana a permis de populariser la notion de chatbot. De nos jours, les chatbots sont utilisés dans de multiples domaines tels que le service clientèle, le secteur médical et de l’éducation. Au vu de leur succès, on peut raisonnablement s’attendre à ce que les chatbots deviennent encore davantage présents dans notre quotidien.
Le renforcement de cette proximité homme-machine n’est cependant pas sans risque comme nous le rappelle un évènement tragique récent, à savoir le suicide d’un Belge en contact étroit avec un chatbot [1]. Une réflexion est en cours au niveau de L’Union Européenne pour un renforcement du cadre légal lié à l’utilisation de ces outils [2].
Au fil du temps, la façon de concevoir les chatbots a donc évolué en suivant l’évolution de la technologie du traitement du langage humain par la machine : de règles d’abord statiques vers des approches basées sur des modèles statistiques type apprentissage profond. Le diagramme représenté ci-dessous reprend une architecture générale des chatbots représentative des fonctionnalités les plus communes des chatbots et ce quel que soit leur degré d’évolution.
Le fonctionnement est le suivant. Le chatbot reçoit un texte de l’utilisateur en entrée. Ce texte fait l’objet d’un prétraitement visant à en extraire l’information utile pour l’analyse (NLP - Natural Language Processing) : mettre tout en lettres minuscules, enlever les signes de ponctuation, extraire la racine du mot,… Après ce prétraitement, le processus vise à identifier l’intention de l’utilisateur et les mots clés éventuels liés à cette intention (NLU - Natural Language Understanding), tel que le fait de chercher un service de livraison de pizza (intention) pour la région de Namur (mot clé). Une fois cette étape terminée, la formulation de la réponse à l’utilisateur se base sur une source de connaissance interne ou externe au chatbot. Cette réponse est finalement transmise à l’utilisateur.
Notre revue de la littérature scientifique sur les chatbots nous a permis de mettre en évidence les traits distinctifs principaux suivants des chatbots. Le critère le plus évident est le mode de communication avec l’utilisateur. La plupart des chatbots communiquent via échange de textes. Cependant, certains communiquent également par la voix ou par image voire de façon hybride, en permettant à l’utilisateur le choix du mode de communication.
Un autre trait distinctif est le domaine d’expertise du chatbot. Il peut être ouvert ou fermé. Dans un domaine fermé, le chatbot est conçu pour ne répondre qu’à des demandes opportunes à ce domaine tel que le service après-vente d’un magasin de vente à distance. Par contre, dans le domaine ouvert, le chatbot est susceptible de recevoir tout type de demande de la part de l’utilisateur, sans filtre à priori.
Un trait qui suscite une attention croissante de la communauté scientifique est la capacité d’anthropomorphisme du chatbot. Au-delà de la relevance de la réponse à la demande posée, il s’agit d’évaluer d’autres aptitudes habituellement associées à un interlocuteur humain, tel que le fait de nourrir la conversation, répondre adéquatement aux questions indésirables ou de mettre en évidence des traits de personnalités.
Un dernier trait qui a retenu notre attention est la façon dont est stockée la connaissance du chatbot. Cette connaissance peut être enregistrée sous la forme d’une base de connaissance de mots (bruts ou numérisés) ou sous la forme d’un modèle statistique conçu à partir d’un grand corpus de mots.
Le mode de stockage de la connaissance va influencer la façon dont la demande de l’utilisateur va être traitée. Ainsi, en reprenant l’architecture standard des chatbots décrite ci-dessus, le prétraitement appliqué à la demande sera habituellement plus important dans le cadre d’un modèle. La détection de l’intention de l’utilisateur inclut aussi typiquement l’ensemble de l’interaction et pas uniquement la dernière demande.
La différence de traitement la plus marquée entre les deux modes de stockage est cependant la façon dont est générée la réponse. Dans le cas d’une base de connaissance de mots, la réponse la plus appropriée est choisie à partir d’un ensemble de réponses possibles préexistantes. Dans le cas d’un modèle statistique, la réponse est générée dynamiquement au moment de la demande. On notera ainsi que la réponse offerte par un chatbot avec une base de connaissance de mots est déterministe : la même réponse sera à chaque fois offerte pour une même demande. Cette caractéristique rend ce type de chatbot plus approprié à un domaine fermé où l’exactitude de la réponse à la question posée est habituellement le critère d’évaluation le plus important.
Cependant, ce type de chatbot souffre de deux limites principales. D’une part, ce type de chatbot ne permet pas de répondre à une demande qui ne fait pas partie de la base de connaissance. D’autre part, sa capacité à afficher des traits humains peut être altérée par cet aspect déterministe. Pour un chatbot alimenté par un modèle statistique, la réalité est tout autre. Le modèle statistique permet d’offrir une réponse à tout type de question mais elle peut varier d’une demande à l’autre. Ce type de chatbot est habituellement plus opportun dans un domaine ouvert où l’aspect créatif prédomine par rapport à l’aspect factuel.
ChatGPT est actuellement l’égérie des chatbots alimentés par un modèle statistique. La version 4 vient juste de sortir, 4 mois après la précédente (v3.5), mais elle est peu connue suite au fait qu’elle est uniquement accessible sur base d’un abonnement payant. Dans ce qui suit, nous discuterons principalement de la version 3.5, accessible au public depuis novembre 2022. Ce modèle comporte 175 milliards de paramètres soit plus de 100 fois plus de paramètres que sa version précédente (v2). Il a été créé par la société OpenAI. Cette société a été fondée en 2015, sous la forme d’une association à but non lucratif, dans le but d’aider l’humanité via l’intelligence artificielle. Depuis 2019, la finalité de cette société a changé et elle inclut également des activités commerciales classiques.
ChatGPT v3.5 fonctionne via échange de textes et est accessible à tous pour une large gamme de demande tel que répondre à des questions fermées ou ouvertes (exemple : que faire si on a oublié d’acheter un cadeau pour la Saint Valentin ?), aide à la rédaction de textes ou de codes (https://chat.openai.com/chat). En termes de capacités anthropomorphiques, il tient compte du contexte de la demande, donc de l’ensemble de l’interaction avec l’utilisateur. Il est donc possible de préciser la demande si la réponse donnée par ChatGPT n’est pas jugée satisfaisante par l’utilisateur. Il est aussi entraîné à décliner les demandes jugées inappropriées d’un point de vue légal ou éthique. Enfin, on peut lui demander de formuler sa réponse dans un style donné (exemples : en Wallon, à la façon d’un maître d’école), mais il n’adapte pas la réponse à son interlocuteur de sa propre initiative.
Suite à nos tests, notre ressenti est que, à l’image du cerveau humain, deux hémisphères s’affrontent derrière les réponses apportées par ChatGPT : un hémisphère gauche dédié à la recherche de la vérité et un hémisphère droit dédié à la recherche de la créativité. Selon le type de demande, un des deux hémisphères est prédominant, ou bien les deux interviennent. Dans le cas où la demande se rapporte à la résolution d’un problème, de création ou de test de code, de remaniement de texte, l’hémisphère gauche est principalement actionné et la réponse est généralement de bonne qualité, mais elle n’est pas infaillible pour autant. Évitez par exemple de lui poser des problèmes contenant des subtilités de langage. Pour d’autres demandes portant sur la création de texte sur base d’indications de l’utilisateur (exemple : un conte avec des crocodiles et des vikings), l’hémisphère droit est davantage prédominant. Le résultat obtenu est généralement également intéressant, mais il peut y avoir des points d’amélioration tels qu’un faible niveau de contenu, des répétitions ou des phrases non terminées. Enfin dans le cas de questions factuelles, les deux hémisphères de ChatGPT interviennent : pour autant que la demande passe le filtre des questions jugées inappropriées, il donne toujours une réponse. A l’instar d’un bon parleur, s’il connaît la réponse, il répond adéquatement, sinon il invente une réponse plausible. Il peut aussi notamment discourir sur les différences entre les œufs de poules et les œufs de vache…
De notre point de vue, en dehors de ce dernier cas d’utilisation déconseillé, ChatGPT offre un support utile à son utilisateur, pour autant qu’il ait l’expertise nécessaire pour valider et améliorer au besoin la réponse obtenue. Dans un cadre professionnel, cet outil peut donc offrir un gain de productivité appréciable pour différents métiers notamment ceux liés à la création de contenu textuels et de programmes informatiques.
Cet outil n’est cependant pas sans risque d’un point de vue sociétal. Le secteur éducatif pourrait être particulièrement touché par cet outil : comment s’assurer que l’auteur d’un devoir ou tout autre rapport rédigé en dehors des murs de l’école est bien l’apprenant et pas ChatGPT ? De façon plus générale, on pourra dorénavant se poser la question de l’auteur réel d’un écrit. De plus, de par sa capacité à traiter de grands volumes de demandes, ce chatbot pourrait contribuer non seulement à un appauvrissement du contenu des informations disponibles sur le web mais aussi à une désinformation de masse. Enfin, malgré le fait qu’il soit entraîné pour filtrer les demandes indésirables, ChatGPT est susceptible de rendre accessible l’accomplissement d’actions malveillantes nécessitant une certaine expertise à un public plus large tel que la mise au point de logiciels de piratage.
Par rapport à cette version v3.5, le nouveau ChatGPT v4 rencontrerait, selon ses créateurs, une partie des faiblesses identifiées. Il serait 82% moins susceptible de répondre à des demandes non désirées et 40% plus susceptible de répondre correctement à des questions factuelles [3]. Outre ces améliorations, l’apport le plus marquant de cette version est le fait que Chat GPT peut maintenant exploiter des images transmises par l’utilisateur.
Le CETIC a développé ces dernières années une expertise dans la conception de chatbots, suite à des collaborations avec des entreprises wallonnes désireuses d’accélérer leur transformation digitale. Actuellement, nos intérêts de recherche dans ce domaine concernent principalement la conception de chatbots capables de traduire des demandes émanant d’utilisateurs néophytes en spécifications techniques pour un besoin métier précis. A titre illustratif, nous investiguons notamment l’apport d’un chatbot pour concevoir des tableaux de bords dynamiques pour suivre l’évolution de séries temporelles collectées dans notre outil TSorage. Sur cette même thématique de recherche, nous collaborons également avec l’Université de Namur dans le cadre d’une thèse de doctorat portant plus généralement sur la mise au point de tableaux de bords dynamiques basés sur une interaction entre un chatbot et un utilisateur métier.