Comment les chatbots simulent-ils des conversations avec des personnes ?

Principaux enseignements

  • Les chatbots basés sur des règles s’appuient sur des conditions et des mots-clés prédéfinis pour fournir des réponses, sans pouvoir s’adapter au contexte ou tirer des enseignements des interactions précédentes.
  • Les chatbots d’IA, tels que ChatGPT, utilisent de grands modèles de langage formés sur des ensembles de données massifs pour simuler des conversations de type humain et comprendre le contexte conversationnel.
  • Les progrès des chatbots d’IA comprennent l’incorporation de l’intelligence générale artificielle (AGI) et des incarnations physiques, comme les robots humanoïdes, montrant le potentiel pour des interactions plus interactives et conversationnelles avec les humains.

Les chatbots sont depuis un certain temps un outil en ligne à la fois étrange et utile. L’essor des modèles de langage basés sur l’IA, tels que GPT-4 et le chatbot ChatGPT qu’il alimente, a donné un nouvel élan à l’interface homme-robot-homme. Mais comment les chatbots IA peuvent-ils simuler des conversations semblables à celles des humains ? Comment un ordinateur peut-il simuler des conversations avec des personnes ?

Que sont les chatbots ? Comment fonctionnent les chatbots ?

Avant ChatGPT, Claude et Google Bard, il existait des chatbots plus rudimentaires. Ils sont connus sous le nom de chatbots basés sur des règles ou chatbots à arbre de décision.

Un chatbot basé sur des règles ne s’adapte pas aux situations, ne comprend pas le contexte et ne peut pas simuler la logique humaine. Il dispose plutôt d’une série de règles, de modèles et d’arbres de dialogue définis par le développeur et auxquels il doit se conformer.

Les chatbots basés sur des règles suivent des conditions prédéfinies lorsqu’ils reçoivent une invite. Les mots-clés sont un facteur important ici. Le chatbot analyse les entrées de l’utilisateur à la recherche de mots spécifiques qui l’aident à comprendre ce qui lui est demandé. Sans la capacité de comprendre le contexte, un chatbot basé sur des règles doit s’appuyer sur des indices de ce type pour fournir une réponse utile.

De nombreuses entreprises utilisent des chatbots basés sur des règles comme tampon entre un client et un représentant humain. Si vous avez déjà essayé de contacter votre fournisseur d’énergie ou de services cellulaires, on vous a peut-être demandé d’expliquer d’abord votre requête à un chatbot. Il est également possible qu’un chatbot apparaisse lorsque vous visitez un site web pour poser des questions.

Les chatbots basés sur des règles ne peuvent pas répondre à des questions très alambiquées et complexes. Ils sont conçus pour répondre à des requêtes courtes et simples, telles que « Modifier les détails de mon compte ». Une question contenant de nombreuses variables sera probablement hors de portée d’un chatbot basé sur des règles, soit parce qu’il n’est pas formé pour interpréter le langage naturel, soit parce que sa base de données de connaissances est limitée.

Voir aussi :  Qu'est-ce que la mémoire à double canal et comment fonctionne-t-elle ?

Les chatbots basés sur des règles ne peuvent pas s’améliorer sans une intervention manuelle au niveau du développement. En effet, ils ne peuvent pas tirer de leçons des interactions précédentes.

Les chatbots IA sont également soumis à des règles. Le ChatGPT, par exemple, ne peut pas jurer ou donner des conseils en matière de criminalité. Cependant, la manière dont les chatbots IA fonctionnent et interagissent va bien au-delà de ce qu’un chatbot basé sur des règles peut gérer.

Comment fonctionnent les chatbots d’IA

Les chatbots d’IA n’ont pas commencé avec le ChatGPT. Avant que le ChatGPT n’atteigne le grand public, certains chatbots moins avancés utilisaient encore l’IA pour interagir avec leurs utilisateurs humains.

Prenez Eviebot par exemple. Lancée en 2008, Evie utilise l’IA pour interagir avec les utilisateurs. En tant que chatbot d’apprentissage, Evie peut développer ses compétences conversationnelles en notant ce que les autres utilisateurs ont tapé dans le passé. En fait, Evie utilise le même système d’IA que Cleverbot, un autre chatbot qui a connu un grand succès à la fin des années 2000 et au début des années 2010.

Mais ce chatbot est très éloigné des versions modernes que nous utilisons aujourd’hui.

Comme vous pouvez le voir dans la capture d’écran ci-dessus, Evie n’est pas très douée pour répondre aux questions avec précision ou pour garder à l’esprit l’historique de la conversation. En quelques secondes, le chatbot a dit qu’il s’appelait Eliza, mais l’a remplacé par Adam dans la réponse suivante.

De plus, Evie n’est pas une grande source d’information. Lorsque nous lui avons demandé quelle était la taille du soleil, elle a répondu : « Plus grand que mon avenir ». Bien que comique, Evie n’est pas douée pour fournir aux utilisateurs des faits, même s’ils sont courants. Si vous recherchez une expérience de chatbot plus amusante ou plus bizarre, Evie est peut-être le bon choix pour vous.

Des sites comme Cleverbot et Evie sont certainement divertissants, mais ils ne sont pas adaptés à une utilisation pratique. À la fin de l’année 2022, le monde a commencé à voir à quel point les chatbots IA pouvaient être incroyablement utiles.

Comment les chatbots simulent-ils les conversations ?

La question demeure : comment les chatbots d’IA tels que ChatGPT simulent-ils des conversations exactes avec des humains ? Comment peuvent-ils sembler presque indiscernables d’une personne ordinaire assise devant un clavier ?

Voir aussi :  Qu'est-ce qu'un VRM sur une carte mère et pourquoi est-il important ?

En novembre 2022, l’OpenAI a publié une version accessible au public de son grand modèle linguistique GPT-3.5, appelé ChatGPT. Il s’agissait du premier chatbot d’IA à démontrer sa capacité à simuler des conversations très humaines. Nous avons consacré un article à l’explication détaillée de ChatGPT, mais il y a quelques points importants à noter ici.

Tout d’abord, l’élément « GPT » du nom de l’outil signifie « Generative Pre-trained Transformer » (transformateur génératif pré-entraîné), qui est une sorte de grand modèle de langage (LLM). Vous avez peut-être vu ces deux termes utilisés à maintes reprises au cours de l’année 2023, mais qu’est-ce qu’ils signifient réellement ?

Un LLM est un modèle d’apprentissage de l’IA utilisé par tous les principaux chatbots d’IA que vous voyez aujourd’hui. Il est alimenté par un algorithme d’IA qui utilise l’apprentissage profond pour fonctionner à un niveau incroyablement complexe. Tous les LLM sont formés à l’aide de très grands ensembles de données, ce qui leur donne un énorme réservoir de connaissances pour résoudre les problèmes et répondre aux demandes. ChatGPT-4, par exemple, a été formé avec entre 1 000 et 1 700 milliards de paramètres et des téraoctets de données (bien qu’OpenAI n’ait pas révélé combien exactement).

Un GPT est un type spécifique de LLM comprenant un réseau neuronal capable d’apprentissage en profondeur. Les GPT sont des modèles pré-entraînés qui reçoivent d’énormes bases de données d’informations à partir desquelles ils peuvent apprendre. Dans le cas de ChatGPT, il s’agit de textes provenant de livres, de revues, d’articles, etc. Mais même avec toutes ces données, comment ChatGPT parvient-il à parler aux gens d’une manière semblable à celle d’un humain ?

Au cours de son développement, ChatGPT a été formé à l’aide de la méthode d’apprentissage par renforcement à partir du retour d’information humain (RLHF). Cette forme de formation utilise le renforcement pour transformer ChatGPT en chatbot souhaité. Grâce à un modèle de récompense et de retour d’information, ChatGPT peut comprendre quelles réponses sont utiles ou « bonnes » et lesquelles ne le sont pas. Cette méthode permet également à ChatGPT de mieux comprendre le contexte de la conversation, ce qui lui permet de répondre plus efficacement aux questions.

Le traitement du langage naturel de ChatGPT joue également un rôle important dans la manière dont il répond aux utilisateurs, notamment en reconnaissant des modèles de langage et des sentiments spécifiques. Lors de sa formation, l’algorithme a reçu des exemples de conversations humaines afin de mieux comprendre comment les humains communiquent. L’algorithme peut même prendre note d’indices, tels que les salutations et les adieux, afin de suivre l’évolution de la conversation.

Voir aussi :  Les 8 écouteurs les plus durables de 2022

Comment les chatbots IA progressent-ils ?

Crédit photo : Thanakorn Lappattara/Vecteezy

OpenAI a publié des informations limitées sur GPT-5, la prochaine itération de son LLM. Ce qui est particulièrement intéressant à propos de GPT-5 (en plus de sa base de connaissances plus récente), c’est qu’il est supposé incorporer l’intelligence générale artificielle (AGI) dans son algorithme. Étant donné que l’AGI devrait théoriquement être capable de simuler la cognition humaine, cela pourrait changer la donne.

ChatGPT a pris le monde d’assaut et continue de le faire, mais les chatbots d’IA ne s’arrêtent pas à OpenAI. Des entreprises du monde entier s’efforcent d’améliorer leurs chatbots d’IA afin de simuler des conversations avec des personnes, certains chatbots d’IA passant même à un niveau physique.

Prenons l’exemple de Desdemona, un modèle de robot humanoïde qui utilise l’IA pour communiquer.

Créée par Hanson Robotics et SingularityNET, Desdemona est la « sœur » du célèbre robot Sophia, qui a fait la une de nombreux journaux en raison de ses caractéristiques et de son tempérament impressionnants, mais étrangement semblables à ceux des humains.

Contrairement à Sophia, Desdemona se concentre sur la musique et fait même partie d’un groupe avec d’autres musiciens humains. L’algorithme d’IA puise dans une bibliothèque de musique préexistante, ce qui permet à Desdemona de chanter des chansons populaires. Le robot s’est même produit en direct avec ses compagnons de groupe.

Mais Desdemona peut aussi parler et tenir des conversations avec des personnes. En 2022, Desdemona a été interviewée par le créateur de YouTube Discover Crypto, dans lequel le créateur de son algorithme d’IA, Ben Goertzel, a également répondu à certaines questions sur l’IA et son avenir.

La blague de longue date de Desdemona sur le fait de garder les humains dans des aquariums peut être troublante pour certains, mais sa capacité à répondre à des invites non répétées montre le potentiel de l’IA à interagir avec les humains d’une manière amicale et conversationnelle.

L’IA devient de plus en plus intelligente

Au cours de la dernière décennie, d’énormes progrès ont été réalisés dans le domaine de l’IA, les chatbots étant désormais capables de raconter des blagues, de rédiger des essais, de traduire des langues et de fournir une grande quantité d’informations. Surtout, ils ont l’incroyable capacité de simuler des conversations humaines. Un jour, nous verrons peut-être les chatbots surpasser les capacités humaines, mais pour l’instant, il y a beaucoup de place pour l’amélioration.

Cliquez pour évaluer cet article !
[Total: Moyenne : ]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *