Faut-il faire appel à un LLM local ? 9 avantages et inconvénients
Points clés à retenir
- Moins de censure : Les LLM locaux offrent la liberté de discuter de sujets stimulants sans les restrictions imposées aux chatbots publics, ce qui permet des conversations plus ouvertes.
- Meilleure confidentialité des données : En utilisant un LLM local, toutes les données générées restent sur votre ordinateur, ce qui garantit la confidentialité et empêche l’accès aux entreprises gérant des LLM publics.
- Utilisation hors ligne : Les LLM locaux permettent une utilisation ininterrompue dans des zones éloignées ou isolées sans accès fiable à l’internet, ce qui constitue un outil précieux dans de tels scénarios.
Depuis l’arrivée de ChatGPT en novembre 2022, le terme large language model (LLM) est rapidement passé d’un terme de niche pour les nerds de l’IA à un mot à la mode sur toutes les lèvres. Le plus grand attrait d’un LLM local est la possibilité de reproduire les capacités d’un chatbot comme ChatGPT sur votre ordinateur sans le bagage d’une version hébergée dans le nuage.
Il existe des arguments pour et contre la mise en place d’un LLM local sur votre ordinateur. Nous allons mettre fin au battage médiatique et vous présenter les faits. Devriez-vous utiliser un LLM local ?
Les avantages de l’utilisation de LLM locaux
Pourquoi les gens sont-ils si enthousiastes à l’idée de créer leurs propres modèles linguistiques sur leurs ordinateurs ? Au-delà du battage médiatique et de la vantardise, quels sont les avantages pratiques ?
1. Moins de censure
Lorsque ChatGPT et Bing AI ont été mis en ligne pour la première fois, les choses que les deux chatbots étaient prêts à dire et à faire étaient aussi fascinantes qu’inquiétantes. Bing AI se montrait chaleureux et charmant, comme s’il avait des émotions. ChatGPT était prêt à utiliser des jurons si vous le lui demandiez gentiment. À l’époque, les deux chatbots pouvaient même vous aider à fabriquer une bombe si vous utilisiez les bons messages. Cela peut sembler tout à fait faux, mais le fait de pouvoir faire n’importe quoi était emblématique des capacités illimitées des modèles de langage qui les alimentaient.
Aujourd’hui, les deux chatbots ont été si étroitement censurés qu’ils ne vous aideront même pas à écrire un roman policier fictif avec des scènes violentes. Certains chatbots d’IA ne veulent même pas parler de religion ou de politique. Bien que les LLM que vous pouvez mettre en place localement ne soient pas totalement exempts de censure, nombre d’entre eux se chargeront volontiers de faire les choses qui incitent à la réflexion que les chatbots publics ne font pas. Par conséquent, si vous ne voulez pas qu’un robot vous donne des leçons de morale lorsque vous discutez de sujets qui vous intéressent personnellement, la gestion d’un LLM local peut être la bonne solution.
2. Une meilleure confidentialité des données
L’une des principales raisons pour lesquelles les gens optent pour un LLM local est de s’assurer que tout ce qui se passe sur leur ordinateur reste sur leur ordinateur. Lorsque vous utilisez un LLM local, c’est comme si vous aviez une conversation privée dans votre salon – personne de l’extérieur ne peut l’écouter. Que vous manipuliez les données de votre carte de crédit ou que vous ayez des conversations personnelles délicates avec le LLM, toutes les données qui en résultent sont stockées uniquement sur votre ordinateur. L’autre solution consiste à utiliser des LLM publics tels que GPT-4, ce qui permet aux entreprises responsables d’accéder à vos informations de chat.
3. Utilisation hors ligne
L’internet étant largement abordable et accessible, l’accès hors ligne peut sembler une raison triviale d’utiliser un LLM local. L’accès hors ligne peut devenir particulièrement critique dans les endroits éloignés ou isolés où le service Internet n’est pas fiable ou disponible. Dans de tels scénarios, un LLM local fonctionnant indépendamment d’une connexion internet devient un outil vital. Il vous permet de continuer à faire ce que vous voulez sans interruption.
4. Économies de coûts
Le prix moyen d’accès à un LLM performant comme GPT-4 ou Claude 2 est de 20 $ par mois. Bien que ce prix ne semble pas alarmant, il s’accompagne de plusieurs restrictions gênantes. Par exemple, avec GPT-4, accessible via ChatGPT, vous êtes coincé avec une limite de 50 messages par trois heures. Vous ne pouvez dépasser ces limites qu’en passant au plan ChatGPT Enterprise, qui peut potentiellement coûter des milliers de dollars. Avec un LLM local, une fois le logiciel installé, il n’y a pas d’abonnement mensuel de 20 dollars ni de frais récurrents à payer. C’est comme acheter une voiture au lieu de dépendre des services de covoiturage. Au départ, c’est cher, mais au fil du temps, vous économisez de l’argent.
5. Une meilleure personnalisation
Les chatbots d’IA disponibles dans le public ont une personnalisation restreinte en raison de préoccupations liées à la sécurité et à la censure. Avec un assistant d’IA hébergé localement, vous pouvez entièrement personnaliser le modèle en fonction de vos besoins spécifiques. Vous pouvez former l’assistant sur des données propriétaires adaptées à vos cas d’utilisation, améliorant ainsi la pertinence et la précision. Par exemple, un avocat pourrait optimiser son IA locale pour générer des informations juridiques plus précises. Le principal avantage est le contrôle de la personnalisation en fonction de vos besoins uniques.
Les inconvénients de l’utilisation de LLM locaux
Avant de passer à l’action, il y a quelques inconvénients à l’utilisation d’un LLM local que vous devriez prendre en compte.
1. Intensité des ressources
Pour exécuter un LLM local performant, vous aurez besoin d’un matériel haut de gamme. Pensez à des processeurs puissants, beaucoup de RAM et probablement un GPU dédié. Ne vous attendez pas à ce qu’un ordinateur portable à 400 dollars vous offre une bonne expérience. Les réponses seront terriblement lentes, en particulier avec les grands modèles d’IA. C’est comme pour les jeux vidéo de pointe : vous avez besoin d’un ordinateur puissant pour obtenir des performances optimales. Il se peut même que vous ayez besoin de solutions de refroidissement spécialisées. En résumé, les LLM locaux nécessitent un investissement dans du matériel de haut niveau pour obtenir la vitesse et la réactivité dont vous bénéficiez sur les LLM basés sur le Web (ou même les améliorer). Les exigences informatiques de votre côté seront importantes par rapport à l’utilisation de services basés sur le web.
2. Réponses plus lentes et performances inférieures
Une limitation courante des LLM locaux est la lenteur des temps de réponse. La vitesse exacte dépend du modèle d’IA spécifique et du matériel utilisé, mais la plupart des configurations sont à la traîne par rapport aux services en ligne. Après avoir obtenu des réponses instantanées de ChatGPT, Bard et autres, les LLM locaux peuvent sembler étonnamment lents. Les mots s’écoulent lentement au lieu d’être retournés rapidement. Ce n’est pas le cas partout, car certains déploiements locaux offrent de bonnes performances. Mais les utilisateurs moyens sont confrontés à une chute brutale par rapport à l’expérience web rapide. Préparez-vous donc à un « choc culturel » entre des systèmes en ligne rapides et des équivalents locaux plus lents.
En bref, à moins que vous ne disposiez d’une configuration haut de gamme (AMD Ryzen 5800X3D avec Nvidia RTX 4090 et suffisamment de RAM pour couler un navire), les performances globales de votre LLM local ne seront pas comparables à celles des chatbots d’IA générative en ligne auxquels vous êtes habitués.
3. Configuration complexe
Le déploiement d’un LLM local est plus complexe que la simple inscription à un service d’IA basé sur le web. Avec une connexion Internet, votre compte ChatGPT, Bard ou Bing AI peut être prêt à lancer des messages en quelques minutes. La mise en place d’une pile LLM locale complète nécessite le téléchargement de cadres, la configuration de l’infrastructure et l’intégration de divers composants. Pour les modèles plus importants, ce processus complexe peut prendre des heures, même avec des outils qui visent à simplifier l’installation. Certains systèmes d’IA de pointe nécessitent encore une expertise technique approfondie pour fonctionner localement. Ainsi, contrairement aux modèles d’IA prêts à l’emploi basés sur le web, la gestion de votre propre IA implique un investissement technique et temporel important.
4. Connaissances limitées
Un grand nombre de gestionnaires locaux de fonds d’investissement sont bloqués dans le passé. Ils ont une connaissance limitée des événements actuels. Vous souvenez-vous de l’époque où le ChatGPT ne pouvait pas accéder à l’internet ? Lorsqu’il ne pouvait répondre qu’aux questions portant sur des événements survenus avant septembre 2021 ? Oui ? Eh bien, à l’instar des premiers modèles de ChatGPT, les modèles linguistiques hébergés localement ne sont souvent formés que sur des données antérieures à une certaine date limite. Par conséquent, ils n’ont pas conscience des développements récents survenus après cette date.
En outre, les modèles linguistiques locaux ne peuvent pas accéder aux données Internet en temps réel. Cela limite leur utilité pour les requêtes en temps réel telles que les cours de la bourse ou la météo. Pour bénéficier d’un semblant de données en temps réel, les LLM locaux auront généralement besoin d’une couche supplémentaire d’intégration avec des services connectés à l’internet. L’accès à Internet est l’une des raisons pour lesquelles vous pourriez envisager de passer à ChatGPT Plus !
Devriez-vous utiliser un LLM local ?
Les modèles linguistiques locaux à grande échelle présentent des avantages intéressants, mais aussi des inconvénients réels qu’il convient de prendre en compte avant de se lancer. Moins de censure, une meilleure protection de la vie privée, un accès hors ligne, des économies de coûts et la personnalisation constituent des arguments convaincants en faveur de la mise en place d’un LLM local. Avec de nombreux LLM disponibles gratuitement en ligne, se lancer dans un LLM local peut s’apparenter à écraser une mouche avec un marteau de forgeron – c’est possible mais c’est exagéré. Mais n’oubliez pas que si c’est gratuit, c’est vous et les données que vous générez qui êtes le produit. Il n’y a donc pas de bonne ou de mauvaise réponse aujourd’hui. C’est l’évaluation de vos priorités qui déterminera si le moment est venu de passer à l’action.
Améliorez votre QI technologique grâce à nos lettres d’information gratuites
En vous abonnant, vous acceptez notre politique de confidentialité et pouvez recevoir des communications occasionnelles ; vous pouvez vous désabonner à tout moment.