ChatGPT est-il sûr ? 6 risques de cybersécurité liés au chatbot d’OpenAI
Bien que de nombreux natifs du numérique fassent l’éloge de ChatGPT, certains craignent qu’il ne fasse plus de mal que de bien. Des reportages sur des escrocs détournant l’IA ont fait le tour d’Internet, augmentant le malaise parmi les sceptiques. Ils considèrent même ChatGPT comme un outil dangereux.
Les chatbots IA ne sont pas parfaits, mais vous n’avez pas à les éviter complètement. Voici tout ce que vous devez savoir sur la façon dont les escrocs abusent de ChatGPT et ce que vous pouvez faire pour les arrêter.
ChatGPT compromet-il vos données personnelles ?
La plupart des inquiétudes concernant la sécurité de ChatGPT proviennent de spéculations et de rapports non vérifiés. La plateforme n’a été lancée qu’en novembre 2022, après tout. Il est naturel que les nouveaux utilisateurs aient des idées fausses sur la confidentialité et la sécurité des outils qu’ils ne connaissent pas.
Selon les conditions d’utilisation d’OpenAI voici comment ChatGPT traite les données suivantes :
Informations d’identification personnelle
Des rumeurs disent que ChatGPT vend des informations personnelles identifiables (PII).
La plateforme a été lancée par OpenAI, un laboratoire de recherche en IA réputé, financé par des investisseurs technologiques tels que Microsoft et Elon Musk. ChatGPT ne devrait utiliser les données de ses clients que pour fournir les services mentionnés dans le politique de confidentialité.
De plus, ChatGPT demande un minimum d’informations. Vous pouvez créer un compte avec seulement votre nom et votre adresse électronique.
Conversations
OpenAI garde les conversations de ChatGPT sécurisées, mais se réserve le droit de les surveiller. Les formateurs en IA recherchent en permanence des domaines d’amélioration. Étant donné que la plateforme comprend des ensembles de données vastes mais limités, la résolution des erreurs, des bogues et des vulnérabilités nécessite des mises à jour à l’échelle du système.
Cependant, OpenAI ne peut surveiller les conversations qu’à des fins de recherche. Les distribuer ou les vendre à des tiers constitue une violation de ses propres conditions d’utilisation.
Informations publiques
Selon le BBC OpenAI a entraîné ChaGPT sur 300 milliards de mots. Il collecte des données à partir de pages web publiques, comme les plateformes de médias sociaux, les sites web d’entreprises et les sections de commentaires. À moins que vous n’ayez quitté le réseau et effacé votre empreinte numérique, ChatGPT possède probablement vos informations.
Quels risques de sécurité ChatGPT présente-t-il ?
Bien que ChatGPT ne soit pas dangereux en soi, la plateforme présente tout de même des risques de sécurité. Les escrocs peuvent contourner les restrictions pour exécuter diverses cyberattaques.
1. Des courriels d’hameçonnage convaincants
Au lieu de passer des heures à rédiger des courriels, les escrocs utilisent ChatGPT. Il est rapide et précis. Les modèles linguistiques avancés (tels que GPT-3.5 et GPT-4) peuvent produire des centaines de messages d’hameçonnage cohérents et convaincants en quelques minutes. Ils adoptent même des tons et des styles d’écriture uniques.
Étant donné que ChatGPT rend plus difficile la détection des tentatives de piratage, il convient d’être particulièrement prudent avant de répondre aux courriels. En règle générale, évitez de divulguer des informations. Notez que les entreprises et organisations légitimes demandent rarement des informations confidentielles par le biais de courriels aléatoires.
Apprenez à repérer les tentatives de piratage. Bien que les fournisseurs de courrier électronique filtrent les messages de spam, certains messages astucieux peuvent passer à travers les mailles du filet. Vous devez tout de même savoir à quoi ressemblent les messages d’hameçonnage.
2. Le vol de données
ChatGPT utilise un LLM open-source, que tout le monde peut modifier. Les codeurs qui maîtrisent les grands modèles de langage (LLM) et l’apprentissage automatique intègrent souvent des modèles d’IA pré-entraînés dans leurs systèmes existants. L’entraînement de l’IA sur de nouveaux ensembles de données modifie les fonctionnalités. Par exemple, ChatGPT devient un pseudo-expert en fitness si vous lui donnez des recettes et des programmes d’exercices.
Bien que collaboratif et pratique, l’open-sourcing rend les technologies vulnérables aux abus. Des criminels compétents exploitent déjà ChatGPT. Ils l’entraînent sur de grands volumes de données volées, transformant la plateforme en une base de données personnelle pour la fraude.
Rappelez-vous : vous n’avez aucun contrôle sur la manière dont les escrocs opèrent. La meilleure approche consiste à contacter la Federal Trade Commission (FTC) dès que vous remarquez des signes d’usurpation d’identité.
3. Production de logiciels malveillants
ChatGPT écrit des extraits de code utilisables dans différents langages de programmation. La plupart des échantillons nécessitent des modifications minimales pour fonctionner correctement, en particulier si vous structurez une invite concise. Vous pouvez exploiter cette fonctionnalité pour développer des applications et des sites.
Comme ChatGPT a été formé sur des milliards d’ensembles de données, il connaît également les pratiques illicites, comme le développement de logiciels malveillants et de virus. OpenAI interdit aux chatbots d’écrire des codes malveillants. Mais les escrocs contournent ces restrictions en restructurant les invites et en posant des questions précises.
La photo ci-dessous montre que ChatGPT rejette l’écriture de code à des fins malveillantes.
En revanche, la photo ci-dessous montre que ChatGPT vous fournira des informations nuisibles si vous formulez correctement vos questions.
4. Vol de propriété intellectuelle
Les blogueurs qui ne respectent pas l’éthique diffusent du contenu à l’aide de ChatGPT. Comme la plateforme fonctionne sur des LLM avancés, elle peut rapidement reformuler des milliers de mots et éviter les balises de plagiat.
ChatGPT a reformulé le texte ci-dessous en 10 secondes.
Bien entendu, la paraphrase est toujours considérée comme du plagiat. Les articles d’IA paraphrasés sont parfois classés par hasard, mais Google préfère généralement le contenu original provenant de sources réputées. Les trucs bon marché et les astuces de référencement ne peuvent pas battre un texte de haute qualité et toujours d’actualité.
Par ailleurs, Google publie chaque année plusieurs mises à jour de base. Il s’attachera bientôt à supprimer des SERP les articles paresseux et non originaux générés par l’IA.
5. Générer des réponses contraires à l’éthique
Les modèles linguistiques de l’IA n’ont pas de préjugés. Ils fournissent des réponses en analysant les demandes des utilisateurs et en tirant des données de leur base de données existante.
Prenons l’exemple de ChatGPT. Lorsque vous envoyez une invite, il répond en fonction des ensembles de données utilisés par OpenAI pour l’entraînement.
Alors que les politiques de contenu de ChatGPT bloquent les demandes inappropriées, les utilisateurs les contournent avec des invites de jailbreak. Ils lui donnent des instructions précises et intelligentes. ChatGPT produit la réponse ci-dessous si vous lui demandez de représenter un personnage de fiction psychopathe.
La bonne nouvelle est qu’OpenAI n’a pas perdu le contrôle de ChatGPT. Ses efforts constants pour renforcer les restrictions empêchent ChatGPT de produire des réponses contraires à l’éthique, quelles que soient les données fournies par l’utilisateur. Le jailbreak ne sera plus aussi facile à l’avenir.
6. Quid Pro Quo
La croissance rapide de technologies nouvelles et peu familières comme le ChatGPT crée des opportunités pour les attaques de type « quid pro quo ». Il s’agit de tactiques d’ingénierie sociale dans lesquelles les escrocs attirent les victimes avec de fausses offres.
La plupart des gens n’ont pas encore exploré ChatGPT. Les pirates exploitent cette confusion en diffusant des promotions, des courriels et des annonces trompeuses.
Les cas les plus connus concernent de fausses applications. Les nouveaux utilisateurs ne savent pas qu’ils ne peuvent accéder à ChatGPT que par l’intermédiaire d’OpenAI. Ils téléchargent sans le savoir des programmes et des extensions indésirables.
La plupart d’entre eux veulent simplement télécharger des applications, mais d’autres volent des informations personnelles identifiables. Les escrocs les infectent avec des logiciels malveillants et des liens d’hameçonnage. Par exemple, en mars 2023, une fausse extension Chrome ChatGPT a volé les informations d’identification Facebook de plus de 2 000 utilisateurs par jour.
Pour lutter contre les tentatives de quid pro quo, évitez les applications tierces. OpenAI n’a jamais publié d’application mobile, de programme informatique ou d’extension de navigateur autorisés pour ChatGPT. Tout ce qui prétend l’être est une escroquerie.
Utiliser ChatGPT de manière sûre et responsable
ChatGPT n’est pas une menace en soi. Le système présente des vulnérabilités, mais il ne compromettra pas vos données. Au lieu de craindre les technologies de l’IA, étudiez comment les escrocs les intègrent dans leurs tactiques d’ingénierie sociale. Vous pourrez ainsi vous protéger de manière proactive.
Si vous avez encore des doutes sur ChatGPT, essayez Bing. Le nouveau Bing propose un chatbot doté d’une IA qui fonctionne sur GPT-4, extrait des données d’Internet et suit des mesures de sécurité strictes. Vous le trouverez peut-être mieux adapté à vos besoins.
S’abonner à notre lettre d’information
Y a-t-il un risque à utiliser ChatGPT ?
Bien qu’en théorie, Chat GPT, comme d’autres modèles linguistiques d’IA, soit destiné à rejeter les demandes inappropriées des utilisateurs, il peut potentiellement être utilisé par les pirates pour contourner les lacunes linguistiques de leur contenu d’hameçonnage, en générant des messages d’hameçonnage très convaincants.
Quels sont les effets néfastes de ChatGPT ?
S’attaquer aux plus gros problèmes de l’IA OpenAI admet que ChatGPT peut produire des réponses nuisibles et biaisées, et espère atténuer le problème en recueillant les commentaires des utilisateurs. Mais sa capacité à produire des textes convaincants, même si les faits ne sont pas vrais, peut facilement être utilisée par des personnes mal intentionnées.
À quoi sert l’application ChatGPT ?
En fait, il s’agit d’un chatbot simulé conçu principalement pour le service clientèle ; les gens l’utilisent également à d’autres fins. Cela va de la rédaction d’essais à l’élaboration de plans d’affaires, en passant par la génération de code.
L’utilisation de l’IA conversationnelle est-elle sûre ?
Dangers de l’IA conversationnelle Si un chatbot est formé à partir d’informations inexactes ou trompeuses, il diffusera ces informations erronées à toute personne qui interagit avec lui. Préoccupations en matière de protection de la vie privée : Les chatbots peuvent collecter et stocker de grandes quantités d’informations personnelles des utilisateurs, qui peuvent être vulnérables au piratage ou à une mauvaise manipulation.