Qu’est-ce que FraudGPT ? Comment se protéger de ce dangereux chatbot ?

L’essor de l’intelligence artificielle (IA) est une arme à double tranchant. Comme toute technologie transformatrice, l’IA offre un immense potentiel, mais aussi d’énormes risques. Malgré la pression insistante pour réglementer l’IA, les acteurs de la menace semblent avoir pris de l’avance.

Un nouvel outil de type ChatGPT, FraudGPT, gagne en popularité parmi les cybercriminels, leur permettant d’automatiser et de mieux exécuter une grande partie de leurs opérations de fraude. Tout le monde peut en être victime, c’est pourquoi il est important de rester informé. Voici tout ce que nous savons sur FraudGPT à ce jour.

Qu’est-ce que FraudGPT ?

FraudGPT est un outil d’IA alimenté par un vaste modèle linguistique particulièrement affiné pour aider les cybercriminels à commettre des actes de cybercriminalité. L’outil d’IA basé sur un abonnement permet aux acteurs de la menace de faciliter leurs activités criminelles telles que le carding, le phishing et la création de logiciels malveillants.

Bien que les détails sur l’outil restent très limités, les chercheurs de Netenrich, une société de recherche en sécurité, ont découvert plusieurs annonces sur le dark web faisant la publicité de l’outil. Selon le rapport de recherche de Netenrich les frais d’abonnement varient entre 200 $ par mois et 1 700 $ par an.

Pour mieux comprendre l’outil, on peut considérer FraudGPT comme ChatGPT, mais pour la fraude. Mais comment fonctionne exactement FraudGPT et comment les cybercriminels l’utilisent-ils ?

Comment fonctionne FraudGPT ?

Crédit image : Freepik

Au fond, FraudGPT n’est pas très différent de n’importe quel outil fonctionnant avec un grand modèle linguistique. En d’autres termes, l’outil lui-même est une interface interactive permettant aux criminels d’accéder à un type particulier de modèle de langage qui a été adapté pour commettre des cybercrimes.

Voir aussi :  Pourquoi vous devez faire attention à ce que vous partagez sur les médias sociaux

Vous ne comprenez toujours pas ? Voici une idée générale de ce dont nous parlons. Au début du lancement de ChatGPT, le chatbot d’IA pouvait être utilisé pour faire à peu près n’importe quoi, y compris aider les cybercriminels à créer des logiciels malveillants. Cela a été possible parce que le modèle linguistique sous-jacent de ChatGPT a été formé sur un ensemble de données qui contenait probablement des échantillons d’un large éventail de données, y compris des données susceptibles d’aider une entreprise criminelle.

Les grands modèles de langage sont généralement alimentés par tout, des bonnes choses, comme les théories scientifiques, les informations sur la santé et la politique, aux moins bonnes, comme les échantillons de codes de logiciels malveillants, les messages des campagnes de carding et de phishing, et d’autres documents criminels. Lorsqu’il s’agit de traiter le type d’ensembles de données nécessaires pour former des modèles de langage tels que celui qui alimente ChatGPT, il est presque inévitable que le modèle contienne des échantillons de matériel indésirable.

Malgré les efforts généralement méticuleux déployés pour éliminer les éléments indésirables de l’ensemble de données, certains se faufilent, et ils sont généralement suffisants pour donner au modèle la capacité de générer des éléments facilitant la cybercriminalité. C’est la raison pour laquelle, grâce à une ingénierie prompte et appropriée, vous pouvez obtenir des outils tels que ChatGPT, Google Bard et Bing AI pour vous aider à écrire des courriels frauduleux ou des logiciels malveillants.

Voir aussi :  10 mythes sur la cybersécurité démystifiés pour l'homme ordinaire

Si des outils comme ChatGPT peuvent aider les cybercriminels à commettre des délits malgré tous les efforts déployés pour rendre ces chatbots IA sûrs, imaginez maintenant la puissance qu’un outil comme FraudGPT pourrait apporter, étant donné qu’il a été spécifiquement mis au point sur des matériaux malveillants pour le rendre adapté à la cybercriminalité. C’est comme le jumeau maléfique de ChatGPT mis sous stéroïdes.

Pour utiliser cet outil, les criminels peuvent donc simplement demander au chatbot ce qu’ils font avec ChatGPT. Ils pourraient lui demander, par exemple, d’écrire un courriel d’hameçonnage pour Jane Doe, qui travaille dans l’entreprise ABC, ou peut-être lui demander d’écrire un logiciel malveillant utilisant le C++ pour voler tous les fichiers PDF d’un ordinateur Windows 10. Les criminels se contenteraient de proposer une mécanisation diabolique et laisseraient le chatbot faire le gros du travail.

Comment pouvez-vous vous protéger contre la fraudeGPT ?

Bien qu’il s’agisse d’un nouveau type d’outil, la menace posée par FraudGPT n’est pas fondamentalement différente. On pourrait dire qu’il introduit plus d’automatisation et d’efficacité dans les méthodes déjà établies d’exécution de la cybercriminalité.

Les criminels utilisant l’outil seraient, du moins en théorie, en mesure de rédiger des courriels d’hameçonnage plus convaincants, de mieux planifier leurs escroqueries et de créer des logiciels malveillants plus efficaces, mais ils s’appuieraient toujours sur les méthodes établies pour exécuter leurs plans malveillants. Par conséquent, les méthodes établies pour se protéger s’appliquent toujours :

  • Méfiez-vous des messages non sollicités vous demandant des informations ou vous incitant à cliquer sur des liens. Ne fournissez pas d’informations et ne cliquez pas sur les liens contenus dans ces messages sans en avoir vérifié la source.
  • Contactez directement les entreprises en utilisant un numéro de téléphone indépendant et vérifié pour vous assurer de leur légitimité. N’utilisez pas les coordonnées fournies dans les messages suspects.
  • Utilisez des mots de passe forts et uniques qui sont difficiles à décrypter et adoptez l’authentification à deux facteurs lorsqu’elle est disponible pour tous les comptes. Ne partagez jamais les mots de passe ou les codes qui vous sont envoyés.
  • Vérifiez régulièrement les relevés de compte pour détecter toute activité suspecte.
  • Maintenez les logiciels à jour et utilisez des outils antivirus ou anti-malware.
  • Détruisez les documents contenant des informations financières ou d’identification personnelle lorsque vous n’en avez plus besoin.
Voir aussi :  Les 4 meilleurs endroits pour stocker vos codes de récupération

Pour en savoir plus sur la manière de se protéger, lisez notre guide sur la manière de se protéger à l’ère de l’IA.

Restez informé pour vous protéger

L’émergence d’outils tels que FraudGPT nous rappelle que malgré tout ce que l’IA peut nous apporter, elle représente toujours un outil très puissant entre les mains des acteurs de la menace.

Alors que les gouvernements et les grandes entreprises d’IA se lancent dans une course effrénée pour adopter de meilleurs moyens de réglementer l’IA, il est important d’être conscient de la menace que représente actuellement l’IA et de prendre les précautions nécessaires pour se protéger.

Cliquez pour évaluer cet article !
[Total: Moyenne : ]

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *