Il y a quelques semaines, un de mes amis a reçu un message de son patron :
"Bonjour Matt, je suis en conférence téléphonique en ce moment, je ne peux pas parler au téléphone mais fais-moi savoir si tu as reçu mon message. Merci [Nom du patron]."
Si ce n'est pas évident, le texte est un hameçonnage. Il y a quelques indices qui le trahissent : il y a des problèmes d'espacement, il est bizarre de signer un texte, et il est inhabituel que son patron ait besoin de parler à Matt immédiatement, mais pas par téléphone.
Aussi grossier que soit ce phishing, il est tout de même meilleur que de nombreuses escroqueries envoyées par courrier électronique : l'auteur du phishing connaissait le nom et le numéro de téléphone de Matt, ainsi que l'entreprise pour laquelle il travaille. Les escrocs peuvent utiliser ces informations pour créer un leurre plus crédible et inciter quelqu'un à cliquer sur un lien, à télécharger un fichier ou à communiquer des informations sensibles.
Hameçonnage reste l'une des principales causes des atteintes à la cybersécurité. Ce n'est pas parce que les acteurs de la menace sont nostalgiques des anciennes escroqueries : c'est parce que l'hameçonnage fonctionne toujours.
Il est inquiétant de constater que le lancement de ChatGPT et d'autres robots pourrait permettre de créer des appâts plus intelligents, plus omniprésents et plus efficaces pour l'hameçonnage.
Depuis un mois, ChatGPT est au cœur de l'actualité : enseignants s'en inquiètent, will.i.am Il y a même des conseils sur la façon de l'utiliser pour appliquer la technologie à l'agriculture. rencontres en ligne.
ChatGPT est un "nouveau chatbot d'I.A. de pointe" qu'un New York Times Le journaliste de l'agence de presse américaine, M. Kristof, l'appelle "tout simplement le meilleur chatbot d'intelligence artificielle jamais mis à la disposition du grand public". Développé par OpenAI, il est capable de générer des textes semblables à ceux d'un humain.
Bien que l'outil puisse avoir beaucoup de bizarre Certains experts en cybersécurité s'inquiètent de ce que ChatGPT permettra aux acteurs de la menace de faire. CyberArk a indiqué que le robot a créé "un nouveau type de logiciel malveillant polymorphe."
D'autres s'inquiètent d'une utilisation plus grossière, mais toujours efficace : le déploiement de capacités de langage naturel pour créer des leurres d'hameçonnage plus convaincants.
Les rédacteurs humains et les chatbots peuvent se combiner pour créer des leurres de phishing efficaces, car ils apportent chacun des atouts uniques.
Les rédacteurs humains comprennent l'ingénierie sociale et savent comment rédiger des messages qui seront attrayants et convaincants pour les cibles visées. Ils peuvent également comprendre le contexte et les références culturelles qui rendront le message plus convaincant pour les destinataires.
D'autre part, les chatbots, tels que les modèles de langage, comprennent et génèrent le langage humain, ce qui leur permet d'imiter le style et le ton d'organisations réelles. Ils peuvent également générer des messages personnalisés à grande échelle, ce qui augmente les chances de tromper le destinataire.
Lorsqu'ils sont combinés, les rédacteurs humains peuvent créer un message de phishing qui plaira à une cible, et les chatbots peuvent le générer à grande échelle et le personnaliser pour chaque destinataire. Le message d'hameçonnage est ainsi plus convaincant et les chances de réussite augmentent.
Nous pensons que cette combinaison d'acteurs de la menace et de bots pourrait devenir un véritable problème, mais nous avons également quelques idées sur la manière de le résoudre. Contactez-nous pour en savoir plus.
Tout ce qui abaisse la barrière d'entrée peut constituer une menace importante. Avec le temps, les acteurs de la menace pourraient apprendre aux robots à exploiter les mots de passe ou à cibler les courriels provenant de violations de données.
"Bien que ChatGPT soit un service hors ligne, ce qui m'inquiète, c'est la combinaison de l'accès à Internet, de l'automatisation et de l'IA pour créer des attaques avancées persistantes", a déclaré Rob Hughes, RSSO de RSA.
"Nous avons vu à quel point les les attaques par bombardement rapide a érodé l'attention des utilisateurs", poursuit M. Hughes. "Avec les chatbots, vous n'auriez même plus besoin d'un spammeur pour rédiger le message. Vous pourriez écrire un script qui dirait : "Familiarisez-vous avec les données Internet et continuez à envoyer des messages à untel ou untel jusqu'à ce qu'il clique sur le lien". Le fait de confier l'opération à un robot qui ne se déconnecte pas, n'abandonne pas et travaille simultanément avec des centaines d'utilisateurs pourrait réellement changer la nature des attaques de phishing en permettant l'utilisation d'outils de spear-phishing distribués et faciles à utiliser".
Chatbots, Escroqueries téléphoniques de type Deepfake, ou réseaux de zombiesLes criminels peuvent utiliser un fichier audio, un courrier électronique ou un autre support, le format et l'outil utilisé n'ont pas vraiment d'importance.
Ce qui importe, c'est que nous développons des outils d'IA qui pourraient être sur le point de produire de nouvelles menaces de plus en plus intelligentes plus rapidement que les criminels humains ne peuvent les produire, et de propager ces menaces plus rapidement que le personnel de cybersécurité ne peut y répondre.
Le seul moyen pour les organisations de suivre le rythme du changement est de contrôler les robots en utilisant des robots : les mêmes principes sous-jacents qui permettent à un ChatGPT d'écrire des blagues ou des dissertations de plus en plus intéressantes peuvent également apprendre aux systèmes de sécurité à reconnaître les comportements suspects et à y réagir.
Moteurs de risque comme RSA® Risque IA peut utiliser la collecte de données, le rapprochement d'appareils, la détection d'anomalies et l'analyse comportementale pour vérifier les tentatives d'accès. L'IA des risques examine le contexte d'une demande d'accès - qui demande une ressource, quand il fait la demande, quel appareil il utilise et d'autres signaux - pour déterminer les risques et y répondre en temps réel.
En fin de compte, ces capacités aident les équipes de sécurité à prendre des décisions plus nombreuses, mieux informées, plus intelligentes et plus efficaces en matière de sécurité.
Ce ne sont pas seulement les utilisations malveillantes de l'IA qui peuvent constituer une menace pour la cybersécurité des organisations : les utilisations délibérées de l'IA par les entreprises, y compris l'automatisation des processus robotiques (RPA), peuvent prendre beaucoup plus de décisions, beaucoup plus rapidement qu'un être humain ne peut le faire.
De même, la tempête parfaite d'environnements multi-cloud et d'une gestion inadéquate des identités va accroître les défaillances de la sécurité du cloud et exposer les entreprises à davantage de risques, ce qui entraînera une augmentation des coûts de la sécurité. 75% des défaillances de la sécurité dans les nuages d'ici à 2023
Là encore, les organisations ont besoin de solutions qui peuvent s'adapter au problème : RSA® Gouvernance et cycle de vie peut presque tout automatiser : la solution peut automatiquement intégrer les utilisateurs avec les bons droits, appliquer les politiques de transfert et de départ, et automatiser le provisionnement, la surveillance et le reporting.
Contactez-nous pour en savoir plus sur l'utilisation de l'IA dans l'IAM.
Des bots toujours actifs programmés pour faire du phishing, des scripts RPA qui s'exécutent sans que personne ne les surveille, des lions, des tigres et des ours : il y aura toujours une autre menace.
"Les équipes de cybersécurité ne peuvent pas toujours prédire quelle sera la prochaine menace ou d'où elle viendra", a déclaré M. Hughes.
"Ne vous focalisez pas sur les gros titres. Concentrez-vous sur ce que vous pouvez contrôler : éduquez vos utilisateurs, utilisez l'authentification multifactorielle et tendez vers la confiance zéro. Ce sont là quelques-uns des meilleurs moyens de se protéger contre les menaces que nous connaissons aujourd'hui et de rester protégé contre celles qui se profilent à l'horizon."
###
Contactez-nous et apprenez à combattre les bots par les bots.