Há algumas semanas, um amigo meu recebeu uma mensagem de texto de seu chefe:
"Oi Matt, estou em uma reunião de conferência agora, não posso falar ao telefone, mas me avise se você recebeu minha mensagem. Obrigado [nome do chefe]".
Se não for óbvio, o texto era um phishing. Há alguns indícios que o denunciam: há alguns problemas estranhos de espaçamento, é estranho assinar um texto e é incomum que seu chefe precisasse falar com Matt imediatamente, mas não por telefone.
Por mais grosseiro que tenha sido esse phishing, ele ainda é melhor do que muitos golpes enviados por e-mail: o phisher sabia o nome de Matt, seu número de telefone e para quem ele trabalha. Os golpistas podem usar esses fatos para criar uma isca mais confiável e fazer com que alguém clique em um link, baixe um arquivo ou forneça informações confidenciais.
Phishing continua sendo uma das principais causas de violações de segurança cibernética. Isso não se deve ao fato de os agentes de ameaças serem nostálgicos em relação a golpes antigos: é porque o phishing ainda funciona.
É preocupante o fato de que o lançamento do ChatGPT e de outros bots pode criar iscas de phishing mais inteligentes, mais onipresentes e mais eficazes.
No último mês, o ChatGPT esteve em todos os noticiários: professores estão preocupados com isso, will.i.am referenciado em Davos, e há até mesmo conselhos sobre como usá-lo para aplicar a tecnologia a namoro on-line.
O ChatGPT é um "novo chatbot de I.A. de última geração" que New York Times O jornalista da OpenAI chama de "simplesmente o melhor chatbot de inteligência artificial já lançado para o público em geral". Desenvolvido pela OpenAI, ele tem a capacidade de gerar texto semelhante ao humano.
Embora a ferramenta possa ter muitas excêntrico Alguns especialistas em segurança cibernética estão preocupados com o que o ChatGPT permitirá que os agentes de ameaças façam. A CyberArk informou que o bot criou "uma nova vertente de malware polimórfico."
Outros estão preocupados com um uso mais rudimentar, mas ainda eficaz: a implantação de recursos de linguagem natural para criar iscas de phishing mais convincentes.
Os redatores humanos e os chatbots podem se combinar para criar iscas de phishing eficazes, pois cada um deles traz pontos fortes exclusivos para a mesa.
Os redatores humanos entendem de engenharia social e sabem como elaborar mensagens que sejam atraentes e convincentes para os alvos pretendidos. Eles também podem entender o contexto e as referências culturais que tornariam a mensagem mais convincente para os destinatários.
Por outro lado, os chatbots, como os modelos de linguagem, entendem e geram linguagem humana, o que lhes permite imitar o estilo e o tom de organizações reais. Eles também podem gerar mensagens personalizadas em escala, o que aumenta as chances de enganar o destinatário.
Quando combinados, os redatores humanos podem criar uma mensagem de phishing que atrairá um alvo, e os chatbots podem gerá-la em escala e personalizá-la para cada destinatário. Isso torna a mensagem de phishing mais convincente e aumenta as chances de sucesso.
Acreditamos que essa combinação de agentes de ameaças e bots pode se tornar um problema real, mas também temos algumas ideias sobre como lidar com isso. Entre em contato conosco para saber mais.
Qualquer coisa que reduza a barreira de entrada pode ser uma ameaça significativa. Com o tempo, os agentes de ameaças poderiam ensinar os bots a usar senhas ou direcionar e-mails de violações de dados.
"Embora o ChatGPT seja um serviço off-line, o que me preocupa é a combinação de acesso à Internet, automação e IA para criar ataques avançados persistentes", disse Rob Hughes, CISO da RSA.
"Vimos como a persistência ataques de bombardeio imediato corroeu a atenção dos usuários", continuou Hughes. "Com os chatbots, você nem precisaria mais de um spammer para criar a mensagem. Você poderia escrever um script que dissesse: 'Ganhe familiaridade com os dados da Internet e continue enviando mensagens para fulano de tal até que ele clique no link'. Entregar a operação a um bot que não se desliga, não desiste e trabalha com centenas de usuários simultaneamente poderia realmente mudar a natureza dos ataques de phishing, permitindo ferramentas de spear-phishing distribuídas e fáceis de usar."
Chatbots, Golpes telefônicos deepfake, ou redes de botsSe os criminosos estiverem usando um arquivo de áudio, um e-mail ou outra mídia, o formato e a ferramenta por trás dele não importam.
O que importa é que estamos desenvolvendo ferramentas de IA que podem estar prestes a produzir ameaças novas e cada vez mais inteligentes, mais rápido do que os criminosos humanos podem produzi-las, e espalhar essas ameaças mais rápido do que a equipe de segurança cibernética pode responder.
A única maneira de as organizações acompanharem o ritmo das mudanças é controlar os bots usando bots: os mesmos princípios subjacentes que permitem que um ChatGPT escreva piadas ou trabalhos de conclusão de curso cada vez melhores também podem treinar sistemas de segurança para reconhecer e responder a comportamentos suspeitos.
Mecanismos de risco como o RSA® IA de risco pode usar a coleta de dados, a correspondência de dispositivos, a detecção de anomalias e a análise comportamental para verificar as tentativas de acesso. A IA de risco analisa o contexto de uma solicitação de acesso - quem está solicitando um recurso, quando está fazendo a solicitação, qual dispositivo está usando e outros sinais - para determinar e responder ao risco em tempo real.
Em última análise, esses recursos ajudam as equipes de segurança a tomar mais decisões de segurança, mais bem informadas, mais inteligentes e melhores.
Não são apenas os usos mal-intencionados da IA que podem representar uma ameaça à segurança cibernética para as organizações: os usos empresariais deliberados da IA, incluindo a automação de processos robóticos (RPA), podem tomar muito mais decisões com muito mais rapidez do que qualquer ser humano pode acompanhar.
Da mesma forma, a tempestade perfeita de ambientes com várias nuvens e o gerenciamento inadequado de identidades estão definidos para aumentar as falhas de segurança na nuvem e expor as organizações a mais riscos, causando 75% de falhas de segurança na nuvem até 2023
Novamente, as organizações precisam de soluções que possam ser dimensionadas para atender ao problema: RSA® Governança e ciclo de vida pode automatizar quase tudo: a solução pode integrar automaticamente os usuários com os direitos corretos, aplicar políticas de entrada e saída e automatizar o provisionamento, o monitoramento e os relatórios.
Entre em contato conosco para saber mais sobre o uso de IA no IAM.
Bots sempre ativos programados para phishing; scripts de RPA executados sem que ninguém esteja observando; leões, tigres e ursos: sempre haverá outra ameaça.
"As equipes de segurança cibernética nem sempre podem prever qual será a próxima ameaça ou de onde ela virá", disse Hughes.
"Não se concentre nas manchetes. Concentre-se no que você pode controlar: eduque seus usuários, use a autenticação multifator e avance em direção à confiança zero. Essas são algumas das melhores maneiras de se proteger contra as ameaças que conhecemos hoje e de se manter protegido contra as que virão amanhã."
###
Entre em contato conosco e saiba como combater bots com bots.