Zum Inhalt springen

Vor ein paar Wochen erhielt ein Freund von mir eine SMS von seinem Chef:

"Hallo Matt, ich bin gerade in einer Telefonkonferenz und kann nicht telefonieren, aber lass mich wissen, ob du meine SMS erhalten hast. Danke [Name des Chefs]."

Wenn es nicht offensichtlich ist, war der Text ein Phish. Es gibt ein paar Hinweise, die darauf hindeuten: Es gibt einige merkwürdige Abstände, es ist seltsam, einen Text zu unterschreiben, und es ist ungewöhnlich, dass sein Chef sofort mit Matt sprechen musste - nur nicht per Telefon.

So plump dieser Phish auch war, er ist immer noch besser als viele per E-Mail verschickte Betrügereien: Der Phisher kannte Matts Namen, seine Telefonnummer und wusste, für wen er arbeitet. Betrüger können diese Fakten nutzen, um einen glaubwürdigeren Köder auszulegen und jemanden dazu zu bringen, auf einen Link zu klicken, eine Datei herunterzuladen oder vertrauliche Informationen weiterzugeben.

Phishing nach wie vor eine der Hauptursachen für Verstöße gegen die Cybersicherheit. Das liegt nicht daran, dass die Bedrohungsakteure nostalgisch nach alten Betrügereien suchen, sondern daran, dass Phishing immer noch funktioniert.

Beunruhigend ist, dass die Einführung von ChatGPT und anderen Bots zu intelligenteren, allgegenwärtigeren und effektiveren Phishing-Ködern führen könnte.

Was ist ChatGPT?

Im letzten Monat war ChatGPT überall in den Nachrichten zu finden: Lehrer sind darüber besorgt, will.i.am in Davos vorgestellt, und es gibt sogar Ratschläge, wie man die Technologie in der Praxis einsetzen kann. Online-Dating.

ChatGPT ist ein "hochmoderner A.I. Chatbot", den man New York Times Der Journalist nennt ihn "ganz einfach den besten Chatbot mit künstlicher Intelligenz, der jemals für die Öffentlichkeit freigegeben wurde". Er wurde von OpenAI entwickelt und ist in der Lage, menschenähnlichen Text zu erzeugen.

Auch wenn das Tool eine Vielzahl von verrückte Einige Cybersecurity-Experten sind besorgt darüber, wozu ChatGPT Bedrohungsakteure befähigen wird. CyberArk berichtet, dass der Bot "einen neuen Strang von polymorphe Malware."

Andere machen sich Sorgen über eine weniger ausgefeilte, aber immer noch wirksame Methode: den Einsatz natürlicher Sprachfunktionen zur Erstellung überzeugender Phishing-Köder.

AI wird zum Phishing

Menschliche Schreiber und Chatbots können in Kombination wirksame Phishing-Köder erstellen, da sie jeweils einzigartige Stärken mitbringen.

Menschliche Schreiber verstehen sich auf Social Engineering und wissen, wie man Botschaften formuliert, die für die Zielgruppen ansprechend und überzeugend sind. Sie verstehen auch den Kontext und die kulturellen Bezüge, die die Botschaft für die Empfänger noch überzeugender machen würden.

Andererseits verstehen und generieren Chatbots, wie z. B. Sprachmodelle, menschliche Sprache, wodurch sie den Stil und den Tonfall echter Organisationen nachahmen können. Sie können auch in großem Umfang personalisierte Nachrichten generieren, was die Chancen erhöht, einen Empfänger auszutricksen.

In Kombination können menschliche Schreiber eine Phishing-Nachricht erstellen, die ein Ziel anspricht, und Chatbots können sie in großem Umfang generieren und für jeden Empfänger personalisieren. Dies macht die Phishing-Nachricht überzeugender und erhöht die Erfolgschancen.

Wir glauben, dass diese Kombination aus Bedrohungsakteuren und Bots zu einem echten Problem werden könnte - aber wir haben auch ein paar Ideen, wie man dem begegnen kann. Kontaktieren Sie uns und erfahren Sie mehr.

Niedrigere Hürden = mehr Betrügereien

Alles, was die Einstiegshürde senkt, könnte eine erhebliche Bedrohung darstellen. Mit der Zeit könnten Bedrohungsakteure den Bots beibringen, wie sie Passwörter oder E-Mails aus Datenverletzungen ausnutzen können.

"Obwohl ChatGPT ein Offline-Dienst ist, mache ich mir Sorgen über die Kombination von Internetzugang, Automatisierung und künstlicher Intelligenz (KI), um anhaltende, fortgeschrittene Angriffe durchzuführen", so Rob Hughes, CISO von RSA.

"Wir haben gesehen, wie hartnäckig Sofortige Bombenangriffe die Aufmerksamkeit der Nutzer untergraben", so Hughes weiter. "Mit Chatbots bräuchte man nicht einmal mehr einen Spammer, um die Nachricht zu verfassen. Man könnte ein Skript schreiben, in dem es heißt: 'Mach dich mit den Internetdaten vertraut und schicke demjenigen so lange Nachrichten, bis er auf den Link klickt.' Wenn man die Operation einem Bot überlässt, der sich nicht abmeldet, nicht aufgibt und mit Hunderten von Nutzern gleichzeitig arbeitet, könnte das die Art der Phishing-Angriffe wirklich verändern, indem es einfach zu bedienende verteilte Spear-Phishing-Tools ermöglicht."

Bots, die Bots kontrollieren

Chatbots, Deepfake-Telefonbetrug, oder BotnetsOb Kriminelle eine Audiodatei, eine E-Mail oder ein anderes Medium verwenden, das Format und das dahinter stehende Werkzeug spielen keine Rolle.

Was zählt, ist, dass wir KI-Tools entwickeln, die möglicherweise kurz davor stehen, neue und immer intelligentere Bedrohungen schneller zu entwickeln, als menschliche Kriminelle sie produzieren können - und diese Bedrohungen schneller zu verbreiten, als Cybersecurity-Mitarbeiter darauf reagieren können.

Die einzige Möglichkeit für Unternehmen, mit der Geschwindigkeit des Wandels Schritt zu halten, ist die Kontrolle von Bots durch den Einsatz von Bots: Die gleichen Prinzipien, die es einem ChatGPT ermöglichen, immer bessere Witze oder Hausarbeiten zu schreiben, können auch Sicherheitssysteme trainieren, um verdächtiges Verhalten zu erkennen und darauf zu reagieren.

Risikomaschinen wie RSA® Risiko AI kann Datenerfassung, Geräteabgleich, Anomalieerkennung und Verhaltensanalyse nutzen, um Zugriffsversuche zu überprüfen. Risiko-KI untersucht den Kontext einer Zugriffsanfrage - wer eine Ressource anfordert, wann die Anfrage gestellt wird, welches Gerät verwendet wird und andere Signale - um Risiken in Echtzeit zu ermitteln und darauf zu reagieren.

Letztlich helfen diese Funktionen den Sicherheitsteams, mehr, besser informierte, intelligentere und bessere Sicherheitsentscheidungen zu treffen.

Es sind nicht nur Bedrohungsakteure

Nicht nur der böswillige Einsatz von KI kann eine Bedrohung für die Cybersicherheit von Unternehmen darstellen: Der bewusste Einsatz von KI in Unternehmen, einschließlich der robotergestützten Prozessautomatisierung (RPA), kann weit mehr Entscheidungen treffen, als ein einzelner Mensch bewältigen kann.

Ebenso wird der perfekte Sturm von Multi-Cloud-Umgebungen und unzureichendem Identitätsmanagement dazu führen, dass Sicherheitsmängel in der Cloud zunehmen und Unternehmen mehr Risiken ausgesetzt sind, was zu 75% der Sicherheitslücken in der Cloud bis 2023

Auch hier brauchen die Unternehmen Lösungen, die sich an das Problem anpassen lassen: RSA® Governance & Lebenszyklus kann fast alles automatisieren: Die Lösung kann automatisch Benutzer mit den richtigen Berechtigungen einbinden, Richtlinien für den Wechsel von Benutzern durchsetzen und die Bereitstellung, Überwachung und Berichterstattung automatisieren.

Kontaktieren Sie uns, um mehr über den Einsatz von AI im IAM zu erfahren.

"Konzentrieren Sie sich nicht auf die Schlagzeilen"

Ständig aktive Bots, die auf Phishing programmiert sind; RPA-Skripte, die unbeobachtet laufen; Löwen, Tiger und Bären: Es wird immer eine neue Bedrohung geben.

"Cybersecurity-Teams können nicht immer vorhersagen, was die nächste Bedrohung sein wird oder woher sie kommen wird", so Hughes.

"Konzentrieren Sie sich nicht auf die Schlagzeilen. Konzentrieren Sie sich auf das, was Sie kontrollieren können: Informieren Sie Ihre Nutzer, verwenden Sie die Multi-Faktor-Authentifizierung und setzen Sie auf Zero Trust. Das sind einige der besten Möglichkeiten, um sich gegen die heute bekannten Bedrohungen zu schützen und gegen die Bedrohungen von morgen gewappnet zu sein."

###

Kontaktieren Sie uns und erfahren Sie, wie Sie Bots mit Bots bekämpfen können.

Demo anfordern

Demo anfordern