Letzte Woche räumte das KI-Unternehmen Anthropic einen Sicherheitsvorfall ein, bei dem ein Entwurf eines Blogbeitrags wurde durchgesickert zu Glück.
In dem Blog-Beitrag heißt es, dass das neue Projekt “Claude Mythos” und das neue Modell Capybara einen “Schrittwechsel” bei den KI-Assistenten darstellen. In dem Blog wird ein “Allzweckmodell mit bedeutenden Fortschritten in den Bereichen Argumentation, Codierung und Cybersicherheit” angepriesen.”
Der Anthropic-Blog warnte auch davor, dass: “Bei der Vorbereitung der Veröffentlichung von Claude Capybara wollen wir mit besonderer Vorsicht vorgehen und die Risiken verstehen, die es birgt - auch über das hinaus, was wir in unseren eigenen Tests lernen... Insbesondere wollen wir die potenziellen kurzfristigen Risiken des Modells im Bereich der Cybersicherheit verstehen - und die Ergebnisse teilen, um Cyberverteidigern bei der Vorbereitung zu helfen.”
Die Entwurf wies auch darauf hin, dass das neue Modell “ein Vorbote einer kommenden Welle von Modellen ist, die Schwachstellen auf eine Weise ausnutzen können, die die Bemühungen der Verteidiger bei weitem übersteigt”.”
Claude Mythos könnte ein großes Risiko für die Cybersicherheitslage von Unternehmen darstellen. Das neue Modell wird einer Welle wachsender Risiken folgen, die durch KI, Agenten und andere nicht-menschliche Identitäten (NHI) verursacht werden:
- Gartner bezeichnete agentenbasierte KI als den wichtigsten Technologietrend des Jahres 2025 und prognostizierte, dass bis 2028 33% der Unternehmensanwendungen agentenbasierte KI enthalten werden, gegenüber weniger als 1% im Jahr 2024.
- Andere Untersuchungen zeigen, dass die Zahl der NHI-Nutzer die der menschlichen Nutzer um 45 zu 1in DevOps-Umgebungen.
- Eine kürzlich durchgeführte Umfrage ergab, dass 60%der Unternehmen äußerten mangelndes Vertrauen in ihre Fähigkeit, die NHI adäquat zu sichern.
Ob es sich nun um Claude Mythos, ChatGPT oder einen anderen agentenbasierten Dienst handelt, der Vortrag letzte Woche auf der RSAC-Konferenz konzentrierte sich darauf, wie die KI die Bedrohungslandschaft verändert.
Im Folgenden finden Sie die Best Practices, die wir unseren Kunden empfohlen haben und die Unternehmen bei der Vorbereitung auf den Einsatz von KI und bei der Abwehr von KI unterstützen können.
KI-gestützte Bedrohungen kommen nicht - sie sind schon da. Ein früheres Anthropic Blogbeitrag erklärt, dass eine staatlich gesponserte Gruppe den Agenten verwendet hat, um “etwa dreißig globale Ziele zu infiltrieren und in einer kleinen Anzahl von Fällen erfolgreich zu sein”, indem sie “vorgab, für legitime Sicherheitstestorganisationen zu arbeiten”, um die Schutzmaßnahmen von Claude zu umgehen. Wir haben weiterhin gesehen KI-gesteuerte Phishing-Angriffe die darauf abzielen, die Anmeldedaten der Benutzer zu stehlen.
Unternehmen brauchen die richtigen Identitätskontrollen, um sich auf mehr - und effektivere - Angriffe vorzubereiten. Dazu gehören:
- Passwortlose Authentifizierung: Durch den Verzicht auf Passwörter können die Anmeldedaten entfernt werden, die KI-gesteuerte Phishing-Angriffe zu stehlen versuchen. Anstreben Passwortlose Bereitstellung in großem Umfang für jeden Benutzer in jeder Umgebung.
- Sicherung des Authentifizierungsprozesses: Der Verzicht auf Passwörter ist ein guter erster Schritt, um Unternehmen vor KI zu schützen, aber es ist nur der erste Schritt. Halten Sie den Authentifizierungsprozess selbst sicher, indem Sie Lösungen verwenden, die Nutzersignale dynamisch auswerten und bei risikoreichen Anmeldeversuchen eine verstärkte Authentifizierung zu verlangen, oder eine Überprüfung in der Nähe zu verwenden, um sicherzustellen, dass sich das Gerät eines Benutzers in der Nähe des Geräts befindet, auf das er zugreifen möchte.
- Bi-direktionale Identitätsüberprüfung: Deepfakes werden es den Angreifern erleichtern, sich als Benutzer oder Helpdesk-Mitarbeiter auszugeben. Agenten werden den Angreifern helfen, überzeugendere Social-Engineering-Angriffe zu entwickeln. Unternehmen brauchen eine einfache Methode, um beide Taktiken zu berücksichtigen und einen Benutzer verifizieren ist, wer sie zu sein vorgeben, um die Art von Angriffen zu verhindern, die die MGM Resorts, Caesars Entertainment Group und Marks & Spencer Hunderte von Millionen Dollar.
- Identitätsmanagement und -verwaltung (IGA): Bei den meisten Einbrüchen versuchen die Angreifer schnell, ihre Privilegien zu erweitern und den Zugang zu erweitern. Mit einer IGA-Programm für Fortgeschrittene trägt dazu bei, dieses Risiko einzudämmen, indem es sicherstellt, dass Identitäten nur auf das Notwendige zugreifen können, die geringsten Rechte durchsetzt und einen Zero-Trust-Ansatz unterstützt.
Es reicht nicht aus, Sicherheitsfunktionen zum Schutz vor externer KI zu haben. Unternehmen brauchen auch Sicherheitskontrollen für die Identität, damit sie die KI sicher nutzen können. Die 2026 RSA ID IQ Report, Eine Branchenumfrage unter mehr als 2.100 globalen Führungskräften aus den Bereichen Cybersicherheit, Identitäts- und Zugriffsmanagement (IAM), Compliance und Technologie ergab, dass 91% der Unternehmen in diesem Jahr eine Form von KI in ihren Cybersicherheitsbereich implementieren wollen.
Um KI sicher nutzen zu können, müssen Unternehmen:
- Behandeln Sie jeden Agenten wie eine Identität. Unternehmen müssen jeden Agenten, Bot und KI-Dienst wie eine Identität behandeln. Sie müssen für NHI das gleiche Maß an Kontrollen, Berechtigungen und Überwachung einführen wie für menschliche Nutzer. Führen Sie zunächst eine Bestandsaufnahme durch und machen Sie sich mit den Zugriffsrechten vertraut. Und verlangen Sie passwortlose Agenten, um das Risiko auszuschließen, dass Mitarbeiter ihre Passwörter fest einprogrammieren, um in ihrem Namen zu agieren - wenn Sie das tun, lassen Sie einfach einen unsicheren Bot in die freie Wildbahn.
- Kommunizieren Sie Ihre Politik klar, laut und häufig. Dies ist nicht nur ein technologisches Problem. Unternehmen müssen herausfinden, welche Dienste faires Spiel sind und welche Ressourcen Mitarbeiter ihnen zur Verfügung stellen können. Schatten-KI stellt ein großes Risiko für den Verlust von personenbezogenen Daten, Finanzinformationen und anderen eingeschränkten Daten dar.
- Bessere IGA bauen. Um KI sicher zu nutzen, benötigen Unternehmen eine Governance, die mit dem Umfang der Identitätsdaten Schritt hält. Das bedeutet, dass sichergestellt werden muss, dass Identitäten nur den Zugriff erhalten, den sie benötigen, dass ein kontinuierlicher Einblick in den Zugriff gewährleistet wird und dass komplexe Daten in klare, nach Prioritäten geordnete Maßnahmen umgewandelt werden. KI hilft Prüfern, sichere Entscheidungen zu treffen, und gibt Sicherheitsexperten Einblicke, um Risiken zu erkennen und in großem Umfang zu handeln, was eine kontinuierliche, intelligente Kontrolle des Zugriffs ermöglicht.
- Datensouveränität für KI. Unternehmen mit erhöhten Anforderungen an die Einhaltung von Vorschriften, Sicherheit und Verfügbarkeit sollten den Einsatz von hoheitlicher Einsatz Funktionen, um die vollständige Kontrolle über ihre Daten, deren Speicherort und die Zugriffsberechtigung zu gewährleisten. Suchen Sie nach Lösungen, die umfassende Identitäts- und Zugriffsmanagement-Funktionen (IAM) in Private Clouds, Multi-Clouds, On-Premises- und Air-Gapped-Konfigurationen unterstützen.