Das Versprechen der Agenten-KI in der Sicherheit Operations Center (SOC) liegt auf der Hand.
Schnellere Untersuchungen, eigenständig agierende Systeme und die Fähigkeit, mit Bedrohungen Schritt zu halten, die nicht mehr ordentlich verpackt ankommen.
Der Artikel wird weiter unten fortgesetzt
Field CTO und strategischer Berater bei Splunk.
Die Idee von KI-Tools Das Treffen von Entscheidungen kann abstrakt klingen, der Wandel, den es darstellt, ist es jedoch nicht. Der Übergang von der Automatisierung zur agentischen KI verändert die Art und Weise, wie Arbeit erledigt wird, wie Verantwortung geteilt wird und wie viel Kontrolle Führungskräfte bereit sind abzugeben.
Die Sicherheitsbranche war schon einmal hier. Noch vor wenigen Jahren waren viele SOC-Teams noch zurückhaltend Automatisierungssoftware. Bedenken hinsichtlich Sichtbarkeit und Verantwortlichkeit verlangsamten die Einführung, selbst wenn die Vorteile klar waren.
Große Sprachmodelle veränderten diese Dynamik, indem sie zeigten, wie anpassungsfähig KI sein kann, führten aber auch eine neue Art von Unsicherheit ein. Im Gegensatz zu skriptgesteuerten Arbeitsabläufen interpretieren diese Systeme den Kontext und treffen dabei Entscheidungen.
Agentische KI geht noch einen Schritt weiter, indem sie über längere Zeiträume hinweg arbeitet und die Ermittlungen während ihres Verlaufs prägt. Dieser Wandel schafft echte Chancen, zwingt Sicherheitsverantwortliche aber auch dazu, zu überdenken, wie Vertrauen aussieht, wenn Entscheidungen nicht mehr ausschließlich von Menschen getroffen werden.
Wenn die Automatisierung dem Urteilsvermögen Platz macht
In traditionellen SOC-Umgebungen folgten Entscheidungen einem definierten Pfad. Die Automatisierung hat sich ihren Platz im SOC dadurch verdient, dass sie bei der Bewältigung bestimmter Aufgaben innerhalb klarer Grenzen bleibt und sich so verhält, wie es die Teams vorhersehen konnten.
Wenn etwas schiefging, war die Ursache meist klar: eine Regel schlug fehl, eine Konfiguration musste angepasst werden oder a Daten Quelle fehlte.
Agentische KI verändert diese Entscheidungsstruktur. Diese Systeme arbeiten mit unvollständigen Informationen und wechselndem Kontext. Sie können Untersuchungen über längere Zeiträume durchführen, Signale zusammenfassen und entscheiden, was als nächstes Aufmerksamkeit verdient. Diese Flexibilität macht sie nützlich, verändert aber auch die Art und Weise, wie Menschen mit der Technologie umgehen.
Für Sicherheitsverantwortliche ist dies mehr als ein technisches Upgrade. Es verändert die Art der Entscheidung, die sie treffen müssen.
Agentische KI zu genehmigen bedeutet, Urteile zu delegieren, was eine andere Art von Vertrauen in die Art und Weise erfordert, wie Entscheidungen getroffen werden. Dieser Unterschied ist subtil, wenn es darum geht, wie Systeme verwaltet werden und wie wohl sich Führungskräfte dabei fühlen, sich auf sie zu verlassen.
Wer antwortet, wenn die KI anruft?
In Führungsdiskussionen über Agentische KI wechselt der Ton oft. Bei Sicherheitsoperationen können Vorfälle mehrere Teams und Prozesse betreffen, aber die Verantwortung liegt letztendlich bei den benannten Führungskräften. Das ändert sich auch nicht, wenn KI-Systeme eingeführt werden.
Wenn Systeme unabhängig agieren, geht mit dem menschlichen Engagement nicht auch die Verantwortung verloren. Eine KI erläutert einem Vorstand ihre Argumentation nicht und gibt einer Aufsichtsbehörde keine Sicherheit. Diese Gespräche finden immer noch mit der Organisation und in den meisten Fällen mit dem CISO statt.
Diese Realität ist es, die Führungsgespräche über agentische KI neu gestaltet. Die anfängliche Aufregung weicht einer vorsichtigeren Fragestellung. Der Fokus verschiebt sich weg von dem, was die Technologie leisten kann, hin zu dem, was passiert, wenn etwas schief geht.
Dadurch wird es schwieriger, Autonomie als rein technische Entscheidung zu behandeln. Führungskräfte müssen sich darüber im Klaren sein, wem diese Systeme gehören, wie viel Autorität sie erhalten und wo menschliches Urteilsvermögen eingreifen soll. Diese Grenzen sind am wirksamsten, wenn sie bewusst gesetzt werden.
Klarheit verändert hier das Gefühl von Autonomie. Wenn die Verantwortung verstanden wird, sind Führungskräfte besser in der Lage, sich auf Systeme zu verlassen, die in ihrem Namen handeln.
Was hilft Führungskräften, dem zu vertrauen, was sie nicht sehen können?
Wenn Systeme außerhalb der unmittelbaren menschlichen Kontrolle betrieben werden, wird Transparenz von entscheidender Bedeutung. Entscheidungen, die ohne Kontext getroffen werden, können Teams verunsichern, selbst wenn das Ergebnis vernünftig erscheint.
Sicherheitsexperten sind es gewohnt, mit komplexen Systemen zu arbeiten, aber Komplexität allein ist nicht das Problem. Entscheidend ist, zu sehen, wie Schlussfolgerungen gezogen werden.
Hier beginnt die Beobachtbarkeit eine praktische Rolle zu spielen. Um Analysten und Führungskräften eine Anlaufstelle zu geben, benötigen wir Systeme, die Fortschritte anzeigen, Zwischenergebnisse aufdecken und Ermittlungsspuren hinterlassen können.
Wenn sich die Arbeit über Stunden oder Tage erstreckt, verringert die Sichtbarkeit das Risikogefühl. Aktionen wirken weniger undurchsichtig, wenn sie während ihres Geschehens nachverfolgt werden können.
Die Möglichkeit, ein System während der Arbeit zu unterbrechen oder umzuleiten, verändert auch die Art und Weise, wie Autonomie erlebt wird. Wenn man weiß, dass ein Mensch eingreifen kann, fühlt sich die Aufsicht eher absichtlich als reaktiv an. Schnittstellen beginnen, diesen Wandel widerzuspiegeln, da die KI in der Lage ist, ihre Argumentation während der Untersuchungen ans Licht zu bringen, anstatt am Ende eine einzige Antwort zu liefern.
Wo das menschliche Urteilsvermögen immer noch am wichtigsten ist
In jedem SOC hat menschliches Fachwissen den größten Einfluss an der Stelle, an der Entscheidungen getroffen werden. Da die Agenten-KI immer wiederkehrende und operative Aufgaben im SOC übernimmt, sinkt die Zeit, die für die Erfassung grundlegender Kontexte oder die Bearbeitung von Alarmwarteschlangen aufgewendet wird.
An ihre Stelle treten Arbeiten, die stärker auf Urteilsvermögen beruhen, etwa die Überprüfung von Entscheidungen und die Gestaltung Arbeitsabläufe.
Diese Änderung kann sich unangenehm anfühlen, insbesondere für Teams, die durch Wiederholung Erfahrung und Wissen aufgebaut haben. Gleichzeitig entstehen dadurch neue Möglichkeiten. Junior-Analysten sind früher mit übergeordnetem Denken vertraut, während Senior-Analysten weniger Zeit mit der Brandbekämpfung und mehr Zeit mit der Verbesserung der Entscheidungsqualität im gesamten SOC verbringen.
Das Ergebnis ist eher eine Umverteilung des Urteilsvermögens als eine Verringerung der menschlichen Beteiligung. Was sich ändert, ist nicht der Bedarf an Menschen, sondern ihre Art der Arbeitsbelastung und wo sie den größten Einfluss haben. Kontext, Richtung und Aufsicht werden zentral, da Systeme immer mehr Ausführungsaufgaben übernehmen.
Wie Vertrauen in einem KI-gestützten SOC aussieht
Agentische KI beeinflusst bereits die Funktionsweise von Sicherheitsabläufen. Für Führungskräfte hat sich die Herausforderung von Fähigkeit zu Selbstvertrauen verlagert. Die Frage ist nun, ob man sich darauf verlassen kann, dass diese Systeme im Einklang mit den Erwartungen der Organisation an den Umgang mit Risiken agieren.
Vertrauen wächst durch Vertrautheit. Dabei spielt es eine Rolle, zu sehen, wie sich Systeme im Laufe der Zeit verhalten, zu verstehen, wie Entscheidungen getroffen werden und zu wissen, wo die Verantwortung liegt. Das Selbstvertrauen steigt, wenn Führungskräfte verfolgen können, was passiert, und Experten bei Bedarf eingreifen können.
Es ist unwahrscheinlich, dass das SOC vollständig autonom wird. Menschen und Systeme werden weiterhin eng zusammenarbeiten, wobei der Mensch die Verantwortung und Kontrolle behält. Die Aufgabe der Sicherheitsverantwortlichen besteht darin, die Voraussetzungen dafür zu schaffen Zusammenarbeit funktioniert reibungslos und vorhersehbar.
Wie gut sie diese Kultur der Zusammenarbeit schaffen, wird sich darauf auswirken, wie komfortabel die Agenten-KI eingeführt wird und welchen Mehrwert sie letztendlich bietet.
Wir haben den besten KI-Website-Builder vorgestellt.
Dieser Artikel wurde im Rahmen des Expert Insights-Kanals von TechRadarPro erstellt, in dem wir die besten und klügsten Köpfe der heutigen Technologiebranche vorstellen. Die hier geäußerten Ansichten sind die des Autors und nicht unbedingt die von TechRadarPro oder Future plc. Wenn Sie daran interessiert sind, einen Beitrag zu leisten, erfahren Sie hier mehr: https://www.techradar.com/news/submit-your-story-to-techradar-pro


