KI-Agenten haben sicherlich einen Moment Zeit. Zwischen der jüngsten Viralität von OpenClaw, Moltbuch und OpenAI plant, seine Agentenfunktionen zu übernehmen Auf der nächsten Ebene könnte es einfach das Jahr des Agenten sein.
Warum? Nun, sie können planen, Code schreibenim Internet surfen und mehrstufige Aufgaben ausführen mit wenig bis gar keiner Aufsicht. Einige versprechen sogar, Ihren Arbeitsablauf zu verwalten. Andere koordinieren sich mit Tools und Systemen auf Ihrem Desktop.
Der Reiz liegt auf der Hand. Diese Systeme reagieren nicht einfach. Sie Akt – für Sie und in Ihrem Namen. Aber wenn Forscher hinter dem MIT AI Agent Index Nachdem sie 67 eingesetzte Agentensysteme katalogisiert hatten, fanden sie etwas Beunruhigendes.
Entwickler möchten gerne beschreiben, was ihre Agenten können Tun. Sie sind weitaus weniger daran interessiert, zu beschreiben, ob diese Agenten es sind sicher.
„Führende KI-Entwickler und Start-ups setzen zunehmend Agenten-KI-Systeme ein, die komplexe Aufgaben mit begrenztem menschlichem Engagement planen und ausführen können.“ schrieben die Forscher in der Arbeit. „Allerdings gibt es derzeit keinen strukturierten Rahmen für die Dokumentation von … Sicherheitsmerkmalen von Agentensystemen.“
Diese Lücke zeigt sich deutlich in den Zahlen: Rund 70 % der indizierten Agenten stellen Dokumentation bereit und fast die Hälfte veröffentlicht Code. Aber nur etwa 19 % legen eine formelle Sicherheitsrichtlinie offen und weniger als 10 % berichten über externe Sicherheitsbewertungen.
Die Untersuchung unterstreicht, dass Entwickler zwar schnell die Fähigkeiten und die praktische Anwendung von Agentensystemen anpreisen, aber auch schnell nur begrenzte Informationen zu Sicherheit und Risiko bereitstellen. Das Ergebnis ist eine einseitige Art von Transparenz.
Was zählt als KI-Agent?
Die Forscher waren sich darüber im Klaren, was den Ausschlag gab, und nicht jeder Chatbot ist dafür geeignet. Um einbezogen zu werden, musste ein System mit unterspezifizierten Zielen arbeiten und Ziele über einen längeren Zeitraum verfolgen. Es musste auch Maßnahmen ergreifen, die sich auf eine Umgebung mit begrenzter menschlicher Einflussnahme auswirken. Dabei handelt es sich um Systeme, die selbst über Zwischenschritte entscheiden. Sie können eine umfassende Anweisung in Teilaufgaben aufteilen, Tools verwenden, planen, vervollständigen und iterieren.
Diese Autonomie macht sie mächtig. Es ist auch das, was den Einsatz erhöht.
Wenn ein Modell lediglich Text generiert, sind seine Fehler normalerweise auf diese eine Ausgabe beschränkt. Wenn ein KI-Agent auf Dateien zugreifen, E-Mails senden, Einkäufe tätigen oder Dokumente ändern kann, können Fehler und Exploits schädlich sein und sich über mehrere Schritte hinweg ausbreiten. Dennoch stellten die Forscher fest, dass die meisten Entwickler nicht öffentlich detailliert darlegen, wie sie diese Szenarien testen.
Die Fähigkeit ist öffentlich, Leitplanken jedoch nicht
Das auffälligste Muster in die Studie ist nicht tief in einer Tabelle versteckt – es wird in der gesamten Arbeit wiederholt.
Entwickler teilen gerne Demos, Benchmarks und die Benutzerfreundlichkeit dieser KI-Agenten, sind jedoch weitaus weniger konsistent, wenn es um die Weitergabe von Sicherheitsbewertungen, internen Testverfahren oder Risikoprüfungen Dritter geht.
Dieses Ungleichgewicht ist umso wichtiger, je mehr Agenten von Prototypen zu digitalen Akteuren übergehen, die in reale Arbeitsabläufe integriert sind. Viele der indizierten Systeme arbeiten in Bereichen wie Softwareentwicklung und Computernutzung – Umgebungen, die oft sensible Daten und sinnvolle Kontrolle erfordern.
Der MIT AI Agent Index behauptet nicht, dass die Agenten-KI insgesamt unsicher sei, zeigt aber, dass mit zunehmender Autonomie die strukturierte Transparenz über die Sicherheit nicht Schritt gehalten hat.
Die Technologie beschleunigt sich. Die Leitplanken bleiben, zumindest öffentlich, schwerer zu erkennen.



