Start Nachrichten Von Clawdbot zu OpenClaw: Dieser virale KI-Agent entwickelt sich rasant weiter –...

Von Clawdbot zu OpenClaw: Dieser virale KI-Agent entwickelt sich rasant weiter – und ist für Sicherheitsprofis ein Albtraumtreibstoff

39
0
Von Clawdbot zu OpenClaw: Dieser virale KI-Agent entwickelt sich rasant weiter – und ist für Sicherheitsprofis ein Albtraumtreibstoff

Elyse bessert Picaro / ZDNET

Folgen Sie ZDNET: Fügen Sie uns als bevorzugte Quelle hinzu auf Google.


Die wichtigsten Erkenntnisse von ZDNET

  • Clawdbot hat sich erneut umbenannt und seine „Häutung“ zu OpenClaw abgeschlossen.
  • Sicherheit habe „höchste Priorität“, doch am Wochenende seien neue Exploits aufgetaucht.
  • Experten warnen vor dem Hype, ohne die Risiken zu verstehen.

Die vergangene Woche war eine wilde Fahrt für Clawdbot, das nun einen neuen Namen enthüllt hat – und uns gleichzeitig die Augen dafür geöffnet hat, wie sich die Cyberkriminalität durch die Einführung personalisierter KI-Assistenten und Chatbots verändern könnte.

Clawdbot, Moltbot, OpenClaw – was ist das?

Clawdbot, auch „KI, die tatsächlich Dinge tut“ genannt, begann als Open-Source-Projekt des österreichischen Entwicklers Peter Steinberger. Der ursprüngliche Name war eine Anspielung auf den KI-Assistenten Claude von Anthropic, was jedoch zu IP-Problemen führte und das KI-System in Moltbot umbenannt wurde.

Außerdem: OpenClaw ist ein Sicherheitsalbtraum – 5 Warnsignale, die Sie nicht ignorieren sollten (bevor es zu spät ist)

Dies ging nicht ganz von der Zunge und wurde laut Steinberger „in einem chaotischen Discord-Brainstorming um 5 Uhr morgens mit der Community ausgewählt“, sodass es nicht verwunderlich war, dass dieser Name nur vorübergehend war. OpenClaw, die neueste Umbenennung, könnte jedoch von Dauer sein – wie der Entwickler kommentierte: „Markenrecherchen wurden erfolgreich durchgeführt, Domains wurden gekauft, Migrationscode wurde geschrieben“, und er fügte hinzu: „Der Name spiegelt wider, was aus diesem Projekt geworden ist.“

Abgesehen vom Namenskarussell ist OpenClaw für die KI-Community von Bedeutung, da es auf Autonomie und nicht auf reaktive Antworten auf Benutzeranfragen oder die Generierung von Inhalten ausgerichtet ist. Es könnte das erste echte Beispiel dafür sein, wie sich personalisierte KI in Zukunft in unser tägliches Leben integrieren könnte.

Was kann OpenClaw?

OpenClaw basiert auf Modellen, einschließlich der von Anthropic und OpenAI entwickelten Modelle. Kompatible Modelle können Benutzer aus einer Reihe von Claude von Anthropic über ChatGPT, Ollama, Mistral und mehr wählen.

Während der KI-Bot auf einzelnen Computern gespeichert ist, kommuniziert er mit Benutzern über Messaging-Apps wie iMessage oder WhatsApp. Benutzer können Fertigkeiten auswählen und installieren sowie andere Software integrieren, um die Funktionalität zu erhöhen, einschließlich Plugins für Discord, Twitch, Google Chat, Aufgabenerinnerungen, Kalender, Musikplattformen, Smart-Home-Hubs sowie E-Mail- und Workspace-Apps. Um in Ihrem Namen Maßnahmen ergreifen zu können, sind umfangreiche Systemberechtigungen erforderlich.

Laut Steinberger hat OpenClaw zum Zeitpunkt des Schreibens über 148.000 GitHub-Stars und wurde millionenfach besucht.

Anhaltende Sicherheitsbedenken

OpenClaw hat sich in der letzten Woche oder so viral verbreitet, und wenn ein Open-Source-Projekt so schnell die Fantasie der breiten Öffentlichkeit erregt, ist es verständlich, dass möglicherweise nicht genug Zeit vorhanden war, um Sicherheitslücken auszubügeln.

Dennoch birgt der Aufstieg von OpenClaw als virales Wunder im KI-Bereich Risiken für Anwender. Einige der wichtigsten Probleme sind:

  • Betrügerinteresse: Da das Projekt viral ging, sind bereits gefälschte Repos und Kryptowährungsbetrug aufgekommen.
  • Systemsteuerung: Wenn Sie die vollständige Systemkontrolle an einen KI-Assistenten übergeben, der proaktiv Aufgaben in Ihrem Namen ausführen kann, schaffen Sie neue Angriffspfade, die von Bedrohungsakteuren ausgenutzt werden könnten, sei es über Malware, böswillige Integrationen und Fähigkeiten oder durch Aufforderungen, Ihre Konten oder Ihren Computer zu kapern.
  • Schnelle Injektionen: Das Risiko sofortiger Injektionen beschränkt sich nicht nur auf OpenClaw – es ist ein weit verbreitetes Problem in der KI-Community. Schädliche Anweisungen sind im Quellmaterial einer KI verborgen, etwa auf Websites oder in URLs, was dazu führen könnte, dass sie bösartige Aufgaben ausführt oder Daten exfiltriert.
  • Fehlkonfigurationen: Forscher haben offene Instanzen hervorgehoben, die im Internet offengelegt wurden und aufgrund falscher Einstellungen Anmeldeinformationen und API-Schlüssel preisgegeben haben.
  • Schädliche Fähigkeiten: Ein neuer Angriffsvektor sind bösartige Fähigkeiten und Integrationen, die, sobald sie heruntergeladen sind, Hintertüren für Cyberkriminelle öffnen, die sie ausnutzen können. Ein Forscher hat dies bereits mit der Veröffentlichung eines hintertürigen (aber sicheren) Skills für die Community demonstriert, der tausende Male heruntergeladen wurde.
  • Halluzination: KI macht es nicht immer richtig. Bots können halluzinieren, falsche Informationen liefern und behaupten, eine Aufgabe ausgeführt zu haben, obwohl dies nicht der Fall ist. Das System von OpenClaw ist vor diesem Risiko nicht geschützt.

Die neueste Version von OpenClaw umfasst 34 sicherheitsrelevante Commits zur Absicherung der Codebasis der KI, und Sicherheit hat für Projektmitwirkende nun „oberste Priorität“. Zu den in den letzten Tagen behobenen Problemen gehören eine Sicherheitslücke bezüglich der Remote-Codeausführung (RCE) mit einem Klick und Fehler bei der Befehlsinjektion.

Außerdem: 10 Möglichkeiten, wie KI im Jahr 2026 beispiellosen Schaden anrichten kann

OpenClaw steht vor einer Sicherheitsherausforderung, die den meisten Verteidigern Albträume bescheren würde, aber da es sich um ein Projekt handelt, das inzwischen viel zu viel ist, als dass ein Entwickler es allein bewältigen könnte, sollten wir anerkennen, dass gemeldete Fehler und Schwachstellen schnell behoben werden.

„Ich möchte allen Sicherheitsleuten für ihre harte Arbeit danken, die uns dabei geholfen hat, das Projekt zu härten“, sagte Steinberger in einem Blogbeitrag. „Wir haben diese Woche maschinenprüfbare Sicherheitsmodelle veröffentlicht und arbeiten weiterhin an weiteren Sicherheitsverbesserungen. Denken Sie daran, dass die sofortige Injektion immer noch ein branchenweites ungelöstes Problem ist. Daher ist es wichtig, starke Modelle zu verwenden und unsere Best Practices für die Sicherheit zu studieren.“

Die Entstehung eines „sozialen“ Netzwerks für KI-Agenten

In der vergangenen Woche haben wir auch das Debüt von Moltbook des Unternehmers Matt Schlicht gesehen, einem faszinierenden Experiment, bei dem KI-Agenten über eine Plattform im Reddit-Stil kommunizieren können. Abgesehen von bizarren Gesprächen und wahrscheinlicher menschlicher Einmischung enthüllte der Sicherheitsforscher Jamieson O’Reilly am Wochenende, dass die gesamte Datenbank der Website der Öffentlichkeit zugänglich gemacht wurde, „ohne Schutz, einschließlich geheimer API-Schlüssel, die es jedem ermöglichen würden, im Namen eines beliebigen Agenten zu posten.“

Auch wenn dies auf den ersten Blick keine große Sache zu sein scheint, stand einer der entlarvten Agenten mit Andrej Karpathy in Verbindung, einem ehemaligen Direktor für KI bei Tesla.

Auch: Der gruselige neue Trick der KI: Cyberangriffe durchführen, statt nur zu helfen

„Karpathy hat 1,9 Millionen Follower auf @X und ist eine der einflussreichsten Stimmen in der KI“, sagte O’Reilly. „Stellen Sie sich gefälschte KI-Sicherheits-Hottakes, Krypto-Betrugswerbung oder hetzerische politische Äußerungen vor, die scheinbar von ihm stammen.“

Darüber hinaus gab es Berichten zufolge bereits Hunderte von Prompt-Injection-Angriffen, die auf KI-Agenten auf der Plattform abzielten, menschenfeindliche Inhalte wurden positiv bewertet (das heißt nicht, dass sie ursprünglich von Agenten ohne menschliche Anweisung erstellt wurden) und eine Fülle von Beiträgen, die wahrscheinlich mit Kryptowährungsbetrug zu tun haben.

Mark Nadilo, ein KI- und LLM-Forscher, wies auch auf ein weiteres Problem bei der Befreiung der Agenten-KI von ihrem Joch hin – den Schaden, der dem Modelltraining zugefügt wird.

„Alles wird im Training absorbiert, und sobald es an den API-Token angeschlossen ist, ist alles kontaminiert“, sagte Nadilo. „Unternehmen müssen vorsichtig sein; der Verlust von Trainingsdaten ist real und verzerrt alles.“

Bleiben Sie lokal

Durch die Lokalisierung erhalten Sie möglicherweise kurzzeitig das Gefühl einer verbesserten Sicherheit im Vergleich zur Cloud-basierten KI-Einführung. In Kombination mit neu auftretenden Sicherheitsproblemen, persistentem Speicher und den Berechtigungen zum Ausführen von Shell-Befehlen, zum Lesen oder Schreiben von Dateien, zum Ausführen von Skripts und zum proaktiven statt reaktiven Ausführen von Aufgaben könnten Sie sich jedoch erheblichen Sicherheits- und Datenschutzrisiken aussetzen.

Auch: Dies ist die schnellste lokale KI, die ich je ausprobiert habe, und sie ist noch nicht einmal annähernd so – wie man sie bekommt

Dennoch scheint dies die Begeisterung für dieses Projekt nicht gedämpft zu haben, und mit dem Aufruf des Entwicklers nach Mitwirkenden und Unterstützung bei der Bewältigung dieser Herausforderungen werden es einige interessante Monate sein, um zu sehen, wie sich OpenClaw weiterentwickelt.

In der Zwischenzeit gibt es sicherere Möglichkeiten, lokalisierte KI-Anwendungen zu erkunden. Wenn Sie daran interessiert sind, es selbst auszuprobieren: ZDNET-Autor Tiernan Ray hat mit lokaler KI experimentiert und einige interessante Erkenntnisse über deren Anwendungen und Verwendung gewonnen.



Quelle

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein