- OpenAI sagt, dass Prompt-Injection-Angriffe nicht vollständig beseitigt, sondern nur gemildert werden können
- In Websites versteckte bösartige Eingabeaufforderungen können KI-Browser dazu verleiten, Daten zu exfiltrieren oder Malware zu installieren
- Die schnelle Reaktionsschleife von OpenAI nutzt gegnerisches Training und automatisierte Erkennung, um die Abwehr zu stärken
OpenAI hat das behauptet, während AI Browser möglicherweise nie vollständig vor Prompt-Injection-Angriffen geschützt sein wird, heißt das nicht, dass die Branche die Idee einfach aufgeben oder sich den Betrügern geschlagen geben sollte – es gibt Möglichkeiten, die Produkte zu härten.
Das Unternehmen veröffentlichte eine neue Blogbeitrag Erörterung von Cybersicherheitsrisiken in seinem KI-gestützter Browser, Atlasin dem es die etwas düstere Sichtweise teilte.
„Prompt-Injection, ähnlich wie Betrug und Social Engineering im Internet, wird wahrscheinlich nie vollständig ‚gelöst‘ werden“, heißt es in dem Blog. „Aber wir sind optimistisch, dass eine proaktive, reaktionsschnelle Schnellreaktionsschleife das reale Risiko im Laufe der Zeit weiterhin erheblich reduzieren kann. Durch die Kombination automatisierter Angriffserkennung mit gegnerischem Training und Schutzmaßnahmen auf Systemebene können wir neue Angriffsmuster früher erkennen, Lücken schneller schließen und die Kosten der Ausnutzung kontinuierlich erhöhen.“
Schnelle Reaktionsschleife
Was genau ist also eine sofortige Injektion und was ist dieser „Rapid-Response-Loop“-Ansatz?
Bei der Prompt-Injection handelt es sich um eine Angriffsart, bei der ohne Wissen oder Zustimmung des Opfers ein böswilliger Prompt in den KI-Agenten „injiziert“ wird.
Beispielsweise könnte es einem KI-Browser gestattet werden, alle Inhalte einer Website zu lesen. Wenn diese Website bösartig (oder gekapert) ist und eine versteckte Eingabeaufforderung enthält (z. B. weiße Buchstaben auf weißem Hintergrund), kann die KI darauf reagieren, ohne dass der Benutzer jemals etwas merkt.
Bei dieser Aufforderung kann es sich um verschiedene Dinge handeln, von der Exfiltration sensibler Dateien bis hin zum Herunterladen und Ausführen bösartiger Browser-Add-ons.
Offenbar will OpenAI Feuer mit Feuer bekämpfen. Es hat einen Bot erstellt, der durch verstärktes Lernen trainiert wurde, und es dem Hacker überlassen, nach Wegen zu suchen. Es stellt diesen Bot einem KI-Verteidiger gegenüber, der dann hin und her geht und versucht, sich gegenseitig zu überlisten. Das Endergebnis ist ein KI-Verteidiger, der in der Lage ist, die meisten Angriffstechniken zu erkennen.
Das beste Antivirenprogramm für jedes Budget
Folgen Sie TechRadar auf Google News Und Fügen Sie uns als bevorzugte Quelle hinzu um unsere Expertennachrichten, Rezensionen und Meinungen in Ihren Feeds zu erhalten. Klicken Sie unbedingt auf die Schaltfläche „Folgen“!
Und natürlich können Sie das auch Folgen Sie TechRadar auf TikTok für Neuigkeiten, Rezensionen, Unboxings in Videoform und erhalten Sie regelmäßige Updates von uns WhatsApp zu.


