Start Nachrichten Forscher behaupten, dass ChatGPT eine ganze Reihe besorgniserregender Sicherheitslücken aufweist – hier...

Forscher behaupten, dass ChatGPT eine ganze Reihe besorgniserregender Sicherheitslücken aufweist – hier ist, was sie herausgefunden haben

39
0


  • Tenable gibt an, in ChatGPT-4o sieben Prompt-Injection-Fehler gefunden zu haben, die als „HackedGPT“-Angriffskette bezeichnet werden
  • Zu den Schwachstellen gehören versteckte Befehle, Speicherpersistenz und Sicherheitsumgehungen über vertrauenswürdige Wrapper
  • OpenAI hat einige Probleme in GPT-5 behoben; Andere bleiben bestehen, was zu Rufen nach einer stärkeren Verteidigung führt

Laut Sicherheitsforschern weist ChatGPT eine Reihe von Sicherheitsproblemen auf, die es Bedrohungsakteuren ermöglichen könnten, versteckte Befehle einzufügen, sensible Daten zu stehlen und Fehlinformationen in das KI-Tool zu verbreiten.

Kürzlich haben Sicherheitsexperten von Tenable ChatGPT-4o von OpenAI getestet und sieben Schwachstellen gefunden, die sie gemeinsam als HackedGPT bezeichneten. Dazu gehören:

  • Indirekte Eingabeaufforderungsinjektion über vertrauenswürdige Sites (Verstecken von Befehlen innerhalb öffentlicher Sites, denen GPT beim Lesen des Inhalts unwissentlich folgen kann)
  • Indirekte Eingabeaufforderungsinjektion mit 0 Klicks im Suchkontext (GPT durchsucht das Web und findet eine Seite mit verstecktem Schadcode. Das Stellen von Fragen kann GPT unwissentlich dazu zwingen, den Anweisungen zu folgen.)
  • Sofortige Injektion per 1-Klick (Eine Variante des Phishings, bei der ein Benutzer auf einen Link mit versteckten GPT-Befehlen klickt)
  • Umgehung des Sicherheitsmechanismus (Verpacken bösartiger Links in vertrauenswürdige Wrapper, wodurch GPT dazu gebracht wird, dem Benutzer die Links anzuzeigen)
  • Konversationsinjektion: (Angreifer können das SearchGPT-System verwenden, um versteckte Anweisungen einzufügen, die ChatGPT später liest, und so selbst eine Prompt-Injection durchzuführen.)
  • Verstecken bösartiger Inhalte (bösartige Anweisungen können im Code oder Markdown-Text versteckt werden)
  • Permanente Speicherinjektion (schädliche Anweisungen können in gespeicherten Chats platziert werden, was dazu führt, dass das Modell die Befehle wiederholt und kontinuierlich Daten verliert).

Fordert eine Verstärkung der Abwehrkräfte

Quelle

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein