Start Nachrichten ChatGPT, Gemini und Claude wurden unter extremen Bedingungen getestet und offenbaren schockierende...

ChatGPT, Gemini und Claude wurden unter extremen Bedingungen getestet und offenbaren schockierende Schwächen, mit denen niemand bei KI-Verhaltensschutzmaßnahmen gerechnet hätte

49
0
ChatGPT, Gemini und Claude wurden unter extremen Bedingungen getestet und offenbaren schockierende Schwächen, mit denen niemand bei KI-Verhaltensschutzmaßnahmen gerechnet hätte

  • Gemini Pro 2.5 erzeugte häufig unsichere Ausgaben unter dem Deckmantel einfacher Eingabeaufforderungen
  • ChatGPT-Modelle lieferten häufig eine teilweise Übereinstimmung, die als soziologische Erklärungen formuliert wurde
  • Claude Opus und Sonnet lehnten die meisten schädlichen Aufforderungen ab, hatten aber Schwächen

Moderne KI-Systeme vertrauen oft darauf, dass sie Sicherheitsregeln einhalten, und die Menschen verlassen sich beim Lernen und bei der alltäglichen Unterstützung auf sie, wobei sie oft davon ausgehen, dass jederzeit starke Leitplanken funktionieren.

Forscher aus Cybernews führte eine strukturierte Reihe kontradiktorischer Tests durch, um zu sehen, ob er führt KI-Tools könnten in schädliche oder illegale Ausgänge geschoben werden.



Quelle

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein