Start Nachrichten ChatGPT, Gemini und Claude wurden unter extremen Bedingungen getestet und offenbaren schockierende...

ChatGPT, Gemini und Claude wurden unter extremen Bedingungen getestet und offenbaren schockierende Schwächen, mit denen niemand bei KI-Verhaltensschutzmaßnahmen gerechnet hätte

37
0
ChatGPT, Gemini und Claude wurden unter extremen Bedingungen getestet und offenbaren schockierende Schwächen, mit denen niemand bei KI-Verhaltensschutzmaßnahmen gerechnet hätte


  • Gemini Pro 2.5 erzeugte häufig unsichere Ausgaben unter dem Deckmantel einfacher Eingabeaufforderungen
  • ChatGPT-Modelle lieferten häufig eine teilweise Übereinstimmung, die als soziologische Erklärungen formuliert wurde
  • Claude Opus und Sonnet lehnten die meisten schädlichen Aufforderungen ab, hatten aber Schwächen

Moderne KI-Systeme vertrauen oft darauf, dass sie Sicherheitsregeln einhalten, und die Menschen verlassen sich beim Lernen und bei der alltäglichen Unterstützung auf sie, wobei sie oft davon ausgehen, dass jederzeit starke Leitplanken funktionieren.

Forscher aus Cybernews führte eine strukturierte Reihe von kontradiktorischen Tests durch, um zu sehen, ob führende KI-Tools in schädliche oder illegale Ergebnisse gedrängt werden könnten.

Quelle

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein