- Anthropic-Chef Dario Amodei möchte nicht, dass Claude vom Pentagon für Massenüberwachung im Inland und autonome Waffen eingesetzt wird
- In einer Erklärung wurden die Gründe von Anthropic für die Beibehaltung von Claudes Sicherheitsgeländer offengelegt
- Pete Hegseth gab Anthropic bis Freitag Zeit, um dem Verteidigungsministerium vollen Zugriff zu gewähren
Anthropic-CEO Dario Amodei hat veröffentlicht eine Aussage bezüglich der anhaltenden Meinungsverschiedenheit des Unternehmens mit dem US-Verteidigungsministerium.
Amodei erklärte, Anthropic könne „nicht guten Gewissens“ der Bitte des Verteidigungsministeriums nachkommen, vollen Zugriff auf seine KI-Modelle zu gewähren, aus Angst, diese könnten für „Massenüberwachung im Inland“ und „völlig autonome Waffen“ verwendet werden.
US-Verteidigungsminister Pete Hegseth hat gedroht, Anthropic als „Lieferkettenrisiko“ zu bezeichnen und berufen sich auf den Defence Production Act, um das Unternehmen zur Einhaltung zu zwingen.
Beispiellose Drohungen gegen Anthropic
In seiner Erklärung sagte Amodei, dass Anthropic in der Vergangenheit eine sehr gute Beziehung zur US-Regierung hatte und unter anderem das erste KI-Unternehmen war, das seine Modelle in US-Regierungsnetzwerken, den National Laboratories, einsetzte, und das erste, das Modelle für die nationale Sicherheit einsetzte.
Amodei wies auch darauf hin, dass das Unternehmen die US-Vorschriften für die Verwendung und den Verkauf von KI-Modellen nach China eingehalten habe, und zwar so weit, dass es sich dafür entschieden habe, „auf mehrere hundert Millionen Dollar an Einnahmen zu verzichten“, indem es die Verwendung von Claude durch die Kommunistische Partei Chinas verhindert habe.
„Anthropic versteht, dass das Kriegsministerium und nicht private Unternehmen militärische Entscheidungen treffen“, fuhr Amodei fort. „In einer begrenzten Anzahl von Fällen glauben wir jedoch, dass KI demokratische Werte eher untergraben als verteidigen kann.“
Doch die Bedenken, dem Verteidigungsministerium uneingeschränkten Zugang zu Claude zu gewähren, hängen mit dem möglichen Missbrauch des Modells für zwei schändliche Zwecke zusammen.
Laut Amodei haben die Vorschriften rund um die KI nicht mit den Fähigkeiten von KI-Modellen wie Claude Schritt gehalten, was es der US-Regierung ermöglichen würde, Claude als Instrument zur Massenüberwachung im Inland einzusetzen.
Theoretisch könnte die Regierung hochdetaillierte Aufzeichnungen erwerben und sie mithilfe von KI-Modellen zu einem hochpräzisen Abbild der US-Bürger in einem noch nie dagewesenen Ausmaß organisieren.
Was den KI-Einsatz in Waffensystemen anbelangt, sagt Amodei, dass er sich „für unsere Landesverteidigung als entscheidend erweisen könnte“, argumentiert er jedoch, dass aktuelle KI-Modelle „einfach nicht zuverlässig genug sind, um vollständig autonome Waffen anzutreiben“. Wenn ein KI-Modell, das für ein autonomes Waffensystem verantwortlich ist, eine Halluzination erleiden würde, würde die Verantwortung wahrscheinlich beim Modellentwickler liegen.
Amodei geht auch auf die Drohungen von Hegseth ein und erklärt, dass sie „von Natur aus widersprüchlich sind: Der eine bezeichnet uns als Sicherheitsrisiko, der andere bezeichnet Claude als wesentlich für die nationale Sicherheit.“
In der Erklärung kommt man zu dem Schluss, dass es Anthropics „starke Präferenz ist, weiterhin dem Ministerium und unseren Kriegskämpfern zu dienen – mit unseren beiden geforderten Sicherheitsvorkehrungen“.
„Sollte sich das Ministerium dafür entscheiden, Anthropic auszugliedern, werden wir daran arbeiten, einen reibungslosen Übergang zu einem anderen Anbieter zu ermöglichen und dabei Störungen der laufenden militärischen Planung, Operationen oder anderer kritischer Missionen zu vermeiden. Unsere Modelle werden zu den von uns vorgeschlagenen umfangreichen Konditionen so lange wie nötig verfügbar sein.“
Der beste Schutz vor Identitätsdiebstahl für jedes Budget



