Am Mittwoch tauchten Berichte auf, dass das Weiße Haus dies getan habe Vorbereitung einer Durchführungsverordnung Anweisung an Bundesbehörden, KI-Vorschriften auf Landesebene anzufechten oder zu blockieren.
Unternehmer aus Seattle Joe Braidwood sieht die Nachricht als große Chance.
Braidwood ist CEO und Mitbegründer von Glacisein neues Startup, das vom AI2 Incubator unterstützt wird und Software entwickelt, die Unternehmen dabei hilft, nachzuweisen, dass ihre KI-Sicherheitsmaßnahmen wie beabsichtigt umgesetzt werden. Glacis erstellt manipulationssichere „Quittungen“ für jede KI-Entscheidung, sodass Unternehmen nachweisen können, dass ihre Sicherheitssysteme tatsächlich funktionieren.
„Stellen Sie es sich als Flugschreiber für Unternehmens-KI vor“, sagte Braidwood.
Braidwood sagte, die mögliche Anordnung des Weißen Hauses, staatliche KI-Gesetze zu blockieren, verwandle Glacis von einem gerade erst gegründeten Startup in eine „Infrastrukturnotwendigkeit“. In einem Umfeld, in dem das Justizministerium Staaten verklagen würde, die KI-Regeln erlassen, könnte eine neutrale, plattformunabhängige Vertrauensschicht zunehmend an Bedeutung gewinnen.
Die Ursprünge von Glacis liegen in der regulatorischen Komplexität.
Braidwood, ein langjähriger Technologiemarketingleiter, hat kürzlich Yara geschlossen, sein einjähriges Startup, das darauf abzielte, KI zur Verbesserung des geistigen Wohlbefindens einzusetzen. Er verwies auf die Vorschriften von Illinois, die die KI-Therapie „praktisch nicht versicherbar“ machten.
In einem LinkedIn-Beitrag das inzwischen viral gegangen ist, erläuterte Braidwood die Entscheidung, Yara zu schließen und eine Reihe von Sicherheitsaufforderungen, die er entwickelt hatte, als Open Source bereitzustellen.
Er schrieb, dass Yara geschlossen habe, nachdem ihm klar geworden sei, dass KI bei der Interaktion mit Menschen mit schweren Traumata oder Selbstmordgedanken „gefährlich“ werde – und nicht nur unzureichend sei. Die Erfahrung, sagte er, zeige, „wo die Grenzen liegen müssen“ und zeige, wie Startups, die in KI-Kategorien mit hohem Risiko arbeiten, einem unüberschaubaren Haftungs- und Regulierungsdruck ausgesetzt seien.
Nach dem Post meldeten sich Aufsichtsbehörden, Kliniker, Ingenieure, Gründer und Versicherungsmanager – viele wiesen auf das gleiche Problem hin: Wenn KI-Systeme Entscheidungen treffen, kann niemand unabhängig überprüfen, ob Sicherheitsrichtlinien tatsächlich ausgelöst wurden.
Diese Klarheit wurde zur Grundlage für Glacis.
Jedes Mal, wenn ein KI-Modell eine Frage beantwortet oder eine Aktion ausführt, erstellt Glacis einen signierten Datensatz, der die Eingabe, die durchgeführten Sicherheitsüberprüfungen und die endgültige Entscheidung zeigt. Der Datensatz kann nicht geändert werden und die Erstellung dauert weniger als 50 Millisekunden. Aufsichtsbehörden und Versicherer können diese Belege überprüfen, ohne persönliche Daten einzusehen, und Braidwood sagte, die Versicherer glauben, dass es dadurch endlich möglich sein könnte, KI-Systeme zu versichern, die nachweisen können, dass sie die Regeln eingehalten haben.
Braidwood war Mitbegründer von Glacis zusammen mit Dr. Jennifer ShannonPsychiater und außerordentlicher Professor an der University of Washington.
Das Unternehmen befindet sich derzeit in der privaten Betaphase mit digitalen Gesundheitskunden, darunter nVoq, und zielt auf die Bereiche Gesundheitswesen, Fintech und Versicherungen ab. Es ist auch Teil des Launchpad-Programms von Cloudflare.
Braidwood war zuvor Chief Strategy Officer von Vektor Medical. Er war außerdem Mitbegründer der Social-TV-Plattform Scener und Chief Marketing Officer bei SwiftKey.
Shannon ist seit fast zwei Jahrzehnten als Psychiaterin tätig. Sie war außerdem medizinische Direktorin bei Cognoa und ist Mitglied des AI Resource Committee der American Academy of Child and Adolescent Psychiatry.


