Die Gesetzgeber des US-Bundesstaates Washington unternehmen einen weiteren Anlauf bei der Regulierung künstlicher Intelligenz und bringen in dieser Sitzung eine Reihe von Gesetzesentwürfen vor, die darauf abzielen, Diskriminierung einzudämmen, den Einsatz von KI in Schulen einzuschränken und Unternehmen, die emotional ansprechende KI-Produkte entwickeln, neue Verpflichtungen aufzuerlegen.
Der Staat hat in der Vergangenheit strenge KI-bezogene Gesetze erlassen – darunter Beschränkungen der Gesichtserkennung und der Verbreitung von Deepfakes –, aber umfassendere Bemühungen sind oft ins Stocken geraten, unter anderem Vorschläge Letztes Jahr lag der Schwerpunkt auf der Transparenz und Offenlegung der KI-Entwicklung.
Die diesjährigen Gesetzentwürfe konzentrieren sich auf Kinder, psychische Gesundheit und wichtige Entscheidungen wie Einstellung, Wohnen und Kreditvergabe. Die Gesetzesentwürfe könnten HR-Softwareanbieter, Bildungstechnologieunternehmen, Start-ups im Bereich der psychischen Gesundheit und in Washington tätige Plattformen für generative KI betreffen.
Die Vorschläge kommen zu einem Zeitpunkt, an dem der Kongress weiterhin über die KI-Aufsicht debattiert, ohne dass konkrete Maßnahmen ergriffen werden, so dass die Staaten mit ihren eigenen Leitplanken experimentieren müssen. Ein Zwischenbericht vor kurzem herausgegeben vom Staat Washington KI-Task Force stellt fest, dass der „hands-off-Ansatz“ der Bundesregierung in Bezug auf KI „eine entscheidende Regulierungslücke geschaffen hat, die die Washingtoner verwundbar macht.“
Hier ist ein Blick auf fünf Gesetzesentwürfe im Zusammenhang mit KI, die vor dem offiziellen Beginn der Legislaturperiode, die am Montag beginnt, vorab eingereicht wurden.
Dieser umfassende Gesetzentwurf würde sogenannte Hochrisiko-KI-Systeme regeln, mit denen Entscheidungen über Beschäftigung, Wohnen, Kredite, Gesundheitsfürsorge, Bildung, Versicherung und Bewährung getroffen oder maßgeblich beeinflusst werden.
Unternehmen, die diese Systeme in Washington entwickeln oder einsetzen, müssten Diskriminierungsrisiken bewerten und mindern, offenlegen, wann Menschen mit KI interagieren, und erklären, wie KI zu nachteiligen Entscheidungen beigetragen hat. Verbraucher könnten auch Erklärungen für von KI beeinflusste Entscheidungen erhalten.
Der Vorschlag würde nicht für Tools mit geringem Risiko wie Spamfilter oder einfache Kundenservice-Chatbots gelten, noch für KI, die ausschließlich zu Forschungszwecken eingesetzt wird. Dennoch könnte es eine Vielzahl von Technologieunternehmen betreffen, darunter HR-Softwareanbieter, Fintech-Firmen, Versicherungsplattformen und große Arbeitgeber, die automatisierte Screening-Tools verwenden. Der Gesetzentwurf würde am 1. Januar 2027 in Kraft treten.
Dieser von Gouverneur Bob Ferguson beantragte Gesetzentwurf konzentriert sich auf KI-Begleit-Chatbots und würde wiederholte Offenlegungen erfordern, dass ein KI-Chatbot kein Mensch ist, sexuell explizite Inhalte für Minderjährige verbieten und Selbstmordpräventionsprotokolle vorschreiben. Verstöße würden unter das Washingtoner Verbraucherschutzgesetz fallen.
Die Ergebnisse des Gesetzentwurfs warnen davor, dass KI-Begleit-Chatbots die Grenze zwischen menschlicher und künstlicher Interaktion verwischen und zu emotionaler Abhängigkeit beitragen oder schädliche Vorstellungen, einschließlich Selbstverletzung, insbesondere bei Minderjährigen, verstärken können.
Diese Regeln könnten sich direkt auf Start-ups im Bereich der psychischen Gesundheit und des Wohlbefindens auswirken, die mit KI-gesteuerter Therapie oder Tools zur emotionalen Unterstützung experimentieren – einschließlich Unternehmen, die KI-basierte Dienstleistungen im Bereich der psychischen Gesundheit erforschen, wie etwa das Start-up aus Seattle Neue Tage.
Babak Parviz, CEO von NewDays und ehemaliger Leiter von Amazon, sagte, er glaube, dass der Gesetzentwurf gute Absichten habe, fügte jedoch hinzu, dass es schwierig sei, ihn durchzusetzen, da „der Aufbau einer langfristigen Beziehung hier so vage definiert ist“.
Parviz sagte, es sei wichtig, Systeme zu untersuchen, die mit Minderjährigen interagieren, um sicherzustellen, dass sie keinen Schaden anrichten. „Für kritische KI-Systeme, die mit Menschen interagieren, ist eine menschliche Überwachungsebene wichtig“, sagte er. „Zum Beispiel steht unser KI-System im Klinikeinsatz unter der Aufsicht eines erfahrenen menschlichen Klinikers.“
Ein entsprechender Gesetzesentwurf geht sogar noch weiter und schafft eine potenzielle zivilrechtliche Haftung, wenn ein KI-System angeblich zum Selbstmord einer Person beigetragen hat.
Nach diesem Gesetzentwurf könnten Unternehmen mit Klagen rechnen, wenn ihr KI-System zu Selbstverletzungen ermutigt, Anweisungen erteilt oder es versäumt, Benutzer auf Krisenressourcen hinzuweisen – und es wäre ihnen untersagt, zu argumentieren, dass der Schaden ausschließlich durch autonomes KI-Verhalten verursacht wurde.
Im Falle einer Verabschiedung würde die Maßnahme das Design und den Betrieb von KI-Systemen ausdrücklich mit Ansprüchen wegen unrechtmäßiger Tötung verknüpfen. Der Gesetzentwurf kommt inmitten einer zunehmenden rechtlichen Prüfung von Chatbots im Companion-Stil, einschließlich Klagen im Zusammenhang mit Character.AI und OpenAI.
Zielt auf den KI-Einsatz in K-12-Schulen ab, verbietet prädiktive „Risikobewertungen“, die Schüler als wahrscheinliche Unruhestifter kennzeichnen, und verbietet biometrische Echtzeitüberwachung wie Gesichtserkennung.
Den Schulen wäre es auch untersagt, KI als alleinige Grundlage für Suspendierungen, Ausweisungen oder die Überweisung an die Strafverfolgungsbehörden zu verwenden, was unterstreicht, dass das menschliche Urteilsvermögen weiterhin im Mittelpunkt von Disziplinarentscheidungen stehen muss.
Pädagogen und Bürgerrechtsaktivisten haben Alarm geschlagen, was Vorhersagetools angeht, die das können Ungleichheiten verstärken in der Disziplin.
Dieser Vorschlag aktualisiert Washingtons Gesetz zum Recht auf Veröffentlichung, um explizit KI-generierte gefälschte digitale Abbildungen abzudecken, einschließlich überzeugender Sprachklone und synthetischer Bilder.
Die Verwendung des KI-generierten Abbilds einer Person für kommerzielle Zwecke ohne Zustimmung könnte Unternehmen einer Haftung aussetzen und verdeutlichen, dass bestehende Identitätsschutzmaßnahmen im KI-Zeitalter gelten – und zwar nicht nur für Prominente und Persönlichkeiten des öffentlichen Lebens.


