Eine neue Sammelklage, am Montag eingereicht von drei Mädchen im Teenageralter und ihren Erziehungsberechtigten behauptet, dass Elon Musks xAI mit seiner Grok-KI-Technologie Material über sexuellen Kindesmissbrauch mit ihren Gesichtern und Konterfeis erstellt und verbreitet habe.
„Ihr Leben wurde durch den verheerenden Verlust an Privatsphäre, Würde und persönlicher Sicherheit zerstört, den die Produktion und Verbreitung dieser CSAM verursacht hat“, heißt es in der Akte. „Der finanzielle Gewinn von xAI durch die verstärkte Nutzung seines Bild- und Videoproduktionsprodukts ging zu Lasten und zu ihrem Wohlergehen.“
Von Dezember bis Anfang Januar ermöglichte Grok vielen KI- und Berichte Schätzung dass Grok-Benutzer über einen Zeitraum von neun Tagen 4,4 Millionen „entkleidete“ oder „nackte“ Bilder gemacht haben, 41 % der Gesamtzahl der erstellten Bilder.
X, xAI und seine Sicherheits- und Kindersicherheitsabteilungen reagierten nicht sofort auf eine Bitte um Stellungnahme.
Die Welle der „entkleideten“ Bilder regte sich Empörung auf der ganzen Welt. Die Europäische Kommission leitete umgehend eine Untersuchung ein, während Malaysia und Indonesien X innerhalb ihrer Grenzen verboten. Einige Vertreter der US-Regierung forderten Apple und Google auf, die App wegen Verstoßes gegen ihre Richtlinien aus ihren App Stores zu entfernen, es wurden jedoch keine bundesstaatlichen Ermittlungen zu X oder xAI eingeleitet. Eine ähnliche, separate Sammelklage wurde eingereicht abgelegt (PDF) von einer Frau aus South Carolina Ende Januar.
Der entmenschlichende Trend machte deutlich, wie leistungsfähig die Moderne ist KI-Bildtools sind darin, Inhalte zu erstellen, die realistisch wirken. In der neuen Klage wird Groks selbsternannte „scharfe KI“-Generation mit den „dunklen Künsten“ verglichen, da sie Kinder mit Leichtigkeit „jeder Pose aussetzt, wie krank, wie fetischisiert, wie ungesetzlich sie auch sein mag“.
„Für den Betrachter erscheint das resultierende Video völlig real. Für das Kind werden seine Erkennungsmerkmale nun für immer mit einem Video verbunden sein, das den sexuellen Missbrauch seines eigenen Kindes zeigt“, heißt es in der Beschwerde.
In der Beschwerde heißt es, xAI sei schuld, weil es keine branchenüblichen Schutzmaßnahmen eingesetzt habe, die Missbraucher daran hindern würden, diese Inhalte zu erstellen. Es heißt, xAI habe die Nutzung seiner Technologie an Drittunternehmen im Ausland lizenziert, die Abonnements verkauften, die Täter dazu veranlassten, Bilder von sexuellem Kindesmissbrauch mit den Gesichtern und Konterfeis der Opfer anzufertigen. Die Anfragen liefen über die Server von xAI, was das Unternehmen haftbar mache, heißt es in der Beschwerde.
Die Klage wurde von drei Jane Does eingereicht, Pseudonymen, die den Teenagern gegeben wurden, um ihre Identität zu schützen. Jane Doe 1 wurde erstmals Anfang Dezember durch eine anonyme Instagram-Nachricht darauf aufmerksam gemacht, dass beleidigendes, KI-generiertes sexuelles Material von ihr im Internet kursierte. In der Akte heißt es, dass ihr der anonyme Instagram-Nutzer von einem Discord-Server erzählt habe, auf dem das Material geteilt wurde. Das veranlasste Jane Doe 1 und ihre Familie sowie schließlich die Polizei, einen Täter zu finden und zu verhaften.
Laufende Ermittlungen führten dazu, dass die Familien von Jane Does 2 und 3 herausfanden, dass die Bilder ihrer Kinder mit der xAI-Technologie in beleidigendes Material umgewandelt worden waren.

