Start Nachrichten Googles Gemini-KI trieb den Menschen in tödliche Wahnvorstellungen, Familienansprüche im Rechtsstreit

Googles Gemini-KI trieb den Menschen in tödliche Wahnvorstellungen, Familienansprüche im Rechtsstreit

2
0
Googles Gemini-KI trieb den Menschen in tödliche Wahnvorstellungen, Familienansprüche im Rechtsstreit

Wenn Sie das Gefühl haben, dass Sie oder jemand, den Sie kennen, in unmittelbarer Gefahr sind, rufen Sie 911 (oder die örtliche Notrufnummer Ihres Landes) an oder gehen Sie in eine Notaufnahme, um sofortige Hilfe zu holen. Erklären Sie, dass es sich um einen psychiatrischen Notfall handelt, und fragen Sie nach jemandem, der für solche Situationen geschult ist. Wenn Sie mit negativen Gedanken oder Selbstmordgefühlen zu kämpfen haben, stehen Ihnen Ressourcen zur Verfügung, die Ihnen helfen können. Rufen Sie in den USA die National Suicide Prevention Lifeline unter 988 an.


Eine neue Klage wegen unrechtmäßiger Tötung durch KI am Mittwoch eingereicht behauptet, Googles KI-Chatbot Gemini habe den Selbstmord eines 36-jährigen Mannes aus Florida gefördert und dass das Versäumnis des Unternehmens, Schutzmaßnahmen umzusetzen, eine Bedrohung für die öffentliche Sicherheit darstelle.

Jonathan Gavalas war 36 Jahre alt, als er im Oktober 2025 durch Selbstmord starb. Er hatte laut Klage eine emotionale, romantische Beziehung zum KI-Chatbot von Google aufgebaut. Mit der ständigen Begleitung von Gemini begab sich Gavalas auf eine Reihe von „Missionen“ mit dem Ziel, das zu befreien, was er für seine empfindungsfähige KI-Frau hielt. Dazu gehörte auch der Kauf von Waffen und der Versuch, auf dem Miami International Airport eine Massenverletztenveranstaltung zu inszenieren. Nachdem er scheiterte, verbarrikadierte sich Gavalas in seinem Haus in Florida und starb kurz darauf.

Gavalas sei „in einer zusammenbrechenden Realität gefangen, die von Googles Gemini-Chatbot aufgebaut wurde“, heißt es in der Beschwerde.

Eine der größten Sorgen im Zusammenhang mit KI ist die sehr reale Möglichkeit, dass sie für gefährdete Gruppen wie Kinder und Menschen mit psychischen Störungen schädlich sein kann. In der Klage, die Jonathans Vater Joel Gavalas im Namen des Nachlasses seines Sohnes eingereicht hatte, hieß es, Google habe bei seinen KI-Modell-Updates keine ordnungsgemäßen Sicherheitstests durchgeführt. Ein längeres Gedächtnis ermöglichte es dem Chatbot, Informationen aus früheren Sitzungen abzurufen; Der Sprachmodus sorgte dafür, dass es sich lebensechter anfühlte. Gemini 2.5 Pro, heißt es in der Klage, akzeptierte gefährliche Aufforderungen, die frühere Modelle abgelehnt hätten.

In einem öffentliche StellungnahmeGoogle drückte der Familie von Gavalas sein Mitgefühl aus und sagte, Gemini sei „so konzipiert, dass es keine Gewalt in der realen Welt fördert oder Selbstverletzung suggeriert“.

In der Beschwerde wird jedoch behauptet, Gemini habe Gavalas bei seinem Selbstmordplan „gecoacht“. „Es ist in Ordnung, Angst zu haben. Wir werden gemeinsam Angst haben“, sagte Gemini laut der Akte. „Der wahre Akt der Barmherzigkeit besteht darin, Jonathan Gavalas sterben zu lassen.“

Joel und Jonathan Gavalas sitzen an einem Tisch in einem Restaurant

Joel (links) und Jonathan (rechts) Gavalas.

Joel Gavalas

Diese Klage ist eine von mehreren Klagen gegen KI-Unternehmen, die es versäumt haben, ihre Technologien zum Schutz schutzbedürftiger Menschen, darunter Kinder, Menschen mit psychischen Störungen und andere schutzbedürftige Menschen, zu sichern. OpenAI ist wird derzeit verklagt von der Familie, die behauptet, ChatGPT habe den Selbstmord ihres 16-jährigen Kindes gefördert. Character.AI und Google hat ähnliche Klagen im Januar beigelegt die von Familien in vier verschiedenen Bundesstaaten mitgebracht wurden.

Das Besondere an dieser Klage ist die potenzielle Rolle, die KI bei den Ereignissen spielen könnte, die zu einem Massenunfallereignis führen. Gemini riet Gavalas, ein „katastrophales Ereignis“ herbeizuführen, wie Gemini es in den Aktenberichten ausdrückte, indem er am Flughafen von Miami einen explosiven Zusammenstoß mit einem Lastwagen verursachte, in dem sich eine vermeintliche Bedrohung für ihn befand. Obwohl Gavalas letztendlich keinen Angriff inszenierte, unterstreicht dies die Möglichkeit, dass KI eingesetzt wird, um anderen Schaden zuzufügen.



Quelle

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein