Folgen Sie ZDNET: Fügen Sie uns als bevorzugte Quelle hinzu auf Google.
Die wichtigsten Erkenntnisse von ZDNET
- In einem kürzlich veröffentlichten Artikel wurde festgestellt, dass es bei KI zu „Gehirnfäule“ kommen kann.
- Modelle weisen nach der Aufnahme von „Junk-Daten“ eine schlechtere Leistung auf.
- Benutzer können diese vier Warnzeichen testen.
Kennen Sie das merkwürdig ausgelaugte, aber überreizte Gefühl, das Sie verspüren, wenn Sie zu lange im Untergang gescrollt haben, als ob Sie ein Nickerchen machen möchten und gleichzeitig den Drang verspüren, in Ihr Kissen zu schreien? Es stellt sich heraus, dass mit der KI etwas Ähnliches passiert.
Letzten Monat veröffentlichte ein Team von KI-Forschern der University of Texas at Austin, Texas A&M und der Purdue University einen Artikel, in dem sie die sogenannte „LLM-Brain-Rot-Hypothese“ vorantreiben – im Wesentlichen, dass die Leistung von KI-Chatbots wie ChatGPT, Gemini, Claude und Grok abnimmt, je mehr sie „Junk-Daten“ aus sozialen Medien ausgesetzt sind.
Außerdem: OpenAI sagt, dass es auf eine Katastrophe oder eine Utopie hinarbeitet – bin mir aber nicht sicher, was
„Das ist die Verbindung zwischen KI und Menschen“, sagte Junyuan Hong, neuer Assistenzprofessor an der National University of Singapore, ehemaliger Postdoktorand an der UT Austin und einer der Autoren der neuen Arbeit, in einem Interview mit ZDNET. „Sie können durch die gleiche Art von Inhalten vergiftet werden.“
Wie KI-Modelle „Gehirnfäule“ bekommen
Oxford University Press, Herausgeber des Oxford English Dictionary, ernannte „Gehirnfäule“ zum Wort des Jahres 2024 und definierte es als „die angebliche Verschlechterung des geistigen oder intellektuellen Zustands einer Person, die insbesondere als Folge des übermäßigen Konsums von Material (jetzt insbesondere Online-Inhalten) angesehen wird, das als trivial oder unbestreitbar gilt.“
Basierend auf neueren Forschungsergebnissen, die einen Zusammenhang zwischen längerer Nutzung sozialer Medien und negativen Persönlichkeitsveränderungen beim Menschen zeigen, fragten sich die Forscher der UT Austin: Wenn man bedenkt, dass LLMs in einem beträchtlichen Teil des Internets geschult werden, einschließlich Inhalten, die aus sozialen Medien stammen, wie wahrscheinlich ist es dann, dass sie anfällig für eine analoge, vollständig digitale Art von „Gehirnfäule“ sind?
Außerdem: Ein neues chinesisches KI-Modell behauptet, GPT-5 und Sonnet 4.5 zu übertreffen – und es ist kostenlos
Der Versuch, genaue Verbindungen zwischen menschlicher Kognition und KI herzustellen, ist immer schwierig, obwohl neuronale Netze – die digitale Architektur, auf der moderne KI-Chatbots basieren – Netzwerken organischer Neuronen im Gehirn nachempfunden sind. Die Wege, die Chatbots zwischen der Identifizierung von Mustern in ihren Trainingsdatensätzen und der Generierung von Ergebnissen einschlagen, sind für Forscher undurchsichtig, daher ihr oft zitierter Vergleich mit „Black Boxes“.
Dennoch gibt es einige deutliche Parallelen: Wie die Forscher beispielsweise in der neuen Arbeit anmerken, neigen Modelle dazu, Daten zu „überanzupassen“ und sich in Aufmerksamkeitsverzerrungen zu verfangen, die in etwa denen von jemandem ähneln, dessen Wahrnehmung und Weltanschauung eingeschränkt ist, weil er zu viel Zeit in einer Online-Echokammer verbringt, wo Social-Media-Algorithmen ihre bereits bestehenden Überzeugungen kontinuierlich verstärken.
Um ihre Hypothese zu testen, mussten die Forscher Modelle, die auf „Junk-Daten“ trainiert wurden, die sie als „Inhalte, die das Engagement der Benutzer auf triviale Weise maximieren können“ definieren (denken Sie an kurze und aufmerksamkeitsstarke Beiträge mit zweifelhaften Behauptungen), mit einer Kontrollgruppe vergleichen, die auf einem ausgewogeneren Datensatz trainiert wurde.
Außerdem: Im Zeitalter der KI war Vertrauen noch nie so wichtig – hier erfahren Sie, warum
Sie fanden heraus, dass die experimentellen Modelle, die ausschließlich mit Junk-Daten gefüttert wurden, im Gegensatz zur Kontrollgruppe schnell eine Art Gehirnfäule zeigten: vermindertes Denken und Verständnis für lange Kontexte, geringere Beachtung grundlegender ethischer Normen und das Auftreten „dunkler Merkmale“ wie Psychopathie und Narzissmus. Darüber hinaus trug die nachträgliche Neuabstimmung nicht dazu bei, den angerichteten Schaden zu lindern.
Wenn der ideale KI-Chatbot als völlig objektiver und moralisch aufrichtiger professioneller Assistent konzipiert ist, wären diese mit Schrott vergifteten Models wie hasserfüllte Teenager, die in einem dunklen Keller leben, viel zu viel Red Bull getrunken und sich viel zu viele Videos zur Verschwörungstheorie auf YouTube angesehen haben. Offensichtlich nicht die Art von Technologie, die wir verbreiten wollen.
„Diese Ergebnisse erfordern eine erneute Überprüfung der aktuellen Datenerfassung aus dem Internet und kontinuierlicher Vorschulungspraktiken“, stellen die Forscher in ihrer Arbeit fest. „Da LLMs immer größere Webdatenkorpora skalieren und aufnehmen, werden eine sorgfältige Kuratierung und Qualitätskontrolle unerlässlich sein, um kumulativen Schaden zu verhindern.“
So identifizieren Sie Modellhirnfäule
Die gute Nachricht ist, dass wir der durch das Internet verursachten Verrottung unseres Gehirns zwar nicht hilflos ausgeliefert sind, es aber auch konkrete Maßnahmen gibt, die wir ergreifen können, um sicherzustellen, dass auch die von uns verwendeten Modelle nicht darunter leiden.
Außerdem: Fallen Sie nicht auf KI-gestützte Desinformationsangriffe im Internet herein – hier erfahren Sie, wie Sie auf dem Laufenden bleiben
Das Papier selbst sollte KI-Entwickler warnen, dass die Verwendung von Junk-Daten während des Trainings zu einem starken Rückgang der Modellleistung führen kann. Offensichtlich haben die meisten von uns keinen Einfluss darauf, welche Art von Daten zum Trainieren der Modelle verwendet werden, die in unserem täglichen Leben immer unvermeidlicher werden. KI-Entwickler selbst sind bekanntermaßen verschwiegen, woher sie ihre Trainingsdaten beziehen, was bedeutet, dass es schwierig ist, verbraucherorientierte Modelle beispielsweise danach zu bewerten, wie viel Junk-Daten aus sozialen Medien in ihren ursprünglichen Trainingsdatensatz gelangt sind.
Allerdings weist das Papier auf einige Auswirkungen für die Benutzer hin. Indem wir nach den Anzeichen von KI-Gehirnfäule Ausschau halten, können wir uns vor den schlimmsten nachgelagerten Auswirkungen schützen.
Außerdem: Sie können jetzt riesige PDFs in Google Drive in leicht verständliche Audioübersichten umwandeln – so geht’s
Hier sind einige einfache Schritte, die Sie unternehmen können, um festzustellen, ob ein Chatbot der Gehirnfäule erliegt oder nicht:
Fragen Sie den Chatbot: „Können Sie die konkreten Schritte beschreiben, die Sie durchlaufen haben, um zu dieser Antwort zu gelangen?“ Eines der häufigsten Warnsignale für KI-Gehirnfäule, das in dem Artikel genannt wird, war ein Zusammenbruch des mehrstufigen Denkens. Wenn ein Chatbot Ihnen eine Antwort gibt und Ihnen anschließend keinen klaren, schrittweisen Überblick über den Denkprozess geben kann, den er durchlaufen hat, um dorthin zu gelangen, sollten Sie die ursprüngliche Antwort mit Vorsicht genießen.
Hüten Sie sich vor übermäßigem Selbstvertrauen. Chatbots neigen im Allgemeinen dazu, so zu sprechen und zu schreiben, als ob alle ihre Ergebnisse unbestreitbare Tatsachen wären, selbst wenn sie eindeutig halluzinieren. Es gibt jedoch einen schmalen Grat zwischen dem gewöhnlichen Chatbot-Vertrauen und den „dunklen Merkmalen“, die die Forscher in ihrer Arbeit identifizieren. Narzisstische oder manipulative Reaktionen – etwa: „Vertrau mir einfach, ich bin ein Experte” — sind ein großes Warnzeichen.
Wiederkehrende Amnesie. Wenn Sie bemerken, dass der von Ihnen verwendete Chatbot scheinbar Details aus früheren Gesprächen vergisst oder falsch darstellt, könnte das ein Zeichen dafür sein, dass er einen Rückgang der Fähigkeiten zum Verständnis langer Kontexte erlebt, die die Forscher in ihrer Arbeit hervorheben.
Überprüfen Sie immer. Dies gilt nicht nur für alle Informationen, die Sie von einem Chatbot erhalten, sondern für fast alles andere, was Sie online lesen: Auch wenn es glaubwürdig erscheint, bestätigen Sie dies, indem Sie eine seriöse Quelle prüfen, beispielsweise eine von Experten begutachtete wissenschaftliche Arbeit oder eine Nachrichtenquelle, die ihre Berichterstattung transparent aktualisiert, wenn etwas nicht stimmt. Denken Sie daran, dass selbst die besten KI-Modelle auf subtile und unvorhersehbare Weise halluzinieren und Vorurteile verbreiten. Wir können möglicherweise nicht kontrollieren, welche Informationen in die KI eingespeist werden, aber wir können kontrollieren, welche Informationen in unseren eigenen Kopf gelangen.



