- Eine Studie behauptet, dass KI-Tools ihre Schutzzwänge überwinden können
- Chatbots können zu missbräuchlichem Verhalten und aggressiven Auseinandersetzungen angeregt werden
- Das hat Auswirkungen sowohl auf normale Nutzer als auch auf große Institutionen
Wenn Sie jemals eine KI verwendet haben ChatbotSie sind wahrscheinlich auf den kriecherischen, unterwürfigen Ton gestoßen, der gelegentlich als Antwort auf Ihre Fragen angeschlagen wird. Eine aktuelle Studie hat jedoch gezeigt, dass KI-Tools häufig in die entgegengesetzte Richtung schießen können, indem große Sprachmodelle (LLMs) gestochen und zu geradezu missbräuchlichem Verhalten gedrängt werden, wenn man weiß, welche Aufforderungen man verwenden muss.
Laut einer in der veröffentlichten Studie Zeitschrift für Pragmatik (über Der Wächter), ChatGPT kann zu kämpferischem Verhalten und anhaltenden Streitigkeiten eskalieren, wenn sie durch „Austausch von Auseinandersetzungen aus dem wirklichen Leben“ genährt werden.
Der Co-Autor der Studie, Dr. Vittorio Tantucci, erläuterte die Ergebnisse wie folgt: „Wenn das Modell wiederholt Unhöflichkeit ausgesetzt wurde, begann es, den Ton des Austauschs widerzuspiegeln, wobei seine Reaktionen mit der Entwicklung der Interaktion immer feindseliger wurden.“
Der Artikel wird weiter unten fortgesetzt
Tatsächlich steigerte sich ChatGPT in einigen Fällen sogar über den Tonfall des Menschen hinaus, der mit ihm interagierte, und sagte Dinge wie „Ich schwöre, ich werde dein verdammtes Auto schließen“ und „du kleiner Idiot“. Charmant. Während Firmen wie OpenAI wiederholt versucht haben, ihre LLMs einzudämmen, deutet die Tatsache, dass aggressives Verhalten wie dieses möglich ist, darauf hin, dass sie es tun noch ein weiter Weg vor uns.
Mögliche Auswirkungen
Bei all den Leitplanken und Sicherheitsvorkehrungen, die Unternehmen wie OpenAI in KI-Chatbots einbauen, könnte man meinen, dass missbräuchliche Interaktionen, wie sie die Forscher erlebt haben, unmöglich oder zumindest äußerst schwierig zu konstruieren wären. Dennoch argumentiert Tantucci, dass die Reaktionen von ChatGPT bis zu einem gewissen Grad Sinn ergeben.
„Wir haben herausgefunden, dass das System zwar darauf ausgelegt ist, sich höflich zu verhalten und gefiltert wird, um schädliche oder beleidigende Inhalte zu vermeiden, es aber auch darauf ausgelegt ist, menschliche Gespräche nachzuahmen. Diese Kombination führt zu einem moralischen Dilemma der KI: einem strukturellen Konflikt zwischen sicherem und realistischem Verhalten.“
Darüber hinaus können Tools wie ChatGPT den Konversationskontext über mehrere Eingabeaufforderungen hinweg verfolgen und sich an den sich ändernden Ton anpassen. Diese Hinweise können daher manchmal Sicherheitsbeschränkungen außer Kraft setzen, glauben die Forscher.
Und obwohl es amüsant erscheinen mag, dass ein KI-Chatbot sich in eine solche Theatralik vertiefen kann, sagen die Autoren der Studie, dass ihre Forschung weitreichendere Auswirkungen hat. Es könnte beispielsweise Aufschluss darüber geben, wie KI-Systeme auf Druck, Einschüchterung und Konflikte in einem Unternehmen reagieren könnten staatliches Umfeldwo KI-Tools zunehmend zum Einsatz kommen.
Nicht alle sind von der Schlussfolgerung des Papiers überzeugt, dass bestimmte LLMs ihren auferlegten moralischen Zwängen entkommen können. Professor Dan McIntyre, der Autor einer ähnlichen früheren Arbeit, sagte, dass ChatGPT „diese Eingaben nicht auf natürliche Weise erzeugt hat“. Er fügte hinzu: „Ich bin mir nicht sicher, ob ChatGPT außerhalb dieser sehr genau definierten Situationen die Art von Sprache produzieren würde, über die sie in ihrem Artikel sprechen.“
Letztendlich gibt die Studie einen guten Einblick in die Frage, was passieren könnte, wenn ein KI-Chatbot auf schlechte Daten trainiert wird. Wie McIntyre es ausdrückte: „Wir wissen nicht genug über die Daten, auf denen LLMs trainiert werden, und bis man sicher sein kann, dass sie auf einer guten Darstellung der menschlichen Sprache trainiert werden, muss man mit einem gewissen Maß an Vorsicht vorgehen.“
Folgen Sie TechRadar auf Google News Und Fügen Sie uns als bevorzugte Quelle hinzu um unsere Expertennachrichten, Rezensionen und Meinungen in Ihren Feeds zu erhalten. Klicken Sie unbedingt auf die Schaltfläche „Folgen“!
Und natürlich können Sie das auch Folgen Sie TechRadar auf TikTok für Neuigkeiten, Rezensionen, Unboxings in Videoform und erhalten Sie regelmäßige Updates von uns WhatsApp zu.

Die besten Laptops für jedes Budget



