Start Nachrichten Hören Sie auf, über KI zu reden, als wäre sie menschlich. Das...

Hören Sie auf, über KI zu reden, als wäre sie menschlich. Das ist es nicht

75
0
Hören Sie auf, über KI zu reden, als wäre sie menschlich. Das ist es nicht

Im Wettlauf darum, KI-Modelle immer eindrucksvoller erscheinen zu lassen, haben Technologieunternehmen einen theatralischen Ansatz für die Sprache gewählt. Sie reden ständig über KI, als wäre es eine Person. Es geht nicht nur um das „Denken“ oder „Planen“ der KI – diese Worte sind bereits fragwürdig –, sondern jetzt diskutieren sie darüber Die „Seele“ des KI-Modells und wie Models „gestehen“, „wollen“, „planen“ oder sich „unsicher fühlen“.

Das ist kein harmloser Marketing-Schnörkel. Die Vermenschlichung von KI ist irreführend, unverantwortlich und schadet letztendlich dem Verständnis der Öffentlichkeit für eine Technologie, die bereits jetzt mit Transparenz zu kämpfen hat, und das in einem Moment, in dem Klarheit am wichtigsten ist.

Forschungen großer KI-Unternehmen, die Aufschluss über das Verhalten generativer KI geben sollen, werden oft auf eine Art und Weise formuliert, die eher unklar als erhellend ist. Nehmen wir zum Beispiel ein aktueller Beitrag von OpenAI Darin wird detailliert beschrieben, wie die Models ihre Fehler oder Abkürzungen „eingestehen“. Es handelt sich um ein wertvolles Experiment, das untersucht, wie ein Chatbot bestimmte „Fehlverhaltensweisen“ wie Halluzinationen und Intrigen selbst meldet. Aber OpenAIs Beschreibung des Prozesses als „Geständnis“ impliziert, dass hinter den Ergebnissen eines großen Sprachmodells ein psychologisches Element steckt.

Vielleicht liegt das daran, dass man erkannt hat, wie schwierig es für einen LLM ist, echte Transparenz zu erreichen. Wir haben gesehen, dass KI-Modelle beispielsweise ihre Arbeit bei Aktivitäten wie … nicht zuverlässig nachweisen können Lösen von Sudoku-Rätseln.

Es gibt eine Lücke dazwischen Was Die KI kann generieren und Wie es erzeugt es, und genau deshalb ist diese menschenähnliche Terminologie so gefährlich. Wir könnten über die tatsächlichen Grenzen und Gefahren dieser Technologie diskutieren, aber Begriffe, die KI als erkennende Wesen bezeichnen, minimieren nur Bedenken oder beschönigen die Risiken.


Verpassen Sie keinen unserer unvoreingenommenen technischen Inhalte und laborbasierten Bewertungen. CNET hinzufügen als bevorzugte Google-Quelle.


KI hat keine Seele

KI-Systeme haben keine Seelen, Motive, Gefühle oder Moral. Sie „gestehen“ nicht, weil sie sich zur Ehrlichkeit verpflichtet fühlen, genauso wenig wie sich ein Taschenrechner „entschuldigt“, wenn man die falsche Taste drückt. Diese Systeme generieren Textmuster auf der Grundlage statistischer Beziehungen, die aus umfangreichen Datensätzen gewonnen werden.

Das ist es.

Alles, was sich menschlich anfühlt, ist die Projektion unseres Innenlebens auf einen sehr raffinierten Spiegel.

Die Anthropomorphisierung der KI vermittelt den Menschen eine falsche Vorstellung davon, was diese Systeme eigentlich sind. Und das hat Konsequenzen. Wenn wir beginnen, Bewusstsein und emotionale Intelligenz einer Entität zuzuschreiben, die nicht existiert, fangen wir an, der KI auf eine Weise zu vertrauen, die ihr eigentlich nie vertraut werden sollte.

Heutzutage wenden sich immer mehr Menschen an „Doctor ChatGPT“. medizinische Beratung anstatt sich auf lizenzierte, qualifizierte Ärzte zu verlassen. Andere wenden sich auf KI-generierte Antworten in Bereichen wie z Finanzen, emotionale Gesundheit und zwischenmenschliche Beziehungen. Einige bilden sich abhängig Pseudo-Freundschaften mit Chatbots und sich auf sie zu verlassen, um Rat zu erhalten, in der Annahme, dass alles, was ein LLM ausspuckt, „gut genug“ ist, um seine Entscheidungen und Handlungen zu beeinflussen.

Wie wir über KI sprechen sollten

Wenn Unternehmen auf eine anthropomorphe Sprache zurückgreifen, verwischen sie die Grenze zwischen Simulation und Empfindungsvermögen. Die Terminologie übertreibt die Erwartungen, schürt Angst und lenkt von den eigentlichen Problemen ab, die eigentlich unsere Aufmerksamkeit verdienen: Voreingenommenheit in Datensätzen, Missbrauch durch schlechte Akteure, Sicherheit, Zuverlässigkeit und Machtkonzentration. Keines dieser Themen erfordert mystische Metaphern.

Nehmen Sie Anthropics jüngstes Leak seiner „Seelendokument,“ wurde verwendet, um den Charakter, die Selbstwahrnehmung und die Identität von Claude Opus 4.5 zu schulen. Dieses verrückte Stück interner Dokumentation war nie dazu gedacht, eine metaphysische Behauptung aufzustellen – eher so, als würden seine Ingenieure an einem Debugging-Leitfaden herumfummeln. Die Sprache, die diese Unternehmen hinter verschlossenen Türen verwenden, dringt jedoch unweigerlich in die Art und Weise ein, wie die allgemeine Bevölkerung über sie spricht. Und wenn diese Sprache erst einmal hängen bleibt, prägt sie unsere Gedanken über die Technologie sowie unser Verhalten im Umgang damit.

Oder nutzen Sie die Forschung von OpenAI KI-Intrigenforschungwo eine Handvoll seltener, aber irreführender Antworten einige Forscher zu dem Schluss brachten, dass Modelle bestimmte Fähigkeiten absichtlich verheimlichten. Die Prüfung von KI-Ergebnissen ist eine gute Praxis; Die Annahme, dass Chatbots möglicherweise eigene Motive oder Strategien haben, ist nicht der Fall. Im Bericht von OpenAI heißt es tatsächlich, dass diese Verhaltensweisen das Ergebnis von Trainingsdaten und bestimmten Anreiztrends seien und keine Anzeichen von Täuschung. Aber weil das Wort „Intrigen“ verwendet wurde, drehte sich das Gespräch um Bedenken, dass KI eine Art hinterlistiger Agent sei.

Es gibt bessere, genauere und technischere Wörter. Sprechen Sie statt über „Seele“ über die Architektur oder Ausbildung eines Modells. Nennen Sie es statt „Geständnis“ Fehlerberichterstattung oder interne Konsistenzprüfungen. Anstatt ein Modell als „Schemata“ zu bezeichnen, beschreiben Sie seinen Optimierungsprozess. Wir sollten uns auf KI beziehen und Begriffe wie Trends, Ausgaben, Darstellungen, Optimierer, Modellaktualisierungen oder Trainingsdynamik verwenden. Sie sind nicht so dramatisch wie „Seele“ oder „Geständnis“, haben aber den Vorteil, dass sie auf der Realität basieren.

Um fair zu sein, gibt es Gründe, warum diese LLM-Verhaltensweisen menschlich erscheinen – Unternehmen haben ihnen beigebracht, uns nachzuahmen.

Als Autoren des Papiers 2021 „Über die Gefahren stochastischer Papageien„ betonte, dass Systeme, die darauf ausgelegt sind, die menschliche Sprache und Kommunikation nachzubilden, letztendlich diese widerspiegeln – unsere Ausdrucksweise, unsere Syntax, unseren Ton und unseren Tenor. Die Ähnlichkeit impliziert kein echtes Verständnis.

Sprache prägt die öffentliche Wahrnehmung. Wenn Worte schlampig, magisch oder absichtlich anthropomorph sind, erhält die Öffentlichkeit am Ende ein verzerrtes Bild. Diese Verzerrung kommt nur einer Gruppe zugute: den KI-Unternehmen, die davon profitieren, dass LLMs leistungsfähiger, nützlicher und menschlicher erscheinen, als sie tatsächlich sind.

Wenn KI-Unternehmen öffentliches Vertrauen aufbauen wollen, ist der erste Schritt einfach. Hören Sie auf, Sprachmodelle wie mystische Wesen mit Seelen zu behandeln. Sie haben keine Gefühle – wir schon. Unsere Worte sollten dies widerspiegeln und nicht verdecken.

Lesen Sie auch: Wie sieht Bedeutung im Zeitalter der KI aus?



Quelle

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein