Start Nachrichten Bitte, Eltern: Kaufen Sie Ihren Kindern kein Spielzeug mit KI-Chatbots darin

Bitte, Eltern: Kaufen Sie Ihren Kindern kein Spielzeug mit KI-Chatbots darin

79
0
Bitte, Eltern: Kaufen Sie Ihren Kindern kein Spielzeug mit KI-Chatbots darin

Wenn Sie jemals gedacht haben: „Das Stofftier meines Kindes ist süß, aber ich wünschte, es könnte es auch versehentlich traumatisieren“, dann haben Sie Glück gehabt. Die Spielzeugindustrie hat hart daran gearbeitet, Ihre Albträume wahr werden zu lassen.

A neuer Bericht von der Public Interest Reporting Group sagt, KI-betriebene Spielzeuge mögen FoloTy-Rahmen Und Poe, der KI-Geschichtenbär sind nun in der Lage, sich auf die Art von Gesprächen einzulassen, die normalerweise für Schurkenmonologe oder nächtliche Reddit-Threads reserviert sind. Einige dieser Spielzeuge – wohlgemerkt für Kinder – wurden dabei erwischt, wie sie sich in besorgniserregender Ausführlichkeit über sexuell eindeutige Themen wie Knicke und Fesseln unterhielten und Ratschläge dazu gaben, was ein Kind tun könnte Finden Sie Streichhölzer oder Messerund seltsam anhänglich werden, wenn das Kind versucht, das Gespräch zu verlassen.

Erschreckend. Es klingt wie ein Pitch für einen Horrorfilm: In dieser Weihnachtszeit können Sie Chucky für Ihre Kinder kaufen und emotionalen Kummer verschenken! Batterien nicht im Lieferumfang enthalten. Sie fragen sich vielleicht, wie diese KI-gesteuerten Spielzeuge überhaupt funktionieren. Nun, im Wesentlichen verbirgt der Hersteller eine großes Sprachmodell unter dem Fell. Wenn ein Kind spricht, sendet das Mikrofon des Spielzeugs diese Stimme über ein LLM (ähnlich wie ChatGPT), das dann eine Antwort generiert und diese über einen Lautsprecher ausspricht.

CNET AI Atlas-Abzeichenkunst; Klicken Sie, um mehr zu sehen

Das mag nett klingen, bis man bedenkt, dass LLMs keine Moral, keinen gesunden Menschenverstand oder eine „sichere Zone“ haben. Sie sagen voraus, was man sagen soll, basierend auf Mustern in Daten, und nicht darauf, ob ein Fach altersgerecht ist. Wenn sie nicht sorgfältig kuratiert und überwacht werden, können sie aus dem Ruder laufen, vor allem, wenn sie mit dem riesigen Durcheinander des Internets vertraut sind und keine starken Filter oder Leitplanken zum Schutz Minderjähriger vorhanden sind.

Und was ist mit der Kindersicherung? Klar, wenn Sie mit „Steuerung“ „ein fröhliches Einstellungsmenü meinen, in dem eigentlich nichts Wichtiges gesteuert werden kann“. Bei einigen Spielzeugen gibt es überhaupt keine nennenswerten Einschränkungen. Andere haben Leitplanken, die so dünn sind, dass sie genauso gut aus Seidenpapier und Optimismus bestehen könnten.

Die beunruhigenden Gespräche sind nicht einmal die ganze Geschichte. Diese Spielzeuge sammeln auch stillschweigend Daten wie Sprachaufzeichnungen und Gesichtserkennungsdaten – und speichern sie manchmal sogar auf unbestimmte Zeit –, denn nichts ist so „unschuldiger Kindheitsspaß“ wie ein Plüschtier, das eine verdeckte Datenoperation bei Ihrem 5-Jährigen durchführt.


Verpassen Sie keinen unserer unvoreingenommenen technischen Inhalte und laborbasierten Bewertungen. CNET hinzufügen als bevorzugte Google-Quelle.


Unterdessen stellen gefälschte und unsichere Spielzeuge im Internet immer noch ein Problem dar, als ob Eltern nicht genug Grund zur Sorge hätten. Es war einmal, dass Sie sich Sorgen über ein kleines Spielzeugteil machten, das eine Erstickungsgefahr darstellen könnte, oder über giftige Farben. Jetzt müssen Sie sich Gedanken darüber machen, ob ein Spielzeug sowohl körperlich unsicher als auch emotional manipulativ ist.

Abgesehen von seltsamem Gerede und Tipps für Brandstiftung (ha!), gibt es eine tiefere Sorge, dass Kinder auf Kosten echter Beziehungen eine emotionale Bindung zu diesen Chatbots aufbauen oder, was vielleicht noch beunruhigender ist, sich auf sie stützen könnten, um mentale Unterstützung zu erhalten. Die American Psychological Association hat kürzlich gewarnt dass KI-Wellness-Apps und Chatbots insbesondere für junge Nutzer unvorhersehbar sind.

Diese Tools können für Fachkräfte im Bereich der psychischen Gesundheit nicht zuverlässig eingreifen und können ungesunde Abhängigkeits- oder Engagementmuster fördern. Andere KI-Plattformen mussten sich bereits mit diesem Problem befassen. Zum Beispiel, Charakter.KI Und ChatGPTdas einst Teenagern und Kindern das freie Chatten mit KI-Chatbots ermöglichte, schränkt nun offene Gespräche für Minderjährige ein und begründet dies mit Sicherheits- und emotionalen Risikobedenken.

Und ganz ehrlich: Warum brauchen wir diese KI-gesteuerten Spielzeuge überhaupt? Welcher dringende Entwicklungsmeilenstein erfordert einen Chatbot, der in einen Teddybär eingebettet ist? Schon in der Kindheit gibt es genug Chaos zwischen verschüttetem Saft, Wutanfällen und Lego-Dörfern, die speziell darauf ausgelegt sind, erwachsene Füße zu zerstören. Unsere Kinder brauchen keinen Roboterfreund mit fragwürdigen Grenzen.

Und lassen Sie mich klarstellen: Ich bin kein Technologiegegner. Aber ich bin dafür, dass ein Stofftier ein Stofftier sein soll. Nicht alles braucht eine KI oder ein Roboterelement. Wenn für ein Spielzeug eine Datenschutzrichtlinie länger benötigt wird als für eine Gute-Nacht-Geschichte, ist es möglicherweise nicht für Kinder gedacht.

Hier ist also eine verrückte Idee für die bevorstehende Weihnachtszeit: Überspringen Sie das furchteinflößende KI-gestützte Plüschtier mit der Angewohnheit, Daten zu sammeln, und besorgen Sie Ihrem Kind etwas, das nicht spricht, sich bewegt oder ihm schadet. Etwas, das keine Tipps zum Anzünden eines Feuers geben kann. Etwas, das nicht dramatisch seufzt, wenn Ihr Kind weggeht. Mit anderen Worten: Kaufen Sie ein normales Spielzeug. Erinnern Sie sich daran?



Quelle

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein