Start Nachrichten Das lippensynchrone Robotergesicht ist ein Schritt, um künftigen Bots dabei zu helfen,...

Das lippensynchrone Robotergesicht ist ein Schritt, um künftigen Bots dabei zu helfen, wie wir zu sprechen

10
0
Das lippensynchrone Robotergesicht ist ein Schritt, um künftigen Bots dabei zu helfen, wie wir zu sprechen

Das Unbehagen, das einem den Rücken hochläuft, wenn man etwas sieht, das sich menschlich verhält, es aber nicht ist, bleibt ein großes Problem in der Robotik – insbesondere für Roboter, die so gebaut sind, dass sie wie wir aussehen und sprechen.

Dieses eigenartige Gefühl nennt man das unheimliche Tal. Eine Möglichkeit für Robotiker, dieses Tal zu überbrücken, besteht darin, die Lippenbewegungen eines Roboters mit seiner Stimme abzugleichen. Letzten Mittwoch gab die Columbia University bekannt Forschung Darin wird untersucht, wie eine neue Welle von Robotergesichtern realistischer sprechen kann.

Hod Lipson, ein Ingenieurprofessor aus der Columbia University, der an der Forschung mitgearbeitet hat, sagte gegenüber CNET, dass Roboter vor allem deshalb „unheimlich“ seien, weil sie ihre Lippen nicht wie wir bewegen, wenn sie sprechen. „Wir wollen dieses Problem lösen, das in der Robotik vernachlässigt wurde“, sagte Lipson.


Verpassen Sie keinen unserer unvoreingenommenen technischen Inhalte und laborbasierten Bewertungen. CNET hinzufügen als bevorzugte Google-Quelle.


Diese Forschung kommt zu einem Zeitpunkt, an dem der Hype um Roboter, die für den Einsatz zu Hause und am Arbeitsplatz entwickelt wurden, zugenommen hat. Bei CES 2026 Anfang dieses Monats sah CNET beispielsweise einen Auswahl an Robotern Entwickelt, um mit Menschen zu interagieren. Alles vom Neuesten Boston Dynamics Atlas Roboter zu Haushaltsroboter wie die, die Wäsche faltenund sogar ein Schildkrötenförmiger Bot für die Umweltforschung konzipiert, trat auf der größten Technologiemesse der Welt auf. Wenn CES ein Hinweis ist, könnte 2026 ein Jahr sein großes Jahr für Verbraucherrobotik.

KI-Atlas

CNET

Im Mittelpunkt stehen dabei humanoide Roboter mit Körpern, Gesichtern und synthetischer Haut, die unsere eigene nachahmen. Die CES-Kohorte eingeschlossen menschlich aussehende Roboter von Realbotix, das Informationsstände bedienen oder Menschen Trost bieten könnte, sowie a Roboter von Lovense Entwickelt für Beziehungen, die mit KI ausgestattet sind, um sich an intime Gespräche zu „erinnern“.

Aber eine Diskrepanz zwischen Lippenbewegung und Sprache im Bruchteil einer Sekunde kann den Unterschied zwischen einer Maschine, zu der man eine emotionale Bindung aufbauen kann, und einer Maschine, die kaum mehr als eine ist, ausmachen beunruhigende Animatronik.

Wenn die Menschen also akzeptieren, dass humanoide Roboter im Alltag unter uns „leben“, ist es wahrscheinlich besser, wenn sie uns nicht bei jedem Gespräch ein wenig Unbehagen bereiten.

Sehen Sie sich das an: Lippensynchronisierender Roboter singt ein Lied

Lippensynchronisierende Roboter

Um Roboter mit menschlichen Gesichtern zu schaffen, die wie wir sprechen, müssen die Lippen des Roboters sorgfältig mit dem Ton seiner Sprache synchronisiert werden. Das Columbia-Forschungsteam hat eine Technik entwickelt, die den Mund von Robotern dabei unterstützt, sich so zu bewegen, wie wir es tun, indem sie sich auf den Klang der Sprache konzentriert.

Zunächst baute das Team ein humanoides Robotergesicht mit einem Mund, der so sprechen und singen kann, dass der Uncanny-Valley-Effekt verringert wird. Das aus Silikonhaut gefertigte Robotergesicht verfügt über Magnetanschlüsse für komplexe Lippenbewegungen. Dadurch kann das Gesicht Lippenformen bilden, die 24 Konsonanten und 16 Vokale abdecken.

Sehen Sie sich das an: Lippensynchronisierendes Robotergesicht klingt einzelne Wörter aus

Um die Lippenbewegungen mit der Sprache abzugleichen, entwickelten sie eine „Lernpipeline“, um visuelle Daten von Lippenbewegungen zu sammeln. Ein KI-Modell nutzt diese Daten zum Training und generiert dann Referenzpunkte für Motorbefehle. Als nächstes wandelt ein „Gesichtsaktionstransformator“ die Motorbefehle in Mundbewegungen um, die mit dem Ton synchronisiert werden.

Mithilfe dieses Frameworks war das Robotergesicht namens Emo in der Lage, in mehreren Sprachen zu „sprechen“, einschließlich Sprachen, die nicht Teil des Trainings waren, wie Französisch, Chinesisch und Arabisch. Der Trick besteht darin, dass das Framework die Laute der Sprache analysiert, nicht die Bedeutung hinter dem Laut.

„Wir haben das sprachspezifische Problem vermieden, indem wir ein Modell trainiert haben, das direkt vom Ton zur Lippenbewegung übergeht“, sagte Lipson. „Es gibt keine Vorstellung von Sprache.“

Sehen Sie sich das an: Lippensynchronisierendes Robotergesicht stellt sich vor

Warum braucht ein Roboter überhaupt ein Gesicht und Lippen?

Menschen arbeiten seit langem mit Robotern zusammen, aber sie sahen immer wie Maschinen und nicht wie Menschen aus – die körperlosen und sehr mechanisch aussehenden Arme an Fließbändern oder die klobige Scheibe, die ein Roboterstaubsauger ist, der über unsere Küchenböden huscht.

Da jedoch die KI-Sprachmodelle hinter Chatbots immer weiter verbreitet sind, arbeiten Technologieunternehmen hart daran, Robotern beizubringen, wie sie in Echtzeit mit uns über Sprache kommunizieren können.

Es gibt ein ganzes Studienfach namens Mensch-Roboter-Interaktion Dabei wird untersucht, wie Roboter physisch und sozial mit Menschen koexistieren sollten. Im Jahr 2024 eine Studie Eine Studie aus Berlin mit 157 Teilnehmern fand heraus, dass die Fähigkeit eines Roboters, Empathie und Emotionen durch verbale Kommunikation auszudrücken, entscheidend für die effektive Interaktion mit Menschen ist. Und eine weitere Studie aus dem Jahr 2024 aus Italien fanden heraus, dass aktives Sprechen für die Zusammenarbeit zwischen Menschen und Robotern bei der Bearbeitung komplexer Aufgaben wie der Montage wichtig ist.

Wenn wir uns zu Hause und bei der Arbeit auf Roboter verlassen wollen, müssen wir in der Lage sein, mit ihnen so zu kommunizieren, wie wir es untereinander tun. In Zukunft, sagt Lipson, wäre die Forschung mit lippensynchronen Robotern für jede Art von humanoiden Robotern nützlich, die mit Menschen interagieren müssen.

Man kann sich auch leicht eine Zukunft vorstellen, in der humanoide Roboter mit uns identisch sind. Laut Lipson könnte ein sorgfältiges Design sicherstellen, dass die Menschen verstehen, dass sie mit einem Roboter und nicht mit einer Person sprechen. Ein Beispiel wäre, dass humanoide Roboter eine blaue Haut haben müssen, sagt Lipson, „damit sie nicht mit einem Menschen verwechselt werden können“.



Quelle

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein