Start Lebensstil Wir sind dem Verständnis der Wale einen Schritt näher gekommen. Was nun?

Wir sind dem Verständnis der Wale einen Schritt näher gekommen. Was nun?

37
0
Wir sind dem Verständnis der Wale einen Schritt näher gekommen. Was nun?

Ich bin noch nie im offenen Meer getaucht und als ich zum ersten Mal den Ruf des Wals höre, gehe ich davon aus, dass es sich um einen technischen Fehler handelt. Vielleicht passiert das, wenn ein Mikrofon unter die Oberfläche taucht: das Geräusch von Blasen, die mit der Maschinerie kollidieren.

Aber das ist ein Klicken, das Geräusch, das ein Pottwal in Gegenwart eines anderen macht. Es ist schwer zu beschreiben. Nicht so nass wie die Stimme eines Menschen oder sonor wie das Lied eines Buckelwals, die Klickgeräusche kommen in engen, perkussiven Beats an, die als Codas bekannt sind. Auf den ersten Blick wirken sie fast roboterhaft. Aber je länger ich zuhöre – während der theoretische Informatiker Orr Paradise die Wählscheiben eines von ihm gebauten KI-Modells justiert, um jedes Geräusch in Laute von Pottwalen zu übersetzen –, desto mehr klingen die Klickgeräusche wie das Ende eines Gesprächs.

Das System, das Paradise optimiert, heißt WhAM, kurz für Whale Acoustics Model. Die Benutzeroberfläche ist einfach, einladend und ähnelt einer leuchtenden Tanzfläche. Er zeigt mir, wie das Modell in einer Hotellobby funktioniert, während einer Pause von der Präsentation von WhAM auf der Machine-Learning-Konferenz NeurIPS. Er trägt ein leuchtend rosa Fleece, das fast den Farben auf seinem Bildschirm entspricht. Er bittet mich, dem Modell etwas zum Übersetzen zu geben.

Zunächst werden versehentlich Umgebungsgeräusche aufgenommen, aber Paradise glaubt nicht, dass sich „Last Christmas“ gut in Pottwal übersetzen lässt. Stattdessen schlägt er vor, dass ich mit den Fingern in das Mikrofon seines Laptops schnippe. WhAM wandelt das Schnappen im Handumdrehen in eine Pottwal-Coda um und sagt die Reihenfolge der Klicks voraus, die in freier Wildbahn folgen könnten.

Paradise hat WhAM mit geschaffen Projekt CETIeine gemeinnützige Organisation, die sich für etwas Wagemutiges einsetzt: eines Tages Übersetzen Sie die Sprache der Pottwale und kommunizieren Sie mit ihnen. Im Moment haben die Klicks, die WhAM erzeugt, keine Bedeutung. Hätten wir „Last Christmas“ erfolgreich übersetzt, hätte ein zuhörender Wal den Feiertagsschmerz des Liedes nicht begriffen. Mit etwas Glück wird das nicht immer der Fall sein; Das Team hinter WhAM ist bestrebt, das KI-Modell in den kommenden Jahren gesprächig zu machen.

An dieser Stelle ist die Bedeutungslosigkeit jedoch beabsichtigt. WhAM operiert über das, was Paradise und sein Team eine „semantische Lücke“ nennen, und konzentriert sich nur auf die akustische Struktur, da es auf der Architektur eines anderen KI-Systems zur Musikerzeugung aufbaut. Als Paradise zum ersten Mal diesem Modell begegnete – bekannt als VampNet– Vor ein paar Jahren sah er die Möglichkeit darin, jeden Klang zu interpretieren und Fragmente zu plausiblen Variationen zusammenzufügen. Wenn eine Maschine solche Musik erzeugen könnte, überlegte er, könnte sie vielleicht anfangen, eine Sprache zu lernen, die Menschen noch nicht verstehen können.



Quelle

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein