Start Nachrichten Deepfake-Videos sind realistischer denn je. So erkennen Sie, ob ein Video echt...

Deepfake-Videos sind realistischer denn je. So erkennen Sie, ob ein Video echt oder KI ist

60
0
Deepfake-Videos sind realistischer denn je. So erkennen Sie, ob ein Video echt oder KI ist

Erinnern Sie sich noch an die Zeit, als „gefälscht“ im Internet ein schlecht mit Photoshop bearbeitetes Bild bedeutete? Ah, einfachere Zeiten. Jetzt schwimmen wir alle in einem Meer von KI-generierte Videos und Deepfakes, von gefälschten Promi-Videos bis hin zu falsche Katastrophensendungenund es wird fast unmöglich zu wissen, was real ist.

Und es wird noch schlimmer. Sora, das KI-Videotool von OpenAI, sorgt bereits für Verwirrung. Aber jetzt ist seine neue, virale „Social-Media-App“, Sora 2, das heißeste Ticket im Internet. Hier ist der Clou: Es handelt sich um einen Feed nur auf Einladung im TikTok-Stil, in dem alles zu 100 % gefälscht ist.

Der Autor nannte es bereits „Deepfake-Fieber-Traum„Und genau das ist es. Es handelt sich um eine Plattform, die von Tag zu Tag besser darin wird, Fiktion wie Tatsachen aussehen zu lassen, und die Risiken sind enorm. Wenn Sie Schwierigkeiten haben, das Reale von der KI zu trennen, sind Sie nicht allein.

Hier sind einige hilfreiche Tipps, die Ihnen dabei helfen sollen, den Lärm zu durchbrechen und der Wahrheit über jede KI-inspirierte Situation auf den Grund zu gehen.


Verpassen Sie keinen unserer unvoreingenommenen technischen Inhalte und laborbasierten Bewertungen. CNET hinzufügen als bevorzugte Google-Quelle.


Aus technischer Sicht sind Sora-Videos im Vergleich zu Mitbewerbern wie z. B. beeindruckend Midjourneys V1 Und Bei Google sehe ich 3. Sie verfügen über eine hohe Auflösung, synchronisiertes Audio und überraschende Kreativität. Mit Soras beliebtester Funktion namens „Cameo“ können Sie die Konterfeis anderer Personen verwenden und diese in nahezu jede KI-generierte Szene einfügen. Es ist ein beeindruckendes Werkzeug, das erschreckend realistische Videos liefert.

Deshalb machen sich so viele Experten Sorgen um Sora. Die App erleichtert es jedem, gefährliche Deepfakes zu erstellen, Fehlinformationen zu verbreiten und die Grenze zwischen Realität und Unwahrheit zu verwischen. Persönlichkeiten des öffentlichen Lebens und Prominente sind besonders anfällig für diese Deepfakes, und Gewerkschaften mögen es SAG-AFTRA hat OpenAI dazu gedrängt, seine Leitplanken zu stärken.

Die Identifizierung von KI-Inhalten ist eine ständige Herausforderung für Technologieunternehmen, Social-Media-Plattformen und alle anderen. Aber es ist nicht völlig aussichtslos. Hier sind einige Dinge, auf die Sie achten sollten, um festzustellen, ob ein Video mit Sora erstellt wurde.

Suchen Sie nach dem Sora-Wasserzeichen

Jedes mit der Sora iOS-App erstellte Video enthält beim Herunterladen ein Wasserzeichen. Es ist das weiße Sora-Logo – ein Wolkensymbol – das an den Rändern des Videos herumspringt. Es ähnelt der Art und Weise, wie TikTok-Videos mit Wasserzeichen versehen werden.

Das Markieren von Inhalten mit Wasserzeichen ist eine der besten Möglichkeiten, mit denen KI-Unternehmen uns dabei helfen können, KI-generierte Inhalte visuell zu erkennen. Googles Zwillinge Modell „Nanobanane“.Beispielsweise werden die Bilder automatisch mit Wasserzeichen versehen. Wasserzeichen sind großartig, weil sie als klares Zeichen dafür dienen, dass der Inhalt mit Hilfe von KI erstellt wurde.

KI-Atlas

Aber Wasserzeichen sind nicht perfekt. Wenn das Wasserzeichen statisch ist (sich nicht bewegt), kann es leicht ausgeschnitten werden. Selbst für das Verschieben von Wasserzeichen wie das von Sora gibt es Apps, die speziell für deren Entfernung entwickelt wurden, sodass Wasserzeichen allein nicht völlig vertrauenswürdig ist. Als Sam Altman, CEO von OpenAI, danach gefragt wurde, antwortete er sagte Die Gesellschaft muss sich an eine Welt anpassen, in der jeder gefälschte Videos von jedem erstellen kann. Natürlich gab es vor Sora von OpenAI keine beliebte, leicht zugängliche und keine besonderen Fähigkeiten erforderliche Möglichkeit, diese Videos zu erstellen. Aber sein Argument wirft einen berechtigten Punkt hinsichtlich der Notwendigkeit auf, sich auf andere Methoden zur Überprüfung der Authentizität zu verlassen.

Überprüfen Sie die Metadaten

Ich weiß, Sie denken wahrscheinlich, dass es keine Möglichkeit gibt, die Metadaten eines Videos zu überprüfen, um festzustellen, ob es echt ist. Ich verstehe, woher du kommst; Es ist ein zusätzlicher Schritt und Sie wissen möglicherweise nicht, wo Sie anfangen sollen. Aber es ist eine großartige Möglichkeit, festzustellen, ob ein Video mit Sora erstellt wurde, und es ist einfacher, als Sie denken.

Metadaten sind eine Sammlung von Informationen, die bei der Erstellung automatisch an einen Inhalt angehängt werden. Dadurch erhalten Sie einen besseren Einblick in die Art und Weise, wie ein Bild oder Video erstellt wurde. Dazu können der Typ der Kamera gehören, mit der ein Foto aufgenommen wurde, der Ort, das Datum und die Uhrzeit der Aufnahme eines Videos sowie der Dateiname. Jedes Foto und Video verfügt über Metadaten, unabhängig davon, ob es von Menschen oder von KI erstellt wurde. Und viele von KI erstellte Inhalte verfügen auch über Inhaltsnachweise, die auf ihren KI-Ursprung hinweisen.

OpenAI ist Teil der Coalition for Content Provenance and Authenticity, was für Sie bedeutet, dass Sora-Videos verfügbar sind enthalten C2PA-Metadaten. Sie können die verwenden Das Verifizierungstool der Content Authenticity Initiative um die Metadaten eines Videos, Bildes oder Dokuments zu überprüfen. Hier erfahren Sie, wie. (Die Content Authenticity Initiative ist Teil von C2PA.)

So überprüfen Sie die Metadaten eines Fotos, Videos oder Dokuments:

1. Navigieren Sie zu dieser URL: https://verify.contentauthenticity.org/
2. Laden Sie die Datei hoch, die Sie überprüfen möchten.
3. Klicken Sie auf Öffnen.
4. Überprüfen Sie die Informationen im rechten Bereich. Wenn es KI-generiert ist, sollte es im Abschnitt „Inhaltszusammenfassung“ enthalten sein.

Wenn Sie ein Sora-Video über dieses Tool ausführen, wird angezeigt, dass das Video „von OpenAI herausgegeben“ wurde und dass es KI-generiert ist. Alle Sora-Videos sollten diese Anmeldeinformationen enthalten, mit denen Sie bestätigen können, dass sie mit Sora erstellt wurden.

Dieses Tool ist, wie alle KI-Detektoren, nicht perfekt. Es gibt viele Möglichkeiten, wie KI-Videos einer Erkennung entgehen können. Wenn Sie andere Videos haben, die nicht von Sora stammen, enthalten diese möglicherweise nicht die notwendigen Signale in den Metadaten, damit das Tool feststellen kann, ob sie von der KI erstellt wurden oder nicht. KI-Videos, die beispielsweise mit Midjourney erstellt wurden, werden nicht markiert, wie ich in meinen Tests bestätigt habe. Selbst wenn das Video von Sora erstellt wurde, dann aber über eine Drittanbieter-App (z. B. eine App zum Entfernen von Wasserzeichen) ausgeführt und erneut heruntergeladen wurde, ist es weniger wahrscheinlich, dass das Tool es als KI kennzeichnet.

Screenshot eines Sora-Videos, das mit dem Tool der Content Authenticity Initiative läuft

Das Überprüfungstool der Content Authenticity Initiative hat korrekt gekennzeichnet, dass ein Video, das ich mit Sora erstellt habe, KI-generiert war, zusammen mit dem Datum und der Uhrzeit, zu der ich es erstellt habe.

Screenshot von Katelyn Chedraoui/CNET

Suchen Sie nach anderen KI-Labels und fügen Sie Ihre eigenen hinzu

Wenn Sie sich auf einer der Social-Media-Plattformen von Meta wie Instagram oder Facebook befinden, erhalten Sie möglicherweise ein wenig Hilfe bei der Feststellung, ob es sich bei etwas um KI handelt. Meta hat interne Systeme vorhanden um dabei zu helfen, KI-Inhalte zu kennzeichnen und als solche zu kennzeichnen. Diese Systeme sind nicht perfekt, aber Sie können die Beschriftung der markierten Beiträge deutlich erkennen. TikTok Und YouTube haben ähnliche Richtlinien für die Kennzeichnung von KI-Inhalten.

Der einzige wirklich zuverlässige Weg, um herauszufinden, ob etwas KI-generiert ist, besteht darin, dass der Ersteller es offenlegt. Viele Social-Media-Plattformen bieten mittlerweile Einstellungen an, mit denen Benutzer ihre Beiträge als KI-generiert kennzeichnen können. Selbst eine einfache Nennung oder Offenlegung in Ihrer Bildunterschrift kann viel dazu beitragen, dass jeder versteht, wie etwas entstanden ist.

Während Sie durch Sora scrollen, wissen Sie, dass nichts real ist. Aber sobald Sie die App verlassen und KI-generierte Videos teilen, liegt es in unserer gemeinsamen Verantwortung, offenzulegen, wie ein Video erstellt wurde. Da KI-Modelle wie Sora weiterhin die Grenze zwischen Realität und KI verwischen, liegt es an uns allen, so klar wie möglich zu machen, ob etwas real oder KI ist.

Am wichtigsten ist, dass Sie wachsam bleiben

Es gibt keine narrensichere Methode, um auf einen Blick genau zu erkennen, ob ein Video echt oder KI ist. Das Beste, was Sie tun können, um nicht getäuscht zu werden, ist, nicht automatisch und bedingungslos alles zu glauben, was Sie online sehen. Folgen Sie Ihrem Bauchgefühl – wenn sich etwas unwirklich anfühlt, ist es das wahrscheinlich auch. In diesen beispiellosen, von KI geprägten Zeiten besteht Ihre beste Verteidigung darin, die Videos, die Sie sich ansehen, genauer zu untersuchen. Werfen Sie nicht einfach einen kurzen Blick darauf und scrollen Sie weg, ohne darüber nachzudenken. Suchen Sie nach verstümmeltem Text, verschwindenden Objekten und Bewegungen, die der Physik widersprechen. Und machen Sie sich keine Vorwürfe, wenn Sie sich gelegentlich täuschen lassen; Selbst Experten liegen falsch.

(Offenlegung: Ziff Davis, die Muttergesellschaft von CNET, reichte im April eine Klage gegen OpenAI ein und behauptete, das Unternehmen habe bei der Schulung und dem Betrieb seiner KI-Systeme die Urheberrechte von Ziff Davis verletzt.)



Quelle

Kommentieren Sie den Artikel

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein