Fühlen Sie sich nicht schlecht, wenn Sie von einem getäuscht wurden KI-generiert Bild oder Video. KI erstellt Inhalte überzeugender als je zuvor, und die Zeiten, in denen eine „Fälschung“ im Internet leicht zu erkennen war, etwa ein schlecht mit Photoshop bearbeitetes Bild, sind längst vorbei.
Neue KI-Tools, darunter Sora von OpenAI Und Bei Google sehe ich 3 Und Nano-Bananehaben die Grenze zwischen Realität und KI-generierten Fantasien verwischt. Jetzt schwimmen wir in einem Meer von KI-generiert Videos und Deepfakes, von gefälschten Promi-Empfehlungen bis hin zu falsche Katastrophe Sendungen.
Wenn Sie Schwierigkeiten haben, das Reale von der KI zu trennen, sind Sie nicht allein. Hier sind einige hilfreiche Tipps, die Ihnen dabei helfen sollen, den Lärm zu durchbrechen und die Wahrheit über jede KI-inspirierte Kreation herauszufinden. Weitere Informationen finden Sie im Problem dahinter Der Energiebedarf von KI-Videos und was wir im Jahr 2026 tun müssen Vermeiden Sie weitere KI-Einbußen.
Verpassen Sie keinen unserer unvoreingenommenen technischen Inhalte und laborbasierten Bewertungen. CNET hinzufügen als bevorzugte Google-Quelle.
Warum es schwierig ist, Sora-KI-Videos zu erkennen
Aus technischer Sicht sind Sora-Videos im Vergleich zu Mitbewerbern wie z. B. beeindruckend Midjourney V1 Und Google sehe ich 3. Sie verfügen über eine hohe Auflösung, synchronisiertes Audio und überraschende Kreativität. Mit Soras beliebtester Funktion namens „Cameo“ können Sie die Konterfeis anderer Personen verwenden und diese in nahezu jede KI-generierte Szene einfügen. Es ist ein beeindruckendes Werkzeug, das erschreckend realistische Videos liefert.
Sora gesellt sich zu Googles Veo 3, einem weiteren technisch beeindruckenden KI-Videogenerator. Dies sind zwei der beliebtesten Tools, aber sicherlich nicht die einzigen. Generative Medien sind für viele große Technologieunternehmen im Jahr 2025 zu einem Schwerpunkt geworden, wobei die Bild- und Videomodelle bereit sind, jedem Unternehmen den Vorsprung zu verschaffen, den es sich im Wettlauf um die Entwicklung der fortschrittlichsten KI für alle Modalitäten wünscht. Google und OpenAI haben in diesem Jahr offensichtlich beide Flaggschiff-Bild- und Videomodelle veröffentlicht übertreffen sich gegenseitig.
Aus diesem Grund sind so viele Experten besorgt über Sora und andere KI-Videogeneratoren. Die Sora-App macht es für jeden einfacher, realistisch aussehende Videos zu erstellen, in denen die Benutzer im Mittelpunkt stehen. Persönlichkeiten des öffentlichen Lebens und Prominente sind besonders anfällig für diese Deepfakes, und Gewerkschaften wie SAG-AFTRA haben die Stärkung von OpenAI vorangetrieben seine Leitplanken. Andere KI-Videogeneratoren bergen ähnliche Risiken sowie Bedenken, das Internet mit unsinnigem KI-Schrott zu füllen, und könnten ein gefährliches Werkzeug zur Verbreitung von Fehlinformationen sein.
Die Identifizierung von KI-Inhalten ist eine ständige Herausforderung für Technologieunternehmen, Social-Media-Plattformen und alle anderen. Aber es ist nicht völlig aussichtslos. Hier sind einige Dinge, auf die Sie achten sollten, um festzustellen, ob ein Video mit Sora erstellt wurde.
Suchen Sie nach dem Sora-Wasserzeichen
Jedes mit der Sora iOS-App erstellte Video enthält beim Herunterladen ein Wasserzeichen. Es ist das weiße Sora-Logo – ein Wolkensymbol – das an den Rändern des Videos herumspringt. Es ähnelt der Art und Weise, wie TikTok-Videos mit Wasserzeichen versehen werden. Das Markieren von Inhalten mit Wasserzeichen ist eine der besten Möglichkeiten, mit denen KI-Unternehmen uns dabei helfen können, KI-generierte Inhalte visuell zu erkennen. Googles Zwillinge Nano-Banane Das Modell versieht seine Bilder automatisch mit Wasserzeichen. Wasserzeichen sind großartig, weil sie als klares Zeichen dafür dienen, dass der Inhalt mit Hilfe von KI erstellt wurde.
Aber Wasserzeichen sind nicht perfekt. Wenn das Wasserzeichen statisch ist (sich nicht bewegt), kann es leicht ausgeschnitten werden. Selbst für das Verschieben von Wasserzeichen wie das von Sora gibt es Apps, die speziell für deren Entfernung entwickelt wurden, sodass Wasserzeichen allein nicht völlig vertrauenswürdig ist. Als OpenAI-CEO Sam Altman wurde dazu gefragtsagte er, die Gesellschaft müsse sich an eine Welt anpassen, in der jeder gefälschte Videos von jedem erstellen könne. Natürlich gab es vor Sora keine beliebte, leicht zugängliche und keine besonderen Fähigkeiten erforderliche Möglichkeit, diese Videos zu erstellen. Aber sein Argument wirft einen berechtigten Punkt hinsichtlich der Notwendigkeit auf, sich auf andere Methoden zur Überprüfung der Authentizität zu verlassen.
Überprüfen Sie die Metadaten
Ich weiß, dass Sie wahrscheinlich denken, dass es keine Möglichkeit gibt, die Metadaten eines Videos zu überprüfen, um festzustellen, ob es echt ist. Ich verstehe, woher du kommst. Es ist ein zusätzlicher Schritt und Sie wissen möglicherweise nicht, wo Sie anfangen sollen. Aber es ist eine großartige Möglichkeit, festzustellen, ob ein Video mit Sora erstellt wurde, und es ist einfacher, als Sie denken.
Metadaten sind eine Sammlung von Informationen, die bei der Erstellung automatisch an einen Inhalt angehängt werden. Dadurch erhalten Sie einen besseren Einblick in die Art und Weise, wie ein Bild oder Video erstellt wurde. Dazu können der Typ der Kamera gehören, mit der ein Foto aufgenommen wurde, der Ort, das Datum und die Uhrzeit der Aufnahme eines Videos sowie der Dateiname. Jedes Foto und Video verfügt über Metadaten, unabhängig davon, ob es von Menschen oder von KI erstellt wurde. Und viele von KI erstellte Inhalte verfügen auch über Inhaltsnachweise, die auf ihren KI-Ursprung hinweisen.
OpenAI ist Teil der Coalition for Content Provenance and Authenticity, also Sora Videos enthalten C2PA-Metadaten. Sie können die verwenden Verifizierungstool von der Content Authenticity Initiative, um die Metadaten eines Videos, Bildes oder Dokuments zu überprüfen. Hier erfahren Sie, wie. (Die Content Authenticity Initiative ist Teil von C2PA.)
So überprüfen Sie die Metadaten eines Fotos, Videos oder Dokuments
1. Navigieren Sie zu dieser URL: https://verify.contentauthenticity.org/
2. Laden Sie die Datei hoch, die Sie überprüfen möchten. Klicken Sie dann auf Öffnen.
4. Überprüfen Sie die Informationen im rechten Bereich. Wenn es KI-generiert ist, sollte es im Abschnitt „Inhaltszusammenfassung“ enthalten sein.
Wenn Sie ein Sora-Video über dieses Tool ausführen, wird angezeigt, dass das Video „von OpenAI herausgegeben“ wurde und dass es KI-generiert ist. Alle Sora-Videos sollten diese Anmeldeinformationen enthalten, mit denen Sie bestätigen können, dass sie mit Sora erstellt wurden.
Dieses Tool ist, wie alle KI-Detektoren, nicht perfekt. Es gibt viele Möglichkeiten, wie KI-Videos einer Erkennung entgehen können. Wenn Sie Videos haben, die nicht von Sora stammen, enthalten diese möglicherweise nicht die notwendigen Signale in den Metadaten, damit das Tool feststellen kann, ob sie von der KI erstellt wurden oder nicht. KI-Videos, die beispielsweise mit Midjourney erstellt wurden, werden nicht markiert, wie ich in meinen Tests bestätigt habe. Selbst wenn das Video von Sora erstellt wurde, dann aber über eine Drittanbieter-App (z. B. eine App zum Entfernen von Wasserzeichen) ausgeführt und erneut heruntergeladen wurde, ist es weniger wahrscheinlich, dass das Tool es als KI kennzeichnet.
Das Überprüfungstool der Content Authenticity Initiative hat ein Video, das ich mit Sora erstellt habe, korrekt als KI-generiert gekennzeichnet, zusammen mit dem Datum und der Uhrzeit, zu der ich es erstellt habe.
Suchen Sie nach anderen KI-Labels und fügen Sie Ihre eigenen hinzu
Wenn Sie sich auf einer der Social-Media-Plattformen von Meta wie Instagram oder Facebook befinden, erhalten Sie möglicherweise ein wenig Hilfe bei der Feststellung, ob es sich bei etwas um KI handelt. Meta hat interne Systeme vorhanden, um KI-Inhalte zu kennzeichnen und als solche zu kennzeichnen. Diese Systeme sind nicht perfekt, aber Sie können die Kennzeichnung der markierten Beiträge deutlich erkennen. TikTok Und YouTube haben ähnliche Richtlinien für die Kennzeichnung von KI-Inhalten.
Der einzige wirklich zuverlässige Weg, um herauszufinden, ob etwas KI-generiert ist, besteht darin, dass der Ersteller es offenlegt. Viele Social-Media-Plattformen bieten mittlerweile Einstellungen an, mit denen Benutzer ihre Beiträge als KI-generiert kennzeichnen können. Selbst eine einfache Nennung oder Offenlegung in Ihrer Bildunterschrift kann viel dazu beitragen, dass jeder versteht, wie etwas entstanden ist.
Während Sie durch Sora scrollen, wissen Sie, dass nichts real ist. Sobald Sie jedoch die App verlassen und KI-generierte Videos teilen, liegt es in unserer gemeinsamen Verantwortung, offenzulegen, wie ein Video erstellt wurde. Da KI-Modelle wie Sora weiterhin die Grenze zwischen Realität und KI verwischen, liegt es an uns allen, so klar wie möglich zu machen, ob etwas real oder KI ist.
Am wichtigsten ist, dass Sie wachsam bleiben
Es gibt keine narrensichere Methode, um auf einen Blick genau zu erkennen, ob ein Video echt oder KI ist. Das Beste, was Sie tun können, um nicht getäuscht zu werden, ist, nicht automatisch und bedingungslos alles zu glauben, was Sie online sehen. Folgen Sie Ihrem Bauchgefühl, und wenn sich etwas unwirklich anfühlt, ist es das wahrscheinlich auch. In diesen beispiellosen, von KI geprägten Zeiten besteht Ihre beste Verteidigung darin, die Videos, die Sie sich ansehen, genauer zu untersuchen. Werfen Sie nicht einfach einen kurzen Blick darauf und scrollen Sie weg, ohne darüber nachzudenken. Suchen Sie nach verstümmeltem Text, verschwindenden Objekten und Bewegungen, die der Physik widersprechen. Und machen Sie sich keine Vorwürfe, wenn Sie sich gelegentlich täuschen lassen. Selbst Experten irren sich.
(Offenlegung: Ziff Davis, die Muttergesellschaft von CNET, reichte im April eine Klage gegen OpenAI ein und behauptete, das Unternehmen habe bei der Schulung und dem Betrieb seiner KI-Systeme die Urheberrechte von Ziff Davis verletzt.)



