Folgen Sie ZDNET: Fügen Sie uns als bevorzugte Quelle hinzu auf Google.
Die wichtigsten Erkenntnisse von ZDNET
- KI-Modelle folgen bei der Textgenerierung bestimmten Strukturregeln.
- Dies kann es einfacher machen, ihre Schrift zu identifizieren.
- Sie neigen zu Kontrasten, zum Beispiel: „Es ist nicht X – es ist Y.“
In den letzten Jahren wurde das Internet von einer Flut an KI-generierten Texten überschwemmt. Mit der Verbesserung der Modelle hinter diesem Text verbessert sich auch ihre Fähigkeit, die Feinheiten der menschlichen Sprache nachzuahmen. Gleichzeitig haben sich unsere Methoden zur Erkennung verbessert, und es gab einen aktiven Online-Dialog über einige der häufigsten Eigenheiten von KI-generiertem Text.
Historisch gesehen ist eine der bekannteren Aussagen von ChatGPT beispielsweise die Vorliebe des Chatbots für Striche. Die Sätze wurden oft mit durch Bindestriche begrenzten Pausen unterbrochen, um einen Punkt hervorzuheben – als ob ein längerer, atemloserer Satz eine stärkere Wirkung auf den Leser hätte – und mit unterstützenden Argumenten mitten im Satz auf eine Art und Weise zu würzen, die sich für einige Benutzer antiquiert und mechanisch anfühlte – aber für einen Computer, der mit einer riesigen Menge an Trainingsdaten übersät mit Bindestrichen trainiert wurde, ist das völlig normal … Sie verstehen, was ich meine.
Außerdem: Ich teste seit Jahren KI-Inhaltsdetektoren – das sind Ihre besten Optionen im Jahr 2025
Nach Beschwerden über die Em-Dash-Neigung von ChatGPT und der Verpflichtung, Modelle zu erstellen, die einfacher an die Vorlieben einzelner Benutzer angepasst werden können, kündigte OpenAI-CEO Sam Altman letzten Monat in einem X-Beitrag an, dass ChatGPT diese Satzzeichen in seinen Ausgaben nicht mehr verwenden werde, wenn man dazu aufgefordert werde. Viele Benutzer freuten sich wahrscheinlich über die Neuigkeit, aber das bedeutete auch, dass vom Chatbot generierte Texte viel schwieriger zu erkennen waren; Schlechte Nachrichten für Lehrer, viele Arbeitgeber und alle anderen, für die es wichtig ist, über ein zuverlässiges Mittel zur Unterscheidung zwischen menschlichem und KI-generiertem Text zu verfügen.
(Offenlegung: Ziff Davis, die Muttergesellschaft von ZDNET, reichte im April 2025 eine Klage gegen OpenAI ein und behauptete, das Unternehmen habe bei der Schulung und dem Betrieb seiner KI-Systeme die Urheberrechte von Ziff Davis verletzt.)
Zum Glück gibt es viele Websites, die genau das bieten: ZeroGPT und Grammarlys AI Detector zum Beispiel ermöglichen es Ihnen, einfach einen Text einzufügen (z. B. einen verdächtigen Text), auf eine Schaltfläche zu klicken und die Tools scannen den Text automatisch nach Anzeichen eines KI-Ursprungs und teilen Ihnen die Ergebnisse mit; Sie sind nicht völlig sicher, aber sie sind im Allgemeinen eine zuverlässige Methode, um einige der auffälligeren Werbeschilder zu erkennen.
Fünf Warnsignale, auf die Sie achten sollten
Wenn Sie jedoch nicht daran interessiert sind, noch mehr Websites in Ihren Alltag aufzunehmen, oder wenn Sie einfach nur Ihre Fähigkeit verbessern möchten, ein von der KI generiertes Schriftstück schnell zu erkennen (eine Fähigkeit, die es heutzutage definitiv zu verbessern lohnt), dann gibt es mehrere sprachliche Muster, nach denen Sie Ausschau halten können.
Hier sind fünf verräterische Indikatoren für KI-generiertes Schreiben:
1. Dreierregel: Menschliche Autoren führen ihre Argumente oft durch die Anführung von drei Beispielen an, die einen tiefen psychologischen Juckreiz in unserem Gehirn zu wecken scheinen: Einmal ist ein Zufall, zweimal ein Zufall, dreimal ein Muster, um ein altes Sprichwort zu paraphrasieren. KI macht dasselbe, aber in einem lächerlichen Ausmaß. In seinen Ausgaben tauchen häufig Drillinge auf. Betrachten Sie zum Beispiel diesen ersten Absatz von ChatGPT, nachdem ich es gebeten habe, sein bestmögliches Argument vorzulegen, dass die Erde eine flache Scheibe ist (um fair zu sein, stellte es zunächst klar, dass seine Antwort eine reine „rhetorische Übung“ war und dass es die Theorie der flachen Erde nicht ausdrücklich befürwortete):
Wäre die Welt ein Globus, der sich mit Tausenden von Kilometern pro Stunde dreht, müsste seine Krümmung im Alltag direkt beobachtbar sein. Doch Fernbeobachtungen über Seen, Wüsten und Ozeane Objekte immer wieder zeigen—Schiffe, Küsten, Gebäude– erscheinen genau dort, wo sie sein sollten, wenn die Oberfläche flach wäre. Ingenieure berücksichtigen Krümmungen routinemäßig in der Theorie, aber in der Praxis Vermesser, Piloten und Bautrupps verlassen sich auf Pegelmessungen, die sich so verhalten, als ob die Erde eine ausgedehnte Ebene wäre. Die einfachste Erklärung für diese Beständigkeit ist, dass der Boden unter uns überhaupt nicht nachgibt.
Das sind drei Dreiergruppen in einem Satz mit 90 Wörtern.
2. Argumente in kontrastierender Sprache formuliert. Chatbots versuchen oft auch, ihre Argumente dadurch deutlich zu machen, dass sie zunächst einen Kontrapunkt anbieten. Betrachten Sie diesen Teil einer Antwort von ChatGPT, als ich ihn um ein Verkaufsgespräch mit einem Unternehmen bat, das kommerzielle Flüge zum Mars anbietet: „Der Mars ist nicht nur ein Planet – er ist Ihr nächstes unvergessliches Ziel.“ Ich kann mir nicht vorstellen, dass jemals ein menschlicher Schriftsteller auch nur daran gedacht hätte, den Satz „Der Mars ist nicht nur ein Planet…“ zu schreiben.
3. Monotoner Satzbau: KI-generiertes Schreiben tendiert auch dazu, einheitlich zu sein: Natürlich gibt es einige Unterschiede, aber die Sätze sind oft ungefähr gleich lang, wodurch die Absätze ein wenig wirken zu abgeschnitten. Menschliche Autoren versuchen normalerweise, durch Variation der Satz-/Absatzlänge etwas Abwechslung zu schaffen. Versuchen Sie, einen verdächtigen Text laut vorzulesen: Wenn er in seinem Rhythmus roboterhaft klingt, könnte das durchaus so sein.
4. Kurze und unnötige rhetorische Fragen: KI-generierte Sätze sind es nicht stets Allerdings gleich lang. Aus irgendeinem Grund streuen Chatbots oft sehr kurze Fragen (ein oder zwei Wörter) ein. Denken Sie: „Und ganz ehrlich?“ Dies zeigte sich, als ich ChatGPT kürzlich um eine freche Zusammenfassung meiner Persönlichkeit bat, die auf meinen Gesprächen mit ihm im letzten Jahr basiert. Und als ich nach einer lustigen Beschreibung der Rocky Mountains fragte, lautete die Antwort unter anderem: „Tierwelt? Oh, sie beurteilen Ihre Snackauswahl nur nebenbei – Elche mit Verachtung, Murmeltiere mit Frechheit.“ Für einen menschlichen Autor würde es keinen Sinn machen, diesen Satz mit einer Frage zu beginnen, da niemand nach Wildtieren gefragt hat. Es wäre viel einfacher, einfach zu schreiben: „Die Tierwelt urteilt nur beiläufig …“
5. Ständige Absicherung: Während menschliche Autoren versuchen, sich auf einen bestimmten Punkt zu konzentrieren, neigen Chatbots dazu, eine indirekte, absichernde Sprache und Qualifikationsmerkmale zu verwenden („Das könnte bedeuten…“ oder „Vielleicht…“), was oft den Eindruck erweckt, dass es sich um eine differenzierte und ausgewogene Einschätzung handelt, am Ende aber eine vage, verschlungene Antwort ist.


.png)
