KI-generierte Texte oder Menschenhand? Warum sogar Tools den Unterschied nicht erkennen

Geschrieben von
Miriam Schäfer
KI-generierte Texte vs. menschliche Texte

KI-generierte Texte gibt es inzwischen wie Sand am Meer. Klar, dass deshalb passende Detektoren her mussten. Die funktionieren aber – Wunder oh Wunder – auch auf Basis von KI. Spätestens, als eines dieser Tools persönlich von mir geschriebene Texte als «von KI» bewertet hat, wurde ich stutzig. Wenn sauber recherchierte und stilistisch hochwertige Texte plötzlich als «verdächtig» gelten, läuft offenbar irgendwas schief. Noch absurder: ebenjene Kriterien, die einen guten Text ausmachen, gelten gleichzeitig als Hinweis auf KI-Beteiligung. Erkennen wir künstliche Intelligenz in Texten einfach nicht mehr – oder bestrafen wir ab sofort echtes, gutes Schreiben?

Warum liegen sogar KI-Detektoren bei der Texterkennung daneben?

Um KI-generierte Texte als solche zu entlarven, gibt es mittlerweile verschiedenste Anbieter und Tools. Originality.ai etwa gibt es direkt als WordPress-Plugin, es scannt nach Belieben einzelne Beiträge bis zur gesamten Webseite und ermittelt einen «KI-Wahrscheinlichkeits-Score». Sprich, es analysiert, ob die Texte von KI oder von Menschenhand geschrieben wurden. Weitere Beispiele sind Uncertify AI (eine Kombi aus Erkennung & Textoptimierung) oder Copyleaks AI Detector.

Ich habe mehrere davon parallel getestet. Die Ergebnisse haben mich nicht nur überrascht, sondern regelrecht amüsiert. Denn bei einigen von mir schon vor Jahren – bevor es überhaupt KI-Textgeneratoren wie ChatGPT, Grok, Gemini gab – selbst verfassten Texten waren diese Tools einstimmig der Meinung: «mit hoher Wahrscheinlichkeit KI». Autsch. Das hat mir einen Dämpfer verpasst und dazu geführt, dass ich meinen Schreibstil in Frage stelle.

Nach passenden Recherchen und dem Hinterfragen der Analysemethoden war ich aber erleichtert. Vielleicht hatte ich kurz vergessen: Das ist kein Mensch, der meine Texte «bewertet». Es sind KIs. Und die bewerten nicht «Ist das menschlich?» – weil sie es nicht können –, sie bewerten «Wie sehr ähnelt dieser Text einem statistischen Sprachmuster?»

Was sind Indizien für KI-generierte Texte?

KI-Texte sind meistens auffällig «sauber». Keine Gedankensprünge, keine echte Persönlichkeit. Dazu typische Formulierungen, die wie aus einem Baukasten wirken. Immer präsent: «Sicherheitsformulierungen», weil KI sich ungern festlegt. Wiederkehrende Sprachmuster häufen sich innerhalb eines Textes. Die Struktur ist lehrbuchhaft, Bullet Points allgegenwärtig – selbst wenn sie unpassend sind – und jeder Absatz erfüllt einen klaren Zweck. Wo die KI thematisch schwimmt, tauchen inhaltliche Auffälligkeiten auf: gleiche Aussagen, nur dezent umformuliert.

Aber ganz nebenbei: Ich liebe Bullet Points auch. Wenn ich viele Informationen bündig vermitteln will, gibt es nichts Besseres. Deshalb hier eine Liste mit typischen Erkennungsmerkmalen für KI-generierte Texte:

  • Gedankenstriche: Die meisten KI-Systeme nutzen Gedankenstriche statt anderer Satzzeichen, um Sätze zu verbinden – weil sie auf englischsprachigen Daten trainiert wurden, wo das üblicher ist.
  • Sicherheitsformulierungen und Abschwächungen: «oft», «viele», «kann» – KI vermeidet klare Aussagen, weil sie nicht falsch liegen will.
  • Wiederkehrende Satzmuster: «nicht… sondern», «eine entscheidende Rolle».
  • Lehrbuchhafte Struktur: Einleitung → Erklärung → Beispiele → Fazit. Funktioniert für viele Themen, wirkt aber trotzdem generisch.
  • Bullet Points: Besonders bei Fakten, Guides oder Ratgebern fällt KI zuverlässig in Listenform.
  • Redundanz bei langen Texten: Gleiche Aussagen, immer wieder, nur anders formuliert.
  • Oberflächliche Tiefe: Klingt kompetent, bleibt aber allgemein.
  • Ausweichende Beispiele: Statt konkreter Fälle kommen generische Szenarien («Unternehmen könnten…», «Mögliche Szenarien wären…»). Keine greifbaren Details aus der Praxis.
  • Neutralität und Sterilität: Selbst bei Meinungen bleibt KI ausgewogen und zeigt keine klare Haltung – ausser jemand hat besonders gut gepromptet.
  • Pseudo-Individualität: Sätze wie «Hast du dich auch schon gefragt, ob…» oder «Stell dir vor, dass…» sollen persönlich wirken, sind aber generisch.

Wird ein professioneller Schreibstil mit KI verwechselt?

Scheinbar schon. Vor allem bei sachlichen Themenschwerpunkten – Medizin, Studienanalysen, Darstellung von Fakten – lag mein Score teilweise bei hoher KI-Wahrscheinlichkeit.

Das liegt in der Natur der Sache: Wer sachlich berichtet oder nüchterne Fakten wissensorientiert vermitteln will, greift nun mal nicht zum saloppen Stil. Das wäre schlicht unpassend.

Ich sehe mich durch diese Tools vor einem echten Widerspruch. Ich habe mir über Jahre einen konsistenten, sauberen Schreibstil aufgebaut – und genau der gilt jetzt als «verdächtig».

Warum wirkt „sauberes Schreiben“ verdächtig?

Was ich damals gelernt habe – und was ich nach wie vor für richtig halte –: klare Satzstrukturen, logischer Aufbau, saubere Grammatik, konsistente und zum Thema passende Tonalität.

KI-Erkennungs-Tools machen daraus: Keine Varianz. Vorhersehbar. Wenig Überraschung. Zu glatt. Das Ergebnis: «mit hoher Wahrscheinlichkeit KI-generiert».

Mit anderen Worten: Einige meiner Texte werden abgestraft, weil ich sie handwerklich sauber geschrieben habe.

Lässt sich das Problem lösen?

Meiner Meinung nach nicht – das System ist in sich widersprüchlich. Eine KI soll bewerten, ob ein Text von einer KI geschrieben wurde. Dafür wurde sie auf «guten» Texten trainiert. Und gute Texte sehen in vielen Punkten «KI-ähnlich» aus.

Wo ist die Trennlinie? Die Schnittmenge zwischen «von Hand sauber geschrieben» (siehe dazu auch Ratgeber für menschliche Texte: Menschlich schreiben in Zeiten von KI) und «typisch KI» ist riesig. Die Tools messen eher, wie generisch ein Text aufgebaut ist – nicht, wer ihn geschrieben hat. Das ist ein fundamentaler Unterschied.

In einem Kontext wie unserem – Content, Blog, SEO – ist ein strukturierter, sauberer Stil durchaus gewollt. Genauso der Wiedererkennungswert, denn sonst bräuchte es keine menschlichen Autoren. Aber genau das triggert die Erkennungstools. Für eine rein redaktionelle Bewertung sind sie damit nahezu unbrauchbar.

Ironischerweise zwingt uns dieses Dilemma dazu, wieder mehr über Stil nachzudenken. Vielleicht ist es sinnvoll, auch bei seriösen Texten eine persönliche Tonalität reinzubringen. Nicht, um händeringend «menschlicher» zu wirken. Aber um wieder unterscheidbar zu sein.

Die eigentliche Frage ist für mich nicht «Stammt das von KI oder einem Menschen», sondern «Ist dieser Text austauschbar oder hat er Substanz?»

Tags: ContentKünstliche Intelligenz
Über die Autor:in

Miriam Schäfer

Social Media und redaktionelle Inhaltspflege rundum.dog seit April 2026. Schreibt für dataloft zu Datenschutz, Online-Recht, Social-Media-Trends und KI-Themen.

→ Wir

Hat dich der Artikel ins Grübeln gebracht?

Wir besprechen sowas gerne im Erstgespräch — schreib uns oder ruf an. Unverbindlich, persönlich, in der Regel innerhalb von 24 Stunden werktags.

→ Direkt zum Kontakt

Wenn du gleich noch was Grösseres anschauen willst

rundum.dog — unsere Hunde-Wissensplattform.

Die grösste deutschsprachige Hunde-Wissensplattform. Unser Eigenprojekt, unser Live-Beweis. Mit ca. einer Million Sessions pro Monat, eigenem KI-Plugin auf Anthropic-API und 17 Custom Post Types.

→ rundum.dog ansehen

Schreib uns oder ruf an.
Wir antworten in der Regel innerhalb von 24 Stunden werktags.

Roger Klein
Geschäftsführer
E-Mail
info@dataloft.ch
Telefon
+41 52 511 05 05
Adresse
dataloft GmbH · Rietweg 1 · 8506 Lanzenneunforn TG