Negative On-Page Faktoren fürs Google Ranking

Geschrieben von
Roger Klein
Negative Faktoren

Negative Ranking Faktoren sind Dinge, die du tun kannst, um deine bestehenden Rankings zu schädigen.
On-Page Faktoren sind Dinge, die du im Rahmen der direkten Verwaltung deiner Website direkt steuern kannst.

Hohe Keyword-Dichte

Keyword-Stuffing-Strafen entstehen, wenn eine ehemals effektive Taktik missbraucht wird: die Keyword-Dichte auf ein hohes Niveau bringen. TF-IDF spielt dabei wahrscheinlich eine Rolle — abhängig von Themen, Wortarten und Kontext.

Keyword-thinning (Verdünnung)

Dieser Faktor folgt einer einfachen Logik: Wenn höhere Keyword-Dichte oder TF-IDF positiv wirkt, schadet ein Mangel an Häufigkeit der Relevanz. Da Google natürliche Sprache inzwischen besser versteht, lässt sich das treffender als «Subject Matter Dilution» beschreiben — Inhalte ohne klares Thema. Beiden Fällen liegt dasselbe Grundkonzept zugrunde.

Keyword-Dichte im Title-Tag

Keyword-Stuffing-Strafen greifen offenbar auch innerhalb des Title-Tags. Ein gutes Title-Tag bleibt unter 60–70 Zeichen und bietet trotzdem genug Substanz, um als Suchanzeige in den Google-Ergebnissen zu funktionieren. Dasselbe Keyword fünf Mal im selben Tag bringt keinen Vorteil.

Sehr langer Title-Tag

Keyword-Stuffing-Strafen greifen offenbar auch innerhalb des Title-Tags. Ein gutes Title-Tag bleibt unter 60–70 Zeichen und bietet trotzdem genug Substanz, um als Suchanzeige in den Google-Ergebnissen zu funktionieren. Dasselbe Keyword fünf Mal im selben Tag bringt keinen Vorteil.

Stichwort-dichte Überschriften-Tags

Überschriften-Tags wie H1, H2, H3 können bestimmten Wörtern zusätzliches Gewicht geben. Wer das missbraucht, merkt schnell: so viele Keywords wie möglich in diese Tags packen funktioniert nicht — auch wenn die Tags selbst nicht länger als üblich sind. Keyword-Stuffing-Strafen greifen schlicht als Funktion des gesamten Inhalts innerhalb dieser Tags.

Überschriften-Tag (H1, H2 usw.) Überbeanspruchung

Willst du wissen, ob eine SEO-Strafe vorliegt, versuch einen positiven Ranking-Faktor weit über das Vernünftige hinaus zu überdehnen. Ein einfach zu testendes Beispiel: die gesamte Website in einem H1-Tag unterbringen. Matt Cutts gibt in dieser Quelle einen weniger subtilen Hinweis auf zu viel Text in einem H1.

Sehr lange URLs

Matt Cutts hält fest, dass nach ungefähr fünf Wörtern der zusätzliche Wert hinter Wörtern in einer URL abnimmt. Das ist theoretisch und reproduzierbar — auch wenn es direkt unbestätigt ist. Bing hat sich zudem explizit geäussert: URL-Keyword-Stuffing ist eine Strafe für deren Engine.

Keyword-dichte ALT-Tags

Da ALT-Tag-Text in der Regel nicht direkt auf der Seite angezeigt wird, wurde ALT-Tag-Keyword-Stuffing häufig missbraucht. Ein paar beschreibende Wörter sind ideal — mehr kann Strafen nach sich ziehen.

Sehr lange ALT-Tags

Da ALT-Tag-Text in der Regel nicht direkt auf der Seite sichtbar ist, wurde ALT-Tag-Keyword-Stuffing häufig missbraucht. Ein paar beschreibende Wörter sind ideal — mehr kann Strafen nach sich ziehen.

Zu viel im „Listenstil“ -Schreiben

Matt Cutts hat darauf hingewiesen, dass jede Art von Schreiben, die nur Keywords auflistet, als Beschreibungs-Keyword-Stuffing gilt. Zu viele Dinge, Wörter, Formulierungen, Begriffe, Schlüsselwörter usw. aneinanderzureihen ist keine natürliche Schreibweise. Zu viel davon zieht Abwertungen und möglicherweise Strafen nach sich.

CSS-versteckte Inhalte

Eine der ersten und am besten dokumentierten On-Page-SEO-Strafen: Text oder Links absichtlich vor Nutzern verbergen, um die Seite mit Keywords nur für Google zu beladen, kann eine schwere Strafe nach sich ziehen. Bei legitimen Verwendungen wie Tabs oder Tooltips besteht ein gewisser Spielraum.

Vordergrund stimmt mit Hintergrund überein

Ein weiteres häufiges Tarnungsproblem: Vordergrundfarbe stimmt mit der Hintergrundfarbe bestimmter Inhalte überein. Google nutzt möglicherweise den Seitenlayout-Algorithmus, um Seiten visuell zu prüfen und Fehlalarme zu vermeiden — passiert trotzdem versehentlich in einigen Szenarien.

Single Pixel Image Links

Google behandelt «nur wirklich kleine Links» als versteckte Links — ob durch ein 1×1-Bild oder durch unglaublich kleinen Text. Wer Google mit solchen Methoden überlisten will, wird irgendwann bestraft.

Leere Verbindungsanker

Versteckte Links, die anders als versteckter Text implementiert werden — zum Beispiel als leerer Ankertext — können ebenfalls zu Verschleierungsstrafen führen. Eine einst weit verbreitete Webspam-Taktik. Prüfe deinen Code sorgfältig.

Urheberrechtsverletzung

Inhalte zu veröffentlichen, die gegen den Digital Millennium Copyright Act (DMCA) oder ähnliche Regelungen ausserhalb der USA verstossen, kann zu schwerwiegenden Strafen führen. Google versucht, nicht zugeordnete Quellen und nicht lizenzierte Inhalte automatisch zu erkennen — Nutzer können Verstösse aber auch direkt melden, was zu manuellen Aktionen führt.

Eingangsseiten

Doorway Pages oder Gateway-Pages sind Massen von Seiten, die einzig dazu dienen, Suchverkehr abzufangen, ohne dem Nutzer echten Mehrwert zu bieten. Beispiel: eine Produktseite für jeden Städtenamen in Amerika mit je eigenen Keywords. Diese Methode wird als «Spamdexing» bezeichnet.

Ungültige interne Links

Ungültige interne Links erschweren es Suchmaschinen, eine Website zu indizieren, und behindern die Navigation der Nutzer. Sie sind ein Qualitätssignal. Stell sicher, dass deine internen Links nie ungültig sind.

Text in Bildern

Google hat bei der Bildanalyse grosse Fortschritte gemacht. Trotzdem ist es sehr unwahrscheinlich, dass Text in Rich Media bei Google durchsuchbar ist. Eine direkte Abwertung gibt es dafür nicht — aber der Text hat keine Chance, für diese Wörter zu ranken.

Text im Video

Genau wie bei Bildern kann Google nicht zuverlässig auf Wörter in Videos zugreifen. Wenn du Videos veröffentlichst, lohnt sich immer eine Textnotiz, damit der Inhalt vollständig durchsuchbar ist. Das gilt unabhängig vom Format — HTML5, Flash, SilverLight und andere eingeschlossen.

Text in Rich Media

Google hat bei der Analyse von Bildern, Videos und anderen Medienformaten wie Flash grosse Fortschritte erzielt. Trotzdem ist es sehr unwahrscheinlich, dass Text in Rich Media bei Google durchsuchbar ist.

Frames / Iframes

Früher konnten Suchmaschinen Inhalte in Frames kaum crawlen. Diese Schwäche wurde teilweise überwunden, aber Frames sind weiterhin ein Stolperstein für Crawler. Google versucht, geframte Inhalte einer einzelnen Seite zuzuordnen — garantiert ist das aber nicht.

Dünner Inhalt

Ausführliche Inhalte, die ein Thema tiefgründig behandeln, haben immer besser abgeschnitten. Mit dem «Panda»-Algorithmus von Navneet Panda wurde das formalisiert: Inhalte ohne echten Mehrwert werden bei Google hart abgestraft. Eine bekannte Fallstudie sind die Profilseiten des «DaniWeb»-Forums von Dani Horowitz — ein gutes Beispiel für die grundlegendsten Panda-Effekte.

Domainweiter Thin-Content

Google bemüht sich seit langem darum, Qualität und einzigartigen Wert von Inhalten zu verstehen. Mit dem Panda-Algorithmus wurde das domänenweit bewertet, nicht mehr seitenweise. Sinnvoll ist deshalb, die durchschnittliche Inhaltsqualität zu verbessern und Seiten mit wiederholendem, uninteressantem Inhalt — wie Blog-Tag-Seiten oder Forum-Nutzerprofile — auf «noindex» zu setzen.

Zu viele Werbe-Anzeigen

Seiten mit zu vielen Bannern und Anzeigen liefern eine schlechte Nutzererfahrung — und werden entsprechend behandelt. Google stützt das offenbar auf einen tatsächlichen Screenshot der Seite. Das ist eine Funktion des Seitenlayout-Algorithmus, kurz «Top Heavy Update».

Doppelter Inhalt (Drittanbieter)

Inhalte, die auf einer anderen Website erscheinen, können zu einer erheblichen Abwertung führen — auch wenn kein Copyright-Verstoss vorliegt und die Quelle korrekt angegeben ist. Das passt zum übergeordneten Muster: wirklich einzigartige Inhalte performen besser.

Doppelter Inhalt (intern)

Ähnlich wie bei externen Duplikaten verliert jeder Inhalt, der intern dupliziert wird — ob auf einer einzelnen Seite oder domänenweit — an Wert. Das ist ein sehr häufiges Problem und reicht von zu vielen indizierten Tag-Seiten über WWW- und Nicht-WWW-Versionen bis hin zu URL-Variablen.

Verlinkung zu bestraften Sites

Das ist als «Bad Neighborhood»-Algorithmus bekannt. Matt Cutts dazu: «Google vertraut Websites weniger, wenn sie auf Spam-Websites oder in schlechten Gegenden verlinken.» Google empfiehlt das Attribut rel=“nofollow“, wenn du auf eine solche Seite verlinken musst. Cutts: «Mit nofollow trennst du dich von dieser Nachbarschaft.»

Langsame Webseite

Langsame Sites ranken schlechter als schnelle. Google hat die Zielgruppe im Blick — berücksichtige also Geografie, Geräte und Verbindungsgeschwindigkeiten. Google empfiehlt wiederholt «unter zwei Sekunden» und sagt, sie wollen Seiten, die in weniger als 500 ms laden.

Page NoIndex

Wenn eine Seite das Meta-Tag «robots» mit dem Wert «noindex» enthält, nimmt Google sie nie in den Index auf. Für Seiten, die du positionieren willst, ist das schlecht. Sinnvoll ist es hingegen für Seiten, die Google-Nutzern keinen Mehrwert bieten — das verbessert die durchschnittliche Besuchsqualität von Google aus.

Internes NoFollow

Das kann auf zwei Arten auftreten: Enthält eine Seite das Meta-Tag «robots» mit dem Wert «nofollow», bekommt jeder Link auf der Seite das Attribut rel=“nofollow“. Oder es wird einzelnen Links direkt hinzugefügt. In beiden Fällen bedeutet es: «Ich vertraue dem nicht», «crawle nicht weiter» und «gib diesen PageRank nicht weiter».

Roboter verbieten

Wenn deine robots.txt im Stammverzeichnis die Anweisung «Disallow:» gefolgt von «*» oder «Googlebot» enthält, wird deine Website nicht gecrawlt. Das entfernt sie nicht aus dem Index — verhindert aber jede Aktualisierung mit neuen Inhalten oder positiven Ranking-Faktoren, die Alter und Aktualität betreffen.

Schlechte Domain Reputation

Domains bauen bei Google über Zeit einen Ruf auf. Selbst wenn eine Domain den Besitzer wechselt und du eine völlig andere Website betreibst, kann das Fehlverhalten der Vorbesitzer zu einer Bestrafung führen.

Meta- oder JavaScript-Weiterleitungen

Eine klassische SEO-Strafe, die inzwischen seltener vorkommt. Google empfiehlt, keine zeitgesteuerten Meta-Refresh- oder JavaScript-Weiterleitungen zu verwenden. Sie verwirren Nutzer, erhöhen Absprungraten und sind aus denselben Gründen problematisch wie Cloaking. Verwende stattdessen eine 301-Weiterleitung (permanent) oder 302-Weiterleitung (temporär) auf Serverebene.

Text in JavaScript

Google verbessert das Crawlen von JavaScript kontinuierlich — trotzdem besteht die Möglichkeit, dass Inhalte, die mit JavaScript erstellt werden, nicht vollständig gecrawlt werden, und die Frage bleibt, ob Googlebot den Kontext vollständig versteht. Kein direkter Nachteil, aber ein unnötiges Risiko — und damit ein negativer Faktor.

Schlechte Ladezeit

Google kann deine Website nicht (neu) indizieren, wenn sie nicht erreichbar ist. Eine unzuverlässige Website führt ausserdem zu einer schlechten Nutzererfahrung. Ein Ausfall von ein oder zwei Tagen sollte keine Rankings zerstören — mehr als das wird Probleme verursachen.

Zu viele interne Links

Matt Cutts nannte einmal ein festes Limit von 100 Links pro Seite — das er später mit «halte es bei einer vernünftigen Anzahl» relativierte. Hintergrund war, dass Google früher nicht mehr als 100 KB einer einzelnen Seite heruntergeladen hat. Das stimmt nicht mehr. Trotzdem gilt: Jeder Link teilt die PageRank-Verteilung auf, also ist Mass sinnvoll.

Zu viele externe Links

Als Funktion des PageRank-Algorithmus ist es möglich, PageRank aus deiner Domain abfliessen zu lassen. Der negative Faktor ist aber «zu viele» externe Links. Auf eine angemessene Anzahl externer Seiten zu verlinken ist ein positiver Ranking-Faktor.

Geparkte Domain

Eine geparkte Domain hat noch keine echte Website — sie liegt ungenutzt bei einem Domain-Registrar, oft mit maschinengenerierten Anzeigen. Google hat wiederholt klargestellt, dass geparkte Domains in keiner Form eingestuft werden sollen.

Suchergebnisseite

Google will, dass Nutzer auf echten Inhalten landen — nicht auf Seiten, die selbst wie Auflistungen weiterer Links aussehen, vergleichbar mit der SERP, von der der Nutzer gerade kommt. Eine Seite, die hauptsächlich aus weiteren Links besteht, rankt wahrscheinlich schlecht. Das gilt möglicherweise auch für Blog-Posts über Tag- und Kategorieseiten.

Automatisch generierter Inhalt

Maschinengenerierten Inhalt auf Basis von Suchanfragen bestraft Google «absolut» — das gilt als Verstoss gegen die Google Webmaster-Richtlinien. Eine Ausnahme scheinen maschinengenerierte Metatags zu sein.

Zu viele Footer-Links

Links im Footer einer Website haben nicht dasselbe Gewicht wie Links in einem redaktionellen Kontext. Als Google erstmals gegen bezahlte Links vorging, war das Spammen von Footern mit Dutzenden bezahlter externer Links weit verbreitet — zu viele externe Footer-Links können diese Art von Strafe nach sich ziehen.

Phishing-Aktivität

Wenn Google Grund hat, deine Website mit einem Phishing-Schema in Verbindung zu bringen — etwa weil sie die Anmeldeseite eines anderen Anbieters repliziert, um Daten zu stehlen — bereite dich auf direkte Abstrafungen vor. Meist verwendet Google eine pauschale Beschreibung von «illegalen Aktivitäten» und «Dingen, die unseren Nutzern schaden könnten».

Veralteter Inhalt

Google hat ein Patent für die Erkennung veralteter Inhalte, die auf verschiedene Arten identifiziert werden. Eine Methode ist schlicht das Alter des Inhalts. Unklar ist, ob dieser Faktor das Ranking bei allen Suchanfragen beeinflusst oder nur bei solchen, die Google als «Query Deserves Freshness» (QDF) einstuft.

Verwaiste Seiten

Seiten deiner Website, die über die interne Linkstruktur nicht erreichbar sind, können als Doorway-Seiten bestraft werden. Mindestens profitieren sie nicht vom internen PageRank — und leiden entsprechend in den Rankings.

Links verkaufen

Matt Cutts zeigt eine Fallstudie, in der der Toolbar-PageRank einer Domain direkt wegen ausgehender bezahlter Links von sieben auf drei gesunken ist. Der direkte Verkauf von Links, die PageRank weitergeben, verstösst gegen Googles Webmaster-Richtlinien und kann zu Strafen sowohl on-page als auch off-page führen.

HTTP Status Code 4XX / 5XX auf Seite

Gibt dein Webserver etwas anderes als Statuscode 200 (OK) oder 301/302 (Weiterleitung) zurück, bedeutet das, dass der entsprechende Inhalt nicht ausgeliefert wurde — auch wenn du ihn selbst im Browser sehen kannst. Google hat klargestellt, dass ein 404-Fehler bei tatsächlich fehlendem Inhalt in Ordnung und erwartet ist.

Spammy User-Generated Content

Google erkennt Spam-Probleme in nutzergeneriertem Inhalt gezielt und verhängt gezielte Strafen in diesem Kontext. Das ist einer der wenigen Fälle, in denen in der Google Search Console eine Warnung erscheint.

Automatisch übersetzter Text

Babelfish oder Google Translate zu nutzen, um eine Website schnell zu «internationalisieren», ist eine überraschend häufige Praxis — und etwas, das Matt Cutts ausdrücklich als Verstoss gegen die Webmaster-Richtlinien bezeichnet. Auf Google-Sprache heisst das: keine blosse Abwertung, sondern eine Strafe, wahrscheinlich eine deutliche. In einem Webmaster-Video kategorisiert Matt maschinelle Übersetzungen als «automatisch generierten Inhalt».

Tags: GoogleKennzahlenRanking
Über die Autor:in

Roger Klein

Geschäftsführer dataloft GmbH. WordPress seit Version 3, Frauenfeld. Verantwortet bei dataloft Strategie, Architektur und KI-Integration. Baut mit Mattes und Elena rundum.dog, die grösste deutschsprachige Hunde-Wissensplattform.

→ Wir

Hat dich der Artikel ins Grübeln gebracht?

Wir besprechen sowas gerne im Erstgespräch — schreib uns oder ruf an. Unverbindlich, persönlich, in der Regel innerhalb von 24 Stunden werktags.

→ Direkt zum Kontakt

Wenn du gleich noch was Grösseres anschauen willst

rundum.dog — unsere Hunde-Wissensplattform.

Die grösste deutschsprachige Hunde-Wissensplattform. Unser Eigenprojekt, unser Live-Beweis. Mit ca. einer Million Sessions pro Monat, eigenem KI-Plugin auf Anthropic-API und 17 Custom Post Types.

→ rundum.dog ansehen

Schreib uns oder ruf an.
Wir antworten in der Regel innerhalb von 24 Stunden werktags.

Roger Klein
Geschäftsführer
E-Mail
info@dataloft.ch
Telefon
+41 52 511 05 05
Adresse
dataloft GmbH · Rietweg 1 · 8506 Lanzenneunforn TG