Negative Faktoren

Negative On-Page Faktoren fürs Google Ranking

Negative Ranking Faktoren sind Dinge, die Sie tun können, um Ihre bestehenden Rankings zu schädigen.
On-Page Faktoren sind Dinge, die Sie im Rahmen der direkten Verwaltung Ihrer Website direkt steuern können.

Hohe Keyword-Dichte

Keyword-Stuffing-Strafen entstehen, wenn eine ehemals äusserst effektive Taktik missbraucht wird: Die Keyword-Dichte auf ein hohes Niveau bringen. Obwohl TF-IDF wahrscheinlich eine Rolle spielt und dies abhängig von Themen, Wortarten und Kontext ist.

Keyword-thinning (Verdünnung)

Dieser Faktor äussert sich aus der Logik: Wenn eine höhere Keyword-Dichte oder TF-IDF positiv ist, verringert sich die Relevanz eines Mangels an Häufigkeit / Dichte. Da Google das Verständnis der natürlichen Sprache verbessert hat, kann dies besser als „Subject Matter Dilution“ (Verwässerung der Themen) bezeichnet werden: Schreiben von Inhalten, die ohne ein klares Thema sind. In beiden Fällen spielt das gleiche Grundkonzept eine Rolle.

Keyword-Dichte im Title-Tag

Abgesehen von einer Seite als Ganzes scheinen Keyword-Stuffing-Strafen innerhalb des Title-Tags möglich zu sein. Ein ideales Title-Tag sollte auf jeden Fall weniger als 60-70 Zeichen umfassen und hoffentlich immer noch genug Wert bieten, um als gute Suchanzeige in den Google-Ergebnissen zu fungieren. Zumindest hat es keinen Vorteil, fünf Mal dasselbe Keyword im selben Tag zu verwenden.

Sehr langer Title-Tag

Abgesehen von einer Seite als Ganzes scheinen Keyword-Stuffing-Strafen innerhalb des Title-Tags möglich zu sein. Ein ideales Title-Tag sollte auf jeden Fall weniger als 60-70 Zeichen umfassen und hoffentlich immer noch genug Wert bieten, um als gute Suchanzeige in den Google-Ergebnissen zu fungieren. Zumindest hat es keinen Vorteil, fünf Mal dasselbe Keyword im selben Tag zu verwenden.

Stichwort-dichte Überschriften-Tags

Überschriften-Tags wie H1, H2, H3 usw. können bestimmten Wörtern zusätzliches Gewicht verleihen. Diejenigen, die versuchen, diesen positiven Ranking-Faktor zu missbrauchen, werden feststellen, dass sie nicht einfach so viele Keywords wie möglich in diese Tags packen können, selbst wenn die Tags selbst nicht länger als gewöhnlich werden. Keyword-Stuffing-Strafen scheinen einfach als Funktion des gesamten Speicherplatzes innerhalb dieser Tags möglich zu sein.

Überschriften-Tag (H1, H2 usw.) Überbeanspruchung

Wenn Sie eine konkrete Antwort auf die Frage erhalten möchten, ob eine SEO-Strafe vorliegt oder nicht, versuchen Sie in der Regel, einen positiven Ranking-Faktor zu verwenden, der weit über das hinausgeht, was vernünftig erscheint. Eine leicht zu überprüfende Strafe besteht darin, Ihre gesamte Website in einem H1-Tag zu platzieren. Zu faul dafür? Matt Cutts gibt in dieser Quelle einen weniger subtilen Hinweis auf zu viel Text in einem H1.

Sehr lange URLs

Matt Cutts stellt fest, dass nach ungefähr fünf Wörtern der zusätzliche Wert hinter Wörtern in einer URL abnimmt. Es ist theoretisch und ziemlich reproduzierbar, dass dies auch bei Google auftritt, obwohl dies direkt unbestätigt ist. Obwohl sie etwas anders funktionieren, hat Bing sich auch alle Mühe gegeben, um zu bestätigen, dass URL-Keyword-Stuffing eine Strafe für ihre Engine darstellt.

Keyword-dichte ALT-Tags

Da der ALT-Tag-Text in der Regel nicht direkt auf der Seite angezeigt wird, wurde das ALT-Tag-Keyword-Stuffing häufig missbraucht. Ein paar beschreibende Worte sind in Ordnung und eigentlich ideal, aber mehr zu tun kann Strafen nach sich ziehen.

Sehr lange ALT-Tags

Da der ALT-Tag-Text in der Regel nicht direkt auf der Seite angezeigt wird, wurde das ALT-Tag-Keyword-Stuffing häufig missbraucht. Ein paar beschreibende Worte sind in Ordnung und eigentlich ideal, aber mehr zu tun kann Strafen nach sich ziehen.

Zu viel im „Listenstil“ -Schreiben

Matt Cutts hat vorgeschlagen, dass jede Art des Schreibens, die nur eine Menge von Schlüsselwörtern auflistet, auch für das Beschreibungs-Keyword-Stuffing geeignet ist. Beispiel: Das Auflisten von viel zu vielen Dingen, Wörtern, Formulierungen, Ideen, Begriffen, Begriffen, Schlüsselwörtern usw. ist keine natürliche Schreibweise. Zu viel davon zieht Abwertungen und möglicherweise Strafen nach sich.

CSS-versteckte Inhalte

Eine der ersten und am besten dokumentierten SEO-Strafen auf der Seite – das absichtliche Ausblenden von Text oder Links vor Nutzern, insbesondere um die Seite mit Keywords zu beladen, die nur für Google bestimmt sind, kann eine schlimme Strafe nach sich ziehen. Unter legitimen Umständen wie bei der Verwendung von Registerkarten oder QuickInfos scheint ein gewisser Spielraum gegeben zu sein.

Vordergrund stimmt mit Hintergrund überein

Ein weiteres häufiges Problem, das zu Tarnungsstrafen führt, tritt auf, wenn die Vordergrundfarbe mit der Hintergrundfarbe bestimmter Inhalte übereinstimmt. Google verwendet möglicherweise den Seitenlayout-Algorithmus, um eine Seite tatsächlich visuell zu betrachten und Fehlalarme zu vermeiden. Nach unserer Erfahrung kann dies in einer Handvoll Szenarien immer noch versehentlich vorkommen.

Single Pixel Image Links

Es ist keine Frage, dass Google „nur wirklich kleine Links“ als versteckte Links behandelt. Dies kann durch ein 1 x 1 x 1-Bild oder einfach durch unglaublich kleinen Text geschehen. Wenn Sie versuchen, Google mit solchen Methoden zum Narren zu halten, stehen die Chancen gut, dass sie Sie irgendwann bestraft werden.

Leere Verbindungsanker

Versteckte Links, die häufig anders als versteckter Text implementiert werden, wie z. B. leerer Ankertext, können ebenfalls zu Verschleierungsstrafen führen. Dies ist ein gefährliches Gebiet und eine andere, einst weit verbreitete Webspam-Taktik. Überprüfen Sie Ihren Code also genau.

Urheberrechtsverletzung

Das Veröffentlichen von Inhalten in einer Weise, die gegen das Digital Millennium Copyright Act (DMCA) oder ähnliche Codes ausserhalb der USA verstösst, kann zu einer schwerwiegenden Strafe führen. Google versucht, nicht zugeordnete Quellen und nicht lizenzierte Inhalte automatisch zu analysieren. Nutzer können Verstösse jedoch auch direkt melden, was zu manuellen Aktionen führt.

Eingangsseiten

Doorway Pages oder Gateway-Pages sind Massen von Seiten, deren einziger Wert darin besteht, den Suchverkehr einzuschränken. Sie bieten dem Benutzer keinen Wert. Erstellen Sie beispielsweise eine Produktseite für jeden Städtenamen in Amerika mit jeweils eindeutigen Schlüsselwörtern. Diese Methode wird als „Spamdexing“ (Kurzform für das Versenden von Spam an den Google-Seitenindex) bezeichnet.

Ungültige interne Links

Ungültige interne Links erschweren es Suchmaschinen, eine Website zu indizieren, und die Navigation der Benutzer. Es ist ein Zeichen für eine Website von geringer Qualität. Stellen Sie sicher, dass Ihre internen Links niemals ungültig sind.

Text in Bildern

Bei der Analyse von Bildern hat Google einen langen Weg zurückgelegt. Insgesamt ist es jedoch sehr unwahrscheinlich, dass Text, den Sie in Rich Media präsentieren, in Google durchsuchbar ist. Es gibt keine direkte Abwertung oder Bestrafung, wenn Sie Text in ein Bild einfügen. Es verhindert lediglich, dass Ihre Website eine Chance hat, für diese Wörter zu ranken.

Text im Video

Genau wie bei Bildern kann Google nicht zuverlässig auf die Wörter zugreifen, die Sie in Videos verwenden. Wenn Sie Videos veröffentlichen, ist es zu Ihrem Vorteil, immer eine Textnotiz zu veröffentlichen, sodass der Inhalt Ihres Videos vollständig durchsucht werden kann. Dies gilt unabhängig vom Rich Media-Format, einschliesslich HTML5, Flash, SilverLight und anderen.

Text in Rich Media

Google hat bei der Analyse von Bildern, Videos und anderen Medienformaten wie Flash grosse Fortschritte erzielt. Insgesamt ist es jedoch sehr unwahrscheinlich, dass Text, den Sie in Rich Media präsentieren, in Google durchsuchbar ist.

Frames / Iframes

In der Vergangenheit konnten Suchmaschinen Inhalte in Frames nicht vollständig durchsuchen. Obwohl sie diese Schwäche bis zu einem gewissen Grad überwunden haben, sind Frames immer noch ein Stolperstein für Suchmaschinen-Crawler. Google versucht, geframte Inhalte mit einer einzelnen Seite zu verknüpfen. Es ist jedoch keineswegs garantiert, dass diese korrekt verarbeitet werden.

Dünner Inhalt

Obwohl es immer besser war, ausführlichere Inhalte zu schreiben, die sich eingehend mit einem Thema befassen, hat die Einführung des „Panda“ -Algorithmus von Nanveet Panda eine Situation geschaffen, in der Inhalte, die im Grunde genommen keinen eindeutigen Wert haben, in Google streng bestraft werden. Eine branchenweit anerkannte Fallstudie auf den Profilseiten des „DaniWeb“ -Forums von Dani Horowitz ist ein hervorragendes Beispiel für die grundlegendsten Effekte von Panda.

Domainweiter Thin-Content

Seit langem bemüht sich Google, die Qualität und den einzigartigen Wert Ihrer Inhalte/Content zu verstehen. Mit der Einführung des Panda-Algorithmus wurde dieses Problem domänenweit und nicht seitenweise verbessert. Daher ist es in der Regel hilfreich, die durchschnittliche Qualität von Inhalten in Suchmaschinen zu verbessern, während auf Seiten, die sich wiederholenden und uninteressanten sind, wie Blog-Tag-Seiten und Benutzerprofile für Foren, auf „noindex“ gesetzt werden.

Zu viele Werbe-Anzeigen

Seiten mit zu vielen Bannern / Anzeigen, sorgen für eine schlechte Nutzererfahrung und werden als solche behandelt. Google scheint dies auf einen tatsächlichen Screenshot der Seite zu stützen. Dies ist eine Funktion des Seitenlayout-Algorithmus, der kurz als Top Heavy Update bezeichnet wird.

Doppelter Inhalt (Drittanbieter)

Doppelte Inhalte, die auf einer anderen Website angezeigt werden, können zu einer erheblichen Abwertung führen, auch wenn sie nicht gegen die Copyright-Richtlinien verstossen und eine Quelle korrekt angeben. Dies steht im Einklang mit einem laufenden Thema: Inhalte, die wirklich einzigartiger sind, erzielen eine bessere Leistung.

Doppelter Inhalt (intern)

Ähnlich wie beim Duplizieren von Inhalten aus einer anderen Quelle wird jeder Inhaltsausschnitt, der auf einer Seite oder sogar auf der gesamten Website dupliziert wird, einen Wertverlust erleiden. Dies ist ein äusserst häufiges Problem und kann von zu vielen indizierten Tag-Seiten über WWW- und Nicht-WWW-Versionen der Websites bis hin zu an URLs angehängten Variablen reichen.

Verlinkung zu bestraften Sites

Dies wurde als „Bad Neighborhood“ -Algorithmus eingeführt. Um Matt Cutts zu zitieren: „Google vertraut Websites weniger, wenn sie auf Spam-Websites oder in schlechten Gegenden verlinken.“ So einfach ist das. Google hat vorgeschlagen, das Attribut rel = „nofollow“ zu verwenden, wenn Sie einen Link zu einer solchen Website erstellen müssen. Um Matt noch einmal zu zitieren: „Mit nofollow trennen Sie sich von dieser Nachbarschaft.“

Langsame Webseite

Langsame Sites werden nicht so gut gerankt wie schnelle. Google hat hier Ihre Zielgruppe im Auge. Berücksichtigen Sie also die Geografie, die Geräte und die Verbindungsgeschwindigkeiten einzelner Personen. Google hat wiederholt vorgeschlagen, „unter zwei Sekunden“, und sagt, dass sie Webseiten wollen die in weniger als 500 ms geladen werden.

Page NoIndex

Wenn eine Seite das Meta-Tag für „Robots“ enthält, das den Wert „noindex“ enthält, wird es von Google niemals in den Index aufgenommen. Wenn es auf einer Seite verwendet wird, die Sie positionieren möchten, ist es eine schlechte Sache. Dies kann auch hilfreich sein, wenn Sie Seiten entfernen, die für Google-Nutzer nicht gut sind, und die durchschnittliche Besuchererfahrung bei der Ankunft von Google erhöhen.

Internes NoFollow

Dies kann auf zwei Arten auftreten: Wenn eine Seite das Meta-Tag „robots“ mit dem Wert „nofollow“ enthält, wird jedem Link auf der Seite das Attribut rel = „nofollow“ hinzugefügt. Oder es kann zu einzelnen Links hinzugefügt werden. In beiden Fällen bedeutet dies „Ich vertraue dem nicht“, „krieche nicht weiter“ und „Gib diesen PageRank nicht“.

Roboter verbieten

Wenn auf Ihrer Website eine Datei mit dem Namen robots.txt im Stammverzeichnis mit der Anweisung „Disallow:“ gefolgt von „*“ oder „Googlebot“ vorhanden ist, wird Ihre Website nicht gecrawlt. Dadurch wird Ihre Website nicht aus dem Index entfernt. Es wird jedoch jegliche Aktualisierung mit neuem Inhalt oder positiven Bewertungsfaktoren, die Alter und Frische betreffen, verhindert.

Schlechte Domain Reputation

Domain-Namen haben bei Google im Laufe der Zeit einen guten Ruf. Selbst wenn eine Domain den Besitzer wechselt und Sie eine völlig andere Website betreiben, kann dies zu einer Bestrafung führen, die durch das schlechte Verhalten der Vorbesitzer verursacht wird.

Meta- oder JavaScript-Weiterleitungen

Eine klassische SEO-Strafe, die nicht mehr allzu häufig ist. Google empfiehlt, keine zeitgesteuerten Meta-Refresh- und / oder JavaScript-Weiterleitungen zu verwenden. Diese verwirren Benutzer, führen zu Absprungraten und sind aus den gleichen Gründen problematisch wie das Tarnen. Verwenden Sie stattdessen eine 301-Umleitung (falls permanent) oder 302-Umleitung (falls temporär) auf Serverebene.

Text in JavaScript

Während Google das Crawlen von JavaScript weiter verbessert, besteht immer noch die Möglichkeit, dass Google Probleme beim Crawlen von Inhalten hat, die mit JavaScript erstellt wurden, und die Sorge, dass Googlebot den Kontext nicht vollständig versteht, wann und für wen sie erstellt werden. Während das erstellen von Text mit JavaScript keine Nachteile mit sich bringt, ist dies ein unangemessenes Risiko und daher ein negativer Faktor.

Schlechte Ladezeit

Google kann Ihre Website nicht (neu) indizieren, wenn sie nicht erreichbar ist. Die Logik würde auch vorschreiben, dass eine unzuverlässige Website auch zu einer schlechten Nutzererfahrung bei Google führt. Es ist unwahrscheinlich, dass ein Ausfall Ihre Rangliste zerstört, aber es ist wichtig, eine angemessene Ladezeit zu erreichen. Ein oder zwei Tage sollten in Ordnung sein. Mehr als das wird Probleme verursachen.

Zu viele interne Links

Matt Cutts gab einmal an, dass es ein festes Limit von 100 Links pro Seite gab, das später zurückgezogen wurde, um zu sagen, „halte es bei einer vernünftigen Anzahl“. Dies lag daran, dass Google einmal nicht mehr als 100 KB einer einzelnen Seite heruntergeladen hat. Das stimmt nicht mehr, aber da jeder Link Ihre PageRank-Verteilung aufteilt, ist dieses Potenzial sinnvoll, ohne dass die Funktionsweise von Google geändert wird.

Zu viele externe Links

Als einfache Funktion des PageRank-Algorithmus ist es möglich, den PageRank aus Ihrer Domain zu entfernen. Beachten Sie jedoch, dass der negative Faktor hier „zu viele“ externe Links sind. Das Verlinken auf eine angemessene Anzahl externer Websites ist ein positiver Ranking-Faktor.

Geparkte Domain

Eine geparkte Domain ist eine Domain, auf der noch keine echte Website vorhanden ist. Oft sitzen sie ungenutzt bei einem Domain-Registrar ausserhalb maschinengenerierter Werbung. Ausserdem erfüllt dies nicht so viele andere Rankingkriterien, dass es bei Google wahrscheinlich sowieso keinen grossen Erfolg hätte. Sie hatten mal welche. Google hat jedoch wiederholt klargestellt, dass keine geparkten Domains in irgendeiner Form eingestuft werden sollen.

Suchergebnisseite

Im Allgemeinen möchte Google, dass Nutzer auf Inhalten landen, nicht auf anderen Seiten, die wie Auflistungen potenzieller Inhalte aussehen, wie der Search Engine Results Page (SERP), von der ein solcher Nutzer gerade stammt. Wenn eine Seite einer Suchergebnisseite zu sehr ähnelt, weil sie nur aus einer Reihe weiterer Links besteht, ist es wahrscheinlich, dass sie nicht so gut rankt. Dies gilt möglicherweise auch für Blog-Posts, die über den Tag- / Kategorieseiten liegen.

Automatisch generierter Inhalt

Maschinengenerierte Inhalte, die auf Suchanfragen von Nutzern basieren, werden von Google „absolut bestraft“ und gelten als Verstoss gegen die Google Webmaster-Richtlinien. Es gibt eine Reihe von qualifizierten Methoden, die in den Richtlinien aufgeführt sind. Eine Ausnahme von dieser Regel scheinen maschinengenerierte Metatags zu sein.

Zu viele Footer-Links

Es wurde deutlich gemacht, dass Links in der Footer einer Website nicht das gleiche Gewicht haben wie Links in einem redaktionellen Kontext. Es ist auch richtig, dass Google, als es zum ersten Mal über Massnahmen gegen bezahlte Links sprach, die Praxis, Footer von Websites mit Dutzenden von bezahlten externen Links zu spammen, weit verbreitet war und daher zu viele externe Footer-Links diese Art von Strafe ziehen können.

Phishing-Aktivität

Wenn Google möglicherweise Grund hat, Ihre Website mit einem Phishing-Schema zu verwechseln (z. B. einer, die die Anmeldeseite eines anderen Nutzers repliziert, um Informationen zu stehlen), bereiten Sie sich auf direkte Abstrafungen vor. Meist verwendet Google lediglich eine pauschale Beschreibung von „illegalen Aktivitäten“ und „Dingen, die unseren Nutzern schaden könnten“.

Veralteter Inhalt

Es gibt ein Google-Patent für veraltete Inhalte, die auf verschiedene Arten identifiziert werden können. Eine solche Methode zum Definieren veralteter Inhalte besteht im Grunde nur darin, alt zu sein. Unklar ist, ob dieser Faktor das Ranking bei allen Suchanfragen beeinträchtigt oder nur, wenn eine bestimmte Suchanfrage mit etwas in Verbindung gebracht wird, das Google als „Query Deserves Freshness“ (QDF) bezeichnet, was genau bedeutet, wie es sich anhört.

Verwaiste Seiten

Verwaiste Seiten oder Seiten Ihrer Website, die mit Ihrer Architektur für interne Links nicht gefunden werden können, werden möglicherweise als Doorway-Seiten bestraft. Zumindest profitieren diese Seiten nicht vom internen PageRank und leiden daher unter Rankings.

Links verkaufen

Matt Cutts präsentiert eine Fallstudie, in der der PageRank der Symbolleiste einer Domain als direkte Folge ausgehender bezahlter Links von sieben auf drei gesunken ist. Als Verstoss gegen die Webmaster-Richtlinien von Google kann der direkte Verkauf von Links, die den PageRank überschreiten, zu Strafen sowohl für das On-Page- als auch für das Off-Page-Ende einer Website führen.

HTTP Status Code 4XX / 5XX auf Seite

Wenn Ihr Webserver so ziemlich alles andere als den Statuscode 200 (OK) oder 301/302 (Weiterleiten) zurückgibt, bedeutet dies, dass der entsprechende Inhalt nicht angezeigt wurde. Beachten Sie, dass dies auch dann passieren kann, wenn Sie den beabsichtigten Inhalt selbst in Ihrem Browser anzeigen können. In Fällen, in denen Inhalte tatsächlich fehlen, wurde von Google klargestellt, dass ein 404-Fehler in Ordnung ist und tatsächlich erwartet wird.

Spammy User-Generated Content

Google sollte Probleme, die in den von Nutzern generierten Bereichen Ihrer Website auftreten, herausgreifen und in einem solchen Kontext sehr gezielte Strafen verhängen. Dies ist einer der wenigen Fälle, in denen in der Google Search Console eine Warnung angezeigt wird.

Automatisch übersetzter Text

Die Verwendung von Babelfish oder Google Translate, um eine Website schnell zu „internationalisieren“, ist eine überraschend häufige Praxis für Dinge, von denen Matt Cutts ausdrücklich sagt, dass sie gegen die Richtlinien für Webmaster verstossen. Für diejenigen, die fliessend in Google-Sprache sprechen, bedeutet das in der Regel „es ist nicht nur eine Abwertung, es ist eine Strafe und wahrscheinlich eine ziemlich starke“. In einem Google Webmaster-Video kategorisiert Matt maschinelle Übersetzungen als „automatisch generierten Inhalt“.

11. Juni 2024Marketing

Der Brand Hub als zentrale Plattform für Markenstrategie

Ein Instrument, das sich als unverzichtbar für die Interaktion mit Verbrauchern erwiesen hat, ist der sogenannte Brand Hub. Es ist

7. Juni 2024Webdesign

KI Bilder erstellen: Mit diesen Tipps zu tollen Ergebnissen

Das Internet bietet eine Fülle an Optionen für jeden, der mit KI Bilder erstellen möchte. Von surrealen Landschaften bis zu

Weiterlesen
4. Juni 2024SEO

Google Autocomplete: Fluch oder Segen für Webseitenbetreiber?

Die scheinbar hilfreiche Funktion namens Google Autocomplete kann für Webseitenbetreiber Fluch und Segen zugleich sein. Während die automatische Vervollständigung die

Weiterlesen
30. Mai 2024Analyse

Die 5 Schritte zur Effizienz: DSCMI im Projektmanagement erklärt

Eine bewährte Methode innerhalb der dynamischen Welt des IT-Managements ist die DSCMI-Vorgehensweise. Es steht für Definition, Strategie, Controlling, Management und

Weiterlesen
Negative On-Page Faktoren fürs Google Ranking
Haben Sie Fragen zu diesem Thema? Einfach melden.