Google hat offiziell bestätigt, dass die Ladegeschwindigkeit einer Website ein (wenn auch nicht allzustark gewichteter) Rankingfaktor ist. Google, das ist der falsche Weg! Konzentriert Euch doch endlich wieder auf Content-Qualität! Statt Suchergebnisse immer mehr zu optimieren auf oberflächlichen Schrott-Content aus den Schreibstuben der Suchmaschinen-Optimierer ohne jeglichen Anspruch auf inhaltliche Korrektheit und Tiefe, sollte doch vielmehr die harte Arbeit von Leuten honoriert werden, die sich mit Themen wirklich auskennen und echten, guten, neuen, recherchierten Content anbieten. Guter Content – liebes Google – hilft Euren Usern nämlich mehr als SEO-Schrott, der ein paar Millisekunden schneller lädt.
Das Dilemma ist doch, dass Content-fixierte Webpublisher oft wenig Ahnung von Technik haben – eben weil sie sich auf das Fachliche konzentrieren. Solche Publisher verfügen oft auch nicht über eine blitzschnelle, eigene Server-Infrastruktur, um die verschiedenen Googlebots an ihren Standorten optimal zu bedienen. Sie haben vielleicht nur einen Shared-Hosting-Account für 5 Euro im Monat, ohne Einfluß auf Content-Komprimierung des Apache-Servers und ähnliche Features, die technisch leistungsfähige Publisher mit oft keinerlei Interesse an wirklich gutem Content an der Hand haben. Das sind Hobbyisten, die ihren Content aus Idealismus veröffentlichen und nicht primär Profit und Umsatz im Kopf haben.
Will Google wirklich immer noch weitere Rankingkriterien heranziehen, die nur die SEO- und technische Leistung eines Content-Anbieters belohnt und fachlich gute Inhalte damit indirekt bestraft, weil die Besitzer dieser Websites ihre Zeit lieber auf Content verwenden? Oder einfach nicht das Geld haben, um ihren hochwertigen Content über technisch optimale Server-Infrastruktur auszuliefern?
Klar, eine Website, die 2 Minuten zum Laden braucht, ist auch mit guten Content nicht zu gebrauchen (obwohl es selbst da gelegentlich Ausnahmen gibt). Und natürlich macht es für den User einen Unterschied, ob eine Site in 5 oder in 10 Sekunden lädt. Aber, Google: So lange Eure Algorithmen noch nicht annähernd in der Lage sind, echte, inhaltlich wertvolle Texte zu unterscheiden von Texten, die von SEO in Excel nach dem Prinzip „lass‘ uns mal ein paar Satzbausteine mit relevanten Keyword wild durchmischen und dann als Text ausgeben“, solange sollte Ihr alle Eure Energie darauf verwenden, guten Content als Suchergebnisse auszuliefern, statt den Müllproduzenten immer noch mehr Vorteile zu verschaffen, ihren Null-Content nach oben zu bringen. Denn trotz allem ist guter Content, der 10 Sekunden lädt wesentlich relevanter als belangloser Müll mit den richtigen Keywords und ein paar gekauften Links, der in einer Sekunde lädt.
Ich entschuldige mich ausdrücklich bei denjenigen SEOs, die ihren Job sehr gut machen und guten Content mit SEO-Maßnahmen noch weiter nach oben bringen. Ihr seid mit meiner Kritik nicht gemeint. Ich will damit auch nicht einmal die anderen SEOs nicht angreifen für das, was sie tun. Solange Google Text-Müll nicht erkennt und die SEO-Tricksereien diesbezüglich nicht unterbindet – warum solltet Ihr auf diese Einnahmequelle verzichten?
Google ist da in der Bringschuld – und zwar noch nicht einmal in erster Linie gegenüber den Website-Betreibern (obwohl die Monopolstellung da auch eine gewisse moralische Verpflichtung begründet), sondern vor allem dem Suchmaschinen-User gegenüber. Google, Ihr habt da eine Verantwortung, die weit über Eure Umsatzrechnung hinausgeht. Oberflächliche, falsche oder gar keine Informationen sind gefährlich! Konzentriert Euch mehr auf die Erkennung von Content-Qualität statt auf technische Messgrößen. Bitte!
Neuer Rankingfaktor Ladezeit – Googles Bildersturm im Internet? | tagSeoBlog
on Apr 10th, 2010
@ 11:32:
[…] Ladezeit ist Google-Rankingfaktor – was für ein Irrweg! (Ceterum Censeo) […]
Rankingfaktor Ladegeschwindigkeit sorgt für Wirbel « kadekmedien's Blog
on Apr 12th, 2010
@ 8:23:
[…] stimmt mich da schon Franz Neumeiers Sichtweise, Seiten mit billig erstelltem SEO-Content könnten gegenüber jenen mit wertvollen Texten im […]
Website-Ladezeit ab sofort ein Ranking-Faktor
on Apr 12th, 2010
@ 13:42:
[…] […]
Gretus
on Apr 12th, 2010
@ 23:04:
Hallo,
man kann das ganze als didaktische Maßnahme begreifen, mit welcher Google Webseitenbetreiber darum `bittet´, ihre Seiten auf Ladegschwindigkeit bzw. größe der einzelnen Dateien zu überprüfen. Der Einfluss auf das Ranking beträgt weniger als 1%…
Das Web nimmt immer größere Ausmaße an, klar dass im Zuge dessen jeder dabei helfen muss, die ganzen Daten `hanlebar´ zu halten.
Grüße
Gretus
Franz
on Apr 13th, 2010
@ 7:14:
Keine Frage, die 1% für die Performance alleine sind nicht das Problem und in der Tat ist es gut, wenn es Anreize zu höherer Performance gibt.
Aber:
1) Den Anreiz hatte Google schon bisher auf eine wesentlich fairere und vor allem sauber begründbare und nachvollziehbare Art: Der Bot hat von einer langsameren Site einfach weniger Seiten erfasst als von einer schnellen. Nicht als Strafmaßnahme, sondern weil er je nach Wichtigkeit einer Site einfach nur eine bestimmte Zeit aufwendet, um die Inhalte zu crawlen. Ist die Site schnell, crawlt er eben mehr Seiten.
2) Die Performance als RANKING-Faktor mag nur 1% ausmachen. Ich finde es aber wichtig zu berücksichtigen, dass es eben inzwischen viele (und immer mehr) Ranking-Faktoren gibt, die nichts mit der Content-Qualität zu tun haben und/oder sich mit technischen Fähigkeiten und Tricks sowie mit Geld-Einsatz (z.B. professionelles SEO) relativ unabhängig vom Content beeinflussen lassen.
Ich bin einfach davon überzeugt, dass Google (auch aus der Verantwortung als Monopolist heraus) sich strikt an die Content-Qualität halten sollte und das Ziel verfolgen sollte, guten Content als Suchergebnisse auszuliefern, statt immer nuee Hilfskrücken zu suchen, die verschleiern, dass es ganz wenige Fortschritte gibt beim Erkennen von Content-Qualität bzw. bei der Unterscheidung von nur für Suchmaschinen generierten Pseudo-Content und echtem Content.
Ich bestreite nicht, dass ich hier Enormes von Google verlange, weil die Technik halt vielleicht einfach noch nicht soweit ist. Trotzdem ärgert es mich einfach, wenn ich als User bei vielen Suchen nur B-Ware oder noch Schlimmeres als Ergebnisse ausgeliefert bekomme. Und als Websitebetreiber ärgert es mich, wenn ich guten Content produziere (manchmal objektiv besseren oder gar den einzig in Deutsch relevanten Content zu einem Thema), aber von Spam-Projekten oder sogar englischsprachigen Seiten im Ranking ausgestochen werde, weil Google so viele nicht-Content-bezogene Kriterien heranzieht, dass der eigentliche Content eben nur noch die zweite Geige spielt. Da ist dann einfach was faul; und noch zusätzliche Kriterien in diese Richtung verschlimmern das Problem.
Franz
site speed jetzt offizieller rankingfaktor bei google | dies und das
on Apr 13th, 2010
@ 9:46:
[…] immer gibt es natürlich sehr geteilte meinungen darüber ob dies der richtige weg sei. franz von ceterumcenseo.net z.b. hält es für den falschen weg. martin schreibt auf seinem tagseoblog sogar überspitzt vom […]
Maxim
on Apr 16th, 2010
@ 7:02:
In Wirklichkeit hat man dem Kind doch einfach einen anderen Namen gegeben um mehr Druck zu machen.
Der bot kann weniger Seiten Crawlen, es kommen nicht alle in den Index usw., das war schon immer so.
Das mit dem Content ist eben auch so ein Thema, bei dem eine wichtige Variable fehlt, nämlich das die Maschine den Text versteht. Also versucht die Maschine messbare Bestandteile zu filtern und so den Wert des Textes zu ermitteln, sonst könnte man mit dem GBot ja auch ein Schwätzchen halten, warum er dies und das nicht macht oder :)
Content sollte in erster Linie für den User und die Zielgruppe geschrieben werden, auf die Qualität kommt es an, erst danach „optimiert man den Text ein wenig um das Ranking in den SERPs etwas zu beschleunigen.
Und zu deiner These der Statzbausteine ohne zusammenhang und Sinn kann ich sagen:
Sicherlich gibt es noch so einige die so arbeiten, aber die sterben auch langsam aus, weil sich durch solche Zusammenhang lose Informationen keine Conversions generieren lassen.
Teufel
on Mai 10th, 2010
@ 9:18:
@maxim: ich kenne viele beispiele die genau so (satzbausteine) verfahren und durch „intelligente“ platzierung von werbemitteln trotzdem eine ausgezeichnete conversion haben…das ist zwar nicht elegant aber funktioniert trotzdem
samy
on Jun 17th, 2010
@ 14:31:
Was sind „bremsende“ Faktoren?
– Häufig Bilder, die besser komprimiert hätten werden sollen und
– Ad-Server, die das Werbematerial zu langsam ausliefern oder
– die googelsche YouTube-Einbettung, die den Seitenaufbau verlangsamt …
MDatze
on Jun 22nd, 2010
@ 19:48:
Das Problem bei Seiten mit langen Ladezeiten ist doch in der Regel, dass sie überfrachtet sind mit unnützem Kram und dementsprechend für den Nutzer nur auf den zweiten Blick einen Mehrwert darstellen. Viel wichtiger ist doch, dem Interessenten das Thema auf eine schnelle und interessante Art und Weise beizubringen, was durchaus mit der Ladegeschwindigkeit korreliert.
Google sagt ja auch nicht, dass die Geschwindigkeit des Ladevorgangs der Faktor Numero uno ist. Vielmehr ist es eine Mischung aus relevantem Content und einer vernünftig und validen HTML-Seite. Und ein Sachverständiger ohne Kenntnisse zu HTML wird sich sowieso einen an Land ziehen, der ihm die entsprechende Umgebung einrichtet…