• Datum: 24. Oktober 2008
  • Kategorie: seo-news

Webstandards – kaum jemand schert sich darum

Operas Markup Validation Report (MAMA) hat es gezeigt: deutlich unter 10 Prozent der Websites sind Standard-konform. Oder anders formuliert: Kaum jemand schert sich um die Standards, auch nicht die Entwickler von großen und bekannten Webdesign-Suites oder Content-Managament-Systeme. Und jetzt hat Googles Matt Cutts noch einen draufgesetzt und quasi seinen Segen dazu gegeben: Im gestrigen Webmaster-Chat erkläre er, dass Standardkonformität (oder die Abwesenheit der selbigen) keine Auswirkungen auf das Ranking einer Seite hat.

Es gibt also ganz offensichtlich viel wichtigere Dinge bei SEO zu beachten als die W3C-Regeln. Trotzdem ist es sicher kein Fehler darauf zu achten, dass man die Standards so weit einhält, dass die Suchmaschinen-Crawler überhaupt in der Lage sind, den Content der eigenen Seiten zu erfassen.

  • Kommentare: 1

Tags: , ,

  • Datum: 16. Oktober 2008
  • Kategorie: seo-news

Revival für Ipro-Blog: Internet-Magazin-Blog nimmt Tradition wieder auf

Nach dem traurigen Ende der Internet Professionell vor mehr als einem Jahr starb auch das Internet Professionell Weblog. Doch jetzt gibt’s quasi eine Wiederauferstehung: Als Chefredakteur des Internet Magazins habe ich gestern das offizielle Internet-Magazin-Blog WebPro gestartet. Ich hoffe mal, dass wir damit an die erfolgreiche Zeit des Ipro-Blogs anknüpfen können und Euch etwas Unterhaltung und Trends, vor allem aber Tipps zu Webdesign und Scripts sowie anderen Nützlichkeiten für Webmaster liefern können.

Tags:

  • Datum: 14. Oktober 2008
  • Kategorie: seo-news

Webmastertools zeigen Link-Quelle für „not found“

Darauf haben viel lange gewartet: Die Google Webmastertools zeigt jetzt endlich an, woher Links kommen, die auf nicht (mehr) existierende Seiten verweisen. Ebenfalls angezeigt wird, wieviele tote Links da sind.

Bisher gab’s nur die frustrierende Information, dass von irgendwoher ein Link beispielsweise auf ceterumcenseo.net/index.htm verwiesen (ärgerlich, denn mit der Endung „.htm“ gibt’s einen 404-Fehler). Die Fehlerquelle verschwieg Google aber. So war es ein großes Ratespiel, ob sich vielleicht sogar auf der eigenen Website ein fehlerhafter Link eingeschlichen hatte; ganz zu schweigen von externen fehlerhaften Links, denen man kaum auf die Spur kommen konnte.

Jetzt gibt’s umfassende Infos: Wieviele Links auf eine fehlende URL verweisen und vor allem, woher die Links kommt. Das nächste Wochenende wird für die Behebung von fehlenen Links draufgehen, also v.a. 301-Redirects für die von außen kommenden Link bauen und tote Links auf der eigenen Website eliminieren beziehungsweise korrigieren. Bei einer über 10 Jahre alten Website mit mehreren Serverumzügen und CMS-Wechseln wird as ein zeitaufwändiges Unterfangen.

TAGS: None

  • Datum: 24. September 2008
  • Kategorie: seo-news

Google gegen statische URLs

Der Beitrag „Dynamic URLs vs. static URLs“ im Google Webmaster Blog sorgt derzeit für helle Aufregung. Grund für die Aufregung und Verwirrung: Google empfiehlt, die URLs von dynamisch generiertem Content so zu lassen wie sie sind, mit all den kryptischen Parametern etc. Google rät ausdrücklich davon ab, per modrewrite gut lesbare, inhaltlich sinnmachende URLs für dynamischen Content zu generieren. Das widerspricht so ziemlich allem, was Google bisher zu diesem Thema gesagt hat und es widerspricht auch den Erfahrungen aller SEO-Experten.

Was könnte also der Grund für diese Webmaster-Blog-Beitrag sein?

Die Erklärung, die man aus dem Posting selbst herauslesen kann, wenn man will: Die Mehrheit der Webmaster implementiert fehlerhafte URL-Modifikationen, so dass Google Probleme hat, deren Seiten überhaupt zu indizieren. Provokativ formuliert könnte man sagen: „Lasst die Finger von modrewrite, wenn Ihr Euer Handwerkszeug nicht versteht.“ Unter dem Aspekt ist die Empfehlun nachvollziehbar: Lieber kraytische, hässliche URLs als gar keine Seiten im Google-Index. Allerdings finde ich diesen Rückschluss dann doch etwas kurz gedacht. Besser ist allemal, eine anständige URL-Modifikation zu programmieren. Denn niemand macht mir weiss, dass

http://www.domain.com/index.php?id=3098&p=389898293&v=fd3di3us3ofd

auch nur annähernd so User-freundlich sein soll wie

http://www.domain.com/meinprodukt-das-ich-verkaufe.html

Ich glaube, die Blog-Autoren bei Google haben nicht lange genug nachgedacht, bevor sie diesen Beitrag veröffentlicht haben. Sonst hätten sie deutlicher klar gestellt, was sie eigentlich meinen.

Trotzdem. Eine Sache können wir lernen: Offenbar gehen viele URL-Rewrite-Versuche gnadenlos in die Hose und die jeweiligen Webmaster merken’s noch nicht einmal. Also lieber nochmal ganz genau kontrollieren, ob die eigene Website unter diesem Aspekt wirklich fehlerfrei läuft. Nur weil ein Browser die Site vermeintlich fehlerfrei anzeigt, heißt das noch lange nicht, dass Google die Seiten auch indizieren kann.

  • Kommentare: 2

TAGS: None

© 2025 Franz Neumeier's "Ceterum Censeo" Blog. Alle Rechte vorbehalten.

Powered by Wordpress and Magatheme by Bryan Helmig.