• Datum: 26. Juli 2007
  • Kategorie: seo-news

unavailiable_after – Verfallsdatum für Webseiten

Google führt offenbar einen neuen Meta-Tag ein, der es erlauben wird, Content ein Verfallsdatum zu geben. Das berichtete HighRankings.com. Diese News ist zugegebenermaßen nicht mehr ganz taufrisch, aber inzwischen gibt es mehr Details dazu.

Mit dem Meta-Tag unavailable_after lassen sich dann Seiten mit einem Datum versehen, nach dem der Content nicht mehr indiziert werden soll. Wie Searchengineland inzwischen berichtete, sieht die genaue Syntax so auf:

<META NAME=“GOOGLEBOT“ CONTENT=“unavailable_after: 23-Jul-2007 18:00:00 EST“>

Kritik kommt derweil schon von Clickz Networks Erik Dafforn (How ‚unavailable_after‘ Should (But Won’t) Be Used). Er bezweifelt zumindest den Nutzen für den Suchmaschinen-User, weil der Tag die Suchergebnisse lediglich verzerrt, aber nicht verbessert – schließlich müßte jeder Webmaster sich strickt daran halten, den Tag für vergängliche Seiten und Informationen auch tatsächlich einzusetzen.

Trotzdem: Für Webmaster scheint mir der Tag sehr sinnvoll und interessant zu sein, beispielseweise um für Forenbeiträge, die etwas nach 3 Monaten automatisch gelöscht werden, die ständigen Fehlermeldungen (page not found) in den Google Webmastertools zu vermeiden – einfach weil Google keine 404-Errors bekommt, sondern rechtzeitig erfährt, wann eine Seite nicht mehr relevant sein wird.

Tags:

  • Datum: 25. Juni 2007
  • Kategorie: seo-news

title-tag made by Google – revisited –

Das Ergebnis des Experiments kam schneller als erwartet: Google scheint sich zunächst offenbar wirklich nicht am Fehlen des title-tags zu stören. In beiden getesteten Fällen nimmt Google die Überschrift des Textes (<h1>-tag) als Titel im Ergebnislisting und den Textabschnitt, in dem das Keyword das erste Mal im Text vorkommt, als Beschreibung.

Soweit, so gut – allerdings war dieses Listing nur für einen Tag vorhanden. Danach liefert die Suche nach „Lachaffenbananen“ und „Landmauskirsche“ wieder null Ergebnisse. Auch der ursprüngliche Blog-Beitrag, der zumindest ja das Keyword „Lachaffenbananen“ enthält und dementsprechend auch als Suchergebnis gelistet war, taucht nun nicht mehr als Suchergebnis auf. Diese Seiten waren also kurz in Index und den Suchergebnissen, sind dann aber offenbar wieder rausgeflogen.

Statt über die Ursachen zu spekulieren warte ich jetzt erst einmal etwas ab – ob die Seiten wieder auftauchen und was mit diesem Beitrag hier passiert, der die fraglichen Suchwörter ebenfalls enthält. Sollte Google vielleicht einen Wörterbuch-Check machen und nur Keywords akzeptieren, die vermeintlich „echte“ Wörter sind? Eher unwahrscheinlich – aber vielleicht doch, mit zwischengeschalteter Sandbox? Ich bin gespannt, wie sich das entwickelt.

  • Kommentare: 9

Tags:

  • Datum: 20. Juni 2007
  • Kategorie: seo-news

title-tag made by Google

Der <title>-tag wird häufig als wichtigstes Element der Onsite-Suchmaschinenoptimierung bezeichnet – vielleicht zu Unrecht! Ein Kollege erzählte mir gestern von interessanten und erfolgreichen Experimenten, den title-tag in Dokumenten einfach komplett wegzulassen.

Der title-tag ist das Element, mit dem der Autor bestimmt, mit welcher Überschrift seine Seite in den Suchergebnissen gelistet wird. 1,75 Millionen Seiten wirf Google bei der Suche nach „no title“ aus, was in diesem Zusammenhang immer gerne als Argument herangezogen wird. Doch die „no title“-Suche wirf lediglich Seiten aus, die eben doch einen title-tag haben – nur eben den von Website-Editoren voreingestellten <title>no title</title>.

Das komplette und bewußte Weglassen des title-tagts dagegen hat nach den Erfahrungen des Kollegen dagegen den Effekt, dass Google offenbar aus dem Seiten-Content selbständig sogar ziemlich intelligente Titel ermittelt. Das klingt einerseits wie eine verwegene Behauptung, könnte andererseits aber genial sein – Google ermittelt das optimale Keyword für eine Seite selbst und verwendet es als Titel in den Suchergebnissen.

Um das zu testen, habe ich jetzt einfach einmal zwei Seiten mit nicht wirklich sinnvollem Inhalt gebaut, denen allensamt eines gemeinsam ist: <title> fehlt. Damit Google die Seiten schnell findet, verlinke ich sie von hier aus – und dann bin ich gespannt, ob sich die Erfahrungen des Kollegen reproduzieren lassen.

Zunächst eine Seite mit nicht Context-bezogenem Linktext und einem nichtssagenden Dateinamen, damit Google hier keine Anhaltspunkte bekommt. Und als Zweites ein Dokument mit Linktext, der sich auf den Inhalt bezieht und mit einem passenden Dateinamen – auf der Seite geht es um den unsinnigen Begriff Lachaffenbananen. Auf beiden Seiten habe ich darauf geachtet, dass das jeweilige Thema nicht als häufigstes Wort im Text vorkommt, um es Google nicht zu leicht zu machen. Natürlich könnte man noch mehr Varianten ausprobieren, aber für ein erstes Experiment reicht das erst einmal.

Sobald Google die Seiten indiziert hat, gibt’s hier den Bericht dazu. Ich bin gespannt auf den Ausgang des Experiments. Und wie man das Ergebnis dann auch sinnvoll nutzen kann.

  • Kommentare: 4

Tags:

  • Datum: 1. Mai 2007
  • Kategorie: seo-news

Duplicate Content: mit oder ohne „www“

Ist es schlimm, wenn eine Website sowohl unter „domain.de“ als auch unter „www.domain.de“ erreichbar ist und dabei die selben Seiten ausliefert? Ja, ist es. Aber nicht so schlimm, wie häufig geschrieben wird.

Fakt 1: www.domain.de ist eine Subdomain zu domain.de, auch wenn dass www. ein Quasi-Standard für HTML-basierten Content im Internet ist. Technisch ist www.domain.de also etwas anderes als domain.de.

Fakt 2: Die meisten Webhoster unterscheiden nicht zwischen den beiden Formen und leiten User auf immer den selben Content, egal, ob das www. da ist oder nicht.

Fakt 3: Suchmaschinen mögen Duplicate Content nicht. Als Duplicate Content wird grundsätzlich alles bezeichnet, was unter verschiedenen URLs gleichen oder sehr ähnlichen Content liefert. Der Ansatz der Suchmaschinen ist hier durchaus sinnvoll: Warum sollten sie den gleichen Content mehrfach erfassen? Schließlich geht es darum, dem Suchmashcinen-Benutzer Informationen zu liefern. Da reicht es, wenn man eine Info auch nur einmal speichert.

Fakt 4: Duplicate Content führt nicht automatisch zu einer Abwertung einer Website. Was bei diesem Thema gerne übersehen wird: Außer in Fällen, wo identischer Content gezielt und massiv zum Spamming eingesetzt wird, wirkt sich Duplicate Content nicht zwingend negativ auf das Ranking einer Seite aus. Vielmehr erfassen Suchmaschinen meist das erste Vorkommen von Content und ignorieren weitere, spätere Vorkommen des selben Contents. Sonst wäre es ja auch ein Leichtes, das Ranking etablierter Websites kaputt zu machen, indem man einfach deren Content kopiert und massenhaft auf anderen Sites publiziert.

Fakt 5: Der Webmaster hat keinen Einfluß auf die Suchmaschinen-Crawler. Das bedeutet, die Crawler gehen ihren Weg, ohne Rücksicht darauf, ob der Webmaster ihn lieber auf der Website-Variante mit oder ohne www. sehen würde. Im unangenehmsten Fall erfaßt der Crawler die gesamte Site primär ganz bunt gemischt, mal mit und mal ohne www. und betrachtet die jeweils andere Hälfte als Duplicate Content.

Wie läßt sich also www. in den Griff bekommen?

Um sicher zu gehen, dass nicht Teile der eigenen Website ignoriert werden, gibt es einen einfachen Weg, das www. vor der Domain zu erzwingen: Alle Anfragen werden per .htaccess-Datei per PermanentRedirect (error code 301) auf die www.-Variante weitergeleitet.

Dazu legen Sie im Document-Root-Verzeichnis der jeweiligen Domain eine neue Datei an, die den Namen .htaccess trägt und folgenden Inhalt hat (oder ergänzen eine schon vorhandene .htaccess):

RewriteEngine On
RewriteCond %{HTTP_HOST} !^www.meinedomain.de$
RewriteRule ^(.*)$ http://www.meinedomain.de/$1 [L,R=301]
„meinedomain.de“ ersetzen Sie dabei natürlich durch Ihre eigene Domain. Außerdem muss der jeweilige Hoster die Nutzung der .htaccess zulassen, weil das Ganze sonst naturgemäß ins Leere läuft.

Wer mit WordPress arbeitet, kann sich die Sache mit einem Plugin noch einfacher machen: die Plugins no www. Plugin und enforce www. Plugin läsen das Problem automatisch. Gefunden bei seo-radio.de.

Stellt sich noch die Frage, warum Google & Co nicht in der Lage sind, das www.-Problem selbständig zu erkennen und zu ignorieren. Zum einen scheint das bei Google inzwischen bis zu einem gewissen Grad der Fall zu sein. Zum anderen wäre es aber durchaus problematisch für Fälle, wo ein Webmaster www. bewußt als Subdomain einsetzt und dort eben wirklich anderen Content ausliefert. Technisch betrachtet entspricht das den Regeln und es wäre unfair, ihn dafür zu bestrafen. Abr wer schlau ist, läßt einfach dei Finger von solchen Varianten, beugt sich dem Druck der Massen und verwendet als echte Subdomain eben etwas anderes als www.

  • Kommentare: 5

Tags:

© 2024 Franz Neumeier's "Ceterum Censeo" Blog. Alle Rechte vorbehalten.

Powered by Wordpress and Magatheme by Bryan Helmig.