• Datum: 24. April 2007
  • Kategorie: seo-news

Personalisierte Google-Results

Google geht bei personalisierten Suchergebnissen einen Schritt weiter. Gord Hotchkiss berichtet, dass Google begonnen hat, auch die über die Google Toolbar erfaßten Web-History-Daten für ein individuellere Auswahl der Suchergebnisse je User zu benutzen. Sei Beitrag Google Adds Your Click Path to Search Personalization beschreibt die Hintergründe ausführlich.

Spannend finde ich allerdings auch die Frage, was das für die Erfolgskontrolle bei der Suchmaschinen-Optimierung bedeutet. Denn stark personalisierte Suchergebnisse bedeuten zugleich, dass die Erfolgskontrolle von Optimierungs-Bemühungen sehr komplex wird. Bisher reicht es im einfachsten Fall, den gefragten Suchbegriff ins Suchformular bie Google einzutippen und zu schauen, wo die fragliche Webseite in den Ergebnissen auftaucht. Werden Suchergebnisse aber personalisiert nach dem Nutzungsverhalten und den thematischen Vorlieben des jeweligen Nutzers individuell gewichtet, wird die Ergebnissliste für jeden Nutzer anders aussehen. Einigermaßen feste, verläßliche Google-Results wären damit Geschichte.

Weniger schwierig aus die Meßbarkeit ist die Frage, wie man im Rahmen von ethischer und seriöseer Suchmaschinen-Optimierung mit dem Thema umgeht. Denn hier ist der Weg, wie so oft, relativ simpel: Optimiere Deine Website perfekt für Deine Zielgruppe. Die personalisierte Suche wird dann sogar zum Vorteil – vorausgesetzt, Google hat seinen Algorithmus im Griff.

Aber kann personalisierte Suche überhaupt funktionieren? 

Wenn ich mein Surfverhalten von gestern anschaue, kommen mir da aber erhebliche Zweifel. Kann personalisierte Suche überhaupt sinnvoll funktionieren? Angenommen, die Google Toolbar hat mich dabei beobachtet, wie ich über Hotscripts.com ein Script gesucht habe, das mir bei einem bestimmten Datenbankprojekt helfen soll. Dabei habe ich viele Websites zum Thema Datenbank-Scripts besucht, auf manchen dieser Sites mangels anständiger Präsentation jede Menge interner Links geklickt, bis ich irgendwann entnervt aufgegeben habe. Nichts von all den Scripts dort erfüllte meinen Zweck.

Wie soll Google aber herausfinden, ob ich diese Seiten so intensiv angeschaut habe, weil ich die Seiten spannend fand, oder weil ich verzweifelt gesucht, aber nichts gefunden habe? Für Spammer könnte diese Überlegung bedeuten: Baue Websites, die den User immer so weit bei der Stange halten, dass er nicht aufgibt, aber ihm doch nie wirklich gute Informationen liefert.

Das einzige, was Google aus meinem Verhalten ableiten konnte ist, dass ich mich an einem bestimmten Tag für Datenbank-Scripts interessiert habe. Eine magere Informationsausbeute, wenn ich am nächsten Tag nach einer günstigen Karibik-Kreuzfahrt suche (und zwar, weil mich meine Mutter darum gebeten hat, was für sie herauszusuchen) … Würde ich dann bevorzugt Kreuzfahrten abgeboten bekommen, bei denen ein MySQL-Kurs an Bord angeboten wird? Da wird meine Mutter sicherlich viel Spaß daran haben.

Personalisierung geht in der Regel von einem sehr einfach gestrickten Menschen, von einer sehr eindimensionalen Denkwelt aus. Personalisierung nimmt an, dass ein Mensch immer in den selben Schubladen denkt, immer ähnliches will. Ich bin überzeugt, das genau deshalb Personalisierung noch erhebliche Hüden zu überwinden hat, bis solche Konzepte wirklich einen höheren Nutzen für den Anwender bringen.

Tags:

  • Datum: 17. Februar 2007
  • Kategorie: seo-news

Ärger mit dem Google Supplemental Index?

Googles so genannter Supplemental Index („Zusätzliche Ergebnisse“) ist eines der großen Mysterien der SEO-Gemeinde und auch zahlreiche Experten-Diskussionen und vermeintliche Klarstellungen von Google haben bis heute wenig wirkliche Klarheit schaffen können.

Was ist der Supplemental Index? Es ist ein separater Seiten-Index, zusätzlich zu Googles Hauptindex, der immer dann automatisch mit durchsucht wird, wenn der Hauptindex zu einem Suchbegriff keine oder zu wenig Ergebnisse liefert. Der Supplemental Index ist eines der vielen Experiment von Google mit dem Ziel, bessere Suchergebnisse liefern zu können. Wirklich neu ist die Idee eines zweiten Index übrigens nicht, wie Searchengine Watch richtig feststellt. Schon Inktomi hat so etwas schon einmal ausprobiert.

Was bedeutet das für Webmaster und Suchmaschinen-Optimierer? Erst einmal nicht viel, denn es gibt keinen direkten Weg, Einfluß auf Google zu nehmen – ob es sich nun im den Supplemental oder den Main Index handelt.

Wie stelle ich fest, welche meiner Seiten im Supplemental Index sind? Es sind mehrer Abfrage-Formulierungen im Umlauf, die letztlich immer das selbe Ergebnis liefern. Beispielsweise site:www.meineseite.de –www oder site:www.meineseite.de *** –view auch bei Google listet die Seiten im Nebenindex auf.

Gibt es SEO-Tricks, um Googles Entscheidung zu beeinflussen, ob eine Seite im Haupt- oder im Nebenindex landet? Etwas Aufschluß darüber gibt das Googles Webmaster Help Center für den Main Index gelten offenbar strengere Kriterien bei der Auswahl der Seiten, die dort erfasst werden. Als Beispiel wird die Anzahl der Parameter in der URL genannt. Eine Auswirkung auf den Page Rank habe das aber nicht. Umgekehrt kann aber offenbar ein – aus welchen Gründen auch immer – sinkender Page Rank dazu führen, dass eine Seite vom Main in den Supplemental Index wandert. Matt Cutts nennt insbesondere qualitativhochwertige Inbound-Links um dem zu begegnen.
Allgemein wird angenommen, dass im Nebenindex Seiten landen, welche die üblichen Regeln für eine Suchmaschinen-optimierte Seite nicht erfüllen: beispielsweise mehrere Seiten mit den selben Meta-Tag-Einträgen, Duplicate Content, intern nicht mehr verlinke Seiten, etc. Eine ausführliche Liste der Fallen liefert Pandia Search Engine News.

Matt Cutts, Adam Lasnik und andere Google-Offizielle betonen immer wieder, dass es weder ein Alarmsignal noch eine Strafe oder sonst etwas Negatives ist, wenn Seiten in den Supplemental Index wandern. Fakt ist aber, dass eine Seite im Nebenindex deutlich weniger Traffic von Google erzeugt als eine Seite im Hauptindex.

Tags:

  • Datum: 12. Februar 2007
  • Kategorie: seo-news

Die Geheimnisse des King of Link Baiting

Heiße Überschriften sind, kurzgefaßt, das Wundermittel von SEO-Spezialist und Link-Bating-König Andy Hagan (Tropical SEO). Das wohl zur Zeit am wildesten diskutierte Thema der SEO-Szene ist Link Baiting, also die Frage, wie man es anstellt, mit möglichst wenig Aufwand möglichst viele eingehende Links (Inbound-Link) zur eigenen Website zu bekommen.

Als Knüller hat sich dabei etabliert, möglichst provokative, Aufmerksamkeit heischende Texte und mitreißende Überschriften zu produzieren. Die gute alte „Content is King“-Methode also. Nur in verschärfter Form. Andy Hagan hat jetzt in seinem Blog eine umfassende Link-Bating-Anleitung gepostet, die wirklich für jeden Suchmaschinen-Optimierer ein Leckerbissen ist. Auch wenn die ernüchternde Neben-Botschaft lautet: Link Bating ist harte Arbeit.

Andy zitiert in seinem Beitrag auch Copyblogger, der in seinem Beitrag „10 Sure-Fire Headline Formulas That Work“ ebenfalls ganz konkrete Rezepte für Linkbating veröffentlicht hat. Und natürlich in der Headline zu seinem Beitrag auch gleich die ganze Trickkiste für geniale Überschriften zur Anwendung bringt.

Andy Hagans Artiklen ist absolut lesenswert, ebenso Copybloggers Beitrag. Nicht jeder wird dadurch gleich zum Meister des Linkbating, aber es öffnet ganz sicher das ein oder andere Auge.

Eine kritische Anmerkung sei erlaubt: Als gelernter Journalist wundere ich mich, was da so alles als neuentdeckte Wunder-Weisheit verkauft wird. Auf den Punkt gebracht sind alle diese Tipps nichts anderes als ein Grundkurs in Journalismus. Themen zuspitzen, interessante neue Blickwinkel finden, knackig formulieren etc. Nichts Neues, und die Redakteure der Bild Zeitung, der Münchner Abendzeitung, der Berliner B.Z. oder des Kölner Express machen das in Reinstform jeden Tag, hundertfach. Nicht, dass man die platten Aussagen und oft weit von der Wahrheit entfernten Aussagen dort gut finden muss. Aber nüchtern als Handwerk betrachtet funktioniert das (fast) seit es Zeitungen gibt. (Die ersten Zeitungen legten Wert darauf, nicht zu werten, brachten alle Artikel mit gleichgroßen Überschriften und fortlaufendem Text. Dass man mehr Leser gewinnt, wenn man wertet, sortiert und auf klare Aussagen zuspitzt, merkten die Journalisten-Kollegen allerdings recht schnell. Seitdem sind gute Überschriften und geschickt gewählte Themen das Mittel Nr. 1 wenn es um den Verkauf der Zeitungen am Kiosk geht.)

Tags:

  • Datum: 6. Februar 2007
  • Kategorie: seo-news

nofollow bei Wikipedia – egal?

Das Thema hätte ich beinahe verschlafen … Wikipedia hat also beschlossen, in den englischsprachigen Bereichen Links mit dem nofollow-Attribut zu belegen, um Spam einzudämmen.

„Wen interessiert’s? Sowieso nur SEO …“ ist die Antwort bei Fridaynite.de. Könnte man so sehen, wenn es wirklich nur um Spambekämpfung ginge. Auch wenn sich die Maßnahme wohl kaum wirklich zu dem angestrebten Zweck eignet, wie Threadwatch.org richtig anmerkt.

Ich denke aber, Wikipedia schießt sich damit selbst ins Knie. Mal ganz ehrlich: Natürlich schreibe ich auch bei Wikipedia, und zwar weil ich die Links von dort zu meiner Website unter SEO-Gesichtspunkten für wertvoll halte. Ich mache das verantwortungsvoll, ohne Marketing-Geschwafel. Ich trage mein Fachwissen zu dem großen Wikipedia-Projekt bei. Ist es da wirklich unverschämt, zumindest eine kleine Gegenleistung zu erwarten? Eine Gegenleistung in Form eines Links zu einer Website, die dem Leser zu dem fraglichen Thema noch mehr Detailinfos liefert als der Wikipedia-Artikel selbst.

Wollen wir wirklich, dass Wikipedia zukünftig nur noch von Myvideo-Knallköpfen gefüllt wird, wo Knowhow und Content so schlecht ist, das es kaum etwas ausmacht, dass man alle Rechte daran für alle Zeiten abgibt und nichts dafür bekommt? Wer nämlich wirklich etwas Gutes zu bitten hat, wird tendenziell zuminest Anerkennung erwarten, und sei es nur in Form eines Links, der das eigene Renomee in der Online-Community fördert.

Ohne vollwertigen Wikipedia-Link keine Beiträge. Das werden viele denken und ihr Engagement einstellen.

Wem das jetzt klingt wie beleidigt und eingeschnappt, der hat wohl Recht. Aber wenn Wikipedia nichts besseres zur Spambekämpfung einfällt als faktisch die Guten zu bestrafen, dann scheint mir das Modell der kollektiven Intelligenz tot zu sein. Einen spannenden Artikel dazu gibt’s übrigens von Christoph Mayerl bei Perlentaucher: Warum Wikipedia mit dem NoFollow Link das Netz zerschießt.

  • Kommentare: 2

Tags:

© 2024 Franz Neumeier's "Ceterum Censeo" Blog. Alle Rechte vorbehalten.

Powered by Wordpress and Magatheme by Bryan Helmig.