Ich habe mich immer gefragt, warum Suchergebnisse bei Google selten genau treffen sind. Ich meine, wirklich gute Suchergebnisse, die tatsächlich die besten Seiten zu dem gesuchten Thema liefern. In ein paar Spezialgebieten traue ich mir zu, die wirklich besten Websites zu kennen. Nur tauchen die bei Google selten in den Top-Ergebnissen auf. Statt dessen gibt’s lauwarmes Zeug, dass die meisten User zufrieden stellt – schon weil sie gar nicht wissen, was für geniale Sites sie verpassen, weil Google sie nicht anzeigt.
Als ich jetzt den Beitrag „Sorry, Folks: Link Building Is Just Harder Now“ bei Tropical SEO las, wurde mir plötzlich klar, wo das Problem liegt. Und es ist kein Google-Problem! Es ist mein ganz eigenes, persönliches Problem!
Andy Hagan jammert in dem Beitrag, wie schwierig es im Vergleich zu früher geworden ist, eine anständige Link-Struktur rund um die eigenen Sites aufzubauen, um sie bei Google beliebt zu machen, weil der Wettbewerb untereinander so groß geworden ist.
Mein erster Gedanke war: Macht Google da nicht was falsch? SEO-Experten machen sich Gedanken dazu, wie man natürliche Links erzeugen kann – wie paradox. Sollte Google da nicht schleunigst etwas am Algorithmus ändern und Links-Popularity nicht mehr so übermächtig stark gewichten?
Die Antwort ist, überraschend: Nein.
Eine Suchmaschine stellen wir uns aus den guten alten Altavista-Zeiten immer noch als Retter der Welt, als Detektiv im Datendschungel, als umfassender Archivar aller Websites vor. Was für romantischer Unfug!
Google’s Business-Ziel muss sein, die Masse der Suchanfragen brauchbar zu beantworten. Ob da die beste oder die erstbeste Website ganz oben steht, ist nicht wirklich wichtig. Entscheidend ist, dass der User schnell ein passables Ergebnis bekommen. Er weiß ja nicht, was er alles nicht bekommen hat. Haben die Massen jemals eine wirklich gute Entscheidung getroffen? Nein! Es sind immer mittelmäßige Ergebnisse. VHS vs. Betamax, um nur ein altkanntes Beispiel zu nennen.
Das traurige Fazit ist: Google-Ergebnisse werden nie die besten Ergebnisse liefern. Websites, die solchen hervorragenden Content anbieten, werden meist den Marketing-getriebenen, SEO-durchgestylten, finanzkräftigen Mittelmaß-Anbietern unterlegen sein.
Es sei denn, eine der ewig drittplatzierten Suchmaschinen geht einen konträren Weg, hechelt nicht der Google-Strategie hinterher, sondern konzentriert sich darauf, wirklich erstklassige Suchergebnisse zu liefern. Das Yahoo-Directory war einmal eine solch elitäre Adresse. Und das ziemlich erfolgreich. Warum nicht mit neuer Technik und einem vom Mainstream abweichenden Konzept durchstarten? Gebt Qualität eine Chance!
wingthom
on Mai 22nd, 2007
@ 13:51:
Google (und andere Suchmaschinen) haben doch diesen Umstand, dass es Experten für bestimmte Themen gibt, die andere Treffer als die „breiten Massen“ bevozugen, in ihrem Design berücksichtigt.
A9 hat es erfolgreich in einer Nische realisiert, Ask.com versucht Reichweite damit zu generieren (wird aber nach meinem Eindruck nicht richtig verstanden) und Google verkauft – noch – das kooperative Modell http://www.google.com/coop/ unter Wert.
Evt. darf ich ja Ihre Forderung nach einer neuen Suchmaschine umformlieren zu: „nutzt Coop, um spezielle Suchmaschinen für unterschiedliche Richtungen zu etablieren“.
lg
wingthom
Pascal
on Mai 22nd, 2007
@ 16:09:
Ein Beispiel einer guten Seite, die Google nicht zuvorderst anzeigt, wäre gut gewesen. So ist dieser Artikel für mich nur eine theoretische Abhandlung. Ausserdem ist „gut“ sehr relativ (die eigene Seite ist natürlich immer die Beste und ungerechterweise bei Google nicht ganz vorne).
Ich denke, Google macht einen guten Job, ausser bei produktebezogenen Suchbegriffen, dort kommen meistens ebay und andere Seiten zuvorderst. In diesem Fall ist aber wikipedia eine gute Alternative.
Franz Neumeier
on Mai 22nd, 2007
@ 17:04:
>“nutzt Coop, um spezielle Suchmaschinen
>für unterschiedliche Richtungen zu etablieren”.
Das ist ganz sicher ein sehr guter Ansatz von Google. Ehrlich gesagt glaube ich sogar, dass Google da durchaus eigennützige Hintergedanken in Hinblick auf Suchergebnis-Verbesserung hat. Fachleute (zwar selbsternannt, aber immerhin) bauen themenbezogene Gruppen von Websites auf, die Google durchaus aus human-engineered für die eigenen Zwecke benutzen kann. Jedenfalls solange, bis Spammer entdecken, dass es etwas bringt, Coop-Suchmaschinen aufzumauen, die vollgestopf mit Spam-Site sind ;-)
Franz Neumeier
on Mai 22nd, 2007
@ 17:08:
@Pascal: Ich mache Google ja gar keinen Vorwurf. Business ist eben so. Insofern stimmt das schon, meine Gedanken sind eher theoretischer Natur.
>die eigene Seite ist natürlich immer die Beste und
>ungerechterweise bei Google nicht ganz vorne
Das ist eh‘ klar ;-) Nein, ernsthaft: Mir ist wirklich schon oft aufgefallen, dass man nach langem Recherchieren tolle Websites zu einem Thema findet, die Google einfach nicht (unter den ersten 30-50 Ergebnissen) liefert.
wingthom
on Mai 23rd, 2007
@ 10:13:
Durch Coop-Upload von Links ist natürlich prinzipielll „Spam“ möglich, aber dieser erreicht ja – im Gegensatz zum Index-Spam nur die Abonnenten der Subscribed Links.
Damit löst sich auch das Problem, das Pascal beschrieben hat.
Für sehr viele Nutzer sind eBay, Amazon und Preisvergleicher kein Spam, wenn sie produktbezogen suchen. Und wer diese Anbieter nicht vorne sehen will, kann sich ja eine Costum Search Engine konfigurieren, die diese wegfiltert oder ganz hinten listet. Bohrt man sich diese CSE dann mit eigenen und ausgewählten „fremden“ Subscribed Links auf, hat man recht schnell eine aus eigener Sicht spamfreie Suchmaschine.