• Datum: 4. Dezember 2007
  • Kategorie: seo-news

Paid Links, eine Geschichte der Missverständnisse

Google’s Matt Cutts fühlt sich offenbar selbst nach monatelangem Predigen immer noch missverstanden beim Thema Paid Links, zu deutsch: Gekaufte Links, bezahlte Textlinks, Text-Anzeigen. Schon 2005 („Text Links and PageRank„) machte er klar, dass die Suchalgorithmen bezahlte Links entdecken können und Google bezahlte Links nicht gut findet. Trotzdem kocht das Thema immer wieder hoch, wie jetzt wieder in einem Blog-Beitrag („Selling Links that pass PageRank„) bei Matt Cutts, in dem er Beispiele für problematische Kauf-Links präsentiert.

Selbst Randy Fishkin (SEOmoz) meldet sich heute wieder zu diesem Thema zu Wort („A Solution to the Paid Link Debate – Sponsored Editorials„) mit einem etwas windig klingenden Vorschlag, das Problem zu lösen.

Welches Problem eigentlich?

Bezahlte Links sind keine wirkliche Qualitätsempfehlung für eine andere Seiten. Die Links existieren nur, weil jemand dafür bezahlt. Warum sollte Google diese Links also berücksichtigen bei der Bewertung der Qualität einer Website? Googles Bewertung basiert stark darauf, wie viele (thematisch passende) Links auf eine Seite zeigen. Spam und andere Tricks verwässern diese Bewertung, also werden sie als negativ betrachtet.

Was offenbar gerne missverstanden wird: Google schreibt mit dieser Regel niemandem vor, dass er keine Links kaufen oder verkaufen darf. Google sagt lediglich, dass keine gekauften Links akzeptiert werden, die sich auf die Bewertung, auf den PageRank einer Website auswirken. Es gibt also ein ganz einfaches Gegenmittel: Gekaufte Links Google-konform als solche kennzeichnen, nämlich mit dem Attribute „rel=“nofollow“ oder einen internen Redirect über eine URL, die in der robots.txt vom Crawlen ausgeschlossen ist.

Dumm ist das nur für all diejenigen, die Paid-Link-Tricks für SEO benutzen. Beispiel: Blogger dafür bezahlen, dass sie thematisch passende Blog-Beiträge schreiben und dann – ganz zufällig – auf die Website des Auftraggebers linken, funktioniert damit nur als Traffic-Bringer, aber nicht mehr als Suchmaschinen-Optimierungs-Methode. Und wer das „nofollow“ vergisst, riskiert wegen Spam abgestraft zu werden. Zu Recht, wie ich finde.

Und ganz dumm ist es für einen ganzen Industrie-Zweig, der sich darauf spezialisiert hat, anderen Leuten hohe PageRanks für deren Webseiten zu versprechen, indem sie PageRank-Transfers via bezahlter Links vornehmen. Wer sich auf solche Spielchen jetzt immer noch einlässt, ist selbst Schuld.

Tags:

  • Datum: 11. August 2007
  • Kategorie: seo-news

Kursverfall der Währung „Inbound-Links“

Google wird sich schnell was Neues einfallen lassen müssen, denn die enorme Gewichtung von Inbound-Links als Messgrösse für die Relevanz und Bedeutung von Webseiten führt zunehmend zu unerträglichen Verzerrungen. Es ist wie im reale existierenden Kapitalismus: Die Reichen werden immer reicher, die Armen haben kaum noch eine Chance, egal wieviel sie leisten. In SEO-Sprache: Wer schon gute Pageranks und Ergebnisplatzierungen hat, kann das problemlos weiter ausbauen undsich dabei auch noch bequem zurücklehnen. Wer neu anfängt und kein großes Marketing-Budget hat, kriegt keinen Fuß auf den Boden.

Das Phänomen der nicht-Verlinkung
Wie ich zu diesem Schluß komme? Immer mehr große Websites hören auf, Links auf andere Websites zu setzen. Immer häufiger werden andere Websites im Text oder in Ergänzungskästen zwar genannt, aber nicht verlinkt:
„ceterumcenseo.net“ statt „ceterumcenseo.net„.

Besonders drastisch erlebe ich das im Moment mit einer brandneuen Website (www.save-the-delta-queen.org) – eine schnell wachsende Site zu einem topaktuellen Thema und auch mit viel Presse-Echo. Auf zahlreichen Tageszeitungs- und Fernsehsender-Websites in den USA wird über das Thema berichtet, nur Inbound-Links hat die Site nahezu keine. Grund: In fast allen Berichten auf anderen Websites wird www.save-the-delta-queen.org zwar erwähnt, aber eben nur als Text und nicht in Form eines Links.

Das ist fatal! Wie soll eine neue Website da jemals eine Chance bekommen? Erst recht eine Site mit brandaktuellem Thema? Und es ist auch für Google fatal! Denn wie soll die Suchmaschine zukünftig relevante Suchergebnisse ausspucken, wenn sie von solchen neuen Websites mangels Verlinkung nicht viel mitbekommt?

Was steckt dahinter? Bei vielen vermutlich nur die unsinnige Angst, Besucher an andere Sites zu verlieren, wenn man ihnen per Link die Möglichkeit dazu gibt. Obwohl, vielleicht ist die Angst auch berechtigt – wenn der eigene Content so schlecht ist, dass der User froh ist, etwas Anderes oder Besseres zu finden. Bei Vielen geht es aber auch um das bewußte Ausschließen möglicher Konkurrenz, das Kleinhalten von Mitbewerb.

Und da sind wir wieder beim Punkt: Die Großen und Reichen ruhen sich auf ihren Lorbeeren aus und Google merkt’s nicht, weil die Großen und Reichen keinen Zugang – sprich: Links – zu den vielleicht sehr guten Neuen ermöglichen.

Google, da ist was faul! Da besteht Handlungsbedarf weit über ein wenig Algorithmus-Schrauben hinaus!

  • Kommentare: 6

Tags:

  • Datum: 11. Mai 2007
  • Kategorie: seo-news

Warum Google immer nur die zweitbesten Such-Ergebnisse liefern wird

Ich habe mich immer gefragt, warum Suchergebnisse bei Google selten genau treffen sind. Ich meine, wirklich gute Suchergebnisse, die tatsächlich die besten Seiten zu dem gesuchten Thema liefern. In ein paar Spezialgebieten traue ich mir zu, die wirklich besten Websites zu kennen. Nur tauchen die bei Google selten in den Top-Ergebnissen auf. Statt dessen gibt’s lauwarmes Zeug, dass die meisten User zufrieden stellt – schon weil sie gar nicht wissen, was für geniale Sites sie verpassen, weil Google sie nicht anzeigt.

Als ich jetzt den Beitrag „Sorry, Folks: Link Building Is Just Harder Now“ bei Tropical SEO las, wurde mir plötzlich klar, wo das Problem liegt. Und es ist kein Google-Problem! Es ist mein ganz eigenes, persönliches Problem!

Andy Hagan jammert in dem Beitrag, wie schwierig es im Vergleich zu früher geworden ist, eine anständige Link-Struktur rund um die eigenen Sites aufzubauen, um sie bei Google beliebt zu machen, weil der Wettbewerb untereinander so groß geworden ist.

Mein erster Gedanke war: Macht Google da nicht was falsch? SEO-Experten machen sich Gedanken dazu, wie man natürliche Links erzeugen kann – wie paradox. Sollte Google da nicht schleunigst etwas am Algorithmus ändern und Links-Popularity nicht mehr so übermächtig stark gewichten?

Die Antwort ist, überraschend: Nein.

Eine Suchmaschine stellen wir uns aus den guten alten Altavista-Zeiten immer noch als Retter der Welt, als Detektiv im Datendschungel, als umfassender Archivar aller Websites vor. Was für romantischer Unfug!

Google’s Business-Ziel muss sein, die Masse der Suchanfragen brauchbar zu beantworten. Ob da die beste oder die erstbeste Website ganz oben steht, ist nicht wirklich wichtig. Entscheidend ist, dass der User schnell ein passables Ergebnis bekommen. Er weiß ja nicht, was er alles nicht bekommen hat. Haben die Massen jemals eine wirklich gute Entscheidung getroffen? Nein! Es sind immer mittelmäßige Ergebnisse. VHS vs. Betamax, um nur ein altkanntes Beispiel zu nennen.

Das traurige Fazit ist: Google-Ergebnisse werden nie die besten Ergebnisse liefern. Websites, die solchen hervorragenden Content anbieten, werden meist den Marketing-getriebenen, SEO-durchgestylten, finanzkräftigen Mittelmaß-Anbietern unterlegen sein.

Es sei denn, eine der ewig drittplatzierten Suchmaschinen geht einen konträren Weg, hechelt nicht der Google-Strategie hinterher, sondern konzentriert sich darauf, wirklich erstklassige Suchergebnisse zu liefern. Das Yahoo-Directory war einmal eine solch elitäre Adresse. Und das ziemlich erfolgreich. Warum nicht mit neuer Technik und einem vom Mainstream abweichenden Konzept durchstarten? Gebt Qualität eine Chance!

  • Kommentare: 5

Tags:

  • Datum: 6. Mai 2007
  • Kategorie: seo-news

Die 10 wichtigsten Faktoren bei der Suchmaschinen-Optimierung

Was beeinflußt das Ranking bei Google am meisten? Mit dieser Frage beschäftigte sich seomoz.org schon seit einiger Zeit und gab gerade Version 2 einer Umfrage unter SEO-Experten heraus: Eine Zusammenstellung der zehn wichtigsten Ranking-Faktoren, die fünf negativsten Faktoren und eine Liste der zehn am umstrittesten Aspekte der Suchmaschinen-Optimierung.

Nicht überraschend ist, dass der Title-Tag auf Platz 1 der wichtigsten Positiv-Faktoren landet. Wer unter Google schonmal nach „no title“ gesucht hat, weiß warum. Weil das inzwischen viele wissen, spielt jetzt aber auch eine Rolle, was im Titel-Tag steht – idealerweise eben wichtige Keywords.

Mich persönlich wundert aber Platz 2: Anchor Text of Inbound Links. Beziehungsweise was mich wundert ist, dass der Google-Algorithmus das offenbar so stark gewichtet. Denn das ist ein Faktor, den Website-Betreiber ja nur eingeschränkt beeinflussen können – beziehungsweise nur solche Webmaster direkt beeinflussen, die Dinge tun, die Google eigentlich nicht mag: Links kaufen, Links aktiv akquirieren, also Vieles, was eben nicht „natürliches Linken“ bedeutet. Wer den Dingen also seinen natürlichen lauf läßt, wird bei diesem Punkt benachteiligt, was nicht im Sinne von Google sein sollte.

Die anderen Faktoren sind allesamt natürlich bekannt und nachvollziehbar. Auffällig ist allein, dass Google offenbar nach wie vor extrem stark auf Link-Popularität in den verschiedensten Ausprägungen setzt, was ja in vieler Hinsicht nicht unproblematisch ist. Neue Methoden für eine intelligente Bewertung von Websites sind hier gefragt.

Die 5 Negativ-Faktoren

Kaum genug betonen kann man einen Aspekt, der hier vorkommt: Der Title-Tag. Immer noch achten viele Webmaster nicht darauf, dass jede Page ihren eigenen, aussagekräftigen, zum Thema der Seite passenden Title-Tag bekommt. Zu oft steuern CMS automatisch einen Standard-Title-Tag ein, der dann unbeachtet bleibt und zu gravierenden Nachteilen führt.

Controversal Factors

Am spannendsten liest sich die Liste der meistdiskutierten Aspekte. Greift Google manchmal manuell in das Ranking ein? Verursacht es Probleme, wenn man zu viele neue Seiten gleichzeitig online nimmt? Spielt es eine Rolle, wie oft eine Site über die Google-Suche gesucht wird?

 Alles in allem eine sehr spannende Umfrage, die es sich komplett zu lesen lohnt. Für kontroverse Diskussionen bietet sie jedenfalls Stoff für Monate.

Tags: ,

© 2020 Franz Neumeier's "Ceterum Censeo" Blog. Alle Rechte vorbehalten.

Powered by Wordpress and Magatheme by Bryan Helmig.