Juhuu, ein neuer SEO-Thread
Ich zweifele gänzlich am Sinn einer,
speziell für den Fall google-CMSimple, XML-Sitemap.
Sie beeinflusst nicht das Ranking. Die so schönen Metadaten werden SEO-mäßig ignoriert wie auch schon die klassischen Meta-Tags im Seiten-Head...
Einziger Zweck ist die
vermeintlich schnellere Indexierung.
Wenn die Seite aber gut strukturiert ist und die Verschachtelungsebenen recht flach sind, findet der Robot auch schnell alle Verlinkungen.
Für die meisten CMSimple-Seiten, die in der Regel auch nicht hunderte von Unterseiten haben, gilt oben genanntes.
Wie weit da schon die integrierte Sitemap-Funktion helfen kann, ist mir unbekannt. Auf jeden schadet sie nicht und Google empfiehlt eine Sitemap für User bereit zu stellen.
Ein manuelles übermitteln der URL an google
kann auch etwas helfen, den Bot schneller in die richtige Richtung zu schicken.
Und wenn ich nun eine ganz versteckte und neue Unterseite unbedingt schnell im Index haben will, dann bookmarkt man sie bei einem bekannten und seriösen Bookmark-Dienst. Das dauert dann oft nur Stunden, bis die Seite im Index auftaucht.
Wer nun, wie Maartin, eine versteckte Seite mit SEO-Inhalten in eine XML-Sitemap packt,
kann vielleicht den Bot überlisten und die Seite in den Index bringen. Für die eigene Seite wird die Aktion aber das Ranking kaum beeinflussen, denn die ach so blöden Backlinks fehlen.
Und macht man das um eine andere Seite/Domain zu puschen, dann ist das ganz klar "Black-Hat".
Aber auch im ersten Fall ist das mindestens "Grey-Hat", denn du verstößt gegen die erste aller Regeln und bietest dem Bot andere Inhalte als dem Besucher an.
Maartin wrote:Wir sprechen hier nicht über "black hat" oder dergleichen, sondern "white hat", also alles Sachen, die Google nicht abstraft.
Deine Definition von "White Hat" finde ich cool: nur weil google es (noch) nicht abstraft, ist es noch lange nicht "white" (siehe ersten Grundsatz oben).
Ein gutes Beispiel ist das <noscript> - Tag. Lange Zeit konnte man dem Bot damit Inhalte unterjubeln die der Besucher mit JS nicht sehen konnte. Das hat google ja auch abgestellt und das Verfahren ist ganz klar "black".
Auch die Content-Generierung ist bei CMSimple nicht "dynamisch genug" (kein Ajax etc.) um auf XML-Sitemaps zurück greifen zu müssen. Selbst so "böse" URLs wie von AdvancedNews (RealBlog):
http://www.seite.tld?News&id=xxx
werden anstandslos indexiert und auch gefunden, denn die Newsseite sorgt ja für die Verlinkung...
Aber Schaden verursacht die XML-Datei auch nicht....
Jedenfalls nicht, wenn man damit nicht manipulieren möchte...
Holger