Guten Morgen,
ich habe mich jetzt mal noch im Google-Forum erkundigt.
Anscheinend werden die Links auf unsere Site von folgendem Befehl in der Robots.txt von modified eCommerce Shopsoftware eingeschrenkt:
Disallow: /*XTCsid
Damit kommt der Google-Bot wohl nicht so richtig klar, zwar hat mir der Google-Mitarbeiter geschrieben, dass diese IDs eigentlich auch nicht alle von google gelistet werden sollen, aber dieser Befehl verursacht wohl die Einschänkung, daher soll ich wie folgt vorgehen:
(Zitat von Google)
Hallo Hannes!
Der Wert von XTCsid beinhaltet doch so etwas wie eine Session Id, die für jeden Besucher individuell ist, oder?
Dann sollten solche URLs in der Tat nicht von Google aufgenommen werden, sondern nur die Basis-URL (gerne auch mit anderen Parametern), die einzigartiger sein sollte (das heißt: nicht mehrere URLs für den selben Inhalt).
Da könnte eventuell das Canonical-Meta-Tag helfen, siehe Referenz [1] oder [2] als Beispiel zum XT-Commerce-Shop.
Ich nehme an, Dein Ziel ist es nicht, alle URLs mit dem XTCsid vom Crawlen auszuschließen, sondern nur die Version ohne diesen Parameter in den Index kommen zu lassen. Ich würde das an Deiner Stelle einbauen und die Sperre in der robots.txt entfernen, sonst bekommt Google das canonical-Tag gar nicht erst zu sehen.
Habe mir die Infos zu diesem Tool zwar durchgelesen, allerdings kenne ich mich in diesem Gebiet nicht besonders gut aus, verstehe irgendwie immer noch nicht was dieses
"Canonical-Meta-Tag" Tool genau macht.
Kennt jemand vielleicht dieses Tool? Kann ich das bei modified eCommerce Shopsoftware einfach einbinden?
Was genau passiert dann?
Gruß
Hannes