• Anzeige

Google aktualisiert technische Richtlinien

Schon vor Wochen haben wir Webmaster die Nachricht bekommen, dass Google zukünftig Javascript und CSS besser erfassen kann. Gestern gab es dazu nun endlich auch eine Meldung auf dem Google Webmaster-Zentrale Blog: Aktualisierung der technischen Richtlinien für Webmaster. Was sich dahinter verbirgt, möchte ich kurz in eigenen Worten verraten.

Javascript und CSS sollen nun für den Bot zugänglich sein

Die wohl wichtigste Botschaft ist, dass Javascript, CSS-Dateien sowie Bilddateien nun für den Google Crawler zugänglich sein sollen.

Viele werden sich jetzt sicherlich fragen, warum das so ist? Wohl die wenigsten von uns werden genau diese Sachen per robots.txt ausgeschlossen haben. Ich persönlich hab das auch nie getan.

Früher war es aber so, dass der Bot die Daten zum Teil nicht richtig zuweisen konnte und es deshalb Probleme bei der Bewertung gegeben hat. Außerdem schont man die „Ladezeit“, wenn man den Crawler eben nicht über solche Dateien laufen lässt. Letztlich sind sie ja nur für die Darstellung dar.

Warum sollte man den Zugriff erlauben?

Google will mittlerweile die Website als Ganzes erfassen und dazu gehört eben auch das Drumherum. Javascript und Co. sind fester Bestandteil von heutigen Websites. Google will nun alles sehen und hat aufgrund dessen die Richtlinien angepasst. Wer den Zugriff nicht zulässt, muss mit schlechteren Rankings in den SERPs rechnen, so die Aussage im Blog. Hier das Original:

Wenn ihr das Crawling von JavaScript-oder CSS-Dateien in der robots.txt-Datei eurer Website nicht zulasst, wirkt sich dies unmittelbar auf die Darstellung und Indexierung eurer Inhalte durch unsere Algorithmen aus und kann zu schlechteren Rankings führen.

Was sind die Schlussfolgerungen daraus?

Ich für mich ziehe daraus das Fazit, dass die Ladegeschwindigkeit einer Website noch wichtiger geworden ist. In den Tipps für die optimale Indexierung  wird nämlich genau dieser Punkt nochmals angesprochen.

Außerdem muss jetzt noch genauer darauf geachtet werden, wie man mit Javascript und Co. umgeht. Eine saubere Programmierung und Verwendung wird somit immer wichtiger.

Um zu wissen, ob alles vom Bot erfasst werden kann, hat Google die Abfrage „Abruf wie durch Google“ in den Webmaster Tools angepasst. Mithilfe des Tools kann man viele Indexierungsprobleme sofort erkennen und anschließend beheben.

Wer will, kann sich die Technischen Richtlinien von Google hier nochmals im Detail ansehen.

Weitere Infos zu den Änderungen findet ihr auch bei:

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.