• Anzeige

Meine Erfahrungen mit OnPage.org Teil II

Kürzlich habe ich über meine ersten Erfahrungen mit OnPage.org geschrieben. Jetzt sind nun 14 Tage vergangen. Zeit in der ich meine Website auf Vordermann bringen konnte. Wie weit ich dabei gekommen bin und welche Auswirkungen das für Google hat, möchte ich euch nun zeigen.

Verbesserung des Gesamt-Optimierungsgrades

Bildschirmfoto 2015-06-12 um 12.02.45Wie ihr vielleicht noch wisst, werden im Dashboard bei OnPage.org vier Optimierungslevel dargestellt. Für jedes Level kann man max. 100 Punkte bekommen.

Vor den Anpassungen hatte ich im ersten Level 84 von 100 möglichen Punkten bekommen. Wie ihr nun rechts seht, konnte ich den Status auf 95 Punkte verbessern.

Jedes Level bin ich durchgegangen und habe mir die „Problemfälle“ angesehen und diese bearbeitet.

Insgesamt liegt nun mein Optimierungsgrad bei: 87% (vorher waren es 83%). Das scheint vielleicht nicht sonderlich viel zu sein, aber ich finde, es ist schon eine ganze Menge.

Im Folgenden möchte ich euch kurz zeigen, was ich gemacht habe und auch was ich NICHT gemacht habe.

Headlines, Titles & Co.

Wer mich kennt, der weiß, dass ich weder programmieren noch templaten oder sonst irgendwas in dieser Richtung, machen kann. Dennoch probiere ich so viel wie möglich aus und hab mich auch hier einfach  mal an die Headlines herangewagt.

Bei den Headlines war das Problem, dass die Hauptnavigation gleichzeitig die H1 war. Eigentlich macht man sowas nicht mehr und ich kann es auch keinem empfehlen. Und dennoch war es so definiert. Ich bin also ins Template gestiefelt und habe die H1 aus der Navigation rausgenommen.

Ab sofort sind die Headlines der Artikel die H1. Das einzig Dumme ist nun, dass mir die H2 verloren gegangen ist. Denn irgendwo ist eine H3 fest definiert. Leider hab ich diese noch  nicht gefunden, weshalb die Struktur der H-Tags momentan nicht sauber ist. Das scheint das Tool aber nicht sonderlich zu stören. Hier hätte ich mir zumindest einen Hinweis gewünscht 😉

Neben den Headlines wurden auch die Länge von Title und Description bemängelt. Dies zu beheben war relativ einfach, weil das CMS schnelle Anpassungen möglich macht. Allein durch die Anpassung dieser drei Punkte konnte ich die 95 Punkte in diesem Level erreichen. War also relativ easy 😀

Fehlende Sitemap & Duplikate

Im zweiten Level hatte ich auch vorher schon relativ viele Punkte gemacht. Lediglich der Punkt Sitemap stand hier ganz oben auf der Optimierungsliste. Da ich aber für diese Website keine Sitemap habe und auch in der nächsten Zeit keine einbauen werde (aus technischen Gründen), kann ich diesen Punkt nicht umsetzen.

Ich finde es zwar gut, dass auf eine Sitemap eingegangen wird. Immerhin empfehle ich die auch immer. Jedoch wäre es mir lieber gewesen, wenn dieser Punkt nicht ganz so viel Gewicht in der Bewertung hätte. Es hätte ja auch sein können, dass ich die Sitemap in Google Webmaster Tools (jetzt Search Consol) eingetragen habe. Dann wäre sie ja vorhanden, nur eben nicht für das Tool von OnPage.org.

Was ich jedoch gut finde, wenn das Tool eine Sitemap findet, einem sagt ob auch wirklich alle URLs darin enthalten sind, oder nicht. Es kann ja sein, dass aus welchen Gründen auch immer, eine URL nicht mit drin ist, die aber drin sein sollte. Fehler kann man so relativ schnell entdecken.

Bildschirmfoto 2015-06-12 um 12.18.42

Zusätzlich zeigt mir OnPage.org an, ob ich Titles und Descriptions doppelt verwende. Die Funktion kennt ihr sicher aus den Webmaster Tools. Doppelte Titles können ein Hinweis auf doppeltem Content sein, genauso wie doppelte H1, die übrigens auch  mit dem Tool ermittelt werden können.

Bilder, Ladegeschwindigkeit & URLs

Im dritten Level habe ich mich dann mit der Optimierung meiner Bilder beschäftigt. Hier ging es z. T. um Banalitäten, wie den Alt-Tag. Allein diese Kleinigkeiten brachten mir schon einige Punkte.

Bildschirmfoto 2015-06-12 um 12.25.34

Deutlich schwieriger ist die Verbesserung der Ladegeschwindigkeit. Diese wird insgesamt vom Tools als sehr gut bewertet. Jedoch gibt es einige Seiten, dessen „Time to First Byte“ relativ hoch ist. Um dieses Problem zu beheben, könnte ein neuer Server helfen. Allerdings werde ich ihn mir nicht wegen ein paar Prozentpunkte holen.

Ein weiterer Optimierungspunkt waren die URLs. Diese sind zu lang und könnten sich negativ auf die CTR in den SERPs auswirken.

Ich habe hier eine Gartenwebsite und diese befülle ich hauptsächlich mit Artikeln zu Longtail-Keywords. So entstehen schnell lange URLs. Außerdem versuche ich eine klare Struktur für den User zu schaffen, wobei auch Unterverzeichnisse eine Rolle spielen.

Bildschirmfoto 2015-06-12 um 12.28.37Da ich mir was bei meiner Struktur gedacht habe, werde ich sie so schnell auch nicht ändern. Egal, ob das Tool das kritisiert oder nicht. Und wenn ich mir die Klickfpade (s. rechts) ansehe, dann weiß ich , dass ich alles richtig gemacht habe 🙂

Mehrfache Links, verwaiste Seiten und Canonical

Zu guter Letzt habe ich mich mit den „Experten Optimierungsfaktoren“ beschäftigt. Hierzu gehören u. a. die mehrfach verwendeten Links. Diese tauchen auf allen Übersichtsseiten, wie z. B. der Startseite auf. Jeder hier aufgelistete Beitrag enthält drei Links:

Dein_Gartenblog_mit_nützlichen_Tipps_-_Garten_FreizeitDiese 3 Links sind ganz bewusst so integriert worden. Ich habe sogar höchst persönlich darum geben. Denn ich hasse nichts mehr, als wenn ich auf ein Beitragsbild oder eine Headline klicke und dort nichts passiert. Es würde mich wahnsinnig machen, wenn nur hinter dem grünen Button ein Link stecken würde. Bevor ich zum Artikel gelangen würde, wäre ich wahrscheinlich schon längst abgesprungen und das nur, weil nicht das gewünschte Element verlinkt wäre.

Ok, ich gebe zu, ich schließe in diesem Fall von mir auf andere. Daher habe ich zugunsten des Users entschieden und die Mehrfache Verlinkung bewusst eingeführt. Gleiches gilt übrigens auch für die Breadcrumb, die ebenfalls auf der Seite zu finden ist und lt. dem Tool Optimierungspotenzial bei den Links bietet.

Ich will es dem User so leicht wie möglich machen, deshalb bleibt dieses Potenzial für mich unangetastet.

Verwaiste Seiten sind der nächste Punkt, dem ich mich gewidmet habe. Ich wusste gar nicht, dass ich solche auf meiner Website hatte. Doch sie waren da und sie waren wirklich verwaist. Kurz zur Info: verwaiste Seiten sind diejenigen, die keine oder nur einen/wenige interne/n Link/s haben. Die Seiten, die ich vorgefunden hatte, konnte ich mit ruhigem Gewissen löschen.

An dieser Stelle muss ich gestehen, dass ich froh bin, dass mir OnPage.org diese Schwachstelle gezeigt hat. Von alleine wäre ich da sicherlich nicht drauf gekommen.

Bildschirmfoto 2015-06-12 um 12.51.18Kommen wir nun zum Canonical. Hier bin ich ein bisschen enttäuscht vom Tool. Meine Seite ist nicht sonderlich groß und bis auf ein paar kleine DC-Probleme mit der Startseite habe ich sonst kein DC. Darauf habe ich bei der Erstellung geachtet. Warum also, sollte ich bei so einer kleinen Website, die quasi kein DC hat, den Canonical einsetzen?

Für mich macht es auch keinen Sinn, wenn ich jetzt überall einen canonical auf sich selbst integriere. Das ginge zwar, aber wie gesagt, es macht keinen Sinn. Von daher finde ich es Schade, dass das Tool diesen Punkt so stark kritisiert. Ich hätte mir hier gewünscht, dass ein Hinweis auftaucht, aber auch nicht mehr.

Eine schlechte Bewertung hätte ich ja verstanden, wenn es bei den Canonicals zu Fehlern gekommen wäre. Dann wäre dies eine super Optimierungsmöglichkeit und eine große Hilfestellung. Da ich das ja nicht habe, kann ich das nun auch nicht beurteilen. Hier sind dann die Leute gefragt, die Canonicals nutzen und mit OnPage.org schon mal geprüft haben.

Wie hat Google auf die Änderungen reagiert?

Kommen wir nun zu der alles entscheidenden Frage: „Wie hat Google auf die Änderungen reagiert?“ 14 Tage sind seit den ersten Anpassungen vergangen. Um den Googlebot auf die Website zu locken, habe ich ihn fleißig über die Search Console gerufen.

Das Ergebnis ist jedoch ernüchternd, wie ihr anhand der Sichtbarkeit lt. Searchmetrics sehen könnt:

Bildschirmfoto 2015-06-15 um 17.08.58Die Sichtbarkeit ist minimal wieder angestiegen, aber das könnte mit allem möglichen zusammen hängen. Also hab ich mal in die Google Search Console geguckt und dort den Verlauf von Klicks und Positionen ermittelt.

Bildschirmfoto 2015-06-15 um 17.11.20

 

Während auch die Klicks leicht nach oben tendieren, rutschen die Rankings wieder etwas runter. Jetzt könnte ich natürlich sagen, dass die Klicks ansteigen, weil ich ja die Descriptions z. T. angepasst habe. Das wäre eine Erklärung, immerhin ist auch die Klickrate angestiegen. Ob dies aber wirklich in direktem Zusammenhang miteinander steht, kann ich nicht sagen.

Mein vorläufiges Fazit

Ich glaube, es ist egal mit welchem Tool man seine Optimierungen durchführt, bzw. analysiert. Es dauert Zeit bis Google diese verarbeitet und bewertet hat. 14 Tage reichen einfach nicht aus um ein korrektes Ergebnis zu liefern. Geduld ist im SEO ja sowieso eine Eigenschaft, die man bracht 😉

Was das Tool an sich angeht: ich finde es immer noch total cool. Jedoch kann man auch OnPage.org nicht ohne eine Portion „Menschenverstand“ einsetzen. Man kann einfach keinem Tool blind vertrauen. Jede Website ist anders und bei jeder Website hat man sich etwas dabei gedacht, so wie ich bei den mehrfach gesetzten Links zur gleichen Seite.

onpage_classic_200x200Das Ziel sollte es nicht sein 100% bei einem Tool zu bekommen, sondern so hoch wie möglich, aber immer unter dem Aspekt, dass es für den User sinnvoll ist. Der User sollte im Vordergrund einer jeden Optimierung stehen, zumindest solange es um den sichtbaren Teil der Website und die Ladegeschwindigkeit geht.

Wenn ihr also OnPage.org mit Verstand einsetzt, kann es eine mächtige Stütze sein.

Und nun möchte ich von euch wissen, was ihr von dem Tool haltet?

3 Kommentare:

  1. Pingback:Top 10 der Woche 25/15 - SEO-united.de Blog

  2. Danke für diesen Blogeintrag!.

    Der hat mir sehr gut geholfen!

    Viele Grüße

    Pauline

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.