Wenn man
Google Analytics Konto mit der Website oder dem Blog verbunden hat durch die UA
Nummer dann kann man sich im Webmastertool einloggen. Dies ist ein kostenfreier
Webservice um die Seite zu konfigurieren und analysieren.
Mit dem Webmaster
Tool kann man unter anderem eine robot.txt Datei einbinden und wichtige Dinge für
die Onpage Optimierung prüfen und einrichten. Die Betreuung der eigenen Seite kann
intern oder auch von einem extern Administrator vorgenommen werden.
Man kann mit dem Webmaster Tool
folgende Dinge ausführen:
- Sitemap
- Robot.txt (Datei die nur von der Suchmaschine gelesen wird)
- Data Highlighter (Rich Snippet – Personen, Restaurants, Produkte, Bewertungen, Events, etc. )
- Fehlerseiten (404 etc.)
- Crawling Fehler
- Strukturierte Daten
- Indexierungen (Status) / URLs ausschließen (noindex)
- Rechte vergeben (Autorenrechte)
Über das Zahnrad lassen sich Webmaster
und Website Inhaber, Adressänderungen wie auch Partner (Soziale Netzwerke wie
YouTube, Facebook, Twitter, etc.) eintragen und somit eine Verknüpfung herstellen.
Darstellung der Suche
Die Strukturierten Daten …
Mit dem Data Highlighter hast du die
Möglichkeit Ergänzungen für das Snippet Feld zu
hinterlegen. Diese Ergänzungen können Preise, Produkte,
Erfahrungsberichte, etc. sein und erweitern das Snippet zu einem Rich Snippet. Das
Rich Snippet gibt den Usern gleich erweiterte Informationen auf der SERP.
Sitelinks sind Unterseiten von einer Website
die bei Google auf der SERP eingeblendet werden. Diese Sitelinks werden von
Google individuell ausgesucht und auf der SERP aufgezeigt. Google wählt je nach
Wichtigkeit die Sitelinks aus die sie für die Suchanfrage relevant halten. Es
fließen hier viele Faktoren ein wie PageRank, Besucherzahlen einer Seite, etc.
Es können maximal 6 Sitelinks auf der SERP abgebildet
werden. Man kann bis zu 100 ORL über den Google Webmaster Tool abgewerten damit
diese mögklichst nicht als Sitelink erscheinen. Somit hat man die Möglichkeit weniger interessante
Unterseiten wie Impressum, Karriere, Datenschutz, etc. abzuwerten damit diese
nicht als Sitelink angezeigt werden. (Google kann jedoch nicht garantieren,
dass die abgewerteten Sitelinks nicht angezeigt werden.)
Suchanfragen
Darstellung der Suche
Bei den Suchanfragen werden die Keywords,
Impressions, Klicks, CTR und die durchschnittliche Position im
Suchmaschinenranking. Diese Daten können aber auch bei anderen SEO Tools
abgerufen werden.
Eine weitere
Unterkategorie sind die HTML Verbesserungen.
Google Index
Mit dem Indexierungsstatus lässt sich erkennen für
we wichtig die Seite von Google eingeschätzt wird.
Bei den Content Keywords findest du die Häufigkeit
der gesuchten Keywords und kannst diese dann gegebenenfalls auf der Seite optimieren
um eine bessere Keyword Density zu erreichen. In diesem Bereich werden dir auch
die Links zu deiner Website angezeigt
die auf deine Seite verlinken. Dieses Tool ist wichtig für die Offpage
Optimierung da du auf einen Blick alle externen Links siehst und entsprechend
prüfen kannst. Es werden außerdem auch alle internen Links aufgezeigt.
Unter URLs entfernen kann man mithilfe von robots.txt-Dateien dem Crawler
mitteilen welche Inhalte und URLs bei den Google Suchergebnissen berücksichtigt
werden sollen.
Crawling
In dieser
Kategorie kannst du unterschiedliche Daten
zur Google Suche abrufen und auswerten. Dazu gehören Crawling Fehler, Crawling Statistiken, etc.
Unter Crawling Fehler wird z.B. eine „404 Fehlerseite“ angezeigt die
vorab erstellt wurde. Die angezeigten Fehlerseiten können über Google
angeschaut werden. Nach dem Abruf der fehlerhaften Seite sollte geprüft werden
wo der Fehler liegt um ihn im Backend zu korrigieren.
Die
Fehlerseite wird allerdings weiter als Fehler beim Crawler angezeigt bis man
über das Webmaster Tool den Fehler als „Als korrigiert markieren“ ausführt.
Hier bekommt der Crawler die Nachricht, dass der Fehler korrigiert wurde und
der Crawler die Seite nochmals prüfen soll.
Über die Sitemap kannst du den Aufbau deiner Seite
abbilden, spätere Änderungen auf der Seite werden automatisch angepasst. Die komplett
abgebildete Seitenstruktur wird an Google weitergegeben. Manche Unternehmen
stellen die Sitemap online damit die Seitenbesucher Zugriff darauf haben. Durch
die Erstellung der Sitemap wird die
Wahrscheinlichkeit erhöht, dass Sitelinks oder weitere Daten im Snippet bei
Google angezeigt bzw. höher gerankt werden.
Unter nachfolgendem
Link findest du weiter Informationen dazu:
Malware
Unter Maleware werden dir Seiten oder Inhalte angezeigt, die der Crawler als Spam indiziert hat.
Mit dem Webmaster
kann man eine robot.txt Datei einbinden und wichtige Dinge für Onpage
Optimierung prüfen.
Wichtig ist, dass die
Suchgeschwindigkeit nicht herausgenommen wird da die Seite sonst von den
Crawlern nicht gesucht wird.
Keine Kommentare:
Kommentar veröffentlichen