Donnerstag, 11. Juli 2013

Google Webmaster Tool

Wenn man Google Analytics Konto mit der Website oder dem Blog verbunden hat durch die UA Nummer dann kann man sich im Webmastertool einloggen. Dies ist ein kostenfreier Webservice um die Seite zu konfigurieren und analysieren.
Mit dem Webmaster Tool kann man unter anderem eine robot.txt Datei einbinden und wichtige Dinge für die Onpage Optimierung prüfen und einrichten. Die Betreuung der eigenen Seite kann intern oder auch von einem extern Administrator vorgenommen werden.

Man kann mit dem Webmaster Tool folgende Dinge ausführen:
  • Sitemap
  • Robot.txt (Datei die nur von der Suchmaschine gelesen wird)
  • Data Highlighter (Rich Snippet – Personen, Restaurants, Produkte, Bewertungen, Events, etc. )
  • Fehlerseiten (404 etc.)
  • Crawling Fehler
  • Strukturierte Daten
  • Indexierungen (Status) / URLs ausschließen (noindex)
  • Rechte vergeben (Autorenrechte)

Über das Zahnrad lassen sich Webmaster und Website Inhaber, Adressänderungen wie auch Partner (Soziale Netzwerke wie YouTube, Facebook, Twitter, etc.) eintragen und somit eine Verknüpfung herstellen.


Darstellung der Suche

Die Strukturierten Daten …
Mit dem Data Highlighter hast du die Möglichkeit Ergänzungen für das Snippet Feld zu  hinterlegen. Diese Ergänzungen können Preise, Produkte, Erfahrungsberichte, etc. sein und erweitern das Snippet zu einem Rich Snippet. Das Rich Snippet gibt den Usern gleich erweiterte Informationen auf der SERP.  
Sitelinks sind Unterseiten von einer Website die bei Google auf der SERP eingeblendet werden. Diese Sitelinks werden von Google individuell ausgesucht und auf der SERP aufgezeigt. Google wählt je nach Wichtigkeit die Sitelinks aus die sie für die Suchanfrage relevant halten. Es fließen hier viele Faktoren ein wie PageRank, Besucherzahlen einer Seite, etc.
 Es können maximal 6 Sitelinks auf der SERP abgebildet werden. Man kann bis zu 100 ORL über den Google Webmaster Tool abgewerten damit diese mögklichst nicht als Sitelink erscheinen.  Somit hat man die Möglichkeit weniger interessante Unterseiten wie Impressum, Karriere, Datenschutz, etc. abzuwerten damit diese nicht als Sitelink angezeigt werden. (Google kann jedoch nicht garantieren, dass die abgewerteten Sitelinks nicht angezeigt werden.)


Suchanfragen
Darstellung der Suche
Bei den Suchanfragen werden die Keywords, Impressions, Klicks, CTR und die durchschnittliche Position im Suchmaschinenranking. Diese Daten können aber auch bei anderen SEO Tools abgerufen werden.
Eine weitere Unterkategorie sind die HTML Verbesserungen.

Google Index
Mit dem Indexierungsstatus lässt sich erkennen für we wichtig die Seite von Google eingeschätzt wird.
Bei den Content Keywords findest du die Häufigkeit der gesuchten Keywords und kannst diese dann gegebenenfalls auf der Seite optimieren um eine bessere Keyword Density zu erreichen. In diesem Bereich werden dir auch die Links zu deiner Website angezeigt die auf deine Seite verlinken. Dieses Tool ist wichtig für die Offpage Optimierung da du auf einen Blick alle externen Links siehst und entsprechend prüfen kannst. Es werden außerdem auch alle internen Links aufgezeigt.
Unter URLs entfernen  kann man mithilfe von robots.txt-Dateien dem Crawler mitteilen welche Inhalte und URLs bei den Google Suchergebnissen berücksichtigt werden sollen.

Crawling
In dieser Kategorie  kannst du unterschiedliche Daten zur Google Suche abrufen und auswerten. Dazu gehören Crawling Fehler, Crawling Statistiken, etc.
Unter Crawling Fehler wird  z.B. eine „404 Fehlerseite“ angezeigt die vorab erstellt wurde. Die angezeigten Fehlerseiten können über Google angeschaut werden. Nach dem Abruf der fehlerhaften Seite sollte geprüft werden wo der Fehler liegt um ihn im Backend zu korrigieren.
Die Fehlerseite wird allerdings weiter als Fehler beim Crawler angezeigt bis man über das Webmaster Tool den Fehler als „Als korrigiert markieren“ ausführt. Hier bekommt der Crawler die Nachricht, dass der Fehler korrigiert wurde und der Crawler die Seite nochmals prüfen soll.  
Über die Sitemap kannst du den Aufbau deiner Seite abbilden, spätere Änderungen auf der Seite werden  automatisch angepasst. Die komplett abgebildete Seitenstruktur wird an Google weitergegeben. Manche Unternehmen stellen die Sitemap online damit die Seitenbesucher Zugriff darauf haben. Durch die Erstellung der Sitemap wird  die Wahrscheinlichkeit erhöht, dass Sitelinks oder weitere Daten im Snippet bei Google angezeigt bzw. höher gerankt werden.
Unter nachfolgendem Link findest du weiter Informationen dazu:

Malware

Unter Maleware werden dir Seiten oder Inhalte angezeigt, die der Crawler als Spam indiziert hat.
Mit dem Webmaster kann man eine robot.txt Datei einbinden und wichtige Dinge für Onpage Optimierung prüfen.


Wichtig ist, dass die Suchgeschwindigkeit nicht herausgenommen wird da die Seite sonst von den Crawlern nicht gesucht wird.  




Keine Kommentare:

Kommentar veröffentlichen