Mit April 2015 wurde die mobile Nutzung einer Webseite zum Ranking-Faktor von Google erklärt! Die Gründe sind auch hier deckungsgleich: Eine gute Usability! Ein passgenaues Ergebnis innerhalb von Sekunden!

Responsive Design – Die mobile Optimierung Ihrer Webseite

Achten Sie entsprechend darauf, dass Ihre Seite auch auf  mobilen Endgeräten problemlos zu bedienen ist.  Zur Überprüfung des Responsive Design eignet sich das kostenlose Tool: www.google.de/webmasters/tools/mobile-friendly

 Anleitung Google Mobile Friendly Tool:

  1. Geben Sie Ihre Domain ein
  2. Klicken Sie Analysieren
  3. Führen Sie alle Optimierungshinwiese durch
  4. Rescan Google Mobile Friendly Tool
  5. Führen Sie erneu alle neuen Optimierungshinweise durch

Hinweiuse zumn Google Mobile Friendly Tool

Dieses Tool ermöglicht Ihnen nicht nur wiederrum die Überprüfung von externen Dienstleistern, welche Sie mit der Umstellung auf Responsive Design beauftragen, sondern versorgt Sie überdies mit wertvollen Hinweisen. Sehen Sie hierzu: Weitere Informationen zu für Mobilgeräte optimierte Seiten in dem Tool selbst und lassen Sie sich von Google höchstpersönlich Schritt für Schritt an das Thema heran führen, denn hier steht ein Teil des Coca Cola Rezepts.

Im April 2015 wurde die mobile Nutzung einer Webseite zum offiziellen Ranking-Faktor für Google!

Checkliste Responsive Design:

  • Ist Ihre Seite im Responsive Design?

Sie benötigen weitere Informationen zum Thema SEO & Responsive-Design? Kontaktieren Sie uns unverbindlich oder nehmen Sie eine SEO Beratung in Anspruch!

Durch die robots.txt lassen sich gezielt Seiten ausschließen, sprich, Sie können dem Crawler verbieten, ausgewählte Seite einzulesen. Unter Berücksichtigung der Tatsache, dass dem Crawler zum Einlesen einer Webseite nur eine bestimmte Zeit zugesprochen wird (Crawl-Budget) und darüber hinaus mit dem Index-Budget bestimmt wird, dass jeder Webseite nur eine individuelle Indexierungs-Anzahl zusteht, wird die Bedeutung von robots.txt schnell deutlich.

Mit der robots.txt unwichtige Seiten gezielt ausschließen

Um sicherzugehen, dass Google Ihre wichtigsten Seiten auch einliest, können Sie unwichtige Inhalte von dem Crawlen ausschließen und sich somit das Crawl-Budget und Index-Budget für Ihre Zielseiten ,,sichern“. Zwar ist möglich, dass Google dennoch ihre ausgeschlossenen Seiten in den Index aufnimmt, wenn diese für besonders wichtig erachtet werden, jedoch erhöhen Sie Ihre Chancen dass Ihre wichtigsten Inhalte in jedem Falle eingelesen werden. Gleichzeitig kann in diesem Programm auch die Antwort darauf liefern, warum Ihre Webseite überhaupt erst gar nicht bei Google erscheint. Es ist möglich, dass Sie dem Crawler durch eine kleine Einstellung im Shopsystem verbieten, dass er Ihre Seite überhaupt einlesen und indexieren darf.

Wann das Ausschließen von Seiten über die robots.txt sinnvoll ist:

  • Bei doppelten Inhalten, welche sich oftmals auf Produktseiten wiederfinden, da ein Online-Händler oft gewillt ist die Produktdaten vom Hersteller zu kopieren und in seine Seite einzufügen. Eine hohe %Zahl von kopierten Inhalten schwächt allerdings die Gesamtperformance Ihrer Seite.
  • Bei Seiten ohne Nutzen für den User und solchen, die Sie vor der Öffentlichkeit verborgen halten möchten: So empfiehlt es sich entsprechend den Login-Bereich für das Backend Ihrer Site auszuschließen oder auch das Impressum, denn zum einen geht es hierbei um Ihren Schutz, andererseits tun Inhalte wie die AGB oder das Impressum nichts für die Verweildauer oder Conversion-Rate, sorgen unter Umständen für eine hohe Absprungrate und würden die ,,Macht“ Ihrer Seite im Allgemeinen eher mindern.

Die robots.txt Checkliste

  • Ist Ihre Seite bei Google auffindbar?
  • Haben Sie auch die Bildersuche für den Crawler freigegeben?
  • Haben Sie viele doppelte Inhalte, welche nicht eingelesen werden sollen, um die Seite zu schwächen?
  • Haben Sie den Admin-Bereich vom Indexieren ausgeschlossen?

Überprüfen Sie die Auffindbarkeit/Indexierung der Verzeichnisse mit der Robots.txt und verweigern Sie ggf. sensiblen Bereichen den Zutritt wie bspw. /agb oder /admin-login

Für weitere Informationen über die Konfiguration der robots.txt nehmen Sie bitte Kontakt zu einem SEO Consultant auf. Wir unterstützen Sie bei der SEO-Strategie im Zuge der Suchmaschinenoptimierung von Onlineshop-Systemen.