Technisches SEO – Kleine Einstellungen, große Auswirkungen

4

Es gibt im Bereich SEO einige Tipps wie die eigene Seite optimiert werden kann. Oft liest man von Onpage-Faktoren wie Titles, Descriptions und H1. Auch sprechende URLs und interne Verlinkung werden sehr häufig angeführt, jedoch gibt es noch einige Faktoren, die bisher selten erwähnt werden, jedoch auch sehr wichtig sind und den entscheidenen Unterschied ausmachen können. Aus diesem Grund entstand dieser Artikel. In diesem Artikel geht es um “technisches SEO”, welches vor allem Online Marketing- und SEO Einsteigern noch häufiger Probleme bereitet.

Inwiefern “Technisches SEO” und was genau erwartet dich in diesem Artikel? Möchtest du deine Seite “suchmaschinenfreundlich” gestalten, dann musst du auch wissen, was das überhaupt bedeutet. Was genau können Crawler auslesen und wie werden Inhalte optimal interpretiert? Letztendlich werden heutzutage immer noch einige SEO-Fehler gemacht, die meist technischer Natur sind. Im Folgenden findest du viele Tipps rund um das Thema “Technische SEO Fehler”.

Verlust von Backlinkjuice
Weiterleitung bedeutet nicht gleich Weiterleitung. Wichtige Backlinkpower kann bei einer falschen Weiterleitung verloren gehen. Damit wichtige Backlinkpower weitergegeben wird, muss der Statuscode 301 verwendet werden. Wichtig ist, dass vor allem bei einer Neustrukturierung der URL-Struktur diese Statuscodes der Weiterleitungen beachtet werden. Der Statuscode 302 gibt keinen relevanten Backlinkjuice weiter, was bedeutet, dass die Backlinks, die auf deine ehemalige URL zeigen, an Power verlieren und so deine Seite nicht weiter stärken können.

Weiterleitungsketten
Weiterleitungen sind im Bereich SEO sehr wichtig, da nicht nur Nutzer von diesen profitieren, sondern auch Suchmaschinencrawler. Häufig kommt es bei einer URL-Umstellung zu sogenannten Weiterleitungsketten, was bedeutet, dass eine URL mehrfach weitergeleitet wird. Besonders problematisch wird es bei Weiterleitungsketten mit unterschiedlichen Statuscodes wie z.B:

www.deinedomain.de/seite1 -> Weiterleitung 302 -> www.deinedomain.de/beispielseite1 -> Weiterleitung 301 -> www.deinedomain.de/bsp/seite1.

Anzeige

Suchmaschinencrawler können aufgrund dieser Weiterleitungsketten Probleme bekommen die eigentlichen Inhalte zu interpretieren. Besonders problematisch wird es, wenn beispielsweise eine Weiterleitung der Weiterleitungskette den Statuscode 302 besitzt. So kann es sein, dass wichtiger Backlinkjuice nicht weitergegeben wird, auch wenn die “letzte” Weiterleitung den Statuscode 301 besitzt. Hier benötigt es deine detaillierte Analyse, um herauszufinden, welche verschiedenen Weiterleitungen überhaupt genutzt werden.

Keine Verwendung von Sitemaps
Sitemaps geben dem Suchmaschinencrawler wichtige Hinweise, welche URLs in den Index aufgenommen werden sollen. Wichtig ist es, dass Sitemaps strukturiert und laufend aktualisiert werden. Besonders Seiten, die in tieferen Ebenen liegen, können dem Crawler so zugänglich gemacht werden. Bei großen Seiten müssen mehrere Sitemaps erstellt werden, da eine Sitemap nur 50.000 URLs erhalten kann und maximal 50MB groß sein darf. Wenn es mehrere Sitemaps gibt, dann ist es möglich eine Mastersitemap zu erstellen, die die “kleineren” Sitemaps erhält.

So würde in der robots.txt die “Mastersitemap” angegeben werden:
sitemap: http://www.deinedomain.de/sitemap_index.xml

Schaut man sich diese XML Datei an, dann könnte diese beispielsweise folgendermaßen aussehen:

<?xml version=”1.0″ encoding=”UTF-8″?>
<sitemapindex xmlns=”http://www.sitemaps.org/schemas/sitemap/0.9>
<script/>
<sitemap>
<loc>http://deinedomain.de/sitemap_01.xml</loc>
<lastmod>2014-07-09</lastmod>
</sitemap>
<sitemap>
<loc>http://www.deinedomain.de/sitemap_02.xml</loc>
<lastmod>2014-05-07</lastmod>
</sitemap>
</sitemapindex>

Es gibt insgesamt mehrere verschiedene Sitemaps für unterschiedliche Inhalte. So gibt es beispielsweise Sitemaps für:

  • Bilder
  • News
  • Videos

Möchtest du für deine Seite eine Sitemap erstellen, dann kannst du diese in den Webmaster Tools testen und einreichen. Du solltest diese auch noch in der robots.txt deiner Seite angeben, sodass der Crawler gleich erkennen kann, welchen Seiten er besondere Bedeutung schenken soll. Diese Option findest du unter: “Crawling” -> “Sitemaps”  -> “Sitemap hinzufügen/testen”.
Hier kannst du zudem gleich erkennen, wie deine Sitemap verarbeitet wurde (Eingereicht/Indexiert).

Keine Verwendung einer robots.txt
Crawler rufen bei dem ersten Besuch einer Domain die robots.txt auf, um zu ermitteln welche Inhalte gecrawlt werden können. Weitere Informationen zu dem Thema “robots.txt” findest du in dem Artikel “Technisches SEO – So arbeitet die Suchmaschine“.

Verschwendung von Crawlingbudget
Jede Domain hat ein ihr zugewiesenes Crawlingbudget, welches vom Crawler zur Interpretation der Inhalte aufgewendet werden darf. Nun kann es sein, dass die Priorisierung innerhalb der Seite so unzureichend ist, dass der Crawler auch Seiten crawlt, die:

  • nicht in den Index aufgenommen werden sollen
  • dem Nutzer keinerlei Mehrwert bieten
  • doppelt vorhanden sind

So kann es sein, dass vor allem bei großen Seiten Inhalte nicht richtig gecrawlt werden können, weil kein Crawlingbudget mehr vorhanden ist. Daher solltest du immer schauen, dass du den Überblick behältst, welche Inhalte wirklich wichtig sind und welche Seiten eher “mehrwertlos” sind. Vor allem doppelte Inhalte (Duplicate Content) sorgen unter anderem dafür, dass Crawling-Budget nicht effizient genutzt wird.

Anzeige

Verschwendung von Indexierungsbudget
Ebenso wie Crawlingbudget kann auch wichtiges Indexierungsbudget ineffizient genutzt wird. Vor allem doppelte Inhalte sorgen dafür, dass wichtiges Indexierungsbudget verschwendet wird. Achte aus diesem Grund darauf, dass nur Inhalte indexiert werden, die auch wirklich in den Index sollen. Wenn du der Meinung bist, dass bestimmte Inhalte keinen Mehrwert bringen, dann kannst du diese Inhalte auch wieder aus dem Index entfernen (mittels: <meta name =”robots” content=”noindex, follow>)

Duplicate Content
Wie können doppelte Inhalte in Index gelangen?

  • Die falsche Nutzung von Tagseiten
    Tags bieten aus Sicht des Nutzers eine gute Möglichkeit schnell thematisch ähnliche Artikel zu finden. Hier solltest du allerdings analysieren, ob diese Tagseiten duplicate content erzeugen. Sollte das der Fall sein, dann sollten Tagseiten nicht in den Index aufgenommen werden.
  • Https und http
    Da Google nun Https zu einem Rankingfaktor gemacht hat, werden viele Webmaster anfangen Https für ihre Seite nutzen. Möchtest auch du deine Seite von http auf https umstellen, dann achte darauf, dass nur eine Version indexiert wird. Wie das erreicht werden kann? Hierzu kannst du das Canonical Tag verwenden oder die Http Version per 301 auf die https Version weiterleiten. Auch sollten die eingereichten Sitemaps aktualisiert werden.
  • www. und non www.
    Ist deine Website sowohl unter www.deinedomain.de als auch unter deinedomain.de zu erreichen, dann wirst du wahrscheinlich ein duplicate content Problem haben. Du solltest sichergehen, dass deine Inhalte jeweils nur unter einer URL erreicht werden können. In diesem Fall kann die .htaccess genutzt werden:

    RewriteEngine on
    RewriteCond %{HTTP_HOST} ^beispielseite.de
    RewriteRule ^(.*)$ http://www.beispielseite.de$1 [R=301,L]
  • Inhalte werden unter einer neuen Domain bereitgestellt
    Gibt es beispielsweise eine neue Firmanwebsite und einer neuen Domain, dann sollten die Inhalte der alten Domain auf die neue weitergeleitet werden. Wichtig ist auch hier, dass zur Weiterleitung der Statuscode 301 verwendet wird.
  • Trailing-Slash am Ende einer URL
    Der Trailing-Slash am Ende einer URL kann auch doppelten Content erzeugen. Werden URLs mit und ohne Trailing Slash indexiert, dann handelt es sich auch hier um doppelte Inhalte. Aus diesem Grund sollte die Version ohne Trailingslash auf die Version mit Trailing Slash weiterleiten (Statuscode 301).
  • Produktbeschreibungen in beispielsweise Online Shops
    Vor allem in Onlineshops kommt es häufig vor, dass Produktbeschreibungen sehr ähnlich sind. So kann der Aufbau und die Produktbeschreibung des blauen T-Shirts und des gelben T-Shirts sehr ähnlich sein. Auch hier sollte das Canonical Tag benutzt werden um auf die zu indexierende Version zu verweisen.
  • Print Versionen
    Indexierte Druckversionen können auch für DC sorgen. Aus diesem Grund sollten Druckversionen nicht indexiert werden.
  • Filterfunktionen
    Auch Filter können für duplicate content sorgen. Damit dieses Problem nicht auftritt und nur die relevanten Inhalte indexiert werden sollte auch hier das Canonical Tag genutzt werden.
  • Parameter URLs und Session IDs
    URLs mit Parameter und Session IDs geben Inhalte wieder, die bereits unter einen anderen URL vorhanden sind. Werden diese nun gecrawlt und indexiert, dann handelt es sich auch hier um duplicate Content. In den Webmaster Tools gibt es die Möglichkeit problematische Parameter URLs zu auszuschliessen. Wichtig ist, dass du genau weißt welche Parameter problematisch sind! Falsche Einstellungen können hier bewirken, dass wichtige URLs deiner Seite nicht in den Index aufgenommen werden.
  • Groß- und Kleinschreibung in URLs
    Was viele immer noch nicht wissen ist, dass Groß- und Kleinschreibung in URLs einen entscheidenen Unterschied ausmachen. Inhalte dürfen nur unter einer URL zu erreichen sein. Aus diesem Grund solltest du immer Kleinschreibung bei URLs verwenden.
  • PDF-Dateien können auch duplicate content erzeugen
    Oft werden besonders gut performende Inhalte später als PDF zur Verfügung gestellt. Hier sollte nicht vergessen werden, dass es sich bei PDF Dateien auch um Dokumente handelt, die doppelte Inhalte erzeugen können. Aus diesem Grund sollte man diese PDF-Dateien nicht indexieren lassen (per robots-txt können PDF Dateien vom Crawling ausgeschlossen werden).  -> Disallow: /*.pdf$

Wie kann ich herausfinden, ob meine Seite von duplicate content betroffen ist?
Möchtest du herausfinden, ob deine Seite von “Duplicate Content” betroffen ist, dann kannst du dafür die Siteabfrage nutzen. Hierzu gibst du in die Google Suchmaske folgendes ein:

site:deinedomain.de (ohne das http://www)

Nun sieht du alle Seiten, die in den Index aufgenommen wurden. Nun kannst du hier mit weiteren Suchparametern wie “intitle” oder “intext” arbeiten. Hier findest du eine Auflistung von Suchparametern, die du nutzen kannst, um herauszufinden, ob sich gleiche Inhalte im Index befinden:

  • Mehrere Wörter, (oder auch ein einzelnes) in Anführungszeichen “” sucht genau die Phrase
    -> site:deinebeispieldomain.de “doppelte Inhalte”
  • filetype listet dir Dateien auf
    -> site:deinedomain.de filetype:pdf
  • intext liefert dir ähnlich wie die Anführungszeichen Seiten, die ein Wort (oder mehrere Wörter beinhalten)
    -> site:deinedomain.de intext:beispieltext
  • inurl listet dir URLs auf, die ein bestimmtes Wort (oder mehrere Wörter) beinhalten
    -> site:deinedomain.de inurl:beispielparameter

Weitere Infos:

Performance-Fehler
In dem Artikel “SEO der Zukunft” wurde dieses Thema schon ausführlicher behandelt, daher wird dieses Thema hier nur angeteasert. Zusammenfassend lässt sich sagen, dass folgenden technischen Auszeichungen Bedeutung geschenkt werden sollte:

  • Browser-Caching
  • Javascript auslagern
  • Javascript und CSS komprimieren
  • CSS Sprites
  • Bilder nur von einer Ressource beziehen

Soft 404 Fehler
URLs von Inhalten, die nicht mehr zur Verfügung stehen, sollten entweder weitergeleitet werden, oder einen 404 Statuscode erhalten. Wenn URLs allerdings nicht mehr erreichbar sind (Statuscode 404), diese allerdings einen Statuscode 200 ausgeben, dann handelt es sich hierbei um ein Problem, denn dem Crawler wird signalisiert, dass diese Seite erreichbar ist, die Inhalte können allerdings nicht abgerufen werden. Da ein manuelles Crawling diese teilweise auch nicht identifizieren kann, sollte man die Google Webmaster Tools nutzen. Hier bekommt man essentielle Hinweise, welche URLs Soft 404 Fehler generieren.

Sehr interessanter Artikel – diese Informationen möchte ich kurz twittern
Paginierungsfehler
Paginierung spielt auch im Bereich Crawling eine wichtige Rolle. Seiten werden zu Beginn ohne jegliche Zusammenhang indexiert. Damit Google verstehen kann, dass Seiten “zueinander” gehören und Zusammenhänge und Kontexte erkannt werden können, müssen diese Seiten besonders behandelt werden. Hier gibt es mehrere Möglichkeiten:

  • Paginierung bleibt vorhanden
    Paginierung ist auch im Bereich der Suchmaschinenoptimierung möglich. Hierzu kann rel=”next” und rel=”prev” vewendet werden. Das wird folgendermaßen angewendet.

    Beispiel:

    www.deinedomain.de/forenseite1/ hat mehrere Unterseiten, die dem Nutzer mittels Paginierung zur Verfügung gestellt werden. Damit der Suchmaschinencrawler die Zusammenhänge erkennen kann, müssen man diesem einen Hinweis geben, welche Inhalte bzw. URLs “zusammengehören”. Das wird folgendermaßen umgesetzt:Angenommen du befindest dich auf www.deinedomain.de/forenseite2/ und es gibt insgesamt drei Forenseiten. Dann musst du die vorige Seite und die folgende Seite “markieren”. Hierzu nutzt du rel=”next” und rel=”prev”. In diesem Beispiel würde das folgendemaßen aussehen:
    <link rel=”prev” href=”/forenseite1/”>
    <link rel=”next” href=”/forenseite3/”>
  • Inhalte werden auf nur einer Seite dargestellt
    Diese Version kann dann umgesetzt werden, wenn es möglich ist alle Inhalte auf nur einer Seite darzustellen. Auf Seiten, bei denen dies nicht möglich ist, weil es beispielsweise zuviele Inhalte gibt (z.B. Forum), sollte eine andere Umsetzung gewählt werden.

Javascript Links
Javascript Links stellen nach wie vor ein Problem für Suchmaschinencrawler dar, da diesen teilweise nicht “korrekt” gefolgt werden kann. Ist die interne Verlinkung mit Javascript-Links gelöst worden, dann kann es sein, dass der Crawler diesen internen Links nicht folgenden kann. Aus diesem Grund sollte auf Javascript Links verzichtet werden.

Javascript-Navigationen
Wie im oberen Bereich beschrieben fällt es Suchmaschinencrawlern noch schwer Javascript richtig zu verstehen. Häufig wird die Navigation mittels Javascript erstellt, was zur Folge haben kann, dass der Crawler diesen Links nicht korrekt folgen kann, was vor allem in der Navigation ein großes Problem darstellt. Hier sollte eine CSS-Variante herangezogen werden, sodass die Inhalte optimal interpretiert werden können.

Zum Thema Javascript-Erkennung findest du hier weitere Informationen:

“Weiterlesen” als interner Anchortext
Vielen Webmastern ist bereits bekannt, dass die interne Verlinkung eine sehr wichtige Rolle im Bereich der Suchmaschinenoptimierung spielt, dennoch findet man auf vielen Seiten noch Fehler. Nicht nur bei externen Links sollte darauf geachtet werden, dass die Anchortexte wichtige Keywords enthalten, sondern auch bei internen Links. Bei Anchortexten wie “Hier” oder “Weiterlesen” geht wichtiges Onpage-Potential verloren, aus dem Grund sollte darauf geachtet werden, dass auch hier sinnvolle Anchortexte genutzt werden.

Fazit:
Natürlich sind “All-Time-Klassiker” wie Titles, Descriptions, interne Verlinkung und sprechende URLs sehr relevante Onpage-Faktoren, dennoch solltest du auch viel Wert auf die technischen Auszeichnungen legen. Natürlich erstellst du Inhalte für deine Nutzer, dennoch solltest du es der Suchmaschine möglichst einfach machen. Inwiefern einfacher machen? Letztendlich geht es darum, dass der Crawler verstehen muss, welche Inhalte sich auf deinen Seiten befinden und wie du diese intern gewichtest (interne Verlinkung). Suchmaschinen möchten allerdings auch Zusammenhänge verstehen (Paginierung) und effizient arbeiten können. Aus diesem Grund solltest du nicht deren Crawling- und Indexbudget verschwenden (Duplicate Content), denn so bereitest du der Suchmaschine unnötige Schwierigkeiten, was sich auch negativ auf deine Sichtbarkeit der Website auswirken kann. Aus diesem achte darauf, dass das volle Potential deiner Website effizient genutzt wird.

Kevin Jackowski

Kevin Jackowski

Kevin Jackowski ist Online Marketing Experte und Gründer des Portals OnlineMarketingEinstieg.de. Er ist Fachautor, Mitglied im XOVI Expertenrat, Speaker und hält eigene SEO Seminare.
Technisches SEO – Kleine Einstellungen, große Auswirkungen
3.62 (72.43%) 37 votes

Anzeige