Zum Inhalt springen

Technisches SEO – Endlich verstehen wie Suchmaschinen arbeiten

Es gibt im Bereich SEO einige Tipps wie die eigene Seite optimiert werden kann. Oft liest man im Bereich der Suchmaschinenoptimierung von Onpage-Faktoren wie Titles, Descriptions und H1. Auch sprechende URLs und interne Verlinkung werden sehr häufig angeführt, jedoch gibt es noch einige Faktoren, die bisher selten erwähnt werden, jedoch auch sehr wichtig sind und den entscheidenen Unterschied ausmachen können. Aus diesem Grund entstand dieser Artikel. In diesem Artikel geht es um “technisches SEO”, welches vor allem Online Marketing- und SEO Einsteigern noch häufiger Probleme bereitet. Teilweise bietet es sich diesbezüglich auch an ein fundiertes SEO Seminar zu besuchen.

Inwiefern “Technisches SEO” und was genau erwartet dich in diesem Artikel? Möchtest du deine Seite “suchmaschinenfreundlich” gestalten, dann musst du auch wissen, was das überhaupt bedeutet. Was genau können Crawler auslesen und wie werden Inhalte optimal interpretiert? Letztendlich werden heutzutage immer noch einige SEO-Fehler gemacht, die meist technischer Natur sind. Im Folgenden findest du viele Tipps rund um das Thema “Technische SEO Fehler”.

Verlust von Backlinkjuice

Weiterleitung bedeutet nicht gleich Weiterleitung. Wichtige Backlinkpower kann bei einer falschen Weiterleitung verloren gehen. Damit wichtige Backlinkpower weitergegeben wird, muss der Statuscode 301 verwendet werden. Wichtig ist, dass vor allem bei einer Neustrukturierung der URL-Struktur diese Statuscodes der Weiterleitungen beachtet werden. Der Statuscode 302 gibt keinen relevanten Backlinkjuice weiter, was bedeutet, dass die Backlinks, die auf deine ehemalige URL zeigen, an Power verlieren und so deine Seite nicht weiter stärken können.

Weiterleitungsketten

Weiterleitungen sind im Bereich SEO sehr wichtig, da nicht nur die Nutzer von diesen profitieren, sondern auch die Suchmaschinencrawler. Häufig kommt es bei einer URL-Umstellung zu sogenannten Weiterleitungsketten, was bedeutet, dass eine URL mehrfach weitergeleitet wird. Besonders problematisch wird es bei Weiterleitungsketten mit unterschiedlichen Statuscodes wie z.B:

www.deinedomain.de/seite1 -> Weiterleitung 302 -> www.deinedomain.de/beispielseite1 -> Weiterleitung 301 -> www.deinedomain.de/bsp/seite1.

Suchmaschinencrawler können aufgrund dieser Weiterleitungsketten Probleme bekommen die eigentlichen Inhalte zu interpretieren. Besonders problematisch wird es, wenn beispielsweise eine Weiterleitung der Weiterleitungskette den Statuscode 302 besitzt. So kann es sein, dass wichtiger Backlinkjuice nicht weitergegeben wird, auch wenn die “letzte” Weiterleitung den Statuscode 301 besitzt. Hier benötigt es deine detaillierte Analyse, um herauszufinden, welche verschiedenen Weiterleitungen überhaupt genutzt werden.

Keine Verwendung der Sitemaps

Sitemaps geben dem Suchmaschinencrawler wichtige Hinweise, welche URLs in den Index aufgenommen werden sollen. Wichtig ist es, dass Sitemaps strukturiert und laufend aktualisiert werden. Besonders Seiten, die in tieferen Ebenen liegen, können dem Crawler so zugänglich gemacht werden. Bei großen Seiten müssen mehrere Sitemaps erstellt werden, da eine Sitemap i.d.R. nur 50.000 URLs erhalten kann und maximal 50MB groß sein darf. Wenn mehrere Sitemaps vorhanden sind, dann ist es möglich eine Mastersitemap zu erstellen, die wiederum die “kleineren” Sitemaps erhält.

So würde in der robots.txt die “Mastersitemap” angegeben werden:

sitemap: http://www.deinedomain.de/sitemap_index.xml

Schaut man sich diese XML Datei an, dann könnte diese beispielsweise folgendermaßen aussehen:

<?xml version=”1.0″ encoding=”UTF-8″?>
<sitemapindex xmlns=”http://www.sitemaps.org/schemas/sitemap/0.9“>
<script/>
<sitemap>
<loc>http://deinedomain.de/sitemap_01.xml</loc>
<lastmod>2014-07-09</lastmod>
</sitemap>
<sitemap>
<loc>http://www.deinedomain.de/sitemap_02.xml</loc>
<lastmod>2014-05-07</lastmod>
</sitemap>
</sitemapindex>

Es gibt insgesamt mehrere verschiedene Sitemaps für unterschiedliche Inhalte. So gibt es beispielsweise Sitemaps für:

  • Bilder
  • News
  • Videos

Möchtest du für deine Seite eine Sitemap erstellen, dann kannst du diese in den Tools der Suchmaschinen einreichen. Du solltest diese auch noch in der robots.txt deiner Seite angeben, sodass der Crawler gleich erkennen kann, welchen Seiten er besondere Beachtung und Bedeutung schenken soll. In den Suchmaschinen Tools kannst du zudem auch erkennen, wie deine Sitemap verarbeitet wurde (Eingereicht/Indexiert).

Keine Verwendung einer robots.txt

Crawler rufen bei dem ersten Besuch einer Domain die robots.txt auf, um zu ermitteln welche Inhalte gecrawlt werden können. Aus diesem Grund solltest du stets sicherstellen, dass du auch wirklich nur die Informationen in der robots.txt angegeben hast, die auch wirklich notwendig und zielfördernd sind. Zudem ist es sehr wichtig, dass die Crawler korrekte Anweisungen erhalten, damit deine Website bzw. auch dein Blog (siehe: Blog erstellen) optimal interpretiert und verarbeitet werden kann. Wichtiger Zusatz: Wenn du beispielsweise planst einen umfangreichen Website Relaunch durchzuführen, dann solltest du deine Testumgebung nicht mit Hilfe der robots.txt sperren, sondern mit der .htaccess Datei.

Verschwendung von Crawlingbudget

Jede Domain hat ein ihr zugewiesenes Crawlingbudget, welches von dem Crawler zur Interpretation der Inhalte aufgewendet werden darf. Nun kann es sein, dass die Priorisierung innerhalb der Seite so unzureichend ist, dass der Crawler auch Seiten crawlt, die:



  • nicht in den Index aufgenommen werden sollen
  • dem Nutzer keinerlei Mehrwert bieten
  • doppelt vorhanden sind

So kann es sein, dass vor allem bei großen Websites und Online Shops Inhalte nicht richtig gecrawlt werden können, weil kein notwendiges Crawlingbudget mehr vorhanden ist. Aus diesem Grund solltest du immer sicherstellen, dass du den Überblick behältst, welche Inhalte wirklich wichtig sind und welche Dokumente deiner Onlinepräsenz eher “mehrwertlos” sind. Vor allem doppelte Inhalte (Duplicate Content) sorgen unter anderem dafür, dass Crawling-Budget nicht effizient genutzt wird.

Verschwendung von Indexierungsbudget

Ebenso wie Crawlingbudget kann auch wichtiges Indexierungsbudget ineffizient verwendet wird. Vor allem doppelte Inhalte sorgen dafür, dass wichtiges Indexierungsbudget verschwendet wird. Achte aus diesem Grund darauf, dass nur Inhalte indexiert werden, die auch wirklich in den Suchmaschinenindex sollen. Wenn du der Meinung bist, dass bestimmte Inhalte den Usern keinen Mehrwert bringen, dann kannst du diese Inhalte auch wieder aus dem Index entfernen (mittels: <meta name =”robots” content=”noindex, follow>)

Duplicate Content

Wie können doppelte Inhalte in den Suchmaschinenindex gelangen?

  • Die falsche Nutzung von Tagseiten
    Tags bieten aus Sicht des Nutzers eine gute Möglichkeit schnell thematisch ähnliche Artikel zu finden. Hier solltest du allerdings analysieren, ob diese Tagseiten duplicate content erzeugen. Sollte das der Fall sein, dann sollten Tagseiten nicht in den Index aufgenommen werden.
  • https und http
    Da die Suchmaschine nun https:// (SSL-Verschlüsselung) zu einem Rankingfaktor gemacht hat, werden viele Webmaster anfangen https:// für ihre Website und für ihren Online Shop zu nutzen. Möchtest auch du deine Seite von http auf https umstellen, dann achte darauf, dass nur eine Version indexiert wird. Wie das erreicht werden kann? Hierzu kannst du das Canonical Tag verwenden oder die http-Version per 301 auf die https Version weiterleiten. Auch sollten die eingereichten Sitemaps aktualisiert werden.
  • www. und non www.
    Ist deine Website sowohl unter www.deinedomain.de als auch unter deinedomain.de zu erreichen, dann wirst du wahrscheinlich ein duplicate content Problem haben. Du solltest sichergehen, dass deine Inhalte jeweils nur unter einer URL erreicht werden können. In diesem Fall kann die .htaccess genutzt werden:

    RewriteEngine on
    RewriteCond %{HTTP_HOST} ^beispielseite.de
    RewriteRule ^(.*)$ http://www.beispielseite.de$1 [R=301,L]

  • Inhalte werden unter einer neuen Domain bereitgestellt
    Gibt es beispielsweise eine neue Firmanwebsite und einer neuen Domain, dann sollten die Inhalte der alten Domain auf die neue weitergeleitet werden. Wichtig ist auch hier, dass zur Weiterleitung der Statuscode 301 verwendet wird.
  • Trailing-Slash am Ende einer URL
    Der Trailing-Slash am Ende einer URL kann auch doppelten Content erzeugen. Werden URLs mit und ohne Trailing Slash indexiert, dann handelt es sich auch hier um doppelte Inhalte. Aus diesem Grund sollte die Version ohne Trailingslash auf die Version mit Trailing Slash weiterleiten (Statuscode 301).
  • Produktbeschreibungen in beispielsweise Online Shops
    Vor allem in Onlineshops kommt es häufig vor, dass Produktbeschreibungen sehr ähnlich sind. So kann der Aufbau und die Produktbeschreibung des blauen T-Shirts und des gelben T-Shirts sehr ähnlich sein. Auch hier sollte das Canonical Tag benutzt werden um auf die zu indexierende Version zu verweisen.
  • Print Versionen
    Indexierte Druckversionen können auch für DC sorgen. Aus diesem Grund sollten Druckversionen nicht indexiert werden.
  • Filterfunktionen
    Auch Filter können für duplicate content sorgen. Damit dieses Problem nicht auftritt und nur die relevanten Inhalte indexiert werden, sollte auch hier das Canonical Tag genutzt werden.
  • Parameter URLs und Session IDs
    URLs mit Parameter und Session IDs geben Inhalte wider, die bereits unter einen anderen URL vorhanden sind. Werden diese nun gecrawlt und indexiert, dann handelt es sich auch hier um duplicate Content. In den Tools der Suchmaschinen gibt es die Möglichkeit problematische Parameter URLs zu auszuschliessen. Wichtig ist, dass du genau weißt welche Parameter problematisch sind. Falsche Einstellungen können hier bewirken, dass wichtige URLs deiner Seite nicht in den Suchmaschinenindex aufgenommen werden bzw. sogar wieder deindexiert werden.
  • Groß- und Kleinschreibung in URLs
    Was viele Webmaster häufig nicht wissen ist, dass Groß- und Kleinschreibung in URLs einen entscheidenen Unterschied ausmachen. Inhalte dürfen nur unter einer URL zu erreichen sein. Aus diesem Grund solltest du immer Kleinschreibung bei URLs verwenden.
  • PDF-Dateien können auch duplicate content erzeugen
    Oft werden besonders gut performende Inhalte später als PDF zur Verfügung gestellt. Hier sollte nicht vergessen werden, dass es sich bei PDF Dateien auch um Dokumente handelt, die doppelte Inhalte erzeugen können. Aus diesem Grund sollte man diese PDF-Dateien nicht indexieren lassen (per robots-txt können PDF Dateien vom Crawling ausgeschlossen werden).  -> Disallow: /*.pdf$

Wie kann ich herausfinden, ob meine Website / mein Online Shop von duplicate content betroffen ist?

Möchtest du herausfinden, ob deine Internetpräsenz von “Duplicate Content” betroffen ist, dann kannst du dafür die Siteabfrage nutzen. Hierzu gibst du in das Suchfeld der Suchmaschine folgendes ein:

site:deinedomain.de (ohne das http://www)

Nun sieht du alle Seiten, die in den Suchmaschinenindex aufgenommen wurden. Nun kannst du an dieser Stelle mit weiteren Suchparametern wie “intitle” oder “intext” arbeiten. Hier findest du eine Auflistung von Suchparametern, die du verwenden kannst, um herauszufinden, ob sich identische Inhalte im Suchmaschinenindex befinden:

  • Mehrere Wörter, (oder auch ein einzelnes) in Anführungszeichen “” sucht genau die Phrase
    -> site:deinebeispieldomain.de “doppelte Inhalte”
  • filetype listet dir Dateien auf
    -> site:deinedomain.de filetype:pdf
  • intext liefert dir ähnlich wie die Anführungszeichen Seiten, die ein Wort (oder mehrere Wörter beinhalten)
    -> site:deinedomain.de intext:beispieltext
  • inurl listet dir URLs auf, die ein bestimmtes Wort (oder mehrere Wörter) beinhalten
    -> site:deinedomain.de inurl:beispielparameter

Weitere Infos:

Performance-Fehler

Zusammenfassend lässt sich sagen, dass folgenden technischen Auszeichungen Bedeutung geschenkt werden sollte:

  • Browser-Caching
  • Javascript auslagern
  • Javascript und CSS komprimieren
  • CSS Sprites
  • Bilder nur von einer Ressource beziehen

Soft 404 Fehler

URLs von Inhalten, die nicht mehr zur Verfügung stehen, sollten entweder weitergeleitet werden, oder einen 404 Statuscode erhalten. Wenn URLs allerdings nicht mehr erreichbar sind (Statuscode 404), diese allerdings einen Statuscode 200 ausgeben, dann handelt es sich hierbei um ein gravierendes Problem, denn dem Crawler wird signalisiert, dass dieses Dokument erreichbar ist, die Inhalte können allerdings nicht abgerufen werden. In den Suchmaschinentools erhält man essentielle Hinweise, welche URLs Soft 404 Fehler generieren.

Paginierungsfehler

Paginierungen spielen auch im Bereich Crawling eine wichtige Rolle. Dokumente werden zu Beginn ohne jeglichen Zusammenhang indexiert. Damit die Suchmaschine verstehen kann, dass Seiten bzw. Dokumente “zueinander” gehören und zudem wichtige Zusammenhänge und Kontexte erkannt werden können, müssen diese Dokumente besonders behandelt werden. Hier gibt es mehrere Möglichkeiten:

  • Paginierung bleibt vorhanden
    Paginierung ist auch im Bereich der Suchmaschinenoptimierung möglich. Hierzu kann rel=”next” und rel=”prev” vewendet werden. Das wird folgendermaßen angewendet.

    Beispiel:

    www.deinedomain.de/forenseite1/ hat mehrere Unterseiten, die dem Nutzer mittels Paginierung zur Verfügung gestellt werden. Damit der Suchmaschinencrawler die Zusammenhänge der jeweiligen Dokumente erkennen kann, muss man diesem einen Hinweis geben, welche Inhalte bzw. URLs “zusammengehören”. Das wird folgendermaßen umgesetzt: Angenommen du befindest dich auf www.deinedomain.de/forenseite2/ und es gibt insgesamt drei Forenseiten. Dann musst du die vorige Seite und die folgende Seite “markieren”. Hierzu nutzt du rel=”next” und rel=”prev”. In diesem Beispiel würde das folgendemaßen aussehen:

    <link rel=”prev” href=”/forenseite1/”>
    <link rel=”next” href=”/forenseite3/”>
  • Inhalte werden in nur einem Dokument dargestellt
    Diese Möglichkeit kann nur dann umgesetzt werden, wenn es möglich ist alle Inhalte auf nur einer Seite darzustellen. Auf Seiten, bei denen dies nicht möglich ist, weil es beispielsweise zuviele Inhalte gibt (z.B. Forum), sollte eine andere Umsetzung gewählt werden.

Javascript Links

Javascript Links stellen nach wie vor ein Problem für Suchmaschinencrawler dar, da diesen teilweise nicht “korrekt” gefolgt werden kann. Ist die interne Verlinkung mit Javascript-Links gelöst worden, dann kann es sein, dass der Crawler diesen internen Links nicht folgenden kann. Aus diesem Grund sollte auf Javascript Links verzichtet werden.

Javascript-Navigationen

Wie im oberen Bereich beschrieben fällt es Suchmaschinencrawlern noch schwer Javascript richtig zu verstehen. Häufig wird die Navigation mittels Javascript erstellt, was zur Folge haben kann, dass der Crawler den Links nicht korrekt folgen kann, was vor allem in der Navigation ein großes Problem darstellt. Hier sollte eine CSS-Variante herangezogen werden, sodass die Inhalte optimal interpretiert werden können.

“Weiterlesen” als interner Anchortext

Vielen Webmastern ist bereits bekannt, dass die interne Verlinkung eine sehr wichtige Rolle im Bereich der Suchmaschinenoptimierung spielt, dennoch findet man auf vielen Seiten noch Fehler. Nicht nur bei externen Links sollte darauf geachtet werden, dass die Anchortexte wichtige Keywords enthalten, sondern auch bei internen Links. Bei Anchortexten wie “Hier” oder “Weiterlesen” geht wichtiges Onpage-Potential verloren, aus dem Grund sollte darauf geachtet werden, dass auch hier sinnvolle Anchortexte genutzt werden.

Fazit:
Natürlich sind Titles, Descriptions, die interne Verlinkung und auch sprechende URLs sehr relevante Onpage-Faktoren, dennoch solltest du auch viel Wert auf die technischen Auszeichnungen legen. Natürlich erstellst du Inhalte für deine Leser und Leserinnen (und potenziellen Kunden und Kundinnen), dennoch solltest du es der Suchmaschine möglichst einfach machen deine Inhalte zu crawlen und interpretieren zu können. Inwiefern einfacher machen? Letztendlich geht es darum, dass die Suchmaschinencrawler verstehen müssen, welche Inhalte sich in deinen Dokumenten befinden und wie du diese intern gewichtest (interne Verlinkung). Suchmaschinen möchten allerdings auch Zusammenhänge und Kontext verstehen (Paginierung) um effizient arbeiten können. Aus diesem Grund solltest du nicht deren Crawling- und Indexbudget verschwenden (Duplicate Content), denn so bereitest du der Suchmaschine unnötige Schwierigkeiten, was sich auch negativ auf deine Sichtbarkeit deiner Website bzw. deines Online Shops auswirken kann. Aus diesem Grund achte darauf, dass das volle Potenzial deiner Onlinepräsenz effizient genutzt wird.

Ich hoffe sehr, dass dir dieser Artikel gefallen hat!


Weitere interessante Artikel:

Personal Branding
E-Mail Marketing
XOVI Test
Nischenseiten
Online Business
Whitepaper
SEO Fragenkatalog