Zum Inhalt springen

Technisches SEO – Endlich verstehen wie Suchmaschinen arbeiten

    Es gibt im Bereich SEO einige Tipps wie die eigene Seite optimiert werden kann. Oft liest man im Bereich der Suchmaschinenoptimierung von Onpage-Faktoren wie Titles, Descriptions und H1. Auch sprechende URLs und interne Verlinkung werden sehr häufig angeführt, jedoch gibt es noch einige Faktoren, die bisher selten erwähnt werden, jedoch auch sehr wichtig sind und den entscheidenen Unterschied ausmachen können. Aus diesem Grund entstand dieser Artikel. In diesem Artikel geht es um “technisches SEO”, welches vor allem Online Marketing- und SEO Einsteigern noch häufiger Probleme bereitet (siehe auch: Online Marketing und Online Marketing Mix). Teilweise bietet es sich diesbezüglich auch an ein fundiertes SEO Seminar zu besuchen.

    Inwiefern “Technisches SEO” und was genau erwartet Sie in diesem Artikel? Möchten Sie Ihre Website “suchmaschinenfreundlich” gestalten, dann müssen Sie auch wissen, was das überhaupt bedeutet. Was genau können Crawler auslesen und wie werden Inhalte optimal interpretiert? Letztendlich werden heutzutage immer noch einige SEO-Fehler gemacht, die meist technischer Natur sind. Im Folgenden finden Sie viele Tipps rund um das Thema “Technische SEO Fehler”.

    Verlust von Backlinkjuice

    Weiterleitung bedeutet nicht gleich Weiterleitung. Wichtige Backlinkpower kann bei einer falschen Weiterleitung verloren gehen. Damit wichtige Backlinkpower weitergegeben wird, muss der Statuscode 301 verwendet werden. Wichtig ist, dass vor allem bei einer Neustrukturierung der URL-Struktur diese Statuscodes der Weiterleitungen beachtet werden. Der Statuscode 302 gibt keinen relevanten Backlinkjuice weiter, was bedeutet, dass die Backlinks, die auf Ihre ehemalige URL zeigen, an Power verlieren und so Ihre Seite nicht weiter stärken können.


    Wöchentlich neue und fundierte Videos rund um die Themen "Selbstmarketing und Psychologie"


    Weiterleitungsketten

    Weiterleitungen sind im Bereich SEO sehr wichtig, da nicht nur die Nutzer von diesen profitieren, sondern auch die Suchmaschinencrawler. Häufig kommt es bei einer URL-Umstellung zu sogenannten Weiterleitungsketten, was bedeutet, dass eine URL mehrfach weitergeleitet wird. Besonders problematisch wird es bei Weiterleitungsketten mit unterschiedlichen Statuscodes wie z.B:

    Technisches SEO

    www.ihredomain123.de/seite1 -> Weiterleitung 302 -> www.ihredomain123.de/beispielseite1 -> Weiterleitung 301 -> www.ihredomain.de/bsp/seite1.

    Suchmaschinencrawler können aufgrund dieser Weiterleitungsketten Probleme bekommen die eigentlichen Inhalte zu interpretieren. Besonders problematisch wird es, wenn beispielsweise eine Weiterleitung der Weiterleitungskette den Statuscode 302 besitzt. So kann es sein, dass wichtiger Backlinkjuice nicht weitergegeben wird, auch wenn die “letzte” Weiterleitung den Statuscode 301 besitzt. Hier benötigt es eine detaillierte Analyse, um herauszufinden, welche verschiedenen Weiterleitungen überhaupt genutzt werden.

    Keine Verwendung der Sitemaps

    Sitemaps geben dem Suchmaschinencrawler wichtige Hinweise, welche URLs in den Index aufgenommen werden sollen. Wichtig ist es, dass Sitemaps strukturiert und laufend aktualisiert werden. Besonders Seiten, die in tieferen Ebenen liegen, können dem Crawler so zugänglich gemacht werden. Bei großen Seiten müssen mehrere Sitemaps erstellt werden, da eine Sitemap i.d.R. nur 50.000 URLs erhalten kann und maximal 50MB groß sein darf. Wenn mehrere Sitemaps vorhanden sind, dann ist es möglich eine Mastersitemap zu erstellen, die wiederum die “kleineren” Sitemaps erhält.

    So würde in der robots.txt die “Mastersitemap” angegeben werden:

    sitemap: http://www.deinedomain.de/sitemap_index.xml

    Schaut man sich diese XML Datei an, dann könnte diese beispielsweise folgendermaßen aussehen:

    <?xml version=”1.0″ encoding=”UTF-8″?>
    <sitemapindex xmlns=”http://www.sitemaps.org/schemas/sitemap/0.9“>
    <script/>
    <sitemap>
    <loc>http://ihredomain123.de/sitemap_01.xml</loc>
    <lastmod>2014-07-09</lastmod>
    </sitemap>
    <sitemap>
    <loc>http://www.ihredomain123.de/sitemap_02.xml</loc>
    <lastmod>2014-05-07</lastmod>
    </sitemap>
    </sitemapindex>

    Es gibt insgesamt mehrere verschiedene Sitemaps für unterschiedliche Inhalte. So gibt es beispielsweise Sitemaps für:

    • Bilder
    • News
    • Videos

    Möchten Sie für Ihre Website eine Sitemap erstellen, dann können Sie diese in den Tools der Suchmaschinen einreichen. Sie sollten diese auch noch in der robots.txt Ihrer Website angeben, damit der Crawler gleich erkennen kann, welchen Dokumenten er besondere Beachtung und Bedeutung schenken soll. In den Suchmaschinen Tools können Sie zudem auch erkennen, wie Ihre Sitemap verarbeitet wurde (Eingereicht/Indexiert).

    Keine Verwendung einer robots.txt

    Crawler rufen bei dem ersten Besuch einer Domain die robots.txt auf, um zu ermitteln welche Inhalte gecrawlt werden können. Aus diesem Grund sollten Sie stets sicherstellen, dass Sie auch wirklich nur die Informationen in der robots.txt angegeben haben, die auch wirklich notwendig und zielfördernd sind. Zudem ist es sehr wichtig, dass die Crawler korrekte Anweisungen erhalten, damit Ihre Website bzw. auch Ihr Blog (siehe: Blog erstellen) optimal interpretiert und verarbeitet werden kann. Wichtiger Zusatz: Wenn Sie beispielsweise planen einen umfangreichen Website Relaunch durchzuführen, dann sollten Sie Ihre Testumgebung nicht mit Hilfe der robots.txt sperren, sondern mit der .htaccess Datei.


    (Zukünftiges) Equipment und Empfehlungen (Werbung)


    Verschwendung von Crawlingbudget

    Jede Domain hat ein ihr zugewiesenes Crawlingbudget, welches von dem Crawler zur Interpretation der Inhalte aufgewendet werden darf. Nun kann es sein, dass die Priorisierung innerhalb der Seite so unzureichend ist, dass der Crawler auch Seiten crawlt, die:

    • nicht in den Index aufgenommen werden sollen
    • dem Nutzer keinerlei Mehrwert bieten
    • doppelt vorhanden sind

    So kann es sein, dass vor allem bei großen Websites und Online Shops Inhalte nicht richtig gecrawlt werden können, weil kein notwendiges Crawlingbudget mehr vorhanden ist. Aus diesem Grund sollten Sie immer sicherstellen, dass Sie den Überblick behalten, welche Inhalte wirklich wichtig sind und welche Dokumente Ihrer Onlinepräsenz eher “mehrwertlos” sind. Vor allem doppelte Inhalte (Duplicate Content) sorgen unter anderem dafür, dass Crawling-Budget nicht effizient verwendet wird.

    Verschwendung von Indexierungsbudget

    Ebenso wie Crawlingbudget kann auch wichtiges Indexierungsbudget ineffizient verwendet wird. Vor allem doppelte Inhalte sorgen dafür, dass wichtiges Indexierungsbudget verschwendet wird. Achten Sie aus diesem Grund darauf, dass nur Inhalte indexiert werden, die auch wirklich in den Suchmaschinenindex sollen. Wenn Sie der Meinung sind, dass bestimmte Inhalte den Usern keinen Mehrwert bringen, dann können Sie diese Inhalte auch wieder aus dem Index entfernen (mittels: <meta name =”robots” content=”noindex, follow>)

    Duplicate Content

    Wie können doppelte Inhalte in den Suchmaschinenindex gelangen?

    • Die falsche Nutzung von Tagseiten
      Tags bieten aus Sicht des Nutzers eine gute Möglichkeit schnell thematisch ähnliche Artikel zu finden. Hier sollten Sie allerdings analysieren, ob diese Tagseiten duplicate content erzeugen. Sollte das der Fall sein, dann sollten Tagseiten nicht in den Index aufgenommen werden.
    • https und http
      Da die Suchmaschine nun https:// (SSL-Verschlüsselung) zu einem Rankingfaktor gemacht hat, werden viele Webmaster anfangen https:// für ihre Website und für ihren Online Shop zu nutzen. Möchten Sie Ihre Website, oder auch Ihren Online Shop von http auf https umstellen, dann achten Sie unbedingt darauf, dass nur eine Version indexiert wird. Wie das erreicht werden kann? Hierzu können Sie das Canonical Tag verwenden oder die http-Version per 301 auf die https Version weiterleiten. Auch sollten die eingereichten Sitemaps und die interne Verlinkung aktualisiert werden.
    • www. und non www.
      Ist Ihre Website sowohl unter www.ihredomain123.de als auch unter ihredomain123.de zu erreichen, dann werden Sie wahrscheinlich ein duplicate content Problem haben. Sie sollten sichergehen, dass Ihre Inhalte jeweils nur unter einer URL erreicht werden können. In diesem Fall kann die .htaccess genutzt werden:

      RewriteEngine on
      RewriteCond %{HTTP_HOST} ^domain123.de
      RewriteRule ^(.*)$ http://www.domain123.de$1 [R=301,L]

    • Inhalte werden unter einer neuen Domain bereitgestellt
      Gibt es beispielsweise eine neue Firmanwebsite und einer neuen Domain, dann sollten die Inhalte der alten Domain auf die neue weitergeleitet werden. Wichtig ist auch hier, dass zur Weiterleitung der Statuscode 301 verwendet wird.
    • Trailing-Slash am Ende einer URL
      Der Trailing-Slash am Ende einer URL kann auch doppelten Content erzeugen. Werden URLs mit und ohne Trailing Slash indexiert, dann handelt es sich auch hier um doppelte Inhalte. Aus diesem Grund sollte die Version ohne Trailingslash auf die Version mit Trailing Slash weiterleiten (Statuscode 301).
    • Produktbeschreibungen in beispielsweise Online Shops
      Vor allem in Onlineshops kommt es häufig vor, dass Produktbeschreibungen sehr ähnlich sind. So kann der Aufbau und die Produktbeschreibung des blauen T-Shirts und des gelben T-Shirts sehr ähnlich sein. Auch hier sollte das Canonical Tag benutzt werden um auf die zu indexierende Version zu verweisen.
    • Print Versionen
      Indexierte Druckversionen können auch für DC sorgen. Aus diesem Grund sollten Druckversionen nicht indexiert werden.
    • Filterfunktionen
      Auch Filter können für duplicate content sorgen. Damit dieses Problem nicht auftritt und nur die relevanten Inhalte indexiert werden, sollte auch hier das Canonical Tag genutzt werden.
    • Parameter URLs und Session IDs
      URLs mit Parameter und Session IDs geben Inhalte wider, die bereits unter einen anderen URL vorhanden sind. Werden diese nun gecrawlt und indexiert, dann handelt es sich auch hier um duplicate Content. In den Tools der Suchmaschinen gibt es die Möglichkeit problematische Parameter URLs zu auszuschliessen. Wichtig ist, dass Sie genau wissen welche Parameter problematisch sind. Falsche Einstellungen können hier bewirken, dass wichtige URLs Ihrer Website nicht in den Suchmaschinenindex aufgenommen werden bzw. sogar wieder deindexiert werden.
    • Groß- und Kleinschreibung in URLs
      Was viele Webmaster häufig nicht wissen ist, dass Groß- und Kleinschreibung in URLs einen entscheidenen Unterschied ausmachen. Inhalte dürfen nur unter einer URL zu erreichen sein. Aus diesem Grund sollten Sie immer Kleinschreibung bei URLs verwenden.
    • PDF-Dateien können auch duplicate content erzeugen
      Oft werden besonders gut performende Inhalte später als PDF zur Verfügung gestellt. Hier sollte nicht vergessen werden, dass es sich bei PDF Dateien auch um Dokumente handelt, die doppelte Inhalte erzeugen können. Aus diesem Grund sollte man diese PDF-Dateien nicht indexieren lassen (per robots-txt können PDF Dateien vom Crawling ausgeschlossen werden).  -> Disallow: /*.pdf$

    Wie kann ich herausfinden, ob meine Website / mein Online Shop von duplicate content betroffen ist?

    Möchten Sie herausfinden, ob Ihre Internetpräsenz von “Duplicate Content” betroffen ist, dann können Sie dafür die Siteabfrage verwenden. Hierzu geben Sie in das Suchfeld der Suchmaschine folgendes ein:

    site:ihredomain.de (ohne das http://www)

    Nun sehen Sie alle Dokumente, die in den Suchmaschinenindex aufgenommen wurden. Nun können Sie an dieser Stelle mit weiteren Suchparametern wie “intitle” oder “intext” arbeiten. Hier finden Sie eine Auflistung von Suchparametern, die Sie verwenden können, um herauszufinden, ob sich identische Inhalte im Suchmaschinenindex befinden:

    • Mehrere Wörter, (oder auch ein einzelnes) in Anführungszeichen “” sucht genau die Phrase
      -> site:beispieldomain.de “doppelte Inhalte”
    • filetype listet Ihnen Dateien auf
      -> site:beispieldomain.de filetype:pdf
    • intext liefert Ihnen ähnlich wie die Anführungszeichen Dokumente, die ein Wort (oder mehrere Wörter beinhalten)
      -> site:beispieldomain.de intext:beispieltext
    • inurl listet Ihnen URLs auf, die ein bestimmtes Wort (oder mehrere Wörter) beinhalten
      -> site:beispieldomain.de inurl:beispielparameter

    Weitere Infos:

    Performance-Fehler

    Zusammenfassend lässt sich sagen, dass folgenden technischen Auszeichungen Bedeutung geschenkt werden sollte:

    • Browser-Caching
    • Javascript auslagern
    • Javascript und CSS komprimieren
    • CSS Sprites
    • Bilder nur von einer Ressource beziehen

    Soft 404 Fehler

    URLs von Inhalten, die nicht mehr zur Verfügung stehen, sollten entweder weitergeleitet werden, oder einen 404 Statuscode erhalten. Wenn URLs allerdings nicht mehr erreichbar sind (Statuscode 404), diese allerdings einen Statuscode 200 ausgeben, dann handelt es sich hierbei um ein gravierendes Problem, denn dem Crawler wird signalisiert, dass dieses Dokument erreichbar ist, die Inhalte können allerdings nicht abgerufen werden. In den Suchmaschinentools erhält man essentielle Hinweise, welche URLs Soft 404 Fehler generieren.

    Paginierungsfehler

    Paginierungen spielen auch im Bereich Crawling eine wichtige Rolle. Dokumente werden zu Beginn ohne jeglichen Zusammenhang indexiert. Damit die Suchmaschine verstehen kann, dass Seiten bzw. Dokumente “zueinander” gehören und zudem wichtige Zusammenhänge und Kontexte erkannt werden können, müssen diese Dokumente besonders behandelt werden. Hier gibt es mehrere Möglichkeiten:

    • Paginierung bleibt vorhanden
      Paginierung ist auch im Bereich der Suchmaschinenoptimierung möglich. Hierzu kann rel=”next” und rel=”prev” vewendet werden. Das wird folgendermaßen angewendet.

      Beispiel:

      www.beispieldomain.de/forenseite1/ hat mehrere Unterseiten, die dem Nutzer mittels Paginierung zur Verfügung gestellt werden. Damit der Suchmaschinencrawler die Zusammenhänge der jeweiligen Dokumente erkennen kann, muss man diesem einen Hinweis geben, welche Inhalte bzw. URLs “zusammengehören”. Das wird folgendermaßen umgesetzt: Angenommen Sie befinden sich auf www.deinedomain.de/forenseite2/ und es gibt insgesamt drei Forenseiten. Dann müssen Sie die vorige Seite und die folgende Seite “markieren”. Hierzu nutzt du rel=”next” und rel=”prev”. In diesem Beispiel würde das folgendemaßen aussehen:

      <link rel=”prev” href=”/forenseite1/”>
      <link rel=”next” href=”/forenseite3/”>
    • Inhalte werden in nur einem Dokument dargestellt
      Diese Möglichkeit kann nur dann umgesetzt werden, wenn es möglich ist alle Inhalte auf nur einer Seite darzustellen. Auf Seiten, bei denen dies nicht möglich ist, weil es beispielsweise zuviele Inhalte gibt (z.B. Forum), sollte eine andere Umsetzung gewählt werden.

    Javascript Links

    Javascript Links stellen nach wie vor ein Problem für Suchmaschinencrawler dar, da diesen teilweise nicht “korrekt” gefolgt werden kann. Ist die interne Verlinkung mit Javascript-Links gelöst worden, dann kann es sein, dass der Crawler diesen internen Links nicht folgenden kann. Aus diesem Grund sollte auf Javascript Links verzichtet werden.

    Javascript-Navigationen

    Wie im oberen Bereich beschrieben fällt es Suchmaschinencrawlern noch schwer Javascript richtig zu verstehen. Häufig wird die Navigation mittels Javascript erstellt, was zur Folge haben kann, dass der Crawler den Links nicht korrekt folgen kann, was vor allem in der Navigation ein großes Problem darstellt. Hier sollte eine CSS-Variante herangezogen werden, sodass die Inhalte optimal interpretiert werden können.

    “Weiterlesen” als interner Anchortext

    Vielen Webmastern ist bereits bekannt, dass die interne Verlinkung eine sehr wichtige Rolle im Bereich der Suchmaschinenoptimierung spielt, dennoch findet man auf vielen Seiten noch Fehler. Nicht nur bei externen Links sollte darauf geachtet werden, dass die Anchortexte wichtige Keywords enthalten, sondern auch bei internen Links. Bei Anchortexten wie “Hier” oder “Weiterlesen” geht wichtiges Onpage-Potential verloren, aus dem Grund sollte darauf geachtet werden, dass auch hier sinnvolle Anchortexte genutzt werden.

    Fazit:
    Natürlich sind Titles, Descriptions, die interne Verlinkung und auch sprechende URLs sehr relevante Onpage-Faktoren, dennoch sollten Sie auch viel Wert auf die technischen Auszeichnungen legen. Natürlich erstellen Sie Content für Ihre Leser und Leserinnen (und potenziellen Kunden und Kundinnen), dennoch sollten Sie es der Suchmaschine möglichst einfach machen Ihre Inhalte zu crawlen und interpretieren zu können. Inwiefern einfacher machen? Letztendlich geht es darum, dass die Suchmaschinencrawler verstehen müssen, welche Inhalte sich in Ihren Dokumenten befinden und wie Sie diese intern gewichten (interne Verlinkung).

    Suchmaschinen möchten allerdings auch Zusammenhänge und Kontext verstehen (Paginierung) um effizient arbeiten können. Aus diesem Grund sollten Sie nicht deren Crawling- und Indexbudget verschwenden (Duplicate Content), denn so bereiten Sie der Suchmaschine unnötige Schwierigkeiten, was sich auch negativ auf die Sichtbarkeit Ihrer Website bzw. Ihres Online Shops auswirken kann. Aus diesem Grund achten Sie darauf, dass Sie das volle Potenzial Ihrer Onlinepräsenz nutzen.

    Ich hoffe sehr, dass Ihnen dieser Artikel gefallen hat!
    Falls ja, dann würde es mich sehr freuen, wenn Sie diesen weiterempfehlen.

    Vielen Dank!


    Über mich

    Hallo, ich bin Kevin Jackowski, Ihr Experte für strategisches Selbstmarketing incl. psychologischer Beratung. Ich kann mittlerweile auf über 16 Jahre Online Marketing Know-how zurückblicken und erarbeite zusammen mit meinen Kundinnen und Kunden nachhaltige und fundierte Strategien für ein erfolgreiches, glückliches und selbstbestimmtes Leben. >> Mein YouTube Kanal

    Weitere interessante Artikel:

    Personal Branding
    E-Mail Marketing
    XOVI Test
    Nischenseiten
    Personal Branding eBook
    Personal Branding Coaching
    Personenmarke