Zum Inhalt springen

Suchmaschinenoptimierung – Über 6.100 Wörter SEO Expertise

    Haben Sie sich auch schon einmal überlegt wie Sie es schaffen können endlich mehr Traffic auf Ihre Website, Ihre Nischenseiten, Ihren Blog, oder auch auf Ihren Online Shop zu bekommen (siehe auch: Online Marketing und Online Marketing Mix)? Eine Möglichkeit sehr zielgruppenrelevanten und kostenlosen Traffic (abgesehen von deiner Arbeitszeit) zu erhalten lautet: SEO, oder auch Suchmaschinenoptimierung. Mit Hilfe der Suchmaschinenoptimierung ist es möglich die eigene Internetpräsenz bzw. die einzelnen Dokumente dieser so zu optimieren bzw. technisch auszuzeichnen, dass diese optimal von den Suchmaschinen verarbeitet und interpretiert werden können. Das Ziel der Suchmaschinenoptimierung lautet, dass die eigenen Dokumente zu vordefinierten Suchphrasen (Keywords / Queries) sehr weit vorn in den Suchergebnissen (am Besten Platz 1 Seite 1) angezeigt werden, damit die User bzw. die potenziellen Zielgruppen auf diese klicken und anschließend die eigene Internetpräsenz besuchen (bzw. auf dieser relevante Conversions generieren).

    Die Online Marketing Disziplin SEO hat sich in den letzten Jahren erheblich verändert. Während Suchmaschinen noch vor einigen Jahren sehr „statisch“ gearbeitet haben und auf die einfachsten technischen Mittel zurückgreifen mussten, sind diese heutzutage deutlich „intelligenter“ und in der Lage Kontext und Zusammenhänge zu erfassen, sodass die Suchergebnisse weitaus hilfreicher und bedürfnisorientierter geworden sind. Diese komplexen Verhaltensweisen und technischen Fortschritte der Suchmaschinen spiegeln sich auch im Bereich Suchmaschinenoptimierung wider.

    Suchmaschinenoptimierung

    Auch wenn zum Beispiel Keywords und Backlinks nach wie vor noch eine wichtige Rolle spielen um zielgruppenrelevanten Traffic über die organischen Suchergebnisse zu bekommen, liegen auch andere Faktoren wie z.B. holistischer und bedürfnisorientierter Content im Fokus zukünftiger SEO Maßnahmen.

    Jetzt zum SEO Tool XOVI Suite (Werbung)

    Bevor ich mit Ihnen die verschiedenen SEO Maßnahmen und Strategien im Detail durchgehen werde, möchte ich Ihnen erst einmal erläutern, wie genau Suchmaschinen überhaupt arbeiten. Nur so können Sie eine konkrete Vorstellung davon erhalten, weshalb wir überhaupt für diese optimieren bzw. technische Auszeichnungen verwenden.

    Wer effektiv und zielorientiert SEO betreiben möchte (zum Beispiel für Personal Branding bzw. dem Aufbau einer Personenmarke – siehe auch: Personal Branding eBook und Personal Branding Coaching), der muss vor allem verstehen wie Suchmaschinen überhaupt funktionieren und wie diese arbeiten. Überall ist stets die Rede von Titles und Descriptions optimieren, Meta-Tags, robots.txt, indexieren, Crawler, Snippets und anderen SEO Fachbegriffen. Alle diese SEO Faktoren müssen anscheinend optimiert, verändert, ausgezeichnet, gelesen und bearbeitet werden, doch bleibt oft das „weshalb mache ich das?“ völlig auf der Strecke. Vor allem SEO Einsteiger und Einsteigerinnen und Hobbywebmastern fallen SEO Optimierungen häufig besonders schwer, da ihnen das nötige SEO- und Online Marketing Know-how und auch die relevanten Erfahrungen fehlen, weshalb sie überhaupt diese wichtigen SEO Faktoren berücksichtigen sollten.

    Im Folgenden werde ich Ihnen erklären, weshalb Sie diese Bereiche optimieren sollten und weshalb diese SEO Auszeichnungen für die Suchmaschine so relevant sind.

    Möchte man mit seiner Internetpräsenz online gefunden werden, dann liest man in sehr vielen Blogs (siehe: Blog erstellen), Büchern und Fachartikeln, dass Titles und Descriptions angepasst werden müssen, dass Keywords berücksichtigt werden müssen und dass man doppelte Inhalte (Duplicate Content) vermeiden soll. Doch wieso sollte man das tun? Stellt man einigen SEOs und Einsteigern diese Frage, dann kann diese oft nur sehr unzureichend beantwortet werden. Diese SEO Maßnahmen sind zwar korrekt und Titles und Descriptions sind in der Tat sehr relevant, aber mindestens genau so wichtig ist es zu verstehen, wieso man diese SEO Maßnahmen umsetzen soll und was diese im einzelnen bewirken.

    Da das Thema Suchmaschinenoptimierung (siehe auch: SEO Seminar und Technisches SEO) bzw. die Funktionalität von Suchmaschinen sehr komplex ist, versuche ich mich in diesem sehr umfangreichen Artikel auf auf die wichtigsten Bereiche zu beschränken. Insgesamt gibt es ungefähr sechs wichtige Bereiche, die man sich genauer anschauen sollte. Hierbei handelt es sich um eine sehr vereinfachte Darstellung einer Suchmaschine:

    • Crawler
    • Url-Server
    • Store-Server
    • Scheduler
    • Parser
    • Index

    Man kann sich den Crawler einer Suchmaschine wie eine Spinne vorstellen, die Links von einem Dokument zum anderen folgt. Das eigentliche Ziel eines Crawlers ist die Erstellung eines Index. Crawler arbeiten systematisch Links ab, daher sollte man stets auf die interne Verlinkung achten, sodass die Crawler auch alle relevanten Dokumente finden können. Crawler erhalten von dem URL-Server URL-Listen, die abgearbeitet werden sollen. Diese Listen beinhalten wiederum URLs, die noch nicht in den Index aufgenommen wurden. Die Suchmaschinencrawler erhalten diese Listen von dem URL-Server und arbeiten diese systematisch ab. Dabei speichern sie die Informationen in einer Datenbank (dem Repository).

    Damit der Suchmaschinencrawler weiß welche URLs er als nächstes abrufen soll, erhält er diese relevanten Informationen vom Scheduler. Dieser Scheduler zieht aus dem URL-Index URLs heraus, die der Crawler als nächstes bearbeiten soll. Nach dieser Abarbeitung gibt der Crawler diese Informationen weiter an den Parser. Ein Parser ist ein sogenannter Zerteiler, was bedeutet, dass er die Inhalte so aufbereitet, dass diese später optimal weiterverarbeitet werden können. Der Parser zieht relevante Informationen heraus und übermittelt diese wiederum an den Store-Server. Der Store Server muss nun diese Informationen, die er von dem Parser erhalten hat, (die Informationen kann man sich vorstellen wie ein sehr einfaches Grundgerüst der Website) extrahieren.

    Jetzt mit der XOVI Suite professionell SEO betreiben (Werbung)

    Hierbei wird vor allem auf auch auf Veränderungen geachtet. Die Links, die noch nicht bekannt sind, werden wieder an den URL-Server übergeben. Die gefundenen Informationen werden anschließend in den Index übernommen. Dafür ist am Ende der Indexer zuständig. Er speichert die Informationen, die er erhalten hat, sehr detailliert ab, sodass eine spätere Durchsuchung der Dokumente stark vereinfacht wird. Am Ende steht dann noch der Searcher. Bei dem Searcher handelt es sich um das FrontEnd der Seite, also das, was der Nutzer sehen kann (das Suchfeld der Suchmaschine). Wenn nun der User eine Suchanfrage stellt, dann wird diese Suchanfrage mit den Inhalten des Index abgeglichen.

    Der Index besteht aus drei Bereichen:

    • Lexikon (Hashtabelle aller im Web gefundenen Begriffe) Jeder Begriff erhält einen Verweis auf die sogenannte Hit-List
    • Hit-Lists (enthalten Verweise auf das Repository)
    • Repository (Datenbank, die Informationen erhält, die der Crawler sammelte)

    In der Regel gibt es meist unterschiedliche Crawler. Dazu gehören:

    • Websuche
    • News
    • Bilder
    • Videos
    • Mobile
    • „Werbecrawler“ zur Qualitätsermittlung

    Es gibt mehrere Möglichkeiten den Suchmaschinencrawlern Hinweise zu geben, deren Arbeit zu erleichtern und um diese zu steuern:

    Die interne Verlinkung
    Möchten Sie dem Crawler die Arbeit erleichtern, dann nutzen Sie die interne Verlinkung. Dokumente, die in sehr tiefen Ebenen zu finden sind, können vom Crawler teilweise nicht mehr erreicht werden. Aus diesem Grund verwenden Sie die interne Verlinkung, damit der Crawler auch die Dokumente erreichen kann, die sich in tieferen Ebenen befinden, damit er diese Inhalte auch anschließend entsprechend interpretieren und verarbeiten kann.

    Meta-Tags
    noindex
    : noindex bedeutet, dass der Crawler diese Inhalte nicht indexieren soll
    nofollow: nofollow ist die Angabe, dass der Crawler dem Link nicht folgen soll

    Die Sitemap
    Möchten Sie dem Crawler die Arbeit erleichtern, dann erstellen Sie eine Sitemap, die der Crawler als Übersicht nutzen kann. Achten Sie vor allem darauf, dass in der Sitemap nur die wichtigen Dokumente vorhanden sind, die auf jeden Fall gecrawlt und bewertet werden sollen.

    Es gibt nicht nur Sitemaps für Artikel, sondern auch:

    • Sitemaps für Videos
    • Sitemaps für Bilder
    • Sitemaps für News

    Die robots.txt
    Vielleicht haben Sie schon von der robots.txt gehört, wussten jedoch nie so genau, welche Funktion diese besitzt. Die robots.txt ist ein Werkzeug mit dem man Crawler steuern kann. Besucht der Crawler Ihre Website, dann schaut er zuerst nach der robots.txt um zu erfahren, wie er sich verhalten soll. Es ist wichtig, dass sich die robots.txt im root-Verzeichnis befindet und dass dieser Dateiname komplett klein geschrieben wird. Beispiel: deinedomain.de/robots.txt

    Für die robots.txt gibt es einige Befehle. Hier werden ein paar aufgeführt und erläutert:

    User-agent: Suchmaschinenbeispielbot
    Disallow:

    User-agent wird dazu genutzt um einem entsprechenden Crawler „anzusprechen“. In diesem Fall wird der Suchmaschinenbeispielbot angesprochen. Der Befehl Disallow: bedeutet, dass alle Inhalte indexiert werden dürfen. Das erscheint seltsam, vor allem weil der Begriff Disallow eigentlich aus dem Englischen etwas ganz anderes bedeutet? Das ist korrekt, aber damit Inhalte vom Suchmaschinenbeispielbot nicht indexiert werden, müsste der Befehl folgendermaßen lauten:

    User-agent: Suchmaschinenbeispielbot
    Disallow: /

    Der / nach Disallow: teilt dem Crawler mit, dass diese Inhalte nicht indexiert werden dürfen. Mit der robots.txt kann man den Crawlern sehr detailliert aufzeigen, was diese „dürfen“ und was nicht. Da es mittlerweile sehr viele Crawler gibt, wäre es zu mühsam alle Crawler in der robots.txt zu erwähnen, aus diesem Grund kann ein * genutzt werden. Dieses Zeichen sagt aus, dass alle Crawler angesprochen werden sollen. Über die robots.txt können auch einzelne Dateiendungen, oder auch Verzeichnisse vom Crawling ausgenommen werden.

    Jetzt die XOVI Suite testen (Werbung)

    Hier mal ein besonderes Beispiel, welches wir uns nun genauer anschauen werden:

    User-agent: *
    Disallow: /*.pdf$
    Disallow: /crawl-mich-nicht/
    Disallow: /ich-bin-ein-beispielartikel.html
    Disallow: /archiv*/

    Erklärung:
    User-agent: * bedeutet, wie bereits oben beschrieben, dass alle Robots angesprochen werden sollen. Die unteren Befehle gelten also für alle Robots. Da wir nicht möchten, dass Crawler unsere .pdf-Dateien crawlen um diese ggf. anschließend in den Suchmaschinenindex aufzunehmen, schließen wir mit dem Befehl: /*.pdf$ alle .pdf-Dateien aus. Hier kann natürlich auch flexibel agiert werden und statt .pdf beispielsweise .png genutzt werden.

    Disallow: /crawl-mich-nicht/ bedeutet, dass dieses Verzeichnis nicht gecrawlt werden soll. Wenn wir schon dabei sind zu erwähnen, was alles nicht gecrawlt werden soll, dann soll auch ein bestimmter Artikel nicht gecrawlt werden (genau: /ich-bin-ein-beispielartikel.html).

    Vielleicht ist Ihnen aufgefallen, dass bei archiv* ein * hinter dem Verzeichnis Archiv steht. Dieses * bedeutet, dass mehrere Archive nicht indexiert werden sollen (zum Bespiel archiv-1 und archiv-2). Des Weiteren kann in der robots.txt angegeben werden, wo sich die Sitemap auf der Seite befindet. Da die Crawler gleich zu Beginn die robots.txt abrufen, können diese gleich die Sitemap finden und auf diese zugreifen. In den gängigen Suchmaschinentools gibt es die Möglichkeit die robots.txt zu testen. Zudem findet man in diesen häufig auch die Möglichkeit Crawling-Fehler einzusehen.

    In dem Bereich Crawling Fehler erhalten Sie wichtige Hinweise, ob der Crawler Ihre Inhalte auch korrekt verarbeiten kann, oder ob Fehler auftraten. Wenn Fehler aufgetreten sind, dann haben Sie die Möglichkeit sich diese anzeigen zu lassen und diese zu beheben. Sie können so direkt mit der Suchmaschine kommunizieren und zusammenarbeiten. In den Crawling Statistiken können Sie sehen, wie Ihre Seite gecrawlt wird und welche Daten dafür aufgewendet worden sind. Hier können Sie erkennen, wie aktiv der Suchmaschinenbeispielbot auf Ihrer Website in den letzten Tagen war.

    Auch hat man in der Regel de Möglichkeit einzelne URLs einzureichen. Hier können Sie eine URL angeben (beispielsweise die eines neuen Artikels, der sich noch nicht im Suchmaschinenindex befindet) und können diesen an den Index senden. Aus technischer Sicht wird diese URL dann an den URL-Server weitergegeben, der daraufhin dem Crawler wieder die Information in der URL-Liste mitgibt, sodass der Crawler daraufhin diese Seite abarbeitet.

    Es kann durchaus Sinn ergeben, dass einige unwichtige Bereiche nicht gecrawlt werden sollen. Da jede Domain ein eigenes Crawling-Budget besitzt, gilt es die Ressourcen des Crawlers optimal zu nutzen. Aus diesem Grund kann es sinnvoll sein nur die Bereiche crawlen zu lassen, über die man sich einen wesentlichen SEO Vorteil erhofft. Auch hier gilt es wieder, wie bereits in anderen Artikel erwähnt: Prioritäten setzen!


    (Zukünftiges) Equipment und Empfehlungen (Werbung)


    Sie fanden dieser Teil war sehr technisch und sehr anstrengend? Ja, da haben Sie absolut Recht, aber dieser Teil war sehr wichtig und notwendig, wenn es darum geht Suchmaschinenoptimierung zu verstehen. Ich persönlich lege großen Wert auf umfassendes SEO Know-how, daher möchte ich Ihnen nicht nur erklären wie etwas funktioniert, sondern vor allem auch weshalb. Nachdem ich dir nun erklärt habe wie Suchmaschinencrawler Dokumente interpretieren, kommen wir nun zum interessanten Thema SEO Grundlagen.

    Ist man als Unternehmen, oder als Betreiber einer eigenen Internetpräsenz im Internet vertreten, dann möchte man natürlich, dass die eigene Website, der eigene Online Shop, oder aber auch das eigene Produkt gefunden wird. Da heutzutage mehr und mehr Unternehmen festgestellt haben, dass es unabdingbar ist im Internet vertreten zu sein, entsteht so natürlich ein gewisser Konkurrenzdruck auch in den Suchmaschinen. Unternehmen ABC vertreibt im Internet beispielsweise Zahnbürsten, Unternehmen BCD ebenfalls. Da der Kunde allerdings nur eine Zahnbürste online kaufen möchte, muss er zwischen diesen beiden Unternehmen wählen. Beide Unternehmen betreiben einen sehr ähnlichen Online Shop und sind auf Zahnbürsten spezialisiert. Nun stellt sich die Frage: Welches Unternehmen wird nun die Zahnbürste online verkaufen?

    Die Suchmaschine hilft:
    Heutzutage nutzen sehr viele Menschen regelmäßig die Suchmaschinen um sich zu informieren, bevor sie ein Produkt kaufen.

    Um das Beispiel von oben wieder aufzugreifen, könnte es sein, dass der User „Zahnbürste kaufen“ in die Suchmaschine eingegeben hat. Das hat wahrscheinlich drei Gründe:

    • Der User möchte sich informieren, welche Zahnbürste am Besten ist
    • Der User möchte Produkte miteinander vergleichen
    • Der User möchte online eine Zahnbürste kaufen

    Nun gibt es natürlich noch weitaus mehr Unternehmen, die sich ebenfalls auf Zahnbürsten spezialisiert haben, dennoch bleiben wir erst einmal bei den zwei Beispielunternehmen. Nachdem der User nun in die Suchmaschine „Zahnbürste kaufen“ eingegeben hat, erhält er mehrere Suchergebnisse. Zum einen die bezahlten Suchergebnisse im oberen Bereich (Paid), zum anderen die nicht bezahlten (organischen) Suchergebnisse im unteren Bereich.

    Die Wahrscheinlichkeit, dass sich der User für ein Suchergebnis auf der ersten Seite entscheidet ist sehr hoch. Er möchte sich jetzt informieren, eine Zahnbürste kaufen und wenn er die Suchergebnisse überfliegt, dann habe alle etwas mit genau diesem Thema zu tun.

    Aus diesem Grund klickt er auf das erste Suchergebnis mit folgendem Title und folgender Description:

    Title: Zahnbürste kaufen – Topqualität schon ab 10€
    Description: Sie möchten eine Zahnbürste kaufen? Jetzt gratis informieren und unter vielen Topprodukten auswählen. Hier klicken!

    Genau diese Informationen hat der User gesucht und aus diesem Grund klickt er auf das erste Suchergebnis. Anschließend wird er voraussichtlich eine Landingpage vorfinden, die genau die von ihm gewünschte Thematik behandelt. Unternehmen XYZ betreibt nämlich Suchmaschinenoptimierung, hat die Landingpage extra für diese Suchanfrage (Query) erstellt und bietet so dem potenziellen Kunden genau das, was er benötigt. Aus diesem Grund profitieren in diesem Fall beide Seiten. Der Kunde findet genau das Produkt, welches er benötigt und Unternehmen XYZ hat online sein Produkt verkauft.

    Doch was ist mit den anderen Unternehmen, die noch keine Suchmaschinenoptimierung betreiben? Haben diese in den Suchmaschinen keine Chance mehr?

    Diese Frage kann man nicht allgemein beantworten. Bietet ein Unternehmen qualitativ hochwertige Informationen bzw. Content, dann wird dieser wahrscheinlich auch von der Suchmaschine korrekt verarbeitet und interpretiert werden, dennoch sollte man sich als Webmaster stets mit dem Thema Suchmaschinenoptimierung auseinander setzen, denn SEO sorgt auch dafür, dass man seinen Webauftritt strategisch ausrichtet.

    Meine SEO Tool Empfehlung: Die XOVI Suite (Werbung)

    Was ist damit gemeint?
    Wenn man eine Website bzw. einen Online Shop erstellt, dann soll diese Onlinepräsenz in der Regel einen konkreten Zweck erfüllen. Entweder möchte man über diese Kundinnen und Kunden ansprechen, man möchte informieren, man möchte verkaufen, man möchte präsent sein, oder man hat ein anderes Conversionziel definiert. Wenn man als Unternehmen Content im Internet anbietet, dann ist es essentiell, dass dieser der eigenen Zielgruppe Mehrwert bietet, dass dieser aktuell ist und dass dieser gepflegt und qualitativ hochwertig ist. Das gilt selbstverständlich nicht nur für die Startseite, sondern auch für alle Unterseiten. Jede Unterseite sollte ebenfalls einen eigenen Zweck (Conversionziel – Siehe: Conversionoptimierung) besitzen, z.B. zu informieren, zu verkaufen etc. Mit Hilfe der Suchmaschinenoptimierung ist es also möglich der Suchmaschine den thematischen Fokus jeder Unterseite (Dokument) technisch konkret zu erläutern.

    Suchmaschinenoptimierung bedeutet nicht nur, dass man dafür sorgt, dass die Suchmaschinencrawler die eigenen Inhalte optimal verarbeiten können. Das ist in diesem Fall der zweite Schritt. Der erste Schritt lautet, dass man schaut, dass man selbst den User und auch die eigenen Zielgruppen versteht. Man muss analysieren welche Bedürfnisse die Kunden besitzen und wie man diese am Besten befriedigen kann.

    Wieso sollte man als Unternehmen ein Produkt online stellen, wenn niemand dieses Produkt benötigt und wenn es für dieses keine Nachfrage gibt? Als Suchmaschinenoptimierer hat man die Möglichkeit auf relevante Daten zurückzugreifen, mit denen man die konkreten Bedürfnisse der eigenen Zielgruppen ermitteln kann (Suchvolumina). Bevor Sie also mit der SEO (Optimierung) beginnen, ist es essentiell, dass Sie eine ausführliche Keywordrecherche durchführen um zu ermitteln, ob es für Ihre Intention in Bezug auf Content eine konkrete Nachfrage Ihrer Zielgruppe gibt. Haben Sie diese konkreten Bedürfnisse in Form von Keywords ermittelt, dann können Sie anfangen den einzelnen Dokumenten einen internen Keywordfokus zuzuordnen und relevante SEO Onpage- und Offpage Faktoren zu nutzen um zukünftig mehr Traffic über die organische Suche der Suchmaschine zu erhalten.

    Sie möchten jetzt sicher endlich wissen, welche SEO Faktoren besonders wichtig sind und welche Sie für Ihre zukünftigen SEO (Optimierungen) nutzen sollten.

    Im Folgenden findest Sie eine praktische Liste:

    Title:

    • Nicht mehr als 65 Zeichen nutzen
    • Beinhaltet das wichtigste Keyword
    • Wichtiges Keyword steht möglichst weit vorn
    • Fasst den Inhalt der Seite zusammen
    • Bietet dem User Mehrwert
    • Weckt die Neugier des Users

    Description:

    • Ca. 300 Zeichen nutzen (Neu: Desktop)
    • Ca. 200 Zeichen nutzen (Neu: Mobile)
    • Besitzt eine direkte Handlungsaufforderung (Call to action)!
    • Fasst den Inhalt des Dokuments zusammen
    • Beinhaltet das wichtigste Keyword
    • Bietet dem User Mehrwert

    URL:

    • Sprechend (keine Zeichenketten, sondern Wörter (Keywords) nutzen)
    • Sinnvolle Verzeichnispfade wählen (Beispieldomain1.de/blog/dieses-ist-ein-beispielartikel/
    • Bindestriche statt Unterstriche wählen
    • Bietet dem User Mehrwert und fasst den Inhalt der Seite zusammen
    • Groß- und Kleinschreibung beachten

    Überschriften:

    • Sinnvolle Überschriften wählen
    • Nur eine H1 Überschrift wählen
    • Überschriften sollten Longtail-Keywords enthalten
    • Mehrere H2, H3, H4 Überschriften sind möglich
    • Überschriften sollen den Lesefluss unterstützen

    Weiterleitungen:

    • Korrekte Weiterleitungen nutzen
    • Statuscode 301 statt 302 verwenden (damit relevanter Backlinklinkjuice weitergegeben wird)
    • Weiterleitungsketten vermeiden

    Canonical Tag:

    • Wird bei doppelten Inhalten genutzt (Festlegung der Prioritäten)
    • (siehe: ausführlicher Erklärung  im unteren Bereich)

    Interne Verlinkung:

    • Damit der Crawler alle Seiten erreichen kann ist eine sinnvolle interne Verlinkung essentiell
    • Intern wird stets mit dem „Follow“-Attribut verlinkt
    • Durch die interne Verlinkung lassen sich intern Prioritäten von Dokumenten festlegen
    • Beschreibende keywordhaltige Anchortexte nutzen
    • Möglichst flache Hierarchien nutzen
    • Keywordfokus beachten
    • Intern absolut verlinken

    Statuscodes:

    • Korrekte Statuscodes nutzen
    • Keine 404-Seite mit Statuscode 200 ausgeben

    Bilder:

    • Alt-Tags nutzen um Bilder zu beschreiben
    • Fließtext um Bilder nutzen (Keywords)
    • Bild-Dateien korrekt benennen (Keywords)

    Robots.txt

    • Sitemap in robots.txt angeben
    • Groß- und Kleinschreibung beachten
    • robots.txt gibt Crawlern nur Hinweise. Bei Sperrungen stets die .htaccess verwenden

    Performance

    • Lange Ladezeiten vermeiden
    • Daten komprimieren
    • Caching nutzen
    • CSS Sprites nutzen
    • Http-Requests verringern
    • Javascript reduzieren

    SSL-Verschlüsselung nutzen

    • https:// verwenden (siehe auch: Webhosting)
    • Intern direkt auf https:// verlinken
    • https:// Sitemap anpassen
    • Canonicals beachten

    Mobile Darstellung

    • Optimierte Darstellung auf mobilen Endgeräten
    • Responsive-Lösung empfohlen

    Strukturierte Daten

    • Strukturierte Daten nutzen
    • Rich Snippets fördern
    • z.B. Bewertungen implementieren

    Backlinks

    • Ausschließlich thematisch relevante Backlinks erhalten
    • Natürliches Verhältnis Follow/NoFollow beachten
    • Keine harten Anchortexte (Keywords) nutzen / erhalten
    • Aus dem Text heraus verlinkt werden
    • Aus dem sichtbaren Bereich verlinkt werden
    • Beschreibender Anchortext wichtig
    • Möglichst wenig andere ausgehende Links auf dem Dokument
    • Backlinks bringen zielgruppenrelevanten Traffic

    Content

    • Ausführlicher und mehrwerthaltiger Content (siehe: Content Marketing)
    • Content muss die Bedürfnisse der eigenen Zielgruppe befriedigen
    • Content muss einzigartig sein
    • Das zur gewünschten Suchanfrage relevanteste Dokument werden

    Im Folgenden habe ich für dich einzelne SEO Faktoren noch einmal detaillierter erläutert:

    Nutze das Browser-Caching

    Sie können ein sogenanntes Browser-Caching für statische Ressourcen festlegen, sodass diese bei jedem Seitenaufruf nicht neu vom Server geladen werden müssen, sondern über die lokale Festplatte geladen werden können. Das Ablaufdatum der Ressourcen können Sie in den entsprechenden HTTP-Headern festlegen. Ein sogenannter Cache-Validierer kann Ihnen zudem helfen zu ermitteln, ob die Cache-Ressourcen auch optimal genutzt werden.

    Meine SEO Tool Empfehlung: Die XOVI Suite (Werbung)

    Reduzieren Sie Ihr JavaScript

    Sie können JavaScript komprimieren, sodass Sie auch hier einige Bytes sparen kannst. Vor allem werden diese Bytes nicht nur beim Herunterladen gespart, sondern auch beim Parsen und bei der Ausführungszeit. Achten Sie zudem darauf, dass zu Beginn des Seitenaufbaus nur das JavaScript geladen wird, welches auch wirklich benötigt wird. Nicht benötigtes JavaScript kann zu einem späteren Zeitpunkt nachgeladen werden. Des Weiteren sollte JavaScript möglichst spät geparst werden.

    Ein Inhalt, eine URL

    Achten Sie darauf, dass Sie nicht mehrere Ressourcen für beispielsweise ein Bild besitzen. Achten Sie darauf, dass es sich dabei um eine konsistente URL handelt, über die das Bild abgerufen werden kann.

    Komprimiere Sie Ihren HTML Code

    Inline-Javascripts und CSS können genau wie der HTML Code meist noch weiter komprimiert werden, sodass Ihre Website, Ihr Blog bzw. Ihr Online Shop noch schneller geladen werden kann, da die Größe der zu herunterladenden Daten verringert wurde.

    Minimieren Sie die Anzahl der Weiterleitungen

    Weiterleitungsketten, sogenannte Redirect Chains kosten oft Zeit. Vermeiden Sie die Anzahl der Weiterleitungen vor allem auch die sogenannten „Redirect Chains“. Bei diesen Redirect Chains handelt es sich um Weiterleitungsketten. Es wird also nicht gleich auf das korrekte Weiterleitungsziel in Form einer URL weitergeleitet, sondern diese URL wird anschließend erneut weitergeleitet.

    Ein Beispiel:
    Dokument 1 -> Weiterleitung 301 -> Dokument 2 -> Weiterleitung 301 -> Dokument 3 -> Weiterleitung 301 -> Dokument 4. Weiterleitungsketten stören nicht nur die User, sondern auch die Suchmaschinencrawler, daher achten Sie darauf, dass Sie immer gleich das korrekte und finale Linkziel verlinken.

    Komprimierung von JavaScript und CSS

    Sie können mittels gzip JavaScript und CSS komprimieren, sodass so die Ladegeschwindigkeit verbessert wird.

    Optimieren Sie Ihre Bilder

    Sie können Ihre Bilder komprimieren, sodass diese noch schneller geladen werden können. Nutzen Sie möglichst komprimierte und „kleine“ Bilder, sodass diese entsprechend schneller vom Server heruntergeladen werden können. Wichtig ist auch, dass Sie diese bereits skaliert zur Verfügung stellen, sodass die Skalierung nicht noch im Nachhinein geschehen muss. Es ist zusätzlich hilfreich auch gleich die Höhe und die Breite der Bilder anzugeben, sodass ebenfalls Ladezeit gespart werden kann. Handelt es sich um sehr viele Bilder in einem Dokument, dann sollten die Bilder zu sogenannten CSS-Sprites kombiniert werden. Hier werden alle Bilder zusammengefügt, sodass am Ende „nur ein Bild“ geladen werden muss. Es wird jedoch nur ausschließlich der Teil des CSS Sprites angezeigt, der auch wirklich benötigt wird. So kann die Anzahl der Http-Requests reduziert werden, was ebenfalls zur Folge hat, dass die Ladezeit verringert wird.

    In vielen Fällen dominiert bereits der mobile Traffic, daher ist es essentiell, dass diese Entwicklung auch im Bereich der Suchmaschinenoptimierung berücksichtigt wird.

    Im Folgenden werde ich Ihnen zeigen, welche mobile SEO Lösungen es dafür gibt.

    Letztendlich haben Sie mehrere Möglichkeiten Ihre Internetpräsenz optimal für Ihre Zielgruppen auf mobilen Endgeräten zugänglich zu machen. Hier die zwei gängigsten:

    1.) Responsive Design
    2.) Eine mobile Version deiner Seite

    Responsive Design

    Beim responsive Design (siehe auch: Webdesign) wird Ihre Onlinepräsenz wie z.B. Ihr Blog, oder auch Ihre Website entsprechend an das Endgerät angepasst, was bedeutet, dass Ihre Inhalte im besten Fall auf jedem Endgerät optimal lesbar sind. Letztendlich sollte bedacht werden, dass es oft nicht sinnvoll ist, auf einem Smartphone all die Elemente und Informationen darzustellen, die auch auf der Desktop Version dargestellt werden, denn das User-Verhalten am Smartphone (und wahrscheinlich auch die Intention) ist voraussichtlich ein anderes, als auf dem Desktop. Wer das Smartphone nutzt hat meist weniger Zeit bzw. eher eine kürzere Aufmerksamkeitsspanne als z.B. ein Desktopuser, daher sollten auf dem Smartphone nur die wichtigsten Elemente und Informationen zusammengefasst und auch zentrale Conversionelemente entsprechend angepasst werden (beispielsweise der „Buchen“- und „Kaufen-Button“). In diesem Fall bleibt die URL der Seite identisch (wichtig!).

    Die Mobile Version der Internetpräsenz

    Die mobile Version einer Onlinepräsenz ist eine Version, die extra für mobile Endgeräte erstellt wurde. Wenn die Desktopversion aufgerufen wird, dann wird der User-Agent ermittelt. Handelt es sich bei dem User-Agent um ein mobiles Endgerät, dann wird entsprechend auf die mobile Version der Onlinepräsenz weitergeleitet. Meist wird dazu eine Subdomain eingerichtet, wie m.dasisteinebeispielseite1.de. Hier gilt es zu bedenken, dass alle URLs unterschiedlich sind und es so sozusagen doppelte Inhalte geben kann.

    Wichtige Tipps für die mobile Version:

    • Leiten Sie auch hier mittels des Statuscode 301 weiter (so wird Backlinkjuice weitergegeben)
    • Achten Sie auf die Ladezeiten, die durch Weiterleitungen entstehen
    • Setzen Sie auf Ihren mobilen Seiten Canonicals auf die entsprechenden „Desktop-URLs“
    • Vermeiden Sie Inhalte in Ihre Seite einzubauen, die Smartphones nicht abspielen können
    • Leiten Sie Nutzer nur auf eine mobile Unterseite, wenn es auch ein entsprechend Pendant gibt
    • Nutzen Sie „rel alternate“ um auf deine mobile Website hinzuweisen
    • Vermeiden Sie Werbung auf der mobilen Seite, sondern beschränken Sie sich auf das Wichtigste

    Häufig liest man als Webmaster im Bereich Suchmaschinenoptimierung von dem „Canonical Tag“, meist in Verbindung mit Duplicate Content, also doppelten Inhalten. Das Canonical-Tag ist eine Angabe im <head> Bereich des Quelltexts eines Dokuments. Mit Hilfe des Canonical Tags ist es möglich Suchmaschinen mitzuteilen, dass von einem Dokument mehrere sehr ähnliche btw. identische Versionen jedoch mit unterschiedlichen URLs existieren. So kann die Suchmaschine leichter identifizieren welches Dokument zukünftig zu einer entsprechenden Suchanfrage herangezogen werden soll.

    Erklärung Duplicate Content:
    Suchmaschinen haben die Intention ausschließlich einzigartige und mehrwerthaltige Dokumente in ihren Suchmaschinenindex aufzunehmen. Wenn Sie nun als Webmaster mehrere sehr ähnliche bzw. identische Unterseiten besitzen, dann kann es sein, dass die Suchmaschine diese als doppelte Inhalte identifiziert, da die Unterschiede im Quelltext zu gering ausfallen.

    Sollte das der Fall sein, dann fällt es der Suchmaschine schwer das Dokument zu ermitteln, welches zu entsprechenden Suchanfragen herangezogen werden soll. Somit besitzt man als Webmaster ein „Duplicate Content Problem“, welches zur Folge haben kann, dass es zu erheblichen Keywordschwankungen kommt, da die Suchmaschine versucht herauszufinden, welches der sehr ähnlichen Dokumente für entsprechende Suchanfragen am relevantesten ist. Mit Hilfe des Canonical-Tag können Webmaster der Suchmaschine im Quelltext mitteilen, welche Version die „Originalversion“ eines Dokuments ist und welches von der Suchmaschine zu Suchanfragen herangezogen werden soll. Die anderen Versionen werden von der Suchmaschine nicht in den Index aufgenommen.

    Jetzt mit der XOVI Suite mehr SEO Traffic generieren (Werbung)

    Um die Notwendigkeit des Canonical-Tags besser darstellen zu können, finden Sie im unteren Bereich einige Beispiele, die verdeutlichen werden, wann das Canonical-Tag genutzt werden sollte. Bei diesen Beispielen könnte es ohne Canonical-Tag zu einem Duplicate Content Problem kommen:

    Druckansichten 
    www.beispieldomain.de/beispielartikel.html
    www.beispieldomain.de/beispielartikel_print.html

    IDs zum Beispiel-Session IDs-URls 
    www.beispieldomain.de/produktname
    www.beispieldomain.de/produktename?session_id=123

    Startseite ist unter verschiedenen Versionen aufrufbar
    www.beispieldomain.de
    www.beispieldomain.de/index.html
    beispieldomain.de
    beispieldomain.de/index.html

    Https und Http Versionen vorhanden:
    (http:)//www.beispieldomain.de
    (https:)//www.beispieldomain.de

    Parameter-URLs
    www.beispieldomain.de/beispielprodukt
    www.ihreseite.de/beispielprodukt?tracking_id=xyz

    Doppelte Inhalte durch Groß- und Kleinschreibung
    www.beispieldomain.de/Artikel/
    www.beispieldomain.de/artikel/

    URLs mit und ohne Trailingslash vorhanden
    www.beispieldomain.de/artikelname
    www.beispieldomain.de/artikelname/

    Das Canonical bei PDF-Dateien
    Möchten Sie als Website-Betreiber Ihren Lesern die Möglichkeit anbieten bereits erschienene Artikel als .pdf-Datei herunterzuladen, dann verursacht die .pdf Datei aus Sicht der Suchmaschine (sofern die .pdf Datei gecrawlt und indexiert wird) Duplicate Content, da der Inhalt dieses Dokuments identisch ist mit dem bereits veröffentlichten Artikel. Aus diesem Grund sollte man als Webmaster im Http-Header das Canonical angeben.

    Die Arbeit mit dem Canonical-Tag in der Schnellübersicht

    • An welchen Stellen ist ein Duplicate Content Problem vorhanden?
    • Welche Version soll indexiert werden bzw. ranken?
    • Welche ähnlichen Dokumente sind vorhanden?
    • Einbindung des Canonical-Tags bei den „doppelten Versionen“.

    Das Canonical- Tag ist eine gute Möglichkeit Suchmaschinencrawler darauf hinzuweisen, dass es mehrere sehr ähnliche Versionen eines Dokuments gibt (mit unterschiedlichen URLs), sodass Duplicate Content leicht vermieden werden kann. Da es sich bei dieser Angabe um eine sehr schwerwiegende Änderung handelt ist es essentiell, dass man sich als Webmaster intensiv mit dem Canonical-Tag auseinandersetzt und dieses korrekt implementiert. Wird dieses falsch eingebunden (wird z.B. http :// statt https:// genutzt), dann kann dieser Fehler dazu führen, dass z.T. die komplette Website bzw. der eigene Online Shop deindexiert wird und du wichtige Suchmaschinenrankings verlierst. Bitte arbeiten Sie daher sehr genau und sorgfältig mit dem Canonical Tag!

    Damit SIe zukünftig noch mehr Traffic über die organische Suche der Suchmaschine erhalten kannst, werde ich Ihnen im Folgenden noch ein paar konkrete Tipps für Ihre Suchmaschinenoptimierung geben:

    Brandbuilding

    Möchten Sie Ihre Website, Ihre Nischenseite, Ihren Online Shop, oder auch Ihren Blog für die Suchmaschinen optimieren, dann sollten Sie vor allem Ihr Grundverständnis bzgl. Ihrer Onlinepräsenz ändern. Ihre Website mag aktuell „nur eine Homepage“ sein, jedoch wird diese Definition in Zukunft voraussichtlich nicht mehr ausreichen um als Autorität in den Suchmaschinen wahrgenommen zu werden. Denken Sie nicht mehr in „Website“, denken Sie in „Brand“! Sie müssen Ihre Onlinepräsenz dahingehend optimieren, dass diese ein Brand wird bzw. Ihren persönlichen Brand optimal widerspiegelt. Ihre Inhalte müssen so unique und einzigartig sein, dass zukünftig genau Ihre Internetpräsenz im Internet eine Autorität darstellt. Ihre Inhalte müssen nicht nur mehrwerthaltig und einzigartig sein, sondern sie müssen auch eine persönliche Note besitzen. Ihr Content muss etwas besitzen, dass ihn so auszeichnet, dass nicht nur die User, sondern auch die Suchmaschine feststellen können, dass diese Inhalte nur von Ihnen stammen können.

    Um genau das zu erreichen sollten Sie sich folgende Fragen stellen:

    • Worin unterscheidet sich meine Onlinepräsenz in Bezug auf andere?
    • Welchen USP (Unique Selling Point) besitzt meine Website?
    • Welches Ziel verfolge ich mit meiner Internetpräsenz?
    • Spiegeln die Inhalte, die ich veröffentliche, genau das wider, was ich auch erreichen möchte?
    • Warum sollten User Zeit auf meiner Onlinepräsenz verbringen?
    • Warum sollten sich User den Namen meiner Website bzw. Blog merken?
    • Gibt es etwas, was User mit meiner Website assoziieren können?
    • Bieten meine Inhalte überhaupt soviel Mehrwert, dass User später erneut meine Website bzw. meinen Online Shop besuchen werden?
    • Werde ich von anderen Webmastern erwähnt, weil ich z.B. Experte auf meinem Gebiet bin?
    • Wie wird meine Seite von anderen Experten wahrgenommen?
    • Können meine Inhalte genau meiner Seite zugeordnet werden, oder könnten diese auch auf anderen Websites erscheinen?

    Letztendlich geht es mir darum, dass Ihre Internetpräsenz mehr ist als nur ein Informationsmedium. Ihre Website benötigt eine Art Persönlichkeit, die so einzigartig ist, dass nicht nur Ihe Inhalte begeistern, sondern auch die Art und Weise, wie diese von Usern wahrgenommen werden. Wie sind sie geschrieben? Wie sind diese angereichert (durch Brandvideos, Bilder, Infografiken..). Legen Sie Wert darauf sich aktiv im Markt zu positionieren und lassen Sie sich nicht positionieren. Es geht nicht nur um den Inhalt an sich, sondern wie dieser mit Ihrer Website, Ihrem Online Shop, oder auch Ihrem Blog in Verbindung gebracht wird.

    Ein Beispiel:
    Sie lassen Content produzieren und veröffentlichen diesen dann in der Hoffnung, dass dieser dann „gut rankt“ und du so zielgruppenrelevanten Traffic für Ihre Website generierst. Dabei lassen Sie völlig außer Acht, dass genau dieser Inhalt bereits thematisch auch schon auf sehr vielen anderen Websites erschienen ist. Warum sollte also genau Ihr Inhalt gelesen werden, wenn in diesem genau das nachzulesen ist, was auch schon seit langer Zeit auf vielen anderen Websites erschienen ist?

    Fehler:
    Natürlich gibt es Inhalte, die sich thematisch sehr dicht an anderen Inhalten orientieren, dennoch fehlt Ihrem Inhalt in diesem Fall die persönliche Note. Ihr Content ist zwar unique, nicht aber von der Art wie dieser geschrieben wurde. Dieser könnte genau so kopiert und auf einer anderen Website eingefügt werden. Es würde keinen Unterschied machen!

    Lösung:
    Sie müssen Ihre Internetpräsenz dahingehend branden, dass diese eine einzigartige Note erhält. Geben Sie Ihren Inhalten eine einzigartige Struktur, branden Sie diese durch Logos, Bilder und Animationen und legen Sie den Schwerpunkt dabei stets auf inhaltliche Qualität. Wenn Sie einen Artikel veröffentlichen, dann darf das Ziel in Zukunft nicht mehr lauten: „Gut ranken“, sondern dass dieser von Ihren Zielgruppen gelesen wird, weiterempfohlen wird und dass Ihre Marke und Autorität durch diesen nachhaltig ausgebaut wird. Überzeugen Sie nicht mehr die User von Ihrem Artikel, sehen Sie Ihre Internetpräsenz als Gesamtprodukt und überzeugen Sie Ihre Zielgruppe durch Ihr Gesamtangebot und nicht mehr nur durch lediglich „einen Inhalt“.

    Weshalb ist diese Maßnahme im Bereich Suchmaschinenoptimierung so wichtig?
    Suchmaschinen legen mehr und mehr Wert auf Autoritäten, also auf Experten Know-how. Wenn Sie nun auf Ihrem Gebiet mit herausragendem Content herausragende Arbeit leisten, dann werden Sie ggf. langfristig in diesem Gebiet von den Suchmaschinen als Autorität anerkannt werden, was wiederum bedeutet, dass Sie zu den Keywords Ihres Themas „besser ranken“ werden. Es ist an dieser Stelle wichtig zu erkennen, dass Sie Ihren Zielgruppen und den Suchmaschinen mehr bieten müssen, als lediglich gute Inhalte. Bieten Sie Ihnen ein umfassendes Expertenwissen, welches nicht nur exakt ein Problem lösen kann (durch z.B. einen Artikel), sondern gleich mehrere. Beraten Sie Ihre potenziellen Kundeninnen und Kunden und User möglichst umfassend und ausführlich und befriedigen Sie deren Bedürfnisse.

    Aus diesem Grund langt es heutzutage i.d.R. bei weitem nicht mehr lediglich 400 Wörter zu einem Thema zu schreiben und zu hoffe, dass man mit diesem gute Ergebnisse in den Suchmaschinen erzielen wird. Als Webmaster muss man dafür sorgen, dass mit den eigenen Inhalten interagiert wird:

    Aus diesem Grund achten Sie darauf, dass Ihr Content:

    • Für Ihre Zielgruppen geschrieben wird
    • Ein Problem umfassend behandelt
    • Keine Rechtschreibfehler aufweist
    • Nicht durch Werbung in den Hintergrund gerät
    • Angereichert wird (Bilder, Videos, Infografiken, Tabellen..)
    • Interne Links zu thematisch ähnlichen Artikeln besitzt
    • Leicht in den sozialen Netzwerken geteilt werden kann
    • Wirklichen Mehrwert bietet
    • Ein Ziel verfolgt, welches auch gemessen werden kann (KPI)
    • Sie bei Ihrem Brandbuilding unterstützt
    • Technisch sauber ausgezeichnet wurde (Microdata/Onpageoptimierung)

    Semantisches Markup und strukturierte Daten
    Vielleicht haben Sie soeben gedacht: „Was genau ist mit Microdata gemeint“ und was bedeutet „Technisch sauber auszeichnen“? Es ist möglich den Suchmaschinencrawlern noch detaillierte Hinweise zu geben um was genau es sich in einem Dokument handelt. Das gelingt mit Hilfe der sogenannten Microdata, die z.B. mittels schema.org ausgezeichnet werden können.

    Hier klicken und jetzt die XOVI Suite testen (Werbung)

    So können Sie zum Beispiel mit den Auszeichnungen von schema.org der Suchmaschine mitteilen um was es sich in Ihrem Artikel thematisch handelt. Handelt es such beispielsweise um ein Rezept, eine Veranstaltung, oder um Person? Sie können mit Hilfe der strukturierten Daten dafür sorgen, dass die Suchmaschinencrawler Ihre Dokumente thematisch besser interpretieren und einordnen können. Diese Einordnung von Inhalten wird in Zukunft voraussichtlich eine noch größere Rolle spielen (z.B. aufgrund der Voice Search). As diesem Grund ist es sinnvoll die eigenen Inhalte optimal auszuzeichnen.

    Auszeichnungen, die sehr häufig genutzt werden:

    • Events
    • Reviews
    • Rezepte
    • Videos
    • Personen
    • Orte
    • Bewertungen
    • Produkte

    Vielleicht stellen Sie sich gerade die Frage: „Können nur die Suchmaschinencrawler diese Auszeichnungen sehen, oder haben diese auch noch einen anderen Effekt?“. Hauptsächlich werden voraussichtlich die Suchmaschinen von diesen Informationen profitieren, dennoch profitieren auch oft Webmaster und User von diesen Auszeichnungen. So findet man Bewertungen beispielsweise auch in den Suchmaschinenergebnissen (Rich Snippets).

    Es gibt einige technische SEO Fehler, die dafür sorgen können, dass man in den Suchmaschinen nicht optimal gefunden wird. Das kann einzig und allein daran liegen, dass man keinen Überblick über die eigenen Inhalte besitzt, oder aber dass sich nicht ausreichend mit dem Thema SEO beschäftigt wurde. Wenn Sie über die organische Suche der Suchmaschine zielgruppenrelevanten Traffic erhalten möchten, dann sollten Sie die folgende Fehler vermeiden:

    Sie kennen Ihre Inhalte nicht

    Wenn Sie keinen Überblick mehr haben, welche Inhalte Sie besitzt und wie diese von den Suchmaschinen indexiert wurden, dann sollten Sie sich intensiver mit dem Thema „Indexierung“ auseinander setzen. Nutzen Sie dazu am Besten die Site-Abfrage: „site:deinedomain1.de“ um im Suchmaschinenindex zu schauen, welche Ihrer Inhalte bereits in den Index aufgenommen wurden. Wenn Sie feststellst, dass sich im Suchmaschinenindex Inhalte befinden, die Ihren Zielgruppen und auch der Suchmaschine keinen Mehrwert bieten, dann lassen Sie diese ggf. wieder deindexieren. Sie sollten Ihre Inhalte kennen und auch wissen, welche sich im Index befinden. Denken Sie bitte zudem daran, dass Sie jedem Dokument Ihrer Internetpräsenz ein eigenes Fokuskeyword zuweisen. Bei dem Fokuskeyword handelt es sich um den Suchbegriff zu dem dieses Dokument in den Suchmaschinen gefunden werden soll.

    Sie nutzen nicht die Tools der Suchmaschinen

    Wie im oberen Bereich bereits geschrieben finden Sie in den Suchmaschinentools wichtige Hinweise zum Thema Crawling, Sitemaps, robots.txt und Indexierung. Hier bekommen Sie nicht nur Hinweise und Tipps, sondern Sie können auch Fehler und Probleme erkennen und entsprechend auf diese reagieren. Zudem können Sie du Dokumente (URLs) einreichen, die gecrawlt werden sollen, Ihre Sitemaps einreichen und Ihre robots.txt testen lassen. Zudem bekommen Sie auch Hinweise bzgl. der Performance Ihrer Internetpräsenz. Diese SEO Tools sollten Sie nutzen um der Suchmaschine wesentliche Hinweise zu geben und um mit dieser zu interagieren.

    Sie nutzen Meta-Tags falsch oder gar nicht

    Meta-Tags sind eigentlich nicht kompliziert, vor allem nicht, wenn man zum Beispiel WordPress benutzt. Zudem sind diese ein sehr hilfreiches Mittel, wenn es darum geht Suchmaschinencrawlern Hinweise in Bezug auf die Suchmaschinenoptimierung zu geben. Aus diesem Grund sollten Sie diese nutzen und sich genauer mit den Meta-Tags beschäftigen.

    Sie machen Fehler in der robots.txt

    Wenn Sie sich noch nicht so gut mit der robots.txt auskennen sollten, dann sollten Sie sich diesbezüglich unbedingt weiter einlesen, vor allem wenn Sie diese für SEO nutzen möchten. Die robots.txt ist ein wichtiges Werkzeug, wenn es um die Steuerung der Crawlern geht. Machen Sie allerdings in der robots.txt Fehler, dann kann es sein, dass die Inhalte Ihrer Onlinepräsenz nicht mehr indexiert werden, oder dass essentielle Bereiche nicht mehr gecrawlt werden können. Hier kann bereits ein / zur Folge haben, dass Ihre Website nicht mehr in den Suchmaschinen gefunden wird. Aus diesem Grund sollten Sie, wenn Sie die robots.txt nutzen möchten, sich intensiver mit dem Thema befassen.

    Ihre Inhalte sind intern unzureichend verlinkt

    Wenn Sie möchten, dass die Suchmaschinencrawler auch Inhalte Ihrer Website findet, die sich in sehr tiefen Ebenen befinden, dann sollten Sie die interne Verlinkung nutzen um ihnen diese zugänglich zu machen. Crawler nutzen Links um neue Seiten zu erkennen, daher sollten Sie diese Links nutzen um den Crawlern die Arbeit zu erleichtern. Vor allem sollten Sie auch die interne Verlinkung nutzen um mit keywordhaltigen Anchortexten Ihre Dokumente zu verlinken (Fokuskeyword).

    Sie verschwenden Crawling-Budget

    Jede Domain verfügt über ein bestimmtes Crawling Budget, was bedeutet dass der Crawler nur bestimmte Ressourcen für Ihre Domain investiert. Diese Ressourcen sollten Sie unbedingt effizient nutzen! Doppelte Inhalte, oder sehr unwichtige Inhalte verschwenden Crawling-Budget und Indexierungsbudget, welches für wichtige Dokumente hätte aufgewendet werden können. Aus diesem Grund achten Sie darauf, dass Sie Ihr Crawling-Budget effizient und sinnvoll einsetzen.

    Unwichtige URLs in der Sitemap

    Angenommen Sie hast eine Sitemap erstellt, diese in den Suchmaschinentools eingereicht und sogar noch in der robots.txt angegeben, dann haben Sie schon einiges richtig gemacht. Sie sollten allerdings auch darauf achten, dass sich in der Sitemap nur URLs befinden, die auch wirklich relevant sind. Haben Sie in dieser auch URLs angegeben, die eigentlich „unwichtig“ sind, dann haben Siedem Crawler unnötige Informationen gegeben, die er allerdings trotzdem verarbeiten muss. Achten Sie deshalb darauf, dass die Informationen in der Sitemap auch alle relevant, korrekt und wichtig sind.

    Ich hoffe sehr, dass Ihnen dieser umfangreiche Artikel gefallen hat.
    Falls ja, dann würde ich mich sehr freuen, wenn Sie diesen teilen und weiterempfehlen.

    Vielen Dank!


    Über mich

    Hallo, ich bin Kevin Jackowski, Ihr Experte für strategisches Selbstmarketing incl. psychologischer Beratung. Ich kann mittlerweile auf über 16 Jahre Online Marketing Know-how zurückblicken und erarbeite zusammen mit meinen Kundinnen und Kunden nachhaltige und fundierte Strategien für ein erfolgreiches, glückliches und selbstbestimmtes Leben. >> Mein YouTube Kanal

    Weitere interessante Artikel:

    SEO Fragenkatalog
    SEO Manager
    Website nicht gefunden
    SEO Fehler
    Online Marketing Potenziale
    E-Mail Marketing
    Influencer Marketing