Interview mit Tobias Schwarz von Strucr.com

0


Hallo Tobias,

willkommen zum ersten Unternehmensinterview! Danke, dass du dir die Zeit dafür nimmst. Magst du dich den Lesern kurz in ein paar Sätzen vorstellen?
Das kann ich gerne tun. Mein Name ist Tobias Schwarz. Ich betreibe seit mehr als 10 Jahren eine Reihe von Webseiten bei denen ich über SEO Traffic generiere und den Traffic dann vermarkte. Ich bin regelmäßig Speaker auf Konferenzen und seit 2011 betreibe ich auch noch den Analysedienst Strucr.com.

Du bist der Mitgründer des Crawling-Tools Strucr. Wie bist du auf die Idee gekommen ein derartiges Tool zu entwickeln? Was hat dir bei anderen Tools gefehlt?
Im April 2011 haben wir bei einer unserer Webseiten größere strukturelle Änderungen online stellen wollen. Ziel dieser Änderungen war es wichtige Seiten intern stärker zu verlinken. Wir wollten wichtige Seiten weiter stärken und durch Positionsgewinne in den Suchergebnissen von Google mehr Traffic abgreifen. Das Konzept für die strukturellen Änderungen stammte von mir, mein Partner Gerd  Riesselmann hat das Ganze programmiert. Leider waren wir aufgrund der Größe der Seite nicht in der Lage die Auswirkungen unserer geplanten Änderungen zu überblicken. Bei geschätzt 200.000 Seiten und mehr als 60 Links pro Seite geht das einfach nicht mehr. Strucr war unsere Antwort auf diese unzufriedenstellende Situation und unser Hilfsmittel um strukturelle Änderungen simulieren und verstehen zu können.

 Andere Tools konnten die Daten nicht in der benötigten Qualität erheben und mathematische Berechnungen die zur Bewertung nötig sind fehlten bei allen verfügbaren Tools komplett. Der Anstoß aus Strucr ein für jeden nutzbares Tool zu machen kam erst später. Einige befreundete SEOs waren begeistert von unseren Daten und wollten ihre eigenen Projekte ebenfalls analysieren und mit den Daten weiter optimieren.

Crawler dienen unter andrem dazu OnPage-Schwachpunkte wie fehlende Meta-Auszeichungen und Statuscodes der Seite zu analysieren und vor allem auch die Websitearchitektur darzustellen. Was genau kann Strucr leisten? Ist Strucr auch in der Lage sehr umfangreiche Seite zu crawlen?
Ursprünglich lag unser Fokus auf der Optimierung von Linkstrukturen. Die Onpage-Analyse kam später hinzu, ist aber inzwischen mit einer der wichtigsten Teile unserer Software. Strucr analysiert aktuell mehr als 90 Kriterien für jeder einzelne Unterseite. Bei der Strukturanalyse ist unsere große Stärke die Berechnung von Metriken, welche die Seiten gegeneinander gewichten. In unserem größten Paket crawlen wir aktuell bis zu 12 Millionen Seiten pro Crawl und erfassen dabei bis zu 1,8 Milliarden Links. Technisch sind auch größere Crawls mit 100 Millionen Seiten oder mehr möglich. Solche Crawls bieten wir auf Anfrage an. Die Zahl der Kunden, die so viele Seiten crawlen muss, ist jedoch sehr überschaubar.

Eins der größten Probleme bei sehr umfangreichen Crawls ist die Darstellung der Ergebnisse. Wie genau werden die Crawling-Daten bereit gestellt und aufbereitet? Übernimmt Strucr auch die Auswertung der Daten?
Die Daten werden über ein Webinterface zugänglich gemacht. Darüber hinaus gibt es die Möglichkeit die kompletten Rohdaten auch über unsere API abzurufen. Viele unserer Kunden nutzen dies und kombinieren in ihren eigenen Systemen die Daten mit anderen Datenquellen. Wir verstehen uns überwiegend als Datenlieferant und vermeiden es, die Daten im Webinterface zu interpretieren. Die meisten unserer Kunden haben durchaus das Know-How die Daten selbst zu bewerten. Natürlich unterstützen wir unsere Kunden aber auch aktiv bei der Auswertung der Daten, sofern dies nachgefragt wird. Mittlerweile gibt es auch einige andere Crawling Tools, die vor allem für SEOs sehr interessant sind. Was genau unterscheidet Strucr von anderen Anbietern?Diese Frage bekommen wir auch häufig am Telefon gestellt und um die genauen Unterschiede deutlich zu machen muss ich etwas ins Detail gehen.

Die Kurzfassung:
Die größten Unterschiede sind die erhobenen Daten, die Datenmenge und die Datenqualität. Strucr ist ein Spezialtool rein für Onpage-Analysen. Wir wollen mehr Daten als andere Tools liefern. Zusätzlich wollen wir eine bessere Datenqualität als andere Tools liefern.

Die Langfassung:
Bei den Daten konzentrieren wir uns auf Daten die sich direkt durch das Crawlen der zu analysierenden Webseite erheben lassen. Entgegen anderer Tools verknüpfen wir diese Daten nicht noch mit Daten aus anderen Quellen. Diese Aufgabe überlassen wir bewusst anderen. Strucr ist also ein spezialisierter Datenlieferant für Onpage und Strukturdaten, andere Tools kombinieren Daten aus verschiedenen Quellen und sind eher Datenaggregatoren.

Bei der Datenmenge richtet sich Strucr ganz klar an große bis sehr große Webseiten und ist dabei auch noch auf eine sehr intensive Nutzung ausgelegt. Die meisten anderen Tools bedienen kleine und mittelgroße Webseiten und sind auf eine weniger intensive Nutzung ausgelegt.

Ein Beispiel: Wenn andere Tools von „analysierten Seiten“ sprechen, dann fallen darunter in der Regel auch Bilder, Scripte, CSS-Dateien sowie die Links zu externen Seiten. Kurzum: Alle URLs die während eines Crawls gefunden werden. Teilweise werden diese Seiten nicht abgerufen sondern nur ihre URL gespeichert. Trotzdem fallen sie meist in das Crawl-Limit.

Bei Strucr unterscheiden wir ganz klar zwischen „Crawled Pages“ und „Discovered Pages“. „Crawled Pages“ sind die Seiten, die wir wirklich heruntergeladen haben und deren Quelltext wir gelesen und analysiert haben. „Discovered Pages“ sind URLs die wir während eines Crawls gefunden haben aber nicht analysiert haben oder einfach nicht crawlen durften. Das Limit für „Discovered Pages“ ist das zehnfache der Crawled Pages, in unserem größten Paket sind das 120 Millionen Seiten. Inklusive der „Crawled Pages“ müssten wir also von bis zu „132 Millionen analysierten Seiten“ sprechen. Alle mir bekannten Tools sind von diesen Dimensionen weit entfernt. Weiterhin erlaubt Strucr, dass permanent Crawls für einen Account laufen. Unser Limit ist der für die Lagerung der Daten benötigte Speicherplatz. Für jeden Account heben wir eine gewisse Zahl von Crawls auf. Neue Crawls verdrängen die alten Crawls. Einige Kunden crawlen auf täglicher Basis Webseiten mit Millionen von Unterseiten. Bei vielen anderen Tools ist eine solche Nutzung undenkbar.

Kommen wir zu dem Punkt der Datenqualität. Datenqualität ist sehr wichtig für uns, da einige Kunden auf Basis unserer Daten automatisierte Prozesse steuern und unseren Daten hierbei vertrauen. Wir vergleichen die Qualität unserer Daten regelmäßig mit denen anderen Tools und haben eine „Zero Bug Policy“ für Datenfehler um die Qualität sicherzustellen. Darüber hinaus tragen unsere Kunden regelmäßig Abweichungen zu den Daten anderer Tools an uns heran. Meistens ist die Ursache der Fehler kaputtes HTML, welches sich von keinem Parser mehr sauber parsen lässt. Oft finden wir aber auch gravierende Probleme bei der Datenqualität anderer Tools. Besonders schlecht schneiden hier alle Tools ab, die direkt auf den Rechnern der Kunden laufen. Dienste welche wie wir ein „Software as a Service“-Modell fahren, schneiden hier übrigens deutlich besser ab als Software die man auf seinem eigenen Rechner installieren kann.

Du selbst hast jahrelange SEO Erfahrung und dich vor allem auch durch Strucr auf Websitestrukturanalyse spezialisiert. Was kannst du den Lesern raten, wenn es darum geht, deren Website optimal zu strukturieren? Worauf sollten sie achten und welche SEO-Relevanz besitzt eine optimale Crawlbarkeit der Website?

 Das wichtigste an einer Webseite ist, dass sie vollständig crawlbar ist. Unsere Erfahrung zeigt, dass dies oft nicht der Fall ist. Viele Webseiten haben gravierende Fehler und aufgrund dieser Fehler oft eine so hohe Anzahl an Unterseiten, dass diese keine Suchmaschine mehr komplett erfasst. Das Dilemma was sich daraus ergibt ist, dass unwichtige Seiten oft gecrawlt werden obwohl es tief versteckt noch wichtige Seiten gibt welche noch nie erfasst wurden. Strukturoptimierung heißt bei den meisten Seiten erst einmal unsinnige Seiten loszuwerden, damit wichtige Seiten gestärkt werden. Dazu reicht es meist aus offensichtliche Fehler zu beseitigen, unwichtige Seitentypen loszuwerden und Funktionen die für eine Vielzahl von unsinnigen Seiten verantwortlich sind technisch anders zu lösen. Um das etwas zu konkretisieren: Stellt alle URLs infrage, die über die robots.txt gesperrt sind, intern per nofollow angelinkt werden, per Javascript maskiert sind, eine noindex-Anweisung enthalten oder ein canonical-Element haben, welches auf eine andere Seite verweist.

Was genau können wir von Strucr in den nächsten Wochen und Monaten erwarten? Gibt es beispielsweise neue Features? Woran arbeitet ihr zur Zeit?
Die Frage ist sehr schwer zu beantworten. Wir arbeiten seit anderthalb Jahren überwiegend an Funktionen für Kunden, deren Entwicklung dann auch von den Kunden bezahlt wird. Unsere Roadmap hängt stark von den Wünschen der für Entwicklung zahlenden Kunden und deren Budgets ab. Wir bauen ständig neue Features, leider eignen sich aber nicht alle Funktionen für eine Integration in die bestehenden Tarife. In unserer freien Zeit arbeiten wir aktuell überwiegend an internen Prozessen sowie aktuell auch an unserer API und an der Infrastruktur. Unsere langfristigen Ziele sind es vor allem die Analyse von Inhalten und Links nochmals zu verbesseren und damit den bereich unsere Kernkopetenzen noch weiter auszubauen.

Zu guter letzt noch eine kurze Frage bzgl. der Kosten von Strucr. Lohnt sich Strucr auch für kleinere Websites, oder profitieren eher die großen Websites von eurem Dienst? Ist Strucr überhaupt für Online Marketing Einsteiger bedienbar, oder setzt dieses Tool jahrelanges SEO Know-how voraus?
Strucr ist für Crawls bis 10.000 Seiten komplett kostenfrei und hat damit ein wohl unschlagbares Preis/Leistungsverhältnis gerade für kleine Seiten. Für unsere Oberfläche bekommen immer wieder viel Lob für die aufgeräumte Darstellung der großen Datenmengen obwohl wir einen sehr tiefen Blick in die Daten ermöglichen. Die Frage der Bedienbarkeit würde ich mit einem klaren „Ja“ beantworten.

 Ob man von Strucr profitiert, hängt stark von der Person ab, die das Tool nutzt. Je größer die Seite, desto größer sind meist die Hebel. Gleichzeitig kann man bei eine kleinere Seite auch noch eher ohne Tool überblicken. Der größere Nutzen ergibt sich daher ganz sicher für große Seiten. Allerdings haben unsere über 90 OnPage-Indikatoren einen Nutzen für jede Seitengröße. Und auch die Statistiken zu den Downloadzeiten und der Dateigröße sind für jeden Seitenbetreiber interessant, nicht zuletzt weil Geschwindigkeit mittlerweile ein Rankingfaktor ist. Viele unserer Kunden nutzen Strucr auch um naturgemäß eher kleine Entwicklungsumgebungen zu crawlen und so schon früh Fehler zu finden.

Für Einsteiger ist der Umgang mit Strucr eher schwierig, da die Daten in der Regel nicht von uns interpretiert werden. Jahrelandes Know-How ist damit sicher von Vorteil. Auf der anderen Seite kann dies natürlich auch ein großer Vorteil sein, da es den Nutzer zwingt sich mit den Dingen auseinander zu setzen und sich das Wissen selbst anzueignen.

Vielen Dank für das Interview und dir weiterhin viel Erfolg! 

Interview mit Tobias Schwarz von Strucr.com
5 (100%) 4 votes

Comments are closed.