Wie stark ist WordPress in den Suchergebnisseiten?

Nachdem die geschätzten Kollegen von Sistrix die Headline “Content-Marketing: Blogs sind für SEO ungeeignet” in den Äther gehauen hatten, musste ich auch erst zwei Mal lesen… wie können sie nur sowas behaupten? 🙂 Allerdings meinte der verehrte Hanns eben nicht WordPress als CMS, sondern Blogs als Content-Format. Für manche war das der Beweis, dass WordPress Quatsch ist, auch wenn das nicht die Intention des Posts war. Hatte jemand Zahlen? Nein. Also. Data trumps Opinion.  “Wie stark ist WordPress in den Suchergebnisseiten?” weiterlesen

Sistrix Traffic versus Google AdWords Keyword Planner

Wer hier öfter mitliest, der weiß, dass Sistrix eines meiner absoluten Lieblings-Tools ist (ich verlinke mal ganz dreist als bestes SEO Tool), allein schon wegen der schlanken API, dem absolut liebenswürdigen Johannes mit seinen wirklich schlauen Blog-Posts sowie der Unaufgeregtheit, mit der die Toolbox immer wieder überzeugt. Natürlich sind auch alle anderen Tools klasse, aber Sistrix ist sowas wie meine erste große Tool-Liebe, die man nicht aus seinem SEO-Gedächtnis verbannen kann oder will. Und auch wenn die folgenden Daten eventuell am Lack kratzen könnten, eine richtige Delle haben sie in meiner Sistrix-Präferenz nicht verursacht.  “Sistrix Traffic versus Google AdWords Keyword Planner” weiterlesen

SEO-Monitoring mit R, AWS und Shiny

Shiny App SEO Reporting

Dies ist der vorläufig letzte Teil der Serie über SEO mit R und AWS. Im ersten Teil hatten wir die AWS-Instanz mit RStudio vorbereitet, im zweiten Teil eine kleine SEO-Analyse durchgeführt, im dritten Teil ging es um die Erstellung eines Sichtbarkeitsindexes und eines “actionable Reportings”. In diesem Teil geht es darum, dass es selbst dem hartgesottensten Data Scientist zu anstrengend ist, die einzelnen Skripte täglich durch RStudio laufen zu lassen. Das SEO Monitoring soll also über eine ansprechende Oberfläche laufen. “SEO-Monitoring mit R, AWS und Shiny” weiterlesen

Ein eigener Sichtbarkeitsindex mit R und AWS

In der dritten Folge über Suchmaschinenoptimierung mit R und AWS geht es um das Erstellen eines eigenen Sichtbarkeitsindex, um eine aggregierte Übersicht über das Ranking vieler Keywords zu erhalten. Im ersten Teil hatten wir uns angeschaut, wie man mit R und einer AWS Free Tier EC2-Instanz automatisiert Daten aus der Webmaster Console zieht, im zweiten Teil ging es um erste Analysen anhand von Klickraten auf Positionen. “Ein eigener Sichtbarkeitsindex mit R und AWS” weiterlesen

“Actionable” SEO-Reporting mit R und AWS

In dem ersten Teil ging es darum, wie mit R und einer zunächst kostenlosen AWS-Instanz ein automatisiertes SEO-Monitoring erstellt wird. Dabei wird die Webmaster Console per API jeden Tag abgefragt, und die Daten werden in eine Datenbank geschrieben. Das Datensammeln allein bringt natürlich nichts, irgendwas sollten wir damit auch anfangen, und mein Mantra, das jeder Student in meinen Veranstaltungen mehrmals pro Tag hört, ist “Daten – Information – Aktion”. In den meisten Abhandlungen steht Wissen an der Stelle von Aktion, denn die Verarbeitung von Informationen erst schafft Wissen. Im Bereich der Datenanalyse oder sogar Data Science aber geht es häufiger darum, nicht nur zu wissen, sondern mit dem Wissen auch etwas zu tun, idealerweise zu wissen, was zu tun ist. Der Grund, warum die meisten Reportings nicht gelesen werden, ist in der Regel, dass keine Aktion abgeleitet werden kann. 5 Likes mehr diese Woche. Ja und? Was mache ich jetzt morgen anders? Wir wollen also nicht einfach nur ein SEO-Reporting bauen, sondern ein SEO-Reporting erstellen, das uns sagt, wo etwas zu tun ist und was man tun sollte. “Actionable” heißt es auf Neudeutsch, und eine richtig schöne Übersetzung gibt es tatsächlich nicht im Deutschen. “Handlungsrelevant”? Ist irgendwie nicht das Gleiche. Leben wir also zunächst mit diesem Begriff.

““Actionable” SEO-Reporting mit R und AWS” weiterlesen

Bilder und Alt-Tags

Zunächst einmal scheinen Bilder nichts mit der Optimierung von Text zu tun haben, warum also sollte man Bilder optimieren? Tatsächlich werden heute zum Teil zu häufig Bilder auf Webseiten eingesetzt, wo sie keinen Mehrwert bieten, nur weil irgendwo in einem SEO-Guide stand, dass man immer schön Bilder inklusive Alt-Tag mit Keyword in den Content packen soll.

Wenn Bilder den Inhalt sinnvoll ergänzen, ein Bild also zum Verständnis eines Sachverhalts beiträgt, dann gereichen sie der Qualität eines Dokuments zum Vorteil. Durch adäquates Tagging und den Kontext werden die Inhalte der Bilder besser erfasst. Innerhalb der Universal Search werden auch Bilder angezeigt, so dass dadurch mehr Traffic auf eine Webseite kommen könnte.

Nächster Abschnitt: Domain

Eine kleine Geschichte der Suchmaschinen

Suchmaschinen gab es schon vor dem Internetzeitalter, nur hatte man diese nicht so bezeichnet. Schlägt man ein Fachbuch hinten auf, so findet man dort in der Regel einen Index, und dieser Index ist nichts anderes als das, was eine Suchmaschine auch tut: Sie schaut für jedes Wort, wo es in dem Dokument vorkommt. Die erste Suchmaschine in unserer Geschichte der Suchmaschinen sind die so genannten Konkordanzen der Bibel, die fleißige Mönche von der Bibel erstellten. Auf Basis einer Bibel-Konkordanz wollten sie beweisen, dass das Alte und das Neue Testament von dem gleichen Gott stammen, daher auch der Name Kokordanz vom lateinischen concordia, Einheit. Konkordanzen waren später ein Zeitvertreib für reiche Menschen, die in ihrer Freizeit Konkordanzen von Shakespeares oder Poes Werken erstellten. Eine der letzten manuell erstellten Konkordanzen wurde in den 1960er Jahren fertig, schade nur, dass Computer schon dieser Zeit dazu in der Lage waren, den gleichen Job innerhalb von Minuten auszuführen anstatt Jahrzehnte.

Text Retrieval aus Dokumenten wurde mit den Computern groß, denn schon hier ging es darum, aus elektronischen Dokumentenkollektionen Informationen zu beziehen. Viele Grundlagen entstanden in den 1960er und 1970er Jahren, zum Beispiel TF-IDF.

Die ersten Suchmaschinen vor dem WWW waren Gopher und WAIS, die eine Suche in Dokumenten und Dateien über mehrere Internetserver hinweg ermöglichten. Mit dem WWW entstanden dann die ersten Suchmaschinen, die den heutigen mindestens ähnlich sehen, wie zum Beispiel:

  • Excite
  • Webcrawler
  • Fireball
  • Lycos
  • Hotbot
  • Altavista

Viele dieser Suchmaschinen litten darunter, dass die Betreiber auf der Suche nach Finanzierungsmöglichkeiten die minimalistischen Masken der Suchmaschinen gegen mit Funktionen überhäuften Interfaces eintauschten, jede Suchmaschine wollte plötzlich ein Portal sein, was zum Teil als “Portalitis” bezeichnet wurde. Google hatte somit ein leichtes Spiel, da es zum einen nicht an Portalitis litt, zum andern aufgrund des PageRank-Algorithmus deutlich bessere Ergebnisse lieferte.

Nächster Abschnitt: Nutzung von Suchmaschinen

SEO-Klickrate

Da das oberste Ergebnis von Nutzern als das relevanteste angesehen wird, verteilen sich die Klicks auf die Ergebnisse ungleichmäßig. Das erste Ergebnis hat eine Klickrate von 30-40%, allerdings liegen die Werte für Mobile Searches niedriger. Die hinteren Ergebnisse erhalten nur wenige Prozentpunkte. Sehr schön wird das in einer Studie von Advanced Web Rankings erläutert. Hierzu werden die Webmaster Console-Daten von mehr als 10.000 Webseiten erfasst.

Das Wissen um die Klickrate ist insofern nützlich, dass daraus ersichtlich ist, ob die eigenen Ergebnisse die Klickrate erhalten, die sie auf Basis ihrer Positionhaben sollten. Ist ein Ergebnis auf der 1. Position, erhält aber nur 5% der Klicks, so scheint etwas nicht in Ordnung zu sein mit dem Ergebnis, und es wird wahrscheinlich nicht mehr lange auf der 1. Position bleiben.

Nächster Abschnitt: Mehr als 200 Ranking-Faktoren?

Inhalte und Dokumentstruktur

“Content is King”, und ohne Inhalte wird es schwer bis unmöglich sein, Nutzer auf die Webseite zu bekommen. Dokumente im Netz bestehen vor allem aus Text, Bildern und Videos, zum Teil aber auch kleinen Programmen, mit denen Nutzern interagieren können.

Wie schon im Abschnitt Eine kleine Geschichte der Suchmaschinen beschrieben ist Text derzeit noch die Hauptwährung im SEO-Geschäft. Zwar kann mittlerweile auch der Inhalt von Bildern auf Basis von Künstlicher Intelligenz erkannt werden, aber wird nicht gerade nach einem Bild gesucht, so muss ein Bild nicht unbedingt die beste Antwort auf eine Such-Intention sein.

Über das Minimum an Text auf einer Seite wird in SEO-Foren und Blogs viel diskutiert; sehr wahrscheinlich existiert aber keine Minimum-Länge, es wäre zumindest nicht logisch. Wenn alle anderen Texte 200 Wörter haben und mein Text 300 Wörter, dann ist es unsinnig 900 Wörter zu verlangen, wie es zum Beispiel das Yoast SEO-Plugin tut. Wichtiger noch, die Textlänge ist kein Indikator dafür, wie hoch die Qualität eines Textes ist. Mehrere Google-Algorithmus-Updates hatten vor allem das Ziel, die Qualität eines Dokuments bestimmen zu können und dieses dementsprechend zu ranken.

Am Ende des Tages geht es darum, dass Texte für Menschen geschrieben werden und für diese gut lesbar sind. Diese Aussage lässt viel Spielraum, denn für manche ist nur ein Artikel der Bild-Zeitung gut lesbar, für andere auch ein Artikel der FAZ. Leider zeigen auch genug Beispiele, dass nicht unbedingt inhaltlich richtige Seiten oben gerankt werden, und der vielzitierte Qualitätsjournalismus ist nicht immer zu beobachten bei den Verlagshausprodukten.

So bleibt dem guten Optimierer nur, tatsächlich gute Inhalte zu erstellen und darauf zu hoffen, dass künftige Updates dies honorieren werden. Bis dahin helfen zumindest einige handwerkliche Kniffe wie zum Beispiel

  • Das Keyword, auf das man optimiert, im Titel der Seite zu verwenden
  • Das Keyword, auf das man optimiert, auch in Überschriften zu verwenden
  • Alt-Tags für Bilder zu verwenden
  • usw

Nächster Abschnitt: Keyword Density/TF-IDF/WDF-IDF

Sandbox

Die Existenz der Sandbox ist zwischen SEOs umstritten, und von Google wurde die Existenz der Sandbox verneint. Es ist daher nicht klar, ob der beobachtete Sandbox-Effekt, also das Runterranken von Seiten für bestimmte Keywords vor allem nach der Erstellung eines neuen Projekts, tatsächlich existiert. Allerdings ist es richtig, dass SEO viel Geduld erfordert 🙂

Nächster Abschnitt: Die Zukunft von SEO