data > opinion

Tom Alby

Einführung in die Suchmaschinenoptimierung

2020-01-17


Einleitung

Dies ist das Skript zum Kurs “Suchmaschinenoptimierung” an der HAW.

Alles über das Seminar

Ablauf

Das Ziel des Seminars ist, dass Sie selbst Suchmaschinenoptimierung betreiben und sich nicht nur frontal beschallen lassen. Daher wird jeder Teilnehmer eine eigene Seite erstellen, die auf einen Begriff optimiert wird, der zu Beginn des Seminars bekannt gegeben wird. Für diesen Begriff ist bei Google noch keine Seite zu finden, so dass Sie nicht gegen langjährige SEO-Projekte ankämpfen müssen. Jeder hat also die gleiche Chance. Es ist nicht möglich in Gruppen zu arbeiten. Jeder Teilnehmer muss sein eigenes Projekt erstellen. Es ist immens wichtig, dass Sie eine Logbuch führen, wann Sie was an Ihrer Seite gemacht haben und wann Sie eine Änderung in den Suchergebnisseiten sehen. Ein Monitoring der Ergebnisse wird bereitgestellt.

Mit jeder Veranstaltung lernen Sie mehr über Suchmaschinenoptimierung, so dass Sie Ihr Projekt verfeinern können. Natürlich kann niemand verhindern, dass Sie sich intensiver mit diesem Skript beschäftigten und daher schon Erkenntnisse anwenden, die erst zu einem späteren Zeitpunkt in der Veranstaltung besprochen werden. Die Veranstaltungstage selbst sind in zwei Abschnitte geteilt, zum einen der Seminar-Teil inklusive Referate, zum andern der Arbeitsteil, in dem Sie an Ihren Projekten arbeiten und Unterstützung von mir erhalten.

Bewertung

Die Voraussetzungen:

  • An mindestens 4 von den insgesamt 6 Veranstaltungen teilnehmen.
  • Ein eigenes SEO-Projekt nach den Vorgaben des Seminars auf die Beine stellen UND das Logbuch führen.

Sie haben dann die Wahl zwischen Hausarbeit (8-10 Seiten ohne Deckblatt und Inhaltsverzeichnis) oder Referat. Bitte kommen Sie zwecks Themenfindung frühzeitig auf mich zu. Wichtig ist, dass eine eigene intellektuelle Transferleistung in Ihrem Referat oder Ihrer Hausarbeit ersichtlich wird. Mit Inhalten, die Sie aus dem Netz zusammengeklaubt haben, erreichen Sie nichts, und egal wie nett Sie mich anlächeln, werden Sie dafür keine 2 bei mir bekommen.

Es ist unerlässlich, dass Sie bereits eine Idee für ein Thema haben, da ich mir nicht bis zu 30 Themen im Voraus überlegen kann 🙂 Referate haben übrigens den Vorteil, dass Sie meine Stimme schonen, Ihre Note am gleichen Tag erfahren und ich weniger Zeit am Wochenende verbrate.

Weitere Hinweise

Die nachfolgenden Punkte sollten selbstverständlich und Teil Ihrer guten Erziehung sein, aber die Erfahrung zeigt, dass es sich lohnt, sie noch einmal zu erwähnen:

  • Es ist mir wichtig, dass Sie pünktlich kommen. Nichts ist nerviger als ein Referat, das ständig durch zu spät kommende Studierende gestört wird. Das ist nicht nur unhöflich mir gegenüber, sondern auch den anderen Studierenden, die gerade vorne stehen. Sollte ich einmal zu spät kommen, dann geht Ihr nächster Kaffee auf mich.
  • Bitte schonen Sie meine Stimme und versuchen Sie so wenig zu reden während ich rede. Fakt: Wenn Sie reden, können Sie mir nicht gleichzeitig zuhören. Und dafür sind Sie ja eigentlich da, oder?
  • Ihr Handy braucht auch mal Entspannung. Lassen Sie es in Ihrer Tasche. Ich bekomme es auch mit, wenn Sie an Ihrem Rechner chatten oder die Partybilder von gestern noch mal durchschauen. Das ist kein Zeichen von Höflichkeit. Ich bereite mich jedes Mal auf die Veranstaltung vor und wünsche mir, dass Sie meiner Zeitinvestition etwas Wertschätzung entgegen bringen. Ich mache das hier nicht wegen des Geldes (und auch nicht wegen des Backlinks von der HAW 😉 ).
  • Abschreiben aus Wikipedia & Co geht gar nicht. Wenn Ihr Text zu ähnlich oder sogar gleich ist zu Texten im Netz, dann haben Sie ein Problem weniger: Sie müssen sich keine Sorgen mehr um Ihre Note machen und brauchen auch nicht mehr kommen, denn Sie sind durchgefallen.

Bedeutung von SEO im Online Marketing

Eine kleine Geschichte der Suchmaschinen

Suchmaschinen gab es schon vor dem Internetzeitalter, nur hatte man diese nicht so bezeichnet. Schlägt man ein Fachbuch hinten auf, so findet man dort in der Regel einen Index, und dieser Index ist nichts anderes als das, was eine Suchmaschine auch tut: Sie schaut für jedes Wort, wo es in dem Dokument vorkommt. Die erste Suchmaschine in unserer Geschichte der Suchmaschinen sind die so genannten Konkordanzen der Bibel, die fleißige Mönche von der Bibel erstellten. Auf Basis einer Bibel-Konkordanz wollten sie beweisen, dass das Alte und das Neue Testament von dem gleichen Gott stammen, daher auch der Name Kokordanz vom lateinischen concordia, Einheit. Konkordanzen waren später ein Zeitvertreib für reiche Menschen, die in ihrer Freizeit Konkordanzen von Shakespeares oder Poes Werken erstellten. Eine der letzten manuell erstellten Konkordanzen wurde in den 1960er Jahren fertig, schade nur, dass Computer schon dieser Zeit dazu in der Lage waren, den gleichen Job innerhalb von Minuten auszuführen anstatt Jahrzehnte.

Text Retrieval aus Dokumenten wurde mit den Computern groß, denn schon hier ging es darum, aus elektronischen Dokumentenkollektionen Informationen zu beziehen. Viele Grundlagen entstanden in den 1960er und 1970er Jahren, zum Beispiel TF-IDF.

Die ersten Suchmaschinen vor dem WWW waren Gopher und WAIS, die eine Suche in Dokumenten und Dateien über mehrere Internetserver hinweg ermöglichten. Mit dem WWW entstanden dann die ersten Suchmaschinen, die den heutigen mindestens ähnlich sehen, wie zum Beispiel:

  • Excite
  • Webcrawler
  • Fireball
  • Lycos
  • Hotbot
  • Altavista

Viele dieser Suchmaschinen litten darunter, dass die Betreiber auf der Suche nach Finanzierungsmöglichkeiten die minimalistischen Masken der Suchmaschinen gegen mit Funktionen überhäuften Interfaces eintauschten, jede Suchmaschine wollte plötzlich ein Portal sein, was zum Teil als “Portalitis” bezeichnet wurde. Google hatte somit ein leichtes Spiel, da es zum einen nicht an Portalitis litt, zum andern aufgrund des PageRank-Algorithmus deutlich bessere Ergebnisse lieferte.

Nutzung von Suchmaschinen

Die Suche im Internet ist einer der häufigsten genutzten Dienste. Fast jeder Internetnutzer sucht mindestens einmal täglich mithilfe einer Suchmaschine im Internet. In Deutschland dominiert Google den Markt mit einem Anteil von über 90 %. Da die wenigsten Benutzer sich die Ergebnisse der zweiten Suchergebnisseite ansehen, ist die eigene Seite also praktisch nur zu finden, wenn man für die relevanten Suchbegriffe auf der ersten Seite gefunden wird.

Suchmaschinenoptimierung als Begriff

In der Suche wird unterschieden zwischen organischen und bezahlten Ergebnissen. Auf die Unterschiede wird in Abschnitt SEA, SEM & PPC genauer eingegangen; das Seminar behandelt fast ausschließlich die Optimierung der eigenen Seite für das Ranking in den organischen Suchergebnissen. Irreführenderweise klingt der Begriff „Suchmaschinenoptimierung“ so als ob eine Suchmaschine optimiert würde, aber tatsächlich wird die eigene Seite für die Listung in einer Suchmaschine optimiert (Bei unserem ersten Buch über Suchmaschinenoptimierung wurden Stefan und ich vom Verlag gefragt, ob wir den Titel „Suchmaschinenoptimierung“ nicht ändern könnten, denn das würde ja niemand verstehen, was das bedeutet :-)).

Kurzer Crash-Kurs Online Marketing

SEM, SEA und PPC

In manchen Ländern beinhaltet Search Engine Marketing bzw. Suchmaschinenmarketing die Bereiche Search Engine Advertising und Search Engine Optimisation, ansonsten wird der Begriff SEM in Deutschland nicht unbedingt als Oberbegriff verstanden, sondern als Synonym für die bezahlten Anzeigen der Suche. In England und den USA wird SEM/SEA auch als PPC (Pay-per-Click) bezeichnet.

Auf Google und anderen Suchmaschinen werden für kommerzielle Begriffe ober- und unterhalb der organischen Ergebnissen bezahlte Suchtreffer angezeigt (siehe zum Beispiel Abbildung 1). Bei Google heißt der Dienst, mit dem die Suchanzeigen eingestellt und verwaltet werden können Google Ads (früher AdWords). Darin können neben Anzeigen für die Suche auch Anzeigen für das Google Display Network und YouTube erstellt werden. Für SEOs ist AdWords aber auch deswegen spannend, weil der daran angebundene Keyword Planner Zahlen über die Suchvolumina aller bei Google gesuchten Begriffe bietet.

Anders als bei der organischen Suche bestimmt hier nicht eine Relevanz- Algorithmus die Reihenfolge der Ergebnisse, sondern zunächst einmal das Gebot für einen Begriff. Allerdings hat Google auch hier gewisse Relevanzkriterien eingebaut:

  • Die bisherige Klickrate des Keywords und der zugehörigen Anzeige bei Google
  • Die bisherige Performance des gesamten AdWords-Kontos
  • Die bisherige Klickrate der angezeigten URLs in der Anzeigengruppe
  • Die Qualität der Landing Page
  • Die Relevanz des Keywords für die Anzeigen in der zugehörigen Anzeigengruppe
  • Die Relevanz des Keywords und der zugehörigen Anzeige für die Suchanfrage
  • Die Performance in der geografischen Region, in der die Anzeige erschei- nen soll
  • Andere Faktoren, die Google nicht offenlegt

Beim Google Display Netzwork sind wieder andere Faktoren ausschlaggebend. Der Grund für den Qualitätsfaktor ist, dass, wenn die Position allein vom Gebot abhinge, nicht unbedingt die relevantesten Anzeigen oben wären und diese eventuell nicht angeklickt würden (und Google damit auch kein Geld verdiente).

Beim Suchmaschinenmarketing wird pro Klick bezahlt. Der Vorteil ist, dass sehr kurzfristig agiert werden kann, anders als bei der Suchmaschinenoptimierung, wo Effekte in der Regel nur mittel- oder langfristig erkennbar sind. Auch kann ganz genau skaliert werden, wie viele Be- nutzer auf die eigene Seite kommen sollen. Zu guter Letzt kann man auch noch verschiedene Arten von Targeting durchführen:

  • Regio-Targeting: Anzeigen nur in bestimmten Regionen anzeigen, zum Beispiel Schleswig-Holstein oder Hamburg
  • Ethno-Targeting: Benutzern mit einem türkischen Browser in Deutschland Anzeigen auf türkisch zeigen
  • Device-Targeting: Benutzern mit einem iPhone spezielle Anzeigen zeigen
  • Carrier-Targeting: Benutzern, die über eine Telekom-SIM-Karte unterwegs sind, auf sie abgestimmte Angebote anzeigen
  • Retargeting/Remarketing: Nutzer, die bestimmte Aktionen auf der eigenen Seite oder bei YouTube vorgenommen haben, werden andere Anzeigen gezeigt als unbekannten Nutzern.

AdWords ist für SEOs aber auch deswegen interessant, weil damit kurzfristig Seitentitel oder Meta-Descriptions getestet werden können.

Affiliate Marketing

Beim Affiliate Marketing nutzt der Werbetreibende den Traffic seiner Partner, den sogenannten Affiliates, um Käufer für seine Produkte zu finden. Dabei bekommt der Affiliate nur dann Geld, wenn der Besucher auch tatsächlich die gewünschte Aktion durchführt, wie zum Beispiel etwas bestellen oder sich für einen Newsletter anzumelden. Für den Werbetreibenden ist das Risiko also im Prinzip relativ gering, nur kann es sein, dass er Provisionen für Verkäufe an Affiliates auszahlt, die er auch ohne die Affiliates bekommen hätte.

Display Advertising

Das Display Advertising ist eine der ältesten Werbeformen im Internet, grob gesagt geht es darum, das den Benutzern Werbebanner angezeigt werden, wenn sie eine Webseite besuchen oder eine App nutzen. Dabei gibt es viele unterschiedliche Varianten von Werbebannern, Interstitials, die den Content überdecken und nur durch einen Klick zu entfernen sind, Bewegtbildbanner, Take Overs, die die ganze Seite kurz übernehmen, etc. Auch wenn die meisten Internetnutzer sagen, dass sie die Banner nicht beachten, ist erwiesen, dass Bannerwerbung einen Einfluss auf die Internetnutzer und ihr Kaufverhalten hat.

Früher wurden Banner als Platzierung auf TKP-Basis gebucht, heute wird mehr und mehr an Display-Werbung über Programmatic Advertising ausgespielt. Hier wird ähnlich wie bei Google Ads in einer Auktion die Einblendung des Werbebanners dem Bieter überlassen, der das höchste Gebot elektronisch übermittelt hat. In der Regel dauert der ganze Vorgang wenige 100 Milisekunden. Die Werbetreibenden können so bei jeder Impression „entscheiden“, ob sie mitbieten wollen oder nicht. Die Entscheidung hängt dann in der Regel davon ab, was die Werbetreibenden beziehungsweise ihre Agenturen bereits über den Nutzer wissen, an den die Werbeeinblendung ausgespielt werden soll. Das erklärt auch etwas das heutige Dilemma der Verlage, denn anstatt dass sie einfach behaupten können, dass die Zielgruppe die Webseite besucht und 10 Euro TKP kostet, entscheiden nun die Werbetreibenden, was ihnen der Nutzer wert ist, der auf die Webseite kommt.

Social Media

Social Media kam in den 2000ern erst durch MySpace und später durch Facebook zur Disziplin des Online Marketings dazu. Hier wird versucht, die Nutzer so einzubinden, dass sie Fans der eigenen Seite werden und mit den Inhalten interagieren. Neben den organischen Posts existieren auch bezahlte Posts, die den Nutzern auf Basis von Targeting-Kriterien angezeigt werden. Da die Nutzer auf Facebook & Co mehr von sich preisgeben als auf anderen Plattformen, sind die Targeting-Kriterien sehr granular („Nutzer, die in Hamburg leben, Student an der HAW sind und sich außerdem für Carrera-Bahnen interessieren“). Tatsächlich ist es nicht einmal notwendig, dass die Nutzer alles von sich preisgeben. Dadurch, dass auf vielen Webseiten Like-Buttons eingebunden sind, kann Facebook auch ohne Interaktion auf der eigenen Plattform ein Profil eines Nutzers aufbauen.

Manche Social Media-Plattformen wie zum Beispiel twitter werden außer- dem von Google prominent eingebunden, so dass eine Optimierung in diesem Bereich dem eigenen Ranking zum Vorteil gereichen kann. Allerdings ist twitter in Deutschland eher eine Plattform der Intelligentsia.

Content Marketing

Content Marketing ist ein in den 2010er Jahren zur Online Marketing-Disziplin erkorener Ansatz, bei dem Werbetreibende mehr oder weniger nützliche Inhalte erstellen (lassen), um Nutzer auf die eigene Seite oder zumindest eine Microsite zu bekommen. Dies ist kein wirklich neuer Ansatz, er wurde schon in den 90er Jahren betrieben (“Content is king”), aber erst in den 2010er Jahren wurde daraus eine eigene Disziplin mit einem eigenen Begriff sowie die Einsicht der Werbetreibenden, dass sie für Nutzer relevante Inhalte benötigen, um Nutzer auf die Seite zu bekommen.

Abrechnungsmodelle

Anders als bei der organischen Suche entstehen durch die Einblendung von Werbung oder durch einen Klick darauf Kosten. Dazu gibt es verschiedene Abrechnungsmodelle:

  • CPO: Kosten pro Order, also die durchschnittliche Summe der Klickkosten, die pro Bestellung notwendig waren
  • CPL: Ähnlich wie CPO, nur dass es hier nicht um Bestellungen geht, sondern um Interessenten
  • CPA: Ähnlich wie CPO oder CPL, aber hier wird nur bei einer bestimmten Aktion bezahlt, zum Beispiel nach einem Anruf.
  • CPM, auch TKP: Cost per Mille bzw. Tausendkontaktpreis bezeichnet ein Abrechnungsverfahren, bei dem pro 1.000 (Werbebanner-)Einblendungen abgerechnet wird
  • KUR: Die Kosten-Umsatz-Relation wird in Prozent angegeben und setzt wie der Name schon sagt die Kosten für eine Bestellung oder eine andere Aktion in Relation zu dem Umsatz.

SEOs werden in der Regel für ein Projekt bzw. mit Tagessätzen bezahlt, aber es hat auch schon Fälle gegeben, wo SEOs sich pro Kauf entlohnen ließen, der über ein von ihnen optimiertes Keyword zustande kam.

Ist SEO wirklich kostenlos?

Wenn die anderen Online Marketing-Kanäle Geld kosten, warum macht dann nicht jeder nur SEO? Die Antwort steckt zum Teil schon in der Frage: Wenn 11 Anbieter für Shampoo auf die erste Suchergebnisseite wollen, dann wird mindestens einer nicht auf der ersten Seite sein, und 10 werden nicht auf dem ersten Platz landen. Es ist also Aufwand notwendig, um ein Ranking auf den oberen Rängen hinzubekommen, und dafür sind Ressourcen notwendig, zunächst einmal Experten (Böse Zungen behaupten, dass die wirklich guten SEOs gar nicht für Unternehmen arbeiten, weil sie durch eigene optimierte Seiten genug Geld verdienen. Dies war früher sogar tatsächlich häufig der Fall), aber auch Tools.

Dem steht gegenüber, dass bei SEO nichts sicher ist, man zahlt also, ohne dass eine gewinnbringende Leistung dafür garantiert ist. Weder kann ein erster Platz garantiert werden, noch kann garantiert werden, dass die Seite überhaupt in den Index aufgenommen wird. Und wenn man mal auf dem ersten Platz bei Google ist, dann kann das die Woche darauf schon wieder anders sein. Es ist also ein stetiger Aufwand erforderlich, mit ungewissem Ausgang. Dieser Aufwand kostet auch Geld, und ein guter SEO wird nicht für wenig Geld arbeiten, denn er kann mit eigenen Projekten mehr Geld verdienen.

Da auch ein guter SEO nichts garantieren kann, Unternehmen aber Planungssicherheit benötigen, sind andere Online Marketing-Disziplinen eine wichtige Alternative. AdWords zum Beispiel kann mit einer ganz einfachen Rechnung betrieben werden: Für x Euro Werbebudget werden y Euro Umsatz generiert (und dementsprechend auch Gewinn). Wird mehr Umsatz benötigt, so wird einfach mehr Budget ausgegeben, werden die Kosten zu hoch, wird gedrosselt.

Anatomie einer Suchanfrage

Die Intention einer Suchanfrage

Hinter jeder Suchanfrage steht eine Intention, und je besser die Intention verstanden wird, desto besser kann auf die Suchanfrage eingegangen werden und eine eigene Seite dafür optimiert werden. Das ist nicht immer möglich, denn Sprache ist häufig mehrdeutig, und aus einer Suchanfrage von wenigen Wörtern oder sogar nur einem Wort ist nicht immer klar herauszulesen, was genau gemeint ist. Wer nach „Kredit“ sucht, benötigt vielleicht einen Konsumkredit, vielleicht aber auch einen Immobilienkredit. Schwieriger noch wird es bei so genannten Hompgraphen, Wörter, die gleich geschrieben werden, aber unterschiedliche Bedeutungen haben. „Apache“ ist ein Panzer, ein Indianer oder auch ein Webserver. Übrigens werden jeden Tag neue Suchanfragen bei Google eingegeben, also Suchanfragen, die Google noch nie zuvor gesehen hat.

Gaben Nutzer früher häufig nur ein Keyword ein, so wuchs die durchschnittliche Anzahl der eingegebenen Wörter pro Suche mit der Zeit, da Nutzer im Umgang mit Suchmaschinen dazulernten. Das bedeutet natürlich nicht, dass es nicht immer noch Ein-Wort-Suchanfragen gibt, ganz im Gegenteil. Allerdings hat der Anteil der Suchanfragen zugenommen, die aus mehr als einem Wort bestehen. Einige Muster hingegen sind gleich geblieben, so verwendet nur ein Bruchteil der Benutzer (weit unter 1 Prozent) eine erweiterte Suche oder verwendet Bool’sche Operatoren.

Die verschiedenen Intentionen zu einem Thema werden später für die Erstellung der Keyword Cluster verwendet. So können Besucher einer Webseite die Intention haben, sich für einen Job bei der Firma zu bewerben, oder sich über ein Produkt der Firma zu informieren. Sucht ein Nutzer lediglich nach dem Namen der Firma, so ist keine der beiden Intentionen eindeutig zu identifizieren.

Intentionen spielen nicht nur bei Suchanfragen eine Rolle, sondern auch bei Voice UIs und KI-Anwendungen. Wird eine sprachliche Äußerung vorgenommen, so muss ein Programm die Intention hinter der sprachlichen Äußerung identifizieren. Insofern sind Suchmaschinen und auch die neue Generation von Bots nicht so weit voneinander entfernt.

Head- und Long Tail-Keywords

Neben der Einteilung zwischen generischen und Brand-Suchanfragen wird oft auch zwischen Head- und Long Tail Keywords unterschieden. Als Head Key- words werden die Keywords bezeichnet, die häufig gesucht werden, als Long Tail-Keywords die, die seltener gesucht werden (siehe Abbildung). Eine Suchanfrage wie „iPad“ ist ein Head-Keyword, eine Suchanfrage wie „computergestützte Lexikographie“ ist ein Long Tail-Keyword. Die Theorie besagt, dass alle auf die Head-Keywords optimieren und deswegen immer noch viel Potential in den Long Tail-Keywords liegt. Die Summe der Long Tail-Keywords aber soll die Summe der Long Tail-Keywords übersteigen. Tatsächlich kann es eine große Herausforderung darstellen, für ein Head-Keyword zu ranken, einfach weil viele Seiten schon seit mehr als einem Jahrzehnt dafür optimieren. Allerdings ist der „Head“ auch relativ; für ein Nischenthema kann eine Suchanfrage, die nur wenige Tausendmal pro Monat gesucht wird, schon ein Head Keyword darstellen.

Die Einteilung ist dennoch relevant, da es wahrscheinlich für jedes Thema Suchanfragen gibt, die häufig gesucht werden, und Suchanfragen, die weniger häufig gesucht werden. In der Regel werden für einen Text, also eine Seite, ein Head Keyword mit wenigen Long Tail-Keywords gemischt, da es sich nicht lohnt, für jedes Long Tail Keyword eine eigene Seite aufzubauen. Die Keyword-Häufigkeit kann mit dem Google AdWords Keyword Planner in Erfahrung gebracht werden.

Keyword-Cluster

Wie im Abschnitt Intention einer Suchanfrage beschrieben können die verschiedenen Intentionen, mit denen Nutzer auf eine Seite kommen, in Gruppen eingeteilt werden; diese nennt man Keyword Cluster. Meistens besteht jedes Cluster aus wenigen Head Keywords und vielen Long Tail Keywords. Diese Cluster sind vor allem in der Zusammenarbeit mit Kunden sehr wichtig, denn häufig haben Kunden keine Vorstellung davon, welche Wörter die Nutzer tatsächlich verwenden. Manche Begriffe wirken zu „uncool“ oder unpräzise für einen Kunden, aber so wie Luther dem Volk „aufs Maul schaute“, so müssen das auch SEOs für den Kunden tun, um das Vokabular der Suchenden nutzen zu können. Es hat oft eine heilsame Wirkung auf den Kunden, wenn er lernt, dass die Begriffe, die er wichtig findet, nicht wichtig für die Nutzer sind.

Manche Webseiten-Betreiber haben zudem ungewöhnliche Vorstellungen davon, für welche Suchbegriffe ihre Seite ranken soll. Es gehört auch zur Aufgabe eines SEOs dazu, dem Kunden zu verdeutlichen, warum bestimmte Keywords eventuell wenig Sinn ergeben. Beispiel: Eine Hautärztin in Eimsbüttel betreibt eine Privatpraxis und möchte für „Hautarzt Hamburg“ auf Platz 1 ranken, schließlich ist sie ein Hautarzt in Hamburg. Da die Ärztin wirklich nur Privatpatienten behandelt und somit nur für ca. 11-12 Prozent der Patienten plus Selbstzahler relevant ist, stellt sich die Frage, warum sie auf Platz Nummer 1 sein sollte? Was, wenn sie es wäre und die meisten Nutzer das Ergebnis zwar anklickten, dann aber feststellten, dass das Angebot gar nicht relevant für sie ist, weil sie nicht für eine Untersuchung selbst bezahlen wollen? Was würden Nutzer über Google als Suchmaschine denken, wenn sie ein solches Ergebnis als erstes bekämen? Den Nutzern wäre damit nicht geholfen, Google wäre damit nicht geholfen, und die Ärztin hätte vielleicht ein paar Patienten mehr, die sich für das Selbstzahlen entscheiden. Aber andere Seiten sind für die Suchanfrage für die Mehrzahl der Nutzer relevanter und haben den Platz 1 eher verdient.

Suchketten und Attribution

Suchmaschinenbenutzer geben in der Regel nicht nur einen Begriff ein und wählen ein Ergebnis, sondern explorieren ein Thema. Beispiel: Ein Benutzer interessiert sich für ein Klavier, so dass er zunächst mit diesem Begriff sucht, dann aber lernt, dass es verschiedene Ausprägungen eines Klaviers gibt, zum Beispiel elektronische, elektrifizierte, klassische, aber auch Flügel. Er gibt dann mehrere Suchbegriffe ein, die seinen Fortschritt in der Exploration des Themas reflektieren. Dies bezeichnet man als Suchkette.

Es wird auch unterschieden zwischen generischen und Brand-Suchbegriffen. Ein Nutzer, der am Beginn seiner Recherche steht, wird eher eine generische Suchanfrage wie „Singlebörse“ nutzen; wenn er mehrere Portale gesehen und sich für eines entschieden hat, gibt er wahrscheinlich den Markennamen der Singlebörse ein, wo er sich anmelden möchte. Soweit die Theorie. In der Praxis hängt die Suchkette auch davon ab, wie komplex oder teuer ein Produkt ist. Wer nach Tintenpatronen sucht, wird nicht wochenlang recherchieren, sondern einfach sein Modell eingeben und dann nach kurzer Vergleichsphase bestellen.

Einen interessanten Einblick in das Suchverhalten von Suchmaschinenbenutzern bieten die Daten von AOL, welche „aus Versehen“ im Jahr 2006 veröffentlicht wurden. Die Daten sind nicht mehr bei AOL runterladbar, aber es gibt mehrere Dienste, die die Auswertung dieser Daten ermöglichen sowie jede Menge wissenschaftlicher Papiere, die sich mit den Daten beschäftigt haben.

Anatomie einer Suchmaschine

Die Dreifaltigkeit einer Suchmaschine

Wie wir gleich sehen werden besteht eine Suchmaschine im Prinzip aus drei Teilen:

  • Einem Crawler, der die Seiten ranholt,
  • einem Indexer, der die Seiten indexiert, und
  • einer Retrieval Engine, die Ergebnisse auf Anfrage aus dem Index holt.

Diese drei Komponenten sind natürlich um einiges komplexer als hier dargestellt, auch werden zusätzliche Technologien genutzt wie zum Beispiel der Knowledge Graph bei Google. Aber diese Dreifaltigkeit hilft zu verstehen, an welchen Schrauben ein SEO-Experte drehen kann und muss. Ganz grob gesagt muss sich ein SEO demnach „nur“ um vier Bereiche kümmern:

  • Seiten müssen gecrawlt werden: Technisches SEO
  • Seiten müssen indexiert werden: Technisches und inhaltliches SEO
  • Seiten müssen ranken: Technisches SEO, Inhaltliches SEO und OffPage-Optimierung
  • Seiten, die ranken, müssen auch angeklickt werden: Inhaltliches SEO

Wenn eine Seite keine Besucher von Suchmaschinen bekommt, kann das also mehrere Ursachen haben, die Seite wurde vielleicht noch nicht gecrawlt, oder sie wurde gecrawlt aber noch nicht indexiert oder sie wurde indexiert, aber sie rankt „unter ferner liefen“, oder sie rankt sogar, aber sie wird kaum angeklickt. Die genaue Ursache herauszufinden und zu beheben ist die Aufgabe eines SEOs.

Vom Dokument zur Suche

Crawler

Der Suchmaschinen-Crawler „besucht“ Webseiten und erfasst dabei deren Inhalte und die Struktur der Webseite. Neue Seiten findet ein Crawler entweder dadurch, dass er Links von anderen Seiten verfolgt, oder indem die Seiten bei den Suchmaschinen „angemeldet“ werden.

Da die Suchmaschinen-Crawler nicht jeden Tag jede Seite besuchen können, um zu überprüfen, ob sich etwas geändert hat, werden Änderungen an einer Seite nicht sofort sichtbar im Google-Index. Auch werden neue Inhalte nicht sofort entdeckt. Die Suchmaschinen-Crawler arbeiten nach Prioritäten, das heißt, dass sie vor allem die Seiten h#ufiger und tiefer crawlen, die „wichtiger“ sind. Der PageRank war einer von mehreren Faktoren, der die Wichtigkeit einer Seite bestimmte.

Nicht jede von den Crawlern besuchte Seite wird auch später im Index zu finden sein, auch „rennen“ die Crawler nicht blind durch eine Website. So kann man zum Beispiel Wikipedia kostenlos herunterladen und sich eine eigene Kopie basteln, sie mit Werbung versehen und wieder ins Netz stellen; da diese Idee von vielen Menschen verfolgt wurde und die Nutzer keinen Mehrwert durch mehrere (und meist nicht mehr aktualisierte) Wikipedia-Kopien auf der Suchergebnisseite haben, werden solche Inhalte so früh wie möglich identifiziert, damit der Crawler nicht unnötig Ressourcen verbrät. Jede Seite, die er in eine solche billige Kopie investiert, kann er nicht für andere, wirklich wichtige Seiten verwenden.

Früher wurden die Crawler auch Spider genannt; nicht nur weil sie sich durch „das Netz“ hangeln, sondern auch weil sie nachtaktiv waren; um die damals noch wenigen Server nicht zu sehr belasten, besuchten die Suchmaschinen die Server vor allem in der Nacht, wenn die Nutzer schliefen. Eigentlich sind Crawler ziemlich faule Gesellen, denn sie sitzen auf den Servern und fragen von dort aus Server im Netz an.

Der Google-Crawler basiert auf Chrome-Technologien und kann daher auch mehr verarbeiten als einfaches HTML.

Indexer

Nachdem der Crawler eine Seite „geholt“ hat, können die Inhalte indexiert werden. Dabei werden zunächst linguistische Verfahren angewandt, unter anderem die Entfernung von so genannten Stop Words wie „der, die, das, ein, einen“ oder die Dekomposition von Komposita wie „Länderdreieck“, damit auch Dokumente gefunden werden können, in denen der Begriff „Dreiländereck“ verwendet wird. Ein weiteres verwendetes Verfahren ist das so genannte Stemming, bei dem der Wortstamm verwendet wird, so dass für eine Suche nach „Traum“ auch Dokumente mit dem Wort „Träume“ gefunden werden.

Neben den Informationen in dem Dokument werden außerdem Informationen über das Dokument verarbeitet. Die Sprache des Dokuments wird identifiziert, aber auch das Land, wofür das Dokument relevant ist. So möchten deutsche Benutzer in den wenigsten Fällen deutsche Ergebnisse aus Österreich bekommen und umgekehrt. Ähnlich ist es mit spanischen Inhalten, die auch aus Südamerika kommen können, aber nicht unbedingt für Benutzer in Spanien relevant sind.

Retrieval Engine

Zwei Parameter stehen im Information Retrieval im Vordergrund, der Recall und die Precision. Beim Recall geht es darum, ob alle im Index gespeicherten relevanten Dokumente auch gefunden werden, bei der Precision darum, ob die relevantesten Dokumente auch als erste angezeigt werden.

Die Suchanfrage wird dafür aber zunächst präpariert, bevor sie auf den Index „geworfen“ wird. Denn da beim Indexieren Stopwords entfernt wurden sowie Stemming etc angewandt, muss das gleiche noch mal für die Suchanfrage passieren.

Gleichzeitig wird die Suchanfrage angereichert mit Informationen wie zum Beispiel dem Ort des Nutzers, um die Relevanz der Ergebnisse für den Nutzer zu steigern.

Anatomie einer SERP

Anatomie eines Suchergebnisses

Eine SERP ist die Suchergebnisseite (Search Engine Results Page), welche in der Regel aus zehn Ergebnissen besteht. Jedes Ergebnis besteht aus mindestens drei Teilen:

  • Dem Titel einer Seite
  • Der Beschreibung einer Seite, auch Description oder Snippet genannt
  • Der URL einer Seite

Zusätzlich können weitere Informationen hinzugefügt werden, zum Beispiel:

  • Sitelinks
  • Bewertungen, vor allem für Produkte
  • Rich Snippets, zum Beispiel für Veranstaltungen
  • Breadcrumps

Die Beschreibung einer Seite kann aus verschiedenen Quellen generiert werden:

  • Aus der Meta Description (siehe unten)
  • Aus dem Kontext der Seite, indem das Schlüsselwort auftaucht
  • Früher auch aus dem Open Directory Project (dmoz)

Es ist wichtig, auf alle Teile eines Ergebnisses zu achten. Es nützt nichts, auf der ersten Position für eine Suchanfrage zu stehen, wenn das Suchergebnis so irrelevant aussieht, dass es niemand anklickt. Dieser Faktor wird auch als wahrgenommene Relevanz bezeichnet.

Mobile

Da Nutzer, je nach Thema, zum Teil mehr mit dem Smartphone suchen als mit einem Desktop-Rechner, haben Google & Co die Suchergebnisseite auf mobile Endgeräte angepasst. Waren früher alle Ergebnisse auch in der mobilen Version der Suche zu finden, versucht Google heute den für Mobilgeräte optimierten Seiten einen Bonus zu geben. Das bedeutet f+r den SEO, dass er sich nicht nur um das Ranking einer Seite kümmern muss, sondern auch um die mobile Optimierung.

Dies wird häufig missverstanden, zum Beispiel dass es einen mobilen Index gäbe oder dass Nutzer mehrheitlich nur noch mobil suchen. Beides ist nicht der Fall. Im Falle der mobilen Suche geht es darum, dass die mobilen Suchergebnisse modifizierten Ranking-Faktoren unterliegen. Die Ergebnisse werden also nicht mehr nach Desktop-Rankingfaktoren berechnet.

In Bezug der mobil Suchenden werden häufig Zahlen durcheinander geworfen. So ist es nicht so, dass alle Suchanfragen zu allen Themen mobiler geworden sind. Manche Suchanfragen haben einen kaum höheren Mobilanteil, weil sie eher zu Bürozeiten gesucht werden, in denen man vor einem Desktop-Rechner sitzt. Es dürfen also nicht alle Suchanfragen in einen Topf geworfen werden. Hinzu kommt, dass der mobile Anteil der Suchanfragen nicht in allen Ländern gleichzeitig stark gestiegen ist. In manchen Ländern ist der mobile Anteil von vornherein höher gewesen, z.B. in Afrika. Aus Aussagen wie “In manchen Ländern gibt es mehr mobile Suchen als Desktop-Suchen” wurden dann Aussagen wie “Es gibt mehr mobile Suchen als Desktop-Suchen für jedes Land” und daraus dann “Ohne mobile Seite ist man verloren”. Natürlich ist Mobile wichtig, aber es ist nicht für jede Nische gleich wichtig.

Personalisierte Suche

Google zeigt nicht jedem Nutzer die gleichen Ergebnisse an, da zum Beispiel der Ort, von dem aus die Suche eingegeben wird, eine Rolle spielt. Sucht ein Nutzer in Hamburg nach „yogastudio“, so werden ihm vor allem Yogastudios aus Hamburg angezeigt. Auch die Suchhistorie spielt eine Rolle, so dass Ergebnisse, die angeklickt wurden, eventuell eine andere Position in der SERP haben als bei anderen Nutzern.

SEO-Klickrate

Da das oberste Ergebnis von Nutzern als das relevanteste angesehen wird, verteilen sich die Klicks auf die Ergebnisse ungleichmäßig. Das erste Ergebnis hat eine Klickrate von 30-40%, allerdings liegen die Werte für Mobile Searches niedriger. Die hinteren Ergebnisse erhalten nur wenige Prozentpunkte. Sehr schön wird das in einer Studie von Advanced Web Rankings erläutert. Hierzu werden die Webmaster Console-Daten von mehr als 10.000 Webseiten erfasst.

Das Wissen um die Klickrate ist insofern nützlich, dass daraus ersichtlich ist, ob die eigenen Ergebnisse die Klickrate erhalten, die sie auf Basis ihrer Positionhaben sollten. Ist ein Ergebnis auf der 1. Position, erhält aber nur 5% der Klicks, so scheint etwas nicht in Ordnung zu sein mit dem Ergebnis, und es wird wahrscheinlich nicht mehr lange auf der 1. Position bleiben.

Optimierung

Mehr als 200 Ranking-Faktoren

Waren es in den 90er Jahren die Keywords, so wurden es in den 2000er Jahren die Backlinks, die als die wichtigste Waffe im Kampf um die oberen Ränge in den Suchmaschinen eingesetzt werden konnten. Tatsächlich hat es schon immer mehrere Ranking-Faktoren gegeben, und die Gewichtung dieser Faktoren ist schon seit langer Zeit ein Ziel der Begierde von Suchmaschinenoptimierern wie auch Politikern. Letztere würden gerne Google zwingen, den Algorithmus freizugeben, damit der Verdacht der Parteilichtkeit und der Manipulation ausgeräumt werden können, insbesondere angesichts des Quasi-Monopols von Google. Aber jede dieser Forderungen aus der Politik offenbart nur das fehlende Verständnis, wie eine Suchmaschine tatsächlich funktioniert.

Wie entsteht ein Ranking-Algorithmus?

Es ist zunächst einmal wichtig zu verstehen, dass die Gewichtung der Ranking-Faktoren dynamisch stattfindet. Es existiert kein Algorithmus wie 20% Text, 30% Backlinks, 18% Domainalter etc. Das würde auch nicht funktionieren, denn nicht jede Seite im Netz hat einen Backlink von einer anderen Seite, so dass das Linksignal in diesem Fall nicht so stark sein kann. Ebenso kann eine Seite allein dadurch einen Malus bekommen, dass sie extrem langsam ist, aber keinen Bonus, wenn sie schneller ist als andere Seiten. Der Malus könnte sogar so groß sein, dass er andere Signale dominiert.

Wie aber wird entschieden, welche Ranking-Faktoren welches Gewicht bekommen? 2006 habe ich selbst bei Ask.com Ranking-Algorithmen mit Machine Learning trainiert. Dabei wurde nicht ein ganzer Algorithmus trainiert, sondern nur ein bestimmtes Problem, zum Beispiel das oben genannte Beispiel, Suchanfragen mit Ergebnissen, für die wenig Links existieren. Dabei wurden der Support Vector Machine von Menschen ausgewählte gute Ergebnisse gegeben (“supervised Learning”), damit der Algorithmus sich selbst optimieren konnte. Heute, mehr als ein Jahrzehnt später, stehen sehr wahrscheinlich viel bessere Ansätze zur Verfügung. Auch Google arbeitete lange mit Human Raters zusammen, die Suchergebnisse beurteilten.

Weiterentwicklung der Ranking-Faktoren: Google Upddates

Die Algorithmen der Suchmaschinen wie Google werden kontinuierlich verbessert, vor allem die größeren Updates führen zu Überraschungen für Webseitenbetreiber, da über Nacht gute Rankings verloren gehen können. Berühmte Updates waren zum Beispiel Hummingbird oder Panda. Zum Teil werden durch diese Änderungen auch Seiten in den Abgrund geworfen, die eigentlich unproblematisch waren.

OnPage versus OffPage

Als OnPage- oder OnSite-Optimierung bezeichnet man die Optimierung aller Faktoren, auf die der Webmaster direkt auf der Seite selbst Einfluss hat. In der OffPage- oder OffSite-Optimierung werden die Faktoren optimiert, auf die der Webmaster keinen direkten Einfluss hat.

OnPage-Optimierung der Inhalte

Inhalte und Dokumentstruktur

“Content is King”, und ohne Inhalte wird es schwer bis unmöglich sein, Nutzer auf die Webseite zu bekommen. Dokumente im Netz bestehen vor allem aus Text, Bildern und Videos, zum Teil aber auch kleinen Programmen, mit denen Nutzern interagieren können.

Wie schon im Abschnitt Eine kleine Geschichte der Suchmaschinen beschrieben ist Text derzeit noch die Hauptwährung im SEO-Geschäft. Zwar kann mittlerweile auch der Inhalt von Bildern auf Basis von Künstlicher Intelligenz erkannt werden, aber wird nicht gerade nach einem Bild gesucht, so muss ein Bild nicht unbedingt die beste Antwort auf eine Such-Intention sein.

Über das Minimum an Text auf einer Seite wird in SEO-Foren und Blogs viel diskutiert; sehr wahrscheinlich existiert aber keine Minimum-Länge, es wäre zumindest nicht logisch. Wenn alle anderen Texte 200 Wörter haben und mein Text 300 Wörter, dann ist es unsinnig 900 Wörter zu verlangen, wie es zum Beispiel das Yoast SEO-Plugin tut. Wichtiger noch, die Textlänge ist kein Indikator dafür, wie hoch die Qualität eines Textes ist. Mehrere Google-Algorithmus-Updates hatten vor allem das Ziel, die Qualität eines Dokuments bestimmen zu können und dieses dementsprechend zu ranken.

Am Ende des Tages geht es darum, dass Texte für Menschen geschrieben werden und für diese gut lesbar sind. Diese Aussage lässt viel Spielraum, denn für manche ist nur ein Artikel der Bild-Zeitung gut lesbar, für andere auch ein Artikel der FAZ. Leider zeigen auch genug Beispiele, dass nicht unbedingt inhaltlich richtige Seiten oben gerankt werden, und der vielzitierte Qualitätsjournalismus ist nicht immer zu beobachten bei den Verlagshausprodukten.

So bleibt dem guten Optimierer nur, tatsächlich gute Inhalte zu erstellen und darauf zu hoffen, dass künftige Updates dies honorieren werden. Bis dahin helfen zumindest einige handwerkliche Kniffe wie zum Beispiel

  • Das Keyword, auf das man optimiert, im Titel der Seite zu verwenden
  • Das Keyword, auf das man optimiert, auch in Überschriften zu verwenden
  • Alt-Tags für Bilder zu verwenden
  • usw

Keyword Density/TD-IDF/WDF-IDF

Damit eine Seite für einen Begriff gefunden wird, ist es sinnvoll, dass dieser Begriff auch auf dieser Seite auftaucht 🙂 Die frühen Web-Suchmaschinen nutzten vor allem einfache Häufigkeiten, wobei unterschieden wurde zwischen dem reinen Text und Überschriften. Das Verhältnis der Anzahl der Keywords zu der Anzahl aller Wörter auf einer Seite wird als Keyword-Dichte bezeichnet. Dabei ist zu beachten, dass Google & Co wie im Abschnitt über den Indexer beschrieben Wörter normalisiert, so dass auch andere Formen eines Wortes verwendet werden sollten, was dummerweise die meisten SEO-Tools nicht verstehen und daher nur exakt den Begriff verwenden, auf den optimiert werden soll. Grundsätzlich gilt, dass ein Text immer noch lesbar für Menschen sein sollte. Das sogenannte Keyword Stuffing, also das überzogene Füllen von Inhalten mit einem Schlüsselwort, kann zur Abstrafe führen.

Im Information Retrieval wird die so genannte Term Frequency – Inverse Document Frequency-Formel genutzt, um die Bedeutung eines Wortes innerhalb einer Dokumentenkollektion (Corpus) beurteilen zu können. Die Within Document Frequency – Inverse Document Frequency beinhaltet eine andere Gewichtung des Begriffes in Bezug auf alle anderen Begriffe in Hinblick auf die anderen Dokumente in einem Index. Auch wenn diese Ansätze von manchen SEOs gehyped werden, spielen sie für die Suchmaschinenoptimierung eine geringe Rolle, denn als Optimierer hat man keinen Zugriff auf den Corpus und kann somit keine TF/IDF für das eigene Dokument berechnen. Dennoch behaupten viele SEOs, dass ihnen diese Ansätze geholfen haben, was auf eine Scheinkorrelation zurückgeführt werden kann.

Meta Tag Description

Anders als die HTTP Header sind die Meta Elemente (das ist der korrekte Begriff, nicht Meta Tags) für den Benutzer sichtbar, wenn er sich den Quellcode einer Seite ansieht. Für die Suchmaschinenoptimierung ist heute lediglich das Meta Element Description wichtig, da hier eine Beschreibung der jeweiligen Seite angegeben werden kann. Wie zuvor beschrieben wird diese Beschreibung häufig in der Suchmaschinenergebnissen angezeigt, so dass auch davon abhängt, ob ein Ergebnis als relevant wahrgenommen und dann angeklickt wird.

Früher war das Meta Element Keywords wichtig, wo Benutzer Schlüsselwörter für die jeweilige Seite eingeben konnten. Was im akademischen Bereich gut funktionierte, wurde von kommerziellen Anbietern schnell ausgenutzt. Manche interpretieren daraus, dass die Meta Tags generell nicht mehr benötigt werden, aber das ist Quatsch.

Page Title

Der Titel einer Seite ist aus mehrfacher Sicht wichtig. Zum einen ist es wichtig, Schlüsselwörter in einem Titel unterzubringen, um eine bessere Position in den Suchergebnissen zu erreichen, auch wenn das nur einen kleinen Teil der Ranking Faktoren ausmacht. Zum anderen ist der Titel einer Seite aber das, was der Benutzer einer Suchmaschine auf der Suchergebnisseite sieht und anklickt. Ein Seitentitel, der den gesuchten Begriff enthält, wird mit höherer Wahrscheinlichkeit angeklickt als ein Seitentitel, der das Schlüsselwort nicht enthält.

Sprache

Wie zuvor beschrieben wird während des Indexierens die Sprache einer Seite identifiziert. Sind mehrere Sprachen in einem HTML-Dokument vorhanden, so muss sich der Indexer für eine Sprache entscheiden; das Ein- und Ausblenden via AJAX ist keine gute Option. Auch das IP-Targeting, also das Ausliefern einer Sprachversion abhängig von der IP-Adresse des Benutzers ist nachteilig, wenn al- le Sprachversionen unter den gleichen URLs zu finden sind. Dieses Problem hatte zum Beispiel XING, weil der Crawler aus Amerika kam und ihm die englisch-sprachige Version von XING gezeigt wurde. Zwar wurde XING dennoch gefun- den, weil Google anhand der Link-Struktur und der Lokation des Servers erkannt hatte, dass es sich um eine wichtige Seite in Deutschland handelt, aber bei der Einschränkung „Seiten auf Deutsch“ wurde XING nicht gefunden.

Bilder und Alt-Tags

Zunächst einmal scheinen Bilder nichts mit der Optimierung von Text zu tun haben, warum also sollte man Bilder optimieren? Tatsächlich werden heute zum Teil zu häufig Bilder auf Webseiten eingesetzt, wo sie keinen Mehrwert bieten, nur weil irgendwo in einem SEO-Guide stand, dass man immer schön Bilder inklusive Alt-Tag mit Keyword in den Content packen soll.

Wenn Bilder den Inhalt sinnvoll ergänzen, ein Bild also zum Verständnis eines Sachverhalts beiträgt, dann gereichen sie der Qualität eines Dokuments zum Vorteil. Durch adäquates Tagging und den Kontext werden die Inhalte der Bilder besser erfasst. Innerhalb der Universal Search werden auch Bilder angezeigt, so dass dadurch mehr Traffic auf eine Webseite kommen könnte.

OnPage-Optimierung technischer Natur

Domain

Die Domain hat im Idealfall das wichtigste Schlüsselwort im Namen. Neben einem Keyword Match in der Domain sind aber auch weitere Faktoren wichtig, insbesondere die Historie einer Domain. Mitunter können Domains auch „verbrannt“ sein. Es lohnt sich daher immer in Tools wie Sistrix zu schauen, ob es in der Vergangenheit Abstrafungen gegeben hat. Außerdem existieren Tools, die die Vorbesitzer einer Domain auflisten; leider sind die meisten dieser Dienste heute kostenpflichtig. Das Alter einer Domain spielt keine Rolle.

Eine Domain ist nicht zu verwechseln mit einem Host. Ein Host ist zum Beispiel tom.alby.de, die Domain ist alby.de, und der Server ist eine physische oder virtuelle Maschine mit einer IP-Adresse, auf der eine Seite gehostet ist. Wie im Hosting-Teil besprochen können mehrere Hosts auf einem Server liegen.

URL-Struktur

URLs sollten nicht zu lang sein und auch die Schlüsselwörter beinhalten. Dabei ist darauf zu achten, dass die Keywords nicht zu oft auftauchen, da dies wie bei der Keyword-Dichte zu Abstrafungen wegen Keyword-Stuffing führen kann.

HTML-Validität

Der HTML-Code sollte so valide wie möglich sein. Das W3C bietet kostenlose und extrem strenge HTML-Validatoren an. Die Suchmaschinen können zwar mit invalidem HTML umgehen (sonst wäre die Mehrzahl der Webseiten im Internet nicht bei den Suchmaschinen zu finden), aber irgendwann brechen auch die HTML-Parser der Suchmaschinen ab. Dies passiert jedoch nur in den seltensten Fällen; viel wichtiger ist, dass bei HTML-Fehlern eventuell wichtige Inhalte nicht mitindexiert werden.

Code2Content-Ratio

Das Verhältnis der für den Benutzer sichtbaren Inhalte gegenüber dem Quelltext einer Seite sollte in einem gesunden Verhältnis stehen. Tatsächlich aber gibt es keine Belege dafür, dass eine Seite mit viel mehr Code als Content abgestraft würde.

robots.txt

Mit der robots.txt kann dem Crawler gesagt werden, welche Inhalte einer Seite nicht von ihm besucht werden dürfen. Google beachtet nicht den Befehl crawl- delay, da die Crawl-Frequenz in der Webmaster Central konfiguriert werden kann, dafür aber reguläre Ausdrücke.

Robots-Anweisungen können auch über die Meta-Tags gegeben werden.

Hosting

Das Hosting kann einen großen Einfluss auf den Suchmaschinen Optimierung haben, auch wenn dies auf den ersten Blick nicht offensichtlich ist. So versuchen die großen Anbieter Kosten zu sparen, indem sie möglichst viele Internetpräsenzen auf eine Maschine packen; ansonsten wäre kein Hosting ab 3,99 Euro im Monat möglich. Da Suchmaschinen gleichzeitig versuchen, die Server nicht mehr als notwendig zu belasten, wird der Zugriff auf einer Maschine, die sich durch eine IP-Adresse identifiziert, auf wenige Zugriffe pro Sekunde limitiert. Sind mehrere 100 oder sogar 1.000 Internetpräsenzen auf einer Maschine, so bekommt eine Internetpräsenz nicht mehr so viel von den Ressourcen eines Suchmaschinencrawlers ab. Wie zuvor beschrieben wird das Crawling priorisiert, so dass es vorkommen kann, dass eine Internetpräsenz auf dem gleichen Server häufiger und tiefer gecrawlt wird als eine andere.

Mit ReverseIP-Tools kann herausgefunden werden, wie viele und welche anderen Domains auf einem Server mit einer IP-Adresse gehostet sind; in diesem Beispiel ist eine meiner Domains zusammen mit mindestens 999 anderen Domains auf einer IP (für einen vollen Report müsste man zahlen). Das Hosting kostet tatsächlich nur 3,99€ im Monat, aber man muss kein Mathematiker sein um zu verstehen, dass hier mindestens 4.000€ Umsatz pro Monat mit einem Server gemacht werden – natürlich minus Steuern, Netzanbindung, Mitarbeiter etc… aber die reine Hardware sollte sich nach einem Monat bezahlt gemacht haben 🙂 Gutes Hosting in Bezug auf Geschwindigkeit und Maschinenressourcenverteilung gibt es nicht für wenig Geld. Punkt.

Hinzu kommt, dass auch die Antwortgeschwindigkeit eines Servers einen Einfluss auf das Ranking haben kann. Siehe dazu den Punkt PageSpeed. Je schneller der Server und je weniger andere Präsenzen auf dem Server, desto höher die Wahrscheinlichkeit, dass eine Webseite schneller ausgeliefert werden kann, was letztendlich auch der User Experience zum Vorteil gereicht.

PageSpeed

PageSpeed ist eher als Hygienefaktor im Ranking zu verstehen: Ist die Seite langsam, so bekommt sie einen Malus; ist sie schnell, so verändert sich nichts. Komplett gesichert ist das aber auch nicht, denn eigene Untersuchungen haben ergeben, dass dies keine eindeutige Regel zu sein scheint.

Nicht zu unterschätzen ist aber die Wirkung auf Nutzer, denn je schneller die Seite lädt, desto geringer ist die Wahrscheinlichkeit, dass die Nutzer abspringen, weil es ihnen zu lange dauert bis die Seite geladen ist.

Viele Faktoren haben Einfluss auf die Geschwindigkeit einer Seite:

  • Leistungsfähigkeit des Servers
  • Netzwerkanbindung des Servers
  • Standort des Servers (Panama ist für deutsche Inhalte wahrscheinlich keine gute Idee, da zu viele “Hops” zwischen dem Server und dem Browser des Nutzers liegen)
  • Hosting-Paket
  • Die “Schwere” der Seite, also wie viele KB die HTML, CSS und Bilderdateien haben
  • Komplexität der Seite (sie muss immer noch vom Browser gerendert werden)

Die Geschwindigkeit einer Seite kann mit Googles PageSpeed-Tool gemessen werden.

Gerne wird in diesem Zusammenhang ignoriert, dass nicht alle Nutzer in gut mit Internet versorgten Städten leben. Auch wenn die Provider hohe Geschwindigkeiten anbieten, so bedeutet das nicht, dass diese auch überall verfügbar sind. Insofern ergibt es immer noch Sinn, dass Seiten möglichst klein gehalten werden.

XML-Sitemaps

Die einfachste Methode, eine Seite bei Google anzumelden, ist sie direkt in ein Formular einzugeben. Eine weitere und in der Regel auch bessere Methode ist die XML-Sitemap. Das Protokoll der XML-Sitemaps, worauf sich die großen Suchmaschinen geeinigt haben, ermöglich es Webseiten-Betreibern, den Suchmaschinen Informationen über die Struktur der eigenen Seite sowie die Prioritäten für das Crawling mitzuteilen. Die Suchmaschinen haben natürlich keine Verpflichtung, den Wünschen Folge zu leisten, aber die Webseiten-Betreiber haben zumindest theoretisch etwas Einfluss.

Duplicate Content / Canonical Tag

Duplicate Content wird als solcher bezeichnet, wenn der gleiche Inhalt auf mehr als einer Webseite oder auch mehrfach auf derselben Website zu finden ist. Ein gutes schlechtes Beispiel sind die zahlreichen Wikipedia-Kopien, die in der Regel nur mit Werbung angereichert wurden. Aber auch ohne böse Absichten können Dubletten entstehen, zum Beispiel wenn eine Druckfunktion angeboten wird, bei der der gleiche Inhalt ohne Navigation angeboten wird. Google & Co sind schlau genug, dass sie nicht nur exakte Kopien identifizieren, sondern auch Seiten, die sehr ähnlich sind. Das Resultat ist, dass das, was als Kopie angesehen wird, aus dem Index herausfliegen kann. Im schlimmsten Fall ist das die Seite, die man eigentlich nicht im Index haben wollte (z.B. die Druckversion ohne Navigation), aber nicht die, die die Benutzer eigentlich sehen sollten.

Canonical URLs helfen hier, die Link- und Ranking-Signale zu opti-mieren. Dazu wird im Head-Bereich ein zusätzlicher Tag gesetzt.

Wenn Google den Verdacht hat, dass Content zu Manipulationszwecken dupliziert worden ist, kann die ganze Seite abgestraft und aus dem Index entfernt werden.

SSL

War ein SSL-Zertifikat früher nur optional, so ist es mittlerweile ein offiziell von Google bestätigter Ranking-Faktor. Hinzu kommt, dass in Browsern mehr oder weniger prominent angezeigt wird, ob eine Seite durch ein SSL-Zertifikat gesichert ist oder nicht. Je stärker die Nutzer auf Sicherheitsfunktionen sensibilisiert werden, desto mehr werden Nutzer ihre Auswahl auf gesicherte Seiten einschränken.

OffPage-Optimierung

Linkpopularität / PageRank

Google und andere Suchmaschinen gingen früher und zum Teil noch heute davon aus, dass eine Seite umso wichtiger ist, je mehr andere Seiten auf sie verlinken. Google nennt seinen Linkpopularitäts-Algorithmus PageRank (siehe auch das Paper von Page und Brin in der Literaturliste). Dabei ist nicht nur die Anzahl der Links entscheidend, sondern auch, von wem man verlinkt wird. Erhält eine Seite einen Backlink von einer wichtigen (also von vielen anderen Seiten verlinkten) Webseite, so ist dieser Link wertvoller als der Link einer Seite, die von keiner anderen Seite verlinkt ist. Google kommunizierte die PageRank-Werte von 0-10 in der Google Toolbar, seit 2016 werden die Werte aber nicht mehr veröffentlicht.

Der Mechanismus viele Links -> besseres Ranking funktioniert heute nicht mehr so einfach wie früher.

Anchor Texte

Nicht nur die Anzahl der Links ist wichtig, sondern auch der Anchor Text, also der Linktext, auf den ein Benutzer klickt, wenn er einen Link verfolgen wird. Diese Anchor Texte werden von den Suchmaschinen als Beschreibung einer Seite gewertet und mit der verlinkten Seite verknüpft.

Erfolgsmessung

Was ist eigentlich Erfolg?

Erfolg hängt immer von den vorab festgelegten Zielen ab, wobei manche Ziele abwegig sein können, andere Ziele zu unspezifisch, Ziele sollten immer SMART sein, also

  • spezifisch
  • messbar
  • ansprechend
  • realistisch
  • terminiert

So könnte ein Ziel lauten, dass man innerhalb eines Jahres die gleiche Sichtbarkeit wie die größten Marktbegleiter haben möchte.

Allerdings ist das Ranking nicht alles. Natürlich ist es schön, wenn man für seine Seite auf Platz 1 landet, aber was wenn der Traffic nicht bei dem Erreichen von Geschäftszielen hilft? SEO ist kein Eigenzweck, sondern muss auf die Geschäftsziele einzahlen, und die lauten in der Regel immer “Geld verdienen”.

SEOs könnten wie ein Gewerk auf einer Baustelle auf dem Standpunkt verharren, dass sie einfach nur für den Traffic aus der organischen Suche zuständig sind, aber so einfach ist es nicht. Wie wir schon im Abschnitt über Intention einer Suchanfrage gesehen haben, wird eine Suchanfrage mit einer Seite sowie deren Ergebnisrepräsentation verknüpft. Spielen nicht alle Teile optimal zusammen, so klicken Suchende auf ein Ergebnis, das nicht mit der Landingpage harmoniert, so dass später auch keine Conversion stattfindet. SEOs sind also mindestens mitverantwortlich für die Conversions.

Was aber, wenn es gar keine harten Conversions gibt? Wenn eine Seite nur eine Informationsseite ist und von Werbung lebt? Einige Ansätze werden im Abschnitt Analytics erläutert.

Webmaster/Search Console

Die Search Console von Google bietet die einzige Möglichkeit, direkt von Google Feedback zu bekommen, was die eigene Seite betrifft. Darin enthalten sind Backlink-Daten, Informationen über Crawl-Fehler, Sitemap-Anmeldung, Klickraten auf Suchergebnisse sowie Geschwindigkeit des Webservers.

Die Verbindung der eigenen Seite mit dem Tool ist absolut notwendig, um den Fortschritt der Erfassung der eigenen Seite zu überprüfen. Zwar könnte man das Crawling der Seiten durch den Google-Bot noch durch die Analyse der eigenen Server-Logfiles bewerkstellen, aber Feedback über die Indexierung erhält man dadurch nicht. Auch die Klickrate kann nur über das Google-Tool in Erfahrung gebracht werden. Sie ist insofern spannend, weil sie uns zeigt, ob Seiten die für ihr Ranking zu erwartende Klicks erhalten.

Web Analytics

Es reicht nicht alleine, eine Seite auf die oberen Positionen bei Google zu bringen und Klicks zu generieren. Selbst wenn das Ergebnis auf Google sehr einladend aussieht und die Benutzer tatsächlich auf die eigene Seite kommen, ist immer noch nicht gesichert, dass sie auch die gewünschten Aktionen durchführen.

Um das Verhalten der Benutzer auf der eigenen Seite nachvollzuziehen zu können, ist die Nutzung eines Web Analytics-Tools notwendig. Ein populäres, aber datenschutzrechtlich diskutiertes Tool ist Google Analytics, mit dem genau analysiert werden kann, welche Suchbegriffe zu welchen Aktionen bei den Benutzern geführt haben.

  • Die Bounce Rate oder Absprungrate: Wieviele Besucher verlassen die Seite sofort (innerhalb von 5 oder 10 Sekunden) wieder?
  • Der Anteil der wiederkehrenden Besucher
  • Die Exit Rate: Von welchen Seiten verlassen die Besucher die Website wieder?
  • Wie tief scrollen die Nutzer? Welche Inhalte werden tatsächlich gelesen?

Anstatt allein darauf zu achten, wie viele Besucher oder PageViews man hat, ist es viel wichtiger zu schauen, was man aus den Web Analytics-Daten ableiten kann, um die Performance der eigenen Seite zu verbessern. Dazu können unter anderem folgende Werte analysiert werden:

  • Die Bounce Rate oder Absprungrate: Wieviele Besucher verlassen die Seite sofort (innerhalb von 5 oder 10 Sekunden) wieder?
  • Der Anteil der wiederkehrenden Besucher
  • Die Exit Rate: Von welchen Seiten verlassen die Besucher die Website wieder?
  • Wie tief scrollen die Nutzer? Welche Inhalte werden tatsächlich gelesen?

Diese KPIs werden in den meisten Analytics-Systemen nicht a priori gemessen, sondern müssen extra eingerichtet werden.

Ranking Monitoring

Das Ranking der eigenen Seiten sollte kontinuierlich beobachtet werden, wozu einige Tools weiter unten vorgestellt werden. Idealerweise werden gleichzeitig die Marktbegleiter beobachtet, so dass verfolgt werden kann, wessen SEO-Aktivitäten erfolgreich sind. Gleichzeitig bietet das Monitoring die Möglichkeit, Abstrafungen sofort zu identifizieren.

Gerade bei großen SEO-Projekten ist es allerdings schwierig, alle Keywords im Blick zu haben. Hier hilft ein Sichtbarkeitsindex wie der von Sistrix, aber auch einfache selbstgestaltete Werkzeuge können hier weiterhelfen; siehe hierzu ein Beispiel für ein Monitoring mit R.

Sistrix

Die Sistrix Toolbox ist eines der beliebtesten SEO-Tools im deutschen Markt, da es für einen günstigen Preis einen umfassenden Index bietet. Das Tool bietet eine Übersicht über

  • Ranking im organischen Index
  • Informationen über SEM-Aktivitäten
  • Backlinks
  • Monitoring
  • Universal Search
  • Affiliate-Aktivitäten

Mittlerweile bietet Sistrix auch Daten für andere Länder als Deutschland an.

Abseits von Analytics

Neben den nackten Zahlen existieren Werte, die nur schwer gemessen werden können, zum Beispiel wie ein Design auf den Markenwert einzahlt. Auch wenn ein Benutzer nicht alle Seiten eines Auftritts ansieht, so kann er allein dadurch, dass er sich mit der Marke auseinander gesetzt hat, zu einem veränderten Kaufverhalten führen. Ebenso kann eine Suche bei einer Suchmaschine dadurch ausgelöst werden, dass der Benutzer zuvor eine TV-Werbung oder ein Banner gesehen hat. Diese Effekte sind bisher kaum zu messen, da ein Medienbruch stattfindet.

Google-Updates, Spam & Gegenreaktionen

Google-Updates

Die Updates der Google-Ranking-Algorithmen erfolgen unregelmäßig und nur selten angekündigt. Zum Teil verlieren Domains schlagartig einiges an Traffic oder gewinnen auch dazu, und jegliches Wehklagen ist unnütz. Manche der Updates haben Namen wie Panda, Penguin oder Hummingbird, andere bezeichnen direkt den neuen Algorithmus wie zum Beispiel RankBrain. Eine gute Übersicht über die Änderungen findet sich auf Wikipedia.

Spam

Als Spam oder Spamdexing werden Optimierungsmethoden bezeichnet, die nicht den Richtlinien von Google und Co. entsprechen. Darunter fallen Methoden wie weißer Text auf weißem Hintergrund, das Anzeigen von anderen Inhalten gegenüber dem Crawler als dem Benutzer oder das Anzeigen von Text außerhalb des Bildschirmes.

Übrigens hat Spam tatsächlich mit dem Dosenfleisch mit dem gleichen Namen zu tun, denn der Begriff Spam wird aufgrund dieses Monty Python-Sketches als Synonym für unerwünschtes Vollmüllen benutzt:

Penalties

Google bestraft Seiten, die sich nicht an die Webmaster Guidelines halten. Mehrere Formen der Strafen existieren,

  • früher zum Beispiel das Nicht-mehr-Anzeigen des PageRanks in der Google Toolbar (vor allem dann, wenn eine Seite aufgrund ihres hohen PageRanks Links verkauft hatte), was aber keine Auswirkung auf das Ranking hat,
  • die +50-Strafe (oder +100-Strafe), durch die eine Seite alle Positionen +50 Positionen bekommt; dies gilt jedoch nicht für alle Seiten,
  • wahrscheinlich die schlimmste Strafe ist die Entfernung aus dem Index.

Um einer Strafe rückgängig zu machen, muss der Webmaster einen Reconsideration Request bei Google stellen. Anders als früher ist Google um einiges transparenter und zeigt in der Webmaster Console sogar teilweise an, wenn eine manuelle Aktion am Ranking für eine Seite durchgeführt worden ist.

Sandbox

Die Existenz der Sandbox ist zwischen SEOs umstritten, und von Google wurde die Existenz der Sandbox verneint. Es ist daher nicht klar, ob der beobachtete Sandbox-Effekt, also das Runterranken von Seiten für bestimmte Keywords vor allem nach der Erstellung eines neuen Projekts, tatsächlich existiert. Allerdings ist es richtig, dass SEO viel Geduld erfordert

Die Zukunft von SEO

SEO galt Ende der 90er und in den 2000ern als der „heiße Scheiß“, was nicht nur einigen durchschnittlich Begabten die Möglichkeit gegeben hatte, „snake oil“ zu verkaufen, sondern auch zu einer eigenen Industrie geführt hat, die sich angesichts immer neuer Ranking-Faktoren und weniger Manipulationsmöglichkeiten stetig neu erfinden muss. Die meisten großen SEOs der Vergangenheit verdienen ihr Geld heute damit, dass sie SEO-Tools an die neue Generation der SEOs verkaufen oder ihr Angebotsprofil erweitert haben, denn SEO ist heutzutage viel komplexer als noch vor 10 oder 20 Jahren. Somit stellt sich die Frage, wie die Zukunft von SEO aussieht.

Auch wenn Google immer noch als einer der wichtigsten Gatekeeper zum Netz angesehen wird, so verändert sich das Nutzerverhalten zunehmend. Voice Search findet nicht nur bei Google statt, Artikel können heute bereits verbal bei Amazon Alexa bestellt werden. Schon heute starten Nutzer ihre Recherche nicht mehr nur bei Google, sondern gehen für bestimmte Produkte gleich zu einem Anbieter wie Amazon, Zalando oder Asos. Da es sich hier vor allem um kommerzielle Recherchen handelt, fehlen Google somit kommerzielle Suchanfragen, bei denen normalerweise AdWords-Anzeigen angezeigt werden. Manche Trends finden bereits gar nicht mehr bei Google statt. Das bedeutet nicht, dass es für SEOs nichts mehr zu tun gäbe; vielmehr bedeutet es, dass SEOs sich auf weitere Bereiche stürzen können, wie zum Beispiel

Die grundlegenden SEO-Ansätze der 2000er Jahre (Links aufbauen, hand- werklich korrekter Aufbau der Webseiten, technische Korrektheit, etc) funktionieren auch heute noch, und eine Grundkenntnis von SEO wird an vielen Unis gelehrt, so dass dafür keine Spezialisten mehr benötigt werden. Ein Alleinstellungsmerkmal werden nur noch die SEOs haben, die über die grundlegenden Ansätze hinausgehen und sich auch in die neuen Bereiche einarbeiten. Und vielleicht muss man bei der Zukunft von SEO auch nicht mehr von Search Engine Optimization sprechen, sondern von Findability Optimization.

Literatur und Materialien

Einige kleine Auswahl relevanter Resourcen: