Cookies

Cookies sind kleine Textdateien, die eine Website über den Browser auf der Festplatte des Benutzers abspeichern kann. In diesen Dateien wird zum Beispiel gespeichert, ob der Nutzer eine Webseite bereits besucht hat, sie ermöglichen es also, einen Benutzer wiederzuerkennen. Eine Seite kann mehr als einen Cookie setzen, es können auch Cookies von anderen Seiten gesetzt werden, zum Beispiel, indem ein Bild von einem anderen Server geladen wird (zum Beispiel ein Werbebanner oder ein 1×1 Pixel großes Bild, das treffenderweise auch Pixel genannt wird; umgangssprachlich wird auch ein JavaScript zT als Pixel bezeichnet, dies ist aber fachlich nicht korrekt). In diesem Fall spricht man übrigens von einem 3rd Party Cookie, wobei der von Google Analytics gesetzte Cookie zum Beispiel ein solcher Third Party Cookie ist. Vom eigenen Server selbst gesetzte Cookies sind 1st Party Cookies (Das darf nicht verwechselt werden mit 1st, 2nd und 3rd Party Data!). Cookies haben eine definierte Laufzeit, der Google Analytics Cookie hat zum Beispiel eine Laufzeit von 2 Jahren.

Eine Website kann nur die eigenen Cookies auslesen, nicht die anderer Websites. Es wäre zum Beispiel möglich, dass man sich eine befreundete Website sucht, die man dann Cookies von ihrer Domain setzen lässt und umgekehrt. So kann dann auf die Nutzer dieser befreundeten Seite „getargeted“ werden.

Cookies sind deshalb so wichtig, weil ein reines Klick-Tracking (Wie oft wurde etwas angeklickt?) keine Aussage darüber trifft, ob ein Nutzer vielleicht mehrmals geklickt hat. So wird zum Beispiel in der Web Analyse unterschieden zwischen Aufrufen einer Seite und eindeutigen Besuchern einer Seite. Wir wollen nicht nur wissen, wie oft eine Seite aufgerufen oder ein Link angeklickt wurde, sondern auch, ob dies immer wieder neue oder auch wiederkehrende Nutzer waren. Daher wird Klick-Tracking durch Cookies ergänzt.

Cross Device Tracking

Cookies werden stets auf dem Gerät abgelegt, mit dem man gerade im Netz unterwegs ist. Die Realität heute ist, dass Nutzer sich nicht auf ein Gerät beschränken, sondern mehrmals am Tag die Geräte wechseln. Fast jeder trägt ein Mobiltelefon mit sich, darüber hinaus befinden sich in vielen Haushalten mittlerweile Tablets, ganz abgesehen von Desktop-Rechnern und Laptops zuhause und bei der Arbeit. Das hat zur Folge, dass in der Regel nicht identifiziert werden kann, ob ein Benutzer mit einem anderen Gerät wiederkommt.

Wer also auf dem Mobiltelefon recherchiert und später auf einem Desktop- Rechner kauft, führt den Daten- und Web-Analysten in schwierige Gewässer, sofern eine Webseite nicht mit Logins arbeitet oder das System bereits eine Indikation des Cross Device-Verhaltens mitliefert. Zum einen wird der Benutzer auf dem Mobiltelefon eventuell noch Retargeting- Maßnahmen ertragen müssen, zum anderen werden Zahlen verzerrt. Denn wenn ein Benutzer auf dem Mobiltelefon nichts kauft, dann wird der eingekaufte Traffic hier unter Umständen als sinnlos angesehen, die Trafficquelle auf dem Gerät, auf dem der Abschluss statt- fand, aber als gewinnbringender. Kann ein Geräte-übergreifendes Tracking (der englische Begriff „Cross Device Tracking“ geht etwas leichter über die Lippen) nicht gewährleistet werden, so sind alle Zahlen mit Vorsicht zu genießen.

 

Von Zielen zu KPIs

KPIs (Key Performance Indicators) sind keine Ziele. Oft werden KPIs berichtet, doch ohne Bezug zu einem Ziel sind KPIs wertlos. Dies ist auch ein häufiger Grund dafür, dass Berichte nicht gelesen werden, denn was soll damit anfangen, dass zum Beispiel die Anzahl der Besucher einer Webseite von 30.000 auf 29.500 pro Monat gefallen sind?

Erst nach der Klärung der Ziele können KPIs definiert werden. Die folgende Grafik zeigt den Prozess:

KPIs sind auch keine Metriken. Aber KPIs können mit Metriken gemessen werden. Dies soll an einem Beispiel verdeutlicht werden: Ein Segler möchte von Hamburg nach Helgoland segeln, um dort ein Fischbrötchen zu essen. Er weiß, dass die Fischbrötchenbuden nur bis 16 Uhr geöffnet haben. Sein Ziel ist SMART, denn es ist spezifisch (Fischbrötchen auf Helgoland), es ist messbar (Fischbrötchen im Magen), es ist immens attraktiv (Fischbrötchen!!!), es ist realistisch (man kann von Hamburg nach Helgoland segeln) und es ist terminiert (bis 16 Uhr). Auf See wird sich unser Segler immer wieder KPIs ansehen, die ihm helfen zu verstehen, ob er auf dem richtigen Kurs ist, sein Ziel zu erreichen, oder ob er korrigierende Maßnahmen einleiten muss. Die Geschwindigkeit ist ein KPI, die in der Metrik Knoten gemessen wird. Weitere KPIs sind Wind, Koordinaten, etc.

Hier werden für das Verständnis der folgenden Abschnitte Metriken erläutert, die im Online-Marketing verwendet werden:

  • CTR: Abkürzung für Click Through Rate, auf Deutsch Klickrate. Wird eine Anzeige zum Beispiel 100 Mal eingeblendet und 2 Mal angeklickt, so ergäbe das eine Klickrate von 2%.
  • CPC: Cost per Click, Kosten pro Klick. Bei AdWords wird der Preis für einen Klick auf eine Anzeige zum Beispiel in einer Auktion bestimmt.
  • CVR: ConversionRate, Konversionsrate .Von 100 Besuchern auf einer Website kauft nur einer etwas im Shop, so dass die CVR dann bei 1% liegt
  • CPO: Cost per Order, Kosten pro Bestellung. Angenommen, wir bezahlen für die 100 Nutzer im vorigen Beispiel 100 Euro (1 Euro CPC), dann läge der CPO bei einer CVR von 1% bei 100 Euro
  • CPA: Cost per Acquisition, ähnlich wie CPO, wird aber für Transaktionen genutzt, die keine Order sind, zum Beispiel Kosten pro Fan bei Facebook.
  • CPM/TKP: Cost per Mille oder Tausendkontaktpreis. Der TKP ist eine Währung, die schon bei Printmagazinen genutzt wurde und beschreibt wie viel Geld man für eine Anzeige zahlt bei einer Auflage pro 1000 Stück.
  • KUR: Kosten-Umsatz-Relation, eine Alternative zum CPO. Hier werden die Gesamtkosten (CPO) durch den Umsatz geteilt, auch nach Retouren.
  • CLV:CustomerLifetimeValue;einKundekaufteventuellnichtnureinmal, sondern mehrmals. Der erste Kauf ist für den Verkäufer nicht profitabel, die weiteren aber schon. Ein gutes Beispiel sind hier Drucker und Tintenpatro- nen.
  • Sitzung/Session: Kommt ein Benutzer auf eine Website, so beginnt das,was in Google Analytics eine Sitzung oder auf Englisch Session genannt wird. Der Benutzer schaut sich mehrere Seiten der Website an, alles innerhalb einer Sitzung. In Analytics ist eine Sitzung mit 30 Minuten definiert, wobei diese 30 Minuten immer wieder neu beginnen, wenn der Benutzer mit der Website interagiert. Die Session endet aber spätestens um Mitternacht oder wenn der Benutzer die Website verlässt und über einen anderen Kanal zurückkehrt. Die Sessiondauer kann außerdem definiert werden.
  • Unique User: Derselbe Benutzer kann mehrmals auf eine Website kommen und mehrere Sitzungen auslösen. Es ist aber immer derselbe Nutzer und wird als unique user bezeichnet.

Nächster Abschnitt: Von Daten zur Handlungsrelevanz

Server Log Files

In den frühen Tagen des Webs (und zum Teil noch heute) wurden vor allem die Log-Dateien des Webservers ausgewertet. Diese haben ungefähr das folgende Format:

66.249.83.x − − [25/Aug/2014:05:39:15 +0200] "GET / datei . html HTTP/1.1"
200 17818 www.domain.de "http ://www.google.de/url?sa=t &rct=j&q=&esrc=s&source=web&cd=2 &ved=0CFEQFjAD&url=http%3A%2F%2Fwww.domain.de/datei.html&ei=tK_6U4nlKpzZ6APBfg &usg=AFQjCNFOJZuerl_SuAT−rLgxVjADIww6LA"
"Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.1; Trident /4.0; SLCC2; .NET CLR 2.0.50727; .NETCLR 3.5.30729; .NET CLR 3.0.30729; Media Center PC 6.0; .NET4.0C; .NET4.0E; InfoPath .3)" "−"

Die Logdatei enthält in der Regel also die IP-Adresse des Benutzers (in diesem Fall wurde das letzte Oktet anonymisiert), das Datum und die Uhrzeit, die Datei, die abgerufen wurde, den HTTP-Status, die Bytes, die übertragen werden, den Referrer,5, den Browser und das Betriebssystem. Es wird nicht erkannt, ob derselbe Benutzer vorher schon einmal da gewesen ist.

Aus diesen Logdateien wurden automatisiert grafisch aufbereitete Auswertungen generiert. Hier werden die einzelnen gerade genannten Merkmale summiert und zum Teil auch weiter ausgewertet. Mitunter sieht man auch heute noch größere Unternehmen mit sol- chen Statistiken arbeiten, meistens mit Hinweis auf Datenschutzprobleme bei der Nutzung fortschrittlicherer Systeme.

Aber es gibt tatsächlich immer noch einen Grund, die Webserver-Daten ge- nauer anzusehen: Die zunehmende Anzahl von Tracking-Verweigerern zum einen sowie der Crawl-Traffic wird von den regulären Web Analytics-Systemen nicht erfasst, da die meisten Bots das von den Trackingsystemen eingebundene JavaS- cript nicht interpretieren. Die Daten aus den altmodischen Weblogs können also immer noch nützlich sein, und sei es nur dazu, Server-Ressourcen freizusetzen, indem unnütze Bots gesperrt werden.

Es ist nicht möglich, dieses Tracking zu unterbinden, auch wenn man den Do not Track-Modus des Browsers aktiviert hat.

Das Reporting

Management-kompatible Berichte zu erstellen bedeutet nicht nur in der Daten- und Webanalyse, dass die wichtigsten Informationen leicht konsumierbar dargestellt werden. Der Fokus sollte genau auf diese beiden Metriken zielen, wichtig und einfach konsumierbar.

Keine Angst vor Daten!

Nicht alle Menschen sind beim Anblick eines Dendrograms oder einer langen Zahlenkolonne von der Neugier gepackt; nicht selten kommen auch negative Emotionen zum Vorschein. Eine Erklärung dafür ist, dass nicht jeder während der Schulzeit gute Erfahrungen im Matheunterricht hatte und dementsprechend weniger gute Erinnerungen geweckt werden. Hinzu kommt, dass sich viele auch nicht trauen nachzufragen, wenn sie etwas nicht verstehen. Und so sitzen viele Menschen in Meeting-Räumen zusammen und schauen sich Zahlen an, die sie nicht verstehen und auch nicht hinterfragen.

Für denjenigen, der Daten vermitteln muss, bedeutet das, dass das Datenmaterial in eine „Story“ gepackt werden muss, wie es auf Neudeutsch heißt. Damit stehen nicht die Zahlen im Vordergrund, sondern das, was die Zahlen bedeuten. Allerdings sind schlechte Erinnerungen an den Matheunterricht nicht der einzige Grund für Skepsis gegenüber Daten.

Trotz aller Lippenbekenntnisse, wie wichtig Daten sind, hat die Statistik als Daten-Disziplin keinen guten Ruf. “Trau keiner Statistik, die Du nicht selber gefälscht hast” ist nur ein Beispiel dafür, dass Zahlen misstraut wird. Wie einfach mit Zahlen gespielt werden kann, wird tatsächlich auch im Statistik-Abschnitt besprochen, aber wenn der Daten-Disziplin misstraut wird, wie kann dann ernsthaft mit Daten gearbeitet werden?

Angst vor Gesichtsverlust

Zahlen und Daten haben einen weiteren Nebeneffekt, der ebenfalls psychologischer Natur ist. Neben der Angst davor, dass man die Zahlen nicht versteht, kann auch eine mindestens latente Angst existieren, dass durch Zahlen und Daten das eigene Tun messbarer und damit auch vergleichbarer wird. Wenn zum Beispiel gemessen wird, ob ein Text auf einer Webseite tatsächlich gelesen wird, dann hat dies den ganz großen Nachteil, dass auch herauskommen kann, dass der Text nicht gelesen wird. Wenn viel Zeit in den Text investiert wurde, dann kann dies zu einer Enttäuschung führen, die man gerne vermeiden möchte.

Ähnlich sieht es aus, wenn man sich schon eine Meinung gebildet hat, sich nun aber mit Daten konfrontiert sieht, die diese Meinung widerlegen. Es ist nicht untypisch, dass Menschen von sich selbst auf andere schließen („n=1“ oder „anekdotische Evidenz“ genannt) und allein ihre Erfahrung und Erlebnisse zu einer Meinungsbildung verwenden. Oder dass nur Daten gesucht werden, die die eigene Meinung unterstützen (ein sogenannter Bestätigungsfehler). Hier kann es mitunter schwierig sein, Daten sprechen zu lassen, wenn eine Meinung schon gebildet wurde, denn auch dies könnte einen Gesichtsverlust bedeuten. Man stelle sich vor, dass einem religiösen Menschen gesagt wird, dass Daten existieren, dass sein Gott nicht existiert; dies bedeutet einen Verlust, der emotional nicht zu unterschätzen ist. In der Sozialpsychologie wird dies auch als kognitive Dissonanz bezeichnet.

Aufbrechen von Daten-Silos

Nicht das Unvermögen der Mitarbeiter, sondern vielmehr die Struktur eines Unternehmens verhindert nicht selten den intelligenten Umgang mit Daten. In fast allen Unternehmen existiert eine Vielzahl von Daten, aber das bedeutet nicht, dass diese für alle Mitarbeiter verfügbar sind. Allein schon aus Datenschutzrechtlichen Gründen ist dies nicht möglich. Nicht ntypisch ist zum Beispiel, dass die IT die Customer Relationship Management-Datenbank betreut, das Marketing die Marketing-Daten wie Web Analytics oder Tracking-Daten von Marketing- Kampagnen, und das Produktmanagement die Produktnutzungsdaten (sofern diese erhoben werden). Manche Abteilungen sprechen unterschiedliche Sprachen, so dass das Marketing zum Beispiel nicht so gut mit der IT sprechen kann, weil ein ganz anderes Vokabular genutzt und ein anderer Wissensstand vorausgesetzt wird.

Daten sind auch ein Machtfaktor, denn was würde passieren, wenn eine Abteilung einer anderen Abteilung Daten zur Verfügung stellte und diese damit Sachen vollbrächte, die die eigentliche „Besitzerin“ der Daten nicht zustande gebracht hatte?  Das Gleiche gilt für Daten, die die Profitabilität einer bisher anerkannten Abteilung in Frage stellen und somit alles, woran die Mitarbeiter bisher geglaubt haben. Nicht umsonst tun sich viele Unternehmen damit schwer, von früher erfolgreichen Modellen los zu lassen. Gleichzeitig wird gerne der Datenschutz vorgeschoben, um Daten nicht teilen zu müssen. Wer Zugang zu Daten hat und sie versteht, erhält somit auch die Deutungshoheit.

Die Arbeit mit Daten ist also nicht allein eine informations-technologische, sondern auch eine politische. Will ein Unternehmen daten-basiert arbeiten, so verlangt dies auch einen Change Management-Prozess, der alle Beteiligten mitnimmt.

Offene Datenquellen

Google Trends ermöglicht, das so genannte „Suchinteresse“ der Google-Benutzer zu analysieren. Hier werden indexierte und normalisierte Werte verwendet, so dass keine absoluten Zahlen verfügbar sind. Genau deshalb ist das Tool auch mit Vorsicht zu genießen, denn ohne zu wissen, wie oft etwas gesucht wird, kön- nen falsche Schlüsse daraus gezogen werden. So schrieben Medien, dass die Bri- ten nach dem Brexit-Votum angefangen hätten sich darüber zu informieren, was der Brexit eigentlich für sie bedeutet. Tatsächlich war ein steiler Anstieg solcher Suchanfragen zu sehen, aber tatsächlich hatten hier nur wenige Hunderte Nutzer diese Anfragen gestellt.31 Dies ist auch schon mal ein gutes Beispiel, wie Daten dazu genutzt werden können, um ein Ergebnis hervorzubringen, dass eine be- stimmte Meinung bestätigt, sei es durch Unvermögen wie in diesem Fall, sei es durch vorsätzliche Handlung. Siehe vor allem hier.

Das tatsächliche Ausmaß an Suchanfragen kann mit dem Google Keyword Planer ermittelt werden. Dieses Tool ist Bestandteil von Google AdWords, das im Abschnitt 3.4.10 beschrieben wird. Es ermöglicht, bis zu 12 Monate zurück zu schauen, wie das Suchvolumen für spezifische Suchbegriffe aussah, allerdings nur ausgehend vom Vormonat des heutigen Tages. Auch sind mehr oder weniger genaue Daten nur für die Kunden zu sehen, die auch bei Google AdWords genug Geld ausgeben. Google Trends hingegen erlaubt es dem Nutzer, ein paar Minuten alte Daten zu sehen, nur sind diese wie gesagt nicht absolut.

Die Google Search Console, früher Webmaster Console genannt, ist ein Web- dienst, durch den Webmaster sehen können, wie eine Seite in den organischen Suchergebnissen „performt“. Daten von der Webmaster Console können in Google Analytics eingebunden werden.

Generelle Methoden

Grundsätzlich wird zwischen qualitativer und quantitativer Forschung oder Datenerhebung unterschieden. Dabei kann nicht gesagt werden, dass zum Beispiel Interviews immer quantitativer Natur sind, denn ein Multi-Choice-Fragebogen kann der quantitativen Datenanalyse zugeordnet werden, ein Fragebogen mit offenen Fragen der qualitativen Datenanalyse. Auch ist keiner der beiden Ansätze besser oder schlechter als der andere. Ein Interview kann dazu dienen, so subjektiv es auch sein mag, die Zusammenhänge eines Themas zu erschließen, die dann mittels einer quantitativen Methode genauer gemessen werden.

Akquisition

In dem Menüpunkt “Akquisition” werden die Herkunftskanäle der Benutzer ausgewiesen. Diese können zum Beispiel sein:

  • Direkte Besucher
  • Paid Search
  • Organic Search
  • Referrals
  • Social
  • E-Mail
  • Display

Die Kanäle werden größtenteils automatisch erkannt, hier können Anpassungen vorgenommen werden. Wird eine Quelle nicht automatisch erkannt und auch nicht konfiguriert, kann es sein, dass sie als direkter Besucher gewertet wird.

Ein Crash-Kurs Online Marketing befindet sich in meinem Vorlesungsskript zu dem Seminar Suchmaschinenoptimierung. Wichtig ist, dass die organischen Suchanfragen nicht mehr an Google Analytics übermittelt werden (not provided). Sie können über eine Anbindung von Google Analytics an die Google Search Console zwar angezeigt werden, aber nicht mit den sonstigen Dimensionen und Metriken von Google Analytics in Verbindung gebracht werden. Die Beschäftigung mit der Webmaster/Search Console und der Funktionsweise von Suchmaschinen ist auch deswegen relevant, weil die Zertifizierung der DAA auch Fragen zum Crawl-Verhalten beinhaltet. Kleiner Tipp: Crawler wurden früher auch als Spider bezeichnet (weil sie sich wie Spinnen durchs Netz hangeln).

Zu beachten ist noch, dass die Conversions in den Akquisitionsberichten auf Basis des letzten Kontaktpunkts berechnet werden und für andere Attributionsmodelle der Bereich Attribution innerhalb des Conversion-Bereichs ausgewählt werden muss.

Die Übersicht selbst ist ein relativ sinnfreies Dashboard, aber gleich darunter fin- det sich der Menüpunkt Alle Zugriffe, und klickt man darauf sieht man den Un- terpunkt Channels. Dieses Dashboard ist ein guter Start in das Verständnis der Trafficquellen. In Abbildung 4.8 sehen wir eine Übersicht der Channels im so genannten Default Channel Grouping. Das ist die Gruppierung von Kanälen, die Analytics automatisch generiert. So werden unter Social Benutzer zusammenge- fasst, die von Facebook oder Yelp kommen. Nicht nur kann hier sehen, welche Trafficquelle den meisten Traffic bringt, sondern auch die meisten Conversions.

Natürlich sind diese Daten mit sehr viel Vorsicht zu genießen, insbesondere deswegen, weil dies eine Last-Interaction-Attribution ist (siehe Abschnitt 4.2.4). Aber auch die Helikoptersicht kann zu falschen Interpretationen neigen, denn Paid Search kann aus vielen Kampagnen bestehen, über viele Länder, mit vielen 1000 Keywords. Insbesondere bei größeren Accounts darf nichts über einen Kamm ge- schoren werden, sondern muss in Segmenten analysiert werden.

AdWords

Die AdWords-Berichte bieten so ziemlich die gleich Funktionalität wie AdWords selbst, wenn Analytics-Daten importiert werden (siehe Abschnitt 4.4.2, haben aber einen besonderen Vorteil: Sie ermöglichen eine Segmentierung, die in Ad- Words nicht möglich ist. Allerdings werden nach Anwendung von einigen Seg- menten auch gar keine Daten mehr angezeigt.

Search Console

Der Bereich Search Console bietet, nach vorheriger Verknüpfung mit der Google Search Console, die Möglichkeit organische Besucher-Daten auszuwerten. Wie schon zuvor erwähnt unterscheiden sich die Daten hier signifikant von anderen Quellen, so dass hier höchstens ein Trend abgelesen werden sollte.

Soziale Netzwerke

Der Bereich Soziale Netzwerke ist, diplomatisch gesagt, etwas schwach, was wie zuvor erwähnt daran liegt, dass die wirklich interessanten Daten bei den Sozialen Netzwerken wie Facebook liegen und diese nicht rausgerückt werden.

Kampagnen

Kampagnen umfasst alles, was in irgendeiner Weise als Kampagne markiert wor- den ist. AdWords-Kampagnen werden in der Regel automatisch erkannt, alle an- deren Kampagnen müssen über UTM-Parameter getagged werden. Google bietet hierzu ein Tool, den Campaign URL Builder.8 Jede Kampagne führt zu einer URL, an die diese Parameter angehängt werden. Diese bestehen aus

• der Website-URL, auf die verlinkt wird
• Die Campaign Source, also zum Beispiel Google • Das Campaign Medium, zum Beispiel Banner
• Der Campaign Name, zum Beispiel Spring_Sale

• der Campaign Term, was ein bezahltes Keyword ist, 8 https://goo.gl/YKoGbB

erCampaignContent,umverschiedeneAdsvoneinanderdifferenzierenzu

können

Nur die Webseiten-URL sowie die Campaign Source sind notwendig. Ein fer- tig generierter Link könnte zum Beispiel so aussehen:

http ://tom.alby.de/?utm_source=newsletter &utm_medium=banner &utm_campaign=fruehling &utm_content=erstes_banner

Ein häufiger Fehler entsteht übrigens, wenn noch ein weiterer Tracking Link (z.B. ein Redirect) angehängt oder vorgestellt werden soll. In einer URL darf es nur ein Fragezeichen geben, aber durch das Nutzen von zwei Tracking-Links kann sich schnell ein zweites Fragezeichen einschleichen. Dies wird von den meisten Servern nicht akzeptiert und endet in Fehlern für den Benutzer und Messungsfeh- ler. Ein weiteres Fragezeichen muss mit %3F encodiert werden, also zum Beispiel

http :// tracker .com?redirect=

http ://tom.alby.de/%3Futm_source=newsletter &utm_medium=banner
&utm_campaign=fruehling &utm_content=erstes_banner

Sind die Kampagnen ausreichend getagged, so können Analysen gefahren werden, zum Beispiel welche Creatives besser funktioniert haben. Diese Daten können auch in der Attribution verwendet werden (siehe Abschnitt 4.2.4).

Wie groß muss ein Sample sein?

Diese immer wiederkehrende Frage ist nicht einfach zu beantworten. Die Antwort, dass ein Sample nur aus 30 Befragten oder Datenpunkten bestehen muss, ist falsch. Eine wunderbare Erklärung findet sich in diesem Paper von Prof. Dr. von der Lippe, allerdings ist es zu mathematisch für diejenigen, die einfach eine schnelle Antwort benötigen. Auch Online-Rechner und Tabellen zur Berechnung von Sample-Größen sind mit Vorsicht zu genießen, denn sie setzen voraus, dass der Benutzer weiß, mit was für einer Art Test er zu tun hat.

Wie in dem Abschnitt über Surveys bereits besprochen, sind außerdem Effekte zu berücksichtigen, die jedes Umfrage-Sample beeinflussen, wie zum Beispiel die Non Respondents.

RStudio-Server updaten

Die AMIs von Louis Aslett sind nützlich, um kurz mal einen RStudio-Server auf einer AWS EC2-Instanz zu starten. Allerdings enthalten diese AMIs nicht immer die aktuelle Version von R oder RStudio. Diese beiden Befehle helfen, sowohl R als auch RStudio upzudaten:

sudo apt-get install gdebi-core
wget https://download2.rstudio.org/rstudio-server-1.1.442-amd64.deb
sudo gdebi rstudio-server-1.1.442-amd64.deb

echo "deb http://cran.stat.ucla.edu/bin/linux/ubuntu `lsb_release -sc`/" | sudo tee --append /etc/apt/sources.list.d/cran.list
sudo apt-key adv --keyserver keyserver.ubuntu.com --recv-keys E084DAB9
sudo apt update
apt list --upgradable