data > opinion

Tom Alby

1 Digital Analytics - Einführung

2020-02-22


Sie sind hier: start / lehrveranstaltungen / digital analytics / 01 einfuehrung /

Einführung

Daten sind das neue Öl, so das Mantra der Unternehmensberater und Wirtschaftspresse. Tatsächlich sind Daten keine Errungenschaft des 20. oder 21. Jahrhunderts, wie wir in der Geschichte der Daten sehen werden. Aber die Möglichkeiten, Daten zu erfassen und zu verarbeiten, haben sich in den 2000er Jahren rasant verändert. Das liegt zum einen an der stetig wachsenden Rechen- und Speicherkapazität, zum andern an der zunehmenden Vernetzung von Computern, Handys, Sensoren und vielen anderen Geräten, die einen Zugang zum Internet haben.

Wie Daten zur Digitalen Transformation beitragen

Das Öl des 21. Jahrhunderts transformiert unser Leben und unseren Alltag: Die Anforderungen an Arbeitskräfte ändern sich, neue Berufe entstehen, andere Berufe verschwinden, Geschäftsmodelle verändern sich, entstehen neu oder verschwinden ganz. Dies ist ein Ergebnis der Digitalen Transformation., die nach und nach Branchen aller Industrien erfasst und darin die Karten neu mischt. Hier einige Beispiele für die Veränderung von Geschäftsmodellen:

  • AirBnB hat mehr Zimmer im Angebot als die größte Hotelkette der Welt, die InterContinental Hotels Group. Gleichzeitig besitzt AirBnB kein einziges dieser Zimmer. AirBnBs größter Schatz sind die Daten, von Nutzern erstellte Bewertungen, von Nutzern erstellte Beschreibungen und eine Plattform, die freie Zimmer weltweit durchsucht. Jeder kann von einem Moment auf den nächsten Vermieter werden, die Einstiegshürden sind gefallen, und selbst die Preise können dynamisch festgelegt werden, je nach Angebot und Nachfrage. Eine Rezeption und ein Hotelmanagement entfallen.
  • Die Firma Kobalt ist den meisten Menschen kaum bekannt, aber für professionelle Musiker ist dieser Service eine populäre Plattform, um Transparenz über die Nutzung ihrer Werke zu bekommen. Anstatt wie früher Monate oder sogar Jahre zu warten, bis die Plattenfirma eine kaum nachvollziehbare Abrechnung erstellt und den Künstler ausbezahlt hat, sehen Musiker über Kobalt in Echtzeit, wie viele ihrer Werke gerade als CD verkauft, in einem Werbespot genutzt oder über Spotify gestreamt werden. Auch werden unrechtmäßige Nutzungen automatisiert identifiziert und Geld dafür eingefordert. Und anstatt einen komplexen bürokratischen Prozess durchlaufen zu müssen, können Interessierte über die Plattform Rechte für ein Musikstück anfragen, zum Beispiel um es in einer Veranstaltung einzusetzen, und der Künstler kann die Rechte über einen Mausklick freigeben. Eine Plattenfirma wird hier kaum noch benötigt, wobei Kobalt sogar selbst ein Label anbietet.
  • Google erreicht einen Großteil des Umsatzes durch AdWords, eine Plattform, über die Werbung verkauft wird. Anstatt Verkäufer einzustellen, die die Werbeplätze verkaufen, erledigt hier ein selbst-optimierendes System die Arbeit. Die Werbetreibenden melden sich auf der Plattform an, erstellen Anzeigen und spezifizieren, für welche Suchbegriffe sie erscheinen wollen. Dann legen sie ein Gebot fest für einen Klick auf diese Anzeige. Angebot und Nachfrage erledigen den Rest. Je mehr Werbetreibende für einen Suchbegriff gefunden werden wollen, desto höher geht die Auktion, und desto mehr verdient Google. Und ist eine Anzeige anscheinend nicht so relevant für eine Suchanfrage und wird deshalb kaum angeklickt, so erhält der Werbetreibende automatisch einen Malus für die Suchbegriff-Anzeige- Kombination und muss mehr zahlen. Tausende dieser Auktionen finden jede Sekunde statt. Ohne Verkäufer. Ohne manuelle Preisfindung.

In diesen drei häufig zitierten Beispielen werden allerdings Daten und die sie auswertenden Algorithmen durcheinander geworfen. Denn Daten an sich sind abstrakt und ohne Interpretation und Nutzung ohne Wert. Zwar ist es einfacher geworden, viele Daten zu erheben und zu speichern, aber nur durch die oben erwähnte gleichzeitig schneller und günstiger gewordene Rechenleistung können Daten auch wertschöpfend ausgewertet und genutzt werden. Es ist also notwendig, sich nicht nur über die Erhebung von Daten Gedanken zu machen, sondern auch über deren Auswertung.

Vom KI-Winter zu Machine Learning

Mit schnelleren Rechnern scheinen sich gleichzeitig einige Versprechen der Künstlichen Intelligenz zu erfüllen, so dass anhand von Daten automatisiert neue Erkenntnisse gewonnen werden können, die früher unmöglich waren. So glaubte man bereits in den 1950er Jahren, dass Maschinen so intelligent werden könnten, dass sie den Menschen die Arbeit abnehmen würden. Diese Vorhersage ist offensichtlich nicht eingetreten, was zu dem so genannten KI-Winter führte. Die nicht erfüllten Vorhersagen führten zu einer Kürzung der Gelder und somit zu einer Verlangsamung der Entwicklung. Maschinen haben nicht so schnell gelernt wie erwartet. Seit den 2000er Jahren hat sich die Entwicklung lernender Systeme exponentiell beschleunigt, wenngleich von einer allumfassenden Künstlichen Intelligenz noch (!!!) nicht die Rede sein kann. Machine Learning ist ein Teilbereich der Künstlichen Intelligenz, wenn man so will, obwohl bereits vorher in der computergestützten Statistik Machine Learning existierte.

Die Vorstellung, dass Computer Aufgaben übernehmen können, die vorher Menschen bearbeitet haben, ist nicht neu, wenn man an die Automatisierung von Arbeit denkt. Webstühle wurden maschinell gesteuert, Autos werden von Robotern gebaut, doch bisher traf es vor allem die Un- oder Angelernten der Bevölkerung, die ihren Job verloren. Das könnte dieses Mal anders ausgehen, wie das folgende Video verdeutlicht:

Es ist nicht unbedingt gesagt, dass es genau so kommen muss. Nach dem Gartner Hype Cycle wird fast jede neue Technologie zu Beginn gehyped, gefolgt von einem Tal der Enttäuschung, auf das wiederum ein Plateau der Produktivität folgt. Dennoch ist davon auszugehen, dass die Fähigkeit, Daten kompetent zu analysieren, eine Schlüsselkompetenz ist in einer Zeit, die sich durch die intelligente Verwendung von Daten definiert.

Eine kleine Datengeschichte

Vom Zählen übers Messen zum Ergebnis

Daten wurden eigentlich schon immer gesammelt, auch wenn sie nicht als solche bezeichnet wurden. Das Wort „Datum“ kommt vom lateinischen Wort dare und bedeutet in diesem Fall „gegeben“ oder das „Gegebene“. Der Singular wäre eigentlich Datum, aber da die Deutschen damit eher ein Kalenderdatum meinen, wird der Singular für Daten entweder vermieden oder eine Konstruktion verwendet wie „Datenwert“. „Gegeben“ wurde übrigens damals ein Schriftstück, der Inhalt dieses Schriftstücks wurde zu dem Gegebenen. Daher kommt zum einen heute das Datum, das über einem Brief steht („gegeben am soundsovielten in soundso“, zum anderen ist dadurch auch das Wort „Datei“ entstanden, ein Kofferwort aus „Datum“ und „Kartei“).

Doch am Anfang wurde nichts gegeben, sondern einfach nur gezählt. Ein Bauer musste jeden Abend sein Vieh zählen, und hier wurden zum Beispiele Steine, für jedes Tier einer, gesammelt und morgens und abends abgeglichen. Natürlich wurde nicht nur das Vieh gezählt, auch Menschen wurden gezählt. Die Mutter aller Volkszählungen wird schon in der Bibel erwähnt. Tatsächlich existierten schon vorher Volkszählungen, und alle hatten das gleiche Ziel: Das Volk zu schätzen, um die Steuereinnahmen berechnen zu können. Datensammlungen bekamen also bereits früh einen negativen Beigeschmack für die Betroffenen. Das erklärt aber immer noch nicht, wieso das Wort „Daten“ im heutigen Kontext genutzt wird. Laut Rosenburg wurde der Begriff „data“ 1646 das erste Mal im Englischen genutzt für gegebene Quantitäten in mathematischen Problemen. Kurz zuvor war die Statistik als Disziplin zur Erfassung und Analyse von Daten geboren worden Die Konnotation der Daten änderte sich im Laufe des 18. Jahrhunderts von dem Gegebenen, also einem Fakt, zu dem Ergebnis eines Experiments oder einer Kalkulation.

Maschinelle Auswertung von Daten

Die Volkszählung in den USA um 1890 markierte einen Wendepunkt in unserer Geschichte der Daten, da das erste Mal Lochkarten verwendet wurden. Der deutschstämmige Hermann Hollerith ermöglichte es den Volkszählern, die für die Auswertung der großen Menge an Daten benötigte Zeit radikal zu reduzieren (von Jahren zu Wochen), indem weite Teile der Abfragen automatisiert wurden. Die Idee, Lochkarten zu nutzen, wurde übrigens durch die beiden Franzosen Falcon und Jacquard inspiriert, die Webstühle mit Holzbrettchen mit Löchern und später Lochkarten ausstatteten, so dass komplexe Muster automatisch gestaltet werden konnten (es ist nicht belegt, dass daraus der Weberaufstand entstand). Aus der Firma Hollerith entstand später IBM, eine Abkürzung für Industrial Business Machines. Neben Tabelliermaschinen, die Lochkarten auswerten konnten, waren auch andere Bürogeräte wie Locher im Angebot. Zu dieser Zeit stand vor allem das Zählen im Fokus.

Der erste programmgesteuerte Rechner war die Zuse Z3, fast gleichzeitig wurde in den USA der Mark I von IBM gebaut. Die Besonderheit hier ist, dass Programme ausgeführt werden konnten, es wurde also nicht mehr nur gezählt, sondern auch berechnet. Konrad Zuse wollte statische Berechnungen automatisieren, der Mark I unterstützte Forscher beim Manhatten-Projekt, das die Grundlage für die Atombombe war. Beide Systeme basieren auf Relais-Technik, die 1946 von der Röhrentechnik abgelöst wurde (UNIVAC, der erste kommerziell verfügbare Computer). Die ersten Rechner auf Basis von Transistoren entstanden Anfang der 50er Jahre, abgelöst wurden diese von integrierten Schaltkreisen in den 60er Jahren. Dadurch wurden Rechner das erste Mal so klein und günstig, dass sie nicht nur Großunternehmen zur Verfügung standen, sondern auch in Universitäten mehr Forschern zur Verfügung standen. Zur Einordnung: Der Zuse Z3 hatte eine Taktfrequenz von ca. 5 Hz und benötigte für eine Division 5 Sekunden. Der Univac benötigte dafür nur noch 3,9 Millisekunden bei einer Taktfrequenz 2.25 MHz (Mega = 1.000, der Univac war also 450 Mal schneller als der Zuse Z3, siehe hier eine Übersicht von Rechnern und deren Geschwindigkeiten, wobei nicht nur die Hz-Zahlen, sondern auch die MIPS, Millionen Instruktionen pro Sekunde, hinzugezogen werden). IBMs erster Transistor-Rechner schaffte 600.000 mal mehr MIPS als der Univac bei einem Drittel mehr MHz. Ohne in die Details zu gehen (verschiedene Prozessorarchitekturen behandeln Instruktionen anders) ist offensichtlich, dass Programme um ein Vielfaches schneller ausgeführt werden konnten. Je günstiger die Rechner wurden, desto größer war die Wahrscheinlichkeit, dass auch Wissenschaftler Zugang zu Rechnern bekamen, die nicht nur Atombomben bauen oder Raketen zum Mond schießen wollten.

Computer für alle

In den 70er Jahren entwickelte sich eine Szene von Bastlern, die sich auf Basis von Mikroprozessoren eigene Rechner bauten, daraus ist unter anderem Apple entstanden. In den 80er Jahren wurden die ersten Heimcomputer populär, gleichzeitig zogen Computer in immer mehr Unternehmen ein. Jeder konnte nun mit einem Computer arbeiten, der um ein Vielfaches schneller war als die ersten Großrechner der 50er und 60er Jahre und gleichzeitig nur wenige 1.000 DM kostete. Die steigende Verfügbarkeit von Computern für mehr Menschen bedeutete auch, dass Software entstand für immer mehr Anwendungen. War SPSS (Statistical Package for the Social Sciences, ein populäres Programm in der Statistik) im Jahr 1968 nur wenigen Anwendern vorbehalten, die Daten und Programme in Lochkarten stanzen mussten, kann das heutige IBM SPSS auf jedem PC laufen. Noch besser, anstatt über 3.000€ für eine Lizenz auszugeben, existieren Open Source-Alternativen wie R, die sich jeder kostenlos herunterladen und verwenden kann. Die Verfügbarkeit von Rechenzeit für jeden hat somit auch zu Anwendungen für jeden verholfen.

Heute ist jedes Handy schneller als die Rechner damals, und ein Raspberry Pi für 30€ verfügt über 4.744 MIPS bei 1 GHz. Gleichzeitig kostet er nur einen Bruchteil dessen, was ein Univac kostete (ca. 1.5 Millionen Dollar, wobei ein Dollar damals ungefähr so viel wert war wie heute 8 Dollar). Und nicht nur die Rechner wurden schneller und preisgünstiger, auch die Datenspeicher. Hatten die ersten Festplatten in der Größe einer Waschmaschinentrommel gerade mal 5 MegaByte Speicher im Angebot, so finden heute auf einem Scheckkarten-großen Speicher TeraBytes an Daten Platz. Dieser Speicher kann auch viel schneller gelesen werden als zum Beispiel die Festplatten und Bänder, die im 20. Jahrhundert verwendet wurden.

Würde man all diese Entwicklungen auf einem Zeitstrahl visualisieren, so würden schnell exponentielle Verläufe deutlich werden (selbst wenn Moore’s Law nicht mehr zu gelten scheint). Dieser kleine Ausflug in die Geschichte der Rechenleistungen und ihrer Entwicklung zeigt, wie schnell sich technischer Fortschritt entwickeln kann; exponentielle Entwicklungen sind für den Menschen ansonsten nur schwer nachvollziehbar.

Von Computerhirnen und Hackern

Hatten die Menschen zu Beginn des Computer-Zeitalters noch romantische Vorstellungen, was ein Computer für sie tun könnte (siehe unten die Aufnahme von 1968, und wenn man sich die Partnerbörsen heute ansieht, dann war France Gall gar nicht so weit entfernt), wuchs das Misstrauen in die zunehmende Computerisierung in den 1970er Jahren (siehe vor allem Bergmann 2009).

Der Computer war eine Black Box für die Mehrheit der Menschen, die keinen Zugang zu einem Computer hatten und erst recht nicht wussten, was wann und wie über sie gespeichert wurde. 1983 stellte zum Beispiel die Schufa komplett auf EDV um, und auch wenn jeder Auskunft über seine bei der Schufa gespeicherten Daten bekommen kann, so bedeutet das noch lange nicht, dass man diese Daten auch ändern könnte oder überhaupt versteht, welche Konsequenz die bei der Schufa gesammelten Daten für das eigene Leben haben können. Was bedeutet denn der Score von 93% genau? Wie kommt er zustande? Wie kann ich ihn ändern? Wo vorher in Unternehmen ein Kundenberater nach eigenem Ermessen eine Entscheidung fällen konnte, wurde dies nun durch ein anonymes System bewerkstelligt, was zu einem Gefühl der Machtlosigkeit führte.

Hinzu kam, dass die neue Computerwelt nicht so sicher war, wie die Betreiber zu glauben machen versuchten. Der Chaos Computer Club schaffte es zum Beispiel, der Hamburger Sparkasse einen sechsstelligen D-Mark-Betrag über das angeblich sichere BTX-System zu entwenden. Dabei ging es den Hackern nicht darum Geld zu klauen, sondern auf die fehlende Sicherheit des Systems hinzuweisen.

Die Volkszählung in Deutschland 1983 beziehungsweise 1987 tat ihr Übrigens dazu, das Misstrauen der Bevölkerung in das Sammeln von Daten zu fördern. Eigentlich sollte die Volkszählung 1983 stattfinden, dies wurde aber durch massive Proteste und ein wegweisendes Urteil des Bundesverfassungsgerichts verhindert. Die Proteste waren von einer breiten Allianz von Gruppierungen unterstützt, die gerade frisch in den Bundestag gekommenen Grünen ebenso wie die Jugendorganisation der FDP. Das Bundesverfassungsgericht stellte das Recht auf informationelle Selbstbestimmung als ein Grundrecht dar, so dass bei dem Entwurf der Volkszählung stark nachgearbeitet werden musste. Und selbst die dann 1987 stattfindende Volkszählung war von Protesten und Verweigerung begleitet (siehe zum Beispiel das Graffiti an einer Häuserwand in der Hamburger Hafenstraße). Mehr dazu im Abschnitt über Datenschutz.

Von Data zu Big Data?

Heute wird nicht mehr nur von Daten gesprochen, sondern gleich von Big Data, wobei die wenigsten verstehen, was Big Data eigentlich ist. Tatsächlich ist Big Data auch nicht wirklich definiert, in der Regel versteht man darunter aber Daten, die aufgrund ihrer Menge und/oder Struktur kompliziert zu verarbeiten sind.

Um den Unterschied deutlich zu machen: Die deutsche Version von Wikipedia kann als XML-Datei heruntergeladen werden und ist entpackt knapp 20 GigaByte groß. Eine Analyse der Daten kann mehrere Minuten dauern, bei komplexen Ab- fragen auch länger. Aber die XML-Datei von Wikipedia ist kein Big Data, selbst wenn sich knapp zwei Millionen Artikel in der deutschen Wikipedia-Datei befinden. Die Daten, die zum Beispiel ein Telekommunikationsprovider jeden Tag sammelt, können eher als Big Data aufgefasst werden, insbesondere wenn es um Kommunikationsdaten geht, die in Echtzeit automatisiert analysiert werden sollen. Die Komplexität von Daten, die Menge und ihre Prozessierungsgeschwindigkeit sind Faktoren, die Big Data ausmachen können, sofern es eine allgemein gültige Definition gäbe.

Datenschutz

Nicht nur die fehlende Vertrautheit mit Computern, sondern auch zwei politische Systeme, die im 20. Jahrhundert auf dem heutigen deutschen Gebiet ihre Bevölkerung überwacht haben, haben einen Einfluss auf die Datenschutzbewegung gehabt. Tatsächlich ist Datenschutz auch in anderen Ländern ein Thema, allerdings in unterschiedlicher Ausprägung, obwohl die zuvor beschriebene Informatisierung des Lebens fast überall auftrat. Sicherheitsrechtliche sowie wirtschaftliche Aspekte verhinderten und verhindern noch immer, dass zum Beispiel die USA ähnliche Datenschutzgesetze hat wie Deutschland. Der Schutz des Staates und die damit verbundene Möglichkeit des Einsehens persönlicher Daten durch den Staat zum einen, aber auch das wachsende Wirtschaftssegment der Computertechnologie in den USA führten zu einem anderen Umgang mit Da- ten, der es bis heute unmöglich macht, internationale Gesetze zum Datenschutz zu vereinbaren. Noch heute wird in der deutschen Werbeszene darüber lamentiert, dass die amerikanischen Marktbegleiter deutliche Vorteile hätten, weil sie weniger strengen Datenschutzgesetzen unterliegen.

Grundlagen des Datenschutzes

Wie im Abschnitt über die Geschichte der Daten beschrieben, bedeutete die Volkszählung 83/87 eine Zäsur in der deutschen Datenschutzgesetzgebung. Das Bundesverfassungsgericht prägte den Begriff der informationellen Selbstbestimmung. Diese bedeutet, dass jeder Mensch selbst bestimmen kann, welche Informationen er wann von sich preisgeben möchte. Wenn ein Mensch nicht weiß, was wann über ihn gespeichert wird, so könnte er sein Verhalten anpassen, um mit Normen konform zu gehen (Panoptismus). Eine freie Gesellschaft zeichnet sich aber dadurch aus, dass jeder selbst bestimmt mitwirken kann.

Das Bundesdatenschutzgesetz ging seitdem von zwei Prinzipien aus:

  • Verbotsprinzip mit Erlaubnisvorbehalt: Das Erheben, Speichern und Nutzen von personenbezogenen Daten ist verboten, es sei denn, dass der Nutzer dies schriftlich erlaubt hat oder eine Rechtsgrundlage für einen bestimmten Nutzungsfall besteht.
  • Datensparsamkeit und Datenvermeidung:Es sollte vermieden werden überhaupt Daten zu speichern und wenn doch, dann so wenig wie möglich. Daten sollten gleichzeitig wenn möglich anonymisiert oder pseudonymisiert werden.

Personenbezogene Daten sind solche, die auf eine Person zurückschließen lassen, wie zum Beispiel ein Name, eine E-Mail-Adresse oder in Deutschland auch eine IP-Adresse. In Deutschland ist übrigens auch der Klarnamenszwang untersagt, sofern dies technisch möglich ist. Der Klarnamenszwang von Facebook ist also auf den ersten Blick unzulässig. Aber da die Daten von Facebook in Irland verarbeitet werden, gilt das irische Recht, nicht das deutsche. Die beiden oben genannten Prinzipien mögen dem Leser realitätsfremd vorkommen, erklären aber auch, warum manche Firmen eine große Vorsicht an den Tag legen. Durch die Datenschutzgrundverordnung wurden viele Bestandteile des Datenschutz modernisiert. Im Prinzip kann aber immer noch von dem Grundsatz der informationellen Selbstbestimmung ausgegangen werden.

Zwischen Anspruch und Wirklichkeit des Nutzerverhaltens

Auch wenn die Deutschen besonders sensibel bei dem Thema Daten sein wollen, so zeigt ihr Verhalten etwas anderes: 28 Millionen Deutsche sind aktive Nutzer einer Payback-Karte (Stand 2016). Bei jeder Vorlage der Karte werden die Daten über den Einkauf mit den persönlichen Daten des Nutzers, die er mit dem Ausfüllen des Antragsformulars freiwillig abgegeben hat, verknüpft. So entstehen sehr genaue Konsumdaten für jeden Nutzer, sei es nur über Warengruppen oder tatsächlich eine Liste der Produkte, die er gekauft hat. Zwar werden die laut Payback nicht an alle Partner weitergegeben, so dass jeder Partner nur die Daten über seine Kunden zur Verfügung gestellt bekommt, aber dennoch werden Kundengruppen spezifiziert:

PAYBACK [selektiert] auf anonymisierter Basis spezifische Kundengruppen, die sich durch ein ähnliches Einkaufsverhalten auszeichnen und dadurch an bestimmten Angeboten interessiert sein können (z.B. Familie mit Kleinkind, Single,…).

Individuelle Kundenprofile werden angeblich nicht erstellt. Aber jeder, der sich die verfügbaren Daten anschaut, versteht, dass hier eine kommerzielle Datenbank existiert, die mehr über jeden einzelnen weiß als einem lieb sein kann. Stellen wir uns einen Augenblick vor, dass die Daten aus Versehen gehackt werden: Wer möchte, dass auf einer Website steht, wie viel man wahrscheinlich verdient (das kann man anhand der Einkäufe relativ leicht nachvollziehen), was man so alles in den letzten Jahren gekauft hat und wann und wo? Ist zum Einlösen einer Prämie tatsächlich das Speichern all dieser Daten notwendig? Übrigens sind die Rabatte, die man mit dem Sammeln von Punkten mit einer Payback-Karte erhält, kaum vorhanden, zum Teil sind die Waren sogar teurer.

Ein weiteres Beispiel ist Facebook: Facebook sammelt nicht nur auf der Facebook-Seite Daten. Auf vielen Websites im Netz ist ein Like-Button vorhanden, und oft genug wird angezeigt, welche der Freunde diese Seite schon „geliked“ haben oder dass man der erste sein könnte, der diese „liked“. Facebook verfügt also nicht nur über die Daten, die man bei Facebook selbst angibt, sondern auch über Daten, auf welchen Seiten man sich so bewegt. Und da man sich anscheinend auch so gut wie nie bei Facebook abmeldet und meist auch auf mehreren Geräten eingeloggt ist, entsteht eine riesige Datensammlung.

Natürlich besitzt auch Google einen solchen Datenschatz. Android-Handys, Google-Suche, Seiten mit Google-AdSense-Werbung oder von der Google-Tochter DoubleClick ausgespielte Werbung, Google Mail, Google Maps, Google Voice Search, Seiten mit Google Analytics, und vieles mehr ermöglichen eine riesige Sammlung von Daten. Unter Google Ad Settings kann jeder sehen, was Google von einem weiß oder denkt zu wissen. Hier kann die personalisierte Werbung auch deaktiviert werden. Ob das Sammeln der Daten damit auch gestoppt wird, darüber wird keine Aussage getroffen.

Wer ist hier die Ware?

Bei allen diesen Beispielen gehen Benutzer einen Tausch ein: Sie bekommen einen Dienst kostenlos und geben dafür ihre Daten her. Zum Teil sind die Dienste wertlos ohne Nutzer-Daten, so dass man den Unternehmen gar keine Vorwürfe machen kann; wie könnte die Google Voice Search denn überhaupt verstehen, dass man gerade „OK Google“ gesagt hat, wenn das Android-Handy nicht die ganze Zeit zuhört? Mit den Daten wird Werbung personalisiert, so dass sie teurer verkauft werden kann, der Nutzer selbst wird also zur Ware. Aber auf den ersten Blick tut Werbung ja auch gar nicht weh, oder? Und was soll schon Schlimmes mit den eigenen Daten passieren?

Berühmt geworden sind in diesem Zusammenhang zwei Zitate des früheren Google-Chefs Eric Schmidt:

If you have something that you don’t want anyone to know, maybe you shouldn’t be doing it in the first place. (Eric Schmidt 2009)

We know where you are. We know where you’ve been. We can more or less know what you’re thinking about. (Eric Schmidt 2010)

Wir brauchen nur in die deutsche Geschichte zurück zu blicken um zu verstehen, dass diese Äußerungen angsteinflößend sind, sie wurden zum Teil auch später revidiert. Auch gegenwärtig werden Argumente dafür hervorgebracht, die Privatsphäre des Bürgers zu reduzieren, wenn dafür mehr Sicherheit angesichts drohender Terrorakte gewährleistet werden kann. Ist das gut oder ist das schlecht? Auf schwierige Fragen gibt es keine einfachen Antworten.

Aber nicht nur Internetkonzerne haben spannende Daten. CarSharing-Anbieter wie DriveNow oder Telekommunikationsanbieter wie die Telekom wissen sehr genau, wann sich jemand wo aufhält, und durch die Vorratsdatenspeicherung werden viele dieser Daten auch noch für einen längeren Zeitraum gespeichert. Nicht schlimm? Sehr wahrscheinlich möchten einige Menschen nicht, dass diese Daten veröffentlicht werden, denn vielleicht hat man dem Partner etwas anderes gesagt, wo man sich gerade aufhält. Oder man ist von der Dienstreise früher zurück gekehrt und geht nicht mehr ins Büro, obwohl noch ein paar Stunden Arbeit abzuleisten wären.

Nun mag es gar nicht so schlecht klingen, wenn durch das Wissen der möglichen Überwachung mehr Ehrlichkeit entstünde, aber es muss gar nicht mal um Ehebetrug oder Widerstand gegen eine Staatsdiktatur gehen: Die wenigsten Nutzer werden zum Beispiel via Facebook verkünden, dass sie eine Drogenberatungsstelle, eine Eheberatung oder einen Psychotherapeuten benötigen. Diese Daten werden dennoch gespeichert, denn irgendwie muss der Termin dort ja vereinbart werden, und irgendwie muss man ja auch da hin kommen. Bei Google zum Beispiel durch die Google Maps Zeitachse, die genau speichert, wann man wo gewesen ist, und durch die Suchanfragen sowie angeklickten Ergebnisse. Bei dem Kommunikationsanbieter, sofern man via Mail oder Telefon Kontakt mit einer solchen Stelle aufgenommen hat. Bei DriveNow oder ähnlichem, wenn man mit einem solchen CarSharing-Angebot gefahren ist. Durch Fotos, die man an einem bestimmten Ort gemacht hat und die Daten über den Entstehungsort enthalten. Durch das Orten des Handys. So wurden einer Psychologin zum Beispiel zunächst ihre eigenen Patienten als Freunde auf Facebook vorgeschlagen, was sich noch damit erklären ließ, dass Facebook die Telefonnummer der Psychologin hatte und anscheinend eine Verknüpfung auf dieser Ebene stattfand, denn ihre Patienten hatten wahrscheinlich auch ihre Telefonnummer gespeichert. Unheimlich wurde es aber dann, als ihre Pa- tienten auch andere Patienten von ihr als Freunde vorgeschlagen bekamen. Die Psychologin vermutet, was allerdings nicht von Facebook bestätigt wurde, dass der Aufenthalt an einem gemeinsamen Ort als Signal verwendet wurde, um eine Beziehung zwischen zwei Personen herzustellen.

Doch wie sollen die Daten überhaupt an jemanden gelangen, der damit anderes als Werbung im Sinn hat? Als die Google Streetview-Autos durch Deutschland fuhren, erstellten sie nicht nur Fotos, sondern sammelten auch gleich Daten von den WIFI-Netzwerken auf der Strecke, laut Aussage von Google ein Versehen eines Mitarbeiters. Und Google steht mit solchen Fehlern nicht allein da: Im September 2016 wurde bekannt, dass Yahoo! 500 Millionen Datensätze von Nutzern als gestohlen melden musste. LinkedIn verlor 2012 Nutzerdaten an einen Hacker, das Ausmaß wurde aber erst 2016 wirklich bekannt. AOL stellte 2006 anonymisierte Suchmaschinen-Logdateien für die Forschung bereit und stellte wenige Stunden später fest, dass das keine gute Idee war; nur kurze Zeit später konnte eine Benutzerin anhand ihrer Suchanfragen identifiziert werden. Und ganz ohne Sicherheitsvorkehrungen kann man zum Beispiel die Wunschzettel von Amazon-Nutzern automatisiert auslesen und Profile erstellen, zum Teil sogar mit Ort, so dass sehr schnell klar wird, wo Shades of Grey am häufigsten gelesen wird.

Fazit

Zusammengefasst lässt sich feststellen, dass Datenschutz in Deutschland zwar groß geschrieben wird, die Deutschen aber freiwillig alle Hüllen fallen lassen, wenn sie dafür etwas bekommen, was ihnen nützlich erscheint und der Bequemlichkeit zum Vorteil gereicht. Die Nutzung des Tor-Browsers ermöglicht zum Beispiel das anonyme Surfen im Netz, aber wer die Geschwindigkeit und die Annehmlichkeiten des Chrome-Browsers entdeckt hat, dem wird es schwer fallen, auf den langsameren Tor-Browser zu wechseln.