Ein eigener Sichtbarkeitsindex mit R und AWS


In der dritten Folge über Suchmaschinenoptimierung mit R und AWS geht es um das Erstellen eines eigenen Sichtbarkeitsindex, um eine aggregierte Übersicht über das Ranking vieler Keywords zu erhalten. Im ersten Teil hatten wir uns angeschaut, wie man mit R und einer AWS Free Tier EC2-Instanz automatisiert Daten aus der Webmaster Console zieht, im zweiten Teil ging es um erste Analysen anhand von Klickraten auf Positionen.

Was macht ein Sichtbarkeitsindex?

Dazu schauen wir erst einmal, was ein Sichtbarkeitsindex überhaupt leisten soll. Bei Sistrix ist der Sichtbarkeitsindex unabhängig von saisonalen Effekten, was ganz charmant ist, denn so weiß man schon im Sommer, ob man mit winterreifen.de einen Blumentopf gewinnen kann. Sowas kann zum Beispiel dadurch gelöst werden, dass man die durchschnittliche Anzahl von Suchen aus dem AdWords Keyword Planner nutzt. Dumm nur, dass dieses Tool nur noch dann einigermaßen nützliche Werte ausspuckt, wenn man auch ausreichend Budget in Google AdWords ausgibt. Dieser Ansatz fällt schon mal flach, denn wir wollen unser Monitoring so günstig wie möglich, bestenfalls kostenlos halten.

Sistrix hat den Nachteil, dass es a) für Studenten, die meine SEO-Kurse besuchen, trotz des günstigen Preises immer noch zu teuer ist und b) meine kleinen Nischengeschichten eben nicht immer vorhanden sind in der Sistrix-Keyword-Datenbank. Sistrix und Co. sind vor allem dann spannend, wenn man eine Seite mit anderen Seiten vergleichen will (idealerweise aus der gleichen Industrie mit dem gleichen Portfolio). Eine abstrakte Zahl wie ein Sichtbarkeitsindex von 2 ist ansonsten ziemlich sinnfrei. Diese Zahl ergibt nur dann Sinn, wenn ich sie in Bezug zu anderen Webseiten setzen kann und/oder wenn ich daraus die Entwicklung meiner eigenen Webseiten-Rankings im Zeitverlauf verfolgen kann. Die Zahl selbst ist dabei immer noch nicht aussagekräftig, denn in was für einer Metrik wird gemessen? Wenn ich 2 Kilo abnehme, dann ist die Metrik klar. Aber 0,002 SI abnehmen? Wie viele Besucher sind das?

Wir wollen uns einen Index bauen, der es uns ermöglicht zu schauen, ob sich unser Ranking über sehr viele Keywords im Zeitverlauf verändert. Wie sich unsere Marktbegleiter entwickeln, das ließe sich nur ablesen, wenn man Google scrapte, und das ist nicht erlaubt.

Sichtbarkeitsindex auf Basis der Webmaster Console

Offensichtlich ist es besser, mit einem Suchbegriff auf Platz 3 zu ranken, der 100 Mal am Tag gesucht wird als für einen Suchbegriff auf Platz 1, der nur 2 Mal am Tag gesucht wird. Die Anzahl der Suchen sollte also eine Rolle spielen in unserem Sichtbarkeitsindex. Das Suchvolumen über den AdWords Keyword Planner schließen wir aus den oben genannten Gründen aus, die einzige Quelle, die uns bleibt, sind die Impressions aus der Webmaster Console. Sobald wir auf der ersten Seite sind und weit genug oben (ich bin nicht sicher, ob es als Impression zählt, wenn man auf Platz 10 ist und nie im sichtbaren Bereich war), sollten wir die Anzahl der Impressions aus der Webmaster Console nutzen können, und das sogar auf Tagesbasis!

Kleiner Health-Check für das Keyword “Scalable Capital Erfahrungen” (AdWords / reale Daten aus der Webmaster Console):

  • 2400 / 1795 (September, aber nur halber Monat)
  • 5400 / 5438 (Oktober)
  • 1000 / 1789 (November)

Für September und Oktober sieht das gut aus, nur im November ist es etwas seltsam, dass ich knapp 80% mehr Impressions hatte als es angeblich Suchen gab. Irgendetwas muß ausserdem im September/Oktober passiert sein, dass Scalable Capital plötzlich so viele Suchen hatte. Tatsächlich war das auch im Traffic auf meiner Seite zu sehen. Den ersten Punkt kriegen wir nicht geklärt und akzeptieren, dass auch die AdWords-Zahlen nicht perfekt sind.

Wie unterschiedlich die Sichtbarkeits-Indices sind je nach Gewichtung, wird in den folgenden Abbildungen deutlich:

  • Im einfachsten Modell wird einfach nur 11 minus Position gerechnet, alles oberhalb von (größer als) Position 10 bekommt dann 1 Punkt. Pro Ergebnis werden die Daten für jeden Tag zusammengerechnet. Dieses Modell hat den Nachteil, dass ich ganz schnell nach oben klettern kann, selbst wenn ich nur Begriffe auf Platz 1 bin, die nur einmal im Monat gesucht werden.
  • Im zweiten Modell wird das gleiche Vorgehen gewählt, nur dass hier der Wert mit den Impressions multipliziert wird
  • Im dritten Modell wird die durchschnittliche CTR auf der SERP aus dem zweiten Teil dieser Serie mit den Impressions multipliziert.

Schaut man sich nun den tatsächlichen Traffic an, so sieht man, dass das 3. Modell dem Traffic schon sehr nahe kommt. Die Ausschläge im echten Traffic sind nicht ganz so stark wie im Index, und zum Schluss bekomme ich nicht so viel Traffic, allerdings kann das daran liegen, dass die tatsächliche CTR unter der erwarteten CTR liegt.

Alternativer Ansatz mit der Webmaster Console

Wenn man sich die Plots anschaut, dann wird aber klar, dass dieser Ansatz mit dem Impressions auf Tagesbasis wenig Sinn ergibt. Denn wenn die Kurve nach unten geht, dann bedeutet das nicht, dass ich auch etwas tun kann, denn eventuell wird nun mal einfach nur weniger nach diesem Thema gesucht und meine Rankings haben sich gar nicht geändert (normalerweise schreibt man ja nur darüber, was funktioniert, aber ich finde auch die Misserfolge spannend, denn daraus kann man eine Menge lernen :-)). Genau deswegen wird Sistrix wohl auch die saisonalen Schwankungen rausrechnen.

Alternativ könnte man einfach den Durchschnitt über alle Impression-Daten eines Keyword-Landing-Page-Paares bilden und diesen Durchschnitt zur Berechnung nutzen, wieder mit der gewichteten CTR pro Position. Das Gute an diesem Ansatz ist, dass sich saisonale oder temporäre Ausschläge ausgleichen. Geplottet sieht das wie folgt aus:

Dieser Plot sieht dem ersten Plot sehr ähnlich, was aber nicht bedeutet, dass das immer so sein muss. Doch wenn ich mir die Sistrix-Werte anschaue (auch wenn ich da auf einem ganz niedrigen Niveau unterwegs bin), dann sieht das schon sehr ähnlich aus.

Von Daten zur Handlungsrelevanz

Nun haben wir einen Plot, der uns die gewichtete Entwicklung unserer Rankings anzeigt, aber was machen wir nun damit? So richtig “actionable” ist das nicht. Spannend wird es erst, wenn wir uns zusätzlich anschauen, welche Rankings sich am meisten verändert und einen Einfluss auf unseren Sichtbarkeitsindex haben. Dazu nehmen wir uns wieder für jedes Keyword-Landing-Page-Paar zunächst das minimalste Ranking (minimal weil niedrig, und niedriger als Platz 1 gehts nicht) und dann das aktuelle Ranking. Zum Schluss berechnen wir das Delta und sortieren danach:

Je höher das Delta, desto größer ist sozusagen der Verlust an Ranking-Plätzen. Und desto größer der Handlungsbedarf, vorausgesetzt, dass das Keyword auch wirklich interessant ist. In meinem Beispiel fände ich es zum Beispiel nicht schlecht für “seo monitoring” zu ranken, schließlich sind die Artikel aus dieser Reihe relevant dafür. Man könnte nun noch gewichten anhand der Impressions oder dem Sichtbarkeitsindex, den wir vorher gewählt haben:

Das sieht schon spannender aus: Tatsächlich sind einige Suchanfragen oben (nach “Actionability” sortiert), die ich ganz interessant finde. Und nun könnte man das mit den Daten aus dem zweiten Teil verbinden und ein Dashboard bauen… dazu mehr im vierten Teil

Warum die durchschnittliche Sitzungsdauer in Analytics kompletter Quatsch ist


Ich beschäftige mich seit über 20 Jahren mit Webanalyse, angefangen mit Serverlogfiles und heute mit zum Teil abgefahrenen Implementierungen von Tracking-Systemen. Die Möglichkeiten werden immer besser, aber nicht alles ist besser geworden. Denn ein Aberglaube ist einfach nicht totzukriegen, nämlich dass Time on Site oder die “durchschnittliche Sitzungsdauer” eine gute Metrik ist, beziehungsweise dass die angegebenen Werte überhaupt stimmen, Darum hier einmal schwarz auf weiß: In einer Standardimplementierung wird die Time on Site nicht richtig gemessen, egal ob in Adobe Analytics oder Google Analytics oder Piwik oder sonstwas.

Warum die durchschnittliche Sitzungsdauer nicht richtig gemessen wird

Die Erklärung, warum die Zeitangaben nicht stimmen können, ist ganz einfach. In einer Standardinstallation von Google/Adobe Analytics/[place your system here] wird jedes Mal eine Messung durchgeführt, wenn der Nutzer eine Aktion auslöst. Er kommt zum Beispiel um 13:00 Uhr auf eine Website, und dann wird das erste Mal das Tracking-Pixel ausgelöst. Der Nutzer schaut sich ein wenig um und klickt dann um 13:01 auf einen Link, so dass er auf eine weitere Seite der gleichen Website kommt, wo wieder der Tracking-Pixel gefeuert wird. Nun können wir ausrechnen, dass er bisher 1 Minute auf der Website verbracht hat, denn wir haben zwei Messpunkte mit unterschiedlichen Zeitstempeln. Wir messen Zeit hier mit der zeitlichen Distanz zwischen zwei Seiten.

Auf der zweiten Seite, auf der er sich nun befindet, hält sich der Nutzer länger auf, denn hier findet er das, wonach er gesucht hat. Er liest einen Text, und um 13:05, also nach 4 Minuten, ist sein Informationsbedürfnis befriedigt, so dass er die Seite verlässt. Er war nun also insgesamt 5 Minuten auf der Website. Analytics weiß aber nur von der 1. Minute und wird auch nur diese 1 Minute in die Statistik aufnehmen. Denn beim Verlassen der Seite wird nichts mehr gefeuert. Wie oben geschrieben: Wir messen Zeit mit der zeitlichen Distanz zwischen zwei Seiten. Zeitliche Distanz zwischen 1. und 2. Seite: 1 Minute. Zeitliche Distanz zwischen 2. und Exit: Nicht messbar, denn es fehlt die nächste Seite. Und das ist den meisten Anwendern nicht klar. Die Zeit, die ein Nutzer auf der letzten Seite verbringt, wird nicht gemessen.

Kann Analytics nicht messen, wenn ein Nutzer die Seite verlässt? Nein, kann es nicht, egal welches System. Zumindest nicht in der Standard-Installation. Diese kann man natürlich anpassen. Ansonsten: Kommt ein Nutzer auf eine Webseite und schaut sich nur eine Seite an, dann wird keine Zeit gemessen. Auch wenn er 10 Minuten auf dieser einen Seite verbringt, es fließt nicht ein in die durchschnittliche Sitzungsdauer. Da ein Eine-Seiten-Besuch nicht selten ist, fehlen also ziemlich viele Daten.

Ist das denn wirklich so schlimm?

Macht das denn wirklich so viel aus? Ja, macht es. Häufig heißt es vom erstaunten Anwender, dass man mit den angegebenen Zahlen doch wenigstens einen Anhaltspunkt hätte. Was kann man mit einem Anhaltspunkt anfangen, der komplett falsch ist? Natürlich mag sich niemand gerne eingestehen, dass alle bisherigen Daten falsch waren und die darauf basierenden Entscheidungen ebenso.

Um die Unterschiede zu verdeutlichen, hier ein paar Datenpunkte. Bis August 2017 betrug die durchschnittliche Sitzungsdauer auf meiner Seite im Durchschnitt 1 Minute (rote Linie, hier im Vergleich zum Vorjahr). Ab dem August 2017 steigt die durchschnittliche Sitzungsdauer auf 5 Minuten (blaue Linie). Die Time on site hat sich verfünffacht und wirkt auch viel realistischer, da die meisten Inhalte auf meiner Seite nicht in 1 Minute gelesen werden können. Allerdings sind selbst diese 5 Minuten nicht die tatsächliche durchschnittliche Sitzungszeit, sondern nur eine Annäherung.

Wie kommt man zu besseren Zahlen?

Wie kommt es überhaupt, dass nun mehr von der Zeit gemessen wird? In einem anderen Artikel hatte ich über das Messen der Scrolltiefe geschrieben, und hier wird beim Erreichen von 25%, 50%, 75% und 100% der Seitenlänge ein Event gefeuert. Mit jedem dieser Event wird auch ein Zeitstempel mitgesendet. Scrollt ein Nutzer herunter, so wird also auch von der letzten Seite eines Besuchs eine Zeitspanne gemessen, und zwar bis zum Auslösen des letzten Events. Es ist nicht unwahrscheinlich, dass die Nutzer sogar noch mehr Zeit auf dieser Seite verbringen, denn vielleicht lesen Sie noch etwas im unteren Abschnitt, scrollen aber nicht mehr weiter.

Warum, könnte die Frage nun lauten, wird nicht einfach jede Sekunde ein Event ausgelöst, solange der Nutzer auf der Seite ist? Dann hätte man doch eine genaue Sitzungsdauer. Technisch ist das tatsächlich möglich, aber bei Google Analytics zum Beispiel erlaubt die kostenlose Version maximal 10 Millionen Hits pro Monat (Hit = Server Call), bei Adobe wird jeder einzelne Hit abgerechnet. Ich dürfte mir bei Google Analytics pro Tag also 333.333 Hits erlauben, und wenn wir von einer tatsächlichen durchschnittlichen Sitzungsdauer von 6 Minuten (360 Sekunden) ausgehen, dann dürfte ich weniger als 1.000 Nutzer täglich haben, damit mir nicht der Saft abgedreht wird. Und damit haben wir noch nichts anderes gemessen. Selbst bei der Scrolltiefen-Messung wären bei vielen Seiten schon so viele Server Calls ausgelöst, dass man sich das schlichtweg nicht leisten kann. Hier kann aber zumindest bei einem Random Sample von Nutzern gemessen werden, um zumindest eine Annäherung zu erhalten, die diesen Namen verdient.

Warum überhaupt die durchschnittliche Sitzungsdauer verwenden?

Diese Metrik wird häufig dann verwendet, wenn keine “harten” Conversions existieren, zum Beispiel wenn Awareness eines der Marketing-Ziele ist und zunächst einmal nur Nutzer auf die Seite kommen sollen. Vielleicht wird aber auch nur deswegen viel Zeit verplempert, weil die gewünschten Informationen nicht gefunden, aber dringend benötigt werden (schon mal einen Treiber auf hp.com gesucht?); mit anderen Worten, vielleicht ist eine kürzere Zeit sogar besser?

Wie immer ist es eine Frage, wie gut segmentiert wird. Bei hp.com wäre eine Metrik wie “time to download” gut, bei einer reinen Content-Seite wäre die Scrolltiefe gepaart mit der auf der Seite verbrachten Zeit ein guter Indikator dafür, wie gut mit dem Content interagiert wird. Dazu müsste noch einbezogen werden, wie viel Inhalt auf einer Seite vorhanden ist. Dies kann zum Beispiel mit Custom Dimensions abgefrühstückt werden. Mein Lieblingsspruch dazu: Jede Minute, die ein Nutzer auf der Seite meines Kunden verbringt, kann er nicht auf der Webseite seines Marktbegleiters verbringen.

Spannend ist die echte durchschnittliche Sitzungsdauer aber auch, weil das Konzept von holistischen Landingpages immer weitere Kreise zieht. Da Google zum Teil auch Signale erhält, wie lange jemand auf einer Seite war (zum Beispiel durch Rückkehr auf eine Suchergebnisseite), sollte es auch jeden Suchmaschinenoptimierer interessieren, wie lange jemand tatsächlich auf einer Seite war und welche Teile des holistischen Contents tatsächlich gelesen wurden (schließlich wird der Content ja für Nutzer geschrieben und nicht für den GoogleBot… oder?

Fazit

Die durchschnittliche Sitzungsdauer oder Time on Site in jedem Analytics-System liefert in einer Standard-Installation falsche Zahlen, was den wenigsten Anwendern klar ist. Abhilfe schafft hier das Auslösen von Events, zum Beispiel zum Scroll Tracking. Wie so oft: A Fool with a Tool ist still a Fool. Solange man sich nicht damit auseinander setzt, wie ein Tool etwas misst, darf man sich nicht wundern, wenn die daraus gewonnenen Schlüsse falsch sind. Das gilt für Analytics genau so wie für Google Trends oder Similar Web

“Actionable” SEO-Reporting mit R und AWS


In dem ersten Teil ging es darum, wie mit R und einer zunächst kostenlosen AWS-Instanz ein automatisiertes SEO-Monitoring erstellt wird. Dabei wird die Webmaster Console per API jeden Tag abgefragt, und die Daten werden in eine Datenbank geschrieben. Das Datensammeln allein bringt natürlich nichts, irgendwas sollten wir damit auch anfangen, und mein Mantra, das jeder Student in meinen Veranstaltungen mehrmals pro Tag hört, ist “Daten – Information – Aktion”. In den meisten Abhandlungen steht Wissen an der Stelle von Aktion, denn die Verarbeitung von Informationen erst schafft Wissen. Im Bereich der Datenanalyse oder sogar Data Science aber geht es häufiger darum, nicht nur zu wissen, sondern mit dem Wissen auch etwas zu tun, idealerweise zu wissen, was zu tun ist. Der Grund, warum die meisten Reportings nicht gelesen werden, ist in der Regel, dass keine Aktion abgeleitet werden kann. 5 Likes mehr diese Woche. Ja und? Was mache ich jetzt morgen anders? Wir wollen also nicht einfach nur ein SEO-Reporting bauen, sondern ein SEO-Reporting erstellen, das uns sagt, wo etwas zu tun ist und was man tun sollte. “Actionable” heißt es auf Neudeutsch, und eine richtig schöne Übersetzung gibt es tatsächlich nicht im Deutschen. “Handlungsrelevant”? Ist irgendwie nicht das Gleiche. Leben wir also zunächst mit diesem Begriff.

Der Mehrwert der Webmaster Console-API

Schauen wir uns erst einmal die Daten an, die wir aus der Webmaster Console bekommen haben. Hier ist nämlich schon eine Besonderheit zu sehen, die wir im Interface nicht bekommen. Dort bekommen wir entweder die Suchanfragen oder die Seiten, auf die die Nutzer nach dem Klick auf ein Suchergebnis kamen, aber nicht beides gleichzeitig. Das ist schon ein Mehrwert, denn wir können sozusagen Pärchen bilden aus Keyword und Landing Page. Eine Landing Page kann mehrere Keywords haben, umgekehrt übrigens auch, wenn für ein Keyword mehrere Seiten von einem Host ranken. Wir nutzen für unsere Auswertung diese Pärchen, um einen unique Identifier zu haben, zum Beispiel indem wir beides zusammenpacken und daraus einen MD5-Hash basteln (dem genauen Beobachter wird auffallen, dass die gleiche Kombination zwei Mal an einem Tag auftritt, aber das sieht nur so aus, denn die eine Version der URL hat noch ein /amp/ dahinter, was aber in der Tabelle nicht zu sehen ist).

Sollten wir das nicht schon beim Schreiben in die Tabelle getan haben, so tun wir es jetzt:

library(digest)<br /> i <- 1<br /> newResults <- results<br /> newResults["Hash"] <- NA<br /> for (i in i:nrow(newResults)) {<br /> newResults$Hash[i] <- digest(paste(newResults$query[i],newResults$page[i],sep=""))<br /> i <- i+1<br /> }

Sicherlich geht das mit apply noch hübscher, aber wir sind gerade im Hacker-Modus, nicht im Schön-Programmier-Modus

Eine weitere Besonderheit ist, dass wir uns wahrscheinlich im Interface nicht die Mühe machen werden, uns die Daten für jeden Tag einzeln anzuschauen. Das ist aber extrem hilfreich, denn die Voreinstellung in der Webmaster Console sind die letzten 28 Tage, und hier wird ein Durchschnitt für die einzelnen Werte berechnet. Die, die mich näher kennen, werden jetzt betreten auf den Boden schauen, denn ich sage hier immer wieder dasselbe: Der Durchschnitt, und zwar das arithmetische Mittel, ist der Feind der Statistik. Denn diese Art des Durschnitts zeigt uns nicht die Ausschläge. Dazu ein andermal mehr, wenn ich das Skript zur Datenanalyse-Veranstaltung mal online stelle. Der Punkt ist hier, dass ich im arithmetischen Mittel des Interfaces sehe, dass ein Keyword auf einer bestimmten Position gewesen ist in den letzten 28 Tagen, aber tatsächlich ist die Range pro Tag viel interessanter, denn wenn ich sie pro Tag abgreife, dann kann ich genauere Trends abbilden. Zu guter Letzt schenkt uns die Webmaster Console auch Impressions sowie Keywörter, die nicht in den Datenbanken der gängigen Tools zu finden sind. Sistrix, so sehr ich es auch liebgewonnen habe, findet mich nicht für “Cookidoo” oder “Scalable Capital”. Klar, ich könnte Sistrix meine Webmaster Console-Daten zur Verfügung stellen, aber das darf ich leider nicht bei jedem Projekt tun.

Da wir die Daten jeden Tag abfragen, können wir nun durch die Tabelle laufen und uns die Werte für den erstellten Identifer holen, so dass wir alle Werte für eine Keyword-Landingpage-Kombination erhalten und diese plotten können. Auf der x-Achse haben wir den Zeitverlauf, auf der y-Achse die Position. Hier sind übrigens zwei kleine R-Tricks zu sehen. R plottet nämlich normalerweise auf der Y-Achse vom niedrigen Wert nach oben zu einem höheren Wert. Und dann wird genau der Bereich erwischt, der für uns interessant ist, nämlich nicht alle Positionen von 1 bis 100, sondern nur der Bereich, wofür gerankt wurde. Der Plot benötigt nur wenige Zeilen Code:

maxValue <- max(currentQuery$position)<br /> minValue <- min(currentQuery$position)<br /> x <- minValue:maxValue<br /> query <- currentQuery$query[1]<br /> plot(df$Date,df$Position,ylim = rev(range(x)))<br /> title(main=query)

Wir sehen auf unserem Plot die Entwicklung des Rankings für ein Keyword, aber so richtig “actionable” ist es noch nicht. Wir schauen uns nun einmal daneben die CTR an:

Je höher die Position, desto höher die Klickrate. Das ist offensichtlich. Aber in diesen beiden Plots sieht man, dass zuerst die Klickrate runterging und dann die Position. Nicht dass die Klickrate der einzige Rankingfaktor wäre, aber eine schlechte Klickrate auf ein Ergebnis zeugt von einer suboptimalen wahrgenommenen Relevanz, und keine Suchmaschine möchte, dass die Ergebnisse als weniger relevant wahrgenommen werden. Hier wäre also ein Blick auf Titel und Description eine gute Handlungsempfehlung. Aber woher wissen wir eigentlich, was eine gute CTR für eine Position ist? Dazu können wir zum Beispiel einen Plot aus den eigenen Rankings nehmen:

Und diesen könnten wir vergleichen mit den Ergebnissen von Advanced Web Ranking, die Plots aus den Webmaster Console-Daten der Vielzahl ihrer Kunden erstellen. Jedes Land und jede Industrie ist anders, auch hängt die CTR von der SERP ab, ob vielleicht noch andere Elemente vorhanden sind, die die CTR beeinflussen. Aber allein aus dem Plot sieht man, dass bestimmte CTRs auf bestimmte Ergebnisse suboptimal sind. Hier müsste also “nur” noch ein Report erstellt werden, welche Keyword-Landingpage-Kombinationen unterdurchschnittlich sind.

Schauen wir uns den Plot mit den CTRs pro Position noch einmal genauer an, dann sehen wir ein paar ungewöhnliche Dinge. Zum einen gibt es immer ein paar Ergebnisse, wo ich egal auf welcher Position immer 100% CTR habe. Und dann gibt es zwischen den Positionen 1, 2, 3 und so weiter ganz viel Rauschen. Letzteres erklärt sich ganz leicht, denn die API gibt uns wie oben beschrieben durchschnittliche Positionen mit Nachkommastellen. Wir müssten also nur runden, um tatsächliche Positionen zu erhalten. Die 100% CTR betrifft vor allem Ergebnisse mit wenig Impressions. Werden zum Beispiel alle Ergebnisse rausgefiltert, die weniger als 10 Impressions pro Tag hatten, dann sieht das Bild schon anders aus:

Und siehe da, ich habe gar nicht so viele Nummer 1-Platzierungen mit mehr als einer homöopathischen Dosis an Impressions. Aber wenn ich die Augen etwas zukneife, so könnte ich eine Linie sehen. Und tatsächlich, berechnen wir die Mittelwerte (hier mit Summary), dann sehe ich eine nicht-lineare absteigende Kurve im Mean:<br /> Position 1:<br /> Min. 1st Qu. Median Mean 3rd Qu. Max.<br /> 0.2143 0.3971 0.4929 0.4828 0.5786 0.7059<br /> Position 2:<br /> Min. 1st Qu. Median Mean 3rd Qu. Max.<br /> 0.0000 0.2667 0.4118 0.3744 0.5000 0.7692<br /> Position 3:<br /> Min. 1st Qu. Median Mean 3rd Qu. Max.<br /> 0.0000 0.1176 0.1818 0.2217 0.3205 0.5769<br /> Position 4:<br /> Min. 1st Qu. Median Mean 3rd Qu. Max.<br /> 0.00000 0.08333 0.18182 0.17266 0.26667 0.45454<br /> Position 5:<br /> Min. 1st Qu. Median Mean 3rd Qu. Max.<br /> 0.0000 0.1240 0.1579 0.1584 0.2053 0.3200<br /> Position 6:<br /> Min. 1st Qu. Median Mean 3rd Qu. Max.<br /> 0.00000 0.06977 0.11765 0.12223 0.16667 0.30769<br /> Position 7:<br /> Min. 1st Qu. Median Mean 3rd Qu. Max.<br /> 0.00000 0.05043 0.09091 0.09246 0.13229 0.22222<br /> Position 8:<br /> Min. 1st Qu. Median Mean 3rd Qu. Max.<br /> 0.00000 0.00000 0.03880 0.04594 0.08052 0.19048<br /> Position 9:<br /> Min. 1st Qu. Median Mean 3rd Qu. Max.<br /> 0.00000 0.00000 0.00000 0.01412 0.01205 0.16514<br /> Position 10:<br /> Min. 1st Qu. Median Mean 3rd Qu. Max.<br /> 0.000000 0.000000 0.000000 0.010284 0.004045 0.093023

Im nächsten Schritt müssen wir also “nur” noch auswerten, welches Ergebnis unter einer bestimmten Grenze der CTR liegt. Glücklicherweise existiert in der Statistik eine Maßzahl, die uns hilft, die Streuung um einen Mittelwert zu identifizieren, die Standardabweichung. Diese wird hier jetzt nicht erklärt (aber im Skript zur Datenanalyse-Veranstaltung). Aber auf dem Weg zur Standardabweichung sollten wir uns eine Übersicht über die Verteilung der CTRs ansehen. Wie man schön sehen kann, sieht das nach einer Normalverteilung aus. Nun berechnen wir guten Gewissens die Standardabweichung pro Position:

<br /> [1] 0.139202<br /> [2] 0.1691641<br /> [3] 0.1405702<br /> [4] 0.1116699<br /> [5] 0.07492808<br /> [6] 0.07420478<br /> [7] 0.05702427<br /> [8] 0.05028635<br /> [9] 0.03001044<br /> [10] 0.02134183

Für die Position 1 könnten wir also rechnen Mittelwert minus Standardabweichung gleich Ergebnis mit Klickrate, das Beachtung verdient, hier

0.4828 - 0.139202 = 0.3436019

Alle Ergebnisse mit einer gerundeten Position 1 und einer CTR von 0.43… verdienen also Beachtung. In meinem Fall sind das die Suchanfragen für scalable capital erfahrung und cookidoo. Zwar gibt es auch CTRs an manchen Tagen über dem Durchschnitt, aber manchmal fallen sie drunter. Dies wird dann für jede Position wiederholt.

Zu viele Daten?

Wir haben nun ein Problem. Denn mein Blog ist noch eine relativ kleine Seite. Was machen wir mit einer Seite mit vielen Keywords und vielen Rankings? Dazu kommen wir beim nächsten Mal, indem wir einen eigenen Sichtbarkeitsindex erstellen.

Langzeit-Erfahrungen mit tado: Nicht gut, aber Alternativen noch schlechter


Update 29.11.2022: Eines der Thermostate ist defekt. Es schließt nicht mehr richtig, so dass geheizt wird, auch wenn das Thermostat eigentlich ausgeschaltet ist. 79 Euro. Unten beim Geldsparen außerdem noch ein Zusatz. Vielleicht amortisiert sich tado nun doch schneller Dank der leider stark gestiegenen Gaspreise, aber die defekten Geräte helfen dabei nicht wirklich weiter.

Update 18.1.2022: Nach einer Reparatur der Therme ließ sich die Heizung nicht mehr mit tado steuern. Zwar sagte die tado-App, dass alles problemlos läuft, aber die Anforderungen kamen nicht bei der Therme an. Warmwasser funktionierte problemlos.

Der Notdienst unseres Klempners hat den Fehler nicht finden können, und so war das Wochenende vor allem davon geprägt zu schauen, was das Problem sein könnte. Es war am Ende ein Draht, der sich aus dem Smarten Thermostat gelöst hatte. Zwar sagte der Kollege, dass das unmöglich von der Wartung kommen könnte, aber dass sich das Kabel einfach so aus dem Thermostat an der Wand löst, nun ja. Jetzt tut sich aber eine Frage auf: Wieso kann tado sagen, dass alles in Ordnung sei, wenn die Verbindung nicht ordnungsgemäß hergestellt ist?

Update 8.9.2021: Nach fast 4 Jahren ist die Internet Bridge im Eimer. Einfach tot. Support angeschrieben, einen Tag später kam die Antwort, dass ich doch bitte ein Video von dem Problem drehen soll. Gesagt, getan, dann ging es zum 2nd Level Support. Und da sie nunmal älter ist als 2 Jahre, tja, Pech gehabt, Garantie vorbei, 99€ kostet sie neu. Dadurch wird sich die Investition in die tado-Geschichte noch später amortisieren, wenn überhaupt. Der Claim von tado, dass man Geld spart, den kann ich für mich schon mal verneinen. Auch nach 4 Jahren werde ich die ursprüngliche Investition nicht wieder reingefahren haben, und wenn dann noch mal was kaputt geht… Lobend erwähnen muss ich aber die sehr freundlichen Techniker, mit denen ich geschrieben habe.


Gleich vorab: Ich wünschte, ich könnte mich den Begeisterungsstürmen für tado anschließen, schließlich habe ich tado ausgesucht, weil ich wirklich glaube, dass das System mein Heizungs-Problem lösen kann. Bisher aber sind meine Erfahrungen mit tado mittelprächtig bis ok,, und das liegt am System selbst und auch an der Hotline sowie den suboptimalen Hilfetexten. Ich hoffe, dass dieser Bericht helfen kann, eigene schlechte Erfahrungen mit tado zu verhindern beziehungsweise genau nachzudenken, was man da eigentlich tut. Ich werde diesen Artikel fortlaufend aktualisieren. Gekauft wurde das System Ende November 2017.

Inhalt

Das Problem: Kaminofen versus Heizungssteuerung

Kommen wir zunächst zu meinem Heiz-Problem. In erster Linie geht es mir nämlich nicht um das Sparen von Heizkosten, wobei das natürlich ein toller Nebeneffekt wäre, sondern darum, dass die alte Heizungssteuerung einen fundamentalen Denkfehler hatte. Eingebaut wurde alles neu während einer Komplettsanierung 2013 in einem Pre-Gründerzeit-Altbau von 1855. Gastherme, Rohre, Heizungen, Thermostat, alles neu. Der Fehler lag von Anfang an darin, dass der Klempner kein wirkliches Ohr für unsere Fragen hatte, vor allem, ob es Sinn ergibt, ein Thermostat für die Gesamtsteuerung der Heizung in das Wohnzimmer zu packen, wenn 3 Meter weiter ein Kaminofen steht. Meine Anfänger-Logik: Wenn der Kamin an ist, dann denkt das Thermostat, dass es ja superwarm ist und schaltet die Therme aus. Wohnzimmer warm, Rest der Wohnung kalt. Naja, man befindet sich ja eh meistens im Wohnzimmer, ist doch egal. Und im Schlafzimmer soll man eh kalt schlafen. Während einer Sanierung hat man 1.000 Probleme, und man vertraut jedem Handwerker, der überhaupt auf der Baustelle erscheint. Das war ein Fehler.

4 Jahre später. Nachwuchs. Etwas mager auf die Welt gekommen. Die Hebamme sagt, dass die alte Regel mit 18 Grad Zimmerthemperatur hier nicht gilt, den Kindern fehlt der wärmende Speck. Also Heizung an. Puh. Da war ja was. Und siehe da, selbst wenn der Ofen nicht an ist, bekomme ich die Temperatur nicht so hin wie ich sie brauche. Denn das Wohnzimmer ist zum Süden ausgerichtet, das Kinderzimmer zum Norden. Und auch wenn es heißt, dass es immer regnet in Hamburch, nee, auch hier scheint mal die Sonne, und dann brauche ich die Heizung nicht hochzudrehen, es ist auch so warm im Wohnzimmer. Der Trick wäre nun, dass ich einfach die Heizung im Wohnzimmer runterdrehe, das Thermostat hochdrehe, so dass die Therme an ist und das Kinderzimmer versorgt. Aber so richtig nach Steuerung hört sich das nicht an. Eher nach Energieverschwendung, zumal die Heizung zum Teil nicht mal eingeschaltet sein muss hier. Update: Ein Kommentator hat herausgefunden, dass das iSense-Thermostat auch unabhängig vom Thermostat die Heizung steuern kann. Meine Investition in tado wäre also gar nicht notwendig gewesen. Allerdings wäre die Heizungssteuerung dann immer noch ungenau.

Eine kurze Affäre mit Max!

Nächste Idee: Ich versuche es mit einem Smart Thermostat, in diesem Fall von Max!. Der nette Verkäufer von conrad empfiehlt mir dieses System, da es günstig ist. Am besten ein Wandthermometer plus die zwei smarten Heizungsthermostate, fertig ist die Laube. Das Wandthermostat soll verhindern, dass die Temperaturfühler an der Heizung von 21 Grad ausgehen, die es in der Mitte des Zimmers gar nicht mehr gibt. Zunächst glaubte, nein, hoffte ich, dass das die Lösung ist. Aber das war sie nicht. Das System war unberechenbar und heizte zum Teil hoch auf 24 Grad, obwohl es auf 19 Grad runterreguliert wurde. Und es löste mein Problem nicht. Denn wenn man doch mal den Ofen anmachen wollte im Wohnzimmer, nun ja. Dann war die Therme halt aus. So hoch konnte ich sie gar nicht stellen, dass sie auch noch das Kinderzimmer geheizt hätte. Schnell bei eBay verkauft, der Käufer meldete sich übrigens nach einem Jahr, dass ein Thermostat defekt sei; zum Glück hatte ich den Bon noch.

Die Erfahrungen der Crowd mit tado

In den folgenden Tagen lernte ich mehr über Heizungssysteme als ich jemals wollte. Unsere Therme ist eine Remeha Tzerra 28c, die über das OpenTherm-Protokoll kommunizieren kann. Bis ich genau nachgesehen hatte, war ich davon ausgegangen, dass unser Thermostat im Wohnzimmer per Funk mit der Therme kommunizierte, aber das iSense-Thermostat war tatsächlich mit einem Kabel vom Wohnzimmer mit der Therme in der Küche verbunden. Schade aber auch, sonst hätte man das Thermostat ja einfach woanders hinhängen können, wo es nicht der Hitze des Ofens ausgesetzt gewesen wäre. Eine Funkversion hätte mindestens 300 Euro gekostet. Aber ungenau wäre das immer noch gewesen.

Mein nächster Schritt war ein Aufruf bei Facebook, wer denn Erfahrung mit Smart Heating hätte. Die Resonanz war beeindruckend. tado war die Hauptempfehlung, gefolgt von elgato (fällt flach weil hier im Haushalt nicht alle ein Apple-Gerät besitzen), Max! (da gab es auch böses Contra), Coqon, Loxone (weil man da mehrere Smart Home-Geschichten auf einmal mit lösen kann anstatt für alles eine App zu haben), innogy, hydraulischer Ausgleich sowie Einwände, dass das kompletter Schwachsinn sei, überhaupt sein Heim mit sowas vollstopfen zu wollen. Manche hatten sich leider nicht die Mühe gemacht, den Thread überhaupt komplett zu lesen und kamen mit Allgemeinplätzen. Aber gut. Insgesamt eine tolle Ausbeute. Da einige Freunde gute Erfahrungen mit tado gemacht hatten, schaute ich mir dieses System genauer an.

Erste unangenehme Erfahrungen mit tado: Die Verkaufs-Hotline

Meine Recherche zeigte, dass tado tatsächlich die Lösung für mein Problem sein könnte, denn anscheinend kann hier ein Heizungsthermostat direkt bei der Therme mehr Power verlangen. Im MediaMarkt sah ich am späten Samstag Nachmittag das komplette Set, und da es noch nicht 18 Uhr war, dachte ich, dass ich das Angebot der tollen Hotline ja ausprobieren könnte. Kann das Smart Thermostat von tado mit der Remeha Tzerra 28c umgehen? Im Netz nur widersprüchliche Infos. Auf der deutschen Seite wurde Remeha gar nicht aufgeführt, auf der niederländischen Seite schon. Schade. Es ging niemand dran. Auch keine automatische Nachricht. Also habe ich das Set im Laden stehen lassen.

Am Montag rief ich dann gleich morgens bei tado an. Und diesen Anruf werde ich so schnell nicht vergessen. Bevor ich meinen ersten Satz überhaupt zuende bringen konnte, wurde ich schon unterbrochen. “Haben Sie ein Thermostat oder…” und so weiter. Keine Chance, mein Problem zu schildern. Auch als ich den Herrn darauf aufmerksam machte, dass ich gerne erst mal ausreden möchte, wurde ich sehr unhöflich in die Schranken gewiesen. Irgendwann konnte ich dann doch mein Problem schildern, und nun musste der forsche Telefonverkäufer doch einsehen, dass es vielleicht besser gewesen wäre, mich erst reden zu lassen. Nein, er könne nicht garantieren, dass das mit meiner Remeha-Therme funktioniere. OpenTherm ginge auch bei anderen, und in 95% aller Fälle blablabla. Ja. Steht auch auf der Webseite. Ich hätte mir den Anruf sparen können und gleich im MediaMarkt kaufen. Da kaufe ich zwar ungern, denn die vielzitierte Beratung fokussiert sich ja auf die Geräte, die gerade palettenweise im Lager stehen, aber die extra Marge und vielleicht auch den Sales-Bonus gönne ich tado in diesem Fall nicht.

4 Tage später wurde das Paket losgeschickt, zusammen mit einer Mail inklusive Rechnung mit Zahlungsziel am gleichen Tag. Auch nett. Ware noch nicht da, aber bitte sofort bezahlen. Anruf bei der Hotline zwecklos. Aber dem Social Team von tado, das auf twitter geantwortet hat, hier ein fetter Dank, denn sie haben das Problem kurzfristig und kompetent gelöst. Natürlich habe ich 14 Tage Zahlungsziel. Dass das Produkt erst 4 Tage später hier ankam ignoriere ich jetzt mal. Aber die Interaktion mit dem Social Team war bis dahin meine einzige gute Erfahrung mit tado. Auch bei späteren Nachfragen erwies sich das Social Media Team von tado immer als schnell, ehrlich und lösungsorientiert. Danke dafür noch mal an dieser Stelle!

Erfahrungen mit tado: Die Installation

Ganz einfach sei die Installation, und in weiten Teilen unterschreibe ich das auch. Apple-like. So kannte das Setup auch meine Konstellation von iSense und Remeha Tzerra 28c. Warum wusste das nur nicht der arrogante Typ von der Hotline? Schade nur, dass diese supereinfache Installation dazu führt, dass man davon ausgeht, dass wirklich jeder Schritt so einfach ist. Wenn alles schon für Doofe gemacht zu sein scheint, dann kann man es nicht glauben, wenn es mal nicht so ist. Und dann hakt es manchmal doch.

So soll man einfach nur den blauen Papierstreifen aus dem Batteriefach rausziehen, wenn man das Thermostat umdreht. Bei mir sah das  allesganz anders aus. Ich sah keinen blauen Streifen. Wer hätte auch gedacht, dass ich dazu das Case erst öffnen muss? Stand da glaube ich nirgends. Aber irgendwann kam sogar ich darauf. Nur steht auch nirgendwo, wie man das Case öffnet. Natürlich will man so ein teures neues Gerät nicht gleich zerstören.

Einige Punkte werden auch so selbstverständlich formuliert, dass man zum Beispiel tatsächlich auf die Idee kommt im Karton zu schauen, wo der Phasenprüfer ist. Denn wenn von “dem Phasenprüfer” gesprochen wird, dann gehe ich davon aus, dass der mitgeliefert ist, ansonsten hieß es ja “ein Phasenprüfer”. Ist er aber nicht oder er fehlte bei mir (anscheinend ist der nur in der Version 2 dabei gewesen?). Man wird auch nirgends vor der Installation darauf hingewiesen, dass man diesen benötigt. Schade eigentlich. Mitten in der Installation merkt man dann, dass man abbrechen kann, denn anscheinend ist die Installation ansonsten lebensgefährlich (ich hab das dann anders gelöst, denn die iSense kann nur dann ohne Batterie leben, wenn sie Strom von der Therme bekommt, und mit abgeklemmter Sicherung konnte die Therme auch nix weitergeben. Dies ist aber kein Tipp, bitte nicht nachmachen!). Oder man dachte sich, wenn man schon auf der Packung erwähnt, dass ein Phasenprüfer benötigt wird, dann kaufen manche das Produkt nicht, weil sie gar nicht wissen, was ein Phasenprüfer ist. Besser sie merken erst während der Installation, dass sie einen brauchen, denn dann haben sie schon gekauft und sind so weit mit der Installation, dass sie das Gerät nicht mehr zurückschicken werden. Um 22 Uhr, als ich mit der Installation anfing, hätte ich auf jeden Fall keinen Phasenprüfer mehr bekommen können. Abgesehen davon ist der “Lügenstift”, wie er auch genannt wird, kein ausreichendes Hilfsmittel. Aber das ist ein anderes Thema.

Nach dem alles einigermaßen angebracht war (um 22:30 fehlte mir leider noch etwas in der Wand, woran ich das Smart Thermostat hätte befestigen können, aber Gaffa-Tape ist Dein Freund), war die positive Überraschung zunächst, dass ich es anscheinend tatsächlich geschafft hatte, nichts zerstört zu haben. Das Thermostat konnte tatsächlich die Therme steuern. Nur das Warmwasser war abgeschaltet. Und da ist auch schon wieder ein Kritikpunkt: So richtig erklärt wird das mit der Warmwassersteuerung nicht. Und das zieht sich über alle Hilfetext hin, alles ist einfach nur oberflächlich behandelt. Die Hilfe-Funktion ist keine Hilfe, denn die Inhalte dort sind so allgemein, dass man auch genau so gut auf sie verzichten könnte. Während der Installation ist die ganze Zeit ein gelber Reiter mit einem Telefonsymbol rechts im Fenster zu sehen, aber klickt man darauf, findet man keine Hilfetexte, die zu dem jeweiligen Stand der Installation passen. Kaum ein Text hat ausreichend Tiefe. Das zieht sich auch durch andere Bereiche der tado-Welt, siehe weiter unten.

Ebenso verstehe ich nicht, warum ich nicht sagen kann, dass das Thermostat nun im Wohnzimmer ist, wo auch noch zwei Smart Heizkörperthermostate sind? Wäre doch toll, wenn die sich synchronisierten? Aber nun steht da einfach nur “Heizung” und “Wohnzimmer”, und die zeigen unterschiedliche Temperaturen an (was kein Wunder ist, denn von den Heizungen am Fenster zum Thermostat an der Wand sind es wieder drei Meter, und da geht etwas an Temperatur verloren). Ein Anruf bei tado, dieses Mal bei einem sehr hilfsbereiten Mitarbeiter, bringt die Lösung: Er könne das zusammenfassen, aber eigentlich ist es auch egal. Auch die Tatsache, dass die Heizung auf 20° eingestellt ist, das Kinderzimmer auf 21° sei kein Problem, das Heizungsthermostat darf dennoch bei der Heizung eine höhere Temperatur abfragen. Sehr nett. Das mit dem Warmwasser wurde nicht so wirklich erklärt. Und während der Wartezeit in der Hotline-Warteschleife habe ich dann auch die Abdeckplatte gefunden, die im Shop nicht zu finden ist (sie findet sich unter diesem Link hier; der besserwisserische Verkäufer bei meinem ersten Telefonat wusste doch alles besser, warum hatte er diese Platte nicht gleich mitempfohlen?). Unten im Video sieht man übrigens, wie das in gut aussieht.

Noch ein Kritikpunkt, den ich bei meinen Erfahrungen mit tado gemacht habe: Das Einrasten der Heizkörperthermostate bei der Installation funktioniert nur so suboptimal, bei manchen Thermostaten benötigte ich mehrere Versuche.

tados ortsabhängige Steuerung

Neben der Lösung, die uns tado für uns individuelles Heizproblem bietet, fand ich von Anfang an auch die ortsabhängige Steuerung für sehr genial. Anstatt eines strikten Zeitplans würde nun die Heizung dann arbeiten, wenn wirklich jemand zuhause ist. Klingt doch erst mal gut, oder?

Das Handy oder die tado-App selbst hatte ab und zu Probleme damit, mich korrekt zu orten, denn selbst als ich in einer Nebenstraße parkte war ich immer noch außerhalb der Ringe. Google Maps zeigte meinen korrekten Standort, in den Einstellungen der tado-App gehörte die Nebenstraße definitiv zur Home-Zone. Erst kurz vor der Haustür schaltete sich der Hintergrund von grün auf gelb. Wäre ich S-Bahn gefahren (in Hamburg führt die S-Bahn z.T. unterirdisch und die U-Bahn z.T. oberirdisch), dann hätte ich das verstanden. Aber ich fuhr mit einem DriveNow und war ganz gespannt, wann das System umschaltet. Aber in der Regel funktioniert dieses Feature ganz gut.

Wichtig: Bei manchen Android-Derivaten scheint ein Energiesparmodus aktiviert zu werden, der es Apps verbietet, im Hintergrundmodus den Ort abzufragen. Und so kann es dann passieren, dass man zwar nicht zuhause ist, die tado-App das aber nicht mitbekommen hat und die Heizung fröhlich weiter arbeitet. Ab und zu mal ein Blick auf die App lohnt sich also.

Kann man wirklich Geld mit tado sparen?

Ich bezweifle stark, dass die in der Werbung damals versprochenen >30% Ersparnis an Heizkosten wirklich drin sind. Die Energiespargarantie bezog sich allerdings nicht auf die 30%, sondern einfach nur für den Fall, dass man “nicht genug gespart” hat. Dieses Angebot sehe ich heute nicht mehr. Ich konnte schon nach ein paar Wochen sagen, dass sich die Anschaffung nicht so schnell amortisieren wird. Wir geben im Jahr weniger als 750€ für Gas aus, selbst wenn tado ein Drittel davon einsparen würde, dann müssten mehr als 2 Jahre ins Land gehen, um das Smart Thermostat und die mittlerweile 10 Smarte Heizhörperthermostate wieder raus zu haben. Und hier ist noch nicht eingerechnet, dass ein Teil des Gases für Warmwasser draufgeht, und da werde ich nicht in den Einstellungen rumpfuschen. Ich will nicht morgens um 4 unter der Dusche stehen, weil ich einen frühen Flieger habe, und dann noch mal zum Handy laufen müssen, um das Warmwasser einzuschalten. Vor allem nicht, solange man nachts von zwei kleinen neuen Erdbürgern wachgehalten wird und dann vielleicht auch mal warmes Wasser zum Händewaschen braucht nach dem Wickeln (wer hätte gedacht, dass kleine Jungs so weit… aber lassen wir das). Ich hab also um die 1.000€ ausgegeben für die Versmarthomung unserer Heizung, ich bräuchte also um die 4 Jahre, bis ich mit tado schwarze Zahlen schreibe. Das habe ich nach 4 Jahren definitiv nicht erreicht.

Interessant auch, dass mir die App für den ersten Monat der Installation, November 2017, bereits eine Ersparnis von 11% bescheinigte. Ich hatte das Smart Thermostat und 4 Heizkörper-Thermostate für zwei Räume am 27.11. installiert, es gab also nur 4 Tage und nur einen Teil der Räume, in denen das tado-System installiert war, und trotzdem will man 11% gespart haben? Das würde mich extrem wundern.

Schauen wir uns einmal einen Monatsbericht für einen ganzen Monat an. Im Dezember 2017 soll ich 22.8% an Energie eingespart haben. Das wäre natürlich super. Natürlich weiß tado aber nicht, was ich im Vormonat oder im Dezember 2016 an Energie verbraucht habe. Es wird einfach nur geschätzt, dass ich im Vergleich “zum Verbrauch mit einer temperatur- und zeitgesteuerten Standardregelung mit Nachtabsenkung nach DIN V 18599-10” so viel Energie eingespart habe. Es ist nicht so, dass es vorher keinen Zeitplan gegeben hätte. Die Heizung wurde tagsüber eh schon runtergeregelt, ebenso nachts. Entspricht das der DIN-Norm? Ich weiß es nicht. Aber ich vermute, dass hier sehr optimistisch gerechnet wird. Denn wie viel weiter kann tado runterregeln, dass tatsächlich eine Ersparnis zustande kommt? Es ist ehrlich gesagt sogar unwahrscheinlich, dass ich hier Geld gespart hatte, aber das liegt nicht an tado. Durch den Nachwuchs sind wir ja eher mehr zuhause und haben sogar ein Zimmer stärker beheizt. Es ist sogar so, dass ich dadurch, dass ich die Heizung genauer steuern kann, sogar eher bereit bin, die Heizung höher zu stellen, wenn mir kalt ist. Schließlich muss ich dafür nicht mehr aufstehen

Mittlerweile kann man aber auch Daten eingeben, in unserem Fall die Werte von dem Gaszähler. Tut man das nicht, so sehen die Schätzungen “Energy IQ”-Funktion so aus:

Gibt man dann Daten ein, so werden die Vorhersagen nicht sofort neu berechnet, anscheinend findet das in der Cloud statt. Hier hat es einen Tag gedauert, und da sieht man, wie weit tado entfernt ist vom realen Verbrauch:

Anscheinend haben wir schon einiges gespart, aber dennoch nicht so viel wie tado vermutet hatte. Dennoch lohnt es sich, den Verbrauch manuell einzutragen.

Was auf jeden Fall nicht zuverlässig funktioniert, ist die automatische Erkennung, dass ein Fenster geöffnet wurde, so dass die Heizung ausgeschaltet wird. Manchmal funzt es, manchmal nicht, manchmal funktioniert es zuerst und dann schaltet sich die Heizung doch wieder ein. Und dann versucht sie natürlich gegen die Kälte anzuheizen, was natürlich komplette Geldverschwendung ist, im wahrsten Sinne Geld zum Fenster herauswerfen. Das ist natürlich schade, dass das nicht funktioniert.

Was ich auch nicht ganz verstehe ist, wie tado und die Heizkurve der Therme zusammenarbeiten. Die Heizkurve ist ein ganz besonderes Thema, über das man sich stundenlang mit einem Heizungstechniker unterhalten kann. Soweit ich das verstehe wird die Heizkurve einer Therme durch einen Außenfühler bestimmt, so dass die Therme davon abhängig eine Vorlauftemperatur erzielt. Die Therme läuft also immer ein wenig, um diese Vorlauftemperatur zu erreichen. Bei tado scheint es so zu sein, dass die Therme nur dann angeworfen wird, wenn Wärme angefordert wird. Aber ganz so einfach ist es dann doch nicht. Vergeblich sucht man auf der tado-Seite nach dem Begriff, und obwohl es interessante Diskussionen zur Heizkurve gibt, werden sie in der Suche nicht angezeigt.

tado-Batterien bereits nach 4 Monaten leer

Ja, richtig gelesen. Nach 4 Monaten kam eine Push-Mitteilung wie auch eine E-Mail von tado, dass in zwei Thermostaten die Batterie leer ist. Die restlichen Batterien machten kurz darauf schlapp. Zitat aus der E-Mail:

Das ist deutlich früher als die erwartete Batterielebensdauer. Wir sind uns des Problems bewusst und arbeiten an der Lösung. Deine Geräte werden aktualisiert, um die Batterielebensdauer zu verlängern. Bitte entschuldige die Umstände.

Das ist natürlich extrem unschön. Die Frage ist, wann wird das gelöst? Bekomme ich das überhaupt mit, wenn die Thermostate aktualisiert werden? Es dauert übrigens mehr als nur ein paar Minuten, bis in der App vermerkt ist, dass die Batterie gewechselt wurde; in einem Fall hat es fast 30 Minuten gedauert. Da bekommt man zwischendurch Zeifel an sich selbst, ob man tatsächlich beim richtigen Thermostat die Batterien ausgetauscht hat.

Übrigens kann eine leere Batterie auch der Grund dafür sein, dass ein Raum angeblich keine Verbindung hat. Die beiden Räume auf dem Screenshot links haben beide jeweils 2 Smarte Thermostate, und einer von ihnen hat eine Verbindung, der andere nicht, anscheinend weil die Batterie leer ist. Die App ist hier erst mal nicht wirklich hilfreich, denn der ganze Raum ist jetzt nicht mehr steuerbar. Premium ist wirklich etwas anderes, würde ich mal sagen.

Und nach einem Jahr fing das Smarte Thermostat dann an zu spinnen:

 

 

Manchmal blinkte auch nur kurz was auf, wenn ich auf den Knopf drückte. Das Problem? Wieder eine schwache Batterie! Diese waren zwar gerade erst ausgewechselt worden (und zwar nicht mit Billig-Batterien), aber ohne Vorwarnung reagierte das Gerät nicht mehr richtig. Das Blinken der Thermostate, das man via App auslösen kann, funktioniert in manchen Räumen gar nicht. Wieder eine zu schwache Batterie!

Nun sind Wegwerf-Batterien auch nicht unbedingt die beste Lösung, wiederaufladbare Akkus sind umwelttechnisch besser. Nicht bei tado. Denn wenn man Akkus (HR6 anstatt die empfohlenen LR6) reinsteckt, dann geht die Anzeige, dass die Batterien leer sind, gar nicht mehr weg. Das liegt daran, dass Akkus einfach weniger Spanning haben und tado anscheinend keine Lust hat, die Software hier anzupassen. tado sitzt das Thema einfach aus, wie dieser Twitter-Thread zeigt.

Ist das wirklich so smart mit der tado-Steuerung über die Cloud?

Ein großer Kritikpunkt meinerseits: Warum muss alles in der Cloud sein? Alle Einstellungen werden an tado übertragen, wenn der eigene Internetzugang ausfällt, dann ist Schluss mit dem intelligenten Heizen. Ja, man kann noch manuell justieren. Ach nee, geht ja doch nicht, denn wenn man die Kindersicherung aktiviert hat, dann geht eben gar nix mehr. Pech gehabt. Das kommt nicht vor? Vodafone Kabel ist hier in den letzten zwei Monaten zwei Mal für mehrere Tage ausgefallen. Mitten in Hamburg.

Und es muss nicht mal der eigene Internetzugang sein, denn auch tado selbst kann Probleme mit dem Server oder dem Rechenzentrum haben (jaja, da gibt es Redudanzen, aber ich weiß aus eigener Erfahrung, dass sich sowas immer gut anhört und im Ernstfall auch mal schief gehen kann). Auf dem Foto links sieht man wie es in der App aussieht, wenn mal gerade keine Verbindung möglich ist. Angeblich lag es in diesem Fall an meiner Internetverbindung, bei der Internet Bridge blinkte die Cloud-LED (die Bridge versucht die tado-Server zu erreichen). Tatsächlich konnte ich über den gleichen Internetanschluss die tado-Support-Seiten ansteuern, so dass es wohl weniger an meinem Internetanschluss lag. Die tado-Server liefen laut Status-Seite normal. Angeblich können die Geräte bei einem Internetausfall dann noch manuell gesteuert werden. Aber die erste Woche meiner Erfahrungen mit tado war auf jeden Fall eher gemischt, denn tado scheint nicht ehrlich zu sein, was die Verfügbarkeit ihrer Server betrifft.

Update 1673.2020: tado war am 1563.2020 mehrere Stunden offline. Natürlich gab es mehr als 294 Nutzer, die Probleme hatten, dies sind nur die, die das auch gemeldet hatten. tado war aber transparent und hat die Probleme auf twitter zugegeben.

Ob es tado in zwei Jahren noch gibt? Ich weiß es nicht, ich hoffe es, denn ansonsten habe ich einfach nur viel Geld für nicht mehr benutzbaren Elektroschrott ausgegeben. Die Synchronisierung ist abhängig von tado-Servern. Meine Hoffnung wäre dann, dass eines der etablierten Energie-Unternehmen die Chance erkennt und die Innovation kauft.

Fraglich ist für mich vor allem, wie lange tado überhaupt seine Cloud noch kostenlos anbietet; irgendwann wird man wohl auch hieraus einen Abo-Dienst machen. Ansonsten verstehe ich das Business-Modell nicht: Wie kann man einen kostenlosen Sync-Server betreiben, wenn man nur einmalige Einnahmen durch den Verkauf der Hardware hat? Das ergibt überhaupt keinen Sinn. Ich befürchte sogar, dass tado plant, irgendwann ein Abo drauf zu machen, denn wenn man erste die Investition in die teuren Thermostate getätigt hat, dann sind 9,90€ im Monat ja auch nicht mehr so schlimm. Oder? Aus diesem Grund empfehle ich tado schon mal nicht! Update Februar 2019: Genau das ist passiert. Kostet zwar nur 2,99€ im Monat, aber es war abzusehen, dass eine kostenlose Cloud nicht funktionieren kann.

Nepper, Schlepper, Bauernfänger, tado

Meiner Meinung nach werden tado-Nutzer zu zahlungspflichtigen Updates gelockt, die ihnen nix bringen. So wird das kostenpflichtige Upgrade der tado-App auf Version V3+ für knapp 20€ empfohlen, doch wenn man ganz genau hinschaut, dann bringt einem dieses Update teilweise nicht wirklich etwas. Das hat netterweise auch der Support zugegeben (der Social Media Support, von dem ich echt begeistert bin).   Denn natürlich konnte tado auch schon vorher automatisch erkennen, wenn man das Haus verlässt und auch wenn ein Fenster geöffnet ist (naja), nur dass solche Einstellungen nun angeblich automatisch vorgenommen werden.

Der Raumluft-Konfort-Skill dagegen klingt ganz nützlich, aber so wirklich mehr Informationen bringt er einem nicht. Ich habe (nur für dieses Blog) das Update trotzdem gemacht, aber es waren 20€, die ich mir auch gut hätte sparen können. Mit IFTTT kann man mehr anstellen, da man hier sogar Warnungen bekommt.

Fazit Erfahrungen mit tado

Die App

Die App fühlt sich gut an. Das Wissen, jetzt wirklich die Temperaturen in jedem Zimmer steuern zu können, entspricht dem, was ich von der heutigen vernetzten Welt erwarte, und tado hat das gut umgesetzt. Die Version V3+ nehme ich hingegen etwas als Geldmacherei wahr.

Lohnt es sich?

Bei einem Preis von 70-80€ pro Heizkörperthermostat überlegt man sich schon genauer, ob man wirklich alle 12 Heizkörper in der Wohnung damit ausstattet. Dann bin ich bei einem Preis von über 1.000€ insgesamt, und dann braucht tado wie oben geschrieben mehr als 4 Jahre, um das Geld wieder reinzuholen. Bis dahin gibt es wahrscheinlich schon wieder bessere Systeme. tado selbst hat schon die Version V3+ rausgebracht. Und auch wenn alle Komponenten wertig aussehen (meine Frau findet sie auf jeden Fall schicker als die Komponenten von Max!), sie fühlen sich nicht unbedingt wertiger an. Anschauen ja, anfassen nicht unbedingt. Da fühlt es sich eher nach billigem Plastik an.

Features

Mein Heizproblem wurde gelöst. Auch die ortsabhängige Steuerung funktioniert. Dass die Fenster-offen-Erkennung nicht zuverlässig ist, ist natürlich extrem schade.

Der Support

Liebe tado-Führung: Schult bitte Eure Verkaufskollegen am Telefon, dass man den Kunden nicht über den Mund fahren sollte, wenn diese noch nicht einmal den ersten Satz zur Hälfte aussprechen konnten. An Unfreundlichkeit war das kaum zu überbieten. Und wie schon gesagt: die Hilfe-Seiten sind wirklich suboptimal. Würde tado nicht nur Marketing-Blabla in den Hilfe-Teil der Seite schreiben, dann könnten sie eventuell auch den Support entlasten. Aber so ist es kein Wunder, dass man da anrufen muss. Dass die Installation an einer Remeha-Therme funktioniert, hätte man doch auch auf die Seite schreiben können. Hätte mir einen ziemlich doofen Anruf erspart und tado einen Blogartikel, der die Freundlichkeit der tado-Mitarbeiter kritisiert. Die Hilfe und die Verkaufstexte sind ungenau, nicht tiefgehend genug und zum Teil irreführend.

Letzte Worte

Meine Erfahrungen mit tado sind also generell eher durchwachsen. Meine größten Kritikpunkte sind die Abhängigkeit von der Cloud, die mangelhafte Kommunikation (das Social Media Team ist eine Ausnahme), die fehlende Zuverlässigkeit, ein offenes Fenster zu erkennen, die kurze Batterie-Laufzeut sowie die zum Teil unfreundliche Behandlung am Telefon. Alternativen sehe ich allerdings keine, wenn ich mir meine Erfahrungen mit Max! so ansehe. Ich würde mir tado aber nicht noch einmal kaufen.

Übrigens, die Telefonnummer der Support-Hotline lautet 089 412 09569

Kommentare (seit Februar 2020 ist die Kommentarfunktion von meinem Blog entfernt):

Ich bleibe says

  1. Oktober 2018 at 19:46 Ein sehr hilfreicher Erfahrungsbericht, besten Dank!

Marco says

  1. November 2018 at 04:44 Hätte ich leider früher Lesen sollen….

Michael says

  1. Dezember 2018 at 15:45 Oh Mann, tausend Dank für Deinen Artikel. Ich wollte auch schon den Bestellknopf drücken – aber jetzt?? Sorry, dass Du da als Beta-Tester vorgeritten bist. Ich habe ohnehin insgesamt das Gefühl, dass die tolle Smarthome Welt nur in den Reklamespots schön ist. Das echte -smarte- Leben scheint mir mehr ein Hindernislauf zu sein. X-Standards (WLAN, Buetooth, Dect). Nö, ich lasse noch etwas Zeit ins Land gehen…..So lange ich noch zwei gesunde Hände habe, kann ich den Heizungsregler auch noch mit der Hand bedienen.

Claus says

  1. Dezember 2018 at 13:38 Hallo Tom, ich habe ähnliche Probleme, mit meiner Heizsituation und dem tado Vertrieb, bei mir per Mail. Sie beantworten meine Fragen nicht, und gehen immer nur auf die Frage ob man ein Raumthermostat hätte. In meinem speziellen Fall ist dieses in die Therme selbst eingebaut – eine Besonderheit bei Vaillantthermen mit Aussenthemperturführung. Scheinbar eine Überforderung. Nach Deinem tollen Bericht habe ich mich kurz vor Kauf nun dagegen entschieden. Danke!!!!!!!! Danke !!!!!!!! Danke !!!!!!!!! Dir und Deiner Familie schöne warme Weihnachten und einen guten Rutsch.

Thomas says

  1. Januar 2019 at 17:46 Danke für den Erfahrungsbericht. Leider habe ich den auch zu spät gelesen. Bei mir verhindert das Extension Kit, dass ich einen Komfort Heizwert von >18 Grad einstellen kann an der Therme. Ist doch etwas kalt im Winter… Der Support ist leider weder entgegen kommend noch hilfreich…

Herbert says

  1. Januar 2019 at 00:33 Danke für die ausführliche Informationen. Ich habe auch seit mehr als einem Jahr 5 Heizkörper und ein Raumthermostat in Verwendung. Mein Problem sind ebenfalls die Batterielebensdauer!!! alle 3 Wochen tausche ich Markenbatterien beim Raumthermostat !! Ohne dem steht die Heizung!!! Bin am überlegen ob ich die Stromversorgung nicht umbauen werde!

Julio Caballero says

  1. März 2019 at 12:13 Danke für diese Info. Zu spät für mich hab leider das Problem auch mit offenes Fenster erkennen, glaube sende das ganze wieder zurück. Support kannst vergessen.

Herbert says

  1. Juni 2019 at 06:50 Batterie- Lebensdauer

Habe nach mehreren Mails ein Ersatzthermostat kostenfrei bekommen- seit dem funktioniert das System wieder problemlos.

Auf meine Anfrage ob des Fehlers habe ich keine Auskunft bekommen.

Grundsätzlich bin ich mit der Funktionsweise des Tadosystems zufrieden! Der Support aber ist verbesserungswürdig!

Michael says

  1. September 2019 at 10:06 Mal ganz ohne Zusatzgeräte Der iSense hat extra für diesen Fall eine Funktion eingebaut: „4.2.3. Funktion Fremdwärme Erreicht die Temperatur in dem Raum, wo der Regler positioniert ist, den gewünschten Wert, schaltet die Zentralheizung ab. Dieser Fall kann eintreten, wenn ein offener Kamin vorhanden ist. oder viele Personen anwesend sind. In einer solchen Situation werden auch die anderen Räume im Haus nicht mehr beheizt. Sie können die Funktion Fremdwärme einschalten, um sicherzustellen, dass andere Räume weiterhin beheizt werden. Dies erfolgt über die Taste Programm. Dabei wird der im Regler integrierte Raumtemperatursensor ausgeschaltet. Die zu dem Zeitpunkt herrschende Wassertemperatur im Zentralheizungssystem wird dann beibehalten. Wenn es in den übrigen Räumen zu kalt oder zu warm wird, können Sie die Raumtemperatur dort mit der Dreh- und Drucktaste C am Regler erhöhen oder senken. Dies bewirkt eine Erhöhung oder Verringerung der Wassertemperatur in der Heizung.Um die Raumtemperatur in den übrigen Räumen weiter individuell zu regeln, können Sie die Heizkörper mit Thermostatventilen ausstatten.“

Tom Alby says

  1. September 2019 at 20:25 Wow. Dazu kann ich nur sagen: RTFM, und zwar gründlich. Gelesen hatte ich es, aber anscheinend nicht gründlich genug. Hätte ich einiges an Geld und Ärger gespart. Der Vorteil an tado ist dann jetzt nur, dass die Temperatur wenigstens exakt gehalten wird. Und dass, wenn man mal nicht zuhause ist, an nix denken muss. Danke für den Kommentar!

Dustin says

  1. September 2019 at 13:13 Deine Erfahrungen kann ich in ähnlicher Weise nur bestätigen! Der Support hat den Namen nicht verdient. Bei mir verliert die Bridge jeden Tag die Verbindung zur Cloud, das wiederum hat zur Folge, dass die Heizkörper nicht mehr per App gesteuert werden können, kein offenenes Fenster erkennen und auch nicht merken, wann sie hoch und runter regeln sollen. Das Problem besteht seit April 2019, ich habe inzwischen sage und schreibe 77 E-Mails mit dem Tado-Support gewechselt, mehrmals telefoniert…. ich dokumentiere inzwischen alles, weil es so unglaublich erscheint…. Jetzt, Mitte September, benötige ich das System wieder und muss zwangsläufig bald die Thermostate tauschen, denn so kann ich nicht vernünftig heizen. Statt Geld zu sparen, wird es eher teurer. tado antwortet inzwischen seit 3 Wochen einfach gar nicht mehr…. Alle meine Mails werden missachtet. Zuvor wurde mir mehrfach schriftlich bestätigt, dass das Problem nicht mit meinem Netzwerk zusammenhängt und gerade ähnliche Fehler untersucht würden, deshalb benötige man auch mehr Zeit…. wie gesagt, seit April geht das jetzt so…..tado…. bitte lasst die Finger von diesem System. Es wird langfristig keinen Spaß bringen und die Batterien in den Thermostaten müssen alle 6 Monate getauscht werden, man wird zwar per Mail informiert (der Mailtext ist jedes Jahr der gleiche….man entschuldigt sich und will durch ein baldiges Systemupdate die Batterielaufzeit verlängern…)….aber eine Lösung scheint es auch hierfür nicht zu geben. Die Support-Seiten im Internet (testet bitte die FAQ´s mal vor dem kauf, ihr merkt es schnelle selbst) könnten nicht schlechter formuliert sein…. Hilfe bekommt man dort keine

Guido Sommer says

  1. Oktober 2019 at 07:40 Hallo Tom, hätte ich doch Deinen Artikel vorab gefunden .-( Habe 18 Thermostate gekauft – leider ist unser Haus Baujahr 1930 wohl so gut strahlentechnisch isoliert, dass die Bridge maximal 2 Etagen bedienen kann! Hast Du einen Tip, welche Thermostate (welche via Wlan angesteuert werden) gut sind ?

Danke aus Stuttgart Guido Sommer

Tom Alby says

  1. Oktober 2019 at 08:49 Nein, außer den genannten Thermostaten habe ich nichts ausprobiert.

Andreas Schorre says

  1. Oktober 2019 at 08:19 Hallo, ich habe jetzt zwei Wochen das Tado-System V3+, allerdings nur für eine Zentralheizung (5 Thermostate + Bridge) in einer Altbauwohnung. Bei mir läuft alles so wie es soll, die „Fenster offen Erkennung“ funktioniert ohne Probleme, springt sofort an und unterbricht den Heizvorgang. Auch Geofencing erkennt genau meinen Standort (iPhone)und fängt an zu Heizen, so wie es auch sein soll. Ich kann die vielen Kritikpunkte, zumindest bei mir, nicht nachvollziehen und hoffe das bleibt in Zukunft auch so! Zur Batterielebensdauer kann ich nach zwei Wochen natürlich noch keine Einschätzung abgeben, vielleicht hat sich in der V3+ Version der Software ja wirklich eine Verlängerung der Batterielebenszeit eingestellt, zu wünschen wäre es ja. Obwohl ich wahrscheinlich auf wiederaufladbare Akku’s setzen werde, die bekommt man heute auch von Markenherstellern schon recht günstig und man hat nur einmal die Anschaffungskosten.

Die „Fenster offen Erkennung“ und „Geofencing“ bekommt man nur in der Premiumversion , ansonsten erhält man „nur“ eine Nachricht und muss allein die Temperatur herunterregeln, was vielen Nutzern (die eh nur das Handy in der Hand halten…) schon reichen dürfte. Ich für meinen Teil habe mit das Jahresabo für 25 Euro geholt, weil ich diese automatische Erkennung sehr hilfreich finde und auch der Preis völlig ok ist! (Arbeite in der IT und sehe das deswegen wahrscheinlich mit anderen Augen und Erfahrungen) Leider sehen das viele Leute mit der heutigen Geiz-ist-geil-Mentalität nicht so, gesehen in vielen Chatkommentaren…

Ich will Tado nicht zu früh loben, aber auch nicht gleich jede Kleinigkeit zum Tadoproblem erklären. Ich habe selber gemerkt, wie ich im Altbau (3,50 Meter Deckenhöhe) mit der Temperatur-Korrektur mehrmals nachjustieren musste, um die wirklich angezeigte Temperatur auch im ganzen Raum zu erreichen….aber es geht! Eimal alles gut eingestellt und man hat genau das Ergebnis was man sich auch gewünscht hat.

Wenn mich jetzt also keine Hardware-Ausfälle oder Softwareprobleme treffen, dann bin ich doch tatsächlich sehr zufrieden mit Tado.

Tom Alby says

  1. Oktober 2019 at 09:15 So früh zu kaufen wie ich hat Vor- und Nachteile. Zum einen hat man noch mit den Kinderkrankheiten zu kämpfen, auf der anderen Seite gab es damals noch kein Abo-Modell, so dass ich für das von Dir genannte Premium-Feature nichts im Monat bezahle. Lediglich die neue App habe ich bezahlt. Das fand ich fair. Nachträglich das Abo bei den ersten Kunden einzuführen, das hatte sich tado wohl nicht getraut.

Zu den Akkus: Das ist umwelttechnischer definiv besser und mittelfristig auch im Geldbeutel spürbar. Allerdings habe ich selbst bei den besten Akkus nicht die Zeiten erreicht, die ich mit einer normalen Batterie erreiche. Aber da geht Umweltschutz natürlich vor Komfort.

Achim Sökefeld says

  1. Dezember 2019 at 22:00 Ich bin Architekt und nach anderthalb Jahren Tado Nutzung bereue ich zutiefst. ich habe in einem Jahr bei einer 100 m² Wohnung 50 € gespart, dauernd die Batterien gewechselt und dauernd das Gefühl gehabt meine Wohnung wäre zu kalt. Ein Thermostat ist kaputt gegangen weil mir eine Kleinigkeit drauf gefallen ist. Nach einem iPhone Wechsel Lässt sich das alte iPhone nicht löschen, die App stürzt dauernd ab, Daten sind falsch, zum Beispiel soll ich 316 mal im November das Fenster geöffnet haben. Blödsinn, einfach unrealistisch. Nur der Optik wegen tausche ich die Thermostate nicht aus, Aber ich glaube ,ich nutze diese nur noch zur manuellen Steuerung wie meine Thermostate vorher.

Simon says

  1. Dezember 2019 at 23:02 Guten Abend! Ich habe seit einigen Tagen 13 Tado Thermostate in meiner Physiotherapiepraxis installiert. Die Away-Funktion nutze ich natürlich nicht, da sonst meine Angestellten plus Patienten erfrieren würden während ich auf Hausbesuche bin. Ich muß trotz aller anfänglicher Skepsis sagen, dass es ganz gut funktioniert und bin zur Zeit recht zufrieden. 250 m2 werden gut abgedeckt ohne Funkabbrüche. Beeindruckt mich. So soll es sein. Den Support von Tado allerdings kann man in der Tat vollkommen vergessen. Ich wollte im Vorfeld der Investition in die Thermostate ein paar Fragen beantwortet haben. Leider geht das nur noch per Email, FAQ‘s oder Chat (laut der Dame aus dem Chat). Email dauert mir einfach um mich damit tagelang zu beschäftigen. Ich sitze ja nicht den ganzen Tag am Rechner und tippe. Ebenso mit der Chatfunktion. Zunächst antwortet ein Bot und nach kurzer Zeit immerhin eine reale Person. Aber dennoch habe ich nicht die Zeit wie mit einem Freund hin und her zu chatten. Ich mächte die Fragen für mich schnell beantwortet bekommen, um mich für oder gegen dieses System zu entscheiden und weitersuchen zu können. Das könnte man in einem Telefonat wesentlich zeitsparender klären. Da hat Tado nachgelassen, da es bis vor kurzem wohl noch einen Telefondienst gab. Sehr schade. Aber ich fand eine andere Firma, die diese Thermostate vertreibt und telefonisch zu erreichen war und helfen konnte. So viel zu meinen bisherigen Erfahrungen.

Marco Sagt says

  1. Dezember 2019 at 11:01 Viel Negatives. Hat man überlegt wie es wäre oder ist, wenn man ein „traditionelles“ Raumthermostat hätte/hat? Ähnliche Probleme? Dann ist das alles kein Tado-Problem… Ich bin zufrieden mit der Möglichkeit, die Raumtemperatur per Handy zu überprüfen und zu steuern. Eine Home/Away Funktionalität brauche ich nicht in meinem Einfamilienhaus mit mehreren Personen. (Ich wurde nicht von Tado bezahlt oder beauftragt. Aber sind nicht einige der negativen Kommentare oben etwa von der Konkurrenz? Einige „Influencer“ etwa?)

Tom Alby says

  1. Dezember 2019 at 12:22 Sorry, aber bei Deinem Kommentar bekomme ich Bauchweh. Hast Du meinen Artikel überhaupt gelesen? Dann würdest Du manche Dinge so nicht schreiben. Und an die Influencer glaube ich nicht. Zumindest haben andere Benutzer hier echte Namen angegeben und Du nicht.

Kostenloses und automatisiertes SEO-Monitoring mit R und AWS


Langsam hält R Einzug in die Welt der Suchmaschinenoptimierung, und auch wenn R am Anfang etwas verwirrend sein mag (funktionale Programmierung anstatt prozedural), so kann man mit wenigen Zeilen Code coole Sachen bauen. Als Beispiel soll hier ein kostenloses SEO-Monitoring dienen, das natürlich kein bisschen mit Sistrix und Co mithalten kann, aber wenn man nur seine eigenen Rankings verfolgen will, dann ist dies eine tolle und vor allem kostenlose Lösung.

Fangen wir mit der Infrastruktur an, wir benötigen nur drei Komponenten:

  • Eine (kostenlose) EC2-Instanz
  • Einen Google Webmaster-Account
  • Einen Google API-Service Account

Amazon bietet EC2-Instanzen im “free tier” (kostenlosen Kontingent) an, nach 12 Monaten wird hier zwar eine Gebühr fällig, aber die ist eher im homöopathischen Bereich. Die t2.micro-Instanz ist relativ schwach auf der Brust mit ihrer einen vCPU, 1GB RAM und 30GB SSD, aber für unsere Zwecke reicht sie vollkommen aus. R ist natürlich nicht von vornherein vorhanden, ABER Luis Aslett bietet kostenlose AMIs (Amazon Machine Images) an, wo RStudio Server bereits vorkonfiguriert ist. Matt erklärt sehr gut, wie man mit diesen AMIs seine eigene RStudio-Instanz auf AWS installiert. Das alles dauert maximal 15 Minuten, schon hat man seinen eigenen kostenlosen RStudio Server-Rechner in der AWS-Cloud. Große Berechnungen sind damit nicht möglich, aber ist man erst einmal auf den Geschmack gekommen, so findet man sich schnell in der Situation wieder, dass mal kurz eine Instanz mit viel Speicher für größere Rechenaufgaben genutzt wird. Ein Klick, ein paar Euro am Tag, und schon hat man ein ganzes Cluster mit 16 Prozessoren und 128 GB RAM für sich. Aber ich schweife ab.

Im nächsten Schritt nehmen wir das R Package searchConsoleR von Mark Edmonson. Dies ist der elementare Grundstein unseres SEO-Monitoring. In Marks Beispiel schreibt er die Daten einfach auf Platte, aber wir wollen die Daten lieber in eine Datenbank schreiben (wie man MySQL auf unserer frisch erworbenen EC2-Instanz installiert steht hier. Bitte beachten, dass man nur einen Nutzer “ubuntu” hat, d.h. man muss alles mit sudo erledigen; ansonsten kann man kostenpflichtig auch eine RDS-Instanz buchen). Um von einem Server auf die Webmaster Console-Daten zugreifen zu können, wird ein Service Account benötigt. Dieser ist nicht ganz so einfach aufzusetzen, aber das würde den Rahmen dieses Artikels sprengen. Wichtig ist, dass die Mail-Adresse des Service Accounts als ganzer Nutzer in der Webmaster Console eingetragen wird. Und hier ist nun der Code:

library(jsonlite) library(googleAuthR) library(searchConsoleR) library(RMySQL) options(googleAuthR.scopes.selected=“https://www.googleapis.com/auth/webmasters“)` gar_auth_service( json_file = “/home/rstudio/XXXXXXX.json”, scope = “https://www.googleapis.com/auth/webmasters” )

Wir holen uns die Daten von vor 5 Tagen, dann sind sie auf jeden Fall in der Webmaster Console vorhanden:

delay <- 5 start <- Sys.Date() – delay end <- Sys.Date() – delay

Hier nun die Abfrage:

website <;- “XXXXX” download_dimensions <- c(‘query’,‘page’) type <- c(‘web’) sc_data <- search_analytics(siteURL = website, startDate = start, endDate = end, dimensions = download_dimensions, searchType = type)

Wir fügen noch ein Datum und die Webseite hinzu (falls wir mehrere Webseiten abfragen)

sc_data7 <- website sc_data8 <- start colnames(sc_data)7 <- “website” colnames(sc_data)8 <- “date”

Jetzt schreiben wir den Dataframe in die Datenbank (die DB und die Tabelle haben wir vorher bereits hinzugefügt):

mydb = dbConnect(MySQL(), user=‘XXXXX’, password=‘XXXXX’, host=‘XXXXX’) dbSendQuery(mydb, “USE XXXXX”) dbWriteTable(mydb, value = sc_data, name = “rankings”, append = TRUE, row.names = FALSE) dbDisconnect(mydb)

Nun fehlt uns nur noch ein Cronjob, der täglich diese Abfrage durchführt. Dazu nutze ich zunächst ein kleines Shell-Skript, das dann das R-Skript aufruft:

cd /home/rstudio/SearchConsole/ Rscript /home/rstudio/SearchConsole/rankings.R

Dann wird mit sudo crontab -e der Cronjob eingerichtet, mein Cronjob startet jeden Tag um 10:30, bzw 11:30, denn die Instanz ist in einer anderen Zeitzone:

30 10 * * * /home/rstudio/SearchConsole/rankings.sh 2>&1 | /usr/bin/logger -t rstudio

Wichtig: Newline nach der letzten Zeile, sonst meckert cron. Fertig ist das automatische und kostenlose SEO-Monitoring! In einem der nächsten Postings zeige ich, wie man die Daten dann auswerten kann.

mv: argument list too long – Millionen von Dateien verarbeiten


Aufgrund meiner Vergesslichkeit hatte ein cron job mehr als 3 Millionen Dateien in einem Verzeichnis angesammelt, die ich nun verarbeiten wollte. Damit mein Skript nicht tagelang daran arbeitet (mehr 60 GB an Daten!), sollten die Dateien in kleinere Häppchen verteilt werden. Leider kam mv nicht damit klar, es beschwerte sich mit “argument list too long”. Die Abhilfe schafft eine Kombination von Kommandozeilen-Befehlen:

find ordner1/ -name ‘2017-07*’ -exec mv {} ordner2 ;

Vergleich zwischen Quirion und Scalable Capital – Die Fintech-Robo Advisors


Nachdem ich von der Performance von Scalable Capital nach einem Jahr nicht komplett überzeugt war, habe ich zwei Schritte unternommen:

  1. Ein zweites Portfolio bei Scalable Capital angelegt; dazu musste zunächst einmal Geld ausgezahlt werden auf mein Referenzkonto, das dann wieder für das zweite Portfolio abgebucht wird. Hier habe ich Dank einer sehr freundlichen Beratung auch meine Risikoeinstufung verändern können, so dass mehr als 10% Value at Risk möglich waren. Das zweite Portfolio arbeitet nun mit 20% VaR, momentan sind hier 67% in Aktion investiert.
  2. Etwas Geld abgezogen und bei Quirion investiert. Auch ein Robo Advisor, hier von der Quirin-Bank. Die Risiko-Einschätzung der Quirion erlaubte mir das mittlere Paket zu wählen, 50% Anleihen, 50% Aktien.

Nach etwas mehr als einem Monat ist es natürlich komplett unprofessionell, die bisherigen Leistungswerte zu vergleichen. Quirion liegt zur Zeit bei 1,76% (zweitgewichtet), Scalable bei 1,77% (ebenso zeitgewichtet; mein über ein Jahr altes 10% VaR-Portfolio liegt bei 4.21%, ist also etwas gefallen seit dem

1 Jahr Erfahrungen mit Scalable Capital-Bericht). Wie gesagt, die bisher vergangene Zeit ist viel zu kurz für einen Vergleich. Aber ich möchte ein paar Punkte erwähnen, die mir aufgefallen sind.

Quirion bietet im Rahmen einer Aktion an, dass die ersten 10.000€ ohne Gebühr verwaltet werden. Danach bzw. darüber hinaus kostet die Verwaltung 0,48%. Das ist natürlich jetzt etwas unfair, Quirion und Scalable Capital zu vergleichen, was die Kosten betrifft. Allerdings empfinde ich Quirion als weniger transparent im Vergleich zu Scalable Capital. Denn zunächst einmal wird nur von 0,48% gesprochen, wenn man genauer schaut, dann findet man auch noch die durchschnittlichen 0,39% Total Expense Ratio (TER), die bereits in den ETFs eingepreist sind. Bei Scalable Capital beträgt die Management-Gebühr 0,75%, zusätzlich kommen durchschnittlich 0,25% ETF-Gebühren. Etwas unverständlich für mich ist, warum die Gebühren bei Quirion höher sind. Update Dank eines Kommentators: Die Gebühr beträgt momentan 0,74%.

Quirion war Testsieger in der Kategorie Robo Advisor, unter anderem bei Ökotest… wobei ich mich frage, wieso gerade Ökotest Robo Advisors testet? Weil weniger Berater benötigt werden, die Kohlendioxid ausatmen? Beide, Quirion und Scalable Capital, waren Testsieger im Extra Magazin. Und Scalable war nun auch noch Sieger in Capital. Irgendwie ist das schwierig zu vergleichen, wenn alle irgendwo Testsieger sind…

Anders als Scalable Capital verfügt Quirion über keine App. Finde ich persönlich nicht superschlimm, schließlich muss ich nicht jede Sekunde auf meine Investments schauen. Insgesamt wirkt die Scalable-App im Web wie auch auf dem Handy etwas “glatter” und durchdachter.

Scalable Capital ist agiler in der Umgewichtung der Investments. Seit Anlegen des zweiten Portfolios wurden 6 Positionen ge- und verkauft (die initialen Käufe sowie Provisionen und Gebühren-Bewegungen nicht eingerechnet. Bei Quirion wurde nichts geändert. Das Portfolio ist wie am ersten Tag. Das muss nicht gut oder schlecht sein, denn eine Änderung kann ja auch zum Nachteil gereichen.

KEIN ETF aus dem einen Portfolio findet sich in dem Portfolio des anderen wieder. Die Liste der Investments von Quirion:

  • iShares Euro Corporate Bond 1-5yr UCITS
  • SPDR Barclays EUR Corp. 0-3
  • iShares eb.rexx Government Germany 1.5-2.5yr UCITS
  • iShares MSCI World EUR Hedged UCITS ETF
  • Lyxor EuroMTS 1-3Y IG (DR) UCITS
  • iShares Euro High Yield Corporate Bond UCITS ETF
  • Lyxor UCITS ETF MSCI World
  • db x-trackers II Global Sovereign Index ETF
  • Robeco Conservative EM
  • Robeco Conservative DM
  • Global Short Fixed Income Fund EUR
  • Emerging Markets Core Equity Fund EUR Inc
  • Dimensional Global Target Value Fund
  • Dimensional Global Core Equity Fund
  • Dimensional EM Value Fund

Die Liste für Scalable Capital:

  • iShares $ Treasury Bond 7-10yr UCITS ETF
  • iShares J.P. Morgan $ EM Bond UCITS ETF
  • iShares Core € Govt Bond UCITS ETF
  • iShares € Covered Bond UCITS ETF
  • Lyxor Commodities CRB Thomson Reuters/CoreCommodity UCITS ETF
  • iShares Developed Markets Property Yield UCITS ETF
  • db x-trackers Nikkei 225 UCITS ETF (DR) 1D
  • iShares Core DAX® UCITS ETF
  • UBS ETF (LU) MSCI Pacific (ex Japan) UCITS ETF (USD) A-dis
  • UBS ETF (LU) MSCI Emerging Markets UCITS ETF (USD) A-dis
  • S&P 500 UCITS ETF (VUSA)
  • iShares STOXX Europe 600 UCITS ETF
  • iShares $ Corp Bond UCITS ETF
  • iShares Core € Corp Bond UCITS ETF

Da ich gerade dabei bin: Ich vergleiche nicht nur die Performance zwischen zwei Maschinen, sondern auch mit einer manuellen Anlagestrategie meines Finanzberaters, der sich bereit erklärt hat, gegen die Robo Advisor anzutreten, Mensch gegen Maschine sozusagen. Kostenpunkt 1% des Depotwerts und angeblich auch volle Transparenz. Das Depot liegt hier bei 7,81% Rendite nach einem Jahr, im Vergleich zu Scalable Capital hat der Mensch hier also gewonnen. Hätte ich nicht erwartet. Aber gut. Ein Punkt für den Finanzberater. Und noch etwas mehr Geld bei Scalable abgezogen und ihm gegeben.

Kommentare (seit Februar 2020 ist die Kommentarfunktion von meinem Blog entfernt):

Deshero says

  1. Dezember 2017 at 01:05 Ich glaube das darfst du so nicht sehen, das dein Finanzverwalter „besser“ war. Einfach weil die Robos versuchen das Risiko gering zu halten. Im Jahr 2017 waren die Zeiten Gold für Aktien und wenn man Risiken da eingeht, dann kann man auch viel rausholen. Werde jetzt auch in Scalable Investieren, da ich denke das man langfristig am besten abschneidet. Bei mir natürlich nur mit max. Risiko, denn ich finde wer das Risiko scheut, braucht auch auf den Gewinn nicht zu hoffen. ^^

Tom Alby says

  1. Dezember 2017 at 01:29 Ich darf wohl In einem anderen Artikel über Scalable weise ich darauf hin, dass das Risiko durch Scalable zumindest theoretisch reduziert werden sollte. Den Beweis mussten sie bisher nicht antreten. Nun hat mein Anlageberater auch nicht gerade die risikofreudigsten Werte ausgesucht, eher wie Quirion. Und am Ende des Tages zählt das Ergebnis.

Urs says

  1. Dezember 2017 at 17:04 Es kommt hier auf die unterschiedlichen Ansätze an. Risiko gering zu halten macht nur Sinn, wenn man es wirklich braucht Risiko gering zu halten (z.B. weil ich das Geld in 3 Monaten brauche), es kostet allerdings viel Rendite. Genau das kann man bei Scalable sehen. Leider gibt es im Quirion „Whitepaper“ relativ wenig Informationen zu dem von Quirion gewählten Ansatz. Es gilt noch immer der alte Spruch „Viel Hin und Her macht die Taschen leer“. Ein guter Ansatz sollte in der Lage für Personen, die langfristig anlegen wollen auch eine gute Rendite zu erzielen.

Emmert Ralf says

  1. Januar 2018 at 10:20 Habe mir auch die unterschiedlichsten Robo Advisor angeschaut und bin bei Quirion gelandet. Die Aussage von euch zu den Kosten hat sich hier überholt, denn Quirion verzichtet teilweise auf iShares Produkte und setzt den führenden ETF Anbieter Vanguard ein. Dadurch haben sich bei Quirion die Gebühren deutlich reduziert.

https://www.quirion.de/news/kosten-fuer-quirion-portfolios-sinken-deutlich/

Finde solche Vergleiche wie ihr sie macht sehr informativ für den Privatkunden und möchte mich für die Infos bedanken.

Tom Alby says

  1. Januar 2018 at 00:00 Danke für den Hinweis!

Wird mein Content gelesen? Scroll-Tiefe pro Artikel als Conversion


Im September 2017 hatte ich noch darüber geschrieben, dass die Scrolltiefe ein besserer Indikator dafür wäre, ob ein Inhalt gelesen wurde als die reine Sitzungsdauer, die eh Quatsch ist. Einen Monat später veröffentlichte Google dann eine neue Funktion im Google Tag Manager, einen Trigger für die Sichtbarkeit von Elementen (in der deutschen Version der Release Notes fehlte der Hinweis). Damit lassen sich einige Nachteile des Scrolltiefen-Ansatzes kompensieren, vor allem die Einschränkung, dass nicht jede Seite gleich lang ist und “75% gelesen” nicht immer bedeuten muss, dass der Inhalt auch bis zum Ende gelesen wurde (75% wurde deswegen gewählt, weil viele Seiten einen immensen Footer haben und die Nutzer daher nicht zu 100% runterscrollen). Eine Seite bei mir hat so viele Kommentare, dass sie mehr als die Hälfte des Inhalts ausmachen. „Wird mein Content gelesen? Scroll-Tiefe pro Artikel als Conversion“ weiterlesen

Synology Upload-Geschwindigkeit einschränken


StartBlogSynology upload geschwindigkeit einschraenken

Die Synology NAS hat ein besonders tolles Feature, nämlich das verschlüsselte Backup in der Cloud mittels Hyper Backup. Nachdem ich den unverschlüsselten Cloud-Diensten abgeschworen hatte (u.a. Dropbox), war die Kombination vom verschlüsselten Backup und der Cloud-Flatrate von Amazon Prime so attraktiv. Leider hat das Backup leider die gesamte Bandbreite des Upload-Volumens gefressen, 12 MBit. Das beschleunigt zwar das Backup, aber verlangsamt auch das Internet im Heimnetz.

Die “Datenfluss-Steuerung” (Traffic Control) im Synology DSM sollte Abhilfe schaffen, aber hiermit fingen die Probleme an. Zunächst einmal kann man Hyper Backup nicht als Applikation auswählen, deren Bandbreite eingeschränkt werden soll. Wenn die Not groß ist, dann kann man natürlich auch alle Ports auswählen und diesen weniger Bandbreite zuteilen, zum Beispiel 2.000 KB/s. Und genau hier liegt der Fehler.

Zunächst muss der Port 443 des Zielordners ausgewählt werden, dies ist der Port, der von Amazon (und wahrscheinlich auch von anderen Diensten) genutzt wird. Und dann kommt das größte Missverständnis, denn 2.048 KB/s sind nicht 2 MB/s, sondern irgendwas anderes, was ich bisher nicht verstanden habe. Denn wenn ich 500 KB/s auswähle, dann nutzt die NAS 5 MB/s.

Wie kann das sein? Vielleicht bedeuten KB/s bei Synology nicht Kilobytes/s, sondern Kilobits/s? Aber das wären dann nicht 5MBit/s, die Google Wifi nun in der App zeigt.