Phoniebox, die günstige Alternative zur Toniebox (mein erster Prototyp und MVP)


Wenn ich irgendetwas geliebt hatte als Kind, dann war es stundenlang Schallplatten oder Kassetten zu hören. Unser Nachwuchs hört auch gerne Musik, glücklicherweise stehen die bekannten Arien aus der Zauberflöte hoch im Kurs, aber auch Kraftwerks Roboter oder Herman van Veens seltsame Abenteuer. Wie kann man aber Kleinkindern heute in der Spotify- und Sonos-Welt einen geeigneten Zugang zu “ihrer” Musik geben?

Eine Toniebox kam für uns nicht in Frage, auch wenn das User Interface natürlich sehr kindgerecht ist. Glücklicherweise gibt es Open Source-Alternativen, und was noch besser ist, viele der dafür notwendigen Teile hatte ich bereits zuhause. Zum einen sei hier die Arduino-basierte Version Tonuino genannt, die den großen Vorteil hat, dass sie kaum Strom verbraucht und einen extrem kurzen Bootvorgang hat. Zum andern, und das ist das Projekt, das ich nachgebaut habe, die Phoniebox, die auf einem Raspberry 3 basiert. Hier dauert die Bootzeit mehr als eine Minute, falls die Box vom Strom getrennt wird, und natürlich wird auch viel mehr Strom verbraucht. Der große Vorteil für mich ist hier aber, dass Musik über ein Web-Interface verwaltet werden kann. Und ich kann Musik auch einfach leiser machen, wenn der Nachwuchs es zu bunt treibt 🙂

Wie funktioniert es genau? Auf der SD-Karte werden in einem definierten Verzeichnis Ordner angelegt, in denen Musikdateien oder Stream-URLs abgelegt werden. Die RFID-Karten werden mit den jeweiligen Ordnern verbunden, so dass eine Karte sozusagen das Abspielen der Musik in dem Ordner “anschubst”. Auf der Karte selbst wird also nichts abgespeichert, und man die Karten-Verknüpfung immer wieder neu konfigurieren. Die Karten kann man bemalen oder mit Aufklebern versehen, damit die Kids eine Orientierung haben, welche Musik oder welches Hörbuch oder welcher Stream sich mit einer Karte abspielen lässt.

Die Einkaufsliste auf der Phoniebox-Seite fand ich etwas verwirrend und zum Teil auch ungeeignet. Was ich gekauft habe:

Insgesamt 94,15€. Zum Vergleich, eine Toniebox kostet 79,90€. Da ist dann ein Tonie dabei, ein bespielter Tonie kostet ansonsten 14,99€, ein Kreativtonie kostet 11,99€. Wenn ich das Konzept richtig verstanden habe, dann kann man auf einen Kreativtonie 90 Minuten Inhalt laden, alles über eine Cloud, wobei man die Tonies auch offline nutzen kann. Ich habe bei 50 RFID-Karten also sozusagen schon 50 Tonies, nur noch ohne Inhalt. Der ist entweder schon da (ich hatte viele meiner alten Kassetten mal digitalisiert, weil ich sie nicht als CD bekommen konnte!) oder eben günstiger zu bekommen. So kann eine RFID-Karte auch mit einem Spotify-Song- oder Album oder einem Radiosender verbunden werden. Insgesamt ist man also günstiger dabei, wenn man mehr Inhalte hat, und außerdem ist man unabhängig von einer Plattform. Baut man eine Box mit dem Arduino, so wird diese sehr wahrscheinlich um einiges günstiger sein, und auch eine Batterie wird wahrscheinlich sehr viel länger halten.

Das Setup der PhonieBox hat bei mir ca 90 Minuten gedauert:

  • Das Image für Raspian Buster auf die SD-Karte flashen
  • SSH und WIFi vorab konfigurieren, damit ich keinen Monitor und Keyboard benötige
  • Komponenten zusammenstecken und Strom anschließen
  • per SSH einloggen und dann Installation mit dem Oneliner starten
  • Dann ist die Box bereits einsatzbereit

So sieht das Ganze dann aus, wenn es zunächst einmal ohne Gehäuse zusammengebaut ist:

Am meisten habe ich dann Zeit damit verbraten, die Karten zu bespielen. Man kann die Audio-Dateien entweder direkt via SMB auf die Platte laden oder über das Web Interface. Allerdings wurden nicht immer alle MP3s sofort erkannt.

Ein Gehäuse hatte ich erst einmal nicht geplant, da ich zunächst schauen wollte, ob ich die Phoniebox überhaupt zusammengebaut bekomme und ob die Jungs damit klarkommen. Dementsprechend ist die erste Version nicht besonders hübsch geraten, aber hey, es ist ein Minimum Viable Product 🙂

Sehr viel schönere Boxen kann man hier sehen:

Was sind die Erfahrungen nach ein paar Stunden/Tagen?

  • Die Box wird heißgeliebt und zum Teil auch stark umkämpft. Es muss also auf jeden Fall eine zweite Box her.
  • Die Jungs verstehen mit 2 1/2 Jahren noch nicht ganz, dass mit einer Karte mehrere Lieder abgespielt werden können und die Karte nochmal an den Leser gehalten werden muss, um zum nächsten Stück zu kommen (sofern das so konfiguriert ist). Daher habe ich so wieder so konfiguriert, dass das Stück wieder von vorne spielt, das mit der Karte verbunden ist.
  • Auch empfiehlt es sich, am Anfang nur eine kleine Auswahl an Karten bereitzustellen, es ist für die Kleinen ansonsten zu viel. Bei uns gibt es Karten zu:
    • “Zu Hilfe, zu Hilfe” aus der Zauberflöte
    • “Der Vogelfänger bin ich ja” aus der Zauberflöte“
    • “Weg da” von Herman van Veen
    • “Das Lied der Schlümpfe” von Vader Abraham
    • “Die Roboter” von Kraftwerk
    • “The Young Person’s Guide to the Orchestra”
    • “Peter und der Wolf”, gesprochen von Loriot
  • Einer der Jungs hat die Karte zum ersten Stück in der Liste gebunkert, sie ist sein größter Schatz, der kaum losgelassen wird.
  • Eine Anker PowerBank kann ich nicht empfehlen, da sie nicht gleichzeitig lädt während sie dem Raspberry Pi Strom gibt. Ich werde daher in der Version 0.2 auf dieses Modell ausweichen. Das macht das Gerät dann noch mal 33€ teurer.

Meine nächste Version:

  • wird in einer richtigen Holzbox gebaut werden,
  • und ich werde auch auf bessere Lautsprecher sowie den HifiBerry MiniAmp zugreifen.
  • Außerdem will ich eine Buchse in das Gehäuse einbauen, mit der der Akku aufgeladen werden kann.
  • Auf Knöpfe will ich erst einmal verzichten, je mehr drin ist, desto mehr kann auch kaputt gehen 🙂
  • Zuguterletzt sollen die beiden Boxen dann auch synchronisiert werden können, dazu gibt es bei Olaf Splitt auch eine Anleitung.

Und hier ist der Post zu meiner zweiten Phoniebox!

Material zum Web Analytics Wednesday 8. April 2020


Schön, dass Du beim ersten virtuellen Web Analytics Wednesday dabei warst. Hier sind die versprochenen Links:

Alle mit + markierten Link sind Affiliate-Links

Scalable Capital in der Corona-Krise


StartBlogScalable capital in der corona krise

Im Januar hatte ich noch überlegt, ob ich über die guten Werte meiner Scalable Capital-Portfolien schreibe (der Screenshot zeigt nicht mal die Höchstwerte), das wäre nun aber nur ein historisch interessante Erinnerung, denn im März ging es steil bergab. Beide Portfolien waren eine Zeit lang tief im Minus, nun ist zumindest das 10% VaR-Portfolio wieder leicht im Plus, nicht nur der DAX ist wieder gestiegen. Ich bin kein Anlage-Spezialist und werde hier garantiert keine Prognose abgeben für die nächsten Monate, aber ich für mich habe entschieden, dass ich alles so lassen werde wie es ist, auch wenn Scalable Capital in diesem Umfeld schlechtere Werte erzielt hat als seine Marktbegleiter.

In dem FinanceForward-Podcast erzählt SC-Gründer Erik Podzuweit, dass die gegenwärtige Krise statistisch gesehen extrem selten sei (ich hätte sie eher als extrem unwahrscheinlich bezeichnet) und dass man aufgrund der hohen Aktienanteile eine schlechtere Performance habe. Beispiel: Bei quirion hatte ich einen fixen Aktienanteil von 50%, bei meinem Scalable Capital 20% Value at Risk-Portfolio war er höher. Was nicht so gut herauskommt bei dem Interview ist, dass Scalable Capital sein Versprechen gehalten hat mit der VaR-Steuerung (zumindest in meinen Portfolien). Ein 10% VaR bedeutet, dass mein Portfolio mit einer Wahrscheinlichkeit von 95% nicht tiefer als 10% innerhalb eines Jahres rutschen sollte. Während Herr Podzuweit in dem Podcast von Convenience als USP von Scalable Capital spricht, wäre das für mich ein viel größerer USP: Mit hoher Wahrscheinlichkeit verliere ich maximal 10 oder 20%, je nach Portfolio, auch wenn der Markt sich noch negativer entwickelt. Das hat bei mir gut funktioniert, selbst mit den 5% Unsicherheit.

Genau das hat aber auch einen Nachteil: Denn die verkauften Aktien sind weg. Wenn die Börsen sich hoffentlich bald wieder erholen, dann werden eventuell genau diese Aktien wieder neu gekauft. Das bedeutet Transaktionsgebühren, eventuell aber kauft man auch Aktien teurer zurück als man sie verkauft hat. Das ist keine Kritik an Scalable Capital, denn man kann das eine nicht ohne das andere haben. Entweder will ich einen Schleudersitz haben, wenn man den Value at Risk-Ansatz mal so bezeichnen will, oder ich will mein Flugzeug behalten.

Leider kann ich nicht berichten, wie mein Anlageberater mit dem manuell zusammengestellten Portfolio performt. MLP hat es bis jetzt nicht geschafft, mir meinen Zugang zu dem Online-Portal wiederherzustellen. Update: mittlerweile klappt der Zugang, das Depot ist zeitgewichtet bei -1,84 %, also etwas schlechter als mein 10% VaR-Portfolio bei Scalable Capital, aber um einiges besser als mein 20% VaR-Portfolio.

Übrigens, wenn Sie sich über diesen Link bei Scalable Capital anmelden, dann bekommen Sie und ich einen kleinen Bonus 🙂

Von WordPress zu Hugo: 15 Jahre Blogging


Zum 15. Geburtstag dieses Blogs gibt es nicht nur ein Redesign, sondern auch neue Technik unter der Motorhaube:

  • Blogdown ermöglicht es, mit R eine Website auf Basis von Hugo zu erstellen. So kann ich mit meiner Lieblingssprache mein Blog gestalten und muss nicht jedes Mal überlegen, wie ich meinen R-Code oder die Grafiken in WordPress kriege.
  • Der Output ist pures HTML, was die Abhängigkeit von Datenbanken, WordPress-Plugins etc zum einen abschafft und zum andern, und das ist für mich extrem wichtig, eine superschnelle Auslieferung von Inhalten ermöglicht (siehe Screenshot von den Google PageSpeed Insights unten bei den Tests mit meinem Preview-Server). Ich bekomme nun auch keine Mails mehr, weil irgendjemand versucht hat, in meinen Server einzudringen, oder weil der Datenbankserver zu viel Arbeitsspeicher benötigt.
  • Der Workflow ist fast vollautomatisch: Ich schreibe meine Texte in RStudio, committe einen Stand auf GitHub, und von da aus wird automatisch auf meinen Webserver deployed. Wenn mir was misslingt, gehe ich halt auf einen früheren Commit zurück. Continuous Deployment heißt das auf wohl auf Neudeutsch.

2005 hatte ich die erste Version des Blogs mit Movable Type realisiert. Damals wurden auch schon HTML-Seiten produziert, die dann nicht mehr in Echtzeit bei einem Seitenaufruf generiert werden mussten. Ich weiß nicht mehr, wann und warum ich auf WordPress wechselte. Vielleicht weil es dort mehr Erweiterungen gab. 10 Jahre war ich dann mindestens auf WordPress und mehr als einmal enorm genervt.

Der Wechsel auf Hugo lief nicht vollautomatisch. Der WordPress to Hugo Exporter war die einzige von den populären Optionen, die bei mir halbwegs funktioniert hat. Es ist notwendig, den Platz, den ein Blog heute auf der Disk und in der DB beansprucht, noch mal auf der Disk frei zu haben, denn alles wird darauf als Flatfiles repliziert. Die Fehlermeldungen, die das Skript ausspuckt, sind nicht hilfreich bei der Identifikation dieses zu erwartenden Fehlers. Gleichzeitig wurden nicht alle Seiten korrekt konvertiert, so dass ich fast alle Seiten noch mal anfassen musste.

Dabei ist mir zum einen aufgefallen, was sich alles seit 2005 geändert hat:

  • Menschen und Blogs, die ich vermisse, gefühlt gibt es kaum noch richtige Blogs,
  • Themen, die mich entweder heute noch interessieren oder bei denen ich mich frage, wie sie mich überhaupt interessieren konnten,
  • und jede Menge Links zu externen Seiten, die einfach tot sind, obwohl es die Seiten noch gibt.

Das Web ist genau so wenig statisch wie wir es sind, und die 15 Jahre sind für mich eine schöne Dokumentation meiner unterschiedlichen Etappen.

Werden meine Texte gelesen? Analytics-Implementierung im Detail


Zum Jubiläum der Website Boosting (60. Ausgabe!) gibt es hier einen Deep Dive, wie man einen benutzerdefinierten Bericht zu den bis zum Ende gelesenen Texten erstellen kann. Dies ist eine Ergänzung zu meiner vierteiligen Serie “Webanalyse: Wie aus Daten Taten folgen”, in der 60. Ausgabe findet sich der 3. Teil. Grundsätzlich hatte ich über das Thema auch schon einmal hier geschrieben im Vergleich zur Scrolltiefe. Dies ist ein Beispiel dafür, wie benutzerdefinierte und berechnete Messwerte verwendet werden können.

In dem Screenshot wird pro Seite angegeben:

  • Wie viele Wörter ein Text hat
  • Wie häufig eine Seite aufgerufen wurde
  • Der Anteil der Aufrufe, der zu einem Ausstieg geführt hat
  • Die Anzahl der Sichtbarkeit des YARPP-Elements (YARPP steht für Yet Another Related Posts Plugin, welches ähnliche Artikel am Schluss eines Artikels anzeigt. Ist dieses Element auf dem Bildschirm des Nutzers sichtbar, so wird davon ausgegangen, dass der Artikel über dem Element zu Ende gelesen wurde)
  • Der Anteil der Sichtbarkeit des YARPP-Elements mit Hinblick auf alle Seitenaufrufe
  • Die Anzahl der Klicks auf einen YARPP-Link
  • Der Anteil der Klicks auf einen YARPP-Link in Bezug auf die Sichtbarkeit des Elements

Welches Problem wird mit diesem Bericht gelöst?

  • Wird ein Text seltener zu Ende gelesen als andere Texte, dann scheint dieser Text nicht so interessant geschrieben zu sein.
  • Die Länge des Textes könnte ein Prädiktor dafür sein, ob ein Text zu Ende gelesen wird; wird aber ein kürzerer Text nicht zu Ende gelesen, so könnte das ein noch stärkeres Signal dafür sein, dass der Text optimierungswürdig ist.
  • Werden die Links zu ähnlichen Artikel nicht angeklickt, obwohl sie sichtbar sind, so scheinen sie nicht relevant zu sein.

Erstellen der benutzerdefinierten Dimension und Messwerte

  • In Analytics auf Verwaltung (links unten) gehen und dann in der Property-Spalte auf Benutzerdefinierte Definitionen klicken.
  • Zunächst auf Benutzerdefinierte Messwerte und dann auf den roten Button Neuer Benutzerdefinierter Messwert klicken
  • Einen verständlichen Namen auswählen (z.B. “YARPP Seen”)
  • Der Umfang (Scope) ist Treffer (Hit)
  • Der Formatierungstyp ist Ganzzahl (Integer)
  • Die restlichen Werte können leer gelassen werden
  • Auf Speichern klicken.
  • Den Prozess noch einmal wiederholen, dieses Mal für die “YARPP Clicks”. Die Einstellungen sind dieselben.

Der erste Eintrag sollte nun den Index-Wert 1 haben, der zweite Eintrag den Index-Wert 2, es sei denn, es wurden schon einmal benutzerdefinierte Variablen definiert.

Sollte auch die Anzahl der Wörter eines Textes erfasst werden, so ist dazu eine benutzerdefinierte Dimension notwendig. Der Prozess ist ähnlich, hier wieder einen passenden Namen auswählen und den Umfang Treffer. Auch hier muss der Index-Wert für diese benutzerdefinierte Dimension in Erinnerung oder notiert werden, da er später im Google Tag Manager verwendet werden soll.

Implementierung im Google Tag Manager

Sind die benutzerdefinierten Definitionen und Messwerte implementiert, so können nun Werte in diese Variablen geschrieben werden. Dies geschieht mit dem Tag Manager. Zunächst einmal muss das Element ausgewählt werden auf der Seite, bei dem der Trigger der Sichtbarkeit ausgelöst werden soll. Die dazu notwendigen Schritte sind bereits in diesem Artikel beschrieben. Dann wird der folgende Trigger konfiguriert:

Der Trigger feuert einen Tag, der nun auch noch konfiguriert werden muss:

Wichtig ist in diesem Schritt, dass die Einstellungen überschrieben werden, da nur so ein Messwert als benutzerdefinierter Messwert (im Screenshot Custom Metrics) übergeben werden kann. Hier muss dann der Indexwert gewählt werden, der in dem Schritt oben von Analytics definiert wurde. Der Wert des Messwerts ist hier 1, da für jede Sichtung der Zähler um 1 nach oben springt.

Die Variable Scroll Depth Threshold ist nicht notwendig, eventuell muss sie zunächst konfiguriert werden. Dieser Schritt muss dann noch einmal wiederholt werden für die Klicks auf einen YARPP-Link und gegebenenfalls für die benutzerdefinierte Dimension der Anzahl Wörter pro Text. Diese können aber bereits in den Google Analytics Einstellungen übergeben werden, die als Variable definiert werden. In meinem Fall sieht die Konfiguration so aus:

Wie man schön sehen kann, ist an meiner Konfiguration einiges speziell, aber der WordCount wird in eine benutzerdefinierte Dimension mit dem Indexwert 7 übergeben.

Erstellen des berechneten Messwerts

Damit eine Ratio beziehungsweise Conversion Rate angezeigt werden kann, wird ein berechneter Messwert erstellt. Dies sind die Spalten “YARPP Seen CVR” und “YARPP Click CVR” in dem Beispiel-Bericht im ersten Screenshot. Hinweis: Es kann etwas dauern, bis die benutzerdefinierten Messwerte hier sichtbar sind! Das heißt, dass dieser Arbeitsschritt eventuell erst nach einigen Stunden oder sogar erst nach einem Tag durchführbar ist.

In dem Screen Verwaltung in der ganz rechten Spalte findet sich der Eintrag Berechnete Messwerte. Hier auf den roten Button Neuer Berechneter Messwert klicken und dann im folgenden Screen die folgenden Einstellungen übernehmen. Es reicht, die ersten Buchstaben des Variablennamens einzutippen, Analytics vervollständigt die Namen. Dies ist die Einstellung für die Click CVR:

Für die Seen CVR wird die Formel {{YARPP seen}} / {{Seitenaufrufe}} verwendet.

Erstellen des benutzerdefinierten Berichts

Zu guter Letzt wird nun ein Bericht erstellt, so wie er im ersten Screenshot oben zu sehen ist. Unter Anpassung (links oben) und Benutzerdefinierte Berichte kann ein neuer Bericht erstellt werden. Hier werden alle gerade benutzerdefinierten und relevante ab Bord verfügbare Metriken ausgewählt und dazu die passende Dimension ausgewählt. Leider kann hier keine sekundäre Dimension bereits ausgewählt werden; dies muss dann manuell geschehen, wenn der benutzerdefinierte Bericht aufgerufen wird.

Das wars! Weiteres wertvolles Wissen zur Webanalyse gibt es in meinem Buch “Einführung in die Webanalyse”!

Lebensbetriebssysteme


 

Apple ist kein Computer-Hersteller mehr, Google keine Suchmaschine, und Amazon nicht nur ein Online-Einkaufszentrum. Diese Firmen verbindet, dass sie von ihrem jeweiligen Startpunkt aus weitere Bereiche des Lebens erobern. Die Auswirkungen sind schon jetzt vorhersehbar.

Google bietet über die Suchmaschine hinaus E-Mail, ein Mobiltelefon-Betriebsystem und Mobiltelefone, einen mit Sprache bedienbaren Assistenten, ein Computerbetriebssystem, einen Browser, selbstfahrende Autos, einen Fotodienst und weitere Dienste in der Cloud, Musik, Filme, Heimüberwachungssysteme (Nest), YouTube und vieles mehr. Apple bietet Mobiltelefone, Computer, iPads, Software, einen Musikservice, eine SmartWatch, Kopfhörer, einen mit Sprache bedienbaren Assistenten, einen TV-Dienst und eine Cloud-Lösung und vieles mehr. Amazon bietet neben anderen Produkten die Belieferung von Lebensmitteln, eigene Produkte, einen mit Sprache bedienbaren Assistenten, Videokonferenz-Hardware, einen Musik-Service, einen Film-Service und ist außerdem der größte Cloud-Anbieter. Und vieles mehr.

Auf den ersten Blick mögen die Dienste jeweils ein buntes Potpourri darstellen, aber schaut man einmal genauer hin, so basteln die drei großen Digital-Schwergewichte (Facebook aus dem GAFA-Akronym einmal ausgenommen) Lebensbetriebssysteme. Unser Leben wird immer stärker von digitalen Systemen unterstützt werden, und Apple, Amazon und Google arbeiten daran, möglichst viel von diesem Systemen zur Verfügung zu stellen. Ein System, das das digitale Leben schlüssig und kohärent verknüpft, könnte man ein Lebensbetriebssystem nennen.

Das wird vor allem deutlich, wenn man von einem System auf das andere wechseln will oder mit einem anderen System Daten austauschen muss. Das ist zum Teil jetzt schon schwer. Android-Handy und MacBook? Macht keinen Spaß. Von einem Android auf ein Apple-Handy umsteigen? Zunächst kein Problem, es gibt einen Assistenten. Aber der Kalender? Und die Kontakte? Wie bekomme ich die Fotos nun in die elegante Foto-App von Apple? Richtig effizient ist es erst, wenn alle digitalen Aktivitäten mit Apple-Produkten gestaltet werden. Fotos synchronisieren sich über mehrere Geräte hinweg, Dateien ebenso, egal wie viel Speicherplatz man auf dem jeweiligen Gerät hat.

Bei Google lernt der Assistent hinzu. Je mehr von den Google-Produkten genutzt wird, desto bessere Vorschläge werden erstellt. Stau auf dem Weg zur Arbeit? Kein Problem, das Android-Handy warnt seinen Benutzer auf Basis historischer Daten und der gegenwärtigen Verkehrslage. Auch hier wird über mehrere Geräte hinweg synchronisiert.

Amazon scheint noch abgeschlagen zu sein. Aber die Strategie, Hardware vergünstigt abzugeben wie in dem Fall der Tablets, hilft dabei, Kunden an das Amazon-Universum zu binden.

Und so könnte sich bald eine neue Klassengesellschaft, die sich auf die Verwendung des jeweiligen Lebensbetriebssystems ergeben:

  • Die, die es sich leisten können, nutzen das Apple-System. Es ist teuer, aber zeitsparend und schick.
  • Etwas günstiger wird das Google-System sein, auch wenn sich Google mit den Pixel-Geräten in den oberen Preis-Segmenten versucht. Es ist das System für die breite Masse.
  • Am günstigsten wird es ein Amazon-System geben. Es bietet nicht die schnellste Hardware, aber alles was man braucht, ist dabei.
  • Die, die unabhängig bleiben wollen, arbeiten mit Linux-Rechnern und freier Software. Die Rebellen. Sie bezahlen vor allem mit Lebenszeit, behalten dafür aber auch die Kontrolle über ihre Daten.

Richtig spannend wird es aber erst werden, wenn die KI-basierten Assistenten wirklich gut sind. Wenn sie dann alle Informationen, die sie über einen Nutzer über mehrere verschiedene Services sammeln, verwenden können, dann wäre eine richtige Unterstützung wie in “Her” erst möglich. Und dann wird es noch schwerer werden, von einem System auf das nächste zu wechseln.

Vielleicht werden sich die Internet-Giganten aber auch öffnen und gegenseitig Schnittstellen bereitstellen. So könnte Siri aus Google Mails lernen und Alexa aus der YouTube-Playlist. Sehr wahrscheinlich klingt das aber nicht. Stattdessen sieht es eher so aus, dass wir in den jeweiligen Systemen gefangen sein werden, weil ein Wechsel zu viele Nachteile mit sich bringen würde.

Das hat auch ganz praktische Auswirkungen: Was wenn eine Apple-Frau mit einem Amazon-Typen zusammenziehen will? Sie kann seine Hardware nicht steuern und umgekehrt. Oder wird dann nicht mehr zwischen den Klassen gedatet?

Live Aid 1985: Der 5. Mann von Queen


Diesen Ausschnitt von Live Aid vom 13. Juli 1985 habe ich bestimmt mehr als 100 Mal gesehen. Und nicht ein einziges Mal wahrgenommen, dass darin ab und zu der 5. Mann von Queen zu sehen war.

Queen und 5. Mann? Sein Name ist Spike Edney, und er ist heute noch mit dem Rest von Queen auf Tour. Angeblich war er sogar auf Adam Lambert aufmerksam geworden und hatte Roger Taylor den entscheidenden Tipp gegeben.

Natürlich hatte ich mich schon 1985 gefragt, wer den Synthesizer auf Radio Gaga spielt und den Vocoder bedient. Irgendjemand hinter der Bühne halt. Aber wenn man genau hinschaut, dann sieht man Spike Edney mehrere Male bei diesem Auftritt:

In all den Jahren war mir Spike Edney nie aufgefallen, ich dachte immer, das wäre nur ein Bühnenmixer, und die Instrumente vor ihm waren vielleicht von dem vorherigen oder den nächsten Act. Aber die Film-Crew hatte auch alles dafür getan, ihn so wenig wie möglich auf die Mattscheibe zu kriegen. Schließlich war er nur da, um den Sound zu ergänzen. Ein paar Monate zuvor, bei Live in Rio, wurde er prominenter eingebunden:

Erst später bei anderen Aufzeichnungen wird klar, dass er auch Background gesungen hat, was erklärt, warum es immer nach mehr als “nur” Mercury und Taylor und manchmal May geklungen hatte. Heute steht Spike Edney zum Teil ganz normal mit auf der Bühne, zum Beispiel hier bei ’39 im Hintergrund mit dem Mini-Keyboard:

Das bedeutet nicht, dass man ihn tatsächlich als 5. Mitglied sehen muss, denn so viele Touren gab es nach Live Aid nicht mehr, und nur da war er dabei. Allerdings war er bei Roger Taylors Soloprojekt “The Cross” festes Mitglied.

Der Live Aid-Auftritt von Queen gilt als einer der besten des Festivals und von Queen selbst. Es fühlt sich an, als würde man nach all den Jahren plötzlich einen Geist sehen können, der immer dar war und Queen zu dem Sound verholfen hatte, den sie ohne ihn nicht hätten haben können. Ein seltsames Gefühl.

Mensch gegen Maschine: Anlageberater gegen Scalable Capital im 3-Jahres-Vergleich


Mein mittlerweile 5. Artikel über scalablecapital, insgesamt bin ich nun etwas über 3 Jahre bei Scalable und vergleiche immer wieder mit den Ergebnissen meines Finanzberaters. Nachdem er die letzten Jahre immer gewonnen hatte, verändert sich nun etwas im Feld. Zunächst einmal zu den Daten, hier die zeitgewichtete Rendite:

Portfolio201720182019
SC 10% VaR4,4%3,92%11.67%
SC 20% VaR3,7%6,02%
Finanzberater7,81%10,36%9,66%

Mein Finanzberater hatte eine Umschichtung vorgenommen, Scalable Capital macht dies öfter. Leider kann ich davon keinen schönen Screenshot zeigen, weil die SC-App dies immer noch verbietet. Schade eigentlich.

Steile Entwicklung in meinem 10% VaR-Portfolio

Der Vergleich zwischen SC und dem Anlageberater hinkt allerdings ein klein wenig, da ich jeden Monat bei SC etwas Geld einzahle, bei meinem Berater bis Ende 2019 aber nicht So kann ich also, wenn der Markt zwischendurch etwas günstiger war, eventuell auch günstiger eingekauft haben, was meine Rendite bei SC etwas verbessert. Aber, sehr großen Einfluss sollte dies nicht haben.

Volatilität meines 20% VaR-Portfolios

Insgesamt bin ich mit der Entwicklung von Scalable Capital sehr zufrieden, auch mit der Entscheidung, zwei Portfolien anzulegen mit unterschiedlichem VaR. Aber ich werde auch weiterhin noch meinen Finanzberater die Summe anvertrauen, denn schließlich sind 3 Jahre keine lange Zeit für ein Investment.

Über diesen Link können Sie sich anmelden, angeblich gibt es dann eine Prämie für Sie und für mich

Kommentare (seit Februar 2020 ist die Kommentarfunktion von meinem Blog entfernt):

Markus

  1. September 2019 at 10:43 Bin erst seit kurzem bei Scalable Kunde. Umso interessanter finde ich deine langfristigen Beobachtungen. Meines Erachtens spielt dein regelmäßiges Einzahlen keine Rolle für die Rendite. Zumindest wenn du den %-Wert abliest der über „Zeitgewichtet“ steht. Vereinfacht gesagt, zeigt dieser, was aus dem ersten angelegten Euro geworden ist. Unabhängig von Ein- oder Auszahlungen. (für die Gesamtrendite sind die Zeitpunkte von Ein-und Auszahlungen natürlich relevant)