mit @homeassistant messe ich schon seit über einem jahr unseren stromverbrauch. dafür erfasse ich den stromzählerstand mit einer billigen, aufgeklebten esp-kamera und cloud OCR (zur zeit via google). die einzelwerte (lichter, spül-, wasch- etc-maschinen) erfasse ich mit ein paar mess-steckdosen aber vor allem mit der „custom integration“ homeassistant-powercalc, mit der die verbrauchswerte sich sehr akkurat berechnen/schätzen lassen. für die dusche und den boiler leite ich die werte von einem temperatursensor an der heisswasserleitung ab, dafür war einiges an kalibrierung und ausprobieren nötig, aber die werte passen mittlerweile ganz gut.
diesen monat habe ich angefangen, bzw. versucht auch den verbrauch der heizung zu erfassen. wir benutzen tado ventile und lassen tado auch alles steuern. tado nutzt die daten die wir erzeugen mittlerweile auch ganz sinnvoll und stellt Abonnenten seit ner weile eine ordentlich kalibrierte verbrauchsschätzung zur verfügung mit der sich auch historische daten zum vergleich anzeigen lassen.
erste erkenntnis hier, im vergleich zum vorjahr haben wir zwar unsere zieltemperaturen ordentlich gesenkt (1-3 grad), aber das gleiche wie im letzten november verbraucht (dafür war der oktober wärmer, da haben wir im vergleich 100% weniger verbraucht).
zweite erkenntnis: ein grossteil der energie geht bei uns für warmwassererzeugung drauf, der energieverbrauch für lichter und geräte ist nahezu verschwindend gering im vergleich zu der energie die für warmes wasser draufgeht.
dadurch dass ich jetzt den heizungsverbrauch einigermassen gut kenne, sehe ich das in den letzten beiden tagen, an denen ich sowohl gekocht als auch gebacken habe, der gasverbrauch des herds auch nochmal jeweils 15 kWh war. diese menge hat mich dann doch sehr überrascht (auch wenn die kWh gas sehr viel günstiger ist als die kWh strom).
wir (bzw. home assistant) schalten alle lichter bei nicht-gebrauch aus und haben ausschliesslich LEDs im einsatz. aber dass der energieverbrauch für lichter und geräte gerade mal 15-20 % unserer energiebilnaz (im winter) ausmacht, ist dann schon bemerkenswert.
(anmerkung: der gasbasierte energieverbrauch basiert auf der stark vereinfachten rechnung kWh = m³×10)
eigentlich lasse ich frida gerne an der schleppleine frei vor mir laufen — solange sie nicht weiter vorläuft als die schleppleine lang ist. zuhause, auf gewohnten wegen, klappt das super. auf geteerten wegen, bzw. auf wegen auf denen auch fahrräder unterwegs sind muss sie einen ein-meter-radius einhalten. das üben wir in berlin über kilometer hinweg — und das klappt so gut, dass sie milerweile sogar den abstand reduziert, also zu mir kommt, wenn sie radfahrer kommen sieht.
im urlaub klappt das nicht so gut, bzw. nicht auf dauer. da wird ihr vorauskundschaften, ihre prüfung des unbekannten was hinter jeder ecke, jeder erhöhung stecken könnte so einnehmend, dass sie uns an der leine schnell mal vergisst — obwohl es ihr ehrgeiz ist unser dreier-rudel stets beisammen zu halten..
glücklicherweise kann frida ihre modi ganz gut umschalten. wenn wir ihr signalisieren dass sie jetzt auf beinhöhe bleiben soll, macht sie das auch, wenn man aufpasst und kleine intentionen vorzupreschen mit winzigen leinensignalen quittiert. neben einem reagiert frida allerhöchstsensibel auf jedes noch so kleine leinensignal. mir ist jetzt auch aufgefallen warum: sie denkt, wenn ich neben ihr gehe, dass jedes leinensignal von mir kommt, quasi meine hand ist. ab einem abstand von einem meter werden die leinensignale immer ignorierbarer. sie kommen noch an, wenn sie stärker sind, aber ich glaube sie nimmt signale auf abstand eher als anonym, naturgegeben wahr — sie verbindet sie nicht mehr unmittelbar mit mir.
jedenfalls scheint es frida leicht zu fallen sich zurück zu nehmen, wenn wir ihr das signalisieren, und neben oder zwischen uns zu laufen. das klappt dann auch über kilometer hinweg, ohne weitere korrekturen. ich glaube einerseits ist das ziemlich anstrengend für sie, weil sie sehr auf uns achtet, aber weiterhin auch noch auf die neue umgebung achtet. andererseits überlässt sie uns dann auch alle entscheidungen, sie nimmt sich also nicht nur zurück, sondern ordnet sich, zumindest was das auskundschaften, bewerten, entscheiden angeht, völlig unter.
heute haben wir eine neue variante ausprobiert, weil die wege auf denen wir unterwegs waren zu eng waren um nebeneinander zu gehen, nicht nur zu dritt nebeneinander, sondern auch hund neben mensch. frida akzeptiert auf engen wegen (wenn es für sie sinn ergibt) auch sehr schön das kommando „hinten“. aber auf den engen felswegen heute wollte ich sie gerne im blick haben. also lautete die neue regel heute: katia läuft vor, frida darf sie nicht überholen, ich folge am ende. auch das hat erstaunlich gut geklappt. man merkte sie wäre gerne vorgelaufen, aber man merkte auch, dass sie die gesetzte grenze akzeptierte. gelegentlich waren leichte korrekturen nötig, aber insgesamt war das ein sehr entspanntes spazierengehen, auch auf breiteren wegen.
ich bin immer wieder selbst erstaunt was passiert, wenn man mit daten nicht sparsam umgeht und die einfach alle sammelt. je mehr daten man aggregiert, zum beispiel mit sensoren in der wohnung, desto mehr erkennt man, was diese daten alles über einen verraten (können).
das ist ein bild einiger der sensoren die ich unter meiner bettseite untergebracht habe. einen gewichtssensor, von dem ich die bett-belegung ableite, einen (relativen) luftfeuchtigkeitssensor und temperatur-sensor (nicht im bild) und zum vergleich einen luftfeuchtesensor im raum.
man erkennt allgemein dass ich meisten nicht länger als sechs stunden schlafe und dass ich meinen schlaf regelmässig nachts kurz unterbreche, meisten für einen toilettengang, manchmal auch um zu sehen, ob jemand im internet etwas falsches geschrieben hat. man sieht, dass wir das wochenende in der rhön waren (und ich nicht in meinem bett) und dass ich donnerstag einen freien tag hatte (und mittagsschlaf gemacht habe).
ausserdem sieht man ab dienstag den typischen verlauf eines grippalen infekts: ich lag seit dienstag fast die ganze zeit im bett, schlief dienstag und mittwoch nie länger als 2 stunden, dafür schlief ich aber nach 2 tagen infekt, in der nacht von mittwoch auf donnerstag wieder länger, dafür sehr, sehr stark schwitzend.
ich finde das enorm faszinierend, gleichzeitig aber auch beunruhigend. denn das sind nur die werte der sensoren die ich selbst kontrolliere und lokal, bei mir zuhause speichere. all die anderen sensorwerte die in dieser zeit von anderen gesammelt wurden, dürften ähnliche schiussfolgerungen erlauben (felix schwenzel war vom 24. bis zum 26. september bettlägerig):
google maps hat drei tage lang keine aktivitäten festgestellt
ich habe heute hausärzte gegoogelt
netflix und unser fire tv haben tagsüber mehr aktivitäten festgestellt als sonst unter der woche üblich
meine apple watch und mein telefon haben kaum (körperliche) aktivität von mir festgestellt und durchgehend eher niedrigen puls gemessen
amazon dürfte in den letzten tagen zum ersten mal seit längerer zeit wieder e-book-downloads in meinen kindle apps beobachtet haben
vor etwas über einem jahr hat mich tado zu einer veranstaltung im vorfeld der ifa eingeladen, in dem tado seine v3-heizungsventile vorstellte und (unter anderem) einen „auto assist skill“ einführte. auto assist sollte das, was eine der herausragendsten und angenehmsten qualitäten der tado heizungssteuerung ist, zu einem kostenpflichtigen abo machen.
statt dass man wie bisher seine heizungssteuerung nach der installation von tado vergessen konnte und sich auf die wirklich gute präsenzerkennung und anwesenheitsgesteuerte heizungssteuerung verlassen konnte, dachte sich tado: das kann man doch komplizierter machen.
wenn alle bewohner mit dem neuen system die wohnung verlassen haben, schaltet sich die heizung nicht einfach ab, sondern die tado app schickt einem eine nachricht und fragt, ob man nicht die heizung abschalten wolle. kommt ein bewohner umgekehrt nach hause, sagt tado per mitteilung: „Willkommen zu Hause“ und fragt ob man vielleicht die heizung einschalten möchte. das kann man dann machen, indem man die app öfffnet und — i shit you not — einen button klickt.
für 25 euro pro jahr oder 3 euro mpro monat kann man sich von dieser last befreien und auto assist aktivieren.
tado hat diese praxis nach einiger empörung für bestandskunden (halb) zurückgezogen und nachdem ich zweimal nachhakte, ob ich als v2-bestandskunde den auto-assist-skill künftig wieder ohne abo nutzen könnte, hatte mir die pressestelle am 15. mai 2019 versprochen das zu tun, das sei kein problem.
ich hatte vor der ifa 2018 von tado ein v3-thermostat zum testen geschenkt bekommen, was mich für die v3-app-version qualifizierte und mir die automatikfunktionen in der app abdrehte. weil das noch vor dem vor dem rückzieher war und ich das natürlich auch testen wollte, hatte ich mir ein jahresabo gekauft. letzten monat, pünktlich zur diesjährigen ifa, lief mein auto-assist-abo aus und meine tado-installation funktionierte seitdem wie für einen neukunden: nicht mehr vollautomatisch. die versprochene freischaltung seitens tado blieb offenbar aus, wofür ich verständnis habe, da hat irgendwer was vergessen oder irgendein technischer grund wird verhindert haben, das bereits im mai zu konfigurieren.
mir war das aber trotzdem zu blöd hier nochmal nachzuhaken, weil ich das gefühl habe eh viel zu oft bei tado nachzuhaken. ausserdem habe ich mir gedacht, das müsste sich doch auch kostenlos automatisieren lassen.
tatsächlich ist die inoffizielle tado-API recht gut dokumentiert und für alle grossen heimautomatisierungplattformen gibt es implementierungen um tado-thermostate per API, also mit eigenen automatisierungslösungen, zu steuern (zum beispiel mit home-assistant). allerdings ist die auto-assist steuerung per API bisher nirgendwo dokumentiert, das musste ich also selbst rausfinden, was dank tado web-anwendung auch nicht allzu schwer ist. ich habe einfach beobachtet, was die web-app im hintergrund macht, wenn ich den „ich bin zuhause“-button in der (web-) app klicke.
es ist also eigentlich nichts weiter als ein „PUT“ aufruf der API unter dem API-endpunkt
https://my.tado.com/api/v2/homes/123456/presence
mit einem payload
{"homePresence":"HOME"}
oder
{"homePresence":"AWAY"}
weil pytado diesen endpunkt und diese methode noch nicht kennt, habe ich meine kopie von pytado entsprechend erweitert und kann der tado-API für meine home-id (die nicht 123456 lautet) den home-presence-status per kommandozeile mitteilen.
das problem ist allerdings, dass die API den AWAY-status nicht akzetiert, wenn das system sich gerade im HOME-status befindet. dann liefert die API einen HTTP Error 422 zurück, sagt also: das geht so nicht. tatsächlich kann man den präsenz-status erst auf „AWAY“ stellen, wenn alle tado-nutzer (oder deren handys) die wohnung verlassen haben.
dann, wenn alle „AWAY“ sind, liefert ein GET-request an
um den auto-assist-skill zu simulieren mache ich also folgndes:
ich frage alle 10 minuten ab und
lasse den status oder in einen home-assistant-sensor fliessen und
immer dann, wenn sich der wert von zu ändert (oder umgekehrt), kann ich eine automation triggern, die per den -status umschaltet
interessant ist, dass ich den -status offenbar immer auf HOME stellen kann, AWAY lässt sich nur aktivieren, wenn alle nutzer auch wirklich weg sind, bzw. ist.
damit man das ohne fummelei umsetzen kann, müssen die gängigen tado-API-bibliotheken noch um die beiden endpunkte und angepasst werden, ich werde in den nächsten wochen mal probieren, ob ich für pytado einen entsprechenden pull-request gebacken bekomme.
ich verstehe, dass der auto-assist-skill eine (wahrscheinlich) wichtige einnahmequelle für tado ist, die ihr geschäft wohl nicht alleine durch hardware-verkäufe oder service-angebote finanzieren können oder wollen. aber ich glaube auch, dass leute, die sich die mühe machen eine anbindung an die tado-API zusammenzufrickeln oder es schaffen eine heimautomatisierungslösung wie home-assistant bei sich zuhause zum laufen zu bringen, nicht diejenigen sind, auf die der auto-assist-skill zielt.
jeder der seine lebens-prioritäten einigermassen im griff hat und nicht, wie ich, jeden tag 3-8 stunden lebenszeit an seiner automatischen wohnung frickelnd verschwendet, wird für 25 euro/jahr den skill kaufen und glücklich mit einem vollautomatischen tado sein.
wir brauchten einen neuen ventilator, weil die sommer zu heiss geworden sind und mir der alte ventilator zu laut und der beifahrerin zu energie-fressend wurde. das angebot im sommer in deutschland ist enttäuschend. billiger mist, für den man viel geld zahlen soll. keine vernetzungsfähigkeiten oder fernsteuerungen der ventilatoren im preissegment unter 1000 euro.
also, nach langem hin und her, habe ich mir einen ventilator in china bestellt, für 77,00 € ohne zusätzliche versandkosten. heute kam der ventilator an, er wurde aus england geliefert.
der zusammenbau war wie bei ikea: nicht ganz trivial, aber gut erklärt und sauber und verständlich abgepackte einzelteile. der ventilator lässt sich mit ein paar knöpfen bedienen und überzeugte auch die beifahrerin, die fürchete, dass er nicht gut genug wind machen könne. der direkte vergleich überzeugte sie: der alte bläst genau wie der neue in einem ziemlich engen strahl, aber beide blasen gleich stark, obwohl der alte grösser und lauter ist.
mit der mi-app lassen sich nach dem verbinden des ventilators mit dem wlan ein paar mehr features am ventilator bedienen: man kann den winkel, in dem er ozilliert einstellen (in schritten von 140° bis 30°), man kann einen „natürlichen wind“-modus einschalten, in dem der ventilator auch auf höchster stufe nur leise und wenig bläst, bis auf manchmal, wenn er eine oder zwei leichte böen simuliert. sehr angenehm, sehr verspielt. eine timer-funktion ist über die app, aber auch die tasten am ventilator bedienbar.
in der fritzbox meldete sich der ventilator als „ESP-5AB785“ an, xiaomi/mi hat hier also einen esp8266 verbaut. später, sobald ich das zugangstoken aus einem iphone-backup extrahiert habe, überlasse ich die steuerung und fernbedienung home-assistant, mit dieser komponente.
in der fritzbox habe ich dem wlan-ventilator allerdings gleich den internetzugang gesperrt. die chinesische firmware muss ja nicht unbedingt nach hause telefonieren.
ich bin jetzt schon sehr glücklich mit dem teil. die feine justierbarkeit der windstärke, der wind-simulationsmodus, die beinahe unbemerkbare geräuschentwicklung, die wlan-fähigkeit und (hoffentlich) problemlose lokale steuerbarkeit ohne app, per wlan. der ventilator ist zwar zum grossen teil aus plastik gefertigt, mit ein bisschen metal im fussbereich, der stange und im motorbereich, wirkt aber trotzdem, wie alle anderen xiaomi-produkte die ich bisher gekauft habe, ziemlich solide und fein und genau gearbeitet.
damit konnte ich den ventilator in die haus-automatisierung integrieren, snips sagen, dass sie den ventilator für x minuten oder stunden anstellen soll, den ventilator ausschalten wenn das zimmer leer ist oder den ventilator, wenns sein muss, über homekit oder das steuerungs-dashboard-tablet im zimmer steuern.
die beifahrerin legt wert darauf zu vermerken, dass sie einen punktabzug vergibt, weil der ventilator so niedrig ist und sich nicht mit der stange weiter hoch stellen kann. ich hingegen möchte gerne mehr als die volle punktzahl vergeben: ich bin sehr zufrieden. die letzte chance, dass der ventilator jetzt noch einige meiner sympathie-punkte verliert wäre der stromverbrauch. den messen wir demnächst.
eben den stromverbrauch gemessen, der ventilator braucht, wie vom hersteller angegeben, auf der nidrigsten stufe unter 2 watt und auf der höchsten ca. 5 watt. wenn der „natprliche windmodus“ aktiviert ist, also die stärke variert, schwankt der verbrauch auf höchster stufe zwischen 2 und 5 watt. das ist ziemlich beeindruckend, wenn man bedenkt, dass das alte metallmonster wohl gut das zehnfache verbraucht hat.
mich macht das unreflektierte wiederkauen von vermeintlichen studienergebnissen immer ein bisschen aggressiv, aber journalisten scheinen studien zu lieben. früher auf papier, jetzt im netz oder in emails, reissen journalisten für eine knackige überschrift, einen schlussgag oder aufhänger, sätze aus zusammenfassungen aus dem zusammenhang und werfen sie dem leser oder zuschauer vor. so auch heute im tagesspiegel checkpoint:
[…] Gerade veröffentlichte Zahlen eines französischen Think Tanks sollen belegen, dass Videostreaming jedes Jahr 305 Millionen Tonnen Kohlendioxid verursacht – was fast ein Prozent des weltweiten Ausstoßes sei (laut „The New Scientist“).
lobend erwähnen muss ich natürlich, dass der checkpoint die quelle verlinkt und mit der formulierung „sollen belegen“ darauf hinweist, dass zahlen aus studien, reports oder schlussabsätzen immer mit vorsicht oder ein paar gramm salz zu geniessen sind. auf die furchtbar verunglückte und verklemmte porno-schlusspointe von björn seeling möchte ich eigentlich nicht gesondert hinweisen, weil die pointen von björn seeling immer klemmen. aber ich zitiere sie trotzdem kurz, weil nicht nur die pointe klemmt, sondern auch der inhalt:
Vorschlag des Think Tanks, um CO₂ einzusparen: die Datenmenge durch geringere Auflösung der Videos verkleinern. Gilt natürlich nicht nur für die ganz scharfen.
(2 von mir tiefergesetzt, fettungen von björn seeling)
die studie, oder der report, wie the shift project die veröffentlichung nennt, schlägt nämlich gar nicht vor auflösungen von online-videos zu verkleinern, sondern man schlägt digitale enthaltsamkeit („Digital sobriety“) vor. um den report zu ergänzen, liefert the shift tankthe shift project allerdings drei „werkzeuge,“ um nutzerïnnen und bürgerïnnen die versteckten umweltbelastungen von digitalen technologien zu zeigen („to reveal the hidden environmental impact of digital technology to users and citizens“):
ein youtube-video: „This video is bad for climate change: Thank you for watching“
eine firefox-extension die den energieverbrauch des eigenen surfverhaltens visualisieren soll
ich bezweifle, dass björn seeling oder das shift projekt glauben, dass eine dreiseitge pdf-anleitung etwas ist, auf das youtube, netflix oder amazon prime gewartet haben, um das gewicht ihrer angebote zu reduzieren. tatsächlich stecken die plattformen bereits seit einigen jahren geld und entwicklung in die optimierung von komprimierungsalgorithmen und effizientere auslieferung — nicht nur aufmerksamkeit bedeutet geld für die platformen, auch optimierte geschwindigkeit und resourcennutzung. das pdf richtet sich eher an leute die ihre eigenen pornos drehen ihre selbstgemachten videos erstmal selbst optimieren möchten, bevor sie sie auf youtube oder vimeo laden, um sie dort nochmal optimieren zu lassen und ausliefern zu lassen. im pdf wird übrigens auch erklärt, wie der autor des pdf es schaffte 16 seiner vimeo-videos so zu optimieren, dass er am ende im schnitt 25% der video-dateigrösse einsparte: 11 wurden erfolgreich um 50 bis 90 prozent in der grösse reduziert, zwei liessen sich nicht weiter optimieren und drei hat er gelöscht: „Reducing the weight of videos online therefore begins by asking the question of the usefulness of their online presence.“
das ist die haltung, bzw. der lösungsansatz, der sich durch den ganzen report „The Unsustainable Use Of Online Video“ zieht: digitale, persönliche enthaltsamkeit. statt mit dem SUV mal zu fuss zum supermarkt gehen um quinoa zu kaufen, mülltrennung und das eine oder andere video bei youtube löschen, um das klima zu retten.
mich erinnert das fatal an die narrative die uns die ölindustrie, die autoindustrie oder die kunstoff produzierende industrie ins kollektive gewissen gehämmert haben: das elend der welt ist kein politisches problem, sondern ein problem individueller schuld. fahradfahren und zu fuss gehen wird sicherer, wenn wir vorsichtiger und umsichtiger sind und uns beispielsweise mit helmen schützen, nicht etwa durch tempolimits, fahrverbote, getrennte fahrradwegnetze. müllberge aus kunstoff sind ein problem weil wir den müll nicht gut genug trennen, zu verpackungsintensiv einkaufen oder unsere plastikzahnbürsten schon nach 6 wochen wechseln, nicht etwa weil die industrie jede regulierung der kunstoffproduktion weglobbyiert hat oder sich mit grünen punkten jahrzehntelang weissgewaschen hat.
und der klimawandel: natürlich auch die schuld eines jeden einzelnen, wer netflix guckt, mal in den urlaub fliegt oder wegen nicht vorhandenem oder nicht funktionierenden öffentlichem nahverkehr mit dem auto pendelt ist schuld am klimawandel. dass mehr oder weniger alle politischen fragestellungen und initiativen zum klimawandel seit jahrzehnten ausgeklammert, ausgesessen, verharmlost oder ignoriert wurden ist sekundär.
dass das internet ungeheuer viel energie verbraucht steht ausser frage, ebenso, dass video-streaming mittlerweile mehr als die hälfte des gesamten netzwerkverkehrs ausmacht. der report spricht auch themen an, die in aller breite diskussionswürdig sind, wie „dunkle design muster“ (dark design patterns), die benutzer möglichst lange auf den jeweiligen platformen halten sollen: autoplay, endlos-scrolling, eine athmosphäre von dringlichkeit. nur sind diese design-muster eben nichts neues, auch das alte fernsehen nutzt bis heute autoplay, setzt alles daran, den zuschauer so lange wie möglich am schirm zu halten und die aufmerksamkeit einzufangen. auch sendemasten und analoge fernsehgeräte verbrauchten strom und tageszeitungen (wie der tagesspiegel) sind, selbst nach einer studie die die papierverarbeitende industrie in auftrag gegeben hat, eher keine CO₂-musterknaben:
Die Printzeitung verbraucht im Vergleich zur Online-Zeitung deutlich mehr Primärenergie. Der Carbon Footprint ist ebenfalls größer. Die Gesamtumweltbelastung ist bei der gedruckten Zeitung auch höher. Das alles spricht gegen die gedruckte Zeitung.
(wenn man eine gedruckte zeitung länger als eine halbe stunde liest oder sie noch von 2,2 anderen leuten lesen lässt verbessert sich die ökobilanz der gedruckten zeitung.)
dass videostreaming jedes jahr „305 Millionen Tonnen Kohlendioxid“ verursacht, dass die produktion von zeitungen auch CO₂ verursacht, oder, previously, dass bitcoin-mining irre viel strom verbraucht, sind feststellungen die dem klimaschutz nicht helfen, weil sie strohmann-argumente sind. sie suggerieren dass es leicht identifizierbare schuldige gibt, leute die bitcoins abbauen, leute die netflix oder pornos gucken oder sich nachrichten auf gebleichtem altapapier kaufen. sie suggerieren, dass wir, jeder einzelne von uns, selbst schuld sind und dass erziehung, aufklärung und enthaltsamkeit lösungen sein können.
dabei liegt die lösung auf der hand: sie ist politischer, gesellschaftlicher natur. die politik muss dafür sorgen ihre viel zu bescheidenen und niedrigen klimaschutzziele zu erfüllen, wir müssen weg vom verbrennungsmotor, wir müssen den individualverkehr mit regulierung reduzieren (weniger autos wagen) und bessere, viel bessere öffentliche verkehrslösungen schaffen. die maschinenräume des internets müssen mit politischen mitteln dazu gebracht werden energetisch effizienter zu werden und aus mehr und mehr regenerativen energiequellen gespeist zu werden. google rühmt sich damit bereits 30% ihrer „anlagen“ mit erneuerbarer energie zu versorgen. mit entsprechendem poltischen druck und ernsthaften schritten in richtung einer energiewende sollte da noch einiges zu machen sein.
wir alle müssen am grossen politischen rad drehen, statt nur enthaltsamer zu leben. nichts gegen enthaltsamkeit, wer sich dafür entscheidet seinen ökologischen fussabdruck zu reduzieren, sei es durch verzicht, vernunft oder sparsamkeit, verdient respekt. mir geht das wort nachhaltigkeit nur schwer über die lippen, aber wenn wir unseren konsum, unser eigenes leben etwas mehr auf resourcenschonung und verträglichkeit mit der zukunft abstimmen, ist das kein schritt in die falsche richtung — solange es eben nicht der einzige schritt ist und wir nicht die politische dimension aus den augen verlieren.
und zum thema digitale enthaltsamkeit: ich glaube, dass es wirklich sehr, sehr wenige erfolgsgeschichten der enthaltsamkeit gibt. die katholische kirche dürfte das beste beispiel dafür sein, denn sie hat einen mehrere tausend jahre langen feldversuch unternommen, der ziemlich deutlich zu zeigen scheint, dass enthaltsamkeit gesellschaftlich und politisch keine lösung ist, sondern im gegenteil, die probleme nur verlagert und verschärft.
ich habe versucht den ganzen report von the shift project zu lesen. das wurde erschwert durch eine ungemein sperrige sprache und ermüdende wiederholungen. ich kann aber guten gewissens behaupten, dass ich die studie sorgfältiger gelesen habe als die autoren selbst. hätten die ihr konvolut nochmal vor der veröfentlichung als PDF gelesen, wären ihnen vielleicht auch absätze wie dieser aufgefallen:
streaming sites, of “tube” type (cf. Erreur ! Source du renvoi introuvable..Erreur ! Source du renvoi introuvable..Erreur ! Source du renvoi introuvable. “Erreur ! Source du renvoi introuvable.”, p. Erreur ! Signet non défini.), have revolutionized the consumption of pornography by making access to it by any smartphone, including by children and adolescents, simple and free.
mir graust es auch vor argumentationsmustern wie diesem, dass mich an die politische spindoktor-dreherei der telekommunikations-industrie zur abschafffung der netzneutralität erinnert:
Not choosing means potencially allowing pornography to mechanically limit the bandwidth available for telemedicine, or allow the use of Netflix to limit access to Wikipedia.
die ähnlichkeit der argumentationsmuster des shift project mit denen grosser industrie-lobby-vereinen macht mich stutzig. wie sich das projekt finanziert habe ich auf theshiftproject.org nicht herausfinden können. die wikipedia deutet lediglich an, woher das geld kommt: „The Shift Project is funded by corporate sponsors.“
wahrscheinlich sind die argumente des shift projects aber einfach nur so schwach, weil man nicht genug industriegeld einsammeln konnte um sich über enthaltsamkeit hinausgehende gedanken zu machen. positiv ist übrigens zu vermerken, dass das video des projekts mit bisher lediglich knapp 4000 views auf youtube beinahe klimaneutral ist und damit erst 35 kilogramm CO₂ ausgestossen hat. allerdings könnte das verlinken des videos nach ansicht des shift-projekts einer klimasünde gleichkommen.
heute waren wir in potsdam im schlosspark von sanssouci. die beifahrerin wollte dort in den botanischen garten, weil sie gewächshäuser gerade super findet und wir die gewächshäuser im botanischen garten von berlin und kiel und auf dem bundesgartenschau-gelände schon gesehen haben. ausserdem wollte sie, nachdem wir kürzlich mal im chinesischen teehaus auf dem bundesgartenschaugelände waren, auch ins teehaus im park von sanssouci.
die tropenhäuser in potsdam waren toll, dort standen sogar unbewachte coca-sträucher und andere drogen-pflanzen. die farne und luftwurzler waren faszinierend und die einheimischen insekten mögen auch die tropischen pflanzen.
ausserdem gibts in potsdam die „merkwürdigste pflanze der welt“, der in ihrem ganzen leben nur zwei blätter wachsen, aber bequem mehrer tausend jahre alt werden kann. das exemplar in potsdam war erst 40 jahre alt.
die angeblich „merkwürdigste pflanze der welt“
nach den gewächshäusern liefen wir dann zum chinesischen teehaus und unterwegs kamen wir unter anderem am lustgarten vorbei. was denn ein „lustgarten“ wäre, fragte die beifahrerin. ich meinte, dass das der ort gewesen sei, wo sich die adeligen am hof amüsieren könnten, rumspazierten um zu gucken und gesehen zu werden, fangen spielen und so. dank moderner technologie kann man solche fragen ja heutzutage auch gleich wenn sie aufkommen nachschlagen. ich las aus der wikipedia:
Der Lustgarten ist ein (oft parkähnlicher) Garten, der vorrangig der Erholung und Erfreuung der Sinne dient. Er enthält häufig auch zusätzliche Einrichtungen (Gartenlustbarkeiten) wie Konzertsäle, Pavillons, Fahrgeschäfte, Zoos oder Menagerien.
was denn eine menagerie sei, fragte die beifarerin dann noch:
Die Menagerie ist eine historische Form der Tierhaltung und als solche der Vorläufer des zoologischen Gartens, der sich erst im Laufe des 19. Jahrhunderts entwickelte.
nachdem die lustgarten- und menagerie-fragen aufkamen, musste ich jedenfalls an die knapp 200 adelsfilme und -serien denken, die ich in den letzten 40 jahren konsumiert hatte (bemerkenswert in den letzten beiden jahren übrigens versailles und the favourite). so ein hof war ja neben dem politischen gedöns vor allem ein ort an dem sich die frühen influencer versammelten und trafen. man verbrachte dort einen nicht unerheblichen teil seiner zeit damit über mode zu reden und mode und sein eigenes exquisites verständnis von mode zur schau zu tragen, schminktipps zu tauschen und ein gefühl von zugehörigkeit zu exklusiven kreisen zu feiern. selfies waren damals noch etwas aufwändiger in der herstellung, die verbreitung ging zunächst nicht über die eigenen, exklusiven kreise hinaus und vor allem konnte man die selfies nicht selbst herstellen.
das promi-selfies oft gar nicht selbst hergestellt werden ist allerdings auch heute, seit mindestens vier jahren noch so.
selfie von christian ulmen, collien ulmen-fernandes und anderen (Bildrechte: BR/PULS/Sebastian Wunderlich)
neben den influencern waren an diesen adelshöfen aber vor allem auch viele promi-gaffer. der niedere adel hatte es — vermeintlich — zu etwas gebracht, zu privilegien und ein bisschen vermögen, und suchte jetzt am hof vor allem gelegenheit das eigene selbstwertgefühl durch promi-exposition aufzuwerten. der aufenthalt am hof muss irre langweilig und eintönig gewesen sein, aber die möglichkeit sich vom ruhm der promis bescheinen zu lassen, sich selbst zu vergewissern zum erlauchten kreis dazu zu gehören, machte die langeweile wohl wett.
daran musste ich, wie gesagt, heute im schlosspark denken — und als ich eben den blogartikel der beifahrerin von heute las (celebrity-art), schloss sich der kreis: diese leute, deren lebenszweck es zu sein scheint in bestimmten kreisen gesehen zu werden, denen es wichtig ist einen bestimmten, vermeintlichen status nicht nur zu haben, sondern offensiv zu zeigen, die gibt’s heute mehr denn je. die springen auf kunst-messen rum, droppen names in interviews oder schlürfen austern in stehtisch-restaurants in hamburg, düsseldorf, sylt oder münchen.
dank der massenmedien und der noch massigeren netzmedien, hat zwar jeder theoretisch die chance auf 15 minuten teilnahme am hofzeremoniell, aber prominenz, veradelung durch prominenz oder exklusivität, ist immer noch eine wertvolle und nicht ganz leicht zu erlangende währung im gesellschaftszirkus.
wenn wir uns heute lustig machen über die hofzerionielle von vor 100, 200 oder 300 jahren, sollten wir bedenken, dass die filme in 200, 300 jahren genauso unbarmherzig mit unseren gesellschaftritualen umgehen werden.
das teehaus im schlosspark von sanssouci serviert übrigens keinen tee. das ist nur ein ausstellungsraum. ganz hübsch, aber trocken.
eins der wenigen geräte denen ich erlaube sich in die cloud zu verbinden (nach hause zu telefonieren) ist unser reinigungsroboter markus. damit bekommt man nach jeder „mission“ eine karte in der irobot-app serviert. lokale karten oder sogar „live-maps“ sind über die homeassistant roomba komponente, bzw. die python-bibliothek von nick waterton auch möglich, aber ziemlich resourcen-fressend. der server auf dem die roomba-bibliothek ausgeführt wird, muss ständig ein bild generieren, was bei meinen letzten versuchen zu einer stetigen server-auslastung von 80 prozent geführt hat. das ist nicht wirklich praktikabel.
weil die bibliothek aber die koordinaten des roomba ständig erfasst, dachte ich diese koordinaten könnte man doch auch vielleicht meiner seit jahren auf dem server laufenden owntracks-recorder-instanz übergeben. owntracks läuft immer im hintergrund auf meinem (und dem beifahrerinnen) handy und erfasst unsere position. das nutze ich vor allem für die anwesenheitserkennung der automatischen wohnung. wenn wir beide weg sind, gehen alle lichter aus, die heizung fährt runter und eine kamera, die die balkontür erfasst, schaltet sich ein. mit dem recorder kann man unsere positionsdaten permanent, lokal, speichern. so sieht das für meine positionsdaten der letzten zwei jahre aus:
für meine berlin-daten eignet sich das tool ganz gut, um die schwarzen flecken zu finden, in denen ich mal die stadt kennenlernen könnte oder spazieren gehen könnte.
für ausflüge in fremde städte eignet sich das tool ganz gut, um zu sehen, wo man überall war — und wo nicht.
und warum sollte ich das tool nicht auch benutzen, um die fahrten des putzroboters zu erfassen? die roomba komponnete/bibliothek gibt koordinaten aus, die sich immer relativ zum startpunkt befinden, in millimetern, positiv oder negativ zum startpunkt (oder zur ladestation). die relativen roomba-koordinaten lassen sich relativ leicht in geokoordinaten umrechnen. owntracks erwartet mindestens werte für lon und lat, nimmt aber auch die orientierung dankend an, die der roomba auch liefert. wenn die koordinaten in sensordaten vorhanden sind, kann ich eine automation bauen, die diese daten umrechnet und an den owntracks recorder schickt:
(kleines technisches problem: die homeassistant komponente aktualisiert die koordinaten nur alle 20 sekunden. weil die bibliothek von nick waterton aber auch die roomba-daten kontinuierlich per mqtt versenden kann — und da alle 1-2 sekunden aktualisiert — greifen die koordinaten-sensoren die daten dort ab.)
nehme ich die variable, die den radius der erde speichert (earth_r_mm) mit einen millimeter-wert, bekäme ich im recorder eine korrekt skalierte bewegungskarte. ich fand den kilometerwert aber anschaulicher, mit dem aus den roomba millimeter-werten kilometer werden. dann sieht eine „spot-reinigung“ des roomba in owntracks so aus:
normale reinigungsvorgänge sollten dann von schweden, über polen bis nach bayern reichen. das beste ist aber, dass hier zwar sehr viele daten anfallen, aber, soweit ich sehe, passiert das äusserst resourcenschonend — und zur not lässt sich die datenübertragung zum owntracks recorder auch deaktivieren.
ok, das schlafzimmer reicht nicht ganz bis schweden. aber bis dänemark.
ups, gerade gemerkt, das bild hatte die falsche zeiteinstellung. markus ist natürlich viel gründlicher, als es auf dem vorherigen bild scheint.
der #rp19 vortrag von @papierjunge hatte alles was ein guter vortrag braucht (sorgfältige vorbereitung, eine gute folienchoreografie, logik, erkenntnisgewinn, struktur) — ausser witz. pic.twitter.com/iWvEHl5bHg
vergessen habe ich im tweet oben noch, dass sein vortrag auch „selbstkritisch“ war. ich weiss wie schwierig das thema ist, weil ich mich auch schon mehrfach daran abzuarbeiten versucht habe, vor vielen jahren mal auf der republica in der kalkscheune. sein vortrag war gut strukturiert, pragmatisch und hilfreich, um künftig hypes und technologien besser einschätzen zu können. das mit dem „mangelnde witz“ fiel dann vor allem im kontrast zum folgenden vortrag von theobald fuchs auf.
der hatte sich auch ein dankbareres thema ausgesucht, nämlich das ridikülisieren von vergangenen zukunftsvisionen. auch wenn das allgemein schon nicht allzu schwer ist — meistens reicht es einfach nur die zukuntsvisonen zu zeigen um lacher zu bekommen — wies er immer wieder gekonnt auf einzelne details hin, die besonders witzig waren. aber details waren auch theobald fuchs selbst nicht so wichtig, weil er wiederholt die doofheit von elon musk herauszuarbeiten versuchte, der seiner meinung bei seinem hyperloop-projekt wichtige pysikalische details ausser acht liess oder zur späteren lösung verschob. das problem ist allerdings, dass elon musk mit der hyperloop-projekt, bzw. dessen umsetzung so gut wie nichts zu tun hat und die illustrationen die fuchs nutzte ein ganz anderes musk-projekt zeigten.
netter, unterhaltsamer #rp19 vortrag von theobald fuchs auf #stage5 mit teilweise recht naheliegenden, teilweise grandiosen witzen. aber das bild zeigt keine hyperloop-tunnel, sondern tunnel der boring company. musk hat operativ nix mit dem hyperloop zu tun. pic.twitter.com/u5QfZ4lZcQ
danach kam felix hartenstein 15 minuten zu spät, um über amazons rolle als städtebauer zu reden. darin erfuhr ich zwar nicht viel neues, aber das nachdenken darüber, wie amazon mit seinem vergangenen und aktuellen agieren städte verändert, wie grossunternehmen städte formen, und ob und wie wir das als gesellschaft mitgestalten oder ertragen wollen, scheint mir wichtiger denn je. von daher: inspirierender vortrag.
danach blieb ich natürlich sitzen, weil danach die frage „Raumfahrt und Gesellschaft – wohin geht die Reise?“ von alexander gerst und seinem chef diskutiert werden sollte. der chef von gerst, jan wörner, der generaldirektor der european space agency, ist eine ziemlich lustige und manchmal ein bisschen nervige rampensau. im kontrast zu gersts tiefenentspannter art und mit den moderationsversuchen von chiara manfletti wurde das aber zu einer sehr unterhaltsamen und bewegenden veranstaltung. fürs bewegen der raumfahrzeuge sind manfletti und wörner zuständig, fürs herz gerst. und wie letztes mal, als er auf der republica sprach, bewegte mich gerst tief. nicht mit den bildern aus dem nahen erdorbit oder aus der saturn-umlaufbahn (auch), sondern mit der art wie er nachwuchsfürderung praktiziert. seine aufgabe sehe er hauptsächlich darin, jungen menschen, jungen mädchen, frauen und kindern (männer sind mitgemeint) klar zu machen: das was der gerst kann, kann ich schon lange oder besser. diese selbstmarginalisierung seiner leistungen fand ich so sympathisch, so beeindruckend, dass mir kurz (beinahe) die tränen kamen.
am ende wurde mir klar, dass das grösste kompliment, was ix der #rp19 machen kann lautet: dass trotz immer grösser, immer mehr, immer prominenter alles wie immer war.
es ist erstaunlich, wie die republica ständig wächst, dieses jahr auch noch die tincon mit aufnahm, immer diverser wird, im publikum wie auf den bühnen und es doch weiter schafft eine art safespace zu sein, in dem sich alle wohl fühlen, respektiert oder geschätzt fühlen. was sich allerdings verändert hat: auf der republica wird nicht mehr nur das wesen ursprünglich digital entstandener blasen und gemeinschaften gesucht, nicht mehr nur die räume des digitalen exploriert oder versucht die grenzen der digitalen räume zu verschieben. auf der republica versuchen die anwesenden, wir, gemeinsamkeiten und verbindendes zu finden, statt unterschiede oder trennendes zu konstruieren. und das über immer mehr gesellschaftsschichten hinweg.
anders als gedacht fing das streitgespräch zwischen axel voss und markus beckedahl nicht um 10:15, sondern um 11:15 an. so früh an bühne 2 zu sein war aber sehr gut, einerseits weil ich mir dann ein panel über „made in europe“ ansehen konnte und vor allem weil ix so überhaupt in die voss vs. beckedahl veranstaltung reinkam. die türen wurden nämlich schon kurz nach dem ende des made-in-europe-panels wegen überfüllung verrammelt. aus dem made in europe-panel blieb nicht viel hängen, ausser dass china einen plan hat und europa nicht (felix lee) oder dass man in europa ja (quell) offene, modulare, „nachhaltige“ hardware fördern könnte und damit einen offenbar bestehenden bedarf bedienen könnte (anke domscheid-berg). anke domscheid berg zitierte in anderem zusammenhang auch gregor gysi mit „opposition ist zeitgeist“ (so habe ichs verstanden), meinte aber wahrscheinlich: „In Opposition kann man Zeitgeist verändern.“ wenn ich mir die derzeitige opposition im bundestag so angucke, zumindest die rechts sitzende, hoffe ich doch sehr dass das entweder nicht stimmt oder zeitgeist stärker aus der gesellschaft verändert wird, als aus dem parlament. die vertreterin der telkom auf der bühne, claudia nemat (verantwortet im vorstand der telkom das ressort technologie und innovation), stimmte grundsätzlich allem und jedem zu, sogar zwei kritsch fragenden aus dem publikum. die kunst des lauten „ja“, kombiniert mit einem leisen „aber“ habe ich jetzt schon mehrfach auf der republica beobachtet und sie wird ausschliesslich von frauen beherrscht.
das streitgespräch voss vs. beckedahl begann mit einer dreifach anmoderation; zuerst der bühnen-moderator, dann der gesprächsmoderator jo schück, der erklärte dass das gespräch als zdf-kultur-sendung aufgezichnet würde und dass er gleich, „absurderweise“, nochmal auf die bühne kommen würde, als würde er das zum ersten mal tun. das tat er auch und moderierte das panel dann wirklich brilliant, gut vorbereitet und unterhaltsam durch.
bei voss vs. beckedahl hat der moderator gewonnen. (beckedahl und voss haben sich beide gut geschlagen, aber jo schück hat das wirklich sehr brilliant moderiert) pic.twitter.com/LR9h0FKOfv
neben mir sass jens schröder und sagte vor dem voss vs. beckedahl-gespräch, dass er ein bisschen angst vor dem gespräch habe. diese angst, dass das publikum all zu höhnisch und unfair mit axel voss umgehen könnte teilte ich mit ihm, es zeigte sich aber, dass sie unbegründet war. bei markus beckedahl brachen zwar ein, zwei mal kurz emotionen und polemische ansätze durch, aber das gespräch empfand ich als zivilisiert und erhellend — und das publikum als fair. anders als erwartet, brabbelte axel voss nicht nur unzusammenhängendes zeug vor sich hin, sondern schaffte es beinahe eine schlüssige argumentation dafür abzuliefern, warum artikel 13 eben so verabschiedet wurde, wie er verabschiedet wurde. der artikel, der das urheberrecht beträfe sei eben nur eine grobe vorgabe (richtline), die, im gegensatz zu verordnungen, eben nicht eins zu eins, sondern mit grossem spielraum national umgesetzt werden könnten. man muss mit dem inhalt und dem geist der richtlinie nicht übereinstimmen, aber dass es spielraum bei der umsetzung gibt ist relativ unbestreitbar. dass auch gut geschriebene gesetze rechtsunsicherheiten schaffen, und nicht nur schlecht geschriebene wie die von ihm begleitete richtlinie, hat er leider nicht gesagt, aber auch das dürfte relativ unbesteritbar sein. ganz abgesehen davon zog markus beckedahls kernargument wesentlich besser, nämlich dass das urheberrecht ganz grundsätzlich an das digitale zeitalter angepasst werden müsste und grosszügigere, explizitere schrankenregelungen umfassen müsste, damit das kreieren, dass publizieren im netz unkomplizierter, verständlicher und nachvollziehbarer wird.
axel voss beharrte im gespräch auch darauf, dass die ausnahmeregelungen die man in der richtlinie festgelegt habe (artikel 5?), auch ausnahmen im zitatrecht von bildern („memes“) beinhalten würde: wenn das nicht so umgesetzt würde, meinte voss zu beckedahl, könne man sich mnochmal zusammensetzen und das dann wieder ändern. das ist aus dem mund von jemandem, der in der zeit behauptete, dass man fremde texte auf privaten homepages in gänze veröffentlichen dürfe (weil „privatkopie“) nicht so irre beruhigend, aber immerhin eine deutliche festlegung. der passend zynische kommentar, der in etwa lautete: „anpassungen lassen sich dann ja problemlos vom europaparlament verabschieden“ kam dann glaube ich von jo schück.
danach blieb ich für bernhard pörksen sitzen. eigentlich ertrage ich dessen vortragsstil nicht — auch wenn er den vorteil gegenüber vielen anderen vortragenden hat, dass er sich sorgfältig vorbereitet, bzw. seinen text auswändig lernt.
alles was pörksen eben auf #stage2 sagte haben andere auch schon mal gesagt, nur nicht so geschwiffen und gedrechselt — und auch wenn er wie eine eitle akademiker-karikatur wirkt, habe ich heute seinen #rp19 vortrag ertragen und gut gefunden.wahrscheinlich weil ich gut sass. pic.twitter.com/PNlw3tvhmR
beim „The Algorithmic Boss“ von alex rosenblat wurde auf eine art davon abgeraten für uber zu fahrenZzu arbeiten, aber das problem, das sie beschrieb, dürfte uns allen noch im alltag begegnen; nicht nur dass wir in der einen oder anderen form anweisungen von algorithmen erhalten werden, sondern eben auch, dass wir künftig hilfestellungen eher von algorithmen als menschen bekommen werden. und wenn wir doch mal an menschen geraten, dürften das meist menschen sein, die sehr weit von uns und unseren problemen sitzen und auch algorithmische chefs haben.
bei „Building Joyful Futures“ von alexis hope habe ich dann wieder geschlafen, obwohl das thema eigentlich gut und wichtig ist. nämlich dass apparate, maschinen, hilfsmittel oft von menschen gebaut werden, die sie gar nicht benutzen. diese apparate und maschinen dann gemeinsam selbst zu entwickeln ist auch meiner meinung nach eine der grössten chancen der digitalisierung und weht natürlich auch schon länger unter dem label maker-movement durch das netz, die welt und die republica. letztendlich sehe ich auch das bloggen als ein ergebnis dieser bewegungen. wenn nicht über die welt, die blasen, die gemeinschaften berichtet wird, deren teil man ist, macht man es eben selbst. so ist das bloggen entstanden und diese idee steht eben auch hinter facebook und twitter (wenn man das werbegedöns mal ausblendet).
nach einer weiteren kurzen pause im hinterhof, bzw. der hinteren freifläche, ging ich in christian mio loclairs vortrag artificial vanity. den vortrag hielt er aus gründen der eitelkeit besseren werbewirkung/reichweite auf englisch, obwohl das nicht seine stärkste muttersprache ist.
zugleich furchtbar pathetisch, die arbeit und #rp19 präsentation von christian @Mio_Loclair in „artificial vanity“ auf #stage1, als auch tief beeindruckend und faszinierend. und am ende gabs nen schönen talk-twist und ne befriedigendes fazit. pic.twitter.com/tt8p5zpgBA
seine arbeiten und das was sein studio walz binaire macht sind grösstenteils wirklich wunderschön, sehr digital, sehr cutting edge, aber zum teil eben auch sehr inszeniert, leer und willkürlich. was mir aber sehr gefallen hat, war die kurve die er am ende hinbekommen hat. nachdem er zwei drittel seines vortrags damit zugebracht hat zu zeigen, wie maschinen — oder genauer systeme zum maschinellen lernen — offenbar schöpferisch tätig sein können, wie man sie auf bestimmte stile oder ziele trainieren kann — mit teilweise erstaunlichen ergebnissen — zeigte er am ende eben auch die grenzen dieser technologie auf. die waren nämlich genau dann erreicht, als er und sein team versuchten die systeme auf kinderbilder zu trainieren. weil kinder eben keinen stil haben, oder besser, die bilder von kindern eben alles sein können, kinder eben keine lieblingsfarbe haben (sondern alle farben mögen), keine bestimmte art tiere zu malen (sondern alle vorstellbaren und unvorstelbaren arten tiere zu malen nutzen), ist das was aus dem trainingsset von tausenden (millionen?) kinderbildern herauskam einfach nur farb-matsch. diese magie der kindlichen, der menschlichen kreativität, diese potenzielle unberechenbarkeit des menschlichen geistes, die maschinen zur verzeiflung bringen kann und die auch schon charlie chaplin visualisiert hat, waren ein starkes fazit von loclairs vortrag, das jeden vorhergehenden pathos entschuldigt und wett macht. wenn das video online ist: unbedingt nachschauen!
@publictorsten kleinz gewohnt fachkundig und verpeilt bei seinem #rp19 vortrag über adblocker. fühlte sich an wie in einem der seminarräume in der kalkscheune. pic.twitter.com/IygcIAbPhp
ich war relativ früh auf dem republica gelände, das sich gefühlt mittlerweile über die halbe stadt erstreckt. auf dem hof jens scholz getrofffen, der sich fragte, warum sich überhaupt jemand die rede des bundespräsidenten anschauen wolle. darauf hatte ich auch keine antwort, verabschiedete mich und ging los, um mir den bundespräsidenten anzusehen. der eingang zur bühne 1 war abgesperrt, davor eine ziemlich grosse menschentraube. weil ich mich mittlerweile gerne an langen schlangen anstelle wartete ich. es zeigte sich, dass ich zwar für meine verhältnisse früh war, aber die grosse halle mittlerweile voll war. die menschentraube in der ich wartete wurde dann zur liveübertragung am lokschuppen im park des technikmuseums geleitet. die bestuhlung dort bestand aus (bereits belegten) liegestühlen und bierbänken, aber die idee, mir veranstaltungen der republica im park anzusehen gefiel mir.
die rede von steinmeier war dann ein sehr gute mittelmässige rede. man merkte, dass er und seine redenschreiberïnnen sich mit der materie beschäftigt hatten, er sagte nichts doofes, war entspannt, wich auch mal vom manuskript ab, aber euphorisierend oder mitreissend war an seiner rede nichts. dafür gab’s soliden, pathosfreien und vernünftigen verfassungspatriotismus und eine freundliche aufforderung die konsruktiven debatten der letzten jahre fortzusetzen. hängen blieb ein testimonial satz, der die trockene sprödigkeit der rede steinmeiers ganz gut subsummiert: „nicht etwa die digitalisierung der demokratie, sondern die demokratisierung des digitalen ist aus meiner sicht die drängenste aufgabe.“
notiert habe ich mir auch, dass steinmeier meinte, dass es in der politik um verbundenheit gehe, und eben nicht nur um vernetzung. jetzt wo ich das nachträglich in meinen notizen lese, regt es mich fast ein bisschen auf, weil es ein falscher gegensatz ist, wenn man vernetzt und verbunden als unterschiedliche kategorien darstelt, wenn vernetzung doch eigentlich eine voraussetzung für verbundenheit und gemeinsamkeit ist
danach sprach nanjira sambuli und der platz um die liveübertragung lichtete sich. immerhin, so sah man es im livestream, blieb steinmeier noch im publikum sitzen und hörte nanjira sambuli grinsend zu. ich hörte ihr eher fasziniert zu, weil ihr englisch so präzise war und sie mich an emilia clarke erinnerte. oberflächlich hörte sich nanjira sambuli rede im ersten teil leicht algemeinplatzig an, aber wenn man konzentriert zuhörte und sich auf ihre beobachtungen einliess, hatten sie etwas augenöffnendes; nämlich dass wir unsere haltung zur digitalisierung, zu den verwerfungen der digitalisierung oder wem wir expertise in diesen feldern zuordnen, gründlich überdenken müssen. algorithmen nannte sie „merchants of convenience“ und auch wenn es eigentlich eine selbstverständlichkeit sein sollte, ist es gut dass sie es nochmal so deutlich sagte: technologie (und regierungen) müssen der gesellschaft dienen. dieser grundsätzlichere, tiefere blick auf die digitalisierung, die digitalisierte gesellschaft und die mechaniken dahinter, wäre etwas gewesen, was die rede des bundespräsidenten gut statt mittelgut gemacht hätte. so war es aber auch gut, weil es zeigte, dass wir die gestaltung der digitalisierung (und ihrer demokratisierung) weder alten weissen männern, noch ihren jüngeren weissen redenschreiberïnnen und erst recht nicht jüngeren amerikanischen CEOs allein überlassen dürffen.
später, auf bühne 4 sagte sina kamala kaufmann, auf einem von geraldine de bastion moderierten panel (sinngemäss), dass sie überhaupt nicht einsehe, warum sie sich von alten weissen männern auf bühne eins ratschläge für die zukunft geben lassen sollte. de bastion, die den bundespräsidenten vorher mit anmoderiert hatte, ja,-aber!-te das elegant, indem sie darauf hinwies, dass nach dem alten weissen mann eine junge, schwarze afrikanerin geredet hätte und dabei die hälfte des publikums den saal verliess.
um 12:30 fiel mir auf der bühne 3 zum erste mal auf, dass die republica sich dieses mal mit semikolon statt doppelpunkt schreibt, was mir, wie überhaupt die ganze #rp19-gesteltung, sehr gefiel.
was mich dann aber langweilte war das panel. christoph keese referierte dort über die geniale online-srategie des springer verlags, dass sich die balken bogen. der moderator ralf glaser war im harmoniemodus und machte keine anstalten keeses weihrauch zu stoppen oder zu wenigsten ein bisschen zu fächeln. auch susanne hahn beweihräucherte lediglich ihren arbeitgeber daimler, wenn auch etwas weniger ausladend als der business kasper keese. nach 15 minuten verliess ich das panel, weil ich die hoffnung, dass es noch kontrovers werden würde oder dass erkenntnisgewinn abfallen würde aufgab. was ich hätte mitnehmen können, aber lieber liegen liess: wir müssen die business-strategien aus dem silicon valley kopieren.
danach wurde ich kurz in den schlussakkord von mikael colville-andersens vortrag gespült, dessen vortragsstil mir ein bisschen zu jung für sein alter war, aber neben dem zu häufigen „it’s cool man, yeah, cool“ wirklich gut und substanziell war. definitiv ein kandidat für späteres youtube-nachgucken. hängen blieb aber schon aus dem schlussakkord einiges: wenn man viele, sehr viel und gute daten hat, lassen sich radwege und autofreie zonen auch gegen rechtspopulisten und rechtspublizisten wie poschard durchsetzen. städte, aktivismus in und daten aus städten können und werden einen urbanen wandel zu mehr klimaschutz vorantreiben.
danach habe ich mich erstmal, im sinne von christoph keese, mit dem ersten bier selbst disruptiert. dankenswerter weise gibt es dieses jahr auf der republica nicht nur ekel-bier, sondern auch weizenbier. mit diesem bier habe ich mich dann zu einem meiner lieblingsnetzmenschen kosmar (der vor zehn jahren schon mal gepeakt hat) und herrn braun gestellt. dabei standen noch ein anderer brite und tim pritlove, die aber lediglich über den krieg redeten. kosmar und ich wurden dann noch fotografiert.
danach habe ich mir mads pankow (ja, aus berlin) angesehen, wie er mit seinem laptop kämpfte und über arbeit als simulation sprach. das war interessant, steile thesen gespickt und inspirierend, aber auch ein bisschen frustrierend, weil er relativ schlüssig nachwies, dass die arbeit von vielen menschen eigentlich überflüssig ist. wenns ich mich irgendwann mal zu euphorisch oder zufrieden erwische, google ich einfach bullshit jobs und lese mir alle suchergebnisse durch.
als ich die bühne 4 verliess, wurde ich auf die bühne eins gespült, auf der markus beckedahl gerade das letzte jahr netzpolitik zusammenfasste, steinmeier zitierte und den boden für sein streitgespräch mit axel voss heute früh bereitete. ich glaube ich muss mich jetzt sputen mit der zusammenfassung des ersten #rp19-tages, weil das gespräch mit voss live wahrscheinlich amüsanter ist, als aus der youtube-konserve.
nach dem (sehr guten) mitagessen dann mit don dahlmann gelaudert und gemerkt, welchen enormen redebedarf ich eigentlich bei dem thema, dass ich dieses jahr für die #rp19 einreichen hätte wollen, habe. den vorgezogenen call for papers hatte ich dieses jahr verpasst, meine bitte um nachnominierung habe ich dann aber aus irgendwelchen gründen bis in den märz aufgeschoben, wo ich mir dann dachte, dass eine republica ohne vortrag von mir doch auch entspannend wäre (für mich). hätte ich mich beworben, hätte ich nämlich über meine erkenntnisse zur heimautomatisierung gesprochen, ein feld in dem ich seit über zwei jahren intensiv forsche und von dem ich glaube, dass es nicht nur enormen spass macht, sondern auch politisch und gesellschaftlich so viele rlevante fragen aufwirft, dass ich zum ersten mal wirklich eine stunde (statt immer nur einer halben stunde) darüber sprechen kann. nächstes jahr dann.
danach habe ich vor der bühne eins einen intensiven mittagsschlaf gemacht, während sybille krämer redete. ich hoffe sehr, dass mich dabei niemand fotografiert hat, aber der schlaf war sehr erholsam und der vortrag von sybille krämer war auch nicht schlecht — soweit ich das beurteilen kann.
danach war ich dafür im panel Designing Tomorrows - Science Fiction as a Method relativ hellwach. das panel war hervorragend von geraldine de bastion moderiert, die technik sponn auch hier ein bisschen, aber ich habe einiges zur späteren vertiefung mitgenommen: die four futures method als werkzeug zum voraussehen oder imaginieren von zukunftsszenarien will ich unbedingt nochmal nachlesen, das buch von sina kamala kaufmann will ich unbedingt lesen und das konzept des madhome (statt smarthome) werde ich irgendwann auch auf michelle christensens website (oder anderswo) zur vertiefung finden.
aber richtig interessant wurde es eigentlich erst nach den kurzen impuls-präsentationen und fragen in kleiner runde, als die diskussion geöffnet wurde und mein geheimtipp aus 2018, den ich mir schon damals auf eine grössere bühne gewünscht habe, eden kupermintz, auf die bühne kam. er fasste mal eben, ganz nonchalant die essenz von science fiction zusammen und zwar so gut, dass ich das jetzt nicht ad-hoc selbst wieder zusammenbekomme. aber sein auftritt im panel erinnerte mich dann daran, dass er auch noch einen vortrag halten würde, und zwar um viertel nach sieben auf bühne acht: heavy metal und klimawandel (mein titel). wie auch im letzten jahr war sein vortrag herrlich unkonventionell, mit herz und viel weitherholen. hängen geblieben ist: heavy metal is „in your face“, konfrontativ, disharmonisch und läuft nicht weg. ausserdem hatte er die beste, rationale panikmache im angebot: die welt wird nicht untergehen, aber viele teile der welt werden es. das thema rationale panikmache war am ersten tag sowieso das vorherrschende thema, sascha lobo beliess es in seinem vortrag auch nicht bei einem „tut was, verdammt“ wie in den letzten drei jahren, sondern wies auch darauf hin, dass er sich späer nicht von seinen enkeln vorwerfen lassen würde wollen, damals (heute) keine ordentliche panikmache verbreitet zu haben. und auch sascha lobo überliess es nach einem eher zähen anfang, einem furiosen mittel- und end-drittel, einer jungen frau das eigentliche thema der republica zu setzen:
bild von der prebulica
bundespräsident liveübertragung ins aussengelände des technikmuseums
das ist ein laptop der re;publica 19.
from smarthome to madhome
das ende
google ohne internetverbindung
gegen drei uhr gestern früh kurz aufgewacht und gesehen, dass im flur licht brannte. das bedeutet nie etwas gutes, also entschied ich mich lang aufzuwachen und der sache nachzugehen. tatsächlich war die automatische wohnung kaputt, nichts ging mehr automatisch, kein nachtlich im flur, auf dem klo, in der küche. die batteriebetriebenen lichtschalter gingen nicht mehr (ausnahme: die genialen ikea-tradfri-fernbedienungen, die direkt mit den birnen sprechen). das wlan war weg und die esp8266-mikroprozessoren blinkten immer wieder auf, weil sie sich offenbar nicht mehr mit der zenttrale verbinden konnten und immer wieder neustarteten.
mir fiel ein, dass anfang mai der DSL-anbieter-wechsel angesetzt war. vorgestern abend ging noch alles, eine umschaltung mitten in der nacht? hut ab.
die fritzbox lief, aber keins meiner geräte konnte sich mit ihr verbinden. weil das wlan nun wirklich so gut wie nie ausfällt, fiel mir als einzige erklärung ein: irgendwer, irgendwas hatte die fritzbox auf die werkseinstellungen zurückgesetzt. mit dem hinten auf die fritzbox gedruckten wlan-kennwort konnte ich mir tatsächlich wieder wlan-zugang verschaffen und per knopfdruck das DSL und die telefonie vom neuen anbieter (telekom) automatisch neu einrichten lassen.
als ich wieder internet hatte, trudelten auch meine mails ein, unter anderem diese:
WTF? das mein „Internet-Anbieter“ meine fritzbox zurücksetzen kann ist bereits beunruhigend, aber das er das auch tut ist eine extreme schweinerei. schliesslich ist auf meiner fritzbox nicht nur der internet-anschluss des „Anbieters“, sondern alle möglichen anderen daten: telefon-bücher, -blacklists, meine komplette heimnetzwerkkonfiguration, alle langwierig konfigurierte IP-adressen und hostnamen meiner geräte, internetzugangssperrungen für hubs und andere geräte die potenziell nach hause telefonieren möchten und persönlich relevante anruf-historien und sicherheitsrelevante aufzeichnungen (logs). mein „Internet-Anbieter“, ich vermute mein alter anbieter (o₂), meint allen ernstes er könne darüber verfügen und das ungefragt alles löschen?
mir kommt das ungefähr so vor, als würde ein verleger nach der kündigung eines abos bei mir in die wohnung kommen und die zeitungen per flammenwerfer „zurücksetzt“. mitten in der nacht und ohne rücksicht auf kollateralschäden.
klar: backups der fritzbox-konfiguration hatte ich auch, allerdings waren die ein paar wochen alt und ich entschied mich das mal eben alles schnell neu aufzusetzen. gegen halb sieben war ich fertig, die automatische wohnung funktionierte wieder automatisch, das lokale netzwerk und der fernzugriff waren wieder korrekt konfiguriert und die telefone und anrufbeantworter und rufumleitungen und ein telefonbuch, mit den wenigen menschen die uns noch auf dem festnetz anrufen, waren eingerichtet.
aber die tatsache, dass einerseits ein „Internet-Anbieter“ in meiner privatshäre, an meiner informations-infrastruktur rumfummeln kann, log-dateien, einstellungen, filligrane konfigurationen einfach löschen kann und das dann auch noch tut, lässt mich sprachlos zurück. mir fehlen zwar nicht die worte, im gegenteil, aber die spare ich mir, weil diese worte justiziabel sein könnten.
(ich vermute sehr, dass das eine aktion von o₂ war, wobei es natürlich auch möglich ist, dass die fritzbox sich selbst zurücksetzt, wenn der konfigurationsserver des alten anbieters verschwindet, bzw. den anschluss für erloschen erklärt. das wäre dann ein veritabler bug in der fritzbox firmware von avm. dass die telekom das zurücksetzen veranlasst haben könnte ist nahezu auszuschliessen, der anschluss war ja noch nicht eingerichtet und damit auch kein zugriff für die telekom möglich. 100%ig auszuschliessen ist das natürlich nicht. aber aus vergangenen schlechten erfahrungen mit o₂ richte ich meinen ärger jetzt zunächst voll auf o₂.)
mich würde natürlich interessieren ob das anderen auch schon beim DSL-anbieterwechsel passiert ist, ob das ein standard-vorgehen ist oder ob das gar eine art digitaler hausfriedensbruch sein könnte. von mir aus kann mein „Internet-Anbieter“ alle daten löschen, die er über mich gesammelt hat, aber doch nicht meine daten und meine von mir vorgenommenen einstellungen.
ein kitzkleine recherche hat ergeben, dass zumindest die sätze:
Durch Ihren Internet-Anbieter wurden die Einstellungen der FRITZ!Box auf die Werkseinstellungen zurückgesetzt. Dabei wurden die bisherigen Einstellungen gelöscht
nur im zusammenhang mit o₂ im netz zu finden sind. in diesem strang diskutieren nutzer, denen o₂, teilweise mehrfach, bei der ersteinrichtung die fritzbox zurückgesetzt hat. unter dem werkseinstellungsreset liegend ist, soweit ich das verstehe, das TR-069-protokoll, dass „Internet-Anbietern“ erlaubt, bestimmte konfigurationen an kundenroutern vorzunehmen. und offenbar „Internet-Anbietern“ auch erlaubt, kundendaten auf fritzboxen nach belieben zu löschen.
avm dokumentiert zwar das implementierte TR-069-protokoll — und auch wie man das deaktivieren kann — dass „Internet-Anbieter“ diese funktion aber auch nutzen können, um alle persönlichen daten und einstellungen von der fritzbox zu löschen, ist dort nicht erwähnt.
Eine FRITZ!Box, die von einem Internetanbieter zur Verfügung gestellt wird, ist so eingestellt, damit der Anbieter die Erstkonfiguration vornehmen und Updates von FRITZ!OS einspielen und Ferndiagnosen durchführen kann.
vor etwa einem jahr habe ich mir von innr eine unterschrank-LED-beleuchtung gekauft und darüber geschrieben. insgesamt bin ich mit den innr-leuchten ganz zufrieden, mittlerweile bietet ikea vergleichbare, fernsteuerbare und dimmbare unterschranklampen an. die bekommt man für 15,00 plus drei mal 25,00 euro (90,00 €) zu einem vergleichbaren meter-preis wie von innr (amazonpreis innr uc 110 derzeit 95,00 €). allerdings haben die innr-leuchtstreifen ein paar eigenheiten und merkwürdigkeiten die die mit dem tradfri-treiber nicht vorkommen: beim einschalten gehen die innr-leuchtstreifen zum beispiel immer mit 100% an, statt mit der vorher eingestellten helligkeit.
weil ich vor ein paar tagen auf ein angebot auf der innr-webseite gestossen bin („testgeräteanforderung für blogger“), bin ich seit samstag im (test-) besitz eines innr-hubs, drei innr LED-birnen und einer schaltbaren innr-steckdose. innr hat mir die kostenlos zugeschickt, nachdem ich sie habe wissen lassen, dass mich drahtloses schalten interessiert und ich darüber schreibe (auch wenn es sonst kaum jemanden interessiert). als erstes hat mich natürlich interessiert, ob der LED-streifen auch mit der innr-app ein so komisches schaltverhalten zeigt und ob es vielleicht ein firmware-update gibt, wenn man den leuchtstreifen an den innr-eigenen hub anschliesst.
also habe ich als erstes den innr-hub neben meinen hue-, den tradfri- und den zigbee2mqtt-hub gelegt, angeschlossen, die innr-app runtergeladen und mich beim einrichten der app gewundert, warum ich mich bei innr als erstes registrieren muss. für den betrieb des zigbee-hubs, das schalten von lampen oder die funktion der app ist diese anmeldung nicht nötig. nach den aktuellen europäischen datenschutzregeln muss so ein anmeldegedöns eigentlich auch erklärt werden, es müssen gründe genannt werden, warum man auf datensparsamkeit verzichtet. erkennbaren nutzen hat man als nutzer von der anmeldung jedenfalls nicht, im gegenteil, ich habe mich noch vor dem anschluss der ersten lampe geärgert, weil die anmeldung in der innr-app erst im dritten anlauf funktionierte. das paaren mit den leuchten oder dem leuchtstreifen geht dann, wenn man die anmeldung hinter sich gebracht hat, bei innr einfach und soweit ich einschätzen kann relativ hack-sicher: die lampe verbindet sich mit dem zigbee-koordinator nur, wenn sie ungepaart ist und nur in den ersten fünf sekunden nachdem man sie ans stromnetz angeschlossen hat. hue hat es jahrelang versäumt den paarungsvorgang abzusichern, weshalb man mit entsprechend kräftigen zigbee-sniffern ganze hue-zigbee-netzwerke kapern konnte. mittlerweile hat hue das problem wohl behoben. ikea sichert den paarungsvorgang durch nähe ab, nur wenn ein bereits gepaartes gerät (meistens eine fernbedienung) wirklich nah an der lampe ist, lässt sie sich zum eintreten in das neue netzwerk überreden.
leider zeigte der UC 110 leuchtstreifen auch am innr-hub sein eigenartiges einschaltverhalten. ein firmware-update schien auch nicht zur verfügung zu stehen. ansonsten verhielt sich der UC 110 wie am hue hub: er ändert die helligkeit mit geschmeidigen übergängen und lässt sich auf sehr, sehr niedrige helligkeit runterdimmen, so niedrig wie kein anderes fernsteuerbares leuchtmittel das ich bisher gesehen habe.
etwas eigenartig verhielt sich die mitgelieferte RGB leuchte (RB 285 C) am innr hub. beim wechseln der farben leuchtete die lampe immer wieder weiss auf. der übergang insgesamt war zwar weich, aber warum beim wechsel von blau zu rot über die weissen LEDs gegangen werden müsste ist nicht nachvollziehbar. dafür merkte sich die RB 285 C — anders als der UC 110 — ihren vorherigen einschaltzustand: wenn ich sie mit der app auf niedrige helligkeit und hellblau stellte, abschaltete und wieder anschaltete, ging sie hellblau mit niedriger helligkeit wieder an. was die innr-leuchten nicht können, die tradfri-lampen auch nicht, ist ein neues feature dass die neuere hue-lampen-firmware beherrscht: bei hue lampen lässt sich jetzt das einschaltverhalten nach stromnetz-entzug konfigurieren. schalte ich tradfri- oder innr-lampen den strom ab, gehen sie danach immer an, j sei dank allerdings immer mit den vorher eingestellten werten. den hue lampen kann man jetzt sagen, dass sie das auch so machen sollen, dass sie immer an gehen sollen oder nur dann angehen sollen, wenn sie vor dem stromentzug auch schon an waren (vorher gingen hue-birnen nach trennung vom stromnetz immer mit 100% helligkeit an).
die beiden letzten schwachpunkte der innr app- und hub-kombination waren dann der grund, warum ich den hub schnell wieder demontiert habe: wenn ich einer lampe den strom wegnahm, merkte die app nicht, dass die lampe nicht mehr erreichbar ist. in der app konnte ich die lampe weiter schalten und konfigurieren, als wäre sie noch im zigbee-mesh. das können hue, tradfri und die open-source lösung zigbee2mqtt besser.
ein völliges k.o.-kriterium für die innr app- und hub-kombination ist die völlige abwesenheit einer API. sind leuchtmittel oder aktoren an die innr-bridge angeschlossen, lassen sie sich ausschliesslich von der innr-app fernsteuern. es gibt keine API und bisher scheint sich niemand die mühe gemacht zu haben, dass kommunikationsprotokoll zwischen app und hub reverse zu engineeren. das ist andererseit aber OK, weil man die innr-geräte auch problemlos mit anderen zigbee hubs verbinden kann, der die geräte dann per API steuerbar und auslesbar macht.
die mühe die RGB-birne und die schaltbare steckdose an unseren hue-hub anzuschliessen habe ich mir gar nicht erst gemacht, sondern beide gleich mit meiner zigbee2mqtt-instanz verbunden. das ging kinderleicht, einfach die lampe und die steckdose zurücksetzen, indem ich sie aus der app lösche und sobald die join-option aktiviert ist, schnappt sich zigbee2mqtt die beiden geräte sofort.
eine freudige überraschung war, dass zigbee2mqtt alle features der RGB-birne und der steckdose erkennen: für die steckdose liefert zigbee2mqtt folgenden json-string:
die dose misst also den verbrauch angeschlossener geräte und überträgt diese werte per mqtt alle paar sekunden.
schaltbare steckdosen waren mein einstieg in die vernetzte wohnung, allerdings in der nur mittel-zuverlässigen, dafür sehr günstigen 433 mhz funk-variante. ausser beim nicht mehr so günstigen homematic-system, bieten diese funkdosen keinen rückkanal, man selbst und die steuerungssoftware muss also optimistisch sein und einfach davon ausgehen, dass ein schaltvorgang geklappt hat. auch den stromverbrauch einiger geräte habe ich jahrelang über das 433 mhz protokoll ausgelesen. die revolt RF-dosen sind spotbillig (14 €), funken ihre werte allerdings im sekundentakt, was andere 433-mhz-kommunikation potenziell stört. trotzdem messe ich den stromverbrauch unserer waschmaschine bis heute mit so einer revolt-dose, um uns vom abschluss von waschvorgängen informieren lassen zu können.
vor einem jahr habe ich mir für 10 euro bei obi schaltbare wlan-steckdosen gekauft, auf die man eigene firmware (tasmota) flashen konnte. damals waren die mit 10 euro unschlagbar billig, messen allerdings nicht den stromverbrauch. das kann für knapp 30 euro die tplink hs 110, die zwar eine proprietäre firmware hat, aber dafür auch eine lokale API bietet, sich also ohne cloud auslesen und steuern lassen. davon habe ich mittlereile zwei und bin recht zufrieden damit.
die innr sp120 ist preislich vergleichbar mit der tplink hs110 (beide um die 30 euro), sieht aber um einiges besser aus.
dafür schaltet sie maximal 10 ampere, die tplink schaltet 16 ampere. 10 ampere dürften für die messung des stromvebrauchs von wasch- oder spülmaschine ein bisschen schwachbrüstig sein.
auch spottbillig, aber leider ohne strommessung, sind die neuen tradfri schaltsteckdosen: sie kosten 10 euro und schalten auch 16 ampere. leider sind sie in deutschland noch nicht lieferbar (mehrfach verzögert, derzeit heisst es, sie seien ab februar 2020 in deutschland lieferbar)
ich habe mir drei dieser dosen in holland gekauft, zusammen mit einem neuen schalter. das pairing war etwas fummelig, aber ich konnte sowohl die dosen, als auch den schalter problemlos mit zigbee2mqtt verbinden. die home-assistant tradfri-implementierung kann die dosen auch verbinden, aber nicht den schalter. und weil meine home-assistant-version schon etwas älter ist 0.75.3 (aktuell ist 0.92) ist die lösung mit der zigbee2mqtt-bridge momentan die beste. was vor allem erstaunlich ist, vieles funktoniert mit zigbee2mqtt besser als mit den hersteller-lösungen. wenn ich beispielsweise die innr-RGB-birne oder die innr steckdose vom stromnetz trenne, markiert zigbee2mqtt sie zuverlässig als nicht verfügbar. tradfri kann das auch, allerdings nur nach langer timeout-zeit oder wenn man nicht verfügbare aktoren versucht zu schalten. die innr-hub und ap-kombination kanns nicht, bei hue geht’s mit längreen time-out-zeiten auch.
mittlerweile habe ich über zigbee2mqtt knapp 20 sensoren und aktoren angeschlossen (neben den ikea- und innr-steckdosen, einer hue und der innr-RGB-birne, einigen xiaomi-sensoren vor allem super günstige, zuverlässige und ausreichend schicke xiaomi-schalter) und bin super zufrieden mit der funktion und der zuverlässigkeit, aber vor allem der weiterentwicklung der software. an ein paar stelllen klemmt’s gelegentlich noch, aber das tut’s auch bei der home-assistant tradfri-implementierung, die manchmal über netzwerkprobleme stolpert oder sich aufhängt.
fazit
mein fazit zu den vier bisher näher angesehenen innr-produkten ist zweispältig. die produkte sind einwandfrei gestaltet, sowohl optisch, als auch technisch. aber die innr-eigene hub- und app-kombination ist nahezu nutzlos, weil sie keinerlei API bietet. dank des zigbee-standards lassen sich die innr-produkte aber mit allen marktüblichen geräten paaren und nutzen. als ich zuerst vor ein paar jahren von innr gehört habe, habe ich das geschäftsmodell so verstanden, dass man hue mit günstigeren, aber kompatiblen zigbee-produkten unter druck setzen wollte. diesem geschäftsmodell hat ikea einen strich durch die rechnung gemacht, die seit zwei jahren günstige, zuverlässige und ständig gepflegte zigbee-produkte anbieten. qualitativ scheint mir die innr-RGB-birne der tradfri- und hue-konkurenz mindestens ebenbürtig bis überlegen. die innr-birne hat definitiv ein besseres farbspektrum als die tradfri-RGB-birnen und subjektiv erscheint mir auch die leuchtkraft der innr-RGB-birne der hue-variante überlegen.
mit der schaltbaren zigbee-steckdose, die auch den stromverbrauch misst, hat innr (noch) ein herausragendes und schick gestaltetes produkt, dass es von den anderen herstellern so noch nicht gibt. aber ikea zeigt mit seinen 10-euro-zigbee-dosen der konkurenz, wo sie ihren hebel ansetzen. gegen philips und seine hue-produkte wird die positionierung auch nicht einfacher. hue drückt immer neue produkte in den markt und punktet mit qualität, anspruchsvollem design und stetiger weiterentwicklung der firmware, auch ihrer älteren produkte. bei innr sehe ich gerade bei der firmware wenig bis keine bewegung, vor allem auch keine ansätze schwächen per software-updates auszubügeln.
überhaupt nicht nachvollziehbar ist der registrierungszwang in der innr-app bei der nutzung des innr-hubs. in der app landet man bei einem klick auf „Datenschutz“ auf der innr-website, dort kann man ein (auf dem handy kaum lesbares) englischsprachiges pdf runterladen.
If you purchase the bridge Product (plus any other Products) and install it at home on your Wi-Fi network, in combination with downloading the App on your smartphone or tablet, you need to create a login account or log in with the account created in the LA or in the App. The App then collects the names of the lights you use, and the rooms and lighting scenes that you use in your settings. If you purchase Products without the bridge, then no further data is collected and the App has no functionality.
Innr collects additional data from your use of the Products
In order to improve your experience and help troubleshoot any problem that may arise, we collect additional technical information such as the serial number of the Products (such as lamps and the bridge, the software version and the like), if you have the bridge Products installed. To be able to use the services we offer or may offer in future, the Products need to be connected to your Wi-Fi network. During the set-up, the Product will save your IP address.
warum innr einen login erfordert und danach technische lampendaten, meine IP-adresse oder szenen- und lampennamen sammelt, wird daraus nicht klar. die einzigen, etwas dünnen erklärungen, warum innr auf datensparsamkeit verzichtet lautet:
[…] sharing your personal data with Innr will enable us to make it easier for you to:
- control your Products through WiFi networks; and
- receive software updates automatically.
das ist natürlich quatsch, weil das alles auch ohne vorherige registrierung funktioniert. es erscheint beinahe so, als ob innr hier indirekt von der nutzung der eigenen hub-lösung abrät.
nutzung
ich bin eigentlich mit fernsteuerbaren LED-birnen ganz gut ausgestattet, bzw. wir haben den umstieg von glühfaden, halogen oder neon zu LED in der wohnung abgeschlossen. grösstenteils nutzen wir LED-licht mit weiss-spektrum, also kaltem weiss und warmen weiss. RGB, also farb-effekte nutzen wir im alltag kaum, ein realistisches nutzungsszenario für farbiges licht existiert praktisch kaum. bei der überlegung wie ich die innr-RGB-birne nutzen könnte fiel mir ein, dass sie den besetzt-status vom klo signalisieren kann. schliesslich habe ich jetzt einen sensor, der „sieht“ ob jemand auf der schüssel sitzt. nach der umkoniguration meiner flur-licht automationen in home-assistant funktioniert das jetzt wunderbar.
die innr-steckdose werde ich für das automatische ein- und ausschalten der wachstumslampen in der kammer nutzen. die ziehen derzeit alle zusammen 43 watt und das möchte ich weiterhin gerne im blick behalten um die kosten für den selbstgezogenen salat irgendwann mal auszurechnen. bisher nutze ich dafür eine tplink-dose, die aber dann wohl an die waschmaschine wandern wird und dort die alte 433-mhz-revolt-strommessdose ablösen wird. das bringt dann hoffentlich wieder ein bisschen zuverlässigkeit in das 433-mhz-spektrum, dass derzeit arg von der revolt-dose zugespammt wird. denn ein paar 433-mhz sensoren und aktoren haben wir hier noch in benutzung.
der mangold hat jetzt dank ein paar zahnstochern halt gefunden und spriesst so wie ich das gerne habe. ein paar blätter habe ich schon abgeerntet und er lässt immer wieder neue blätter nachwachsen. parallel habe ich drei weitere mangold-samen angesetzt, denen ich in der steinwolle jetzt ein bisschen halt gegeben habe, damit ich sie später nicht wieder stützen muss. nur leider zeigen sich auch nach 2 wochen noch keine triebe. mal schauen.
aus der ersten runde ist auch noch der spitzkohl da, der zwar auch spriesst, aber noch nicht so richtig in die höhe. dem muss ich nochmal ein paar wochen geben. und der salat, der es am anfang langsam angehen liess und jetzt ganz gut wächst, kann auch noch 2-5 wochen vertragen.
salat möchte ich wegen des platzbedarfs jetzt aber in eimern ziehen. dafür fülle ich joghurt-eimer mit nährlösung, in die gitter-wuchsbecher fülle ich neben den steinwolle-anzuchtmedien blähton und ein bisschen bims und spare mir den umweg über separates samen-anziehen. die samen kommen gleich rein. das scheint ganz gut zu funktionieren und ich hoffe, dass die salate, wenn sie den eimer ausgetrunken haben, erntereif sind. hier wachsen neben einem kopfsalat noch rauke und endiven-salat.
der supermarkt-basilikum, der uns auf der fensterbank immer innerhalb von 3 tagen eingeht, gedeiht im LED-licht und mit nährlösung bestens. ich habe schon mehrfach kräftig geerntet, aber er wächst und wächst und wächst. und duftet.
in der oberen etage sind auch nochmal 4 salate denen es schon nach 3 wochen wieder zu eng wird und 4 mal pak choi, die aber wieder nichts zu werden scheinen. ausserdem steht da noch ein ahorn (glaube ich) setzling, den ich vor drei wochen von einem waldweg aufgelesen habe. der wächst gut, scheint sich aber nicht 100% wohl in der nährlösung zu fühlen. der kommt dann wahrscheinlich bald auf den balkon, in erde. rechts ist mein versuch zu sehen, drei mangold-samen zum keimen zu bewegen.
unten nochmal salate. hinten rauke, die sich sehr wohl zu fühlen scheint und schon irre lange wurzeln ausgebildet hat, davor nochmal der langsam wachsende kopfsalat. ganz vorne drei sorten basilikum, zwei oder drei von ikea, und ein genoveser basilikum, aus samen, die die beifahrerin vor jahren mal gekauft hat. der genoveser basilikum wächst auch irre langsam (ich glaube die ersten keime kamen vor 6 wochen), aber stetig und kräftige wurzeln hat er auch schon.
die gesamtsituation mit dem speisekammer garten ist befriedigend: fast alles wächst so wie ich es mir erhofft habe. meine erwartung, dass das system idiotensicher ist, hat sich leider nicht erfüllt. es gibt immer noch wahnsinnig viele variablen, die das an- und aufziehen unberechenbar machen. völlig unverständlich, warum der pak choi hier nicht wachsen will und warum der mangold sich mit dem keimen so schwer tut. auch das gelegentlich auftauchen von algen ist frustrierend, auch weil ich fürchte, dass sie sich irgendwann mit schimmel zusammentun. den wasserstand niedrig zu halten scheint die feuchte des bims niedrig zu halten — und damit auch das algenwachstum. aber auch der blähton in den eimern ist zur zeit noch gut feucht, wahrscheinlich bis der pegel der nährflüssigkeit unter die wurzelkörbchen abgesunken ist. aber bis die wurzeln lang genug sind, muss der wasserstand ja entsprechend hoch sein.
auch ein bisschen enttäuschend finde ich, dass die gewächse nicht wie versprochen nach 7 wochen — bäm — da sind, sondern offensichtlich teilweise noch sehr viel länger ihre ruhe brauchen. aber ich glaube das groovt sich in den nächsten monaten ganz gut ein.
seit langem wollte ich einen sensor bauen, der ein grosses geschäft im bad anzeigt und entsprechend agiert, zum beispiel den lüfter einschaltet. alle lösungen die mir über die jahre einfielen fanden nicht den gefallen der beifahrerin — zu recht, weil meistens zu unhygienisch. zum beispiel der bewegungsmelder hinter der kloschüssel, der „gesehen“ hat, wenn man nach der klbürste greift. auch druck-schalter oder -sensoren im oder am klodeckel kamen nicht in frage.
donnerstag kam dann eine bestellung aus china an, die die lösung versprach: ein VL53L1X-sensor, der abstandsmessung bis zu 4 meter entfernung auf den millimeter genau vornehmen könnte. der hängt jetzt an der decke über dem klo und schafft es tatsächlich ganz gut das klo zu vermessen. so gut, dass er den unterschied messen kann, ob der klodeckel offen oder zu ist, ob die klobrille hochgeklappt ist oder ob jemand drauf sitzt — alles über abstandsmessung von der decke aus.
sitzt jemand länger als andertalb minuten auf dem klo, geht der lüfter an, jemand der es 10 minuten lang schafft, bekommt einen belohnungs-tusch vorgespielt.
leider lässt sich der sensor von wasserdampf aus dem tritt bringen, also zum beispiel beim duschen. diese falschen werte lassen sich aber gut ausfiltern, misst der sensor 5 mm abstand von der decke zum klo ist klar, dass eine falschmessung vorliegt. ab und an stellt der sensor seine kontinuierlichen messungen ein. das meldet die bibliothek, die die werte des VL53L1X-sensor ausliest aber freundlicherweise, so dass ich den arduino neustarten kann, der mir die messwerte in die heimautomatisierung funkt.
weil jemand gefragt hat, hier ein paar worte zu meinem gemüse und kräuterprojekt in der speisekammer (#växer). vor vier wochen hatte ich die pläne ja schonmal beschrieben, mittlerweile habe ich mehr wachstumslampen aus china und deutschland geliefert bekommen. zwei von diesen und um die wartezeit zu verkürzen auch noch die 30 watt-variante dieser lampe, die ich zwar bei aliexpress bestellt habe, die aber aus deutschland, innerhalb von 2 tagen geliefert wurde.
die chinesischen lampen haben als leistung 30 watt und 25 watt angegeben, die ikealampen verbrauchen im monat nach angaben von ikea 4,8 kWh, also ca. 11 watt. eine strommesssteckdose misst beim einsatz der derzeit drei lampen (25+30+11) allerdings nur 34 watt. soll mir recht sein.
auf dem foto erkennt man, dass die ikea-lampe sehr viel weisses/gelbes licht beigemischt hat, die untere chinesische hat auch ein bisschen weiss beigemischt und die obere chinesische hat kaum weiss (herstellerangaben: 47 rote, 19 blaue, 3 UV, 3 IR und 3 weisse LEDs).
wie sich die verschiedenen varianten auf das wachsverhalten auswirken kann ich nicht sagen, aber die ikea-version funktioniert auf jeden fall, wenn man sich den irren salat ansieht.
etwas enttäuscht bin ich von der mangelnden idiotensicherheit des ikea systems. seit zwei wochen wird das bimsstein-substrat, in dem die pflanzen halt und feuchte finden sollen von algen heimgesucht. nur der irre salat nicht, weil er den algen das licht nimmt. ich bekämpfe die algen mit einer stark verdünnten wasserstoffperoxid-lösung (3%), was ein bisschen hilft und hofentlich auch pilzbefall verhindert, von dem viele andere växer-nutzer berichten.
auch die ikea-samenauswahl kommt mir nach dem ersten versuch nur so mittel vor. gerade die am erfolgreichsten aufgehende pflanze habe ich als samen auf gut glück im baumarkt gekauft. die pak chois verkümmerten nach zwei wochen, eventuell wegen des algenbefalls, der magold ist nach wie vor sehr haltlos. dafür macht sich der weisskohl ganz gut.
beim zweiten satz sprösslinge (oben), habe ich neben dünger auch noch ein bisschen wasserstoffperoxid in das wasser gemischt (8 ml auf 1,5 liter). das soll nicht nur gegen algen und pilze helfen, sondern auch die sauerstofversorgung der wurzeln verbessern. verschiedenen düngemitteln ist wohl auch h₂o₂ beigemischt.
beim dritten satz, heute ausgesäät, versuche ich dem pak choi nochmal eine chance zu geben. in den ersten 1,5 wochen ist der zuletzt eigentlich mustergültig abgegangen.
in einer woche nehme ich dann für den dritten satz setzlinge die vierte lampe in betrieb und sääe dann vielleicht auch nochmal mangold aus, den ich vorher im steinwolle-anzuchtmedium festklemme (für den halt). in spätestens vier wochen steht dann die erste ernte an und theoretisch darauf folgend knapp jede weitere woche. bin ix mal gespannt.
seit ein paar tagen nervt mich die beifahrerin mit der täglichen frage: „was wünschst du dir denn zum geburtstag?“ ich sag dann immer: „ich hab alles“, weil ich alles habe. selbst in sachen technischer spielereien hab ich gerade nicht das gefühl, dass mir etwas fehlt. die hausautomatisierung fühlt sich gerätemässig abgeschlossen an; alle lampen in der wohnung lassen sich fernsteuern und selbst die sensoren unserer zahnbürsten erfasse und werte ich aus.
vor ein paar tagen notierte ich mir „vertikaler garten“. ich dachte: wäre doch schön, wenn wir nicht immer kräuter kaufen müssten und die basilikum-töpfchen die wir ab und an kaufen nicht wegen nährstoff- und licht mangel nach wenigen tagen eingehen. mit LED wachstumslichtern haben wir seit ein paar monaten ganz gute erfahrungen gesammelt. ich habe ich china drei LED-leuchten gekauft, weil unsere zimmerpflanzen in unserer wohnung wirklich kaum sonnenlicht abbekommen.
die wachstums-leds leuchten tagsüber für 10 stunden, abends und nachts sind sie aus. hier wurde die led nur fürs foto angeschaltet.
ich schalte die wachstumslichter täglich automatisch ür ca. 10 stunden ein und ich habe das gefühl, dass es ihnen damit um ein vielfaches besser geht. die kosten halten sich dank super sparsamer LEDs auch in grenzen.
ich erinnerte mich bei ikea diese etwas schrottig anmutenden innengärten gesehen zu haben, die es mittlerweile auch zweistöckig und dreistöckig gibt (die dreistöckige variante wird in deutschland allerdings nicht verkaufft). die ikea-werbung machte jedenfalls appetit und auch detlef römisch war in einigen seiner „dauerwerbesendungen“ ganz angetan vom växer-system.
als ich dieses video der beifahrerin zeigte, fragte sie: „ist das nicht ikea-werbung?“ mir war das aber egal, weil der kohl und der mangold, den man dort sehen konnte, sahen wirklich gut aus.
also sagte ich der beifahrerin, dass ich mir dieses set wünschte. das passt auf die fensterbank in der küche und ich hatte das gefühl, dass das versprechen von ikea, dass das ein getestetes, idiotensicheres system sei, kein reines und leeres werbeversprechen war.
växer anzucht set für 130 euro
trotzdem versuchte ch noch ein bisschen weiter zu recherchieren. in china kann man solche sets auch kaufen, erstaunlicherweise gar nicht mal so günstig wie ich es erwartet hätte. irritierender weise wurden die meisten sets dort mit einer luft-pumpe angeboten, die dem wasser, bzw. der nährlösung der hydrokulturen luftbläschen zuführte. das fand ich komisch und eigentlich hätte ich es lieber, dass mein innengarten ruhig vor sich hinwächst, ohne zu brummen.
in diesem video zeigt der migardener, dass er statt fertiggeräten aus china oder von ikea, sich alles selbst baut und — wichtiger noch — auch das mysterium der luftzufuhr erklärt. seine wuchscontainer (und ikeas system) funktionieren nämlich nach der kratky-methode von bernhard kratky der an der universität von hawai forscht und dessen nicht zirkulierende hydroponische aufzucht-methode auch ohne sauerstoffzufuhr in die nährstofflösung funktioniert. wenn ich es richtuig verstanden habe, ist der entscheidende punkt, dass die wurzeln der pflanzen nicht komplett im wasser stehen, sondern zum teil auch in der luft. ausserdem ist die methode auch nur für schnellwachsende pflanzen, bzw. kürzere anzuchtperioden geeignet, danach wird die nähstofflösung ausgetauscht und eben auch neue pflanzen angezogen.
hier nochmal die video des migardener zum thema, in chronlogischer reihenfolge:
das erntevideo hat mich (und die beifahrerin) dann umgehauen. solche salatköpfe in sechs wochen? das wäre was, wenn das funktionieren würde!
„hydroponic lettuce harvest“
nach den video vom migardener war ich plötzlich wieder ganz weit weg vom ikea-system, nach weiterer recherche und nachdenken kam ich da aber wieder an. denn statt mir selbst lichtdichte plastikbehälter zu kaufen, die deckel aufzubohren, fand ich es dann doch effektiver, mir die container, inklusive netzbechern, deckeln (wichtig, damit kein licht durch unbesetzte pflanzöfnungen in die nährlösung kommt und da algenwachstum anregt) für vier eurozu kaufen.
und statt des ikea-gehäuses, entschied ich mich für ein ikea-regal, in dem ich dann, wenn ich wollte, gleich vier (oder fünf) container parallel bespielen könnte. und statt das alles vor das küchenfenster zu stellen, fand ich einen idealen platz in unserem kleinsten raum: der kammer. dort herschen im winter zwar etwas tiefere temperaturen (16 bis 18 grad), aber gerade salat scheint das laut internet nicht allzu viel auszumachen.
der kleinste raum unserer wohnung hat jetzt die meisten möbel
bei ikea habe ich zwei pflanzschalen gekauft (8,00 €), für die samen-anzucht hatten wir bereits einen setzling-container, eine wachstumslampe (35,00 €) und ein ivar regal (43,00 €), steinwolle für die setzlinge, bimsstein für pflanzkörbchen, dünger und ein paar ikea-samen (17,00 €). in china hab ich mir nochmal zwei wachstumslampen gekauft (29,00 €) was dann einen geburtstagsgeschenkpreis von 124,00 euro macht und hoffentlich demnächst für viel salat sorgt.
ich wurde nicht gefragt, bin also in der digitalzimmerwelt nicht angesagt. das hat den vorteil, dass ich ohne einschränkungen trotzdem meinen senf abgeben kann und mich vor allem nicht wie die „blogger-kollegen“ an „highlights“ und „trends“ halten muss, die man einfach im laden kaufen kann. meine highlights bestehen nämlich (quasi) aus bausätzen.
felix schwenzel ist gründer des kraut- und rüben-blogs wirres.net. vor zwei jahren hat er begonnen funksteckdosen zu vernetzen und funksensoren zu bauen. auf der suche nach wegen seine vernetzten geräte zu automatisieren, stiess er auf home-assistant und verwaltet damit jetzt fast alle leuchten in seiner wohnung, um die 50 sensoren und gefühlt 600 automatisierungen.
vor einem jahr habe ich mit amazons alexa die freuden der sprachsteuerung entdeckt. meine wirklich grosse freude über funktionierende spracherkennung und die möglichkeit sowohl unsinn als auch sinnvolles per sprache zu steuern, wurde allerdings dadurch getrübt, dass es unglaublich viele restriktionen bei der anpassung an unsere bedürfnisse gab und gibt. weder ich noch die beifahrerin können uns die teils komplizierten, erforderlichen satzkonstruktionen merken („öffne bring und füge joghurt zur einkaufliste hinzu“). die mangelnde kontrolle, das nagende unwohlsein einen lauschsprecher in der küche zu haben, der alle möglichen daten und audioschnipsel in amazons silos speichert, hat schliesslich dazu geführt, dass ich mit snips experimentieren wollte.
das experiment stellte sich als arbeitsintensiv, aber für meine bedürfnisse besser geeignet als de amazon-cloud-lösung heraus. snips ist deshalb mein highlight des jahres 2018, weil ich endlich natürlich und personalisiert mit meinen vernetzten lichtern, aktoren und sensoren reden kann. um szenen zu aktivieren brauche ich nicht zu sagen „aktiviere entspannung“, sondern kann sätze sagen wie: „ich möchte fernsehen“ (dimmt das licht im aktuellen raum), „katia möchte im kinderzimmer lesen“ (aktiviert die szene „lesen“ im kinderzimmer), „katia möchte fernsehen“ (erkennt dass es sich um den raum „stube“ handelt und schaltet neben gedimmten licht auch gleich den fernseher ein). den „küchentisch“ kann ich beliebig dimmen (indem ich prozentzahlen sage, „hell“, „dunkel“, „heller“, „dunkler“ sage), farben anpassen („gelbweiss“, „blauweiss“, „tageslichtweiss“), aber auch alltagssätze wie „es ist zu dunkel“, „es ist dunkel wie im bärenarsch“ oder „katia ist da“ verändern das licht entsprechend (die beifahrerin möchte es in der küche immer hell haben, ich eher gedimmt, weshalb „katia ist da“ oder „katia ist wieder weg“ entsprechend die lichtstimmung steuern und das ganze mit blöden sprüchen komplettieren). vor allem kann ich die küchentischbeleuchtung auch „tisch“, „esstisch“ oder „deckenlampe“ nennen — und wäre ich lustig mir auch beliebig viele andere synonyme ausdenken.
ich kann den vorhang mit einfachen sätzen steuern („vorhang auf“, „vorhang schliessen“, „kannst du den vorhang auf machen?“), was mir mit alexa nur auf umwegen gelungen ist („schalte den vorhang ein“). wenn ich in der küche sage, dass das essen fertig sei, ruft snips die beifahrerin und dimmt das licht (mittelhell, so wie die beifahrerin es gerade noch aushält). timer und wecker kann ich nicht nur (wie mit alexa) auf zuruf stellen, sondern auch anzeigen. geräusche, umgebungsgeräusche (ambient sounds) kann ich mit sätzen wie „meeresrauschen im bad“ oder „pups mal im flur“ auf unsere audio-systeme schicken (musik steuern wir (momentan noch) lieber per mobiltelefon, wo spotify-connect sie dann auf ein paar raspberries oder einem yamaha verstärker in beliebigen räumen abspielt).
der vorteil von snips ist gleichzeitig der nachteil von snips: man muss/kann alles selbst machen. welche sätze snips versteht bestimme ich, nicht ein amazon-ingenieur. die arbeit die mir hunderte oder gar tausende amazon-ingenieure abnehmen, wenn ich einen echo-lauschsprecher nutze, muss ich zum grossen teil selbst erledigen. wobei snips einem da wirklich sehr viel arbeit abnimmt. und auch wenn snips noch nicht alle quellen ofengelegt hat, sind doch immerhin alle schnittstelen offen und dokumentiert und das basteln, das selber bauen, das tinkern und rumprobieren wird von den entwicklern und einer recht aktiven community unterstützt.
die sprachassistenten von amazon, apple oder google haben alle eine rudimentäre persönlichkeit. mit snips kann man die persönlichkeit seines assistenten selbst formen. wie er oder sie antwortet, auf was er oder sie wie reagiert, das alles habe ich mit snips selbst in der hand. das macht grossen spass.
[06:58:14] [Tts] was asked to say "es sind nur noch wenige geschirr-tabs da. ich hab tabs auf die einkaufsliste gesetzt."
so wie das modewort „nachhaltig“ eigentlich nichts anderes als „zukunftsfähig“ bedeutet, sind sogenannte „smart-home“ geräte oder apparate mit dem präfix „smart“ eigentlich eine umschreibung für „vernetzt“. un-smarte geräte sind auch vernetzt, aber lediglich mit dem stromnetz. vom stromnetz werden sie mit schaltern am gerät oder in der nähe des geräts geschaltet und machen dann ihr unvernetztes ding, für das sie gebaut sind.
vernetzte geräte, die sich dank ihrer vernetzung nicht nur durch schalter fernsteuern lassen, sondern durch apps oder sprach-assistenten, sind toll. ich beschäftige mich jetzt seit zwei, drei jahren intensiv mit ihnen. dabei haben sich ein paar eigentlich triviale, aber dennoch zentrale erkenntnisse herausgebildet:
erstens: fernbedienung ist toll, aber wichtiger sind offene, programmierbare schnittstellen
eine lampe mit einer app zu steuern ist vielleicht für ein paar wochen aufregend. danach wünscht man sich schalter oder andere ergonomisch angebrachte steuerelemente, zum beispiel ein touchpad, drehregler oder — seit knapp zwei jahren ganz neu — sprachsteuerung. aber am allermeisten wünscht und fragt man sich, also ich zumindest, wie man das vielleicht alles ein bisschen automatisieren, abkürzen kann — und nicht mehr alles selbst zusammenklicken muss.
zweitens: beware of the cloud
es gibt kaum noch „smarte“ (also vernetzte) geräte zu kaufen, die ohne „cloud“, also mit einer direkten leitung zum hersteller, angeboten werden. gegen die cloud sprechen nicht nur allerlei datenschutz- und privatshären-gründe, sondern auch praktische erwägungen: die cloud hat hohe latenzzeiten und die internet-verbindung ist öfter weg als man denkt, aber noch öfter sind die hersteller die einem das gerät verkauft haben und die cloud am laufen halten, plötzlich vom fenster weg oder werden von arschloch-firmen aufgekauft. geräte die sich nicht auch lokal, vor ort vernetzen lassen, also auch eine lokale API (schnittstelle) anbieten, haben im haus oder der wohnung eigentlich nichts verloren. abhängigkeit von der cloud ist alles andere als „smart“.
worauf ich aber eigentlich heraus will, und weshalb ich den artikel vor ein paar tagen ursprünglich angefangen zu schreiben habe, ist automatisierung. was mich (als frickler), aber (hoffentlich) auch andere haushaltsmitglieder dauerhaft begeistert, sind ausgefeilte automatisierungen.
anfang der woche habe ich die spülmaschine eingeschaltet und 5 sekunden später plärrte es aus meinem lautsprecher: „es sind nur noch wenige geschirrtabs da. ich hab tabs auf die einkaufsliste gesetzt.“
das schöne ist: ohne weiteres zutun hat das auch funktioniert.
die automatisierung die die aktion ausgelöst hat ist alles andere als „smart“ oder wirklich intelligent; eigentlich ist sie sogar trivial:
so trivial diese automatik auch ist, ich habe noch keinen weg gefunden, soetwas mit systemen der grossen player abzubilden, weder mit homekit, bzw. der home-app von apple, noch mit alexa-routinen oder dem google-home gedöns. samsung hat ein cloud-basiertes system namens „smartthings“, mit dem man sowas vielleicht machen könnte, aber das problem, das alle grossen hersteller bisher nicht mal in ansätzen gelöst haben, ist die integration von sensoren und aktoren über herstellergrenzen hinweg.
ansätze dafür gibt es, aber lösungen die über viele herstellergrenzen hinweg funktionieren, sind bisher nur im DIY (do it yourself) bereich zu finden. lösungen wie home assistant, openHAB und viele andere ermöglichen alle möglichen geräte, sensoren, aktoren zusammenzuflanschen und in einem guss zu automatisieren.
zurück zum beispiel: grundlage der bestell-automatik sind natürlich erst mal sensoren, an erster stelle ein sensor der die anzahl verbliebener tabs verzeichnet. die anzahl tabs ist ein abgeleiter sensor. ich leite die zahl der tabs von einem sensor ab, der registriert wenn die spülmschine angeschaltet wird (und wann sie fertig ist). das wiederum leite ich von einem senor ab, der den stromverbrauch der spülmaschine misst und daraus den betriebszustand der spülmaschine ableitet.
die aktoren sind schon etwas komplexer. es gibt derzeit keinen weg der bring.app einkäufe hinzuzufügen — ausser über die app oder über alexa. bring hält es für unnötig hier eine öffentlich zugängliche API zur verfügung zu stellen. über die alexa-integration, die selbstverständlich auf einer (geschlossenen) API basiert, zu der nur amazon und bring selbst zugang haben, kann ich mich aber trotzdem einklinken.
der dienst bespoken.io erlaubt es mir statt alexa ein komando zuzurufen, alexa ein kommando per rest-schnittstelle zu übermitteln. obwohl ich keinen echo-lauschsprecher mehr in betrieb habe, kann ich so mit alexa-skills kommunizieren die mit meinem amazon-konto verknüpft sind.
wenn ich bespoken programmatisch bitte die nachricht „öfffne bring und füge geschirrtabs hinzu“ an mein alexa-amazon konto zu senden, hat das die gleiche wirkung als würde ich das in ein amazon-echo-mikrofon sprechen. die antwort des bring-skills liefert bespoken freundlicherweise auch gleich mit, so dass ich den auch wieder ausgeben kann — ganz ohne echo dot. (ein weiterer vorteil der lösung über snips ist übrigens auch, dass ich jetzt einfach sagen kann: „wir brauchen milch“, wohingegen mich die alexa-lösung dazu zwingt einen quatsch-satz zu sagen wie: „öffne bring und füge milch zu meiner liste hinzu“)
der zweite aktor macht nichts anderes als snips zu bitten eine tts (text to speech) nachricht in der küche abzuspielen: „es sind nur noch wenige geschirrtabs da. ich hab tabs auf die einkaufsliste gesetzt.“
aufmerksame leser bemerken jetzt natürlich einen widerspruch: ich nutze die cloud für unseren einkaufszettel und um diesen zu füllen. wichtig ist (mir) aber ein prinzip, von dem ich zuerst im architekturstudium gehört habe, und dem ich später in der programmierung und webseitengestaltung wiederbegegnet bin: das prinzip der würdevollen fehlfunktion („degrade in grace“). beim studium ging es eigentlich um materialien „die würdevoll altern“, aber egal ob es sich um material, code oder eine benutzerschnittstelle handelt, alle sollten bei fehlfunktion die würde und ihr gesicht wahren. wenn der eintrag nicht in der einkaufsliste auftaucht, weil die cloudanbindung nicht funktioniert: halb so schlimm, mich hat zumindest die nachricht erreicht, dass nur noch wenige tabs da sind. vielleicht habe ich das auch schon so gesehen. wichtiger ist mir hingegen die zahl der spülzyklen zu erfassen (und daraus den strom und spülmittelverbrauch abzuleiten und gegebenenfalls auszuwerten). das funktioniert auch ohne internet verbindung und diese sensor-daten bleiben in der wohnung. sollte das lokale netzwerk ausfallen ist es zwar schade, dass dann die laufzeiten nicht erfasst werden und ich keine spülmaschine-ist-fertig-nachricht mehr auf mein handy bekomme, aber immerhin funktioniert die spülmaschine noch. fällt der strom aus, kann ich immer noch wasser mit dem gasherd aufkochen und mit der hand spülen. ohne gas ist es dann aber aus mit der wohnwürde.
dieser schichtweise aufbau der technik-funktionen ist meiner meinung nach bei der konzipierung aller aspekte der heimautomatisierung essentiell. die äusserste schicht, die cloud, auf die ich den wenigsten einfluss und kaum kontrolle habe, sollte, wenn überhaupt, nur für komfort-/luxusfunktionen dienen. alles was essentiell ist, licht, wärme, schlösser, geräuschquellen sollten mindestens zwei ebenen tiefer liegen und möglichst eine optionale manuelle steuerung bieten.
tl;dr: weder vernetzung, noch fernbedienung oder automatisierung verdienen im heim wirklich das label „smart“. aber die automatisierung von (am besten lokal) vernetzten, fernbedienbaren geräten macht wirklich spass und befriedigt (wenns funktioniert) tief.
alexa, bzw. unser echo-dot ist jetzt seit ungefähr 6 wochen offline und empfängt jetzt ihr gnadenbrot. wenn ich artikel über neue oder nützliche features von alexa lese zucke ich meist mit der schulter und bemerke, dass mich die meisten skills oder features von alexa ohnehin nicht interessiert haben und dass es gerademal 5 sachen gab, die wir/ich regelmässig an alexa herangetragen haben:
licht- und gerätesteueerung, vor allem in der küche, wo alexa lebte uns zuhörte
timer
füllen unserer gemeinsamen einkaufsliste in bring per zuruf
gelegentliche fragen nach öffnungszeiten oder wikipedia-artikeln
die licht und gerätesteuerung macht snips mittlerweile, wie ich finde, besser als alexa, vor allem auch, weil ich den lampen, geräten und räumen einfacher (un beliebig viele) synonyme geben kann und vor allem weil ich die aktionen nach gutdünken, vor allem kurz gefasst aufrufen kann. kann natürlich auch sein, dass mir das merken leichter fällt, weil ich mir die triggersätze ausgedacht habe und nicht ein amazon-mitarbeiter. es kann aber auch sein, dass ich die licht-, geräte- und raumzuordnungen per homeassistant besser und einfacher strukturieren konnte, als mit der alexa app. aber das ist ein anderer artikel. genauso werde ich einen artikel darüber schreiben, wie ich snips dazu gebracht habe einkaufserinnerungen in bring zu bekommen, obwohl bring sich weigert eine öfffentliche API anzubieten (spoiler: sie haben eine API, den alexa-skill). lediglich wissenfragen nach wikipedia-artikeln oder öffnungszeiten von geschäften in der nähe konnte ich snips noch nicht beibringen, vor allem weil ein snips ein allgemeines deutsches wörterbuch fehlt, snips also kurzgesagt nur das versteht, was man snips explizit beigebracht hat.
was ich bei alexa wirklich häufig genutzt habe war die timer-funktion. was mich allerdings immer gestört hat, war das fehlende visuelle feedback. um zu erfahren wie lange der timer noch läuft, musste ich immer nachfragen. das kann jede eieruhr besser. sämtliche versuche per API auf die alexa/echo timerfunktionen zuzugreifen scheiterten, alles was über die API (per IFTTT) möglich schien, war eine aktion nach dem ablaufen von timern zu triggern, was ich aber nicht brauchte.
die timer-funktion, die ich hier neben der ebenso wichtigen „pups mal!“-aktion abgefilmt habe, habe ich natürlich mit hilfe vom home-assistant gebaut. wie genau, erzähle ich im folgenden, muss dafür aber vorher nochmal kurz ausholen.
skills legt man mit snips in der (online) konsole von snips an (das bauen von assistenten und skills ist die einzige funktion von snips, die (noch) nicht offline verfügbar ist, nach dem deployment funktioniert snips dann aber zu 100% offline).
der „skill“ timer besteht aus zwei „intents“, timer starten und timer stoppen. die intents findet snips „schwach“, weil ich jeweils nur sechs, bzw. elf trainingssätze eingegeben habe.
die trainingssätze sind die sätze die snips erkennen soll, wenn ich einen timer starten möchte, also zum beispiel:
Erinner mich in 2 Minuten
Wecke mich in einer Stunde
Erinnere mich in 30 Minuten
Nudeltimer von 8 Minuten
Eieruhr für 6 Minuten
Wecker in 15 Sekunden
Timer 30 Sekunden
2 Minuten Countdown
Starte einen Countdown für 2 Minuten
10 Minuten Timer
Timer 10 Minuten
damit ich nicht je einen trainingssatz für jeden möglichen zeitraum aufschreiben muss, gibt es vorgefertigte slots für standardwerte wie die dauer, zahlen, temperaturen oder geldbeträge. deshalb habe ich dem intent einen slot für die timer-dauer hinzugefügt. die satzteile mit der dauer muss man anfangs selbst markieren, nach einer weile lernt die konsole dazu und erkennt die dauer in beispielsätzen alleine. der zweite slot erfasst den namen des timers, so dass ich theoretisch mehrere timer parallel aufsetzen kann oder snips mich beim beenden des timers daran erinnern kann, um was der timer geht.
im prinzip ist das schon alles was man für meine lösung auf snips-seite anlegen muss. den rest erledige ich mit homeassistant. man kann für snips auch aktionen in python programmieren, die auf den intent reagieren und agieren. diese python-scripte installiert snips dann auch lokal auf dem raspberry. es gibt ein paar fertige skills (oder apps) die man in einer art app-store in der konsole installieren kann. ein paar von denen habe ich ausprobiert, aber meistens waren die anpassungen die ich an diesen fertigen apps vornehmen musste oder wollte aufwändiger als es mit homeassistant selbst zu machen. die meisten der skills die ich in der konsole anlege haben deshalb gar keine aktionen.
trotzdem haben die skills, oder genauer die einzelnen intents aktionen zur folge, wenn man im homeassistant die snips-komponnete installiert hat. dann schnappt sich homeassistant sozusagen die intents auf, die man konfiguriert hat. für den intent sieht das dann so aus:
diese zeilen bitten homeassistant, sobald snips das auslösen des -Intents meldet, aktiv zu werden. einerseits mit einem audio-feedback und andererseit mit einer aktion. der intent liefert nach dem auslösen die aufgeschnappten „slots“ mit, also in diesem fall die dauer () und den namen (). wie man sieht, ignoriere ich den namen und werte bis jetzt lediglich die dauer aus.
wenn ich also sage „10 minuten timer“ erkennt snips die dauer (10 minuten) und den intent (timer start) und gibt das auf dem „mqtt-bus“ bekannt. weil homeassistant den bus abhört arbeitet homeassistant dann meine konfiguration ab und weist snips folgendes an sprachfeedback zu geben: „timer 10 minuten ab jetzt.“ ausserdem stoppt homeassistant eventuell schon laufende timer und startet einen neuen timer mit der übermittelten dauer ( wird von der homeassistant-snips-komponente freundlicherweise in sekunden umgerechnet, ist der der eingabe-, also der rohe wert).
weil jetzt ausser einem laufenden timer nichts weiter passieren würde, muss ich natürlich noch eine automation anlegen, die sich um die darstellung der restlaufzeit kümmert und eine, die den abgelaufenen timer ankündigt.
die erste automation läuft jede sekunden wenn der läuft (sonst nicht). die berechnet, bzw. zählt die restlaufzeit (in sekunden) und schickt die restlaufzeit auf meinen selbstgebauten matrix-display, der sich per mqtt füttern lässt. das payload-template macht nichts anders als aus der timer-zeit und der abgelaufenen zeit die verbleibenden minuten und sekunden auszurechnen und sie im format '%M%:%S' darzustellen.
die zweite automation wird getriggert, sobald der timer abgelaufen ist und stellt den text „fertig“ auf dem led-matrix-bildschirm dar und lässt snips sagen: „dein timer ist abgelaufen“.
das ganze würde eventuell mit einem python-script viel einfacher umzusetzen zu sein, aber für komplexeres python bin ich noch zu doof. die homeassistant yaml-konfiguration ist auch nicht gerade trivial, aber weil ich mittlerweile in dieser form gefühlt 800 automatisierungen für die wohnung geschrieben habe, bin ich da relativ trittsicher.
das beispiel zeigt die qualität vom zusammenspiel von snips und homeassistant eigentlich ganz gut: im prinzip ist das alles recht einfach, aber man muss halt fast alles selbst machen. die snipskonsole und dokumentation helfen, homeassistant nimmt einem sowieso einen grossen teil arbeit ab, aber jeden einzelfall, jedes detail muss man selbst bedenken. die nüsse die man für einzelne skills knacken muss sind teils weich, teils sehr hart. mir hat das in den letzten wochen aber grossen spass bereitet diese nüsse einzeln zu knacken: wie bekomme ich snips/homeassistant dazu einzelne lichter, geräte oder lichtszenen zu schalten, wie kann ich meine bring-einkaufsliste per zuruf füllen, wie nach temperaturen fragen. das ist ein bisschen wie kreuzworträtsel lösen, mit dem unterschied, dass man sich die aufgaben und lösungen hier selbst ausdenken muss und es keine richtige oder falsche lösung gibt, sondern nur jeweils eine, die ausreichend gut funktioniert.
wo ich gerade dabei bin erklär ich noch, wie ich snips (ivanka) das pupsen beigebracht habe. den intent, bzw. die trainingssätze anzulegen war eher trivial:
nochmal pupsen
bitte pups nochmal
pups nochmal
pupsgenerator
flatulenz
bitte flatulieren
flatuliere bitte
bitte furzen
bitte pupsen
pup mal
kannst du furzen?
bitte furz mal
bitte pups mal
furzen
furz mal
pupsen
pups mal
pupse bitte
kannst du pupsen?
jeder dieser sätze triggert im homeassistant den intent :
sagt snips bescheid, dass der intent ausgeführt wurde, auch wenn die aktion noch nicht zuende ausgeführt wurde. die aktion besteht im prinzip aus einem kommandozeilen befehl der snips eine wav-datei zum abspielen schickt. die auswahl der wav-datei erfolgt per zufall aus 13 dateien die ich mir zusammengegooglet habe. wichtig sind noch die variablen und . die beiden werte liegen bei jedem intent-aufruf vor und sind dann wichtig, wenn man mehrer snips-assistenten zuhause hat, also in verschiedenen räumen. ich habe im kinderzimmer einen snips-satelitten installiert und wenn ich snips dort frage mal zu pupsen, wird die wav-datei eben auch dort abgespielt.
der kommandozeilenbefehl schickt nach dem aufruf durch den intent die wav-datei per mqtt an den snips-audio-server. durch die weiss snips auf welchem lautsprecher die datei abzuspielen ist und das ist ungefähr alles was man tun muss, um snips zum pupsen aufzufordern.
weil ich es lustig fand pups geräusche im bad abzuspielen, wenn dort jemand anders sitzt, habe ich mnoch einen zusätzlichen skill zusammengestellt, der genau das macht. eleganter wäre es natürlich alles in einem skill, bzw. intent abzuhandeln, also zu prüfen, ob der intent einen raum mitliefert oder nicht und entsprechend zu agieren (bei keiner raumnennung abspielen im raum wo der intent getriggert wurde, sonst im genannten raum).
manchmal macht es klick, wenn ich texte lese. dann kommen sachen die mir im kopf schwirren plötzlich zusammen, weil irgendwer es geschafft hat die schwirrenden dinge zu verbunden und per logik das schwirren zumindest für eine weile zu unterbinden. zuletzt ist das vor ein paar tagen robert reich gelungen, dessen leider etwas bescheuert übertitelter text „Amazon Is Everything That's Wrong With America“ viel weniger polemisch ist, als die überschrift vermuten lässt.
in aller kürze sagt reich im text, dass amazon ein symptom der derzeitigen krise in amerika ist, bzw. dass amazons jüngste entscheidung für zwei neue hauptquartiere das problem deutlich macht, an dem amerika leidet — aber auch andere westliche länder:
das problem ist eine wachsende ungleichheit von orten („widening inequalities of place“). amazon habe sich entschieden seine zwei neuen hauptquartiere nicht in einer ländlicheren, konservativen gegend anzusiedeln, sondern im liberalen new york und der metropolengegend washingtons.
aus amazons perspektive ist das folgerichtig, weil amazon gebildete, talentierte menschen benötigt um sein geschäft zu betreiben und weiterzuentwickeln. amazon verkauft eben nicht nur sachen im internet, sondern erfindet sich ständig neu, und verbessert seine methoden kontinuierlich, um konsumenten besser und schneller zu bedienen. amazon ist auf technologie angewiesen und technologie, technologieentwicklung ist eben kein ding an sich, sondern ein prozess, ein hin und her, dialoge zwischen menschen, die voneiander lernen, sich inspirieren und sich gegenseit (intellektuell) auf die schultern steigen. und genau das, schreibt reich, passiere eben in hauptsächlich in wenigen geographischen clustern, in den USA vor allem an den küsten. an der westküste, in den bundesstaaten washinton und kalifornien oder an der ostküste um washington DC, boston und new york herum. in europa ist das nicht anders, auch hier findet technologische innovation eher in urbanen gegenden statt, weniger im ländlichen raum.
die talentierten menschen, die technologie vorantreiben, die in technologie-firmen arbeiten, studieren in städten und ziehen die grossräume von städten auch zum späteren leben und arbeiten vor.
und genau das ist das problem: der ländliche raum bleibt vom derzeitigen fortschrittstreiber ausgeschlossen. der ländliche raum ist nahezu ausgeschlossen von jobwachstum, den geld- und steuerströmen, die sich fast ausschliesslich in die städtischen räume ergiessen.
Between 2010 and 2017, according to Brookings, nearly half of the America’s employment growth centered in just 20 large metro areas, now home to about a third of the U.S. population.
Relative to these booming hubs, America’s heartland is becoming older, less well-educated, and poorer.
The so-called “tribal” divide in American politics, which Trump has exploited, is better understood in these economic and cultural terms: On one side, mega-urban clusters centered on technologies of the future. On the other, great expanses of space inhabited by people left behind.
überspitzt formuliert: der ländliche raum verarmt, verblödet, überaltert. populisten wie trump wissen das mit ihren lügen, hohlen versprechen und vermeintlichem mitgefühl für die unterpriviligierten auszunutzen. die gutbezahlten jobs entstehen in den metropolen, aber auch hier entstehen durch einkommensungleichheit immer mehr prekäre einkommenssituationen.
auch in deutschland scheinen sich diese probleme zuzuspitzen. die unterschiede zwischen arm und reich steigen, die mittelschicht verschwindet und die gutbezahlten jobs entstehen in den städten. amazon hat sein hauptquartier in münchen schwabing, „am Berliner Standort entwickelt Amazon“, laut selbstbeschreibung, „seit 2013 zukunftsweisende Technologien“, „In Dresden ist das Amazon Office ein Kompetenzzentrum für Linux Kern- und Hypervisor-Entwicklung“, die eher schlechtbezahlten jobs in logistikzentren siedelt amazon dann auch im ländlichen raum an (graben, bad hersfeld, rheinberg, werne, pforzheim, koblenz, brieselang oder winsen).
in deutschland wie in amerika tendieren die metropolen politisch nach links. seattle, kalifornien, new york, washington DC, alle nennt robert reich „true blue“, also demokratisch dominiert. die republikaner sind dafür in den ländlichen gegenden stärker. in deutschland sind die metropolen zwar nicht blau, aber dafür stark von rot und grüntönen dominiert. in den USA verzerrt sich durch die konzentration der progressiven wähler in den metropolen auch das politische klima:
Another consequence is a more distorted democracy. California (now inhabited by 39.54 million) and New York (19.85 million) each get two senators, as do Wyoming (573,000) and North Dakota (672,591).
Even though Democratic Senate candidates in the midterm elections received 12 million more votes than Republican Senate candidates, Republicans still gained at least one more Senate seat.
ich vermute, dass das sich das in deutschland tendenziell ähnlich verhält, auch wenn die gleichheit der wahl in deutschland offenbar ein höheres gewicht hat, als in den USA.
das problem des „tribal divide“ dürfte sich aber in den kommenden jahren genauso verstärken, wie sich die trends der wachsenden einkommenungleichheit und der sich ausdünnenden mittelschicht auch langsam aber sicher bei uns breit machen.
In seinem Werk Supercapitalism stellte Reich fest, im vorherrschenden Wirtschaftssystem würden Personen als Verbraucher und Anleger zunehmend mehr Macht erhalten, als Arbeitnehmer und Bürger jedoch immer weniger. Ein Primat der Ökonomie über die Politik untergrabe die Demokratie. Reich stellte dem eine Forderung nach dem Primat der Politik entgegen.
Reich begründet seine Auffassung mit dem Paradox des Superkapitalismus. Dieses besagt: Die Bürger in den Industrieländern und immer mehr Menschen in Schwellenländern profitieren als Verbraucher und Anleger von der Globalisierung und Liberalisierung der Märkte, als Bürger ihrer Staaten lehnen sie jedoch deren negative Folgen weitgehend ab. Als Konsumenten suchen sie nach den besten Preisen, als Bürger beklagen sie jedoch das Aussterben der kleinen Quartierläden und die schlechten Arbeitsbedingungen in den Supermärkten. Als Anleger erwarten sie hohe Renditen, als Bürger verurteilen sie jedoch die Manager, die aus Renditegründen Arbeitsstellen kürzen. Für Reich ist die Bilanz dieser Ambivalenz eindeutig: Die Anleger und Konsumenten sind die Gewinner der Globalisierung. Ihre Auswahlmöglichkeiten nehmen laufend zu. Die Bürger hingegen sind immer öfter die Verlierer: Die Löhne nehmen ab, die Arbeitsunsicherheit nimmt zu und ebenso die gesellschaftliche Ungleichheit.
Der Vorzug von Robert Reichs Superkapitalismus-Konzept liegt darin, dass es nicht zu unsachlicher System- oder Kapitalismuskritik verleitet, denn neoliberal sind in dieser Betrachtungsweise nicht Systeme, sondern Personen, die als Investoren und Konsumenten handeln.
das ist eigentlich ein schöner schlusssatz, auch wenn vieles von dem was reich sagt nachdenkenswert und diskussionswürdig ist: neoliberal sind nicht „die da oben“, sondern wir konsumenten.