morgenspaziergang von der jungfernheide, an der spree entlang, zum spandauer damm.
bis jetzt war die gaststätte „tunnel eck“, wenn wir an ihr vorbeiliefen, immer geschlossen. jetzt ist sie auch leergeräumt.
gotham
switchbot bilderrahmen
möglicherweise war ich im dezember etwas neben der kappe, in weihnachtsstimmung oder betrunken. jedenfalls scheine ich um den 18. dezember bei switchbot einen „AI Art Frame“ für 120 € (inklusive lieferkosten) bestellt zu haben. ich hatte das komplett vergessen, bis gestern eine email auftauchte, die ich zuerst für phishing hielt: „A shipment from order #EU61371 is on the way“
heute kam das teil an und es ist ein bilderrahmen mit einem bunten, nicht besonders hoch auflösenden e-ink-display. der bildschirm misst 18,5 cm in der diagonale, der ganze rahmen misst ca. 33 cm (7,3") in der diagonale. das kann man zwar schon auf der produktseite erahnen, aber als ich es in echt sah, war es schon ein bisschen enttäuschend einen rahmen gekauft zu haben, bei dem das passpartout mehr als doppelt so gross ist wie die bildfläche.
ähnlich wie beim light mode auf webseiten, fand ich den weissen passpartout etwas aggressiv. aus unerfindlichen gründen wurden gleich vier identische, weisse passpartouts mitgelifert. ich hab das passpartout einfach rausgenommen und damit sieht das erträglich aus.
der rahmen kann mit der switchbot-app bespielt werden und wie alle apps ist sie etwas, naja, speziell. aber nachdem ich mich ihrem willen gebeugt habe und mich bei switchbot registriert hatte, verhielt sie sich kooperativ und liess mich blder aus meiner mediathek auf den rahmen hochladen. der erste eindruck der bilder auf dem e-ink-display: ein bisschen blass. auf den zweiten blick auch etwas grob auflösend.
aber, um das positive hervorzuheben, mit etwas abstand fällt das grobpixelige nicht mehr auf, nur noch die blässe. ich finde das teil auch deshalb gut, weil es einen akku hat der angeblich sogar 2 jahre halten soll. ist der akku leer, nimmt man das bild ab und lädt den akku mit usb-c. auch home assistant hat den rahmen gleich per bluetooth gefunden und bietet neben dem akku-stand, die funktionen „nächstes bild“ und „vorheriges bild“ an.
ohne von vor-weihnachtsstimmung beseelt zu sein finde ich die 120 euro ein bisschen heftig, aber selbst bauen mit dieser verarbeitungsqualität und einem akku traue ich mir auch nicht wirklich zu. oder umgekehrt; wenn ich das selbst gebaut hätte, würde ich es genau so bauen — wenn ich’s könnte. nur mit einem kleinerem passpartout-bereich. von daher bin ich ganz zufrieden. weitere pluspunkte:
- gut verarbeitet (lässt sich auseinandernehmen, relativ stabiler alu-rahmen, innenleben mit elektronik und akku unzugänglich verklebt)
- usb-a auf usb-c ladegerät und kabel mitgeliefert
- viele befestigungsoptionen und kleinteile dafür mitgeliefert
- sicher verpackt, mit viel altapapier, wenig plastikmüll
- relativ flach, sieht nicht „bastelig“ aus
völlig überflüssig ist (natürlich) das ai im namen „SwitchBot AI Art Frame“. man kann zwar irgendwelche filter über die hochgeladenen bilder laufen lassen und „everyday photo“ so angeblich in „classic artwork“ verwandeln, aber das kann man sich genau so gut in den hintern stecken. ich habe den titel dieses artikels deshalb zu „switchbot bilderrahmen“ normalisiert.
überlebensfahrerei
gestern habe ich vier folgen drive to survive weggebinged. einerseits erstaunlich, wie schnell dieses formel-1-gedöns langweilig wird, andererseits fasziniert mich die serie immer wieder. was sind das für verträge, die netflix diese stalking-artige nähe zu den fahrern erlaubt? george russel bei der morgentoilette zuzusehen ist weniger spannend als die tatsache, dass george russel eine filmcrew in sein badezimmer lässt. oder die unbarmherzigkeit die sich netflix erlauben kann: du hast gerade nach zwei rennen deinen sitz bei red bull verloren? dann setz dich erstmal mal bei uns vor die kamera und zeig der welt wie elendig du dich fühlst, aber wechsel vorher noch dein hemd.
als ich flavio briatore sah, musste ich googeln: „did flavio briatore have a stroke?“ (hatte er nicht)
die greisenhaftigkeit des 75-jährigen briatore, gepaart mit seiner machtfülle bei alpine und seiner demonstrativen rücksichtslosigkeit, ergeben eine irritierende mischung, die für mich keinen sinn ergibt. das wirkt fast so absurd, wie in einem formel-1-film einen fahrer von einem 62 jährigen schauspieler spielen zu lassen.
interessant ist auch, wer sich der inszenierung verweigert. helmut marko von red bull spricht in der regel mit jedem, aber in den ersten viereinhalb folgen musste sich netflix mit aufgeschnappten soundbites von marko zufriedengeben. christian horner hingegen spricht gefühlt alle 10 minuten zu jeden thema in die netflix-kamera.
in sachen rhetorik ist drive to survive ein lehrstück. die unwahrheit zu sagen kann sich in der modernen formel 1 niemand mehr leisten. kameras der formel 1, von netflix, fernsehteams aus aller welt und von privateuten erfassen im wahrsten sinne des wortes jeden furz. spin, eigenlob und gekonntes verschweigen sind die rhetorischen werkzeuge, mit denen man vor den kameras von netflix zu bestehen versucht.
am faszinierensten für mich ist, schon seit ein paar jahren, wie gut trainiert und ausgebildet die unfassbar jungen fahrer sind. natürlich können sie alle gut fahren, aber sie sind offenbar auch im umgang mit den medien und netflix perfekt trainiert. sie sprechen alle fliessend englisch, wenn auch gelegentlich mit schwerem akzent, sie sind analytisch, offenbar überducrhschnittlich intelligent und verlieren niemals ihre contenance — als hätten sie alle genetisches material von niki lauda in ihr genom transplantiert.
was man bei drive to survive kaum sieht: bescheidenheit. mit einer bermerkenswerten ausnahme: jonathan wheatley, in der aktuellen staffel noch teamchef von sauber, jetzt teamchef von audi. wheatley ist so bescheiden und freundlich, dass ich in der 2026er saison mindestens einen halben daumen für audi drücken werde, in der hoffnung, dass wheatly erneut zeigt, dass man auch ohne arschlochigkeit erfolgreich sein kann.
gestern beim morgenspaziergang wieder an dem baum voller kormorane vorbeispaziert. und die sonne soll jetzt laut wetterbericht midestens eine ganze woche bei uns bleiben.
februar statistiken
der monat ist noch nicht vorbei, aber ich glaube ich kann den februar jetzt schon mal statistisch auswerten. und zwar, wie viel zeit ich vor der glotze verbringe. ich glaube für den februar habe ich so ziemlich alle filme und serien die ich geschaut habe erfasst. das sind in summe 27 stunden die ich vor der glotze verbracht habe. allerdings ist mir gestern noch eingefallen: was mach ich mit youtube?
gemini meint es gäbe keine einfache methode die zeit, die ich mit youtube-videos verbringe, per api abzufragen. also bin ich meinen youtube-verlauf durchgegangen und habe für jedes video und jeden tag die zeit notiert, die ich geschätzt damit verbracht habe. abgebrochene videos oder videos in denen ich viel übersprungen habe, flossen entsprechend in diese schätzung ein. im februar waren das bis jetzt nochmal 31 stunden.
damit habe ich im februar ungefähr 58 stunden vor der glotze verbracht. das sind 15 % meiner verfügbaren freizeit, die ich mit youtube, filmen oder serien verbracht habe.
gestern habe ich ein ted-video von rebecca okamoto gesehen, in dem sie erklärt, wie man sich in 20 oder weniger worten so vorstellt, dass man einen bleibenden eindruck hinterlässt. ich fand das video schlimm und habe es deshalb nicht geliked und deshalb taucht es hier auch nicht auf, aber es ist doch etwas hängengeblieben, mit dem ich die zeit, die ich vor der glotze verbringe, rationalisieren kann: ich lese und sehe das internet leer, um kuratierte empfehlungen weiterzugeben, die anderen freude und mehrwert bringen.
wie und ob ich die youtube-zeiten in meinem medienlog verarbeite oder zeige, weiss ich noch nicht. da die zeiten über den januar und februar recht ähnlich verteilt sind, kann ich im ø von 75 minuten youtube pro tag ausgehen, wenn mir um die schätzung meiner screentime geht. das akkurat pro tag zu loggen hat ja keinen wirklichen mehrwert. aber ich überlege noch, ob und was da sinn ergibt.
die matomo-statistiken zeigen: wer regelmässig schreibt, wird auch gelesen. vorletzten und diesen monat waren es um die 7000 (unique) pageviews, im letzten monat gab es einen kleinen ausreisser nach oben. konstante besucherlieferanten sind buddenbohm-und-soehne.de (400-600 pro monat) und rivva (100-200 pro monat).
die zahl der pageviews im RSS (um die 13.000/monat) korreliert natürlich mit der anzahl der veröffentlichten artikel. das waren in den letzten 10 monaten immer um die 60 (übersicht), also 2 pro tag. seit januar kommen monatlich ca. 80 likes und 50-60 lesezeichen dazu, die ich veröffentiche.
beim ø-gewicht geht’s weiter ganz leicht abwärts, auch wenn ich gefühlt im januar und februar zwischen 94 und 92 kilo feststecke. der durchschnitt sagt: es geht weiter abwärts. wohlgemerkt, ohne ozempic und ohne explizite „diät“. ich verzichte nur auf süsses und esse weniger brot, bzw. insgesamt etwas weniger.
beim training war ich bei liegenstützen ziemlich faul, dafür gelang mir vor einer woche zum ersten mal ein sauberer klimmzug von ganz unten bis unter das kinn. ich habe aber so ein gefühl, dass ich im märz berichten kann, dass ich 2-3 am stück schaffe.
medienimport
natürlich ist es eine schnapsidee, filme oder serien hier tracken zu wollen. wenn ich wollte, könnte ich das alles bei trakt machen. trakt arbeitet mit einem leicht obskuren dritt-dienst zusammen (younify.tv) um die historie des gesehenen von netflix auszulesen. tatsächlich kann man damit die historie aller grossen streaming-angebote abgreifen — wenn man younify.tv genug vertrauen entgegenbringt und (vollen) zugriff auf diese dienste gewährt. mein vertrauen hat vor ein paar jahren nur dafür gereicht, younify.tv zugriff auf mein netflix-konnto zu gewähren, weshalb ich jetzt einen teil meiner netflix-historie auch in trakt habe.
der vorteil ist, dass ich die von younify.tv abgegriffenen daten, jetzt auch wieder über die trakt-api selbst abgreifen kann, zum beispiel mit diesem script. mit ein zwei weiteren phyton scripten kann ich deshalb jetzt auch automatisch auf netflix gesehenes hier loggen.
schnapsidee hin oder her, sowohl trakt als auch ich wissen, dass die schnapsidee alles gesehene zu loggen, nur funktioniert, wenn es vorwiegend automatisch geht. wenn da nicht die vertrauensfrage wäre. ein datenleck bei trakt von 2014, das trakt erst 2019 offenlegte, zeigt, dass es nicht angebracht ist, trakt 100% vertrauen zu schenken. wenn ich mich recht erinnere hab ich die verbindung zwischen trakt und plex schon vor 2019 gekappt, weil mir das einen ticken zu unheimlich war, meine plex-historie ungefiltert in trakt zu leiten. bei netflix hielten sich meine bedenken in grenzen.
mit meinem selbstgebauten plex/tautulli-zu-kirby-exporter behalte ich die kontrolle und der import in die öffentliche liste klappt auch ohne drittanbieter ganz gut, fast vollautomatisch. ich muss nur noch eine wertung nachtragen.
und auch wenn ich bei der netflix → younify.tv → trakt.tv → wirres.net konstruktion weniger bis keine kontrolle habe, wollte ich diese automatisierungs-pipeline jetzt testen. dafür musste ich mir natürlich irgendeinen scheiss auf netflix ansehen.
also hab ich mir die erste folge being gordon ramsay angesehen. ich vermute das wird weder so erfolgreich wie netflix chefs table noch so ein hit wie drive to survive — auch wenn das strickmuster ähnlich ist. beim überfliegen der kritiken ist eine überschrift hängengeblieben, der ich direkt zustimmen möchte: gordon ramsay should not be so boring.
jedenfalls funktioniert der sync zwischen netflix, younify.tv, trakt.tv und wirres.net/kirby, wenn auch mit leichter verzögerung.
zum thema ex- und importe: ich habe auch ein script gefunden, mit dem sich die daten aus tautulli, also plex, mit letterboxd syncen lassen. damit habe ich jetzt lücken meiner film-timeline auf letterboxd geschlossen, auch wenn die timeline der filme die ich jemals sah auf letterboxd immer noch lücken in den letzten 10 jahren hat. schliesslich schau ich filme ja nicht nur auf plex, sondern auch auf amazon prime, im kino (gelegentlich) oder netflix. aber weils geht, weil ich daten jetzt aus plex und netflix rausbekomme, erscheint es mir logisch meine film-historie erstmal auf letterboxd zu vervollständigen. dann kann ich sie auch wieder hierher holen. aber bevor ich das mache sammel ich hier, bis auf ein paar ausnahmen — zu testzwecken — erstmal vornehmlich in 2026 gesehenes und gelesenes.
mit so einer „datenbank“ für gesehenenes und gelesenes setze ich mich übrigens auch geschickt selbst unter zugzwang. jetzt muss ich auch mal wieder ein buch lesen, damit ich es loggen kann. und damit schliesst sich der zirkel: ausgehen um drüber schreiben zu können, scheisse auf netflix schauen, ums zu prüfen ob es automatisch geloggt wird. morgens spazieren gehen um das wetter zu fotografieren und fotos und .gpx-tracks zu posten, kochen um rezepte maschinenlesbar zu veröffentlichen, schlafen, um zu sehen, wie gut der schlaftracker funktioniert. (b)loggen weil’s geht.
morgenspaziergang 24.02.2026
heute beim morgenspaziergang ein foto von der traurigen bürgerwiese gemacht und dabei gar nicht bemerkt (erst zuhause, beim bilder-sichten), wie eine wolke auf dem weg vor uns vorbeiwabberte.
→ weiterlesenlinks und likes vom 23.02.2026
ist depubizieren bildungsfeindlich?
beim medienloggen und beim tracken der sendung mit der maus von gestern, ist mir aufgefallen, wie absurd die praxis des depublizierens bei unseren öffentlich rechtlichen sendern und deren mediatheken ist.
die sendung mit der maus ist mit klassischen tracking websites trakt, imdb oder thetvdb.com kaum sinnvoll zu verfolgen. einzig fernsehserien.de hat eine akzeptable übersicht über die sendungen mit der maus. wobei die einzelnen einträge dort auch nur aus ein paar metadaten (immerhin gut gepflegt) und pressemitteilungen der ARD bestehen.
wie schön wäre es, wenn die permalinkseiten einzelner sendungen, wie die vom 22.02.2026 tatsächlich permanent wären? stattdessen wird die seite, zusammen mit dem video, am 30.03.2026 wieder verschwinden.
wenn ich es richtig verstehe, haben wir in deutschland kein öffentliches, bzw. im web zugängliches archiv des deutschen fernsehens (und der sendung mit der maus), weil verleger und kommerziele unterhaltungs und informationsanbieter der meinung sind, dass sowas schlecht für ihr geschäftsmodell sei. der politische kompromiss, der hier besteht, bedeutet, dass ein dauerhaftes archiv gesetzlich ausdrücklich untersagt ist, weil die öffentlich rechtlichen sonst den markt unangemessen beeinträchtgen würden. na gut, es gibt auch noch rechtefragen, da eine sendung mit der maus in den achtzigern wahrscheinlich nur die rechte mit den autoren, moderatoren oder komponisten der musik für die tv-ausstrahlung geklärt hat.
aber trotzdem, wie absurd: ein kulturgut wie „die sendung mit der maus“, das von der gesellschaft mit fernsehgebühren finanziert wurde, ist für die gesellschaft digital nicht als archiv verfügbar. was für eine bildungslücke, bzw. was für ein schatz das wäre, stünde uns eine gepflegte bibliothek der fernsehgeschichte zur verfügung, statt gelegentlich privat auf youtube hochgeladener schnipsel aus der öffentlich rechtlichen historie.
das ist natürlich auch besonders absurd, wenn es jetzt politische ambitionen gibt social media für junge menschen zu verbieten, aber gleichzeitig educational media für junge menschen auch nicht so richtig zu erlauben. ich weiss dass ein archiv des öffentlich rechtlichen fernsehen keine alternative zu social media ist, aber es wäre ein zeichen: bildung ist uns als gesellschaft so wichtig, dass kommerzielle interessen diesem ziel nicht im weg stehen dürfen. stattdessen lautet das signal: bildung gibt’s nur hinter bezahlschranken, als abo, als in-app-kauf. wir wollen die wirtschaft nicht mit öffentlich-rechtlichen-inhalten schwächen und nehmen dafür in kauf, das bildungsnivau der gesellschaft zu schwächen.
dust bunny
dust bunny gesehen. ich weiss nicht was das war, aber es war wirklich gut. und ich habe auch ziemlich oft gelacht.
der film hielt mich die ganze zeit über on the edge of my seat, aber nicht wegen des spannungsbogen, sondern weil das was man zu sehen bekam so unverständlich schien, dass ich weitergucken musste um zu erfahren was da eigentlich los war. es war jedenfalls keine sekunde langweilig.
man könnte vielleicht sagen, das was man zu sehen bekam war eine wilde mischung aus pipi langstrumpf und leon der profi?
mein dank an coldheat.de, dessen empfehlung ich gefolgt bin.
glückslauch
heute in der sendung mit der maus eine folge von trudes tier, die ich schonmal gesehen hatte. dieses mal musste ich aber mehrfach lachen. vielleicht habe ich auch schon beim letzten mal gelacht, aber ich erinnere mich nicht.
die folge setzt sich ziemlich klug mit aberglauben auseinander, beinahe philosophisch. am ende ist wie immer das tier das klügere, weil es bemerkt, dass die wirkung des „glückslauch“ eigentlich nur eine projektion war, die aber übergangsweise half innere kraft zu entwickeln.
die folge scheint dauerhaft (frei von depublikation) auf kika.de zu liegen, aber der einfachheit halber bette ich sie hier mit youtube (vom @diemaus kanal) ein.
morgenspaziergang 22.02.2026
frühlingshafte 6°C als wir losgingen, allerdings auch frühlingshafter dauerniesel und grauschleier über der stadt. 6 kilometer vom wedding in den prenzlauer berg gelaufen, mit der s-bahn zurück.
medientracker
eben habe ich die graham norton show gesehen, um zu gucken ob sie danach automatisch hier im blog auftaucht. tat sie.
die idee hatte ich gestern: warum nicht alle sendungen die ich gucke hier mit einem kurzen eintrag festhalten? am besten automatisch. also mach ich das jetzt.
ich mag die idee von micro-einträgen. das erzeugt zwar eine menge rauschen, aber das lässt sich auch gut ausblenden. bei bedarf lassen sich diese einträge aber auch auswerten oder für was auch immer mir einfällt verwenden. vor allem aber mag ich die idee, dass alles hier passieren zu lassen, hier also sozusagen life-logging zu betreiben. das ist ja auch was weblog ursprünglich bedeutete: sachen öffentlich, im web loggen. jetzt wo ich likes und lesezeichen hier logge, kann ich doch auch loggen was ich (fern-) sehe.
die idee mochte ich schon lange, nur stand mir die technik nicht zur verfügung. deshalb habe ich jahrelang watched.li von philipp benutzt. ich fand es in erster linie spannend zu sehen, wie viel zeit ich vor der glotze verschwende, aber watched.li half auch dabei zu vorrauszusehen, womit ich in zukunft meine zeit verschwenden konnte, welche serien und folgen bevor standen.
seit 10 jahren nutze ich neben plex auch noch tautulli, eine freundliche plex-begleit-app. im prinzip macht tautulli nichts anderes als plex zu beobachten und alles zu loggen: wer schaut wann was, was macht der server, was gibt’s neues? wenn ich zurück zu 2017 gehe, sehe ich, dass ich am 14. august 2017 game of thrones s07e05 gesehen habe. um 22:43 war ich fertig mit der folge (ist game of thrones echt schon so lange her?).
mit tautulli hab ich als eigentlich alles was ich brauche: statistiken, details zu dem was ich (mit plex) gesehen habe.
andererseits nutze ich ja nicht nur plex. ich schau gelegentlich filme im kino, auf amazon prime, netflix oder RTL+. ich bin auch nicht der einzige, der den wunsch hat das alles zu tracken. heiko hat vor ner weile beschrieben, wie er seinen medienkonsum trackt: Medien-Tracking mit Github und YAML. thomas hat sich einen recorder gebaut, mit dem er alles was er sieht und liest festhält und bewertet. und jetzt hab ich mir in den letzten 24 stunden ein medienmenü zusammengehackt. ich hab mir vorgenommen das mal ein jahr lang auszuprobieren, also wirklich alles was ich sehe oder in buchform lese festzuhalten. was ich im netz lese halte ich ich ja bereits mit lesezeichen fest.
die technik dahinter finde ich betörend einfach: für jede serienfolge, film oder buch, lege ich einen beitrag mit den wichtigsten daten an: (von) wann, was, wie lange und wie wars? die beiträge kann ich ganz normal in kirby als content anlegen, aber auch per per webhook oder per micropub.
den webhook sendet tautulli sobald ich einen film oder serienfolge zuende gesehen habe und sieht so aus:
// header
{
"X-Webhook-Secret": "GEHEIMER SCHLÜSSEL"
}
// daten
{
"title": "{title}",
"show_title": "{show_name}",
"parent_title": "{season_name}",
"episode_title": "{episode_name}",
"year": "{year}",
"type": "{media_type}",
"season": "{season_num}",
"episode": "{episode_num}",
"duration": "{duration}",
"imdb_id": "{imdb_id}",
"tvdb_id": "{thetvdb_id}",
"thumb": "{thumb}",
"datum_watched": "{stopped_unixtime}"
}
mit dem micropub-client sparkles kann ich gesehene filme anlegen.
die übersicht habe ich heute mit allem was ich 2026 gesehen habe gefüllt. die wenigen filme, die ich gesehen habe, mit sparkles, die serien manuell mit einem curl.
curl -X POST https://wirres.net/WEBHOOK-PFAD \
-H "Content-Type: application/json" \
-H "X-Webhook-Secret: GEHEIMER SCHLÜSSEL" \
-d '{
"title": "Fallout Season 2: The Strip",
"show_title": "Fallout",
"parent_title": "",
"episode_title": "The Strip",
"year": "2025",
"type": "show",
"season": "2",
"episode": "8",
"duration": "56",
"imdb_id": "tt36758871",
"tvdb_id": "",
"thumb": "https://images.squarespace-cdn.com/content/v1/51b3dc8ee4b051b96ceb10de/1755267368038-D0OLYJK9669RQ8CO6UI1/GyU3dkDasAAJ6rB.jpg?format=500w",
"datum_watched": "1770235200"
}'
mit dem curl ging das ziemlich effizient, künftig sollte der grossteil der einträge dann automatisch aus plex/tautulli kommen, den rest pflege ich dann eben manuell nach, bis ich dafür auch eine automatisierung finde.
im prinzip ist die übersicht ein (h-) feed, den man theoretisch auch abonnieren könnte, aber da muss ich mir noch was überlegen, wie man das in einen sinnvoll rauschenden rss- oder atom-fluss umwandelt.
benji, der sparkles geschrieben hat, sammelt so auch filme die er gesehen hat.
als nächstes werde ich versuchen ein paar tagesaktuelle statistiken zu erzeugen. ich finde man kann in der übersicht auch schon so einiges ablesen:
- gelegentlich binge ich serien weg
- starfleet academy hab ich nach folge 6 nicht mehr ertragen und aufgehört weiter zu sehen
- ich finde A Knight of the Seven Kingdoms richtig gut
- obwohl The North Water ziemlich gut ist, bin ich in folge 2 hängen geblieben
- ich gucke sehr viel in die glotze
kaufland berlin-wedding
morgenspaziergang zum festplatz, zurück mit bus & bahn
durch die rehberge zum berlin-spandauer-schifffahrtskanal und von der aristide-briand-brücke mit bus und bahn zurück. es war vergleichsweise warm und feucht, das eis unter dem pfützen war tückisch glatt.
um den plötzensee
links und likes vom 20.02.2026
baustellen ohne ende
nachem ich mir gestern eine möglichkeit geschaffen spaziergänge als .gpx-dateien hochzuladen und darzustellen, habe ich mal geschaut, ob ich sowas schon früher versucht habe. dabei habe ich diesen alten artikel von 2015 gefunden, der zwar eine gpx-datei erwähnt, aber nicht beinhaltet. stattdessen fiel mir auf das der artikel ein paar fehler enthielt. die videos funktionieren nicht, asides werden mittig, statt am rand angezeigt und die fotos hatten noch keine expliziten lizenz-informationen. meine imports vom alten blog in kirby funktionierten eigentlich ganz gut, aber bei einzelen details klemmte es dann doch immer wieder, auch weil ich zum zeitpunkt des ex- und imports in kirby noch nicht alle features abgebildet hatte.
beim reparieren des artikels, fiel mir dann noch auf, dass die importierten fotos tatsächlich noch ihre exif-daten in sich trugen, also lud ich die auch nach. mit den exif-infos war es kirby dann möglich automatisch eine karte der foto-orte zu generieren, die sich dann erfreulicherweise fast so aussah wie die karte, die ich vor 10 jahren aus einer .gpx-datei generiert hatte, damals boch bei einem externen dienst, der längst das zeitliche gesegnet hat.
das freute mich sehr, denn so war der alte artikel nach der reparatur besser als vorher.
das dinge im netz kaputtgehen ist unumgänglich. auch die archive.org-version des alten artikels ist nicht mehr (oder war es nie) in ordnung. deshalb, lesson learned, ist es wirklich sinnvoll alle daten, originale bei sich zu behalten, man weiss ja nie wozu sie gut sein werden. und es ist immer sinnvoll dinge ohne harte externe abhängigkeiten zu bauen. das heisst nicht, dass man nicht auch mal externe dienste nutzen soll oder inhalte dorthin aggregieren oder syndizieren sollte, sondern eben, dass man es im ernstfall eben auch selbst machen kann, ohne abhängig von einem dritten zu sein.
deshalb freue ich mich auch so einen weg gefunden zu haben eine gpx-datei hier lokal darzustellen. mit komoot könnte ich sowas per iframe einbetten, aber dann habe ich einerseits eine abhängigkeit und andererseits tracking-codes eines dritten auf meinen seiten.
andererseits spricht nichts dagegegen touren, wie die wanderung um den „de meinweg“ weiterhin mit komoot aufzuzeichnen und dort zu teilen, so lange ich sie auch als gpx exportieren kann. genau diesen export hab ich jetzt im alten artikel über die wanderung nachgepflegt. wenn dann in 30 jahren komoot nicht mehr ist, hab ich immer noch alle wesentlichen daten bei mir.
seit ich angefangen habe bookmarks (und likes) bei mir zu sammeln (bookmarks, likes, replies, alles zusammen, wirklich alles), statt in pinboard, sende ich mit diesen lese- oder like-notizen auch webmentions an die betreffenden seiten. die meisten ignorieren das aus technischen gründen (weil sie keine webmentions unterstützen), aber manche nehmen die benachrichtigung entgegen. eay.cc zum beispiel, da wurden meine bookmark-webmentions dann aber komisch dargestellt, also hat er das repariert und spass dabei gehabt.
oder gestern habe ich crowdersoup.com einen kommentar geschickt. der wurde angenommen aber jetzt muss das layout offenbar repariert werden. bei beiden war ich offenbar der erste, der sowas geschickt hat und ehrlichgesagt bin ich hier auch nicht auf alle webmention-arten vorbereitet, die mir potenziell geschickt werden können.
aber das ist eben teil des spass: build & repair as you go, probleme dann lösen, wenn sie daherkommen. oder anders gesagt: eine webseite ist eine baustelle die wirklich kein ende hat — und das ist auch gut so.
ich weiss gar nicht mehr wie ich crowdersoup.com entdeckt habe, aber ich vermute über indiewebnews. den beiträgen dort folge ich seit kurzem wieder intensiver und komme dadurch vermehrt auf webseiten die sich mit den technologien des indiewebs auseinandersetzen — oder genauer: damit ringen. der gleichzeitige vor- und nachteil der indieweb-idee ist, dass es kaum fertige lösungen gibt und man sich eigentlich alles selbst zusammenbaut. das ist ein segen und ein fluch und ich verfluche die komplexität dieses indiwweb-gedöns auch regelmässig, um dann doch immer wieder einen neuen versuch zu starten.
diese definition von marty mcguire umschreibt die idee des indieweb ganz gut, vor allem was es ist und eben nicht ist:
indieweb.org is not a presciption or a cookbook or an exercise plan. It doesn’t tell you how to “be IndieWeb”. It’s a collective memory of experiments, some successful and some not, from a group of experimenters that has changed greatly over time.
was mir aber, abgesehen von den philosophischen fragen, heute auffiel: die idee des indiewebnews-aggregators kann man eigentlich weiterspinnen. indiewebnews ist ein aggregator in dem man sich selbst einträgt, einfach indem man indiewebnews verlinkt und dann ein webmention an indiewebnews sendet (anleitung auf deutsch bei news.indieweb.org/de). dieses vorgehen macht die seite nicht 100% spam-resistent, aber mit ein bisschen moderation könnte man daraus eigentlich sehr schöne aggregatoren zu allen möglichen themen bauen. wie gesagt, seit ich den englischen kanal der indiewebnews näher verfolge, habe ich viele neue, interessante webseiten/blogs gefunden die interessante sachen schreiben oder bauen oder zeigen. vielleicht könnte man so blog-themen-hubs bauen. mir fehlt leider die strukturierte phantasie um so ein konzept zu verfeinern, aber die discoverability und sichtbarkeit von blogs und webseiten zu verbessern ist ja ein erstrebenswertes ziel.
morgenspaziergang 18.02.2026 & eine gpx-datei
kühler, aber angenehmer morgenspaziergang mit etwas neuschnee. frida fand das alles sehr gut. mir fiel auf, wie transparent die rehberge und der goethepark im winter werden. während man im sommer ja nicht durch die bäume und büsche hindurchsehen kann, öffnen sich im winter ständig neue sichtachsen.
noch spannender, heute habe ich bei crowdersoup.com eine darstellung einer wanderung gesehen (inlusive toller bilder, check it out), die mir einerseits sehr gut gefallen hat und andererseits, bei genauem hinsehen lediglich aus einer .gpx-datei besteht die per javascript als karte und höhen-diagram dargestellt wird.
ich tracke mich selbst ja ständig mit owntracks, aber der gpx-track aus owntracks heute früh hatte gerade mal 8 bis 10 datenpunkte. das ist ein bisschen zu grob. das tracking von „trainings“ mit der apple watch hingegen ist sehr hochauflösend. tatsächlich habe ich schon lange eine app namens auto export auf meinem telefon und mit der kann man jedes training auch als gpx-datei exportieren.
in kirby habe ich mir (mit coding assistenz) einen neuen block bauen lassen, in dem ich einen titel für den spaziergang eingebe und die exportierte .gpx-datei hochlade.
und voilà, nach dem klick sieht man was javascript daraus zaubert. ich finde es grandios.
→ weiterlesen
schönes bild und es erinnert mich daran, dass ich diese rolltreppe auch unbedingt mal fahren möchte. schon seit jahren.