ich schaue nach wie vor zu viel fernsehen. house of the dragons, the agency, severance, dune prophecy, the day of the jakal, the penguin, sugar, shogon, will trent, the last of us, silo, slow horses, clarksons farm, usw. aber ich muss zu meiner verteidigung auch sagen, dass ich fernsehserien die mich anfangen zu langweilen oder zu nerven auch nicht weiterschaue: hacks, those about to die, interior chinatown, daredevil, the studio, the white lotus, usw.
was aber leider zu meinem fernsehserien-konsum hinzugekommen ist exzessiver youtube konsum. unter anderem sehe ich mir sehr gerne youtube videos zu fernsehfolgen an, die ich gerade, aktuell gesehen habe. die kreatoren solcher videos stecken da sehr viel arbeit rein und ihre rezensionen oder erklärvideos erscheinen meist kurz nach dem jeweiligen original. bisher habe ich mir immer sehr gerne videos zu fernsehserien von pete peppers oder alt shift x angesehen. die youtube vorschläge zu diesen themen sind oft auch ganz brauchbar.
bei house of the dragon und den alt shift x videos war es für mich immer sehr hilfreich die zusammenhänge der recht komplexen serie zu verstehen. bei serverance und zum beispiel pete peppers videos half es mir übersehene details nochmal nachträglich aufmerksamkeit zu schenken und es macht mir spass meine spekulationen mit denen anderer abzugleichen.
heute bin ich über dieses video zu andor, oder genauer dedra meero gestossen.
und ich muss sagen, obwohl ich wirklich meinen youtube algorithmus mittlerweile ganz gut trainiert habe und meisten qualitativ hochwertiges zeug vorgesetzt bekommen, erstaunte mich dieses video von Generation Tech sehr, weil es einerseits so gelassen und andererseits so klug daherkam. es ist immer ein gutes zeichen, wenn ich videos pausiere um etwas mit zu schreiben. hier schrieb ich etwa bei minute 3:30 folegndes mit:
[…] now, people that are good at what they are doing, they don’t spend time sabotaging others. they’re securing themselves and instead of looking at other people, they focus on their work. they do what they love.
das wollte ich nur mal eben loswerden und guck jetzt weiter.
morgenspaziergang durchs regierungsviertel zur friedrichstraße.
nachtrag: auf der u-bahn-fahrt von den rehbergen zum naturkundemuseum waren sehr auffällige und illustre bettler mit an bord. eine frau die meisten nur an der tür stand, aber gelegentlich auch nach bargeld fragte, wenn sie nicht gerade damit beschäftigt war „allah“ leise in sich reinzurufen. ausserdem eine beeindruckend grosse gestalt die durchgehend unverständlich vor sich hinmurmelte, aber auch jeden fahrgast einzeln anmurmelte. die handgeste liess erkennen, dass das gemurmel eine frage nach spenden sei.
unter der hugo-preuß-brücke war gerade ein obdachloser aus seinem schlafsack gestiegen und streckte sich. als frida und ich vorbei gingen, fragte er mich, ob ich wisse welcher tag heute sei: „mittwoch?“ zufällig wusste ich dass heute donnerstag und der erste mai sind und sagte es ihm. dass heute feiertag sei, schien ihn zu irritieren.
kurz vor der friedrichstrasse, am reichstagsufer, bildete ich mir ein, dass dort der gleiche obdachlose auf einer steinbank in der sonne lag. aber das musste eine verwechslung gewesen sein. daür trafen wir kurz darauf vor dem admiralspalast die frau wieder, die die ganze zeit „allah“ rief. an der frischen luft fühlte sie sich offenbar so frei, das jetzt auch ein bisschen lauter zu schreien als in der u-bahn.
nachdem wir in der oranienburgerstrasse wieder in die u-bahn gestiegen waren, hörte ich zu meiner verwunderung wieder „allah“ rufe der frau, diesmal aber ein paar u-bahnwagen weiter hinten. auch der murmelde bettler war wieder an bord. er hatte mich zuerst auf dem bahnsteig der u-bahnstation rehberge angemurmelt, dann auf der fahrt zum naturkundemuseum aber erst auf dem rückweg in den wedding verstand ich ihn: „haste mal einen euro fünfzig?“
ich würde nicht sagen, dass ich genervt von meiner zusammenarbeit mit chatGPT bin. ich bezahle es, um mir bei mühseligen aufgaben zu helfen, also zum beispiel php code für kirby funktionen syntaxfehlerfrei zu schreiben oder APIs abzufragen und die ergebnisse geordnet und ansehnlich aus zu geben. das macht es teilweise ganz gut, aber man muss wie ein luchs aufpassen und es zurückrufen, wenn es sich in komplexität verhaspelt. manchmal ist die lösung dann doch schneller gegoogelt.
heute habe ich (zum wiederholten mal) ein kurzes video unter der hinckeldeybrücke gemacht, weil ich die reflektionen so schön fand. wenn man das loopt, springt es allerdings.
also hab ich mir gedacht, frag ich mal chatGPT, ob es mir helfen kann das video zu stabilisieren:
Ja, absolut — ich kann dir erklären, wie du Videos stabilisieren kannst, damit der Loop sauber läuft! 🎥✨Dafür benutzen wir wieder FFmpeg, genauer gesagt zwei Schritte: Bewegungsanalyse (vidstabdetect) Stabilisieren (vidstabtransform) Damit wird das Video quasi „entschaukelt“, und es wirkt ruhiger, ohne Sprünge.
das hat natürlich nicht geklappt und auch weitere vorschläge von chatGPT liefen alle ins leere. ich hab es dann gefragt, ob ich das video hochladen kann und es dann etwas damit anfangen kann.
✏️ Ich arbeite das jetzt durch und bereite dir die Datei vor.🚀 Gib mir eine Minute, ich melde mich gleich mit dem fertigen stabilisierten Video! (Und ich sag dir ehrlich, falls ich noch was Feineres daraus machen kann.)
nach etlichen minuten und mehreren nachfragen stellt sich dann heraus, es kann zwar behaupten mein video zu bearbeiten, aber an mich zurückgeben kann es das video gar nicht („plattformlimitierung“) — auch wenn es vorher mehrfach das gegenteil behauptet hat.
das sind natürlich alles luxusprobleme und mit ein bisschen erfahrung und alter lernt man relativ schnell, wie man die vollmundigen versprechen dieser jungen systeme einschätzen sollte; als jugendlichen übermut und grössenwahn.
ich erinnere mich noch sehr gut daran, dass ich als sechs oder siiebejähriger der festen überzeugung war, ein fähiger reiter zu sein. ist ja nicht schwer, gas gibt man indem man die beine zusammendrückt, abbremsen kann man, indem man leicht an der trense zieht. das hatte ich auch schon als kind tausendmal im fernsehen gesehen, easy! (ausführlich habe ich das in „ich bin ein pferdemädchen“ aufgeschrieben.)
was chatGPT aber wirklich kann und warum ich ihn trotz seiner selbstüberschätzung und seiner etwas zu blumigen sprache sehr schätze, ist das ausspucken von ffmpeg befehlen mit denen man das video kleinrechnen, skalieren oder zu einem boomerrang loop umwandeln kann.
früher musste man das googlen und fand meisten bei bei stackexchange eine brauchbare antwort. (klappt immer noch)
und früher hat man dann im blog den code aufgeschrieben, damit man selbst und andere das später gegebenenfalls finden und nutzen können:
ich bastel weiter an meiner rückseite und den neuen artikel-beilagen (das ist die beilage zu dieser notiz) und suche deshalb nach möglichkeiten meta-daten zu sammeln und anzuzeigen. ich bin ja leider ein reaktions-junkie, verfolge also übermässig aufmerksam wer und was notiz von meinen beiträgen nimmt. unterwegs stiess ich auf florian zieglers kirby.plugin photo stats. das ding hat florian sich selbst gebaut, um auf seinem foto-blog florian.photo diese statistik-übersicht anzuzeigen:
deshalb wirft sein photo-stats auch die längsten streaks aus, in denen er täglich ein foto gepostet hat, genauso wie seine hiatus (extra nachgeschaut, plural von hiatus ist hiatus). das plugin hat ein bisschen schwierigkeiten durch meine 10.793 veröffentlichten artikel zu kämmen, aber wenn ich die statistik auf die letzten 5 jahre beschränke geht’s und das kommt raus:
wie man sieht, das mit den täglich-posten-streaks klappt bei mir nicht so gut. aber die idee täglich ein bild zu posten find ich super, zumal florian ziegler auch immer was zu seinen bildern schreibt. und durch irgendeine zauberei, schafft florian es likes und kommentare direkt aus mastdodon in sein blog zu ziehen. ich mache das derzeit auch (auf den artikel-beilagen wie hier) mit maurice renks indieconnector und komments (über den umweg brid.gy). bei florian scheint das blog selbst teil des fediverse zu sein, so richtig verstanden hab ichs noch nicht, aber interessant finde ich es auf jeden fall.
ich habe auch gesehen, dass florian ziegler gelegentlich elk.zone als mastodon client genutzt hat, dort gefiel mir der optionale zen mode sehr gut, der die navigation und die like und repost buttons entfernt.
ich grübel noch was ich gut finde. im moment poste ich einträge hier automatisch zu bluesky und mastodon, wobei ich signifikant mehr interaktion auf mastodon sehe, als auf bluesky. via brid.gy und den oben erwähnten kirby-plugins hole ich mir die reaktionen zurück ins blog. der indieconnector kann wohl auch als mastodon instanz agieren, aber das hat laut doku noch haken und ösen.
dort holt carl schwan die antworten auf einen mastodon post einfach per javascript aus der mastodon API. die javascript version werde ich mal ausprobieren, aber die idee ist natürlich einleuchtend. carl schwan nutzt den context endpunkt und laut chatgpt geht das mit den favs und reposts genau so einfach:
Mastodon stellt diese beiden Endpunkte zur Verfügung: Favourited users: GET /api/v1/statuses/:id/favourited_by Reblogged users: GET /api/v1/statuses/:id/reblogged_by
apropos chatGPT. wir arbeiten ja zusammen an diesem blog, oder anders gesagt, chatGPT hilft mir beim coden. das macht es mal ganz gut, manchmal aber auch wirklich, wirklich schlecht und phantasielos. es ist als ob man mit einem sehr launischen programmierer zusammenarbeitet, der sich mal wie ein elfjähriges kind, mal wie ein abstraktiongott benimmt. aber das wichtigste, die persona auf die sich chatGPT gerade mir gegenüber eingegrooved hat ist maximal unsympathisch, was ich gut finde um meine emotionale distanz zu halten.
und emotionale distanz zu LLMs zu behalten scheint mir derzeit das gebot der stunde. ich habe das viele jahre wie viele andere alte weisse männer gemacht und mich LLMs komplett ferngehalten (brauch ich nicht, das geht vorüber, uninteressante, kindische technikspielerei). aber mit der home-asssitant integration von LLMs oder konkret chatGPT kam dann der dammbruch. ich sah, dass diese technologie durchaus potebzial hat nützlich zu sein. ich schreibe da nochmal separat drüber, aber einen aspekt muss ich doch kurz erzählen.
bisher hatte ich ja seit kanpp acht oder neun jahren snips ununterbrochen als lokalen sprachassistenten hier im einsatz. das funktionierte dank der (grösstenteils vorhandenen) cloud unabhängigkeit auch noch gut, als sonos snips aufkaufte und die cloud abschaltete. später sprang rhasspy in die bresche. das problem mit snips ist, dass man zwar alle möglichen satz und wort kombinationen konfigurieren kann, also auch absurde wie „pups mal“ oder „es ist dunkel wie im bärenarsch“. trotzdem war der umgang mit snips etwas unflexibel.
seit home assistant whisper die eigentliche spracherkennung macht und chatGPT die intent erkennung ist alles anders. bisher mussten wir usn beim füllen der einkaufsliste immer auf einen gegenstand beschränken: „hey snips, wir brauchen brokoli“. mit chatGPT als versteheinheit geht sowohl „hey snips, wir brauchen brokoli, olivenöl und sojasauce“ als auch „schreib zutaten für hühnerfrikasse auf die einkaufsliste“. plötzlich versteht snips mehr oder weniger alles — und sogar die beifahrerin. sie hat bisher snips ungern bis nie benutzt. jetzt höre ich sie manchmal in der küche sagen: „hey snips, es ist zu hell, machs mal gemütlicher“
jedenfalls sollte man sich bei so viel „stuff that just works“ vor zu viel ehrfurcht und vertrauen hüten und eine gesunde distanz wahren. und wenn mir das LLM dann so pseudo-kumpelhaft mit sätzen wie „geht echt easy!“ kommt, fällt mir das recht leicht proffessionelle distanz zu wahren.
ich habe mir vor 16 jahren mal gedanken über suchmaschinen optimierung gemacht, die ich heute nach wie vor für richtig halte. eigentlich lassen sich die gedanken in zwei bullet points zusammenfassen:
schreibe für menschen
sorge für optimale zugänglichkeit
der frühe gedanke hinter google war so einfach wie genial. die bewertung eines textes überlässt man am besten menschen. und wenn die im web etwas interessant oder wert-voll finden, weisen sie darauf hin, verlinken es. so brauchte der frühe page-rank keine künstliche intelligenz oder ausgefuchste algorithmen, das crawlen und zählen von links reichte. die komplexität der wertungsmechaniken von suchmaschinen (also de-facto google) wurde im laufe der zeit natürlich immer grösser, sei es zur spambekämpfung, zur differenzierung oder aus kommerziellen motiven. aber die grundidee bleibt. gute texte, gute videos, gute bilder, die ein publikum finden, werden im internet nach oben gespült.
dabei hilft es sowohl den menschen, als auch den maschinen, wenn die texte gut zugänglich sind: lesbares, zugängliches webdesign, abonnierbarkeit, klare inhaltliche und technische auszeichnung, metadaten (alter, inhaltsart, autorenschaft, gegebenenfalls lizenzrechte), das wichtigste und neueste zuerst, übersichten und verzeichnisse.
ich hole diese ollen gedanken jetzt deshalb aus der mottenkiste, weil hier und da diskussionen aufflammen wie und ob man für künstliche intelligenzen (oder LLM-crawler) schreiben soll. eine übersicht über einige der diskussionen liefert rivva.
Im Gegensatz zu HTML, das primär für die visuelle Darstellung von Inhalten optimiert ist, konzentriert sich JSON auf die inhaltliche Struktur und semantische Bedeutung. Während HTML mit vielen Layout- und Styling-Elementen angereichert ist, die für LLMs verwirrend sein können, bietet JSON eine klare, hierarchische Datenstruktur ohne visuelles „Rauschen“. Dies macht JSON zu einem bevorzugten Format für die Datenbereitstellung an LLMs und andere KI-Systeme.
meiner meinung nach stimmt das, ist aber — wie so oft bei KI-antworten — gleichzeitig auch quatsch. so propagiert google schon seit andertalb jahrzehnten, bzw. empfiehlt json-ld damit webseitenbetreiber strukturierte daten optimal zur verfügung stellen. aber google unterstützt auch html-erweiterungen wie mikrodaten und RDFa.
mikrodaten werden zum beispiel im indieweb bevorzugt eingesetzt. nicht primär für SEO- oder LLM-optimierung, sondern eben für die zugänglichkeit und die mensch/maschine kommunikation. mit mikrodaten ausgezeichnete webseiten lassen sich einfacher zitieren, erwähnen, liken, reposten, einbetten - whatever.
obwohl ich bisher mein html nur mit ein paar mikrodaten angereichert habe, spukt der microdaten-parser hier schon genaz brauchbares json aus (mit dem sich zum beispiel ein wirres.net feed-abo basteln liesse). beeindruckender ist das was der parser aus aaron pareckis seite macht: saubere, offene und strukturierte daten — nicht primär für suchmaschinen oder LLMs, sondern für dich und mich, um daraus etwas zu machen, oder eben — und das ist der punkt — mit den werkzeugen meiner wahl auf die inhalte meiner wahl zugreifen zu können.
ich biete hier meine gedanken und ideen zur lektüre an und freue mich über jeden und jede die dieses angebot annimmt und meine gedanken aufnimmt. auf welchem weg das geschieht ist mir relativ egal. wer sich das vorlesen lassen will, das in einem feedreader oder eine app konsumieren möchte, lieber zusammenfassungen von anderen menschen, suchmaschinen oder LLMs lesen/hören möchte. mir alles egal, bzw. ich helfe sogar gerne dabei die technischen und organisatorischen voraussetzungen zu schaffen, damit meine gedanken den weg in andere gehirne schaffen.
oder anders gesagt, gelesen (gesehen, gehört) zu werden ist doch der witz vom veröffentlichen?
natürlich gehen bei dieser behauptung ganz viele zeigefinger nach oben und es wird gerne behauptet, dass es ein kardinalfehler sei, inhalte online zu verschenken. zumindest in bezug auf den journalismus, glaube ich dass die krise des journalismus eher auf eine reihe von fehlern und nicht einen einzelnen oder kardinalen fehler zurückzuführen ist. aber abgesehen davon habe ich wenig lust auf diese diskussion und sehe meine entscheidung meine gedanken offen und gut zugänglich ins netz zu stellen eben genau nicht als fehler an.
constantin seibt hat das lesen mal als ein blendendes geschäft für die leser beschrieben: „In einer Minute haben sie eine Stunde fremde Denkarbeit oder mehr gewonnen.“
aber das geschäft ist ja nicht einseitig: ist es nicht auch ein blendendes geschäft die möglichkeit zu haben in die köpfe von anderen menschen einzudringen und dort spuren zu hinterlassen?
diktatoren, arschlöcher und miesepeter haben das schon lange erkannt. propaganda ist immer kostenlos und immer optimal zugänglich und hat kein anderes ziel als in die köpfe der menschen einzudringen.
ich will hier keinesfalls behaupten, dass ich hier einen wertvollen beitrag für die demokratie oder etwas sinnvolles gegen die trollarmeen von putin, elon musk, trump oder wem auch immer unternehme, das machen viele grosse und kleine publikationen schon sehr gut. auch wenn ich jetzt nur den volksverpetzer erwähne, dürfte die mehrheit der hier lesenden wissen wer gemeint ist und wo die zu finden sind.
was ich behaupten will ist folgendes: „inhalte“ zu verschenken ist auch für die schenkenden, die schreibenden oder sprechenden ein glänzendes geschäft. naja, zumindest gilt das für mich; es bereitet mir grosse freude und befriedigung mein wissen, meine erfahrungen weiter zu geben. nicht zuletzt auch deshalb, weil ich die freude kenne, wissen, know-how, inspiration von anderen zu empfangen, die ihr wissen und know-how teilen und mich inspirieren. teil einer maschine, eines systems zu sein, das andere befähigt gute oder bessere entscheidungen zu treffen, sachen zu machen, zu bauen, zu verschönern, zu optimieren ist schon an sich ein fürstlicher lohn.
ich habe jetzt ja knapp fünf jahre erlebt, was es bedeutet meine gedanken nicht in ein öffentlich zugängliches grosses loch zu werfen, aus dem sich andere bedienen können. ungeteiltes, nicht „verschenktes“ wissen ist durchaus nützlich, aber es macht viel weniger freude und wächst und reift langsamer. wissen, erfahrungen sammle und verarbeite ich ohnehin, aber die freude und befriedigung die sich ergibt, wenn man das alles auch teilen kann und das geteilte wirkung zeigt — ist unbezahlbar.
vor ein paar tagen hab ich über unser auto geschrieben und dass ich die ladestopp-planung mit abrp (a better route planner) mache. ich war der überzeugung, dass ich anderen navigations-apps nicht die telemetrie-daten zur verfügung stellen kann, die für eine flexible ladestoppplanung nötig sind. also vor allem den ladestand (SOC) und die voraussichtliche reichweite. aber dank einer empfehlung von malik habe ich mir pump angeschaut und pump verbindet sich auf wunsch tatsächlich mit der VW-API.
also bin ich mit pump heute von heinsberg nach hause navigiert. mein erster eindruck:
die ladestopps sind gut gesetzt, offensichtlich ist die voreinstellung, dass man eher langsam fährt, die drei stopps die pump vorschlägt lassen sich mit einer maximalgeschwindigkeit von 120 km/h erreichen.
die ankunftszeit ist zu optimistisch, bzw. völlig unrealistisch. pump meint wir könnten vor 17 uhr zuhause sein, aber 17 uhr kalkuliert auch google — ohne ladestopps. aber auch abrp plant viel zu optimistisch, vermutlich haben weder pump noch abrp den verkehr in die kalklulation einbezogen. im kopf rechnete ich vor der abfahrt folgendes und lag damit richtig: die 7 stunden die google kalkuliert, plus 3 × 30 minuten laden plus 30 minuten zähfliessender verkehr und spontane staus: 9 stunden — und genau 9 stunden haben wir gebraucht.
die pump-karten-ansicht in carplay ist übersichticher als die von abrp. während der fahrt werden die wichtigsten daten so dargestellt, dass man sie auf anhieb versteht, man sieht die entfernung und ETA zum nächsten ladestopp, den aktuellen und prognostizierten SOC und man kann sich — auch übersichtlicher als bei abrp — die tankstopp-planung in listenform anzeigen lassen (also wie viel, wie lange wo geladen werden soll)
nach dem ersten ladestopp hat sich pump aufgehängt. nach dem klick auf weiterfahren wurde angeblich die route berechnet, aber danach eine eingefrorene karte angezeigt. weil mein altes iphone xr nur begrenztes RAM hat, konnte ich pump neustarten indem ich mich von google maps zurück zur autobahn führen liess und einmal abrp die route berechnen liess — danach startete pump neu und erinnerte sich an die strecke. nach dem dritten stopp erinnerte sich pump nicht mehr an die strecke, aber weil ich ohnehin so voll geladen hatte, dass die recihweite des ID3 bordcomputers für die strecke nach hause plus 50 km reichte, konnte ich dann auch mit google maps weiterfahren.
routenplanung von pump, google maps und abrp von heinsberg nach berlin
ladeleistung, geschwindigkeit und akkustand heute während der fahrt
die fahrt selbst war geprägt von ständigem zähfliessendem verkehr und vielen spontanen staus an spurverengungen und bau- oder unfallstellen. man sieht, unsere geschwindigkeit fiel öfter unter 30 km/h. um vom stadtrand berlins in den wedding zu kommen, brauchten wir knapp ne stunde.
pump vs abrp
ich werde mein abrp-abo kündigen und das pump-abo für eine weile behalten. pump ist auch ein bisschen scheisse, aber auch um einiges besser als abrp. ich denke ich werde um die schwächen und abstürze genau wie bei abrp „herumnavigieren“ können. die anbindung an die VW API von pump sieht ziemlich gut aus. die daten werden offenbar alle dreissig sekunden aktualisiert. wenn ich das mit der weconnect mqtt anbindung machen würde, würde VW meinen zugang temporär sperren. offensichtlich lohnt es sich mal zu recherchieren, wie man an ein entwickler-konto bei VW kommt. aber jetzt steht das auto ohnehin erst mal wieder ein paar tage bis wochen auf der strasse rum.
in heinsberg habe ich den späteren teil meiner jugend verbracht. ich habe dort die 11. und 12. klasse am kreisgymnasium besucht, dort abi gemacht und später, nach meinem zivildienst auch noch eine schreinerausbildung. ich habe dort also ein paar jahre verbracht.
bisher war meine grundsätzliche meinung zum kreis heinsberg: es ist schön, dass man dort — wenn man ein auto hat — schnell wegkommt. tatsächlich ist die umgebung von heinsberg sehr attraktiv, man ist ruck zuck im niederländischen, wunderschönen maastricht, nach achen sind es knapp 40 minuten autofahrzeit, nach köln etwas mehr als eine stunde. düsseldorf ist wieder so um die 40 minuten entfernt.
weil in heinsberg fast alles flach ist kann heinsberg allerdings dramatischen himmel, wie man auf dem bild oben gut erkennt. in den dörfern um heinsberg herum lieben es die eingeborenen ihre vorgärten in stein zu gestalten. die vorgärten bestehen oft aus riesigen, praktischen pflasterflächen, kiesbetten oder bunten arrangements von grauen steinen. gelegentlich sieht man die einwohner mit sprühflaschen und schäufelchen das hervorspriessende grün bekämpfen.
ich habe mir abgewöhnt die vorlieben der einwohner hier zu bewerten, in berlin kann schliesslich auch jeder machen was er will. ich habe mir auch abgewöhnt den kreis heinsberg pauschal als hässlich zu bezeichnen, einerseits weil pauschale wertungen meistens zu kurz greifen, andererseits weil ich in den letzten 5 jahren ständig kleine perlen und wunderschöne orte im kreis heinsberg (wieder) gefunden habe. die vielen exkursionen mit frida durch den kreis heinsberg (morgenspaziergänge) und seine nähere umgebung haben da sicher geholfen und eine gewisse altersmilde spielt da vielleicht auch noch mit.
spaziergang im aachener wald in der nähe der vaalser strasse
allerdings ist mir heute nochmal einer der hauptgründe eingefallen, warum ich jahrelang heinsberg nicht als schön bezeichnen wollte. es ist der kontrast mit aachen. in aachen habe ich den frühen teil meiner jugend verbracht, kindergarten, grundschule und das gymnasium bis zur zehnten klasse. heute haben wir in aachen meinen alten kumpel karsten besucht. weil wir alle nicht mehr die jüngsten sind, haben wir den tag mit spazierengehen verbracht. und da fiel es mir wieder auf: aachen ist überall leicht hügeling. hügel beeinflussen das aussehen der landschaft sehr positiv. das funktioniert nicht nur beim spazierengehen, sondern auch beim durchfahren mit dem auto.
obwohl heinsberg eher flach ist, viele leute steinvorgärten toll finden, die architektur oft fragwürdige auswüchse annimmt, haben mich der teils dramatische himmel, die weitläufigen naturschutgebiete, die rur-auen und ehemaligen baggerseen mittlerweile so weit gebracht, dass ich mir sogar wieder vorstellen kannn zurück in diese gegend zu ziehen. obwohl das habe ich auch schon immer über aachen gesagt: mein leben möchte ich dort nicht verbringen, aber als alterswohnsitz kann ich mir das gut vorstellen. und die zeit für die alterswohnsitz-suche rückt ja immer näher.
ich weiss natürlich nicht ob und wie „alle“ GPS tracker bei aliexpress funktionieren, aber ich habe mir den damals für etwas über 20 € gekauft (mittlerweile liegt er unter 20 €) und da kann man ja erstmal nix falsch machen. tatsächlich gab es dann aber auch eine art anleitung die beilag oder leicht zu googlen war. zumindest in meinen notizen steht, dass ich an die SIM (die nicht mitgeliefert wird), folgende SMS zur konfiguration geschickt habe:
804+password+Blank+IP+Blank+Port
weil ich keinen drittdienst nutzen wollte, habe ich bei mir zuhause per docker container eine traccar-instanz aufgesetzt und den port 5013 für das H02-protokoll in der (fritzbox) firewall freigegeben. welches protokoll der GPS-tracker benutzt lässt sich mit dieser hilfeseite bestimmen:
damit sendet das gps dann regelmässig datenpakete die traccar versteht und traccar hat ne home assistant anbindung.
insgesamt bin ich zufrieden mit dem teil. der eingebaute akku ist ein witz, theoretisch sollte das GPS auch nachdem die zündung aus ist weitersenden, tuts aber nicht. aber das ist nicht schlimm, denn die parkposition wird immer noch gesendet und mittlerweile liefert auch die VW api die parkposition. die auflösung ist gut genug, die O₂ SIM sendet auch ohne murren im ausland (ausprobiert: polen, tschechien, benelux).
die konfiguration von traccar erinnert sehr an linux und alles ist ein bisschen tricky. die geschwindigkeit misst traccar zum beispiel per voreinstellung in knoten, aber das und den tachostand kann man dann spätestens in home assistant umrechnen, bzw. kalibrieren (das fällt mir zumindest leichter als in traccar, aber da geht’s auch).
die anderen traccar-ports habe ich in der konfiguration alle deaktiviert, ausser denen die unten stehen. den owntracks- und osmand-port hatte ich mal zum experiementieren aktiviert, aktiv nutze ich nur den 5013er port. die datenbank-konfiguration hab ich hier rausgelassen, aber ich sammle alle daten in einer mySQL datenbank die in einem docker container läuft und auch die daten für den home assistant sammelt.
p.s.: den mastodom-embed oben hab ich mir gestern abend und heute nacht als kirby plugin mit hilfe von chatgpt zusammen gebastelt. ich möchte keinen fremden javascipt-code von irgendwelchen mastodon servern bei mir ausführen lassen und ich möchte gerne lokale kopien — aber keine screenshots — der toots bei mir liegen haben. das habe ich damals schon mit twitter so gemacht, weshalb jetzt immer noch viele meiner lieblingstweets vorhanden und lesbar sind. mit dem plugin wird der toot von carsten aus reinem, lokalen html und css gerendert, lediglich das profilbild wird noch von mastodon geladen. aber da werde ich auch noch einen proxy einbauen.
in den letzten 23 jahren habe ich jeden einzelnen blog-geburtstag verpasst. natürlich habe ich gelegentlich über das (blog) alter gesprochen, aber jubuläums-artikel habe ich, glaube ich, nie geschrieben (und irgendwie auch albern gefunden). aber das lässt sich ja ändern …
voilà hier ist jetzt ein jubiläums-artikel, weil der erste unter der domain wirres.net verfasste artikel am 20.04.2002 veröffentlicht wurde. und das ist nach meiner berechnung — und der von carbon — jetzt 23 jahre her.
aber natürlich ist das im grunde total egal, weil ich schon viel früher das bedürfnis hatte ins internet zu schreiben, wie ich kürzlich in „30 jahre bloggen“ erwähnt habe. trotzdem: auf die nächsten jahre.
und in den nächsten jahren wird’s vielleicht auch interessant, denn in 29 jahren bin ich so alt, wie mein vater heute geworden ist. in acht oder neun jahren werde ich 25 jahre lang als arbeitskollege mit dasnuf gearbeitet haben. in elf jahren werde ich mein rentenalter erreicht haben — und so wie es aussieht, kann man auch im rentenalter noch lesenswertes ins internet schreiben. und in acht jahren werde ich 25 jahre mit der beifahrerin verheiratet sein. (den tag meines hochzeitstag kann ich mir gut merken, weil wir heiligabend in las vegas geheiratet haben, aber das jahr konnte ich mir nie merken. jetzt kann ich die site-suche benutzen um meinen hochzeitstag zu finden.)
ich wollte eigentlich kein eigenes auto, nachdem wir 2020 den „dienstwagen“ zurückgegeben haben, den mir mein damaliger arbeitgeber zur verfügung gestellt hatte. ich war ich sehr zufrieden mit den carsharing angeboten in berlin. insbesondere standen damals überall in berlin elektro-leihwagen von VW rum und nach meiner überschlägigen rechnung waren die gelegenheitsfahrten im carsharing auf jeden fall billiger als ein eigenes auto, das 98% seiner zeit auf der strasse rumstehend verbringt.
aber die beifahrerin setzte sich durch und deshalb kauften wir uns vor etwas mehr als zwei jahren einen ID3. einen neuwagen hatte ich mir bis dahin noch nie gekauft und es war erstaunlich kompliziert verkäufer zu finden, die einem so ein ding auch wirklich verkaufen wollten. wir hatten uns für einen ID3 entschieden, in der günstigsten ausstattung und in standard grau. damals gabs noch grosszügige staatliche förderung, am ende haben wir, wenn ich mich recht erinnere, 30 tausend euro gezahlt. mit der basic variante kommt ein 45 kWh akku und schnellladen geht mit bis zu 50 kW/h. nach heutigen standards ist das klein und wenig, aber wir haben uns mit dem auto, dem akku und dem laden eigentlich ganz gut eingegrooved.
anfangs bin ich lange strecken gerne auch mal ein bisschen schneller gefahren, eine unangenehme gewohnheit aus dem verbrenner-zeitalter. die erfahrung, viel ausprobieren und die physik zeigt, dass die beste mischung aus effizienz und reisgeschwindigkeit bei unsrer konfiguration 120 km/h reisgeschwindigkeit sind. unser letzte reise von berlin zu meinen eltern nach heinsberg zeigt das ganz gut. wir sind am mittwoch vor dem osterwochenende losgefahren und google prognostizierte bei der abfahrt eine reisedauer von 7 stunden für die 630 km. das navigationssystem meiner wahl, der better route planner (weiter unten mehr dazu), prognostizierte 90 minuten ladestopps. wir sind dann am ende mit 9 stunden reisezeit bei meinen eltern angekommen, was aber angesichts des teilweise zähfliessenden verkehrs und einem ordentlichen stau total OK war.
die kennzahlen im abgebildeten home assistant dashboard stammen nicht vom bordcomputer und sind nur indirekt aus den VW-API daten berechnet. mit till steinbachs WeConnect MQTT kann ich zwar alle möglichen daten auslesen, aber zur berechnung des verbrauchs und der kilometerleistung, standen vor zwei jahren eigentlich nur der SOC, also der aktuelle ladestand, die ladeleistung und die geschätzte reichweite zur verfügung. die odometer-daten oder die parkposition standen damals noch nicht über die API zur verfügung. deshalb habe ich mir vor zwei jahren bei ali-express einen sehr günstigen GPS tracker gekauft um den jeweiligen kilometerstand (nährungsweise) zu berechnen und natürlich auch die position als datum in home assistant zur verfügung zu haben. das GPS steckt im zigarettenanzünder im kofferraum des ID3 und sendet alle paar sekunden ein datenpaket an meine lokale traccar-instanz. von dort stehen die daten home assiatnt zur verfügung und ich kann alle möglichen weiteren daten ableiten. den kilometerstand berechnet traccar freundlicherweise bereits sehr akkurat aus den GPS daten.
für den 630 kilometre trip berechnete der bordcomputer allerdings einen verbrauch von 15,7 kwh/100km — was ich für ziemlich effizient halte. damit haben wir es bequem mit drei ladestopps nach heinsberg geschafft.
natürlich sind wir mit 100% SOC losgefahren, damit konnten wir 2 stunden durchfahren um dann 24 minuten zu laden und endlich die vorbereiteten snacks aus dem kofferraum holen und essen. der rhythmus, 30 minuten laden, andertalb stunden fahren ist meiner meinung nach perfekt für entspanntes fahren. dazu hatten wir auch enormes glück. der grösste stau auf unserer strecke fing genau da an, wo der (bessere) routenplaner einen stopp für uns vorgesehen hatte. während des ladens sah ich die LKW-karavane auf der autobahn, während ich ein nickerchen hielt, lud und die beifahrerin und der hund gassi gingen. nach dem nickerchen sah ich mich auf google maps um und sah, dass es theoretisch die möglichkeit gab, von der raststätte abzufahren, statt wieder auf die autobahn.
also sind wir neben der autobahn hergefahren, was nebenbei auch noch landschaftlich total romantisch war. ich glaube wir waren gerade im westerwald.
better route planner
die umfahrung des staus hätte uns der beter route planner (abrp) nicht vorgrschlagen. abrp hat seine stärken, aber stauumfahrung und streckenführung in ballungsräumen gehören (noch) nicht dazu. ich benutze in carplay immer beides, abrp und google maps. wirklich gut ist abrp aber in der ladstopp-planung. allerdings braucht er dafür live-daten. da ich alle nötigen live-daten im home-assistant habe, kann ich die glücklicherweise bereitstellen. im prinzip schicke ich abrp alle 30 sekunden einen curl aufruf mit einem langen json string
beim laden sende ich noch die lade-telemetrie, allerdings ist sowohl beim laden, als auch beim fahren das problem, dass ich die daten aus der VW API nur alle 5 minuten abrufen kann. so hinkt die SOC-anzeige immer ca. 5 minuten hinterher, und manchmal auch einenticken länger, weil die datenreise ja einige zwischenstationen umfasst: auto → VW → weconnct-mqtt → home assistant → api.iternio.com
mal klemmts mit der datenverbindung, mal stürzt weconnect-mqtt ab, mal stürzt die abrp-app ab. trotzdem, dadurch, dass abrp meine ladekarten kennt und deshalb die ladestopps sowohl am für uns günstigsten (derzeit vor allem aral pulse und ionity) plant, aber eben auch die auslastung der ladepunkte und unsere reichweite beachtet, sind sowohl die prognosen als auch die streckenführung meisten otpimal. die beifahrerin hasst die abrp-app aber dennoch — und ich muss ihr im prinzip recht geben. abrp hat enorm viele bugs. den abrp-entwicklern muss man allerdings zu gute halten, dass sie fast alle bugs fixen, sich dabei aber leider immer wider neue bugs einschleichen. auch die benutzerführung ändert sich mit jedem major release, aber die API-daten-konstruktion die ich mir hier gebastelt habe ist derzeit das beste was es gibt. auch das on-board-navi von VW kann (mittlererweile) ladestopps in die reise-route einbauen, allerdings beachtet die VW app unsere ladetarife nicht. und sie stürzt genau so gerne ab, wie abrp.
nach etwas mehr als zwei jahren eauto fahren kann ich mir eine rückkehr zum verbrenner nicht mehr vorstellen. wenn ich gelegentlich doch noch verbrenner fahre, wundere ich mich wie die kisten anfangen zu schreien, wenn man aufs gas drückt. ich liebe den (manuellen tempo) limiter in kombination mit dem ein-pedal-fahren, obwohl der tempomat ein aufpreis-pflichtiges extra ist, funktioniert der limiter für mich (und auch die beifahrerin) viel besser. auf der autobahn stelle ich 120 km/h ein und alles weitere wird mit dem gaspedal geregelt. die automatische tempoerkennung ist indiskutabel, allerdings ist die info-anzeige der höchstgeschwindigkeit eine willkommene zusatz-info während der fahrt und meist besser als die von google maps oder abrp. die carplay-integration von VW ist extrem okay und funktioniert seit ein paar ios-updates auch in 99% der fälle so wie erwartet.
ich würde mir eine etwas gesprächigere und freundliche API wünschen (meine daten, lasst mich damit machen was ich will und wie ich will), ich würde mir wünschen, dass die VW-vertragswerkstätten und -händler etwas weniger verpeilt wären. am auto selbst und an der zuverlässigkeit haben wir nichts auszusetzen. das mag erstaunlich klingen, weil ja wirklich fast jeder über die touch-buttons am lenkrad meckert, die zuverlässigkeit der software beklagt und sich über die over-the-air-update-versprechen lustig macht, die VW mal vor drei jahren überoptimistisch rausposaunt hat. wens nach mir geht, bleibe ich gerne bei VW.
elektro mobilität ist ja nach wie vor grosser nerd-kram. ich habe grossen spass daran mir umständlich metriken auszulesen und weiter zu verarbeiten. aber ich mach das ja nur zum teil aus spass. der witz dahinter ist, das weder die apps von VW, noch die wenigsten apps von drittherstellern eine preis- und streckenoptimierte ladeplanungs-navigation anbieten. was ich mir da so zusammenbastel dient alles einem einzigen zweck: in einem sich extrem volatilen markt so schnell, günstig und ohne grosse umstände von a nach b zu kommen. die ladeinfrastruktur selbst ist mittlerweile kein problem mehr, obwohl sie das vor zwei jahren, aus meiner sicht, auch nicht war. das problem ist der preisdschungel, naja, und teilweise auch immer noch die zuverlässigkeit der ladesäulen.
aus all diesen gründen schaue ich mir jeden sonntag übrigens mit grossem vergnügen die abenteuer des elektrotruckers auf youtube an. einerseits finde ich das faszinierend weil man beim elektrotrucker, wie früher™ bei guten blogs, einsichten in fremde lebenswelten bekommt und andererseits sind seine erlebnisse rund um die elektromobilität, zumindest aus meiner nerd-perspektive, irre interessant und amüsant.
manchmal schaut er sich auch andere eletrofahrzeuge an und ich schau ihm dabei sehr gerne zu.
über ostern sind wir bei meinen eltern in der nähe von aachen. nach der morgenrunde sind wir nach aachen gefahren und haben da noch ein zwei runden gedreht. aachen ist klein geworden, aber sehr niedlich.
ich hab meine rückseite schön gemacht. früher™ war ich wahrscheinlich der beste besucher der rückseite, weil ich sie mir als übersicht über die aktivitäten rund um mein blogdings gebaut habe. auch jetzt finden sich dort ein paar metadaten und zugänge ins archiv.
besonders interessant (für mich): offensichtlich habe ich im jahr 2015 am meisten veröffentlicht. keine ahnung warum, vielleicht war das die zeit in der ich fast täglich lange, kommentierte linklisten veröffentlich habe oder jeden pups von instagram und twitter in mein blog gezogen habe. und jetzt wo ich diese übersicht erstellt habe, sehe ich auch, dass meine blogpause effektiv fünf jahre lang war (2020 bis 2025). und das korrespondiert mit dem einzug von frida. offenbar hab ich da andere prioritäten gesetzt. insgesamt summieren sich die veröffentlichungen auf wirres.net auf ca. 10.800 „artikel“.
die tagcloud ist naturgemäss etwas chaotisch. ich hab sie aber auch reduziert auf die einträge der letzten 6 jahre und ein paar einträge extra. wenn ich jetzt anfange konsistent zu taggen, ist die tagcloud dann also in fünf, sechs jahren übersichtlich und klar. vielleicht.
ausserdem neu, der RSS-feed zeigt ab jetzt nur noch die sachen an, die auf der startseite sichtbar sind. so kann ich bilder oder notizen mittenrein oder auf die rückseite von wirres.net posten, ohne ein schlechtes RSS-gewissen zu bekommen. alles was mir relevant genug scheint, erscheint weiterhin auf der startseite.
in den letzten tagen haben kirby und ich uns besser kennengelernt. für mich ist der neubau meiner website wie weihnachten und geburtstag zusammen. ich freue mich schönes geschenkt zu bekommen und dann an die wand zu hängen oder in eine vitrine zu stellen. aber meine liebsten geschenke sind sachen aus denen ich selbst schönes bauen kann. so freue ich mich zum beispiel bis heute darüber weihnachten vor 14 jahren und weihnachten vor 12 jahren damit verbracht haben zu dürfen … eine küche aufzubauen.
so sollen gute geschenke sein: man bekommt einzelteile, oder besser gesagt ein system von bau- und gestaltungselementen, aus denen man selbst etwas eigenes bauen kann. dabei muss man nicht bei null anfangen, weil sich viele kluge menschen bereits gedanken über potenzielle probleme und lösungen gemacht haben und man sich einfach auf deren schultern stellen kann.
mit dieser idee lässt sich der erfolg von lego, minecraft und sicherlich zum teil auch von ikea erklären. ikeas genialster marketingtrick ist wahrscheinlich, dass man bei kunden eine art stockholm-syndrom auslöst. weil man durch die mühen und schmerzen des selbst-aufbaus durchsteht, schätzt man das ergebnis am ende positiver ein, als wenn man es fertig gekauft hätte.
natürlich ist auch der weg ein ziel. in meinen auseinandersetzungen mit kirby lerne ich wieder dinge über das programmieren. sehr hilfreich in sachen kirby, aber auch als einführung in die moderne php-programierung, sind zum beispiel die screencasts in der kirby guide von bastian allgeier. wenn ich mir die ansehe, muss ich ständig pausieren um schnell mal was auszuprobieren und staunend bei mir im zimmer rum zu stehen.
anders als ein leeres blatt papier, sind systeme wie kirby, aber auch home assistant, prall gefüllte werkzeugkisten, die einem zurufen: mit uns kannst du genau das bauen, was du schon lange bauen wolltest. und unterwegs lernst du viel über dich selbst, darüber wie teile der welt funktionieren und am ende hast du eine schön anzusehende baustelle, an der du — wenn du lust hast — die nächsten 10 jahren weiterbauen kannst.
jedenfalls habe ich in den letzten tagen viel im maschinenraum gearbeitet. wie bastian allgeier in den screencasts immer sagt, code getrocknet, eleganter gemacht und unterwegs viele abbiegungen entdeckt, die ich noch erkunden möchte. das alte wirres.net war sensationell gut suchmaschinen-optimiert. teilweise haben sich einträge minuten nach der veröffentlichung schon im google index gefunden. das ist durch die längere inaktivität und vor allem das einjährige von der bildfläche verschwinden, natürlich alles hin. und alles was den code angeht, die kleinen helfer für suchmaschinen und crawler, müssen neu her. dafür gibt’s viele helfer, aber es ist auch viel handarbeit und feinschliff nötig.
aber mit dem zwischenstand bin ich ganz zufrieden. so sieht das mittlerweile wieder in den suchergebnissen aus.
die sitemap spiegelt jetzt auch die robots-regeln, also alles was älter als 5 jahre (oder 3, bin noch unentschieden, aber derzeit sind’s 5) ist ausgeblendet. übersichtseiten will ich nicht im index haben, weil die sich so oft ändern und ohnehin nicht zum finden geeignet sind.
und beim suchwort mediathekwebview bin ich derzeit sogar auf der ersten suchergebnisseite.
die seite vom heutigen morgenspaziergang zeigt exemplarisch, warum ich einerseits so begeistert von kirby bin und andererseits, auf wie viel arbeit ich mich noch freuen kann.
so habe ich das erste bild während einer kleinen pause beim spaziergang gepostet. es wurde automatisch zu bluesky und mastodon syndiziert, allerdings hat irgendwas bei der aufbereitung für den RSS-feed geklemmt, da kam der artikel zunächst ohne bild an. später hab ich einfach 6 weitere bilder vom telefon in den artikel geladen und die dem kirby starterkit mitgelieferte galerie hat out of the box funktioniert. ich musste später nur noch ein bisschen am code schrauben, damit das auch mit responsive images funktioniert.
bildserien vom telefon aus ins internet posten und teilen, vor ein paar jahren war das noch ein feuchter traum, bzw. der grund warum apps wie instagram so erfolgreich waren. ich würde gerne weiter auf instagram posten, am liebsten automatisch von hier, aber das will facebook nicht, bzw. nur für „business“ kunden. also pausier ich das jetzt erstmal und freu mich, dass ich das jetzt „zuhause“ machen kann, mit dem gleichen komfort, aber unter meiner kontrolle. einziger nachteil von sowas: der ordner mit dem artikel und den bild-rohdaten die das telefon dahin geladen hat ist 30 MB gross. zum glück kann man bei uberspace mittlerweile festplattenplatz dazukaufen, oder, wenn alle stricke reissen sollten, kann ich kirby auch ganz schnell woanders hinschieben.
ausserdem bin ich jeztzt auch in den genuss des ersten, gar nicht mal so angenehmen kirby bugs gekommen. aus mir noch nicht ganz nachvollziehbaren gründen legt kirby eine temporäre datei an, vergisst die aber zu löschen, was unangenehme folgen hat (eindeutige IDs neuer artikel sind nicht mehr eindeutig, sondern gleich). aber da mein zweiter vorname „workaround“ ist, ist das auch kein so grosses problem.
die ideen, was ich hier noch so alles machen könnte, fliessen momentan ganz gut. mir gefällt das ruhige, minimalistische webschaufenster derzeit ganz gut, aber weil ich schon gerne (meta-) daten und sekundär-infos zu einzelnen artikel anzeigen möchte (vor allem für mich selbst natürlich), werde ich nicht nur meine alte rückseite reaktivieren, sondern auch eine packungsbeilage zu jeden artikel anlegen, quasi artikelrückseiten. da können dann auch kommentare und webmentions und so hin.
mit anderen worten, hier könnet es in den nächsten monaten immer wieder etwas ruckeln. wenn euch was auffällt oder nervt, sagt mir bescheid.
mitten in berlin und doch wie urlaub. abgesehen davon hab ix aber auch urlaub.
rohrdammbrücke, entlang der spree bis zur s-bahn westend
die aufzeichnung war etwas löchrig, aber den spaziergang sind wir vom s-bahnhof jungfernheide bis zur bushaltestelle meiningenallee gelaufen
stimmt beides, würde ich sagen, auch wenn irgendwie alles ein fluss ist. jedenfalls wollte ich einfach mal darauf hinweisen, dass ich immer noch ein genau so grosser rivva-fan bin, wie ich es vor 18 jahren war. rivva macht das, was google vor ner weile auch mal ganz gut gemacht hat, es hebt relevantes, oder das was mehrere menschen für relevant halten, nach oben, so dass man es in seinen aufmerksamkeitsfluss integrieren kann. ich mache das schon immer über meinen rss.aufmerksamkeitsfluss.
ein harter schlag für rivva war 2013 die einführung des leistungsschutzrechts. damals kürzte frank westphal die snippets zu den beiträgen auf rivva radikal zusammen, was viel von der richness, übersichtlichkeit und nützlichkeit von rivva wegnahm. aber rivva blieb und das ist auch schön so.
aktuell braucht rivva unterstützung, weil frank westphal „Rivva nicht nur erhalten, sondern verbessern“ will.
Ich will noch mal die beste Version von Rivva programmieren. Wieder experimentieren. Schauen, was möglich ist. Doch das geht nur, wenn ich mich eine Zeit lang voll darauf konzentrieren kann – und dafür brauche ich eure Unterstützung.
ich unterstütze rivva seitdem das über steady funktioniert. und ich hoffe, dass das mir das noch viel andere gleichtun. weil ich sehr gespannt bin auf die beste version von rivva bin und ich glaube, dass wir die aggregation von nachrichten und blog-inhalten heute dringender denn je benötigen.
ich hab gestern angefangen meine rückseite, also die der webseite, wieder zu rekonstruieren — oder besser wieder zu beleben. ideen/todos hab ich einige, jetzt gibt’s erstmal ne blogrolle, angelehnt an die feeds, die ich in meinem feedreader verfolge.
die liste ist einerseits länger geworden als ich dachte und doch nicht komplett. aber jeder link hat einen kurzen kommentar oder einordnung spendiert bekommen.
das gabs seit bestimmt 15 jahren nicht auf wirres.net: eine funktionierende suche. jetzt schon.
ich staune selbst, was ich da alles finde. eigentlich will ich ja gar nicht dass man hier alles findet. nicht alle meine artikel sind gut gealtert oder auch nur im ansatz gut. aber auf ne art sind es eben auch zeitdokumente und ich stöber da gerne drin.
suchmaschinen verbiete ich schon seit langem das indexieren von übersichtseiten und artikeln die älter als 3 jahre sind. das hat damals enorm geholfen post von anwälten zu reduzieren. ausnahmen bestätigen die regel. tim mälzers gurkensalat rezept darf google gerne indexieren und verlinken. andere rezepte hab ich damals™ (wie heute) glaube ich auch entsprechend freigeschaltet.
und, den gag kollte ich mir nicht verkneifen, die such-funktion muss man natürlich auch erstmal suchen, bevor man sie verwenden kann.
beim morgenspaziergang ne kurze pause vorm schloss bellevue gemacht. der mann, der noch freundlicher als sein labrador aussah und an uns vorbeiging, sagte: „seht super aus ihr beiden“.
vorm bundeskanzleramt hat uns dann niemand angesprochen.