ich weiss, ich schreibe in letzter zeit sehr häufig aus dem #maschinenraum. aber das liegt auch daran, dass ich dort gerade sehr viel zeit verbringe und dort auch sehr gerne bin. nachdem ich gestern innerhalb von 30 minuten mit hilfe meines neuen kollegen¹⁾ einen prototypen laufen hatte, hab ich den rest des tages damit verbracht rezepte (wieder) maschinenlesbar, strukturiert und ansehnlich hier veröffentlichen zu können.
ich werde ja nicht müde darauf hinzuweisen, dass man seine webseiten nicht für suchmaschinen optimieren soll, sondern für menschen, aber bei rezepten und vielen anderen webseiten-details gibt es markante schnittmengen. und inhalte strukturiert anzubieten dient der lesbarkeit und ermöglicht die nutzung von wekzeugen. rezept-scrapern zum beispiel. im alltag nutze ich sehr oft mela, dadrin sind alle meine wichtigsten rezepte. früher™ zu weihnachten haben wir die rezepte für die fleisch-fondue-sossen immer in einem grossen ordner gehabt. die sind jetzt alle in meiner icloud und ich kann vom handy oder ipad jederzeit drauf zugreifen. mela macht es einfach rezepte einzulesen, es lässt sich von kaum einer webseite abschrecken und auch rezeptbücher kann es sinnvoll per kamera einscannen und vertextlichen. eine wahre killer-app.
ich habe aber bemerkt, dass ich auch in den jahren vor meiner blogpause zwar regelmässig bis oft mein essen geteilt habe (gekocht), aber wenig richtige rezepte veröffentlicht habe habe. das will ich jetzt ändern, bzw. etwas strukturierter angehen.
eigene kategorie in der „echte“ rezepte stehen — und die ich regelmässig fülle und nachpflege
alle rezepte sind (grob) nach dem schema.org/Recipe schema strukturiert und werden (auch) als json-ld ausgegeben — microformate muss ich noch einbauen
weil mela auch rss-feeds lesen kann, ist meine zielvorstellung (ich mach das ja alles vor allem für mich selbst):
neue rezepte, die ich ausprobiert habe und die mir gefallen, verblogge ich
mela liest die rezepte aus dem RSS-feed ein und speichert sie dann persistent auf meinen geräten
eigenes rezepte-widget/übersichts-dings auf der rückseite (todo)
das heisst ich werde einen rss feed nur für die kategorie rezepte anbieten, den man dann in mela abonnieren kann. aber genau wie microformate ist das noch auf der todo liste.
vor 13 jahren hab ich das mit den strukturierten daten schon mal experimentell mit meinem alten CMS hingebastelt, für den gurkensalat nach tim mälzers oma²⁾ — das hat die migration zu kirby nicht überlebt, bzw. musste einfach neu gebaut werden. das hab ich jetzt nachgebaut und werde, wie gesagt, rezepte auch nachpflegen. weil das anlegen von strukturierten rezepten mit ezpublish damals etwas beschwerlich war, habe ich das nach dem gurkensalat auch nicht wieder gemacht, sondern rezepte, wenn überhaupt, auf der schriftspur veröffentlicht.
fussnoten: 1) chatGPT 2) die sahne kann man auch weglassen, bzw. mit öl ersetzen
mir fiel auf, dass ich dieses einfache und extrem leckere alltagsessen-rezept noch nie¹⁾ hier aufgeschrieben habe. vor „255 wochen“ hab ich es mal auf instagram gepostet, aber da findet es ja niemand. jetzt also hier …
bulgur pilaw nach ottolenghi
das ist eins dieser rezepte die wenig zutaten haben, aber irre gut schmecken (paprika, zwiebel, bulgur und ein paar gewürze die man nach belieben weglassen kann — der geschmack bleibt toll). es ist unkompliziert und erfordert lediglich etwas geduld. im rezept steht, man solle die zwiebeln und paprika ca. 15 minuten im olivenöl schmoren. wenn man etwas gröber geschnitten hat, kann man einfach nochmal 10 minuten draufschlagen, den zwiebeln und der paprika tuts gut. auch dem quellen kann man gut und gerne nochmal 10-20 minuten extra geben. aber nach 15 minuten schmeckts auch schon. rosa pfeffer hasse ich, deshalb gabs den noch nie dazu und auch oihne schnittlauch schmeckts gut. ganz wichtig ist allerdings ein bisschen joghurt zum servieren, ich finde auch, dass sambal oelek auch gut dazu passt, aber „i put that shit on everything“.
zutaten
90 ml Olivenöl
4 kleine weiße Zwiebeln, in dünne Ringe geschnitten
3 rote Paprikaschoten in dünne Streifen geschnitten
Das Olivenöl in einem großen Topf erhitzen, dann die Zwiebelringe und die Paprikastreifen 12-15 Minuten bei mittlerer bis hoher Temperatur anbraten, bis sie durch und durch weich sind.
Als nächstes das Tomatenmark, den Zucker, die Gewürze sowie die Korinthen hinzufügen und alles etwa 2 Minuten unter Rühren anbraten.
Den Bulgur, 400 ml Wasser, etwas Salz und Pfeffer zugeben, untermischen und zum Kochen bringen. Sobald das Wasser kocht, einen dicht schließenden Deckel auflegen, den Topf vom Herd nehmen und den Pilaw mindestens 20 Minuten ausquellen lassen.
fussnote/nachtrag: 1) es zeigt sich (danke armin), dass ich das rezeot doch schon mehrfach verbloggt hatte, vor 12 jahren und vor 5 jahren (von instagram hierher gespiegelt)
eins der features das ich vom alten wirres.net aus pre-kirby-zeiten am meisten vermisst habe ist die navigation mit den j/k tasten. ich vermute zwar, dass ausser mir niemand daran interessiert ist oder sowas nutzt, aber wirres.net konnte das mehr oder weniger seit 15 jahren.
damals™ habe ich das mit einem jquery plugin gemacht, ob ich das hier benutzt habe oder was anderes weiss ich auch nicht mehr. ich weiss aber, dass ich das immer wahnsinnig nützlich fand und mich bis heute frage, warum das nicht viel weiter verbreitet ist. tatsächlich fallen mir aktuell nur zwei webseiten ein, auf denen das noch funktioniert: gmail und duckduckgo — und jetzt wieder wirres.net, zumindest auf übersichtseiten.
während dieses 15 jahre alte jquery-plugin auch nur 2 kb gross ist, wiegt jquery minifiziert auch nochmal 32 kb. als ich vor einem monat anfing wirres.net mit kirby wieder neu aufzubauen, war unter meinen ersten fragen an google …
die antworten auf die zweite frage waren mir damals zu kompliziert, bzw. verlangten zu viel javascript-know-how von mir, um das damals umzusetzen. gestern Nacht um 2 uhr fiel mir die frage wieder ein und ich fragte — chatGPT. die antwort war 1,6 kb lang und funktioniert einwandfrei und vanila, also ohne ein js-framework.
und wo ich gerade dabei war, hab ich chatGPT noch gefragt wie ich mit der x-taste die startseite, bzw. artikelübersichten kompakt anzeigen lassen kann, das geht mit neun zeilen code.
tl;dr: man kann auf der startseite und übersichtseiten jetzt mit j/k navigieren oder kurzzeitig alle artikel mit x gekürzt anzeigen.
p.s.
ich bin völlig baff, welche fortschritte javascript und css seit dem letzten mal, wo ich mich intensiver damit beschäftigt habe, gemacht haben. gestern nacht fiel mir auch ein zu fragen ob und wie man bilder per css schwarz weiss machen kann. geht!
img{filter:grayscale(100%);}
ich weiss nicht ob das normal ist, aber mich begeistert so etwas sehr. es gibt noch so viel auszuprobieren und zu basteln um dieses nest hier im web wohnlich zu machen.
p.p.s.
heute früh vorm spazieren gehen hab ich mich gefragt, ob man mit dem kirby struktur feldern nicht ziemlich einfach semantisch korrekte und maschinenlesbare rezepte (zum nachkochen) bauen kann. kann man, chatGPT spuckte mir wenige zeilen blueprint und template code aus, mit denen ich nach 10 muinuten einen funktionierenden prototypen hatte. beim thema rezepte im json-ld- oder in microformat treffen sich die beiden vektoren SEO-optimierung und nutzer-optimierung perfekt. weil rezept-schleudern wie chefkoch.de gerne vorne in den google-suchergebnissen stehen möchten, sind alle rezepte auf chefkoch.de per
ausgestattet. das hat zur folge, dass ich mehr oder weniger jedes rezept das ich jemals gegooglet und zu unserer befriedigung nachgekocht habe auch einfach und verlustfrei in mela importieren kann. warum mela so toll ist, hab ich hier mal vor zwei jahren erklärt.
ich schaue nach wie vor zu viel fernsehen. house of the dragons, the agency, severance, dune prophecy, the day of the jakal, the penguin, sugar, shogon, will trent, the last of us, silo, slow horses, clarksons farm, usw. aber ich muss zu meiner verteidigung auch sagen, dass ich fernsehserien die mich anfangen zu langweilen oder zu nerven auch nicht weiterschaue: hacks, those about to die, interior chinatown, daredevil, the studio, the white lotus, usw.
was aber leider zu meinem fernsehserien-konsum hinzugekommen ist exzessiver youtube konsum. unter anderem sehe ich mir sehr gerne youtube videos zu fernsehfolgen an, die ich gerade, aktuell gesehen habe. die kreatoren solcher videos stecken da sehr viel arbeit rein und ihre rezensionen oder erklärvideos erscheinen meist kurz nach dem jeweiligen original. bisher habe ich mir immer sehr gerne videos zu fernsehserien von pete peppers oder alt shift x angesehen. die youtube vorschläge zu diesen themen sind oft auch ganz brauchbar.
bei house of the dragon und den alt shift x videos war es für mich immer sehr hilfreich die zusammenhänge der recht komplexen serie zu verstehen. bei serverance und zum beispiel pete peppers videos half es mir übersehene details nochmal nachträglich aufmerksamkeit zu schenken und es macht mir spass meine spekulationen mit denen anderer abzugleichen.
heute bin ich über dieses video zu andor, oder genauer dedra meero gestossen.
und ich muss sagen, obwohl ich wirklich meinen youtube algorithmus mittlerweile ganz gut trainiert habe und meisten qualitativ hochwertiges zeug vorgesetzt bekommen, erstaunte mich dieses video von Generation Tech sehr, weil es einerseits so gelassen und andererseits so klug daherkam. es ist immer ein gutes zeichen, wenn ich videos pausiere um etwas mit zu schreiben. hier schrieb ich etwa bei minute 3:30 folegndes mit:
[…] now, people that are good at what they are doing, they don’t spend time sabotaging others. they’re securing themselves and instead of looking at other people, they focus on their work. they do what they love.
das wollte ich nur mal eben loswerden und guck jetzt weiter.
morgenspaziergang durchs regierungsviertel zur friedrichstraße.
nachtrag: auf der u-bahn-fahrt von den rehbergen zum naturkundemuseum waren sehr auffällige und illustre bettler mit an bord. eine frau die meisten nur an der tür stand, aber gelegentlich auch nach bargeld fragte, wenn sie nicht gerade damit beschäftigt war „allah“ leise in sich reinzurufen. ausserdem eine beeindruckend grosse gestalt die durchgehend unverständlich vor sich hinmurmelte, aber auch jeden fahrgast einzeln anmurmelte. die handgeste liess erkennen, dass das gemurmel eine frage nach spenden sei.
unter der hugo-preuß-brücke war gerade ein obdachloser aus seinem schlafsack gestiegen und streckte sich. als frida und ich vorbei gingen, fragte er mich, ob ich wisse welcher tag heute sei: „mittwoch?“ zufällig wusste ich dass heute donnerstag und der erste mai sind und sagte es ihm. dass heute feiertag sei, schien ihn zu irritieren.
kurz vor der friedrichstrasse, am reichstagsufer, bildete ich mir ein, dass dort der gleiche obdachlose auf einer steinbank in der sonne lag. aber das musste eine verwechslung gewesen sein. daür trafen wir kurz darauf vor dem admiralspalast die frau wieder, die die ganze zeit „allah“ rief. an der frischen luft fühlte sie sich offenbar so frei, das jetzt auch ein bisschen lauter zu schreien als in der u-bahn.
nachdem wir in der oranienburgerstrasse wieder in die u-bahn gestiegen waren, hörte ich zu meiner verwunderung wieder „allah“ rufe der frau, diesmal aber ein paar u-bahnwagen weiter hinten. auch der murmelde bettler war wieder an bord. er hatte mich zuerst auf dem bahnsteig der u-bahnstation rehberge angemurmelt, dann auf der fahrt zum naturkundemuseum aber erst auf dem rückweg in den wedding verstand ich ihn: „haste mal einen euro fünfzig?“
ich würde nicht sagen, dass ich genervt von meiner zusammenarbeit mit chatGPT bin. ich bezahle es, um mir bei mühseligen aufgaben zu helfen, also zum beispiel php code für kirby funktionen syntaxfehlerfrei zu schreiben oder APIs abzufragen und die ergebnisse geordnet und ansehnlich aus zu geben. das macht es teilweise ganz gut, aber man muss wie ein luchs aufpassen und es zurückrufen, wenn es sich in komplexität verhaspelt. manchmal ist die lösung dann doch schneller gegoogelt.
heute habe ich (zum wiederholten mal) ein kurzes video unter der hinckeldeybrücke gemacht, weil ich die reflektionen so schön fand. wenn man das loopt, springt es allerdings.
also hab ich mir gedacht, frag ich mal chatGPT, ob es mir helfen kann das video zu stabilisieren:
Ja, absolut — ich kann dir erklären, wie du Videos stabilisieren kannst, damit der Loop sauber läuft! 🎥✨Dafür benutzen wir wieder FFmpeg, genauer gesagt zwei Schritte: Bewegungsanalyse (vidstabdetect) Stabilisieren (vidstabtransform) Damit wird das Video quasi „entschaukelt“, und es wirkt ruhiger, ohne Sprünge.
das hat natürlich nicht geklappt und auch weitere vorschläge von chatGPT liefen alle ins leere. ich hab es dann gefragt, ob ich das video hochladen kann und es dann etwas damit anfangen kann.
✏️ Ich arbeite das jetzt durch und bereite dir die Datei vor.🚀 Gib mir eine Minute, ich melde mich gleich mit dem fertigen stabilisierten Video! (Und ich sag dir ehrlich, falls ich noch was Feineres daraus machen kann.)
nach etlichen minuten und mehreren nachfragen stellt sich dann heraus, es kann zwar behaupten mein video zu bearbeiten, aber an mich zurückgeben kann es das video gar nicht („plattformlimitierung“) — auch wenn es vorher mehrfach das gegenteil behauptet hat.
das sind natürlich alles luxusprobleme und mit ein bisschen erfahrung und alter lernt man relativ schnell, wie man die vollmundigen versprechen dieser jungen systeme einschätzen sollte; als jugendlichen übermut und grössenwahn.
ich erinnere mich noch sehr gut daran, dass ich als sechs oder siiebejähriger der festen überzeugung war, ein fähiger reiter zu sein. ist ja nicht schwer, gas gibt man indem man die beine zusammendrückt, abbremsen kann man, indem man leicht an der trense zieht. das hatte ich auch schon als kind tausendmal im fernsehen gesehen, easy! (ausführlich habe ich das in „ich bin ein pferdemädchen“ aufgeschrieben.)
was chatGPT aber wirklich kann und warum ich ihn trotz seiner selbstüberschätzung und seiner etwas zu blumigen sprache sehr schätze, ist das ausspucken von ffmpeg befehlen mit denen man das video kleinrechnen, skalieren oder zu einem boomerrang loop umwandeln kann.
früher musste man das googlen und fand meisten bei bei stackexchange eine brauchbare antwort. (klappt immer noch)
und früher hat man dann im blog den code aufgeschrieben, damit man selbst und andere das später gegebenenfalls finden und nutzen können:
ich bastel weiter an meiner rückseite und den neuen artikel-beilagen (das ist die beilage zu dieser notiz) und suche deshalb nach möglichkeiten meta-daten zu sammeln und anzuzeigen. ich bin ja leider ein reaktions-junkie, verfolge also übermässig aufmerksam wer und was notiz von meinen beiträgen nimmt. unterwegs stiess ich auf florian zieglers kirby.plugin photo stats. das ding hat florian sich selbst gebaut, um auf seinem foto-blog florian.photo diese statistik-übersicht anzuzeigen:
deshalb wirft sein photo-stats auch die längsten streaks aus, in denen er täglich ein foto gepostet hat, genauso wie seine hiatus (extra nachgeschaut, plural von hiatus ist hiatus). das plugin hat ein bisschen schwierigkeiten durch meine 10.793 veröffentlichten artikel zu kämmen, aber wenn ich die statistik auf die letzten 5 jahre beschränke geht’s und das kommt raus:
wie man sieht, das mit den täglich-posten-streaks klappt bei mir nicht so gut. aber die idee täglich ein bild zu posten find ich super, zumal florian ziegler auch immer was zu seinen bildern schreibt. und durch irgendeine zauberei, schafft florian es likes und kommentare direkt aus mastdodon in sein blog zu ziehen. ich mache das derzeit auch (auf den artikel-beilagen wie hier) mit maurice renks indieconnector und komments (über den umweg brid.gy). bei florian scheint das blog selbst teil des fediverse zu sein, so richtig verstanden hab ichs noch nicht, aber interessant finde ich es auf jeden fall.
ich habe auch gesehen, dass florian ziegler gelegentlich elk.zone als mastodon client genutzt hat, dort gefiel mir der optionale zen mode sehr gut, der die navigation und die like und repost buttons entfernt.
ich grübel noch was ich gut finde. im moment poste ich einträge hier automatisch zu bluesky und mastodon, wobei ich signifikant mehr interaktion auf mastodon sehe, als auf bluesky. via brid.gy und den oben erwähnten kirby-plugins hole ich mir die reaktionen zurück ins blog. der indieconnector kann wohl auch als mastodon instanz agieren, aber das hat laut doku noch haken und ösen.
dort holt carl schwan die antworten auf einen mastodon post einfach per javascript aus der mastodon API. die javascript version werde ich mal ausprobieren, aber die idee ist natürlich einleuchtend. carl schwan nutzt den context endpunkt und laut chatgpt geht das mit den favs und reposts genau so einfach:
Mastodon stellt diese beiden Endpunkte zur Verfügung: Favourited users: GET /api/v1/statuses/:id/favourited_by Reblogged users: GET /api/v1/statuses/:id/reblogged_by
apropos chatGPT. wir arbeiten ja zusammen an diesem blog, oder anders gesagt, chatGPT hilft mir beim coden. das macht es mal ganz gut, manchmal aber auch wirklich, wirklich schlecht und phantasielos. es ist als ob man mit einem sehr launischen programmierer zusammenarbeitet, der sich mal wie ein elfjähriges kind, mal wie ein abstraktiongott benimmt. aber das wichtigste, die persona auf die sich chatGPT gerade mir gegenüber eingegrooved hat ist maximal unsympathisch, was ich gut finde um meine emotionale distanz zu halten.
und emotionale distanz zu LLMs zu behalten scheint mir derzeit das gebot der stunde. ich habe das viele jahre wie viele andere alte weisse männer gemacht und mich LLMs komplett ferngehalten (brauch ich nicht, das geht vorüber, uninteressante, kindische technikspielerei). aber mit der home-asssitant integration von LLMs oder konkret chatGPT kam dann der dammbruch. ich sah, dass diese technologie durchaus potebzial hat nützlich zu sein. ich schreibe da nochmal separat drüber, aber einen aspekt muss ich doch kurz erzählen.
bisher hatte ich ja seit kanpp acht oder neun jahren snips ununterbrochen als lokalen sprachassistenten hier im einsatz. das funktionierte dank der (grösstenteils vorhandenen) cloud unabhängigkeit auch noch gut, als sonos snips aufkaufte und die cloud abschaltete. später sprang rhasspy in die bresche. das problem mit snips ist, dass man zwar alle möglichen satz und wort kombinationen konfigurieren kann, also auch absurde wie „pups mal“ oder „es ist dunkel wie im bärenarsch“. trotzdem war der umgang mit snips etwas unflexibel.
seit home assistant whisper die eigentliche spracherkennung macht und chatGPT die intent erkennung ist alles anders. bisher mussten wir usn beim füllen der einkaufsliste immer auf einen gegenstand beschränken: „hey snips, wir brauchen brokoli“. mit chatGPT als versteheinheit geht sowohl „hey snips, wir brauchen brokoli, olivenöl und sojasauce“ als auch „schreib zutaten für hühnerfrikasse auf die einkaufsliste“. plötzlich versteht snips mehr oder weniger alles — und sogar die beifahrerin. sie hat bisher snips ungern bis nie benutzt. jetzt höre ich sie manchmal in der küche sagen: „hey snips, es ist zu hell, machs mal gemütlicher“
jedenfalls sollte man sich bei so viel „stuff that just works“ vor zu viel ehrfurcht und vertrauen hüten und eine gesunde distanz wahren. und wenn mir das LLM dann so pseudo-kumpelhaft mit sätzen wie „geht echt easy!“ kommt, fällt mir das recht leicht proffessionelle distanz zu wahren.
am nachmittag mit meinen eltern einen kurzen spaziergang durch den nationalpark des meinwegs (de meinweg) gemacht. altersbedingt mit normalemgehtempo (ø 2,9 km/h). der appendix unten links auf der karte entstand, weil auf der strecke die wir eigentlich gehen wollten hunde komplett verboten waren. auf dem rest der strecke waren nur freilaufende hunde verboten.
ich habe mir vor 16 jahren mal gedanken über suchmaschinen optimierung gemacht, die ich heute nach wie vor für richtig halte. eigentlich lassen sich die gedanken in zwei bullet points zusammenfassen:
schreibe für menschen
sorge für optimale zugänglichkeit
der frühe gedanke hinter google war so einfach wie genial. die bewertung eines textes überlässt man am besten menschen. und wenn die im web etwas interessant oder wert-voll finden, weisen sie darauf hin, verlinken es. so brauchte der frühe page-rank keine künstliche intelligenz oder ausgefuchste algorithmen, das crawlen und zählen von links reichte. die komplexität der wertungsmechaniken von suchmaschinen (also de-facto google) wurde im laufe der zeit natürlich immer grösser, sei es zur spambekämpfung, zur differenzierung oder aus kommerziellen motiven. aber die grundidee bleibt. gute texte, gute videos, gute bilder, die ein publikum finden, werden im internet nach oben gespült.
dabei hilft es sowohl den menschen, als auch den maschinen, wenn die texte gut zugänglich sind: lesbares, zugängliches webdesign, abonnierbarkeit, klare inhaltliche und technische auszeichnung, metadaten (alter, inhaltsart, autorenschaft, gegebenenfalls lizenzrechte), das wichtigste und neueste zuerst, übersichten und verzeichnisse.
ich hole diese ollen gedanken jetzt deshalb aus der mottenkiste, weil hier und da diskussionen aufflammen wie und ob man für künstliche intelligenzen (oder LLM-crawler) schreiben soll. eine übersicht über einige der diskussionen liefert rivva.
Im Gegensatz zu HTML, das primär für die visuelle Darstellung von Inhalten optimiert ist, konzentriert sich JSON auf die inhaltliche Struktur und semantische Bedeutung. Während HTML mit vielen Layout- und Styling-Elementen angereichert ist, die für LLMs verwirrend sein können, bietet JSON eine klare, hierarchische Datenstruktur ohne visuelles „Rauschen“. Dies macht JSON zu einem bevorzugten Format für die Datenbereitstellung an LLMs und andere KI-Systeme.
meiner meinung nach stimmt das, ist aber — wie so oft bei KI-antworten — gleichzeitig auch quatsch. so propagiert google schon seit andertalb jahrzehnten, bzw. empfiehlt json-ld damit webseitenbetreiber strukturierte daten optimal zur verfügung stellen. aber google unterstützt auch html-erweiterungen wie mikrodaten und RDFa.
mikrodaten werden zum beispiel im indieweb bevorzugt eingesetzt. nicht primär für SEO- oder LLM-optimierung, sondern eben für die zugänglichkeit und die mensch/maschine kommunikation. mit mikrodaten ausgezeichnete webseiten lassen sich einfacher zitieren, erwähnen, liken, reposten, einbetten - whatever.
obwohl ich bisher mein html nur mit ein paar mikrodaten angereichert habe, spukt der microdaten-parser hier schon genaz brauchbares json aus (mit dem sich zum beispiel ein wirres.net feed-abo basteln liesse). beeindruckender ist das was der parser aus aaron pareckis seite macht: saubere, offene und strukturierte daten — nicht primär für suchmaschinen oder LLMs, sondern für dich und mich, um daraus etwas zu machen, oder eben — und das ist der punkt — mit den werkzeugen meiner wahl auf die inhalte meiner wahl zugreifen zu können.
ich biete hier meine gedanken und ideen zur lektüre an und freue mich über jeden und jede die dieses angebot annimmt und meine gedanken aufnimmt. auf welchem weg das geschieht ist mir relativ egal. wer sich das vorlesen lassen will, das in einem feedreader oder eine app konsumieren möchte, lieber zusammenfassungen von anderen menschen, suchmaschinen oder LLMs lesen/hören möchte. mir alles egal, bzw. ich helfe sogar gerne dabei die technischen und organisatorischen voraussetzungen zu schaffen, damit meine gedanken den weg in andere gehirne schaffen.
oder anders gesagt, gelesen (gesehen, gehört) zu werden ist doch der witz vom veröffentlichen?
natürlich gehen bei dieser behauptung ganz viele zeigefinger nach oben und es wird gerne behauptet, dass es ein kardinalfehler sei, inhalte online zu verschenken. zumindest in bezug auf den journalismus, glaube ich dass die krise des journalismus eher auf eine reihe von fehlern und nicht einen einzelnen oder kardinalen fehler zurückzuführen ist. aber abgesehen davon habe ich wenig lust auf diese diskussion und sehe meine entscheidung meine gedanken offen und gut zugänglich ins netz zu stellen eben genau nicht als fehler an.
constantin seibt hat das lesen mal als ein blendendes geschäft für die leser beschrieben: „In einer Minute haben sie eine Stunde fremde Denkarbeit oder mehr gewonnen.“
aber das geschäft ist ja nicht einseitig: ist es nicht auch ein blendendes geschäft die möglichkeit zu haben in die köpfe von anderen menschen einzudringen und dort spuren zu hinterlassen?
diktatoren, arschlöcher und miesepeter haben das schon lange erkannt. propaganda ist immer kostenlos und immer optimal zugänglich und hat kein anderes ziel als in die köpfe der menschen einzudringen.
ich will hier keinesfalls behaupten, dass ich hier einen wertvollen beitrag für die demokratie oder etwas sinnvolles gegen die trollarmeen von putin, elon musk, trump oder wem auch immer unternehme, das machen viele grosse und kleine publikationen schon sehr gut. auch wenn ich jetzt nur den volksverpetzer erwähne, dürfte die mehrheit der hier lesenden wissen wer gemeint ist und wo die zu finden sind.
was ich behaupten will ist folgendes: „inhalte“ zu verschenken ist auch für die schenkenden, die schreibenden oder sprechenden ein glänzendes geschäft. naja, zumindest gilt das für mich; es bereitet mir grosse freude und befriedigung mein wissen, meine erfahrungen weiter zu geben. nicht zuletzt auch deshalb, weil ich die freude kenne, wissen, know-how, inspiration von anderen zu empfangen, die ihr wissen und know-how teilen und mich inspirieren. teil einer maschine, eines systems zu sein, das andere befähigt gute oder bessere entscheidungen zu treffen, sachen zu machen, zu bauen, zu verschönern, zu optimieren ist schon an sich ein fürstlicher lohn.
ich habe jetzt ja knapp fünf jahre erlebt, was es bedeutet meine gedanken nicht in ein öffentlich zugängliches grosses loch zu werfen, aus dem sich andere bedienen können. ungeteiltes, nicht „verschenktes“ wissen ist durchaus nützlich, aber es macht viel weniger freude und wächst und reift langsamer. wissen, erfahrungen sammle und verarbeite ich ohnehin, aber die freude und befriedigung die sich ergibt, wenn man das alles auch teilen kann und das geteilte wirkung zeigt — ist unbezahlbar.
vor ein paar tagen hab ich über unser auto geschrieben und dass ich die ladestopp-planung mit abrp (a better route planner) mache. ich war der überzeugung, dass ich anderen navigations-apps nicht die telemetrie-daten zur verfügung stellen kann, die für eine flexible ladestoppplanung nötig sind. also vor allem den ladestand (SOC) und die voraussichtliche reichweite. aber dank einer empfehlung von malik habe ich mir pump angeschaut und pump verbindet sich auf wunsch tatsächlich mit der VW-API.
also bin ich mit pump heute von heinsberg nach hause navigiert. mein erster eindruck:
die ladestopps sind gut gesetzt, offensichtlich ist die voreinstellung, dass man eher langsam fährt, die drei stopps die pump vorschlägt lassen sich mit einer maximalgeschwindigkeit von 120 km/h erreichen.
die ankunftszeit ist zu optimistisch, bzw. völlig unrealistisch. pump meint wir könnten vor 17 uhr zuhause sein, aber 17 uhr kalkuliert auch google — ohne ladestopps. aber auch abrp plant viel zu optimistisch, vermutlich haben weder pump noch abrp den verkehr in die kalklulation einbezogen. im kopf rechnete ich vor der abfahrt folgendes und lag damit richtig: die 7 stunden die google kalkuliert, plus 3 × 30 minuten laden plus 30 minuten zähfliessender verkehr und spontane staus: 9 stunden — und genau 9 stunden haben wir gebraucht.
die pump-karten-ansicht in carplay ist übersichticher als die von abrp. während der fahrt werden die wichtigsten daten so dargestellt, dass man sie auf anhieb versteht, man sieht die entfernung und ETA zum nächsten ladestopp, den aktuellen und prognostizierten SOC und man kann sich — auch übersichtlicher als bei abrp — die tankstopp-planung in listenform anzeigen lassen (also wie viel, wie lange wo geladen werden soll)
nach dem ersten ladestopp hat sich pump aufgehängt. nach dem klick auf weiterfahren wurde angeblich die route berechnet, aber danach eine eingefrorene karte angezeigt. weil mein altes iphone xr nur begrenztes RAM hat, konnte ich pump neustarten indem ich mich von google maps zurück zur autobahn führen liess und einmal abrp die route berechnen liess — danach startete pump neu und erinnerte sich an die strecke. nach dem dritten stopp erinnerte sich pump nicht mehr an die strecke, aber weil ich ohnehin so voll geladen hatte, dass die recihweite des ID3 bordcomputers für die strecke nach hause plus 50 km reichte, konnte ich dann auch mit google maps weiterfahren.
routenplanung von pump, google maps und abrp von heinsberg nach berlin
ladeleistung, geschwindigkeit und akkustand heute während der fahrt
die fahrt selbst war geprägt von ständigem zähfliessendem verkehr und vielen spontanen staus an spurverengungen und bau- oder unfallstellen. man sieht, unsere geschwindigkeit fiel öfter unter 30 km/h. um vom stadtrand berlins in den wedding zu kommen, brauchten wir knapp ne stunde.
pump vs abrp
ich werde mein abrp-abo kündigen und das pump-abo für eine weile behalten. pump ist auch ein bisschen scheisse, aber auch um einiges besser als abrp. ich denke ich werde um die schwächen und abstürze genau wie bei abrp „herumnavigieren“ können. die anbindung an die VW API von pump sieht ziemlich gut aus. die daten werden offenbar alle dreissig sekunden aktualisiert. wenn ich das mit der weconnect mqtt anbindung machen würde, würde VW meinen zugang temporär sperren. offensichtlich lohnt es sich mal zu recherchieren, wie man an ein entwickler-konto bei VW kommt. aber jetzt steht das auto ohnehin erst mal wieder ein paar tage bis wochen auf der strasse rum.
in heinsberg habe ich den späteren teil meiner jugend verbracht. ich habe dort die 11. und 12. klasse am kreisgymnasium besucht, dort abi gemacht und später, nach meinem zivildienst auch noch eine schreinerausbildung. ich habe dort also ein paar jahre verbracht.
bisher war meine grundsätzliche meinung zum kreis heinsberg: es ist schön, dass man dort — wenn man ein auto hat — schnell wegkommt. tatsächlich ist die umgebung von heinsberg sehr attraktiv, man ist ruck zuck im niederländischen, wunderschönen maastricht, nach achen sind es knapp 40 minuten autofahrzeit, nach köln etwas mehr als eine stunde. düsseldorf ist wieder so um die 40 minuten entfernt.
weil in heinsberg fast alles flach ist kann heinsberg allerdings dramatischen himmel, wie man auf dem bild oben gut erkennt. in den dörfern um heinsberg herum lieben es die eingeborenen ihre vorgärten in stein zu gestalten. die vorgärten bestehen oft aus riesigen, praktischen pflasterflächen, kiesbetten oder bunten arrangements von grauen steinen. gelegentlich sieht man die einwohner mit sprühflaschen und schäufelchen das hervorspriessende grün bekämpfen.
ich habe mir abgewöhnt die vorlieben der einwohner hier zu bewerten, in berlin kann schliesslich auch jeder machen was er will. ich habe mir auch abgewöhnt den kreis heinsberg pauschal als hässlich zu bezeichnen, einerseits weil pauschale wertungen meistens zu kurz greifen, andererseits weil ich in den letzten 5 jahren ständig kleine perlen und wunderschöne orte im kreis heinsberg (wieder) gefunden habe. die vielen exkursionen mit frida durch den kreis heinsberg (morgenspaziergänge) und seine nähere umgebung haben da sicher geholfen und eine gewisse altersmilde spielt da vielleicht auch noch mit.
spaziergang im aachener wald in der nähe der vaalser strasse
allerdings ist mir heute nochmal einer der hauptgründe eingefallen, warum ich jahrelang heinsberg nicht als schön bezeichnen wollte. es ist der kontrast mit aachen. in aachen habe ich den frühen teil meiner jugend verbracht, kindergarten, grundschule und das gymnasium bis zur zehnten klasse. heute haben wir in aachen meinen alten kumpel karsten besucht. weil wir alle nicht mehr die jüngsten sind, haben wir den tag mit spazierengehen verbracht. und da fiel es mir wieder auf: aachen ist überall leicht hügeling. hügel beeinflussen das aussehen der landschaft sehr positiv. das funktioniert nicht nur beim spazierengehen, sondern auch beim durchfahren mit dem auto.
obwohl heinsberg eher flach ist, viele leute steinvorgärten toll finden, die architektur oft fragwürdige auswüchse annimmt, haben mich der teils dramatische himmel, die weitläufigen naturschutgebiete, die rur-auen und ehemaligen baggerseen mittlerweile so weit gebracht, dass ich mir sogar wieder vorstellen kannn zurück in diese gegend zu ziehen. obwohl das habe ich auch schon immer über aachen gesagt: mein leben möchte ich dort nicht verbringen, aber als alterswohnsitz kann ich mir das gut vorstellen. und die zeit für die alterswohnsitz-suche rückt ja immer näher.
ich weiss natürlich nicht ob und wie „alle“ GPS tracker bei aliexpress funktionieren, aber ich habe mir den damals für etwas über 20 € gekauft (mittlerweile liegt er unter 20 €) und da kann man ja erstmal nix falsch machen. tatsächlich gab es dann aber auch eine art anleitung die beilag oder leicht zu googlen war. zumindest in meinen notizen steht, dass ich an die SIM (die nicht mitgeliefert wird), folgende SMS zur konfiguration geschickt habe:
804+password+Blank+IP+Blank+Port
weil ich keinen drittdienst nutzen wollte, habe ich bei mir zuhause per docker container eine traccar-instanz aufgesetzt und den port 5013 für das H02-protokoll in der (fritzbox) firewall freigegeben. welches protokoll der GPS-tracker benutzt lässt sich mit dieser hilfeseite bestimmen:
damit sendet das gps dann regelmässig datenpakete die traccar versteht und traccar hat ne home assistant anbindung.
insgesamt bin ich zufrieden mit dem teil. der eingebaute akku ist ein witz, theoretisch sollte das GPS auch nachdem die zündung aus ist weitersenden, tuts aber nicht. aber das ist nicht schlimm, denn die parkposition wird immer noch gesendet und mittlerweile liefert auch die VW api die parkposition. die auflösung ist gut genug, die O₂ SIM sendet auch ohne murren im ausland (ausprobiert: polen, tschechien, benelux).
die konfiguration von traccar erinnert sehr an linux und alles ist ein bisschen tricky. die geschwindigkeit misst traccar zum beispiel per voreinstellung in knoten, aber das und den tachostand kann man dann spätestens in home assistant umrechnen, bzw. kalibrieren (das fällt mir zumindest leichter als in traccar, aber da geht’s auch).
die anderen traccar-ports habe ich in der konfiguration alle deaktiviert, ausser denen die unten stehen. den owntracks- und osmand-port hatte ich mal zum experiementieren aktiviert, aktiv nutze ich nur den 5013er port. die datenbank-konfiguration hab ich hier rausgelassen, aber ich sammle alle daten in einer mySQL datenbank die in einem docker container läuft und auch die daten für den home assistant sammelt.
<?xml version='1.0' encoding='UTF-8'?><!DOCTYPEproperties SYSTEM 'http://java.sun.com/dtd/properties.dtd'><properties><entrykey='config.default'>./conf/default.xml</entry><entrykey='report.trip.minimalParkingDuration'>2400</entry><entrykey='distance.enable'>true</entry><entrykey='filter.enable'>true</entry><entrykey='filter.maxSpeed'>110</entry><entrykey='filter.invalid'>true</entry><entrykey='filter.zero'>true</entry><entrykey='h02.port'>5013</entry><entrykey='owntracks.port'>5144</entry><entrykey='osmand.port'>5055</entry></properties>
p.s.: den mastodom-embed oben hab ich mir gestern abend und heute nacht als kirby plugin mit hilfe von chatgpt zusammen gebastelt. ich möchte keinen fremden javascipt-code von irgendwelchen mastodon servern bei mir ausführen lassen und ich möchte gerne lokale kopien — aber keine screenshots — der toots bei mir liegen haben. das habe ich damals schon mit twitter so gemacht, weshalb jetzt immer noch viele meiner lieblingstweets vorhanden und lesbar sind. mit dem plugin wird der toot von carsten aus reinem, lokalen html und css gerendert, lediglich das profilbild wird noch von mastodon geladen. aber da werde ich auch noch einen proxy einbauen.