wurden wir dann für kurze zeit, so vor neun jahren stellte vine dann seinen dienst ein, ein paar monate nach der gründung wurde vine von twitter gekauft.
ich weiss nicht genau wieso ich gestern an vine gedacht habe, aber meine erinnerungen sind positiv. ich habe mal ein einigermassen witziges video dort gepostet und ich erinnere mich, dass die sechs sekunden beschräkung ein toller motor für kreativiät war und viele posteten damals extrem luustige sachen. ich dachte wahrscheinlich, schade dass das alles weg ist.
und dann dachte ich, mal schauen, ob vielleicht doch noch was da ist. teile von vine schienen noch zu funktionieren, aber an die video-dateien schien ich nicht dranzukommen. dann fand ich diese seite des archiveteams: wiki.archiveteam.org/index.php?title=Vine
dort stand beschrieben …
Sometime ca Jan 3 2025 the site showing the videos finally broke, though it is accessible via a DNS hack.[3]
der dns hack ist folgendes in die /etc/hosts datei einzutragen:
damit funktionieren die embeds sogar teilweise wieder. mit dem rest der anleitung konnte ich dann die metadaten und video-dateien meiner wenigen embeds „retten“ und diese beiträge auf wirres.net mit vine-embeds wieder „rekonstruieren“:
vor 11 jahren haben dasnuf und ich uns gegenseitig bei der arbeit gefilmt. damals und auch im nachhinein ist das schon ein bisschen witzig, vor allem wenn man bedenkt, dass wir immer noch arbeitkolleginnen sind.
nachtrag: im wikipedia-artikel über vine steht, dass sowohl kack dorsey als auch elon musk von plänen gesprochen haben, vine wieder zu reaktivieren oder zugänglich zu machen. da bin ich mal gespannt ob und wie da was draus wird.
ich habe eine seite angelegt, auf der alle gifs aufgelistet sind, die ich hier auf wirres.net bisher benutzt habe: alle gifs auf wirres.net
eigentlich nutze ich schon lange keine gifs mehr, sondern loope kleine video-dateien (ein mp4 mit den attributen autoplay loop muted playsinline). das klappt in fast allen modernen browsern und ist effektiver als gifs, die meist ein mehrfaches an dateigrösse mitbringen. das machen die grossen plattformen auch schon seit längerer zeit (ca. 2014 fing twitter damit an).
aber ich habe jetzt wieder angefangen gifs zu benutzen als fallback für die video-dateien im RSS-feed. da die meisten anbieter von rss-readern video-attribute ausfiltern, funktionieren die videodateien im feed meistens nicht. also gebe ich per RSS gifs, statt video-loops aus — wenn ich nicht vergesse das gif-fallback zu erzeugen und hochzuladen.
ein mp4 zu einem anständigen gif umwandeln geht mit diesem script ganz einfach (wenn ffmpeg installiert ist):
das script analysiert zuerst die farben des videos und passt die (eingeschränkte) farbpalette für das gif entsprechend an.
beispiel:
mp4 (899 kb)
gif (5 mb)
das schöne an gifs ist, dass sie (weiterhin) überall funktionieren. andererseits funktionieren mp4s auch fast überall, ich kann sie bei bluesky hochladen und in den meisten mastodon cients werden sie auch bewegt angezeigt. aber trotzdem fand ich es (für mich) praktisch eine übersicht über meine verwendeten echten gifs zu haben.
und kein artikel über gifs, in dem ich nicht auf das nach wie vor grossartige, 2015 eingestellte IF WE DON'T, REMEMBER ME. (iwdrm), wo irgendwer mit viel geduld subtil bewegte einzelbilder animierte und als gifs veröffentlichte. ich bin nach wie vor ein sehr grosser fan dieser animationen.
mein workflow um „live fotos“ vom iphone hier zu posten geht übrigens so:
live foto auf dem iphone zu einer „endlosschleife“ machen
airdrop auf den laptop (kommt als mp4 an)
mp4 in pixelmator öffnen und auf ca. 1000-1500 px breite skalieren
optimiertes jpg als poster-bild speichern
mp4 in pixelmator als optimiertes mp4 speichern (oder mit ffmpeg oder mediacms fürs web optimieren)
mit kirby baue ich dann ein figcaption-video-html konstrukt das in etwa so aussieht:
in den letzten tagen habe ich oft mit gemini über maschinenlesbaren code und meine implementierung davon hier auf wirres.net geredet. die implementierung mache ich mir cursor, was wiederum im hintergrund verschiedene agenten für das coding selbst nutzt. von daher ist es wahrscheinlich nicht schlecht, die arbeit von cursor nicht nur selbst zu reviewen, sondern auch noch weitere meinungen, diagnosen und einschätzungen einzuholen.
es zeigt sich, nicht alles was validiert ist auch unbedingt richtig. ein paar sachen funktionieren bereits richtig gut und google (der suchbot, der indexer, whatever) versteht hier und da meine inhalte, oder besser, meine intention. an anderen stellen klemmt es noch. so erkennt google ein paar meiner bilder als cc lizensiert, aber nicht alle.
ich finde das alles irre spannend, weil ich google bei der arbeit zugucken kann, erkenne wo noch verständnisprobleme stecken und was gegebenenfalls optimiert oder angepasst werden muss.
eben habe ich gemini gefragt, wie es die relevanz von maschinenlesbarer auszeichnunng von webinhalten insgesamt bewertet. der grösste faktor dürfte weiterhin google sein, das mit der rich-result-anzeige eine dicke, fette karotte in der hand hält, die es vor die nasen von website-betreibenden halten kann.
aber dieses argument, dass sich gemnini ausgedacht hat finde ich faszinierend. nämlich das maschinenlesbarer code auch eine antidot gegen ironie sein kann, ein faktenbett, mit dem ironie besser kontextualisiert werden könnte.
[Maschinenlesbare Auszeichnungen sorgen dafür], dass auch die dümmste KI kapiert, dass dein Verriss eigentlich eine 5-Sterne-Empfehlung ist. JSON-LD ist der einzige Ort im Internet, wo Ironie verboten ist – und genau das brauchen Maschinen.
das ist die detailierte herleitung:
Fakten vs. Nuance: Dein Blog ist ironisch ("fachblog für irrelevanz", "werbung ohne werbung"). Ein Mensch versteht die Ironie. Eine KI könnte verwirrt sein.
Text: "Die Mühle ist hässlich, aber mahlt super."
JSON-LD: reviewRating: 5.
Das JSON liefert der KI die "Ground Truth" (die faktische Wahrheit). Es reduziert das Risiko, dass die KI deine Ironie missversteht und sagt: "Der Autor hasst die Mühle."
instagram nutzt wohl auch json-ld, wer hätte das gedacht? eigentlich ist instagram dafür bekannt sehr aggressiv gegen scraping vorzugehen. von der instagram-webseite kann man mit bordmitteln keine bilder sichern oder kopieren und selbst um an die eigenen inhalte zu kommen muss, man technisch sehr tief gehen und bekommt dann ständig auf die nase.
instagram nutzt json-ld, allerdings sperrt es offenbar alle user-agents ausser denen von google aus.
wenn ich diesen instagram-beitrag von mir im browser aufrufe enthält der quelltext keine json-ld (keine maschinenlesbaren infos)
bemerkenswert: die im json-ld ausgegebenen bildurls scheinen permanent zu funktionieren, ein privileg, das instagram offenbar lediglich google gönnt: testlink. bildurls die man instagram aus der entwicklerkonsole entlockt, verlieren ihre gültigkeit nach ein paar stunden (testlink) (noch halten beide links).
das ist so ähnlich wie das was der spiegel mit seinen videos veranstaltet. otto-normal-besucher bekommt die videos nur mit werbung versehen zu gesicht, google darf die werbefreie quelldatei aus den maschinenlesbaren metadaten ziehen. die karotten die google websitebetreibenden oder hier instagram und dem spiegel verspricht, verleiteten beide zur diskriminierung von menschen und maschinen, wobei instagram zusätzlich auch noch nach herkunft diskriminiert (google only).
Die Plattform erstellt(e) offensichtlich automatisch Überschriften und Beschreibungen für Nutzer-Posts, damit diese besser bei Google ranken. […] Viele Nutzer fühlen sich dadurch falsch dargestellt und haben keine Kontrolle darüber, wie ihre Inhalte im Netz präsentiert werden. Gerade bei sensiblen Themen oder kreativen Inhalten kann das schnell problematisch werden.
als ich das gelesen habe, dachte ich natürlich wie schön es wäre, wen man bilder und filme einfach bei sich auf einer eigenen webseite hosten könnte, auf einer webseite die man unter kontrolle hat und selbst bestimmen kann, was die maschinen zu sehen bekommen und was nicht.
ich poste mittlerweile nur noch sporadisch auf instagram. die insights, die instagram mittlerweile jedem zugänglich macht, zeigen auch, dass meine bilder dort ohnehin nur an wenige meiner follower ausgespielt werden. möchte ich dass mehr meiner follower die beiträge sehen, muss instagram schon sehr gut gelaunt sein oder will werbegeld von mir.
ich mag meinen workflow hier im blog mittlerweile lieber, als das mal-eben-schnell-posten auf instagram:
ich kann lizenzinfos anhängen und die lizenz und zugänglichkeit meiner bilder selbst steuern
ich kann schlagworte, links, text, video, geodaten frei schnauze benutzen
ich kann einmal für alle bilder alt-texte setzen und beiträge und bilder dann inklusive der alt-texte zu mastodon und bluesky „syndizieren“
ich kann meta-beschreibungen, titel nachträglich ändern und die präsentation, anordnung, grösse der bilder auch komplett selbst bestimmen
der preis dafür (alles selbst bestimmen zu können) ist etwas weniger reichweite und gefühlt eine etwas geringere „interaktion“.
für mich das stärkste argument bilder und filmchen selbst zu hosten, unter eigener kontrolle, ist die gestaltungsmacht über alles, zum beispiel mein archiv zu haben. die halbwertszeit eines post hier im blog dürfte sich nicht gross von der halbwertszeit eines beitrags auf instagram, mastodon oder bluesky unterscheiden. mit anderen worten: kaum jemand schaut sich beiträge an, die älter als 24 stunden oder eine woche sind. aber wenn ich will, kann ich (und jeder andere) schauen, was ich im dezember 2012 so getrieben habe. ich kann alte beiträge von mir einfach einbetten, ohne mir einen haufen tracker von einem dritten ins haus zu holen.
wo war ich? ach ja. mir fiel heute auf, deshalb die überschrift „mit einer maschine über maschinenlesbarkeit reden“, wie viel vergnügen es mir bereitet mit gemini oder cursor über solche technischen details zu plaudern. ich bilde mir ein, die maschinen haben interesse an solchen detail-diskussionen und ich muss keinen menschen mit solchen gesprächen langweilen. wobei ich mich natürlich schon frage, wer diesen text, ausser ein paar maschinen, bis hier überhaupt gelesen hat?
vor langer, langer zeit (1997) haben sich verschiedene interessenverbände aus dem bereich der fotografie und des journalismus darauf geeinigt, wie man manipulierte, gephotoshoppte oder nachträglich veränderte (manipulierte) bilder kennzeichnen wolle:
Memorandum
zur Kennzeichnungspflicht manipulierter Fotos
Jedes dokumentarisch - publizistische Foto, das nach der Belichtung verändert wird, muß mit dem Zeichen [M] kenntlich gemacht werden. Dabei spielt es keine Rolle, ob die Manipulation durch den Fotografen oder durch den Nutzer des Fotos erfolgt.
Nach Pressekampagnen haben sich bisher folgende Publikationen bereit erklärt, manipulierte Fotos zukünftig mit dem Symbol [M] zu kennzeichnen: stern · Süddeutsche Zeitung · Brigitte · Handelsblatt · Heilbronner Stimme · taz · Autoforum · Comopolitan · Das Sonntagsblatt · Amica · Fit for Fun · Max · Cinema · TV Spielfilm · Bellevue · Der Tagesspiegel. Die Initiative im Grundsatz begrüßt haben: GEO · DER SPIEGEL · DIE WOCHE · Frankfurter Rundschau · DIE ZEIT.
wer sich jetzt wundert und fragt: „[M]? nie gesehen, nie gehört“, dem kann ich sagen: das memorandum scheint ein rohrkrepierer, bzw. eher ein obliviorandum gewesen zu sein. dieser artikel von maria jansen vom april 2000 legt nahe, dass die verleger das im detail zu kompliziert fanden:
Die Verlegerverbände BDZV und VDZ konnten sich bislang nicht zur Unterstützung des Memorandums durchringen. »Wir konnten uns in der verbandsinternen Diskussion nicht auf eine verbindliche Definition einigen, wo die kennzeichnungspflichtige Manipulation anfängt«, erinnert sich VDZ-Jurist Arthur Waldenberger an Diskussionen im Verlegerkreis. Einen Leserschutz »im Sinne der Glaubwürdigkeit der Printmedien in Abgrenzung zu anderen Medien« erachte der VDZ zwar für wünschenswert. Doch eine Verbandsempfehlung habe er nicht aussprechen können. »Wir haben es den Mitgliedern jedoch freigestellt, sich dem Memorandum anzuschließen.«
Der BDZV hingegen lehnt die [M]-Kennzeichnung bislang als inakzeptabel ab. Angeblich befürchten die Zeitungsverleger, dass eine Vielzahl von Fotos unter die Kennzeichnungspflicht fallen würde, da sehr häufig Details verändert würden, was zu einer Verunsicherung der Leser führen könnte. Außerdem sähen sich die Zeitungen nicht in der Lage, ihren Lesern den Sinn der Kennzeichnung zu erklären.
und tatsächlich wird das ja wirklich ganz schnell sehr philosophisch. eigentlich müsste jedes bild aus einem modernen smartphone heutzutage mit einem [m] gekennzeichnet werden, weil die geräte nach der belichtung heftig am bild rumoptimnieren (HDR, entrauschen, tiefenunschärfe, belichtungs- und farbkorrektur, nachschärfung, siehe auch diesen artikel zu „computational photography“).
wer hätte gedacht, dass uns fotoapparate eines tages vor philosophische dilemmata stellen würden, bzw. dass wir (und die verleger) plötzlich vor ontologischen grundsatzfragen stehen: „was ist ein foto?“
zu einem pragmatischem ansatz konnte man sich bis heute offensichtlich weder in verlegerkreisen, noch in den „wichtigsten“ interessenverbände im bereich der fotografie und des journalismus durchringen. und jetzt steht das problem, wegen KI dringender denn je wieder an der tür.
als ich vor 20 jahren zum ersten mal von diesem memorandum gehört habe, entschloss ich mich manipulierte fotos konsequent in der bildunterschrift mit einem [m] zu kennzeichnen. ganz unphilosophisch, immer dann, wenn ich das bild absichtsvoll manipuliert habe. natürlich habe ich das im laufe der jahre auch wieder vergessen, aber hiermit möchte ich mich selbst daran erinnern, manipulierte bilder (einigermassen) gut sichtbar mit [m] zu kennzeichnen. mit ki bildern sollte das genausoleicht gehen: [ki]
theoretisch wäre so eine kennzeichnung auch perfekt für maschinenlesbares gedöns. json-ld kann das wohl nicht — zeigt zumidnest oberfächliche recherche. lizenzinformationen kann man mit json-ld auszeichnen, hinweise auf ki-generierte inhalte sollen wohl in den IPTC metadaten von fotos untergebracht werden. stand jetzt ist jedenfalls bei chatgpt, dass bilder die es genereriert nicht von chatgpt mit diesen metadaten versehen werden. auch hier sind diejenigen die solche bilder verwenden in der selbstverpflichtung.
nachträglich gesehen ist es auch sehr praktisch, dass ich manipulierte bilder über die jahre nicht nur in der bildunterschrift kennzeichnete, sondern meistens auch so verschlagwortete: [m]
so hab ich heute wieder einige, teils sehr kindische, mainpulationen wiedergefunden.
patriotischer joghurt [m]
für weitere kindische bildmanipulationen siehe auch:
für alle die fleisch lieben der anus mit saftigem anus beef [M]
anus|ˈānəs| noun Anatomy & Zoology the opening at the end of the alimentary canal through which solid waste matter leaves the body. ORIGIN late Middle English : from Latin, originally ‘a ring.’ (New Oxford American Dictionary)
Anus [lat.] m. Gen. - Mz.Ani After (Knaurs Rechtschreibung)
vor langer zeit, als es noch keine mobiltelefone gab, habe ich regelmässig öffentliche telefonapparate benutzt. münzfernsprecher standen überall rum, aber gerade an viel besuchten orten, zum beispiel bahnhöfen, war es manchmal gar nicht so einfach einen freien apparat zu finden. irgendwann in den neunzigern kamen dann telefonkarten auf. man kaufte sie mit guthaben und steckte sie in öffentliche kartentelefone wo dann das guthaben beim telefonieren reduziert wurde. die kartentelefone sahen etwas moderner als die münzfernsprecher aus und waren rund.
das eigentlich interessante war aber, dass in den ersten jahren sehr wenige menschen telefonkarten hatten, weshalb man an kartentelefonen meistens telefonieren konnte, auch wenn schlangen vor den münzfernsprechern standen. gelegentlich werden early adopter belohnt.
mit json ld, also bestimmte inhalte auf dieser webseite maschinenlesbar auszuspielen, bin ich zwar kein early adopter, aber offensichtlich einer der wenigen adopter.
vor ein paar tagen hab ich erklärt, warum ich die maschinenlesbarkeit meiner website für sinnvoll halte und warum ich das eigentlich nur in zweiter oder dritter linie als optimierung und in erster linie als experiment sehe: zwischenstand search engine experimentation (SEE)
auf gewisse weise ist ein teil des experiments geglückt. dadurch dass ich rezepte auch maschinenlesbar als json-ld ausspiele, hab ich es mit meinem reproduzierten schwarzbrotrezept nach dem plötzblog auf die erste seite, in ein karussel, einer suche nach „schwarzbrot“ und „plötzblog“ geschafft. und das obwohl wirres.net google so egal ist, dass es bei einer solchen suche eigentlich noch nicht mal auf den ersten 30 seiten auftauchen würde.
suche auf google.com nach „schwarzbrot“ und „plötzlog“ mit rezept-anzeige in einem „karussel“
suche auf google.com nach „schwarzbrot“ und „geissler“ mit rezept-anzeige in einem „karussel“
es scheint einfach mein glück zu sein, dass sehr wenige leute ein plötzblog schwarzbrot rezept mschinenlesbar veröffentlicht haben. noch nicht mal lutz geißler selbst, der betreiber des plötzblog. ein bisschen so, wie früher mit den telefonkarten, wo ich telefonieren konnte, obwohl die telefone überlaufen waren.
ausser google scheinen sich andere suchmaschinen wenig für meine maschinenlesbare rezepte zu interessieren. bing ist zwar sehr grosszügig mit meiner platzierung direkt unter dem plötzblog auf der ersten ergebnisseite, ignoriert aber (noch?) mein json-ld. für den brotdoc, der seine rezepte auch per json-ld ausspielt, stellt es das rezept sehr explizit auf der suchergebnisseite dar.
suche auf bing nach „schwarzbrot“ und „plötzblog“
„rich-rezept“-anzeige für den „brot-doc“ auf einer bing-suchergebnisseite
kagi.com, die kostenpflichtige suchmaschine die john gruber immer wieder empfiehlt, plaziert wirres.net auch sehr weit oben, ignoriert aber auch (noch?) die maschinenlesbare rezept-auszeichnung. dafür phantasiert es aber zwei tracker herbei („Fingerprinting, Google, Email“) die es hier eigentlich nicht gibt, ausser ich habe etwas übersehen (bin dankbar für hinweise).
kagi-suche nach „schwarzbrot“ und „geissler“, inklusive falscher warnung vo trackern auf wirres.net (den font, bzw. das abgeschnittene *geissler* „g“ auf der grünen fläsche, würde ich gerne als minderwertiges grafikdesign oder „inferior font“ melden, dafür gibt’s aber keinen button)
ich hab laut meinen messungen in den vergangenen 7 monaten 18 kilo abgenommen. vom 29.07 bis zum 03.10.2025 habe ich semaglutid (ozempic) gespritzt. im schnitt hab ich 2 ½ kilo pro monat abgenommen. heute hab ich zum ersten mal unter 94 kilo gewogen. aus meinem körper ragen knochen, an die ich mich gar nicht mehr erinnere.
ich nehme kaum noch zucker oder süsses zu mir, obwohl ich das nougat aus dem adventskalender, das die beifahrerin nicht mochte, gegessen habe, was mir aber nur halb so gut geschmeckt hat wie die 250 gramm quark, die ich jeden mittag mit einem haufen TK-obst (kalt passierte mango, him- oder blaubeere) mit süssstoff und etwas sahne, milch oder kokosmilch zu mir nehme. ich esse ca. 500 gramm sambal olek pro monat und verzichte eigentlich auf nichts. morgens esse ich nach einer stunde spaziergang nach wie vor deftig, entweder reste vom vorabend, käsebrot, rührei oder salziges müsli (gemüsesalat). abends viel (saisonales) gemüse, aber gerne auch überbacken mit käse, nudeln, pommes oder gerösteter spitzkohl mit humus.
ich esse allerdings mehr oder weniger nur halb so grosse portionen, bzw. eine portion statt zwei, ein käsebrot statt zwei. bier habe ich grösstenteils auf alkoholfrei umgestellt, sonst, wie mein leben lang, wasser aus der leitung und espresso mit kuhmilch, jetzt allerdings ohne zusätzlichen zucker neben dem milchzucker.
die 300,00 € die ich für eine pakung ozempic ausgegeben habe, waren eine gute investition und hätten sich allein durch den weniger gekauften käse bezahlt gemacht, wenn ich nicht so viel mehr TK-obst essen würde, was auch nicht gerade billig ist.
beide sätze sind wahr: ich verzichte auf nichts. weniger essen und den zucker weglassen fühlt sich nicht wie verzicht an.
ich sehe keinen grund warum ich das nicht die nächsten 20 oder 30 jahre so weiter machen sollte.
aus dem maschinenraum
ich habe vor sechs jahren eine unserer waagen umgebaut, damit sie wifi spricht und die wäägungen an home assistant weitergibt. um die daten an die apple health app weiter zu geben, nutze ich ifttt (home assistant triggert einen ifttt web-hook). das ist ziemlich praktisch. ich wiege mich morgens nach dem aufstehen, nach dem spaziergang und gelegentlich auch tagsüber. apple health macht einen guten job aus den werten glatte kurven zu machen und alles in durchschnittswerte zu verrechnen. aber homeassistant speichert langfriste statistiken auch bereits normalisiert und um an die monatswerte zu kommen, habe ich diese SQL-abfrage gemacht (2008 ist die metadata_id des gewichtssensors).
SELECTDATE_FORMAT(FROM_UNIXTIME(s.start_ts), '%Y-%m') AS monat,
AVG(COALESCE(s.mean, s.state)) AS durchschnitt
FROMstatistics s
WHEREs.metadata_id=2008ANDCOALESCE(s.mean, s.state) IS NOT NULLANDs.start_ts>= UNIX_TIMESTAMP('2025-01-01 00:00:00')
ANDs.start_ts< UNIX_TIMESTAMP('2026-01-01 00:00:00')
GROUP BY monat
ORDER BY monat;
das diagram hab ich dann aus den 12 werten in apple numbers gebaut. um die grafik aus numbersmit transparentem hintergrund rauszubekommen, hab ich die grafik einfach per copy 6 paste in pixelmator kopiert. man kann die numbers datei auch als pdf exportieren und mit pdf2svg (brew install pdf2svg) in ein SVG umwandeln.
svg version des gewichtsdiagrams
wichtig war mir nur, dass das diagram sowohl im dark, als auch im light mode gut aussieht. das klappt sowohl beim svg, als auch dem png. auch wenn die SVG-datei 70 kb kleiner ist, hab ich keine ahnung wie das mit der photoswipe-vergrösserung und im RSS funktioniert, weshalb ich oben das png verwende. (nachtrag: rss-reader scheinen kein problem mit der SVG-darstellung zu haben.)
diagram im dark und light mode
wenn ich nicht so bequem wäre, hätte ich schon lange eine funktion in kirby implementiert, mit der man bilder „artdirected“ ausgeben kann, je nach dark oder light mode. im prinzip geht das so:
dieser artikel ist ein prototypisches beispiel für meine motiviation ins internet zu schreiben. gestern in der dusche habe ich darüber nachgedacht, wie man wohl transparente diagramme erstellen könnte. geschrieben hab ich den artikel also gar nicht in erster linie um meinen gewichtsverlauf in 2025 darzustellen, sondern um zu testen wie man diagramme am besten im web darstellt, bzw. welche optionen am besten funktionieren. natürlich visualisiere ich auch gerne meine daten, aber im fall meines gewichts visualisiert apple health ja bereits perfekt.
jahresverlauf meines gewichts in apple health
allerdings sieht der screenshot aus apple health eben nur im dark mode gut aus. und es fehlt der semaglutid-balken, den ich mir gestern unter der dusche als interessante visualierung vorstellte.
am ende sieht die apple grafik dann aber doch besser aus, als mein selbstgebasteltes diagram. aber immerhin hab ich unterwegs etwas gelernt und was zum bloggen.
beim ego-googlen bin ich heute auf wikimedia commons gelandet, wo ein foto von mir liegt, das ich vor > 10 jahren in vernonia (washington state) aufgenommen habe.
Teilen — das Material in jedwedem Format oder Medium vervielfältigen und weiterverbreiten und zwar für beliebige Zwecke, sogar kommerziell.
Bearbeiten — das Material remixen, verändern und darauf aufbauen und zwar für beliebige Zwecke, sogar kommerziell.
Der Lizenzgeber kann diese Freiheiten nicht widerrufen solange Sie sich an die Lizenzbedingungen halten.
Unter folgenden Bedingungen:
Namensnennung — Sie müssen angemessene Urheber- und Rechteangaben machen , einen Link zur Lizenz beifügen und angeben, ob Änderungen vorgenommen wurden. Diese Angaben dürfen in jeder angemessenen Art und Weise gemacht werden, allerdings nicht so, dass der Eindruck entsteht, der Lizenzgeber unterstütze gerade Sie oder Ihre Nutzung besonders.
Weitergabe unter gleichen Bedingungen — Wenn Sie das Material remixen, verändern oder anderweitig direkt darauf aufbauen, dürfen Sie Ihre Beiträge nur unter derselben Lizenz wie das Original verbreiten.
Keine weiteren Einschränkungen — Sie dürfen keine zusätzlichen Klauseln oder technische Verfahren einsetzen, die anderen rechtlich irgendetwas untersagen, was die Lizenz erlaubt.
aber mit der nennung im fuss, sind fotos von hier keinesfalls explizit mit der cc-lizenz gekennzeichnet. die lizenz müsste an jedem einzelnen bild angebracht werden und dann am besten auch maschinenlesbar. das ist einerseits das schöne an flickr, dass die bilder dort strukturiert liegen und so dass zum beispiel wikimedia bots die lizenz prüfen können.
um meine bilder hier ordentlich mit einer lizenz zu kennzeichnen, müsste ich:
jedes bild das ich hochlade mit einer, bzw. der cc by-sa 2.0 lizenz (oder besser der 4.0er version) auszeichnen — das geht bereits im backend
alle so gekennzeichneten bilder (such-) maschinenlesbar mit json-ld auszeichnen — das geht sehr einfach mit dem kirby-seo plugin, sobald die bilder im backend ausgezeichnet sind
bilder entsprechend mit einem icon oder link kennzeichnen — ein bisschen an den templates rumschrauben
für alle bilder eine einzelseite bauen, auf der die metadaten und lizenzinfos nochmal stehen und die bilder auch in vollauflösung runter zu laden sind —
alles relativ einfach machbar — aber wozu?
gute rhetorische frage, die ich mir hier selbst stelle und die antwort lautet: weils geht, bzw. weils richtig ist. ich habe mich gefreut, dass mein bild in der wikimedia commons liegt, und ich würde mich auch freuen, wenn es in der google bildersuche mit einer suche nach cc-lizensierten bildern auftaucht. und umgekehrt freue ich mich, wenn ich eine bildersuche benutze, um irgendwas zu bebildern, und ordentlich lizensierte bilder finde, deren lizenz eine weiterverwendung erlaubt.
für mich fühlt sich das an, wie die archivierung von schnappschüssen von archive.org, bzw. wie das was ich hier überhaupt veranstalte: ich halte dinge für mich, die jetzt- und nachwelt fest und hoffe, dass das was ich hier an gedanken oder eingefangenen bildern dokumentiere andere zum nachdenken bringt, inspiriert oder in irgendeiner form nützlich ist. wenn diese schnipsel, die ich hier veröffentliche, von meinem tellerrand in einen anderen teller überschwappen, dann freut mich das — solange die zuordnung oder rückverfolgbarkeit erhalten bleibt. und genau dafür sollte ja die lizenz sorgen.
deshalb schliesse ich hier auch keine ki-crawler explizit aus, ausser dass ich den zugang zu altem zeug erschwere. ob und wie das alles relevant ist, wen das interessiert oder nicht ist für mich eigentlich sekundär. mein vorrangiges ziel ist und war schon imemr hier dinge festzuhalten die mir wichtig erscheinen und dafür zu sorgen, dass sie gut zugänglich sind, sei es auf einer auf allen bekannten geräten einigermassen lesbaren webseite, per abonnierbarem RSS, über suchmaschinen, (KI-) chatbots oder eben strukturierte, maschinenlesbare daten.
alle die denken, dass man webseiten eher dafür benutzen sollte zu schreiben, als zu schrauben, sind ohnehin schon vor acht absätzen ausgestiegen, weshalb ich jetzt auch noch in ein technisches details gehen kann, das ich interessant finde.
mir ist nämlich seit ein paar wochen aufgefallen, dass in der bildersuche zu wirres.net teilweise (fremde) youtube-thumbnails auftauchten. das will ich eigentlich nicht, also ich will die originalthumbnails zur illustration von eingebetteten videos durchaus benutzen, aber zu eigen machen möchte ich mir sie nicht.
ich weiss nicht ob das meine idee war oder ob ein KI-chatbot mir dabei geholfen hat, aber diese anweisung in meiner .htaccess datei hilft, youtube-thumbnails, deren dateien ich lokal sichere, ausspiele und immer youtube_[ID].jpg nenne, von der indexierung auszuschliessen (durch einen noindex header):
<IfModule mod_headers.c># alle dateien, die mit "youtube_" beginnen (youtube thumbnails) # und ein bildformat haben<FilesMatch "(?i)^youtube_.*\.(avif|jpe?g|png|webp|gif)$"> Header set X-Robots-Tag "noindex"</FilesMatch># alle dateien die mit "noindex" beginnen<FilesMatch "(?i)^noindex.*\.(avif|jpe?g|png|webp|gif)$"> Header set X-Robots-Tag "noindex"</FilesMatch></IfModule>
ausserdem kann ich so bilder von der indexierung ausschliessen, indem ich den dateinamen einfach mit noindex beginnen lasse.
ich hab mal in einer steve jobs biographie gelesen, dass steve jobs versessen darauf war auch unsichtbare dinge schön zu gestalten. wenn ich mich recht erinnere war steve jobs vater hobby-schreiner und achtete sehr darauf, dinge gründlich und schön zu machen und entsprechend auch die eigentlich nicht sichtbaren rückseiten seiner möbel visuell ansprechend zu gestalten.
ich war aber auch schon lange bevor ich von steve jobs hörte mal selbst schreiner und entsprechend schon lange fan von schönen rückseiten und versteckten details, die — wenn überhaupt — nur von fachleuten beachtet werden.
hier auf dieser webseite war ich zunehmend genervt davon, wie schwierig es ist aus php-code schön formatierten quelltext rausfallen zu lassen. die einrückungen passen nie und schöner php code mit entsprechenden einrückungen führt fast nie zu schönem html code.
also fragte ich gestern cursor ob wir nicht das kirby html prettifyen könnten. herausgekommen ist ein plugin, der mit dem kirby page.render:after hook das gerenderte html durch html-pretty-min jagd. das ergebnis erfreut mich so sehr, dass ich es als kirby-plugin auf github veröffentlicht habe: github.com/diplix/kirby-html-pretty
ich finde das jetzt ordentlich und lesbar eingerückte html nicht nur schön anzusehen, es hilft mir auch beim debuggen. auf der rückseite hatte ich offenbar ein paar html-tags nicht ordentlich geschlossen oder strukturiert, was ich nie merkte, weil alle browser das stillschweigend korrigierten. html-pretty-min hat das etwas anders korrigiert und zwar so, dass es das layout leicht zerschoss. nachdem ich den quellcode der rückseite angepasst hatte, funktionierte alles so wie es sollte.
das minifizieren bringt theoretisch ein paar KB datenersparnis (die wahrscheinlich ohnehin nicht ins gewicht fällt, weil der server ohnehin komprimierte dateien ausliefert), aber dass überflüssiges leerzeichen verschwinden und die struktur insgesamt lesbarer ist, daran kann ich mich stundenlang erfreuen. das ist in etwa so, als ob ch mir selbst einen schrank baue und den mit den türen zur wand montiere, damit ich mich an dessen rückseite erfreuen kann. wie meine mutter schon sagte: manchmal muss man sich einfach auch mal ne freude machen.
ich gebe zu, ich mache hier nicht alles selbst. ich lasse mir helfen. zumindest bei der technik. aber das machen fast alle. man stellt sich auf die schultern von giganten und nutzt das, was andere gebaut haben. wordpress, drupal, hugo, yekyll, microblog, whatever. unzählige plugin erweitern uns allen die möglichkeiten. die wenigsten bauen sich ihr CMS selbst, ausnahmen bestätiugen die regeln.
ich habe mich für kirby entschieden, habe dafür eine bescheidene lizenzgebühr bezahlt und zahle auch für ein paar plugins. und ich zahle mittlerweile auch einen programmier-assistenten — dem github kopiloten — ein stattliches monatsgehalt von um die 50 €. aber ich finde das lohnt sich. ich schraube täglich irgendwo am blog rum und der kopilot hilft mir die sachen besser zu verstehen, bessere lösungen zu finden und kleinigekeiten zu perfektionieren. ich bin kein guter programmierer, aber ich verstehe einigermassen um was es geht, was wichtig ist und habe eine gute vorstellung davon wo ich hin will. der kopilot hilft mir weniger schlecht zu programmieren (frei nach passig).
in den letzten tagen hat mir der kopilot auch dabei geholfen überhaupt zu verstehen was mein derzeitiges lieblingsplugin kirby-seo überhaupt kann und wie man es implementiert. ich hatte zwar so eine ahnung, aber mit der doku wäre ich nie darauf gekommen, wie einfach es damit ist meine blog maschinenlesbarer zu machen. und wie elegant das alles implementiert und zu nutzen ist.
gelegentlich sass ich vorm bildschirm und sagte ausversehen zu mir selbst: „wow!“ obwohl ich eigentlich gar nicht mit mir selbst spreche.
andererseite: oft ist der kopilot überfordert, noch öfter baut er scheisse, übersieht details, vergisst dass ich kirby 5.1 nutze und nicht die kirby-version, die gerade aktuell war, als er in der lehre war.
aber manchmal überrascht er mich auch. eben habe ich es gefragt:
ich habe folgende idee:
ein php script das einmal pro tag alle location daten aus allen artikel klaubt und in einer json datei sichert.
daraus würde ein anderes script eine datei machen, mit der ich für jede location einen marker auf einer karte darstellen könnte. am besten irgendwie mit open street map, gerne auch extern gehostet. hast du ideen für die umsetzung?
aus dieser anforderung hat der kopilot innerhalb von 2 minuten einen funktionierenden prototypen gebaut: wirres.net/karte. da war ich ziemlich baff.
wir haben noch ein stunde gemeinsam etwas an der karte gefeilt, datumsformat eindeutschen, clusterring der location pins, bild-thumnails hinzufügen — und das wars mehr oder weniger.
(klick auf die karte öffnet die karte)
die geodaten sammle ich seit 2008. grösstenteils stammen sie von instagram und checkins, aber auch frei-hand habe ich viele artikel mit geodaten versehen. aktuell liest kirby auch geodaten aus hochgeladenen fotos aus, weshalb die aktuelleren geodaten etwas akurater sind als das was von instagram kommt.
wenn ich auf instagram fotos von spaziergängen in den rehbergen poste, landet der location pin immer auf der catcher-wiese.
das ist natürlich alles ein rabbit hole ohne ende. irgendwann will ich den instagram location-scheiss aufräumen, ein filter nach datum wäre schön, die thumbnails könnten quadratisch sein und ich vermisse fotos, von denen ich dachte, sie seien eigentlich mit geotags versehen. ich verspüre das bedürfnis lücken, leere stellen auf der karte zu füllen. fehler, dopplungen, auslassungen zu fixen. zu dann frage ich mich aber auch wieder: warum? wozu?
die antwort lautet natürlich: warum nicht? vor allem merke ich: es ist schön, so im eigenen œuvre zu stöbern. ich könnte natürlich auch in der foto-app auf meinem telefon stöbern, aber die fotosammlung auf dem telefon ist ungefiltert, enthält noch mehr irrelevanz als hier. die fotos die sich hier im laufe der jahre angesammelt habe sind zumindest gefiltert.
p.s.: die karte ist einer der wenigen orte hier auf wirres.net, an dem daten (javascript, open-street-map karten-kacheln, etc.) von externen seiten nachgeladen werden.
p.p.s.: den artikel zu schreiben hat doppelt so lange gedauert wie die karte zu bauen.
ich habs vor 50 tagen schon geschrieben, die überschrift ist quatsch und es ist auch das letzte mal, dass ich drauf hinweise. jeden tag was ins internet zu schreiben oder zu veröffentlichen ist ja ganz offenbar nicht schwer, sonst hätte ich es nicht geschafft. ich mach das jetzt (weiter) jeden tag, ohne drauf hinzuweisen. so macht freerk das schliesslich auch auf seinem elchgeweih.de:
jeden Tag etwas aufschreiben
ich lese im elchgeweih gerne und ich finde es witzig wie das mit der discoverability heutzutage (immer noch) funktioniert. jemand erwähnt einen, man sieht sich oder sieht sich nicht, guckt kurz, freut sich, mag was der oder die andere schreibt und rein in den feed-reader oder anderswo gefolgt.
aber vielleicht mach ich es doch, dass ich alle 100 tage oder so einen statusbericht in eigener sache abgebe. obwohl ins internet schreiben ja eigentlich eh nichts anderes ist als einen status-bericht in eigener sache abzugeben.
aber ich könnte die besucherzahlen nennen. die sind eher auf dem absteigenden ast.
oder aus dem maschinenraum schreiben was ich in den letzten tagen und wochen angepasst oder verbessert oder umgesetzt habe. davon ist mein lieblingsfeature, dass ich für einzelne elemente in artikeln auswählen kann ob sie im RSS feed gezeigt werden — oder umgekehrt, im web auftauchen oder nicht. so kann ich quasi geheime botschaften, oder fragen an meine rss-leser im artikel-RSS veröffentlichen. zuletzt hatte ich mich gefragt, ob html-tabellen überall so scheisse aussehen wie bei mir im in der reeder classic app. es sieht so aus, als hätten die meisten RSS reader etwas css an bord, um tabellen ein bisschen zu stylen. gut.
auf das „styling“ oder besser die funktionsfähigkeit des RSS-feeds versuchen ich sehr zu achten. ich hasse es wenn mir wordpress-blogs statt embeds oder filmchen im feed sagen, ich solle javascript aktivieren oder meinen „consent“ abgeben, um bestimmte inhalte zu sehen. deshalb bette ich youtube filme im RSS mit dem datenschutzfreien youtube embed-code ein, was meiner erfahrung nach meistens funktioniert, bette lokale videos auch so ein, dass sie funktionieren müssten und gebe mir mühe bei spielereien wie dem juxtapose player im RSS passenden ersatz bereitzustellen (degrade gracefully).
wenn mir das mal nicht gelingt, freu ich mich über freundliche hinweise, aber auch über wüste beschimpfungen.
ansonsten habe ich in den letzten tagen an meiner suchmaschinen-deoptimierung gearbeitet. schon seit geraumer zeit schliesse ich suchmaschinenindexierung bei artikeln die älter als 5 jahre sind aus. das ist gar nicht mal so einfach. wenn man übersichtsseiten komplett ausschliesst wird google sehr kiebig, deshalb lasse ich die ersten 5 übersichtsseiten indexieren, den rest verbiete ich. rezepte und bestimmte artikel lasse ich nach 5 jahren indexierbar, aber die markiere ich manuell. das habe ich früher mit eigenem code gemacht, jetzt hilft mir der kirby seo plugin dabei. der hilft auch bei der erstellung einer sitemap.xml datei, die den gleichen regeln folgt. mit dem plugin habe ich auch ein bisschen daran gearbeitet die seitentitel, seitenbeschreibungen und open graph vorlagen aussagekräftiger zu machen und das alles vor allem etwas zentraler, feingranularer und übersichtlicher zu steuern.
der (das?) plugin gefällt mir so gut, dass ich schon jetzt eine lizenz für die 2.0er version gekauft habe, obwohl die noch gar nicht released ist.
ausserdem schreib ich jetzt vermehrt in markdown. danke an fabian michaels kirby-markdown-field-plugin. das ermöglicht mir sehr effizientes schreiben, allerdings musste ich ein bisschen im plugin quellcode rumpatchen, bevor das ales so funktionierte, wie ich mir das vorstelle.
zu den view transitions habe ich ja schon geschrieben, zu meinem erstaunen hat sich noch niemad darüber beklagt. ich finde es (noch) ganz toll, mal schauen wie lange meine begeisterung hält.
und sonst so? ich habe mich über die allgemeine ermunterung von thomas gigold rechtschriebfehler zu machen sehr gefreut. eigentlich sollte das ein rant gegen KI nutzung in blogs sein, aber ich lese auch aus rants lieber das positive raus und vergess den wütenden rest.
Ich sag nicht, dass du "verzichten" sollst. Lass die KI dein Lektor sein. Aber ein Lektor ist ein Ratgeber. Dazu gehört, dass du den auch ignorieren kannst. Sind Rechtschreib- und Grammatikfehler wirklich dermaßen schlimm? Für mich beginnt der Eingriff tatsächlich schon beim Satzbau, denn schon der zeigt Persönlichkeit. Lasst uns die Unperfektion viel mehr wieder rauskehren und genießen.
der (facebook) like button wird zum zombie, auch gut: pixel envy:
As far as I can tell, the Facebook SDK will continue to run in the background doing all sorts privacy-hostile things. The best time to remove that JavaScript package from your website or app was, like, at least ten years ago; the next best time is right now.
und sonst? notiz an mich selbst: weitermachen — aber vorher noch ein laubteppich-foto vom #morgenspaziergang.
beim medienbäcker kürzlich gesehen, dass seine überschriften angenehm animiert sind.
das wollte ich auch haben, also angefangen im quelltext zu graben. es zeigt sich, das sind nur ein paar zeilen code, um diesen effekt zu erzielen. im css:
damit werden die view transitions aktiviert, allerdings nur, wenn der benutzer in seinen systemeinstellungen nicht „reduzierte bewegung“ eingestellt hat.
elemente die man animieren möchte müssen über die seiten hinweg einfach den gleichen view-transition-name bekommen. in meinen kirby templates und snippets habe ich dafür gesorgt, dass alle <article> und <img> elemente den gleichen view-transition-name bekommen.
und das isses schon. funktioniert faszinierenderweise über seiten hinweg, chrome(ium) und safari können es, firefox noch nicht (über seiten hinweg) .
insgesamt laden alle seiten etwas weicher, weil ich meistens keine gekürzten artikel anzeige, ist die animation, finde ich, ziemlich subtil. lediglich im archiv, in suchergebnissen oder im bilder-grid auf der rückseite ist es etwas auffälliger.
nur fürs protokoll; gestern abend, so gegen 20 uhr klemmte mein eigentlich (mittlerweile) super performantes blog (ja, dieses blog hier) und lud nicht mehr. ich sah eine prozessorauslastung (load average) in htop von > 30.00, die 4 CPU kerne waren dauerhaft auf 100%. im kirby fehlerlog sah ich sehr, sehr viele fehler (php timeouts). chat GPT diagnostizierte eine bot attacke mit asiatischen IP-adressen. einzelne IP adressen zu blocken brachte gar nichts.
was half: einmal kurz cloudflare einschalten. damit war der traffic sofort weg. nach 2 minuten habe ich es wieder deaktiviert und die bots blieben weg. offenbar hat cloudflare eine sehr abschreckende wirkung.
artikeltitel von uberspace geklaut (lesenswert und frustrierend, dass auch uberspace mit so einem schrott zu kämpfen hat und keine einfachen lösungen dazu hat).
volkers antwort auf meinen letzten beitrag, der ein KI generiertes symbolbild in „knete“ nutzte, lautete:
der „original“ felix reagierte auf kritik meist renitent oder spitzfindig. spitzfindig reagiert der aktuelle felix weiterhin. oder positiver ausgedrückt, ich reagiere auf kritik nachdenklich. und werde dann spitzfindig. in diesem fall, indem ich zunächst präzision bei der kritik einfordere. davon dass begriffe wie AI-slop von menschen „sloppy“ benutzt werden, war offenbar auch martin genervt und liess claude dazu argumente sammeln. das als antwort auf volker weiter zu verwenden wäre dann aber tatsächlich sloppy.
volker hat im kern natürlich recht. er ist genervt von der vermeintlich gedankenlosen verwendung von KI-werkzeugen zur bildgenerierung. ich bin teilweise auch genervt von der ästhetik dieser bilder und frage mich: warum, muss das sein? aber wirklich gedankenlos muss das nicht sein. der schockwellenreiter ist zum beispiel so freundlich die promts (und werkzeuge) zu nennen, die er zur KI-artikelbildgenerierung nutzt. hier zum beispiel:
Prompt: »Colored Franco-Belgian Comic Style. An elephant in a green dressing gown sits at a desk in front of an old-fashioned steampunk-style computer. The surrounding walls are lined with shelves filled with old books. In the background is a window overlooking a city. Through the window, a blimp can be seen in the sky. Sunlight floods the room.«. Modell: Nano-Banana.
der schockwellenreiter lässt sich bilder erstelllen, die seinen vorstellungen von passend, schön oder seinen assoziationen entsprechen (zur neuen version von libre office assoziert er aus unerfindlichen gründen „a sexy young woman with long red hair, green eyes and red lipstick“). ich gehe davon aus, er modifiziert die promts, wenn das ergebnis, das er geliefert bekommt, nicht seinen vorstellungen entspricht. nicht anders, als wenn er einen professionellen illustrator fragen würde, mit dem unterschied, dass hier kein honorar fliesst, sondern höchstens abo-gebühren.
der alte felix (das „original“?) hat früher symbolbilder gegoogelt (beispiel 1, beispiel 2). das birgt immer die gefahr in urheberrechtfallen zu tappen, öffnete aber gelegentlich die chance auf wirklich gute kalauer. manchmal habe ich gegoogelte bilder leicht modifiziert (beispiel 4), aber auch remixe bargen weiter die möglichkeit in urheberrechtliche fallen zu tappen. gelegentlich habe ich eigene fotos als symbolbild genutzt, manchmal führte das zu ganz guten text-bild-scheren (beispiel 5). weil meine illustrativen fähigkeiten nicht besonders weit reichen, sahen symbolbilder manchmal sehr, sehr simpel aus (beispiel 6). da half es dann auf vorgefertigtes zurückzugreifen, etwas, das man heute dann emoji-slop nennen könnte (beispiel 7). in diesem beispiel (8) bildete ich mir ein, urheberrechtliche probleme erfolgreich zu umgehen, indem ich statt eines prince CD-covers mit seinem foto, einfach die rückseite meiner lieblings CD nutzte. gaaanz selten gelang es mir die idee der symbolbilder auf eine metaebene zu heben, aber auf diese symbolbild-idee bin ich bis heute noch stolz: beispiel 9. gelegentlich verwies ich auf grandiose symboldbilder, die sich andere ausgedacht hatten: beispiel 10, beispiel 11.
waren meine symbolbilder früher besser? ich glaube nicht. nur die werkzeuge und quellen wandelten sich immer wieder. wahrscheinlich sind symbolbilder immer ein bisschen slop, also unnötiges beiwerk, deko. und dass die verwendung von KI-werkzeugen emotionen weckt verstehe ich auch in ansätzen, weil man diese bilder halt neuerdings überall sieht. aber andererseits verstehe ich es auch nicht.
ich habe heute mal einen schraubenschlüssel mit meiner neuen kamera fotografiert und freigestellt. hier der vergleich zwischen der foto-, emoji- (🔧) und ki-variante.
der witz ist natürlich, dass auch das foto mit KI-werkzeugen entstand. meine kamera benutzt KI zur erstellung, verarbeitung, verbesserung und die nachbearbeitung der bilder, der hersteller nennt die vorgänge und werkzeige hinter der fotoerstellung machine learning, neural engine oder „intelligence“. und auch das freistellen des schraubenschlüssels geschieht auf der kamera mit KI-werkzeugen.
so gesehen ist jedes einzelne foto das ich hier veröffentliche „AI-slop“. emoji werden auch nicht mehr per hand gezeichnet, da werkeln die designer mit ziemlicher sicherheit auch mit werkzeugen herum, die sie hier und da mit KI-funktionen unterstützen. so gesehen ist jede der oben gezeigten varianten meines symbolbilds irgendwie KI-durchseucht.
ich gebe zu: die schöpfungshöhe dieses und vieler anderer symbolbilder die ich hier benutze ist nicht sonderlich hoch. und die mühe, die ich zur illustration von texten aufwende ist im vergleich zum schreiben auch gering. insofern handelt es sich vielleicht um „slop“, im sinne von mangelnder sorgfalt. aber KI ist mittlerweile eben in fast allen lebensbereichen tief eingedrungen, in die fotografie, in film und fernsehen (vfx, spezialeffekte) und in die wissenschaften sowieso, mit enorm positiven folgen wie negativen folgen. der trick bei der fotographie und guten spezial effekten ist halt die KI-werkzeuge nicht schlampig (sloppy) zu verwenden, sondern so gekonnt, dass es niemand merkt, selbst KI-luditen nicht.
Hab von einem Kollegen über das PageSpeed Insights-Tool erfahren. Und konnexus.net darin ausprobiert.
interessant, dass konstantin das nicht kannte. ich bin seit über 20 jahren treuer kunde bei den PageSpeed Insights. ich bin ein grosser fan davon mir best practices anzusehen, also zu schauen wie man etwas richtig macht um dann das, was ich mache, entweder ein bisschen besser oder gar gut zu machen. deshalb schaue ich mir gerne videos von leuten an die sachen gut machen oder einfach ihre prozesse teilen.
das google tool testet ja nicht nur, um am ende zu einer bewertung zu kommen, sondern um auf potenzielle probleme und deren behebung hinzuweisen. und das finde ich nicht nur hilfreich, sondern befriedigt meinen drang dinge zu optimieren. ich scherze ja immer dass ich der prototypische dilettant bin, oder weniger selbstkritsch, dass ich alles ein bisschen und nichts richtig kann. perfektionismus meide ich, aber ich optimiere sehr gerne. ich mag es dinge relativ zu verbessern, nicht absolut. und die PageSpeed Insights-Tool helfen mir dabei enorm.
die ergebnisse von solchen benchmarks zu veröffentlichen, also zum beispiel die leistungs-, barrierefreiheits- oder seo-indexe des google tools, aber auch die ergebnisse von quizzes oder IQ tests nenne ich ab heute benchbarking. das ist kein schreibfehler, sondern ein wortspiel, das sich laut google offenbar noch niemand vor mir ausgedacht hat.
deshalb benchbarke ich jetzt auch mal eine momentaufnahme meiner PageSpeed Insights ergebnisse, auch weil ich in den letzten tagen wieder einiges optimiert habe:
bilder werden jetzt (fast) durchgehend in modernen formaten (avif, webp) und nochmal grössen-optimiert ausgeliefert.
ich liebe lazyloading, aber above the fold mag google das gar nicht, weshalb jetzt die ersten 3-4 bilder einer seite „eager“-laden.
Performance 95% — das variert allerdings, je nachdem was above the fold ist und manchmal reagiert der server doch noch mit ein paar ms verzögerung. die „desktop“-messung ergibt jedoch fast immer 100%.
Accessibility 86% — noch eine baustelle, aber dass ich an der 90 kratze zeigt, ich geb mir mühe.
Best Practices 82% — variert komischerweise auch immer wieder, ich glaube das tool ist da auch ein bisschen launsisch
nach fünf jahren blogpause ergab eine suche nach „felix schwenzel“ ein katastrophales bild. an erster stelle mein stillgelegtes twitter-profil, dann in loser, wechslnder folge instagram, threads, xing oder linkedin. meine seiten, wirres.net und felix.schwenzel.de ganz weit hinten auf folgeseiten. es hat von april bis vor ungefähr mitte september gedauert, bis eine google (oder duckduckgo) suche nach „felix schwenzel“ wieder annehmbare ergebnisse ergab. jetzt ist wechselnd felix.schwenzel.de oder wirres.net (wieder) an erster stelle.
beim alten wirres.net hatte ich seiten die älter als 5 jahre sind und übersichtsseiten von der suche (oder genauer von der indexierung durch suchmaschinen) ausgeschlossen. beim neustart im april diesen jahres auf kirby habe ich sowohl die übersichtsseiten, als auch die startseite von der indexierung ausgeschlossen. beitragsseiten habe ich suchmaschinen per sitemap mitgeteilt — ausser beiträge die älter als fünf jahre sind (mit manuell gesetzten ausnahmen).
darauf hat google sehr allergisch reagiert. mein gedanke war: die übersichtsseite ändert sich so oft, dass google gar nicht hinterherkommt. aber google ist ja nicht von gestern und macht das, wie man auf dem screenshot sieht schon ganz gut. seitdem google ein paar übersichtsseiten tief in die website reinindexieren darf, ist es auch wieder nett zu mir. ab übersichtsseite 5 ist aber schluss und artikel die älter als 5 jahre sind, schliesse ich weiterhin aus.
die KI zusammenfassungen die manchmal, aber manchmal auch nicht am anfang der suchergebnisseite stehen, sind teilweise ganz ok, teilweise totale missverständnisse.
die KI zusammenfassung über mich ist ganz OK, wenn auch nicht 100% akkurat.
die KI zusammenfassung über die bedeutung von „fachblog für irrelevanz“ ist totaler quatsch.
apropos irrelevanz, ich weiss, google suchergebnisse sind schon lange nicht mehr entscheidend, aber ich bin froh, dass man mit etwas mühe google und andere suchmaschinen dazu bringen kann die suchergebnisse ein bisschen um zu sortieren. warum twitter von google allerdings immer noch für relevant gehalten wird bleibt mir ein rätsel.
apropos suche. ich bin ja ganz zufrieden wie die interne suche hier funktioniert. dahinter steckt loupe, bzw. ein plugin der loupe im hintergrund nutzt. aber leider geht der such-index gelegentlich kaputt wie ich gestern merkte. der indexierungsprozess dauert so um die zwei stunden, vielleicht solle ich das alle paar wochen per cron job in der nacht triggern.
nachtrag:
kaum schreibe ich drüber, ist wirres.net wieder aus den suchergebnisseiten verschwunden (auf seite 4). sehr volatil alles. ich habe die startseite und die übersichtsseiten von wirres.net allerdings gestern umbenannt. vielleicht braucht es etwas zeit, bis sich der schock für google wieder einrenkt. ansonsten auch schön, dass ich jetzt zumindest screenshots habe, die zeigen: wirres.net war mal ganz weit vorne.
dass markus am 24. september keinen eintrag geschrieben hat, liess mich auch gestern nicht los und ich hab keinen beitrag bei mir noch etwas „verbessert“ mit „soundcite“. das kann dann so aussehen (funktioniert mit javascript, also nicht per RSS):
als vor einigen jahren eins von donald trumps vorbildern, walter ulbricht, sagte:
niemand hat die absicht eine mauer zu errichten.
… war das ein wichtiger moment in der geschichte des regierungsnahen lügen. (audioquelle)
ausserdem sind mir noch zwei sehr alte artikel untergekommen, die nicht mehr funktionierten und die ich reparieren musste. die artikel nutzen „juxtapose“, so eine art slider, mit dem man vorher nachher bilder ansehen kann. beispiele hier und hier. wird auch nicht per RSS funktionieren, aber mal schauen ob das auch als einbettung funktioniert:
die fake bauakademie ist ja schon lange wieder verschwunden. bei meinen bauarbeiten hilft mir jetzt claude sonnet 4, das schien anfangs beeindruckend fähig, hat mich aber heute wieder dazu gebracht, mir zwei bis drei stunden vollmundige versprechen anzuhören, die am ende zu nichts geführt haben, zu komplex, so dass ich ein feature wieder einstampfen musste. dafür ist claude, wie man hier sieht, mit noch mehr will to please ausgestattet, als chatGPT.
als ich vor zwei monaten das hosting von wirres.net von uberspace zu meinem arbeitgeber umgezogen habe, hatte ich auch wieder cloudflare aktiviert (vor 5 monaten hatte ich es abgeschaltet). der gedanke dahinter war, wirres.net auch per IPv6 auszuliefern, weil die VM auf der wirres.net läuft bisher nur IPv4 kann und cloudflare das überbrücken kann, bzw. IPv6 bedient.
seit zwei monaten beobachte ich aber zuhause immer wieder (sehr) langsamen seitenaufbau von wirres.net. das hat einerseits dazu geführt, dass die wahnsinnig viel am setup optimiert (und gelernt) habe, aber trotzdem weiterhin, insbesondere in den abendzeiten, wahnsinnig langsamen seitenaufbau und downloads beobachtet habe. wenn ich wirres.net per LTE aufrief, also aus dem O₂-netz, fluppte es ganz gut.
zwischenzeitlich hatte ich deshalb meinen DSl-anschuss und unser WLAN im verdacht. messungen zeigten aber, dass sowohl das WLAN, als auch das (telekom) DSL einwandfrei bis sehr gut funktionieren. DSL liefert sogar ein drittel mehr als die gebuchten 50 mbit/s. chatGPT hatte, wie viele menschen in diversen online-foren, den verdacht, dass das problem beim peering zwischen cloudflare und der telekom liegen könnte.
messungen mit mtr -rw -c 100 wirres.net zeigten, dass tatsächlichh zwischen dem telekom-netz und cloudflare massive paketverluste auftreten. die verschwanden, sobald ich cloudflare ausschaltete. jetzt ist also wieder alles wie es sein soll. wer wirres.net aufruft spricht direkt mit einer VM die allein ich kontrolliere, bei syseleven liegt und mittlerweile ganz gut optimiert ist und nicht gerade schwachbrüstig ist — aber dafür noch kein IPv6 kann.
IPv4 sollte aber kein problem sein und ich hoffe, dass wirres.net jetzt tatsächlich so schnell überall ankommt, wie es ankommen soll.
cookies und fremdtracker oder code von dritten sind hier auch weiterhin nirgendwo vorhanden.
es zeigt sich, dass die knapp 10.000 toten links die mein script zum auffinden von toten links gefunden hat noch lange nicht ausreichen (siehe mein vorheriger artikel zu toten link). ich habe heute ein bisschen im archiv von 2007 und 2008 rumgeschaut und so viele weitere tote links entdeckt, dass ich mit meinem programmierhelfer ein script zum leichten nachpflegengeschrieben habe.
links zu vielen zeitungen (faz vor allem) leiten auf die aktuelle startseite weiter und irgendwie hab ich weiterleitungen nicht als potenzielle tote links im suchscript berücksichtigt. das gleiche passiert mit domains die aufgegeben wurden und jetzt zum kauf angeboten werden, auch die flutschten unter dem detektor durch. flash ist auch so ein problem. archive.org nutzt zare einen flash emulator, aber viele oder gar die meisten flash-inhalte funktionieren dann trotzdem nicht. aber flash war schin immer eine schlimme krankheit des webs, insofern hat sich da nichts geändert in den letzten 20 jahren.
jedenfalls werden jetzt die kaputten links die ich gefunden habe alle zur laufzeit angepasst. ich habe das jetzt doch etwas subtiler markiert als zuerst geplant.
tote links mit einem ersatz-link auf archive.org sind jetzt subtil blau markiert, tote links ohne archivierten snapshot rot. beispiele:
wie immer faszinierend was ich so beim stöbern im archiv (wieder) entdecke. an diesen witz von 2007 (gedächtnistraining) erinnert sich weder die beifahrerin noch ich. und ja, es gab mal eine sehr kleine riesenmaschine (auch 2007).
solche witze habe ich früher sehr gerne gemacht: „auf deutsch hiesse alfred hitchcock übrigens alfred ruckpimmel“
oder wie minimalsitisch die twitter snapshots von archive.org sind: ix ist doof (aus following 3000) — wobei das wohl auch technische probleme beim snapshotten gewesen sein müssen.
so oder so, ein anfang ist gemacht. stand jetzt 6848 links sind mit archive.org-links repariert. ca. 3000 als nicht mehr verfügbar gekennzeichnet. und wahrscheinlich ein paar hundert weitere wollen (irgendwann) noch gefunden werden.
mein liebstes hobby ist mich intensiv mit komplexen technischen systemen zu beschäften, sie zu verstehen, an meine bedürfnisse anzupassen und dann bestmöglich am laufen zu halten und ständig zu verbessern oder zu überarbeiten. den vergleich mit dem leben, in dem man die ersten 20 jahre damit verbringt das ganze system zu verstehen und sich anzupassen oder seine bestmögliche funktion zu finden und das ganze dann möglichst lange am laufen zu halten durch stetige optimierung und anpassung, den vergleich spar ich mir jetzt oder verfolge ihn nicht weiter.
was ich mit dieser website, diesem sehr komplexen system, am meisten beschäftigt, ist sie am leben zu halten indem ich sie fülle, aber genauso sie ständig zu reparieren, fehler zu finden und sie für mich (und gegebenenfalls andere) optimal nutzbar zu machen. ein nicht endender, prozess, dessen zwischenergebnisse mich stets erfreuen.
Das letzte Lebenszeichen: 13 Jahre her. Das aktuelle Design: 19 Jahre alt. Diese Site war mal mein ganzer Stolz. Zeit, ihr neues Leben einzuhauchen …
Schritt 1: Entropie zurücksetzen!
um’s kurz zu machen: frank beschreibt konkret, wie er alte, über die zeit verwaiste links restauriert hat. das thema „broken links“ verfolgt mich auch schon länger und erst recht seitdem ich diese seite wiederbelebt habe und ziemlich verlustfrei aus einem veralteten system in ein neues system migriert habe. mein archiv, die seiten die schon ein paar jahre auf dem buckel haben, sind (natürlich) voll mit links die nicht mehr funktionieren.
bisher habe ich das einfach hingenommen und gelegentlich die url des „broken links“ in die wayback machine eingegeben und nach gefühlt 13 klicks die alte website bestaunt, auf die ich vor x jahren mal gelinkt habe.
auf die idee das systematisch zu tun bin ich noch nicht gekommen. aber was für eine grossartige idee:
Veraltete Links [sind] um Längen besser als Löschen oder Abschalten. Tote Links sind belegende Artefakte, kein Mangel – richtig gekennzeichnet, zeigen sie Quellenlage. So lassen sich Inhalte oft noch rekonstruieren – über die URL, über Archive, über Kontext.
ich hab mich gleich nach dem lesen an die arbeit gemacht. meine programmier-helfer (chatGTP) hatte zuerst etwas wilde ideen um das in kirby umzusetzen, aber nach ein bisschen hin und her haben wir uns auf eine strategie geeinigt, die mir gefällt.
erstmal alle toten links sammeln (in einer json datei)
für diese toten links dann anhand des artikel-datums einen zeitlich passenden archiv-snapshop imn archive.org finden (auch in json)
zur „laufzeit“ die kaputten links mit den reparierten links ersetzen und kennzeichnen
alle 13.475 beiträge zu prüfen (mit 51.735 externen links) hat ein script 12 stunden lang beschäftgt. vorläufiges ergebnis: von den ca. 50.000 links sind ungefähr 10.000 kaputt.
für diese 10.000 links die entsprechenden snapshots auf archive.org zu finden ging schon etwas schneller (8 stunden), bzw. das script läuft noch.
über das rendern der reparierten links muss ich mir noch gedanken machen, derzeit tendiere ich zu farblicher kennzeichnung, statt einer kennzeichnung mit dem archive.org-logo wie bei frank.
das problem von webseiten ist natürlich (u.a.), dass man ihnen das alter nicht ansieht. wenn webseitenbetreibende nicht unter einem stein schlafen, kann man der seite zwar meistens das alter entnehmen, aber man sieht, riecht oder fühlt es nicht, wie man es mit gealtertem papier beispielsweise tut. strenggenommen müsste man alte webseiten eigentlich so anzeigen, wie sie zum veröffentlichungszeitpunkt ausgesehen haben, aber das ist natürlich auch wieder quatsch, bzw. eine zumutung. ich hab mir immer vorgestellt, dass webseiten wie laub altern könnten, also richtung braun altern. bis jetzt bin ich damit zufrieden, alte seiten oben mit dem alter in jahren anzuzeigen.
aber da werde ich wohl noch ein bisschen denkarbeit investieren müssen.
was mir beim testen der archive.org api und link-konstruktion um alte snapshots zu finden jedenfalls auffiel ist die begeisterung die mich ergriff, als ich manche alten webseiten mit ihrer elektronischen patina (wieder) sah. elektronische patina sind broken images, schrottiges, kantiges design und mobiltelefon-feindlichkeit. oder bei frank westphal, der gute alte schlagschatten, den damals irgendwie fast jeder benutzte, weil es auf den grobpixeligen bildschirmen die wir zu dieser zeit nutzten „natürlicher“ aussah.
jedenfalls spannende neue denkaufgabe und ein weiterer toller baustein bei der ewigen reparatur von wirres.net. danke frank.
hier zu schreiben fällt mir ziemlich leicht. man sagt mir nach, dass ich texte hier hinrotze und da ist wahrscheinlich auch was dran. ich schreibe hier in gewissem sinne hemmungslos; wenn der eine oder andere gedanke noch nicht zuende gedacht ist, hält mich das nicht davon ab ihn aufzuschreiben. gelegentlich reifen die gedanken während des schreibens, manchmal danach oder ich greife sie später (oder nie) wieder auf.
texte die ich im auftrag schreibe oder gegen geld, muss ich mir hingegen aus der nase ziehen. ich spüre den druck alle gedanken am ende des textes zuende gedacht haben zu müssen, ich presse oft, statt es fliesen zu lassen. trotzdem habe ich es bis anfang letzten jahres fast 10 jahre durchgehalten eine kolumne für die (gedruckte) t3n zu schreiben.
heute habe ich versucht die noch fehlenden artikel hier zur archivierung zu ergänzen und neu und konsistent zu kategorisieren (kategorie t3n).
(nachtrag: experimentelle raster-übersicht über die t3n kolumnen)
die ergänzung des archivs hat dazu geführt dass die dünnen, roten linien auf der artikel pro jahr grafik zwischen 2024 und 2020 pro jahr um jeweils vier artikel angewachsen sind. die gelben balken zeigen, dass ich in meiner blogpause von 2020 bis 2024 zwar einiges geinstagramt habe, aber eben kaum geschrieben.
beim oberflächlichen lesen der t3n kolumnen hab ich gemerkt, dass ich mich im lauf der jahre auch gelegentlich wiederholt habe, aber insgesamt hab ich den eindruck, dass die kolumnen relativ gut gealtert sind. diese kolumne („wuff, wuff“) ist noch nicht so alt, also auch noch nicht besonders gealtert, aber so würde ich sie wohl auch heute noch schreiben, man merkt ihr ein bisschen an, dass mir das ins internet schreiben ein bisschen fehlte.
auch in dieser kolumne („alles ist ein spiel“) liess mich die redaktion gedanklich mäandern, als schriebe ich hier ins blog. und trotzdem arbeite ich am ende eine idee heraus, die gar nicht mal so doof ist und die kolumne auf eine art zeitlos macht.
ansonsten hab ich jetzt eine woche, so wie ich mir das vorgenommen hatte, nicht weiter abgenommen, jetzt will ich sehen, ob ich das abnehmen wieder langsam in gang bringen kann.
frida hatte heute früh wieder, wie anfang der woche, eine blutblase am linken handgelenk, die püktlich beim tierazt aufplatzte. die tierärtzin steht diagnostisch genau wie wir auf dem schlauch, mal schauen ob gewebeproben im labor uns weiterbringen. frida trägt jetzt, zum schutz der wunde, wieder einen fussverband, aber es geht ihr gut und ich glaube, dass sie auch ohne schmerzmittel schmerzfrei wäre.
ich habe über jahre likes, retweets/reposts oder shares von beiträgen hier auf wirres.net gesammelt und lokal in json-dateien gespeichert. vor einer weile hatte ich die auch reaktiviert, bzw. deren anzeige unter den alten artikeln aktiviert. obwohl diese signale sozusagen einen historischen wert haben, hatte ich das gefühl dass sie nicht mehr nachvollziehbar oder angemessen sind. früher kamen diese signale vor allem von zwei plattformen, die ich schon länger nicht mehr nutze: twitter und facebook. ich fand die artikelranglisten, die ich mit diesen historischen signalen erstellte, auch nicht wirklich hilfreich und verzerrend. also hab ich diese historischen social media signale wieder deaktiviert.
die signale die ich noch einsammle sind die likes von instagram, sowie die likes, reposts und kommentare von mastodon und bluesky. das funktioniert natürlich nur, wenn ich die beiträge jeweils dort veröffentlicht oder angeteasert habe. ausserdem gibt’s (auf der artikel-beilage) eine kommentarfunktion und seit ein paar wochen auch einen shit vote („i like that shit“) deren idee ich mir von den toast votes der bear blogs abgeschaut habe.
über die nützlichkeit oder gar relevanz solcher signale kann man natürlich streiten. man könnte argumentieren, dass solche feedback loops dazu animieren gefälliger zu schreiben. dieses argument meine ich auch schon öfter in bezug auf page-counter oder besucher-statistiken gehört zu haben, halte es aber für quatsch. die entscheidung so zu schreiben, dass es möglichst vielen leuten gefällt, möglichst viele klicks oder likes generiert ist ja eher konzeptionell.
man entscheidet sich entweder etwas mit einer breiten zielgruppe zu machen, sich an ein massenpublikum zu richten oder eben gerade nicht.
statt ein logo mit einem kackenden hund zu benutzen, statt kleinschreibung und schlampiger orthographie und zeichensetzung, könnte ich meine webseite auch „das könnte dir nicht gefallen“ untertiteln. in diesem sinne habe ich diese seite auch lange zeit „fachblog für irrelevanz“ genannt. die abschreckung von lesern auf den ersten blick ist teil des konzepts dieser webseite. das ändert nichts daran, dass ich mich trotzdem dafür interessiere wie und gegebenenfalls warum das was ich hier schreibe und zeige rezipiert wird.
umgekehrt würde ich mich freuen, wenn ein reibungsfreier, barrierearmer toast, like oder whatever button überall in blogs vorhanden wäre, wo man einfach per klick, ohne anmeldung, ohne komplikationen ein „gefällt mir“ oder eine applaus-geste hinterlassen kann. ok, ich gebe zu, eine hürde hat auch meine shit/like-button implementierung: javascript muss aktiviert sein, damit es funktioniert.
die auswertung dieser signale ist aber höchstwahrscheinlich nicht nur für mich interessant, ich kann mir auch vorstellen das es für andere hilfreich sein kann zu sehen, was in den text- und bildwüsten die ich hier (wieder) täglich produziere von interessanz sein könnte.
deshalb habe ich meine /top seite gebaut, die alle beiträge listet die mehr als 10 likes bekommen haben.
wenn man die schwelle höher legt und nach beträgen mit > 25 likes filtert, bekommt man 11 seiten oder ungefährt 250 beiträge, die bis 2012 zurückreichen. 2025 habe ich 7 beiträge verfasst die diese aufmerksamkeitsschwelle überschritten haben. für die nach > 10 likes gefilterte version dieser webseite gibt’s natürlich auch einen rss feed, der beiträge dann zeitversetzt und gefiltert liefert. (mehr beitrags-statistiken findet man übrigens auf der rückseite)
ich bin mittlerweile in einem flow, in dem ich auch ohne jedes feedback oder besucherstatistik weitermachen würde und meine gedanken, bilder oder erlebnisse hier festhalten würde, so wie ich auch ohne frida weiter durch die stadt spazieren würde. aber mit hund, mit ein wenig applaus, macht es mehr spass und inspiriert und öffnet neue perspektiven.