gestern beim morgenspaziergang wieder an dem baum voller kormorane vorbeispaziert. und die sonne soll jetzt laut wetterbericht midestens eine ganze woche bei uns bleiben.
gestern beim morgenspaziergang wieder an dem baum voller kormorane vorbeispaziert. und die sonne soll jetzt laut wetterbericht midestens eine ganze woche bei uns bleiben.
der monat ist noch nicht vorbei, aber ich glaube ich kann den februar jetzt schon mal statistisch auswerten. und zwar, wie viel zeit ich vor der glotze verbringe. ich glaube für den februar habe ich so ziemlich alle filme und serien die ich geschaut habe erfasst. das sind in summe 27 stunden die ich vor der glotze verbracht habe. allerdings ist mir gestern noch eingefallen: was mach ich mit youtube?
gemini meint es gäbe keine einfache methode die zeit, die ich mit youtube-videos verbringe, per api abzufragen. also bin ich meinen youtube-verlauf durchgegangen und habe für jedes video und jeden tag die zeit notiert, die ich geschätzt damit verbracht habe. abgebrochene videos oder videos in denen ich viel übersprungen habe, flossen entsprechend in diese schätzung ein. im februar waren das bis jetzt nochmal 31 stunden.
damit habe ich im februar ungefähr 58 stunden vor der glotze verbracht. das sind 15 % meiner verfügbaren freizeit, die ich mit youtube, filmen oder serien verbracht habe.
gestern habe ich ein ted-video von rebecca okamoto gesehen, in dem sie erklärt, wie man sich in 20 oder weniger worten so vorstellt, dass man einen bleibenden eindruck hinterlässt. ich fand das video schlimm und habe es deshalb nicht geliked und deshalb taucht es hier auch nicht auf, aber es ist doch etwas hängengeblieben, mit dem ich die zeit, die ich vor der glotze verbringe, rationalisieren kann: ich lese und sehe das internet leer, um kuratierte empfehlungen weiterzugeben, die anderen freude und mehrwert bringen.
wie und ob ich die youtube-zeiten in meinem medienlog verarbeite oder zeige, weiss ich noch nicht. da die zeiten über den januar und februar recht ähnlich verteilt sind, kann ich im ø von 75 minuten youtube pro tag ausgehen, wenn mir um die schätzung meiner screentime geht. das akkurat pro tag zu loggen hat ja keinen wirklichen mehrwert. aber ich überlege noch, ob und was da sinn ergibt.
die matomo-statistiken zeigen: wer regelmässig schreibt, wird auch gelesen. vorletzten und diesen monat waren es um die 7000 (unique) pageviews, im letzten monat gab es einen kleinen ausreisser nach oben. konstante besucherlieferanten sind buddenbohm-und-soehne.de (400-600 pro monat) und rivva (100-200 pro monat).
die zahl der pageviews im RSS (um die 13.000/monat) korreliert natürlich mit der anzahl der veröffentlichten artikel. das waren in den letzten 10 monaten immer um die 60 (übersicht), also 2 pro tag. seit januar kommen monatlich ca. 80 likes und 50-60 lesezeichen dazu, die ich veröffentiche.
beim ø-gewicht geht’s weiter ganz leicht abwärts, auch wenn ich gefühlt im januar und februar zwischen 94 und 92 kilo feststecke. der durchschnitt sagt: es geht weiter abwärts. wohlgemerkt, ohne ozempic und ohne explizite „diät“. ich verzichte nur auf süsses und esse weniger brot, bzw. insgesamt etwas weniger.
beim training war ich bei liegenstützen ziemlich faul, dafür gelang mir vor einer woche zum ersten mal ein sauberer klimmzug von ganz unten bis unter das kinn. ich habe aber so ein gefühl, dass ich im märz berichten kann, dass ich 2-3 am stück schaffe.
natürlich ist es eine schnapsidee, filme oder serien hier tracken zu wollen. wenn ich wollte, könnte ich das alles bei trakt machen. trakt arbeitet mit einem leicht obskuren dritt-dienst zusammen (younify.tv) um die historie des gesehenen von netflix auszulesen. tatsächlich kann man damit die historie aller grossen streaming-angebote abgreifen — wenn man younify.tv genug vertrauen entgegenbringt und (vollen) zugriff auf diese dienste gewährt. mein vertrauen hat vor ein paar jahren nur dafür gereicht, younify.tv zugriff auf mein netflix-konnto zu gewähren, weshalb ich jetzt einen teil meiner netflix-historie auch in trakt habe.
der vorteil ist, dass ich die von younify.tv abgegriffenen daten, jetzt auch wieder über die trakt-api selbst abgreifen kann, zum beispiel mit diesem script. mit ein zwei weiteren phyton scripten kann ich deshalb jetzt auch automatisch auf netflix gesehenes hier loggen.
schnapsidee hin oder her, sowohl trakt als auch ich wissen, dass die schnapsidee alles gesehene zu loggen, nur funktioniert, wenn es vorwiegend automatisch geht. wenn da nicht die vertrauensfrage wäre. ein datenleck bei trakt von 2014, das trakt erst 2019 offenlegte, zeigt, dass es nicht angebracht ist, trakt 100% vertrauen zu schenken. wenn ich mich recht erinnere hab ich die verbindung zwischen trakt und plex schon vor 2019 gekappt, weil mir das einen ticken zu unheimlich war, meine plex-historie ungefiltert in trakt zu leiten. bei netflix hielten sich meine bedenken in grenzen.
mit meinem selbstgebauten plex/tautulli-zu-kirby-exporter behalte ich die kontrolle und der import in die öffentliche liste klappt auch ohne drittanbieter ganz gut, fast vollautomatisch. ich muss nur noch eine wertung nachtragen.
und auch wenn ich bei der netflix → younify.tv → trakt.tv → wirres.net konstruktion weniger bis keine kontrolle habe, wollte ich diese automatisierungs-pipeline jetzt testen. dafür musste ich mir natürlich irgendeinen scheiss auf netflix ansehen.
also hab ich mir die erste folge being gordon ramsay angesehen. ich vermute das wird weder so erfolgreich wie netflix chefs table noch so ein hit wie drive to survive — auch wenn das strickmuster ähnlich ist. beim überfliegen der kritiken ist eine überschrift hängengeblieben, der ich direkt zustimmen möchte: gordon ramsay should not be so boring.
jedenfalls funktioniert der sync zwischen netflix, younify.tv, trakt.tv und wirres.net/kirby, wenn auch mit leichter verzögerung.
zum thema ex- und importe: ich habe auch ein script gefunden, mit dem sich die daten aus tautulli, also plex, mit letterboxd syncen lassen. damit habe ich jetzt lücken meiner film-timeline auf letterboxd geschlossen, auch wenn die timeline der filme die ich jemals sah auf letterboxd immer noch lücken in den letzten 10 jahren hat. schliesslich schau ich filme ja nicht nur auf plex, sondern auch auf amazon prime, im kino (gelegentlich) oder netflix. aber weils geht, weil ich daten jetzt aus plex und netflix rausbekomme, erscheint es mir logisch meine film-historie erstmal auf letterboxd zu vervollständigen. dann kann ich sie auch wieder hierher holen. aber bevor ich das mache sammel ich hier, bis auf ein paar ausnahmen — zu testzwecken — erstmal vornehmlich in 2026 gesehenes und gelesenes.
mit so einer „datenbank“ für gesehenenes und gelesenes setze ich mich übrigens auch geschickt selbst unter zugzwang. jetzt muss ich auch mal wieder ein buch lesen, damit ich es loggen kann. und damit schliesst sich der zirkel: ausgehen um drüber schreiben zu können, scheisse auf netflix schauen, ums zu prüfen ob es automatisch geloggt wird. morgens spazieren gehen um das wetter zu fotografieren und fotos und .gpx-tracks zu posten, kochen um rezepte maschinenlesbar zu veröffentlichen, schlafen, um zu sehen, wie gut der schlaftracker funktioniert. (b)loggen weil’s geht.
heute beim morgenspaziergang ein foto von der traurigen bürgerwiese gemacht und dabei gar nicht bemerkt (erst zuhause, beim bilder-sichten), wie eine wolke auf dem weg vor uns vorbeiwabberte.
→ weiterlesenbeim medienloggen und beim tracken der sendung mit der maus von gestern, ist mir aufgefallen, wie absurd die praxis des depublizierens bei unseren öffentlich rechtlichen sendern und deren mediatheken ist.
die sendung mit der maus ist mit klassischen tracking websites trakt, imdb oder thetvdb.com kaum sinnvoll zu verfolgen. einzig fernsehserien.de hat eine akzeptable übersicht über die sendungen mit der maus. wobei die einzelnen einträge dort auch nur aus ein paar metadaten (immerhin gut gepflegt) und pressemitteilungen der ARD bestehen.
wie schön wäre es, wenn die permalinkseiten einzelner sendungen, wie die vom 22.02.2026 tatsächlich permanent wären? stattdessen wird die seite, zusammen mit dem video, am 30.03.2026 wieder verschwinden.
wenn ich es richtig verstehe, haben wir in deutschland kein öffentliches, bzw. im web zugängliches archiv des deutschen fernsehens (und der sendung mit der maus), weil verleger und kommerziele unterhaltungs und informationsanbieter der meinung sind, dass sowas schlecht für ihr geschäftsmodell sei. der politische kompromiss, der hier besteht, bedeutet, dass ein dauerhaftes archiv gesetzlich ausdrücklich untersagt ist, weil die öffentlich rechtlichen sonst den markt unangemessen beeinträchtgen würden. na gut, es gibt auch noch rechtefragen, da eine sendung mit der maus in den achtzigern wahrscheinlich nur die rechte mit den autoren, moderatoren oder komponisten der musik für die tv-ausstrahlung geklärt hat.
aber trotzdem, wie absurd: ein kulturgut wie „die sendung mit der maus“, das von der gesellschaft mit fernsehgebühren finanziert wurde, ist für die gesellschaft digital nicht als archiv verfügbar. was für eine bildungslücke, bzw. was für ein schatz das wäre, stünde uns eine gepflegte bibliothek der fernsehgeschichte zur verfügung, statt gelegentlich privat auf youtube hochgeladener schnipsel aus der öffentlich rechtlichen historie.
das ist natürlich auch besonders absurd, wenn es jetzt politische ambitionen gibt social media für junge menschen zu verbieten, aber gleichzeitig educational media für junge menschen auch nicht so richtig zu erlauben. ich weiss dass ein archiv des öffentlich rechtlichen fernsehen keine alternative zu social media ist, aber es wäre ein zeichen: bildung ist uns als gesellschaft so wichtig, dass kommerzielle interessen diesem ziel nicht im weg stehen dürfen. stattdessen lautet das signal: bildung gibt’s nur hinter bezahlschranken, als abo, als in-app-kauf. wir wollen die wirtschaft nicht mit öffentlich-rechtlichen-inhalten schwächen und nehmen dafür in kauf, das bildungsnivau der gesellschaft zu schwächen.
dust bunny gesehen. ich weiss nicht was das war, aber es war wirklich gut. und ich habe auch ziemlich oft gelacht.
der film hielt mich die ganze zeit über on the edge of my seat, aber nicht wegen des spannungsbogen, sondern weil das was man zu sehen bekam so unverständlich schien, dass ich weitergucken musste um zu erfahren was da eigentlich los war. es war jedenfalls keine sekunde langweilig.
man könnte vielleicht sagen, das was man zu sehen bekam war eine wilde mischung aus pipi langstrumpf und leon der profi?
mein dank an coldheat.de, dessen empfehlung ich gefolgt bin.
heute in der sendung mit der maus eine folge von trudes tier, die ich schonmal gesehen hatte. dieses mal musste ich aber mehrfach lachen. vielleicht habe ich auch schon beim letzten mal gelacht, aber ich erinnere mich nicht.
die folge setzt sich ziemlich klug mit aberglauben auseinander, beinahe philosophisch. am ende ist wie immer das tier das klügere, weil es bemerkt, dass die wirkung des „glückslauch“ eigentlich nur eine projektion war, die aber übergangsweise half innere kraft zu entwickeln.
die folge scheint dauerhaft (frei von depublikation) auf kika.de zu liegen, aber der einfachheit halber bette ich sie hier mit youtube (vom @diemaus kanal) ein.
frühlingshafte 6°C als wir losgingen, allerdings auch frühlingshafter dauerniesel und grauschleier über der stadt. 6 kilometer vom wedding in den prenzlauer berg gelaufen, mit der s-bahn zurück.
eben habe ich die graham norton show gesehen, um zu gucken ob sie danach automatisch hier im blog auftaucht. tat sie.
die idee hatte ich gestern: warum nicht alle sendungen die ich gucke hier mit einem kurzen eintrag festhalten? am besten automatisch. also mach ich das jetzt.
ich mag die idee von micro-einträgen. das erzeugt zwar eine menge rauschen, aber das lässt sich auch gut ausblenden. bei bedarf lassen sich diese einträge aber auch auswerten oder für was auch immer mir einfällt verwenden. vor allem aber mag ich die idee, dass alles hier passieren zu lassen, hier also sozusagen life-logging zu betreiben. das ist ja auch was weblog ursprünglich bedeutete: sachen öffentlich, im web loggen. jetzt wo ich likes und lesezeichen hier logge, kann ich doch auch loggen was ich (fern-) sehe.
die idee mochte ich schon lange, nur stand mir die technik nicht zur verfügung. deshalb habe ich jahrelang watched.li von philipp benutzt. ich fand es in erster linie spannend zu sehen, wie viel zeit ich vor der glotze verschwende, aber watched.li half auch dabei zu vorrauszusehen, womit ich in zukunft meine zeit verschwenden konnte, welche serien und folgen bevor standen.
seit 10 jahren nutze ich neben plex auch noch tautulli, eine freundliche plex-begleit-app. im prinzip macht tautulli nichts anderes als plex zu beobachten und alles zu loggen: wer schaut wann was, was macht der server, was gibt’s neues? wenn ich zurück zu 2017 gehe, sehe ich, dass ich am 14. august 2017 game of thrones s07e05 gesehen habe. um 22:43 war ich fertig mit der folge (ist game of thrones echt schon so lange her?).
mit tautulli hab ich als eigentlich alles was ich brauche: statistiken, details zu dem was ich (mit plex) gesehen habe.
andererseits nutze ich ja nicht nur plex. ich schau gelegentlich filme im kino, auf amazon prime, netflix oder RTL+. ich bin auch nicht der einzige, der den wunsch hat das alles zu tracken. heiko hat vor ner weile beschrieben, wie er seinen medienkonsum trackt: Medien-Tracking mit Github und YAML. thomas hat sich einen recorder gebaut, mit dem er alles was er sieht und liest festhält und bewertet. und jetzt hab ich mir in den letzten 24 stunden ein medienmenü zusammengehackt. ich hab mir vorgenommen das mal ein jahr lang auszuprobieren, also wirklich alles was ich sehe oder in buchform lese festzuhalten. was ich im netz lese halte ich ich ja bereits mit lesezeichen fest.
die technik dahinter finde ich betörend einfach: für jede serienfolge, film oder buch, lege ich einen beitrag mit den wichtigsten daten an: (von) wann, was, wie lange und wie wars? die beiträge kann ich ganz normal in kirby als content anlegen, aber auch per per webhook oder per micropub.
den webhook sendet tautulli sobald ich einen film oder serienfolge zuende gesehen habe und sieht so aus:
// header
{
"X-Webhook-Secret": "GEHEIMER SCHLÜSSEL"
}
// daten
{
"title": "{title}",
"show_title": "{show_name}",
"parent_title": "{season_name}",
"episode_title": "{episode_name}",
"year": "{year}",
"type": "{media_type}",
"season": "{season_num}",
"episode": "{episode_num}",
"duration": "{duration}",
"imdb_id": "{imdb_id}",
"tvdb_id": "{thetvdb_id}",
"thumb": "{thumb}",
"datum_watched": "{stopped_unixtime}"
}
mit dem micropub-client sparkles kann ich gesehene filme anlegen.
die übersicht habe ich heute mit allem was ich 2026 gesehen habe gefüllt. die wenigen filme, die ich gesehen habe, mit sparkles, die serien manuell mit einem curl.
curl -X POST https://wirres.net/WEBHOOK-PFAD \
-H "Content-Type: application/json" \
-H "X-Webhook-Secret: GEHEIMER SCHLÜSSEL" \
-d '{
"title": "Fallout Season 2: The Strip",
"show_title": "Fallout",
"parent_title": "",
"episode_title": "The Strip",
"year": "2025",
"type": "show",
"season": "2",
"episode": "8",
"duration": "56",
"imdb_id": "tt36758871",
"tvdb_id": "",
"thumb": "https://images.squarespace-cdn.com/content/v1/51b3dc8ee4b051b96ceb10de/1755267368038-D0OLYJK9669RQ8CO6UI1/GyU3dkDasAAJ6rB.jpg?format=500w",
"datum_watched": "1770235200"
}'
mit dem curl ging das ziemlich effizient, künftig sollte der grossteil der einträge dann automatisch aus plex/tautulli kommen, den rest pflege ich dann eben manuell nach, bis ich dafür auch eine automatisierung finde.
im prinzip ist die übersicht ein (h-) feed, den man theoretisch auch abonnieren könnte, aber da muss ich mir noch was überlegen, wie man das in einen sinnvoll rauschenden rss- oder atom-fluss umwandelt.
benji, der sparkles geschrieben hat, sammelt so auch filme die er gesehen hat.
als nächstes werde ich versuchen ein paar tagesaktuelle statistiken zu erzeugen. ich finde man kann in der übersicht auch schon so einiges ablesen:
durch die rehberge zum berlin-spandauer-schifffahrtskanal und von der aristide-briand-brücke mit bus und bahn zurück. es war vergleichsweise warm und feucht, das eis unter dem pfützen war tückisch glatt.
nachem ich mir gestern eine möglichkeit geschaffen spaziergänge als .gpx-dateien hochzuladen und darzustellen, habe ich mal geschaut, ob ich sowas schon früher versucht habe. dabei habe ich diesen alten artikel von 2015 gefunden, der zwar eine gpx-datei erwähnt, aber nicht beinhaltet. stattdessen fiel mir auf das der artikel ein paar fehler enthielt. die videos funktionieren nicht, asides werden mittig, statt am rand angezeigt und die fotos hatten noch keine expliziten lizenz-informationen. meine imports vom alten blog in kirby funktionierten eigentlich ganz gut, aber bei einzelen details klemmte es dann doch immer wieder, auch weil ich zum zeitpunkt des ex- und imports in kirby noch nicht alle features abgebildet hatte.
beim reparieren des artikels, fiel mir dann noch auf, dass die importierten fotos tatsächlich noch ihre exif-daten in sich trugen, also lud ich die auch nach. mit den exif-infos war es kirby dann möglich automatisch eine karte der foto-orte zu generieren, die sich dann erfreulicherweise fast so aussah wie die karte, die ich vor 10 jahren aus einer .gpx-datei generiert hatte, damals boch bei einem externen dienst, der längst das zeitliche gesegnet hat.
das freute mich sehr, denn so war der alte artikel nach der reparatur besser als vorher.
das dinge im netz kaputtgehen ist unumgänglich. auch die archive.org-version des alten artikels ist nicht mehr (oder war es nie) in ordnung. deshalb, lesson learned, ist es wirklich sinnvoll alle daten, originale bei sich zu behalten, man weiss ja nie wozu sie gut sein werden. und es ist immer sinnvoll dinge ohne harte externe abhängigkeiten zu bauen. das heisst nicht, dass man nicht auch mal externe dienste nutzen soll oder inhalte dorthin aggregieren oder syndizieren sollte, sondern eben, dass man es im ernstfall eben auch selbst machen kann, ohne abhängig von einem dritten zu sein.
deshalb freue ich mich auch so einen weg gefunden zu haben eine gpx-datei hier lokal darzustellen. mit komoot könnte ich sowas per iframe einbetten, aber dann habe ich einerseits eine abhängigkeit und andererseits tracking-codes eines dritten auf meinen seiten.
andererseits spricht nichts dagegegen touren, wie die wanderung um den „de meinweg“ weiterhin mit komoot aufzuzeichnen und dort zu teilen, so lange ich sie auch als gpx exportieren kann. genau diesen export hab ich jetzt im alten artikel über die wanderung nachgepflegt. wenn dann in 30 jahren komoot nicht mehr ist, hab ich immer noch alle wesentlichen daten bei mir.
seit ich angefangen habe bookmarks (und likes) bei mir zu sammeln (bookmarks, likes, replies, alles zusammen, wirklich alles), statt in pinboard, sende ich mit diesen lese- oder like-notizen auch webmentions an die betreffenden seiten. die meisten ignorieren das aus technischen gründen (weil sie keine webmentions unterstützen), aber manche nehmen die benachrichtigung entgegen. eay.cc zum beispiel, da wurden meine bookmark-webmentions dann aber komisch dargestellt, also hat er das repariert und spass dabei gehabt.
oder gestern habe ich crowdersoup.com einen kommentar geschickt. der wurde angenommen aber jetzt muss das layout offenbar repariert werden. bei beiden war ich offenbar der erste, der sowas geschickt hat und ehrlichgesagt bin ich hier auch nicht auf alle webmention-arten vorbereitet, die mir potenziell geschickt werden können.
aber das ist eben teil des spass: build & repair as you go, probleme dann lösen, wenn sie daherkommen. oder anders gesagt: eine webseite ist eine baustelle die wirklich kein ende hat — und das ist auch gut so.
ich weiss gar nicht mehr wie ich crowdersoup.com entdeckt habe, aber ich vermute über indiewebnews. den beiträgen dort folge ich seit kurzem wieder intensiver und komme dadurch vermehrt auf webseiten die sich mit den technologien des indiewebs auseinandersetzen — oder genauer: damit ringen. der gleichzeitige vor- und nachteil der indieweb-idee ist, dass es kaum fertige lösungen gibt und man sich eigentlich alles selbst zusammenbaut. das ist ein segen und ein fluch und ich verfluche die komplexität dieses indiwweb-gedöns auch regelmässig, um dann doch immer wieder einen neuen versuch zu starten.
diese definition von marty mcguire umschreibt die idee des indieweb ganz gut, vor allem was es ist und eben nicht ist:
indieweb.org is not a presciption or a cookbook or an exercise plan. It doesn’t tell you how to “be IndieWeb”. It’s a collective memory of experiments, some successful and some not, from a group of experimenters that has changed greatly over time.
was mir aber, abgesehen von den philosophischen fragen, heute auffiel: die idee des indiewebnews-aggregators kann man eigentlich weiterspinnen. indiewebnews ist ein aggregator in dem man sich selbst einträgt, einfach indem man indiewebnews verlinkt und dann ein webmention an indiewebnews sendet (anleitung auf deutsch bei news.indieweb.org/de). dieses vorgehen macht die seite nicht 100% spam-resistent, aber mit ein bisschen moderation könnte man daraus eigentlich sehr schöne aggregatoren zu allen möglichen themen bauen. wie gesagt, seit ich den englischen kanal der indiewebnews näher verfolge, habe ich viele neue, interessante webseiten/blogs gefunden die interessante sachen schreiben oder bauen oder zeigen. vielleicht könnte man so blog-themen-hubs bauen. mir fehlt leider die strukturierte phantasie um so ein konzept zu verfeinern, aber die discoverability und sichtbarkeit von blogs und webseiten zu verbessern ist ja ein erstrebenswertes ziel.
kühler, aber angenehmer morgenspaziergang mit etwas neuschnee. frida fand das alles sehr gut. mir fiel auf, wie transparent die rehberge und der goethepark im winter werden. während man im sommer ja nicht durch die bäume und büsche hindurchsehen kann, öffnen sich im winter ständig neue sichtachsen.
noch spannender, heute habe ich bei crowdersoup.com eine darstellung einer wanderung gesehen (inlusive toller bilder, check it out), die mir einerseits sehr gut gefallen hat und andererseits, bei genauem hinsehen lediglich aus einer .gpx-datei besteht die per javascript als karte und höhen-diagram dargestellt wird.
ich tracke mich selbst ja ständig mit owntracks, aber der gpx-track aus owntracks heute früh hatte gerade mal 8 bis 10 datenpunkte. das ist ein bisschen zu grob. das tracking von „trainings“ mit der apple watch hingegen ist sehr hochauflösend. tatsächlich habe ich schon lange eine app namens auto export auf meinem telefon und mit der kann man jedes training auch als gpx-datei exportieren.
in kirby habe ich mir (mit coding assistenz) einen neuen block bauen lassen, in dem ich einen titel für den spaziergang eingebe und die exportierte .gpx-datei hochlade.
und voilà, nach dem klick sieht man was javascript daraus zaubert. ich finde es grandios.
→ weiterlesenmarkus unterscheidet zwischen schreiben und „content“-erstellung:
da stimme ich natürlich einerseits hundertprozentig zu, weil der sinn des schreibens für mich in erster linie eine art verdaungsvorgang ist, quasi die allmähliche verfertigung der gedanken beim bloggen. das schreiben ist das ziel, nicht der text. ich glaube so ähnlich, habe ich das auch schon hundertfach hier aufgeschrieben und möglicherweise wird das thema für hier lesende auch langsam langweilig — obwohl ich ja der meinung bin, dass es nichts schadet, wenn man weiss oder dabei zusieht, wie die wurst gemacht wird.
andererseits kann die generative KI etwas, was ich nicht kann, bzw. nicht können will: strukturiert, prägnant und optimiert auf den punkt kommen. ich war vor ein paar tagen ziemlich erstaunt darüber, was chatGPT aus meinem text über „elaborierte kulturtexte“ gemacht hat, nachdem es behaupt hatte, den text mit einer „klareren These, sauberer Struktur und weniger Behauptungsschlenkern“ schreiben zu können.
ich habe die textversion von chatGPT in die beilage kopiert und muss sagen: ja, der text, den chatGPT aus meiner vorlage gebaut hat, ist sauberer strukturiert und mehr auf den punkt als meiner. aber so, in aufzählungen, thesen und im oberchecker-tonfall, möchte ich selbst gar nicht schreiben. diese art zu schreiben ist eigentlich genau das, wogegen ich mich nicht erst seit generativer textgenerierung, sondern seit meiner schulzeit auflehne.
unter dem gleichen text hat jemand noch einen anderen gedanken kommentiert, den ich nicht nachvollziehen kann:
dass es unter den alten gatekeepern auch nicht besser war oder sogar schlimmer, hast du vor 20 jahren auch schon geschrieben. ist das problem nicht eher, dass das offene web nicht mehr das ist, was es vor 20 jahren war?
ich habe eher das gegenteilige gefühl, dass sich das offene web seit 20, 30 jahren eigentlich nicht im wesentlichen verändert hat. zumindest das was „man“, was ich dadrin so mache hat sich seit 30 jahren eigentlich nicht grossartig verändert. meine erste „homepage“ von 1986/97 sah im prinzip bereits aus wie diese seiten, auf denen ich heute schreibe.
das potenzial des offenen webs hat sich aus meiner sicht nicht verändert. das gallische dorf wurde vielleicht von grossen plattformen und attraktiven silos umbaut, aber im gallischen dorf kann man ungestört weiterleben, wie vor 20-30 jahren — auch wenn viele der jungen leute landflucht begangen haben. das gallische dorf im netz hat auch den vorteil, dass es nicht an einen ort gebunden ist, sondern eben nur an protokolle — und die sind, bis auf kleine anpassungen — seit jahren stabil und für jede nutzbar.
in diesem zusammenhang habe ich mich über dieses stück internet-archäologie über die cool site of the day von 1994 sehr gefreut:
gewundert habe ich mich gestern über dieses jubelstück von @kurzgesagt über ozempic.
das ist bemerkenswert unkritisch, auch wenn ich das meiste was dort beschrieben wird und aus studien zitiert wird, aus eigener erfahrung bestätigen kann. so war mein vorherrschendes gefühl, als ich ozempic im august und september genommen habe, dass das semaglutid (der wirkstoff von ozempic) den kreislauf von appetit und sättigung eingerenkt, wiederhergestellt hat. ich habe gelernt wieder besser auf die signale meines körpers zu hören, bzw. das semaglutid hat das rauschen und die übersteuerung der signale neu kalibriert und für mich wieder verständlich gemacht hat. mein appetit auf süssspeisen ist weiterhin exakt auf null, ohne dass ich das gefühl habe, auf etwas verzichten zu müssen.
nico brünjes ist gerade in einer 70s-rewatch-phase. am sonntag hat er bullitt empfohlen, eine empfehlung der ich gerne nachgekommen bin, weil ich den noch nicht gesehen habe und der ja wohl ein klassiker ist.
um mit dem fazit anzufangen: das war ein grosses vergnügen und nico hat auch schon die wichtigsten gründe aufgeschrieben, warum bullitt sehenswert ist und ein klassiker ist. und er hat natürlich auch die ikonische autoverfolgungsjagd per youtube eingebettet, die man auch kennt, wenn man den film nie gesehen hat.
ich habe den film, der von 1968 ist und damit ein jahr älter als ich, mit dieser was bin ich? folge von 1976 im hinterkopf gesehen. ich weiss, es ist absurd bullitt und was bin ich? zu vergleichen, aber ich sehe da durchaus paralellen: das timing ist anders als man es heute gewohnt ist, die schnitte wirken teilweise ungewohnt, der ton ist direkter, echter und enthält irre viele nebengeräusche und wird nicht ständig mit musik übertüncht oder in der post-production geglättet. die frisuren sind ausserirdisch. keine handies. und das licht, die beleuchtung ist immer etwas zu hell und hart für die dark-mode-augen des 21ten jahrhunderts.
in bullitt stehen und fahren ausserdem überall oltimer rum und zum telefonieren muss man immer zu den apparaten gehen. es wird nicht weniger telefoniert als heute, nur anders, vor allem nicht im gehen.
die dialoge in bullitt sind spärlich. der verbale austausch zwischen den menschen, die man im film sieht, beschränkt sich auf kurze sätze mit vielen imperativen. nur der staatsanwalt spricht manchmal etwas ausladender. das längste gespräch im film ist, glaube ich, ein gespräch zwischen bullitt und seiner freundin cathy am rand der autobahn, in dem sie eigentlich einen monolog hält und bullitt nicht viel mehr sagt als „time starts now“.
ganz grandios fand ich, dass viele dialoge aus einer gewissen entfernung aufgenommen sind und man sie deshalb nicht hört. von mir aus hätte man das mit allen dialogen so machen können. was gesprochen wird ist ohnehin zweitrangig und hilft selten dabei die handlung zu verstehen. man könnte behaupten: in bullitt geht’s ohnehin nur um brilliant fotografierte gesichter, san francisco und autos.
ich war 1981 als zwölfjähriger mal in san francisco, also 10 jahre nachdem bullitt dort gedreht wurde. und ich muss sagen, meine erinnerungen, meine inneren bilder, decken sich hundertprozentig mit dem was man im film sieht. danach war ich noch zweimal in san francisco, einmal so um das jahr 2000 und dann nochmal 2014. da sah san francicso bereits ganz anders, glatter, pastelliger, geschliffeneer aus.
das erstaunlichste an bullitt ist aber was ganz anderes. man kann offenbar (theoretisch) auch mit strickjacke cool aussehen.
… vernetzung, aggregation, empfehlungen und zielgruppen finden. ich merke es immer wieder wie hilfreich konstantins „dynamische blogrolle“ ist (sein „reader.konnexus.net“). ich folge zwar einem grossteil seiner quellen, aber ein kurzer besuch lässt interessantes meist einen ticken früher oben aufschwimmen, als es in meinem eigenen (RSS) reader geschieht.
heute, gerade, habe ich bei konstantin diesen kurzen longread von cory doctorow „gefunden“ und gelesen:
es zeigt sich: menschliches verhalten vorauszusehen ist komplizierter als man so denkt, aber soziolaogen haben in unserer welt eine gute datenlage und insgesamt günstige forschungsbedingungen. und wenn man der frage nachgeht, warum sich in online-communities oft redundante gruppen bilden, dass man mal wieder auf ein trilema stösst.
The conversational trilemma – the unresolvable need for scale, trust and information – has been with us since the earliest days of online socializing.
schönes bild und es erinnert mich daran, dass ich diese rolltreppe auch unbedingt mal fahren möchte. schon seit jahren.