medienimport
natürlich ist es eine schnapsidee, filme oder serien hier tracken zu wollen. wenn ich wollte, könnte ich das alles bei trakt machen. trakt arbeitet mit einem leicht obskuren dritt-dienst zusammen (younify.tv) um die historie des gesehenen von netflix auszulesen. tatsächlich kann man damit die historie aller grossen streaming-angebote abgreifen — wenn man younify.tv genug vertrauen entgegenbringt und (vollen) zugriff auf diese dienste gewährt. mein vertrauen hat vor ein paar jahren nur dafür gereicht, younify.tv zugriff auf mein netflix-konnto zu gewähren, weshalb ich jetzt einen teil meiner netflix-historie auch in trakt habe.
der vorteil ist, dass ich die von younify.tv abgegriffenen daten, jetzt auch wieder über die trakt-api selbst abgreifen kann, zum beispiel mit diesem script. mit ein zwei weiteren phyton scripten kann ich deshalb jetzt auch automatisch auf netflix gesehenes hier loggen.
schnapsidee hin oder her, sowohl trakt als auch ich wissen, dass die schnapsidee alles gesehene zu loggen, nur funktioniert, wenn es vorwiegend automatisch geht. wenn da nicht die vertrauensfrage wäre. ein datenleck bei trakt von 2014, das trakt erst 2019 offenlegte, zeigt, dass es nicht angebracht ist, trakt 100% vertrauen zu schenken. wenn ich mich recht erinnere hab ich die verbindung zwischen trakt und plex schon vor 2019 gekappt, weil mir das einen ticken zu unheimlich war, meine plex-historie ungefiltert in trakt zu leiten. bei netflix hielten sich meine bedenken in grenzen.
mit meinem selbstgebauten plex/tautulli-zu-kirby-exporter behalte ich die kontrolle und der import in die öffentliche liste klappt auch ohne drittanbieter ganz gut, fast vollautomatisch. ich muss nur noch eine wertung nachtragen.
und auch wenn ich bei der netflix → younify.tv → trakt.tv → wirres.net konstruktion weniger bis keine kontrolle habe, wollte ich diese automatisierungs-pipeline jetzt testen. dafür musste ich mir natürlich irgendeinen scheiss auf netflix ansehen.
also hab ich mir die erste folge being gordon ramsay angesehen. ich vermute das wird weder so erfolgreich wie netflix chefs table noch so ein hit wie drive to survive — auch wenn das strickmuster ähnlich ist. beim überfliegen der kritiken ist eine überschrift hängengeblieben, der ich direkt zustimmen möchte: gordon ramsay should not be so boring.
jedenfalls funktioniert der sync zwischen netflix, younify.tv, trakt.tv und wirres.net/kirby, wenn auch mit leichter verzögerung.
zum thema ex- und importe: ich habe auch ein script gefunden, mit dem sich die daten aus tautulli, also plex, mit letterboxd syncen lassen. damit habe ich jetzt lücken meiner film-timeline auf letterboxd geschlossen, auch wenn die timeline der filme die ich jemals sah auf letterboxd immer noch lücken in den letzten 10 jahren hat. schliesslich schau ich filme ja nicht nur auf plex, sondern auch auf amazon prime, im kino (gelegentlich) oder netflix. aber weils geht, weil ich daten jetzt aus plex und netflix rausbekomme, erscheint es mir logisch meine film-historie erstmal auf letterboxd zu vervollständigen. dann kann ich sie auch wieder hierher holen. aber bevor ich das mache sammel ich hier, bis auf ein paar ausnahmen — zu testzwecken — erstmal vornehmlich in 2026 gesehenes und gelesenes.
mit so einer „datenbank“ für gesehenenes und gelesenes setze ich mich übrigens auch geschickt selbst unter zugzwang. jetzt muss ich auch mal wieder ein buch lesen, damit ich es loggen kann. und damit schliesst sich der zirkel: ausgehen um drüber schreiben zu können, scheisse auf netflix schauen, ums zu prüfen ob es automatisch geloggt wird. morgens spazieren gehen um das wetter zu fotografieren und fotos und .gpx-tracks zu posten, kochen um rezepte maschinenlesbar zu veröffentlichen, schlafen, um zu sehen, wie gut der schlaftracker funktioniert. (b)loggen weil’s geht.
morgenspaziergang 24.02.2026
heute beim morgenspaziergang ein foto von der traurigen bürgerwiese gemacht und dabei gar nicht bemerkt (erst zuhause, beim bilder-sichten), wie eine wolke auf dem weg vor uns vorbeiwabberte.
→ weiterlesenlinks und likes vom 23.02.2026
ist depubizieren bildungsfeindlich?
beim medienloggen und beim tracken der sendung mit der maus von gestern, ist mir aufgefallen, wie absurd die praxis des depublizierens bei unseren öffentlich rechtlichen sendern und deren mediatheken ist.
die sendung mit der maus ist mit klassischen tracking websites trakt, imdb oder thetvdb.com kaum sinnvoll zu verfolgen. einzig fernsehserien.de hat eine akzeptable übersicht über die sendungen mit der maus. wobei die einzelnen einträge dort auch nur aus ein paar metadaten (immerhin gut gepflegt) und pressemitteilungen der ARD bestehen.
wie schön wäre es, wenn die permalinkseiten einzelner sendungen, wie die vom 22.02.2026 tatsächlich permanent wären? stattdessen wird die seite, zusammen mit dem video, am 30.03.2026 wieder verschwinden.
wenn ich es richtig verstehe, haben wir in deutschland kein öffentliches, bzw. im web zugängliches archiv des deutschen fernsehens (und der sendung mit der maus), weil verleger und kommerziele unterhaltungs und informationsanbieter der meinung sind, dass sowas schlecht für ihr geschäftsmodell sei. der politische kompromiss, der hier besteht, bedeutet, dass ein dauerhaftes archiv gesetzlich ausdrücklich untersagt ist, weil die öffentlich rechtlichen sonst den markt unangemessen beeinträchtgen würden. na gut, es gibt auch noch rechtefragen, da eine sendung mit der maus in den achtzigern wahrscheinlich nur die rechte mit den autoren, moderatoren oder komponisten der musik für die tv-ausstrahlung geklärt hat.
aber trotzdem, wie absurd: ein kulturgut wie „die sendung mit der maus“, das von der gesellschaft mit fernsehgebühren finanziert wurde, ist für die gesellschaft digital nicht als archiv verfügbar. was für eine bildungslücke, bzw. was für ein schatz das wäre, stünde uns eine gepflegte bibliothek der fernsehgeschichte zur verfügung, statt gelegentlich privat auf youtube hochgeladener schnipsel aus der öffentlich rechtlichen historie.
das ist natürlich auch besonders absurd, wenn es jetzt politische ambitionen gibt social media für junge menschen zu verbieten, aber gleichzeitig educational media für junge menschen auch nicht so richtig zu erlauben. ich weiss dass ein archiv des öffentlich rechtlichen fernsehen keine alternative zu social media ist, aber es wäre ein zeichen: bildung ist uns als gesellschaft so wichtig, dass kommerzielle interessen diesem ziel nicht im weg stehen dürfen. stattdessen lautet das signal: bildung gibt’s nur hinter bezahlschranken, als abo, als in-app-kauf. wir wollen die wirtschaft nicht mit öffentlich-rechtlichen-inhalten schwächen und nehmen dafür in kauf, das bildungsnivau der gesellschaft zu schwächen.
dust bunny
dust bunny gesehen. ich weiss nicht was das war, aber es war wirklich gut. und ich habe auch ziemlich oft gelacht.
der film hielt mich die ganze zeit über on the edge of my seat, aber nicht wegen des spannungsbogen, sondern weil das was man zu sehen bekam so unverständlich schien, dass ich weitergucken musste um zu erfahren was da eigentlich los war. es war jedenfalls keine sekunde langweilig.
man könnte vielleicht sagen, das was man zu sehen bekam war eine wilde mischung aus pipi langstrumpf und leon der profi?
mein dank an coldheat.de, dessen empfehlung ich gefolgt bin.
glückslauch
heute in der sendung mit der maus eine folge von trudes tier, die ich schonmal gesehen hatte. dieses mal musste ich aber mehrfach lachen. vielleicht habe ich auch schon beim letzten mal gelacht, aber ich erinnere mich nicht.
die folge setzt sich ziemlich klug mit aberglauben auseinander, beinahe philosophisch. am ende ist wie immer das tier das klügere, weil es bemerkt, dass die wirkung des „glückslauch“ eigentlich nur eine projektion war, die aber übergangsweise half innere kraft zu entwickeln.
die folge scheint dauerhaft (frei von depublikation) auf kika.de zu liegen, aber der einfachheit halber bette ich sie hier mit youtube (vom @diemaus kanal) ein.
morgenspaziergang 22.02.2026
frühlingshafte 6°C als wir losgingen, allerdings auch frühlingshafter dauerniesel und grauschleier über der stadt. 6 kilometer vom wedding in den prenzlauer berg gelaufen, mit der s-bahn zurück.
medientracker
eben habe ich die graham norton show gesehen, um zu gucken ob sie danach automatisch hier im blog auftaucht. tat sie.
die idee hatte ich gestern: warum nicht alle sendungen die ich gucke hier mit einem kurzen eintrag festhalten? am besten automatisch. also mach ich das jetzt.
ich mag die idee von micro-einträgen. das erzeugt zwar eine menge rauschen, aber das lässt sich auch gut ausblenden. bei bedarf lassen sich diese einträge aber auch auswerten oder für was auch immer mir einfällt verwenden. vor allem aber mag ich die idee, dass alles hier passieren zu lassen, hier also sozusagen life-logging zu betreiben. das ist ja auch was weblog ursprünglich bedeutete: sachen öffentlich, im web loggen. jetzt wo ich likes und lesezeichen hier logge, kann ich doch auch loggen was ich (fern-) sehe.
die idee mochte ich schon lange, nur stand mir die technik nicht zur verfügung. deshalb habe ich jahrelang watched.li von philipp benutzt. ich fand es in erster linie spannend zu sehen, wie viel zeit ich vor der glotze verschwende, aber watched.li half auch dabei zu vorrauszusehen, womit ich in zukunft meine zeit verschwenden konnte, welche serien und folgen bevor standen.
seit 10 jahren nutze ich neben plex auch noch tautulli, eine freundliche plex-begleit-app. im prinzip macht tautulli nichts anderes als plex zu beobachten und alles zu loggen: wer schaut wann was, was macht der server, was gibt’s neues? wenn ich zurück zu 2017 gehe, sehe ich, dass ich am 14. august 2017 game of thrones s07e05 gesehen habe. um 22:43 war ich fertig mit der folge (ist game of thrones echt schon so lange her?).
mit tautulli hab ich als eigentlich alles was ich brauche: statistiken, details zu dem was ich (mit plex) gesehen habe.
andererseits nutze ich ja nicht nur plex. ich schau gelegentlich filme im kino, auf amazon prime, netflix oder RTL+. ich bin auch nicht der einzige, der den wunsch hat das alles zu tracken. heiko hat vor ner weile beschrieben, wie er seinen medienkonsum trackt: Medien-Tracking mit Github und YAML. thomas hat sich einen recorder gebaut, mit dem er alles was er sieht und liest festhält und bewertet. und jetzt hab ich mir in den letzten 24 stunden ein medienmenü zusammengehackt. ich hab mir vorgenommen das mal ein jahr lang auszuprobieren, also wirklich alles was ich sehe oder in buchform lese festzuhalten. was ich im netz lese halte ich ich ja bereits mit lesezeichen fest.
die technik dahinter finde ich betörend einfach: für jede serienfolge, film oder buch, lege ich einen beitrag mit den wichtigsten daten an: (von) wann, was, wie lange und wie wars? die beiträge kann ich ganz normal in kirby als content anlegen, aber auch per per webhook oder per micropub.
den webhook sendet tautulli sobald ich einen film oder serienfolge zuende gesehen habe und sieht so aus:
// header
{
"X-Webhook-Secret": "GEHEIMER SCHLÜSSEL"
}
// daten
{
"title": "{title}",
"show_title": "{show_name}",
"parent_title": "{season_name}",
"episode_title": "{episode_name}",
"year": "{year}",
"type": "{media_type}",
"season": "{season_num}",
"episode": "{episode_num}",
"duration": "{duration}",
"imdb_id": "{imdb_id}",
"tvdb_id": "{thetvdb_id}",
"thumb": "{thumb}",
"datum_watched": "{stopped_unixtime}"
}
mit dem micropub-client sparkles kann ich gesehene filme anlegen.
die übersicht habe ich heute mit allem was ich 2026 gesehen habe gefüllt. die wenigen filme, die ich gesehen habe, mit sparkles, die serien manuell mit einem curl.
curl -X POST https://wirres.net/WEBHOOK-PFAD \
-H "Content-Type: application/json" \
-H "X-Webhook-Secret: GEHEIMER SCHLÜSSEL" \
-d '{
"title": "Fallout Season 2: The Strip",
"show_title": "Fallout",
"parent_title": "",
"episode_title": "The Strip",
"year": "2025",
"type": "show",
"season": "2",
"episode": "8",
"duration": "56",
"imdb_id": "tt36758871",
"tvdb_id": "",
"thumb": "https://images.squarespace-cdn.com/content/v1/51b3dc8ee4b051b96ceb10de/1755267368038-D0OLYJK9669RQ8CO6UI1/GyU3dkDasAAJ6rB.jpg?format=500w",
"datum_watched": "1770235200"
}'
mit dem curl ging das ziemlich effizient, künftig sollte der grossteil der einträge dann automatisch aus plex/tautulli kommen, den rest pflege ich dann eben manuell nach, bis ich dafür auch eine automatisierung finde.
im prinzip ist die übersicht ein (h-) feed, den man theoretisch auch abonnieren könnte, aber da muss ich mir noch was überlegen, wie man das in einen sinnvoll rauschenden rss- oder atom-fluss umwandelt.
benji, der sparkles geschrieben hat, sammelt so auch filme die er gesehen hat.
als nächstes werde ich versuchen ein paar tagesaktuelle statistiken zu erzeugen. ich finde man kann in der übersicht auch schon so einiges ablesen:
- gelegentlich binge ich serien weg
- starfleet academy hab ich nach folge 6 nicht mehr ertragen und aufgehört weiter zu sehen
- ich finde A Knight of the Seven Kingdoms richtig gut
- obwohl The North Water ziemlich gut ist, bin ich in folge 2 hängen geblieben
- ich gucke sehr viel in die glotze
kaufland berlin-wedding
morgenspaziergang zum festplatz, zurück mit bus & bahn
durch die rehberge zum berlin-spandauer-schifffahrtskanal und von der aristide-briand-brücke mit bus und bahn zurück. es war vergleichsweise warm und feucht, das eis unter dem pfützen war tückisch glatt.
um den plötzensee
links und likes vom 20.02.2026
baustellen ohne ende
nachem ich mir gestern eine möglichkeit geschaffen spaziergänge als .gpx-dateien hochzuladen und darzustellen, habe ich mal geschaut, ob ich sowas schon früher versucht habe. dabei habe ich diesen alten artikel von 2015 gefunden, der zwar eine gpx-datei erwähnt, aber nicht beinhaltet. stattdessen fiel mir auf das der artikel ein paar fehler enthielt. die videos funktionieren nicht, asides werden mittig, statt am rand angezeigt und die fotos hatten noch keine expliziten lizenz-informationen. meine imports vom alten blog in kirby funktionierten eigentlich ganz gut, aber bei einzelen details klemmte es dann doch immer wieder, auch weil ich zum zeitpunkt des ex- und imports in kirby noch nicht alle features abgebildet hatte.
beim reparieren des artikels, fiel mir dann noch auf, dass die importierten fotos tatsächlich noch ihre exif-daten in sich trugen, also lud ich die auch nach. mit den exif-infos war es kirby dann möglich automatisch eine karte der foto-orte zu generieren, die sich dann erfreulicherweise fast so aussah wie die karte, die ich vor 10 jahren aus einer .gpx-datei generiert hatte, damals boch bei einem externen dienst, der längst das zeitliche gesegnet hat.
das freute mich sehr, denn so war der alte artikel nach der reparatur besser als vorher.
das dinge im netz kaputtgehen ist unumgänglich. auch die archive.org-version des alten artikels ist nicht mehr (oder war es nie) in ordnung. deshalb, lesson learned, ist es wirklich sinnvoll alle daten, originale bei sich zu behalten, man weiss ja nie wozu sie gut sein werden. und es ist immer sinnvoll dinge ohne harte externe abhängigkeiten zu bauen. das heisst nicht, dass man nicht auch mal externe dienste nutzen soll oder inhalte dorthin aggregieren oder syndizieren sollte, sondern eben, dass man es im ernstfall eben auch selbst machen kann, ohne abhängig von einem dritten zu sein.
deshalb freue ich mich auch so einen weg gefunden zu haben eine gpx-datei hier lokal darzustellen. mit komoot könnte ich sowas per iframe einbetten, aber dann habe ich einerseits eine abhängigkeit und andererseits tracking-codes eines dritten auf meinen seiten.
andererseits spricht nichts dagegegen touren, wie die wanderung um den „de meinweg“ weiterhin mit komoot aufzuzeichnen und dort zu teilen, so lange ich sie auch als gpx exportieren kann. genau diesen export hab ich jetzt im alten artikel über die wanderung nachgepflegt. wenn dann in 30 jahren komoot nicht mehr ist, hab ich immer noch alle wesentlichen daten bei mir.
seit ich angefangen habe bookmarks (und likes) bei mir zu sammeln (bookmarks, likes, replies, alles zusammen, wirklich alles), statt in pinboard, sende ich mit diesen lese- oder like-notizen auch webmentions an die betreffenden seiten. die meisten ignorieren das aus technischen gründen (weil sie keine webmentions unterstützen), aber manche nehmen die benachrichtigung entgegen. eay.cc zum beispiel, da wurden meine bookmark-webmentions dann aber komisch dargestellt, also hat er das repariert und spass dabei gehabt.
oder gestern habe ich crowdersoup.com einen kommentar geschickt. der wurde angenommen aber jetzt muss das layout offenbar repariert werden. bei beiden war ich offenbar der erste, der sowas geschickt hat und ehrlichgesagt bin ich hier auch nicht auf alle webmention-arten vorbereitet, die mir potenziell geschickt werden können.
aber das ist eben teil des spass: build & repair as you go, probleme dann lösen, wenn sie daherkommen. oder anders gesagt: eine webseite ist eine baustelle die wirklich kein ende hat — und das ist auch gut so.
ich weiss gar nicht mehr wie ich crowdersoup.com entdeckt habe, aber ich vermute über indiewebnews. den beiträgen dort folge ich seit kurzem wieder intensiver und komme dadurch vermehrt auf webseiten die sich mit den technologien des indiewebs auseinandersetzen — oder genauer: damit ringen. der gleichzeitige vor- und nachteil der indieweb-idee ist, dass es kaum fertige lösungen gibt und man sich eigentlich alles selbst zusammenbaut. das ist ein segen und ein fluch und ich verfluche die komplexität dieses indiwweb-gedöns auch regelmässig, um dann doch immer wieder einen neuen versuch zu starten.
diese definition von marty mcguire umschreibt die idee des indieweb ganz gut, vor allem was es ist und eben nicht ist:
indieweb.org is not a presciption or a cookbook or an exercise plan. It doesn’t tell you how to “be IndieWeb”. It’s a collective memory of experiments, some successful and some not, from a group of experimenters that has changed greatly over time.
was mir aber, abgesehen von den philosophischen fragen, heute auffiel: die idee des indiewebnews-aggregators kann man eigentlich weiterspinnen. indiewebnews ist ein aggregator in dem man sich selbst einträgt, einfach indem man indiewebnews verlinkt und dann ein webmention an indiewebnews sendet (anleitung auf deutsch bei news.indieweb.org/de). dieses vorgehen macht die seite nicht 100% spam-resistent, aber mit ein bisschen moderation könnte man daraus eigentlich sehr schöne aggregatoren zu allen möglichen themen bauen. wie gesagt, seit ich den englischen kanal der indiewebnews näher verfolge, habe ich viele neue, interessante webseiten/blogs gefunden die interessante sachen schreiben oder bauen oder zeigen. vielleicht könnte man so blog-themen-hubs bauen. mir fehlt leider die strukturierte phantasie um so ein konzept zu verfeinern, aber die discoverability und sichtbarkeit von blogs und webseiten zu verbessern ist ja ein erstrebenswertes ziel.
morgenspaziergang 18.02.2026 & eine gpx-datei
kühler, aber angenehmer morgenspaziergang mit etwas neuschnee. frida fand das alles sehr gut. mir fiel auf, wie transparent die rehberge und der goethepark im winter werden. während man im sommer ja nicht durch die bäume und büsche hindurchsehen kann, öffnen sich im winter ständig neue sichtachsen.
noch spannender, heute habe ich bei crowdersoup.com eine darstellung einer wanderung gesehen (inlusive toller bilder, check it out), die mir einerseits sehr gut gefallen hat und andererseits, bei genauem hinsehen lediglich aus einer .gpx-datei besteht die per javascript als karte und höhen-diagram dargestellt wird.
ich tracke mich selbst ja ständig mit owntracks, aber der gpx-track aus owntracks heute früh hatte gerade mal 8 bis 10 datenpunkte. das ist ein bisschen zu grob. das tracking von „trainings“ mit der apple watch hingegen ist sehr hochauflösend. tatsächlich habe ich schon lange eine app namens auto export auf meinem telefon und mit der kann man jedes training auch als gpx-datei exportieren.
in kirby habe ich mir (mit coding assistenz) einen neuen block bauen lassen, in dem ich einen titel für den spaziergang eingebe und die exportierte .gpx-datei hochlade.
und voilà, nach dem klick sieht man was javascript daraus zaubert. ich finde es grandios.
→ weiterlesencontent, ozempic, das alte web
markus unterscheidet zwischen schreiben und „content“-erstellung:
da stimme ich natürlich einerseits hundertprozentig zu, weil der sinn des schreibens für mich in erster linie eine art verdaungsvorgang ist, quasi die allmähliche verfertigung der gedanken beim bloggen. das schreiben ist das ziel, nicht der text. ich glaube so ähnlich, habe ich das auch schon hundertfach hier aufgeschrieben und möglicherweise wird das thema für hier lesende auch langsam langweilig — obwohl ich ja der meinung bin, dass es nichts schadet, wenn man weiss oder dabei zusieht, wie die wurst gemacht wird.
andererseits kann die generative KI etwas, was ich nicht kann, bzw. nicht können will: strukturiert, prägnant und optimiert auf den punkt kommen. ich war vor ein paar tagen ziemlich erstaunt darüber, was chatGPT aus meinem text über „elaborierte kulturtexte“ gemacht hat, nachdem es behaupt hatte, den text mit einer „klareren These, sauberer Struktur und weniger Behauptungsschlenkern“ schreiben zu können.
ich habe die textversion von chatGPT in die beilage kopiert und muss sagen: ja, der text, den chatGPT aus meiner vorlage gebaut hat, ist sauberer strukturiert und mehr auf den punkt als meiner. aber so, in aufzählungen, thesen und im oberchecker-tonfall, möchte ich selbst gar nicht schreiben. diese art zu schreiben ist eigentlich genau das, wogegen ich mich nicht erst seit generativer textgenerierung, sondern seit meiner schulzeit auflehne.
unter dem gleichen text hat jemand noch einen anderen gedanken kommentiert, den ich nicht nachvollziehen kann:
dass es unter den alten gatekeepern auch nicht besser war oder sogar schlimmer, hast du vor 20 jahren auch schon geschrieben. ist das problem nicht eher, dass das offene web nicht mehr das ist, was es vor 20 jahren war?
ich habe eher das gegenteilige gefühl, dass sich das offene web seit 20, 30 jahren eigentlich nicht im wesentlichen verändert hat. zumindest das was „man“, was ich dadrin so mache hat sich seit 30 jahren eigentlich nicht grossartig verändert. meine erste „homepage“ von 1986/97 sah im prinzip bereits aus wie diese seiten, auf denen ich heute schreibe.
das potenzial des offenen webs hat sich aus meiner sicht nicht verändert. das gallische dorf wurde vielleicht von grossen plattformen und attraktiven silos umbaut, aber im gallischen dorf kann man ungestört weiterleben, wie vor 20-30 jahren — auch wenn viele der jungen leute landflucht begangen haben. das gallische dorf im netz hat auch den vorteil, dass es nicht an einen ort gebunden ist, sondern eben nur an protokolle — und die sind, bis auf kleine anpassungen — seit jahren stabil und für jede nutzbar.
in diesem zusammenhang habe ich mich über dieses stück internet-archäologie über die cool site of the day von 1994 sehr gefreut:
gewundert habe ich mich gestern über dieses jubelstück von @kurzgesagt über ozempic.
das ist bemerkenswert unkritisch, auch wenn ich das meiste was dort beschrieben wird und aus studien zitiert wird, aus eigener erfahrung bestätigen kann. so war mein vorherrschendes gefühl, als ich ozempic im august und september genommen habe, dass das semaglutid (der wirkstoff von ozempic) den kreislauf von appetit und sättigung eingerenkt, wiederhergestellt hat. ich habe gelernt wieder besser auf die signale meines körpers zu hören, bzw. das semaglutid hat das rauschen und die übersteuerung der signale neu kalibriert und für mich wieder verständlich gemacht hat. mein appetit auf süssspeisen ist weiterhin exakt auf null, ohne dass ich das gefühl habe, auf etwas verzichten zu müssen.
bullitt
nico brünjes ist gerade in einer 70s-rewatch-phase. am sonntag hat er bullitt empfohlen, eine empfehlung der ich gerne nachgekommen bin, weil ich den noch nicht gesehen habe und der ja wohl ein klassiker ist.
um mit dem fazit anzufangen: das war ein grosses vergnügen und nico hat auch schon die wichtigsten gründe aufgeschrieben, warum bullitt sehenswert ist und ein klassiker ist. und er hat natürlich auch die ikonische autoverfolgungsjagd per youtube eingebettet, die man auch kennt, wenn man den film nie gesehen hat.
ich habe den film, der von 1968 ist und damit ein jahr älter als ich, mit dieser was bin ich? folge von 1976 im hinterkopf gesehen. ich weiss, es ist absurd bullitt und was bin ich? zu vergleichen, aber ich sehe da durchaus paralellen: das timing ist anders als man es heute gewohnt ist, die schnitte wirken teilweise ungewohnt, der ton ist direkter, echter und enthält irre viele nebengeräusche und wird nicht ständig mit musik übertüncht oder in der post-production geglättet. die frisuren sind ausserirdisch. keine handies. und das licht, die beleuchtung ist immer etwas zu hell und hart für die dark-mode-augen des 21ten jahrhunderts.
in bullitt stehen und fahren ausserdem überall oltimer rum und zum telefonieren muss man immer zu den apparaten gehen. es wird nicht weniger telefoniert als heute, nur anders, vor allem nicht im gehen.
die dialoge in bullitt sind spärlich. der verbale austausch zwischen den menschen, die man im film sieht, beschränkt sich auf kurze sätze mit vielen imperativen. nur der staatsanwalt spricht manchmal etwas ausladender. das längste gespräch im film ist, glaube ich, ein gespräch zwischen bullitt und seiner freundin cathy am rand der autobahn, in dem sie eigentlich einen monolog hält und bullitt nicht viel mehr sagt als „time starts now“.
ganz grandios fand ich, dass viele dialoge aus einer gewissen entfernung aufgenommen sind und man sie deshalb nicht hört. von mir aus hätte man das mit allen dialogen so machen können. was gesprochen wird ist ohnehin zweitrangig und hilft selten dabei die handlung zu verstehen. man könnte behaupten: in bullitt geht’s ohnehin nur um brilliant fotografierte gesichter, san francisco und autos.
ich war 1981 als zwölfjähriger mal in san francisco, also 10 jahre nachdem bullitt dort gedreht wurde. und ich muss sagen, meine erinnerungen, meine inneren bilder, decken sich hundertprozentig mit dem was man im film sieht. danach war ich noch zweimal in san francisco, einmal so um das jahr 2000 und dann nochmal 2014. da sah san francicso bereits ganz anders, glatter, pastelliger, geschliffeneer aus.
das erstaunlichste an bullitt ist aber was ganz anderes. man kann offenbar (theoretisch) auch mit strickjacke cool aussehen.
apropos …
… vernetzung, aggregation, empfehlungen und zielgruppen finden. ich merke es immer wieder wie hilfreich konstantins „dynamische blogrolle“ ist (sein „reader.konnexus.net“). ich folge zwar einem grossteil seiner quellen, aber ein kurzer besuch lässt interessantes meist einen ticken früher oben aufschwimmen, als es in meinem eigenen (RSS) reader geschieht.
heute, gerade, habe ich bei konstantin diesen kurzen longread von cory doctorow „gefunden“ und gelesen:
es zeigt sich: menschliches verhalten vorauszusehen ist komplizierter als man so denkt, aber soziolaogen haben in unserer welt eine gute datenlage und insgesamt günstige forschungsbedingungen. und wenn man der frage nachgeht, warum sich in online-communities oft redundante gruppen bilden, dass man mal wieder auf ein trilema stösst.
The conversational trilemma – the unresolvable need for scale, trust and information – has been with us since the earliest days of online socializing.
gern gesehen, gern gelesen und gefavt
Once men turned their thinking over to machines in the hope that this would set them free. But that only permitted other men with machines to enslave them.
― Frank Herbert, Dune, ca. 1965
in dune war deshalb kopfrechnen ein grosses ding.
bald kommt wahrscheinlich die CSU um die ecke und fordert: kopfrechnen statt KI. (via)
elaborierte kulturtexte
@janschmidt hat seine folgenden gefragt ob er qwert oder was anderes lesen soll. qwert ist der neue roman von walter moers (verlangslink). walter moers habe ich ein bisschen aus den augen verloren. nachdem ich 2004 die 13 ½ leben des käpt’n blaubär ganz grandios fand, fand ich 2013 das labyrinth der träumenden bücher ganz furchtbar und mit seinem kliffhänger mitten in der geschichte auch unverfroren. rumo hab ich dann, glaube ich, wieder mit grossem vergnügen gelesen und dann nix mehr. der output von moers über die letzten jahre scheint aber laut verlagsautorenseite kaum nachgelassen zu haben.
ich habe erfreut festgestellt, dass die e-buch-version von qwert bei thalia zwar so viel wie die gebundene ausgabe kostet (39,99 €), aber man dafür eine epub-datei ohne kopierschutz bekommt. das ist mal lobenswert und ich überlege mir mal ein paar tage urlaub zu nehmen um das buch auf dem sofa bingezulesen.
über diese eher undifferenzierte ansicht wollte ich mich gleich nach dem lesen des teasers aufregen und selbst was super-differenziertes schreiben, aber das essay von tilman baumgärtel liest sich besser, als die teaser beim bildblog oder über dem text bei der taz, vermuten lassen. aber der text bietet trotzdem nicht viel mehr als anekdotische evidenz: baumgärtel meint, früher habe es immer wieder erfreuliches Feedback“ auf „lange, feuilletonistische Artikel“ gegeben — und jetzt nicht mehr.
ich hab aus der vergangenen zeit der gatekeeper auch die eine oder andere anekdote. natürlich haben erwähnungen von oder interviews mit mir oder gar artikel über mich in überregionalen oder regionalen medien gelegentlich spürbares feedback erzeugt1 — wenn die gatekeeper ihre tore mal einen spalt öffneten. aber damals waren massenmedien eben auch noch massenmedien und noch nicht durchfragmentarisiert. damals lenkten die tore, über die die gatekeeper wachten, noch reissende flüsse, jetzt plätschert an diese tore im besten fall noch ein glucksender bach.
der aufmerksamkeits-markt ist grösser, lauter und unübersichtlicher geworden, für alle beteiligten. es bilden sich neue gatekeeper-cluster, influencer gewinnen an einfluss (scnr) und gedrucktes ist, wie vinyl, von einem massenprodukt zu einem liebhaberprodukt geworden. ich hab hier genauso wenig neue erkenntnisse, wie tilman baumgärtel:
Dass man mit Videoschnipsel-Debattenbeiträgen mehr Aufmerksamkeit als mit elaborierten Texten erhalten kann, ist zwar keine neue Erkenntnis. Ich war bloß noch nie auf die Idee gekommen, dass das auch für mich und meine Kulturartikel gelten könnte. Doch offenbar bewegen wir uns dank Social Media und Videoreels wieder in Richtung einer oralen Kultur, wie sie der Literaturwissenschaftler Walter Ong beschrieben hat.
walter ong hab ich nicht gelesen. wohl aber neil postman. vor vierzig jahren. der wurde nicht müde zu argumentieren, dass die vorherrschaft des gedruckten worts durch das zeitalter des fernsehens, der bilder und des amüsements abgelöst würde, bzw. schon wurde. deshalb frage ich mich: waren diese „elaborierten Kulturtexte“ überhaupt jemals besonders populär? waren die leser von sowas nicht immer schon eine verschwindend kleine special interest fraktion der bevölkerung? warum hat der inflluencer marcel reich ranicki das literarische quartett in den 80er jahren ins fernsehen gehievt? weil sich schon damals keine sau für „elaborierte Kulturtexte“ oder buchkritiken in den gedruckten medien zu interessieren schien. also hat er mit ein paar bekannten mit 70 minuten langen videoschnipsel-debattenbeiträgen versucht mehr aufmerksamkeit für bücher zu generieren.
wenn ich mich recht an meinen geschichtsuntericht erinnere war martin luther, genau wie postman und ong davon genervt, dass die katholische kirche den glauben vor allem durch bilder, statuen, rituale und performances vermittelte und nicht sola scriptura („allein durch die schrift“).
was ich sagen will: differenzierte, elaborierte texte haben es schon immer schwer gehabt ein breites publikum zu finden. und vielleicht haben sich intellektuelle vor 20, 30, 100 oder 500 jahren, genau wie der eine oder andere blogger vor 20 jahren, davon einlullen lassen, dass die debatten in vielen filterblasen eben von intellektuellen domiert wurden und so eine etwas eindimensionale, unrealistische wahrnehmung von resonanz, relevanz oder popularität erzeugten.
vielleicht müssen medienschaffende (da zähle ich mich durchaus mit dazu) einfach damit leben lernen, dass ihre texte einerseits eine sehr begrenzte, sehr kleine zielgruppe haben und dass es andererseits immer schon schwer war diese überschaubare zielgruppe überhaupt zu erreichen. feuilletons waren sowas wie aggregatoren und suchmaschinen der frühen zeit für „elaborierte“, anspruchsvollere texte, werkzeuge um aufmerksamkeitströme in einem gewissen rahmen zu lenken und zu manipulieren oder zu subventionieren.
um so wichtiger dürte es sein, die nutzung des offenen webs weiter für vernetzung, aggregation, empfehlungen und eigenverlag zu nutzen. die zielgruppe, klein und überschaubar, ist noch da, sie findet den ganzen elaborierten scheiss nur immer schwerer. das kann man ändern, indem man sich nicht mehr an den grossen platformen orientiert, sondern sich so gut wie möglich vernetzt, föderiert und werkzeuge weiterentwickelt, experimentiert und sein publikum selbst einsammelt und bedient.
luther nutzte damals auch moderne werkzeuge beim versuch die menschen aus den bildwelten der kirche zu zerren. und wie luther stehen wir mächtigen giganten gegenüber, aber wenn wir uns auf die kraft des geschrieben wortes verlassen, technologien klug nutzen, ertragen, dass die meisten menschen uns ignorieren und kaum wahrnehmen, haben wir vielleicht doch die chance hier und da jemanden zu berühren und vielleicht auch was zu verändern.
am ende ist relevanz firlefanz und statt eines massenpublikums ist ein ordentlicher, selbstgebauter resonanzraum wahrscheinlich ohnehin die bessere lösung.
-
vor zwanzig jahren gabs das mal, dass sich zeitweise arte, die taz und berliner zeitung oder medienmagazine für blogger und gelegentlich auch mich interessierten. ↩
schönes bild und es erinnert mich daran, dass ich diese rolltreppe auch unbedingt mal fahren möchte. schon seit jahren.