gerichtsstrasse 23 und metzger platz

abgesehen davon einiges an stürmschäden am max-josef-metzger-platz
abgesehen davon einiges an stürmschäden am max-josef-metzger-platz
gigold.me: 300 Kilometer mit dem Fahrrad durch die Nacht
thomas gigold fährt mit dem rad in der nacht von halle bis kurz vor potsdam (und zurück). hört sich nachmachenswert an, nur dass ich es mit dem rad fahren nicht so habe. aber warum nicht mal eine wanderung durch die nacht?
gelegentlich, wenn ich oder frida nicht schlafen können oder die verdauung frida früh nach fraussen treibt, haben wir unsere morgenspaziergänge am sehr frühen morgen gemacht, in absoluter dunkelheit. das ist sowohl spannend als auch faszinierend.
björn linkt auf AltTexty, ein microservice auf den man bildchen draggen&droppen kann um aus dem bild einen KI generierten alt-text zu generieren. mit diesem bild (dateiname Berlin-Spandauer Schifffahrtskanal.jpg
) …
… erzeugte alttexty diesen text:
A serene waterscape with a stone embankment in the foreground, featuring a still, reflective body of water mirroring lush green trees and a glimpse of buildings with red and white facades under a clear blue sky, with a discarded plastic bag visible on the embankment.
chatgpt (o4-mini-high) habe ich gefragt: „kannst du für dieses bild einen alt text verfassen, auf deutsch?“. antwort:
Ein ruhiger Abschnitt des Spandauer Schifffahrtskanals in Berlin an einem sonnigen Tag: Im Vordergrund ist eine steinerne Ufermauer mit einer darauf liegenden, weißen Plastiktüte zu sehen. Dahinter spiegelt sich eine Baumreihe sowie ein rotes-weißes Gebäude im glatten Wasser des Kanals, darüber ein klarer, blauer Himmel.
den tipp mit dem dateinamen hat nur chatgpt angenommen, aber beide haben einen blick für details (plastiktüte).
aber mir stellt sich eine ganz andere frage: ist es wirklich sinnvoll dass ich als veröffentlichender einen bildbeschreibenden text verfasse?
weil wenn ich das mache, würde ich gar nicht auf die idee kommen in eine solche detailtiefe zu gehen. mein alt-text wäre gewesen: „bild vom berlin-spandauer schifffahrtskanal“. wenn ich mir besonders viel mühe geben würde, vielleicht noch ergänzt mit dem satz „an einem sonnigen tag, das wasser glitzert glatt und reflektiert das ufer“.
diese neuen tools machen da definitiv einen besseren, neutraleren und sachlicheren job bei der bildanalyse als ich das jemals könnte. wäre meine sicht eingeschränkt, hätte ich wahrscheinlich mit dem auftauchen der ersten KI-bild-analyse-tools aufgehört meinen screenreader alt-texte lesen zu lassen und wäre für bilder auf werkzeuge meiner wahl umgestiegen, die ich nach meinen bedürfnissen anpassen kann.
einfache testfrage an chatgpt:
kannst du mir die bilder und videos auf wirres.net/articles/morgen… kurz beschreiben?
antwort:
Hier eine kurze Übersicht der vier Medien im Artikel:
Foto 1: Am Berlin-Spandauer Schifffahrtskanal. Ruhiges Wasser spiegelt dichtes Ufergehölz und ein rotes/weißes Gebäude, im Vordergrund links steht Frida neben einem Baumstamm auf dem schmalen, grasbewachsenen Uferrand. wirres.net
Foto 2: Schattiger Waldweg in den Rehbergen. Ein breiter, erdiger Pfad zieht sich durch dichtes, grünes Blätterdach, mittig sieht man Frida klein im Schatten zwischen den Bäumen stehen. wirres.net
Video 1: Kurzes Loop vom Kanal. Leise Wellenbewegung auf dem Wasser, Spiegelungen der Bäume und des Gebäudes wogen sanft, Blick über eine Steinmauer, auf der links ein Plastiktütchen liegt. wirres.net
Video 2: Frida beim Hecheln. Die kleine, schwarze Pudel-Mix-Hündin liegt auf sandigem Boden, trägt ein hellblaues Geschirr, ihre Zunge hängt heraus, im Bild sind auch die Schuhe des Fotografen und die gelbe Leine zu sehen. wirres.net
ernstgemeinte frage, wie sinnvoll ist es überhaupt noch alt-texte zu verfassen, ausser wenn man lediglich auf den zweiten blick sichtbare meta-informationen zu einem bild mitliefern will?
(antworten gerne hier oder auf mastodon oder bluesky.)
[nachtrag 24.06.2025]
ich habe im laufe der diskussion gelernt:
es droht heiss zu werden heute, bzw. es war um sieben uhr (in der sonne) bereits ziemlich warm. frida und ich haben uns schattige wege durtch die rehberge und dann am berlin-spandauer schifffahrtskanal gesucht und sind gut durch die frühhitze gekommen. aber einen ticken zu warm, war es frida und mir dennoch.
ich entschuldige mich inständig für meine derzeitige live-foto-phase, aber dieses hier mag ich besonders gerne, weil die bewegung so subtil ist.
abgesehen davon dass der spaziergang schattig war, waren auch zwei schöne hunde-begegnungen dabei. frida interessiert sich ja eigentlich nicht so doll für hunde, also zumindest nicht für die hunde selbst. ihre ausscheidungen hingegen findet sie hochinteressant und analysiert sie eingehend.
grosse hunde, denen wir begegnen, mustert sie in der regel kritisch und begegnet ihnen lieber mit abstand, bzw. direkt neben mir gehend. dass sie angst vor grösseren (fremden) hunden hat kann man nicht sagen, aber sie ist da sehr vorsichtig. heute lief in den rehbergen ein grauer grosspudel vor uns her und führte seine menschen gassi. er lief genau wie frida vorweg und analysierte ausscheidungen anderer hunde und tiere. frida lief auch vor und zeigte einerseits kein grosses interesse am grosspudel selbst, aber andererseits auch keine scheu vor nähe.
nachdem der grosse pudel irgendwo markierte, stand sie in zwei meter abstand und wartete bis er platz machte, damit sie seine ausscheidung begutachten könne. natürlich weckte frida das interesse des grossen pudel und er wollte nicht nur fridas ausscheidungen, sondern direkt die quelle begutachten. als frida das genau 30ms zu lange dauerte schnappte sie in seine richtung um damit unmissverständlich um distanz zu bitten. das versteht nicht jeder hund — oder genauer, das lässt sich nicht jeder hund gefallen — aber der grosspudel verstand und hielt dann respektvoll abstand. bis wir die menschen und grosspudel gruppe überholt hatten dauerte es noch ein bisschen, und alle liefen ein stückchen gemeinsam weiter, aber alle waren respektvoll-distanziert.
die andere begegnung war mit einem jungen jagdhundweibchen, bzw. weil der mensch der die junge jagdhündin begleitete kein depp war, gab es gar keine begegnung, sondern nur respektvoll-distanziertes aneinander vorbeigehen. der (junge) mensch mit der jagdhündin war mit einem e-scooter unterwegs und die hündin lief begeistert freilaufend neben ihm her. so überholten sie uns, während wir kurz pause machten. die beiden drehten dann aber um und wollten da lang gehen wo wir gerade pause machten und frida sich entschiden hatte sich unten, zu meinen füssen, hinzulegen.
der jagdhundmensch war so umsichtig sowohl seinen roller, als auch seine hündin an die hand und leine zu nehmen und führte die etwas aufgeregte jagdhündin und seinen roller in 30 cm abstand an uns vorbei. frida blieb liegen, felix war stolz.
mequito.org: [Fr, 20.6.2025 – Aperitif, Erkner]
Stattdessen gingen wir runter zur Frankfurter Allee, auf diesen breiten, grünen Bereich nördlich der Straße, dieser Bereich, der fast schon die Qualität eines Parks hat, mit dem promenadenartigen Sandweg, der fast bis zum Alex führt. Ich wundere mich oft, dass dieser kilometerlange Abschnitt nie zu einer Gastromeile geworden ist. Berlinerinnen haben diese als repräsentative Flaniermeile konzipierte Straße nie wirklich angenommen, zumindest nie zu ihrem ganzen Potential ausgeschöpft. Stünde dieses Stück Stadt in Paris oder Rom, wäre es vermutlich die wichtigste Anlaufstelle für das Partyvolk. Aber Berlin feiert offenbar lieber in dunklen Kellern und finsteren Straßen, so ist meine Lesart, und das finde ich auch wieder sympathisch.
(fettung von mir)
wirres.net: changelog 21.06.2025
ich habe das bedürfnis verspürt die änderungen die ich in den letzten tagen hier eingebaut habe zu dokumentieren. aber weil ich weiss, dass das die meisten hier nicht so irre interessiert, lege ich die changelogs abseits der hauptseiten an und lasse sie nicht in den RSS feed. jedenfalls gibt’s jetzt auch kommentare in der beilage.
herrmontag.de: Webmentions und das Indieweb
jan montag hat sich die mühe gemacht webmentions und das indieweb zu erklären. zu seinem (zwischen) fazit bin ich auch schon des öfteren gekommen:
Ihr seht, das ist leider nicht trivial.
meine bisher beste erklärung zum indieweb war ein nachtrag auf auf einen vortrag zum indieweb vor 10 jahren.
wirres.net: gehören selfies ins blog?
meine aktuelle arbeithypothese zum indieweb lautet: zu kompliziert für die meisten, aber für mich nach wie vor ein herrliches experimentierfeld. ein werkzeugkasten den ich nicht missen möchte, weil:
im moment will ich vor allem eins: das blog zuerst, aber auf die reichweite der netzwerke, die möglichkeit menschen ausserhalb meiner filterblase zu erreichen, möchte ich (momentan) nicht verzichten. ausser manchmal.
heute gestern früh sind frida und ich eine runde um den schäfersee gelaufen. dort sind immer noch absperrungen wegen der „neugestaltung“ des weges um den schäfersee, aber einiges ist auch schon fertig. erstaunlich ist aber, wie lange solche bauarbeiten dauern.
am nachmittag sind wir irgendwie in den regbergen gelandet — obwohl ich auf den park gerade gar keine lust habe. irgendwie hat es frida geschafft mich da hin zu lotsen. sie war aber am ende doch ein bisschen enttäuscht, weil ich einerseits früh wieder nachhause gelenkt habe (zu warm), was ihr gar nicht passte, weil sie noch sehr unternehmungslustig war. andererseits fanden in den rehbergen heute irgendwelche meisterschaften im disc-golfen statt. deshalb konnten wir uns nicht wirklich frei bewegen, aber ich habe mich gefreut, dass die fliegenden scheiben frida nicht gereizt haben sondern ihr egal waren.
ganz abgesehen davon bin ich leicht fasziniert, wie das iphone aus freihändigen „live“ fotos so stabile loops baut. man sieht oben dass da viel mit überblendungen gearbeitet wird, aber auch in der einen oder den zwei sekunden die das iphone diese filmchen aufnimmt kann immer etwas kamera bewegung passieren. aus meiner bisherigen erfahrung sind geloopte „live“-fotos aber extrem stabil. das manuell, auch mit hilfe von LLMs, zu stabilisieren ist (mir) so gut wie unmöglich (siehe vollmundige versprechen). ich finds gut, auch wenn der loop, bzw. die bewegung auf dem foto nicht gerade subtil ist.
gerade ist „meine“ mastodon instanz down: mstdn.io
ich bin da ja schon ewig und wollte dem betreiber auch schon mal was spenden, gerne auch regelmässig. aber es gibt weder einen spendenlink noch hat der admin auf meinen kontaktversuch reagiert. immerhin habe ich jetzt das blog des betreibers gefunden: stanislas.blog
wenn leute bloggen, bzw. ich ihr blog lesen kann, ist das gleich ein ganz anderes verhältnis als „irgendwer im netz“. trotzdem bin ich leicht besorgt. ich habe mir nochmal erklären lassen wie (theoretische) mastodon umzüge von instanz zu instanz funktionieren — und offensichtlich kann man da weder seine posts noch die damit verknüpften kommentare und likes mitnehmen. das ist sehr unbefriedigend und unflexibel, zumal ich mich auf diese mastodon-instanz als reaktions- und kommentar-kanal verlasse. bleibt mir erstmal nur zu hoffen dass die bisherige langlebigkeit der instanz weitergeht, das aktuelle problem bald gelöst ist oder dass mir eine selbstgehostete lösung über den weg läuft, deren betrieb ich mir zutraue und die mir zusagt, bzw. das nötige grundvertrauen gibt.
nachtrag 21.06.2025 16:20 uhr:
mstdn.io geht wieder. ich habe ausserdem geschafft meinem mastodon-instanz-betreiber etwas zu spenden, auch wenn offenbar überall die spenden links entfernt sind. über das blog zu github — wo kein spenden-link aktiviert war — empfahl mir chatgpt es doch mal bei ko-fi.com zu probieren. das hat geklappt. fühle mich besser.
ausserdem hab ich kommentare mal experiementell aktiviert. für diese seite hierlang: kommentieren
stewart hicks erklärt sehr nachvollziehbar, warum das centre pompidou so ein grossartiges gebäude ist. wenn man überlegt, dass es fast so alt ist wie ich, aber gerade mal 5% so alt aussieht wie ich, ist das schon erstaunlich. es sieht nicht nur modern aus, sondern immer noch irgendwie neu.
sehr schön fand ich stewart hicks behauptung, dass das centre pompidou konzeptionell und architektonisch unsere moderne kommunikationskultur vorwegnahm. dadurch dass das centre pompidou alle technik nach aussen stülpt, ist es innen ultra-flexibel und kann jede gewünschte funktion übernehmen.
ich habe vergessen ob ichs bei john gruber oder anderswo gelesen habe, aber das iphone — oder allgemein moderne computer mit touch-screen, ich sag im folgenden der einfachheit halber trotzdem nur „iphone“ — sind deshalb so universell, weil sie zwar alle technik innen verstecken, aber jede vorstellbare funktion nach aussen stülpen können. ein iphone kann eben ein telefon sein, ein fax oder gar ein filofax, eine bibliothek oder eben auch ein museum. die idee, das konzept hinter beiden, dem centre pompidou und dem iphone, ist das gleiche: 100% flexibilität ohne dass einem haustechnik oder microeletronik im weg stehen.
man muss leider sagen, dass das iphone es leichter hat flexibel zu sein als das centre pompidou. virtuell ist einfach um die 100% leichter als gebaut.
auf dem iphone haben menschen mittlerweile gelernt, rein funktionelle konzepte und einen sehr hohen abstraktionsgrad hinzunehmen. in der welt der architektur hängen die menschen nach wie vor dem skeuomorphismus nach. ein haus soll gefälligst wie ein haus aussehen, also am besten mit giebel und gardinen hinter den fenstern. chatgpt hat, wie ich finde, sehr schön die definition von skeuomorphismus, aber eben auch an die erwartungen an architektur, auf einen kurzen satz eingedampft
Skeuomorphismus ist Design, das moderne Dinge wie alte Vorbilder aussehen lässt.
das bild hat chatgpt gezeichnet, promt:
kannst du das centre pompidou mit bleistift skizzieren, ganz minimalistisch?
danach hab ich gebeten:
das sieht sehr gut aus. ein ganz bisschen mehr details?
weil die beifahrerin mir gestern die hälfte der m&m’s weggegessen hat wir in unserer ehe alles gerecht teilen, zog es mich beim morgenspaziergang heute wieder zum ubahnhof schwartzkopffstrasse um m&m’s zu kaufen. dort hatte ich gestern m&m’s zu einem günstigen kilopreis von 6,10 € erhalten (siehe shrinkflationsausgleich).
die morgenspaziergänge starten frida uns ich meisten ohne plan. wir schauen wo es uns hinzieht. mich zieht es derzeit nicht so sehr ins grüne, wegen pollen aber auch weil die gräser gerade ihre grannen verteilen, die frida zwar egal sind, ihr aber trotzdem schaden könnten.
wir folgen dann unseren nasen, mal mache ich vorschläge fürs abbiegen, mal frida.
das ergebnis ist dann oft eine zickzack-route mit grober richtungsvorgabe und dem groben ziel einer ubahnstation oder bushaltestelle, von der wir wieder nachhause kommen.
unterwegs sehen wir dann viel, unter anderem geometrie und luft oder wie häuser ihre klebestreifen nach hitzeeinwirkung zeigen.
jedenfalls sind wir dann wieder an der schwartzkopffstrasse gelandet, m&m’s gab es noch im automaten, aber er wollte keine m&m’s mehr rausrücken. der automat behauptete m&m’s seien leer. wie ichs mir gedacht hatte, der gier nachzugeben oder sein schicksal zu sehr herauszufordern bringt am ende nur schlechte laune, ich hätte fridas vorschlag in die rehberge zu gehen vielleicht doch folgen sollen.
das wort „shrinkflation“ habe ich zuerst bei spiegel.de (€) gelesen. das war im rahmen der alljährlichen werbung content partnerschaft (meine worte) von spiegel online mit foodwatch. spiegel.de macht das jedes jahr: über die wahl des „goldenen windbeutels“ berichten, zur teilnahme an der abstimmung aufrufen und die hersteller um stellungnahme bitten.
whatever. ich benutze ja sehr gerne automaten, zum beispiel die zuckerwaren-automaten auf u-bahnsteigen. ich liebe den nervenkitzel (fällt das produkt nach der spiraldrehung runter oder klemmt’s, funktioniert die bargeldrückgabe, hat jemand in die ausgabeschublade gekackt?). für zwei euro gibts dort ne sehr gross aussehende tüte ernuss m&m’s. die packung sieht so gross aus, als seien 200 gramm drin, in echt sind’s aber nur 82 gramm, kilopreis 24,39 €. online kann man die 82 gramm packungen für ca. 1,20 €, kaufen (kilopreis 13,68 €).
der 250 gramm beutel m&m’s kostet online ca. 3,70 € (kilopreis 14,92 €). im u-bahn-automaten zahle ich also ungefähr 90 % mehr als online und wahrscheinlich auch im supermarkt.
heute vor der rückfahrt nach dem morgenspaziergang habe ich wieder 2 € in den automaten geworfen, die 34 gewählt und mich gefreut dass niemand in die ausgabeschublade gekackt hat. danach freute ich mich noch mehr, denn die m&m’s spirale des automaten drehte sich munter weiter und warf noch 3 weitere packungen ab. von weiteren käufen habe ich abgesehen, weil ich stets versuche meine gier zu unterdrücken.
aber damit ist mir jetzt ausgleichende shrinkflations-gerechtigkeit wiederfahren und ich habe m&m’s am automaten für einen günstigen kilopreis von 6,10 € erhalten.
youtube.com: The Moon Terminator Illusion
wie alle vsauce videos ziemnlich tolles video das perspektive, wahrnehmungskonstanz, parallax und strahlenbüschel und einiges mehr erklärt. aber am besten hat mir der letzte teil gefallen, der sich mit der abwesenheit von (mathematischer oder „realistischer“) perspektive in der vor-renaissance-malerei beschäftigt. da fiel dann auch ein zitat von picasso, das mir sehr gefiel:
It took me four years to learn to paint like Raphael but a lifetime to paint like a child.
schade dass vsauce seit 2 jahren keine neuen videos mehr postet, aber schön das vsauce bis vor zwei jahren sehr viele unglaublich gute video gepostet hat (zum beispiel das hier).
youtube.com: How an Ancient Mummy Changed History
ötzis geschichte visuell aufgearbeitet. hab ich gern gesehen, bzw. gemerkt, dass wir sehr froh sein können jetzt und hier zu leben und nicht in der kupferzeit. oder anders gesagt, man fragt sich wie es die menschheit geschafft hat 300.000 jahre mit parasiten, viren, bakterien, pilzen und einer feindseligen natur bis heute zu überleben.
youtube.com: What if you funneled Niagara Falls through a straw?
auch grossartig xkcd's What If? videos. dieses natürlich auch. auch hier habe ich ein zitat mitgenommen, oder etwas gelernt, was mir vorher so noch nicht klar war.
Water always wants to boil, but is normally held together by air pressure.
eigentlich logisch, weil wir ja alle wissen, dass wasser in höheren lagen schneller kocht als auf meeresspiegel-höhe. ein ähnliches aha hatte ich, als ich merkte, dass holz eigentlich aus luft besteht, sprich, dass bäume ihr holz aus dem C in CO₂ bauen.
mir ist schon klar, dass ich die beizeichnung „dramatischer himmel“ hier inflationär nutze. aber dieser himmel ist gar nicht dramatisch, sondern zu gut um wahr zu sein. ich sehe den himmel und denke: „lecker!“ oder „boar!“. jedenfalls find ich den himmel gut.
und wie immer lässt einen der himmel sehen was man will. hier lässt er mich, fast schon ein bisschen platt, an v wie vendatta oder guy fawkes denken. ich frage mich immer ob der film wirklich so gut war wie ich meine mich zu erinnern. wahrscheinlich eher nicht, aber an diesen himmel muss ich mich gar nicht erinnern, er steht ja direkt vor mir. und er hat sich glatte der 4 von 5 sternchen verdient. sich selbst gönnt er in ein paar stunden aber sicher sehr viel mehr sternchen. so um die zwei bis drei tausend werden da wohl später sichtbar sein.
ich habe ein faible für den leicht ironischen gebrauch des wortes institut. tolles wort eigentlich.
Bedeutungen:
[1] Einrichtung mit eigener Verfassung (Konstitution), meistens eine Anstalt, die wissenschaftlichen Arbeiten, der Forschung, der Erziehung oder Ähnlichem dient
[2] umgangssprachlich: Gebäude, in dem sich [1] befindet
[3] Recht: durch rechtliche Bestimmungen geschaffenes Rechtsgebilde
Herkunft:
von lateinisch institutum → la „Einrichtung, Sitte, Brauch; Unternehmen, Vorhaben“, abgeleitet von instituere → la „aufstellen, unternehmen, einrichten, einsetzen, errichten, ordnen“[1]
frida hat in letzter zeit morgens keinen bock auf ihr alltagsessen. nach dem servieren schaut sie uns meisten mit einem srsly-blick an und lässt das essen erst mal stehen — in erwartung von etwas besserem. nach ca. 30 minuten frisst sie’s dann, lässt aber plakativ immer einen guten rest, den sie dann mittags isst.
heute gelernt, mit ein bisschen geriebenen parmesan isst sie das zeug sofort und restlos auf.
ich bin ja sehr froh mit der art, wie ich hier eigene videos nativ einbinden kann, ohne über youtube oder irgendein CDN zu gehen. in den letzten wochen habe ich auch wiederholt live-fotos oder videos gepostet. die wurden dann allerdings nicht in iOS oder auf dem ipad angezeigt. ich hab ne weile gebraucht, bis ich heute die bedeutung des <video>
attributs playsinline
begriffen habe. das führt dazu, das videos die gemuted sind (oder keinen sound track haben) auch auf iOS oder dem ipad im browser abgespielt werden. das video sollte jetzt also auch auf iOS und ipados funktionieren.
ich habe immer darauf gewartet, dass instagram live-fotos unterstützt. tut es aber offensichtlich bis heute nicht. so sieht das live foto oben aus, wenn ich es (per app) bei instagram hochlade: instagram.com/p/DK6sQ0nM3f0/
enttäuschend und ein weiterer grund primär auf eigene technik zu setzen. obwohl witzigerweise funktioniert das ive-foto (wenn ich es vom telefon auf den rechner airdroppe und dann im browser hochlade) auch auf bluesky und mastodon.
nochmal zur technik; das live foto, dass ich auf den rechner airdroppte, hat 2,8 MB. mit dem folgenden ffmpeg-befehl wird es für das web optimiert und auf 733 KB reduziert. das ist kein grosser unterschied mehr zu einem regulären foto. das könnte ich künftig auch kirby machen lassen (weils geht und praktisch wäre), aber so oft mach ich das ja auch nicht.
ffmpeg -i IMG_3070.mov \
-c:v libx264 \
-preset slow \
-crf 23 \
-pix_fmt yuv420p \
-vf "scale='min(1280,iw)':'-2'" \
-c:a aac \
-b:a 128k \
-movflags +faststart \
optimized.mp4
fria und ich mussten heute wegen fridas verdauung etwas früher los. unterwegs haben wir einen fuchs gesehen (musste dem drang widerstehen „den fuchs gesehen“ zu schreiben). irgendwann fing er an zu schreien, fast wie ein truthahn. wir wissen nicht warum, aber was ich jetzt wieder verstanden habe ist, warum man sagt man sei gespannt. denn als frida dem fuchs nachlauschte, war ihr ganzer körper äusserst gespannt.
carl sagan sagt hier eigentlich alles was man so sagen kann zur frage „is there any type of God to you?“. in einem satz: man muss da schon differenzieren und sehr genaue sprache benutzen. mir gefiel das alles sehr, auch die art wie fragender und antwortender miteinander umgingen. das ist bei dieser art diskussion ja nicht immer gegegebem.
weil mir das video so gut gefiel, habe ich aus der youtiube transkription und mit hilfe von chatGPT und etwas korrekturlesen einen lesbaren text erstellt. wer das auf deutsch lesen will kann ja selbst ein LLM in der nähe fragen.
Q: My question is: Given all these demotions, what is your personal religion, or is there any type of God to you? Like, is there a purpose, given that we're just sitting on this speck in the middle of this sea of stars?
Now, I don't want to duck any questions, and I'm not going to duck this one, even though I have high religious personages who are close friends of mine in this room.
But let me ask you: What do you mean when you use the word God?
Q: Well, I guess what my question is… it's like: Is there a purpose? I mean, given all these demotions, why don't we just blow ourselves up?
Why don't we?
Q: Yeah… What is our purpose?
I mean, let me turn the question around: If we do blow ourselves up, does that disprove the existence of God?
Q: No, I guess not.
I mean, it'll be a little late to make the discovery, but still, yeah…
Q: I guess what I'm asking is, since we kind of make God almost go away in this — and I don't mean he, because who knows what God is
But still, saying he makes it sort of icky, doesn't it?
Q: Yeah. It's tough.
We like it to be a he, don't we?
Q: Yeah. We've been trained to think of it as a he. It seems that through the ages, humans have created a mythological framework that has always involved some kind of higher spiritual powers.
Every human culture has done that.
Q: As that goes away — as we know more and more — it seems harder and harder to prove that anything might exist like that. Where does that leave us?
On our own.
Which, to my mind, is much more responsible than hoping that someone will save us from ourselves, so we don't have to make our best efforts to do it ourselves.
And if we're wrong, and there is someone who steps in and saves us — okay, that's all right. I'm for that. But we've, you know, hedged our bets. It’s Pascal's bargain run backwards.
I'll say another word. The word God covers an enormous range of different ideas. And you recognize that in the way you phrased the question — running from an outsized, light-skinned male with a long white beard sitting in a throne in the sky and tallying the fall of every sparrow (for which there is no evidence to my mind — if anybody has some, I sure would like to see it) — to the kind of God that Einstein or Spinoza talked about, which is very close to the sum total of the laws of the universe.
Now, it would be crazy to deny that there are laws in the universe. And if that’s what you want to call God, then of course God exists.
And there are all sorts of other nuances. There is, for example, the deist God that many of the founding fathers of this country believed in — although it is a secret whose name may not be spoken in some circles — a do-nothing king, the God who creates the universe and then retires, and to whom praying is sort of pointless. He's not here. He went somewhere else. He had other things to do.
Now, that's also a God. So when you say “Do you believe in God?” — if I say yes, or if I say no, you have learned absolutely nothing.
Q: I guess I'm asking you to define yours, if you have one.
But why would we use a word so ambiguous, that means so many different things?
Q: It gives you freedom to define it.
It gives you freedom to seem to agree with someone else with whom you do not agree. It covers over differences. It makes for social lubrication.
But it is not an aid to truth, in my view. And therefore, I think we need much sharper language when we ask these questions.
Sorry to take so long in answering this, but this is an important issue.
das hier ist nicht wirklich ein rezept, sondern etwas was ich in den letzten tagen öfter gemacht habe und für lecker und mitteilenswert befunden habe. im prinzip backe ich mir im kontaktgrill aus aufbackbrötchen leckere, crunchy, heisse panini. dauert gerade mal 3-5 minuten und man muss keinen ofen vorheizen und dreck macht es auch fast keinen.
man kann zwischen die brötchen/brothälften natürlich alle packen, ich habe mich auf je eine schicht sambal olek, käse und schinken eingependelt. ein bisschen crispy chili öl rundet das sehr gut ab. im grill lasse ich die dinger 3-4 minuten und nach ca. 2 minuten drehe ich die brötchen einmal.
stevejobsarchive.com: Stay hungry, stay foolish
visuell wunderbar aufgearbeitete kurze entstehungsgeschichte und digital aufpolierte version von steve jobs abschlussjahrgangs festrede in stanford vor 20 jahren.
grosse, fein gesetzte schrift, css-gestylte email, statt eines screenshots, nativer video-player statt youtube-embed der rede und „artifacts“ zum weiterlesen und blättern.
in meinem RSS reader gibt es eine funktion „herunterladen“. wenn ich die klicke werden gekürzte artikel im RSS feed von der original-website geladen und im feed-reader angezeigt. so kann ich meisten wired.com artikel lesen. wenn man diesen artikel im browser aufruft, stösst man gegebenenfalls (4 artikel kann man auf wired.com wohl ohne abo lesen) an eine paywall:
The Big Story is exclusive to subscribers.
Time to plug into a WIRED subscription. Keep your access fully charged for just$2.50$1 per month.
den artikel über die entstehung von steve jobs standford rede habe ich gerne gelesen — mehr dazu weiter unten. aber weil ich den artikel natürlich zu lesen empfehle, muss ich hier wohl auch eine anleitung posten, wie man ihn lesen kann, wenn man an die paywall stösst. eigentlich ganz leicht. einfach folgendes im terminal (auf dem mac terminal.app
) eingeben:
curl https://www.wired.com/story/how-steve-jobs-wrote-the-greatest-commencement-speech-ever/ > steve.html
danach liegt eine datei steve.html
auf der festplatte, die man einfach mit dem browser öffnen kann. bei mir lautet die url dann file:///Users/ix/steve.html
. bilder und alles sind vorhanden.
sehe gerade (nach etwas googlen), so geht’s auch:
jedenfalls: der artikel im steve jobs archiv geht bereits ein wenig darauf ein, wie schwer es jobs gefallen ist die rede zu schreiben. aber der wired.com-artikel geht da etwas mehr in die tiefe. steve jobs war so verzweifelt, dass er aaron sorkin überredete ihm zu helfen (sorkin meldete sich nie zurück) und zwischendurch versuchte er seinen freund michael hawley zu überreden, dass er die rede halten solle. tatsächlich dürfte michael hawley steve jobs die entscheidenden bestärkungen und tipps gegeben haben:
Hawley loved Jobs’ idea of opening with his own experience of not graduating from college.
“He had the closing idea before he had any of the content of the speech,” Hawley said. He urged Jobs to strengthen the kicker. “Like a good comedian telling a joke, or a good composer writing a piece of music, you want to be sure to nail the punch line, so I think maybe think more about the ending,” he wrote to Jobs in an email. “I like your Whole Earth recollection a lot. I grew up with it too. Even the phrase WHOLE EARTH taps a powerful idealistic undercurrent.” He suggested a few tweaks and reminded Jobs that he’d have to explain what the catalog was. As Hawley told Markoff, “I said, ‘Look, this was Google for our generation … And I said for god’s sake, give credit to Stewart Brand, whose poetic touch infused all that and so much more.”
der witz der rede ist natürlich, dass steve jobs dem abschluss-jahrgang nicht einfach nur ein paar gute tipps vorträgt, sondern eben von sich erzählt, auf (für ihn) ungewöhlich offene art. er erzählt die klassische geschichte vom tellerwäscher zum millionär, aber eben ganz persönlich, egozentrisch — und damit ganz neu. seine schlussfolgerungen bekommen die nötige schlagkraft, weil er sich als mensch öffnet. aber noch entscheidender oder beruhigender ist zu sehen, dass auch ein mensch wie steve jobs für so eine rede wirklich mit sich ringen muss und an den rand der verzweiflung beim schreiben gerät.
wahrhaft neue dinge kommen nur aus einem selbst, aber sie raus zu holen ist unfassbar harte arbeit.
heute in der kamera app entdeckt, wie man auf 16:9 format umstellt. offensichtlich lebe ich unter einem stein.