links vom 23.6.2025
gigold.me: 300 Kilometer mit dem Fahrrad durch die Nacht
thomas gigold fährt mit dem rad in der nacht von halle bis kurz vor potsdam (und zurück). hört sich nachmachenswert an, nur dass ich es mit dem rad fahren nicht so habe. aber warum nicht mal eine wanderung durch die nacht?
gelegentlich, wenn ich oder frida nicht schlafen können oder die verdauung frida früh nach fraussen treibt, haben wir unsere morgenspaziergänge am sehr frühen morgen gemacht, in absoluter dunkelheit. das ist sowohl spannend als auch faszinierend.
björn linkt auf AltTexty, ein microservice auf den man bildchen draggen&droppen kann um aus dem bild einen KI generierten alt-text zu generieren. mit diesem bild (dateiname Berlin-Spandauer Schifffahrtskanal.jpg
) …

… erzeugte alttexty diesen text:
A serene waterscape with a stone embankment in the foreground, featuring a still, reflective body of water mirroring lush green trees and a glimpse of buildings with red and white facades under a clear blue sky, with a discarded plastic bag visible on the embankment.
chatgpt (o4-mini-high) habe ich gefragt: „kannst du für dieses bild einen alt text verfassen, auf deutsch?“. antwort:
Ein ruhiger Abschnitt des Spandauer Schifffahrtskanals in Berlin an einem sonnigen Tag: Im Vordergrund ist eine steinerne Ufermauer mit einer darauf liegenden, weißen Plastiktüte zu sehen. Dahinter spiegelt sich eine Baumreihe sowie ein rotes-weißes Gebäude im glatten Wasser des Kanals, darüber ein klarer, blauer Himmel.
den tipp mit dem dateinamen hat nur chatgpt angenommen, aber beide haben einen blick für details (plastiktüte).
aber mir stellt sich eine ganz andere frage: ist es wirklich sinnvoll dass ich als veröffentlichender einen bildbeschreibenden text verfasse?
weil wenn ich das mache, würde ich gar nicht auf die idee kommen in eine solche detailtiefe zu gehen. mein alt-text wäre gewesen: „bild vom berlin-spandauer schifffahrtskanal“. wenn ich mir besonders viel mühe geben würde, vielleicht noch ergänzt mit dem satz „an einem sonnigen tag, das wasser glitzert glatt und reflektiert das ufer“.
diese neuen tools machen da definitiv einen besseren, neutraleren und sachlicheren job bei der bildanalyse als ich das jemals könnte. wäre meine sicht eingeschränkt, hätte ich wahrscheinlich mit dem auftauchen der ersten KI-bild-analyse-tools aufgehört meinen screenreader alt-texte lesen zu lassen und wäre für bilder auf werkzeuge meiner wahl umgestiegen, die ich nach meinen bedürfnissen anpassen kann.
einfache testfrage an chatgpt:
kannst du mir die bilder und videos auf wirres.net/articles/morgen… kurz beschreiben?
antwort:
Hier eine kurze Übersicht der vier Medien im Artikel:
Foto 1: Am Berlin-Spandauer Schifffahrtskanal. Ruhiges Wasser spiegelt dichtes Ufergehölz und ein rotes/weißes Gebäude, im Vordergrund links steht Frida neben einem Baumstamm auf dem schmalen, grasbewachsenen Uferrand. wirres.net
Foto 2: Schattiger Waldweg in den Rehbergen. Ein breiter, erdiger Pfad zieht sich durch dichtes, grünes Blätterdach, mittig sieht man Frida klein im Schatten zwischen den Bäumen stehen. wirres.net
Video 1: Kurzes Loop vom Kanal. Leise Wellenbewegung auf dem Wasser, Spiegelungen der Bäume und des Gebäudes wogen sanft, Blick über eine Steinmauer, auf der links ein Plastiktütchen liegt. wirres.net
Video 2: Frida beim Hecheln. Die kleine, schwarze Pudel-Mix-Hündin liegt auf sandigem Boden, trägt ein hellblaues Geschirr, ihre Zunge hängt heraus, im Bild sind auch die Schuhe des Fotografen und die gelbe Leine zu sehen. wirres.net
ernstgemeinte frage, wie sinnvoll ist es überhaupt noch alt-texte zu verfassen, ausser wenn man lediglich auf den zweiten blick sichtbare meta-informationen zu einem bild mitliefern will?
(antworten gerne hier oder auf mastodon oder bluesky.)
[nachtrag 24.06.2025]
ich habe im laufe der diskussion gelernt:
- best practice für alt-texte ist nicht eine fotorealistische beschreibung, sondern eine knappe beschreibung, ca 140 zeichen lang.
- das ki-alt-text werkzeug auf barrierefreies.design macht soweit ich verstehe einen guten job und erklärt weiter unten auch die best practices (via markus)
- so knapp und kurz hab ich bisher alt-texte auch verfasst, wenn ich sie nicht vergessen hab. mach ich dann auch so weiter.
- wer sich bilder im detail erklären lassen will oder muss, kann KI tools zur detailierten bildbeschreibung nutzen, alt-texte sind eher für die schnelle orientierung