beilage zu: links vom 23.6.2025

an­mer­kung

wie chatgpt dar­auf kommt fri­da sei eine „Pu­del-Mix-Hün­din“ hab ich mich nur am ran­de ge­fragt. ich ver­mu­te es dach­te, dass sich das ein­fach gut an­hört. je­den­falls ist fri­da kein mix, son­dern ein­fach ein klein­pu­del. auch wenn sie aus un­se­rer sicht manch­mal wie ein mensch-pu­del-mix wirkt, aber das dürf­te den meis­ten hun­de­be­sit­zern so ge­hen.

ab­ge­se­hen da­von stellt sich die fra­ge auch zum the­ma: war­um als deut­scher eng­lisch blog­gen? wenn mei­ne er­güs­se je­mand le­sen will der nur eng­lisch — oder jede an­de­re spra­che — spricht, war­um nicht selbst über­set­zen las­sen? chatgpt mach ei­nen sehr or­dent­li­chen job wenn man ihm ei­nen link zu ei­nem blog­ein­trag hin­wirft, aber viel­leicht gibt’s ja tools die das noch bes­ser kön­nen, war­um soll­te ich mir als deutsch­spra­chi­ger au­tor mit ei­ner deutsch­spra­chi­gen ziel­grup­pe dann die mühe ma­chen tex­te auf eng­lisch zu ver­öf­fent­li­chen?

statistisches

dieser artikel wurde vor 1 monat und 2 wochen veröffentlicht und zuletzt vor 1 monat und 2 wochen geändert. er hat 20 reaktionen gesammelt und es wurden bis jetzt 100 aufrufe erfasst.


reaktionen

diesen artikel habe ich auf mastodon und bluesky weiterveröffentlicht und dort kann er auch kommentiert oder gefavt werden (oder per e-mail). die likes und replies weiter unten sind aus diesen weiterveröffentlichten einträgen extrahiert. kommentare per e-mail veröffentliche ich nicht.

11 kommentare

  • @splitbrain@fedi.splitbrain.org avatar Andreas Gohr @splitbrain @fedi.splitbrain.org

    @ix wenn dann würdest du sinnvollerweise die alt Texte einmal generieren und dann mitliefern. umwelttechnisch wäre es ziemlich bescheuert wenn jeder Client die Texte neu generieren würde... realistisch wird genau letzteres passieren

  • @ix@mstdn.io avatar felix schwenzel @ix @mstdn.io

    @splitbrain i get your point, aber ich gehe mal davon aus, dass es insgesamt eher weniger bis keine leser mit screenreader auf wirres.net gibt. da wäre dann theoretisch die umweltbilanz schlechter, wenn ich für jedes bild eine KI fragte.

    aber ich glaube alt texte sind wirklich sinnvoll um meta-infos an die bilder zu heften, namen, orte, zeiten, kontext.

    am ende nutzt ohnehin jeder die tools seiner/ihrer wahl und accessability-tools sind sicher bald mit solchen zusatzfunktionen unterwegs.

  • @jk@chaos.social avatar jk @jk @chaos.social

    @ix ich würde stets alt-texte manuell erstellen. vorteile: du kannst den alt-text-fokus auf selbst gewählte bildaspekte legen und ihn so optimaler zur aussage des dazugehörigen (tröt-/blog-)textes abstimmen. zudem ist openai kein unterstützenswertes unternehmen. also lieber den alt-text-schreibmuskel trainieren statt ein umstrittenes ki-modell.

  • @ix@mstdn.io avatar felix schwenzel @ix @mstdn.io

    @jk ich hab ja nicht gesagt, man solle das mit openai machen, sondern dass diese tools mittlerweile ein niveau erreicht haben, dass die nützlichkeit von alt texten weit übersteigen könnte. da kann und wird jeder die tools seiner wahl benutzen.

    ich sehe durchaus den nutzen von manuell erstellten alt-texten, aber eben auch den von LLMs. vor allem dürfte es schwer sein otto-normal-poster:in davon zu überzeugen über alt-text zu lernen und aufwand da rein zu stecken, wenns auch automatisch geht.

  • @jawl@bonn.social avatar Christian Fischer @jawl @bonn.social

    @ix verstehe ich dich richtig: Ist Deine Frage, ob es sinnvoller ist, selbst alt-Texte zu schreiben oder den User das Bild in eine „KI“ werfen zu lassen, damit die das macht?
    Wenn ja, wäre meine Antwort, dass das meiner Auslegung von Barrierefreiheit widerspricht. Ein barrierefreies Angebot ist nicht, wenn ich dem User die Möglichkeit gebe, sich selbst zu kümmern, sondern wenn ich das Angebot selbst so gestalte. (1/2)

  • @jawl@bonn.social avatar Christian Fischer @jawl @bonn.social

    Abgesehen davon sind alle Deine Beispiele sowohl von der Länge als auch inhaltlich an den mir bekannten Best Practice vorbei.

    Metapher: „Ich stelle eine leicht erreichbare Rampe neben die Stufen“ vs. „ich baue selbst eine Rampe“.

    Wenn nein, habe ich Dich falsch verstanden :) (2/2)

  • @ix@mstdn.io avatar felix schwenzel @ix @mstdn.io

    @jawl das war meine frage, ja. aber ich habe im laufe der diskussion überhaupt erst die best practice gelernt: kurze, prägnannte, max 140 zeichen lange beschreibung.

    barrierefreies.design/werkzeug machts richtig (via bsky.app/profile/textundblog.b), das krieg ich auch hin und hab ich auch bisher so gemacht (wenn nicht vergessen).

    meine metapher war ursprünglich eher, dass wir dazu tendieren unnütze rampen zu bauen und dass LLMs besser bei der überwindung der stufen helfen, also schrottige rampe vs. raupe.

  • @jawl@bonn.social avatar Christian Fischer @jawl @bonn.social

    @ix Ah, I see.
    Ich denke, die Überlegung, ob die Rampen unnütz sind oder nicht, schrottig oder nicht, das bleibt dann beim User. Ich persönlich – mit einer grundsoliden Skepsis gegenüber aktuellen „KI“s und ihren Halluzinationsquoten hätte da als Autor aber auch meine Antwort.
    Bleibt für mich noch, dass es imho nicht barrierefrei ist, User in eine andere App zu schicken – „offiziellere“ Meinungen dazu hab ich nicht gefunden (aber auch nicht intensiv gesucht). (1/2)

  • @jawl@bonn.social avatar Christian Fischer @jawl @bonn.social

    Aber vermutlich stehen wir eh mit einem Bein in der Hölle, hier über alt-Texte zu diskutieren ;) (2/2)

  • @ttepasse@chaos.social avatar Tim Tepaße @ttepasse @chaos.social

    @jawl @ix Plus: Mit dem Aufkommen von device-lokalen Modellen könnte es dazu kommen, dass Apps ein lokales Modell zur automatischen Bildbeschreibung nutzen – aber weil LLMs nicht wirklich deterministisch sind, unterschiedliche Leser unterschiedliche Beschreibungen bekommen. Ich weiß nicht, ob ich das als Veröffentlichender wollen würde.

  • @giardino@fnordon.de avatar giardino @giardino @fnordon.de

    @ix Die Fähigkeiten der KI sind beeindruckend; ich hätte zB. gerne so ein Modul für meine Fotoverwaltung (lokal, ohne Bild-Upload auf externe Server). Aber Alt-Texte nutzen m. M. n. ihr Potential erst dann ganz aus, wenn sie von Menschen für Menschen sind. Nicht nur finde ich selbst bereichernd jedesmal kurz nachzudenken, was auf dem Bild eigentlich zu sehen ist, ich kann so auch beschreiben, was daran (für mich) eigentlich das Besondere ist und damit implizit, warum ich es überhaupt poste.

3 kommentare

  • @@textundblog.de avatar Markus @textundblog.de
    Danke für Deine Gedanken zu KI-generierten Bildtexten. Geht mir auch so: ich finde, die Ki macht das besser und effektiver als wir. Ich nutze bisher das in der Mastodon-App “Ice Cube” eingebaute Tool dazu (Notlösung, da ich den erzeugten Text dann immer nach Bluesky kopieren muss).

    AltTexty funktioniert bei mir (auf dem iPad) leider nicht, meldet bei meinen hochgeladenen Bildern: “Error: Invalid file type. Only JPG, PNG, and GIF are allowed.”

    Das Tool

    barrierefreies.design/werkzeuge…

    liefert kürzere Bildbeschreibungen. Menschen, die Bilder schwer oder nicht sehen können, weisen gelegentlich darauf hin, dass Bildbeschreibungen nicht zu lang und zu detailliert sein sollten, weil sie das alles in ihrem Screenreader vorgelesen bekommen. Dieser Punkt passt zu dem von Dir beschriebenen Ansatz, dass die Bildbeschreibungen auch vom Werkzeug der Wahl der Besucher:innen einer Website kommen könnten, wo die Beschreibungstiefe eingestellt werden könnte.
  • @@wirres.net avatar ix @wirres.net
    ich glaube der tipp zu

    barrierefreies.design/werkzeuge…

    hat mir geholfen das alt-text problem besser zu verstehen. der vorschlag des tools war:
    „Spandauer Schifffahrtskanal in Berlin mit Bäumen und Gebäuden, die sich im ruhigen Wasser spiegeln“

    das kriege ich auch selbst hin und kommt dem text den ich geschrieben hätte auch nahe. den rest, mehr details kann man sich dann bei bedarf über dieses neumodische zeug holen. gegebenenfalls eben noch kontext, namen, orte, daten in den alt-text und gut ist.


  • @@katiakelm.de avatar beifahrerin @katiakelm.de
    frida ist kein pudel-mix. spinnt der?!

kommentieren

hier können kommentare hinterlassen werden (gerne auch per e-mail, die veröffentliche ich dann allerdings nicht).

momentan ist der kommentar-betrieb noch experimentell und kommentare werden gegebenenfalls nicht angezeigt oder ausversehen wieder gelöscht.

mit dem absenden des kommentars erkläre ich mein einverständnis, dass die eingegebenen daten gespeichert und als kommentar angezeigt werden.

kommentaromat

webmention

webmention an diesen artikel (links vom 23.6.2025) senden.


an diesem tag


zurück zurück zum artikel