beilage zu: links vom 23.6.2025

anmerkung

wie chatgpt darauf kommt frida sei eine „Pudel-Mix-Hündin“ hab ich mich nur am rande gefragt. ich vermute es dachte, dass sich das einfach gut anhört. jedenfalls ist frida kein mix, sondern einfach ein kleinpudel. auch wenn sie aus unserer sicht manchmal wie ein mensch-pudel-mix wirkt, aber das dürfte den meisten hundebesitzern so gehen.

abgesehen davon stellt sich die frage auch zum thema: warum als deutscher englisch bloggen? wenn meine ergüsse jemand lesen will der nur englisch — oder jede andere sprache — spricht, warum nicht selbst übersetzen lassen? chatgpt mach einen sehr ordentlichen job wenn man ihm einen link zu einem blogeintrag hinwirft, aber vielleicht gibt’s ja tools die das noch besser können, warum sollte ich mir als deutschsprachiger autor mit einer deutschsprachigen zielgruppe dann die mühe machen texte auf englisch zu veröffentlichen?

statistisches

dieser artikel wurde vor 4 wochen und 1 tag veröffentlicht und zuletzt vor 4 wochen und 10 stunden geändert. er hat 20 reaktionen gesammelt und es wurden bis jetzt 104 aufrufe erfasst.


reaktionen

diesen artikel habe ich auf mastodon und bluesky weiterveröffentlicht und dort kann er auch kommentiert oder gefavt werden (oder per e-mail). die likes und replies weiter unten sind aus diesen weiterveröffentlichten einträgen extrahiert. kommentare per e-mail veröffentliche ich nicht.

11 kommentare

  • @splitbrain@fedi.splitbrain.org avatar Andreas Gohr @splitbrain @fedi.splitbrain.org

    @ix wenn dann würdest du sinnvollerweise die alt Texte einmal generieren und dann mitliefern. umwelttechnisch wäre es ziemlich bescheuert wenn jeder Client die Texte neu generieren würde... realistisch wird genau letzteres passieren

  • @ix@mstdn.io avatar felix schwenzel @ix @mstdn.io

    @splitbrain i get your point, aber ich gehe mal davon aus, dass es insgesamt eher weniger bis keine leser mit screenreader auf wirres.net gibt. da wäre dann theoretisch die umweltbilanz schlechter, wenn ich für jedes bild eine KI fragte.

    aber ich glaube alt texte sind wirklich sinnvoll um meta-infos an die bilder zu heften, namen, orte, zeiten, kontext.

    am ende nutzt ohnehin jeder die tools seiner/ihrer wahl und accessability-tools sind sicher bald mit solchen zusatzfunktionen unterwegs.

  • @jk@chaos.social avatar jk @jk @chaos.social

    @ix ich würde stets alt-texte manuell erstellen. vorteile: du kannst den alt-text-fokus auf selbst gewählte bildaspekte legen und ihn so optimaler zur aussage des dazugehörigen (tröt-/blog-)textes abstimmen. zudem ist openai kein unterstützenswertes unternehmen. also lieber den alt-text-schreibmuskel trainieren statt ein umstrittenes ki-modell.

  • @ix@mstdn.io avatar felix schwenzel @ix @mstdn.io

    @jk ich hab ja nicht gesagt, man solle das mit openai machen, sondern dass diese tools mittlerweile ein niveau erreicht haben, dass die nützlichkeit von alt texten weit übersteigen könnte. da kann und wird jeder die tools seiner wahl benutzen.

    ich sehe durchaus den nutzen von manuell erstellten alt-texten, aber eben auch den von LLMs. vor allem dürfte es schwer sein otto-normal-poster:in davon zu überzeugen über alt-text zu lernen und aufwand da rein zu stecken, wenns auch automatisch geht.

  • @jawl@bonn.social avatar Christian Fischer @jawl @bonn.social

    @ix verstehe ich dich richtig: Ist Deine Frage, ob es sinnvoller ist, selbst alt-Texte zu schreiben oder den User das Bild in eine „KI“ werfen zu lassen, damit die das macht?
    Wenn ja, wäre meine Antwort, dass das meiner Auslegung von Barrierefreiheit widerspricht. Ein barrierefreies Angebot ist nicht, wenn ich dem User die Möglichkeit gebe, sich selbst zu kümmern, sondern wenn ich das Angebot selbst so gestalte. (1/2)

  • @jawl@bonn.social avatar Christian Fischer @jawl @bonn.social

    Abgesehen davon sind alle Deine Beispiele sowohl von der Länge als auch inhaltlich an den mir bekannten Best Practice vorbei.

    Metapher: „Ich stelle eine leicht erreichbare Rampe neben die Stufen“ vs. „ich baue selbst eine Rampe“.

    Wenn nein, habe ich Dich falsch verstanden :) (2/2)

  • @ix@mstdn.io avatar felix schwenzel @ix @mstdn.io

    @jawl das war meine frage, ja. aber ich habe im laufe der diskussion überhaupt erst die best practice gelernt: kurze, prägnannte, max 140 zeichen lange beschreibung.

    barrierefreies.design/werkzeug machts richtig (via bsky.app/profile/textundblog.b), das krieg ich auch hin und hab ich auch bisher so gemacht (wenn nicht vergessen).

    meine metapher war ursprünglich eher, dass wir dazu tendieren unnütze rampen zu bauen und dass LLMs besser bei der überwindung der stufen helfen, also schrottige rampe vs. raupe.

  • @jawl@bonn.social avatar Christian Fischer @jawl @bonn.social

    @ix Ah, I see.
    Ich denke, die Überlegung, ob die Rampen unnütz sind oder nicht, schrottig oder nicht, das bleibt dann beim User. Ich persönlich – mit einer grundsoliden Skepsis gegenüber aktuellen „KI“s und ihren Halluzinationsquoten hätte da als Autor aber auch meine Antwort.
    Bleibt für mich noch, dass es imho nicht barrierefrei ist, User in eine andere App zu schicken – „offiziellere“ Meinungen dazu hab ich nicht gefunden (aber auch nicht intensiv gesucht). (1/2)

  • @jawl@bonn.social avatar Christian Fischer @jawl @bonn.social

    Aber vermutlich stehen wir eh mit einem Bein in der Hölle, hier über alt-Texte zu diskutieren ;) (2/2)

  • @ttepasse@chaos.social avatar Tim Tepaße @ttepasse @chaos.social

    @jawl @ix Plus: Mit dem Aufkommen von device-lokalen Modellen könnte es dazu kommen, dass Apps ein lokales Modell zur automatischen Bildbeschreibung nutzen – aber weil LLMs nicht wirklich deterministisch sind, unterschiedliche Leser unterschiedliche Beschreibungen bekommen. Ich weiß nicht, ob ich das als Veröffentlichender wollen würde.

  • @giardino@fnordon.de avatar giardino @giardino @fnordon.de

    @ix Die Fähigkeiten der KI sind beeindruckend; ich hätte zB. gerne so ein Modul für meine Fotoverwaltung (lokal, ohne Bild-Upload auf externe Server). Aber Alt-Texte nutzen m. M. n. ihr Potential erst dann ganz aus, wenn sie von Menschen für Menschen sind. Nicht nur finde ich selbst bereichernd jedesmal kurz nachzudenken, was auf dem Bild eigentlich zu sehen ist, ich kann so auch beschreiben, was daran (für mich) eigentlich das Besondere ist und damit implizit, warum ich es überhaupt poste.

3 kommentare

  • @@textundblog.de avatar Markus @textundblog.de
    Danke für Deine Gedanken zu KI-generierten Bildtexten. Geht mir auch so: ich finde, die Ki macht das besser und effektiver als wir. Ich nutze bisher das in der Mastodon-App “Ice Cube” eingebaute Tool dazu (Notlösung, da ich den erzeugten Text dann immer nach Bluesky kopieren muss).

    AltTexty funktioniert bei mir (auf dem iPad) leider nicht, meldet bei meinen hochgeladenen Bildern: “Error: Invalid file type. Only JPG, PNG, and GIF are allowed.”

    Das Tool

    barrierefreies.design/werkzeuge…

    liefert kürzere Bildbeschreibungen. Menschen, die Bilder schwer oder nicht sehen können, weisen gelegentlich darauf hin, dass Bildbeschreibungen nicht zu lang und zu detailliert sein sollten, weil sie das alles in ihrem Screenreader vorgelesen bekommen. Dieser Punkt passt zu dem von Dir beschriebenen Ansatz, dass die Bildbeschreibungen auch vom Werkzeug der Wahl der Besucher:innen einer Website kommen könnten, wo die Beschreibungstiefe eingestellt werden könnte.
  • @@wirres.net avatar ix @wirres.net
    ich glaube der tipp zu

    barrierefreies.design/werkzeuge…

    hat mir geholfen das alt-text problem besser zu verstehen. der vorschlag des tools war:
    „Spandauer Schifffahrtskanal in Berlin mit Bäumen und Gebäuden, die sich im ruhigen Wasser spiegeln“

    das kriege ich auch selbst hin und kommt dem text den ich geschrieben hätte auch nahe. den rest, mehr details kann man sich dann bei bedarf über dieses neumodische zeug holen. gegebenenfalls eben noch kontext, namen, orte, daten in den alt-text und gut ist.


  • @@katiakelm.de avatar beifahrerin @katiakelm.de
    frida ist kein pudel-mix. spinnt der?!

kommentieren

hier können kommentare hinterlassen werden (gerne auch per e-mail, die veröffentliche ich dann allerdings nicht).

momentan ist der kommentar-betrieb noch experimentell und kommentare werden gegebenenfalls nicht angezeigt oder ausversehen wieder gelöscht.

mit dem absenden des kommentars erkläre ich mein einverständnis, dass die eingegebenen daten gespeichert und als kommentar angezeigt werden.

kommentaromat

webmention

webmention an diesen artikel (links vom 23.6.2025) senden.


an diesem tag


zurück zurück zum artikel