tag: ai ×


ich kann meine emp­feh­lung für ole reiss­manns THEFUTURE nicht oft genug wie­der­ho­len. einer meiner favoriten in meinem feed­rea­der.

hier zitiert er martin schori:

A worn but often-quoted line about AI goes: “AI won’t take your job, but someone who knows how to use AI might.”

Swedish re­se­ar­cher Emma Frans has come up with a better version: “AI won’t take your job, but someone who’s more fun to hang out with will.”


indiskretionehrensache.de: Holy Smokes! Ich starte einen Newsletter von der SXSW

wenn ich böse wäre, würde ich schreiben: thomas knüwer arbeitet jetzt für die republica und braucht offenbar geld. bin ich aber nicht mehr (böse), nur noch doof. tat­säch­lich finde ich …


ich habe zuerst nur die zitate gelesen, die volker weber aus barbara geyers text ex­tra­hiert hat und eine replik im kopf for­mu­liert. dann fiel mir auf, dass das äusserst denkfaul ist und las barbara geyers text. der text gefiel mir, aber meine replik bleibt die gleiche. einer der haupt­ge­dan­ken in barbara geyers text ist dieser:

Ich nenne dieses Phänomen die KI-Fach­kom­pe­tenz­schwel­le. Eine Grenze des Vor­wis­sens, unterhalb derer KI-Nutzung nicht nur wir­kungs­los wird, sondern kon­tra­pro­duk­tiv.

kri­ti­sches denken allein reiche nicht, man müsse schon sub­stan­zi­el­les wissen mit­brin­gen, um KI produktiv, nutz­brin­gend zu nutzen — sagt barbara geyer. ich würde darauf antworten, dass das auch alles eine hal­tungs­fra­ge ist. für mich ist der weg zu wissen neugier, also eine haltung (so wie kri­ti­sches denken auch eine haltung ist). neugier führt dazu, dass ich mich mit einfachen antworten, egal woher die kommen, nicht zufrieden gebe, sondern verstehen möchte und im besten fall etwas so tief verstehen möchte, dass ich es selbst machen oder anderen erklären kann.

wer neugierig ist gibt sich nicht mit wohl­klin­gen­den antworten eines lehrers, pro­fes­sors, eltern, buchs, videos oder einer KI zufrieden. neugier in­spi­riert zum tiefer, weiter fragen. dum­mer­wei­se kann man neugier nicht (wirklich) lehren (oft im gegenteil), neugier kann man aber wecken, entfachen.

wit­zi­ger­wei­se habe ich gerade heute beim mor­gen­spa­zier­gang an meinen kunst­leh­rer in der siebten oder achten klasse zu­rück­ge­dacht. herr schiefer hiess er und alles was er uns an aufgaben antrug, entfachte neugier und aha-er­leb­nis­se in mir. wir haben grau­stu­fen­bil­der aus punkten gemalt, be­nutz­ba­re stühle aus pappe gebaut, dioramen im schuh­a­kar­ton mit guck­lö­chern gebastelt.

bei herrn schiefer habe ich kein kri­ti­sches denken bei­gebracht bekommen, aber er hat neugier in mir geweckt, die dann auf dem weg auch kri­ti­sches denken aus­bil­de­te und dann lang­fris­tig zu einer anhäufung gröss­ten­teils unnützen wissens in mir geführt hat.

was ich sagen will: wenn man KI nur zur ge­ne­rie­rung von antworten nutzt, wird ki schnell kon­tra­pro­duk­tiv. wenn man KI zur ge­ne­rie­rung weiterer fragen nutzt kann man mit KI un­ter­stüt­zung sehr viel lernen.




YouTube Video Vorschaubild
youtube-video laden, info, direktlink

dieses video könnte man durchaus als KI 101 be­zeich­nen. der gast dieser folge startalk mit neil degrasse tyson und seinen beiden sidekicks ist geoffrey hinton, der letztes jahr für seine grund­la­gen­for­schung zu neu­ro­na­len netz­wer­ken den physik no­bel­preis bekommen hat. er erklärt ein paar der grund­la­gen kündt­li­cher neu­ro­na­ler netzwerke und warum er denkt dass KIs bereits denken. zu den grund­la­gen fand ich folgendes fas­zi­nie­rend:

das mensch­li­che gehirn hat ungeführ 100 tril­lio­nen (noronale) ver­bin­dun­gen. wenn man das mit dem zeitraum den wir leben ver­gleicht (um die 2,5-3 mil­li­ar­den sekunden), kann man sagen: wir haben sehr viele ver­bin­dun­gen, aber wenig erfahrung.

bei den neu­ro­na­len netzen die wir derzeit zu bauen imstnde sind ist das umgekehrt. sie haben ca. 1 milliarde ver­bin­dun­gen (viele LLMs haben sehr viel weniger weniger), was ungefähr 1% der ver­bin­dun­gen sind, die menschen haben. dafür haben diese künst­li­chen neu­ro­na­len netze und LLMs viele tausend mal mehr er­fah­re­nun­gen.

die grenzen an die heutuge LLMs stossen hängen (laut geoffrey hinton) vor allem damit zusammen, dass sie auf er­fah­run­gen basieren die wir auf­ge­schrie­ben haben. eine go KI, die aus er­fah­run­gen echter go-experten/meister gelernt hatte, war immer etwas schlech­ter als die mensch­li­chen experten. un­schöag­bar wurden diese KI-systeme als sie anfingen gegen sich selbst zu spielen, sich ihre er­fah­run­gen also selbst bei­gebracht haben. das dürfte auch de weg sein, wie LLMs klüger werden, meint geoffrey hinton.

wirklich se­hens­wert, wenn man KI abseits des hypes und gegen-hypes etwas besser verstehen möchte.


das er­schre­cken­de an KI scheint mir in erster linie zu sein, dass es menschen und formen gibt die sich tat­säch­lich auf die antworten und schluss­fol­ge­run­gen dieser systeme verlassen und die ent­schei­dun­gen dieser systeme von menschen nicht über­stimmt (oder nch­voll­zo­gen) werden können. damit scheinen wir einen kri­ti­schen kipppunkt zu über­schrei­ten und legen bereits jetzt po­ten­zi­ell exis­ten­zi­el­le ent­schei­dun­gen in die hände von black boxes. damit kaf­ka­es­ki­sie­ren wir die welt min­des­tens um den faktor 2.


terrygodier.com: Current | Terry Godier

The river is what's here right now. You scroll through it, save what you want to keep, and let the rest go.

current ist ein RSS reader mit nem neuen dreh, eben diesem river und artikeln die eine le­bens­dau­er haben und dann …


Diese Ver­schie­bung ist me­di­en­theo­re­tisch nicht neu. Wir haben sie bereits bei Such­ma­schi­nen erlebt, die Inhalte nicht mehr ver­mit­tel­ten, sondern ersetzten, indem sie Zu­sam­men­fas­sun­gen an die Stelle der Quelle setzten. Mit LLMs wird dieser Schritt ra­di­ka­li­siert: Aus der Ver­weis­struk­tur des Netzes wird eine Ex­trak­ti­ons­lo­gik. Texte werden nicht mehr gelesen, sondern aus­ge­beu­tet, ihr Kontext ver­schwin­det im Ant­wort­for­mat.

(via)


mar­kus un­ter­sch­ei­det zwi­schen schrei­ben und „con­tent“-er­stel­lung:

mequito.org: [Mo, 16.2.2026 - Blase, generative KI]

Ich verfasse aber Texte und Sätze, weil ich mich aus­drü­cken will, weil ich etwas mitteilen will. Wenn das eine ge­ne­ra­ti­ve KI für mich …


Ich verfasse aber Texte und Sätze, weil ich mich aus­drü­cken will, weil ich etwas mitteilen will. Wenn das eine ge­ne­ra­ti­ve KI für mich macht, dann würde ich einfach Content pro­du­zie­ren, meine per­sön­li­che Ebene ginge darin verloren, mein Ge­dan­ken­gang, meine Idee, meine For­mu­lie­rung und eventuell auch meine Fehler. Content muss nicht ver­werf­lich sein, aber das will ich dann nicht als meinen Ausdruck dar­stel­len. Ver­mut­lich ist mein Wunsch, au­then­tisch zu sein, größer als der Wunsch, Content zu pro­du­zie­ren. Und das will ich auch von anderen Leuten. Ich will au­then­ti­sche Leute um mich herum, keine Hüllen, die nur etwas dar­stel­len.


realvirtuality.info: Was tun mit KI?

hier schreibt @alexmatz­keit sehr dif­fe­ren­ziert und nach­voll­zieh­bar über seine KI nutzung und streift dabei auch ein paar aspekte, die bei dis­kus­sio­nen über KI oft übersehen werden. sehr gerne gelesen.

Plur …


Once men tur­ned their thin­king over to ma­chi­nes in the hope that this would set them free. But that only per­mit­ted other men with ma­chi­nes to ens­lave them.
― Frank Her­bert, Dune, ca. 1965

in dune war des­halb kopf­rech­nen ein gros­ses ding.
bald kommt …


”Once, men turned their thinking over to machines in the hope that this would set them free. But that only permitted other men with machines to enslave them.”

I started listening to the audiobook of Dune the other day. This quote felt very timely.


hier schreibt @alexmatz­keit sehr dif­fe­ren­ziert und nach­voll­zieh­bar über seine KI nutzung und streift dabei auch ein paar aspekte, die bei dis­kus­sio­nen über KI oft übersehen werden. sehr gerne gelesen.


ges­tern mach­te ai;dr die run­de. @dave_min­ni­ge­ro­de hat das na­he­lie­gen­de mög­li­cher­wei­se erst­mals auf­ge­schrie­ben, näm­lich das er ei­nen text nicht le­sen moch­te, nicht weil er zu lang war (too long, didn’t read, tl;dr), son­dern weil er zu sehr nach ki/ai roch …



screenshot aus telegram.app mit einem von home assistant gneerierte „morning briefing“ mit zwei ereignissen aus unseren kalendern.

nach­dem ich bei @eay in ei­ner fuss­no­te über open­claw ge­le­sen habe, habe ich open­claw auch mal kurz an­ge­guckt, aber nach 6 stun­den ent­nervt wie­der die kral­le ge­schlos­sen.
au­to­ma­ti­sie­run­gen ma­che ich lie­ber mit home as­sistant und das hier ging dann auch …


favicon couchblog.de couchblog.de: KI und Klima - Couchblog

Ich […] werde aber das Gefühl nach wie vor nicht los, mir steuerten auf einen Abhang zu und drücken gerade nochmal so richtig auf das Gaspedal.

dann ist, so gesehen, james tiberius kirk eine allegorie auf die mensch­heit.

https://www.youtube.com/watch?v=G3_4PoRwRTM