tag: ki ×

mspr0.de: Krasse Links gelesen

Ich bekomme immer mal wieder Rück­mel­dun­gen, von wegen: dein News­let­ter ist ja ganz in­ter­es­sant, aber viiieel zu lang. Wer soll das alles denn lesen?

Ali Hackalife macht sich deswegen die Mühe, jeden News­let­ter ein­zu­le­sen, …


indiskretionehrensache.de: Holy Smokes! Ich starte einen Newsletter von der SXSW

wenn ich böse wäre, würde ich schreiben: thomas knüwer arbeitet jetzt für die republica und braucht offenbar geld. bin ich aber nicht mehr (böse), nur noch doof. tat­säch­lich finde ich …


ich habe zuerst nur die zitate gelesen, die volker weber aus barbara geyers text ex­tra­hiert hat und eine replik im kopf for­mu­liert. dann fiel mir auf, dass das äusserst denkfaul ist und las barbara geyers text. der text gefiel mir, aber meine replik bleibt die gleiche. einer der haupt­ge­dan­ken in barbara geyers text ist dieser:

Ich nenne dieses Phänomen die KI-Fach­kom­pe­tenz­schwel­le. Eine Grenze des Vor­wis­sens, unterhalb derer KI-Nutzung nicht nur wir­kungs­los wird, sondern kon­tra­pro­duk­tiv.

kri­ti­sches denken allein reiche nicht, man müsse schon sub­stan­zi­el­les wissen mit­brin­gen, um KI produktiv, nutz­brin­gend zu nutzen — sagt barbara geyer. ich würde darauf antworten, dass das auch alles eine hal­tungs­fra­ge ist. für mich ist der weg zu wissen neugier, also eine haltung (so wie kri­ti­sches denken auch eine haltung ist). neugier führt dazu, dass ich mich mit einfachen antworten, egal woher die kommen, nicht zufrieden gebe, sondern verstehen möchte und im besten fall etwas so tief verstehen möchte, dass ich es selbst machen oder anderen erklären kann.

wer neugierig ist gibt sich nicht mit wohl­klin­gen­den antworten eines lehrers, pro­fes­sors, eltern, buchs, videos oder einer KI zufrieden. neugier in­spi­riert zum tiefer, weiter fragen. dum­mer­wei­se kann man neugier nicht (wirklich) lehren (oft im gegenteil), neugier kann man aber wecken, entfachen.

wit­zi­ger­wei­se habe ich gerade heute beim mor­gen­spa­zier­gang an meinen kunst­leh­rer in der siebten oder achten klasse zu­rück­ge­dacht. herr schiefer hiess er und alles was er uns an aufgaben antrug, entfachte neugier und aha-er­leb­nis­se in mir. wir haben grau­stu­fen­bil­der aus punkten gemalt, be­nutz­ba­re stühle aus pappe gebaut, dioramen im schuh­a­kar­ton mit guck­lö­chern gebastelt.

bei herrn schiefer habe ich kein kri­ti­sches denken bei­gebracht bekommen, aber er hat neugier in mir geweckt, die dann auf dem weg auch kri­ti­sches denken aus­bil­de­te und dann lang­fris­tig zu einer anhäufung gröss­ten­teils unnützen wissens in mir geführt hat.

was ich sagen will: wenn man KI nur zur ge­ne­rie­rung von antworten nutzt, wird ki schnell kon­tra­pro­duk­tiv. wenn man KI zur ge­ne­rie­rung weiterer fragen nutzt kann man mit KI un­ter­stüt­zung sehr viel lernen.




YouTube Video Vorschaubild
youtube-video laden, info, direktlink

dieses video könnte man durchaus als KI 101 be­zeich­nen. der gast dieser folge startalk mit neil degrasse tyson und seinen beiden sidekicks ist geoffrey hinton, der letztes jahr für seine grund­la­gen­for­schung zu neu­ro­na­len netz­wer­ken den physik no­bel­preis bekommen hat. er erklärt ein paar der grund­la­gen kündt­li­cher neu­ro­na­ler netzwerke und warum er denkt dass KIs bereits denken. zu den grund­la­gen fand ich folgendes fas­zi­nie­rend:

das mensch­li­che gehirn hat ungeführ 100 tril­lio­nen (noronale) ver­bin­dun­gen. wenn man das mit dem zeitraum den wir leben ver­gleicht (um die 2,5-3 mil­li­ar­den sekunden), kann man sagen: wir haben sehr viele ver­bin­dun­gen, aber wenig erfahrung.

bei den neu­ro­na­len netzen die wir derzeit zu bauen imstnde sind ist das umgekehrt. sie haben ca. 1 milliarde ver­bin­dun­gen (viele LLMs haben sehr viel weniger weniger), was ungefähr 1% der ver­bin­dun­gen sind, die menschen haben. dafür haben diese künst­li­chen neu­ro­na­len netze und LLMs viele tausend mal mehr er­fah­re­nun­gen.

die grenzen an die heutuge LLMs stossen hängen (laut geoffrey hinton) vor allem damit zusammen, dass sie auf er­fah­run­gen basieren die wir auf­ge­schrie­ben haben. eine go KI, die aus er­fah­run­gen echter go-experten/meister gelernt hatte, war immer etwas schlech­ter als die mensch­li­chen experten. un­schöag­bar wurden diese KI-systeme als sie anfingen gegen sich selbst zu spielen, sich ihre er­fah­run­gen also selbst bei­gebracht haben. das dürfte auch de weg sein, wie LLMs klüger werden, meint geoffrey hinton.

wirklich se­hens­wert, wenn man KI abseits des hypes und gegen-hypes etwas besser verstehen möchte.


das er­schre­cken­de an KI scheint mir in erster linie zu sein, dass es menschen und formen gibt die sich tat­säch­lich auf die antworten und schluss­fol­ge­run­gen dieser systeme verlassen und die ent­schei­dun­gen dieser systeme von menschen nicht über­stimmt (oder nch­voll­zo­gen) werden können. damit scheinen wir einen kri­ti­schen kipppunkt zu über­schrei­ten und legen bereits jetzt po­ten­zi­ell exis­ten­zi­el­le ent­schei­dun­gen in die hände von black boxes. damit kaf­ka­es­ki­sie­ren wir die welt min­des­tens um den faktor 2.


terrygodier.com: Current | Terry Godier

The river is what's here right now. You scroll through it, save what you want to keep, and let the rest go.

current ist ein RSS reader mit nem neuen dreh, eben diesem river und artikeln die eine le­bens­dau­er haben und dann …


Diese Ver­schie­bung ist me­di­en­theo­re­tisch nicht neu. Wir haben sie bereits bei Such­ma­schi­nen erlebt, die Inhalte nicht mehr ver­mit­tel­ten, sondern ersetzten, indem sie Zu­sam­men­fas­sun­gen an die Stelle der Quelle setzten. Mit LLMs wird dieser Schritt ra­di­ka­li­siert: Aus der Ver­weis­struk­tur des Netzes wird eine Ex­trak­ti­ons­lo­gik. Texte werden nicht mehr gelesen, sondern aus­ge­beu­tet, ihr Kontext ver­schwin­det im Ant­wort­for­mat.

(via)


mar­kus un­ter­sch­ei­det zwi­schen schrei­ben und „con­tent“-er­stel­lung:

mequito.org: [Mo, 16.2.2026 - Blase, generative KI]

Ich verfasse aber Texte und Sätze, weil ich mich aus­drü­cken will, weil ich etwas mitteilen will. Wenn das eine ge­ne­ra­ti­ve KI für mich …


Ich verfasse aber Texte und Sätze, weil ich mich aus­drü­cken will, weil ich etwas mitteilen will. Wenn das eine ge­ne­ra­ti­ve KI für mich macht, dann würde ich einfach Content pro­du­zie­ren, meine per­sön­li­che Ebene ginge darin verloren, mein Ge­dan­ken­gang, meine Idee, meine For­mu­lie­rung und eventuell auch meine Fehler. Content muss nicht ver­werf­lich sein, aber das will ich dann nicht als meinen Ausdruck dar­stel­len. Ver­mut­lich ist mein Wunsch, au­then­tisch zu sein, größer als der Wunsch, Content zu pro­du­zie­ren. Und das will ich auch von anderen Leuten. Ich will au­then­ti­sche Leute um mich herum, keine Hüllen, die nur etwas dar­stel­len.


realvirtuality.info: Was tun mit KI?

hier schreibt @alexmatz­keit sehr dif­fe­ren­ziert und nach­voll­zieh­bar über seine KI nutzung und streift dabei auch ein paar aspekte, die bei dis­kus­sio­nen über KI oft übersehen werden. sehr gerne gelesen.

Plur …


Once men tur­ned their thin­king over to ma­chi­nes in the hope that this would set them free. But that only per­mit­ted other men with ma­chi­nes to ens­lave them.
― Frank Her­bert, Dune, ca. 1965

in dune war des­halb kopf­rech­nen ein gros­ses ding.
bald kommt …


”Once, men turned their thinking over to machines in the hope that this would set them free. But that only permitted other men with machines to enslave them.”

I started listening to the audiobook of Dune the other day. This quote felt very timely.


hier schreibt @alexmatz­keit sehr dif­fe­ren­ziert und nach­voll­zieh­bar über seine KI nutzung und streift dabei auch ein paar aspekte, die bei dis­kus­sio­nen über KI oft übersehen werden. sehr gerne gelesen.


ges­tern mach­te ai;dr die run­de. @dave_min­ni­ge­ro­de hat das na­he­lie­gen­de mög­li­cher­wei­se erst­mals auf­ge­schrie­ben, näm­lich das er ei­nen text nicht le­sen moch­te, nicht weil er zu lang war (too long, didn’t read, tl;dr), son­dern weil er zu sehr nach ki/ai roch …



favicon eay.cc eay.cc: Das eigene Blogarchiv lesen – oder: KI-Zusammenfassungen im Blogarchiv

Da das Bloggen über’s Bloggen für den Bloggenden bekanntlich nicht langweilig wird, soll es heute kurz um das Lesen des eigenen Blogs gehen. Darüber haben sich zuletzt auch Marco und dann Thomas Gedanken gemacht, die beide berichten, dass sie gerne in ihren eigenen Blogarchiven lesen, Veränderungen und Entwicklungen beobachten. Marco erkennt dabei für sich: Vielleicht […]

gute idee, aber das ergebnis erscheint mir völlig un­der­whel­ming. erinnert mich an den kirby-plugin, der bei claude einen artikel-entwurf einwirft um eine 160 zeichen meta-de­scrip­ti­on zu ge­ne­rie­ren: un­be­nutz­bar, bzw. wenn überhaupt als stich­wort­ge­ber fürs eigene texten nutzbar.


screenshot aus telegram.app mit einem von home assistant gneerierte „morning briefing“ mit zwei ereignissen aus unseren kalendern.

nach­dem ich bei @eay in ei­ner fuss­no­te über open­claw ge­le­sen habe, habe ich open­claw auch mal kurz an­ge­guckt, aber nach 6 stun­den ent­nervt wie­der die kral­le ge­schlos­sen.
au­to­ma­ti­sie­run­gen ma­che ich lie­ber mit home as­sistant und das hier ging dann auch …


favicon couchblog.de couchblog.de: KI und Klima - Couchblog

Ich […] werde aber das Gefühl nach wie vor nicht los, mir steuerten auf einen Abhang zu und drücken gerade nochmal so richtig auf das Gaspedal.

dann ist, so gesehen, james tiberius kirk eine allegorie auf die mensch­heit.

https://www.youtube.com/watch?v=G3_4PoRwRTM