ich habe zuerst nur die zitate gelesen, die volker weber aus barbara geyers text extrahiert hat und eine replik im kopf formuliert. dann fiel mir auf, dass das äusserst denkfaul ist und las barbara geyers text. der text gefiel mir, aber meine replik bleibt die gleiche. einer der hauptgedanken in barbara geyers text ist dieser:
Ich nenne dieses Phänomen die KI-Fachkompetenzschwelle. Eine Grenze des Vorwissens, unterhalb derer KI-Nutzung nicht nur wirkungslos wird, sondern kontraproduktiv.
kritisches denken allein reiche nicht, man müsse schon substanzielles wissen mitbringen, um KI produktiv, nutzbringend zu nutzen — sagt barbara geyer. ich würde darauf antworten, dass das auch alles eine haltungsfrage ist. für mich ist der weg zu wissen neugier, also eine haltung (so wie kritisches denken auch eine haltung ist). neugier führt dazu, dass ich mich mit einfachen antworten, egal woher die kommen, nicht zufrieden gebe, sondern verstehen möchte und im besten fall etwas so tief verstehen möchte, dass ich es selbst machen oder anderen erklären kann.
wer neugierig ist gibt sich nicht mit wohlklingenden antworten eines lehrers, professors, eltern, buchs, videos oder einer KI zufrieden. neugier inspiriert zum tiefer, weiter fragen. dummerweise kann man neugier nicht (wirklich) lehren (oft im gegenteil), neugier kann man aber wecken, entfachen.
witzigerweise habe ich gerade heute beim morgenspaziergang an meinen kunstlehrer in der siebten oder achten klasse zurückgedacht. herr schiefer hiess er und alles was er uns an aufgaben antrug, entfachte neugier und aha-erlebnisse in mir. wir haben graustufenbilder aus punkten gemalt, benutzbare stühle aus pappe gebaut, dioramen im schuhakarton mit gucklöchern gebastelt.
bei herrn schiefer habe ich kein kritisches denken beigebracht bekommen, aber er hat neugier in mir geweckt, die dann auf dem weg auch kritisches denken ausbildete und dann langfristig zu einer anhäufung grösstenteils unnützen wissens in mir geführt hat.
was ich sagen will: wenn man KI nur zur generierung von antworten nutzt, wird ki schnell kontraproduktiv. wenn man KI zur generierung weiterer fragen nutzt kann man mit KI unterstützung sehr viel lernen.
dieses video könnte man durchaus als KI 101 bezeichnen. der gast dieser folge startalk mit neil degrasse tyson und seinen beiden sidekicks ist geoffrey hinton, der letztes jahr für seine grundlagenforschung zu neuronalen netzwerken den physik nobelpreis bekommen hat. er erklärt ein paar der grundlagen kündtlicher neuronaler netzwerke und warum er denkt dass KIs bereits denken. zu den grundlagen fand ich folgendes faszinierend:
das menschliche gehirn hat ungeführ 100 trillionen (noronale) verbindungen. wenn man das mit dem zeitraum den wir leben vergleicht (um die 2,5-3 milliarden sekunden), kann man sagen: wir haben sehr viele verbindungen, aber wenig erfahrung.
bei den neuronalen netzen die wir derzeit zu bauen imstnde sind ist das umgekehrt. sie haben ca. 1 milliarde verbindungen (viele LLMs haben sehr viel weniger weniger), was ungefähr 1% der verbindungen sind, die menschen haben. dafür haben diese künstlichen neuronalen netze und LLMs viele tausend mal mehr erfahrenungen.
die grenzen an die heutuge LLMs stossen hängen (laut geoffrey hinton) vor allem damit zusammen, dass sie auf erfahrungen basieren die wir aufgeschrieben haben. eine go KI, die aus erfahrungen echter go-experten/meister gelernt hatte, war immer etwas schlechter als die menschlichen experten. unschöagbar wurden diese KI-systeme als sie anfingen gegen sich selbst zu spielen, sich ihre erfahrungen also selbst beigebracht haben. das dürfte auch de weg sein, wie LLMs klüger werden, meint geoffrey hinton.
wirklich sehenswert, wenn man KI abseits des hypes und gegen-hypes etwas besser verstehen möchte.