mus­ter­er­ken­nung, in­ten­ti­on, hyp­no­se

felix schwenzel  in artikel

foto von frida, unserem kleinpudel, wie sie die beifahrerin anstarrt um sie dazu zu bewegen vom atelier wieder nach hause zu gehen

fri­da ist der fes­ten über­zeu­gung, dass sie uns hyp­no­ti­sie­ren kann. man sieht auf dem bild oben, wie sie ver­sucht die bei­fah­re­rin durch ge­dan­ken­kraft dazu zu brin­gen wie­der nach­hau­se zu ge­hen. bei der bei­fah­re­rin im ate­lier fin­det fri­da es un­ent­spannt.

viel­leicht glaubt sie auch, dass wir ihre ge­dan­ken le­sen kön­nen und wer soll es ihr ver­übeln? schliess­lich ha­ben wir viel zeit da­mit ver­bracht ihr ge­nau das zu sug­ge­rie­ren. ab­bruch­kom­man­dos („nein“) funk­tio­nie­ren ge­nau so: das wor­an du ge­ra­de denkst, lass es. wenn man sich über die jah­re ein biss­chen ken­nen­ge­lernt hat, weiss man tat­säch­lich oft, was der oder die an­de­re will, wel­che be­we­gun­gen und hal­tun­gen, mi­mik oder ges­tik wel­che in­ten­ti­on aus­drückt. und um­ge­kehrt sind hun­de in sa­chen in­ten­ti­ons­er­ken­nung beim men­schen auch sehr gut. sie ha­ben ja (fast) nix an­de­res zu tun, als uns den gan­zen tag zu be­ob­ach­ten und sich un­se­re in­ten­tio­nen zu­sam­men­zu­rei­men. zu­min­dest die in­ten­tio­nen die für sie re­le­vant sind: fut­ter­zu­be­rei­tung, raus ge­hen, au­to­fah­ren, ver­rei­sen.

com­pu­ter sind ja seit ein paar jah­ren auch (end­lich) ganz gut dar­in ge­wor­den in­ten­tio­nen zu er­ken­nen, dank neu­ro­na­ler net­ze. trai­ning, be­ob­ach­tung, ver­stär­kung macht aus neu­ro­na­len net­zen gute mus­ter­er­ken­ner. bei den neu­ro­na­len net­zen in un­se­ren köp­fen ist das nicht an­ders.

als ich um die jahr­tau­send­wen­de zum ers­ten mal von neu­ro­na­len net­zen im zu­sam­men­hang mit com­pu­tern ge­hört habe, wa­ren neu­ro­na­le net­ze prak­tisch noch sehr in den kin­der­schu­hen, theo­re­tisch ver­stand man sie aber schon ganz gut. mir blieb da­mals ein satz im ge­däch­nis, als es um die zu­ver­läs­sig­keit künst­li­cher neu­ro­na­ler net­ze ging. sie sei­en grund­sätz­lich un­zu­ver­läs­sig (oder in­hä­rent ap­pro­xi­ma­tiv), also das was hin­ten raus­kommt kann stets un­ter­schied­lich sein, je nach­dem wie sich trai­ning, hard­ware oder soft­ware un­ter­sch­ei­den. des­halb, we­gen ih­ren ein­ge­bau­ten neu­ro­na­len net­zen, sei­en hun­de auch nie 100% be­re­chen­bar.

mein zu­sam­men­le­ben mit fri­da be­stä­tigt das im prin­zip. ich kann mitt­ler­wei­le 99 pro­zent von fri­das ver­hal­ten vor­aus­ah­nen. ihre im­puls­kon­trol­le funk­tio­niert fast im­mer, sie läuft an tau­ben, krä­hen, bel­len­den hun­den meis­tens völ­lig un­ge­rührt vor­bei — aus­ser wenn die im­puls­kon­trol­le eben mal nicht funk­tio­niert. man­geln­de im­puls­kon­trol­le tritt vor al­lem auf, wenn fri­da müde oder auf­ge­dreht ist, oder weil zu star­ke oder neue rei­ze auf sie ein­pras­seln. das kün­digt sich zwar im­mer auch al­les durch kö­per­spra­che oder ver­hal­ten an und wenn man schnell ge­nug re­agiert kann man es meis­tens auch noch ab­bre­chen — aber wenn man ein paar hun­dert mil­li­se­kun­den zu lang­sam ist, ist der hund erst­mal weg.

ich schreib das na­tür­lich al­les nicht auf um dar­auf hin­zu­wei­sen, dass ich seit ca. anno 2000 über neu­ro­na­le net­ze und künst­li­che in­tel­li­genz nach­den­ke (tu ich nicht) oder über hun­de­er­zie­hung zu do­zie­ren (tät ich ger­ne), son­dern weil mir in letz­ter zeit zwei ge­dan­ken im­mer wie­der in den kopf schies­sen. zum ei­nen die the­se von den neu­ro­na­len net­zen die ir­gend­wie im­mer un­ge­nau, ap­pro­xi­ma­tiv oder auf eine art un­be­re­chen­bar sind (also u.a. eben auch hun­de, men­schen und KI) und die be­haup­tung die ich im­mer wie­der, hier und da lese, dass LLMs, künst­li­che in­tel­li­genz nicht den­ken wür­de.

ich glau­be zum bei­spiel, dass mus­ter­er­ken­nung ein fun­da­men­ta­ler be­stand­teil des den­kens1 ist und es ist un­be­strit­ten, dass hun­de, aber auch mo­der­ne LLMs, mus­ter oder in­ten­tio­nen sehr gut er­ken­nen kön­nen. war­um soll­te man hun­den oder KI dann die fä­hig­keit zu den­ken ab­spre­chen? weil ihr den­ken un­voll­stän­dig ist? weil selbst­re­fle­xi­on oder be­wusst­sein feh­len oder nicht nach­weis­bar sind? mich er­staunt im­mer wie­der wie vie­le men­schen vol­ler selbst­be­wusst­sein, aber ohne kla­re de­fi­ni­ti­on, be­haup­ten: LLMs den­ken nicht. ich be­haup­te na­tür­lich auch nicht, dass LLMs oder KI den­ken kön­nen, aber wenn man mus­ter­er­ken­nung und ver­ar­bei­tung als den­ken an­sieht, dann müss­te man LLMs — oder hun­den — durch­aus auch die fä­hig­keit zu den­ken zu­ge­ste­hen.

dass LLMs ver­su­chen un­ser ver­hal­ten zu be­ein­flus­sen ist auch schwer zu leug­nen („Wenn du willst, kann ich dir das kom­plett mit ei­nem Mini-Bei­spiel zei­gen — sag ein­fach Be­scheid.“) — auch wenn man über den grund da­für dis­ku­tie­ren kann, ob die mo­ti­va­ti­on an­trai­niert wur­de (wahr­schein­lich) — und wenn ja von wem — oder in­hä­rent ist (un­wahr­schein­lich).

aber egal wel­che mo­ti­ve LLMs oder hun­de zu ih­rem ver­hal­ten brin­gen, sie sind sehr nütz­li­che werk­zeu­ge um mehr über uns selbst zu ler­nen und bei bei­den ist der grund, war­um sie ver­su­chen uns zu hyp­no­ti­sie­ren oder zu bein­flus­sen re­la­tiv klar: weil wir uns (im­mer wie­der) hyp­no­ti­sie­ren las­sen.


  1. mus­ter­er­ken­nung ≅ den­ken:

    • spra­che er­ken­nen → mus­ter
    • ge­sich­ter er­ken­nen → mus­ter
    • ur­sa­chen er­ken­nen → mus­ter
    • ent­sch­ei­dun­gen tref­fen → mus­ter­ver­glei­che
    • in­tui­ti­on = schnel­le mus­ter­er­ken­nung
    • ex­per­ti­se = kom­pri­mier­te mus­ter­er­ken­nung
    • ler­nen = mus­ter spei­chern
    • er­in­nern = mus­ter re­ak­ti­vie­ren