dieses video könnte man durchaus als KI 101 bezeichnen. der gast dieser folge startalk mit neil degrasse tyson und seinen beiden sidekicks ist geoffrey hinton, der letztes jahr für seine grundlagenforschung zu neuronalen netzwerken den physik nobelpreis bekommen hat. er erklärt ein paar der grundlagen kündtlicher neuronaler netzwerke und warum er denkt dass KIs bereits denken. zu den grundlagen fand ich folgendes faszinierend:
das menschliche gehirn hat ungeführ 100 trillionen (noronale) verbindungen. wenn man das mit dem zeitraum den wir leben vergleicht (um die 2,5-3 milliarden sekunden), kann man sagen: wir haben sehr viele verbindungen, aber wenig erfahrung.
bei den neuronalen netzen die wir derzeit zu bauen imstnde sind ist das umgekehrt. sie haben ca. 1 milliarde verbindungen (viele LLMs haben sehr viel weniger weniger), was ungefähr 1% der verbindungen sind, die menschen haben. dafür haben diese künstlichen neuronalen netze und LLMs viele tausend mal mehr erfahrenungen.
die grenzen an die heutuge LLMs stossen hängen (laut geoffrey hinton) vor allem damit zusammen, dass sie auf erfahrungen basieren die wir aufgeschrieben haben. eine go KI, die aus erfahrungen echter go-experten/meister gelernt hatte, war immer etwas schlechter als die menschlichen experten. unschöagbar wurden diese KI-systeme als sie anfingen gegen sich selbst zu spielen, sich ihre erfahrungen also selbst beigebracht haben. das dürfte auch de weg sein, wie LLMs klüger werden, meint geoffrey hinton.
wirklich sehenswert, wenn man KI abseits des hypes und gegen-hypes etwas besser verstehen möchte.
dieses video könnte man durchaus als KI 101 bezeichnen. der gast dieser folge startalk mit neil degrasse tyson und seinen beiden sidekicks ist geoffrey hinton, der letztes jahr für seine grundlagenforschung zu neuronalen netzwerken den physik nobelpreis bekommen hat. er erklärt ein paar der grundlagen kündtlicher neuronaler netzwerke und warum er denkt dass KIs bereits denken. zu den grundlagen fand ich folgendes faszinierend:
das menschliche gehirn hat ungeführ 100 trillionen (noronale) verbindungen. wenn man das mit dem zeitraum den wir leben vergleicht (um die 2,5-3 milliarden sekunden), kann man sagen: wir haben sehr viele verbindungen, aber wenig erfahrung.
bei den neuronalen netzen die wir derzeit zu bauen imstnde sind ist das umgekehrt. sie haben ca. 1 milliarde verbindungen (viele LLMs haben sehr viel weniger weniger), was ungefähr 1% der verbindungen sind, die menschen haben. dafür haben diese künstlichen neuronalen netze und LLMs viele tausend mal mehr erfahrenungen.
die grenzen an die heutuge LLMs stossen hängen (laut geoffrey hinton) vor allem damit zusammen, dass sie auf erfahrungen basieren die wir aufgeschrieben haben. eine go KI, die aus erfahrungen echter go-experten/meister gelernt hatte, war immer etwas schlechter als die menschlichen experten. unschöagbar wurden diese KI-systeme als sie anfingen gegen sich selbst zu spielen, sich ihre erfahrungen also selbst beigebracht haben. das dürfte auch de weg sein, wie LLMs klüger werden, meint geoffrey hinton.
wirklich sehenswert, wenn man KI abseits des hypes und gegen-hypes etwas besser verstehen möchte.