MEO statt SEO (ma­nic en­gi­ne op­ti­mi­sa­ti­on)

felix schwenzel in über wirres

ich op­ti­mie­re ja ger­ne an mei­nem kir­by rum.

ich weiss gar nicht ge­nau war­um, weil ei­gent­lich ist es mir egal sa­chen rich­tig zu ma­chen und wich­ti­ger din­ge so zu ma­chen, wie sie mir ge­fal­len. an­de­rer­seits gibt es oft über­schnei­dun­gen zwi­schen rich­tig und ge­fällt mir.

so ge­fällt es mir, wenn mei­ne web­sei­te in al­len brow­sern und rea­dern, die ich selbst ger­ne be­nutz­te, gut aus­sieht. re­spon­si­ve de­sign, also dass sich die web­sei­te an die bild­schirm­grös­se an­passt, ist ja mitt­ler­wei­le fast ein no-brai­ner. ge­le­gent­lich schaue ich mir mei­ne web­site auch mit lynx an, ei­nem text­ba­sier­ten kom­man­do­zei­len-brow­ser. da­mit sieht man din­ge, die nor­ma­le brow­ser nicht zei­gen, die aber trotz­dem von man­chen men­schen oder ma­schi­nen, die die web­site be­su­chen, so ge­se­hen wer­den kann. ge­nau­so ger­ne rufe ich mei­ne web­sei­te ge­le­gent­lich mit de­ak­ti­vier­tem css auf. bei­de, lynx und kein-css zei­gen po­ten­zi­el­le pro­ble­me, die ich weg­op­ti­mie­ren oder auf­schie­ben kann.

weil ich selbst ger­ne und vie­le web­sei­ten per RSS lese, prü­fe ich auch re­gel­mäs­sig wie mei­ne sei­te in RSS aus­sieht — und wenn mir was auf­fällt oder mich stört, op­ti­mie­re ich es weg. ne­ben di­ver­sen RSS-feeds, bie­te ich die­se web­sei­te auch so­zu­sa­gen als html-feed an. das geht, weil ich das HTML mit mi­cro­for­ma­ten (mf2) aus­zeich­ne. da­mit lässt sich die­se sei­te als json par­sen (bei­spiel) und so­gar als html-feed abon­nie­ren (vor­schau)

all die­se an­sich­ten, in lynx, ohne css, als gepars­te oder ge­r­en­der­te mf2-mi­cro­for­ma­te oder als RSS-feed, sind an­sich­ten die­ser web­site, wie sie auch ma­schi­nen se­hen, such­ma­schi­nen- oder KI-craw­ler, der riv­va-bot oder an­de­re ag­gre­ga­to­ren. auch screen­rea­der se­hen die web­site eher in die­sen mi­ni­mal­ver­sio­nen, wes­halb ich auch ein in­ter­es­se dar­an habe, dass wir­res.net in die­sen an­sich­ten ganz okay aus­sieht, bzw. mir ge­fällt.

das schö­ne an den ein­ge­bau­ten mf2-mi­cro­for­ma­ten ist auch, dass man mit ge­eig­ne­ten rea­dern auch mei­nen fa­vo­ri­ten- oder book­marks-strom abon­nie­ren könn­te, ob­wohl ich da­für noch kein RSS ge­baut habe.

ich be­mü­he mich na­tür­lich auch um gute ma­schi­nen­les­bar­keit da­mit sich mei­ne web­sei­te gut mit goog­le ver­steht. nach mei­ner blog­pau­se und ein paar mo­na­ten off­line-zeit we­gen tech­ni­scher pro­ble­me, ver­lor ich alle sym­pa­thien die mir goog­le vor­mals ge­währt hat­te. noch nicht mal eine su­che nach mei­nem na­men zeig­te mei­ne heim­stät­te im netz (wir­res.net) mehr auf den ers­ten 10 such­er­geb­nis­sei­ten an. nach­dem ich es hier wie­der schön für goog­le und an­de­re ma­schi­nen ge­macht habe, schickt mir goog­le auch ge­le­gent­lich wie­der be­su­cher vor­bei. der­zeit zwar nur für eine sei­te (er­freu­lich und er­schüt­ternd), aber da­für im ja­nu­ar so um die 1000.

ir­gend­wann vor ein paar mo­na­ten ge­fiel mir die idee, dass ich bil­der hier so un­ter ei­ner cc li­zenz ver­öf­fent­li­chen könn­te, so dass such­ma­schi­nen sie auch mit die­ser li­zenz er­ken­nen. bei flickr klappt das su­per, wenn man dort für sei­ne fo­tos eine cc-li­zenz ge­wählt hat. weil ich das auch woll­te, aber na­tür­lich auch weil ich die idee der rei­bungs­lo­sen ma­schi­nen­les­bar­keit gut fin­de, habe ich an­ge­fan­gen für alle ar­ti­kel json-ld mit aus­zu­lie­fern. da­mit lie­fe­re ich zwar auch nicht viel mehr me­ta­da­ten als mit den mi­cro­for­ma­ten aus, aber un­ter an­de­rem kann man eben auch bil­der ex­pli­zit mit li­zen­zen ver­se­hen.

das klappt ei­ner­seit auch ganz gut, an­de­rer­seits ver­gisst goog­le ein­mal in­de­xier­ten und er­kann­ten li­zen­zen aber auch im­mer wie­der. ir­gend­wie schaf­fe ich es nicht, mit mehr als 50 bil­der von die­ser web­site mit cc li­zenz in den such­er­geb­nis­sei­ten un­ter­zu­brin­gen.

was mit json-ld al­ler­dings su­per klappt ist die ma­schi­nen­les­bat­re aus­zeich­nung von re­zep­ten. so aus­ge­zeich­ne­te re­zep­te nimmt goog­le mit kuss­hand und re­zep­te die im ka­rus­sel oben in den such­er­geb­nis­sen an­ge­zeigt wer­den sind auch der grund, war­um goog­le mir im mo­ment so vie­le be­su­cher schickt. zum ers­ten mal mit ma­schi­nen­les­ba­ren re­zept­da­ten ex­pe­ri­men­tiert hab ich vor 14 jah­ren. mitt­ler­wei­le klappt das wirk­lich gut.

was ich aber ei­gent­lich sa­gen will: die­se gan­zen op­ti­mie­run­gen, die ich auch ger­ne als ex­pe­ri­men­te an­se­he um such­ma­schi­nen- und tech­nik-ge­döns bes­ser zu ver­ste­hen, ha­ben vor al­lem den ef­fekt, dass ich klei­ne, sub­ti­le, aber auch gro­be feh­ler aud wir­res.net fin­de, die ich sonst nie ge­fun­den hät­te oder die mir egal ge­we­sen wä­ren.

vor ein paar mo­na­ten habe ich sehr viel en­er­gie dar­ein ge­steckt in den Pa­ge­Speed In­sights gute punkt­zah­len zu be­kom­men. da­bei habe ich vie­le an­pas­sun­gen am ser­ver vor­ge­nom­men, die html-struk­tur, lazy und eager-loa­ding und die bild­grös­sen op­ti­miert. mit der start­sei­te ist goog­le nicht im­mer 100% zu­frie­den, aber die ein­zel­sei­ten schram­men in der re­gel an den 100%.

gleich­zei­tig habe die speed-op­ti­mie­run­gen wie­der zu feh­lern an an­de­ren ecken ge­führt, die ich dann nach und nach wie­der weg­op­ti­mie­re. so er­gibt sich im prin­zip ein ma­ni­scher kreis­lauf von im­mer neu­en op­ti­mie­run­gen. mach ich aber ger­ne, vor al­lem weil: ist ja al­les meins hier.


tools die ich ger­ne zum rum­op­ti­mie­ren nut­ze: