leistungsschutz reality distortion field

felix schwenzel,    

* * *

[nachtrag]

markus beckedahl erinnert an das jahr 2012:

christopher lauer 2012 zum lsr (twitter screenshot)

linken und einbetten

felix schwenzel,    

langer, nicht ganz unkomplizierter text über das evolutionäre wettrüsten zwischen krankheitserregern und dem imunsystem und die hoffnungem, rückschläge und dilemmata, die durch behandlung und forschung dieser erreger (hier das HIV-virus) entstehen.

über 15tausend zeichen, aber ich fand den text von daniel a. gross (@readwriteradio) lesenswert, weil er nicht nur den stand der forschung gut wiedergibt, sondern auch die geschichten und die menschen hinter der forschung sichtbar macht. ohne pathos und ohne überflüssige schicksalssosse.

* * *

den link oben habe ich, wie immer, ganz regulär als link gesetzt:

<a class="embedly-card" href="http://nautil.us/issue/23/dominoes/the-man-who-beat-hiv-at-its-own-game-for-30-years">nautil.us: The Man Who Beat HIV at Its Own Game for 30 Years</a>
<script async src="//cdn.embedly.com/widgets/platform.js" charset="UTF-8"></script>

hinter dem link steckt ein kurzer javascript-befehl, der javascriptcode von embedly.com nachlädt. embedly macht dann aus dem einfachen link eine illustrierte, bunte einbettung. das sieht man allerdings nur bei aktiviertem javascript (also zum beispiel nicht in RSS-readern) und das sähe dann so aus:

embedly einbettung

wunderbar, bis auf die tatsache, dass dieses embed, wie übrigens fast alle einbettungsmechanismen, tonnenweise (javascript) code von dritten laden. damit werden dann bilder, weitere scripte, tracker, zählcodes, cookies nachgeladen, also all das, was aufrechten datenschützer schlaflose nächte bereitet (so sähe es übrigens ohne javascript aus). das ist bei embeds von youtube- oder vimeo-videos so, bei eingebetteten tweets, facebook like- oder share-buttons und so weiter und so fort.

ich versuche hier eigentlich solche tracker zu vermeiden und solche datennachlader hinter einem klick zu verbergen. youtube-videos bette ich so ein (beispiel), meine flattr, share-, like- oder tweet-buttons sind alle unter slidern versteckt und laden ihren schadcode erst nach aufforderung durch einen klick. bei tweets bin ich eher inkonsequent, denen hänge ich auch den twitter-javascript-schnipsel an. blocken kann man das natürlich alles browserseits, zum beispiel mit ghostery (details und hintergründe dazu habe ich mal vor einem jahr aufgeschrieben und besprochen).

was ich eigentlich sagen wollte: hübsch dieses embedly, damit kann man sehr ansprechend beliebige links aufhübschen, aber einbetten nervt auch ein bisschen. ich versuche mir deshalb meine einbettungscodes soweit möglich selbst zu bauen. mein selbst zusammengedengelter code für twitter sieht übrigens ohne javascript nachladung von twitter.com so aus (und so mit):

Moin!

taz (@tazgezwitscher) 01.05.2015 8:22

funktioniert auch ohne nachträgliche javascript-aufhübschung. nennt man das dann als html-kenner graceful degredation oder progressive enhancement of graceful stuff?

theoretisch kann ich mir sogar vorstellen für meine artikel hier einbettcode anzubieten. das könnte dann so aussehen. ich weiss zwar nicht warum jemand einen ganzen artikel von mir einbetten wollte, aber es beruhigt mich zu wissen, dass es geht.

„exakt falsch herum gedacht“

felix schwenzel,    

syndikation

felix schwenzel,    

als meine mutter vor ungefähr 35 jahren mit mir im zirkus war, erklärte sie mir:

das brot der künstler ist der applaus.

nicht alle können vom applaus allein leben und selbst zirkus-artisten bekommen eine gage zusaätzlich zum applaus. aber zwischen dem applaus und der höhe der gage besteht wahrscheinlich ein direkter zusammenhang. aber das mit dem geldverdienen möchte ich an dieser stelle kurz ausklammern, weil es alles noch komplizierter macht als es eh schon ist.

vor einer weile griff johnny haeusler in der deutschen wired eine diskussion auf, die man eventuell mit diesem satz zusammenfassen kann:

verlage und autoren sollten dort hingehen, wo ihr publikum ist.

johnny überspitzte diesen gedanken etwas, indem er verlagen riet, ihre webseiten zu schliessen. das differenzierte er später noch ein bisschen nach, aber ich widersprach ihm beide male (eins, zwei).

grundsätzlich hat johnny aber (natürlich) recht. will ich mein publikum gut erreichen, muss ich nicht nur gut erreichbar sein, sondern vor allem dort veröffentlichen wo das publikum ist. aus eigener erfahrung weiss ich, dass mir selbst oft schon ein klick mehr als nötig zu viel ist, um einen text zu lesen. ich lebe lese in meinem feedreader. gekürzte RSS-feeds nerven mich so sehr, dass ich darüber seitenlange klagen verfassen kann — wegen eines klicks. weil diese klicks oft (nicht immer) in funklöchern in der bahn stattfinden, habe ich an dieser stelle ein gewisses verständnis für mich und meine argumente.

wenn ich etwas in mein blog schreibe (oder journalisten in ihre zeitung), teasere ich es nach der veröffentlichung auf twitter, facebook (oder was sonst gerade gut funktioniert) an und verlinke es dort. auf facebook zwinge ich meine leser damit quasi zu einem klick auf mein blog. dort sehe ich dann in meiner besucherstatistik einen besuch und hoffe viele weitere, auf likes, kommentare und links auf meinen artikel. im optimalfall multiplizieren sich die links, likes, shares zu einem kleinen viralen windhauch, der leser zu mir rüberweht.

die idee dort zu sein, wo die leser sind, ist aber ein bisschen anders gemeint. sie bedeutet, dass ich den gesamten text (zum beispiel) auf facebook — oder eben der plattform wo meine zielgruppe sizt — veröffentliche und sich der leser den klick auf meine seite spart und damit auch zusätzliche ladezeiten oder die auseinandersetzung mit gewöhnungsbedürftigem layout. oder (noch besser), dass ich meinen text für die plattform wo ich meine leser vermute optimiere und nicht nur automatisch vorhandenes material rüberspüle.

auf facebook funktioniert das offenbar ganz gut. peter breuer veröffentlicht dort beispielsweise oft sehr lange texte, weil auf facebook (vermute ich mal) das feedback sehr vielfältiger und grösser ist als auf seinem blog. das ist einerseits verständlich, aber andererseits auch schade. die texte sind nach ein paar tagen nicht mehr so gut zu finden und ausserhalb von facebook so gut wie nicht existent. dafür erreichen sie ein ziemlich grosses publikum, können mühelos gemocht, geteilt und weiterempfohlen werden.

positiv ausgedrückt kann man sich so auf facebook eine enorm grosse zahl leser und fans erarbeiten. diese leser interagieren mit den inhalten sehr grosszügig, sie teilen, liken und kommentieren dort in sehr viel grösserer zahl als sie es in einem blog tun würden. die erklärung dafür liegt auf der hand: auf facebook muss ich mich für einen kommentar nicht erst anmelden, ich kann einfach losschreiben, liken oder sharen. ich weiss als kommentierender, dass ich meine kommentare auf facebook editieren oder löschen kann. die interaktion mit inhalten auf facebook ist sehr viel einfacher als auf jedem x-beliebigen blog. das gilt natürlich auch für viele andere soziale netzwerke.

weniger positiv ist, dass man die inhalte aus der hand gibt und auf plattformen stellt über die man als autor oder fotograf wenig kontrolle hat. man bekommt (relativ) wenig leser leser rübergespült und die interaktionen (likes, favs, kommenatre) bleiben auch in den silos der grossen netzwerke.

* * *

wer wie ich jahrelang dafür argumentierte RSS-feeds nicht zu kürzen und dem leser die wahl zu lassen wo und wie er texte oder einträge konsumiert, anzeigt oder liest, müsste dieser logik auch in sachen content-aggregation in soziale netzwerke folgen. folgerichtig wäre es nach dieser logik auf facebook nicht nur kurz-teaser mit link zur quelle zu veröffentlichen, sondern eben den kompletten inhalt. so wie man das auch mit RSS macht.

ich habe dieser logik lange zeit nicht folgen wollen und ging davon aus, dass es gut und richtig sei, leute aus sozialen netzwerken auf die eigene seite zu locken. seit ein paar tagen versuche ich mit dem gegenteil zu experimentieren:

  • zuerst veröffentliche ich auf wirres.net
  • dann syndiziere ich den inhalt halbautomatisch oder manuell zu twitter oder facebook (andere netzwerke sind auch möglich und vorstellbar)
  • die inhalte dort haben einen zurücklink auf wirres.net, der originalinhalt bekommt einen mit rel="syndication" markierten link
  • und in einer idealen welt würden facebook und twitter mir für diesen zurücklink und alle folgenden interaktionen (likes, shares/retweets, kommentare) einen ping oder webmention schicken, so dass ich diese interaktionen unter dem originalinhalt sammeln und anzeigen könnte. tun sie aber nicht, also muss ich einen proxy, einen stellvertreter nutzen. in diesem fall heisst der brid.gy und stellt (fast) alle interaktionen unter syndizierten inhalten von mir zu wirres.net, bzw. meinen webmention-empfänger durch.
webmentions unter einem artikel auf wirres.net

konkret sieht das dann so aus: zum beispiel habe ich dieses bild eines kochtopfs auf wirres.net veröffentlicht und dann auf twitter, facebook und instagram syndiziert. die reaktionen hat mir brid.gy zurückgespielt, so dass ich sie unter dem originalinhalt anzeigen kann.

diese kolumne habe ich im volltext auf facebook kopiert. auf twitter konnte ich sie wegen des 140-zeichen limits natürlich nur anteasern. aber sowohl die twitter-replys, als auch die facebook kommentare können dank brid.gy unter dem original angezeigt werden.

* * *

das system, das auf webmentions und anderen indieweb-technolgien basiert, ist alles andere als perfekt. es löst aber ansatzweise das zirkusproblem: der applaus oder die buhrufe für meine inhalte kommen zu mir zurück, bzw. lassen sich einfangen. damit lässt sich zwar (auch) kein geld verdienen, aber die reichweite dürfte sich so um einiges verbessern lassen, so wie das auch mit RSS funktioniert: die anzahl der leser die meine inhalte per RSS lesen ist meiner schätzung und messung nach pro tag an dem ich veröffentliche etwa doppelt so hoch wie die zahl der leser die wirres.net besuchen. die potenzielle reichweite von ungekürzt veröffentlichten inhalten in sozialen netzwerken dürfte nochmal höher sein (auch wenn man sie nicht in jedem fall messen kann).

* * *

lange rede kurzer sinn: inhalte ungekürzt in soziale netzwerke zu syndizieren/kopieren ist wie volltext-RSS für technisch unbegabte leser. wenn man dem inneren zwang widersteht, leser um jeden preis auf die eigene website zu locken, kann man damit leser sehr gut erreichen und ihnen entgegen kommen — ohne ganz die kontrolle über die inhalte zu verlieren (aber ein bisschen schon).

die indieweb-technologien wie webmentions, backfeeds oder POSSE sind grossartige ansätze, die einem helfen können ein bisschen kontrolle über eigene inhalte zu gewinnen, aber auch kontrolliert abzugeben. es gibt auch spannende ansätze wie man mit indiewebtechnologien dezentral kommunizieren kann oder sich webseiten untereinander dezentral vernetzen lassen können. leider haben diese technologien noch sehr viele kinderkrankheiten und bieten sehr hohe technische und konzeptionelle zugangshürden. aber ich finde das furchbar spannend und freue mich hier auf viele webmentions und diskussionen, wenn nicht hier, dann woanders oder im juni nebenan.

neun gründe warum wir listen mögen (mit bonusgrund)

felix schwenzel,    

familiensendung

felix schwenzel,    

Das Gärtner-Prinzip

felix schwenzel,    

Der Jongleur Alex Barron hat es 2012 geschafft 11 Bälle für eine Weile in der Luft zu halten und 23 mal hintereinander aufzufangen. 2013 schaffte er mit einem Ball weniger, die Bälle 30 mal hintereinander aufzufangen. Möglicherweise wird dieser Rekord in den nächsten Jahren noch um einen Ball verbessert, aber Alex Baron’s Rekord scheint die Kapazitätsgrenze bei der Balljonglage ganz gut zu markieren: Menschen können maximal 10 bis 11 Bälle jonglieren.

Wir kennen auch die Kapazitätsgrenze beim Management von Großprojekten ganz gut. Sie wurde in den letzten Jahren sichtbar, als (wieder mal) diverse Großprojekte scheiterten oder zu scheitern drohten.

Schon das erste Großprojekt, das ich in meiner Jugend verfolgte, der Klinikumsneubau in Aachen, kostete statt der ursprünglich geplanten 550 Mio. Mark am Ende mindestens 1,5 Mrd. Mark. Auch der Termin für die Fertigstellung wurde stückweise von 1976 auf 1979, dann auf 1982 und dann schließlich auf 1985 verschoben. Die Kosten des Berliner Kongresszentrums stiegen in den siebziger Jahren um das siebenfache (von ursprünglich rund 120 Mio. Mark auf ungefähr 800 Mio. Mark). Damit ist der neue Berliner Großflughafen Schönefeld noch im klassischen Berliner Kostensteigerungsrahmen: Aktuelle Planungen gehen vom achtfachen der ursprünglich geplanten Bausumme aus.

Warum verlaufen Großprojekte immer wieder in den gleichen Bahnen?

Eigenartigerweise erklären wir das Scheitern von Großprojekten oft mit Führungsschwäche („Der Wowereit war’s!“) oder Planungsfehlern. In dieser Erklärung steckt die Überzeugung, dass Projekte beliebiger Komplexität mit den richtigen Planungswerkzeugen und Führungsmethoden in den Griff zu bekommen seien. Auch unzählige gescheiterte Großprojekte dämpfen nicht etwa den Größenwahn, sondern inspirieren die Planer lediglich zu immer ausgefeilteren Planungsmethoden. Der neue heiße Scheiß für Bauprojekte lautet jetzt Building Information Modeling (BIM). Bei BIM planen und arbeiten alle am Bau Beteiligten vernetzt an einem einzigen Gebäudemodell. Damit, behaupten Experten, sollen misslungene Bauprojekte wie die Hamburger Elbphilharmonie oder der Berliner Großflughafen „in absehbarer Zeit der Vergangenheit angehören.“

Dass diese Projekte aber vielleicht nicht nur wegen unzureichender Werkzeuge oder Verfahren scheitern, sondern weil sie dem Versuch gleichen, mehr als 11 Bälle gleichzeitig in der Luft zu halten, kommt uns nicht in den Sinn. Kann es nicht sein, dass Projekte ab einem gewissen Komplexitätsgrad einfach nicht effizient vorab planbar sind? Zumindest nicht mit genauen Zeit- und Kostenvorgaben?

Vielleicht sollten wir einfach grundsätzlich etwas kleiner denken? Oder bestimmte Projekte eher wachsen und spriessen lassen, statt sie mit oft jahrzehntelangem Vorlauf vermeintlich durchzuplanen? Dezentralität fördern, viele, statt große Projekte unterstützen und die, die sich bewähren, ausbauen und wachsen lassen. Das hat mit bestimmten Technologien bereits gut funktioniert. In Deutschland gibt es mittlerweile 25.000 kleinere Windkraftanlagen, während in den achtziger Jahren noch ein Windanlagengroßprojekt (Growian) kläglich an seiner Überdimensionierung und planerischem Größenwahn scheiterte.

Das ist auch das Prinzip nach dem das Silicon Valley groß wurde; viele der amerikanischen Firmen, die wir heute als Giganten wahrnehmen, waren ursprünglich nicht als Großprojekte angelegt, sondern starteten als Kleinstprojekte, in Garagen oder Universitätswohnheimen. Die Wachstumsimpulse im Silicon Valley funktionieren auch weiterhin nach diesem Gärtner-Prinzip: die meisten Kapitalgeber haben viele kleine Projekte im Portfolio und hegen die Erfolgversprechensten, bis diese ausgewachsen sind oder von Größeren geschluckt werden.

Statt den Größenwahn in den Anfang, in die Planung, zu stecken, sollten wir den Größenwahn vielleicht eher in das Wachstum, in die Weiterentwicklung, stecken.

* * *

anmerkung: das ist der text meiner kolumne im (gedruckten) t3n-magazin nummer 39 (kolumne aus ausgabe #38 hier). in ein paar wochen kommt die neue ausgabe, mit einer neuen kolumne von mir. die taucht dann wiederrum in ca. drei monaten hier auf. einen absatz aus der kommenden kolumne hab ich gestern schon veröffentlicht.

weil ich für die kolumne bezahlt werde, enthält sie auch gross- und kleinschreibung.

qualitätsirgendwas

felix schwenzel,    

ich habe ne kolumne für die ausgabe 40 der t3n geschrieben (erscheint am 27.05.2015). das thema ist eigentlich „nachhaltigkeit“, aber ich komme ja immer vom hölzchen aufs stöckchen und deshalb auch auf das thema „qualitätsjournalismus“. und weil ich über eine kleine erkenntnis selbst lachen musste veröffentliche ich sie hier vorab:

Journalisten dürften übrigens sehr traurig darüber sein, dass sie das Wort Nachhaltigkeit nicht zum Eigenmarketing verwenden können. Wenn Sie sich selbst als aufrichtig, verantwortungsbewusst und zukunftsfähig darstellen möchten, müssen sie das leicht abgewetzte und peinliche Wort „Qualitätsjournalismus“ verwenden. Selbst Politiker sind nicht schamlos genug, ihre Arbeit Qualitätspolitik zu nennen.

* * *

kurt w. zimmermann meint übrigens:

Wer dauernd von Qualität redet, der verrät darum nur eines. Er hat ein Problem mit sich selbst.

webmention.io

felix schwenzel,    

weil die veranstalter der nebenan hamburg konferenz sich überlegt haben, dass ich mal was zum indyweb und reclaim sagen könne, hab ich mich auf anregung von hendrik mans nochmal mit diesem webmention-gedöns beschäftigt.
und siehe da, mit ein paar ergänzungen am quellcode (unter anderem h-entry formate hinzufügen) und ner anmeldung bei webmention.io und brid.gy läuft das:

instagram ge-POSSEd

was man dort sieht ist ein gePOSSEtetes instagrambild. durch einen backlink auf instagram mit rel="syndication" erkennt brid.gy das auf instagram mein bild ist und pingt die likes und (leider nicht alle) kommentare per webmention zu mir. diese pings/webmentions empfängt webmention.io für mich und ich frage sie dort ab und stelle sie unter dem blog-eintrag dar (wenn der reiter trackbacks aufgeklappt ist.

bin angetan, auch wenn’s noch immer ne ganz schöne frikelei ist und man sich sehr einarbeiten muss.

macaroni and cheese

felix schwenzel,    

seit wir in new york bei einem freund macaroni and cheese gegessen haben, machen wir die auch regelmässig. ich glaube in new york haben wir die nudeln nach diesem rezept zubereitet gesehen, dass man in einem satz zusammenfassen kann:

2 tassen nudeln mit 2 tassen milch 20 minuten köcheln lassen, vom herd nehmen und 1 tasse käse einrühren.

andere finden, dass echte macaroni and cheese aus dem pappkarton kommen und aus nudeln, pulver und milch hergestellt werden.

ich habe seit dem sommer bereits ein paarmal dieses rezept nachgebaut. das ist einerseits auch nicht viel arbeit und zeigt überdies, dass vegatarisches essen keinesfalls gesund sein muss.

hier nochmal wie ich die macaroni and cheese heute gemacht habe.

macaroni and cheese
  • 250 gramm nudeln (celentani, muschelnudeln)
  • 3 teelöffel mehl
  • 3 teelöffel butter
  • 1 teelöffel scharfer senf
  • 550 ml milch
  • 1 zwiebel, fein gewürfelt
  • 1 lorbeerblatt
  • 1 teelöffel paprikapulver
  • 1 ei
  • 300 gramm geriebener käse (cheddar)
  • 1 teelöffel salz
  • pfeffer
  • 1 paprika, gewürfelt
  • 3 teelöffel butter
  • 50 gramm paniermehl

die nudeln 6 oder acht 8 lang kochen, so wie’s auf der packung steht. derweil (oder danach) die butter in einem topf schmelzen, mit dem mehl verühren und ne kurze weile schwitzen lassen. danach die zwiebeln kurz mitschwitzen lassen, etwas paprikapulver und etwas scharfen senf und dann langsam die milch einrühren. wenn man das lorbeerblatt vergisst ist nicht schlimm, merkt eh keiner. das ganze 10 minuten leicht köcheln lassen, salzen, pfeffern, lorbeerblatt rausnehmen (wenn man vergisst das lorbeerblatt rauszunehmen ist nicht schlimm, merkt eh keiner). das ei und und zwei drittel des käses einrühren — nicht zu lange, nicht zu kurz rühren bis sich der käse fast aufgelöst hat.

jamie oliver schlägt vor jetzt noch gewürfelte tomaten unterzurühren, ich habe gelbe paprika genommen.

jetzt kommt alles in eine auflaufform und wer mag kann noch die paniermehlkruste drübermachen. dafür nochmal 3 teelöffel butter schmelzen und mit 50 bis 100 gramm paniermehl ganz leicht anrösten.

die auflaufform kommt ca. 30 minuten bei 200°C in den ofen. das ergebnis lässt sich hervorragend heiss, warm aber auch kalt essen.

macaroni and cheese