Ansichten eines Informatikers

Über die Wahl des besten Feuerwehrmannes und des besten Löschmittels

Hadmut
25.5.2020 15:29

Ein Dozent der Medizin nahm Anstoß an meinem Fortran-Artikel von vorhin.

Ich nehme mal ein paar Punkte heraus, weil womöglich andere Leser auf denselben Standpunkt kommen könnten.

mir scheint, Sie nehmen die absurden Aussagen im TE-Artikel (die u.a. ich in einem ausführlichen Kommentar kritisiert habe) zum Anlass, das Kind mit dem Bade auszuschütten. Dass Herr Ioannidis von vielen zitiert wird, macht im Übrigen seine Aussagen nicht unsinnig, mir scheint hier, Sie laufen Gefahr, den Fehler, den Sie Geisteswissenschaftlern vorwerfen, in umgekehrter Weise selbst zu begehen.

Ich habe weder Ioannidis noch seine Aussagen kritisiert, sondern die Art und Weise der Argumentation von Tichy, „Ich habe einen vielzitierten Mann auf meiner Seite, also habe ich Recht!”

Ihre ironische Bemerkung „Und warum sollte sich die Ausbreitung vor dem Lockdown verlangsamt haben? Sagte das Virus „So, das reicht, ich bin zufrieden”? Oder „Puh, das war aber anstrengend, ich brauch’ mal ne Pause”?“ ist der Sache vermutlich auf der Spur, ohne dass Sie es merken.

Ich predige hier seit Jahren (Korrelation-Kausalität), dass eine rein statistische Beobachtung, der reine Sachverhalt einer quantiativen Beobachtung, für sich betrachtet gar nichts über irgendwelche Kausalitäten sagt (außer eben, dass eine fehlende Korrelation eine Kausalität ausschließen kann). Ich habe den Umstand, dass sich die Krankheit schon vor den Maßnahmen verlangsamt hätte, auch nicht bestritten (ich weiß schlicht nicht, ob das so war), sondern ich habe bestritten, dass daraus ohne qualitative Begründung irgendeine Wertung der Schutzmaßnahmen abzuleiten wäre. Es kann so viele Gründe und Ursachen einer Verlangsamung geben, dass es völlig willkürlich und spekulativ wäre, anzunehmen, dass es solche wären, die gegen die Notwendigkeit von Schutzmaßnahmen sprächen.

Es ist zum Beispiel naheliegend (und war auch in meinem privaten und beruflichen Umfeld so), dass die Leute schon vor den staatlich verordneten Schutzmaßnahmen eigene, private Schutzmaßnahmen ergriffen haben und vorsichtiger geworden sind. Ich habe mich selbst auch schon zwei Wochen vor den offiziellen Maßnahmen ins Home-Office zurückgezogen. Und ich wurde damals auch noch von Leuten beleidigt angeschnauzt, weil ich Fernreisende gebeten habe, sich beim Betreten des Hauses die Hände zu waschen. Die Aussage, dass sich die Ausbreitung schon vor den Schutzmaßnahmen verlangsamt habe, könnte also schon allein darauf zurückzuführen sein, dass man den Beginn der Schutzmaßnahmen falsch datiert, weil viele Leute schon vorher mit eigenen Schutzmaßnahmen angefangen haben.

Es kann auch Gründe haben, dass wir hier in Europa andere hygienische Standards, andere Wohnflächen und Abstände haben, nicht so intensiv in riesigen Wohnburgen wie in China hausen. Oder weniger Klimaanlagen haben. Oder hier anderes Wetter war.

Es gab Leute, die zu dem Zeitpunkt, als das Ding nach Afrika und Europa übersprang, unterschiedliche Ausbreitungsstärken beobachtet haben und die Hypothese aufgeworfen haben, dass es genetische Unterschiede in Anfälligkeit und Immunsystem geben könnte. Dass deshalb Italiener anfälliger wären als Deutsche. Dass die Briten durch hohe Migration anfälliger wären. Das mag einem politisch alles nicht gefallen, aber es ist zunächst mal eine valide und plausible Hypothese, die man untersuchen und verifizieren oder falsifizierne könnte und sollte. Denn dass die Anfälligkeit für die Krankheit stark mit irgendwelchen Zelloberflächen und der Funktion des Immunsystems zu tun hat, ist ja inzwischen bekannt. Aber man hat die Leute als Rassisten niedergebrüllt.

Nein, es dürfe nicht sein, dass die Ausbreitungsgeschwindigkeit von Herkunft oder Hautfarbe oder sowas abhänge, wir haben schließlich Sozialismus, da werden gefälligst alle gleich krank. Politisch nicht erlaubt, dass manche Leute/Länder schneller erkranken als andere.

Nun plötzlich kommt man daher und meint, ja, aber, es hat sich doch was verlangsamt. Also hätte man sich doch gar nicht schützen müssen. Als ob die Krankheit damit erledigt wäre. Ohne zu wissen, warum es sich verlangsamt hat. Vielleicht haben die in China was im Trinkwasser, was sie anfälliger macht. Vielleicht lag es einfach daran, dass bei uns die Leute per Fernsehen und Internet vorgewarnt waren.

Ich bestreite und bestätige nicht, dass sich der Ausbruch vor den Maßnahmen verlangsamt hat, ich weiß nicht, ob das so war, ich bin aber der Meinung, dass das kein Gegenargument gegen Maßnahmen ist (oder wäre), solange nicht geklärt ist, warum sich das verlangsamt hat.

Dass die Ausbreitung bereits vor dem Shut-down im Abklingen war, zeigen die Daten. Dies ruft nach einer Erklärung.

Yup. In der Tat. Die Daten an sich sagen einem nicht viel, man müsste das erst untersuchen.

Was uns zum wesentlichen Problem führt. Wir sind hier nämlich keine Hochschuldozenten, die wissenschaftliche Papers schreiben, hier draußen ist das „real life”.

Und wenn ein Haus brennt, dann kann man nicht erst die Brandermittler rufen und sie die Brandursache ermitteln zu lassen, um dann das beste Löschmittel zu wählen. Bis dahin sind die Leute tot und das Haus abgebrannt.

Sondern man löscht erst mit dem, was man hat, und holt die Leute raus. Auch wenn es sich dann als das nicht beste Löschmittel herausstellt. Oder wie ich das in einem früheren Blogartikel zu diesem Thema schon beschrieb: Hinterher ist man oft schlauer, aber manchmal auch tot.

Es bleibt einem bei einem brennenden Haus gar nichts anderes übrig, als – und da lasse ich jetzt mal so richtig fett und arrogant den Informatiker raushängen – heuristischen Methode heranzugehen. Es ist ja gerade so in Mode, dass sie alle, vor allem die dummen Geisteswissenschaftler, über „Algorithmen” schimpfen, ohne je begriffen zu haben, was das ist, aber als Informatiker mit Kenntnis und Erfahrung mit Algorithmen weiß man eben, dass das so nicht funktioniert, wie sich das manche wünschen und vorstellen. Man kann nicht am Anfang des Programmes Wissen verwenden, das man erst am Ende des Programmlaufs hat. Oder wie ich es neulich beschrieben habe: Der Unterschied zwischen a priori und a posteriori. Das ist übrigens auch knallhart Informatik, und kommt beispielsweise in der Numerik vor. Da gibt es Verfahren zur Intervallschachtelung und iterativen Verbesserung von Näherungsverfahren, wenn man irgendeine Formel nicht explizit ausrechnen kann. Sinus, Logarithmus und sowas werden ja auch immer nur mit gewisser Genauigkeit iterativ und approximativ bestimmt. Und da gibt es Verfahren, bei denen man nach jedem Rechenschritt mehr über die erreichte Genauigkeit sagen kann, als vorher. Weil als Teil des Rechenschrittes Ergebnisse abfallen, die etwas über die erreichte Genauigkeit aussagen. Oder die Suche nach dem Weg in einem Irrgarten. Klassische Tiefensuche. Da sammelt man auch erst im Laufe des Programmlaufes die Informationen zusammen. Algebraische Lösungen zu Rubik’s Cube: Da findet man auch erst schlechte Lösungen und dann zunehmend bessere, weil man im Programmlauf erst Wissen ansammelt.

Deshalb sind Informatiker (jedenfalls wenn sie noch eine breite und tiefe Ausbildung hatten) damit vertraut, dass man nicht immer gerade zur besten Lösung kommt, sondern auf Umwegen suchen oder es heuristisch probieren muss, weil man sonst gar nicht oder nicht rechtzeitig zum Ziel kommt. Großthema: Algorithmentechnik.

Man muss mit begrenztem (zu wenig) Wissen und begrenzter (zu wenig) Zeit zu einem Ergebnis kommen, weil es sonst zu spät ist. Gibt es übrigens auch bei der Videokompression: Es gibt Verfahrensvarianten und Parameter, mit denen man das Video viel effektiver komprimieren könnte bei noch besserer Qualität, das hilft einem aber nichts, wenn die Übertragung live passieren muss, und die Berechnung zu lange dauert, das nächste Bild nicht rechtzeitig übertragen werden kann. Lieber schlecht, aber rechtzeitig.

So wie es gegenwärtig aussieht (siehe z.B. die Arbeit von Gomes et al. und Folgearbeiten), ist der Fehlschlag der Modelle, speziell desjenigen des Imperial College, ganz wesentlich darauf zurückzuführen, dass diese in der Regel mit gleichen Werten von Suszeptibilität und Infektiösität für alle Individuen rechnen. Diese Werte sind jedoch sehr verschieden voneinander; einige Personen zeigen hohe Werte (super spreader etc.), sehr viele jedoch niedrige Werte.

Was soll’n das sein? „So, wie es gegenwärtig aussieht…”?

Und da sind wir wieder bei a priori und a posteriori: Man hätte im März anders entscheiden sollen, weil es im Mai anders aussieht…

Mal abgesehen von dem Umstand, dass man neulich noch alle als Rassisten geshitstormt und rausgedrängt hat, die unterstellten, dass eben nicht alle Inviduen die gleiche Suszeptibilität und Infektiösität aufweisen, sondern es da genetisch bedingte Unterschiede gäbe:

Es hilft uns zumindest in der politisch korrekten Version nicht.

Ich erkläre es nochmal am Beispiel des Feuers. Stellt Euch vor, wir haben eine riesig große Lagerhalle, voll mit einem Granulat. Das Granulat ist eine gleichmäßige Mischung aus roten, grünen und blauen Kügelchen. Die roten brennen wie Hölle, die grünen so ein bisschen, gehen aber von selbst aus, die blauen brennen gar nicht. (keinerlei politischer Farbbezug!)

Ist diese Lagerhalle im Vollbrand, brennt also komplett, dann erklärt diese Mischung, warum der Inhalt der Lagerhalle nicht ganz abbrennt, sondern sich das Feuer nach einem Drittel verlangsamt und dann nach der Hälfte anfängt, von selbst auszugehen. Weil die grünen halt nicht richtig und die blauen gar nicht brennen.

Es würde aber nicht erklären, warum die Halle unterschiedlich schnell brennt, wenn sie von einer Seite zur anderen abbrennt, denn trotz der Mischung würde es nicht erklären, warum die Halle auf einer Seite schneller brennen sollte als auf der anderen. Warum sollte dieselbe Mischung auf einer Seite schneller brennen als auf der anderen?

Und diesen Vollbrand haben wir noch nicht erreicht, wir sind noch nicht flächendeckend mit Sars-Cov-2 kontaminiert. Wir sind noch in der Phase der Ausbreitung, und da erklären solche Mischungen nicht, warum sich die Ausbreitung verlangsamen sollte. Erst ab einer gewissen Sättigung erklärt das Modell der Mischung unterschiedlich anfälliger Individuen eine Verlangsamung. Nämlich dann, wenn die Substanz verzehrt wird, und nicht, wenn die Ausbreitung passiert.

Eine Auswirkung auf die Ausbreitungsgeschwindigkeit würde das Modell erst dann hergeben, wenn die Kügelchen nicht gemischt, sondern getrennt gelagert würden. Angenommen, die Halle würde rote, grüne und blaue Kügelchen getrennt lagern, uns es hätte bei den roten angefangen zu brennen, dann würde es erst schnell brennen, dann bei den grünen langsamer, und wenn nur noch die blauen übrig sind, dann würde es aufhören zu brennen.

Aber so hat man ja die Unterschiede China-Afrika-Italien-Deutschland betrachtet, aber das sofort als „rassistisch” weggeschoben.

Will sagen: Ein Modell unterschiedlich anfälliger Menschen innerhalb einer Gesellschaft kann völlig richtig und zutreffend sein (wissen wir ja alle, dass wir unterschiedlich anfällig für Krankheiten sind), und ist auch für eine Risikoanalyse relevant, aber es erklärt keine Verlangsamung in der Ausbreitungsphase.

Und es rechtfertigt auch nicht, die anfälligeren Menschen ans Messer zu liefern, weil es die anderen nicht so interessiert.

Es wäre m.E. Aufgabe von Virologen der Sorte Drosten gewesen, das zu eruieren und entsprechende Daten herbeizuschaffen, statt als General-Epidemiologen zu dilettieren.

Oh ja, und wenn’s brennt, machen wir nicht erst eine Brandursachenermittlung, sondern darauf aufbauend eine deutschlandweite Ausschreibung unter Feuerwehrleuten, damit wir den finden, er am besten geeignet ist, den Brand zu löschen.

Und wenn man nach einem Unfall verblutend am Boden liegt, akzeptiert man auch nicht den Notarzt vor Ort, sondern will schon den haben, der sich dieser Art von Verletzung durch die meisten Veröffentlichungen als Koryphäe erwiesen hat. Ja, ja. Verstehe.

Unter Fotografen gibt es da so einen Spruch: Die beste Kamera ist immer die, die man dabei hat.

Der Mechanismus geht vereinfacht dargestellt so, dass die genannte Subgruppe natürlicherweise zu einem fulminanten Anstieg der Erkrankungen in der initialen Phase führt, in welcher der große Rest der anderen noch keine Rolle spielt. Wenn die Subgruppe dann „abgeerntet“ ist, d.h. zu großen Teilen durch eine abgeklungene Infektion ausscheidet, spielt sie für die Dynamik keine Rolle mehr, und der Verlauf wird von der viel geringen Suszeptibilität und Infektiösität des großen Rests bestimmt. Hier gehen auch schon die einfachsten Vorsichtsmaßnahmen mit ein, und man braucht keinen Shut-down. Daher gibt es für beide Gruppen auch unterschiedliche Level der „Herdenimmunität“, wie man sie in den einfachen Modellen über 1-1/R bestimmt, einmal vielleicht 70-80%, beim Rest aber vielleicht nur 15-20%. Die genauen Werte müssen über sorgfältige Analysen der Daten bestimmt werden. Dieser Mechanismus, dessen Wirkung in entsprechenden Rechnungen direkt aufgezeigt werden kann, würde auf natürliche Weise erklären, warum der Verlauf in praktisch allen Ländern unabhängig von den getroffenen Maßnahmen, ja bereits vorher ähnlich war. Das ist wissenschaftlich extrem interessant, nicht zuletzt, weil etwas so Naheliegendes wie die interindividuellen Unterschiede ignoriert wurde. Die unterschiedliche Sterblichkeit geht wesentlich mit Unterschieden in der Exposition und Versorgung alter Personen einher und ist von der Ausbreitung teils entkoppelt.

Wie ich es oben beschrieben habe: Im Vollbrand, bei Substanzverzehr. Nicht bei Ausbreitung.

Das Virus verfügt nicht über die Intelligenz und Auswahlmöglichkeiten, erst mal die zu fressen, die leicht zu fangen sind. Wir reden hier nicht von Löwen, die sich erst mal gezielt die kleinen und schwachen Exemplare einer Gnu-Herde heraussuchen.

Und selbst, wenn es stimmte: Ich fände es unvertretbar dreckig zu sagen, es sei nicht notwendig, Schutzmaßnahmen zu ergreifen, weil es ein paar Leute gäbe, die es überlebten. Es hat sowas von der Titanic, die genug Rettungsboote für die erste Klasse hatte. Reicht doch, ein paar Leute haben es ja überlebt. Was will man mehr?

Man kann folglich als Wissenschaftler, der auf eine möglichst gute Erklärung der Beobachtungen abzielt, aus der Sache viel lernen, und ich jedenfalls finde das großartig.

Das stimmt.

Nur habe ich anscheinend etwas anderes daraus gelernt als er.