top

Zur Modellierung der Corona-Pandemie – eine Streitschrift

National wie international haben mathematische Modelle des Infektionsgeschehens in der Corona-Pandemie eine enorme politische Wirkung entfaltet. Die Modelllastigkeit der politischen Entscheidungsprozesse ist aber auch vielfach kritisiert worden. Sowohl aus fachlicher wie auch aus wissenschaftssoziologischer Perspektive erscheint aufgrund zahlreicher Indizien in der Tat Manöverkritik geboten. Inwiefern die Leistung speziell der regierungsnahen Epidemiemodellierung den Herausforderungen gerecht geworden ist, sollte in weiteren Kreisen kritisch hinterfragt und aufgearbeitet werden. Modellunsicherheiten und die Komplexität des Problems der Ausbreitung von Infektionskrankheiten sollten stärker beleuchtet werden. Es braucht ein vertieftes Bewusstsein, dass mathematische Modelle praktische medizinische Erfahrung und klassische Konzepte zur Steuerung komplexer Systeme nicht ersetzen können.

Mehr lesen
Erstveröffentlichungsdatum: 29.11.2021

Abstrakt: Zur Modellierung der Corona-Pandemie – eine Streitschrift

Bei diesem Text handelt es sich um ein Addendum zum Thesenpapier 8.0 der Autorengruppe Schrappe et al., das Prof. Bernhard Müller als Gastbeitrag und in Form einer Streitschrift verfasst hat. Die Erstveröffentlichung erfolgte über die Thesenpapier-Autorengruppe (Corona Info-Plattform: https://corona-netzwerk.info). In dieser Streitschrift wird eine Untersuchungskommission zur wissenschaftlichen Modellierung der Corona-Pandemie gefordert – zur retrospektiven Evaluierung, Einordnung und Verbesserung der eingesetzten Modelle. Stand: 10. Oktober 2021

Zusätzliches

Zitationshinweis: Müller, B.: „Zur Modellierung der Corona-Pandemie – eine Streitschrift“, in: „Monitor Versorgungsforschung“ (06/21), S. 68-79. doi: http://doi.org/10.24945/MVF.06.21.1866-0533.2354

Plain-Text

Zur Modellierung der Corona-Pandemie – eine Streitschrift

National wie international haben mathematische Modelle des Infektionsgeschehens in der Corona-Pandemie eine enorme politische Wirkung entfaltet. Die Modelllastigkeit der politischen Entscheidungsprozesse ist aber auch vielfach kritisiert worden. Sowohl aus fachlicher wie auch aus wissenschaftssoziologischer Perspektive erscheint aufgrund zahlreicher Indizien in der Tat Manöverkritik geboten. Inwiefern die Leistung speziell der regierungsnahen Epidemiemodellierung den Herausforderungen gerecht geworden ist, sollte in weiteren Kreisen kritisch hinterfragt und aufgearbeitet werden. Modellunsicherheiten und die Komplexität des Problems der Ausbreitung von Infektionskrankheiten sollten stärker beleuchtet werden. Es braucht ein vertieftes Bewusstsein, dass mathematische Modelle praktische medizinische Erfahrung und klassische Konzepte zur Steuerung komplexer Systeme nicht ersetzen können.

>> Wissenschaftliche Modellierung hat in Corona-Zeiten Hochkonjunktur. Wer seine Karriere damit verbracht hat, mithilfe von Modellen astrophysikalischen Phänomenen zu entlocken, was direkten Beobachtungen verborgen bleibt, der sollte sich, so möchte man meinen, darüber freuen können. Doch leider erleben wir in der Corona-Pandemie Modellierung nicht von ihrer besten Seite. Selten gab es in der Geschichte der Wissenschaft eine größere Spannung zwischen dem Geltungsanspruch und der politischen Wirkmächtigkeit von Vorhersagen und dem bemerkenswerten Mangel an Offenheit und Selbstkritik, wenn Vorhersagen sich nicht erfüllten. Diese Einsicht hat allerdings einen schweren Stand, denn es wäre zu peinlich, wenn eminente wissenschaftliche Journale, Wissenschaftsorganisationen, Wissenschaftsjournalisten und nicht zuletzt politische Entscheidungsträger einräumen würden, dass man dem Publikum möglicherweise „Ramschware“ verkauft hat. Gewiss, nicht jeder hat sich von naiven Modellvorhersagen blenden lassen, und viele haben mit ihrer Kritik nicht hinterm Zaun gehalten. Es scheint mir an der Zeit, eine noch offensivere Aufarbeitung der Missstände anzustoßen. Denn erstens hat die Öffentlichkeit von uns Wissenschaftlern ein Recht auf schonungslose Ehrlichkeit, und zweitens tun wir gut daran, Fehler zu benennen, um nicht in einigen Jahren kollektiv als Quacksalber dazustehen und das Vertrauen der Menschen zu verlieren. Dabei geht es nicht darum, die Pandemie kleinzureden. Gerade wer Menschen vor Krankheit bewahren und Leben retten will, braucht einen unverzerrten Blick auf die Wirklichkeit. Es taugt nichts, wenn wir unter massiven Anstrengungen fünfhunderttausend eingebildete Todesfälle verhindern, aber möglicherweise übersehen, dass wir mit durchdachterem Herangehen tatsächlich fünftausend mehr hätten retten können. Was hätte man erreichen können, wenn Pflegeheime mit dem gesparten Geld konsequenter getrennte Stationen für infizierte und nicht infizierte Heimbewohner einrichten und andere Schutzmaßnahmen ergreifen hätte können? Was mit anderen Risikokontrollstrategien, wie sie von Praktikern aus dem Gesundheitswesen vorgeschlagen wurden1? Welche Möglichkeiten haben wir unter Umständen sogar noch übersehen, weil wir den Blick zu starr auf simplifizierte Modelle gerichtet haben? Das zu entscheiden würde aber den Rahmen sprengen. Im Folgenden wird es nur darum gehen, wie sich mathematische Modellierung in der Pandemie geschlagen und dargestellt hat – als ein kleiner Baustein in der Aufarbeitung der letzten eineinhalb Jahre.
1. Kaleidoskopische Bestandsaufnahme
Die prognostische und diagnostische Modellierung des epidemischen Geschehens war unstrittig von Anfang an eine der zentralen Säulen, auf die sich non-pharmaceutical interventions (NPIs) wie Kontaktbeschränkungen und Geschäftsschließungen stützten. Report 9 der Imperial-Gruppe2 ist uns als politisch wirksamer „Paukenschlag“ allen in Erinnerung. Die Vorhersage lautete: 510.000 Tote in Großbritannien ohne Maßnahmen. Trotz der Bedeutung prädiktiver Modellierung und modellgestützter statistischer Analyse kann aber wenigstens wissenschaftssoziologisch nicht von einem Konsens über den wissenschaftlichen Befund die Rede sein. So wurde gegen das Modell der Imperial-Gruppe eingewandt, dass es bei Anwendung auf Schweden durch ein Team aus Uppsala3 die Zahl der Todesfälle um eine Größenordnung überschätzt habe. Der Nobelpreisträger Michael Levitt (Stanford) wandte sich nach eigener Analyse von Fall- und Todeszahlen gegen das Narrativ vom exponentiellen Wachstum und bevorzugt stattdessen Fits mit der sogenannten Gompertz-Funktion4.
Gegen die Linie der Imperial-Gruppe haben sich beispielsweise auch die theoretische Epidemiologin Sunetra Gupta aus Oxford5 und der ebenfalls dort tätige Professor für evidenzbasierte Medizin, Carl Heneghan, positioniert. Was die Effektivität von NPIs angeht, sehen beispielsweise deutsche Gruppen aus Göttingen und Braunschweig eine entscheidende Wirkung harter Kontaktbeschränkungen6; die Analysen der Gruppe um Ioannidis (Stanford)7 und der CODAG-Gruppe der LMU geben Anlass zu Skepsis hinsichtlich der Effektgröße8. Kritisch über die Verlässlichkeit der Modelle äußert sich auch der emeritierte Aachener Epidemiologe Ulrich Keil9. Die Autorengruppe um Matthias Schrappe attestierte jüngst Modellierern Naivität im Herangehen an ein komplexes System wie das Pandemiegeschehen10. Eine erschöpfende Darstellung des Meinungsbilds unter Wissenschaftlern jenseits dieses kaleidoskopischen Eindrucks könnte Bände füllen.
Der Dissens hat sich von Anfang an auch außerhalb der klassischen Kanäle innerwissenschaftlicher Kommunikation manifestiert. Die wissenschaftliche Debatte ist übergeschwappt auf Zeitungsinterviews und Talkshows, auf Youtube und auf Twitter, und oft genug haben sich hierbei journalistische „Faktenchecker“ zu Schiedsrichtern aufgeschwungen. Michael Levitt wurde in der „FAZ“ dafür angegriffen, dass er „jenseits der Kernexpertise“ operiere11, die Göttinger MPG-Gruppe fing sich in einem Artikel in der „Welt“ ein wenig schmeichelhaftes Epithet ein12. Die „Berliner Zeitung“ beleuchtete unter dem Titel „Der große Modelliererstreit“13 den Konflikt zwischen Matthias Kreck, Träger der prestigeträchtigen Cantor-Medaille der Deutschen Mathematikervereinigung, und den Gruppen aus Göttingen, Braunschweig und Berlin, der sich interessanterweise trotz einer Affinität in den ursprünglichen Zielsetzungen entwickelt hat. In diesem Artikel bedauert ein weiterer Modellierer, Dr. Mohring, dass es einen vertieften Austausch über die Probleme und Stärken einzelner Modellansätze seiner Erfahrung nach in Deutschland nicht gegeben habe. Davon, wie die Debatte in den sozialen Medien, geführt durch Wissenschaftler verschiedener Fraktionen und ihre Anhänger, noch weiter ausufert, wollen wir nicht einmal reden.
2. Falsche Balance?
Auch wer von vermeintlich tiefen Gleichungen in den Modellen gar nichts versteht, wird hier zurecht hellhörig werden und überlegen, ob er es mit einem „verseuchten“ wissenschaftlichen Gebiet zu tun hat. Zwar mag man es mit einer aufgebauschten Kontroverse und einer „falschen Balance“ zwischen der Orthodoxie und den entweder von Ignoranz oder sinistren Interessen getriebenen Häretikern zu tun haben – eine Deutung, die den regierungsnahen Modellierern und ihren Alliierten wie Deutschlands Starvirologen Christian Drosten gefällt.14 Vielleicht ist der zivilisierte wissenschaftliche Diskurs auch kollabiert, weil alle Seiten den Wald vor lauter Bäumen nicht sehen. Doch wie dem auch sei, es gibt Grund der Sache nachzuspüren und die Politikberatung durch Epidemiemodellierer kritisch abzuklopfen.
Denn die Behauptung einer „falschen Balance“ überzeugt nicht, wenn man ein wenig kriminalistische Erfahrung einfließen lässt. Eine „falsche Balance“ gibt es in wissenschaftlichen Debatten manchmal durchaus. Dass Richard Lindzen oder Freeman Dyson in der Frage der Erderwärmung Advocatus diaboli spielen, hat niemanden überrascht, aber Unbehagen über die Verlässlichkeit von Epidemiemodellen findet man auch unter wesentlich unkonventionelleren und geerdeteren Charakteren. Und auch die Selbstüberschätzung fachfremder Forscher kann nicht das Problem sein. Wenn in Deutschland zwei Gruppen innerhalb von wenigen Monaten im Gebiet epidemiologischer Modellierung vom unbeschriebenen Blatt zu Regierungsberatern avancieren (in der Klimaforschung undenkbar), während ein Nobelpreisträger wie der Biophysiker Levitt und Kreck als Träger der Cantor-Medaille sich für einen Quereinstieg als zu blöd erweisen sollten, während ein Nestor der Medizinstatistik wie John Ioannidis und eine Trägerin eines prestigeträchtigen Wolfson Fellowship der Royal Society wie Sunetra Gupta plötzlich „entgleist“ sein sollten, dann wäre das sensationell und von sich aus einer Untersuchung wert. Selbst ein Außenseiter wie Tomas Pueyo, ohne jegliche akademische Meriten in der Materie, ist im NDR-Podcast von Drosten als ernstzunehmender Modellierer und Analyst rezipiert worden15. Und wie kann es sein, dass der fachfremde Kreck vom RKI-Modellierer Brockmann abgekanzelt und von einer Eminenz in der mathematischen Epidemiologie wie Odo Diekmann zitiert und wegen fruchtbaren Gedankenaustauschs ausdrücklich dankend erwähnt wird16?


3. Manöverkritik zur Pandemiemodellierung

Man kann nicht darauf hoffen, dass sich eine derart verfahrene und politisch aufgeladene Situation auf normalen Schienen – durch reguläre Forschungsarbeiten, Konferenzen und so weiter – in absehbarer Zeit klären lässt. Nur über lange Zeiträume siegt im regulären Wissenschaftsbetrieb die Wahrheit über die Moden des Augenblicks, die Trägheit der Unbeteiligten und die Wagenburgmentalität derer, die Angst vor Kratzern am Selbstbild haben. Um die Irrungen und Wirrungen der Vergangenheit kümmert man sich ohnehin weniger als um das Neue, abgesehen von der Wissenschaftgeschichte, die fernab der großen Drittmittel-Fleischtöpfe ein eher karges Dasein fristet. In einer so bedeutenden Sache verdient die Öffentlichkeit mehr; sie verdient zu erfahren, was an den Modellen belastbar war, in deren Namen sie über Monate hinweg von der Exekutive dirigiert wurde. Das braucht ein anderes Format, genauso wie Stephen Jay Goulds Kampf gegen die falsche Vermessung des Menschen17 sich nicht nur an Fachkollegen richten konnte. Es braucht gewissermaßen eine forensische Herangehensweise.
Als jemand, der von der mathematischen Modellierung komplexer Systeme ein wenig versteht, will ich dazu einen Beitrag liefern – nicht unbedingt als vollkommen leidenschaftslose Analyse, sondern durchaus subjektiv gefärbt, als ein Wissenschaftler, der sich wundert. Das Stirnrunzeln haben wir lange genug unterdrückt.


3.1 Exponentielles Wachstum – Fakt oder Fiktion?

Wer Anfang 2020 erstmals mit der Idee des exponentiellen Wachstums von Epidemien in Berührung kam, dem mochte dieses Konzept einleuchtend erscheinen. Bei einer Basisreproduktionszahl von beispielsweise drei steckt ein Infizierter in einem gewissen Zeit-intervall drei weitere Personen an, dieser in der nächsten Generation dann neun, dann 27, und so weiter. Das ganze wiederholt sich so lang, bis man in die Nähe der „Herdenimmunität“ kommt und die möglichen Folgekontakte schon verbraucht sind. Mit einfachen Gleichungen auf dem Niveau der Mittelstufenmathematik kann man diese Herdenimmunitätsschwelle aus der Reproduktionszahl ausrechnen. Jedem mathematisch Vorgebildeten musste damals freilich klar sein, dass er mit wesentlich komplexerem Verhalten realer Epidemien rechnen musste, denn andernfalls hätte man das Gebiet der mathematischen Epidemiologie längst wegen vollständiger Lösung des Problems einstampfen können. Wer ein klein wenig tiefer einstieg, fand sogenannte SIR-Modelle, in denen die Bevölkerung in Suszeptible, Infizierte und Genesene eingeteilt werden, für deren Anteile man dann Differentialgleichungen aufstellt, wobei einige Ausschmückungen dieses Ansatzes möglich sind. Vieles, was publikumswirksam auf den Markt geworfen wurde, beschränkte sich auf diesen Typ von Modellen, so beispielsweise die Studie von Dehning et al.18, welche die entscheidende Wirkung des Lockdowns im Frühjahr 2020 zu bestätigen suchte. Dieser Ansatz, der an dem naiven Bild vom exponentiellen Wachstum nicht viel rüttelt, ist freilich schon fast hundert Jahre alt19 – ich erinnere mich aus Oberstufenzeiten gut an eine erste Begegnung in einem Lehrbuch in Schreibmaschinenschrift über Differentialgleichungen.
Dass man so billig realistische Epidemiemodelle bauen könnte, erschien von Anfang an suspekt, aber angesichts der Informationslage gewährte man der These vom drohenden exponentiellen Wachstum gern einen Vertrauensvorschuss. Doch es mehrten sich bald die Indizien, dass die Realität sich wesentlich komplexer darstellte. Schon während des Abklingens der ersten Welle entspann sich der Streit, wann und weshalb denn nun der berühmte R-Wert unter eins gesunken sei. Auf der internationalen Szene trat Levitt mit der Behauptung auf die Bühne, die SARS-CoV-2-Ausbrüche wüchsen nicht exponentiell, sondern gemäß einer sogenannten Gompertz-Funktion.20 Weit überwiegend wurde die Durchbrechung des exponentiellen Wachstums den nicht-pharmazeutischen Interventionen zugeschrieben. Das ist nachvollziehbar, denn eine Reduktion von Kontakten muss unstrittig das Infektionsgeschehen beeinflussen – aber es ist dennoch ein logischer Kurzschluss. Denn um die Verlangsamung des Infektionsgeschehens allein den Maßnahmen zuzuschreiben, hätte man – frei nach Sherlock Holmes – alle anderen Erklärungsmöglichkeiten ausschließen müssen. Meist tat man das nur schlampig – etwa mit dem Verweis auf den „vorauseilenden Gehorsam“ der Bürger, die ihre Kontakte schon vor dem Lockdown reduziert hatten21.
Wissenschaftlich ist dieses Vorgehen aber schlicht faul. Anstatt sich mit einer Ad-hoc-Erklärung zufrieden zu geben, so plausibel diese auch sein mochte, waren nach dieser ersten überraschenden Entwicklung eigentlich zwei unverzichtbare Aufgaben zu erledigen: Erstens galt es die Annahmen hinter verschiedenen verwendeten Modellen schonungslos zu sezieren, und zweitens parallel dazu die Fachliteratur nach ähnlichen Phänomenen zu durchforsten. Den öffentlichkeitswirksamen Epidemiemodellierern hätte dies ein Leichtes sein müssen, doch wurden sie dazu offenbar weder von der Politik angehalten, noch taten sie es aus eigener Initiative, noch fruchteten Nachfragen von Kollegen. Warum konnte niemand Levitt beantworten, was an seinen Zahlen falsch war22 und warum man nicht nach seiner Methode vorgehen konnte?
Die Antwort hätte zum Beispiel lauten können: „Ja, man kennt Epidemien, die nicht exponentiell wachsen, aber bei SARS-CoV-2 kann das nicht funktionieren, weil ...“
Nichts dergleichen ist nach anfänglichen Zweifeln an der These des exponentiellen Wachstums aufseiten regierungsnaher Modellierer geschehen.


3.2 Epidemien als komplexes System – Vorläufige Überlegungen

Das ist erstaunlich, denn mit ein wenig Erfahrung mit komplexen Systemen kann man sich in wenigen Stunden zusammenreimen, warum das „offizielle“ Narrativ zu simpel sein könnte, und ein paar weitere Stunden Literaturrecherche reichen, um den Verdacht zu erhärten. Eine schnelle Analyse ergibt: Offenkundig kann man nicht annehmen, dass jeder Infizierte gleich viele Folgekontakte ansteckt, und dass die Folgekontakte zufällig in der gesamten Bevölkerung verteilt sind. Die Zahl der Folgekontakte wird streuen, sie werden abseits der Familie möglicherweise öfter in der gleichen Alterskohorte liegen. Sie werden nicht zufällig über das ganze Land streuen, sondern sich häufiger im engeren Umkreis bewegen und oft lokale Cluster bilden, wobei Nähe im geografischen Sinn oder im Sinne eines abstrakten (und sich auch noch ständig ändernden) Kontaktnetzwerks verstanden werden kann. Der Geschäftsreisende wird wahrscheinlich mehr potenzielle Folgekontakte haben als die allein lebende Witwe. Jenseits der Heterogenität solcher soziologischen Faktoren wird es auch auf der medizinischen Seite Komplikationen geben. Mancher infiziert sich aus unerfindlichen Gründen gar nicht, ein anderer scheidet lange und intensiv Virus aus und wird zum Superspreader, und man muss auch mit variablen Umweltfaktoren (UV-Strahlung, Temperatur, Feuchtigkeit etc.) rechnen. Wer mit komplexen Systemen vertraut ist und nur einen Teil der möglichen Komplikationen erkennt, dem drängen sich sofort verschiedene Ideen auf, die Wirklichkeit besser abzubilden: Man kann die Bevölkerung in mehr Untergruppen einteilen und die Reproduktionszahl durch eine Matrix ersetzen um zu beschreiben, wie häufig jemand aus Altersgruppe X jemanden aus Altersgruppe Y ansteckt, oder die Menschen noch feiner nach der Anzahl ihrer Kontakte unterteilen. Man kann die „lokale“ Natur der Ausbreitung als sogenanntes Reaktions-Diffusions-System modellieren, oder durch mehr oder weniger elaborierte Modelle von Kontaktnetzwerken abbilden.
Man kann dabei allerlei arkane, für Laien unverständliche mathematische Konzepte einbringen – Renormierungsgruppentheorie, die Theorie von Fraktalen, Bifurkationstheorie und dergleichen. Entscheidend ist freilich, was hinten herauskommt: In komplexeren Modellen müssen Epidemien keineswegs bis fast zum Schluss exponentiell wachsen – auch ohne Kontaktbeschränkungen. Wie beispielsweise Cluster in Kontaktnetzwerken exponentielle Ausbreitung bremsen können ist in Abb. 1 sehr vereinfacht dargestellt23. Und die Größe eines Ausbruchs kann nicht einfach aus der Basisreproduktionszahl berechnet werden.
Ich selbst habe im Mai 2020 spaßeshalber in einer freien Stunde versucht, ob man die erste Welle in Deutschland mit ein paar Annahmen über die Kontaktmuster der Bevölkerung reproduzieren lässt, ohne irgendeinen Effekt des „Lockdowns“ vorauszusetzen. Es ist eine leichte Übung (Abb. 2), aus der man freilich erst einmal nur einen Schluss ziehen kann: Mit ein wenig Kreativität kann man wahrscheinlich – frei nach Radio Eriwan – für jede Pandemiewelle fast jede beliebige Erklärung liefern.
Das heißt natürlich nicht, dass man sich die Wirklichkeit beliebig zurechtbiegen dürfte. Erst wenn ein Modell die Konfrontation mit Beobachtungsdaten wiederholt übersteht, gewinnt es an Glaubwürdigkeit. Dies allein reicht aber nicht, insbesondere wenn Modelle eine erhebliche Zahl von Parametern als Stellschrauben aufweisen um sie mit Beobachtungsdaten in Einklang zu bringen. Dass man Modellparameter aus den Beobachtungsdaten selbst extrahiert, ist bei Epidemiemodellen unvermeidbar, aber es braucht dabei einen Sinn für „Sparsamkeit“, damit aus Vorhersagen nicht womöglich vollkommen beliebige Interpretationen des Geschehens werden. Mit zu vielen, vielleicht gar nicht eindeutig bestimmbaren Parametern, geht der Erklärungswert eines Modells möglicherweise gegen Null. Aber selbst wenn ein mathematisches Modell beispielsweise mit wenigen, sehr eindeutig bestimmbaren Parametern die täglichen nationalen Fallzahlen gut vorhersagt, hat man damit noch nicht seine Hausaufgaben erledigt.
Ist der erste Test bestanden, sollte man eine Ebene tiefer in die Daten schauen und überprüfen, ob die Modellvorhersagen oder -annahmen auch dann noch bestätigt werden, oder die vorher besprochenen Komplikationen eine Rolle spielen. Kann ich beispielsweise tatsächlich Heterogenitätseffekte vernachlässigen und eine komplett durchmischte Bevölkerung annehmen?
Dazu kann man Anhaltspunkte gewinnen, wenn man das Infektionsgeschehen genauer auflöst, etwa nach Landkreisen. Wenn man das für die Fallzahlen der Frühjahrswelle 2020 oder die Sterbezahlen der Winterwelle 2020/21 (Abb. 3) macht, dann springt eine signifikante zeitliche Asynchronizität in den einzelnen Landkreisen ins Auge, und man muss sich sehr genau überlegen, ob man durch Mittelung über das ganze Land vereinfachen darf, ohne zu falschen Schlüssen zu kommen.
Die Landkreisdaten zeigen auch eine erhebliche Streuung in der Populationssterblichkeit (Abb. 4), die es zu erklären gilt. Eine mögliche Erklärung für die erhebliche Heterogenität in den räumlich aufgelösten Daten besteht darin, dass sie durch unterschiedliche Entscheidungen einzelner Landräte über die Feinsteuerung der Maßnahmen zu verschiedenen Zeiten verursacht wurde. Aber man muss auch in Betracht ziehen, dass schon die natürliche Infektionsdynamik inhärent solche Fluktuationen produziert, die in Modellen und bei der Interpretation der Daten berücksichtigt werden müssen24. Denn dass ein System auf verschiedenen Skalen (von der Familie über das Dorf zum Landkreis etc.) Strukturen zeigt und sich Fluktuationen nicht so herausmitteln wie erwartet, weckt sofort Assoziationen zu ähnlichem Verhalten bei anderen Phänomenen wie Waldbränden oder Turbulenz.
Da Aktivitätskarten25 und die Verteilung von Fallzahlen26 bei der Influenza ein ähnliches Bild von erheblichen Fluktuationen auf Meso- und Makroskalen offenbaren, drängt sich trotz aller Unterschiede der Verdacht auf, dass auch bei SARS-CoV-2 mit natürlichen Heterogenitätseffekten zu rechnen ist. Dieser nur an der Oberfläche kratzende Blick auf Heterogenitätseffekte vermittelt einen Geschmack, wie man in mühsamer Kleinarbeit Daten abklopfen muss, um sich der Wirklichkeit zu nähern. Noch anstrengender wird es, wenn man die Daten erst erheben muss. Beispiel: Wenn mein Modell sagt, dass der R-Wert gesunken ist, weil Kontakte außerhalb der Familie in der Freizeit verboten waren, dann sollte ich die tatsächlichen Ansteckungswege vor und nach den Kontaktbeschränkungen überprüfen – so etwas kann selbst der begabteste Theoretiker nicht vom Schreibtisch mit scharfsinnigen Rechnungen und Literaturrecherche bewerkstelligen.
Kenner der Materie wissen genau, dass in der soliden Datenerhebung eine entscheidende, und leider vernachlässigte Herausforderung liegt27. Aber erst ein solcher „Blick mit der Lupe“ kann wirklich robuste Erkenntnisse liefern. Wenn man stattdessen einfach verfügbare Daten in eine automatisierte statistische Maschinerie wirft und die Wissensproduktion dem Computer überlässt, muss man auf Patzer gefasst sein. Der „Blick mit der Lupe“ wird in aller Regel Details zutage fördern, die zu erklären komplexere Modelle erfordert.
Dabei kann sich leicht ein Dilemma auftun. Erstens stößt man dabei unter Umständen an technische Grenzen verfügbarer Rechner, zweitens sind notwendige Parameter filigranerer Modelle praktisch vielleicht gar nicht oder nur schwer bestimmbar, und wenn doch, so schaukeln sich drittens Parameterunsicherheiten möglicherweise so sehr auf, dass man keine höhere Vorhersagekraft mehr erreichen kann. Zuletzt werden allzu komplexe Modelle so undurchsichtig, dass womöglich gar nicht mehr erkennbar ist, wo noch Fallstricke lauern. Bisweilen wird man für kurzfristige Prognosen mit einem einfachen Modell besser fahren, solange man es nicht durch problematische Annahmen (wie fortgesetztes exponentielles Wachstum) auf einen falschen Weg zwingt und den beschränkten Prognosehorizont im Auge behält – aber dabei bedarf es außerordentlicher Vorsicht.
Wegen alldem steht man schnell vor der Wahl zwischen dem unerreichbaren Ziel des maximalen Realismus auf der einen und unbefriedigenden Vereinfachungen auf der anderen Seite. In diesem Kontext muss man auf Fallstricke sogenannter „agentenbasierter Modelle“ verweisen, die Steckenpferd unter anderem der Imperial-Gruppe sind28. In solchen Modellen wird eine Epidemie mittels einzelner Individuen simuliert, die täglich zur Arbeit fahren, Freunde treffen, verreisen etc. und sich dabei nach gewissen Regeln infizieren.
Dieser Ansatz mag der populären Idealvorstellung einer Simulation am nächsten kommen, bietet aber zahlreiche Möglichkeiten, diffizile Effekte zu übersehen. Man kann nämlich beispielsweise relativ leicht bestimmen, wie die Entfernung zum Arbeitsplatz statistisch verteilt ist, oder wie häufig Altersgruppe A mit Altersgruppe B pro Tag Kontakt hat29. Aber es ist sehr viel schwieriger zu messen, ob diese Kontakte ein Infektionsrisiko beinhalten (gemeinsame Wanderung oder bierselige Geselligkeit in Innenräumen).
In solchem Zusammenhang spricht man in anderen Disziplinen von Proxy-Daten („Stellvertreter-Daten“): Man misst tatsächlich eine etwas andere Größe als die, welche man in einem Modell eigentlich braucht, und hofft, dass ein hinreichend enger Zusammenhang besteht. Das funktioniert solange, wie dieser Zusammenhang gut kalibriert und verstanden ist, stellt aber potenziell immer eine Fehlerquelle dar. Es gibt auch allerlei Nischen, wo man implizite Vereinfachungen übersehen kann. Ein agentenbasiertes Modell kann ziemlich leicht abbilden, dass X und Y beide täglich zu Firma Z zur Arbeit fahren und einander möglicherweise dort infizieren können, aber nicht, dass X als Gärtner und Y als Buchhalter arbeitet, und die beiden einander tatsächlich noch nie persönlich begegnet sind.
Ob das im Ergebnis keinen Unterschied macht, muss sich erst erweisen. Vielleicht verhält sich Firma Z mit 1.000 Mitarbeitern mehr wie 20 Firmen mit 50 Mitarbeitern, mit dem Resultat weniger effektiver Durchmischung und langsamerer Infektionsausbreitung als erwartet.
Die erwähnten Probleme sind allerdings nicht auf komplexe Modelle beschränkt. Man kann zum Beispiel in einem einfachen Epidemiemodell sozialer Distanzierung berücksichtigen, indem man die Übertragungswahrscheinlichkeit an Mobilitätsindikatoren aus Telefondaten als Proxy koppelt. Damit wird man den Effekt qualitativ erfassen, aber mit quantitativen Vorhersagen muss man vorsichtig sein. Denn ein LKW-Fahrer, der nur schnell an der Tankstelle halt macht, sein Mittagessen allein auf dem Parkplatz verzehrt und sich beim Ein- und Ausladen stets im Außenbereich aufhält, wird den Mobilitätsindikator etwas nach oben treiben, aber nicht zum Infektionsgeschehen beitragen. Andererseits sagt der Mobilitätsindikator nichts über Ansteckungen zwischen Bewohnern eines Pflegeheims. Dass sich all diese Feinheiten beim groben Blick auf die gesamte Bevölkerung oder auch nur einen Landkreis herausmitteln, darf man nicht leichtfertig voraussetzen. Und selbst wenn sie sich näherungsweise herausmitteln: Wer aufgrund für sich genommen akzeptabler Näherungen mehrfach 50%-Effekte vernachlässigt, liegt man am Ende schnell um eine Größenordnung daneben.
Kommt dann noch eine stark nicht-lineare Abhängigkeit von den Parametern hinzu, vergrößert sich die Fehlermarge entsprechend, beziehungsweise schmilzt der Prognosehorizont. Man nehme fünf Prozent Unsicherheit in der Übertragungswahrscheinlichkeit, fünf Prozent in der Kontaktrate, fünf Prozent in der Dauer der infektiösen Phase, und eine allzu einfache Prognose über den Winter durch Fortschreibung der momentanen Bedingungen gerät leicht zum Blinde-Kuh-Spiel. Entweder explodieren die Unsicherheitsbereiche, oder man kommt in ein Regime, wo plötzlich andere Faktoren eine Rolle spielen und Modellannahmen zusammenbrechen.

3.3 Kursorischer Blick auf die Fachliteratur

Hätte die mathematische Epidemiologie jahrzehntelang übersehen, was man sich als theoretischer Physiker in ein paar Stunden zurechtlegen kann, so wäre ich damals stutzig geworden und hätte an mir selbst gezweifelt. Der Blick in die Literatur zeigt freilich sofort: Alle erdenklichen Komplikationen und ihre Auswirkungen auf die Dynamik von Epidemien sind altbekannt, und dass man sie sich mit ein wenig Vorbildung sehr schnell erschließen kann, hat natürlich mit der subkutanen Aufnahme von Konzepten zu tun, die über Jahrzehnte quer über Wissenschaftsdisziplinen gewirkt haben. Nur einige wenige Schlaglichter seien hier erwähnt, und der Leser möge die Einsprengsel aus der Fachsprache verzeihen: Schon vor Jahrzehnten erkannte man, dass das berühmte R0 in komplexen SIR-Modellen nicht die ganze Transmissionsdynamik beschreibt, sondern vereinfacht gesagt nur den größten Eigenwert einer „Reproduktionsmatrix“ widerspiegelt30,31,32 – wobei ich hier die Forschungschronologie nicht metikulös aufdröseln kann. Immer wieder werden Modelle diskutiert, in denen die Zahl der Neuinfektionen mit der Größe des Ausbruchs schneller abnimmt als in klassischen SIR-Modellen, um Abbremseffekte durch Cluster zu berücksichtigen33,34,35.
Ebensowenig kann man im Allgemeinen die Größe des Ausbruchs („Herdenimmunität“ im naiven Sinn) mit der klassischen Formel
1-1/R0 abschätzen36. Sogenannte Metapopulationsmodelle zeigen ebenfalls nicht-exponentielles Wachstum und bisweilen kleinere Ausbrüche, als man naiv erwarten würde37,38. Auch aus Netzwerkmodellen ergibt sich oft ein Bremseffekt durch Cluster.
Und bereits in den 80er-Jahren arbeitete der österreichische Physiker Peter Grassberger vom Forschungszentrum Jülich am Problem der Epidemieausbreitung auf einem zweidimensionalen Gitter, in dem sich die Infektion in Form einer Front ausbreitet und die Zahl der Fälle mit der Zeit als Potenzfunktion statt als Exponentialfunktion wächst39.
Dazu ein Einschub: Ironischerweise wurde Grassbergers Bild von einer Epidemie als sogenannter Perkolationsprozess von Christian Drosten in seinem NDR-Podcast aufgenommen, und nach einer weitgehend richtigen Einführung dann auf fast geniale Weise missverstanden und geradezu auf den Kopf gestellt. Dass Drosten in Unkenntnis von Grassbergers Arbeit behauptete, dass das Prinzip der Perkolation aus der Infektionsökologie „noch wenig übertragen [worden sei], gerade im deutschsprachigen Sprachraum“ und auf Nachfrage keinerlei Kenntnis der formal-mathematischen Grundlagen offenbarte, hat eine bittere Komik.
Die Theorie liefert aber nicht nur Anlass zu Optimismus. Anders als in simplistischen Modellen können in Netzwerkmodellen mit bestimmten Eigenschaften Ausbrüche nicht komplett unterdrückt werden40,41. Subtile Eigenschaften der Netwerkstruktur können Konsequenzen für die optimale Immunisierungsstrategie haben42,43. Abgesehen vom medizinisch-pharmazeutischen Problem der beschränkten und mit der Zeit nachlassenden Wirksamkeit der verfügbaren Impfstoffe gegen die Weiterverbreitung des Virus muss man wohl auch aus der Perspektive der mathematischen Epidemiologie einige kritische Fußnoten zum Versprechen der „Herdenimmunität“ durch die Impfung anbringen. Das Zusammenspiel eines nachlassenden Impfschutzes und nachfolgender Reimmunisierung durch milde Infektionen selbst bietet ebenfalls Raum für Überraschungen aufgrund möglicherweise chaotischer Dynamik, die den Horizont von Prognosen einschränkt44. Und man findet in der Literatur nicht nur graue Theorie: Ideen zum nicht-exponentiellen Wachstum sind in aller Regel durch Beobachtungen motiviert.
Ein besonders interessantes Beispiel: Als Ende der 80er-Jahre Angst vor dem exponentiellen Wachstum von AIDS um sich griff, wuchs die Zahl der Fälle dann tatsächlich kubisch. Man mochte das naiv mit den ergriffenen Aufklärungs- und Präventionsstrategien erklären, aber Stirling Colgate, ein Pionier der Theorie komplexer Systeme, wies darauf hin, dass ein solches nicht-exponentielles Wachstum auch mit der Verteilung sexueller Kontakthäufigkeiten zu tun haben konnte45. Geschichte wiederholt sich nicht, aber sie reimt sich. Warum waren all die erwähnten Komplikationen bei SARS-CoV-2 plötzlich bedeutungslos?
Warum haben die Experten der Regierung nicht protestiert, wenn Markus Söder im Bayerischen Landtag bestenfalls auf Mittelstufen-niveau über exponentielles Wachstum dozierte46 und Christian Drosten in einem Tweet zum Beispiel der Zinseszinsrechnung griff47, um im Streit mit Kritikern das Wachstum der Epidemie noch einmal zu verdeutlichen? Warum hat niemand die Verbindung zwischen Michael Levitts nicht-exponentiellem Gompertz-Modell und früheren Arbeiten in der Literatur gesehen, sondern ihn einfach abgebügelt? Wussten die Modellierer nicht besser, wollten sie es nicht sagen – oder ist SARS-CoV-2 tatsächlich so magisch anders, dass alles wieder ganz einfach wird?


3.4 Versuch einer Einschätzung

Einiges spricht gegen ein solches Wunder und für eine Mischung aus Betriebsblindheit, Unwissen und selektiver Kommunikation mit der Öffentlichkeit. Viele der prominenten Akteure wissen zweifelsohne über die Verästelungen der mathematischen Epidemiologie sehr gut Bescheid, auch wenn ab und zu der Blick fürs Ganze fehlen mag. Mancher wird einfach die Erfahrung gemacht haben, dass konzeptuell
tiefe Arbeiten basierend auf Methoden aus der Quantenfeldtheorie beim breiten Publikum keinen großen Blumentopf gewinnen. Mancher wird sich vielleicht sogar auf enge Aspekte von Kontaktnetzwerken spezialisiert haben, aber bisweilen übersehen, dass die detaillierte Struktur von Kontaktnetzwerken auch auf ganz einfache Fragen wie nach der Ausbruchsgröße und der Zeitentwicklung der Produktionszahlen in nichttrivialer Weise durchschlägt.
Man darf das Talent von Wissenschaftlern zum Schubladendenken nicht unterschätzen: Jemand mag wissen, wie man das Netzwerk internationaler Verkehrsverbindungen „entwirren“ kann48, um die Dynamik einer Epidemie als Ausbreitung einer abstrakten Wellenfront verstehen zu können, aber sich vielleicht gleichzeitig über Netzwerkeffekte auf kleinen Skalen innerhalb eines Landes nicht genügend Gedanken machen. Und mancher Quereinsteiger glaubt möglicherweise ernsthaft, dass die Feinheiten des Infektionsgeschehens sich am Ende magisch herausmitteln und man automatisch bei den simplistischen Modellen landet, wenn man nur einen grobkörnigen Blick auf die Epidemiedynamik werfen will, z. B. auf die nationalen Fallzahlen. Selbst in den letzten eineinhalb Jahren gibt es jedoch in der Fachliteratur nuancierte Stimmen. Gabriela Gomes, Professorin für mathematische Epidemiolgie in Strathclyde, wies darauf hin, dass individuelle Variationen in der Suszeptibilität die „Herdenimmunitätsschwelle“ senken können49, ebenso ein Team aus Stockholm und Nottingham in der Zeitschrift „Science“50.
Eine Gruppe am MPI für komplexe Systeme fand ein ähnliches Verhalten aufgrund gewisser Heterogenitätseffekte51, und Informatiker aus Saarbrücken wiesen auf den Einfluss der detaillierten Kontaktnetzwerkstruktur auf das Infektionsgeschehen hin52. Diese leisen Kontrapunkte sind nach dem vorher Gesagten nicht unerwartet, aber sie werden im öffentlichen Diskurs weitgehend ignoriert und schlimmstenfalls angefeindet.
Dass man ihnen grundsätzliche Missverständnisse der Fachliteratur nachgewiesen hätte, ist mir nicht ersichtlich. Sie sind nicht allein: Von vielen leiseren Modellierern und Statistikern in Deutschland vernimmt man einen profunden Sinn für die Komplexität des Problems, und ein Unbehagen über ein allzu forsches Herangehen – wenn man ihnen denn zuhört. Pikanterweise verwendete selbst das RKI in frühen Modellszenarien eine willkürliche Stellschraube, um zu berücksichtigen, dass Cluster-Effekte die maximalen Infektionszahlen um einen gewissen Faktor reduzieren könnten53.
Man ahnte einst, dass man mit seinen Prognosen erheblich zu hoch liegen könnte. Warum bekannte Unsicherheitsfaktoren dann verschwunden sein sollten, ist nie kommuniziert worden. Auch das weckt den Verdacht, dass man Probleme der Modelle – bewusst oder unbewusst – nicht sehen will. Oder noch schlimmer: Man sieht sie, diskutiert sie vielleicht unter der Hand sogar in Fachkreisen, aber verkauft das eigene Produkt der Öffentlichkeit ohne die nötigen Warnhinweise – ein janusköpfiges Vorgehen, das nichts anderes als die unverschämteste Form der Lüge darstellen würde.
Auch arbeiten die staatsbestätigenden Modellierer wohl kaum auf einem so viel höheren Kompetenzniveau als ihre Kritiker, als dass sie deren Einwürfe mit einem ipse diximus zurückweisen könnten. In der ersten Arbeit der Göttinger MPI-Gruppe54, die in der ersten Welle drei Stufen im R-Wert aufgrund der Regierungsmaßnahmen fand und den Kontaktbeschränkungen die entscheidende Rolle beim Umbiegen der ersten Welle zuschrieb, finden sich beispielsweise Ungereimtheiten, die dem Laien nicht auffallen, aber den Fachmann beunruhigen. Es erstaunt beispielsweise, dass in einer Folgeanalyse der Autoren ausgerechnet mit einem besseren Datensatz (gemeldete Fälle nach Zeitpunkt der ersten Symptome) und dem „realistischsten“ Modell der entscheidende Effekt verschwindet. Wenn ein vermeintlicher Effekt bei genauerem Hinschauen kleiner wird, müssen eigentlich bei jedem Wissenschaftler die Alarmglocken schrillen.
Der Versuch, aus den Fallzahlen Stufen im R-Wert und andere Parameter wie den Meldeverzug statistisch herauszuschälen, ist auch in anderer Hinsicht technisch suspekt. Für manche der Parameter überlappen die angenommene A-Priori-Wahrscheinlichkeitsverteilung und die aus den Daten mithilfe von sogenannter Bayes‘scher Inferenz gewonnene A-Posteriori-Wahrscheinlichkeitsverteilung kaum.
Für den Laien übersetzt heißt das zum Beispiel: Es wird ein Meldeverzug von ca. 8 Tagen angenommen, aber weil die Daten wohl ca. 14-15 Tage wollen, einigt sich die statistische Inferenzmaschine auf 11,4 Tage. Schlüsse über die zeitliche Abfolge der Ereignisse (erst Lockdown und dann R-Wert unter 1 oder umgekehrt) werden auf diese Weise abhängig von subjektiven Annahmen – glaubt man stark genug an einen kurzen Meldeverzug, dann sinkt der R-Wert später. Wer auf einer solchen Basis beantworten will, ob der R-Wert nun vor oder nach den Kontaktbeschränkungen unter eins gefallen ist, braucht eine gehörige Portion Mut.
Und allein der Versuch, aus den stark verrauschten Meldezahlen Strukturen auf der Zeitskala von weniger als einer Woche herauszu-lesen, bereitet schwere Magenschmerzen, wenn man ein wenig Erfahrung mit Zeitreihenanalysen hat. Dass die vollkommene Vernachlässigung von Heterogenitätseffekten in einem solchen Ansatz Risiken birgt, habe ich vorher schon anklingen lassen: Wenn die Fallzahlen in der Hälfte der Landkreise noch steigen und in der anderen Hälfte schon sinken, wie will man dann entscheiden, ob eine gewisse bundesweite Maßnahme an exakt einem Datum den Unterschied gemacht hat?
Wenn die regierungsnahen Modellierungen allem Bauchgrimmen zum Trotz richtig und robust sein sollten, so unternehmen ihre Advokaten wenig, um sie im direkten Austausch mit Kritikern zu verteidigen. Meine eigenen Erfahrungen sind vielleicht nicht repräsentativ, aber doch erwähnenswert. Nachdem ich beispielsweise in einem eLetter bei der Zeitschrift „Science“ methodische Bedenken gegen den Ansatz von Dehning et al. gemacht hatte, replizierte die Gruppe darauf im selben Forum zivilisiert, verlinkte zusätzliche Analysen, und kontaktierte mich freundlich per eMail mit Dank für meine Kommentare und der Einladung zu weiterem Feedback. Ich erklärte ebenso freundlich und professionell meine Einschätzung dann noch genauer, gab auch konstruktive Ratschläge, was denn zu tun sei, um es besser zu machen – um danach nie wieder etwas zu hören.
Mit einem ungenannten Mitarbeiter eines anderen Instituts kam es als Reaktion auf eine Anfrage über Unsicherheiten in Epidemiemodellen meinerseits zu einem freundlichen Austausch. Die Auskunft war sehr höflich, wobei erst ein wenig beschwichtigendes und improvisiertes, aber keineswegs unehrliches „Pfeifen im Walde“ kam. In einer zweiten eMail-Runde bestätigte mir meine Kontaktperson dann aber den „Eindruck, dass oft der Wunsch nach Anwendung eines bestimmten Modells und der Wunsch zu helfen eine stärkere Rolle spielt als die ernsthafte Prüfung von Modellannahmen und der Validität der eingesetzten Modelle“.
Diese Einschätzung eines „Insiders“ steht wohl nicht allein. In der Literatur sind im Nachlauf von Epidemien nicht häufig Versuche zur Manöverkritik unternommen worden. Doch einige Beispiele lassen sich finden. Auch bei früheren Epidemien äußerten sich nach genügendem Nachbohren im Rahmen anonymisierter Interviews Modellierer deutlich vorsichtiger als es der Außendarstellung gegenüber politischen Entscheidungsträgern entsprach55. Immer wieder kristallisierte sich ein Hindernis für verlässliche Vorhersagen heraus. Eine Validierung, also ein echter Test der Modelle an realen Daten, findet eigentlich nie statt. Man findet in der Literatur zwar viele Fälle, wo Modelle nachträglich an Beobachtungsdaten angepasst werden, aber Modelle „passend zu machen“ ist noch lange keine Validierung, die Vertrauen für die nächsten Voraussagen liefert.
Für kleinskalige Probleme, etwa Infektionen in einem Internat56, mag sich die Lage besser darstellen, aber bei einer Pandemie des derzeitigen Typs bestehen erhebliche Zweifel, ob Modellunsicherheiten korrekt eingeschätzt und kommuniziert werden. Noch suspekter ist der öffentliche Umgang regierungsnaher Modellierer mit nicht eingetretenen Vorhersagen, und deren gab es einige. Von einer anderen Gruppe auf Schweden angewendet, überschätzte der Simulationscode von Neil Ferguson die tatsächlichen Todesfälle um eine Größenordnung. In Deutschland stellte der MODUS-COVID-Bericht vom 19. März 202157 Inzidenzen von mehr als 2.000 im Mai in den Raum. Selbst in optimistischeren Alternativszenarien lag die Inzidenz im Mai mit Werten um 500 um ein mehrfaches über der Realität. Diese Diskrepanz einfach mit Verhaltensanpassungen der Bevölkerung und ähnlichen Argumenten wegzuerklären58, ist nur peinlich.
Wenn ein Modell so an der Wirklichkeit vorbeischießt, und man sich nicht als erstes fragt, ob einem in seinen Rechnungen ein fundamentaler Schnitzer unterlaufen ist, muss man sich die Frage nach der wissenschaftlichen Kompetenz schon gefallen lassen. Denn entgegen allen entschuldigenden Darstellungen geht es bei der wissenschaftlichen Modellierung eben schon darum das Ziel zu treffen, wenn man so konkrete Zahlen auf den Tisch legt. Wollte man z. B. nur qualitativ erklären, dass man einen massiven Anstieg befürchtet und drei Schnelltests pro Woche in der Schule diesen vermeiden können, dann sollte man das einfach so sagen. Ein Satz würde reichen, und man hätte seine Pflicht getan: „Das Modell zeigt qualitativ den beschriebenen Effekt, aber die absoluten Zahlen können mit einer Unsicherheitsfaktor von fünf bis zehn behaftet sein.“ Wenn stattdessen im Versagensfall auf zirkuläre59, der Hypothesenimmunisierung dienende Argumente wie das „Präventionsparadoxon“ zurückgegriffen wird, riecht das nach einer Schutzbehauptung.
Dass eine vorhergesagte Katastrophe nicht eintritt, weil Politik und Bevölkerung rechtzeitig auf die Vorhersage reagiert haben, mag manchmal stimmen. Aber diese Erklärung ist nicht logisch zwingend. Wenn sie stimmt, dann wird man dafür in der Regel eine Unmenge überzeugender Indizien finden können. Wenigstens sollte man sein Modell dann mit neuen Daten noch einmal nachrechnen, um ein Präventionsparadoxon zumindest plausibel zu machen, und zwar ohne dabei stillschweigend an Schrauben zu drehen, um Patzer zu vertuschen. Sich mit orakelnder Unbestimmtheit aus der Affäre zu ziehen – das stinkt.
Wenn die vorgetragene Einschätzung der Pandemiemodellierung stimmt, sollte man sie nicht als Fundamentalkritik an der mathematischen Epidemiologie verstehen. Im Kontext komplexer Systeme bemisst sich der Wert von Modellen häufig mehr nach dem Beitrag zum konzeptuellen Verständnis als an prädiktiven Vorhersagen. Zu diesem Zweck sind stark idealisierte Modelle nützlich und sogar notwendig. Zweifelsohne wird in der mathematischen Epidemiologie intellektuell äußerst anspruchsvolle und wertvolle Forschung betrieben. Pioniere wie Grassberger, Hethcote, Diekmann, Newman und viele andere haben mit herausragenden, technisch anspruchsvollen Arbeiten geglänzt. Man findet in der Literatur exquisite, ganz der Theorie verpflichtete Arbeiten von großer mathematischer Tiefe. Aber die Notwendigkeit zur Abstraktion schafft auch eine Kluft zur Realität, der ein guter Modellierer mit einem außerordentlichen Maß an Urteilskraft, gesunder Skepsis und einem offenen Blick auf die realen Daten begegnen muss, um sich nicht selbst eine Falle zu stellen. Dessen sind sich viele erfahrene und vorsichtige Vertreter der Disziplin und die klassischen Arbeiten auch bestens bewusst.

4. Schlussfolgerungen zur Aufarbeitung

Als einzelner Wissenschaftler kann man in einer derart verfahrenen und sich rasch entwickelnden Situation keine vollständige und rundum unparteiische Analyse der Pandemiemodellierung in den letzten eineinhalb Jahren liefern. Unter normalen Umständen braucht man leicht sechs Monate bis zu einem Jahr, um neben den alltäglichen Pflichten einen soliden Übersichtsartikel über ein halbwegs eng begrenztes Thema im Bereich wissenschaftlicher Modellierung zu verfassen. Eine solch gemächliche Aufarbeitung des aktuellen Geschehens im leisen Ton kühler Fachlichkeit käme zu spät und würde das richtige Publikum nicht erreichen. Um die nötige Diskussion in Gang zu bringen, müssen einige von uns den Advocatus diaboli spielen, müssen wir auch offen den Verdacht aussprechen, dass in der Pandemiemodellierung vieles im Argen liegt. Angesichts der massiven Eingriffe in das Leben der Menschen, die sich wesentlich auf Modellvorhersagen stützten, kann diese Disziplin nicht sakrosankt sein. Der Vertrauensvorschuss ist schlicht verbraucht. Mit essayistischen Streitschriften und Manifesten werden sich die Konfliktpunkte freilich nicht lösen lassen. Was es braucht, ist eine Untersuchungskommission zur wissenschaftlichen Modellierung der Corona-Pandemie, und zwar nicht im Sinne einer Task Force zur Entwicklung der ultimativen Pandemiesimulation.
Der Blick muss sich endlich auch in die Vergangenheit wenden, hin zur Manöverkritik: Was können die Modelle wirklich und warum haben sie bisweilen weit am Ziel vorbeigeschossen? Was hat sich bestätigt, was hat sich als Fehleinschätzung erwiesen? Welche Fehler sind gemacht worden? Die Modelle gewissermaßen „vor Gericht zu stellen“ ist keine Zumutung, sondern mehr als angebracht in einer Zeit, da die Selbstreinigungsprozesse der Wissenschaft im Zweifel stehen und gewisse prominente Akteure einer Kultur der Zensur das Wort reden60. Das heißt nun nicht, mit Schuldzuweisungen zu beginnen, sondern vielmehr die Sache auch rückschauend wissenschaftlich zu untersuchen und im Sinne Rankes festzustellen, „wie es eigentlich gewesen ist“, um daraus gemeinsam zu lernen.
Auch der Wissenschaftsjournalismus hat sich in der Breite zu unkritisch gezeigt, trotz einiger löblicher Ausnahmen. Wie gearbeitet wurde, war zum Teil erschreckend. Als ich letztes Jahr einem vielfach ausgezeichneten Wissenschaftsjournalisten per eMail auf seine allzu unkritische Herangehensweise ansprach, war dieser zwar zunächst bereit zu reden, „aber besser am Telefon“, und nicht ohne im Habitus der Überlegenheit zu betonen, dass er sich „ein bisschen mit Virologie, Epidemiologie und Immunologie auskenn[e]“.
Seine Bereitschaft zum Austausch versicherte er mir auch noch, nachdem ich ihm u. a. einen 55-seitigen Übersichtsartikel61 in „Reviews of Modern Physics“ als Diskussionsgrundlage geschickt hatte; er werde sich in zwei Tagen melden, da habe er das Papier dann auch gelesen. Danach: Funkstille. Einzugestehen, dass er sich in Ermangelung der notwendigen mathematischen Grundlagen an der Sache überhoben hatte, hätte wohl zu sehr am Selbstbild gekratzt. Dabei zeugt eine solche Reaktion immer noch von Klasse, denn der einfache Wald-und-Wiesen-Faktenchecker reagiert einfach gar nicht, wenn ihm ein Wissenschaftler den Kopf wäscht.
Möchtegerns, die Fakten auf ihre weltanschauliche Passung und nicht auf ihren Wahrheitsgehalt überprüfen, und mit ihrer Zensurarbeit wohl eher persönliche Traumata aus ihren Anfangssemestern verarbeiten, sind zur Sachaufklärung nicht zu gebrauchen. Die
historische Erfahrung lehrt, dass eine Untersuchungskommission das angebrachte Format für die Ausarbeitung einer Katastrophe oder Kontroverse größeren Ausmaßes darstellt. Es braucht die investigative Befragung von Zeugen und Experten und die aktive Beweiserhebung, um auch Unbequemes ans Tageslicht zu fördern, das Netz von Loyalitäten und freundlicher Rücksichtnahme zu durchbrechen, und die richtigen Lehren zu ziehen. So hat man es beim Einsturz der Tay Bridge ebenso gehandhabt wie nach dem Untergang der Titanic und der Explosion des Space Shuttle Challenger.
Dass ausgerechnet die Modelle, in deren Namen die Bürger über eineinhalb Jahre zu Befehlsempfängern degradiert wurden, sich dem entziehen dürften, wäre ein Skandal. In einem solchen Unterfangen muss natürlich auch die mathematische Epidemiologie selbst eine Stimme haben. Aber die Pandemiemodellierer müssen sich dabei sehr wohl kritische Fragen zu ihrer Arbeit anhören, auch wenn es ihnen als ein Rütteln an ihrem Thron missfällt. Der mit der Außenperspektive verbundene erhöhte Aufklärungswille und die gesteigerte Objektivität haben sich in der Geschichte immer wieder als wertvoll erwiesen. So befanden sich unter den Mitgliedern der Rogers-Kommission zur Untersuchung der Challenger-Explosion keineswegs nur Raumfahrtingenieure, sondern auch der theoretische Physiker Feynman, ein Sonnenphysiker aus Berkeley, ein aktiver General der Luftwaffe und Chuck Yeager, der 1947 als erster Testpilot der U.S. Air Force die Schallmauer durchbrochen und nie ein College besucht hatte, dazu mit Rogers und Acheson zwei Juristen und Karrierediplomaten.
Bei der amerikanischen Untersuchung des Untergangs der Titanic glänzte der legendäre Senator Smith zwar nicht durch Fachwissen, aber hielt vielleicht gerade deshalb den Kurs schonungsloser Aufklärung. In den Worten G. K. Chestertons: „Es spielt keine Rolle ob Senator Smith die Fakten kennt; was zählt ist, dass er wirklich versucht sie herauszufinden.“ Und wenn Modellierer während der Pandemie Zeit finden, populärwissenschaftliche Bücher zu verfassen62, kann man ihnen sehr wohl abverlangen, dass sie einem kompetent besetzten Untersuchungsgremium Rede und Antwort stehen. Sich nicht aus der Verantwortung zu stehlen, liegt auch im eigenen Interesse der Modellierer und der Wissenschaft als ganzes.
Wenn sich im besten Fall herausstellt, dass alles Menschenmögliche getan wurde, und keine vermeidbaren Fehler passiert sind, wird dadurch auf lange Frist das öffentliche Vertrauen in die Wissenschaft gestärkt.

5. Epilog

Am Ende mag sich mein Verdacht von einem weitgehenden Blindflug der Pandemiemodellierung als unbegründet erweisen. Doch auch dann müssen sich deren prominente Vertreter es sich selbst zuschreiben, dass sie ins Kreuzfeuer der Kritik geraten sind. Denn falls sie wirklich fachlich nach allen Regeln der Kunst gearbeitet, nicht nur profundes Wissen, sondern auch das entsprechende Urteilsvermögen an den Tisch gebracht, schonungslos ehrlich kommuniziert und stets auch über den eigenen Tellerrand geblickt haben, dann haben sie das vorzüglich verheimlicht.
Wo war die umfassende Lagefeststellung zum Stand der Disziplin, wo war der Digest, der den mathematisch weniger versierten Entscheidungsträgern über die Untiefen der Modellierung aufklären hätte können? Wo waren die Vorträge, in denen nicht die eigene Arbeit vermarktet, sondern das Publikum von den Grundlagen weg an den Stand der Forschung hingeführt wurde?
Wenigstens von den regierungsnahen Modellierern in Deutschland vernahm man nicht die Botschaft, dass sie erst um sich geschaut hatten, bevor sie nach vorne stürmten. Man gewann nicht den Eindruck, dass sie angesichts der Krisensituation mehr zu sein versuchten als Wissenschaftler und Lobbyisten in eigener Sache. Sie hätten auf vielfache Weise Urteilsvermögen, Weisheit und Führungskompetenz demonstrieren können. Statt differenziert darzulegen, wo die Modelle nur qualitative Zusammenhänge illustrieren, wo sie quantitativ belastbar sein mögen, wo ihre Unsicherheiten und Grenzen liegen, hat man mit Intransigenz reagiert nach der Maxime: Die Simulationen sind zu glauben, und wenn sie nicht stimmen, dann ist es nicht unsere Schuld.
Man hätte anerkennen können, dass ihrem Wesen nach phänomenologische Modelle die praktische medizinische Erfahrung nicht einfach ausstechen können, wie sie sich beispielsweise in den Thesenpapieren der Schrappe-Gruppe63 niederschlägt. Oft (wenn auch nicht immer) übersetzt in der mathematischen Epidemiologie die Theorie nur in abstrakte Sprache, was den Praktikern schon lange vertraut ist64. Die Modellierer hätten durchscheinen lassen können, dass sie sich der Probleme in der Erfassung und Steuerung komplexer Systeme bewusst sind. Beunruhigten sie nicht Hayeks Überlegungen über die Grenzen ökonomischer Modelle, Clausewitz‘ Gedanken über Friktion im Krieg und Moltkes Diktum, dass kein Plan die erste Feindberührung überlebt? Wie konnte man auf der Basis höchst vereinfachter Simulationen ernsthaft mit dem Gedanken spielen, mit ein paar Wochen harter Maßnahmen im Sinne von No Covid ans Ziel zu gelangen? Ein „Kinderspiel“65?
Jedem historisch halbwegs Gebildeten hätte doch ein Gedanke durch den Kopf schießen müssen: Schlieffen-Plan. So sehr der Traum von der Berechenbarkeit und Planbarkeit der Welt Wissenschaft und Technik vorangebracht hat, so triumphal er manchmal verwirklicht wurde – mehr Demut vor der Wirklichkeit und der Geschichte würde uns an dieser Stelle gut tun. <<
Korrektur (20.12.21) : Der Epidemiologe Ulrich Keil stammt aus Münster, nicht aus Aachen