Julian Schellong hat Geschichte und Philosophie des Wissens an der Eidgenössischen Technischen Hochschule (ETH) Zürich studiert. Der folgende Text basiert auf seiner dort im Sommersemester 2019 vorgelegten Master-Arbeit, er ist auch auf dem Blog "entropie" erschienen.
Bevor die Corona-Pandemie sie von den Titelseiten verdrängten, waren die FridaysForFuture-Demonstrationen monatelang bestimmendes Diskussionsthema. Hunderttausende DemonstrantInnen überall auf der Welt warnten vor der Erderhitzung und forderten eine nachhaltige Politik. Gleichzeitig sind Klima und Klimawandel diffuse, schlecht wahrnehmbare Angelegenheiten. Sie lassen sich nicht direkt beobachten und begegnen uns nicht im Alltag, sondern nur in Form abstrakter Graphen oder Statistiken. Selbst außergewöhnlich heiße Sommer wie 2018 oder 2019 sind immer erst mit einigem Abstand und im Vergleich betrachtet außergewöhnlich heiß, ebenso extrem milde Winter wie jenen 2019/2020.
Vor diesem Hintergrund ist es einigermaßen überraschend, wie erfolgreich Demonstrationen sind, die nicht ein individuelles historisches Ereignis, sondern eine komplexe geophysikalische Theorie zum Thema haben. Denn um sich einem Protest für klimafreundliche Politik anzuschließen, muss man ein vergleichsweise abstraktes Gedankengebäude verstehen, das beispielsweise die Abgase des eigenen Autos mit dem globalen Meeresspiegel verknüpft.
Wie verlässlich sind die Wetterdaten aus dem vor-vorherigen Jahrhundert?
An dieser Stelle setzen auch manche KritikerInnen von FFF-Demonstrationen und LeugnerInnen des Klimawandels an. Sie behaupten, die Begründung des menschengemachten Klimawandels sei fehlerhaft. Dieses Argumentationsmuster ist deswegen erfolgreich, weil 'Klima' kein konkretes, sondern ein konstruiertes, wissenschaftliches Objekt ist, ermittelt aus Datenreihen von Wetteraufzeichnungen. Von der Messung der Temperatur an einem bestimmten Ort zu einer bestimmten Zeit bis zu einer Aussage über das Klima einer Region oder sogar der ganzen Erde ist es ein langer wissenschaftlicher Weg, gepflastert mit einigen methodischen Hürden: Die Temperatur (oder ein anderer meteorologischer Parameter) muss mit einem Instrument unter fachgerechten Bedingungen ermittelt und aufgezeichnet werden. Diese Messung muss dann mit anderen Temperaturwerten in einen Kontext gebracht und ausgewertet werden. Auf dieser Grundlage können WissenschaftlerInnen Darstellungen und Prognosen des Klimawandels erstellen.
In der Tat ist hier, wie bei jeder Wissenschaft, Methodenkritik notwendig. Bei Klimareihen bewegen wir uns in Jahrzehnten und Jahrhunderten – wie kann man so alten Daten trauen? Um Temperaturwerte über so eine lange Zeit vergleichen zu können, müsste man doch mindestens davon ausgehen, dass die Werte unter exakt gleichen Bedingungen ermittelt wurden – sonst könnten Abweichungen und Langzeittrends auch an veränderten Messbedingungen liegen und nicht an Veränderungen der Temperatur selbst. Doch wie kann ein Wetterdienst diese gleichbleibenden Bedingungen über so eine lange Zeitspanne garantieren?
Auch MeteoSchweiz, der Wetterdienst der Schweiz, war in diesem Kontext bereits heftiger Kritik ausgesetzt. Ein Blick in die Geschichte seiner Wetteraufzeichnungen jedoch zeigt, wie MeteorologInnen in mühevoller und kleinteiliger Arbeit die Qualität ihrer Klimadaten sichern und warum man ihren Darstellungen des menschengemachten Klimawandels trauen kann.
Penibelste Regeln zur Datenerhebung schon seit mehr als 150 Jahren
Die schweizerischen meteorologischen Aufzeichnungen reichen zurück zum 1. Dezember 1863. [1] An diesem Morgen begannen mehr als 70 Personen damit, verteilt über das ganze Land, das Wetter systematisch zu beobachten und diese Beobachtungen aufzuzeichnen. Dreimal täglich, um 7:00 Uhr, um 13:00 Uhr und um 21:00 Uhr, lasen sie dafür die Instrumente einer Wetterstation ab, darunter ein Quecksilberthermometer für die Temperatur, ein Haarhygrometer für die Luftfeuchtigkeit, ein Barometer für den Luftdruck, ein Anemometer für die Windrichtung sowie ein Ombrometer für die Regenmenge. Initiiert hatte dieses Wetterbeobachtungsnetz die meteorologische Kommission der Schweizerischen Naturforschenden Gesellschaft (SNG). [2] Die Werte der Instrumente notierten die WetterbeobachterInnen auf vorgedruckten Formularen, die sie einmal im Monat per Post an die Zentrale in Zürich schickten. Dort wurden die Werte mathematisch zusammengefasst und archiviert. Im Schweizer Wetterarchiv sind diese Tageswerte seit Beginn der Aufzeichnungen in jährlich erschienenen Berichten abrufbar.
Ablesen von Wetterdaten 1931, hier auf dem Oberberghorn (Bern); Foto: ETH-Bibliothek Zürich, Bildarchiv / Fotograf: Lüdi, Werner / Dia_282-1724 / CC BY-SA 4.0
Die BeobachterInnen im ganzen Land arbeiteten auf ehrenamtlicher Basis, aber sie folgten strengen Vorschriften. Beispielsweise gab es Vorgaben für die Kopfhaltung, mit der das Thermometer abzulesen war, um den Wert mit der eigenen Körpertemperatur nicht zu verfälschen, aber gleichzeitig die feinen Markierungen an der Quecksilbersäule richtig zu erkennen. [3] Die meteorologische Kommission wollte sichergehen, dass sich keine Unsicherheiten in ihre Werte einschlichen und dass die Werte verschiedener Stationen unter gleichen Messbedingungen und mit den gleichen Methoden erhoben wurden. Nur so konnte sie davon ausgehen, dass die Beobachtungen miteinander vergleichbar waren und in einen Zusammenhang gebracht werden konnten.
"Lieber keine Werte als falsche Werte"
Dafür war auch der Messzeitpunkt entscheidend. Um sicherzustellen, dass alle Wetterbeobachter der gleichen Uhrzeit folgten, bekamen sie Zeitdurchsagen per Telegraph aus der Zentrale. BeobachterInnen ohne Telegraphenstation in der Nähe wurden mit einer geeichten Sonnenuhr ausgerüstet. Temperaturmessungen, die eine Minute zu spät oder zu früh durchgeführt wurden, akzeptierte die meteorologische Kommission nicht. [4]
Diese Wetterbeobachtungen waren ein nicht zu unterschätzender Aufwand, eine einzelne Messung mit allen Parametern dauerte ungefähr 30 Minuten. Die professionellen MeteorologInnen waren froh über jeden einzelnen ihrer freiwilligen HelferInnen und lobten deren Einsatz für die Wissenschaft. Aber ehrenamtliches Engagement kann an seine Grenzen stoßen und so gab es immer wieder auch Fälle, in denen BeobachterInnen ihren Posten verließen oder ihre Arbeit, aus welchen Gründen auch immer, nicht sachgemäß erledigen konnten. Erfüllte ein Beobachter die strengen Regeln der meteorologischen Zentralanstalt nicht oder war nachlässig, wurden seine Werte nicht in die jährlichen Statistiken und Bulletins aufgenommen. Die meteorologische Kommission hatte lieber keine Werte als falsche Werte.
Die Kommission suchte die Stationsstandorte des Netzes nach ihrer Repräsentativität für eine Region aus. Die Messinstrumente wurden so ausgerichtet, dass sie möglichst unabhängig von lokalen Einflüssen die Werte der freien Luft maßen, und sie wurden abseits von Gebäuden platziert, weil diese mit ihrer Abwärme die Temperatur verfälschen können.[5] Dafür dienten sogenannte Wetterhütten: Kleine, weiß gestrichene Kästen mit luftdurchlässigen Wänden und auf zwei Metern Höhe aufgebockt, in denen die Messinstrumente untergebracht wurden. Wenn möglich errichtete die Kommission mehr als eine Station in einer Region, um die Stationen gegenseitig überprüfen zu können.
Bruchlose Automatisierung – ein "Quantensprung"
In dieser Form beobachtete das meteorologische Netz das Wetter in der Schweiz fast ein Jahrhundert lang. Ab den 1960er und 70er Jahren bekam die Wetterbehörde Schwierigkeiten, geeignetes Beobachtungspersonal zu finden – in einer immer mobileren Gesellschaft wollte sich kaum noch jemand langfristig an die Arbeit einer Beobachtungsstation binden, die die ständige Verfügbarkeit an ein und demselben Ort verlangt. [6] Die schweizerischen MeteorologInnen reagierten darauf, indem sie die menschlichen durch automatische Beobachter ersetzten und Temperatur, Luftdruck, Luftfeuchtigkeit und so weiter mit computergesteuerten Instrumenten erhoben. In den Wetterhütten wurden dazu digitale Instrumente installiert, die von einem Computer abgelesen werden konnten, und Telefonkabel für die Datenübertragung verlegt. Dies bedeutete eine grundlegende technologische Umstrukturierung des Netzes, an der sich bis heute wenig geändert hat.
Eine Wetterstation im Jahr 1991, hier in La Brévine, Kanton Neuenburg; Foto: ETH-Bibliothek Zürich, Bildarchiv / Fotograf: Comet Photo AG (Zürich) / Com_LC1464-002-010 / CC BY-SA 4.0)
Gegenüber den menschlichen haben computergestützte Wetterbeobachter den Vorteil, dass sie in deutlich höherer Frequenz und in Echtzeit Werte an die Zentrale melden können. Außerdem werden Automaten nicht krank und erfüllen Zeitvorgaben für Beobachtungstermine verlässlicher. In der Zentrale des Wetterbeobachtungsnetzes eingesetzt, ermöglichen Computer schnellere und aufwändigere statistische Auswertungen der Daten, als Papier und Bleistift je erlaubten. Für die meteorologische Datenerhebung und -verarbeitung war dies ein "Quantensprung". [7]
Diese neue technologische Grundlage des Beobachtungsnetzes orientierte sich aber vollständig an den wissenschaftlichen Idealen und Zielen von 1864. Das automatisierte Netz beobachtete weiterhin dieselben Parameter an denselben Standorten. [8] Die Beobachtungsinstrumente wurden in den gleichen Wetterhütten untergebracht und maßen unter denselben Bedingungen. Die Wetterbehörde hatte mit ihren computergestützten Beobachtern sehr viel mehr und sehr viel schneller Wetterdaten, aber sie wollten in jedem Fall sicherstellen, dass die Automaten die seit 1864 geführten Datenreihen weiterschreiben. Eine Unterbrechung hätte die alten Daten für die Klimatologie nutzlos gemacht. Also legten die MeteorologInnen größten Wert darauf, beim Umbau des Netzes Vergleichbarkeit und Kontinuität herzustellen.
Überlegt: Der Umgang mit Lücken und Unschärfen
Die Geschichte der Wetterbeobachtung macht deutlich, wie aufwändig das Erheben meteorologischer Daten war und welche Rigorosität die MeteorologInnen an den Tag legten. Diese Rigorosität ist notwendig, um vom Wetter zum Klima zu kommen. Denn nur wenn die vielen einzelnen Messungen konsistent und untereinander vergleichbar sind, erlauben KlimatologInnen sich eine Zusammenfassung der Daten in einer abstrakteren Beschreibung, dem Klima. Wie bereits erwähnt: Für die Ermittlung eines Klimas ist eine individuelle Messung wertlos; erst wenn es weitere, vergleichbare Messungen gibt, ist die einzelne Messung klimatologisch brauchbar.
Trotz aller Vorsicht kam es in den Beobachtungsreihen allerdings auch zu Lücken. Mal zerbrach eines der filigranen Quecksilberthermometer, mal war ein Beobachtungsautomat defekt, oder jemand in der Zentrale verrechnete sich bei der Ermittlung einer Durchschnittstemperatur. Immer wieder griff die Wetterbehörde auch in die Struktur des Netzes ein und verlegte Beobachtungsstationen. Dies kam beispielsweise vor, wenn ein Beobachter den Dienst quittierte und sich am fraglichen Ort kein neuer fand oder wenn sich die direkte Umgebung einer Station durch wachsende Siedlungen so veränderte, dass die Messbedingungen und die Repräsentativität des Standortes beeinträchtigt waren. Auch der Umstieg von analogen Instrumenten wie Quecksilberthermometern oder Haarhygrometern auf digitale Sensoren war nicht unproblematisch: Wie kann man sicherstellen, dass die neuen Instrumente sich genauso verhalten wie die alten und keine Abweichungen in die Datenreihen schreiben – und seien sie noch so klein?
Angesichts der Größe und der Lebensdauer des Beobachtungsnetzes lassen sich einzelne Messfehler und Unregelmäßigkeiten nicht ganz vermeiden. Für LeugnerInnen des Klimawandels ist das Munition für den Versuch, die Klimawissenschaften zu diskreditieren.
Die MeteorologInnen lösten diese Probleme durch eine große Zahl an Stationen und mit redundanten Strukturen. Zeichnete sich eine Stationsverlegung ab, maßen sie für einige Zeit gleichzeitig am neuen und am alten Standort, um herauszufinden, inwieweit die zwei sich meteorologisch ähneln und wo Unterschiede liegen. Bei einer ausreichenden Menge an Daten ließen sich außerdem solche Stationen identifizieren, deren Werte sehr ähnlich verlaufen. So konnten in der Zentrale in den bestehenden Daten einzelne Lücken oder Fehler gefunden und ausgeglichen werden.
Auch bei der Umstellung von analogen auf digitale Thermometer ging die Wetterbehörde so vor: Sie stellte für mehrere Jahre an zahlreichen Stationen beide Thermometermodelle auf und verglich die gemessenen Werte. [9] Aus solchen Parallelmessungen ermittelte sie Formeln zur Interpolation und Homogenisierung der Datenreihen. Verschiebungen in den Messbedingungen überprüft MeteoSchweiz mit anderen Messungen und gleicht sie wo nötig durch mathematische Korrekturverfahren aus.
Legitime und nicht legitime Zweifel
Für das Erstellen langer Zeitreihen von Wetterdaten nutzt MeteoSchweiz also nicht eins zu eins die originalen Werte, wie sie zum Zeitpunkt der Messung vor Jahrzehnten registriert wurden, sondern passt diese alten Werte an. Dieser Eingriff in die alten Daten kann stutzig machen, bisweilen wird dabei die Wahrhaftigkeit der Wetterdaten in Zweifel gezogen. Aber die Frage stellt sich natürlich schon: Wie kann man der Bewertung eines Klimas und seiner Veränderungen trauen, wenn Datenreihen dafür im Nachhinein verändert werden?
Auch der Schweizer Wetterbehörde ist bereits vereinzelt vorgeworfen worden, die Daten angeblich zugunsten einer politisch motivierten Aussage zu verfälschen. LeugnerInnen des Klimawandels fokussieren sich häufig auf einzelne, kleine Details innerhalb der komplexen Erklärung des menschengemachten Klimawandels. Wenn diese kleinen Argumentationsbausteine scheinbar plausibel entkräftet würden, so das Kalkül, wackele die ganze Kette, die die Theorie begründet. [10]
Als klimawissenschaftlicher Laie kann man tatsächlich, mit derlei Einwänden konfrontiert, schnell das Gesamtbild an Daten, Methoden, Statistiken und naturwissenschaftlichen Gesetzen aus den Augen verlieren, die den menschengemachten Klimawandel belegen. Derartige Angriffe verfangen auch deshalb, weil es nicht leicht ist, mental mit der Bedrohung durch einen so gewaltigen und gleichzeitig wenig greifbaren Prozess wie dem Klimawandel umzugehen. Eigentlich müsste man in der Konsequenz ja nicht weniger als unsere ganze Form des Umgangs mit der Natur und des Wirtschaftens radikal hinterfragen – eine große Verunsicherung. Wenn nun LeugnerInnen des Klimawandels behaupten, die wissenschaftlichen Belege für den menschengemachten Klimawandel seien nicht belastbar, dann ist dies psychologisch attraktiv und bequem: Indem man sich sagt oder sagen lässt, eine Gefahr sei nicht existent, braucht man das eigene Verhalten nicht anzupassen. Umso elaborierter sind manche Versuche, die wissenschaftliche Begründung des Klimawandels zu entkräften.
Ein Vergleich der Beobachtungsbögen von 1864 und 1964 zeigt, wie die Methoden der Wettermessungen konstant geblieben sind. Quelle: Schweizerische Meteorologische Zentralanstalt (Hg.), 1964: Hundert Jahre Meteorologie in der Schweiz, Zürich
Um auf die Meteorologie und die Herausforderungen der Temperaturmessung zurückzukommen: Die WissenschaftlerInnen von MeteoSchweiz haben plausible Methoden für die nachträgliche Harmonisierung ihrer Datenreihen gefunden. Wenn man Abweichungen in umfangreichen Datenreihen genau beziffern kann, dann können sie stochastisch eliminiert werden. Die Eingriffe in die Datenreihen erfolgen alles andere als willkürlich, sondern anhand genau festgelegter und nachvollziehbarer Verfahren, die in öffentlich zugänglichen Publikationen erläutert werden. Dies funktioniert, weil das Beobachtungsnetz als wissenschaftliche Infrastruktur Sicherheitsvorkehrungen, Redundanzen und Hilfsmittel aufweist. [11] Die Zahl an Beobachtungsstationen zum Beispiel ist groß genug, so dass der Ausfall einer einzelnen Station keine große Lücke reißt und die Gesamt-Aussagekraft des Netzes nicht beeinträchtigt. Die Stationen ergänzen sich gegenseitig.
Seit 1864 hantieren die schweizerischen MeteorologInnen mit Big Data avant la lettre. Sie bereiten vorhersehbare Eingriffe in das Netz wie den Austausch von Geräten oder die Verlegung von Stationsstandorten vor und kontrollierten ihren Effekt auf die Datenreihen durch parallele Messungen.
Eine Kritik an einzelnen Details verkennt, wie robust das gesamte Beobachtungsnetz mit seinen systematisch aufgebauten Stationen und genau geregelten Verfahren ist. In eine Aussage über ein Klima und in die Erklärung des menschengemachten Klimawandels fließen sehr, sehr viele Datenpunkte ein. Diese Darstellungen und Erklärungen sind vertrauenswürdig, weil die Systeme, mit denen diese Daten gewonnen wurden, fähig sind, Robustheit zu garantieren sowie Abweichungen zu identifizieren und zu korrigieren.
[1] Rudolf Wolf, 1865: Schweizerische Meteorologische Beobachtungen, erster Jahrgang (Annalen 1864), hrsgg. von der meteorologischen Centralanstalt der Schweizerischen Naturforschenden Gesellschaft, Zürich.
[2] Zur Geschichte der meteorologischen Kommission der SNG, die 1880 in der Meteorologischen Zentralanstalt (MZA) verstaatlicht wurde, siehe: Franziska Hupfer, 2019: Das Wetter der Nation. Meteorologie, Klimatologie und der schweizerische Bundesstaat, 1860–1914, Zürich: Chronos.
[3] Albert Mousson, 1863: Instructionen für die Beobachter der meteorologischen Stationen der Schweiz, Zürich, S. 7.
[4] Ebd., S. 3f.
[5] Max Schüepp, 1864: „100 Jahre schweizerisches Beobachtungsnetz, 1864–1963“, in: Schweizerische Meteorologische Zentralanstalt (Hg.): Hundert Jahre Meteorologie in der Schweiz, Zürich, S. 54.
[6] Thomas Gutermann, 1973: Studie: Automatisierung der Beobachtungsnetze. Bericht der Arbeitsgruppe ANETZ, Zürich: Meteorologische Zentralanstalt.
[7] Saskia Willemse, Marcel Haefliger und Tobias Grimbacher, 2016: "History of Forecasting Services in Switzerland", in: From Weather Observations to Atmospheric and Climate Sciences in Switzerland. Celebrating 100 Years of the Swiss Society for Meteorology, hg. von Saskia Willemse und Markus Furger, Zürich: vdf Hochschulverlag.
[8] Thomas Gutermann u.a., 1980: Projekt ANETZ 1974-1980. Zusammenfassungen der Vorträge der ANETZ-Kolloquien, hg. von Schweizerische Meteorologische Anstalt und Bundesamt für Landwirtschaft
[9] Othmar Gisler, 1992: „Untersuchung zur Übereinstimmung von Messungen der Klimaelemente Lufttemperatur, Luftdruck und relativer Luftfeuchtigkeit mittels herkömmlicher Ablesung der Instrumente und automatisch erfasster Daten“, in: Arbeitsberichte der Schweizerischen Meteorologischen Anstalt Nr. 171, Zürich: Schweizerische Meteorologische Anstalt
[10] Für die Geschichte der KlimawandelleugnerInnen und ihrer Taktik, Details innerhalb des klimawissenschaftlichen Verfahrens zu kritisieren anstatt Beweise gegen klimawissenschaftliche Aussagen zu liefern, siehe zum Beispiel: Naomi Oreskes und Erik M. Conway, 2010: Merchants of Doubt. How a Handful of Scientists Obscured the Truth on Issues from Tobacco Smoke to Global Warming, New York: Bloomsbury Press, Kapitel 6: “The Denial of Global Warming”.
[11] Zur Bedeutung dieser Sicherheitsvorkehrungen für das Funktionieren einer wissenschaftlichen Infrastruktur siehe: Paul Edwards, 2013: A Vast Machine. Computer Models, Climate Data, and the Politics of Global Warming, Cambridge, MA: MIT Press, Kapitel 9: “The First WWW”.