We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Nutzung öffentlicher Klimadaten

00:00

Formale Metadaten

Titel
Nutzung öffentlicher Klimadaten
Untertitel
Früher war mehr Schnee
Serientitel
Anzahl der Teile
254
Autor
Lizenz
CC-Namensnennung 4.0 International:
Sie dürfen das Werk bzw. den Inhalt zu jedem legalen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen.
Identifikatoren
Herausgeber
Erscheinungsjahr
Sprache

Inhaltliche Metadaten

Fachgebiet
Genre
Abstract
'In meiner Jugend war mehr Schnee!' oder 'Früher war es auch schon heiß!' könnte man so glauben, je nach Vehemenz des Ausrufs, oder man schaut halt nach. Moderne Klimamodelle werden aus den lokalen Beobachtungen des Wetters gespeist. Durch die Verwendung historischer Daten vergangener Jahrzehnte werden aktuelle Modelle auch auf diesen Zeitraum ausgedehnt. Wir können also nachsehen, wie heiß es war oder wie tief der Schnee auf dem Weg zur Schule denn wirklich war. Dies ist auch dann möglich wenn die lokalen Aufzeichnungen selbst nicht immer online verfügbar sind. Zahlreiche staatliche und überstaatliche Organisationen stellen inzwischen die Produkte ihrer Klimamodelle, mit Einstiegshürden unterschiedlicher Höhe, für die Öffentlichkeit bereit. Der Verbreitungsweg dieser Daten variiert irgendwo zwischen csv Dateien auf öffentlichen FTP Servern, API Schnittstellen zum maßgeschneiderten Datenabruf (auch gerne mal von Magnetband) und thematisch fertig aufbereiteten Visualisierungen. Dieser Beitrag zeigt eine kleine Auswahl an Diensten (z.B. Opendata des Deutschen Wetterdienstes, Land Data Assimilation System der NASA), die den Zugang zu globalen Klimadaten ermöglichen. Am Beispiel des European Centre for Medium-Range Weather Forecasts (ECMWF) und des Copernicus Climate Change Service werden sowohl API Zugriff zum Download der Daten als auch die Möglichkeit der Onlineberechung über ein Webinterface dargestellt. Schauen wir mal, was wir so finden.
Schlagwörter
GoogleMetadatenSummeBerechnungDichte <Physik>DeformationAktion <Informatik>VisualisierungWorkstation <Musikinstrument>GeometrieMengeGravitationsfeldPhysikalische GrößePlotterZeitreiheFaktorisierungQuadratAbbildung <Physik>DateiDatenloggerMessgrößeStruktur <Mathematik>VisualisierungZeitreiseSummeDownloadingÄhnlichkeitsgeometrieLängeParametersystemHöheSerielle SchnittstelleWEBDichte <Physik>MetadatenSkriptspracheCafé <Programm>SoundverarbeitungWorkstation <Musikinstrument>MeterASCIIInternetdienstInterface <Schaltung>Kanal <Bildverarbeitung>ICONEinflussgrößeData DictionaryComputeranimationJSONDiagramm
IBMVorwärtsfehlerkorrekturBalkenPlotterMittelungsverfahrenZeitreiheMittelwertGRADEEinflussgrößeLimitierungsverfahrenDickeMulti-Tier-ArchitekturFuturERSDiagramm
InformationPlotterWeb Services
KoordinatenDatensatzEnde <Graphentheorie>ZeitreiheVariablePixelFlächentheorieDiagrammJSONComputeranimation
PixelKoordinatenHitzeDatensatzVariableMittelwertKoordinatenInformationsmodellierungDimension 3PixelGauß-Krüger-KoordinatenSkript <Programm>Drahtloses lokales NetzBiproduktWeb ServicesDemoszene <Programmierung>ScheibeFlächentheorieComputeranimation
DatenmodellAPIDatenformatKAM <Programm>Skript <Programm>VisualisierungDemoszene <Programmierung>ZugriffVersion <Informatik>ParametersystemNumerisches GitterSkriptspracheMeterCulling <Computergraphik>App <Programm>Vorlesung/KonferenzComputeranimation
EditorTOUR <Programm>GraphNeunSkript <Programm>VisualisierungDemoszene <Programmierung>APIVerschlingungDownloadingDatensatzFunktion <Mathematik>PlotterBerechnungVariableGebiet <Mathematik>GRADEKoordinatenEckeFlächenpressungDatenstromMeterData DictionaryXML
EURONET-DIANETOUR <Programm>Dienst <Informatik>VariableDemoszene <Programmierung>KAM <Programm>FrequenzHMS <Fertigung>Apple <Marke>MagnetbandRechnenAnwendungssoftwareVariableBiproduktApp <Programm>DatensatzEigenwertproblemZeitreiheDeterminanteVerschlingungDownloadingParametersystemMeter
Demoszene <Programmierung>PlotterAnwendungssoftwareZeitreiheMittelwertGRADESkriptspracheWurm <Informatik>Programm/Quellcode
MaximumMinimumSummeARCHIVE <Programm>VisualisierungQuellcodeKAM <Programm>MULI <Programmiersprache>Demoszene <Programmierung>InformationssystemLinieDatenerhebungVisualisierungVerschlingungESERCoxeter-GruppeInstanz <Informatik>InternetdienstQuellcodeComputeranimationJSON
MedianwertSatellitensystem
Dienst <Informatik>EntscheidungstheorieDateiRAMComputeranimationHöheInternetSkriptspracheMeterASCIIEnde <Graphentheorie>Computeranimation
DatensatzInformationMengeRechnenBerechnungGebiet <Mathematik>WarteschlangeDownloadingÄhnlichkeitsgeometrieServerHöheRuhmasseMillisekundenbereichQuelle <Physik>SoundverarbeitungWorkstation <Musikinstrument>MeterBiproduktGeschwindigkeitQuadratVariableDatenbusBeobachter <Kybernetik>KorrelationStellenringComputervirusGewicht <Ausgleichsrechnung>Pascal-ZahlendreieckSMART <Compiler-Compiler>RichtungInternetdienstVorlesung/Konferenz
World Wide WebDienst <Informatik>Physikalische GrößeMomentenproblemVersion <Informatik>InformationsmodellierungConstraint <Künstliche Intelligenz>EigenwertproblemGroße VereinheitlichungQuantenzustandZählenDiskrepanzVorlesung/Konferenz
openSUSEComputeranimation
Transkript: Deutsch(automatisch erzeugt)
Wer von euch weiß, wo man sich das Wetter von vor 40 Jahren raussuchen kann? 1, 2, 3, 4, okay, nicht mal ein Prozent des Publikums. Wer weiß, was Warming Stripes sind?
Das sind genauso viele und auch noch die gleichen Leute, verdammt. Und wer will wissen, ob es früher mehr Schnee gab? Fast alle von euch, ihr werdet es in diesem Talk nicht erfahren, aber hier werdet ihr lernen, wie es geht. Und das wird euch Manuel zeigen, der macht sonst was mit Schwerkraft.
Zur Nutzung von öffentlichen Klimadaten, einen riesen Applaus bitte. Hallo zusammen und einen wunderschönen guten Morgen. Ja, ich mache mal was mit Schwerkraft. Ich durfte hier vor zwei Jahren schon mal vortragen darüber, wie man mit Satellitmethoden
das schwere Feld der Erde bestimmt, daraus Massenveränderungen berechnet und dann sagen kann, ja in Grönland schmilzt im Jahrzehnt so und so viel Eis oder wir nutzen so und so viel Grundwasser in verschiedenen Regionen der Welt. Ich arbeite eigentlich mehr so im lokalen Bereich.
Also ich möchte wissen, was ist die Schwerkraft? Also das kleine G, also hier oder sagen wir da unten. Und da stören mich so zeitlich variable Effekte sehr stark. Also Sonne, Mond, Sterne, das kann ich rausrechnen, das ist sehr einfach. Das Problem ist eher so die Atmosphäre. Also aus messtechnischer Sicht ist Atmosphäre vor Nachteil.
Leider können wir da meistens relativ wenig dran ändern, da ist halt Atmosphäre. Darum berechne ich für mich den Effekt der tatsächlichen, sich zeitlich ändernden Atmosphäre im Vergleich zu einer Referenzatmosphäre, die zeitlich nicht veränderlich ist. Und der einfachste Ansatz, wenn ich das in meinen schwereren Messungen berücksichtigen will, ist halt, ich messe selber.
Also ich habe hier, das ist mein kleines Gravimeter, damit kann ich so relativ schwere Änderungen messen. Wie ändert sich das mit der Zeit? Daneben liegt ein Datenlogger, der zeichnet mir den Luftdruck auf. Ja, wunderschön. Also ich habe den tatsächlichen Luftdruck. Ich ziehe die Referenzatmosphäre, also den Referenzluftdruck ab.
Dann habe ich da so einen kleinen Korrektur, die ich berechnen muss. Also diesen Delta-Luftdruck mal Pi mal Daumen, also ungefähr mal drei, also mal drei Nanometer pro Sekunde quadrat. Das ist so ein mittlerer weltweiter Korrekturfaktor. Dann habe ich den zeitlichen Variationen in der Schwere durch die Atmosphäre weg.
Ja, fast. Also die tatsächliche Atmosphäre wird nicht allein durch den Luftdruck jetzt hier an meinem Punkt oder da neben meinem Gerät beschrieben. Man kann sich ja vorstellen, ich messe da einen Luftdruck von sagen wir 1000 Hektopascal, aber über mir in der Atmosphäre ist eine große Menge Wasserdampf,
also ein hoher Luftfeuchtigkeitsgehalt in den oberen Atmosphärenschichten. Jetzt messe ich an einem anderen Tag. Ich habe wieder 1000 Hektopascal Luftdruck an meinem Gerät, aber über mir ist sehr geringe Luftfeuchtigkeit, also ein geringer Wasserdampfgehalt. Das ist eine unterschiedliche Masse. Wasserdampf hat auch Masse, hat somit einen Effekt auf das schwere Feld
und auf die Messung, die ich durchführe. Das weiß man auch schon seit ein paar Jahrzehnten, dass man diese Korrektur mit diesem Daumenfaktor auch weitertreiben kann. Also ist der zweite Schritt. Ich suche mir eine Möglichkeit herauszufinden, wie sehen die Atmosphärenschichten über mir aus. Also durch ein 3D-Atmosphärenmodell, durch ein Klimamodell.
Ich habe hier mal als Beispiel eines meiner Ergebnisse dargestellt. Der Plot oben, der zeigt so die Atmosphärenhöhe bis zu 50 Kilometer. Ich habe also aus diesem Modell, das ist so in Schichten aufgeteilt, 37 Schichten. Ich kann das auch bis zu 80 Kilometer machen. Und ich berechne mir anhand verschiedener Klimavariablen,
die ich aus dem Klimamodell bekomme, sowas wie Luftfeuchtigkeit, Temperatur, Luftdruck in den Höhen, so die Dichte dieser Atmosphärenschicht. Und wenn ich die Dichte habe und die Geometrie der Atmosphärenschichten, dann kann ich mir so nach Newton die Attraktion berechnen. Also wie stark zieht die Atmosphäre, die über mir ist, das Gravitationsfeld mich nach oben.
Wir messen, gehen 9,81 Meter pro Sekunde quadrat. Wir messen da an der 8. bis 9. Nachkommastelle. Das ist die Genauigkeit, die wir erreichen können mit den Geräten, so wie ich das gerade eben gezeigt habe.
Und wenn ich mir jetzt das Bild oben anschaue, dann ist auf der x-Achse die Zeit, auf der y-Achse die Höhe. Und man sieht auch so kleine Strukturen drin. Das sind so die einzelnen Atmosphärenschichten. Unter Effekt, jede einzelne Atmosphärenschicht ist so da plus minus 15 Nanometer pro Sekunde quadrat. Und der untere Plot zeigt die Summe des oberen Plots.
Und das ist so, ja, man kann so rechnen, das spielt sich ab, so plus minus 100 Nanometer pro Sekunde quadrat. Also, ja, Erfolg. Ich habe eine bessere Korrektur als vorher. Das kann man auch an vielen Vergleichen feststellen. Jetzt fragt ihr euch, das ist ja ein sehr spezielles Problem, das ich hier habe.
Ja, stimmt. Also, was machen wir jetzt damit? Ich möchte im folgenden Jahr über großen Datenreichtum berichten. Also den jeder so frei, also positiv besetzten Datenreichtum, den jeder selber nutzen kann. Ich zeige euch verschiedene Dienste, wo es Wetter- oder Klimadaten frei zum Runterladen gibt,
wo man selber Visualisierung machen kann und in seinen eigenen Projekten verwenden kann. Man könnte anders sagen, ich rede über FTP-Server mit ASCII-Dateien, über APIs zum Datendownload und online Toolboxen zur Visualisierung und Analyse und über iCandy. Der dritte Punkt, müssen wir schauen, ob wir das in der Zeit schaffen.
Vorher gibt es auch schon ein bisschen Farbe. Ich selber benutze dieser Daten, also ich zeige, was ich so gefunden habe. Ich gehe nicht darauf ein, wie jetzt so ein Klimamodell erstellt wird. Da war am Tag 1 ein Talk mit dem Titel Climate Modeling, den ich dafür weiterempfehlen möchte. Ich kann hier nur kleine Ausschnitte von diesen Diensten zeigen.
Die sind wesentlich umfangreicher in ihren Fähigkeiten. Und auch zu den Daten selber kann ich in dieser kurzen Zeit nicht komplett alles darstellen. Aber alle diese Dienste sind sehr umfangreich dokumentiert. Das kann jeder für sich selber nachsehen.
Alles, worüber ich jetzt gleich spreche, da gibt es im Fahrplan ein Dokument, das sämtliche Dienste aufführt, also alle Ressourcen nennt. Auf GitHub, wenn ihr nach 36C3 unterstrich Klima sucht, dann findet ihr da die Skripte, die ich genutzt habe, um die Daten herunterzuladen für diesen Talk und die Abbildungen zu erzeugen.
Also fangen wir an mit Selber messen. Funktioniert ja häufig sehr gut. Außer wenn man bedenkt, das sind Messgeräte, die über serielle Schnittstelle mit Windows-PCs sprechen. Da muss man auch schon mal schauen, ob jemand anders die Daten schon für einen gemessen hat. Da kommt zuerst der deutsche Wetterdienst ins Spiel,
der auch Klimamodelle selber erzeugt. ICON und COSMO sind da die aktuellen Ausgaben für Europa und weltweit. Aber hier geht es jetzt eigentlich erst mal um Wetterdaten, die ich darstellen möchte. Die werden auf verschiedenen Kanälen verteilt. Das erste ist das Climate Data Center Portal. Das ist ein interaktives Web-Tool.
Da kann ich mir klicken, welche Parameter möchte ich wissen. Dann kann ich mir auf einer Karte eine Station klicken, und dann kriege ich die Daten. Wenn man einen GISS einsetzt, dann kann man auch über Schnittstellen des deutschen Wetterdienstes da ein Webfeature oder Mapping-Service einbinden und so Daten erhalten. Da möchte ich nicht weiter darauf eingehen. Ich habe ASCII-Dateien vom FDP-Server versprochen,
mit denen wir uns jetzt näher beschäftigen würden. Da gibt es für Stationen Stationszeitreihen, verschiedene Messgrößen, Temperatur, Luftdruck, Niederschlag und ähnliches. Und daraus aufbereitete Rastadaten, die gesamte Deutschland erfassen. In jedem Datenverzeichnis gibt es dann Metadaten
zu eingesetzten Geräten, Fehlerquellen und die Beschreibung, wie dieses Produkt, wenn es ein Produkt ist, erstellt wurde. Wir haben hier eine Stationsübersicht des deutschen Wetterdienstes in Deutschland. Der Dienst selber stellt auch Daten Europa und global eingeschränkt bereit.
Ich konzentriere mich jetzt hier gleich auf eine Zeitreihe aus Deutschland. 500 dieser Stationen haben in diesem Monat Messzeitreihen abgeliefert, beigesteuert. Und ich möchte hier hauptsächlich über Lufttemperatur, zwei Meter Höhe über den Boden reden.
Wenn man sich einmal die Länge der Zeit rein ansieht, dann sieht man eigentlich die meisten sind so um die 20 Jahre. Da gibt es aber auch welche mit 60 Jahren, 80 Jahren. Und ganz hier hinten gibt es eine Station mit über 120 Jahren. Das ist Potsdam am Telegrafenberg. Da kann man sich jetzt mal die Stationszeitreihe runterladen,
Temperatur, weil die täglichen Messungen eigentlich nur ein dickes blaues Band hier im Plot wären, habe ich schon mal Monatsmittelwerte gebildet. Ja gut, da sieht man jetzt so den jährlichen Zyklus, nicht wahr? Mitte des Plots gibt es auch mal viele kältere Jahre und Ende des Plots wird das irgendwie wärmer.
Wenn man aus den Monatsmitteln die Jahresmittel bildet, sieht das Ganze so aus und spätestens in dieser Darstellung erkennt man, was eigentlich auch hinlänglich bekannt ist, dass in den letzten 100 Jahren so die Durchschnittsgeschwindigkeit, dass die Jahresdurchschnittswerte leicht angestiegen sind. Eine moderne oder aktuelle Darstellungsweise für diese Art der Zeitreihe ist ja so
jetzt diese Warming Stripes oder Wärmestreifen. Wer mal so Material von den Scientists for Futures gesehen hat, da sind so im Hintergrund immer so blau, weiß, rote Streifen, die so die Erwärmung zeigen sollen. Das kann man so aus diesen Jahresmitteln berechnen. Da wird einfach für eine bestimmte Referenzepoche, sagen wir,
1960 bis 1990 so der Mittelwert genommen. Das waren jetzt hier für Potsdam 8,7 Grad und abgezogen. Dann habe ich diese obere Zeitreihe. Also Mittelwert plus, minus 2 bis 2,5 Grad ist die Variation da etwa. Und die untere Farbskala ist ja limitiert
auf plus, minus 2,5 Grad. Und so kommen halt zustande für Temperatur untere Mittel so leicht blaue bis tiefblaue Balken und für die höheren Temperaturen halt leicht rot bis leuchtend rot. Er stellt das Ganze nach der Seite Show your Stripes.
Kann man sich mal angucken. Wenn man auf die Seite geht, dann hat man hier den ersten Plot so global, weltweit. Interessant ist hier eigentlich der Punkt unter Information. Da steht, wo die Daten herkommen. Also jetzt schaue ich doch mal, was die hier über uns sagen. Europa, Germany.
Das Bild sieht jetzt ungefähr so aus wie das, was ich eben hatte. Und unter Information steht jetzt annual average temperatures. 1881 bis 2018 vom DWD. Wenn man das für andere Regionen macht, dann bekommt man auch jeweils die Datenquelle. Und oben rechts unter FAQ findet man dann auch die entsprechenden Services dafür.
Gut, also es gibt offensichtlich beim deutschen Wetterdienst die Daten deutschlandweit. Temperaturen ab 1881. Da war mein erster Gedanke vor ein paar Monaten, als ich diesen Beitrag eingereicht habe. Oder das könnte man ja mal machen, dass da jeder jetzt kommen kann. Ich mache Koordinate und dann berechne ich mir, wie sieht es jetzt für meinen Wunschort aus.
Die Idee hatte nicht nur ich. Das hatte auch Zeit online vor zweieinhalb Wochen. Mit dem Atomkill viel zu warm hier. Haben Sie so ein Tool bereitgestellt? Da kann man eingeben in die Maske in seinen Wunschort Leipzig und erhält dann diesen Streifen. Und man sieht, wenn man an dem rechten Bild
unten die letzte Zeile liest, mal von rechts nach links, inspiriert von Ertorkens. Das ist dieses showyourstripes.info. Quelle deutscher Wetterdienst. Das ist dann diese Datenzeitreihe wieder. Und unter Methodik ist letzten Endes das beschrieben, was ich auch gerade erklärt habe. Plus da wird noch darauf eingegangen, wie das Geocoding geht, dass ich jetzt Leipzig tippe
und nicht die Koordinate von Leipzig. Also schauen wir uns einmal ganz kurz diesen Datensatz an. Also Flächendaten des Deutschen Wetterdienstes. Da gibt es auch wiederum viele verschiedene Variablen. Ich zeige jetzt hier wieder drum die Lufttemperatur. In dieser Animation ist aber jedes einzelne Pixel
einmal ein Kilometer die Auflösung des Datensatzes. Und für jedes Pixel ist halt dieser Mittelwert berechnet und abgezogen. Also die Animation ist quasi der Warming-Streifen für jeden einzelnen Pixel dargestellt. Die Koordinaten sind unglücklicherweise Gauss-Krüger. Das ist ein rechtwinkliges Koordinatensystem. Sehr schön zum darin interpolieren,
wenn man dann Gauss-Krüger-Koordinaten kennt. Für das Script auf GitHub habe ich dann das noch in geografische Koordinaten umgerechnet. Die Flächendaten des DVDs, also wirklich viele Produkte. Manche beginnen erst in den 1950ern. So was wie Niederschlag oder so, durchaus interessant.
Aber das hier war ja alles jetzt noch oberflächig. Ich habe ja gerade gesagt, ich brauche die dritte Dimension. Also brauchen wir Klimamodelle. Und das beständig, zeitlich, kontinuierlich, wo ich mich darauf verlassen kann, dass ich in fünf Jahren noch die gleichen Daten bekomme.
Da haben eine Kollegin vor mir und ich uns entschieden für das European Center for Medium-Range Weather Forecasts. Der Name sagt schon, es ist eine EU-Institution getragen von EU-Mitgliedstaaten. Und deren Aufgabe ist Wettervorhersage. Wunderschön. Es ist gleichzeitig eine Forschungseinrichtung. Sie erstellen ihre eigenen Klimamodelle und nach eigener Beschreibung das weltweit größte
Datenarchiv für Klimadaten. Also die Modelle gehen zurück bis 1979. Für das Aktuelle ist angestrebt, das bis auf 1950 auszudehnen. Mal schauen. Da bekomme ich dann noch mein altes Wetter her, wenn ich nicht Tagesschau vor 40 Jahren gucken will.
Innerhalb des Copernicus-Programms, das ist das EU-Programm zur Erdbeobachtung, stellt das ECMWF den sogenannten Climate Change Service. Das ist die Datenquelle, auf den sie ihr aktuellstes Modell verbreiten. Das Copernicus-Programm bietet auch freien Datenzugang in sechs Themenschwerpunkten. Davon ist Climate Change einer.
Freier hat ein Sternchen, weil einer der Themenschwerpunkte ist Security und da ist es dann mit dem freien Datenzugang vielleicht etwas eingeschränkt. Ich habe es nicht genau nachgeguckt. Schauen wir uns diesen Climate Change Service einmal an. Geht aus dem WLAN. Ich will eine Demo machen.
Da wird man begrüßt mit Welcome to the Climate Data Store, im Sinne von Speicher, nicht im Sinne von Shopping, und hat drei freundliche Buttons auf der Seite. Auf die ersten zwei werden wir gleich genauer eingehen. Den dritten, das ist so Hilfeforum, das ist auch tatsächlich hilfreich.
Das aktuellste Modell von denen nennt sich ERA 5, also ECMWF Re-Analysis Nummer 5. Das hat normalen Auflösung so 25 bis 30 Kilometer auf Land und auf See. Und wenn man sich speziell für Klimaparameter
der Landmasten interessiert, wie zum Beispiel Bodenfeuchtigkeit bis in vier Meter, da gibt es noch eine hochaufgelöste Version, die nennt sich ERA 5 Land. Aber das ist für meine Arbeit nicht so entscheidend. Und standardmäßig wird geliefert eine stündliche Auflösung und Monatsmittelwerte. Und zwar von 1979 bis heute vor fünf Tagen.
Den Datenzugriff schauen wir uns gleich genauer an. Die Skripte hierfür und für das Auslesen des NetCDF Formats gibt es dann auf GitHub. NetCDF Bibliotheken gibt es für Python, Octave, Matlab, was auch immer man da machen möchte. Da schauen wir uns jetzt ganz kurz an. Ich möchte jetzt nicht selber die ganzen Krämpel installieren,
diese Datenmenge runterladen. Da hilft uns der Climate-Data-Store weiter, also Copernicus. Da gibt es so eine Online-Toolbox. Du warst schon geladen. Also man hat links, auf der linken Seite, einmal so Datatum schon geschrieben, mit ein paar Beispielen, die uns zeigen, wie das Ganze zu
funktionieren hat. Und es gibt auch dann hier die Dokumentation der Funktionen. Das ist jetzt nicht sehr wichtig. Ich presse schon mal auf Play, weil das kann dauern. Das Skript ist dann auch verfügbar über den Fahrplan. Das lädt aus, was ich ausgeführt habe. Normal, das kann schon mal 10, 20 Minuten dauern, weil die Daten
werden zusammengestellt und dann präsentiert. Das Skript selber hat einen Teil, in dem ich definiere, was ich haben möchte. Also ich habe drei Klima-Variablen. Zwei Meter Temperatur, Schneetief und totaler Niederschlag. Das sind die Namen, so wie sie
im Datenkatalog vorhanden sind, auf denen ich definiere hier mittig ein paar Koordinaten, für die ich den Plot erstellen möchte. Das ist jetzt hier Leipzig. Und das ist die Datenanfrage, wo ich ganz einfach sage, ein Gitter, 0,25 Grad, das ist die höchste Auflösung. Ich kann auch sagen, ich möchte 1 Grad Auflösung, dann ist die Datenmenge natürlich kleiner. Mein Zeitraum,
den ich haben möchte, also alle Jahre, alle Monate und ich habe unten noch eingeschränkt, also das Gebiet soll jetzt hier nur Deutschland sein. Wenn ich ein größeres Gebiet anfordere, dann kann die Anforderung auch länger dauern. Also man kann durchaus, wenn man Monatsdaten anfordert, schon mal sechs bis zwölf Stunden warten, dass sie runtergeladen werden. Also
der Dienst setzt so täglich 30 bis 40 Terabyte an Daten um, die er an Benutzer sendet. Gut, das Ergebnis haben wir jetzt gleich dargestellt. Da gibt es auch, was weiß ich, man kann hier reinzoomen, sich Ausschnitte ansehen. Wir haben ja drei verschiedene Variablen angefordert. Man kann noch mal die Schneetiefe anschauen. Schneetiefe ist hier
als Wasserequivalent. Also man nehme an, der gesamte Schnee ist geschmolzen und ich habe eine durchgehende Wasserschicht in dieser Gitterzelle. Und ich kann dann hier meinetwegen noch Koordinaten ändern und da wird der Plot neu für diese Koordinaten erzeugt, sofern ich diesen Datensatz für diese Koordinaten vorher
auch runtergeladen habe. Also wenn ich jetzt hier eine Nordamerika-Koordinat eingebe, funktioniert das nicht. Ich habe ja nur die Daten für Deutschland angefordert. Das ist so die erste Möglichkeit. Ich kann da schnell ploten lassen. Ich muss da keine Gigabyte sein. Aber schauen wir uns doch mal die eigenen
Daten insgesamt an, den Katalog, denn meine Berechnungen sind zu komplex, um sie in dieser Toolbox durchzuführen. Außerdem bekommt man so einen Überblick darüber, was gibt das überhaupt alles. Ganz grundsätzlich hat dieser Climate-Data-Store nicht nur jetzt diese RR5-Klimadaten, sondern allerlei Produkte
schon vorrätig. Hier arktische Seerouten, wie entwickelt sich das für die Schifffahrt zum Beispiel. Aber wir wollen jetzt RR5. Hier sehen wir alle Produkte zum Thema RR5, die es so gibt. Und hier ist zum
Beispiel die Lösung so stündliche Atmosphärenparameter seit 1979 bis heute vor fünf Tagen. Da gibt es jetzt drei Möglichkeiten, das runterzubekommen. Ich habe schon angesprochen, es gibt eine Python-API, die man sich installiert. Dann kann man das ganze gestriptet runterladen. Da möge man bitte bei größeren Mengen auch
die Download-Policy beachten. Also die empfehlen Monatsstücke einzeln runterzuladen, wenn man jetzt zum Beispiel eine Zeitdrei von zwei oder drei Jahren haben möchte. Sonst kann man durchaus mehrere Tage in der Download-Schlange hängen. Also man hat hier rechts den Scrollstreifen sehen. Das
ist die Liste der ganzen Parameter, die es gibt. Da ist sicher was für jeden dabei. Aber wir wissen ja, was wir haben wollen. Hier ist schon mal ausgewählt, weil ich das vorhin geklickt habe. Also populäre Datensätze, also Kunden, die zwei Metertemperatur klicken, klicken auch total Niederschlag und meinetwegen Luftdruck.
Für andere Variablen ist das hier so thematisch geordnet, so Wind, Schneefall und so weiter. Man kann sich den Zeitraum klicken, Zeitpunkte, das Format. Und wenn ich jetzt mein eigenes Python-Skript starten möchte, kann ich über Show API Request mir dann
direkt darstellen lassen. Mit dieser Anfrage in Python ausgeführt auf meinem Rechner bekomme ich den vorhin geklickten Rechner. Wenn ich jetzt etwas machen möchte, die ich gerade gezeigt habe, dann kann man auf Toolbox Request klicken, kann sich diesen Abschnitt hier in sein Skript kopieren, wo dann noch so die Visualisierung drunter ist. Muss man
also auch nicht von Hand machen. Oder wenn man einen Download-Link möchte, dann klickt man halt auf Submit Form. Und dann wird das gezeigt, was man schon mal herunterladen wollte. Und er hat erkannt, das habe ich schon mal haben wollen. Also hier wäre jetzt der Download-Link. Normalerweise, wie gesagt,
je nach Datenmenge kann das mehrere Stunden oder vielleicht auch mal einen Tag dauern, dass die Daten zusammengesucht wurden und zum Download bereitstehen. Wenn man das höchst aufgelöste Klimamodell möchte, das ist auf Magnetbänder gespeichert, das dauert dann halt ein bisschen. Gut, wenn das jetzt alles nichts für einen war, dann gibt es
immer noch vorbereitete Themenbereiche, wo es für bestimmte Themen, wie zum Beispiel Auswachs des arktischen Meereises über die letzten 40 Jahre bereits vorbereitete Applikationen gibt, die live die Daten laden und dann visualisieren.
Also man sieht, ich lade eigentlich immer wieder die gleiche Seite. Es sind nur unterschiedliche Reiter, die ich hier habe, also Applications. Da haben wir vorhin schon gesehen, es gibt so Navigation, wann ist die Nordwest-Passage eisfrei, wann ist der Schifffahrt möglich, da wird man sehen, dass das von Jahr zu Jahr ein längerer Zeitraum ist.
Was gibt es denn hier? Überlebensfähigkeit einer bestimmten Mückenart in Europa, so in zukünftig, also der Einmarsch von Tropenkrankheiten zum Beispiel über diese Mücke, wie wird sich das entwickeln? Aber ich bin ja beim Klima, also schauen wir uns den RR5 Explorer an. Der präsentiert
uns zuerst eine Karte, bzw. ich klicke das, was ich schon geladen habe. Man erhält also so eine Karte, das ist die Weltkarte, man kann darin zoomen, sich seinen Ort suchen, für den man jetzt die gesamten Klimadaten der vergangenen
40 Jahre anzeigen möchte, dann bekommt man hier rechts so das Ergebnis gezeigt. Der erste Plot zeigt einem quasi für die 40 Jahre, für jeden Monat die Durchschnittstemperatur, die maximalen, minimalen Tageswerte. Wenn man also irgendwann in den Urlaub fährt, zur Arbeit fährt, nicht weiß, wie ist dort das Wetter
im März, kann man sich das hier einmal quasi direkt visualisieren lassen. Gut, Warmingstreifen haben wir darüber gesprochen, aber wie ist das denn die langfristige Entwicklung an so einem Ort? Das hier ist jetzt geklickt ungefähr Leipzig. Diese Darstellung zeigt jetzt die gesamte Zeitreihe und
glättet das mit 5 Jahres Mittelwerten und dargestellt werden Sommertage, das sind Tage mit einer Maximaltemperatur über 25 Grad, Frosttage, das sind Tage mit einer Temperatur und mit einer Minimaltemperatur unter 0 Grad und tropische Nächte, das sind Nächte, in denen es mindestens 20 Grad als
Minimaltemperatur hat. Und da jetzt die Entwicklung der 40 Jahre sieht man halt jetzt für diesen geklickten Ort Anstieg der Sommertage, also Durchschnittstemperatur über 25 Grad, Niedergang der Frostnächte, aber interessant, auch wenn es nur ein kleiner Prozentsatz ist, ist es eigentlich
auch die tropischen Nächte, also Nächte, in denen es nicht kälter wird als 20 Grad, ist halt auch in der Zunahme. Das waren von diesem Climate Data Store, von dem RR5-Modell so verschiedene Anwendungsfälle für das, was man selber programmieren kann, habe ich wie gesagt Beispielskripte oder wenn man
sich nur ein bisschen umschauen möchte, gibt es halt diese vorbereiteten Applikationen für den Fall, dass die Demo nicht funktioniert. Das letzte ist ein Dienst der NASA, der in erster Linie die verschiedenen Satellitenmissionen der NASA und zum Teil auch der ESA darstellt.
Das nennt sich NASA EOS DISS, also Earth Observing System Data Information System. Wer früher schon mal mit NASA Daten gearbeitet hat, dem wird das vor vier Monaten aufgefallen sein, dass die Daten nicht mehr einfach zum Klicken und Runterladen sind. Man braucht jetzt diesen Earthdata User ID,
um zu seinen früheren Datenarchiven zu kommen. Das Visualisierungstool ist World View. Das kann in GISS-Systemen exportieren, die man hat. Man kann den Source Code runterladen und eine Instanz bei sich selbst laufen lassen, die die Daten von den NASA Datendiensten heraus abgreift.
Wenn wir uns das mal anschauen, wird man auch wieder mit thematischen, also mit bereits aufbereiteten thematischen Präsentationen begrüßt, die eigentlich hauptsächlich die Fähigkeiten dieses Visualisierungsdienstes zeigen. Man sieht im Hintergrund aktuell Satellitenbild. Man kann in der linken Spalte
verschiedene Layer auswählen, was man dargestellt haben möchte. Das sind so ungefähr 900, geben die an. Aus Zeitgründen schauen wir uns nur mal an. So was wie Feuer in Kalifornien und Teile Kanadas. Das hier ist einfach nur das Satellitenbild. Man sieht, gut, man kann es auch rechts in der Beschreibung lesen.
Man sieht schon so in dem Bild, dass da irgendwie so Rauch rüberzieht. Jetzt wird das mit verschiedenen Satellitenmissionen kombiniert. Jeder rote Punkt ist durch die Satellitenmission durch das Moderate Resolution Imaging Spectroradiometer Modus
identifizierte Feuer. Schon deutlicher zu erkennen. Gut, den Rest kann man sich auch selber anschauen. Und eigentlich entscheidend ist, man kann sich hier auch durch die Zeit dieser Satellitenbeobachtung quasi zeitlich zurückbewegen. Inklusive das Zerstellen von Animationen. Also ein Satellitenfilm einer
bestimmten Größe, für die man sich interessiert, sei es Meerestemperatur, das hier jetzt Wildfeuer, verschiedene Gaskonzentration in der Atmosphäre, Aerosole, Rauch, Schadstoffe. Da kann man gerne wahrscheinlich ein paar Tage mit verbringen. Die Daten hier im Hintergrund sind alle frei runterzuladen.
Man muss sich allerdings auch hier für einen Account registrieren, was aber zumindest in meinem Test jetzt nicht Probleme, keine Probleme gegeben hat. Also abschließend kann man sagen, es gibt einen reichen Datenschatz, den man sich zu diesem Thema Wetter- und Klimadaten nutzen kann, der auch explizit für
den öffentlichen Nutzer, Nutzerinnen verfügbar ist. Die Einstiegshöhe sind relativ gering. Wie gesagt, wir beginnen mit FTP-Servern und ASCII-Dateien. Die Einstiegshöhe ist halt ja die Darstellung und dann, wenn man bestimmte Analyse machen möchte, wie das funktioniert. Aber auch wenn man nicht programmieren möchte,
habe ich zumindest eine Handvoll Tools gezeigt, wo teilweise thematisch bereits aufbereitete Themen sind, die durchaus von Interesse sein können oder die einem zeigen, was letztendlich alles möglich ist. Die Antwort auf die Frage war jetzt früher mehr Schnee. Die kann sich
hoffentlich jeder selber suchen. Die Ressourcen dafür sind im Fahrplan. Auf GitHub gibt es die passenden Beispielscripter dazu bei der Suche nach 36C3-Klima. Oder man kann mich hier ansprechen, sei es per DECT oder über die Mail-Adresse im Fahrplan.
Da möchte ich mich für die Aufmerksamkeit und das Interesse bedanken und nutze mehr öffentliche Daten. Danke schön. So,
kommen wir zum Fragenteil. Wer von euch hat Fragen? Hände hoch und ran an die Mikrofone. Keine Fragen aus dem Internet? Das Mikrofon Nummer 9 bitte. Bei Folie 12 hast du ja so Deutschland mit einer Kilometer-mal-Kilometer-Auflösung gehabt und da war ganz am Anfang bei
1800 irgendwas rum und ein roter Punkt so in Höhe NRW. Weißt du zufällig, was das war? Nee, kann ich jetzt so nicht genau sagen. Also diese Daten sind interpoliert aus den Stationsbeobachtungen, der das wie auch immer der Deutsche Wetterdienst in der Zeit geheißen hat, plus weiterer Dienste, die die gleichen Qualitäten
bieten. In der Beschreibung des Produktes auf dem Server findet man da weitere Informationen zu den relevanten Literaturquellen. Mikrofon Nummer 3 bitte. Vielen Dank für den Talk und vielen Dank für die ganzen coolen Quellen. Ich habe tatsächlich eine Frage zu eher deinem Gebiet und zwar relativ anfangs in den Folien
hattest du mal argumentiert oder gesagt, dass es auch Effekte der Atmosphäre gibt, die die Erdbeschleunigung verringern. Nein, ich meine, verstärken. Also die Skala ginge beide Richtungen, sowohl ins positive als auch negative. Woher kommt das? Also da wir die
Atmosphäre nicht entfernen können oder sollten, machen wir unsere Berechnung bezogen auf eine zeitlich nicht variable Atmosphäre, also Normalatmosphäre. Das ist so ein Normaldruck auf am Meeresspiegelniveau 1013 Hektopascal und da kann man sich mit Formeln herrechnen, in welcher Höhe meiner Station welcher Luftdruck herrschen sollte. Der normale Vorgang ist eigentlich, ich messe
meinen lokalen Luftdruck, mal genommen am Meeresspiegel ich messe 1020. Dann habe ich also 7 Hektopascal Differenz zu dem Referenzdruck. 7 Hektopascal mal 3 Nanometer pro Sekundequadrat sind 21 Nanometer pro Sekundequadrat. Das ist die Attraktionswirkung, die die Luftmasse selber hat, Luft wiegt ja auch was
und der Effekt die Masse der Luft drückt auf die Erdoberfläche und die Erdoberfläche deformiert sich je nach Masse. Also ich habe ein Hochdruckgebiet, dann deformiert sich die Erdmasse stärker. Ich habe ein Tiefdruckgebiet, dann wird sie sich wieder leicht ausstellen. Und das ist der Effekt, der dann meine schwere Messung um diese jetzt in diesem Fall 21
Nanometer pro Sekundequadrat beeinflusst. Das schließt, ist natürlich so ein wie gesagt, Daumenwert. Mit den Methoden jetzt über die Atmosphäre hat man dann eine etwas bessere Korrektur. Das heißt, wenn ich weiß, da ist irgendwann ein Signal durch einen nahegelegenen
Meer, durch einen See oder mehreres Teil durch Küste, dann habe ich eine bessere Korrelation, wenn ich jetzt meine Methode benutze, mit dem Pegeldaten, weil mehr Wasser ist auch mehr schwere oder weniger Wasser ist weniger schwere, als wenn ich jetzt diesen Daumenwert benutze. Kannst du diese Geschwindigkeitsangabe nochmal
irgendwie in ein für uns fastbares Maß schicken? So eine Viertel Sekunde pro Jahr oder so was? Wie sehr die Erde verlangsamt wird? Also das hat jetzt nichts direkt mit Erdrotation zu tun. Das geht jetzt bei mir wirklich nur darum, das kleine G, die 9,81 Meter
pro Sekundequadrat, wie ändert das durch die Massen der Atmosphäre, durch den Wassergehalt und ähnliches. Tatsächlich hat natürlich die, je nachdem, wie die Atmosphäre auf der Erde verteilt, ist das auch ein Effekt auf die Erdrotation. So Sommer, Winter, also wo ist, wie viel Atmosphärenmasse gerade, Nord-Südhalbkugel, da reden wir aber
um, das ist Millisekunden. Also die tägliche Erdrotation variiert im Millisekundenbereich. Je nach Massenverteilung der Erde. Danke. Mikro Nummer 2 bitte. Ja, von mir recht herzlich ein Dank für den Zugang. Du hast gesagt, dass das Downloaden der Daten zum Teil sehr lange dauert. Liegt das jetzt an der Menge
oder dass die auf ihren Servern lokal die Daten erst zusammenstellen müssen? Ja, letzteres. Also je nachdem, wie groß die Datenmenge ist, die man haben möchte, die Daten werden dann für einen von den Datenservern zusammengesucht und dann lädt man das runter. Also man verbringt erst eine gewisse Zeit quasi in der Warteschlange. Das können
dann so vier, fünf Stunden sein und dann dauert das eine knappe Stunde, bis die Daten gesammelt sind und dann je nach Internetverbindung halt, wenn man jetzt so einen 10 Gigabyte Datensatz angefordert hat, das ist so ein Monat, Europa, drei verschiedene Klimavariablen, die gesamte Höhe der Atmosphäre. Das ist das, was ich so brauche. Das sind so 10 Gigabyte.
Aber man muss den Rechner nicht so durchlaufen lassen. Wenn man das Skript einfach am nächsten Morgen nochmal startet, dann sieht der Server, aha, der hat das schon nachgefragt, die Daten stehen bereit und sie werden direkt runtergeladen. Aber wie gesagt, der Dienst setzt pro Tag so 30, 40 Terabyte um und man stellt sich halt hinten an. Mikrofon Nummer eins bitte.
Ich hätte auch noch eine Frage zum schwere Netz. Wofür braucht man denn die Daten, die jetzt in der 8. oder 9. Nachkommastelle gemessen werden? Also meine Arbeit beschäftigt sich mit der Entwicklung neuartiger Sensoren, also präzise Gravimeter. Wenn man jetzt einer sagen möchte, hier, ich habe das präzisere Gerät und dann schaue ich in die Datenreihe
und da ist jetzt noch irgendwie so ein komischer Bogen, dann sage ich dem, da ist ein Bogen in deinen Daten. Du bist doch genauer. Also muss ich ein möglichst genaues Modell der tatsächlichen zeitlich variablen Schweränderungen haben. Insgesamt ist das interessant für alles, was man sonst direkt nicht messen kann, aber Masse ist. Grundwasser
ist ein weit verbreites Anwendungsgebiet. Man kann nicht überall, gut in Deutschland ist ein weiter breites Netz an Grundwasserbohrungen und Grundwasserpegeln, wo die zuständigen Landesämter diese Daten erfassen. Wenn man das Glück nicht hat, dann ist Gravimetrie eine Möglichkeit zu überprüfen, wie verhält sich das Grundwasser? Wir hatten ein großes Regen
Ereignis. Bleibt das Grundwasser vor Ort oder fließt das ab? Das wäre eine Möglichkeit mit Gravimetrie festzustellen. Und auch hier brauchen wir, wir müssen alles dann korrigieren, bis auf diesen Grundwassereffekt. Und auch da braucht man dann genaue Atmosphärenmodelle. Dann hätte ich noch eine Anschlussfrage. Gibt es für diese
Grundwasserwerte auch öffentliche Daten? In der Regel ja. Die muss man allerdings, da gibt es jetzt keinen Sofarteiler, keine Seite, auf der man klicken kann. Das ist relativ unterschiedlich von Bundesland zu Bundesland. In der Regel hat die, ich komme aus Hannover, da gibt es
in der Stadtverwaltung eine Abteilung, wo dann irgendwo unter Menü ist Grundwasser. Und da kann man persönlich anfragen. Und dann bekommt man das frei, wenn man so Wissenschaftsforschung macht. Oder ich weiß nicht, ob man das sonst bezahlen muss. Kann ich jetzt leider nicht genau sagen. Aber es ist Aufgabe der Stadt, der Kommune in der Regel. Mikrofon
Nummer zwei bitte. Das sind ja alles Klimamodelldaten. Also nicht aktuell gemessen. Da fliegt ja keiner in zwei Kilometer und misst das. Wann werden die gerechnet? Werden die aktuell gerechnet? Werden die hinterher gerechnet? Werden die vorher gerechnet? Also das RA5, das ist jetzt quasi immer fünf Tage zurück. Also es wird das Modell gerechnet mit den Daten
jetzt gerade anfallen. Bis vor kurzem gab das eine Verzögerung von drei Monaten. Und man muss auch jetzt noch damit rechnen, dass quasi, wenn ich jetzt heute Daten nehme, die für vor zwei Wochen sind, dass ich diese Daten noch leicht ändern kann, weil halt die jetzt gerade gemessenen Daten einfließen, das Modell. Aber man hat so eine Verzögerung im Moment von fünf Tagen.
Wie das erstellt wird, so ein Modell, das wie gesagt am Tag eins in dem Talk Climate Modeling ist das enthalten gewesen. Mikrofon Nummer eins bitte. Wenn die Daten berechnet werden, heißt das, das wird auch nachträglich wieder langfristig in die Vergangenheit zurück
korrigiert, wenn man bessere Modelle hat oder so? Also die machen regelmäßig, ich glaube so, ja regelmäßig alle zehn Jahre ungefähr kommt eine neue Version dieses Modell heraus. Das era interim, der Vorgänger, das war halt vor zehn Jahren. Und die halten beide Modelle vor. Also ich kann jetzt hingehen und sagen,
ich nehme meinen Zeitpunkt aus den 80er Jahren und vergleiche beide Klimamodelle. Was kommt da raus? Gibt es da Diskrepanzen? Wie das wie gesagt genau mit der Erstellung geht, kann ich jetzt so nicht sagen. Aber ich habe die Möglichkeit, auch wenn ich meine Arbeit mit der einer Kollegin von vor zehn Jahren vergleichen will, ich kann mir immer noch das Klimamodell von damals
laden und mit meinen eigenen Methoden vergleichen. Das ist bei diesem ECMWF eigentlich ein großer Vorteil, dass alle Modelle relativ zeitlang noch weiter gepflegt werden und parallel verfügbar sind für gleiche Zeiträume. Als letzte Frage
Mikrofon Nummer fünf. Ja, hallo. Also ich wollte fragen, ob Europa der Vorreiter ist mit der Bereitstellung der Daten oder ob auch weltweit wirklich die Daten wirklich öffentlich gemacht werden und dass jeder die gleichberechtigt benutzen
kann. Das kann ich so in Erfüllung nicht beantworten. Ich bin mir sicher, dass es andere metrologische Anstalten gibt, die wie der Deutsche Wetterdienst auch die Daten so frei zur Verfügung stellen, bzw. dieses Klimamodell wie das RA5 auch vergleichsweise woanders bereitgestellt wird. Für die amerikanische
Version würde ich auf diesen von mir jetzt letztes gezeigt aus Datadienst tippen, dass es da enthalten ist. Ganz genau, wie gesagt, kann ich das so nicht sagen. Der Deutsche Wetterdienst hat eigene Klimomodelle, wo ich mir auch nicht sicher bin, ob die frei zugänglich sind. Der Grund, warum damals dieses ECMF genommen wurde, war
genau, weil ich das und meine Kollegin vor mir so direkt nutzen konnte. Also wenn man sich da in den Account klickt, da steht auch explizit nicht nur Forschung, Wissenschaft, Commercial, da steht explizit auch Public Interest, dass also jeder Bürger Bürgerin sich da bedienen kann und soll. Die
Verkaufsmache, da müsste man persönlich nochmal nachlesen, wie da die Einschränkungen sind. Vielen Dank für diesen sehr interessanten Talk. Einen großen Applaus. Vielen Dank für die Aufmerksamkeit.