Weltwärmestrom Datenbank Projekt: webbasierte Explorationswerkzeuge für Punktdaten
This is a modal window.
Das Video konnte nicht geladen werden, da entweder ein Server- oder Netzwerkfehler auftrat oder das Format nicht unterstützt wird.
Formale Metadaten
Titel |
| |
Serientitel | ||
Anzahl der Teile | 119 | |
Autor | ||
Mitwirkende | ||
Lizenz | CC-Namensnennung 4.0 International: Sie dürfen das Werk bzw. den Inhalt zu jedem legalen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen. | |
Identifikatoren | 10.5446/67684 (DOI) | |
Herausgeber | ||
Erscheinungsjahr | ||
Sprache |
Inhaltliche Metadaten
Fachgebiet | ||
Genre | ||
Abstract |
| |
Schlagwörter |
14
45
50
55
67
69
72
75
78
87
95
00:00
World Wide WebDatenbankImplementierungDatenflussWärmeleitfähigkeitDatenerhebungSchema <Informatik>Fehlende DatenMetadatenLaufzeitAudiovisualisierungPunktSoundverarbeitungDatenbankProjektive EbeneDifferenteKartesische KoordinatenDatenfeldMereologieFlächeninhaltSpeicherabzugStrömungsrichtungDemo <Programm>WasserdampftafelLeistung <Physik>MinimumEnergiedichteAdditionDeskriptive StatistikDatenflussAttributierte GrammatikInformationFokalpunktWeb-ApplikationWärmeleitfähigkeitKommandospracheTermStörungstheorieOrdnung <Mathematik>Schreiben <Datenverarbeitung>Schema <Informatik>Fehlende DatenZugbeanspruchungVorlesung/KonferenzXMLComputeranimation
04:30
AudiovisualisierungLaufzeitDatenbankDatenflussGeoinformatikAnwendungsschichtAPICross-site scriptingDjango <Informatik>PostgreSQLDarstellungsschichtHTMLImplementierungSchema <Informatik>DatenstrukturZeichenketteMinimumMaximumLokales MinimumAttributierte GrammatikDeskriptive StatistikTermKlasse <Mathematik>ZeichenketteFokalpunktInformationObjekt <Kategorie>DatenbankDatenverwaltungQR-CodeWärmeübergangDatentypKartesische KoordinatenDemo <Programm>DateiformatSpannweite <Stochastik>UmwandlungsenthalpiePortal <Internet>FlächentheorieWeb-ApplikationFramework <Informatik>DifferenteIntegralAggregatzustandTypentheorieImplementierungInteraktives FernsehenBootstrap-AggregationElement <Gruppentheorie>SystemplattformTemplatePlotterMAPSelbstrepräsentationDokumentenserverElektronische PublikationSelbst organisierendes SystemFlächeninhaltGraphMaßerweiterungKonstruktor <Informatik>SoftwarewartungRadikal <Mathematik>Projektive EbeneProgrammbibliothekAnalysisInterface <Schaltung>Klassische PhysikPunktENUMKardinalzahlRang <Mathematik>BrowserGanze AbschließungAnwendungsschichtAnwendungssoftwareDateiSchema <Informatik>DatenendgerätDatenmanagementAbfrageZahlenwertComputeranimationDiagrammXML
10:47
Attributierte GrammatikStichprobenfunktionBrowserMAPKartesische KoordinatenDistributionenraumSoftwareentwicklerDatenflussKonfiguration <Informatik>DatenbankPunktTeilmengeStatistikComputeranimation
12:10
ImplementierungDatenflussInformationSchema <Informatik>ImplementierungReiheRechenschieberPolygonRang <Mathematik>Attributierte GrammatikAttributwertDatensatzZugriffSoftwaretestKlasse <Mathematik>QR-CodeCodierungDatentypHistogrammWertverteilungstheorieDigitalfilterMinimumPunktMaximumServerVirtuelles privates NetzwerkInternetExpertensystemFunktionalitätENUMElektronische PublikationKonfiguration <Informatik>QuantilfunktionZahlenbereichDistributionenraumAlgorithmusStatistikWindkanalDemo <Programm>StrömungsrichtungDatenstrukturApp <Programm>Element <Gruppentheorie>MathematikSelbstrepräsentationFilter <Stochastik>TeilmengeRechter WinkelLeistungsbewertungAutomatische HandlungsplanungFlächeninhaltKartesische KoordinatenBasis <Mathematik>DatenfeldInternetworkingBenutzerbeteiligungPortal <Internet>MAPMereologieDienst <Informatik>LastIntegralMapping <Computergraphik>Trennschärfe <Statistik>Ganze FunktionSchnittmengeEinsDifferenteDatenbankPhysikalisches SystemGraphfärbungFunktionalSpannweite <Stochastik>AdditionCodeProjektive EbeneHomepageLokales MinimumData MiningComputeranimation
19:33
AnalysisPolygonPunktLinieDatensatzDateiformatFunktionalitätBerechnungWärmeleitfähigkeitTemperaturverteilungCoxeter-GruppeSchwellwertverfahrenUmwandlungsenthalpieGeradeWärmeübergangKonfiguration <Informatik>Ganze FunktionSchnittmengeElektronische PublikationUnrundheitFunktionalAnalysisDatenflussProfil <Aerodynamik>DigitalisierungKommandospracheRechenbuchNachbarschaft <Mathematik>KonditionszahlDifferenteTabelleAusdruck <Logik>GraphVorlesung/KonferenzComputeranimation
Transkript: Deutsch(automatisch erzeugt)
00:08
Wir hören jetzt einen Vortrag. Da geht es um heiße Punktdaten, Weltwärmestrom-Datenbankprojekte, webbasierte Explorationswerkzeuge für Punktdaten von Niklas Ott von der TU Dresden. Herzlich willkommen. Wir sind gespannt auf deinen Vortrag.
00:23
Ja, vielen Dank für die Vorstellung. Mein Name ist Nikolas Ott, genau, ich bin von der Technischen Universität Dresden und ich stelle euch heute das Projekt Weltwärmestrom-Datenbank vor mit dem Fokus auf den webbasierten Explorationswerkzeugen für Punktdaten basierend auf Vue.js und MapLibre. Für den Ablauf der Präsentation erstmal eine kleine Einführung.
00:42
Was ist Wärmestrom überhaupt und was sind die Herausforderungen? Anschließend geht es um das Weltwärmestrom-Datenbankprojekt selber, wo ich auch angestellt bin. Dann kommen wir zu der Architektur und Implementierung, wie wir es technisch umgesetzt haben. Dann gibt es eine kleine Live-Demo und zu guter Letzt einen Ausblick. Wärmestrom ist eine abgeleitete Größe.
01:02
Das Bildet quasi den Energiefluss vom Erdkern zur Erdoberfläche da und erfordert zusätzliche Informationen zum Temperaturgradienten, also Temperaturmessungen in unterschiedlichen Tiefen und der Wärmeleitfähigkeit des Gesteins. Anwendung findet es in der Lithosphäre, also in der Erdkruste und dem äußeren Teil des Erdmantels
01:22
oder in der Geothermie oder auch in Bereichen der Klimaforschung, wie zum Beispiel der Verkletscherung. Die Daten werden hier schematisch mal dargestellt zu erhoben. Es handelt sich dabei immer um Bohrungen. Das eine ist auf dem Festland, das andere ist im Meer. Dabei wird ein Bohrkern erhoben
01:42
und anhand des Bohrkerns kann man das Gestein und die Wärmeleitfähigkeit ableiten und zudem auch die Temperatur in den unterschiedlichen Tiefen messen, woraus man dann den Wärmestromwert generieren kann. Anschließend werden die Daten in das neue Datenschema überführt, wozu noch zusätzliche Attribute eingetragen werden, die die Qualität der Werte sichern sollen.
02:03
Die Daten, die dann erhoben werden, landen in der Global Heatflow Database. Hier ist exemplarisch mal dargestellt das Release von 2023. Hierbei handelt es sich um ca. 73.000 Datenpunkte. Verwaltet und auch bereitgestellt wird es von der International Heatflow Commission. Die kümmern sich darum und haben mittlerweile auch einen Datenbestand,
02:23
der weit über 60 Jahre hinausgeht. Das bedeutet, es sind auch tatsächlich historische Daten dabei. Und aktuell sind die Kollegen in Potsdam dabei, auch die historischen Daten in dieses neue Datenschema, das im Zuge des Projektes auch mit der International Heatflow Commission zusammen erarbeitet wurde. Das Release 2024 steht auch kurz vor der Veröffentlichung.
02:43
Das dürfte in den nächsten paar Wochen kommen. Die Herausforderungen hierbei sind einmal, was die Dokumentation angeht. Wie bereits schon erwähnt, es handelt sich um alte Daten, teilweise fehlende Daten und Metadaten, um Nutzenden einfach auch die Qualität der Daten transparent zu gestalten.
03:03
Zudem ist die Datenbeschreibung heterogen. Das bedeutet, manche Attribute heißen in unterschiedlichen Beschreibungen unterschiedlich. Man kann es da nicht direkt zuordnen. Zudem hat es auch in der Wissenschaft Herausforderungen gegeben, zum Beispiel weitere Effekte, die den Wärmestromwert beeinflussen, wie zum Beispiel bei den Marienmessungen die Wassertemperatur direkt unten am Bohrkern
03:24
oder auch die Weiterentwicklung der Methoden, wie man quasi die ganzen Effekte bestimmen kann. Das Ziel des Weltwärmestromdatenbankprojektes ist es, quasi eine neue Forschungsdateninfrastruktur umzusetzen für die International Heatflow Commission,
03:41
und da konkret geht es um die Global Heatflow Database. Hierbei sollen nicht nur die Daten angeboten werden, sondern eine Art One-Stop-Shop implementiert werden, wo es darum geht, auch die Daten bereitzustellen, Veröffentlichungsdienste anzubieten, Projekte zu verlinken, Literatur zu verlinken und auch Forschende und jeweils die Institute.
04:03
Dabei sollen die folgenden Aspekte berücksichtigt werden, dass die Daten fair vorliegen, also findable, accessible, interoperable und reusable. Zudem sollen unsere Daten auch nicht nur auf unserer Forschungsdateninfrastruktur vorliegen, sondern auch in größere Projekte wie zum Beispiel NFDI4EARF,
04:21
also die Nationale Forschungsdateninfrastruktur, im Bereich der Erzsystemwissenschaften eingebunden werden. Zukünftige Nutzende, die Heatflow-Werte erheben, sollen auch die Möglichkeit haben, ihre Daten über die Plattform zu veröffentlichen. Dabei können sie ein Template hochladen. Es wird geprüft, ob die Attribute, die erforderlich sind, ausgefüllt sind,
04:42
ob die den Datentypen entsprechen, ob die sich auch innerhalb einer Range befinden, die definiert ist, oder bei klassifizierten Attributen, ob auch die jeweiligen Klassen abgedeckt sind. Zudem, um die Daten auch im Browser noch ein bisschen erkundbar zu machen, werden Karten, Visualisierungs- und Analysewerkzeuge bereitgestellt,
05:00
was hier jetzt in dem Titel als Explorationswerkzeuge zusammengefasst wurde. Die Projektorganisation ist in drei Arbeitsbereiche aufgeteilt. Da haben wir einmal Gfz-Geoenergie. Die kümmern sich ein bisschen um den thematischen Inhalt, also das Datenmanagement, die Datenanreicherung, Qualitätssicherung, wie gerade eben schon erwähnt, also historische Daten mit Attributen zu versehen,
05:23
die sie dann aus der Literatur noch gewinnen. Und zudem auch die Heatflow-Community mit einbinden, dass tatsächlich auch zukünftige Nutzende da mit dabei sind. Dann haben wir noch Gfz-Bibliothek und Informationsdienste. Die kümmern sich um das übergeordnete Webportal.
05:42
Die kümmern sich um das Backend, also die Datenhaltung, was die Daten selber angeht, aber auch Literatur und Forschendeinstitute, wie gerade eben schon erwähnt, und um die faire Datenbereitstellung. Und das letzte Arbeitspaket ist quasi von der Technischen Universität Dresden. Da bin ich repräsentativ hier heute vor Ort. Wir haben uns um die Datenvisualisierung, Exploration und Analyse gekümmert.
06:06
Wie wir das Ganze technisch umgesetzt haben, ist hier auf der Grafik mal schematisch dargestellt. Wir haben eine klassische Dreischicht-Architektur. Auf der Datenschicht haben wir eine Postgres-Datenbank mit einer Postgres-Extension. Auf der Anwendungsschicht ist eine auf Django-basierende Webanwendung implementiert worden
06:27
von einem Kollegen in Potsdam. Und zwar handelt es sich dabei um dieses GeoLuminate, das basiert auf Django, und kümmert sich um den Aufbau und die Pflege von gemeinschaftlich betriebenen Forschungsdatenbanken. Auf der Darstellungssicht, hier auf der linken Seite,
06:43
ist jetzt nur der Fokus auf den Explorationswerkzeugen. Das ist ein von sich losgelöstes Tool. Hierbei handelt es sich um eine Vue.js-Anwendung. Das ist ein JavaScript-Framework mit der Einbindung von Pinyar. Das ist ein Library fürs Datenmanagement und auch das State-Management innerhalb der Anwendung
07:02
Für die Interaktion mit Nutzenden und unserer Anwendung haben wir noch Bootstrap eingebaut, für Buttons, Elemente, die von der Seite rein fahren, Pipapo, und für Grafiken noch Plotly. Und als zentraler Aspekt ist noch mehr Blipra eingebunden für die Kartendarstellung.
07:22
Wenn ihr Lust habt, findet ihr das GitHub Repository auch hier mit dem QR-Akkord. Wie gerade schon erwähnt, gibt es zwei Anwendungen. Wir haben einmal diese Django-Anwendung und dann auch diese Vue-Anwendung. Die werden miteinander integriert, indem die Vue-Anwendung über Webpack gebündelt wird
07:40
zu einer JavaScript-File, einer HTML-File und einer CSS-File. Anschließend werden die Dateien über NPM als Paket hochgeladen und können anschließend in der Django-Anwendung wieder installiert werden über das Terminal. Das hat den Vorteil, dass NPM quasi die ganzen Abhängigkeiten zwischen den Bibliotheken übernimmt.
08:01
Es gibt keine Probleme mit Versionierungen und so weiter. Wie die Daten aussehen, die quasi zwischen den Anwendungen hin und her gereicht werden, ist hier dargestellt. Wir haben quasi bei der Django-Anwendung eine API-Schnittstelle implementiert,
08:22
über die die Daten gefetcht werden können. Das sieht man hier auf der linken Seite. Man erhält eine klassische Geo-Chasing-Feature-Collection mit Point-Features. Die haben ihre Koordinaten, die haben ihre Attribute. Hier an dem Beispiel Exploration-Method und den Q-Wert. Der Q-Wert ist der Heatflow-Wert.
08:41
Das Datenschema ist auch noch deutlich umfangreicher. Hier ist nur zwei Beispiele rausgepickt für die Datentypen. Einmal String mit Enum und einmal Q für numerische Datentypen. Auf der rechten Seite haben wir das Datenschema, der API generell. Und über das Datenschema, der API, kann man dann auch wieder das Datenschema der gefetschten Daten abfragen.
09:03
Wir sehen hier auch wieder die zwei Attribute, Exploration-Method und Q, über die wir dann quasi mehr Informationen erhalten können. Hier haben wir jetzt einmal diese Exploration-Method. Hier behandelt es sich um ein String-Attribut mit definierten Klassen. Das ist hier dargestellt über die Referenzierung auf ein anderes Objekt,
09:24
in dem die erlaubten Klassen beinhaltet sind. Zudem können wir noch Informationen abgreifen über den leserlicheren Titel oder eine zusätzliche Beschreibung. Bei den numerischen Werten finden wir hier auch Attribute, die wir gerade eben schon gesehen haben,
09:42
also den Titel und die Beschreibung. Da haben wir jetzt aber noch zusätzlich die Unit, also die Einheit, in welchem der Zahlenwert vorliegt. Wir haben eine Minimum-Maximum-Range und noch eine Spezifizierung des Formats. Dadurch können wir später einfach benutzerdefinierte Oberflächen anbieten für die unterschiedlichen Datentypen und Nutzenden quasi unterschiedliche Angebote bieten.
10:07
Die Art der Implementierung hatte bei uns den Vorteil, dass das Datenschema, was hier in der Anwendung nachher zugeschickt wird, noch nicht ganz klar war und wir so einfach relativ flexibel auch unterschiedliche Attribute, also neue Attribute wieder aufnehmen können,
10:21
Attribute, die vielleicht auch nicht so relevant sind, wieder rausstreichen können. Und wir implementieren quasi die Anwendung auf den beiden Daten basierend. Dann würde ich mal zu einer Live-Demo kommen. Dafür stelle ich mich, glaube ich, mal hier rüber.
10:48
Und zwar sieht die Anwendung bisher so aus. Man muss dazu sagen, das sind gerade Dummy-Daten. Also die Verteilung auf der Erde ist random generiert aus Entwicklungsgründen. Das ist noch nicht der eigentliche Datensatz, aber von den Attributen, die die einzelnen Punkte beinhalten,
11:04
entspricht quasi der Global Heatflow Database. Wir haben jetzt hier die Möglichkeit, einmal die Datenpunkte selber anzuklicken und uns die Attribute der einzelnen Punkte genau anzuschauen. Hier ist es auch erst mal so ein kleines Subset.
11:20
Da müssen wir noch beschließen, was im Endeffekt da darzustellen ist. Und jetzt können wir uns mal probieren, in die Situation reinzuversetzen für zukünftige Nutzende, die tatsächlich auch mit den Heatflow-Daten arbeiten und die sich vielleicht bereits im Browser einen ersten Überblick verschaffen wollen. Was gibt es überhaupt für Daten? Wie sind die verteilt? Welche Daten sind für mein Forschungsfeld relevant?
11:42
Und wie sind die überhaupt auch statistisch analysiert? Dafür haben wir hier in der Anwendung selber unten so eine Navigationsreiste mit den vier Bereichen. Das sind einmal Settings, Filter, Statistics und Analyzes. Und die können dann jeweils angesteuert werden.
12:00
Machen wir das einfach mal. Wir gehen einfach mal davon aus, dass hier gerade uns die Hintergrundkarte nicht gefällt. Dann können wir hier einfach über die Anwendung eine andere Hintergrundkarte wählen. Oder auch, ich glaube Internet ist gerade aus, aber das ist eigentlich ein Webmap-Tileservice, der ein bisschen langsamer lädt, exemplarisch hier noch eingebunden. Das bedeutet, wir können auch flexibel andere Datentypen oder andere Hintergrundkarten
12:22
des Typs Webmap-Tileservice da integrieren. Wenn uns irgendwie die Punkte noch ein bisschen zu klein sind, weil wir gerade nicht sehen, wo die überhaupt sind, können wir hier noch die Benutzer definiert verstellen. Oder auch einfach die Farbe der einzelnen Punkte manipulieren. Um erst das Gefühl zu bekommen, wie die Attribute oder wie die Punkte
12:42
anhand ihrer Attribute verteilt sind, gibt es hier noch die Möglichkeit über dieses Data-Driven-Coloring sich einen Attribut auszuwählen. Da nehmen wir einfach mal wieder den Heatflow-Wert, der kommt uns bekannt vor aus der Schemadatei, und klicken den an. Und dann sehen wir, dass die Punkte anhand ihrer Werte eingefärbt werden.
13:01
Wir haben zusätzlich noch die Möglichkeit, die Art der Klassifizierung zu wählen. Hier ist einmal quantil. Das bedeutet, jede Klasse hat dieselbe Anzahl an Datenpunkten. Oder wir können hier noch Changs, das ist Natural Breaks, quasi einen anderen Klassifizierungsalgorithmus auswählen. Falls uns diese vier Klassen, die hier eingestellt sind,
13:21
noch zu grob aufgelöst sind, können wir noch die Anzahl an Klassen definieren. Also nehmen wir einfach mal, ich sehe es gerade leider nicht, aber neun. Das klingt doch gut. Und um zu wissen, welche Farbe überhaupt welchem Wert oder welcher Klasse zugeordnet ist, können wir dann hier noch über die Legende quasi abfragen.
13:41
Das selbe gilt auch für die Enum-Attribute. Hier gibt es quasi diese Klassifizierungsmethode nicht, weil es ist überflüssig. Die Klassen sind bereits vorgegeben. Die können wir uns einfach aus der Schemadatei ziehen, anhand der Werte dann auch die Punkte eingefärbt werden.
14:04
Beim nächsten Panel, beim Filtern, kann man sich quasi ein kleines Subset selber zusammenstellen. Hier gibt es die Möglichkeit, einmal anhand von Attributwerten zu filtern oder auch anhand der Location zu filtern. Da legen wir einfach mal zwei Filter an.
14:20
Also diese Elemente hier lassen sich beliebig in Reihe schalten, einfach ein neues Element hinzufügen. Und dann nehmen wir hier auch wieder den Q-Wert. Für die numerischen Werte haben wir einen Slider gewählt, bei dem man quasi das Minimum und Maximum auswählen kann der Datenpunkte, die noch dargestellt werden sollen. Das lässt sich dann auch verschieben und live verändert sich dann auch die Darstellung der Punkte.
14:50
Bei den Enumerate-Attributen, hier wieder die Exploration Method, hat man hier schon eine Vorauswahl wieder aus der Schemadatei. Die Werte, die es gibt, die kann man sich dann zusammenklicken nach wie man es gerne hätte.
15:05
Nehmen wir hier mal Trilling und Mining. Also lassen sich auch mehrere Werte gleichzeitig auswählen, die dann auch wieder gelöscht werden können. Und so erhalten wir schon eine Vorselektion anhand von Punkten, die diese Filterkriterien erfüllen.
15:20
Wenn wir uns jetzt noch für eine besondere Region interessieren, können wir hier noch ein Polygon zeichnen, das dann quasi das Kriterium ist, welche Punkte liegen innerhalb des Polygons. An und für sich sind die Filter so miteinander verknüpft, dass quasi die einzelnen Datenpunkte diese Reihe an Filtern durchlaufen.
15:44
Das bedeutet in diesem Fall, wir haben einmal diesen Heatflow Wert, liegt der Wert innerhalb der Range und erfüllt das zusätzliche Attribut Tunnelling oder Trilling und liegt innerhalb des Polygons. Das bedeutet, die Filter sind alle mit einem Logischen und verbunden.
16:02
Jetzt haben wir hier schon so eine kleine Vorauswahl an Punkten getroffen. Und jetzt schauen wir uns die vielleicht mal noch ein bisschen statistisch an. Genau, und gehen dafür einfach aufs nächste Panel.
16:22
Hier hat man dann die Auswahl, entweder den gesamten Datensatz sich analysieren zu lassen oder nur die gefilterten. Okay, genau, dann nehmen wir einfach mal hier den gesamten Datensatz. Hier ist auch wieder die Unterscheidung quasi bei den einzelnen Attributen.
16:44
Was der Datentyp ist, man erhält im Anschluss ein Histogramm über die Werteverteilung und hier unten noch tabellarisch so grundstatistische Werte wie Minimum, Maximum, Min, genau, und die Anzahl der Punkte.
17:03
Hier kann man dann auch noch auf den gefilterten Datensatz wechseln und man sieht dadurch, dass wir davor bei den Filtern ja nur Tunnelling und Trilling ausgewählt haben, ist es wenig überraschend, dass hier auch nur die zwei Klassen dargestellt sind. Und man kann hier noch die einzelne Anzahl an Punkten ablesen.
17:23
Genau, das war's mit der Live-Demo, dann würde ich wieder zurück zur Präsentation. Hier noch eine kleine Zusammenfassung und ein Ausblick. Aktuell haben wir quasi diese neue Global Heatflow-Database-Struktur schon umgesetzt
17:44
und die Kollegen in Potsdam sind fleißig dabei, die Daten in das neue Datenschema zu überführen, dass die Daten auch einfach transparent und standardisiert vorliegen. Zudem haben wir das Webportal auch mit der View-App integriert.
18:04
Das bedeutet, es funktioniert hier gerade nicht, weil unser Server beim GFZ gehostet wird und man da nur über VPN Zugriff hat. Das ist aber auf jeden Fall der nächste Schritt, das öffentlich zugänglich zu machen. Zudem sind die Grundfunktionalitäten bereits implementiert. Und als kleiner Ausblick ist direkt nach der FOSCIS eine Evaluierung mit Stakeholdern geplant.
18:27
Dafür haben wir Experten aus vier Bereichen eingeladen, zum einen zukünftige Nutzende. Leute aus der Geoinformatik, aus den Datenwesen und dann auch einfach aus anderen Bereichen der Geowissenschaften,
18:40
die anhand unseres Fragebogens mal die Anwendung testen sollen und schauen, ob es ihnen überhaupt taugt, ob sie ihr Arbeitsfeld damit umsetzen können oder ob noch Funktionalitäten fehlen. Weitere Schritte sind noch die Implementierung von fehlenden Funktionalitäten und natürlich die Anwendung öffentlich schalten.
19:02
Zu guter Letzt noch der letzte Schritt ist natürlich die Qualitätssicherung des Codes durch Tests und Dokumentation, sodass die Anwendung vielleicht auch in anderen Bereichen verwendet werden kann. Dann wären wir schon am Ende der Präsentation.
19:20
Hier ist noch unser Projektteam dargestellt. Unten über den QR-Code kommt ihr auf unsere Projekt-Homepage. Und damit bedanke ich mich für eure Aufmerksamkeit. Vielen Dank Niklas für den Vortrag.
19:44
Gibt es Fragen hier im Raum? Von euch jemand? Weil hier online gab es auch keine, dann hätte ich noch eine. Du hast geschrieben, fehlende Funktionalitäten sollen implementiert werden. Welche wären das? Genau, ich glaube, das habe ich gerade übersprungen. Und zwar wäre das...
20:04
Hier noch dieses Analyzes Panel. Da sollen Heatflow-spezifische Analysen bereitgestellt werden, wie zum Beispiel ein digitales Bohrloch, das dann durch die Berechnung von Nachbarschaftsverhältnissen zu anderen Punkten berechnet werden kann. Dabei geht es um den Temperaturverlauf in Abhängigkeit der Tiefe.
20:26
Und dafür hat man dann als Grundlage zum Beispiel die Gesteinsschichten an unterschiedlichen Orten. Dann hat man eine Tabelle, wo man weiß, ok, Granit hat die Wärmeleitfähigkeit als Beispiel. Und anhand dessen kann man einfache Formel anwenden und dann Grafer stellen, wie die Temperatur quasi in Abhängigkeit der Tiefe verläuft.
20:42
Und zudem soll noch ein 2D-Profil implementiert werden, wo Nutzende dann eine Linie zeichnen können und dann auch wieder durch Nachbarschaftsbeziehungen zu anderen Punkten werden die Werte auf eine Linie geplottet und so erhält man dann ein Profil. Und kann ich mir die Daten dann da auch runterladen, wenn ich die selber mit meinen eigenen Tools auswerten möchte?
21:04
Genau, also es gibt die Möglichkeit hier bei dem Filter, also man kann entweder den gesamten Datensatz runterladen oder auch hier schon über den Download-Button quasi die gefilterten Daten runterladen und es wird auch noch die Möglichkeit geben, das nicht als Geo-Chasen zu downloaden,
21:23
sondern auch als CSV-Datei oder gängige Formate. Ok, dann vielen Dank. Nochmal einen finalen Applaus für den Vortrag. Jetzt ist hier doch noch eine Frage reingekommen.
21:40
Werden die Daten auch mittels WMS und WFS oder anderen OGC-Standards bereitgestellt? Haben wir bisher noch nicht umgesetzt, aber wir waren auch schon bei dem OGC API Features dran und überlegen das einzubinden, weil es einfach relativ eine geringe Hemmschwelle ist,
22:00
das dann auch ins QGIS zum Beispiel einzuladen, also um einfach die Daten verfügbar zu machen. Vielen Dank.
Empfehlungen
Serie mit 8 Medien