Potentiale eines fernerkundungsgestützten, objektbasierten Monitoringsystems im Großschutzgebiet Nationalpark Hunsrück-Hochwald
This is a modal window.
The media could not be loaded, either because the server or network failed or because the format is not supported.
Formal Metadata
Title |
| |
Title of Series | ||
Number of Parts | 88 | |
Author | ||
License | CC Attribution 4.0 International: You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor. | |
Identifiers | 10.5446/56795 (DOI) | |
Publisher | ||
Release Date | ||
Language |
Content Metadata
Subject Area | ||
Genre | ||
Abstract |
| |
Keywords |
16
20
32
34
45
46
67
75
78
79
80
85
00:00
GeomaticsMessage sequence chartComputer programmingDerived set (mathematics)DatabaseImage processingGlattheit <Mathematik>KompaktheitGeometryAutocorrelationVarianceInformationSurfaceSample (statistics)Expert systemObject (grammar)Interface (chemistry)Execution unitDerived set (mathematics)Glattheit <Mathematik>Image processingGeomaticsKompaktheitDatabaseComputer programmingAutocorrelationStandard deviationVariancePotential gameGeodesicHöheStatistikerKennzahl
06:56
GeometryKompaktheitGlattheit <Mathematik>AutocorrelationVarianceGrass (card game)Similarity matrixFocus (optics)Image processingVorverarbeitungVerkantungData conversionResampling (statistics)HTMLTexturInformationObject (grammar)Attribute grammarVector graphicsTexturInformationExecution unitData streamSurfaceModule (mathematics)GoogleDiagramGeometryInterface (chemistry)Version <Informatik>ImplementationAutocorrelationVarianceStatistikerMathematical structureIterationFocus (optics)Similarity matrixQuery languageGeometryComputer animation
13:46
Data managementDerived set (mathematics)SynchronizationDatabaseBerechnungTime seriesZeitreiheData conversionComputer programmingScalar potentialTwitterWorld Wide WebSmart cardInformationObject (grammar)Data managementZeitreiheLink (knot theory)Query languageSynchronizationDerived set (mathematics)Execution unitImplementationComputer programmingExpert systemSurfaceDatabaseData conversionVersion <Informatik>Berechnung
20:35
Online chatDatabaseGebiet <Mathematik>Meeting/Interview
21:02
UMLBoom (sailing)ImplementationObject (grammar)DatenerhebungBerechnungForceVersion <Informatik>Derived set (mathematics)SurfaceGebiet <Mathematik>Meeting/Interview
Transcript: German(auto-generated)
00:08
Einen schönen Nachmittag wünsche ich allen Teilnehmern der jetzt folgenden Sitzung zum Thema Rasterdaten, Fernerkundung und offene Standards in diesem Bereich und freue mich gleich im ersten Vortrag anfangen zu dürfen zum Thema
00:28
Monitoring mit Hilfe fernerkundigen Naturwurfsgebieten. Film ab für Melanie Bauchner von der Universität Trier im Nationalpark Hunsrück. Herzlich willkommen zu meinem Vortrag über die Potenziale eines
00:42
fernerkundungsgestützten objektbasierten Monitoring Systems im Großschutzgebiet Nationalpark Hunsrück Hochwald. Mein Name ist Melanie Bauchner. Ich bin Mitarbeiterin und Doktorantin an der Universität Trier im Cluster Erdbeobachtung und Klimaprozesse, wobei ich hier speziell im Fach Umweltfernerkundung und Geoinformatik tätig bin.
01:02
Die Potenziale, über die ich heute sprechen will, künftige Forschungsarbeiten, die eventuell in dem Kontext noch stattfinden können, wobei hier das fernerkundungsgestützte objektbasierte Monitoring System ein Resultat aus zwei Forschungsprojekten ist, die aneinander anschließen. Also hier die Forschungsförderungen sind dabei immer in Kollaboration der Universität Trier mit dem Nationalpark Hunsrück Hochwald
01:26
und der Forschungsanstalt für Waldökologie und Forstwissenschaften der Landesforsten Rheinland-Pfalz entstanden, wobei hier die erste Förderung 2016 gestartet ist, woran sich dann eine anschließende Forschungsförderung 2018 angeschlossen hat, in der das System nochmal überarbeitet wurde.
01:45
Ein bisschen zum Hintergrund, zum Nationalpark, bevor wir in die methodischen Konzepte einsteigen. Der Nationalpark Hunsrück Hochwald ist ein recht junger Nationalpark, der 2015 gegründet wurde und sich über zwei Bundesländer erstreckt. Zum einen Rheinland-Pfalz, zum anderen das Saarland. Die geschützten Lebensräume, die hier,
02:05
wie man auf der linken Seite sieht, sich auf den Höhen des Hunsrück befinden, sind vor allem bodensaure Buchen- und Eichenwälder, wie auch Blockschutthalden und Hangmoore. Die Hangmoore sind hier in dem Kontext ganz besonders zu nennen, da diese unter anderem auch aktiv renaturiert werden im Nationalpark.
02:24
Wir haben im Nationalpark verschiedene Naturzonen und Pflegezonen. Die Naturzone Wildnisbereiche bedeckt 30 Prozent des Nationalparks, wobei hier der Natur freien Lauf gelassen wird. 45 Prozent Entwicklungsbereiche werden für forstliche Aktivitäten genutzt,
02:44
wie Waldumbau, Renaturierungsmaßnahmen der eben genannten Hangmoore zum Beispiel und unter anderem auch die Pflanzung von Buchen unter Fichtenwald. Die restlichen 25 Prozent der Fläche sind reserviert für eine schonende Nutzung, die zum Beispiel auch den Erhalt und die Entwicklung
03:03
extensiv genutzter Naturkulturlandschaftsteile beinhaltet und eine Art Puffer zu den Naturzonen darstellt. Innerhalb des Nationalparks wurde seit der Gründung eine Art stratifiziert zufälliges Flächenstichprobenkonzept adaptiert,
03:25
das in dieser vorher genannten forstlichen Forschungsförderung entwickelt wurde. Hierbei ging es darum, Flächen zu identifizieren, die dann in bestimmte naturräumliche Einheiten fallen,
03:41
um eben innerhalb dieser Stratifizierung Stichproben setzen zu können. Die Optimierung des Monitoring-Verfahrens führte zur Notwendigkeit, dass es ein räumlich hochauflösendes, flächendeckendes, objektorientiertes, unabhängiges, objektives, aktualisierbares und reproduzierbares Flächensystem gibt,
04:06
auf deren Basis dann eben diese zufälligen Stichproben gesetzt werden können. Aus den verfügbaren Geodaten sollten Informationsebenen gefasst werden, die dann analysiert zur Ableitung räumlicher Einheiten führen.
04:22
Diese räumlichen Einheiten sollten dann durch Experten bewertet werden. Weitere Informationsebenen können hinzugefügt werden, um eben diese Ableitung auch zu gewähren. Anschließend würde dann eine akzeptierte naturräumliche Einheit stattfinden, die dann, wie links in dem Beispiel zu sehen, innerhalb des Stratum dazu führen kann,
04:45
dass dort ein zufälliges Sampling-Design ausgeführt wird. Das heißt, die Basis für das stratifiziert zufällige Stichproben-Design muss eine flächenhafte Information sein, in der wir unsere naturräumlichen Einheiten ableiten können,
05:03
um dann innerhalb dieser naturräumlichen Einheiten unsere Stichproben setzen zu können. Die Entwicklung dieser flächenhaften Information, die Ableitung der räumlichen Einheiten selbst, wurde in dem Fall flächendeckend und räumlich hochauflösend als Basis auf den digitalen Ortofotos berechnet.
05:27
Wir haben hier ein digitales Ortofoto mit 20 cm Auflösung, bei dem auch der Kanal Infrarot zur Verfügung steht, wobei hier die Basis dann für die Extraktion der räumlichen Einheiten eine geografisch objektbasierte Bildanalyse ist,
05:43
die Datenbasis eben diese Luftbilder darstellen, auf denen dann eine Segmentierung stattfindet, die die Fläche in möglichst homogene, spektral-homogene Flächen unterteilt, woraufhin Extraktion von Merkmalen aus weiteren Geodaten ausgeführt wird.
06:02
Wir sind jetzt im Bereich, dass wir aus den räumlich hochauflösenden Informationen die Komplexität etwas rausnehmen durch die Erstellung von Objekten, auf denen dann durch zonale Statistiken und andere Extraktionsmechanismen Merkmale gespeichert werden können.
06:20
Die Güte der Segmentierung muss hier natürlich auch bewertet werden. Die Segmentierung an sich kann natürlich sehr subjektiv sein und muss natürlich im Anbetracht der gewünschten abgegrenzten Objekte bewertet werden. Das kann einerseits durch eine visuelle Bewertung geschehen, in der die Komplexität der Segmente bzw. die Abgrenzbarkeit der gewünschten Objekte bewertet wird.
06:45
Auch die Glattheit und Kompaktheit der Segmente eventuell eine Rolle spielt. Die Güte der Segmentierung kann aber auch durch datengetriebene Analyse bewertet werden, wobei wir hier intra- und intersegmentbasierte Kenngrößen wie Autokorrelation und Varianz uns anschauen können.
07:02
Die Bewertung der Geometrie im Vergleich zu Referenzdaten ist auch noch eine Möglichkeit, aus der wir hier allerdings nicht schöpfen konnten, da diese Geometrien nicht vorhanden waren. Die daraus entstandenen räumlichen Einheiten werden im Kontext des Projektes primäre Objekte genannt. Das sind eben die räumlichen Objekte, die dann auf dem Luftbild basiert entstanden sind.
07:25
In der Version 1 der 2015 erstellten primären Objekte lag der Fokus auf der Homogenität innerhalb der Flächen, wobei hier 20 cm Ortefotokacheln, also 51 cm aus Rheinland-Pfalz und 4 cm aus dem Saarland,
07:43
jeweils prozessiert wurden mit der Mien-Shift-Segmentierung aus der Orfeo Toolbox und weiterhin dann die Zusammenführung der Segmente speziell an den Kachelgrenzen nötig war, wobei hier eine eigene Implementierung nach euklidischem Distanzmaß gewählt wurde.
08:01
Die zweite Version der primären Objekte, die 2017 erstellt wurde in der Anschlussförderung, da lag der Fokus eher auf der Praktikabilität. Man hat bei der Version 1 der primären Segmente gemerkt, dass zwar die Segmente sehr homogen sind, dass aber die Komplexität die Anwendbarkeit etwas beschränkt hat.
08:25
Wir hatten in der Version 1 Probleme, die zonalen Statistiken zu berechnen. Man kann sich hier vorstellen, wir haben einige Skalenprobleme, wenn die Strukturen der Objekte so kleinskalig sind, wobei wir versucht haben, in der zweiten Iteration der Objekte eben diese ein bisschen praktikabler zu machen.
08:47
Die Flächen sollten größer werden, die Flächen sollten in ihrer Geometrie weniger komplex werden und idealerweise auch nicht in diese Schattenbereiche reinwachsen durch die Segmentierung.
09:01
Wir haben uns entschieden, die Ortefotokacheln statt auf 20 cm auf 2,5 m runter zu skalieren, ein Mosaik der ganzen Kacheln zu bilden, worauf wir dann Region-Growing-Segmentierung aus Kraskis angewendet haben. Wir haben die Segmentierung, die in Kraskis umgesetzt war, fünf Testgebiete werden festgelegt.
09:26
Hierbei wird das Modul Isegment Unsupervised Parameter Optimization, wobei wir hier das Python-Script genutzt haben und statt dem Standardsegmentierungsmodul in Kraskis das Segmentierungsmodul des GSOC, Google Summer of Code, genutzt haben, in dem auch Formparameter anzugeben sind.
09:51
Die Mindestgröße und die Formparameter wurden entsprechend festgehalten und durch die Parameteroptimisierung wurde der Grenzwertparameter für die Testgebiete erstellt.
10:03
Auf der rechten Seite zu sehen ist, mit einem Optimierungswert zu tun, der sich aus der Autokorrelation und der Varianz intra- und intersegmentärer Werte ergibt. Das Diagramm ist so zu lesen, dass je höher dieser F-Wert, desto optimaler ist
10:21
diese Segmentierungsgrenzwert für die entsprechende Fläche. Wir sehen, dass sich hier dann die optimalen Werte zwischen 3,5 und 3,75 eingependelt haben, wobei man hier dann meistens den niedrigeren Wert wählt. Man sieht unten in den Bildausschnitten, was ein höherer Grenzwert bedeutet.
10:43
Auf der linken Seite sehen wir eher kleinere Segmente, die sehr homogene Flächen umfassen. Je höher der Grenzwert wird, immer mehr die Segmentgröße sich erhöht und es eben auch sein kann, dass homogene Flächen entsprechend zusammengefasst werden. Nachdem nun der optimale Grenzwert festgelegt ist,
11:02
kann die Region-Growing-Segmentierung dann auf dem Gesamtgebiet ausgeführt werden und das Ergebnis davon sind dann entsprechend die primären Objekte. Der nächste Part wäre, dass wir für unsere primären Objekte jetzt natürlich auch kontinuierliche Informationsebenen brauchen, die möglichst unabhängig zu den forstlich-administrativen Einheiten sein sollen
11:23
und die die Beschreibung der Objekte zulässt. Das heißt, wir statten die primären Objekte mit weiteren Attributen aus. Diese Attribute können aus Rasterdaten, Vektordaten oder auch aus anderen sekundären Informationen, thematischen Informationen wie Feuchtekartierungen, Bodenkartierungen stammen.
11:41
Und wir implementieren natürlich hier sehr viele verschiedene Datenströme. Satellitenbilder, Luftbilder, wir können drohenden Daten implementieren, Höhen- und Oberflächenmodelle und thematische Informationen, wobei wir dann an Baumarten, Baumhöhen, Waldtypenverteilung,
12:01
Topographie, Form, Textur und Spektrum, Veränderung und Phänologie der Flächen interessiert sind. Ein Beispiel sehen wir hier. Das ist die Waldtypenstratifizierung, die Mischungsanteile, die daraus abgeleitet werden pro Objekt. Wir haben Textur und die Nah- und Vorwortinformation aus der dann Laub- und Nadelwald
12:23
und die Mischungsanteile dieser dann den Objekten zur Verfügung stehen. Wie sieht das Ganze dann in dem Kontext unseres objektbasierten Monitoring-Systems aus? Wir haben die Informationsebene Waldtypenstratifizierung, die uns den Anteil Laubwald und Anteil Nadelwald pro primäres Objekt liefert.
12:45
Wir können dann innerhalb dieser Objekte innerhalb des Nationalparks nach zum Beispiel reinem Nadelwald suchen. Wir können rein Laubwald suchen. Wir können Mischwald oder nadeldominierte Mischbestände abfragen, was dann eben durch die Attribute auf den Objekten möglich ist.
13:04
Die aus den Luftbildern abgeleiteten primären Objekte sind die im Nationalpark beständigen Vektorgeometrien, die dann mit ausgewählten Informationen angereichert werden und die dann anhand dieser Attribute gefiltert werden sollen. Wir haben also Informationsebene, die uns einen unterschiedlichen Informationsgehalt
13:23
für unsere Attribute liefern kann, die in einer Datenbankstruktur vorgehalten werden. Wir haben zum Beispiel die Bestandshöhe Anteil Laubwald, Anteil Nadelwald und so weiter und können dann anhand dieser Informationsebene zum Beispiel Buchenreinbestände abfragen. Der Nutzer im Nationalpark kann Identifizierung der Flächen auch nochmal überarbeitet werden.
13:49
Es kann identifiziert werden, welche Informationsebenen sind denn noch notwendig, um bestimmte andere naturräumliche Einheiten abzugrenzen oder zu identifizieren. Und es ist möglich, eben auch diese Abfragen dann vorzuhalten.
14:06
Also es ist eine gewisse Transparenz, die hier dahinter steht. Wir haben es dementsprechend eher mit problemorientierten Abfragen zu tun, als mit statischen Karten. Wir haben die Zentrale Datenverwaltung im Nationalpark, im Nationalparkamt in einer PostGIS-Datenbank.
14:23
Wir haben problemorientierte individuelle Abfragen, die entsprechend des Problems dann auf die Stratifizierung der Flächen hinzugreifen kann. Wir sind insofern objektiv mit diesen Abfragen und wir haben natürlich auch eine hohe Aktualisierbarkeit und Reproduzierbarkeit
14:42
der entsprechenden Informationen, die wir hier herausziehen. Im Kontext dieses stratifiziert zufälligen Stichprobendesigns kommt jetzt noch der Kontext eines Kugelsplugins ins Spiel, wobei hier die Implementierung in einer PostGIS-Datenbank stattgefunden hat, die eine Speicherung und Synchronisierung zwischen den Experten der Abfragen der naturräumlichen Einheiten darstellt,
15:07
sodass immer die neueste Version der Abfrage in der Datenbank gespeichert ist, dass man unterschiedliche Kategorisierungen hier anlegen kann, wobei dann unterschiedliche Straten, unterschiedliche Einheiten innerhalb dieser Kategorisierung erstellt werden können.
15:23
Das heißt, ein neuer Themenkomplex kann hier eröffnet werden, an dem dann gearbeitet werden kann, an denen neue Abfragen und Stratifizierungen vorgenommen werden können. So viel zu dem stratifiziert zufälligen Stichprobenseign, wie es in dem Nationalpark aktuell auch schon zur Anwendung kommt.
15:42
Dabei hat sich während der Entwicklung dieses Ansatzes herausgestellt, dass die Ableitung der räumlichen Einheiten, die Objekte, die primären Objekte, die erstellt wurden mit den Attributen, dass diese auch dazu geeignet sind, längerfristig die Flächen zu beobachten
16:01
und eben auch ein nicht-invasives Monitoring-Konzept hier zulassen, indem wir davon ausgehen können, dass wir zum Beispiel auch durch weitere Informationsströme, wie Sentinel-2, noch weitere Informationen hier an die Objekte anhängen können.
16:20
Dabei ist im Nationalpark natürlich vor allem die regelmäßige Wiederholung der Berechnung der primären Objekte und der Informationsebenen von Interesse, wobei hier der Zeitraum der regelmäßigen Wiederholung ungefähr fünf Jahre betragen sollte. Und hier von besonderem Interesse ist, wie die Entwicklung der Waldstrukturen,
16:44
der Baumartenzusammensetzung oder der Habitate sich in Anbetracht des Klimawandels und der biotischen, abiotischen Kalamitäten innerhalb des Nationalparks entwickelt. Weiterhin ist natürlich die Möglichkeit, Sentinel-2-Daten auf Objektbasis hinzuzuziehen. Hier sei kurz auf die Masterarbeit von Johannes Notdurft an der Universität Trier hingewiesen,
17:07
indem er auf Basis der primären Objekte Sentinel-2-Zeitreihen identifiziert hat, signifikante Trends berechnet hat, sowie signifikante Brüche in der Zeitreihe, sodass man hier zum Beispiel auf Basis der primären Objekte sagen kann,
17:22
wo keine Störung stattgefunden hat und falls eine Störung stattgefunden hat, zu welchem Zeitpunkt. Bei dieser Arbeit war vor allem interessant, trotz der kurzen Zeitreihe hier auch Brüche detektiert werden konnten. Mit den frei verfügbaren Sentinel-2-Daten ergeben sich natürlich nochmal ganz interessante Aspekte
17:44
anhand dieser Objektbasis. Nicht nur, wie können wir die Vitalität oder die Entwicklung der Flächen innerhalb des Nationalparks nachvollziehen, sondern auch anhand des Datenbankkonzeptes, was sind denn Informationen, die wir aus der Zeitreihe oder aus den Sentinel-Daten herauslesen können,
18:03
die es dann gilt, an die Objekte anzubinden. Also hier nochmal die Frage, wie kann man diese Informationen aus Sentinel-2, aus den Satellitenbildern, kondensieren, sodass sie dann wichtige Informationen für die Objekte liefern, zum Beispiel diese Störungszeitpunkte. Zusammenfassend möchte ich nochmal
18:27
die Potenziale, die sich hier durch diesen Ansatz ergeben haben, ausführlich darstellen. Wir haben in der ursprünglichen Fassung des Monitoring-Konzeptes eben diese flächenhafte Struktur,
18:42
die Ableitung räumlicher Einheiten, die eigentlich ursprünglich erstmal dafür gedacht war, Informationensebenen daran anzuknüpfen und dann naturräumliche Einheiten zu definieren, die eben abgefragt werden können, um stratifiziert zufälliges Sampling-Design ausführen zu können.
19:03
Aus dem Ansatz der naturräumlichen Einheiten hat sich dann jedoch jetzt auch der Ansatz einer potenziellen Vollaufnahme des Nationalparks ergeben, die das Potenzial durch die fernerkundlich erhobenen Informationen, zum Beispiel Sentinel, eben auch noch weiter ausspielen kann.
19:25
Das heißt, im Kontext des Nationalparks könnten so auch die Daten über kürzere Intervalle verfügbar gemacht werden und auch weitaus günstiger und störungsärmer erhoben werden, als es in terrestrischen Verfahren möglich ist. Weiterhin werden die naturräumlichen Einheiten oder die primären Objekte auch zur Nutzung,
19:44
zur Optimierung der allgemeinen Arbeitsplanung im Nationalpark verwendet und auch im Einsatz in der Umsetzung der Waldschutzaufgaben, was ein Einsatzbereich ist, der zu Beginn der Forschungsarbeiten noch gar nicht als Ziel definiert wurde. Wen die Entwicklung der naturräumlichen Einheiten und des stratifizierten Samplingdesigns
20:08
interessiert, der sei auch hier nochmal auf den erschienen Forschungsband hingewiesen. Der Link hier führt direkt zu dem zweiten Beitrag aus dem Forschungsband, in dem die Entwicklung des zufälligen Flächenstichprobenkonzeptes beschrieben wird.
20:23
Schlussendlich bleibt mir nur Danke zu sagen für die Aufmerksamkeit. Ich freue mich auf eine angenehme Diskussion hier im Nachgang des Vortrages und wünsche Ihnen allen noch eine schöne Froskis.
20:40
Okay, dann beginnen wir jetzt mit den Fragen. Wir haben aktuell zwei Fragen im Chat stehen. Die erste, wie lässt sich dieser Ansatz zu einem anderen Gebiet anwenden und was für eine Datenbasis notwendig? Genau, hallo erstmal auch nochmal live.
21:04
Die Anwendung lässt sich auf jeden Fall auch auf andere Gebiete übertragen, sofern es Luftbilder in entsprechender Auflösung gibt oder andere Datensätze, die zur Verfügung stehen. Wir haben einen ähnlichen Ansatz auch versucht, in Luxemburg schon durchzuführen. Da sind ja in dem Datenportal viele offene Daten zur Verfügung gestellt
21:26
und auch in anderen Bereichen, wo Luftbilder zur Verfügung stehen, sollte das funktionieren. Allerdings hier auch der Hinweis, dass da vor allem die Infrarotinformation natürlich wichtig sind, um hier die Bäume oder die verschiedenen Objekte
21:43
im Nationalpark zu trennen. Wenn man den ganzen Ansatz auf andere Fachanwendungen übertragen will, müsste man das natürlich mal ausprobieren, wie die Trennung der Objekte für den speziellen Anwendungsfall funktioniert. Und natürlich sind die ganzen Informationsebenen, die hinter dem Ansatz stecken,
22:05
das kommt natürlich immer darauf an, sind diese Daten verfügbar, sind die Daten dann vielleicht auch für die Behörde, in der man arbeitet, verfügbar. Wenn auch nicht öffentlich, dann ist es ja oft so, dass Nationalparke zumindest auf die Landesdaten irgendwie zugreifen können. Und da müsste man dann eben schauen, ob das Potenzial da ist,
22:25
diese ganze Prozessierungskette umzusetzen. Durch die Implementierung aber der Segmentierung in Kraskis dürfte das, wenn die Datengrundlage vorhanden ist, aber kein Problem sein.
22:41
Gut, dann kommen wir zur nächsten Frage. Wie sind denn die Abweichungen zu terrestrischen Erhebungen? Das würde mich selber auch interessieren, weil ich auch in dem Bereich eigentlich arbeite. Genau, da ist jetzt gerade ein Forschungsprojekt in der Arbeit. Dadurch, dass es im Nationalpark auch ein fest verortetes Stichprobennetz gibt,
23:00
in dem jetzt von 2016 bis 2018 die Erhebungen stattgefunden haben, wir die jetzt natürlich auch mit unserem Ansatz oder mit dem objektbasierten Ansatz in Einklang bringen können. Da sind wir aber leider noch nicht so weit, weil uns da auch ein bisschen die Kräfte fehlen, diese Kollaboration zwischen Nationalpark und Universität Trier hier weiter zu treiben.
23:25
Es gibt aber einen Forschungsantrag, der genau dieses Problem, sich mit dem Problem weiter befassen soll. Dann kommt hier die Frage nach der Rechenleistung für die Auswertung. Was ist da notwendig?
23:43
Ich habe die Segmentierung, also es kommt jetzt ein bisschen darauf an, für die Ableitung der Informationsebenen oder die Berechnung der Informationsebenen pro Objekt. Das dürfte eigentlich jeder Computer schaffen, der die Daten dann zumindest irgendwie laden kann. Die Segmentierung selbst, das hat bei mir auf meinem Arbeitsrechner hier einige Stunden gedauert,
24:06
die Segmentierung eben für den ganzen Nationalpark durchzuführen. Da könnte man sich aber auch überlegen, ob man mit Grasges dann eben wieder zu der Version 1 eigentlich geht und das versucht, kachelweise für die Luftbildkacheln zu rechnen und dann am Ende zusammenzuführen.
24:22
Da gibt es sicherlich Ansätze, wie man das umsetzen kann, ohne eine hohe Rechnerleistung zu haben. Dann habe ich selbst mal eine Frage. Habt ihr versucht, den Ansatz nach die Hangmoore zu übertragen?
24:42
Weil da dürfte das ja um einige schwieriger sein. Genau, die Hangmoore und auch die Rüsselhalden, die es im Nationalpark gibt, die sind da ein spezielles Problem, die man durch die Objekte, dadurch, dass die teilweise dann auch bewaldet sind, nicht so gut rausbekommen kann.
25:01
Weswegen man hier nochmal auf Expertenwissen zurückgreifen musste, die diese Objekte dann erstmal identifiziert haben oder wo die potenziell sein könnten im Nationalpark. Beziehungsweise da natürlich auch im Nationalpark das Wissen grob vorhanden ist, wo es solche Rüsselhalden und Hangmoore gibt. Aber da durch die feuchte Kartierung usw. sind da Ansatzweise,
25:26
kann man die Flächen durch die Objekte rausbekommen. Aber es ist auf jeden Fall ein komplexerer Fall. Gut, nun das letzte Frage. Wurden schon Versuche unternommen, die Methode in Gebirgslagen im Alpenraum anzuwenden z.B.?
25:47
Genau, für den Alpenraum haben wir es noch nicht versucht. Also dadurch, dass das ganze Projekt durch Forschungsförderung im Nationalpark stattgefunden hat, ist der Nationalpark natürlich auch unser Hauptfokusgebiet. Von daher kann ich da nichts sagen, ob der Ansatz übertragbar wäre oder nicht.
26:06
Natürlich dann durch die Turbografie könnte schwieriger werden. Okay, dann vielen Dank für den interessanten Vortrag. Es wäre schön zu sehen, wenn man wegen der Naturfußarbeit, dass so ein Ansatz doch irgendwann mal recht erfolgreich praktiziert wird,
26:24
wo so manche Landesbehörde noch Wochen und Jahren dran forften, nicht weiter kommt. Danke.