We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Drohnenbilder im Web-GIS – Wie kommen Drohnen-Bilddaten mithilfe von OpenDroneMap ins Web-GIS?

00:00

Formale Metadaten

Titel
Drohnenbilder im Web-GIS – Wie kommen Drohnen-Bilddaten mithilfe von OpenDroneMap ins Web-GIS?
Serientitel
Anzahl der Teile
96
Autor
Lizenz
CC-Namensnennung 4.0 International:
Sie dürfen das Werk bzw. den Inhalt zu jedem legalen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen.
Identifikatoren
Herausgeber
Erscheinungsjahr
Sprache

Inhaltliche Metadaten

Fachgebiet
Genre
Abstract
Im Vortrag möchte ich zeigen, wie man in wenigen Schritten aus den Drohnen-Rohbilddaten ein nutzbares WebGIS-Projekt erstellen kann. Dabei wird zusammenfassend auf das OpenDroneMap-Projekt (ODM) eingegangen und welche Tools wichtig sind um ein WebGIS zu installieren und zu benutzen.
Schlagwörter
45
Vorschaubild
25:28
WEBGraphische BenutzeroberflächeGistVorlesung/Konferenz
RoutingSoftwareInformationssystemDatenbankUmsetzung <Informatik>WEBClientLösung <Mathematik>Open SourceRoutingLightning <Programm>Demoszene <Programmierung>XMLComputeranimation
Exakte SequenzObjektrelationale AbbildungSpielkonsoleCDMABenutzeroberflächeServerAsset <Informatik>Proxy ServerRAW-FormatWEBInterface <Schaltung>Sound <Multimedia>Plug inOpen SourceRichtungServerDigitalsignalPunktwolkeProzess <Physik>Instanz <Informatik>Vorlesung/KonferenzComputeranimation
BenutzeroberflächeCDMAServerProxy ServerGebiet <Mathematik>WEBGeometrieServerInterface <Schaltung>ParametersystemVorlesung/KonferenzComputeranimation
TexturDienst <Informatik>Graphic WorkshopProxy ServerClientProgrammierungWeb-ApplikationVolumenBetafunktionUbuntu <Programm>BildpyramideServerObjekt <Kategorie>Version <Informatik>WEBApp <Programm>XML
CDMAGeodateninfrastrukturVerfügbarkeitSoftwareSkalierbarkeitServerDienst <Informatik>DesktopWEBPerspektiveServerSoftwareComputeranimation
Objekt <Kategorie>Vorlesung/Konferenz
PunktwolkeVolumenRechteckWEBBerechnungComputeranimation
RichtungApp <Programm>Dienst <Informatik>SoftwareServerGebiet <Mathematik>PunktwolkeGeodateninfrastrukturPolygonOpen SourceFeasibility-StudieVorlesung/Konferenz
WEBComputeranimation
MeterServerHöheObjekt <Kategorie>Vorlesung/Konferenz
EbeneVerzerrungFixpunkt <Datensicherung>Faktorisierung
Vorlesung/Konferenz
Gebiet <Mathematik>Inferenz <Künstliche Intelligenz>Computeranimation
Transkript: Deutsch(automatisch erzeugt)
Dann geht es hier pünktlich im Programm weiter und zwar jetzt erfahren wir, wie diese ganzen tollen Drogendaten denn überhaupt in unser GISS reinkommen und dafür haben wir Robert Trowart-Klemmen von der Wear Group.
Danke. Ja, ich hatte heute ein spannendes Thema über ODEN DroneMap. Letztes Jahr auf der Foscapes gab es leider nur einen kleinen Lightning Talk zu diesem Thema. Ich habe mir das Ganze letztes Jahr mal angeguckt, dachte, oh cool, da könnten wir schon noch ein bisschen mehr machen. Und komme jetzt mit dieser Fragestellung, wie kommen denn Drohnenbilddaten mit Hilfe von ODEN DroneMap ins Web GISS?
Und möchte euch kurz mal zeigen, wie man mit prozessierten Daten ein kleines Web GISS bauen kann mit einfachen Open Source Mitteln und quasi das auch auf verschiedenen Clients zum Laufen bekommt.
Ja, kurz zu mir. Ja, mein Name ist Robert Klemmen, arbeite bei der Wear Group, komme aus Berlin, habe auch da studiert, bin auch seit mehreren Jahren auch schon in der USM-Welt tätig. Und momentan arbeite ich bei der Wear Group als MapBender Entwickler, bin aber auch gleichzeitig für das Routing zuständig
und letzter Zeit auch für den USM Demo Style, der auch in letzter Zeit auch in der Wochennotiz drin war. Den habe ich quasi überarbeitet und habe quasi auch den weiterentwickelt. Ein kurzer Werbeblock eben zu meiner Firma, ich arbeite eben wie gesagt bei der Wear Group, Hauptsitz ist quasi in Bonn.
Die Wear Group ist quasi eine Dienstleistungsunternehmen, die quasi ein Komplettpaket von Installation bis zum Web GISS anbietet, aber wir bieten natürlich auch entwickelungsbasierte Lösungen an. Ja, wie gesagt, ich komme aus Berlin, wir haben eine Zweigstelle in Berlin, Hauptsitz ist in Bonn und
haben noch eine zweite Stelle in Freiburg und momentan sind am Standort insgesamt bei den 43 Metern weiter. Einnahmen habe ich schon erwähnt, ich glaube MapBender ist kein Ungekannter in der Open Source-Welt, das ist ein Produkt von uns, was wir weiterentwickeln und auch entwickeln.
Metador gehört auch dazu und seit neuestem haben wir MOPS, MOPS ist quasi ein mobiles Offline Maps für den mobilen Kleintmarkt gedacht. So, Werbeblock vorbei, jetzt kurz zu erklären, warum ich überhaupt auf dieses Thema gekommen bin, was ich überhaupt als Grundlagen
genutzt habe, wie ich das umgesetzt habe und natürlich zum Schluss ein paar Bilder, wie das überhaupt aussieht im WMS. Ja, in den letzten Jahren, ich glaube das hat jeder auch mitbekommen, diese Drohnen-UAVs gab es ja
einen großen Boom, die sind kleiner geworden, billiger, jeder konnte sich das leisten, jeder wollte damit mal rumspielen. Aber gleichzeitig durch diese neuen luftgestützten Sensorsysteme war auch die Möglichkeit da, neue Daten zu gewinnen, schnell, kostengünstig und für kleine Regionen konnte man eben sehr gute Bilddaten erzeugen.
Natürlich gab es parallel auch viele Open Source Tools, die, GDAR ist eine davon, die quasi Bilddaten prozessieren und mein Augenmerk liegt eher mehr an diese DOPS, also die digitalen Ortofotos und habe mich dann ein bisschen Richtung Open Drone
Web fixiert und meine Fragestellung ist eben, kann ich mit Drohnendaten, mit dem Open Drone Web Tool ein Webgist erzeugen? Ja, kurz zur Open Drone Web, Open Drone Web ist wie gesagt eine Open Source Anwendung, eine große Community mittlerweile, 2014
gestartet, relativ jung noch, damals mit dem Kommando Zeilen Tool, ODM und dieses Kommando Zeilen Tool ist quasi dafür da, fotogrammetische Bilddaten zu verarbeiten, also das heißt, ich habe meine Rohbilddaten aus der Drohne, entzehe sie und kriege ein schönes, entzerrtes Luftbild raus.
Und natürlich kann dieses Open Drone Web Tool natürlich auch mehr, kann Geländemodelle erzeugen, Punktwolken erzeugen und verschiedene andere Sachen. Wird auch stetig weiterentwickelt, vor kurzem gab es ein neues Release für das WebODM, da komme ich gleich nochmal drauf.
Open Drone Web ist mittlerweile eine kleine Familie geworden, ODM ist wie gesagt dieses Kommando Zeilen Tool, was auf Python basiert, mittlerweile sind viele Plugins dazu gekommen, wie zum Beispiel WebODM, NodeODM, CloudODM, das ist relativ
neu noch und PythonODM, also man sieht, es wird stetig weiterentwickelt und es werden viele neue Schnittstellen vorbereitet. Ja, grobem Ganzen, man hat JPEGs, die durch die Drohnenbilddaten aufgenommen wurden, man hat Bodenkontrollpunkte
und demnächst wahrscheinlich auch ein Geo-Tip, was man als Input Open Drone Web geben kann und klassischerweise hat man dann eben diese Ausgabeformate, die Sie hier sehen, digitale Geländemodelle, digitale Oberflächenmodelle, Texturen und was mich natürlich interessiert ist, was hier rot markiert ist, ein
WebODM-Ortofoto eben. So, kurz zu ODM, also ich habe jetzt mir mal zwei rausgepickt, die ich mal kurz erkläre, ich habe kurz schon ODM erklärt, das ist wie gesagt ein Kommando Zeilen Tool, wo wir einfach Prozesse, einfach Prozesse ansteuern können
und es fällt ein Geo-Tip raus. Wie gesagt, es ist komplett in Python programmiert und man kann über Python eben das aufrufen. Das WebODM ist quasi ein Plugin, was oben noch drauf sitzt auf dem Kommando Zeilen Tool und hat quasi eine grafische Oberfläche, wo für den User noch einfacher simulisiert wird, das zum Beispiel nicht simuliert ist, aber man kann eben Bilddaten hochladen auf einen Server,
prozessieren lassen und lädt sich einfach die Assets, in dem Fall die ganzen Exportformate einfach runter und kann die dann weiterverarbeiten. Der Vorteil ist bei WebODM, dadurch, dass es mittlerweile auch mit Docker ausgeliefert wird, kann man verschiedene Instanzen aufsetzen und auf verschiedene Server auch auslagern.
Das heißt, man kann das dezentral irgendwo auf einen Server packen, kann den in Ruhe rechnen lassen und holt sich die Daten dann später zurück.
Die anderen drei NodeODM und CloudODM und PythonODM, wie gesagt, die sind neu dazugekommen, wollte ich jetzt aber im Vortrag nicht näher drauf eingehen. Kann man sich auf dieser Webseite, die Sie unten sehen, eben sich noch mal genauer belesen, ist sehr gut dokumentiert. Genau, wie habe ich da eigentlich das alles umgesetzt? Also grob, ich habe für das Webinterface MapBender benutzt,
habe aber auch gleichzeitig einen eigenen Server gehabt für WebODM, wo ich meine Rohbilddaten quasi importiert habe, habe die über Docker-Container, wie gesagt, WebODM wird über Docker ausgeliefert, prozessieren lassen, habe ein GeoTIF und das GeoTIF an sich habe ich dann wieder benutzt und habe quasi auch das GeoTIF als WMS-Server benutzt.
Und das erzeugt, das quasi mit Kugis und Kugis Server sehr gut funktioniert und dazu habe ich noch ein MAProxy dazwischen geschaltet und dieser MAProxy-Dienst hat quasi meine Schnittstellen nach außen
zum MapBender eröffnet und habe es da eingebunden und habe quasi im Web gleich mein Ortofoto gehabt. Ja, vom Workflow, also ganz, wie Sie hier sehen, unsere Drohne, eine Phantom 3, die wir genutzt haben und wie gesagt, das war im Rahmen einer Machbarkeitsstudie, haben wir auf einem Campingplatz bei Steckenheim in der Nähe von Siegham in der Nähe, also bei
Bonn, haben wir die Erlaubnis bekommen, dass wir den Campingplatz eben abfliegen dürfen und durften dann quasi die Bilddaten auch damit prozessieren. Haben die dann später in WebODM quasi importiert, wie Sie hier sehen, haben dann, man sieht das sind 364
Bilder, haben die dann prozessieren lassen und haben gewartet bis es fertig ist und haben uns die Ergebnisse dann angeguckt. Wenn wir zufrieden waren, dann haben wir das quasi weiterverarbeitet. Das WebODM
hat eine grafische Oberfläche, wo man auch manuell die Parameter einstellen kann. Ja, dann, wenn es fertig prozessiert war, konnte man sich über die Weboberfläche die 2D-Daten angucken oder, was auch sehr schön ist, 3D-Daten, wie Sie unten sehen, über Cesium-Plugins,
das wird quasi gleich mit in dieser WebODM mit ausgeliefert, konnte man quasi das Bild dreidimensional drehen. Ich hoffe, das sieht man so einigermaßen und man kann, was WebODM auch schon mitbringt, Volumenberechnung machen, also Objekte markieren und kann dann Volumen berechnen.
Natürlich gibt es auch verschiedene Features noch, also wir können einen Höhenprofilquerschnitt uns anzeigen lassen, wie er zum Beispiel das Gelände, wie das aussieht.
Wie gesagt, dieses bietet noch mehr an, also viele Features, zum Beispiel kann man das Höhenprofil in ICSV, LAS-Exportformat eben noch runterladen und weiterverarbeiten. Zum Schluss gibt es auch die Möglichkeit, dass man diese Punktwolke, die wir jetzt gerade gesehen haben, mit einer Textur, die WebODM oder ODM automatisch mitprozessiert, die wird
dann rübergelegt und dann sieht man auch schon dreidimensional entzerrt quasi das Gelände vom Campingplatz. Ja, ich habe auf der Web-Oberfläche das Geotiff runtergeladen und habe dann überlegt, ja gut, jetzt habe ich ein Geotiff, was mache ich jetzt damit?
Dann habe ich mir Kugis genommen, in dem Fall Kugis 2.8 noch, weil ich einen alten Ubuntu Server noch hatte, 16.04 und aus Performance Gründen habe ich 2.8 und noch Kugis Server, eine alte Version gehabt. Aber ich habe das nachgebaut mit Kugis 3 und einer neueren Version geht das auch, habe aber mir das Geotiff reingeladen, habe
mir das angeguckt und habe mir das angeschaut und habe dann gesagt, cool, das gefällt mir, möchte aber noch ein paar Bildpyramiden bauen. Entweder man macht das über Kugis direkt über die Tourleiste, aber man hat auch die Möglichkeit, über GDAL da nachzuarbeiten.
Bildpyramiden macht dann Sinn, wenn wir einen WMS-Dienst haben, dass er die Zwischenstufen schneller zurückgibt aus Performance Gründen. Dann habe ich einfach gesagt, gut, gefällt mir, dann mache ich einen OBS-Server draus, das geht ganz einfach über diese Projekteinstellung, habe dann die wichtigsten Tools ausgefüllt, Felder, und habe gesagt,
gut, das gefällt mir, habe das abgespeichert und habe das quasi auf den Server-Fahrt abgelegt. Dann habe ich mir das angeguckt in Map-Proxy, habe mir eine Map-Proxy-Yaml zusammengestellt und wie man hier jetzt auch sieht, das ist jetzt quasi der Dienst, wo das drin läuft.
Und ich habe Map-Proxy genutzt, eben weil Map-Proxy zwischencached und hatte auch Interesse daran, naja, man könnte das ja später verwenden, um das noch schneller zu prozessieren oder darzustellen. Ja, dann habe ich mir Map-Bender installiert, in dem Fall sogar Map-Bender 2.8
Beta 1, das ist quasi die neueste Map-Bender-Version, die vor wenigen Tagen veröffentlicht wurde. Und habe quasi da über Datenquere den WMS eingebunden und habe mir das dann quasi eingerichtet und
quick and dirty, habe das alles zusammengestellt und hatte dann zum Schluss quasi meinen WMS-Dienst komplett drin in der Anwendung und konnte hier ganz gut navigieren und habe mir die Bilder eben angeguckt.
Wie gesagt, ohne eine Zeit zu programmieren. Ja, dann dachte ich mir, cool, das funktioniert mit Map-Bender, aber wie sieht das aus, weil wir jetzt ein neues Produkt haben, Mops und mit OpenLayers 3 und Offline-Fähigkeit.
Dann dachte ich mir, okay, WMS geht ja, es ist ja online, das kann ja alles so bleiben, aber wie sieht das aus mit Geo-Package? Dann habe ich mir ein Geo-Package quasi exportiert aus Kugis, in dem Fall auch über Map-Proxy auch und habe dann gesagt, cool, das will ich mir mal angucken und habe quasi über Mops über diese App,
in dem Fall ist es OpenLayers 4, was im Hintergrund läuft, habe mir dann das eingebunden und habe festgestellt, das Geo-Package ist ungefähr 400 Megabyte groß, lade ich mir runter und konnte mir das quasi offline auf mein Smartphone angucken.
Ja, welche Vorteile? Jetzt habe ich euch zugeballert, mit was habe ich jetzt gemacht. Jetzt ganz kurz nochmal die Vorteile. Ich fand ODM ganz cool, aus meiner Perspektive her, es war sehr gut dokumentiert, es besitzt eine sehr große Community, konnte eben auch Fragen, es wurde schnell zurückgeantwortet, man kommt da schnell ins Gespräch.
Es lässt sich sehr gut integrieren in bestehende GDIs, ich konnte schnell einen Server aufsetzen, in dem Fall mit Docker und es ist kostenfrei gegenüber von anderen Software Stacks, zum Beispiel Agisoft, muss man natürlich was kaufen und für so eine kleine
Sache wie, ich will ein Ortofoto generieren, fand ich quasi dieses Projekt sehr gut und ansprechend und wie gesagt, das ist leicht verständlich. Leistungsfähig und man kann quasi über diese Web-Oberfläche, was auch eine Rest-API
-Schnittstelle mitbringt, konnte man auch darüber speichern. Genau, mein Fazit, es lässt sich im WMS-Dienst umwandeln. Und hier nochmal die Sachen, die ich genutzt habe und ja, das war's.
Vielen lieben Dank, wir haben jetzt noch ein bisschen Zeit für Fragen. Vielen Dank für den Vortrag erstmal, du hast gesagt, dass man Volumenberechnungen machen kann, indem man
Objekte markiert, wie muss man sich das vorstellen, ist das extrahiert die Objekte schon, dass die Objekte sind oder muss man die Punkte jetzt alle anklicken, wenn man jetzt zum Beispiel Gebäude hat oder? Genau, also er kennt, also durch die Objekterkennung, das sind ja Punktdaten, weiß er, dass das Objekt zusammenliegend ist und nimmt das quasi in die Volumenberechnung mit rein.
Also das sieht man jetzt schlecht hier auf dem Foto rechts, das sind alles Punktdaten. Also was so gruselig ist, das ist nicht ein Screenshot, was blöd aussieht, nein, das sind alles Punktwolken und auf Grundlage dieser Punktwolken wird das dann berechnet. Also man setzt quasi dann einen Punkt an und dann versucht er quasi das selber nachzuziehen und auf Grundlage des Rechtecks berechnet er das Volumen.
Noch eine zweite Frage zu Open-Drone-Map, kann man sich Open-Drone-Map so ähnlich vorstellen wie Open-Street -Map mit, dass dort verschiedene Regionen, wo Leute schon mit Drohnen geflogen sind, dass man da Luftbilder zur Verfügung hat?
Oder ist das eher sowas, was man jetzt als einzelner nutzt, wenn man ein Projekt hat und man stellt das dort ein und lässt es dort prozessieren und zieht sich dann seine Sachen dort wieder raus? Genau, es gibt ja, ich glaube das Projekt heißt anders, es gibt noch das andere Projekt, wo quasi Community-Leute ihre Drohnendaten hochgeladen und dann kann man sich das runterladen.
Open-Drone-Map ist zu verstehen wie Kugis. Es ist ein Anwendungsbeispiel, also man kann sich das nutzen, eine große Community im Hintergrund steht und man benutzt quasi Open-Drone-Map nur zur Prozessierung für Luftbilddaten. Man teilt aber nicht die Daten mit anderen? Nee, also das kann man natürlich machen. Aber das ist nicht die Intention des Prozesses? Genau, das ist nicht die Kernaufgabe.
Alles klar, vielen Dank. Was mich mal interessieren würde, wie war denn der eigentliche Drohnenflugprozess? Muss man das irgendwie in einem speziellen Schema
abfliegen oder fliegt man einfach irgendwie so ein bisschen wild durch die Gegend und die Software kapiert das später? Nee, in dem Fall, das habe ich explizit ausgeklammert, weil diese Drohnenbefliegung, also das macht die Werkgruppe jetzt nicht. Wir sind eigentlich dafür da, um die Daten zu prozessieren.
Für die Machbarkeitsstudie haben wir das selber gemacht. Wir haben eine Software benutzt, eine App -Software, eine Fly-Drone oder so ähnlich, das heißt man stellt sich quasi in das Gebiet. In dem Fall hatten wir Glück, dass die Drohne mit der App kompatibel ist und
man hat das Gebiet dann abgeklickt und er hat auf Grundlage des Gebietes die Flugbahn berechnet. Und in dem Fall, die App berechnet quasi den Überlappungsbereich von 70%. Das heißt, die Flugbahnen sind sehr schmal gehalten, hat aber einen sehr großen Vorteil, dass wir eine sehr hohe Überlappungssache haben, dass das Objekt aus verschiedenen Richtungen quasi fotografiert wird.
Und somit ist quasi für diese 3D-Sachen später zum großen Vorteil, dass das Objekt noch richtig erkannt wird für diese Polygone. Ja, ich wollte noch fragen, für dieses bildbasierte automatische Auswerten der Drohnenbilder, da ist da auch eine freie Software verfügbar?
Wie bitte? Also diese Auswertung, die automatische Auswertung der Drohnenbilder, um jetzt halt daraus dann eine Punktwolke zu generieren und so weiter, braucht man ja Structure-for-Motion-Software. Ist das eine freie Software, die da dahinter steckt? Ja, wie gesagt, das ist alles in diesem Paket mit drin auf dem Roadmap.
Ich hoffe, ich habe es jetzt richtig verstanden. Naja, also die Bilder müssen ja praktisch automatisch ausgewertet werden, dass ich aus mindestens zwei Bildern eine 3D-Punktwolke generieren kann. Genau, das macht das Produkt.
Das ist also auch Open Source? Das ist auch Open Source, genau. Also das sind verschiedene Open Source-Bestandteile, also Cesium quasi, um später das interaktiv 3D darzustellen. Genau, und es ist, glaube ich, eine Preispilothek, die im Hintergrund läuft und die quasi diese Vermaschung und diese Punktwolken zusammenrechnet.
Und das passiert in dem Fall in diesem Docker-Container und diese Daten, die rausfallen, wenn Sie das auf eigenen Server bauen, ist das alles Ihres. Das kommt nicht irgendwo hin, das bleibt alles quasi innerhalb dieses Containers. Okay, danke.
Was ist dein Gesamtfazit, was den Aufwand angeht, also Zeit und so weiter, welche Mühe man sich damit macht? Macht man das mal so eben schnell oder muss man sich das ein bisschen überlegen, ob man insgesamt von der Drohne, vom Flug bis zum...
Achso, ich wollte gerade nachfragen, von welchem Punkt. Also von der Drohnenbefliegung, also allein diese Befliegung und die Planung, das ist ein Teil für sich. Also da muss man sich ein bisschen rumprobieren. Ich habe früher keine Drohne geflogen, ich musste mich auch erst einmal mit der Drohnensteuerung auseinandersetzen.
Und natürlich sind auch ein paar Sachen schiefgelaufen. Zum Beispiel ist die mal gegen den Baum geflogen, das kommt mal dazu. Aber im groben und ganzen war es machbar. Und für mich jetzt als Fazit, ich habe mir meistens die Bilder genommen und habe die prozessiert.
Und habe die für mich, weil ich jetzt schon ein bisschen Übung habe innerhalb von nicht mal zwei Tage. Es hängt natürlich davon ab, was für einen Server im Hintergrund ist, für ihn die Ressourcen, wie schnell der ist. Aber innerhalb von zwei Tagen jetzt so als Leih, wenn man das natürlich öfters macht und wenn einmal die GDI da ist, geht das natürlich viel schneller.
Und das geht relativ schnell und man kriegt hochauflösende Bilder. Also man muss das ja immer in Betracht ziehen. Wartet man so lange, bis die Dops von anderen Dienstleister da ankommen oder man fliegt einen kleinen Bereich ab und guckt sich das mal schnell an. Das ist natürlich was ganz anderes. Und da guckt natürlich die, das war quasi das Anwendungsbeispiel.
Du hast noch angesprochen, dass es Ground-Control-Punkte gibt, die man auch verwenden muss für die Verarbeitung. Was ist das genau? Sind das einzelne Fotos oder Referenzpunkte?
Das sind Referenzpunkte, genau. Ich bin da nicht näher drauf eingegangen. In dem Fall haben wir hier keine eingebaut. Ich gucke gerade wo. Die Boden-Control-Punkte, also Referenzpunkte, die können zusätzlich noch aufgenommen werden.
Also das heißt, in dem Fall, Open-Drome-Lab baut ein 3D-Modell quasi in seinen eigenen Raum auf. Anhand der GPS-Punkte, die in Bilddaten gespeichert werden. Das macht ja die Drohne. Und wenn man aber das noch genauer haben möchte, kann man Referenzpunkte aufnehmen. In dem Fall ein Gullideckel in dem Bereich, passt das ein und übergibt das quasi Open-Drome-Lab mit als Import.
Das heißt, Open-Drome-Lab benutzt diese Referenzpunkte nochmal, benutzt die mit und nimmt sein 3D-Modell, genauso wie eine Georeferenzierung in ein Luftbild und zieht das nochmal glatter oder zieht das nochmal besser auf. Dann ist das, man kann ja leicht die Versatzt haben durch die GPS. Da kann ja einiges dazukommen.
Und dann ist das noch lagetreuer. Das gehört in den Prozess mit rein. Man muss es nicht machen, man kann es. Um ein besseres Bild zu bekommen. Ich glaube, für eine Frage hätten wir noch Zeit.
Dankeschön. Es sind eigentlich die Fragen, die sehr kurz beantwortet werden können. Zum einen, die kann ich den Prozess verteilen auf mehrere Server. Kann ich schräg Bilder nehmen, die von zwei Meter Höhe oder sowas aufgenommen wurden und mit einer Orientierung versehen sind? Das geht. Ich fange mal mit dem Schrägbild an. Das macht er auch. Aber man muss mit abstrichen.
Er versucht über diese Schrägaufnahmen, es müssen mehrere Bilder sein, Überlappungen. Mit einem Bild kommst du da nicht weit. Dann versucht er, die Objekte zu erkennen und baut dieses Modell auf. Das würde funktionieren.
Welche Bodenauflösungen hast du auf deinem Beispiel? Auf dem Beispiel sind es 0,4. Das ist relativ hoch. Das sieht man jetzt nicht, weil ich in der Auflösung dadurch, dass es ein Geopackage ist, das begrenzt habe. Das Geotiff geht natürlich weiter rein. Um das noch besser hochauflösend zu bekommen, wurden Kontrollpunkte.
Mit Schrägbildaufnahmen bringt es dann auch nicht mehr viel. Durch die Verzerrung an der Seite spielen verschiedene Faktoren mit rein. Open DroneMap hat ein großes Paket an Parameter, die man hochschrauben kann.
Man hat Stellschrauben und kann über Linsenparameter, kann man Verzerrungspunkte, das geht in die vermessungstechnische Sache rein. Aber du hast sehr viele Möglichkeiten, um noch bessere Bildergebnisse zu bekommen. Genau. Und auf die Verteilung, das geht. Dafür gibt es quasi diese Cloud-Geschichte.
Da kannst du das mehr verteilen. Du musst aber auch online gucken, in der Doku, da steht das allgemein noch mal drin. Vielen Dank für den Talk und für die Fragen. Einen runden Applaus.