Structure from Motion in der Archäologie - ein Lehrfilm
This is a modal window.
Das Video konnte nicht geladen werden, da entweder ein Server- oder Netzwerkfehler auftrat oder das Format nicht unterstützt wird.
Formale Metadaten
Titel |
| |
Autor | ||
Mitwirkende | ||
Lizenz | CC-Namensnennung - keine kommerzielle Nutzung - Weitergabe unter gleichen Bedingungen 3.0 Deutschland: Sie dürfen das Werk bzw. den Inhalt zu jedem legalen und nicht-kommerziellen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen und das Werk bzw. diesen Inhalt auch in veränderter Form nur unter den Bedingungen dieser Lizenz weitergeben. | |
Identifikatoren | 10.5446/35260 (DOI) | |
Herausgeber | 046ak2485 (ROR) | |
Erscheinungsjahr | ||
Sprache | ||
Produzent | ||
Produktionsort | Freie Universität Berlin |
Inhaltliche Metadaten
Fachgebiet | ||
Genre | ||
Abstract |
| |
Schlagwörter |
00:04
SoftwareMaschinelles SehenSystems <München>HardwareBewegungObjekt <Kategorie>
01:22
Computeranimation
01:37
EckeICONSoftwareComputeranimation
01:56
SoftwareAnwendungssoftwareSoftwareInformationsmodellierungBiproduktComputeranimation
03:11
CodeoptimierungPunktwolkeComputeranimation
03:31
XML
Transkript: Deutsch(automatisch erzeugt)
00:05
Herzlich willkommen zum Screencast zur Verwendung der Structure-from-Motion-Methode in der Archäologie. Dieses Tutorial wurde in Zusammenarbeit mit dem Exzellenzcluster Tophoi, dem Prähistorischen Institut der Freien Universität Berlin und dem Center für Digitale Systeme der Freien Universität Berlin erstellt.
00:25
Structure-from-Motion, im folgenden SFM abgekürzt, ist eine relativ junge Methode zur dreidimensionalen Vermessung von Oberflächen. In der Archäologie und Bauforschung wird sie bisher für die Dokumentation von Befunden, Funden, Objekten, Geländeroberflächen und Architektur verwendet.
00:44
Die Structure-from-Motion-Methode vereint fotogrammetrische Ansätze mit Funktionsweisen aus den Bereichen Computer Vision bzw. maschinelles Sehen. Datengrundlage ist eine Serie sich stark überlappender Fotografien, welche die zu rekonstruierende Szene bzw. das zu rekonstruierende Objekt
01:03
aus unterschiedlichen Blickwinkeln lückenlos abdeckt. Diese relativ leichte Handhabung macht die Methode für den Archäologen so attraktiv, zumal als Hardware nur eine Digitalkamera nötig ist. Hinzu kommt, dass in diesem Sektor preiswerte bis kostenlose Software von hoher Qualität zur Verfügung steht.
01:58
In diesem Tutorial werden die Arbeitsschritte von der Dokumentation
02:02
bis zum fertigen Modell detailliert erläutert. Ziel ist es, den Workflow zu beschreiben und Hintergrundinformation zu den Berechnungsgrundlagen zu vermitteln. Der Anwender wird am Ende des Tutorials in der Lage sein, selbst ein Modell zu erstellen und sein Resultat kritisch einschätzen zu können.
02:22
Wir beginnen mit einer allgemeinen Einführung in die Methode. Das zweite Kapitel gibt einen Überblick über die Vielzahl von Softwareprodukten, aus denen wir zwei für die Fallstudien in Kapitel 3 ausgewählt haben. Im anschließenden vierten Kapitel lernen Sie, wie man die entstandenen Ergebnisse evaluiert.
02:42
Im Kapitel 5 werden die Möglichkeiten der weiteren Nutzung der erstellten 3D-Objekte besprochen. Am Ende finden Sie eine Übersicht zu den häufigsten Fehlern bei der Anwendung der Methode und Interpretation der Modelle, eine vollständige Bibliografie zu erwähnten Literatur, einschließlich weiterführender Literatur,
03:03
und Weblinks zu der hier besprochenen Software. Im Glossa werden alle hier erwähnten Fachbegriffe zusammengefasst und erläutert.
03:37
Während einer archäologischen Ausgrabung ist die Fotodokumentation mit der Digitalkamera heutzutage Standard.
03:44
Dabei entstehen in der Regel eine Vielzahl von Fotos, wie zum Beispiel diese, die im Sommer 2011 auf der Lehrgrabung des Prähistorischen Instituts auf dem Forum in Ostia Antica angefertigt wurden. Fotos sind, zusammen mit Zeichnungen und schriftlichen Beschreibungen,
04:02
standardisierter Bestandteil einer archäologischen Dokumentation. Doch heutzutage muss man sich als Archäologe nicht mehr allein auf zweidimensionale Dokumentation beschränken. Dreidimensional eingemessene Oberflächen lassen sich nun auch direkt dreidimensional darstellen. Nach dem erfolgreichen, jedoch sehr kostspieligen Einsatz
04:22
von terrestrischen Laserscannern in der Archäologie sind seit Ende der ersten Dekade dieses Jahrtausends in steigender Anzahl archäologische Publikationen zur Anwendung der Structure-from-Motion-Methode erschienen. Wie genau entsteht nun aber aus einfachen 2D-Fotos ein 3D-Modell?
04:41
Die Methode benötigt Fotos des Objektes aus unterschiedlichen Blickwinkeln. Mit der fotogrammetrischen Methode der Bündeltriangulation, einer Mehrbildauswertung, die 3D-Koordinaten von korrespondierenden Punkten ermittelt, die auf mehreren Fotos gleichzeitig identifiziert werden können, ist es schon seit längerem möglich, 3D-Oberflächen zu generieren.
05:04
Das Verfahren macht sich zu Nutze, dass sich bei leicht veränderter Kameraposition die Abstände der abgebildeten Objekte zueinander scheinbar verändern. Nach diesem Prinzip funktioniert auch stereoskopisches Sehen mit unseren Augen. Durch Bilderkennungsmethoden lassen sich heutzutage
05:20
für die meisten Bildserien einer Szene eine Vielzahl solcher gemeinsamer Punkte automatisch ermitteln und als Grundlage für die Structure-from-Motion-Methode verwenden. Das Resultat von SFM ist, wie beim Laserscanning, eine sogenannte 3D-Punktwolke, Englisch Point Cloud, der zusätzlich ein Farbwert zugeordnet ist.
05:53
Der konkrete Arbeitsablauf beginnt mit einer zielgerichteten Fotoaufnahme. Im nächsten Schritt wird die Punktwolke prozessiert.
06:02
Diese beiden Arbeitsschritte sind Teil eines jeden SFM Workflows. Die Referenzierung und Texturierung der Punktwolke zählt bereits zum Post-Processing, das sich in seiner Anwendung nach der jeweiligen Zielsetzung des Projektes richtet. In unserem Tutorial werden für diese Arbeitsschritte Symbole verwendet,
06:22
die jeweils in der rechten oberen Ecke der Folien wieder erscheinen. Der erste Arbeitsschritt, das Aufnehmen der Fotos, ist bereits ein gängiger Arbeitsschritt in allen Grabungs- und Dokumentationsprojekten in der Archäologie und Bauforschung. Im Unterschied dazu muss hier jedoch auf eine Überlappung der Bilder
06:42
von mindestens 60%, besser sogar 80%, in horizontaler und vertikaler Richtung, das heißt in den X- und Y-Achsen, geachtet werden. Nur so können bei der Bündeltriangulation die korrespondierenden Punkte erkannt werden. Bei ganzen Objekten sollte bei einer Umrundung auf Aufnahmen
07:03
aus mindestens zwei unterschiedlichen Höhen geachtet werden. Falls das Objekt georeferenziert werden soll, müssen vor der Aufnahme der Fotos gut sichtbare Messpunkte angebracht und so genau wie möglich, zum Beispiel mit einer Totalstation, eingemessen werden. Dabei sollte die Vergabe eines eindeutigen Identifiers, kurz ID,
07:24
wie zum Beispiel einer Nummerierung der Messpunkte, auf keinen Fall vergessen werden. Wie der Name der Methode mit dem Begriff Motion bereits andeutet, wird das Aufnahmegerät und nicht das Objekt bewegt. Eine Ausnahme bildet die Dokumentation sehr kleine Objekte.
07:42
Diese können zum Beispiel auf einem Drehteller platziert und bewegt werden, wobei die Kamera statisch verharrt. Empfehlenswert ist es bei Kleinobjekten, den Hintergrund so homogen wie möglich zu gestalten, zum Beispiel in weiß oder schwarz. Dies hat zur Folge, dass diese Bereiche nicht als Punktwolke dargestellt werden.
08:02
Mit einer geringen Tiefenschärfe erreicht man bei kleinen Objekten zusätzlich eine stärkere Fokussierung auf das Objekt. Ein uninteressanter Hintergrund wird ausgeblendet. Dies erreicht man durch eine offene Blende mit kurzer Verschlusszeit. Bei großen Objekten, wie Architektur oder Landschaft, ist Tiefenschärfe notwendig.
08:25
Man arbeitet hier mit engeren Blenden, d.h. einer großen Blendenzahl. Die optimale Blendenzahl sollte durch eine vergleichende Bildreihe ermittelt werden, da dieser Bereich bei jedem Objektiv unterschiedlich ist. Grundsätzlich gilt auch bei dieser Methode, je qualitativ hochwertiger die Rohdaten,
08:45
in unserem Fall das Bildmaterial, desto besser das daraus erstellte Modell. In unscharfen und über- oder unterbelichteten Bildern ist es für den Algorithmus nicht möglich, korrespondierende Punkte zu identifizieren.
09:03
Auch können diese Fotos später nicht für eine Textur verwendet werden. Deshalb sollten sie bereits vor dem Import in die Prozessierungssoftware aussortiert werden. Empfohlen wird ein hochaufgelöstes, nicht komprimiertes Format, z.B. ein Raw-Format, mit gleichbleibenden Einstellungen in Bezug auf Beleuchtung und Schärfe.
09:24
Automatische Bildkorrektoren sollten während der Aufnahme generell ausgeschaltet werden. Schließlich muss man bedenken, dass sich nicht alle Materialoberflächen für diese Methode eignen. Ungeeignet sind z.B. stark reflektierende oder transparente Oberflächen.
09:43
In diesem Beispiel wurde ein Gipsobjekt, ein grundsätzlich nicht gut geeignetes Material, mit farbigen Messpunkten präpariert, um Anhaltspunkte für korrespondierende Punkte zu schaffen und Kontraste zu erzeugen. Die Abbildungen zeigen die Ergebnisse unterschiedlicher Prozessierungssoftware
10:01
im Vergleich zu einer Aufnahme mit dem Laserscanner. Die bereinigte Punktwolke von Visual SFM in Abbildung 3 zeigt noch deutliche Lücken. Das Open-Source-Programm Bundler Tools scheint hier mehr Oberflächenstruktur zu erkennen. Allerdings zeigt der Blick von oben eine ringförmige Anordnung der Punktwolke,
10:21
die auf eine fehlerhafte Berechnung zurückzuführen ist. Dieses Beispiel verdeutlicht die Grenzen der Methode. Die Oberflächenvermessung mit einem terrestrischen Laserscanner war hier am erfolgreichsten. Momentan stehen zur Prozessierung von 3D-Punktwolken aus digitalen Fotos
10:40
eine Anzahl proprietärer, freier und Open-Source-Programme zur Verfügung. Im praktischen Teil des Tutorials werden wir uns auf Programme beschränken, die auch im GIS-Labor des Exzellenzclusters Topoi installiert sind und verwendet werden können. Von den proprietären Programmen haben wir Agisoft Photoscan Pro ausgewählt.
11:02
Zum einen wurde es auf der UAV-Konferenz 2014 einstimmig als die zurzeit beste Prozessierungssoftware auf dem weltweiten Markt anerkannt. Zum anderen ist die Software in ihrer Basisversion vergleichsweise preiswert. Unter den freien Programmen sticht das Programm VisualSFM heraus.
11:23
Dieses ist nicht nur vergleichsweise leicht in der Handhabung, sondern kann auch ein sehr detailliertes Handbuch vorweisen, einschließlich Erläuterung der verwendeten Algorithmen. Zusätzlich stellt es Funktionen zur Georeferenzierung bereit. Letztere Funktion ist in Agisoft Photoscan nur in der verhältnismäßig teuren Pro-Version verfügbar.
11:43
Beide Programme werden im anschließenden praktischen Teil vorgestellt. Weiterhin erwähnenswert ist die auf archäologische Bedürfnisse zugeschnittene Software Aspect3D von der deutschen Firma Arctron. Sie beinhaltet neben beiden Funktionalitäten der Punktwolkenberechnung und der Georeferenzierung
12:04
auch die Möglichkeit einer Datenverwaltung der fertig gestellten 3D-Objekte über eine PostgreSQL-Datenbank. Zusätzlich können Autofotos, ähnlich wie in der Agisoft Pro-Version, erstellt werden. Im Open-Source-Bereich wurden die bisher besten Ergebnisse mit dem Softwarepaket Bundler Tools erzeugt.
12:26
Wie bei VisualSFM wird hier der gleiche Algorithmus CMWS, PMWS zur Erzeugung der verdichteten 3D-Punktwolke verwendet, welcher nach einer Vergleichsstudie mit unterschiedlichen Objekten und Materialien in Bezug auf Punktanzahl und Genauigkeit
12:42
bedeutend besser als zum Beispiel die Datenaufnahme mit einem terrestrischen Laserscanner abschneiden kann. Da VisualSFM mit seinen Ergebnissen diesbezüglich mit Bundler Tools durchaus konkurrieren kann, wird aufgrund der leichteren Handhabung nur VisualSFM in diesem Tutorial behandelt.
13:00
Schließlich gibt es zwar kostenlose, allerdings proprietäre Web-Services, welche die Punktwolkenberechnung und zum Teil auch die Texturierung online vornehmen. Hier sollte man jedoch bedenken, dass dafür die Fotos auf einen unbekannten Server geladen werden. Falls es sich dabei um wissenschaftlich sensibles Material handelt, ist diese Variante nicht zu empfehlen.
13:23
Weiterhin benötigt man, vor allem für komplexe Objekte mit hoher Auflösung, die aus einer großen Anzahl von Fotos bestehen, eine sehr schnelle und stabile Internetverbindung. Der Einblick in diese beiden Softwareprogramme soll Ihnen die Möglichkeit geben,
13:44
Gemeinsamkeiten und Unterschiede in den Programmworkflows zu erkennen, sowie die unterschiedlichen Ergebnisse vergleichen und beurteilen zu können. Wenden wir uns zunächst dem allgemeinen Workflow unserer beiden Beispielprogramme zu. Der Arbeitsschritt Fotos aufnehmen liegt bereits hinter uns.
14:02
Um optimale Bedingungen für einen Vergleich der Ergebnisse zu schaffen, wird für beide Fallstudien auf die gleichen Rohdaten, d.h. die gleichen Fotos zurückgegriffen. Diese wurden bereits vorsortiert, über- und oder unterbelichtete sowie unscharfe Bilder entfernt.
14:21
In Fallstudie A wird VisualSFM für die Arbeitsschritte Punktwolkenerstellung und Georeferenzierung verwendet. Für die Vermaschung der Punkte, um eine kontinuierliche Oberfläche zu erstellen, benötigt man eine zweite Software. In unserem Beispiel arbeiten wir mit der Open Source Software MeshLab.
14:42
In Fallstudie B verwenden wir die proprietäre Software Photoscan in der Professional Version, in der alle oben genannten Arbeitsschritte durchgeführt werden können. In beiden Fallstudien bekommen wir als Ergebnis eine verdichtete, georeferenzierte 3D-Punktwolke, die als Grundlage für den Vergleich dienen wird.
15:01
Die Texturierung wird in diesem Seminar nicht explizit behandelt. Die Benutzeroberfläche von VisualSFM ist so aufgeteilt, dass man von links nach rechts den vier Arbeitsschritten, wie sie in den meisten SFM Software-Programmen durchgeführt werden, folgen kann.
15:26
Hat man schon etwas Erfahrung mit der Software VisualSFM, können die Voreinstellungen in der nv.ini-Datei optimiert werden.
15:42
Grundsätzlich sollte vor jedem Start einer Session der Task Viewer eingeschaltet werden. Dieser bezeichnet alle einzelnen Arbeitsschritte einschließlich der benötigten Prozessierungszeit auf.
16:04
Nach dem Import der vorsortierten Fotos wird die 3D-Punktwolke berechnet. Diese Berechnung unterteilt sich in vier Arbeitsschritte.
16:22
In einem ersten Schritt werden Einzelbilder mit korrespondierenden Punkten zusammengesetzt, gematcht. Danach werden aus der Stellung der Bilder die jeweiligen ehemaligen Kamerastandpunkte rechnerisch ermittelt.
16:49
Nun wird mit Compute 3D Reconstruction eine ausgedünnte Punktwolke, englisch Sparse Point Cloud, generiert. An dieser Stelle kann man bereits überprüfen, ob die zu erwartende verdichtete 3D-Punktwolke richtig zusammengesetzt ist.
17:08
Gerade Objekte, bei denen sich Muster wiederholen, wie zum Beispiel die Seitenschiffe einer Kirche oder wiederkehrende Ornamentik, werden im 3D-Modell oft falsch zusammengesetzt. Ist man mit der Sparse Point Cloud zufrieden,
17:23
kann man mit der Berechnung der Dense Point Cloud, der dichteren Punktwolke, mit dem CMVS-PMVS2-Algorithmus beginnen. Alternativ kann der Algorithmus CMP-MVS verwendet werden. Hierbei wird der Schritt der Dense Point Cloud-Erstellung übersprungen
17:42
und sofort eine vermaschte Oberfläche erstellt. Im Unterschied zum ersten Algorithmus wird eine künstliche Glättung der berechneten Oberfläche vorgenommen. Falsche Messpunkte, sogenannte Ausreißer, können so leicht eliminiert werden. Bevor die Berechnung beginnt, wird ein aussagekräftiger Dateiname für die Speicherung benötigt.
18:26
Die Punktwolke ist nun fertig? Die Form des Objektes ist wieder erkennbar und stimmt relativ und proportional zueinander überein? Falls dies nicht der Fall sein sollte, sind auf den folgenden Folien einige Hinweise zur Optimierung des Rechenprozesses zu finden.
18:46
Im sogenannten Spanning Tree findet man die Fotopaare mit korrespondierenden Punktpaaren. Hier können manuell weitere hinzugefügt oder gelöscht werden, was im folgenden Näher erläutert wird. Eingebundene Passpunkte, sogenannte Ground Control Points,
19:03
können ebenfalls die Anzahl der Fotopaare erhöhen. Visual SFM kann durchaus eine hohe Bildanzahl verarbeiten. Zu beachten ist aber jedoch, dass dadurch die Rechenzeit exponentiell wächst, da die Software von jedem Einzelbild ausgehend Verknüpfungen zu allen anderen Fotos sucht.
19:24
Schließlich noch zur Information, die Daten der verdichteten Punktwolke werden sowohl in einem Ordner mit der Endung nvm.cmvs abgespeichert, als auch im Ply-Format, das im Moment verbreitetste Austauschformat für 3D-Objekte ausgegeben.
20:00
Über die oben- unten Pfeiltasten der Tastatur lässt sich anzeigen, welche Einzelmodelle erstellt wurden.
20:09
Bei unserem Modell wird deutlich, dass eindeutig zu wenig Fotos gemacht wurden, denn zwischen zwei Bildgruppen konnten keine Verbindungen gefunden werden. Somit lassen sich auch vom Endprodukt nur aus bestimmten Blickwinkeln gute Ansichten erstellen.
20:24
Diese fehlenden Verbindungen sind häufig die Ursache für Berechnungsfehler. Um eine bessere Rekonstruktion zu ermöglichen, ist es von Vorteil, zwei Bilder, die eine hohe Übereinstimmung haben, manuell als Initialisationspaar festzulegen. Dabei geht man folgendermaßen vor.
20:41
In der Spanning Tree Ansicht die beiden Fotos per Rechtsklick markieren und dann über SFM, More Functions, Set Initialisation Pair anklicken. Nun erneut das Pairwise Matching durchführen und die Anzahl der gefundenen Matches, angezeigt im Task Viewer, mit den Daten aus dem ersten Test vergleichen.
21:04
Wurden mehr Matches, d.h. korrespondierende Punkte gefunden, muss die komplette Berechnung der 3D Rekonstruktion, also Spars und Dense Point Cloud, wiederholt werden.
21:35
Nun haben wir eine fertige 3D-Punktwolke. Die Form des Objektes ist wiedererkennbar und stimmt relativ zueinander.
21:46
Handelt es sich dabei um ein singuläres Objekt, wie z.B. einen Gegenstand oder eine Skulptur ohne Raumbezug zur Umgebung, kann man direkt zur Texturierung übergehen. Möchte man einen Maßstab einfügen, empfiehlt es sich, einen Zollstock oder ähnliches mitzufotografieren.
22:03
Falls das nicht möglich ist, kann die Distanz zweier markanter Punkte am Objekt gemessen und als Referenzwert verwendet werden. Die Referenzierung erfolgt nach der Erstellung der Spars Point Cloud. Dafür kann ein lokales Koordinatensystem erstellt werden.
22:21
Bei Objekten mit geografischem Raumbezug ist es möglich, diesen reale Koordinaten zuzuweisen. Sie sollten auf den Fotos gut erkennbar sein. Je höher die Auflösung der Fotos, umso genauer können diese Messpunkte ermittelt werden. Gleiches gilt für markante Punkte, z.B. an Gebäuden, die als Raumbezug verwendet werden können.
23:06
Besitzt man eingemessene Koordinaten, sogenannte Ground Control Points in einem ASCII-Format, kann diese Datei direkt in Visual SFM importiert werden. Dazu muss zunächst die Dateiendung manuell in GCPX umbenannt werden.
23:23
Wichtig dabei ist immer, dass die Tabellenstruktur eine einheitliche Formatierung aus Zeilen und Spalten besitzt, damit sie vom jeweiligen SFM-Programm gelesen werden kann. Die Punkte werden durch Steuerung und Rechtsklick markiert, nachdem man ausreichend hereingezoomt hat.
24:11
Die Koordinaten zu den Werten entnimmt man der importierten Tabelle. Mindestens drei gleiche Punkte, besser vier gleiche Punkte, sollten auf mehreren Fotos markiert werden.
25:21
Danach lohnt sich ein Blick auf den Root Mean Square Error, die mittlere quadratische Abweichung im Task Viewer. Der RMS-Fehler zeigt die Abweichung der Punktpaare auf den verschiedenen Fotos an. Das heißt, je exakter die Punkte aufgrund guter, hochaufgelöster Fotos getroffen werden konnten, umso geringer ist die Abweichung.
25:43
Die Einheit des Abweichungswertes richtet sich nach den Einheiten der eingegebenen Koordinatenwerte. In unserem Fall handelt es sich um die Einheit Meter. Fügt man noch ein weiteres Koordinatenpaar hinzu und beobachtet beim Abweichungswert eine eindeutige Verbesserung,
26:01
lohnt es sich, noch weitere Koordinatenpaare hinzuzufügen, bis der RMS-Wert annähernd stabil bleibt. Nun führt man die GCP-basierte Transformation durch. Über SFM, More Functions, GCP-based Transform, wobei hier GCP für Ground Control Points steht,
26:23
lässt sich die Transformation direkt in Visual SFM durchführen.
26:56
Die affine 3D-Transformation erfolgt in drei Schritten.
27:00
Zunächst wird das gesamte Objekt aufgrund der Stützpunkte skaliert. Den Grad der Skalierung findet man unter der Variable S. Danach wird das Objekt rotiert, das ist der R-Wert, und schließlich transformiert, das heißt es werden die neuen Koordinatenwerte zugewiesen. Man nennt diese Form der Transformation auch SRT-Transformation, skalieren, rotieren und transformieren.
27:27
Affin bedeutet dabei die Bewahrung der relativen Proportionen der 3D-Punkte zueinander. Der MAI mean absolute error, die mittlere absolute Abweichung,
27:44
und RMSI root mean square error, die mittlere quadratische Abweichung, werden oft miteinander kombiniert, um die Abweichungen aller Proben eines Datensatzes feststellen zu können. Der RMSI ist immer größer als oder mindestens gleich groß wie der MAI.
28:04
Je größer der Unterschied zwischen ihnen ist, desto größer ist die Abweichung der Einzelfehler in der Probe. Wenn der RMSI genauso groß wie der MAI ist, sind auch alle Abweichungen des Datensatzes gleich groß. Der RMSI allein zeigt die durchschnittliche Abweichung der Prognose von der tatsächlichen Beobachtung an.
28:26
Somit kann man die Genauigkeit der Abweichungen an den Einzelpunkten einschätzen und damit Rückschlüsse auf die Genauigkeit des Gesamtmodells ziehen. Nach der erfolgreichen Transformation bzw. der Georeferenzierung muss die Punktwolke
28:44
noch einmal als softwareinterne NVM-Datei und als Bundle RD-OUT für den Export gespeichert werden.
29:18
Eine übersichtliche Dokumentation kann auf der offiziellen Webseite von visual.sfm unter www.ccwu.me slash vsfm eingesehen werden.
29:43
Im unteren Teil befindet sich ein Screencast des Entwicklers. Weiterführende Literatur steht am Ende dieses Tutorials auf Seite 44 bis 45. Sehr hilfreich kann die Mailing-Liste zur Software sein.
30:25
Die Punktwolke ist nun berechnet und georeferenziert. Nun kann noch eine Textur hinzugefügt werden. Da visual.sfm diese Funktion nur eingeschränkt zur Verfügung stellt, wechseln wir zur Open Source Software MeshLab. Denn, wir erinnern uns, mit dem Algorithmus CMP-MVS kann eine texturierte Oberfläche erstellt werden.
30:48
Da hier bei der Erstellung der Textur aber auf die Sparse Point Cloud zurückgegriffen wird, sind die Ergebnisse selten zufriedenstellend. Im Ordner der NVM-CMVS-Datei wählen wir die automatisch erstellte Bundle RD-OUT-Datei, das ist die Sparse Point Cloud, aus.
31:09
Danach die ebenfalls automatisch erstellte ListTXT-Datei. Diese beinhaltet die geometrische Zuordnung der Fotos, die zum Texturieren verwendet wird.
31:21
Nun fehlt noch das Mesh-Imply-Format. In der Layer-Ansicht kann man jetzt die Sparse Point Cloud ausschalten. Für die Texturierung ist nur die ListTXT wichtig.
31:48
Die Berechnung erfolgt in zwei Schritten. Zunächst werden die Normalvektoren der Punkte errechnet. Diese zeigen an, in welche Richtung die Punkte, bezogen auf eine Bezugsebene, gewandt sind.
32:02
Zur Bezugsebene verhalten sie sich immer rechtwinklig. Zunächst testet man, ob sie nicht bereits berechnet wurden. Dies kann man überprüfen, indem man sich die Normalen anzeigen lässt unter Render, Show Vertex Normals. Die Normalvektoren müssen immer in Richtung des Lichtes, das heißt der Kameraposition, zeigen,
32:25
da dieser Vektor per definitionem immer orthogonal auf der fiktiven Ebene steht und somit einen Richtungsvektor darstellt.
33:11
Falls keine Richtungsvektoren vorhanden sind, können diese über Filters, Normals, Curvature and Orientation,
33:20
Compute Normals for Point Sets generiert werden. Die Zahl der Nachbarn kann bei 10 belassen werden. Getestet werden kann auch mit 50 und 100. Falls die Normalen in die falsche Richtung deuten, sollte überprüft werden, ob die Checkbox Flip Normals aktiviert war. Gegebenenfalls müsste die Berechnung mit aktivierter oder deaktivierter Checkbox noch einmal durchgeführt werden.
33:48
Im zweiten Schritt wird eine vermaschte Oberfläche rekonstruiert. Die automatisierte Objektrekonstruktion aus Punktwolken kann mit unterschiedlichen Methoden erfolgen. Am häufigsten kommt in unseren Anwendungsbeispielen die sogenannte Dreiecksvermaschung vor.
34:05
Bei einer Dreiecksvermaschung werden die 3D-Punkte durch ein Netz von Dreiecken verbunden. Für die Vermaschung können verschiedene Algorithmen verwendet werden. MeshLab bietet dafür zum einen den Ball Pivoting Algorithmus, abgekürzt BPA, an.
34:28
Dieser erzeugt eine dreiecksvermaschte, geglättete Oberfläche durch Interpolation der Stützpunkte. Die originalen Punkte bleiben dabei nicht erhalten. Das Prinzip des BPA ist sehr einfach.
34:42
Drei Punkte bilden dann ein Dreieck, wenn eine Kugel mit einem vom Benutzer festgelegten Radius überrührt. Die entstehenden dreieckigen Faces können gröber oder feiner ausfallen. Diese Auflösung richtet sich nach dem eingestellten Radius der fiktiven Kugel.
35:01
Alternativ kann der Poisson-Algorithmus verwendet werden. Dabei werden die Punkte in Abhängigkeit von ihrem nächsten Nachbarpunkt verknüpft und gegebenenfalls zusätzliche Punkte interpoliert, sodass ein Gitter mit dreieckigen Flächen entsteht, das eine geglättete Oberfläche, eine sogenannte ISO-Oberfläche, darstellt.
35:22
Die entstehenden dreieckigen Faces können gröber oder feiner ausfallen, je nach Punktdichte und eingestellte Auflösung unter Octree Depth und Sova Divide.
35:58
Die größten Dreiecke entstehen durch die Berechnung der fiktiven Punkte.
36:02
Diese können mittels eines Filters automatisch herausgelöscht werden. Unter Preview und der Verwendung des Schiebereglers kann dazu entfernt der Ausschnitt zunächst überprüft werden.
37:19
Die dabei entstandene Selektion muss mit Select Non wieder aufgehoben werden.
37:24
Ansonsten wird in einem der folgenden Schritte das Gesamtmodell gelöscht. Leider kann man Arbeitsschritte in MeshLab nicht rückgängig machen. Es gibt keinen Undo-Button. Deshalb wird das Anlegen von Kopien in Versionen nach jedem Arbeitsschritt dringend empfohlen.
37:41
Ungeachtet dessen, welche Methode verwendet wird, Ausreißer sind nach einer Vermaschung deutlich als Peaks zu erkennen und können nun leicht entfernt werden. Gleiches gilt für die Ränder von berechneten Oberflächen.
38:55
Schließlich können kleinere Löcher innerhalb der Oberfläche gefüllt und die Ränder bereinigt werden.
42:05
Eine weitere Option der Oberflächenangleichung ist der Laplacian Smooth Algorithmus. Hier sollte man sich allerdings bewusst sein, dass alle Punktkoordinaten neu berechnet werden, um eine homogenere Oberflächenstruktur zu erzeugen.
42:20
Je nach Modell ändert der Glättungsalgorithmus die Form der Oberfläche stärker oder minimal. Um einen Eindruck zu bekommen, kann man die Vorschau nutzen. Der Algorithmus Laplacian Smooth ist besonders geeignet, um Randbereiche zu glätten.
42:43
Ist man mit der vermaschten Oberfläche zufrieden, kann dieser als Grundlage für eine Texturierung genutzt werden. Dafür sind mehrere Schritte notwendig. Zunächst die Parametrisierung der gesamten Vermaschung. Dabei sollte für die Auflösung ein Vielfaches von 2 eingestellt werden.
43:00
Bei diesem Prozess wird im Hintergrund das geometrische Objekt quantifiziert, d.h. mittels Parameter innerhalb einer Funktion beschrieben. Im nächsten Schritt wird der Farbwert der Fotopixel auf die Faces der Vermaschung übertragen.
43:22
Idealerweise sollte hier die Pixelgröße wieder ein Vielfaches von 2 sein, am besten größer als 4096. In diesem Schritt entsteht aus der farbigen Punktwolke eine Bilddatei, die später als Textur verwendet wird. Es sind noch drei weitere Schritte notwendig, bis die Textur angezeigt wird.
43:50
Zunächst sollte das Projekt als Ply- und OBJ-Datei gespeichert bzw. exportiert werden.
44:13
Der Export war erfolgreich, wenn unter Wedge die Eigenschaft Text-Coord auswählbar ist und unter Texture Name die erstellte Textur zu sehen ist.
44:33
Die Textureigenschaften werden in einer zur OBJ-Datei gleichnamigen MTL-Datei abgespeichert.
44:41
Diese muss nun noch modifiziert werden. Dazu wird sie in einem Texteditor geöffnet. In der letzten Zeile wird nach einem Leerzeichen hinter map.kd der Dateiname der Textur mit Dateiendung eingefügt. Auf diese Weise wird dem vermaschten Objekt die Textur zugewiesen.
45:08
Zurück in MeshLab, auf Reload klicken, jetzt wird die Textur auf der Vermaschung dargestellt. Nun können noch letzte Bereinigungsarbeiten durchgeführt werden und das texturierte, georeferenzierte Objekt ist fertig.
45:23
Handelt es sich bei der Texturierung um ein 3D-Objekt ohne geografischen Bezug, kann man einen Maßstab hinzufügen.
46:24
Die zweite Software, die in diesem Tutorial zur Generierung von 3D-Modellen via SFM behandelt wird, ist die proprietäre Software Agisoft Photoscan. Die Standardversion ist kostenlos, besitzt aber einen eingeschränkten Funktionsumfang.
46:41
In der professionellen Version sind sämtliche Funktionen einschließlich der Georeferenzierung und Texturierung enthalten. In unserem Tutorial zeigen wir den Workflow mit der Pro-Version.
47:01
Bevor wir mit dem Prozessieren beginnen, sollten einige Voreinstellungen vorgenommen werden. Unter Tools, Preferences aktivieren wir die Speicherung eines Logfiles und geben einen Speicherort an. Damit werden alle Bearbeitungsschritte dokumentiert.
47:30
Man beginnt wie bei Visual SFM mit dem Hochladen der Fotos unter dem Reiter Workflow. Bei größeren Datenmengen können die Bilder in Chunks, sogenannte Foto-Gruppen, aufgeteilt werden.
47:43
Die Photoscan-Bearbeitungsschritte werden für jede Foto-Gruppe einzeln durchgeführt und die fertigen 3D-Modelle danach miteinander verschmolzen.
48:14
Zunächst werden die Fotos mit Align-Fotos untereinander verglichen und entsprechend der Korrespondenzen geordnet.
48:27
Im generischen Modus werden die Fotos mit einer geringeren Genauigkeit vorsortiert. Im folgenden Schritt werden nur die vorsortierten Paare mit einer hohen Genauigkeit in die nähere Berechnung des Alignment einbezogen.
48:42
Stellt man per Selection Disabled ein, kann das Ergebnis genauer werden, da alle Fotos mit hoher Genauigkeit miteinander verglichen werden. Für diese Einstellung muss man allerdings unter Umständen sehr lange Berechnungszeiten in Kauf nehmen. Reference verwendet man, wenn bereits georeferenzierte Fotos verwendet werden, zum Beispiel aus einer Kamera mit integrierter GPS-Funktion.
49:08
Hohe Genauigkeit sollte man bei einer kleinen Anzahl, wie in unserem Beispiel, verwenden. Medium ist passend für große Datenmengen.
49:23
Mit dem Keypoint wird die maximale Anzahl der markanten Punkte pro Bild angegeben. Mit dem Tie-Point-Limit die maximale Anzahl der markanten Punkte, die in einem Bildpaar gematcht werden. Diese Werte sind objektabhängig und können am besten empirisch ermittelt werden.
49:52
Nach Überprüfung dieses ersten groben Modells kann mit der Berechnung der Dense Point Cloud die Modellberechnung fortgesetzt werden.
50:01
Die Erstellung der Sparse Point Cloud dient einer ersten Überprüfung des Modells. Über View, Show Cameras kann man die einzelnen Kamerastandorte nachvollziehen bzw. überprüfen, ob alle Fotos in die Berechnung einbezogen wurden.
50:32
Ist man mit dem Modell zufrieden, d.h. stimmen die Lage der Oberfläche und die Proportionen zueinander überein, kann und sollte bereits jetzt die Georeferenzierung durchgeführt werden.
50:44
Dazu werden die Koordinaten der eingemessenen Stützpunkte, der sogenannten Ground Control Points, als CSV oder TXT-Datei importiert, das verwendete Koordinatensystem und die Anzahl der Zeilen und Spalten eingestellt.
51:36
Der eigentliche Referenzierungsprozess verläuft ähnlich wie bei Visual SFM.
51:41
Man wechselt in die Einzelansicht der Fotos, indem man ein Foto doppelklickt, zoomt zu den Vermessungsmarken, klickt in den Mittelpunkt und weist mit Klick auf die rechte Maustaste den entsprechenden Koordinatenwert des Messpunktes dem Foto zu.
53:09
In den nächsten Fotos wiederholt man den Vorgang so lange, bis die Marker automatisch an den richtigen Stellen gesetzt sind.
53:50
Nachdem man einige Marker gesetzt hat, werden von Photoscan berechnete Positionsvorschläge mit einem grauen Marker angezeigt. Optimiert man die Position, ändert sich das Markersymbol auf grün und wird nun in die Referenzierung miteinbezogen.
54:08
Dadurch werden automatisch alle nachfolgenden Fotos korrigiert. Je präziser man also bei der ersten Platzierung der Marker arbeitet, desto genauer wird am Ende das gesamte Modell. Ist der GCP auf dem Foto zu unscharf, sollte man zum nächsten Foto wechseln.
56:35
Sind alle Fotos markiert, aktualisiert man das Modell mit dem Button Update und lässt die Abweichungen berechnen.
56:43
Es erscheint nun eine Spalte mit der berechneten durchschnittlichen Abweichung, dem Root Mean Square, für jeden einzelnen Punkt bzw. einer Gesamtabweichung für alle Marker. Ist man mit dem Ergebnis zufrieden, können die Kameraposition mit Optimize Cameras aktualisiert werden.
57:02
Ist das Ergebnis nicht zufriedenstellend, müssen die Marker noch einmal überprüft werden. Die neue Sparse Point Cloud sollte nun die Marker an den richtigen Positionen enthalten und die Z-Achse nach oben, die Y-Achse Richtung Norden zeigen.
57:46
Fallen bereits an dieser Stelle des Workflows falsch berechnete Punkte auf, können diese schon vor dem nächsten Schritt, der Berechnung der Dense Point Cloud, entfernt, d.h. die Punktwolke bereinigt werden. Zum Löschen wählt man ein Auswahl-Tool wie z.B. die Free Form Selection und drückt die Entfernen-Taste.
58:42
Mit der Option Show Region kann der zu berechnende Bereich im 3D-Raum definiert und somit störende, größere Punktmengen im Außenbereich effizient entfernt werden. Noch ein paar Worte zur Navigation in Photoscan.
59:01
Mit der linken Maustaste aktiviert man das 3D-Drehen. Verwendet man die rechte Maustaste, bleibt der Trackball an der aktuellen Stelle und man kann das gesamte Modell verschieben. Mit der mittleren Maustaste aktiviert man den Zoom.
59:48
Für die Dense Cloud-Berechnung können folgende Filter verwendet werden. Mild, wenn es sich um eine stark differenzierte Oberfläche mit vielen Details handelt, und Aggressiv
01:00:00
wenn es sich um eine sanfte Oberfläche mit wenig differenzierter Topographie handelt.
01:00:27
Um die fertige Dichte Punktwolke betrachten zu können, kann man per Klick auf den Button Dense Cloud in den entsprechenden Betrachtungsmodus wechseln.
01:00:54
Schließlich kann zur Überprüfung der verdichteten Punktwolke bzw. als Grundlage für eine spätere Texturierung eine Vermaschung erfolgen.
01:01:03
Da hierbei alle Punkte einbezogen werden, sollte vor diesem Schritt unbedingt eine abschließende Bereinigung erfolgen.
01:02:03
Bei der Vermaschung kann aus folgenden Parametern gewählt werden. Bei Oberflächentyp kann man zwischen Arbitrary, passend für geschlossene Oberflächen bei Objekten, und Height Field, passend für Geländeoberflächen oder ähnliche Planeflächen, die parallel zur XY-Ebene liegen, wählen.
01:02:23
Als Quelldaten sollte man die Dichte Punktwolke bevorzugen. Mit Face Count ist die maximale Anzahl der Faces pro Modell gemeint. Dabei werden nur Punkte innerhalb einer voreingestellten Toleranzentfernung berücksichtigt.
01:02:41
Liegen diese zu weit auseinander, entstehen Lücken. Für diesen Fall kann man die Interpolation aktivieren. Dabei wird innerhalb der lückenhaften Bereiche ein Wahrscheinlichkeitswert berechnet, der sich den umgebenden Werten annähert, sodass eine natürlich erscheinende Oberfläche entsteht.
01:03:15
Die farbige Oberfläche der Vermaschung resultiert aus den Farbwerten der 3D-Punktwolke.
01:03:22
Schaltet man in den einfarbigen Modus, können verbliebene Verunreinigungen besser erkannt werden. Die stellen sich meist als Peak Overshoots oder Underschuts dar.
01:06:01
Die Oberflächendarstellung kann optimiert werden, wenn die originalen Fotos zur Texturierung verwendet werden. Der am häufigsten verwendete Algorithmus im Mapping-Mode ist generisch passend für jede Art von Geometrie und Autofotos. Diesen sollte man auch bevorzugt für georeferenzierte Modelle verwenden.
01:06:24
Hat man allerdings ein referenziertes Architekturmodell, das hauptsächlich aus horizontalen und vertikalen Flächen besteht, bietet sich der Adaptive Autofotomodus an. Im Blending-Mode kann die Qualität der Textur beeinflusst werden.
01:06:42
Im Default Mosaic-Modus werden die Fotoinformationen in den überlappenden Flächen nicht vermischt, sondern das am besten passende Foto ausgewählt. Wogegen bei Average genau diese Vermischung passiert und ein durchschnittlicher Farbwert verwendet wird. Letzteres kann zu einem einheitlicheren Farbwert verhelfen, wenn die Fotos stark unterschiedliche Belichtungen aufweisen.
01:07:09
Die aktivierte Farbkorrektur kann dabei Farbutterschiede aufgrund unterschiedlicher Belichtungen ausgleichen. Aufgrund der dadurch entstehenden hohen Prozessierungszeiten ist jedoch davon abzuraten.
01:07:22
Idealer ist die Vorbereitung der Fotos zum Beispiel in einem Raw-Converter mit anschließender Farbkorrektur.
01:08:27
Schließlich kann eine abschließende Bereinigung vorgenommen werden. Dafür lohnt sich ein Vergleich mit den originalen Fotos, um einschätzen zu können, welche Flächen interpoliert wurden. Auch muss man mit den größten Abweichungen wie immer im Randbereich rechnen.
01:09:49
Ist man mit der Rekonstruktion zufrieden, speichert man diese im softwareigenen Format. Das 3D-Objekt kann in den standardisierten Austauschformaten OBJ und Ply und die 3D-Punktwolke ebenfalls im Ply-Format und anderen exportiert werden.
01:12:09
Auf Basis des texturierten, georeferenzierten Modells kann zusätzlich ein Ortofoto erzeugt und ein Geländemodell im GeoTIFF-Format exportiert werden.
01:13:26
Als No-Data-Value sollte man hier einen unwahrscheinlichen Wert wie zum Beispiel –9999 verwenden. Möchte man Letzteres in Google Earth importieren, kann eine KML-Datei generiert werden.
01:14:22
Abschließend soll noch erwähnt werden, dass der gesamte Workflow in einem Batch-Prozess zusammengefasst und somit für große Bildmengen automatisiert werden kann. Bereinigung und die Georeferenzierung sind hiervon jedoch ausgeschlossen, da diese Prozesse nur manuell erfolgen können.
01:14:40
Der Batch-Prozess eignet sich deshalb eher für eine erste Überblicksprozessierung, ausgewählte Arbeitsschritte oder gut vorbereitetes Material.
01:15:13
Georeferenzierte Modelle haben nicht nur den Vorteil, dass sie mit weiteren Modellen im gleichen Koordinatensystem in 2D und 3D zusammengefügt werden können.
01:15:23
Sie bieten auch die Möglichkeit eines Vergleichs. In unserer Übung wollen wir nun beide Ply-Modelle aus der Software Visual SFM und Photoscan vom Schnitt 2 aus Ostia Antica vergleichen.
01:15:41
Im Layer-Dialog können beide Layer an- und ausgeschalten werden. Dabei werden die Unterschiede der Modelle bereits sichtbar. Der deutlichste Unterschied besteht in der Modellgröße. Dabei ist das Modell aus Photoscan weit überlegen. Ein erstes Fazit wäre also, dass der Algorithmus offenbar eine größere Anzahl an korrespondieren Punkten erkannt hat als bei Visual SFM.
01:16:13
Mit der sogenannten Hausdorf-Distance wird die Distanz zwischen den einzelnen Punkten der beiden Modelle berechnet.
01:16:32
Im Lockfenster des Layer-Dialogs findet man die Anzahl der untersuchten Punkte und den minimalen bis maximalen RMS-Fehlerwert.
01:16:49
Einen direkten Abstandswert für jeden Punkt zwischen den Modellen bekommt man, wenn man unter Filter, Color Creation and Processing, Colorize by Vertex Quality die Qualität der Punkte,
01:17:03
das heißt in diesem Fall die Abstandswerte als Differenzkarte anzeigen lässt. Trägt man hier nun die Minimal- und Maximalwerte der Hausdorf-Distance ein, kann man in der Vorschau einen ersten Eindruck bekommen, an welcher Stelle sich die größten Distanzen befinden.
01:17:21
Mit dem Crop-Anteil kann man den zu untersuchenden Bereich eingrenzen oder erweitern. Dabei ändert sich auch interaktiv der Bereich der Quality Range im Lockfenster. In der entstehenden Differenzkarte entspricht der Rotwert der geringsten Abweichung blau der größten.
01:17:42
Letztere erscheinen typischerweise an den Randbereichen. Unter Umständen kann die Verwendung der Zero Symmetric zu einer übersichtlicheren Darstellung führen. Bei dieser Form der Darstellung werden die Werte der geringsten Abweichung als Grünwerte zusammengefasst.
01:18:09
Den quantifizierten Wertebereich findet man wieder im Lockfenster unter Used.
01:18:32
Zusammenfassend kann man sagen, dass die blauen Wertebereiche diejenigen Bereiche des Photoscan-Modells darstellen, die kein Pendant im Visual SFM-Modell gefunden haben und somit die größten Abweichungen voneinander erreichen.
01:18:46
Das heißt nicht, dass diese Bereiche falsch berechnet wurden. Es kann wie in diesem Fall bedeuten, dass für diese Bereiche zu wenig Ausgangsbildmaterial vorhanden war. Um zu wissen, welche Bereiche man als seriös berechnet betrachten kann, ist es selbstverständlich von Vorteil, das Original zu kennen.
01:19:04
Alternativ kann man sich an den Fotos orientieren. Zum anderen kann man versuchen, die Abstände zwischen Original und Rekonstruktion zu messen. Als seriöse Vergleichsmessdaten können zum Beispiel mit der Totalstation eingemessene Passpunkte dienen.
01:19:21
Leert man diese in MeshLab und berechnet hier wieder die Hausdorf-Distance zum jeweiligen Zielmodell aus Visual SFM oder Photoscan, erhält man wieder die minimalen und maximalen Abstandswerte vom jeweiligen Passpunkt zum nächstgelegenen Punkt der Punktwolke. Ein Vergleich beider RMS-Werte zeigt hier deutlich eine durchschnittlich geringere Abweichung des Visual SFM-Modells zu den Passpunkten.
01:19:50
Wie ist dieses Ergebnis nun zu interpretieren? Der Visual SFM-Algorithmus erstellte ein sehr korrektes, wenn auch unvollständiges Modell.
01:20:01
Photoscan dagegen konnte mit dem gleichen Ausgangsmaterial ein nahezu vollständiges Modell erstellen. Als Kompromiss muss hier jedoch eine durchschnittliche Abweichung von ca. 1 mm in Kauf genommen werden, ein Wert, den man in dem Beispiel einer archäologischen, stratigraphischen Oberfläche problemlos akzeptieren kann.
01:20:21
Zusammenfassend kann man festhalten, dass Visual SFM offenbar korrekter rekonstruiert, allerdings dadurch auch weniger Kompromisse eingeht und somit mehr und qualitativ hochwertiges Bildmaterial für ein zufriedenstellendes Modell benötigt als Photoscan. Die Qualität eines Modells und der entsprechende Aufwand einer Rekonstruktion wird immer von der jeweiligen Fragestellung abhängen.
01:20:46
Diese Entscheidung liegt in den Händen des Anwenders. Wie bereits eingangs erwähnt, ist die SFM-Methode nicht für alle Oberflächenmaterialien geeignet.
01:21:01
Im Vergleich mit dem 3D-Laserscanner schneidet jener zum Beispiel bei stark reflektierenden Oberflächen wie Marmor oder Gips besser ab. Die Structure-from-Motion-Methode hat bei diesen Materialien Schwierigkeiten, korrespondierende Punktpaare zu finden, wie auch ein Vergleich mit der Software Column Profiler zeigt.
01:21:25
Man kann ein solches Problem umgehen, indem man alternativ einen interessanten Hintergrund gestaltet, wie zum Beispiel bei der Dokumentation der Cäsar-Büste. Bei dieser Vergleichsstudie zwischen Structure-from-Motion und terrestrischen Laserscanner-Daten
01:21:43
konnte mit SFM sogar eine höhere Auflösung und Genauigkeit erreicht werden als mit dem Laserscanner. Dies wird zum einen aus der Anzahl der erzeugten Punkte deutlich, zum anderen aus dem geringen RMS-Fehler in Tabelle 2.
01:22:00
Hier wurde die Abweichung des Abstandes von Ground Control Points, die mit der Totalstation eingemessen wurden, gleich mit zwei SFM-Algorithmen verglichen. Die Punktwolken der SFM-Methoden Bundler Tools und Visual SFM wiesen bedeutend geringere Abweichungen auf als die Punktwolke des terrestrischen Laserscanners.
01:22:30
Mit dem Ergebnis eines Gittermodells mit Textur muss noch nicht das Ende des B- und Verarbeitungsprozesses der Ausgangsdaten erreicht sein.
01:22:41
Georeferenzierte Punktwolken können zum Beispiel in einem CAT-Programm, GISS oder wissenschaftlichen Visualisierungs- und Analyseprogrammen weiterverarbeitet werden. Georeferenzierte, textuierte 3D-Modelle sind daneben Grundlage für digitale Rekonstruktionen.
01:23:01
Je nachdem welches Arbeitsziel verfolgt wird, kann man also bei der Erstellung der 3D-Modelle bestimmte Arbeitsschritte wählen. Für archäologische Ausgrabungen, die aus einem Grundriss und Profilaufnahmen bestehen, trägt eine Rekonstruktion, das heißt eine Zusammenführung aller dokumentierten Befunde in einem 3D-Raum enorm zum Verständnis der Ausgrabungssituation bei.
01:23:26
Visuelle Modelle haben einen stark interpretativen Aspekt. Sie können zur Verdeutlichung von theoretischen Modellen dienen. Digitale 3D-Rekonstruktionen können in Grafiksoftware wie Blender oder Maya weiter bearbeitet werden.
01:23:46
Diese Softwareprogramme sind für virtuelle Rekonstruktionen optimiert und werden im musealen Bereich sowie im Ausbildungskontext eingesetzt. Teilweise sind diese Modelle sogar begehbar und oder mit zusätzlichen Informationen aus einer Datenbank angereichert.
01:24:05
Auch dienen diese Modelle als Grundlage für quantitative Analysen wie Sichtbarkeit im 3D-Raum, Beantwortung von Fragen zur Beleuchtung und zum Lichteinfall in Innen- und Außenräumen sowie für Untersuchungen zur Verbreitung von Schall.
01:24:56
Georeferenzierte 3D-Punktwolken können ebenso als 3D-Vektorpunkte in geografischen Informationssystemen quantitativ statistisch analysiert werden.
01:25:08
Auch ist die Weiterverarbeitung dieser Daten in CAD-Systemen zur Erstellung von Plänen und Grundrissen mit anschließender detaillierter Vermessung im 3D-Raum möglich. Schließlich können die Daten mit hinterlegten Datenbanken strukturiert werden.
01:25:25
Sie sind somit abfragbar in Bezug auf Lage, Geometrie und hinterlegten Sachinformationen. Schließlich können die 3D-Objekte zum Beispiel als interaktives 3D-PDF oder in einem 3D-WebGIS veröffentlicht werden.
01:25:56
Alternativ sind 2D-Ansichten der 3D-Objekte als einzelne Ausdrucke oder innerhalb eines Planes möglich.