Bestand wählen
Merken

NAS - BasisDLM Aufbereitung mit gdal/PostNAS

Zitierlink des Filmsegments
Embed Code

Automatisierte Medienanalyse

Beta
Erkannte Entitäten
Sprachtranskript
morgen zusammen die mir das Wort was eigentlich die Aufbereitung von Basis der Daten mit Open Source ist zu leise also unterdessen stellen wir auch auf funktioniert das ist ok also eines Vortrags ist also diese Basis der Aufbereitung mit Open Source oder Verfahren von stach einfach mal also zunächst Menschenmassen
Hintergründen sagen dass überhaupt losgetreten worden dass das Projekt dann die Umsetzung Costners realisiert haben Rheinland-Pfalz der nächste Paderborn und Nummer 3 wird vom Tobias übernommen hat sich einige Realisierung der Daten wird dann möchte ich gerne mal kurz sei vorstellen wie Daten geändert werden und auch dieses die Geschwindigkeit wird zeigen dass sagen möglich ist dann Fallbeispiele bringen Performance Angaben zum Rennerring Prozess und auf dem Punkte Fleischwaren sprechen auch im Vergleich machen zwischen CSU es und ihre Eignung Bereich von ihrer Dateninfrastruktur schließen damit ist dass wir uns also zu den
Hintergründen oder Geschichte des ganzen Projekts also normalerweise nicht immer der Fall zuständig für die Konzeption der Geodateninfrastruktur also ein schweres für Service Position ist und so weiter haben 2005 gestartet mit dem auf wurde Geodateninfrastruktur und hatten also Videoportal konzipiert und hat noch Probleme gab es mit dem Hintergrund kracht damals gab es keine vektorisierten Daten und waren bis dato halb so habe es so vorhanden aber die topografischen Karten für dargestellt haben die wahren meistens zur Aktualität hat um die 6 Jahre alte Karte und da natürlich gesagt er wolle was oder haben Probleme gab es auch schon fast eine einfache Darstellung haben wir sollten die Daten öffentliche Verwaltung und geworden auch eine höchstmögliche Aktualität damit realisieren und Unternehmen auch Maßstabs vorher und nicht unbedingt jetzt zwischen 1 Produkten bei Tomographen kam es zwischen müssen wir wollten Nutzer die Möglichkeit bieten quasi Objektarten selbständig auszuwählen dieses und dann auch komplett auf ob Restaurants zu setzen aber eine eine der Punkte die bei der Konstruktion des der Portals Roman stand damit die Software nachher auf Dateien konnten und erwarten vorliegen haben muss was darum machen das 1. Produkt
was 2007 erreicht hat gewann als als Hintergrund kracht Einsatz hatten aber Produkt was aus 3 verschiedenen Daten Beständen generiert als Basis der Einzug von 20 Tausend von Vermessungsverwaltung Verwaltung daran dass der 150 Tausend bis heute Morgen schon vom den Vortrag Daten aufbereitet worden sein und als Darstellungen hat quasi das diese angepasst dieses digitaler Navigationsbereich was das kennt das Brandenburger entwickelt aber ab 2004 auf Basis von aber da ja auch die Basis der Daten aus Vista geführt und in Anführungszeichen digitales Navigations erstellt das wird auch heute kaum vom verwendeten schon vor der durch was Istanbul März angelehnt also die Objektdaten ausgedehnt nur die notwendigen Objektarten präsentiert und das Rendering war dynamische Männerbrust des Daten aller Mariataler Prozessdatenbank abgelegt und das wurde der Name schon so vielleicht so um die Stichwahl die Tatsache dass verschiedene Stufen haben rund 150 Tausend und Basis der zusammen mit der andere aber nicht zu lange gebraucht hat die Punkte aus der Datenbank raus Probleme war natürlich die Datengrundlage ist identisch welchen Aktualitäten erschienen ist in Deutschland vorhalten die stellt Dateien für Basis der war als Grundlage genommen hatten für den braucht Datenbank wurde auf Anfrage von Produktionsbereich geliefert gar keine richtig sauer Workflow und zu wenig später Stufen in 3 Stufen kann sich vorstellen dass man schon Mannschaft Bereichen relativ lange dauert die Daten zur Änderung der und hatten aber eigentlich immer haben wollte Tagesaktualität ob es sich der Bereich der auch geschafft irgendwie klingelt wird das tagesaktuelle Daten aus dem Internet das können und um die Probleme zu lösen hat mir gesagt 2007 2008 vom Sommer hinter das für die was die der 250 daran der Tausend dann einfach verwerfend aber einfach sagte der a die Daten von Vegetation und quasi eine eigene Realisierung der Basis der Daten sagt aus dass Datenbank durchführen mit relativ einfachen Verfahren wieder zur Verfügung stehen und damit hat mir dann Vorgabe für Tages sagte aktuelle Ableitungen auf Basis von Dateien noch weil die alte Datenstruktur der Arktis Daten lange noch es Daten von wurde es dank was ich hätte Dateien konvertiert die Attribute von ausgedünnt damit doppelt so viele Daten werden die zu importieren sind also die notwendigen Attribute für die Rentnerin Prozesse wurden mit aus dem 1. herausgezogen und ja dann also mit relativ einfach nicht generalisierende Daten für verschiedene Stufen auf der Brust Wissensdatenbank laufen lassen sich da sie Minuten nachts durch den nächsten Morgen Tagesaktuelles Basis der 13. 8. das war 2007 2008
so dass ein bisschen weiter falls das auf dieses 3 Modelle über gestiegen umgestiegen und das seit den Zeiten gibt's auch keine 1. quasi nicht mehr realisierbar dem haben und wir mussten sein Gedanken machen wie kriegen wir dies aus dieser 3 Datenstruktur die sich nach Auswertung relativ stark widersetzt sich einfach aus der Datenbank überführt und da gab es dieses Ausmaß Projekt was auch 2007 2008 gestartet ist so also Digital Video Tiger weitergeführt wird und es wieder der quasi auch diese objektorientierte Struktur aus 3 aber auch aus falls er es Daten in ganz flach Datenmodelle aus Datenmodell überführt wobei sie Objektarten als eines der Tabelle nach nachher aufgelistet und eine Tabelle die gesamte Nation enthält und da wurde vom Frank ja auch schon System aufgesetzt was sich da eignet das auf mit auf Basis vereitelt Daten zu tun was der als Ausgangskomponente realisiert komplett auf auf das Ausmaß des Defekts diese Struktur aus das Konverter auch benutzt und da die Datenstruktur 3 aber sowohl für alle ist auch als auch tat dies gilt kommt der Konverter jedoch relativ einfach einsetzen die Art des Daten zu konvertieren und das hat getan so dass das Problem warum was auch umsteigen stellen mussten war hatte die Generalisierung waren so schön gewesen Grady Flächen Realisierung bald mit relativ einfachen Verfahren durchgeführt worden und von daher von Frauen zu optimieren und Tagesaktualität war auch nicht aber bis dato und der Zeitpunkt und formal Sommer 2005 also Sommer letzten Jahres war so dass der ideale 1 8. Version auch den Reifegrad erreicht hat das ließen es wieder direkt ohne den nochmal Neukompilieren zu müssen die oder die vorliegen hat die Daten als Komponente abgesagten unterstützt auch seit diesem Zeitpunkt diese Differenz Daten aber das bedeutet unter quasi auf die Änderungen übertragen kommen und damit auch keine großen Worte Zeiten der vorliegen haben so der
Florida und implementiert ist es relativ simpel ja wäre Adressdaten Datenhaltung Scott der auf aber so dass da kommen wir aber Daten raus aus einer es Daten werden über hat kopiert auf was es Jungs recht vor relativ einfach mit einem Core nur werden importiert über die Umwertung oder stellte also über die dann importiert in diesem Ausmaß Datenbank dauert das für den 1. Wort für 500 Megabyte komprimierte XML-Daten 5 Stunden und das Land das andernfalls allein zu Haus aber auch für ganz langsam Maschine außen optimieren der Post namens Datenbank wird dann die Generalisierung durchgeführten rettete dies recht vorstellen wie das Verfahren funktioniert und das Kopieren auf den Rängen sowas relativ einfach da und die Dame Datei kopiert wird von 340 MB nachher nur noch die wirklich notwendig sind für die gesamte Darstellung für wurde allein das Gebiet die 43 MB eine halbe Minute erwartet großes Datenbank importiert und auch relativ schnell ins Rechenzentrum kopiert und auf dieser krachten sei auf dem 8. zwar war das System aus was 8 4 Tage Zeit die Datenbank nach braucht wird wenn die Daten von Merz dabei verschieden Berechtigungsstufen gerendert wird es zur Verfügung gestellt das eigens für Workflow und ich wird
sowieso so kann man die Realisierung vorstellen kann erstmals zusammen an dass die Ästhetik der Student der Bioinformatik Trier und hat im Rahmen eines achtjährigen Praktikums man es die und die Generalisierung mit fast bis übernommen mit ausgelöst hat ich eine Universität eigentlich fordern die Berührungspunkte gab es also alles quasi ist man Neuner ein eigenes kann so wissen und ging eine streitig schnell und passt es auch wirklich ziemlich nächtlichen sofern hat würde eine gute Werkzeuge zur Hand geht genau Norm
Generalisierung der Realisierung bei der klassischen Kartographie ist ein ganz eigenes selbst wenn ich nicht erkannt dass einmischen weist einig habe sich auch das tägliche Aspekte geht immer wieder kritisieren kann das heißt wenn ich jetzt Salentinstraße habe dieser Stadt schlängelt generalisiere die wie kann ich das bekommen dass ich nicht überlappen trotzdem auf einen Blick erkennen kann dass trotz Napster geht es China darstellen soll das ist mit automatisierten Verfahren so einfach nicht möglich und deswegen hab ich mich darauf beschränkt die Laufzeit Verbesserung zu bekommen das heißt es die Zeit zwischen Frage Antwort unserer zur das geht eigentlich durch nur der Vereinbarung auf mit Attribut das das heißt ich einfach die Objekte in der sich die Stützpunkte Ausdünnung also generellen Verlusten mit den Kauf nehmen oder aber da sich Attributinformationen reduzieren das heißt alle vor sich nicht braucht manche woraus als 1. die Bude den relevanten Teile mit wollte das heißt das bei einigen die Widmung sonst wollte für die Dmitry sind heute nicht gar so den ganzen einen der kommt abgesegnet können mit rausschmeißen und indirekt Vereinfachung haben also dadurch realisiert wie gesagt durch das aggregieren von Informationen zu müsse Information und das anders gemacht weil Testflächen also muss Kieren sorgen für einen Teil seiner kennt und ich hab also was große Polygon und ihr hab ich dann zerschnitten kleine Polygone wenn man sich vorstellt das schon ganz kleinen aus diesen diesen Polygone andichtete flogen loben enthalten muss sich jetzt in riesigen Paul riesiges Polygon ist Laden mit mehreren hunderttausend Stützpunkten wenig jetzt linke Bild nur die oben im Bereich des Wassers einladen könnten dadurch keine wesentliche Verringerung von Information nicht einfach muss das erreichen kann aber darauf kommt einem sprechen das anders gesagt hatte war die Übersichtlichkeit zu halten dass der das 1. Informationen zusammengefasst was aggregiert hat das zum Beispiel ich jetzt hier von kommunalen Gebiet also allenfalls hat keinen Landes Flächen Polygonen des Bürgers herstellen nämlich dann wenn es die kommunalen Gebiete zu einem großen Polygon zusammengefasst hat das Räuchern nach für diese These lechzen zu erstellen genau das gibt mir
Maßstabs Ebenen angefangen von gen 0 das ist und kleineren Maßstab größer machte Bytes 1 7 Tausend 500 Dame war das Original Daten zu zu tun also wird der ganz geringfügig Stützpunkt ausgedünnt und auch noch die Weekend das heißt verkenne Zuses Laubwald ist nicht weil dieses Nadelwald das alles noch drin dass die bei den ganzen anderen bald raus und entsprechend wird halt die Ausdehnung der Stützpunkt als Größe Westens ist sequenzielles Verfahren das heißt jede geht es in leitet sich von der vorangegangenen ab das heißt es diesen bald gegen erstellt davon leidig mit demselben Verfahren die einst die einseitig 2 usw. ist halte man sagt jetzt beichtet des Verbunds wird dieses G 6 das ist ein für den zunächst den ganzen Landes Ausbreitung andernfalls geeignet dann Mentalcoach
Schnitzel weit Polygone sind ja im weitesten Sinne komplexer legte das sich oftmals Lichtungen drin oder Schneisen drin deswegen muss man Zwingenderweise mit nötig war arbeiten möchte diese 1. ausbilden und länger das geht eigentlich sehr angenehm gewesen ist dann bringst dadurch komme ich dann die gesagt diese also Objekt daraus die kann ich dann filtern hier für den sagt für alle Objekte die diesen Schwellenwert der Fläche unterschreiten also zu kleine blickte kann direkt rausschmeißen würden einen und legten die diesen Fehler passieren kann ich leider arbeiten und das eigentliche vereinfachen findet hier statt das besser sie dieses bekannt sind die freie wobei ich in diesem sind gefragt wieso auf der Party weiter gearbeitet hat weil er das Tier als das falsch parametrisiert kommt noch was aus also die Polygone werden sie zu abstrakt und Streitereien und Landesgrenzen damit weiterzuarbeiten des Markts und weist auf dem Klopfen Paul sie gefunden hat aus den USA und der des folgendes gemacht der die Objekte erst gebastelt mit der Welt oder nach diesem Buffer wieder abgezogen dadurch Harald wunderbar seine Quittungen bekommen und auch in der Flächen damit ausfüllen könnten Wiesenthal müssen sehr einfacher Einsatz Tossens mächtig in wenn ich jetzt diese
Polygone bearbeitet hat einzelnen müsse die zur zusammenführen es gebe diesen ist heute über das heißt mit diesen Häusern hier wie wenig sollte das ist die eine muss wenn er überführen und die als Parameter für die mit Polygonen übergeben oder danach wieder ein Ring Polygonen mit seinen neuen ausgeschnitten Kreisen da drin
dann kommen Testflächen der 12 angesprochen hatte das war das wir den Kacheln und zwar ging es mir darum wie gesagt Formen zur besseren denn ich verkleinert Kacheln ausschneidet heute die Menschen gesagt dieses Landes Gitter hab ich mir eine Funktion für geschrieben mit einem zusammen 1. wird Funktionen bei zu überlisten die bauen Box diese Polygonen gleich groß haben zuzuschneiden es von der Kantenlänge von 5 bis 50 Kilometer für die größte Aktivierungsstufen hier sieht man mal so eben ist dieses große Polygone und das Feld Wald mit der größten Schulzimmer mitten 2 Polygone aber wenn das jetzt in die 0 Stufe ist Kanada und die mehr und zwar
265 Polygone mit einer Kantenlänge von jeweils 5 Kilometer warum
macht mir das auf mir gesagt wenn ich ins
Tal rausholen ich vieles nur diesen Bereichen ankucken bis Distanzen dieser Information diesen Polygonen könnte mysteriösen aus bis abrufen und davon einen Teil rausschneiden nicht mit wirklich haben möchten das kann ich wieder gehen sagt man direkt diese persönlichen vorher verringert aber die Datenmenge auf diese Polygon und jetzt nur
noch ein paar Beispiele dass aus wie gesagt wir haben hier die Unterscheidung zwischen Nadelwald Laubwald Mischwald drin und die sich normal viel ein Symbol des Bundes wieder berichtet sie auf eine zentrale wahnsinnigen Maßstabs eskalieren wird natürlich Sony auftreten wird das kann
setzt man noch weiter für den nächsten machen dass die 1 bei 17 Tausend 500 mehr für die werden die kann von weniger also die einzige Kraft und das
setzte noch sofort 50
Tausend 100 Tausend 300
Tausend 750 Tausend und des kommen der angesprochene von
während über 57 Tausend und das sind sagt man mir
gestellt das aus besiedelt gleich wirklich
zum Erstarken der 14 der Waldfläche aber die für uns wahrzunehmen darstellen Karte sind analytische Teil der Abertausender bin ich für das ich eine für Restlaufzeit Verfahren und das bringt das wissen Sie zieht nicht aber auch vor einer
120 Abschluss Anfang hatten die liegt insgesamt 14 Millionen Stützpunkte und in die konnten die sich von 97 Tausend das macht von sehr viel aus das des das wird auch diesen ok dann möchte man
leicht zeigen dass aussieht also die
obere Tochter des Ortes Richtungen oben machen über dann ist es ist oder des
langjährigen 80 oder so zu
optimieren so es ist ein jetzt die
damals Schutzbereich 1 zu 1 , 7 Millionen aus gilt
eigentlich von der die ist blau relativ
Kulissen Bereichen geht es aber nicht jetzt , Märkische eigentlich kaum oder den Unterschied in der brach aus wird kaum Unterschiede Bereitstellung sich nicht zwischen den Rasterdaten Hintergrund sehr hoch performanten ist bereitgestellt werden aufmerksam aber ist und den Tage der Darstellung der
gerne den Prozess ist Vektor ersetzt wobei ich schon generalisierte Daten vorliegen haben habe wenn ich jetzt
mehr als eigentlich nur noch wenige in
Kombination mit Luft und der Prozess
selbst ist unglaublich schnell auf und der große Vorteil dieser Sache ist dass die die Daten Tagesaktuelles das mit anderen Verfahren eigentlich nicht machbar heute morgen Vortag gehört haben vom Bundesamt für 14 Tage dauert überhaupt diese Cache dazu erzeugen habe schon mindestens 14 Tage alte Daten vorliegen und dort noch immer nur durch die zusammengesammelt habe ich trage und Jahr auf das heute noch zeitgemäß ist aber schon zu bezweifeln dass der Grund auch deshalb diesen Ansatz verfolgt werden so ist noch offen wo wir doch lieber Motion die Erweiterung von und und und und kommt nicht zur
Verschärfung von aufmachen ok ist
also ein paar Beispiele zu Performance wobei jetzt die Karten und die Zahlen wahrscheinlich nicht sichtbar sind der Bereich aber wir haben die um der 1. Prozess dort , 2 Sekunden aber 3 , 3 Sekunden 0 , 3 Sekunden , 2 Sekunden , 2 , 2 , eine Sekunde länger war Darstellung Smart aber auch von den Bereich wo jetzt vorsieht zu wird auch mit einem lehnten da haben wir hier auch nur eine Sekunde für den Prozess der auch das Luftbild alleine schon mal 0 8 Sekunden auf fast 0 , eine Sekunde um ausgeliefert werden vom Sommer wobei die Daten der Performance aufbereitet also optimiert also wir haben keine großen Unterschied zwischen der Bereitstellung eines normalen Rasterdaten ist im Gegensatz zu diesen Vektordaten basieren
Diensten wenn ich die Generalisierung so Modus Fortran nochmal das leicht rings im Gegensatz zur Bereitstellung dieser 1. Krach die der letzten Zeit überall sehen müssen halt gemacht würde war sehr großen focht frei weil es für die Kundendaten Referenz ist es uns vorstellen wenn ich das Kölner ist wächst in dieses System nach dieser Vertrag unterliegen der nicht wenig Schriften anders als zuvor derzeit nicht doppelt Datenhaltung ist relativ teuer im heutigen sagen Bereich dann kann ich freie Wahl des Ausschnitts ich bin zu gezwungen quasi mit einem Einmarsch Stufen and the auf zu oktroyieren dazu ist auch etwas komplex wenn ich versuche Verschüttung verschiedene Daten verschiedener Hersteller bereitstellen zu überlagern jeder hat andere Anforderer macht das Bereiche die lediglich über einen Kamm scheren könnte es auch dieser geringen Prozess ist ja wirtschaftlich Tellerwäscher haben was angesprochen können dynamischen Legende dynamische Schrift Beziehungen nutzen weiterhin entwickeln als Objektbereiche Nutzer an ausschalten lassen auch das wird des Bereich normalerweise fragte können die Objekte geht Feature vor abgeben Sachdaten abgeben können Eigentümerdaten aber alles da ist deshalb möglich in den Bereichen und ich kann beliebige weitere Produkte halt auf dieser Sektor Datenbasis ohne großen Aufwand erzeugen parallel anbieten und die Datenmenge zu vergrößern und ich kann auf diesem gleichen Datenbank auch 1. aufsetzen die den gleichen Datenbestand abgeben wie auch es ihn zu gering zu verwendet wird es 2 Umsetzungsplan eigentlich auch nicht wichtig so offene Punkte bei der Realisierung der Erwärmung Anpassung gemacht werden müsse für Post bis 200 was ist dort aufgrund unter der Stelle wird das vielleicht überlegen Tagereise das Verfahren auf die Raster sich anzupassen hast General Jungs Algorithmen laufen zu lassen diese wahrscheinlich besser stellen Rennerring Prozess geht uns zu ist dieses die Möglichkeit Web-Server quasi die sich der einzurichten um die realisiert als 1. etwa ausgegeben zu müssen aber sollte der 6 eigentlich umgesetzt worden darauf zum der Fall ist der wo sich nicht mehr aufgelegt haben war diese über und unter Führungstreffer wenn der aus dem Datenmodell für die zur kartografische Darstellung zu nutzen weil die einfach relativ rechenintensivste müsse hat vor Prozess der gesamten Landesfläche und dann anderswo zur Überführung darstellen zu können wurde dieser durch die auf Punkte
munteren und fragen Sie das von
derzeit Terrassen Punktlandung also ganz wunderbar Sabbath ich von nahverwandten aber auch warnen gibt es Fragen alles vorschlagen oder also vielleicht von Zeit zu Zeit dauern sollte Generalisierung setzte ist also kritische hatten früher mal 10 Minuten gab es jetzt aber zweieinhalb Stunden aber auch das des Nachts problemlos möglich zweieinhalb Stunden werden diese 6 Stufen Ödipus es Funktionen der Gerät also sozusagen gebaut und werden dann morgens früh um 4 Uhr auf diese Rendering-Engine rüber kopiert auch der Austausch ist auch relativ einfach zu wenige 2 Datenbanken die eine wird quasi wird für die Dauer des ist ein Kopieren des Damms wird dann quasi die andere der Fall genutzt wird hat sich aber kurzen Übergangszeitraum von Fahrminuten hab ich halt die 8. von gestern wobei aufpassen müssen die Beziehungen vor und zwar wenn die den Datenturbo Ludwig sauberes und Irene Prozesse dann fehlerhafter gegen das das Rechnern teilweise aber es wird vielleicht Verbesserungen machen und die Topologie Prüfung Sorte für also aus der Produktion selbst daraus werden teilweise topologische Konsistenz der Objekte die für das hat es am Montag zum Beispiel Probleme gemacht hat dort haben momentan keine tagesaktuellen diesen von letzter Woche Freitag was so schlecht auch nicht das aber wenn aber es 300 ist aber nur und sonst noch haben wir es hier Server ausgestattet der Regulierung als ausliefert also CDU müssen VOV beschert vor mit aber 8 Ports also wir haben auf der Maschine statt täglich 300 Tausend Klicks unseres sehr viele also ist momentan noch zu viel machen 300 Tausend Jahren der hat 8 aus Tausend also genau wie hoch der 2. definiert haben glaube ich 6 dieser Forderung also auch mit vielen könnte sich da die auch Cluster und alles mögliche überlegen wie wir da die Geschwindigkeit mit geht uns einig und geringen in einzelnen der der soweit reduziert wird das für eine Alternative haben zudem die 1. Weise alle sagen der 1. cool und schnell und geht aber auch mit es ja mal die ganze Vorteil ich aufgelistet hat alles ist haben wir die Möglichkeiten aber die haben wir es mit und müssen wir große Klimmzüge machen diese Daten so aufzubereiten dazu genutzt werden können
Netzwerk-gebundene Speicherung
Open Source
Computeranimation
Geschwindigkeit
Umsetzung <Informatik>
Datei
Position
Maßstab
Biprodukt
Umsetzung <Informatik>
Ableitung <Topologie>
Computeranimation
Web Services
Videoportal
Software
Geodateninfrastruktur
Geodateninfrastruktur
Demo <Programm>
Mathematische Größe
Datei
Darstellung <Mathematik>
Datenbank
Nevanlinna-Defekt
Ableitung <Topologie>
Computeranimation
Informationsmodellierung
ATKIS
Prozess <Informatik>
Flächentheorie
Digital-Analog-Umsetzer
Datenstruktur
Ableitung <Topologie>
Attributierte Grammatik
Google
Internet
Tabelle
Netzwerk-gebundene Speicherung
Datenmodell
Wissensbasis
Digitalsignal
Navigieren
Komponente <Software>
Vektor <Datentyp>
Geodateninfrastruktur
Wort <Informatik>
Version <Informatik>
Rechenzentrum
Datei
Digital Object Identifier
Datenhaltung
Datenbank
Geodateninfrastruktur
Rang <Mathematik>
Umsetzung <Informatik>
Gebiet <Mathematik>
Computeranimation
Ebene
Einfügungsdämpfung
Laufzeit
Maßstab
Polygon
Computeranimation
Objekt <Kategorie>
Ebene
Flächentheorie
Napster <Programm>
Geodateninfrastruktur
Stützpunkt <Mathematik>
Laden <Datenverarbeitung>
Information
Gebiet <Mathematik>
Objekt <Kategorie>
Parametersystem
Kreisfläche
Flächentheorie
Fläche
Geodateninfrastruktur
Hausdorff-Raum
Polygon
Computeranimation
Bildschirmmaske
Verkantung
Polygon
Computeranimation
Funktion <Mathematik>
Kantenmenge
Information
Polygon
Computeranimation
Kraft
Maßstab
Computeranimation
Geodateninfrastruktur
Mono-Framework
Computeranimation
Algebraisch abgeschlossener Körper
Rohdaten
Stützpunkt <Mathematik>
HTML
Computeranimation
Geodateninfrastruktur
Computeranimation
Richtung
Geodateninfrastruktur
Minimalgrad
Computeranimation
Erweiterung
ALT <Programm>
Bewegung
Caching
Vektor <Datentyp>
Minimalgrad
Geodateninfrastruktur
Computeranimation
Vektor <Datentyp>
Schwebung
Zahl
Computeranimation
Chipkarte
Dynamik
Algebraisch abgeschlossener Körper
Datenhaltung
Datenbank
Datenmodell
Biprodukt
Computeranimation
FORTRAN
Objekt <Kategorie>
Dienst <Informatik>
Algorithmus
Verallgemeinertes lineares Modell
Verknüpfungsglied
Schwebung
Objekt <Kategorie>
Geschwindigkeit
Rechenbuch
Algebraisch abgeschlossener Körper
Prozess <Informatik>
Datenhaltung
Server
Cluster-Analyse
Topologie
Funktion <Mathematik>

Metadaten

Formale Metadaten

Titel NAS - BasisDLM Aufbereitung mit gdal/PostNAS
Untertitel Kostenfreie Tools für das performante Management von Geodaten der Öffentlichen Verwaltung
Serientitel FOSSGIS Konferenz 2012: Dessau, 20. - 22. März 2012
Autor Retterath, Armin
Lizenz CC-Namensnennung 3.0 Unported:
Sie dürfen das Werk bzw. den Inhalt zu jedem legalen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen.
DOI 10.5446/15880
Herausgeber FOSSGIS e.V.
Erscheinungsjahr 2012
Sprache Deutsch

Inhaltliche Metadaten

Fachgebiet Informatik
Abstract Vorstellung eines kostenfreien Verfahrens zur Bereitstellung von tagesaktuellen und maßstabsfreien WMS Diensten auf Grundlage von AAA DLM Daten. Seit der Integration einer lesenden Schnittstelle für die NAS Daten in die gdal Bibliothek, kann beinahe jede Software die gdal nutzt auch NAS XML Dateien lesen und bei Bedarf darstellen. Die Schnittstelle ermöglicht eine Überführung der kompliziert modellierten NAS Objekte in eine relativ flache Datenstruktur. Die Beziehungen der Objekte untereinander werden dabei in einer eigenen Tabelle abgelegt. Auf Grundlage dieses Konverters, der aus dem PostNAS Projekt stammt, wurde schon ein Auskunftssystem für Katasterdaten aufgesetzt (ALKIS Auskunft des Kommunalen Rechenzentrums Minden-Ravensberg/Lippe). Das System basiert auf den FOSS Komponenten UMN Mapserver, Mapbender und PostGIS. Da die Datenstruktur von ATKIS mit der von ALKIS identisch ist, läßt sich der Konverter auch für die Daten des Digitalen Landschaftsmodells einsetzen. In einem Proof of Concept wurden die Daten des BasisDLM's (Vektordaten 1:25.000) von Rheinland-Pfalz über die PostNAS Schnittstelle in eine PostGIS-DB überführt und dort mit PostGIS Funktionen in 6 Stufen generalisiert. Das Rendering übernimmt hier, wie auch bei der ALKIS Auskunft, ein UMN Mapserver. Beim Aufsetzen der Logik wurde besonderes auf ein performantes Rendering der Vektordaten geachtet. Der einzelne Renderingprozess selbst braucht in allen Stufen weniger als 0.5s pro Bild. Da der gesamte Importprozess für Rheinland-Pfalz mehr als 5h benötigt, geschieht die Fortführung der Daten über das s.g NBA Verfahren. Hier werden täglich nur die Änderungen übertragen. Der WMS, dem man als Ergebnis erhält, rendert die Daten die am Tag zuvor in der Datenhaltungskomponente der Vermessungsverwaltung fortgeführt werden. Das Verfahren eignet sich sehr gut für Nutzer, die über wenig bzw. keine finanziellen Mittel verfügen um sich teure proprietäre AAA Konverter anzuschaffen. Inhalt * Hintergründe / Geschichte * BasisDLM Umsetzung mit PostNAS * Generalisierung * Live Demo * Performance * Live Rendering

Zugehöriges Material

Ähnliche Filme

Loading...
Feedback