OpenStreetMap-Extrakte als Service in nahezu "Real-Time"
This is a modal window.
The media could not be loaded, either because the server or network failed or because the format is not supported.
Formal Metadata
Title |
| |
Title of Series | ||
Number of Parts | 95 | |
Author | ||
License | CC Attribution 3.0 Unported: You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor. | |
Identifiers | 10.5446/36187 (DOI) | |
Publisher | ||
Release Date | ||
Language |
Content Metadata
Subject Area | ||
Genre | ||
Abstract |
| |
Keywords |
1
6
10
11
12
14
15
16
23
28
37
39
41
50
53
54
58
60
62
68
70
71
72
74
76
77
78
79
82
83
86
90
95
00:00
Service (economics)
00:07
Curve fittingInformation and communications technologyComputer animation
00:14
APIRoutingGeoinformationMatrix (mathematics)Computer animation
00:18
Uniformer RaumCurve fittingService (economics)Computer animation
00:28
Curve fittingUpdateComputer animation
00:42
UpdateDatabaseComputer animation
00:50
Curve fittingComputer animation
00:53
Curve fittingInstanz <Informatik>DatabaseComputer animation
01:07
Curve fittingEigenvalues and eigenvectorsTask (computing)Aktion <Informatik>PolygonServer (computing)UpdateInstanz <Informatik>WEB
01:42
Server (computing)UpdateDatabaseAPIGebiet <Mathematik>Gebiet <Mathematik>UpdateTask (computing)Server (computing)Instanz <Informatik>Computer animation
02:20
Firefox <Programm>Open sourceInstanz <Informatik>Task (computing)Computer animation
02:26
Task (computing)Firefox <Programm>UpdateUniform resource locator9 (number)RandLink (knot theory)Task (computing)RAMComputer animation
03:19
Computer animation
03:23
Curve fittingTask (computing)Limit (category theory)DatabaseComputer animation
04:14
Computer animation
Transcript: German(auto-generated)
00:07
Hi, ich möchte mein aktuelles Projekt am Highgit vorstellen, dem Heidelberger Institut für Geoinformationstechnologie. Den ORS hat Julian ja schon vorgestellt, ich bin ein bisschen ein Kollegen. Und wie jedes gute Projekt startete meins mit einem Problem und das
00:21
Problem war der Klassiker, irgendwas ist zu langsam. Niemand hat ein Problem mit dem Open-Route-Service bis dann die Disaster-Mappers kamen, in Heidelberg falls das jemand schon mal gehört hat und das Humanitarian Open-Street-Map-Team unten in Open-Route-Service für Disaster-Management machen wollte und da war das Problem, dass das Grafen-Update
00:43
sehr langsam war, dauerte nämlich genau sieben Tage, das heißt die Daten sind immer sieben Tage alt und der rechnet auch sieben Tage durch dabei. Eine Lösung für das Problem, das wir dann verfolgt haben, war pro Region eine ORS-Instanz laufen zu lassen, pro Disaster-Region, dadurch ist die Datenbasis viel kleiner und die
01:00
Grafen-Updates gehen viel schneller. Jetzt aber noch das Problem, dass wir aktuelle Daten haben wollen und hier kam mein Projekt ans Spiel. Das sieht so aus, es ist ein Web-Server, der quasi Tasks verwaltet und jede Task ist dazu da einen Extrakt zur Verfügung zu stellen. Man kann damit ganz individuell über Polygone eigene
01:22
Regionen definieren und eigene Update-Intervalle definieren, die dann automatisch von dem Web-Server aktuell gehalten werden und natürlich auch bereitgestellt werden. Hier sieht man das Ganze schon in Aktionen beim Open-Route-Service für Disaster-Management und in rechts kann man schön sehen, dass man die Regionen einzeln auswählen kann,
01:40
der springt dann auf die jeweilige Instanz um. Technisch ist das Ganze auf dem Node.js-Server aufgebaut, der verwaltet die Update-Tasks in einer SQLite-Ratenbank und hält die Daten alle aktuell, stellt aber auch eine API bereit, mit der jeder ganz einfach Tasks hinzufügen und entfernen kann und natürlich gibt es auch noch das Webfrontend, das wir gerade gesehen haben, mit dem man ganz intuitiv die Daten verwalten kann. So, die Updates laufen wie folgt ab, das ist bestimmt der
02:04
interessante Teil für viele. Der Server versucht den kleinsten möglichen Geofabrikextrakt zu finden für die gewünschte Region, schneidet die dann zu auf das Wunschgebiet und hält die dann fortlaufend up-to-date mit osm-update. Ich kann das mal kurz demonstrieren, wir haben nämlich eine Instanz
02:23
geschaltet für die Foskis. So sieht das Ganze aus. Man hat hier die Karte, kann hier Tasks hinzufügen, wo immer man auch will und hier oben sehen Sie die URL, Sie können auch gerne drauf zugreifen, der wird
02:41
ungefähr bis Sonntag online sein, der Server, aber bitte nicht zu große Tasks reinladen, das Ding hat nur zwei Gigabyte RAM und wenn man jetzt beispielsweise HIT hinzufügen will, kann man hier noch ein Expire-Datum angeben und Update-Intervall und die Tasks submitten. Okay, die Zeit läuft,
03:10
anscheinend ist die Internetverbindung gerade schlecht, unabhängig davon kann man hier unten dann alle Tasks, auch noch per Adjacent, sich ausgeben lassen und sich alle Daten zur Verfügung stellen lassen und wir sind damit auch
03:23
sehr zufrieden bislang. Es gibt aber noch ein, zwei Limits und zwar haben wir ein Problem, wenn das Wunschgebiet größer ist als der größtmögliche Geofabrikextrakt, dann wird kein Geofabrikextrakt gefunden logischerweise und die Tasks kann nicht zur Verfügung gestellt werden. Was wir uns dann überlegt haben ist, man könnte einen Planetfile vorhalten oder ein Osmosis-Datenbank, allerdings war das Ziel für unser
03:44
Projekt ja, dass es sehr benutzerfreundlich sein soll und jeder sich das runterladen können soll und dann ist es ungünstig, wenn man ganzes Planetfile vorhalten muss. Die zweite Option war Overpass abzufragen, aber die ist momentan dafür noch zu langsam. Wenn da jemand noch eine Idee hat, würden wir uns sehr freuen. In Zukunft werden wir die
04:02
Planetfile-Variante noch implementieren, aber bislang basiert das Ganze auf den Geofabrikextrakten. Vielen Dank und wenn Sie eine Frage haben, können Sie immer zu mir kommen oder mir eine Mail schreiben.