We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

INSPIRE vs OpenData? - Probleme und mögliche Lösungen

00:00

Formal Metadata

Title
INSPIRE vs OpenData? - Probleme und mögliche Lösungen
Title of Series
Number of Parts
68
Author
License
CC Attribution 3.0 Germany:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor.
Identifiers
Publisher
Release Date
Language

Content Metadata

Subject Area
Genre
Abstract
In den letzten Jahren stieg die Zahl der Portale für offene Verwaltungsdaten (Open Data) stark an. Der volkswirtschaftliche Nutzwert, der mit der Freigabe dieser Informationen verbunden ist, wird in einer Studie der Konrad Adenauer Stiftung aus dem April des Jahres 2016 mit 12,1 bis 131,1 Mrd. Euro p.a. abgeschätzt. Das Ergebnis der Studie war auch ein Grund dafür, dass die Bundesregierung noch innerhalb der laufenden Legislaturperiode die gesetzliche Regelung dafür schaffen will, weitere Daten der Bundesbehörden im Sinne von "Open by Design" freizugeben. Die Länder sind mit der Neuregelung des Länderfinanzausgleichs ebenfalls mit im Boot und wurden angehalten eigene Anstrengungen auf diesem Gebiet zu forcieren. Bei vielen der wirtschaftlich interessanten Verwaltungsdaten handelt es sich um Geodaten. Diese werden – auch aufgrund der 2007 erlassenen EU-INSPIRE Richtlinie – schon seit vielen Jahren mit standardisierten Metadaten beschrieben, sind über Geoportale und Geodatenkatalogsysteme auffindbar und einige von ihnen sind sogar online über WMS sowie WFS nutzbar. Im Vortrag wird kurz ein historischer Abriss über die Entwicklung der letzten Jahre gegeben und im Anschluss auf die unterschiedliche Metadatenstruktur bzw. Sichtweise der "Geodaten-" sowie "Open-Data-Communitys" eingegangen. Es werden verschiedene Lösungsansätze vorgestellt und die noch vorhandenen semantischen, wie technischen Hürden explizit angesprochen. An konkreten Beispielen wird erläutert wie sich Geo-Metadaten semantisch sauber über die CKAN-API in Open-Data Portale überführen lassen und wie man die neuen resource_view-Plugins von CKAN (2.3+) dazu nutzen kann, beliebige externe Anwendungen und Sichten innerhalb von CKAN zu erstellen. Des Weiteren wird erklärt wie sich CKAN, durch Einsatz von ckanext-scheming, auf einfache Weise als allgemeines Transparenzportal einsetzen lässt.
Keywords
1
Thumbnail
13:04
24
39
58
59
Thumbnail
36:34
Spatial data infrastructureWorld Wide WebComputing platformContinuous trackInformationPhysical lawForm (programming)RollbewegungMetadataAgreeablenessWeb portalComputing platformStandard deviationSpatial data infrastructureGeodesicInformation modelSystems <München>AbstimmungsspielComputer animation
World Wide WebMetadataInformationInterface (computing)SoftwareZahlExecution unitData modelStress (mechanics)MetadataInformation modelAustauschformatWeb portalComputing platformStandard deviationRaw image formatInterface (computing)Attribute grammarRow (database)GeodesicOpen sourceComputer animation
Hospital information systemAPIMetadataInterface (computing)Greatest elementVersion <Informatik>Row (database)SoftwareZahlField extensionSynchronizationState of matterGeodesicData modelMetadatenmodellMetadataInformation modelGreatest elementSystems <München>Texture mappingWeb portalElectronic GovernmentPlug-in (computing)Interface (computing)DatabaseEXCELInstanz <Informatik>Object (grammar)Computer animation
FREDComputer animation
DatabaseRow (database)InformationPlatteComputer filePlane (geometry)Plane (geometry)DistanceInternetdienstInternet der DingeMAPPERCarry (arithmetic)MetadataInformation modelSystems <München>Web portalSpatial data infrastructureLecture/Conference
Transcript: German(auto-generated)
Okay, hallo. Ich grüße euch alle hier zum Track und jetzt darf ich den Armin Retterath vorstellen. Der erklärt uns jetzt ein bisschen in Beziehung zu den beiden Open Data und was das da für Gemeinsamkeiten gibt.
Und zeigt uns ein bisschen was, wie man das auch umsetzen kann. Vielen Dank für die Einführung. Morgen zusammen. Das Thema des Vortrags ist heute mal Open Data und Inspire. Und wie können wir diese beiden Platten mit dem Rammensprung zusammen bekommen?
Welche Ansätze gibt es da? Anfangen möchte ich erstmal mit der Victoria. Ich bin aufgenutzt. Ich habe einen kurzen Einblick in die technische Entwicklung von Open Data und Inspire. Woher kommt der ganze Traum? Wie ist der Start momentan?
Welche Probleme tauchen auf, wenn ich jetzt Open Data und Inspire in Verbindung bringen will? Wie ist die Datenübertragung? Ich muss nur auf die Informationsmodelle eingehen. Wir haben da unterschiedliche Informationsmodelle im Bereich Open Data und Inspire. Und ich möchte dann auch einmal konkret vorstellen, wie wir in Rheinland-Pfalz uns vorstellen.
Oder ob demnächst konkret Daten aus Bio-Kortalen in Open Data oder Transparenz-Kortalen überführen wollen werden. Immer auch in hand eines praktischen Wahlspieles. Hoch zur Historie. Angefangen haben viele Dinge im Umweltbereich.
Wir hatten zwischen 1991 und 1995 eine Entwicklung. In den Umweltverwaltungen der Länder. Das war die Roman Revolutionary Information Network. Man hat sich die Frage gemacht, wie man Informationen für die Umwelt ausbrauchen kann.
Man hat sich Konzepte überlegt. Die Meta-Datenmodelle überlegt. Und ein System, das nämlich bis damals Open Data aufgebaut wurde. Open Data ist aber nur auf Deutschland. Ist jetzt auch schon historisch in dem Sinne. Aber das war eigentlich für die Anfänge in dem Bereich von Meta-Daten. 2003 gab es eine Umweltinformationssysteme.
Die dann quasi die Länder und auch den Bund dazu gezwungen hat. Das System aber die Richtlinie umzusetzen. Und dann auch Systeme zu implementieren, die die Öffentlichkeit über Informationen zur Umwelt informieren. Das System hat aufgesetzt auf Meta-Daten, die die Meta-Daten austauschen.
2003 gab es die erste TSI-Richtlinie. Für den Papizekta-Information. Also wie folgende Informationen ingegangen werden. Die quasi von der öffentlichen Verwaltung vorgehalten werden. Wie wir das schaffen. Wie wir eigentlich dem amerikanischen Markt etwas entgegenzusetzen. Und auch eine gewisse Art der Informationsfreiheit hier aufzubauen in Europa.
2004 gab es dann den Schlachtschuss für den Aufbau der Geodateninfrastruktur Deutschland. Unabhängig jetzt von den Dingen, die wir jetzt bisher da besprochen hatten. Geodateninfrastruktur Deutschland war eigentlich mehr so eine Initiative der Vermessungsverwaltungen der Länder.
2004, die man dann politisch verankern konnte. In den Beschluss der Staatsekretär der WI-Government. Und hat sich dann im Endeffekt ein Mandat verschafft, um eine Geodateninfrastruktur in Deutschland zu initiieren. 2007, jetzt vielleicht mal eine kurze Frage.
Wer beschäftigt sich mit Inspire oder muss sich mit Inspire beschäftigen hier? Niemand. Wer will sich mit Inspire beschäftigen? Keiner. Genau. 2007 haben wir diese Inspire-Richtlinie bekommen. Das war damals also initial weltweit der erste Ansatz gewesen.
Wie man eine verteilte Infrastruktur auf Basis von Metadaten, Geometadaten aufsetzen kann. Zu einem Zeitpunkt, als man noch gar keine Standards hatte, um sowas aufzusetzen. Also die Richtlinie ist vor den Standards da gewesen. Die Standards mussten erst entwickelt werden, um sowas zu implementieren. Aber ist eben auch einer der Meilensteine, die jetzt zu Grunde liegen.
2010, jetzt kommen wir in den Bereich Open Data rein. Damals gab es mal so einen nationalen IT-Gipfel. Das ist ein typisches politisches Treppen-Kaffee-Grenzen. Wo man sich dann dazu entschieden hat, auch im Bereich Open Data etwas nach vorne zu bringen in Deutschland. Und man hat entschieden, wir wollen eine Bund-Länder-Plattform schaffen,
wo im Endeffekt alle frei zugänglichen Daten eingestellt werden sollen. Das war damals der politische Beschluss. Um GAF Data zu initiieren. Hamburg hat 2012 sein erstes Transparenzgesetz verabschiedet auf Initiative der Piratenpartei.
Die gab es damals noch. Die hatten im Endeffekt gesagt, wir wollen im Bereich Open Data etwas nach vorne bringen. Und wir wollen auch mehr Transparenz in die Politik hineinbringen. Und haben dieses Transparenzgesetz initiiert. 2012 war eigentlich der Abriss. 2013 gab es dann die erste Freischaltung von GAF Data.
Wer kennt GAF Data oder hat das schon mal gesehen? Das ist diese Bundesplattform, die vom Bund betrieben wird. Wo der IT-Planungsrat, dieses politische Gremium im Bund versucht, alle Open Data-Daten von Bund, Länder und Kommunen zu aggregieren. Und dann der Öffentlichkeit zugänglich zu machen.
2013 als Prototyp freigeschaltet worden. Und 2013 im März auf der CeBIT hatten wir auch in Rheinland-Pfalz etwas ähnliches gemacht. Wir hatten eben auch ein Open Data-Portal initiiert und auch freigeschaltet. Auch rein politischer Aktionismus gewesen. Oktober 2014 gab es das Transparenz-Portal in Hamburg.
Das Gesetz 2012 erlassen worden. 2014 hat Hamburg sein Transparenz-Portal freigeschaltet. Ein Portal, das im Gegensatz zu Open Data über diese Daten selber hinausgeht. Und auch Dokumente quasi publiziert. Da werden auch politische Beschlüsse usw. eingestellt. Beziehungsweise Verträge usw.
Das ist im Endeffekt eigentlich ein umfassenderes System. Wir haben eben gesehen, wir haben Inspire. Das bezieht sich hauptsächlich auf Geodaten, den Austausch von Geodaten. Wir haben Open Data. Das bezieht sich auf den Austausch von frei zugänglichen Informationsquellen der öffentlichen Verwaltung in den meisten Fällen. Und Hamburg wird erstmalig quasi ein Portal,
was quasi alle Informationen der öffentlichen Hand, sei es Geodaten oder seins Daten allgemein, eben auch Dokumente publiziert und den Bürger auf einfache Weise zugänglich machen soll. Das ist jetzt auch schon drei Jahre her. Wird auch heute nochmal vorgestellt auf der CWIT. 2016, genau.
Wir haben 2016, also letztes Jahr, das erste oder die Freischaltung des europäischen Datenportals gehabt. Wer kennt das europäische Open Data Portal? Einer, zwei. Okay, ist überschaubar, genau. Europa, Zusammenschluss verschiedener Nationalstaaten, hat eben auch die Anforderung gehabt, Open Data nach vorne zu bringen.
Wir haben die PSI-Richtlinie. Und man wollte ein System schaffen, was im Endeffekt die Open Data Komfort oder reinen Daten in Europa quasi in einem Portal bündelt. Und dazu hatten wir letztes Jahr quasi ein Open Data Portal freigeschaltet. Kann man sich mal anschauen. Das aggregiert im Endeffekt derzeit alle als Open Data
und geografische Daten klassifizierten Datensätze. Das ist im Endeffekt ein System, das über Harvestingverfahren verschiedene andere Datenportale abstragt und in regelmäßigen, unregelmäßigen Zyklen dann zentral in der Recherche zur Verfügung stellt. Status quo. Also wir haben momentan eine unüberschaubare Zahl von Portalen
in Deutschland, in den Kommunen, in den Ländern, auf Bundesebene. Ihr kennt mich vielleicht jetzt von hinten nicht. Hier ist Gaffdata. Hier haben wir das Rheinland-Pfalzische Open Data Portal. Hier haben wir Geoportal Deutschland. Dann haben wir hier das Transparenzportal von Hamburg. Haben hier nochmal, ah genau, Portal U.
Wer kennt noch Portal U? Ich habe eben angefangen 1991 bis 1996. Eine Forschungs- und Entwicklungs-Sache gewesen. Umwelt-Daten-Katalog. Daraus entstanden ist dann irgendwann Anfang 2000, Mitte 2000 Portal U. Auch eine Rechercheplattform mit einem Informationsmodell hinterlegt
für umweltsrelevante Daten. Frage ist nur, wer hält an der Stelle überhaupt den Überblick? Wir haben also hier verschiedene Arten von Systemen, die davon leben, das Daten ausgetauscht werden. Das Daten, also Meda-Daten ausgetauscht werden und die dann im Endeffekt miteinander geharrtet, verschoben,
aggregiert werden wie auch immer mit unterschiedlichsten Informationsmodellen. Und da haben wir eigentlich oft das Problem. Die Daten, also gehe ich gerne nochmal auf Inspire selber ein, auch wenn Inspire eben ein bisschen ausgelacht worden ist. Das einzige System, was wir derzeit weltweit haben,
wo Meda-Daten gesetzlich vorgegeben definiert werden, wo die Schnittstellen vorgegeben sind, ist eigentlich Inspire. Wir haben also weltweit keine einzige rechtliche Grundlage, um verwaltungsseitig Meda-Daten in sauberen, wohl definierten Austauschformaten und Schnittstellen auszutauschen, außer Inspire.
Das ist also doch noch eine Sache, die man festhalten sollte. Wir haben durch Inspire im Endeffekt zwei Durchführungsverordnungen. Wer hat sich damit schon mal mit auseinandergesetzt, mit der rechtlichen Grundlage? Auch wenige. Wir haben eine Durchführungsverordnung zu Meda-Daten, die definiert, welche Attribute zu Meda-Daten zu erfassen sind,
verpflichtend erfasst werden müssen zu den Geodaten, die für Inspire bereitgestellt werden müssen. Und wir haben eine Verordnung, die definiert, wie diese Daten ausgetauscht werden, die im Endeffekt die Schnittstelle definiert. Das heißt, das ist die einzige Rechtsgrundlage für den Betrieb dieser ganzen Systeme, die wir eben gesehen haben. Und die bezieht sich halt auch leider nur auf Geodaten. Das ist ein kleines Problem.
Genau. Wir haben aber seit 2014, und jetzt gehe ich in den Bereich Open Data, der ist eigentlich auch schon seit mehreren Jahren politisch immer in der Diskussion gewesen. Wir haben gesehen, Hamburg hat einen Transparenzportal und viele Länder haben auch Open Data Portale. Und die Initiative damals,
die ersten Portale, die aufgebaut worden sind, basieren auf Open Source, Software, auf Secan. Wer kennt Secan hier? Das ist ein Projekt von der Open Knowledge Foundation gewesen, um quasi diese Open Data Initiativen auch ein bisschen zu befördern. Also den Nutznietern bzw. den Nutzern
auch eine Software zur Verfügung zu stellen, um Daten auszutauschen. Auf dieser Basis basieren eigentlich fast alle Open Data Portale weltweit. Sie basieren alle auf der gleichen Software. Diese Software hat ein eigenes Informationsmodell. Und dieses Informationsmodell ist darauf optimiert,
freie Daten zu publizieren bzw. den Nutzern relativ einfacher Art und Weise, den Zugang zu frei verfügbaren Daten zu ermöglichen. Diese Software ist natürlich ein Open Source Projekt und hat auch keine standardisierte Schnittstelle oder was auch immer gehabt.
Und das hat dazu geführt, dass wir 2014 auf Initiative auch der EU im W3C eine Empfehlung erarbeiten haben lassen, die das Datenmodell von Secan quasi standardisiert hat im W3C. Das heißt, das Secan-Datenmodell wurde genommen.
Es hat sich gezeigt und hat sich bewährt im Betrieb von Open Data Portalen und hat dann versucht quasi dieses Datenmodell rudimentär abzubilden und zu standardisieren. Hat das schon mal jemand gesehen oder schon mal gehört? Keiner? Genau. Also es gibt eine W3C-Empfehlung, die standardisiert quasi
den Austausch von Metadaten für allgemeine, frei zugängliche Informationen oder Daten. Und dieser Standard heißt DCAT. Keiner gesehen, das finde ich jetzt verwunderlich.
In Deutschland wird momentan auf Basis dieses DCATs, Europa hat das vor zwei Jahren auch weiterentwickelt. Es gibt einen europäischen Standard, der auch verabschiedet worden ist im ESA-Projekt. Das heißt DCAT AP, das ist ein Anwendungsprofil für DCAT, was vorgibt, wie in Europa quasi
freie Verwaltungsdaten auszutauschen sind. Das basiert auf dem Informationsmodell, das ich eben gerade vorgestellt hatte, bzw. dieses Schema, was wir gerade gesehen haben. Und Europa hat DCAT AP publiziert vor zwei Jahren. Und auf der Basis sollen Daten in Europa ausgebaut werden. Deutschland hat letztes Jahr eine Initiative gestartet,
um einen einheitlichen Metadatenstandard zu entwickeln, um Verwaltungsdaten austauschen zu können. Dieser Metadatenstandard wird jetzt im Laufe des Jahres, Anfang dieses Jahres, versucht zu entwickeln. Auch der basiert auf diesem DCAT-Datenmodell,
also auf einer D3C-Empfehlung. Das ist relativ frisch. Nächste Woche ist der erste Workshop dazu, wo sich dann die E-Government verantwortlich, bzw. die Verantwortung für die Open-Data-Portale von Bund und Ländern zusammensetzen und versuchen auf Basis von diesem DCAT-Standard quasi ein einheitliches Metadaten-Schema
für Deutschland zu verabschieden. Wichtig ist jetzt, dass dieses Schema hoffentlich auch mit diesem Inspired-Datenmodell Metadatenmodell auch übereinstimmt. Das ist jetzt eine Sache, da müssen wir halt darauf hinwirken, dass das passiert. Genau, habe ich eben schon mal kurz angesprochen, mehr als 90% aller Datenportale,
Open-Data-Portale weltweit basieren auf CKAN. CKAN ist eine Open-Source-Software, die man sich über GitHub runterladen kann, installieren kann, basiert auf PostPress, dem Python-Framework. Und das sind jetzt ein paar Beispiele, die man auf der CKAN-Seite sich da anschauen kann, das Datenportal Großbritanniens basiert komplett auf CKAN,
Australien, Schweden, Norwegen. Deutschland basiert auch auf CKAN. Im Endeffekt im Hintergrund steckt also überall die gleiche Software. Das ist vielleicht wichtig, noch mal festzuhalten. Und weil wir hier auf der FOSCIS sind und wir uns über Geodaten unterhalten, das griechische Geoportal basiert auch komplett auf CKAN.
Die Vereinigten Staaten von Amerika, Trump Area, basiert auch auf CKAN, das Geoportale Vereinigten Staaten. Die hatten früher mal ein eigenes System aufgesetzt, und haben dann irgendwann die Hoffnung aufgegeben, dazu weit zum Laufenskriegen, und haben im Endeffekt gesagt, wir reduzieren unser Informationsmodell
auf das Minimum und 5 minutes oder so. Genau, und setzen auf CKAN auf. CKAN selber hat verschiedene Schnittstellen. Ich kann Geo-Metadaten in CKAN überführen, indem ich sie harvesten lasse, von CKAN selber raus.
Ich habe einen eigenen Kataloginterface in CKAN vorliegen, das ist basiert auf Pipe-CSW. Das ist auch eine Postgres-Datenbank mit dem Mapping für ISO auf CSW-Basis. Es gibt eine JSON-API, über die ich CKAN fortführen kann. Und ich kann aber auch, das ist von Schweden finanziert worden, dieses neue Metadatenprofil, was auch von der Europäischen Union
generalisiert worden ist. Also D-CAD selber harvesten lassen in CKAN. Und ich kann das auch als D-CAD Endpoint verwenden. Also ich habe verschiedene Möglichkeiten, wie ich so ein Open-Data-Portal, was auch CKAN basiert, mit Daten, Metadaten füllen kann. Probleme, die auftauchen, dass wir unglaublich viele Wege haben,
derzeit diese Systeme zu füllen, zu pflegen. Und da gibt es halt keine standardisierte Vorgehensweise. Wir haben selbst verschiedene Mapping-Verfahren verwendet und eingesetzt. Es gibt vom Bund, vom Geoportal.de, ein Mapping, wo die Daten aus dem Geodatenkatalog zum Beispiel in GAP-Data überführt werden. Es gibt aber auch Wege, die in verschiedenen anderen Bundesländern
über andere Verfahren funktionieren. Das führt dazu, dass wir halt relativ ein hohes Risiko haben, Tobletten auch in den Systemen zu haben. Die Qualität der Geometadaten ist unzureichend. Und die Zuverlässigkeit, wenn man in GAP-Data reingeht und schaut sich diese Daten an, die ist nicht vorhanden.
Wir haben da irgendwelche Metadaten, die aggregiert werden und publiziert werden. Und der Politik geht eigentlich nur darum, die Zahl der Metadaten zu erhöhen, um zu zeigen, dass wir im Bereich Open Data was getan haben. Das ist ein kleines Problem. Jetzt kommen wir zu den Informationsmodellen. Da springe ich kurz drüber hinweg, weil das schon sehr technisch ist,
bzw. zu lange dauern würde, das zu erklären. Wir haben ganz unterschiedliche Ansätze in CCAN, DCAT bzw. bei Inspire und ISO. Die müssten ineinander überführt werden. Jetzt gehe ich ganz kurz auf die Auslandlage in Rheinland-Pfalz ein. Wir haben seit 2012, weil wir 2013
das Open Data Portal Rheinland-Pfalz publiziert haben, eine Möglichkeit geschaffen, aus dem Geo-Portal Rheinland-Pfalz, da hatte ich auch 2013 mal Vortrag drüber gehalten, über die CCAN API in Open Data Portale zu überführen. Das Mapping selber wird von uns durchgeführt im Geo-Portal. Derzeit stehen momentan
4.300 Datensätze zur Verfügung, die auch im GAP-Data auffindbar sind. Damit ist Rheinland-Pfalz momentan eine zweitgrößte Datenanbieter. Der Hauptdatenanbieter ist das Transferenz-Portal Hamburg, das harvesting wird von GAP-Data. Wir sind damit eine zweitgrößte Datenanbieter.
Neue Rahmenbedingungen 2016. Was hat sich geändert? Wir mussten unser System auf eine neue Softwarebasis stellen. Das CCAN-Datenmodell hat ein neues Organisationsmodell bekommen, bzw. es wurden neue Entities eingeführt, die derzeit Organisationsstrukturen abbilden.
Es gibt auch viele Plugins, die in den letzten Jahren entwickelt worden sind, weil das sehr weit verbreitet ist weltweit. Von diesen Plugins setzen wir momentan auf eine Extension, die die Konformität zur Lesung DCAT realisiert. Und dann eben auch eine weitere Extension, die ich hier referieren wollte. Die heißt CCAN-X-Scheming.
Und diese CCAN-X-Scheming ist von Kanada entwickelt worden. Das ermöglicht eine CCAN-Installation mit beliebig vielen verschiedenen Datenmodellen zu hinterlegen. Ich kann verschiedene JSON-Konfigurationsdaten hinterlegen und dementsprechend verschiedene Objektarten aus der Sicht von
Biodateninfrastrukturen in einer einzelnen CCAN-Instanz publizieren. Wir hatten 2016 in Rheinland-Pfalz ein Transparenzgesetz bekommen, was die Politik derzeit ein bisschen in Zugzwang bringt und dazu führt, dass man sich in der Verwaltung Gedanken machen muss, so etwas ähnlich
wie in Hamburg auch aufzubauen, eben ein Transparenzportal. Und um das umzusetzen, hatten wir uns ein paar Gedanken gemacht. Aber ich glaube, die Zeit ist ein bisschen knapp jetzt. Ich gehe ganz kurz darüber hinweg. Wir haben im Rheinland-Pfalzischen
Geoportal eine Struktur, in der wir alle Organisationseinheiten, die wir verwalten, als Gruppen vorhalten. Und dementsprechend mit der neuen Erweiterung des Datenmodells von CCAN ist das halt möglich, oder wird es möglich für uns eine komplette Synchronisierung des Systems.
Noch schneller.
Okay, eine freie Zeit ist vorbei. Ich hätte ein bisschen mehr Zeit gebraucht. Aber deswegen, wir haben jetzt Zeit für Fragen. Vielleicht kann ich im Bereich der Fragen noch ein bisschen ein paar Dinge klären.
Wir können vielleicht auch so sprechen.
Ja, vielleicht stellen wir die Frage einfach so, wenn Fragen sind. Ich wiederhole die Frage. Ich versuche die Frage zu wiederholen. Also, gibt es Fragen. Ich bin jetzt ganz durchgekommen. Keine.
Genau, das konnte ich leider nicht mehr zeigen, weil die Zeit so knapp war. Werden in gaffdata wirklich alle Metadaten aus dem Geoportal Deutschland gehavestet? Nein, die werden natürlich nicht gehavestet, weil diese
Open-Data-Portale im Unterschied zu den Geoportalen natürlich Filter gesetzt haben, die im Endeffekt auch Lizenzen definiert sind. Das bedeutet, nur Daten, die wirklich unter freien Lizenzen publiziert werden, sollten in gaffdata vorhanden sein. Das ist eine politische Entscheidung gewesen. Und dazu haben wir auf Ebene der Geodaten-Infrastruktur
Deutschland uns im Verfahren überlegt, wie wir in den Metadaten diese Lizenzen abbilden können. Und diejenigen, die die Lizenzen so abbilden, wie wir uns vorgestellt haben, abgestimmt haben, die werden auch an gaffdata übertragen. Das sind derzeit 930 mit Status von gestern. Datensätze, die aus dem Geoportal Deutschland
von den 150.000 Datensätzen werden 930 derzeit an gaffdata übertragen. In unregelmäßigen Abständigkeiten. Hat sonst keiner die Anforderung, irgendwo Open Data Portale aufzubauen und Geometerdaten in Open Data Portale zu überführen?
Dass die Open Data Portale momentan in den anderen Weg gegangen sind. Dass die irgendwelche Shape-Dateien,
CSV-Dateien mit indirekten Geokoordinaten reingetragen haben. Kindertagesstätten oder sowas. Aber nie dahinter den Sinn von einem Geodienst oder sonst was gesehen haben. Sondern dass da einfach nur so platte Daten drin waren. Wir sind hier auf der Frostgis und wir unterhalten uns über Geodienste. Geodatendienste und was auch immer. Wen interessiert das? In der Realität.
Außer ein paar Planer oder die, die sich wirklich intensiv mit Gizsystemen auseinandersetzen. Der normale Bürger, der eigentlich auch die Zielgruppe ist von gaffdata oder sein soll, der versteht das nicht. Von daher ist klar, dass die Kollegen von gaffdata sich mit der Problematik der Geodatendienste
nicht besonders intensiv auseinandergesetzt haben. Deswegen sind auch die Informationsmodelle der Systeme ziemlich unterschiedlich. Das heißt, man kann nicht ohne Weiteres eine Geodateninfrastruktur komplett in gaffdata mappen. Man kann sich da Mühe geben. Man kann versuchen, das optimal wie es geht zu realisieren. Das hätte ich gerne noch vorgestellt. Aber im praktischen Beispiel kann ich auch,
wenn noch weitere Fragen sind, nachhinein machen. Aber um daran zu überführen, sind die Informationsmodelle nett. Geodatendienste sind für den Blickpunkt gaffdata bzw. Open Data Portale einfach nur eine Ressource. Ich beschreibe einen Datensatz, das ist eine Datenbank, eine Datenfabelle
oder eine Shape-Datei oder wie auch immer eine CSV-Datei, gibt der eine eindeutige, wohl definierte Lizenz, publiziert diese Informationsquelle und gibt dann verschiedene Links an, über die ich auf diese Informationsquelle zugreifen kann. Einer dieser Links kann eben ein Geodatendienst sein. So ist eigentlich die Sichtweise relativ stark reduziert. Vielleicht auch der bessere Weg.
Das ist schwer zu sagen. So, dann bedanke ich mich bei dir. Den Armin rette...