The SPARQL Unicorn Ontology documentation: Exposing RDF geodata using static GeoAPIs
This is a modal window.
Das Video konnte nicht geladen werden, da entweder ein Server- oder Netzwerkfehler auftrat oder das Format nicht unterstützt wird.
Formale Metadaten
Titel |
| |
Serientitel | ||
Anzahl der Teile | 119 | |
Autor | ||
Mitwirkende | ||
Lizenz | CC-Namensnennung 4.0 International: Sie dürfen das Werk bzw. den Inhalt zu jedem legalen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen. | |
Identifikatoren | 10.5446/67665 (DOI) | |
Herausgeber | ||
Erscheinungsjahr | ||
Sprache |
Inhaltliche Metadaten
Fachgebiet | ||
Genre | ||
Abstract |
| |
Schlagwörter |
14
45
50
55
67
69
72
75
78
87
95
00:00
Uniformer RaumGleitendes MittelElementargeometrieBitHydrostatikVorlesung/Konferenz
00:53
SoftwareMetadatenPlug inDateiformatProjektive EbeneInformationsspeicherungOffene MengeMetadatenPlug inBitOnline-KatalogSoftwareMailing-ListeRepository <Informatik>GraphOntologie <Wissensverarbeitung>InformationDatenmissbrauchPAPDatenformatLinked DataRDF <Informatik>ComputeranimationXML
03:10
DokumentenverwaltungssystemMomentenproblemLinked DataGraphZusammenhang <Mathematik>DifferenteHypermediaBefehl <Informatik>TypentheorieComputeranimation
03:44
ServerDigital Object IdentifierVerfügbarkeitRDF <Informatik>Offene MengeProjektive EbeneGrundraumCASE <Informatik>OnlinecommunityLokales MinimumZahlenbereichProgrammbibliothekSpeicherabzugLinked DataVirtuelle MaschineXMLComputeranimationVorlesung/Konferenz
05:12
ErweiterungRDF <Informatik>HTMLSPARQLOntologie <Wissensverarbeitung>DatensatzStatistikDatenmodellSummeSkript <Programm>Plug inKommensurabilitätIMSOntologie <Wissensverarbeitung>GruppenoperationGraphKlasse <Mathematik>InternetworkingSkriptspracheKonfiguration <Informatik>InstantiierungTabelleWeb-SeiteTurtle <Informatik>TopologieElementargeometrieSchnittmengeVersionsverwaltungSpeicherabzugKontinuierliche IntegrationBrowserDifferenteRichtungNamensraumAttributierte GrammatikPlug inBitBildschirmfensterElektronische PublikationZentrische StreckungRechter WinkelOffene MengeProzess <Informatik>Kontextbezogenes SystemMenütechnikInstanz <Informatik>DatensatzComputeranimation
09:44
DateiHTMLDatensatzPACEKundendatenbankVerschlingungOntologie <Wissensverarbeitung>DatenbankRDF <Informatik>Skript <Programm>Plug inAutomatische DifferentiationStatistikGraphWitt-AlgebraLimitierungsverfahrenDienst <Informatik>Filter <Informatik>APIKlasse <Mathematik>Geodätische LinieGoogleServerGraphMengeJavaScriptMetadatenInternetStandardabweichungSchnittmengeWeb-SeiteDifferenteProzess <Informatik>MomentenproblemUmwandlungsenthalpieCASE <Informatik>HydrostatikKonfiguration <Informatik>Elektronische PublikationKartesische KoordinatenGenerator <Informatik>VisualisierungDatenstrukturComputeranimationVorlesung/Konferenz
13:57
LimitierungsverfahrenRDF <Informatik>Dienst <Informatik>Filter <Informatik>APIGraphSchwingungHTMLLaden <Datenverarbeitung>SoundverarbeitungOffene MengeDienst <Informatik>Prozess <Informatik>DifferenteDateiformatVerschlingungMereologieAdressraumComputerspielBenutzerfreundlichkeitGraphWeb-SeiteSpeicherabzugTelekommunikationSchnittmengeArithmetischer AusdruckMomentenproblemElementargeometrieTemplateTeilmengeSkriptspracheEndliche ModelltheorieElektronische PublikationTaskViewerVisualisierungService providerKeller <Informatik>Mailing-ListeTermResultanteInverser LimesDownloadingKommunikationFluss <Mathematik>LastHTMLGeometrieVerträglichkeit <Mathematik>RDF <Informatik>ServerLimitierungsverfahrenComputeranimation
19:18
Vorlesung/Konferenz
Transkript: Deutsch(automatisch erzeugt)
00:07
Gut, wir starten gleich mit dem nächsten Vortrag zum Thema Sparkle Unicorn Ontology Documentation, Timo Homburg. Ja, vielen Dank. Der Talk ist von mir, aber auch von Florian Thierry. Den habt ihr aber vorher schon gehört, deswegen werde ich den Talk erst mal alleine
00:27
halten. Also es geht darum, wie wir RDF Geodaten mit staatlichen Geo-APs aus RDF-Dumps herausbekommen. Und ihr habt ja schon ein bisschen in dem vorherigen Talk von Florian gehört, was linked open data und was RDF ist. Und ich möchte so ein bisschen zeigen, wie man
00:45
RDF, wenn es denn vorliegt, vielleicht ein bisschen benutzerfreundlicher aufbereiten kann, sodass mehr Leute und speziell hier die Geo-Community was damit anfangen kann. Und dazu muss ich erst mal ein bisschen ausholen, weil Florian hat das schon gesagt, wir beide kommen ein bisschen aus der Forschung. Und bei Forschung gibt es ganz viele Sachen zu beachten. Wenn ihr so ein Forschungsprojekt habt, da habt ihr Publikationen, das heißt Paper.
01:06
Ihr habt aber auch Datenpublikationen und ihr habt auch Softwarepublikationen, die alle spezielle Anforderungen erfüllen müssen oder wo wir dann uns überlegen müssen, in welchen Datenformaten geben wir jetzt diese Informationen heraus? Machen wir Langzeitarchivierung? Welche Metadaten haben wir? Machen wir Fairdata und so weiter und
01:24
sofort? Das ist ein ganzer Fragenkatalog, den wir haben, den wir als Forscher berücksichtigen müssen. Ich rede heute nur bei Datenpublikationen und ich rede auch nur über den Aspekt, wie wir jetzt Linked Open Data Datenpublikationen benutzerfreundlicher gestalten wollen. Die anderen Sachen sind sehr wichtig, aber die
01:43
setze ich jetzt für die heutigen Sachen erst mal voraus, dass die eben existieren und auch angewendet werden. Genau, ich gehe hier so ein bisschen drüber hinweg, weil das hat Florian schon erzählt, Linked Open Data. Wir haben eben einen Graph, der sich da eben ausbildet mit verschiedenen Triples, die wir dann gerne besser visualisiert haben können.
02:06
Auch diese sollten eben natürlich fair sein und in fairer Prinzipien folgen. Die Idee dahinter ist, dass wir das mit einem Plug-in machen, was wir auch schon mal auf der Foskis 2020 in Freiburg kurz angeteasert haben in einem Kurzvortrag. Das nennt sich Sparkling Unicorn Plug-in und es ist ein Plug-in in QGIS.
02:25
Mit diesem Plug-in könnt ihr Linked Open Data Repositories, sogenannte Sparkle Endpoints, anfragen und ihr könnt daraus Geo-Datenlayer in QGIS erstellen. Das sieht dann zum Beispiel so aus, also ihr könnt entweder Sparkle Queries eingeben, das seht ihr in der Mitte,
02:43
oder auf der rechten Seite gibt es eine Liste von sogenannten Geo-Konzepten, die ihr in Triple Stores wie zum Beispiel Wikidata finden könnt, die ihr dann direkt mit dem Doppelklick anfragen könnt und als Layer eben in QGIS bekommen könnt. Auf diesem Plug-in aufbauend kommt jetzt eine RDF Dokumentation, Ontologie Dokumentation und die stellen wir heute vor.
03:03
Die findet ihr auch schon in dem Plug-in. Das Plug-in ist bereits seit mehr als einer Woche mit diesen Features released. Wie können wir jetzt Forschungsdaten als LOD publizieren, als Linked Open Data und wie wird das im Moment gehandhabt? Und warum benutzen wir überhaupt Linked Open Data? Die Antwort ist relativ simpel. Wir haben verschiedene Daten,
03:24
verschiedenartige Daten. Wir haben zum Beispiel 3D Modelle, wir haben aber auch Geo-Daten, wir haben aber auch Bilder und wir haben verschiedene andere Medien, die miteinander in Zusammenhang stehen und die durch den Knowledge Graph dann tatsächlich auch in Zusammenhang gebracht werden. Das heißt der Knowledge Graph verbindet quasi die Medien, die wir haben, mit entsprechenden Aussagen, die wir zu diesen Medien getroffen haben.
03:46
Und wie können wir jetzt Linked Open Data publizieren? Nun, ich habe schon gesagt, es gibt Datenbanken, sogenannte Sparkle Endpoints, da könnten wir prinzipiell Linked Open Data reinpacken. Es gibt auch verschiedene andere Arten, die wir benutzen könnten, um Linked Open Data zu publizieren. In der Praxis ist es allerdings oft so, dass wir ein Forschungsprojekt haben,
04:05
was irgendwann zu Ende ist. Das heißt, das Funding ist auch zu Ende. Das heißt, unsere Universität würde zum Beispiel sagen, ja, nach Ende des Fundings, ja, dann schalten wir eure virtuellen Maschinen ab, wo eure ganzen Sachen so schön gehostet sind. Das heißt, wir müssen uns irgendetwas überlegen,
04:23
wie wir diese Sachen möglichst langfristig speichern, aber dennoch so speichern, dass die eben wertvoll für eine maximal mögliche Anzahl von Forschungscommunities oder auch Anwender-Communities ist. Was letztlich dann bleibt, ist ein Data-Dampf, der dann vielleicht so aussieht, wie hier auf Cnodo gezeigt, also ein File, vielleicht
04:43
eben ein Linked Open Data-File und wenn ihr wisst, wie ihr damit arbeiten könnt, könnt vielleicht eine Python-Library nehmen, um das zu verarbeiten, dann ist das gut für euch, aber vielleicht gibt es Leute, die Interesse an diesen Daten haben, die vielleicht nicht die Möglichkeiten haben, das zu machen.
05:00
Und hier kommt die Idee, dass wir sagen, können wir nicht aus so einem Linked Open Data-Dampf einen sogenannten Linked Open Usable Data-Dampf erstellen? In einer Form, dass wir aus diesem Data-Dampf mehr machen können. Da kommt jetzt unser Tool ins Spiel, beziehungsweise die Erweiterung, dass wir sagen, okay, wir wollen jetzt die Ontologie möglichst so dokumentieren, dass es für möglichst viele
05:23
Benutzergruppen einfacher wird, diese zu verwenden. Und das Naheliegendste wäre jetzt zu sagen, okay, lasst uns doch HTML-Seiten generieren, das haben wir auch vorher in diesem Talk schon gesehen und das könnt ihr auch machen. Einmal, wie gesagt, über das Plugin. Ihr habt aber auch noch andere Möglichkeiten, das zu tun. Es gibt jetzt zum Beispiel
05:42
eine GitHub Action, die könnt ihr benutzen, wenn ihr einen Turtle-Dampf in eurem GitHub-Repository habt, könnt ihr eine Continuous Integration anstoßen und die Continuous Integration generiert euch dann HTML-Dumps, die ihr beispielsweise auf GitHub-Pages hosten könnt. Es gibt es auch als Stand-Align und ein Python-Script, also wenn ihr das lokal haben wollt, könnt ihr das auch machen und es gibt es eben als Plugin-Version.
06:07
Wie funktioniert das Ganze jetzt technisch? Ich habe hier einmal unten links ist quasi das Fenster, was ihr in dem Plugin vorfindet. Dort könnt ihr einen RDF-File laden und es werden euch sogenannte Namespaces vorgeschlagen. Wir haben ja Internet-Adressen,
06:22
sogenannte URIs in diesen Datendumps und viele werden zu Vokabularien gehören. Zum Beispiel werdet ihr da mit Geometrien modellieren, wie Juice Sparkle. Andere werden aber auch direkt eure Daten beschreiben. Das heißt, die Idee ist, ihr wählt aus, in welchem Namespace eure Daten beschrieben sind. Damit das Plugin weiß, das ist der Namespace für eure Daten und danach wird ein Prozess angestoßen, der für jedes
06:48
Datenobjekt, das in diesem Namespace steht, eine HTML-Seite generiert, in diesem Prozess, der auch rechts nochmal dargestellt ist. Das sieht dann zum Beispiel so aus. Hier haben wir ein Beispiel von einer Tonschale und etwas, was darauf annotiert ist.
07:07
Also wir haben immer eine Tabelle, das sind die Act-Daten. Wir haben dann hier zum Beispiel ein Bild. Also wenn ein Bild verlinkt ist, dann wollen wir das natürlich auch auf der Seite sehen. Und auf der rechten Seite haben wir einen sogenannten Klassenbaum.
07:21
Und zwar sind das die Konzepte, die in dem Linked-Open-Data-Graph auftauchen, in gelb und in lila findet ihr die jeweiligen Dateninstanzen, die ihr anklicken könnt und die dann auch jeweils die Internetseiten sind, die generiert wurden. Machen wir das mal an einem Geo-Beispiel. Also wir haben hier den SPP-Datensatz. Das ist ein Datensatz von
07:44
verschiedenen mittelalterlichen Häfen. Und da schaue ich mal, ob wir in den Webbrowser kommen, um uns das mal auf GitHub anzuschauen. Wie man sieht, gibt es hier ein Turtle-File und wir haben hier noch ein Python-Skript. Das hat aber nichts mit dem zu tun, was
08:03
ich jetzt erzählt habe. Das hat einfach dieses Turtle-File generiert. Und wir haben hier eine GitHub-Page, die aus einem Workflow hier generiert wurde. Diesen Workflow könnt ihr wiederverwenden oder als GitHub-Action. Das ist das eigentliche Skript, was das generiert, was wir uns jetzt gleich angucken.
08:24
So, jetzt seid ihr auf so einer Startseite. Da habt ihr zunächst mal eine Übersicht des Graphen. Wenn wir hier so ein bisschen das eindampfen und noch mal rausziehen, seht ihr, hier gibt es verschiedene Klassen. Hier gibt es den Hafen, der ist verbunden zu zum Beispiel Personen oder auch zu Büchern und anderen Publikationen, in denen dieser Hafen erwähnt wird.
08:44
Wir haben hier unten auch noch mal eine Tabelle, wo die Klassen- und Beispielinstanzen sind. Und wir haben auf der rechten Seite den erwähnten Klassenbaum. Da könnt ihr so ein bisschen das Datenset eben explodieren. Jetzt können wir mal schauen, die lasst sich auch noch mal ausklappen. Wenn das jetzt Geo-Konzepte sind, ist das so eine Weltkugel und wenn das
09:02
Instanzen sind mit Geo, ist hier auch noch mal so eine Weltkugel über das hier gelegt. Das könnt ihr dann anklicken und dann kommt ihr da raus, wo eben dieser Hafen wohl war. Ist jetzt wohl hier überflutet. Hier seht ihr die verschiedenen Attribute, die dann dazu passen und ihr könnt auch ein bisschen, hier gibt es noch ein Kontextmenü,
09:23
da könnt ihr so ein bisschen gucken, was sind da für typische Attribute dran an so einem Hafen. Da könnt ihr auch gucken, wo liegt der Hafen jetzt im Grafen, also zu welchen anderen Sachen ist der Hafen jetzt im Graf hier verbunden. Das gibt euch schon mal die Möglichkeit, so ein bisschen dann in diesem
09:44
in diesem Datenset zu navigieren. Wir haben ja noch weitere Beispiele, die hat auch Florian schon erwähnt. Die will ich so ein bisschen überspringen, weil das könnt ihr euch selbst anschauen. Die Sachen sind alle online, unsere Folien sind auch online. Ihr könnt euch dann durch diese Links klicken. Das soll euch nur
10:03
zeigen, was es für Anwendungsfälle tatsächlich noch dazu gibt. Also zum Beispiel, genau das hat Florian schon erzählt, also wir haben verschiedene Sachen hier aus der Archäologie, die wir dokumentieren können. Noch ein Datenset von verschiedenen archäologischen Sachen.
10:22
Und das habt ihr eben schon gesehen, ihr könnt die Metadaten in dem Klassenbaum explodieren. Was ihr aber auch machen könnt, ihr könnt diesen Datendamm mit Sparkle anfragen. Allerdings nicht, weil wir ja nicht auf einem Server sind, von einem Server selbst, sondern ihr könnt ihn in JavaScript anfragen, im Browser, wenn ihr
10:44
Sparkle könnt und euch das interessiert. Dann könnt ihr eben auch den Datendamm anfragen. Ihr könnt genauso den Datendamm herunterladen und dann lokal anfragen. Was ihr auch machen könnt, ist, ihr könnt verschiedene Datenexporte dazu nehmen. Also vielleicht interessiert euch ja gar nicht diese HTML-Visualisierung.
11:02
Vielleicht wollt ihr ja lieber einen GeoJSON daraus generieren, vielleicht wollt ihr lieber CSV draus generieren oder ihr wollt Graph-Analysen machen in Neo4j oder solchen Sachen. Oder ihr wollt einfach den Graph mal visualisieren. Dann könnt ihr weitere Datenexporte dazu wählen, die werden euch dann mitgeneriert. Standard ist tatsächlich nur HTML und linked-Oben-Data-Format.
11:23
Was es auch noch frei Haus gibt, ist eine statistische Aufarbeitung des Datendamps. Das kann interessant sein, weil ihr dann vielleicht wisst, wie viele Knoten gibt es im Graph, wie viele Klassen hat der Graph. Aber auch, was da drin versucht wird, ist, den Graph zu klassifizieren.
11:43
Also es wird geschaut, welche Vokabularien kommen in diesem Graph vor. Zum Beispiel kommt da Geospark für Geodaten drin vor und dann wird im Graph selbst vermerkt, ah, in diesem Graph geht es um Geodaten oder ah, in diesem Graph geht es um Bilder. Ah, in diesem Graph geht es um das, was eben aus dem Graph herausgelesen werden kann.
12:02
Dann haben wir uns noch überlegt, also es ist schön, wenn ihr euch Datenexporte generieren könnt, es ist schön, wenn ihr euch das visualisieren könnt. Was wäre denn, wenn ihr das auch in Google nutzen könntet oder in anderen Applikationen? Und da sind wir natürlich wieder beschränkt, weil wir haben ja keinen Server, wo wir das ausführen können. Das heißt, die einzige Möglichkeit, die uns bleibt, ist tatsächlich so statische APIs zu generieren.
12:24
Statische APIs für die Leute, die das nicht kennen, ist quasi so eine Collection von zum Beispiel JSON-Files, die so in einer Ordner-Struktur abgelegt und im Internet gehostet werden, als wären sie Antworten von einer existierenden API. Und da haben wir uns ein bisschen angeschaut,
12:41
was könnten wir denn für APIs mal so nachahmen und nachgenerieren und nachbauen? Und da haben wir uns mal OGC API Features angeschaut und OGC API Features auch an diesem SPP-Datenset, das wir uns gerade angeschaut haben. Und was wir da machen können, ist, jetzt muss ich nochmal gerade zurückgehen zu dem Datenset.
13:08
Wenn ich hier oben jetzt API angebe, dann kommen wir hier bei einer Open-API-Spezifikation raus, die sich statisch generiert hat. Können das auch nochmal über diese Seite, das lädt jetzt ein Momentchen.
13:28
Aber wenn es fertig geladen ist, sollte da auch eine Open-API-Spezifikation rauskommen. Das sind jetzt relativ viele Sachen. Da kommt es. Hier haben wir jetzt eine Menge von Feature-Collections,
13:41
die in diesem Datendampf drin gesteckt haben, die aus den verschiedenen Klassen, die ihr im Klassenbaum gesehen habt, jetzt herausgeneriert wurden. Diese Feature-Collections kann man jetzt einfach in QGIS einbinden und dann auch in QGIS tatsächlich so visualisieren. Das wird hier gezeigt. Also wir haben hier die Adresse, die auch auf GitHub geht.
14:03
Das könnt ihr auch genauso in QGIS ausprobieren. Hier werden jetzt eine Liste von Sachen geladen. Das sind jetzt tatsächlich in diesem Beispiel Flüsse und Seen. Und ihr könnt diese als Feature-Collections dann in QGIS hier einbinden. Die Limitierung dabei ist, dass ihr nicht suchen könnt,
14:22
weil wir haben ja keinen Server. Und alle Suchergebnisse quasi vorzugegenerieren, das wäre einfach zu viel. Und ihr könnt keine SQL-Filter benutzen. Aber wenn ihr jetzt sagt, okay, ich will das Datensite explodieren und mir einfach nur mal runterladen, dann könnt ihr das im Prinzip damit machen. Und das ist deutlich besser, als wenn ihr ein RDF-File hättet,
14:42
mit dem ihr nichts anfangen könnt. Das Gleiche können wir mit Bildern machen. Vielleicht kennt ihr IIIF. Das ist quasi ein Bilddienst, der euch Bilder und Ausschnitte von Bildern zur Verfügung stellt oder Bilder auch rotiert zurückgibt. Es gibt zwar Bibliotheken zum Beispiel. Das können wir natürlich auch nicht machen.
15:01
Also wir können nicht Bilder rotiert zurückgeben und die alle vorhalten. Aber wir können halt sagen, okay, nur das Laden von Bildern, das unterstützen wir. Und was ihr hier seht, ist ein JavaScript-Viewer, den wir tatsächlich auch in diesen Beispielen dann drin haben, wo ihr euch durch die Bilder klicken könnt einfach. Also noch mal ein anderer Zugang tatsächlich zu diesem RDF-Dump.
15:22
Last but not least haben wir uns noch mal CKAN angeschaut, weil ich habe ja gesagt, ihr könnt verschiedene Datenexporte generieren. Wäre es nicht cool, wenn wir die auch über CKAN abfragen könnten. Auch hier haben wir Limitierungen, weil wir halt in CKAN zum Beispiel wieder nicht suchen können. Oder wir können, das heißt wir können halt verschiedene Datensets auflisten
15:42
und wir können dann verschiedene Datensets dann auch zum Download bereitstellen. Aber wir können nicht alles bieten, was eben CKAN bietet. Was ihr hier seht, ist ein Kukiz-CKAN-Plugin. Und hier haben wir auch wieder tatsächlich quasi das Beispiel von den SPP-Häfen, dass ihr es in CKAN abrufen könnt.
16:03
Damit bin ich auch schon fast am Ende mit dem, was ich zeigen wollte. Was sind die Lessons learned vielleicht für den Tag? Oder was haben wir auch gelernt in dem Prozess, als wir das entwickelt haben? Also wir haben erst mal in der Wissenschaftskommunikation gemerkt
16:21
oder auch in der Kommunikation mit anderen Kollegen, dass linked open data generell nützlich ist und dass die Publikation von den linked open data Dumps auch sehr viele Vorteile hat, weil wir eben viele Daten verlinken können. Aber wir haben immer wieder gemerkt, dass es unheimlich wäre, ist einfach mal kurz über so ein Daten zertreten zu können.
16:43
Weil man müsste es erst prozessieren oder man müsste es aufbereiten. Und jetzt hier mit diesem Tool haben wir eben die Möglichkeit zu sagen, hier ist mein linked open data Set und hier ist die GitHub Page. Da kannst du erst mal ein Bild machen und dann reden wir darüber, wie wir das vielleicht verbessern können oder sag mir mal, was du davon hältst.
17:01
Das ist im Arbeitsalltag fundamental einfacher damit geworden. Das heißt, wir haben eigentlich gelernt, die Explorierbarkeit von so RDF Dumps können wir verbessern durch HTML Deployments. Wir können die Akzeptanz verbessern von RDF, indem wir weitere Exportformate anbieten für verschiedene Communities,
17:22
ohne auch die Expressivität zu verlieren, die uns RDF bietet. Das heißt, die Links, die in RDF sind, die sind ja damit nicht weg, sondern wir haben nur jetzt verschiedene Teile des Graphen genommen und dann in andere Exportformate gepackt. Und wir sind sogar soweit, dass wir sagen können, hey, wir können statische APIs anbieten,
17:42
wo man zumindest die Daten ein bisschen runterladen kann. Und womit wir dann die Möglichkeit haben, dass für verschiedene Communities, wie hier zum Beispiel QGES und OGC API Features, einfach besser konsumierbar zu machen. Das heißt, wir denken damit, können wir so linked open Data Dumps
18:01
dann zu sogenannten linked open usable Data Dumps machen und haben unseren Forschungsalltag und vielleicht auch die Kommunikation dabei die Forschungsergebnisse dann deutlich verbessert. Nichtsdestotrotz gibt es durchaus noch Sachen, die man natürlich noch verbessern kann. Ich habe gesagt, es gibt verschiedene Vokabularien in RDF,
18:23
zum Beispiel für Geo, zum Beispiel für Bilder und die sind nicht alle in diesem Skript integriert. Das ist ein iterativer Prozess, wir gucken, was wird verwendet und was könnte man dann auch wie visualisieren. Beispielsweise 3D-Modelle können wir jetzt visualisieren
18:40
mit verschiedenen 3D-Fuoren. Dazu müssen wir halt gucken, wie sind 3D-Modelle dann dargestellt. Also das ist quasi ein Task, der dauernd irgendwie läuft. Wir gucken uns weitere statische APIs an. Selbst hier auf der Konferenz habe ich jetzt die Stack API kennengelernt. Das wäre vielleicht auch was, was man sich in Bezug Geo noch mal anschauen kann.
19:03
Und das HTML-Template könnte auch noch einige Verbesserungen vertragen. Das ist im Moment sehr rudimentär, also man kann anschauen, was ist im Datenset drin. Aber man kann durchaus noch Verbesserungen machen, zum Beispiel zu den APIs-Linken und so weiter. Genau, und damit bin ich soweit durch.
19:22
Ich bedanke mich für die Aufmerksamkeit und freue mich auch auf eure Fragen. Ja, vielen Dank Timo. Gibt es schon eine Frage? Das ist so gut erklärt, dass es keine Fragen gibt.
19:41
Wunderschön.