Open geodata, GI-software und science am Beispiel einer räumlichen COVID-Studie
This is a modal window.
The media could not be loaded, either because the server or network failed or because the format is not supported.
Formal Metadata
Title |
| |
Title of Series | ||
Number of Parts | 107 | |
Author | ||
License | CC Attribution 4.0 International: You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor. | |
Identifiers | 10.5446/61157 (DOI) | |
Publisher | ||
Release Date | ||
Language |
Content Metadata
Subject Area | ||
Genre | ||
Abstract |
| |
Keywords |
7
12
19
20
24
30
33
34
44
65
72
74
76
79
80
84
87
91
00:00
SoftwareInternetComputer hardwareActor <Programmiersprache>Source codeConstraint (mathematics)NIS <Programm>World Wide WebOpen source9 (number)DesktopGrass (card game)Server (computing)E-textMathematical analysisAbbildung <Physik>Process (computing)E-textForm (programming)SoftwareOpen sourceInternetBlogSpring (hydrology)GeometryVapor barrierWeb portalWordLösung <Mathematik>Block (periodic table)GeodesicProgramming languageOpen setZugriffProduct (category theory)DatabaseRoute of administrationZusammenhang <Mathematik>DesktopHand fanInterface (chemistry)OLEBündel <Mathematik>Strategy gameComputer animation
08:44
Data analysisPlane (geometry)Moore's lawImplementationWalkthroughOpen sourceProject <Programm>Visualization (computer graphics)DatenaufbereitungCodeProcessing <Programmiersprache>HypothesisInformationWebsiteData analysisPlane (geometry)CodeMeasurementHöheCluster samplingDatenaufbereitungVariable (mathematics)ALT <Programm>WikiIncidence algebraVisualization (computer graphics)GeodesicAlgebraic closureInformationSource codeOpen sourceScientific modellingZusammenhang <Mathematik>DatenformatStatisticsImplementationRäumliche StatistikNeighbourhood (graph theory)Set (mathematics)Abbildung <Physik>Computing platformComputer virusDiscrepancy theoryChecklistTotal S.A.Physical quantityProtein foldingWind wavePolish Lowland SheepdogIP addressSpring (hydrology)Interior (topology)Software developerDesire pathLecture/ConferenceMeeting/InterviewComputer animation
17:01
ChecklistWalkthroughSource codeOrder theorySoftwareACCESS <Programm>SoftwareInformationOnline chatComputing platformMathematical structureMoment (mathematics)Open sourceCarry (arithmetic)Plane (geometry)RandChecklistGeodesicKreisebeneProcess (computing)PseudonymizationDigitales SystemSurfaceForm (programming)Grand Unified TheoryMittelungsverfahrenLecture/ConferenceMeeting/Interview
Transcript: German(auto-generated)
00:07
So, es geht los. Willkommen zum zweiten Vortrag hier im zweiten Blog auf der FOSCIS 2023 hier in Berlin. Du hast es nicht weit gehabt hier. Der Tillmann
00:26
Schmitz, der jetzt hier den zweiten Vortrag hält, ist hier von der Humboldt Universität in Berlin, hat den Vortrag mit der Prof. Dr. Tobi Alakis eingereicht, die ja hier die Konferenz organisiert mit uns, mit dem
00:41
Forschungsprojekt vor, wo es um eine Covid-Studie geht. Ich bin gespannt. Ja, nicht erschrecken. Ich bin noch nicht im Programm direkt drin. Wir haben das leider ein bisschen spät online erst merkbar machen können, dass ich quasi den Vortrag halte. Aber wenn Sie an Tobi Alakis explizit interessiert sind,
01:01
sie hält in einer halben Stunde auch noch mal einen Vortrag zu Open Geo Data in der Lehre. Aber genau, das soll jetzt nicht daran hindern, hier auch dabei zu bleiben. Genau, weil jetzt geht es um Open Geo Data, GIS-Software und Science am Beispiel einer räumlichen Covid-Studie. Genau, ich bin wissenschaftlicher Mitarbeiter am Geo-Institut in der
01:21
AG angewandte Geo-Informationsverarbeitung und war jetzt vor allem ein Jahr lang Projektmitglied, wo wir uns hauptsächlich mit Covid-19 Daten auseinandergesetzt haben, zu denen wir aber gleich noch ein bisschen was sagen werden. Genau, ein paar einleitende Worte. Grundsätzlich
01:42
Open Science hat in den letzten Jahren eine große Bedeutung gewonnen, gerade auch in unserer Forschung, in der Abteilung. Und wenn wir uns das jetzt in Bezug auf Covid-19 noch mal genauer anschauen, spielen vor allem offene Geo-Daten, Software und der offene Zugang zu wissenschaftlichen Informationen eine wichtige Rolle. Das heißt gerade für uns die räumlichen Analysen von Vulnerabilitäten, aber auch Risiken,
02:03
aber auch gesundheitspolitische Maßnahmen werden vor allem in diesem Konglomerat aus Open Science Ansätzen viel genau beachtet. Und was ich jetzt kurz darstellen will, ist, dass wir anhand unseres laufenden Forschungsprojektes kurz mal darstellen, wie wir Open Science
02:21
Ansätze versuchen zu implementieren und was es dabei aber auch schon Herausforderungen und Chancen gibt. Noch mal einen kleinen Einblick in was ist überhaupt Open Science? Grundsätzlich kann man sagen, es gibt jetzt keine feste Definition oder Operationalisierung dafür. Ich habe jetzt eine Definition mal gefunden von der Open Science AG
02:43
aus dem Jahr 2014. Da heißt es, Open Science bündelt Strategien, Verfahren, die allesamt darauf abzielen, alle Bestandteile des wissenschaftlichen Prozesses über das Internet offen zugänglich nachnutzbar zu machen, sodass Wissenschaft, Gesellschaft und Wirtschaft gemeinsam zusammenarbeiten können und neue Erkenntnisse schaffen. Was diese ganzen Bestandteile des
03:04
wissenschaftlichen Prozesses bedeuten, da werde ich gleich noch ein bisschen was zu sagen, aber vorher noch mal kurz. Ich glaube, das ist wahrscheinlich auch vielen geläufig. Was bedeutet in dem Zusammenhang jetzt offen? Von der Open Knowledge Foundation ist offen so definiert, dass Wissen offen ist, wenn jede oder jeder darauf frei zugreifen, es nutzen und verändern, teilen kann,
03:22
eingeschränkt höchstens durch Maßnahmen die Ursprung und Offenheit des Wissens bewahren. Und wenn wir jetzt noch mal auf diese ganzen Bestandteile des wissenschaftlichen Prozesses genauer gucken wollen, gab es diese Abbildung hier, die so ein bisschen die Dimension und die verschiedensten Prinzipien von Open Science versucht zu bündeln. Das sind ziemlich
03:41
viele, die bei uns ja in verschiedensten Formen eine Rolle spielen. Für den Vortrag würde ich jetzt aber gerne nur auf die drei eingehen, also Open Source Software, Open Data und Open Access Publikation, ohne jetzt genau noch mal zu wiederholen, was das genau bedeutet, weil ich nach so zwei Tagen Foskiss, genau, sind Definitionen jetzt
04:01
nicht mehr so richtig wichtig. Deswegen vielleicht noch mal kurz darauf eingehen, wie wir das in unserer Forschung oder in unserer Abteilung auch hauptsächlich nutzen. In Bezug auf Open Data spielen eigentlich drei größere Quellen eine Rolle. Das heißt einmal offene wissenschaftliche Geodaten, die aus anderen Forschungsprojekten generiert werden, auf die wir auch
04:21
Zugriff haben können über Open Data Repositorien. Hier jetzt mal einen Screenshot. Es gibt verschiedenste Journals, aber auch Verlege, die manchmal auch zur Bedingung machen, dass eigene Daten veröffentlicht werden bei der Publikation. Das ist hier ein Screenshot vom Verlag Nature, die verschiedenste Bereiche oder aus
04:40
den verschiedensten Bereichen der Geowissenschaften Repositorien anbieten, wo Geodaten frei zur Verfügung stehen und runter geladen werden können. Dann als Zweites natürlich die öffentlichen Verwaltungen. Da gab es auch schon einige Vorträge hier auf der Wir selber arbeiten halt viel im Studiengebiet Berlin und Brandenburg. Das heißt gerade Berlin Brandenburg,
05:00
die Open Data Policies, die da gefahren werden, sind für uns sehr hilfreich, weil wir die Daten sehr einfach runterladen, prozessieren und weiterverarbeiten können. Das ist die zweite Quelle und die dritte Quelle, was immer mehr kommt, sind gemeinschaftlich erstellte offene Geodaten, gerade von Open Street Map, die auch häufig in Forschungsprojekten bei uns nur wichtige Rolle
05:22
spielen. Dann zum zweiten Bereich, Open Source. Da eigentlich in unserer täglichen Arbeit nutzen wir viele Open Source Produkte aus dem Geobereich. Das werde ich jetzt auch nicht allzu vertiefen, aber wenn wir uns jetzt irgendwie mal die verschiedensten Anwendungen angucken, dann spielen gerade, klar, Desktop-Applikation wie
05:41
Kugis, aber auch räumliche Datenbanken eine große Rolle und natürlich die freien Programmiersprachen und die jeweiligen Pakete wie R oder Pysen. Dann vielleicht hier nochmal ein paar mehr Worte dazu. Open Access, das beschreibt, dass wissenschaftliche Literatur kostenfrei und öffentlich im Internet zugänglich sein sollte, sodass Interessierte Volltexte
06:02
lesen, herunterladen, kopieren und so weiter und so fort können, ohne finanzielle, gesetzliche und technische Barrieren. Und genau, in Vorbereitung auf den Vortrag habe ich mal geschaut, es gab eine Veröffentlichung, die sich quasi die verschiedensten Disziplinen angeguckt haben und geschaut haben, wie weit ist es da in dem Open Access-Bereich und gerade die
06:22
Geowissenschaften gehören zu den Fächern, wo Open Access vergleichsweise weit verbreitet ist und wenn Sie das weiter interessiert, es gibt zahlreiche Open Access Journals aus den Geowissenschaften. Es gibt zum Beispiel das Journal of Maps, das kannte ich auch noch nicht vorher, aber auch Applied Spatial Analysis and Policy und wenn Sie da selber
06:41
nochmal ein bisschen mehr reingehen wollen, dann gibt es noch das Directory of Open Access Journals, wo man auch zahlreiche Publikationen aus dem Geobereich findet. Genau, dann hier nochmal eine kleine Liste an, was sind eigentlich die Vorteile von Open Science, die ist natürlich jetzt nicht vollständig, aber wir haben, genau, können uns damit auf jeden Fall auch identifizieren
07:00
und finden das in unserer Arbeit auch wieder. Als ersten Punkt die Erhöhung der Transparenz und die Verbesserung der Qualität der Forschung, also dadurch, dass die Daten offengelegt werden und gerade auch die Methoden können andere ForscherInnen die Ergebnisse nachvollziehen und auch überprüfen und weiterentwickeln. Dann als zweiten Punkt die Erhöhung der Effizienz, was natürlich auch mit dem ersten Punkt zusammenhängt, das heißt,
07:22
wenn Daten und Methoden offen sind, können andere Personen die weiter nutzen, um Erkenntnisse zu gewinnen und somit auch häufig Forschung zu beschleunigen. Gerade die Datensuche ist natürlich auch immer häufig sehr, sehr zeitaufwendig, durch verschiedenste Portale kann dann natürlich die Effizienz erhöht werden. Dann kann Zusammenarbeit gestärkt
07:41
werden, dadurch, dass man mehr zugriffhaft auf Daten, Methoden kommt man, glaube ich, leichter auch mit Personen ins Gespräch, sodass gerade auch über Fachgrenzen hinweg Zusammenarbeiten möglich sind, sodass jetzt hier in dem Fall innovative Lösungen führen. Ja, das ist natürlich auch ein bisschen, genau. Und dann als letzten Punkt noch die Erhöhung der Sichtbarkeit und der Bekanntheit, also wenn Publikationen
08:02
offen sind und Daten offen sind, sind sie für ein breiteres Publikum zugänglich und können so auch die Sichtbarkeit der eigenen Forschung erhöhen. Genau. Dann jetzt nach dieser kleinen Einführung geht's nächsten Block darum, was machen wir eigentlich in unserer täglichen Forschung oder der Covid-19-Forschung, damit wir
08:20
dann noch mal kurz übertragen können, was diese einzelnen Open Science Ansätze bei uns konkret bedeuten. Was wir machen, wir forschen in Berliner Bezirk Neukölln, den sieht man jetzt hier rechts in der Abbildung im Süden Berlins, so ungefähr, ich weiß nicht, Atlas Hof ist glaube ich hier so ein bisschen. Und wir haben ein Forschungsprojekt,
08:40
das wir jetzt seit gut einem Jahr bearbeiten, wo wir das Ziel haben, dass wir Methoden der räumzeitlichen Datenanalyse entwickeln und anwenden, um die Covid-19-Pandemie letztlich auf einer ziemlich detaillierten räumlichen Ebene zu erfassen und zu analysieren. Und das Ganze findet dann gemeinsam mit dem Gesundheitsamt Neukölln statt,
09:01
von denen wir letztlich dann die Covid-19-Daten bekommen. Und genau, das Ganze ist gefördert von der Deutschen Forschungsgemeinschaft. Jetzt nur ein ganz kleiner Ausblick auf, was wir gemacht haben. Also wir haben in dem ersten Schritt uns erst mal die Fallzahlenentwicklung über die verschiedensten Pandemiewellen angeguckt und dann vor allem versucht, zu verstehen,
09:20
welche Einflussfaktoren haben eine Rolle gespielt bei der Fallzahlenentwicklung und haben die quasi erst mal auf diese Zeitachse gebracht und haben dabei gemerkt, dass gerade die Implementierung von verschiedensten gesundheitspolitischen Maßnahmen eine große Rolle gespielt hat. Dann aber auch das Auftauchen von verschiedenen neuen Varianten, die die Fallzahlen gerade jetzt hier in
09:41
der vierten Welle, kann man das ganz gut sehen, massiv in die Höhe getrieben haben. Dann aber auch, dass die Immunität der Population vor allem durch Impfungen eine Rolle gespielt hat und dann letztlich auch die Saisonalität, dass gerade im Sommer deutlich weniger Fälle aufgetreten sind. Und was man jetzt hier unten noch sehen kann, ist, dass die verschiedenen Altersgruppen natürlich auch im Berliner Bezirk Neukölln noch
10:01
unterschiedlich betroffen waren, wobei jetzt gerade in der ersten Zeit die älteren Personen noch deutlich häufiger oder nicht häufiger, aber zumindest einigermaßen häufig betroffen waren, was dann ab der dritten oder ab der zweiten Welle, Ende zweiter Welle, wo die Impfung gerade in den Prio-Gruppen der Älteren
10:20
durchgedrückt wurde, dass da die Fallzahlen untergegangen sind. Genau, dann aber natürlich jetzt hier im Foskis-Kontext die räumlichen Analysen vielleicht ein bisschen spannender, was wir gemacht haben, ist dann auf der Nachbarschaftsebene in Neukölln die Fallzahlen uns mal räumlich angeschaut. Das heißt, wir haben hier
10:41
die Planungsräume, also das sind Teile der lebensorientierten Welten, Räume in Berlin, aggregierte Fallzahldaten genommen und dann geschaut, wo in welchen Räumen die Betroffenheit höher war und das auch für die jeweiligen Pandemiewellen. Und dann haben wir noch räumliche Statistik genutzt, um letztlich Cluster zu identifizieren,
11:01
signifikante Cluster, die jeweils ein hohes oder ein niedriges Risiko ausgegeben haben und das auch dann über die vier, die ja in dem Fall sechs verschiedenen Phasen hinweg. Da sieht man dann, dass gerade die Inzidenzen und die räumlichen Cluster heterogen verteilt waren, wobei gerade der Norden Neuköllns
11:20
nochmal deutlich höhere Inzidenzen aufgewiesen hat als der Süden, wobei sich das auch nicht so pauschalisieren lässt, weil das auch gerade über die Zeit sich stark verändert hat. Man muss vielleicht auch dazu nochmal sagen, das kann man gleich nochmal ein bisschen besser sehen, dass gerade der Norden Neuköllns auch eine deutlich unterschiedliche Struktur in sozioökonomischen Variablen, bebaute Umwelt hat als der Süden,
11:42
was dann genau in einem nächsten Schritt auch nochmal genauer analysiert werden soll. Genau. Dann, inwiefern nutzen wir diese drei Bereiche in unserer Forschung? Gerade wenn es um Open Data geht, nutzen wir zahlreiche umweltbezogene und sozioökonomische Daten
12:01
auf Nachbarschaftsegene, um letztlich die Zusammenhänge mit Covid-19-Fällen zu untersuchen und gerade auch vulnerable Gruppen und Nachbarschaften zu identifizieren. Genau. Das kann man hier vielleicht nochmal ganz gut sehen, dass wir vor allem die Geodaten aus der Open Data Initiative der Berliner Verwaltung nehmen, also vom Amt zur Statistik und für diese Nazverwaltung, Umwelt
12:21
und so weiter und so fort. Und das ist jetzt alles erst mal auf einer deskriptiven Ebene. Wir sitzen aber gerade oder eine Doktorantin sitzt auch noch gerade an einer weiteren Studie, wo sie sich genauer verschiedenste weitere Variable noch anschauen will und den Zusammenhang auf Nachbarschaftsebene mit den Covid-19-Fällen anguckt.
12:41
Genau. Das heißt, was wir jetzt erst mal gemacht haben, ist, wir haben uns die bebaute Umwelt angeguckt, wo man ganz gut sehen kann, dass gerade der Norden Neuköllens deutlich dichter bebaut ist als jetzt zum Beispiel der Süden, dann aber auch hier die Populationsdichte, wo der Norden deutlich dichter besiedelt ist als der Süden. Sozioökonomische Status Indizes und dann auch die Altersverteilung.
13:02
Genau als zweiten Bereich haben wir dann auch adressgenaue Informationen aus OpenStreetMap genutzt. Jetzt in dem Fall ist es nur eine kleine Abbildung, wo wir Points of Interest gemapped haben, das auch auf unserer Nachbarschaftsebene aggregiert haben, mit denen wir dann auch unsere Variablen und die Modelle füttern können. Dann darüber hinaus
13:20
haben wir auch noch viele Covid-19 bezogene Daten auf täglicher Ebene bezogen vom Landesamt für Gesundheit und Soziales. Genau, die haben täglich einen Covid-19-Bericht veröffentlicht, was zwar immer auf Bezirksebene war, was für uns jetzt auf der Köln-Ebene nicht so ganz spannend war. Aber was für uns vor allem spannend war, war diese
13:41
diese Anteile der besorgniserregenden Virusvarianten, sodass wir auch nachvollziehen konnten, wo in Berlin welche Variante dominant war. Genau dann zu dem Bereich, wie sieht es mit unseren eigenen Daten aus? Wir können aus datenschutzrechtlichen Gründen diese nicht veröffentlichen. Was wir aber machen ist, dass wir die entscheidenden Ergebnisse
14:01
mithilfe eines interaktiven Visualisierungstools bereitstellen, sodass weitere Nutzer in eine eigenständige Exploration selber durchführen können. Das ist jetzt nur ein kleiner Screenshot von dem, was wir vorhaben. Also das wären zum einen die Fallzahlenentwicklung für die verschiedenen Altersgruppen über die Zeit
14:22
und dann hier auch noch mal die räumliche Analyse mit den Clustern und den räumlichen Spatial Scan Statistik ergebnissen. Genau dann selber nutzen wir viele Open Source Quellen, Kugels, eher Pysen haben jetzt gerade für die Visualisierung
14:43
das Paket Shiny genutzt, was ja für uns erst mal ganz ganz praktisch war. Was wir dann gemacht haben oder was wir gerade in der Vorbereitung sind, dass wir den Code zur Datenaufbereitung und Datenanalyse mit der Veröffentlichung bereitstellen und dann jetzt nicht der Öffentlichkeit,
15:01
aber für uns zumindest die Methoden und Daten so in einem Projekt internen Wiki aufbereiten, dass das sowohl für neue Projektmitglieder sehr schnell abrufbar ist, aber auch auf andere Forschungsprojekte, die natürlich auch noch kommen werden, übertragbar sein kann. Open Access, ja, wir versuchen
15:20
natürlich mit unserem Forschungsprojekt den offenen Zugang soweit wie möglich zu ermöglichen. Unsere Publikation werden dann letztlich frei zugänglich sein. Und man muss auch nochmal dazu sagen, wir haben auch von zahlreichen weiteren Publikationen profitiert, die frei zugänglich sind. Gerade zu Beginn der Pandemie wurden viele Veröffentlichungen, viele Daten
15:40
sehr schnell zur Verfügung gestellt. Und das glaube ich bis heute auch noch. Jetzt hier auf der rechten Seite ein kleiner Screenshot vom Verlag Elsevier, der genau ein Beispiel dafür ist. Dann zum Abschluss nochmal eine kleine Diskussion. Also es gibt natürlich auch gleichzeitig
16:00
Herausforderungen, die uns da auch begegnet sind. Wenn wir uns jetzt hier Open Data angucken, haben wir häufig einen Leistungsdruck auch in der Wissenschaft. Das heißt, wenn man sich dafür entscheide, zum Beispiel Daten oder auch Quellcode früh zu publizieren, kann es auch zu einem Konkurrenzkampf führen, der natürlich auch nicht immer förderlich ist in der eigenen Forschung.
16:22
Dann ein Problem, was auch häufig auftritt, ist, dass es noch eine unübersichtliche Möglichkeit gerade an Wissenschaftsplattformen gibt zum Datenteilen und auch die unterschiedlichen Anforderungen an verschiedenste Datenformate. Dann auch die Menge an Daten. Also wenn man selber einfach sehr viele Daten hat, das ist jetzt in unserem Projekt nicht so der Fall.
16:41
Aber wenn gerade andere Projekte mit sehr vielen Daten unterwegs sind, müssen die auch erst mal in eine gewisse Form gebracht werden. Das heißt, der Aufwand für die eigene, für den Forscher oder Forscherinnen ist einfach sehr hoch. Um dem aber auch so ein bisschen zu entgegnen, gibt es auch schon gerade für diese gemeinsame
17:00
Datenteilen und Datenplattformen und diesen Aufwand verschiedenste Checklisten. Hier ein Beispiel towards the Geoscience Paper of the Future, was eigentlich eine ganz gute Anleitung sein kann, wo man gerade den Bereich von Data, Software und Methoden ganz gut für sich einmal durchexerzieren kann.
17:20
Dann ein großer Punkt, der für uns auch herausfordernd ist oder war und ist, ist der Datenschutz, gerade wenn es um Gesundheitsdaten geht, also bei personenbezogenen oder personenbeziehbaren Daten. Hier kann es dazu Problemen kommen, weil die nicht immer veröffentlicht werden können. Und da gibt es aber häufig dann fehlendes Wissen oder wenig pramarsche Lösungen,
17:40
wenn es um datenschutzkonforme Präsentation oder Nutzung geht. Also es gibt ja Möglichkeiten, dass man Repositorien sichert oder auch Methoden der Anonymisierung verwendet. Aber was wir gemerkt haben, dass viele Personen da ein bisschen vor zurückschrecken und sagen, den Aufwand will ich mir nicht unbedingt machen. Dann noch, wenn es darum geht,
18:02
die Daten weiterzuverwenden, passiert das häufig auf aggregierter Form oder in nicht personenbeziehbarer Form, wobei dann Probleme wie zum Beispiel das Modifiable Area Unit Problem auftreten können. Also das, wenn wir quasi auf Daten auf verschiedenen Aggregationsebenen bereitstellen, dass wir unterschiedliche
18:20
Ergebnisse bekommen. Genau, die Zeit läuft. Deswegen gehen wir jetzt nochmal schnell hier durch. Genau, gerade der Aufwand ist zu Beginn des Projektes kann problematisch sein, weil natürlich da viele verschiedene andere Probleme auch auftreten oder viel Neues ist, sodass wenn man direkt an Open Source oder Open Data
18:42
zu Beginn eines Projektes denkt, dass das vielleicht möglicherweise eher in den Hintergrund rutscht. Da versuchen wir dann aber übertragbare Strukturen zu schaffen. Das heißt, wir haben GitHub-Accounts, Wiki, Ordner-Strukturen, die wir dann auf die Projekte jeweils übertragen können, sodass gerade diese zu Beginn eines Projektes der Aufwand nicht allzu groß ist.
19:01
Und dann immer die Frage, wie können wir Information und wie können wir diesen Gedanken irgendwie implementieren, damit Daten geteilt werden? Also soll das Ganze verpflichtend sein? Wie können wir Anreize schaffen? Und als guten oder als letzten Punkt noch, wie können wir auch diesen Gedanken von Open Data und Open Source in der Lehre frühzeitig adressieren und einbinden? Aber dazu dann auch mehr
19:21
in dem Vortrag von Tobias Larkes. Genau, als kleines Fazit. Als kleines Fazit. Open Science umfasst letztlich zahlreiche Dimensionen, die gerade auch in unserer Forschung eine große Rolle spielen, wobei wir gesehen haben, dass viele Open Science Ansätze Informationsversorgung verbessern kann und uns auch neue
19:41
Forschungsansätze ermöglicht hat. Dann, ja, wenn man Open Science Dimensionen oder Ansätze implementieren will, erfordert das letztlich eine Veränderung von Strukturen und Prozesse, aber auch vor allem Haltung. Und letztlich sind Ressourcen notwendig für die Bereitstellung von Open Data, Software und Publikation. Und da denken wir,
20:02
dass gerade die Ausbildung oder die frühzeitige Abholen von Personen oder auch Information über Practice-Beispiele oder entsprechender Workflows entscheidend sind. Gut, dann war es es von mir. Und danke.
20:21
Ja, herzlichen Dank, für deinen tollen Vortrag. Und ich denke, es wurde auf jeden Fall auch klar, wie wichtig das ist, schon in der Lehre frühzeitig dieses Wissen zu vermitteln. Und ich denke, da seid ihr ja hier wirklich sehr gut dabei. Ja, es gibt auch Fragen. Einerseits im Chat haben wir Fragen und natürlich hier im Raum
20:41
sicherlich dann auch. Und erst mal eine Frage nochmal, wie groß ist denn dieses Team, was jetzt zum Beispiel an diesem Forschungsprojekt arbeitet und aus welchem ja, aus welchem Stadium in der Karriere kommen die denn da? Also genau, das war ein ganz kleines Projekt. Also ich glaube, die DFG hat gerade zu Beginn der Corona-Pandemie
21:02
sehr viele kleine Projekte gefördert. Das heißt, wir hatten mich als 50 Prozent Stelle. Dann haben wir noch eine Person, die damals beim bei der Gesundheitsberichterstattung in Mitte gearbeitet hat. Die ist auch noch dabei und eine studentische Hilfskraft und dann Tobiya. Also wirklich, würde ich sagen überschaubar, aber genau.
21:21
Okay. Und meinst du denn, wenn ihr im anderen Bundesland gewesen wärt, mit anderen Status in Sachen Open Data wäre das dann schwieriger gewesen? Oder kann ich schwer so was direkt zu sagen. Wir merken das halt sehr lokal. Wir arbeiten mit dem Gesundheitsamt in Neukölln zusammen und die also genau, allein in Berlin gibt es ja dann
21:41
für jedes Bezirks- und Gesundheitsamt. Und da gab es schon verschiedenste Herausforderungen. Deswegen kann ich mir das gerade überhaupt nicht vorstellen, wie das auf Bundesland-Ebene funktionieren soll. Gut. Jetzt gibt es hier eine Frage. Gibt es eine Verknüpfung von Open Science zu NFDI for Earth und werden zukünftig
22:01
Open Science-Daten in der Geodaten-Infrastruktur Deutschland bereitgestellt? Ich weiß nicht, ob ich dir das was sage. Vielleicht, wenn du das dazu sagst. Ich glaube, das ist die nationale Forschungsdaten-Infrastruktur für verschiedenste Bereiche. Also ich weiß, dass das auf jeden Fall für Gesundheitsdaten läuft. Die sind meistens auf personenbezogener Ebene.
22:23
Genau. Also wir haben jetzt da direkt nicht allzu viel mit zu tun. Deswegen glaube ich, kann ich da einfach auch gar nicht so viel zu sagen. Und die Daten, dass sie deutschlandweit bereitgestellt werden? Na ja, genau. Also die Daten gibt es ja deutschlandweit auch. Covid-Fälle, ich glaube, auf Landkreisebene, was bei unserem Projekt halt so besonders ist,
22:41
dass wir sie halt auf Nachbarschaftsebene haben und so nochmal kleinräumige Analysen durchführen können. Ich glaube, es gibt andere deutsche Städte wie glaube ich Essen, Duisburg, München, wo auch Kooperationen mit Gesundheitsämtern laufen, wo auch kleinräumige Analysen durchgeführt werden. Aber dass das deutschlandweit passiert, ich glaube, da müsste man diesen Flinkenteppich an
23:01
Gesundheitsämtern irgendwie unter Einhut bekommen. Ja, dann schauen wir mal hier in den Raum. Hat jemand noch eine Frage an den Tilman Schmidt? Ja, ein Moment. Das Mikro wandert rüber.
23:23
Ja, hallo. Stefan Badl, mein Name, auf dem Bezugsamt Neukölln. Ich hatte es ein bisschen am Rande mitbekommen und natürlich hat man auch die ganze Diskussion um die Plattformen wie Sormas, die eigentlich angeführt worden sollten. Ich kann es jetzt Sormas die Abkürzung nicht
23:40
komplett aussprechen, aber es ist auch open source passiert. Da wäre jetzt die Frage, da gibt es ja auch Kratenvisualisierung und Analysetools. Jetzt wäre die Frage, ob man die beiden Sachen oder Ihre Arbeit damit miteinander verknüpfen konnte, um das vielleicht zu stärken. Genau, also vielleicht mal zum Hintergrund.
24:01
Sormas ist eine Plattform, die, glaube ich, auch vom RKI mitentwickelt wurde. Und das ist, glaube ich, im Bezirk Berlin ganz spannend, weil am Anfang wurden Fallzahlen, glaube ich, auf Papier gesammelt und dann irgendwann ein digitales System übertragen. Und dann wurde dieses Sormas System eingeführt. Genau, und das aus diesem System haben wir auch die Daten
24:20
direkt bekommen. Und dadurch, dass ich glaube oder weiß, dass viele verschiedenste Gesundheitsämter Sormas nutzen, wäre das auf jeden Fall eine gute Idee, quasi da Workflows so einzubauen, um direkt auch in so eine Analyse reinzugehen. Weil ich meine, die Daten oder die Ergebnisse, die wir jetzt erarbeiten, werden ja auch direkt ans Gesundheitsamt zurückgespielt. Also das wäre oder damit
24:42
zum Beispiel kleinräumig irgendwie Präventionsmaßnahmen getroffen werden können. Und wenn man das schafft, auf so einer, ja, zu implementieren und das anderen Gesundheitsämtern zur Verfügung zu stellen, das wäre auf jeden Fall sinnvoll, ja. Gut, ja, dann kommen wir jetzt zum Ende. Herzlichen Dank nochmal für den tollen Vortrag.