Mehrwert für Bürger*innen schaffen
This is a modal window.
The media could not be loaded, either because the server or network failed or because the format is not supported.
Formal Metadata
Title |
| |
Title of Series | ||
Number of Parts | 96 | |
Author | ||
License | CC Attribution 4.0 International: You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor. | |
Identifiers | 10.5446/40706 (DOI) | |
Publisher | ||
Release Date | ||
Language |
Content Metadata
Subject Area | ||
Genre | ||
Abstract |
| |
Keywords |
10
17
18
20
22
32
33
41
45
55
56
62
69
71
78
79
82
84
85
88
92
00:00
Open setPrototypeLecture/Conference
00:42
PrototypeDigital signalComputer animation
01:12
InformationComputer animation
01:35
DiagramComputer animation
02:09
Ende <Graphentheorie>Architecture of Integrated Information SystemsChain ruleSoftwareCoordinate systemComputer animation
03:37
SummationWorld Wide WebHospital information systemSet (mathematics)Zusammenhang <Mathematik>MetadataRow (database)XMLProgram flowchart
04:39
Row (database)Strategy gameComputer animation
05:41
Open setRow (database)Standard deviationWeb serviceEigenvalues and eigenvectorsVapor barrierLecture/ConferenceComputer animation
06:36
Structural equation modelingWeb portalPostgreSQLAPIStandard deviation
07:16
RSS <Informatik>StatisticsRoute of administrationIP addressLevel (video gaming)Set (mathematics)Apple KeynoteRow (database)Web-AnwendungAPIOpen sourceRoutingStatisticsComputer animation
10:49
RoutingAPIJavaScriptRoute of administrationHospital information systemComputer animation
11:11
Vector graphicsVelocityVECTOR <Programm>Computer animation
11:36
Vector graphicsPerimeterOpen setComputer animation
12:22
Vector graphicsStructural equation modelingServer (computing)CodeRoute of administrationMobile appComputer animationLecture/ConferenceMeeting/Interview
12:48
AudiovisualisierungMach's principleUniform resource locatorFluxWeb pageAlgorithmMachine learningComputer animation
13:45
AudiovisualisierungPredictionWeb-AnwendungDesktopXMLProgram flowchartComputer animation
14:27
Cellular automatonComputer animation
15:05
HöheVelocityGeodesicVisualization (computer graphics)Digital-to-analog converterInternet
15:43
Row (database)Data model
16:22
Route of administration
16:57
Standard deviationVisualization (computer graphics)Web serviceInterface (computing)Computer animation
17:36
Web serviceAPIServer (computing)Lecture/Conference
18:41
Computer animation
19:02
TwitterLeadStaff (military)Standard deviationEASY <Programm>GeomaticsResonanceLösung <Mathematik>CodeGeodesicLevel (video gaming)Vapor barrierInformationWeb pageCASWeb serviceAbteilungZugriffMobile appMischung <Mathematik>Set (mathematics)Eigenvalues and eigenvectorsPerspective (visual)UMLLecture/Conference
27:31
Inference
Transcript: German(auto-generated)
00:07
Herzlich willkommen zum zweiten Vortrag im Vortragsblock offene Daten. Wir haben ja eben gelernt, wie man offene Daten finden kann, verarbeiten kann, analysieren kann mit der Lernplattform OpenGeo Edu. Nun will man ja als Bürger
00:23
nicht unbedingt diese Lernprozess-Gette durchgehen müssen, um mit den Daten was anfangen zu können. Da stellt sich natürlich die Frage, wie kann man offene Daten so aufbereiten, dass sie einen wirklichen Mehrwert bringen für Bürger? Und da hat sich das Ideation und Prototyping Lab aus Berlin Gedanken gemacht und die Gedanken präsentiert uns jetzt Sebastian Meyer.
00:42
Dankeschön. Herzlich willkommen zu meinem Vortrag. Genau das Ideation und Prototyping Lab ist Teil der Technologie-Stiftung Berlin, die wir in der letzten Session wurde die netterweise schon mal erwähnt für die Arbeit, die wir in Berlin leisten. Die Technologie-Stiftung Berlin ist eine gemeinnützige Stiftung und wir versuchen gemeinsam mit dem Land Berlin digitale Technologien sowohl für die Verwaltung als auch für die
01:05
Zivilgesellschaft verfügbar und accessible zu machen. Und da spielen natürlich offene Daten und wie man die nutzbar machen kann eine ganz große Rolle. In diesem Part betreiben wir unter anderem auch die Open Data Informationsstelle, wo wir das Land, die Verwaltung beraten, wie kann man
01:21
eigentlich offene Daten gut online bringen, was bedeutet eigentlich Maschinenlesbarkeit, wenn es um Daten geht etc. etc. Wenn es da Interesse gibt, meine Kollegin Victoria Dykes ist auch hier, falls da Austauschbedarf ist, gerne Victoria einfach direkt ansprechen. Genau die Arbeiten, die ich heute zeigen werde, sind natürlich nicht meine eigene Arbeit, sondern die Arbeit unseres Teams, die ich hier zeige, an der wir alle
01:44
zusammenarbeiten. Wir sind ein sehr diverses Team von Designern, Entwicklern, aber auch Social Scientists, die dabei sind. Also ein ganz buntes Team, das da gemeinsam an den offenen Daten arbeitet. Genau wie ich gerade schon in der Einleitung angeführt. Wir haben jetzt in der ersten Session und gerade ganz viel darüber gehört, was offene Daten sind,
02:04
wie offene Daten zur Verfügung gestellt werden. Aber es ist dann doch noch ein bisschen mehr zu tun. Und eigentlich müsste man sogar noch mal bei Closed Data anfangen. Wenn ich an letztes Jahr zurückdenke, wo die Kommunen und Gemeinden mal wieder argumentiert haben, dass man vielleicht doch Geld verlangen sollte für Open Data, scheint, dass
02:21
das Open Data immer noch nicht komplett angekommen ist überall, was der Mehrwert und der Vorteil von Open Data ist. Aber selbst wenn es dann alles online ist, wenn die Daten alles schön open sind, ist immer noch viel mehr zu tun, damit ein wirklicher Mehrwert entsteht. Und deswegen habe ich hier noch mal so eine Kette von Open Data zu Accessible Data. Und unter Accessible Data sind Daten gemeint, die wirklich weiter nutzbar sind, die einfach integrierbar
02:44
sind. Wir haben heute morgen was über Interoperabilität gehört. In dem letzten Vortrag der ersten Session ging es zum Beispiel um den neuen GDI-Standard, der jetzt in Deutschland irgendwie eingeführt werden soll. Und da geht es zum Beispiel auch darum, wir hatten im Anschluss an den Talk die Diskussion mal wieder über Koordinatensysteme. Und jemand, der selber aus dem
03:01
kartografischen Bereich kommt, weiß ich, dass das ein sehr sensibles Thema ist und dass jeder sein präferiertes Koordinatensystem hat. Wenn wir aber über Interoperabilität sprechen und darüber, dass Nutzerinnen vielleicht am Ende des Tages einfach mal schnell Daten in eine Software laden wollen, dann ist WGS 84 halt das Ding, was wir nutzen müssen und was wir anbieten müssen. Daneben können wir
03:21
noch diverse andere Koordinatensysteme unserer Nutzerinnen anbieten. Aber WGS 84 ist halt das Ding, was international eigentlich in jeder Software unterstützt wird. Und deswegen sollten wir unsere Daten auch in diesem Format natürlich anbieten. Um vielleicht mal noch so ein paar Beispiele zu nennen. Berlin ist natürlich so ein bisschen auch ein Leuchtturm, was offene Daten angeht. Deswegen, wenn
03:40
wir immer über Open Data jammern, dann tun wir das auf einem sehr hohen Niveau in Berlin. Nichtsdestotrotz, Berlin hat über 1200 Datensetzer aktuell in seinem Open Data Portal drin. Aber auch da gibt es noch eine Menge Arbeit zu tun, wenn diese Daten tatsächlich accessible werden sollen. Da gibt es Probleme, wie man es hier zum Beispiel sieht, mit Metadaten. Also, dass die Metadatenstandards, wie sie vorgegeben werden, zum
04:02
Beispiel in DecatAP tatsächlich eingehalten werden, damit auch Maschinen verstehen, wie verschiedene Datensetze zusammenhängen und dort entsprechende Verbindungen aufgebaut werden können. Da geht es aber auch darum, dass vielleicht mal keine PDFs, sondern tatsächlich maschinenlesbare Daten ins Portal hochgeladen werden. Aber da geht es natürlich auch ganz viel um Sachen, die wir heute Morgen auch gehört haben,
04:22
über semantische Zusammenhänge zwischen Datensätzen. Also ein Problem, wo wir in Berlin zum Beispiel noch daran arbeiten, ist, wenn man mal einen Datensatz, sagen wir mal, zur Arbeitslosigkeit für 2016 gefunden hat, dann ist man glücklich und dann möchte man jetzt aber vielleicht auch die für 2015 und 2017 und 2018 haben. Ja, dann muss man halt noch mal eine neue suchen, starten und hoffen, dass man
04:40
die entsprechenden Datensetze findet, weil dort einfach die semantischen Verknüpfungen bisher noch fehlen. Und das gehört natürlich eigentlich aber auch dazu, wenn Daten tatsächlich accessible sein sollen. Den Punkt hatten wir jetzt eigentlich schon im Talk davor, deswegen werde ich jetzt auch gar nicht so weiter drauf eingehen. Aber was ich nochmal interessant finde, ist auch so dieses machine accessible. Also selbst wenn ein Datensatz machine readable ist, wenn ich
05:02
mich vorher durch zig Untermenüs und Dropdowns durchklicken muss, bis ich dann den Datensatz runterladen kann, bedeutet das noch nicht, dass eine Entwicklerin diesen Datensatz relativ einfach in ihre Anwendung einfach reinholen kann und den dort weiter verarbeiten kann. Also dass ein Datensatz wirklich einfach abrufbar und verarbeitbar ist, ist nochmal ein anderer Punkt dazu. Genau und
05:21
sustainable, nachhaltig und verlässlich. Gerade für Unternehmen sind häufig so Open Data Strategien der Städte sehr, sehr schwierig. Nur weil ich jetzt dieses Jahr einen schönen Datensatz über Bevölkerung gefunden habe, habe ich noch keine Garantie, dass der im nächsten Jahr zum selben Zeitpunkt wieder veröffentlicht wird, dass der dieselbe Struktur noch hat oder dass sogar dokumentiert wird, warum sich die Struktur verändert hat. Wenn ich aber
05:42
Unternehmen bin und auf offenen Daten aufbauenden Service entwickeln möchte, dann brauche ich halt eine gewisse Verlässlichkeit, dass diese Standards tatsächlich eingehalten werden und dass ich im Notfall ein Dokument habe, das mir erklärt, warum in diesem Jahr die Struktur des Datensatzes auf einmal anders ist, als es das im letzten Jahr war. Was wir als Stiftung machen, ist
06:00
zu versuchen, dem Land zum einen zu zeigen, was Möglichkeiten sind, wie man das Ganze besser machen könnte. Und bis es soweit ist, haben wir eigene Services aufgesetzt, um die Berliner Bürgerin zu unterstützen. Zum Beispiel haben wir eine Seite aufgesetzt, wo wir eigentlich alle wichtigen Geobasis-Daten in diversen Formaten, in diversen Koordinatensystemen den Bürgerinnen
06:20
zur Verfügung stellen, um dort einen möglichst niedrigschwelligen Einstieg zu schaffen, um so die Barrieren abzubauen, tatsächlich mit den Daten mal was zu machen, das in der Schule zu nutzen, in einem Hackathon zu nutzen und so eine größere Zielgruppe an die Daten heranzuführen. Darüber hinaus arbeiten wir aktuell daran, auch eine gut dokumentierte
06:41
API zur Verfügung zu stellen, dass Entwicklerinnen sozusagen über definierte Standards direkt auf die Daten zugreifen können und nicht erst durch irgendwelche Portale klicken müssen, sondern tatsächlich APIs nutzen können, um an die Daten reinzukommen. Genau, vielleicht nur so als technischen Hintergrund. Das haben wir jetzt zum Beispiel mit Postgres und AWS, wir haben halt über Amazon eine API aufgebaut,
07:01
wo die Daten sozusagen wirklich performant zur Verfügung stehen und abgerufen werden können. Das sind sozusagen die ersten Schritte, um die Daten tatsächlich accessible zu machen. Aber accessible ist natürlich immer noch ein Punkt, der eher ein Expertenpublikum anspricht. Das ist jetzt noch nichts, was die interessierten Bürgerinnen dazu befähigt, mit den
07:20
Daten wirklich was zu machen. Da müssen wir tatsächlich noch einen Schritt weitergehen. Und da habe ich jetzt mal so ein paar Beispiele mitgebracht, was wir gemacht haben, um solche Anwendungen zu bauen und auch der Verwaltung einfach mal so ein paar Mehrwerte zu zeigen, was mit offenen Daten so geht. Genau, das erste Beispiel, was ich hier mitgebracht habe, ist unsere Kita-Anwendung. Da haben wir die offenen Daten zu den Kitas in
07:41
Berlin genommen, die bisher einfach nur als relativ langweilige Liste den Bürgerinnen angeboten werden und haben daraus eine, ich würde mal sagen, den aktuellen Standards, was so Benutzerinnen erwarten, wenn sie eine moderne Web-Anwendung benutzen, sehen möchten. Die Nutzerinnen können hier sozusagen zum Beispiel hier jetzt gerade eine
08:00
Umkreissuche machen. Ok, mein Arbeitsplatz ist vielleicht hier. Was gibt es da eigentlich für Kitas in der näheren Umgebung? Ich kann dazu noch Filter setzen. Vielleicht möchte ich ja eine Kita haben, in der zum Beispiel polnisch als Sprache noch angeboten wird oder arabisch und kann so sozusagen die optimale Kita für mich finden, kann dann sogar über ein Routing rausfinden. Ok, wie lange brauche ich denn, wenn ich mein Kind mit dem Fahrrad da hinbringen will
08:21
morgens? Und habe so sozusagen eine, würde ich mal sagen, relativ moderne User Experience, mit der ich diesen Datensatz explorieren kann. Ich kann mir Merklisten machen, kann die ausdrucken und dann die Kitas abtelefonieren und so sozusagen von unserer Seite eigentlich relativ schnell entwickelte niedrigschwellige Anwendung, die aber für die Bürgerinnen tatsächlich einen Mehrwert bieten
08:41
über diese Anwendung. Das sieht jetzt auf der Oberfläche vielleicht relativ simpel aus, aber da steckt tatsächlich eine Menge Open Source Technologie hinter, um das Ganze möglich zu machen. Und normalerweise präsentiere ich dann eher so den Nutzungsfakten, aber da wir jetzt so ein bisschen auch unter uns sind, dachte ich, zeige ich auch mal so ein bisschen, was so hinter den Kulissen an Technologien genutzt wird, um das Ganze möglich zu machen.
09:02
Genau das erste ist zum Beispiel die Umkreissuche am Anfang. Die Bürgerinnen kommen natürlich nicht mit einer exakten Geokoordinat, wo ihr Haus liegt oder wo ihr Arbeitsplatz liegt, sondern die kommen mit einer Adresse daher. Heißt, das erste, was wir brauchen, ist ein Geocoding. Und leider wird bisher zumindest vom Land noch kein standardisiertes Geocoding Tool zur Verfügung gestellt.
09:22
Und deswegen haben wir uns rangesetzt und unser eigenes gebaut, was wir jetzt auch über eine API zur Verfügung stellen und als sozusagen Basis, um die Daten zu generieren, benutzen wir aber natürlich das regionale Bezugssystem, was vom Amt für Statistik offiziell zur Verfügung gestellt wird. Das wird von den Bezirken gepflegt und dann an das Amt
09:41
für Statistik weitergeleitet. Wir benutzen sozusagen die offiziellen Verwaltungsdaten, um diesen Geocoder mit Daten zu befüllen. Genau für das Routing. Das sind leider keine Verwaltungsdaten, sondern Open Street Map Daten. Leider, weil, vielleicht auch so als Anekdote, wir hatten ja als Keynote
10:01
am Anfang den Borussia. Was war es? Borussia-OSM gegen ersten FC Adgis. Es ist tatsächlich auch hier wieder so ein Punkt, wenn wir mit solchen Sachen zur Verwaltung gehen und denen zeigen, OK, wir haben hier mit Open Street Map ein cooles Tool gebaut. Dann kommt natürlich so, ja, aber das sind ja nicht die offiziellen Daten. Ist ja schön, dass ihr das gemacht habt,
10:21
aber das können wir halt nicht einfach so weiter nutzen, weil alles, was wir den Bürgerinnen zur Verfügung stellen, muss auf den offiziellen Daten basieren. Ja, ist natürlich korrekt. Aber nichtsdestotrotz wollen wir ja erst mal irgendwie was auf die Beine stellen, haben deswegen hier jetzt erst mal einfach mit Open Street Map angefangen. Und wer da vielleicht schon Erfahrung hat, wie man Adgis in OSAM reinbringen kann,
10:41
was ein offenes Tool ist, um Routing zu machen, kann sich gerne bei mir melden. Würde ich mich freuen. Aber solange werden wir auf jeden Fall hier auf Open Street Map zurückgreifen. Genau die meisten unserer Anwendungen bauen wir mit Node.js, also die serverseitigen Anwendungen. Auch für OSAM gibt es eine sehr schöne Einbindung in Node.js, sind wirklich nur ein paar Zeilen Code, die man da irgendwie
11:00
in sein JavaScript schreiben muss, um OSAM über eine API online seinen Nutzerinnen zur Verfügung zu stellen. Genau bei den Vector-Teils haben wir ein ähnliches Problem. Leider gibt es bisher von der Stadt noch kein WMTS, dass wir die offiziellen Teils der Stadt als Basiskarte nutzen können. Es gibt halt nur WMS-Services, die, wenn man ehrlich ist,
11:21
in der Nutzbarkeit in Anwendung so semioptimal sind, was die Geschwindigkeit der Darstellung etc. angeht. Da wären halt WMTS wesentlich hübscher. Leider kann man auch ad gis direkt jetzt auch nicht so optimal Vector-Teils mit den Standard-Tools generieren. Auch wer da was weiß, gerne mir weitersagen. Deswegen haben wir auch hier
11:41
ein Tool von Open-Map-Teils benutzt. Die bieten wunderbare Docker-Container an, mit denen man sehr, sehr fix aus Open-Street-Map-Daten seine eigenen Vector-Teils generieren kann. Und wenn das gerade so einen Umfang von einer Stadt wie Berlin hat, ist man da auch echt relativ fix fertig. Wenn man das jetzt für die ganze Welt machen würde, dann müsste der Rechner wahrscheinlich ein paar Wochen irgendwie vor sich hin arbeiten. Aber wenn man das wirklich
12:01
mal nur für eine Stadt machen will, kann ich das echt empfehlen. Das geht relativ schnell und ist wirklich sehr, sehr gut dokumentiert. Und wenn man dann nicht, wir hatten ja auch schon einen Vortrag zu Karten, Services, Teilservices. Da gibt es ja diverse mittlerweile im Angebot. Aber auch da gerade, wenn man mal was testen möchte und jetzt vielleicht auch nicht die großen finanziellen Ressourcen hat, sich da beim Mapbox
12:20
oder sonst irgend wem einzumieten. Auch da kann man mit sehr wenig Code mittlerweile seinen eigenen Web-Server mal eben schnell aufstellen, der Teils zur Verfügung stellt, also einen Teilserver aufsetzen und da dann einfach mal was ausprobieren. Und auch wir, wir haben zum Beispiel auf den diversen Anwendungen von uns da sind schon so 10 bis 30.000 User, die da irgendwie unterwegs sind im Monat.
12:40
Und wir kommen mit unserem Teilserver prima zurecht, ohne dass wir da irgendwelche Probleme in unserem Space haben, was Performance und so angeht. Genau, noch ein anderes Projekt, was ich gern noch zeigen würde, die sind die Berliner Badegewässer. Bisher gibt es durch das LAGESO, das Landesamt für Gesundheit, die stellen bisher Daten zur Verfügung,
13:01
wie die Badequalität eigentlich in den diversen Seen und Flüssen rund um Berlin ist. Also dort kann ich mich informieren, wenn ich heute schwimmen gehen möchte. Das Problem ist und das ist gar nicht so wirklich das Problem, das Schuld der LAGESO, sondern es ist einfach das System. Wenn ich auf die Webseite gehe, sind die Messdaten mitunter schon drei Wochen alt, weil es einfach daran liegt, dass irgendwer muss halt zum See rausfahren.
13:22
Der muss da irgendwie sein Röhrchen in den in den See reinstecken, die Probe mit ins Labor nehmen. Das Labor untersucht das Ganze. Das Ganze wird das ans LAGESO geschickt. Das LAGESO muss das auf die Webseite stellen und dann sind halt einfach drei Wochen vorbei. Was irgendwie nicht so praktisch ist, wenn ich heute schwimmen gehen möchte und wissen möchte, ob der See heute gut ist. Und was wir gemacht haben,
13:40
wir haben zusammen mit dem Kompetenzzentrum für Wasser in Berlin einen Machine Learning Algorithmus gebaut, der basiert auf den historischen Messwerten, die wir aus den Seen haben, die kombiniert werden mit Wetterdaten, die kombiniert werden mit Daten von den Berliner Wasserbetrieben. Und darauf aufbauend wurde dann ein Modell entwickelt, was nun basierend auf Wetter
14:01
und Berliner Wasserbetriebsdaten tagesaktuelle Vorhersagen generieren kann, die wir dann wiederum in diese Web-Anwendung zurückfließen lassen, sodass die Bürgerinnen wirklich tagesaktuell sich auf der Karte informieren können, wo ist heute tatsächlich gute Gewässerqualität, wo kann ich heute schwimmen gehen. Also hier auch wieder sozusagen von dieser abstrakten Datenebene
14:20
versucht, das Ganze in eine schöne, nutzbare Anwendung zu gießen, sodass die Bürgerinnen das Ganze mobil oder vom Desktop entsprechend nutzen können. Genau, noch ein paar mehr Kartenanwendung. Wir hatten vor einiger Zeit auch eine schöne Anwendung zum Breitbandausbau gemacht. Breitbandausbau ist nicht nur im Rest von Deutschland,
14:41
sondern natürlich auch in Berlin ein großes Problem. Es geht einfach nicht so schnell voran, wie sich die Bürgerinnen das wünschen. Und dafür haben wir dann eine Anwendung erstellt, dass man überhaupt mal eine Übersicht hat, wie ist eigentlich der Stand aktuell in Berlin und haben dafür diverse Visualisierungen, zum Beispiel hier eine interaktive Karte entwickelt, wo die Bürgerinnen wirklich bis auf Hausebene runtergehen können, um zu schauen können, OK, wie ist denn eigentlich
15:01
der aktuelle Stand des Ausbaus bei mir vor Ort. Wir haben in dem Fall sind wir aber dann noch einen Schritt weitergegangen und dachten OK, so eine schöne Kartenanwendung ist eine Sache, aber vielleicht können wir auch noch so ein paar interessante Visualisierungen machen, die das Ganze vielleicht noch ein bisschen attraktiver machen und die Bürgerinnen auch so ein bisschen mehr in das Thema reinziehen und haben hier eine Karte generiert,
15:21
also ein Relief Modell, wobei die Höhe sozusagen die Geschwindigkeit des Internets entsprechend abbildet. Und das Ganze ist mit 3JS gebaut. Wir haben dafür so einen Konverter, Konverter gebaut, der von GeoJSON in 3JS das Ganze konvertiert und dann hier entsprechend darstellt. Genau das letzte Projekt,
15:41
was ich noch zeigen möchte, auch Geodaten. Berlin hat einen großartigen Datensatz, der ist leider mittlerweile schon ein bisschen älter. Der kompletten des inneren Teils von Berlin in 3D, also einen kompletten 3D Datensatz mit Objekten, sogar mit relativ hoch aufgelösten Texturen für alle Objekte. Und was wir damals gemacht haben,
16:01
wir haben mit der Firma Conterra zusammengearbeitet und die haben für uns ein Tool gebaut, mit dem wir dieses 3D Datenmodell in Minecraft hinein importieren können. Und die Idee dahinter war, ein Tool zu bauen, was gerade für die jüngere Zielgruppe attraktiv ist. Wir haben damit einen Verein zusammengearbeitet, die mit Schulabbrechern Projekte machen und mit denen zusammen
16:21
haben wir so ein interaktives Stadtplanungsseminar gemacht. Heißt, die Schülerinnen konnten in Minecraft, damals hatten wir den Alexanderplatz ausgewählt, den Alexanderplatz komplett umgestalten, neue Parks auf dem Alexanderplatz entstehen lassen, alles in dieser Minecraft Welt. Aber nichtdestotrotz basierend auf den tatsächlichen
16:41
räumlichen Daten auf diesem 3D Modell des Berliner Stadtkerns. Also auch hier wieder der Versuch, irgendwie diese abstrakten Daten in Form zu bringen, dass die Bürgerinnen tatsächlich damit was anfangen können, einen Bezug dazu aufbauen können und so neue Anwendungen dafür zu schaffen. Genau, also nochmal
17:00
die Frage wirklich zum einen, wie können wir Daten more accessible machen? Wie können wir sozusagen über die normalen Standards hinausgehen und gerade Standards schaffen, die vielleicht für Entwicklerinnen, die sich im Geobereich auch noch nicht so gut auskennen, besonders gut sind. Wir haben zum Beispiel auch aktuell arbeiten wir an der Schnittstelle. Viele Leute haben uns herangetragen.
17:20
Ja, WFS ist toll und da gibt es diverse Sachen, die man damit machen kann. Für viele, die aber gerade anfangen mit der Geo-Thematik, ist so ein WFS Service trotzdem erst mal relativ abstrakt. Gerade wenn solche Personen relativ niederkomplexe Tools für die Visualisierung nutzen und die wünschen sich zum Beispiel einfach einen GeoJSON, dass sie einfach irgendwo runterladen können und dann entsprechend nutzen können.
17:40
Deswegen wir zum Beispiel auch eine API gebaut haben, mit dem man einfach das WFS, man hat halt eine schöne GUI, ein schönes Auswahlsystem, kann da dann auch schon so Filtermöglichkeiten machen und bekommt dann entsprechend einfach einen GeoJSON generiert, was man sich dann runterladen kann und dann in seine Anwendung reinpacken kann und damit dann weiter spielen kann. Genau und dann halt auch wirklich diesen nächsten Schritt zu gehen und zu überlegen OK,
18:01
wenn wir diese Daten in einem Accessible Format haben, wie können wir das dann wirklich an die Bürgerinnen herantragen und dadurch mehr Werte generieren? Von uns aus gesehen ist natürlich nicht die Idee, dass Personen wie wir jetzt bei der Technologie Stiftung langfristig solche Services für die Stadt machen, sondern wir sehen uns selber als Ideengeber für die Stadt und zum Beispiel auch das Projekt
18:21
der Badestellen ist jetzt von vom Land selber übernommen worden und wir arbeiten aktuell daran, dass es in die offizielle Server Infrastruktur des Landes übernommen wird. Also da ist wirklich der Plan, dem Land Ideen zu geben, aber langfristig dafür zu sorgen, dass das Land solche Services auch selber zur Verfügung stellen kann, um so den Bürgerinnen zu helfen.
18:42
Genau, wir nutzen nicht nur offene Daten und offene Technologien. Alles, was ich heute gezeigt habe, wirklich jeglicher Code, den wir benutzen, ist auf GitHub offen dokumentiert unter offenen Lizenzen. Wir wünschen und hoffen deswegen natürlich auch, dass das irgendwie nachgenutzt wird, dass Leute vielleicht Inspiration finden und das Ganze entsprechend für ihre eigenen Länderstädte
19:01
entsprechend anpassen. So viel von mir. Danke. Vielen Dank, Dr. Sebastian Meyer. Das war sehr interessant. Ich habe selber auch Erfahrungen machen dürfen mit der Kinderplatzsuche in Leipzig. Also hätte ich mir
19:21
so eine Anwendung gewünscht. Gibt es da zu fragen? Also vorab ein Lob für die Anwendung. Ich bin selber Softwareingenieur und Respekt. Das ist wirklich genau, dass wir Open Data umgesetzt werden sollte oder eben zugänglich gemacht werden sollte.
19:41
Ich habe mich vorher gefragt, welche Use Cases kann man sich eigentlich vorstellen, die der Bürger so im Alltag benutzen würde? Ich selber habe jetzt keine Kinder. Deswegen war die Kitasuche von Ihnen jetzt eigentlich eine gute Idee. Aber wie kommen Sie eigentlich auf diese ganzen Anwendungsfälle? Auch die Badewasserqualität. Das wäre jetzt nichts, wo ich direkt dran gedacht hätte, dass das in irgendeiner Art und Weise
20:00
interessant sein könnte. Also machen Sie Umfragen unter der Bevölkerung, um herauszufinden, wo ist eigentlich Interesse? Was kann man machen? Oder ist es eher, ich sage es mal, böse Elfenbeintom denken? Und irgendwer wird das schon brauchen? Von allem etwas. Also wir haben unter anderem zum Beispiel auch eine Studie durchgeführt, wo wir wirklich durch jeden Bezirk gegangen sind,
20:22
haben überall mit den Daten beauftragen gesprochen, um sozusagen die Verwaltungsperspektive auch abzuholen und zu schauen, wo sind Bedarfe auf Verwaltungsseite, wo es dann zum Beispiel solche Sachen wie das Lageso gibt, die einfach wissen, die haben Bürgertelefon, die wissen, da rufen jeden Tag Leute an und fragen, wie ist das Wasser? Warum steht das dann nicht? Also da gibt es da gibt es zum Beispiel so einen Punkt, wo tatsächlich Bedarfe abgeholt werden.
20:41
Manchmal ist es auch so, dass wir was Spannendes einfach entdecken und dann einfach mal das ausprobieren und danach dann gucken, ob das tatsächlich auf Bedarf stößt. Weil häufig ist es ja auch so, dass Bürgerinnen sich vielleicht gar nicht vorstellen können, dass es Daten gibt, dass es einen möglichen Service gibt. Also da muss man dann tatsächlich manchmal einfach vorpreschen und schauen, ob das dann auf entsprechende Resonanz stößt.
21:00
Darüber hinaus machen wir aber wirklich so Co-Creation Workshops. Wir machen es gibt ein Open Data Tag in Berlin, wo wir auch dann mit Bürgerinnen sprechen können. Also es gibt diverse Formate, wie wir durchaus mit der Zivilgesellschaft in Kontakt treten und versuchen sozusagen solche Bedarfe auch zu eruieren und zu schauen, wo wir helfen können. Es gibt Hackertons, die zusammen mit der Zivilgesellschaft organisiert werden, um auch da zu schauen,
21:20
was sind Interessen, was sind Bedürfnisse? Also es ist so ein bisschen so ein Mix aus allen Sachen. Und wie stellen Sie sich ja, dass die Projekte, die an die Verwaltung übergehen, wie jetzt zum Beispiel die Badewasserqualität, dass die auch sinnvoll oder auch funktional weitergeführt werden und nicht schlichtweg irgendwann als Codeleich nur noch herumliegen, weil einfach die Qualität am Personal nicht vorhanden ist.
21:40
Also gibt es da irgendwelche Maßnahmen, die getroffen werden, damit die auch wirklich weiter existieren, diese Projekte? Also was wir machen, wir arbeiten relativ nah mit dem ITDZ zusammen, also der zentrale IT-Dienstleister für das Land Berlin, sozusagen um sicherzustellen, dass das, was wir übergeben, auf jeden Fall langfristig überhaupt von der Infrastruktur getragen werden kann. Das ist eine Sache.
22:01
Und darüber hinaus versuchen wir, möglichst engen Kontakt mit der Verwaltung zu pflegen. Und ich meine, langfristig, sobald es einmal übergeben ist, haben wir mittelfristig mittelprächtigen Zugriff darauf, ob das tatsächlich inwiefern weiter genutzt wird. Also da müssen wir uns ein bisschen darauf verlassen, dass das Land das Interesse der Bürgerinnen sieht und den Mehrwert darin sieht.
22:21
Aber natürlich haben wir kein wirkliches Druckmittel zu sagen, OK, ihr müsst das jetzt für immer bei euch weiter pflegen. Sind Sie an der Stelle schon mal gegen Wände gelaufen, was die Bereitschaft der Verwaltungen anging? Gerade was so IT und Infrastruktur und Regeln angeht, auf jeden Fall zum Beispiel vielleicht bei der Badestellengeschichte,
22:40
was uns zum Beispiel vorher nicht so bewusst war, wie viele EU-Regeln auch Badegewässer Qualitätsreports in Deutschland beeinflussen, also wie viel Standards es da gibt, die es alle einzuhalten gibt. Aber in der Regel war es eigentlich immer so, wenn man lange noch darüber spricht und diskutiert und wenn man versucht, kreative Lösungen zu finden, gibt es eigentlich immer einen gemeinsamen Nenner,
23:01
auf den man kommen kann. Also wir hatten es eigentlich noch nie so, dass es irgendwie so eine harte Barriere gab, wo wir gar nicht drumherum gekommen sind. Aber vielleicht auch nochmal also zum Beispiel zu den auf der offiziellen Berlin.de Seite gibt es diverse Kartenanwendung, die auch mittlerweile alle Open Street Map als Basiskarte benutzen. Weswegen zum Beispiel manche Abteilungen dann eher sagen Ja, aber wir wollen nicht
23:21
auf Open Street Map unsere Daten dann draufblenden oder so. Aber da muss man dann einfach schauen Wie können wir jetzt dafür sorgen, dass es vielleicht in Zukunft ein WMTS gibt, dass die offizielle Webseite das einfach relativ schnell einbinden kann, das WMTS als Basiskarte, sodass alle am Ende des Tages glücklich sind, wo wir dann wirklich auch gucken, OK, wie können wir euch unterstützen, dass ihr vielleicht ein WMTS hinbekommt
23:40
und das dann zur Verfügung gestellt wird. Also es ist manchmal irgendwie versuchen, kreative Lösungen und vielleicht Umwege auch zu gehen, dass man irgendwie da gemeinsame Lösungen findet. Vielen Dank. Würde ich auch andere Bundesländer beraten. Also das ja Unterstützung. Also Unterstützung auf jeden Fall. Also wir sind halt sozusagen,
24:01
da wir zum Teil auch vom Land gefördert werden, müssen wir natürlich so ein bisschen gucken, für was, welche Gelder genutzt werden. Nichtsdestotrotz, also zum Beispiel bei der Kitasuche hatten wir eine Menge Anfragen aus anderen Bundesländern, wo wir auf jeden Fall was in unserem Rahmen möglich ist, auch Unterstützung geben, wenn man eine Frage zum Code ist oder so. Also da scheuen wir uns jetzt nicht,
24:21
auch unsere Expertise weiterzugeben auf jeden Fall. Ich habe auch noch mal eine Frage. Habt ihr auch irgendwie Gedanken dazu, dass die Daten auch mobil verfügbar sind, wie zum Beispiel, dass Sie sich in Städte Apps integrieren lassen, um Köln und Jena als positive Beispiele hervorzuheben, wie zum Beispiel für den Tourismus?
24:40
Grundsätzlich alle Services, die wir aufsetzen, haben immer irgendwelche Endpunkte oder im Notfall irgendwo ein GeoJSON, was man einbinden kann. Wir haben zum Beispiel bei der Kita-Geschichte haben wir zum Beispiel mit dem Bezirksamt Neukölln kooperiert. Die haben eine eigene Mobile App, die sie für ihre Bürgerinnen anbieten und haben auch da sozusagen einen Endpunkt geschaffen, dass die sozusagen
25:01
diese GeoJSONs importieren können und dann sozusagen über Neukölln hinaus auch sozusagen die restlichen Informationen zu Kitas darstellen können. Also wenn es da grundsätzlich Interesse von irgendwelchen Personen, Institutionen gibt, die das weiter nutzen wollen, also alle unsere Sachen sind sowieso unter offenen Lizenzen. Also in Theorie kann sowieso jeder machen, was er will mit unseren Sachen.
25:22
Aber da stellen wir uns auch jetzt nicht quer, wenn es da irgendwie Interesse gibt. Ja. Ich hätte eine Frage. Ihr seid sechs Leute. Habe ich das am Anfang richtig mitbekommen? Und wie seid ihr entstanden? Da ist ein Sozialwissenschaftler oder irgendwie oder Soziologe dabei bei euch.
25:42
Wie kommt es ist natürlich jetzt sehr und das ist für die Froskis und so ist ja schon stimmig, dass es diese technischen Aspekte und das, was da in Gang kommt. Aber wie kommt es ins gesellschaftliche Leben? Und das ist ja für Bürger, für Bürgerinnen im Titel drin.
26:01
Wie? Was macht da dieser Sozialwissenschaftler? Also den ich jetzt meine, wie ist die Atmosphäre in Berlin? Meine Tochter ist da sozusagen auch. Berlin hat was Besonderes und nicht nur, dass die Geodaten da freigestellt sind. Können Sie da irgendwas noch dazu sagen? Genau, also ich glaube schon, dass der Mix des Teams sehr wichtig ist.
26:22
Also es wurde tatsächlich, dass das Lab, wir sind zu zweit gestartet. Das war mein Kollege Benjamin Seibel, der Kulturwissenschaftler ist und ich als Geoinformatiker auf der anderen Seite. Wir sind sozusagen gestartet mit dem Lab und ich glaube, dass diese Mischung aus Entwicklern, Designern, aber halt auch Geisteswissenschaftlerinnen, die sozusagen von der anderen Seite auch auf das Thema draufschauen, total wichtig ist,
26:42
weil sozusagen dadurch auch mal andere Perspektiven reingebracht werden und zum Beispiel diese Befragung, die wir mit den Bezirken gemacht haben, wo wir rumgegangen sind, Interviews geführt haben. Das ist halt wirklich gut, nicht nur von der technischen Seite, sondern auch wirklich von der Nutzungsseite draufzuschauen, auch vielleicht von einer etwas theoretischeren kulturwissenschaftlichen Perspektive
27:01
zum Beispiel draufzuschauen und zu schauen, wie man da gemeinsam Mehrwerte schaffen kann. Und ich glaube schon, dass es total positiv ist, so ein gemischtes Team zu haben und da ja so ein Perspektivenmix zu etablieren. Auf jeden Fall. Ja, damit möchte ich diesen Vortrag beenden.
27:20
Ich bedanke mich nochmal bei Dr. Mayer von der Technologie Stiftung Berlin für diesen spannenden Vortrag. Danke.