KI-Gebäudeerkennung – Deep-Learning-Modelle zur Aktualisierung der ALKIS-Gebäude
This is a modal window.
The media could not be loaded, either because the server or network failed or because the format is not supported.
Formal Metadata
Title |
| |
Title of Series | ||
Number of Parts | 119 | |
Author | ||
Contributors | ||
License | CC Attribution 4.0 International: You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor. | |
Identifiers | 10.5446/67669 (DOI) | |
Publisher | ||
Release Date | ||
Language |
Content Metadata
Subject Area | ||
Genre | ||
Abstract |
| |
Keywords |
14
45
50
55
67
69
72
75
78
87
95
00:00
Image processingInstanz <Informatik>BuildingPlanningEndliche ModelltheorieRoute of administrationOpen setTouchscreenMedical imagingProcess (computing)CASE <Informatik>AuthorizationAirfoilMultiplication signOrder (biology)NumberBitPerformance appraisalUniform resource locatorMereologyProduct (business)Cartesian coordinate system2 (number)Computer animation
02:49
BuildingFinite-state machineResultantMultiplication signElectric generatorAreaWave packetMedical imagingPixelBit
04:15
RAMOPUS <Programm>CodeMicrosoftCartesian coordinate systemArithmetic meanRight angleArrow of timeGreen's functionEndliche ModelltheorieFeedbackBuildingMathematicsValidity (statistics)Medical imagingInferenceOperator (mathematics)Task (computing)Dot productMultiplication signElectronic visual displayPresentation of a groupoutputLevel (video gaming)Point (geometry)ResultantVideoconferencingSelectivity (electronic)PreprocessorWeb 2.0Demo (music)Slide ruleProjective planeSoftware developerPrototypeProof theoryMetropolitan area networkWave packetBitMereologyMathematical optimizationElectronic mailing listAreaComputer architectureSoftwareProduct (business)CodeComputing platformGraphics processing unitPerformance appraisalGeodesicSmartphoneVorverarbeitungValidationLoop (music)Graphics tabletComputer programmingGebiet <Mathematik>Route of administrationComputer animation
11:19
Scrum (software development)Service (economics)Point cloudSoftwareArtificial intelligenceAgreeablenessScalar potentialExpert systemMilitary operationCalculationOperator (mathematics)Point cloudResultantStrategy gamePoint (geometry)Information securityElectric generatorSoftware developerGraphics processing unitBuildingWave packetTraffic reportingProduct (business)Multiplication signDesign by contractState of matterDifferent (Kate Ryan album)Level (video gaming)Process (computing)Projective planeLattice (order)Artificial neural networkSystem administratorCartesian coordinate systemComputer fileIntegrated development environmentImplementationFeedbackZirkulation <Strömungsmechanik>Computer animation
15:31
BuildingSet (mathematics)SurfaceState of matterPoint cloudDifferent (Kate Ryan album)Data storage deviceMetreImage resolutionGoodness of fitEndliche Modelltheorie6 (number)Open setPixelGrand Unified TheoryStack (abstract data type)Point cloudComputer animation
16:57
Grand Unified TheoryLink (knot theory)ResultantBuildingWave packetDifferent (Kate Ryan album)FeedbackShift operatorComputer programmingRight anglePairwise comparisonComputer animation
18:55
Point cloudMARKUS <Unternehmensspiel>Endliche ModelltheorieAreaDirection (geometry)CASE <Informatik>PrototypeBuildingCartesian coordinate systemForestMoore's lawPoint cloudPoint cloudSurfaceComputer animation
19:49
Direction (geometry)SpacetimeComputer animation
20:25
Data conversionComputer programmingOpen sourceQR codeComputer fileDescriptive statisticsSet (mathematics)Uniform resource locatorLinked dataComputer animation
21:08
Computer programmingData conversionOpen sourceImplementationSoftwareSoftware architectureTexturDirection (geometry)Bus (computing)Abbildung <Physik>ValidationQR codeLink (knot theory)InformationGebiet <Mathematik>Negative numberFocus (optics)Process (computing)Open sourceSoftware repositorySource codePolygonEigenvalues and eigenvectorsBuildingElectric generatorMedical imagingProcess (computing)Internet service providerRight angleOpen setPoint (geometry)MathematicsPosition operatorProjective planeResultantFrame problemField (computer science)Repository (publishing)Constructor (object-oriented programming)MereologyDataflowState of matterAuthorizationPattern recognitionNetwork topologyTelecommunicationBitContext awarenessGoodness of fitMoment (mathematics)SoftwareBlock (periodic table)Different (Kate Ryan album)SpeciesWeightCartesian coordinate systemComputer architectureEndliche ModelltheorieRow (database)Sinc functionAreaMultiplication signExecution unitMeasurementDivision (mathematics)Perspective (visual)Wage labourCASE <Informatik>Canonical ensemblePerformance appraisalError messageTerm (mathematics)Office suiteDigitizingData structureWave packetPresentation of a groupControl flowRoundness (object)Computer animation
Transcript: German(auto-generated)
00:07
Wir beginnen mit Gebäudeerkennung, die Planning-Modelle zur Aktualisierung der Alkis-Gebäude. Da wird uns Jonas Postelmann vortragen und wir gehen dann
00:20
weiter später mit Hausnummerierung, Evaluierung von Hausnummerierung und dann am Schluss, da bin ich auch sehr gespannt, quasi so ein bisschen Erfahrungen, offene Fragen. Ich kann mir vorstellen, so ein bisschen Standortbestimmung, wo stehen wir, wo geht es weiter und so weiter. Jonas, ich gebe dir das Wort. Ja, vielen Dank und ich freue mich, dass ich hier vortragen
00:42
darf und dass so viele sich für das Thema interessieren. Genau, mein Name ist Jonas, ich bin vom LGN, ich bin hier beim LGN Product Owner für Künstliche Intelligenz, das steht so auf meiner Visitenkarte, finde ich ganz cool. Und genau, der Titel steht hier schon auf den Folien, es geht um Gebäude, also was man hier auf dem Luftbild schon sieht und damit komme ich
01:05
so zur ersten Frage, warum nutzen wir überhaupt KI? Also nicht nur, weil es irgendwie gerade jeder macht und weil es irgendwie gerade im Mode ist, sondern wir haben da tatsächlich einen gesetzlichen Auftrag, das ist ja meistens bei Behörden so, wenn sie etwas machen und zwar geht es da um das Liegenschaftskataster, da sind die Gebäude ein Bestandteil, die
01:23
müssen von uns erfasst werden und dort nachgewiesen werden und jetzt dieses Jahr kommen auch die Hausumbringer als Open Data Daten raus zum Beispiel und ja auch viele Anwendungen haben heutzutage einfach eine viel höhere Anforderung an die Aktualität der Daten und ich vermute
01:42
mal, keiner im Raum hier widerspricht, mehr wenn ich sage, so die Aktualität von amtlichen Daten ist zum Teil nicht immer so ganz so gut und jetzt haben wir das Problem, also die Herausforderung vielleicht, dass wir die Daten irgendwie aktualisieren müssen. Manuell ist das echt viel und das ist auch eine schöne Arbeit, die ganzen Luftbilder und die Daten
02:02
miteinander zu vergleichen und da manuell stundenlang auf dem Bildschirm zu starren und zu gucken, wo ist was Neues, wo hat sich was verändert und es sind auch in Niedersachsen relativ viele Daten, die da durchgeguckt werden müssen. Wir haben alle oder ab nächstes Jahr haben wir einen Zwei-Jahres-Tonus bei den Befliegungen, das bedeutet also jedes Jahr ungefähr 6000 Bildkacheln, jeweils zwei mal zwei Kilometer groß
02:24
und die müssen alle irgendwie manuell durchguckt, durchmustert werden, das ist keine schöne Aufgabe, deswegen Lösung KI, irgendwie brauchen wir eine KI, die diese Luftbilder versteht, da drauf gucken kann und uns die Gebäude liefert. Das ist so das Thema, worum es jetzt in dem Vortrag
02:41
geht. Die zweite Frage, ja kann das eine Behörde, können wir eine eigene KI trainieren, geht das? Versuche ich jetzt hier mit den Ergebnissen zu beantworten, die Frage, das ist so ein typisches Luftbild in Niedersachsen, 20 Zentimeter Bodenpixelgröße, man sieht ein
03:01
paar Gebäude und dann war das das erste Ergebnis unserer KI, die Generation 1 vor knapp drei Jahren, ja hat irgendwie die Gebäude erkannt, also könnte man jetzt sagen, ja wir haben eine KI trainiert, hat funktioniert, sind auch ein paar Gebäude erfasst geworden, aber so richtig ausreichend gut ist das noch nicht,
03:24
deswegen haben wir weiter daran gearbeitet, haben das verbessert, Generation 2 war dann schon sehr viel besser, da haben wir vor allen Dingen an den Trainingsdaten gearbeitet, für Generation 3 haben wir dann nochmal komplett das KI-Modell, die Architektur ausgetauscht, das sah dann, ja ich soll mal sagen, gleich gut aus, Generation 4 deutlich besser, da haben wir auch lange mit
03:44
gearbeitet jetzt letztes Jahr, die war schon echt gut und mittlerweile sind wir jetzt, ja seit diesem Monat bei Generation 5.2, da tut sich nicht mehr ganz so viel, aber so in dem Bereich, der ist auch relativ einfach, vor allen Dingen in anderen Bereichen, die ein bisschen komplizierter sind,
04:02
kompliziertere Gebäude oder irgendwie kompliziertes Gelände, dort ist die neueste Generation deutlich besser geworden. Man muss jetzt ein bisschen aufpassen, wenn man schon den Ergebnissen beeindruckt ist, weil, wir sind jetzt ungefähr hier an dem Stand, wir haben irgendwie Geodaten
04:20
gesehen, ich habe gesagt, da haben wir eine KI drauf angewendet und dann kommen da irgendwelche Ergebnisse heraus, irgendwas Magisches passiert dazwischen, aber das bringt uns ja irgendwie kein Nutzen und Wert, ich kann jetzt hier eine Präsentation halten und die schönen Bilder zeigen, das ist irgendwie noch nicht das, was wir eigentlich haben wollen, wir wollen ja irgendwie Nutzen
04:43
aus der KI haben, deswegen muss man sich jetzt ein bisschen komplizierteres Modell hier nochmal angucken und genauer drauf schauen, es geht irgendwie auf der linken Seite mit Geodaten los als Eingangsdaten, da ist ein wichtiger Punkt die Auswahl und Vorverarbeitung der Trainingsdaten, also mit welchen Daten trainieren wir
05:01
unsere KI, wie wir das technisch machen, hatten wir heute Morgen schon gehört in einem anderen Vortrag mit Argo Workflows, wie genau wir das im Detail machen, kann ich noch mal morgen eine Demosession empfehlen und auch wenn jetzt der Vortrag vielleicht ein bisschen oberflächlich ist in die Details und die Umsetzung,
05:22
welche Modelle, welche KI wir da genau verwenden, das erzählen wir dann morgen nochmal genauer im Detail. Genau, wenn man dann die Trainingsdaten hat, dann geht die KI-Entwicklung los und da eigentlich auch wie bei der Software, wollen wir uns da nicht so gerne lange festlegen, wie der junge Mann hier im Bild vielleicht, sondern wollen da auch austauschbare
05:41
Software, austauschbare KI-Modelle haben und uns da gar nicht so sehr an bestimmte Modellehersteller oder so binden, sondern wollen das möglichst alles austauschbar haben und das ist ein Teil, also Auswahl des Modells, das passiert immer wieder, wir haben es gerade gesehen in den Folien, dass wir das einfach neulich einfach mal
06:01
ausgetauscht hatten, die komplette Architektur. Dann Optimierung des Modells, das sieht dann im Wesentlichen so aus, da braucht man ein bisschen Geduld, aber vor allen Dingen braucht man auch viele GPUs, die sind dann auch in der Verwaltung so mit unserer IT gar nicht immer so gut leicht zu bekommen, da ganz großen Dank an die Plattform Code.de, die uns das bereitstellt,
06:21
das ist eine schöne Infrastruktur vom Bund für die Bundesländer, für die Kommunen, für die anderen Behörden, wo wir einfach richtig starke GPUs haben, mit denen wir eine große Netze trainieren können. Dann der nächste Punkt, da will ich jetzt auch gar nicht weiter drauf eingehen, das ist im nächsten Vortrag nochmal so ein bisschen Thema, die Evaluierung des Modells, also
06:42
wie viel besser ist das geworden, das neue Modell, was wir optimiert haben, das ist auch ein ganz wichtiger Punkt, wo wir uns im letzten Jahr viel mit beschäftigt haben und wenn wir dann zufrieden sind mit der Evaluierung, dann können wir einmal diese schönen Folien jetzt erstellen, das geht dann so der Pfeiler da nach oben oder wir geben dieses Modell dann in den Betrieb,
07:02
Deployment Inferencing, also wir müssen das irgendwo im Kubernetes Cluster installieren, zum Laufen bringen und müssen es dann auf unsere neuen Luftbilder anwenden. Das ist ja das eigentliche, was wir machen wollen, sobald neue Luftbilder kommen, wenden wir dann das neue KI-Modell drauf an und kriegen dann die Gebäude angezeigt, das ist dann der KI-Betrieb,
07:22
da geht es dann ganz viel um Automatisierung, dass das alles schnell und automatisch läuft. Diese ganzen grauen Punkte, durch die wir jetzt gerade durchgegangen sind, das sind auch so die Themen, an denen wir als KI-Team arbeiten, also das sind alles ja so die Schwerpunkte unserer täglichen Arbeit. Ganz wichtiger Punkt ist noch
07:41
ganz am Ende, wir müssen auch eine Anwendung bauen, damit die Ergebnisse dann tatsächlich irgendwie einen Nutzen und einen Wert bringen. Da habe ich gleich auf der nächsten Folie die Anwendung, Live-Demo lasse ich jetzt mal weg, können wir gerne gleich noch mal in der Pause drauf gucken, ich habe ein Tablet dabei, da läuft die Anwendung drauf, das ist eine Web-Anwendung, kann man sich angucken. Und
08:01
da noch ein Hinweis, da gibt es noch oben so eine Sackgasse, so Prototyp, Proof of Concept, da kommen ganz viele KI-Projekte niemals drüber hinweg, das ist so eine Erfahrung oder ja, ich gucke ja auch so ein bisschen außerhalb des LGNs, was andere so machen. Bei vielen Projekten vorhaben, auch gerade in der Verwaltung, endet das denn damit zum Prototypen oder Proof of
08:21
Concept und die Anwendungen kommen dann nie in die Produktion und entfalten eigentlich nie ihren eigentlichen Wert und genau, hier sind noch so ein paar Rückwärtspfeile, das ist so Feedback-Korrekturen, also jeder dieser Schritte kann auch immer wieder dazu führen, dass wir halt noch mal wieder von vorne anfangen, also noch mal neu die Daten auswählen und das ist auch so gewollt und ist auch ein wichtiger Punkt, um immer
08:42
nach und nach besser zu werden. Genau, zur Anwendung hatte ich gerade schon gesagt, die haben wir auch bei uns im Team entwickelt, wir haben jetzt keinen ausgebildeten UX-Designer bei uns, aber wir haben uns trotzdem, glaube ich, oder haben uns sehr Mühe gegeben,
09:00
das möglichst einfach zu gestalten und auch ein bisschen angenehmer als sonstige Software, die bei uns eingesetzt wird, sodass die Kolleginnen und Kollegen in den Katasterämtern einfach so drei Schritte ausführen im Wesentlichen. Man wählt oben ein Gebiet aus, für das man sich interessiert, das sind bei uns so Gemarkungen, in denen wird da gearbeitet, dann sagt man, was man haben möchte, möchte man
09:21
Hinweise auf neue Gebäude, möchte man Hinweise auf abgerissene Gebäude, kann da noch eine Größe einstellen, wie groß sollen die Gebäude sein, für die man sich interessiert, und dann kriegt man eine Liste an der Seite angezeigt, wo man die ganzen Gebäude hat, kann die dann auch noch sortieren nach Größe oder Flurstück oder was einen gerade interessiert, und dann
09:40
kann man das so durchklicken, das sind dann diese fünf Knöpfe, die man da sieht, weiter Rot, Grün, also Grün heißt halt, okay, richtig, da wurde was korrekt erkannt, eine Veränderung zwischen den Alkes-Daten und der KI, das ist dann also nochmal so eine Validierung von den Mitarbeitenden bei uns, Rot würde
10:01
eben der KI nochmal das Feedback geben, da ist irgendwie, hast du falsch gemacht, dann gibt es in der Mitte noch so einen blauen Punkt, NE, nicht einmessungspflichtig, das ist dann zwar ein Gebäude, aber es ist aus irgendeinem gesetzlichen Grund jetzt kein einmessungspflichtiges Gebäude, das brauchten wir da auch noch als Option, genau, die Idee ist dann, dass wir mit, ja mit dieser
10:20
Anwendung auch jetzt so eine Kooperation hinbekommen zwischen Mensch und Maschine, um das mal so auszudrücken, sodass die KI dann die einfachen Aufgaben übernimmt, also das Durchgucken der großen Bilder und nach Hinweisen suchen und wenn man nochmal dann genau draufguckt und die
10:41
interessanten komplexeren Aufgaben, die übernehmen dann die menschlichen Kollegen bei uns und so kriegt man dann am Ende so eine Art Human in the Loop Ansatz raus, wo man neue Daten reinsteckt, bekommt am Ende Aktualisierungen raus und gleichzeitig lernt die KI dann auch immer weiter von dem Feedback der Menschen, das kennen
11:00
wir auch ja von täglichen Smartphone Nutzung, je nachdem, was wir kaufen, was wir uns angucken, welche Videos wir schnell wegklicken oder länger drauf gucken, da lernt ihr auch immer im Hintergrund der KI und so soll das hier auch sein, dass eben durch das Arbeiten mit der Software die KI immer besser wird und dazu lernt. Genau, wer sind überhaupt wir
11:22
und wie hat das Ganze angefangen mit der KI bei uns am LGN? Wir haben 2020 mit IBM zusammen gestartet, da war es noch größtenteils Experten von IBM, die uns da unterstützt haben in der Anfangsphase, wurde begleitet von von LGN-Kollegen und
11:40
Kolleginnen, genau und dann seit Anfang 21 haben wir ein eigenes Team gegründet, das ist jetzt mittlerweile eins von 15 DevOps-Teams oder sogenannte Geo-Labs-Teams bei uns im LGN, genau und wir sind halt das Team für künstliche Intelligenz. Ja, wir arbeiten agil nach
12:01
Scrum, vier Wochen Sprints. Ganz wichtiger Punkt ist auch, dass wir mit einer Projektgruppe zusammenarbeiten, also das sind wirklich die Nutzenden bei uns im Landesamt, die die Anwendung dann nutzen und das haben wir seit ja 20, 22, dass wir dort mit denen eigentlich wöchentliche
12:20
Treffen haben und dort immer direkt das Feedback aus der Anwendung zurückbekommen und die Sachen dann auch immer schnell, meistens schon in den nächsten zwei Tagen dann umgesetzt haben, wenn da irgendwelche Features geändert werden sollen. Genau, wir machen das Ganze gemäß unserer IT-Strategie alles komplett im DevSecOps- Ansatz, also wir sind verantwortlich für die
12:41
Entwicklung, für Security und Operations und wir machen das Ganze von Anfang an alles in der Cloud, außer Entwicklung machen wir auch lokal, wir haben auch irgendwie auf unseren Rechnern Entwicklungsumgebung und GPUs, die wir anschließen können zum Trainieren, aber der Betrieb passiert in der Cloud. Genau, das Ganze ist auch kein Projekt, wir haben
13:00
alle unbefristete Verträge und wir müssen auch keinen Abschlussbericht schreiben und es gibt auch kein Datum, sondern das ist ein Produkt, was wir entwickeln und was wir dauerhaft betreiben wollen. Das ist immer noch eine wichtige oder kommt oft als Frage, wie das ist. Da unten sieht man jetzt nochmal so in der Zeitachse die verschiedenen Generationen, wie das sich entwickelt hat.
13:22
Genau, jetzt ein bisschen Blick in die Zukunft, wo wir gerade dran arbeiten. Ganz aktuell ist das, diese Software in den Prozess, in den Katasterämtern mit zu integrieren. Da haben wir verschiedene Freigabe, Stufen durchlaufen, Datenschutz, Security, Personalrat,
13:41
alle wurden damit einbezogen, sodass wir das jetzt dann einsetzen können in den Katasterämtern. Ein weiterer Punkt ist jetzt noch der Prozess, der danach kommt. Also wenn man jetzt die KI-Ergebnisse irgendwie ausdruckt und in eine Akte packt und dann wieder einscannt und so einen typischen Verwaltungsvorgang vielleicht, wie man sich in sich vorstellt
14:00
mit so Umlaufakten und so, wenn der dann danach startet, dann bringt das Ganze auch nichts. Deswegen wollen wir auch den Prozess, der danach kommt, diese ganze Einmessung und dass die Besitzer der Gebäude dann angeschrieben werden und so, das wird jetzt auch alles modernisieren und automatisiert ganz viel. Das ist gerade ein Punkt, wo andere Teams jetzt auch noch
14:20
daran arbeiten. Was wir jetzt noch machen in der nächsten Zeit, sind wir einfach weiter neue Trainingsdaten erstellen, neue Generationen trainieren, die Netze feintunen. Ich denke, da ist noch gut Potential auch drin. Also die Ergebnisse sind zwar schon so gut, dass wir damit arbeiten können, aber wir wissen auch, an welchen Stellen wir da noch weiter verbessern
14:41
können und dass es noch besser wird. Ein anderer Punkt, den wir uns auch noch angucken wollen, sind so historische Daten, wobei also alles, was irgendwie älter als drei Jahre ist, wird bei uns schon als historisch bezeichnet, dass wir die Daten auch nehmen, die KI mal drüber schicken und dann können wir uns angucken, wo verändert sich was, also welche Gebäude sind jetzt irgendwie, wann waren die,
15:00
wurden die gebaut, wie lange stehen die da schon und so was, das steckt dann alles in den historischen Daten auch mit drin. Und ein großer Punkt, den wir gerne oder wo wir dran sind, das Ganze für andere Bundesländer, andere Behörden anzubieten, das haben wir von Anfang an alles so gebaut, dass man da eigentlich nur noch den Namen und das Logo, die URL ändern
15:21
muss und dann kann das ein anderes Bundesland auch einsetzen. Und ich meine, das macht ja auch Sinn. Das muss ja nicht irgendwie 16 Mal in allen Bundesländern von vorne entwickelt werden. Genau. Apropos andere Bundesländer, ich gucke immer, dass wenn ich einen Vortrag habe, dass ich dann auch den Ort, wo ich gerade bin, dass wir da mal versuchen, die KI drüber laufen zu lassen.
15:41
Dann nochmal vielen Dank an die Kollegen vom LGV, die uns hier ganz aktuelle Daten auch bereitgestellt haben. So, das kann man jetzt hier sich mal angucken. Also, obwohl das jetzt hier ein relativ komplexes Gebäude ist, finde ich, hat das schon echt auch ganz gut funktioniert, auch mit den Daten aus dem anderen Bundesland, die doch dann immer so ein bisschen anders sind.
16:01
Genau, da können wir jetzt sehen, dass da die Gebäude ganz gut erkannt wurden. Und das, obwohl hier die, das das bildbasierte Oberflächen Modell, also das BDOM, das haben wir hier nur in 1 Meter Auflösung gehabt. In Niedersachsen haben wir das mit 20 Zentimeter Pixel
16:21
Größe. Da vielleicht auch nochmal der Hinweis, weil ich da oft nachgefragt werde, ob diese Daten Open Data sind. Ja, das BDOM mit 20 Zentimeter Auflösung kommt ab 9.06. in ganz Niedersachsen Open Data für alle frei zugänglich zur Verfügung über eine Stack API liegt im schnellen Cloud Speicher, kann jeder dann
16:41
mitarbeiten. Kann man sich schon mal vormerken, das sind nämlich echt coole Datensätze, mit denen man richtig viel Gutes machen kann. Da freuen wir uns auch immer über Feedback. Also wenn jemand was mit diesen Daten macht von uns, gerne immer irgendwie zurückmelden, dass wir wissen, was damit passiert mit den Daten. Genau, was damit passiert, auch mit unserer, mit
17:02
unseren KI-Ergebnissen, gutes Stichwort. Ich hatte das ja auch schon ins Programm geschrieben. Ich interessiere mich stark dafür, ob wir diese Daten für OSM irgendwie nutzen können. Vielleicht nicht voll automatisch übernehmen als Gebäude in OSM, aber als Hinweisgeber wäre das ja vielleicht eine Möglichkeit. Da würde ich mich sehr über
17:20
Rückmeldung so aus der OSM Community freuen. Da muss man vielleicht noch mal so ein paar Fragen zur Lizenz beantworten. Also hat die KI jetzt auch irgendwie so ein Urheberrecht an den Daten. Wird diese Lizenz von unseren Eingangsdaten, von den Trainingsdaten, wird die vererbt? Also das weiß ich einfach noch nicht. Das kann ich hier nur so als Frage in den Raum stellen.
17:40
Vielleicht hat da jemand noch mehr Ahnung von. Aber um das Ganze mal technisch zu testen, ohne diese Fragen zu beantworten, haben wir einfach mal die Gebäude von Oldenburg. Also es sind auch 78.000 Gebäude. Die haben wir mal mit einer Creative Commons Zero Lizenz veröffentlicht. Da ist der Link auch. Also wer das mal
18:00
ausprobieren will oder mit den Daten irgendwas machen möchte, kann das gerne hier sich mal runterladen. Und ein Vergleich zwischen diesen OSM-Daten und ALKES-Daten und KI-Ergebnissen haben wir dann auch im nächsten Vortrag noch. Also gerne gleich nochmal sitzen bleiben. Genau, ich habe hier nochmal
18:21
die Daten so im Vergleich. Das sieht schon echt ähnlich aus, was die KI da gefunden hat und was was in OSM so drin ist als Gebäude. Mir war hier unten was aufgefallen. Da ist irgendwie ein Gebäude, das ist ein bisschen verschoben. Das ist ja nicht weit weg. Da könnte man vielleicht nochmal hingehen und gucken, was da stimmt.
18:40
Ja, das wäre halt so eine Idee, dass man das dann automatisch auswertet und sich die Differenzen anguckt und dann an den Stellen vielleicht nochmal jemand, der gut mit OSM arbeiten kann, da draufguckt und das vielleicht gegebenenfalls aktualisiert oder korrigiert. Genau, was machen wir? Ich glaube, letzte eine Minute habe ich noch. Was machen wir in Zukunft noch so?
19:00
Jetzt ist der nächste Schritt, der nächste logische Schritt eigentlich so 3D. Wir haben ganz viele schöne 3D-Daten, Punktwolken. Wir haben auch 3D-Modelle, die wir veröffentlichen. Da sind wir gerade dran, diese Daten zu nutzen, um da dann automatisch die Punktwolken zu klassifizieren oder Gebäude zu rekonstruieren aus diesen Daten. Da hatten wir jetzt eine Masterarbeit zu dem Thema
19:21
oder zwei sogar eigentlich hier und auch andere Anwendungsfälle. Wir haben Prototypen gebaut für Waldschäden. Wir haben uns mit Moorflächen, Nassflächen beschäftigt. Jetzt, ja, ab nächste Woche geht das Thema versiegelte Flächen für uns los. Da haben wir auch einen Prototypen gebaut und wollen das dann ganze auch skalieren
19:41
und in die Cloud bringen und produktiv einsetzen, dass wir auch so versiegelte Flächen erkennen. Das ist einfach gerade ein wichtiges Thema Richtung Klimawandel und erneuerbare Energien sind auch noch so Ideen, dass wir Windräder versuchen zu erkennen, um da den Fortschritt zu tracken. Solar, Parks, Swimming Pools,
20:05
genau und so weiter. Bombenkrater haben wir auch ein Thema, also ist auch ein Thema, wo wir schon mal eine KI drauf angesetzt haben, die Krater in so Kriegsluftbildern zu detektieren. Das ist wichtig, weil bei uns im Haus ist auch der Kampfmittelräumdienst.
20:21
Die müssen halt wissen, wo sind potenziell Blindgänger. Genau. Ja, damit wäre ich dann schon am Ende des Vortrags. Die Folien und alle Links, Datensätze, was ich erzählt habe, findet man hier unter dem QR-Code. Hier unten stehen noch Kontaktdaten und eine wichtige Sache noch.
20:41
Wir wurden schon so viel auf unsere coolen Pullis angesprochen. Wir haben noch einen über und da ist die Stellenausschreibung dazu. Also wer noch jemanden kennt oder einen Job sucht, kann sich gerne mal bei mir melden. Vielen Dank.
21:04
Herzlichen Daumen, Jonas. War sehr spannend. Es gab sehr viele Fragen. Ich nehme mal die beiden, die am meisten Votes bekommen haben. Die erste Frage ist, ist das Open Source? Wo kann ich das ausprobieren? Hast du eigentlich schon beantwortet, würde ich meinen, oder?
21:22
Ja, also die KI ist nicht Open Source. Also wir nutzen ausschließlich Open Source Software und vortrainierte Modelle, alles, was frei verfügbar ist. Wir haben jetzt in der Session morgen, da haben wir dann auch. Ich habe jetzt hier gerade kein Link. Das ist ein Open Source Repository. Das gibt es auf GitHub.
21:40
Man muss mal nach Frame Field Learning suchen, dann findet man da auch den Source Code, das wir selber veröffentlichen, noch kein Source Code. Das ist einfach gerade noch nicht unser Fokus. Wir wollen erst mal unsere Prozesse hiermit modernisieren und die Daten bereitstellen und Open Data mit möglichst aktuellen Daten versorgen.
22:00
Aber ja, das Ziel ist schon, dass wir auch den Source Code irgendwann mal Open Data stellen. Gut, dann die nächste Frage. Du hast das Thema angesprochen. Du hast gesagt, ihr möchtet es auch anderen Behörden anbieten und so weiter. Und in diesem Kontext kam die Frage, gibt es einen Austausch innerhalb der Landesbehörden?
22:22
Oder und jetzt kommt, finde ich, ein sehr spezielles Bild. Gebärd jedes Bundesland ihr eigenes KI Baby? Ich kann mich vorstellen, wie das ausschreibt. Ja, genau. Es gibt Austausch. Natürlich sprechen wir mit den anderen. Ich bin da, glaube ich, ganz gut vernetzt und kenne alle, die auch irgendwas mit KI machen in den anderen Landesvermessungsverwaltungen.
22:46
Ja, vielleicht macht auch jeder eine eigene KI, aber vielleicht macht nicht jeder eine eigene KI zur Gebäuderkennung. In Schleswig-Holstein gibt es Leute, die arbeiten an einer KI zur Gebäuderkennung, Baumartendetektion. Die sind da schon recht weit
23:00
ja, in anderen Ländern machen sie dann vielleicht eine andere Erkennung. Und so ist unsere Idee, dass jedes Bundesland vielleicht eine eigene KI entwickelt zu einem anderen Thema und man sich dann gegenseitig damit unterstützt. Ich habe noch eine dritte Frage, die ich nehme, bevor ich dann ins Plenum komme.
23:22
Die scheint mir noch ganz interessant. Wie wird das Problem der Segmentierung in verschiedene Gebäudeteile angegangen? Footprints ist ja nicht gleich Gebäude. Ja, genau, das ist richtig. Also zurzeit haben wir halt einfach Polygone. Also wenn man sich jetzt so einen Häuserblock in der Stadt vorstellt,
23:40
das ist einfach ein großer Footprint, ein Polygon. Ich glaube, das Netz sind die Architektur, die wir verwenden. Die ist da auch sehr gut drin, das zu unterscheiden. Aber das hat für unsere Anwendung erst erstmal keinen Fokus, weil bei uns geht es ja erstmal darum, Veränderungen im Sinne von da ist irgendwie neu gebaut worden, da ist abgerissen worden, da ist angebaut worden.
24:02
Sowas zu erkennen, da ist diese Unterscheidung bei einer Doppelhaushälfte zwischen linkem Teil und rechten Teil für uns nicht relevant an der Stelle. Deswegen haben wir da noch nicht den Fokus gerade draufgesetzt, auch die einzelnen Gebäudeteile zu trennen in der Segmentierung. Gut, dann möchte ich hier
24:22
die Frage runter öffnen jetzt für das Plenum. Gibt es gerade Fragen? Ja, ich komme in der Zwischenzeit, bis ich da bin. Meine Frage wäre noch, habt ihr auch untersucht mit unterschiedlichem Bildmaterial zu arbeiten? Also vielleicht unterschiedliche
24:40
Auflösungen, ich weiß, Drohnenaufnahmen oder sowas? Noch nicht, aber wir haben jetzt immer mehr Drohnenaufnahmen zur Verfügung. Ja, wir haben jetzt das erste Mal, also seit heute, glaube ich, TrueDops flächendeckend. Vorher waren es halt normale Drops, die haben wir auch schon verwendet. Da hat man natürlich immer
25:00
so ein bisschen Verkippung drin. Andere aus den anderen Bundesländern mit ein bisschen anderer Auflösung haben wir auch schon mal getestet. Ich habe auch noch mal eine Frage zu der Zusammenarbeit mit anderen Landesbehörden. Wie erstellen die denn ihre Hausumbringe? Also haben die teilweise dann auch schon eine andere KI, weil du gerade meintest,
25:21
das vielleicht perspektivisch in Richtung Arbeitsteilung so. Aber gibt es parallel auch andere Landesbehörde, die diese Methoden anwenden? Der klassische Weg ist ja, dass man hinfährt mit einem Messtrupp in einem Bus und da aussteigt und Messgeräte und das Gebäude einmisst und dann eine Papierskizze erstellt
25:40
oder die Daten erfasst, GPS-Koordinaten und das dann im Innendienst, im Büro, in die Karte überträgt und aufnimmt. Das wird, ich glaube, nur in einem Bundesland auch aus den Luftbildern abdigitalisiert. Dort sind sie, glaube ich, auch am Experimentieren mit, ich glaube aber, kommerzieller Software,
26:01
dass sie da auch gucken, wie kann man da eine KI nutzen, um die Abdigitalisierung aus den Luftbildern zu automatisieren. Aber ansonsten ist dann bisher noch nicht so viel passiert jetzt im Vergleich zu Niedersachsen in anderen Bundesländern.
26:20
Ich hoffe, ich kann in Englisch sprechen. Ich frage mich, ob die Schraube die Texture auf den Resultat des Luftkennens beeinflusst. Zum Beispiel, ob es auf dem Ruf ein Sonnenblatt gibt oder ob es etwas Vegetarien gibt, die auf dem Ruf wachsen. Wenn ich es richtig verstanden habe, die Frage war,
26:41
ob die Rufstruktur auf den Resultaten beeinflusst. Also die Frage war quasi, hat die Oberflächenstruktur der Dächer einen Einfluss auf die Resultate? So habe ich es verstanden, ja. Eigentlich nicht so viel.
27:00
In meiner heutigen Präsentation habe ich noch mehr Bilder, wo wir viele verschiedene Rufstrukturen sehen können. Und die A.I. entdeckt die ganzen Gebäude ziemlich gut. Also es funktioniert nicht nur auf diesen normalen Einfamilienhäusern hier. Es funktioniert auch gut auf größeren Gebäuden und industriellen Gebäuden und so weiter.
27:25
Ich habe übrigens noch, das hatte ich vergessen zu sagen, hinter dem QR-Code gibt es auch einen Link zu dem QGIS-Projekt, womit ich die Abbildung hier von den verschiedenen Generationen erstellt habe. Wer das selber sich mal angucken will, da sind auch ein paar andere Gebäude mit drin,
27:40
kann das noch mal runterladen und einfach müsste man öffnen können. Und die Daten sind automatisch da mit drin in dem QGIS-Projekt. Ich habe noch eine Frage zur Validierung der Ergebnisse. Du hattest ja den manuellen Prozess beschrieben, dass dann jede erkannte Änderung noch mal manuell bestätigt wird. Das ist in dem Sinne ganz gut, um rauszufiltern, was false positives sind.
28:03
False negatives werden damit aber trotzdem nicht erkannt, weil sie nicht als Vorschlag gegeben werden. Ist das ein Problem oder gibt es eigentlich eh praktisch keine false negatives? Und vielleicht da auch zusätzlich noch die Frage, es müsste ja trotzdem, aber es müsste ja noch die Daten geben, wo Bauänderungen stattgefunden haben bei der Stadt, oder fließt sowas dann irgendwie auch noch mit ein,
28:21
dass man sich explizit diese Gebiete dann anguckt? Ja, den zweiten Teil habe ich nicht ganz verstanden, dass es noch andere Informationsquellen gibt, wo gebaut wird. Ja, zum Teil, es ist aber dann auch wieder so ein bisschen Behördenkommunikationsproblematik. Ja, zum Teil geht das, glaube ich, von den Bauämtern noch auf den Papierweg an uns und so. Das ist halt alles nicht so schnell
28:41
und automatisch. Und genau das dazu. Und die erste Frage, genau, false negatives. Also wenn die KI irgendwo ein Gebäude nicht sieht, dann sieht das auch bei uns keiner, der die Daten validiert. So da haben wir ja keine Informationen drüber. Deswegen haben wir da auch noch mal einen extra Prozess.
29:01
Das zeigt mein Kollege morgen auch noch mal bei dem Termin, wie das genau funktioniert. Wir gehen auch ganz systematisch nochmal die Gebiete mit den für die Trainingsdaten durch und gucken und suchen da gezielt nach den Gebäuden, die nicht in unseren Alkes Trainings Daten Labels mit drin sind, um die dann manuell nachzuerfassen,
29:21
also es geht ja auch in den Trainingsdaten und in den Evaluierungsdaten, dass man da keine Fehler drin hat um das Mögliche. Dann wird die KI irgendwann so gut, dass sie keine false negatives mehr produziert. Das ist so die Hoffnung. Noch eine letzte kurze Frage, bevor wir dann kurz
29:41
unterbrechen für den Wechsel. Hi, ich wollte nur fragen, ob wenn jetzt die Bilder, also wenn ich Luftbilder abdigitalisiere, ob die dann auch, ob das KI ist oder per Hand, ob das auch eine Rechtswirkung entfaltet, weil es sind ja immerhin amtliche Daten. Wir müssen uns ja darauf verlassen, dass wir damit eine Rechtswirkung haben. Also ist das gegeben auch bei KI?
30:01
Ja, das muss man in Zukunft sicherlich dokumentieren, diskutieren, dokumentieren auch, aber zurzeit ist es noch nicht so kritisch, weil es ist ja einfach nur ein Hinweisgeber an der Stelle. Also bisher hat sich an der Erfassung der Daten ja eigentlich noch nichts geändert. Man kann halt in Zukunft drüber nachdenken, wenn die KI-Polygone so gut sind,
30:20
ob man die dann direkt in die amtlichen Daten mit übernimmt, aber dann muss man da noch mal ein bisschen drüber nachdenken, was das bedeutet, dass amtliche Daten irgendwie von der KI erzeugt wurden. Das muss man sich dann, glaube ich, sehr gut überlegen, wie man das umsetzt. Gut, schön. Dank nochmal, Jonas. Nochmal ein Applaus für Jonas. Und wir haben eine kurze Pause.