We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Konzeption eines Spatial Business Intelligence Systems zur Analyse und Steuerung von Re-Produktionsketten

00:00

Formal Metadata

Title
Konzeption eines Spatial Business Intelligence Systems zur Analyse und Steuerung von Re-Produktionsketten
Title of Series
Number of Parts
47
Author
License
CC Attribution 3.0 Unported:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor.
Identifiers
Publisher
Release Date
Language

Content Metadata

Subject Area
Genre
Abstract
Re-Produktionsketten sind Kombinationen technischer Prozesse des Wasser- und Energiesektors im ländlichen Raum, die in stofflicher, energetischer oder wirtschaftlicher Hinsicht miteinander in Beziehung gesetzt sind und als Ziel die lokale Wertschöpfung und Ressourceneinsparung verfolgen. In diesem interdisziplinären Arbeitsfeld setzt sich das Forschungsprojekt mit der Identifizierung, dem Aufbau und der Steuerung derartiger regionaler Stoffkreisläufe auseinander. Angesichts steigender Preise für Energie und Rohstoffe interessieren sich Kommunen und Unternehmen sehr für den Aufbau solcher regionaler Wertschöpfungsketten. Für die räumlich-analytische Untersuchung der starken räumlichen Beziehungen zwischen den Akteuren, den technischen und natürlichen Elementen der Re-Produktionsketten soll ein räumliches Entscheidungsunterstützungssystem (Spatial Business Intelligence System) auf Grundlage von OpenSource Komponenten aufgebaut werden, welches auf kommunaler Ebene zum Einsatz kommen soll. Die tragende Herausforderung ist dabei die kombinierte räumliche Betrachtung von GIS-Analysen und Business Intelligence in einer Web-basierten Anwendung. Ein solches System besteht aus verschiedensten Technologien um den umfangreichen Prozess aus Datenrecherche, -beschaffung, -bereitstellung, -integration und -modellierung zu verarbeiten und zu steuern.
17
27
29
34
Thumbnail
25:44
47
Business IntelligenceLecture/Conference
Component-based software engineeringBusiness IntelligenceDatenerhebungAbbildung <Physik>Data acquisitionDatenintegrationDatabaseData analysisVisualization (computer graphics)MetadataData managementDatenerhebungDecision theoryEnergieData analysisGeodesicMetadataData streamData managementEckeService (economics)Hausdorff spaceGeoServerBerechnungMittelungsverfahrenOpen sourceExpert systemAbbildung <Physik>Potential gameServer (computing)Component-based software engineeringInterface (computing)Data acquisitionDatabaseInformationDeath by burningRaw image formatContent (media)Local ringGeometryInternetSmart cardComputer programmingKey (cryptography)VorverarbeitungPoint (geometry)Canonical ensembleAktion <Informatik>Plane (geometry)OperatorVisualization (computer graphics)Route of administrationSOKRATES <Bibliotheksinformationssystem>Systems <München>Computer animation
DatenintegrationHomogenisierung <Mathematik>Web pageGeodesicVisualization (computer graphics)ZugriffMetadataProgrammer (hardware)Homogenisierung <Mathematik>Component-based software engineeringEnergieGebiet <Mathematik>Process (computing)InternetSpring (hydrology)DatabaseData miningFORTRANDatabaseExpert systemData analysisWordSystems <München>Open sourceWorld Wide WebBALL <Programm>Unterstützungssystem <Informatik>Data acquisitionWeb applicationWeb browserDirection (geometry)WikiData warehouseDatenintegrationInformationCanadian Mathematical SocietyTuningInterface (computing)Smart cardComputer animation
Generating functionDirection (geometry)DatenintegrationCodeComponent-based software engineeringData modelBusiness IntelligenceComputer programmingSupremumWikiNormal (geometry)Interface (computing)DatabaseInferenceInternetGeodesicProcess (computing)Lecture/Conference
Transcript: German(auto-generated)
Guten Tag, meine Damen und Herren. Ich möchte mit dem Vortrag quasi diesen Zwischenstand darstellen aus einem Forschungsprojekt, das wir an der Hochschule Anhalt betreiben. Wie habe ich den Vortrag gegliedert? Am Anfang werde ich erstmal ein bisschen Reproduktionsketten, das Wort mag nicht jedem geläufig sein. Ich werde eine kleine Projektvorstellung geben, werde auf die Problemstellung eingehen, die wir an dem Projekt hatten,
werde auf die Methodik und letztendlich auf die Systemkonzeption eingehen und dann noch zum Schluss einen Fazit und einen kleinen Ausblick geben, inwieweit das Projekt weiter vorangehen soll. Nun zur Projektvorstellung. Der Begriff Reproduktionskette beschreibt eigentlich eine Wertschöpfungskette im Energiesektor.
Der beginnt von Ressourcen und Primärstofferzeugern, das kann Restholz, das kann Klärschlamm, das kann Jauche sein, Biomasse oder auch durch Kurz- und Umtriebsplantagen hergestelltes Holz,
welches über Weitergehende und Veredler weiterverarbeitet wird. Dies kann eine Bioguassanlage sein, eine Verklärschlammverbrennung und auch eine Kläranlage. Es wird transportiert, meistens in einem Nahwärmennetz und es gibt Abnehmer. Das können zum Beispiel private Häuser sein oder auch öffentliche Gebäude.
Dieser gesamte, das habe ich mal so beschrieben, als regionaler energetischer Stoffkreislauf beschreiben wir innerhalb des Projektes als Reproduktionskette, als lokale Wertschöpfungskette im Energiesektor. Wer sind wir? Wir sind ein Konsortium aus verschiedenen Partnern, in der wir als Hochschule Anhalt die Abbildung und Steuerung des Systems leiten.
Unsere Partner sind dabei noch die BTU Cottbus, die Wasser, Abwasser- und Energiekonzepte analysiert, Inter3 als Koordination, die sich für das Innovationsmanagement und für die Öffentlichkeitsarbeit, für den Aufbau solcher Reproduktionsketten kümmert, und die TU Berlin, die eng mit uns zusammenarbeitet, um naturrechtliche Fragen zu beantworten
und sich in einem anderen Teil auch um die wissenschaftlichen Fragen der Finanzierungsebene kümmert, welche für den Aufbau solcher Ketten möglich sind. Unsere beiden Partnerregionen, in denen wir das testen, sind einmal der Landkreis Wittenberg hier um der Ecke
und der Landkreis Elbe-Elster im südlichen Teil von Brandenburg. Begriff Spatial Business Intelligence. Das ist ein kurzes Zitat, was jeder sicherlich kennt, dass 80% aller Daten einen Raumbezug haben,
und wir versuchen das in unserem System miteinander zu vereinigen, also BIS-Komponenten und Business Intelligence-Komponenten zusammen zu schlüsseln, um letztendlich eine Kombination von räumlichen Analysen und Kartenvisasierungen zu ermöglichen in Kombination mit Business Intelligence Tools, um auch aus anderen Bereichen unserer Partner einfache Analysen zu ermöglichen.
Forschungsschwerpunkte möchte ich auch nochmal ganz kurz vorstellen. Erster Punkt ist erstmal die Datenbeschaffung. Für das Projektwetter ist eine Vielzahl von Daten nötig. Das geht darum von amtlichen Daten, Naturraumdaten werden benötigt, finanzielle Daten,
Daten zu den Anlagendaten von einzelnen Anlagen, Biogasanlagen usw. benötigt. Und ein zweiter großer Schwerpunkt ist die Einbindung von Crowdsourcing-Daten, was wir als Hintergrund haben. Das Projekt wird nämlich nur klappen, wenn lokale Aktive vor Ort mithelfen, Daten zu sammeln, um das zu beschreiben. Zum Beispiel, wenn man den Wärmbedarf auf Häusern berechnen möchte,
brauchen wir die Hilfe von den Leuten vor Ort, weil wir haben nicht die Mittel und den Aufwand, um die Daten zu erheben. Und letztendlich, als wichtigsten Punkt, haben wir eine Auswahl von verschiedenen Analyse- und Strukturwerkzeugen vorgenommen, um dieses SBIS aufzubauen.
Da werde ich im weiteren Verlaufe des Vortrags noch näher darauf eingehen. Problemstellung. Erstmal innerhalb des Projektes, wo wir mit dem Projekt begonnen hatten, unsere Projektpartner sind Gislein. Wir wussten noch nicht, wohin der Weg geht. Es ist immer ein stetiger Entwicklungsprozess. Und wir haben das Problem,
dass ständig neue Ergebnisse in das System eingebunden werden müssen. Und wir haben jetzt sicherlich irgendwann mal einen Cut gemacht. Und sie erstmal lernen mussten, was kann man eigentlich überhaupt alles machen mit Gis. Dann zweite große Schwerpunkte waren die Vielzahl der benötigten Daten, erstmal die heranzuschaffen, die Integration und die Harmonisierung,
vor allem zwischen den Daten zwischen den beiden Landkreisen, die ja unterschiedliche amtliche Bezugssysteme besitzen. Nächster Punkt ist ebenfalls das Quartensourcing-Daten zu diesen amtlichen oder offiziellen Daten hinzuzufügen und das wirklich zu harmonisieren. Und dann der nächste Punkt ist die breite Definition der Zielgruppe. Das SBIS soll die Möglichkeit, das ist auch das Neue,
es soll nicht nur ein Instrument sein, was Gis hat, es soll auch ein gesellschaftliches Instrument sein. Es soll möglich sein, dass Entscheidungsträger vor Ort, das können Bürgermeister, das kann der Landrat sein, das können auch irgendwelche von der regionalen Planungsgemeinschaft Leute sein, es können aber auch engagierte Bürger oder sag ich mal so Experten mit, oder hier engagierte mit Halbwissen, die einfach mal sehen wollen,
was habe ich für Potenziale in der Region an Energie und Möglichkeiten aufzeigen, die zu nutzen und die Akteure als großen Teil miteinander zu vernetzen. So ist eigentlich dieses SBIS quasi das Zentrum, um erstmal Plan und Steuerung dieser Reproduktionskette zu leisten,
die Öffentlichkeit zur Arbeit zu betreiben, Potenzialanalysen zu berechnen und wie eben schon erwähnt die Akteure zu vernetzen. Methodik. Allgemein, ich sage mal, dieser Begriff SBIS kann man sich nicht als ein System vorstellen, sondern wird sich auch zeigen, ist aus mehreren Komponenten zusammengefasst,
die unter anderem als Oberkriterien die Datenerfassung, die Datenintegration, die Datenhaltung, die Datenanalyse und die Datenvisualisierung beinhalten. Wie ich bereits erwähnt habe, war es für uns schwierig, weitere Kernthemen für das System im Vorrein festzustellen. Also haben wir uns bestimmte Grundsätze gegeben,
die das System auf jeden Fall betrachten muss. Nachhaltigkeit als erster Punkt. Open Source war der Grund gewesen. Ein Punkt, vielleicht Weiterentwicklung durch Community. Zweiter Punkt ist die Serviceorientierung dieser Anwendung. Wir wollen so wenig wie möglich Selbstprogrammierung, sondern vorhandene Open Source Pakete aufsetzen
und diese beide miteinander verknüpfen. Das ist die Hauptaufgabe. Dann Metadaten zur Datenverwaltung. Hört sich simpel an. Es ist aber das Problem, dass wir die Metadaten, wenn wir diese für unterschiedliche Zielgruppen leisten wollen, dass einige Daten, sage ich mal, für Bürger nicht sichtbar sein dürfen, weil nur ein gehördeninterner Austausch sein sollte.
Das heißt, die Metadaten, die wir zur Datenverwaltung nutzen, sind gleichzeitig der Schlüssel, sage ich mal, um die Benutzergruppen für die verschiedenen Daten zu trennen. Motivation schaffen, Aufwand senken. Wie ich schon breit erwähnt habe, soll das System, nenne ich es mal, sage ich mal auch dem GISS-Line zugänglich sein.
Das heißt, einfaches Look and Feel, einfach Verarbeitung. Denn der Nutzer soll gar nicht erkennen, was das GISS alles im Hintergrund läuft. Das soll alles im Hintergrund laufen, sondern Knopf drücken, eine schöne Anzahl von Ergebnissen produzieren, und damit Entscheidungen unterstützen zu treffen. Und als nächster Punkt ist Offenheit und Transparenz.
Als letzter. Übersicht, Systemkonzeption. Okay, die Grafik, ich will sie jetzt nicht damit erschlagen. Ich fange mal an. In der Mitte wichtiges Server. Wir haben drumherum das CMS-System Tupal genutzt, um, ich sage mal, als Oberfläche zu nutzen.
Einerseits bietet Tupal die Möglichkeit, diese Open-Layers-Bibliothek oder GeoEx-Bibliothek einzubinden. Zum einen ist es die Schnittstelle zum Crowdsourcing, soll es sein. Einmal über die Bürger, die Planungsarztinformation bereitstellen,
aber auch Feedback geben. Die Datenpflege erfolgt letztendlich über einen kommunalen Angestellten. Das heißt, wir haben einen Leitfaden entwickelt, welche Geodaten wichtig sind, um so ein System betreiben zu können. Später, oder Ausblick in der Zukunft wäre, dass vielleicht ein automatisierter Datenstrom möglich wäre,
der via Behörde, sodass die Dienste bereitgestellt sind, sodass immer die aktuellsten Daten auch letztendlich das System nutzen kann. Über GeoServer werden die Geodatendienste geladen, und es wird letztendlich als GeoWeb-Anwendung dargestellt, in einem Browser, einfache Zugänglichkeit,
in der dann die Nutzer, Investor, Bürger, kommunale Entscheidungsträger mitarbeiten können. Sodass wir ein System bauen, was sowohl in der Kommune als auch nach außen hin genutzt wird. Kleiner Überblick über diese Systemgrundaufgaben und welche Komponenten wir benutzt haben. Dieser Prozess, Spatial Intelligence, ich habe das mal oben als, wie nennt man das, Kegelfilter,
jedenfalls die Bälle mit verschiedenen Geodaten, die werden verarbeitet in einem ETL-Prozess, also Extrate Transform and Load, in einem Spatial Data Warehouse gespeichert und letztendlich analysiert und visualisiert. Zur Datenerfassung, was haben wir jetzt genutzt?
Wir haben zum Beispiel ein Lime-Survey als Umfrageprogramm ganz einfach um Daten zu erheben in Richtung Wärmbedarf und so weiter, so haben wir es testweise in einer Region gemacht, das ist auch ganz gut angenommen worden. Zum Beispiel aber auch ein Wiki einzubauen, den Wissenstransfer, irgendwann läuft das Projekt aus,
dann hat man in zwei Regionen so ein System eingestellt, sollte aber vielleicht, wenn es gut genug sein sollte, landesweit eingesetzt werden können. Wir wollen damit erfahren, unsere Projekterfahrung und diesen Wiki einarbeiten, das können Fragen zur Finanzierung überhaupt, welche Schwierigkeiten auftreten können und so weiter,
sodass andere Regionen von unserem Projekt lernen können und dieses Wiki sich automatisch natürlich auch vollständigt. Geo-Network lehnt als Schnittstelle zur Speicherung der Metadaten. Zur Datenintegration nutzen wir dieses Open Source ETL-Tool
Talent Open Studio und als welches Data Warehouse zur Datenhaltung Post ist. Die Datenanalyse erfolgt zum einen über diese Sextante Bibliothek, die man direkt in diese Talent Open Studio einbinden kann, sodass man quasi komplette Modellierungsprozesse im Hintergrund schon von vorne an modellieren kann, nach bestimmten Kriterien,
die man sich selbst festgelegt hat und dann schon automatisiert, sodass der Nutzer dann später nur auf den Knopf drückt, Analyse läuft im Hintergrund und ein Ergebnis von verschiedenen Karten erreicht. Weiterhin, mein Partner Christian Wolf kommt aus Information Management und wir wollen halt auch nutzen oder die Möglichkeit noch zu untersuchen,
ob wir nicht Datamining als Quelle auch nur nutzen können. An dem Punkt sind wir ein bisschen hängen geblieben, aber jedenfalls ist er noch Zielstellung. Datenvisualisierung, das haben wir ja ausprobiert, einmal Trupal als offene Stelle nach vorne, Geo-Server, OpenLayers und wir haben uns auch mit Mapfish auseinandergesetzt.
Stand jetzt ist aber in unserem aktuellen Prototyp, dass wir Trupal als CMS einsetzen und dann über die OpenLayers-Bibliothek, die in Trupal einzubinden ist, die Visualisierung erfolgt. Nochmal kurz eine Grafik zum Datenintegrationsprozess und Management, was alles in diesem ETL-Prozess automatisiert abläuft.
Das sind verschiedene Datenquellen mit unterschiedlichen Quellen, unterschiedliche Nutzungsrechte und unterschiedliche Datenschutzerklärungen. Diese Metadaten werden zum einen in Geo-Network gespeichert und wie ich bereits erwähnt hatte, speichern wir auch die extra noch in der Metadatenbank, weil der Grund ist, wie ich schon erwähnt habe,
dass die Nutzeberechtigung auf Grundlage dieser Metadatenbank erfolgt. Automatisiert erfolgt die Datenintegration via Talent Open Studio. Die Problematik war hierbei das Verknüpfen zwischen den beiden Lagebezugsystemen.
Wir haben es dann so erfolgt, dass wir sämtliche Daten in die PostGIS-Datenbank gespeichert haben und die Transformation der Daten letztendlich dann im PostGIS durchgeführt haben. Es war umständlich, aber so stabil lief dann Talent Open Studio doch noch nicht. Und die Darstellung für die Öffentlichkeit erfolgt einmal in dem CSS wieder als WMS oder WFS.
Je nach unterschiedlicher Nutzerzugehörigkeit, jeder Nutzer sieht andere Ergebnisse. Fazit und Ausblick. Wir haben im September 2010 begonnen. Ich habe mal die wichtigsten Punkte zusammengefasst. Datenschärfische Datenakquise, den Modellentwurf dieses Spatial Business Intelligence System,
Datenintegration, Homogenisierung, den großen Punkt des Extra Transform Load Prozesses, das Analyse-Modell des SBIS. Ich bin jetzt nicht näher darauf eingegangen. Das ist mit den Partnern entstanden, um Umweltkriterien abzuschätzen. Und die quasi gesehen haben ihr eigenes Modell und wir das in ein GIS-Modell zu überführen.
Und letztendlich November 2012 soll schon das System online gehen. Und wir stehen jetzt hier und verbessern gerade das Analyse-Modell. Wir planen im Mai 2012 die Online-Stellung des Systemes über die Webseite www.drehproketten.de,
wo wir dann natürlich auch schon Feedback durch verschiedene Nutzer erhalten wollen und dann aber immer noch weiter dran bauen. Was ist das Zwischenfazit aus unserem Projekt? Die Konzeption eines römlichen Entscheidungs- und Unterstützungssystems mit auch Business Intelligence Komponenten ist möglich.
Vor allem auch im Einsatz im Umfeld einer regionalen energetischen Wertschöpfung. Und wir haben das auch schon getestet mit internen Analysen, die leider noch nicht öffentlich sind, aber wir arbeiten gerade dran. Wichtig ist, wie ich schon erwähnt habe, dass das GIS nicht nur für Experten ist, sondern auch ein gesellschaftliches Instrument sein,
um Bürger, also jedermann das Potenzial einer regionalen Region aufzuzeigen, weil das ist die Möglichkeit, Investitionen werden gesteigert. Wenn man so einen halbwirtschaftlichen Gleichlauf in Gang bringt, dann ist das vor allem für diese ländlichen Regionen ein großer Pluspunkt.
Es gibt ja verschiedene Regionen auch in Brandenburg, die schon komplett energieautark laufen, die es aber alles nur über Fördergelder erreicht haben. Die grundlegenden Baustellen des Systems sind verlauffähig und einsetzbar. Und jetzt heißt es nur noch daran Fine Tuning. Vielen Dank für Ihre Aufmerksamkeit.
Da stehe ich natürlich für Fragen jederzeit zur Verfügung. Ich bin auch für Anregungen und Feedback. Da würde ich mich freuen. Kontakt stehen hier drauf. Und ansonsten bin ich bis Donnerstag auch hier jederzeit verfügbar. Vielen Dank.
Wir haben jetzt eingeladen mit Shapefiles und haben quasi so ein Fenster gebaut, ein kleines Jauprogramm, wo man die einlädt oder auf das ETL zugreift, so dass man kann immer ständig aktualisieren, auch die Shapefiles. Aber letztendlich, wenn es mal zukünftig laufen sollte,
in ferner Zukunft, wenn das mit diesen Web-Servers klappen sollte, würde sich ja das erledigen. Ja, es lief aber bedeutend langsamer. Wir waren nicht so ausgereift. Wir haben beide Sachen getestet.
Bei GeoKette ja eigentlich auch noch weitere Komponenten, die aufeinander abgestimmt sind. Aber die Entwicklung ist leider zu langsam. Ja, richtig.
Wenn man mehr Zeit hat, hätte man sich natürlich auch ansetzen können und selber weiter programmieren. Aber wir wollten den anderen Weg gehen und haben uns letztendlich für OpenTel und OpenStudio entschieden. Das muss aber nicht in Stein gemeißelt sein. Letztendlich, diese ETL-Programme sind ja eigentlich deshalb
dieser serviceorientierte Gedanke, sind ja austauschbar.
Wir haben es eingebunden direkt in Talent OpenStudio. Dort werden mit Textante die ganzen Geodatmanagement-Sachen erledigt. Weil Textante ist ein ganz normales Business Intelligence Tool mit der Schnittstelle. Dort werden Shapefiles eingelesen. Transformationen kann man durchführen.
Hat komischerweise leider nicht funktioniert. Deshalb dieser Umweg über PostGIS. Und auch diese Modellierung von Analyse-Prozessen nutzen wir an Textante auch in dem ETL-Tool. Und die Sachen holen wir aus der Datenbank und werden wieder zurück in der Datenbank gespeichert. Also mit dem Textante Modellbilder arbeiten wir da in der Richtung viel.
Man kann direkt dort mit dem Java-Code
den Code anpassen. Man hat ein Fenster. Man kann sich wie so ein Model das zusammenbauen. Und dann gibt es automatisch auch ein Fenster, wo man auf Code-Ebene weiter arbeiten kann.
Ja genau, zusammenbauen. Und wenn es bestimmte Sachen gibt, die man dann doch erweitern möchte, dann muss man selber noch mal Hand anlegen mit Programmierung. Wir haben das jetzt aber nur genutzt, um diese Übersicht zu machen für die Datenintegration. Weil man es auch für die Leute, die das System später nutzen wollen, einfacher machen wollen.
Weil man kann ja nicht verlangen, dass sie diesen ganzen ETL-Prozess selber durchführen müssen.
Wir haben erstmal nur das Standard-Open-Layers-Modul genutzt. Ich habe es erstmal so gemacht,
um den Projektergebnisse und den Projektpartner eingebunden in Tupal als HTML-Seite ganz einfach zu nutzen können. Und jetzt sind wir gerade Step-by-Step zu testen, was kann das Open-Layers-Modul dort leisten. Ich denke, da sind wir gerade an einem Problem,
was dann Richtung Veröffentlichung geht. Wir planen zum Anfang Mai, da werden wir sicherlich nochmal selber Hand anlegen müssen. Super sieben.
Also wir hatten auch eigentlich vor, die aktuellsten Komponenten auch wirklich zu nutzen.
Wir binden damit ein, einmal, das Wiki läuft extern,
aber ich weiß, es gibt auch Kodule, da müsste ich jetzt meinen Kollegen trauen, der sich da in diesem Informations-Management-Teil kümmern. Also wir wollen das vor allem, also was man hat, das hat man. Und wenn man es zum Laufen bekommt und die Seite gestalten, wollen wir die Entwicklung offen lassen für das System.
Das war anfangs im Projekt, also Richtung Steuerung, war es geplant, aber aus Zeitgründen ist das jetzt erstmal nach hinten verschoben worden. Aber wir hatten das auch im Hintergrund, weil das wäre wirklich die interessante Sache. Was fällt eines aus, wenn es bei einer Prozesskette,
einem Teil eines Kettengliedes ausfallen würde? Was hat man für Möglichkeiten, um trotzdem die Biogas-Anlage oder die Holzhack-Schnitzel-Anlage weiter zu betreiben? Dort wäre vielleicht auch der Einsatz des Wikis möglich, hat man einen globalen, regionalen Teil, wo sich auch vielleicht Leute, Erzeuger mit einfinden sollen. Aber es ist halt natürlich Überzeugung,
man braucht engagierte Leute vor Ort, ohne denen läuft es nicht.