Einsatzmöglichkeiten von Open Source GIS im Geomarketing
This is a modal window.
The media could not be loaded, either because the server or network failed or because the format is not supported.
Formal Metadata
Title |
| |
Title of Series | ||
Number of Parts | 71 | |
Author | ||
License | CC Attribution 3.0 Unported: You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor. | |
Identifiers | 10.5446/14848 (DOI) | |
Publisher | ||
Release Date | ||
Language | ||
Production Place | Berlin |
Content Metadata
Subject Area | ||
Genre | ||
Abstract |
|
5
6
7
9
10
11
13
14
15
21
23
25
30
31
32
34
38
39
43
44
45
48
49
50
51
53
54
58
63
66
70
71
00:00
Computer animationLecture/Conference
00:22
Open sourceBlu-ray DiscThomas KuhnMono-FrameworkGeometryHOLGrass (card game)Level (video gaming)Hydraulic jumpDDR SDRAMDeadlockMaxima and minimaHard disk driveMagneto-optical driveSystems <München>QuantumComputing platformTestdatenSequenceLINUXRaw image formatSoftwareStatisticsWINDOWS <Programm>Open sourceVersion <Informatik>MacBookProzessorOperating systemVideo cardGroup actionHard disk driveRAMDurchschnitt <Mengenlehre>Decision theoryHypothesisGeodesicComputer animation
03:50
TestdatenOpen sourceDatabaseMusical ensembleHOLMagneto-optical driveMaxima and minimaSun <Marke>Thomas KuhnUniform resource nameOperating systemQuery languageTable (information)Coordinate systemDatabaseQuantumVector graphicsPoint (geometry)Row (database)LIGA <Programm>Form (programming)Link (knot theory)Computer hardwareAttribute grammarSoftwareSurfaceRoutingIP addressVerschneidungDecision theoryBitList of anatomical isthmiPlane (geometry)PerimeterGebiet <Mathematik>Lecture/ConferenceXML
07:03
Point (geometry)SoftwareQuantumLecture/Conference
07:22
Open sourceComputer-generated imageryChain ruleUsabilityFunction (mathematics)E-commerceLink (knot theory)DatabaseSmart cardIP addressPoint (geometry)Customer relationship managementHöheComputer animation
09:08
GeometryPlug-in (computing)IP addressTable (information)Customer relationship managementPatch (Unix)Lecture/Conference
10:27
No free lunch in search and optimizationArtificial neural networkMetreAttribute grammarConcurrency (computer science)Computer animationLecture/Conference
11:06
Artificial neural networkSpoke-hub distribution paradigmInterface (chemistry)MetreRadiusComputer animation
11:54
Interface (chemistry)Row (database)Homogenisierung <Mathematik>Concurrency (computer science)RoutingLecture/Conference
12:57
RoutingHOLRothe-VerfahrenSoftware developerPropositional formulaSoftwarePunched cardComputer animationLecture/Conference
13:52
HOLSmart cardRow (database)Homogenisierung <Mathematik>Query languageRaw image formatXMLComputer animation
14:34
HypothesisLecture/Conference
14:55
Smart cardComputer animation
15:18
Gebiet <Mathematik>Lecture/Conference
15:42
Sierpinski triangleGebiet <Mathematik>Computer animation
16:14
Data modelAlgebraic closureDatabaseDurchschnitt <Mengenlehre>Lecture/Conference
17:14
Artificial neural networkComputer animation
17:45
Visualization (computer graphics)Table (information)RoutingAbstract machineSoftwareDatabaseGebiet <Mathematik>CASRegioGraphLecture/Conference
18:24
HOLFile formatVisualization (computer graphics)Smart cardListe <Informatik>Table (information)QuantumVariable (mathematics)SoftwareproduktRegioGraphRoutingIP addressComputer animation
19:05
RegioGraphQuantumLink (knot theory)Query languageZahlLecture/ConferenceComputer animation
19:58
Open sourceAlgorithmOpen sourceZahlGrand Unified TheoryScientific modellingProduct (category theory)QuantumSchaleInformation technology consultingFunction (mathematics)Visualization (computer graphics)SoftwareSimilarity (geometry)Lecture/ConferenceComputer animation
21:25
Atomic nucleusStudent's t-testHausdorff spaceSoftwareCoordinate systemLink (knot theory)Direction (geometry)GeodesicAbteilungLecture/Conference
25:03
Computer animation
Transcript: German(auto-generated)
00:08
Ja, hallo, vielen Dank. Ich bin hier im Namen der Hochschule Karlsruhe. Im Namen von Professor Freckmann werde ich im Rahmen meiner Bachelor-Thesis das Thema Einsatzmöglichkeiten von Open-Source-GIS im Geomarketing ein bisschen näherbringen. Kurz zum Inhalt, über was ich sprechen möchte. Wir werden einmal die Motivation ansprechen, die hinter dem Ganzen steht.
00:25
Wir werden kurz vielleicht für die, die noch nicht so im Fach drin sind, kurz die Grundlagen im Bereich Marketing, Geomarketing ansprechen. Wir kommen dann zu dem Hauptteil eben der Evaluierung verschiedener Systeme. Und dann werde ich noch durch ein paar Testszenarien durchgehen, die ich dann eben mit einer prototypischen Software angegangen habe.
00:41
Und natürlich Fazit und Ausblick. Ja, was steht hinter der ganzen Sache? Geomarketing wächst stetig, der Bedarf ist da, der Bedarf wächst. Allerdings sind Softwarepakete in dem Bereich, man kennt es ja auch zum Beispiel von ARC-GIS, ziemlich teuer. Deswegen sind da viele Unternehmen immer abgeschreckt, davon was zu nutzen. Aber eben auf der anderen Seite wächst der Markt für freie Software und eben für Open-Source-GIS.
01:04
Von daher gilt es einfach folgende Frage ein bisschen zu beantworten. Welches System eignet sich denn überhaupt für einen Einsatz? Welche Use-Cases kann man denn überhaupt schon mit Open-Source-GIS bearbeiten? Und wo muss man denn noch nachlegen bei Open-Source-GIS? Ja, wir überfliegen kurz die Grundlagen im Bereich Marketing.
01:22
Es als Teil Disziplin der Betriebswirtschaftslehre anzusehen, gilt als Denkhaltung, die Unternehmen eine Orientierung für die Ausrichtung gibt. Und Kernbegriffe, die hier eine Rolle spielen, sind auf der einen Seite die Bedürfnisse, auf der anderen Seite das Produkt, die dann eben über Bedarf, Auffrage, Angebot dann eben im Markt enden. Hier alles, was schon blau markiert ist, lässt sich auch schon Fragestellungen für Geomarketing finden.
01:42
Da kommen wir gleich drauf zu sprechen. Das Grundwerkzeug, das wichtigste Werkzeug im Marketing, ist der Marketing-Mix. Im Englischen wird das die 4 P's genannt. Das ist einmal die Produktpolitik, die Preispolitik, die Kommunikationspolitik und die Vertriebspolitik. Die einzelnen Unterpunkte, zum Beispiel bei der Kommunikationspolitik, eben welche Marketing-Aktivitäten fahre ich, was für eine PR mache ich,
02:03
kommt dann in einzelne Mixes, werden die genannt, wo dann zum Schluss zum großen Marketing-Mix zusammenlaufen, der eben als Grundlage dafür dient, wie es später weitergeht in den Aktionen. Wenn man sich jetzt mal Geomarketing betrachtet, wo spielt es da mit rein? Geomarketing kann im Prinzip zu diesen 4 Säulen im Marketing-Mix immer die Raumfrage, das Wobe, antworten.
02:23
Das spricht zum Beispiel, wie kommuniziere ich mein Produkt vor Ort, was sind da meine Zielgruppen, wo kann ich am besten meine Werbung zum Beispiel platzieren, Standortfragen lösen und so weiter. Zusammenfassend lässt sich sagen, dass Geomarketing eine Planung, Koordination und Kontrolle von kundenorientierter Marktaktivitäten ist
02:42
und eben die Unternehmens internen, externen Daten zusammen mit Geodaten kombiniert, analysiert, visualisiert und so eben als Basisgrundlage dient für weitere Entscheidungen. Kernbegriffe oder Kernbausteine, die hier eine Rolle spielen, sind die IT, wo wir zum Beispiel die GISS haben. Wir haben die Statistik, die Geografie und die Kartografie
03:00
und der Bereich lässt sich nicht nur auf Marketing reduzieren, sondern es ist auch im Einsatz Möglichkeiten für Unternehmensführung, Einkauf, Produktion, Netzplanung und vieles mehr. Ja, der Open-Source-GISS-Vergleich war eben jetzt der erste Teil der Thesis in meinem Rahmen, dass ich da beantwortet habe.
03:20
Folgende fünf Systeme habe ich verglichen, Quantum-GISS, Grass-GISS, Map-Window, UDIG und OpenJump. In den folgenden Versionen, wie es auch hier dran steht. Zur Testumgebung, das Ganze habe ich hier auf meinem MacBook durchgeführt. 2,4 Gigahertz i5 Prozessor, 8 Gigabyte RAM, durchschnittliche Grafikkarte und Festplatte. Das Ganze habe ich aber über die Software Bootcamp auf Windows installiert,
03:43
weil einfach Map-Window als Plattform ja noch nicht auf OS X oder Linux lauffähig ist. Deswegen wollte ich hier eine Voraussetzung für alles haben. Bootcamp ist aber keine VM, sondern das Betriebssystem wird hier eigenständig installiert. Kurz zu den Testdaten, die ich im Durchlauf verwendet habe. Wir haben einmal die OpenStreetMap-Daten.
04:02
Hauptsächlich das Hintergrundkartendien von der Gemeinschaft Geonames habe ich Postleitzahl-Shapes verwendet. Von dem Unternehmen GFK Geomarketing habe ich Kaufkraftdaten verwendet. Das Unternehmen Business und Seele hat Kundendaten zur Verfügung gestellt. Die Hochschule Karlsruhe habe ich Elektronikmärkte im Einzelhandel eine Datenbank erhalten. Ein Vektor-Datensatz der Stadt Karlsruhe.
04:22
Anschließend habe ich noch eine kleine Datenbank selbst erstellt, um später einen Einsatz im Außendienst demonstrieren zu können. Zur Evaluierung selbst, wie wurde bewertet. Insgesamt gab es 35 Punkte. 24 Punkte gab es für die Giz-Analyse-Anforderungen, die wichtig sind für Geomarketing. 4 Punkte gab es jeweils für die Nutzer-Anforderungen und für das Datenhandling.
04:43
Die Systemanforderungen mit 3 Punkten bewertet steht jetzt auch hier ein bisschen außerhalb, weil natürlich unterschiedliche Hardware, unterschiedliche Performance. Wie wurde das Ganze bewertet? Auf der linken Seite in Tabelle 1 sieht man die ganzen Anforderungen im Gießbereich. Blau hinterlegt für Geomarketing, sprich zum Beispiel eine Geokodierung über Testadressen,
05:04
also nicht über Koordinatenabfrage, sondern wirklich über eine Adresse. Generierung von Puffer oder Verschneidung oder Ähnlichem, die immer nötig sind, für zum Beispiel Standortsuchen, attributive Filtersuchen sind interessant. Eine Standortsuche eben im Sinne von der Generierung von Flächen.
05:22
Routing-Navigation ist interessant. Eine Deckungsgrad-Analyse ist wichtig. Besuchstour und Planung, sprich wie kann ich meine Außendienstmitarbeiter optimal von Punkt A nach B bringen, also das Traveling Salesman Problem oder eben sieben Brücken von Euler, wie man es kennt. Dann gibt es eben noch die thematischen Karten, natürlich die wichtigsten zu erstellen,
05:40
auf denen die Basisentscheidungen getroffen werden. Gebietsplanung manuell und automatisch, sprich zum Beispiel wenn Außendienstmitarbeiter Gebiete zugeteilt haben, dass man sich die mal einfach räumlich anschaut, wie viel Zeit haben denn die, was müssen die alles abfahren, wie viel Umsatzpotential hat da jeder dahinter, um hier einfach optimieren zu können. Portfolioanalysen eben über zwei Attribute zu klassifizieren
06:03
und eben die grafische Ausgabe. Und dann haben wir eben noch die Nutzerfreundlichkeit, die Dokumentation, die Datenkompatibilität und eben die Systemperformance. Ja, kommen wir zum Ergebnis meiner Evaluierung. Man muss natürlich vorneweg sagen, so eine Software-Evaluierung ist ein bisschen subjektiv.
06:21
Allerdings sind, sage ich mal, die Kriterien, die ich jetzt gerade genannt habe, schon die State-of-the-Art-Kriterien, die man benötigt für Geo-Marketing. Jetzt hier das Ergebnisquantum GIS, in diesem Fall mein persönlicher oder eben der Sieger mit 25 Punkten, GrasGIS mit 24 Punkten, knapp dahinter. Die restlichen drei Pakete nur mit 20 Punkten.
06:42
Liegt einfach daran, dass die letzten drei Pakete vom Umfang einfach ein bisschen kleiner sind oder vom Datenhandling, von der Datenkompatibilität. GrasGIS wäre zwar im Funktionsumfang noch ein bisschen größer, allerdings ist hier die Nutzerfreundlichkeit nicht so hoch wie bei QuantumGIS. Und wenn man sich bedenkt, dass es zum Beispiel im Unternehmen
07:01
Geo-Marketing eingeführt werden soll, sind das nicht unbedingt Fachleute, wie wir sie jetzt hier haben, die sich mit GIS auskennen, sondern das sind vielleicht Leute, die eine Zwei-Tages-Schulung bekommen und sonst im Einkauf oder im Vertrieb arbeiten, keine weiteren Berührpunkte haben. Deswegen muss man hier natürlich darauf achten, dass die Nutzer so einfach wie möglich in die Software kommen. Schauen wir uns kurz die Einzelergebnisse an.
07:21
Bei QuantumGIS 25 von 35 Punkten entspricht 71,4% von den möglichen Punkten, die erreicht wurden. Schauen wir uns die Teilergebnisse an. 14 von 24 Punkten für die GIS-Analyse-Anforderungen. Also hier ist natürlich noch ein bisschen Bedarf da. Der Rest war da mit 100%, also eben hohe Datenkompatibilität,
07:43
geringe Anforderungen auf meinem Testsystem und eben eine hohe Nutzerfreundlichkeit. Schauen wir uns das Ganze noch mal ein bisschen grafisch an. Auf der rechten Seite angeordnet die Analyseverfahren. Also hier schon einige da. Man sieht hier auch eindeutig, dass lediglich drei Analysen
08:00
gar nicht durchgeführt werden konnten. Auf der linken Seite eben Datenkompatibilität und Nutzerfreundlichkeit. Die Systemperformance ist jetzt hier außen vorgenommen, aber hier schon sehr stark. Wenn man sich das mal im Vergleich zum Beispiel zu OpenJump betrachtet, OpenJump sieht man schon deutlich, ist von der Datenkompatibilität nicht so hoch und ist eben auch bei den Funktionen ein bisschen schwächer.
08:24
Ja, die Testszenarien, was habe ich geprüft? Wir haben es vorhin schon angesprochen. Allgemein dazu zu sagen, es ist jetzt ein mögliches Real-Case-Szenario. In meinem Fall war es jetzt ein fiktives Unternehmen von Elektronikmärkten im Einzelhandel. Hier jetzt einfach mal ganz naiv sagen, wir möchten jetzt mal eine Geo-Marketing-Analyse für unser Unternehmen haben.
08:42
Wir suchen vielleicht einen neuen Standort in Karlsruhe. Wo können wir den am besten setzen? Hier präsentiere ich jetzt auch nur lediglich Ausschnitte von den Karten. Wer interessiert, kann sich aber gern die Arbeit zukommen lassen und kann sich da dann die vollen Ergebnisse anschauen und noch mal durchlesen. Das erste Szenario ist das Geocodieren von Testadressen, also sehr wichtig.
09:00
Oftmals hat man ja viele Kundendatenbanken mit Adressen, die müssen geocodiert werden. Wenn man sich jetzt hier das Szenario in den Kopf ruft, man möchte jetzt mal zum Beispiel die bisherigen Elektronikmärkte in Karlsruhe sich betrachten bei der Standortplanung. Hier eben Media-Marken, Saturen, kann man die geocodieren. Im Hintergrund Open-Street-Map-Datenmaterial, auf dem auch das Plugin funktioniert, das ich benutzt habe.
09:23
Das alles nennt sich Geocoder. Es gab allerdings drei Probleme hier. Das erste Problem ist der Workflow ist ein bisschen klebrig. Vielleicht liegt es auch jetzt noch an der Vision, vielleicht kommt da jetzt auch ein neuer Patch. Jedes Mal, wenn ich eine Adresse geocodiert habe, rutsche ich ein Stück nach hinten von meiner Zoom-Stufe. Das heißt, sobald ich drei Adressen geocodiert habe,
09:42
habe ich die ganze Welt vor mir. Das ist natürlich im Fall Karlsruhe ein bisschen schlecht. Das nächste Problem ist, das ist wesentlich größer, es können nur einzelne Adressen geocodiert werden. Wenn man an große Kundendatenbanken denkt, sind da zwischen 400 mal vielleicht auch 4.000 Kundenadressen drin, die geocodiert werden müssen. Und dann ist es natürlich sehr anstrengend,
10:00
die Stück für Stück einzeln zu geocodieren. Das größte Problem, was aber hier war, war, dass die Daten nur temporär gespeichert sind. Das heißt, bei einem neuen Aufstarten hatte ich zwar noch meinen Layer zum Beispiel, allerdings waren die ganzen Daten und die ganzen Bezüge wieder weg. Das heißt, hier war ein Workaround notwendig, die Daten nochmal separat, als zum Beispiel Shapefile zu speichern. Und die Attributtabelle im Nachhinein nochmal hinzuzufügen.
10:23
Aber für einzelne Adressen im kleinen Rahmen funktioniert das hier schon sehr gut. Wenn man jetzt einfach mal sagt, man möchte vielleicht von diesen Märkten die groben Einzugsgebiete sich anschauen. Wir generieren einfach mal PUFA, um zu gucken, was decken denn die ab. Jetzt einfach mal definierte ABC-Einzugsradien mit 500, 1000 und 2000 Metern.
10:42
Kann man sich das hier auch sehr gut darstellen lassen. Im Hintergrund auch wieder OSM-Kartenmaterial. Sieht man einfach schon mal so grob, wo sind denn da die Hotspots, wo sind denn so grob die Haupt-Einzugsgebiete. Wenn man jetzt zum Beispiel sagt, Herr Kueh, dann möchten wir jetzt mal als Beispiel Mediamarkt als die stärkste Konkurrenz, auch wenn die ja mit Saturn zusammengehören,
11:02
sagen wir möchten jetzt mal nur die Mediamärkte angucken in Bezug auf die attributive Filtersuche. Kann man das natürlich einfach lösen, indem man einfach nur in der Attributtabelle markiert oder eben nach Ausdruck sucht. Das ist meiner Meinung nach aussehernutzerfreundlich gestaltet, weil ich eben meine eindeutigen Werte laden lassen kann, habe eine starke Dokumentation hier dahinter. Also hier können User ziemlich schnell damit arbeiten,
11:23
ihre Ergebnisse finden. Ja, Standortsuche, ein ziemlich bekanntes und großes Thema. Wenn man jetzt sagt, also gut, wir möchten jetzt wirklich potenzielle Fläche für unseren neuen Standort finden. Was können wir denn da machen? Wo möchten wir denn da hin? Auf der linken Seite mal vorab, das sind so die Kriterien, die da gefragt waren,
11:42
zum Beispiel zu den Stadtzentren, Südstadt, Südweststadt, Marktplatz und so was es in Karlsruhe gibt. Radius von 500 Meter in den grünen Sternchen markiert. Eine Kaufkraft soll sein von mindestens 500 Euro, die hier Haushalte aufbringen können. Es soll im Stadtgebiet der Stadt Karlsruhe liegen und nicht im suburbanen Raum davor.
12:03
Und ja, das war es jetzt eigentlich auch schon. Das Problem war dann hier, wenn man es auf der rechten Seite betrachtet, auch schon angedeutet, nochmal mit den Einzugsgebieten der Konkurrenzmärkten, die möchte man ja eigentlich nicht kreuzen. Ich möchte ja möglichst eine Fläche finden, die noch nicht gesättigt ist, und möchte da meinen Standort finden, weil es in diesem Fall nicht so einfach möglich,
12:22
weil einfach die Datensätze heterogen sind. Das heißt, man hätte hier jetzt im Vorfeld sich seine ganzen Datensätze nehmen müssen, homogenisieren müssen. Ich habe jetzt hier lediglich mit Absicht auf der On-the-fly-Projektion gearbeitet, weil ja der Nutzer eben mit wenig Backgroundwissen ja einfach nur seine Daten einladen möchte, im Bestfall drei Klicks
12:41
macht und dann sein Ergebnis haben will. Deswegen war das hier etwas schwieriger, wäre aber theoretisch möglich, hier auch noch tiefer reinzugehen, noch mehr Kriterien anzupacken, allerdings eben vorweg die Homogenisierung von den kompletten Datensätzen, was da natürlich auch wieder ein bisschen Zeit und Ressourcen in Anspruch nimmt. Sagt man jetzt, man möchte noch ein bisschen Routing-Navigation
13:00
anführen, ist ja auch interessant, wenn man zum Beispiel später eine Besuchstourplanung machen will. Das ist noch hier sehr spartanisch, das ist add-on-Straßengraft, das man dazu verwenden kann. Man kann auch hier einfach auf einem routigenfähigen Vektornetz, eben hier auch aus der Stadt Karlsruhe, kann man sich schon einfache Strecken anzeigen lassen. Funktioniert auch ganz gut, allerdings sind die Zeitangaben zum Beispiel 0,01, 6, 3 Stunden, das
13:22
ist ein bisschen suboptimal, kann man ja beim Nachhinein umrechnen, vielleicht könnte man ja hier noch ein bisschen nachsetzen. Auch hier die Ergebnisse lediglich wieder temporär gespeichert. Also noch ein bisschen steinseitig, in dem Bereich, wenn man jetzt hier zum Beispiel an die Marktführer-Software in dem Bereich von der PTV AG aus Karlsruhe denkt, das Produkt heißt Map & Market, die sind hier sehr stark,
13:42
aber da muss man natürlich auch sagen, da stecken mehrere Entwicklerjahre mit mehreren hundert Mann Entwicklern dahinter. Das ist natürlich dann schon nochmal ein anderer Brocken. Die Deckungsgrad-Analyse war in diesem Fall jetzt ein Sonderfall, wenn man eben sagt, dass man mit gewissen Intervallen und numerischen Werten einfach mal Erreichbarkeiten auf Karten abfragt,
14:01
jetzt nicht im Sinne, wie lange laufe ich denn da hin, sondern möchte ich meine Umsätze anteilig auf meine Haushalte haben, dann ist das Ganze theoretisch auch möglich. Hier haben wir jetzt allerdings wieder die zwei Probleme, das war einmal wieder die Datensatz-Homogenisierung, die hätte vorweg stattfinden müssen, und für so eine genaue Analyse benötigt man natürlich auf die Haushaltsebenen
14:21
genau die Daten. Das Bundesdatenschutzgesetz sagt ja, fünf Haushalte maximal werden zu einer Parzelle zusammengeführt, die Daten kann man auch kaufen, eben zum Beispiel bei Anwiedern wie Infasgeodaten oder ähnlichem, allerdings sind die Daten sehr teuer, sehr umfangreich, standen hier jetzt nicht zur Verfügung, und ich denke, das hätte allein schon wahrscheinlich eine Thesis füllen können,
14:41
so eine Analyse. Ja, wenn jetzt man wieder sich das Beispiel von dieser X-Company in den Hintergrund ruft und sagt, Mensch, wir möchten jetzt vielleicht auch einfach mal gucken, wie sieht es denn generell in Deutschland aus, allgemein benutzen Firmen da gerne die sogenannten Kaufkraftkarten, hier einfach auch mal zwei Beispiele, im oberen Beispiel sieht man gleiches
15:00
Intervall der Verteilung der Kaufkraftdaten, unten sieht man natürliche Grenzen der Kaufkraftdaten, man kann natürlich auch seine eigenen Grenzen bei den numerischen Werten stecken, hier muss man natürlich immer ein bisschen aufpassen, how to live with maps, Klassiker, funktioniert hier sehr gut, wenn man ein bisschen einfach nur die Intensität von den Karten an gewissen Stellen
15:20
stärkt, dann entsteht da schon ein ziemlich verzerrtes Bild, also die untere Karte, da denkt man natürlich, oh, jetzt hier im Raum Stuttgart ist das, bei Baden-Württemberg, oh, da geht ja richtig viel im Vergleich zur oberen Karte, naja, da ist ja eigentlich gar nicht so viel, sind aber die gleichen numerischen Werte dahinter, lediglich andere Intervalle. Ja, betrachtet man jetzt mal eben diese
15:41
Gebietsplanung, kann man fiktiv jetzt, das war eben mein eigenes Beispiel, dass man sagt, okay, wir haben jetzt drei Außendienstmitarbeiter, ist natürlich auch ein bisschen wenig, aber nur in der Eindeutungsweise, die jetzt eben in Deutschland verteilt sind, als erster Schritt möchte ich mir mal angucken, wo sitzen denn die überhaupt, macht das Sinn, wo ich meine Außendienstmitarbeiter sitzen hab, macht das Sinn, wo die
16:00
Gebiete verteilt sind, man sieht hier auch schon die Standorte mit den gelben Dreiecken markiert, man sieht zum Beispiel links oben, das ist noch ein bisschen suboptimal, was der Kollege da zu tun hat, ist aber oft der Fall in der Praxis, dass viele Unternehmen einfach mal auf gut Glück ihre Außendienstmitarbeiter verteilen und eben hier dann sich im Nachhinein erstmal das mal visuell anschauen müssen, um zu
16:22
verstehen, warum und was denn da überhaupt schief läuft. Auf der rechten Seite mal ein möglicher Optimierungsversuch, hier wurden jetzt einfach mal beispielhaft die Bruttoinlandsprodukte der einzelnen Bundesländer genommen und aufeinander angeglichen, so dass jeder der Außendienstmitarbeiter den potenziell gleichen Wert hat, das Ganze konnte ich aber nur machen, indem ich erstmal einen Schritt zurückgegangen bin,
16:42
wieder in meine Datenbank und eben hier die Werte sage ich mal so verteilt und verschoben und die Durchschnitte errechnet habe, dass ich es eben nur neu visualisiert habe. Also sprich, hier das Ganze ist noch auch in etwas ausbauungsfähig, wenn man eben an Softwarepakete wie zum Beispiel Map-and-Market von der PTV denkt, die das hier auch zum Beispiel schon automatisch
17:02
löst und man hier auch wirklich schon direkt eben auch auf die Umsätze potenziell bis auf die Haushaltsdaten runtergehen kann. Noch kurz zum Abschluss, eine ABC Kundenanalyse ist auch immer interessant, zum Beispiel das Unternehmen entscheidet sich jetzt, sich jetzt einen neuen Standort zu finden in der Stadt Karlsruhe.
17:21
Wir haben einen neuen Standort, wir möchten dazu am Anfang eine kleine Kampagne starten, im Sinne von zum Beispiel Payback. Wir sagen, wir suchen uns Partner, mit denen wir dann zusammenarbeiten. Hier als Beispiel, als A-Kunden sind es zum Beispiel Tankstellen, nehmen wir ein klassisches Beispiel. C-Kunden sind jetzt zum Beispiel Friseursalors, die haben ja keine Synergien jetzt mit Elektronik-
17:41
Produkten, wo man sagen könnte, da findet man zum Beispiel den gemeinsamen Nenner. Allerdings zum Beispiel, wenn man jetzt an Apotheken denkt, die ja mittlerweile auch im Cross Selling zum Beispiel elektrische Zahnbürsten oder ähnliches verkaufen, da könnte man vielleicht die eine oder andere Synergie für sowas finden. Auch sehr beliebt, natürlich kann man hier auch nach Umsätzen gehen oder ähnlichem. Hier die Visualisierung auch
18:01
gut möglich über die Attributtabellen. Ja, aber jetzt hier ist auch die Sache, das ging auch nicht automatisch, hier musste auch zuvor in der Datenbank erstmal gesagt werden, wer ist denn A, wer ist B und wer ist C-Kunde. Also Marktführer- Software, wenn man jetzt hier an GfK Geo-Marketing, an das Produkt Regiograph denkt, hier auch schon automatisch.
18:22
Ja, folgende drei Cases waren nicht lösbar, eben die Besuchstourenplanung, Tourenplanung für die Außendienst- Mitarbeiter, das ist wie gesagt sehr komplex. Eine automatische Gebietsplanung ist auch nicht möglich und die Portfolio- Analyse, das ich jetzt über mehrere Variablen klassifiziere, war jetzt in diesem Fall auch nicht möglich. Ja, ich habe jetzt schon die zwei kommerziellen Softwareprodukte mal angesprochen.
18:42
Auf der linken Seite sieht man mal einen Ausschnitt von eben Map&Market, die Adressen geokodiert, das funktioniert sehr gut. Ich kann hier sämtliche Listen- und Tabellenformate einlesen und mir ausgeben lassen, manuell nachgeokodieren zum Beispiel und auf der rechten Seite eben mal eine Kaufkraftkarten-Visualisierung angedeutet mit Regiograph. Allerdings, wenn man sich die zwei Beispiele
19:01
anschaut, man braucht jetzt nicht unbedingt einen teuren Marktführer kaufen, sondern man kann das eigentlich auch schon mit Quantum Giz jetzt in diesem Beispielfirm sonst lösen. Mal noch ein wirklich beispielhafter ökonomischer Ansatz im Vergleich. Wenn man sich jetzt mal anschaut, eben Regiograph mit 16.500 Euro knapp in der vollsten Ausbaustufe Map&Market
19:21
bei 18.500 Euro ungefähr. Ja, und jetzt zum Beispiel auf der linken Seite Quantum Giz, warum steht jetzt hier knapp 10.000 Euro, naja, wenn man sich überlegt, man benötigt ja ein bisschen mehr Daten. Die anderen zwei kommen zum Beispiel schon mit den Geobasis-Daten daher, die benötigt man dann nicht mehr, auch schon routingfähig und alles. Kaufkraftdaten kosten was, die Schulungen
19:41
kosten natürlich hier auch was. Und wenn man sich sagt, man hat jetzt mal einen Entwickler im Unternehmen, der hat jetzt mal drei Monate Freiraum, kann für so 80 Euro am Montag arbeiten, der kann vielleicht ein bisschen die Gui-Schlacker machen, Sachen rausnehmen, die man jetzt einfach nicht benötigt oder vielleicht halt einfach mal noch eine Listenabfrage einbaut, eben bei der Geokodierung sind jetzt einfach mal
20:01
grob die Zahl von knapp 5.000 Euro. Ja, mein Fazit, Open Source Giz, wir wissen ja, alle sind schon sehr weit verbreitet und mächtige Arbeitswerkzeuge, allerdings gibt es noch keine adäquate Lösung im Geomarketing-Bereich. Viele Funktionen, die wirklich fachspeziell sind, fehlen hier noch, müssen noch implementiert werden, es sind wirklich viele Workarounds
20:22
außerhalb der Software nötig, um das Ganze realisieren zu können. Auch automatische Funktionen sind noch nicht möglich, aber lediglich die Geistvisualisierungen, die sind schon wirklich sehr gut möglich. Allerdings muss man auch dazu sagen, wenn man sich jetzt eben die Marktführerprodukte anschaut, ist das Ganze mit Quantum Giz oder was Ähnlichem noch ein bisschen zu komplex für diese
20:40
Nicht-Geo-User. Ja, was lässt sich als Ausblick sagen? Das sind schon sehr gute Basismodelle, da, die man nutzen kann eben, für Fachschalen zum Beispiel bleibt natürlich immer die Kosten versus Nutzenfrage, möchte ein Unternehmen einfach Ruhe haben und kauft sich halt für 15.000 Euro sein Produkt oder entwickelt halt
21:00
noch für ein paar Tausend Euro mehr das Open Source Giz weiter. Oder eben, was möglich wäre für die Zukunft Projekte, vielleicht bei der OTC oder Ähnlichem einzureichen, oder man überlegt sich im wirtschaftlichen Bereich eine Fachschale zu entwickeln und dann eben die Integration, Schulung und Wartung zum Beispiel kostenpflichtig anzubieten. Ja, das war's von meiner Seite, vielen Dank
21:20
für die Aufmerksamkeit. Fragen? Erstmal der Dank für den schönen Vortrag. Und dann die Fragen aus dem Publikum, wenn es denn welche gibt.
21:41
Ja klar, dann kann ich ihn zur Verfügung stellen. Fürs Video noch mal ins Mikro, oder? Die Frage war, ob die Vorträge runtergeladen werden können, eigentlich werden alle Vorträge gesammelt und sind dann auf der Forstgeistseite mit dem Link zu finden, wo welcher Vortrag vorhanden ist. Ich denke mal, das wird direkt im Programm verlinkt werden.
22:02
Gibt's noch eine Frage? Mit Mikro oder ohne? Machen wir. Also, ich wollte noch kurz fragen bei dem QGIS, haben Sie wahrscheinlich dann nur die Kernkomponenten und das durchdauert jetzt nicht? Nein, zum Teil. Also der Geocoder war ja zum Beispiel ein Plugin,
22:22
das nicht nativ implementiert ist. Das habe ich da verwendet. Aber im Kern habe ich mich schon eben auf die Grundkomponenten einfach mal losgestürzt, um eben da mal zu schauen, was ist da schon an Basis da und was kann man denn damit lösen. Ja, auch noch eine Frage. Sie haben also quasi das Software mit den Daten vermischt.
22:43
Ja, das ist jetzt, genau. Also prinzipiell ist es so, auf dem Bereich entweder Sie als Kunde kaufen sich einfach die Analyse und geben dem Anbieter seine Daten oder natürlich Sie kaufen die Software und die Daten zusammen, um eben
23:00
mit Ihren eigenen Daten die eben zu kombinieren und Ihre Ergebnisse zu bekommen.
23:23
Na ja, gut. Ich meine, wenn ich mir eben die Unternehmen anschaue, wie zum Beispiel Infa's Geodaten oder GfK Geomarketing, die werden nicht umsonst in den letzten zehn Jahren groß expandiert haben. Muss nicht unbedingt in Deutschland gewesen sein, aber der Markt ist da schon sehr stark.
23:41
Die GfK, EDEKA, Lidl sind zum Beispiel hier auch schon mit eigenen Abteilungen mittlerweile in den letzten zwei, drei Jahren am Arbeiten und bauen da auch immer weiter stark auf und suchen Leute und akquirieren eben auch zum Beispiel von uns direkt, von der Hochschule die Leute.
24:08
Ja, aber das war ja dann schon das Plugin, wo mit Koordinaten eingelesen wird. Ist das richtig? Ah, ok.
24:22
Ah, ok. Das ist natürlich nicht schlecht. Ok, danke für den Hinweis. Das werde ich mir mal anschauen. Ja, für eine hätten wir noch Zeit, aber sonst können wir auch anfangen, hier rumzurücken. Mir ist auch noch eine Anmerkung aufgefallen, vielleicht habe ich es auch falsch gehört, aber ich glaube, du hast irgendwas von
24:41
bei deinen Kostenberechnungen 80 Euro pro Montag am Ende gesagt. Das ist natürlich äußerst unrealistisch. Ich sitze auch einfach mal. Das ist eher Richtung Strunkensatz, würde ich mal sagen. Es sei denn vielleicht intern Student, der sowas macht. Genau, aber so würde ich ein bisschen höher ansetzen. Ok, ja, vielen Dank nochmal und dann...