Social Media as Sensors
This is a modal window.
The media could not be loaded, either because the server or network failed or because the format is not supported.
Formal Metadata
Title |
| |
Title of Series | ||
Number of Parts | 71 | |
Author | ||
License | CC Attribution 3.0 Unported: You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor. | |
Identifiers | 10.5446/14844 (DOI) | |
Publisher | ||
Release Date | ||
Language | ||
Production Place | Berlin |
Content Metadata
Subject Area | ||
Genre | ||
Abstract |
|
5
6
7
9
10
11
13
14
15
21
23
25
30
31
32
34
38
39
43
44
45
48
49
50
51
53
54
58
63
66
70
71
00:00
Computer animationLecture/Conference
00:21
Social softwareComputer networkInformationComputer animation
00:42
Social softwareAudiovisualisierungBerlinMaxima and minimaAudiovisualisierungLevel (video gaming)Wage labourComputer animation
02:05
SmartphoneBeobachter <Kybernetik>InformationRoute of administrationGender
03:00
InternetdienstVersion <Informatik>Magneto-optical driveBerlinWEBSocial softwareTwitterMoving averageFlickrFocus (optics)FlickrWEBBeobachter <Kybernetik>Route of administrationSession Initiation ProtocolContent (media)TwitterInformationTape driveComputer networkFacebookStandard deviationWritingVersion <Informatik>Normal (geometry)Expert systemYouTubeCoordinate systemContext awarenessWeb serviceDownloadTransmitterComputer animation
07:09
TwitterWeb serviceData streamProgram flowchart
07:51
Data streamAPITwitterWEBFRAMEWORK <Programm>Web serviceTwitterCoordinate systemData streamComponent-based software engineeringSpring (hydrology)Computer animation
09:10
CLOU <Programm>Template (C++)APIVersion <Informatik>BerlinMagneto-optical drivePattern languageEnterprise architectureUNIXSpring (hydrology)Version <Informatik>TwitterInformationContent (media)Direction (geometry)Kopplung <Physik>Switch <Kommunikationstechnik>Server (computing)FRAMEWORK <Programm>Process (computing)CodeHigh availabilityXMLLecture/ConferenceComputer animation
11:04
UNIXSource codeProcess (computing)Lecture/Conference
11:33
Ruby on RailsHTTPWorld Wide WebBerlinWeb serviceQuery languageModule (mathematics)Field extensionGateway (telecommunications)Moving averageQuery languageConstraint (mathematics)Spring (hydrology)Module (mathematics)InformationBerechnungProcess (computing)Similarity (geometry)PriorityCoordinate systemServer (computing)APIWeb serviceRAMChannel <Internet>Computer animation
14:55
InformationLecture/Conference
15:14
HTTPGateway (telecommunications)BerlinUser interfaceModule (mathematics)outputLocal area networkInformationModule (mathematics)Social classComputer animation
15:58
Gastropod shellWeb portalSource codeXMLLecture/Conference
16:26
SoftwareWeb portal
16:47
Liferay PortalLevel (video gaming)LucenePortletWeb pageWeb serviceSoftware frameworkSineComputer animation
17:57
BerlinTime line <Programm>SVGComputer animationLecture/Conference
18:39
Time line <Programm>SVGBerlinSpring (hydrology)Client (computing)Server (computing)Client (computing)Computer animation
19:29
Web serviceConstraint (mathematics)Eigenvalues and eigenvectorsSoftware frameworkLecture/Conference
19:49
BerlinInternetdienstComputer networkTransmitterData streamComputer animation
20:51
Computer animation
21:20
Lecture/Conference
21:41
InformationPlane (geometry)User profileClient (computing)Computer animation
24:28
Computer animation
Transcript: German(auto-generated)
00:08
Ja, auch herzlich willkommen von mir nach der Mittagspause. Es klang an, es wird nicht technisch, da muss ich leider widersprechen, es wird dann doch eher technisch, aber mal schauen.
00:24
Ja, was will ich erzählen? Also erstmal, wo komme ich her? Ich komme aus Mainz, vom I3 Mainz, Institut für Raumbezogene Informations- und Messtechnik. Und wir beschäftigen uns jetzt auch zum Beispiel mit Sensornetzwerken in Kombination mit Social Media.
00:44
Mein Vortrag will ich wie folgt gliedern. Also erstmal will ich sozusagen so einen kleinen Hintergrund geben. Wie sind wir oder wie haben wir damit angefangen? Dann einen kleinen Einblick zu Sensornetzwerken im Kontext von People as Sensors. Dann was zu Social Media und deren Analyse erzählen.
01:01
Und dann meinen Ansatz vorstellen, wie ich jetzt das Ganze kombinieren will. Und zum Schluss einen kurzen Ausblick geben. Ja, angefangen hat es bei uns mit einer Projektarbeit. Und da ging es eigentlich erstmal darum, okay, ich habe da irgendwie so Twitter-Daten, kann man die nicht irgendwie einfach mal auf einer Karte mappen?
01:25
Und da hat sich dann ein Student in seiner Bachelorarbeit drangesetzt. Und hat einfach mal themenbasiert eine Verwaltung aufgebaut. Also ich kann Stichwörter angeben und visualisiert das dann ganz auf der Karte als Symbole, als Heatmap, als Core Please Map.
01:42
Was allerdings zum Beispiel fehlt ist, ich sehe keine zeitliche Visualisierung. Ich sehe nicht, wann diese Tweets erschienen sind. Also er guckt im Grunde nur in die Vergangenheit fünf Tage. Aber ich sehe nicht, wann welcher Tweet erschienen ist. Und ich habe auch keine Analyse, sondern die werden einfach blank dargestellt.
02:05
Kommen wir jetzt zu dem Kontext People as Sensors. Darunter versteht man im Grunde ein Messkonzept, wo ich den Menschen sozusagen als Sensor verstehe. Und zwar in dem Sinne, dass er natürlich physikalische Informationen liefert, wie über Fitness, Armbänder oder sowas alles so in ist.
02:24
Aber auch indem er zum Beispiel Sinneseindrücke oder persönliche Beobachtungen meldet. Also sprich er meldet zum Beispiel mir geht es gut, mir geht es schlecht in einem bestimmten Kontext. Oder er beobachtet irgendeine Amsel in irgendeinem Wald und möchte das mitteilen.
02:41
Häufig wird dafür verwendet Sensoren, die halt schon so mobil sind, dass ich die am Körper tragen kann. Und natürlich über die sogenannten Apps, die ich auf meinem Smartphone habe und die dann Daten bereitstellen.
03:03
Ja, sozusagen in der Geowelt gibt es dann ja im Kontext Sensor, das sogenannte Sensor Web Enablement vom OGC. Das liefert mehrere Standards im Bereich Sensornetzwerke. Worauf ich mich jetzt sozusagen hauptsächlich beschränkt habe, ist der Sensor Observation Service,
03:20
der so eine Art Downloaddienst, ähnlich dem WFS, nur für Sensorinformationen ist. Die aktuelle Version ist die 2.0, häufig in Verwendung aber auch noch die 1.0. Und die Request liefern so die ganz normalen Get Capabilities, die man immer kennt.
03:41
Dann Describe Sensor, wo ich einen Sensor beschreibe. Ich hole mir irgendwelche Observations. Das wäre sozusagen dieses Data Consumer Konzept. Es gibt dann aber auch noch das Data Producer Konzept, wo ich sozusagen dann nicht Daten bekomme, sondern Daten liefere. Da sind die zwei wichtigsten im Grunde das Registrar Sensor, also dass ich einen Sensor in dem Netzwerk registriere
04:07
und dass ich Beobachtungen einspeise über Instant Observation. Ja, kommen wir zum zweiten Punkt sozusagen, Social Media. Ich habe da mal so zwei Sätze aus Büchern so zusammengefasst, was Social Media ist.
04:25
Es umschreibt ganz grob Inhalte und Anwendungen zur Erstellung von Gestaltung und Austausch von Inhalten, welche Benutzer generiert sind. Und Social Media benutzt dabei sehr stark die Techniken des Web 2.0.
04:43
Und hier links sieht man dann mal so, was da runter alles fällt. Also es gibt Netzwerke wie Facebook oder LinkedIn, dann gibt es Videos Sharing wie YouTube, Photosharing wie Flickr oder halt auch Microblogging wie Twitter. Und dessen habe ich mich jetzt so ein bisschen angenommen.
05:01
Hier so ein paar Fakten zu Twitter, das meiste zumindest auf der linken Seite, dürfte bekannt sein. Zu der API aktuell in Verwendung ist die 1.1. Es gibt Search, eine Search-API und eine Streaming-API. Die Search geht im Grunde sozusagen, sucht in der Vergangenheit, wobei sozusagen auch in der näheren Vergangenheit.
05:25
Und der Stream liefert im Grunde kontinuierlich mir einen gewissen Ausschnitt der Daten. Dabei gibt es unterschiedliche räumliche Kontexte, einmal ganz normale WGS84-Koordinaten. Dann die Places, wo jemand beschreiben kann, okay, auf welchen Ort referenziert er jetzt seine Nachricht.
05:45
Das ist meistens textlich, in einer Art, okay, eine Stadt zum Beispiel. Und die User Location, wenn der Benutzer sozusagen sagt, okay, mein Profil hat einen bestimmten Standort. Ja, was kann ich jetzt an Analysen damit machen?
06:03
Da gibt es, habe ich mal so in drei Parts aufgeteilt. Einmal kann ich sozusagen das Netzwerk analysieren, bekannt als Social Network Analysis. Also sprich, ich analysiere Verbindungen, also wer ist in Verbindung mit wem.
06:20
Daraus könnte ich jetzt zum Beispiel eine Relevanz für ein bestimmtes Thema analysieren. Okay, welche Information hat jetzt eine höhere Relevanz als eine andere. Also wo finde ich zum Beispiel Experten für eine bestimmte Information, die ich brauche. Der zweite Punkt sind die Meta-Informationen, zum Beispiel am Beispiel Flickr. Bei Flickr wird meistens nicht das Bild genommen, um damit Analysen zu treiben,
06:44
sondern eher die Meta-Informationen, die an dem Bild hängen. Also sprich zum Beispiel, wenn da mit einem bestimmten Text versehen ist. Und dann natürlich den Inhalt. Und wie schon erwähnt, meistens dann, wenn der Inhalt textbasiert ist.
07:03
Und dass ich sozusagen aus dem Inhalt bestimmte Sachen analysieren kann. Ja, was jetzt zu dem Ansatz, den wir gewählt haben. Wir haben uns gesagt, okay, wir möchten es möglichst flexibel halten. Und haben uns dann für so eine Art Workflow Service auf der Processing-Ebene entschieden,
07:29
dass wir sagen, okay, ich habe immer irgendwelche Inputs, ich prozessiere die und schreibe die sozusagen ein Output. In unserem Fall jetzt von Twitter prozessieren in einen Sensor Observation Service.
07:44
Und dann auf der anderen Seite im Grunde brauche ich noch einen Client, womit ich das Ganze dann auch visualisieren kann. Ja, kommen wir erstmal zu diesem Workflow. Wie schon gesagt, er sollte ein flexibler Datenstrom entstehen, verwendet.
08:01
Da habe ich viele Komponenten aus der Spring-Welt. Unter anderem Spring XD, Spring Integration und Spring Social Twitter. Da zeige ich gleich noch kurz was zu. Und ansonsten zum Beispiel das OX Framework und den 52 North SOS.
08:24
Derzeit die Prozessschritte, die ich sozusagen implementiert habe, ist einmal die Twitter API abzufragen, dann ein Geocoding durchzuführen, weil ich habe ja meistens keine wirklichen Koordinaten. Dann eine Sentiment-Analyse durchzuführen. Was das ist, zeige ich auch gleich noch. Und das Ganze dann in einen Sensor Observation Service zu schreiben.
08:45
Ja, kurz zum Spring Framework. Das Ganze unterstützt vor allem oder ist vor allem nützlich, wenn ich die Penalty Injection mache. Möchte ich jetzt nicht näher erläutern, weil das würde zu weit führen. Es bietet zahlreiche Templates, um auf Daten zum Beispiel zuzugreifen
09:05
und hat Komponenten im Data- und im Webbereich zum Beispiel. Zu diesem Data-Bereich gehört dann das Spring Social Twitter. Ist im Grunde so ein Template, womit ich die Twitter API anzapfen kann.
09:24
Es verwendet die Twitter API in der Version 1.1. Und ist aktuell in der Version 1.0.5 verfügbar. Das Problem dabei ist aber, dass der Raumbezug nur teilweise unterstützt wird. Also ich kann zum Beispiel räumlich abfragen.
09:42
Nur kam die lustigerweise nicht auf die Idee, ich könnte die räumliche Information ja auch wieder ausgeben. Anscheinend war das für die bisher noch nicht von Relevanz. Dann zu Spring Integration. Das geht so ein bisschen in die Richtung, dass ich Daten oder Messages über Endpoints hinaus sozusagen verschicken kann
10:06
und somit mein komplettes Konzept komplett auftrennen kann. Weil jeder Endpoint könnte rein theoretisch auf einem komplett anderen Server laufen. Und die Messages verpacken im Grunde nur den Weg des Inhaltes von einem Prozessschritt zu dem anderen.
10:26
Somit habe ich halt sowohl programmatisch als auch physikalisch eine starke Entkopplung. Und um das Ganze dann noch auf die Spitze zu treiben, habe ich dann noch auf Spring XD zurückgegriffen.
10:40
Spring XD selber ist jetzt kein Framework an sich, sondern eher eine Ausführungsroutine. Und XD steht dabei für Extreme Data. Also sprich, das geht so ein bisschen in Richtung des Big Data Ansatzes. Das Projekt ist relativ neu.
11:01
Das Projekt, worum es hier geht, ich möchte diesen Integration, da muss ich relativ viel XML Code schreiben, um diese Prozesse zu definieren. Und das Ganze möchte ich aber eher modularisieren. Sprich, ich möchte sagen, ich habe die Source, habe dann den
11:22
Prozessschritt, den Prozessschritt, dann den Prozessschritt und speichere das dann da rein. Und im Grunde möchte ich das in so einer Art Unix-Pipe angeben. Und wie das dann aussieht, wäre so, sprich ich sage, ich searche in Twitter, mache Geocoding, mache eine Sentiment-Analyse, konvertiere das dann sozusagen in eine Observation und speichere die in einen Sensor Observation Service.
11:44
Und diese Pipes dazwischen gehen im Grunde nur an, dass dazwischen Channels laufen. Und wie gesagt, ich kann das komplett hier alles trennen. Sprich, ich könnte sagen, ich brauche jetzt für meine Sentiment-Analyse, brauche ich einen richtig fetten Server.
12:00
Und dann lasse ich diesen Prozessschritt woanders laufen als jetzt die anderen zum Beispiel. Das Ganze läuft dann sozusagen über eine Art Transportation. Sprich, ich kann das natürlich intern im RAM transportieren, aber ich kann auch solche Art Q-Server nehmen wie Rabbit & Q, Redis oder ähnliches.
12:24
Ja, die Module und Adapter, die ich jetzt dafür entwickelt habe, werden wie folgt. Also einmal ein Integration Adapter für den Sensor Observation Service, dann das Prozessormodul für das Geocoding und die Sentiment-Analyse
12:40
und als letztes noch die Twitter-Abfrage, wo ich im Grunde dieses Spring Social Twitter benutzt habe und habe es um die räumlichen Rückgabewerte dann einfach nur ergänzt. Zum Geocoding, dafür habe ich im Grunde dann Adapter aus der Spring Integration Welt benutzt. Sprich, da gibt es einfache Adapter, mit denen ich HTTP-Abfragen einfach machen kann
13:05
und ich übergebe als Message sozusagen den Request-Inhalt und bekomme in einer Message dann wieder den Response-Inhalt zurück. Und die Abfrage habe ich jetzt einfach mal auf das OpenStreetMap-Projekt Nominatim gemacht
13:21
und habe dann vorher sozusagen auch nach diesen unterschiedlichen räumlichen Quellen gefiltert, um zu sagen, ok, wenn eine Koordinate da ist, dann ist das die oberste Priorität. Wenn er einen Place definiert hat, ist das die zweithöchste und wenn er dann doch noch den Mützer angegeben hat,
13:41
das wäre dann die dritte und ansonsten lasse ich, ansonsten schmeiße ich halt die Information raus. Ja, kommen wir zu der Sentiment-Analyse. Sentiment-Analyse ist im Grunde ich bewerte, ob etwas neutral, positiv oder negativ ist.
14:02
Und da haben wir jetzt auch erstmal einen Dienst verwendet, auch wieder über eine ganz normale HTTP-Abfrage und zwar den Dienst Alchemy API. Der hat dann halt natürlich bestimmte Beschränkungen, wenn ich den kostenfrei nutzen möchte.
14:21
Zum Beispiel, dass ich halt maximal 1000 Abfragen pro Tag stellen darf. Das Ergebnis, was ich dann zurückbekomme, ist entweder XML oder JSON, also relativ einfach dann zu parsen. Er macht auch am Anfang von diesem Text eine Sprach-Analyse, also sagt mir in welcher Sprache der Text ist
14:42
und unterstützt dann für die Sentiment-Analyse Deutsch und Englisch. Er gibt dann zurück, ob das positiv, negativ oder neutral ist und zwar in zwei Ausführungen. Ich kann das einmal sagen, ich gebe dir einen Text und sag mir, ob der Grundtenor des Textes positiv, neutral oder negativ ist.
15:02
Ich kann ihm aber auch noch bestimmte Wörter mitgeben und sagen, ist der Text in diesem Kontext von diesem Wort positiv, negativ oder neutral. Und das Ganze wird dann noch im Score zwischen minus eins und eins angegeben, um dann auch ein bisschen differenzieren zu können, wie positiv oder negativ diese Aussage dann war.
15:24
Ja, und schlussendlich sozusagen der Adapter, um das Ganze dann in den Sensor-Observation-Service zu schreiben. Das ist im Grunde das komplette XML, was dafür nötig ist. Natürlich sind hier dann gewisse Klassen dahinter, die man dann auch noch füllen muss, aber von der XML-Diffinition dieses Modules,
15:47
der bekommt einen Input, reichert dann sozusagen auch die Sensor-ID-Information an und speichert es in den SOS. Ja, so würde das dann im Spring XD Umfeld so auf der Shell aussehen.
16:04
Sprich, ich kann den Admin-Server von dem XD über den Rest-API steuern, kann sagen, erstelle einen neuen Stream, der folgende Definition hat. Und hier wäre dann so das Log-File, wo ich die Insert-Observation-Request ausgegeben kriege.
16:24
Ja, um das Ganze dann anzeigen zu können, sollte auch noch ein Portal entwickelt werden. Muss gleich vorweg sagen, es funktioniert sozusagen noch nicht mit dem SOS, sondern ich habe es erstmal sozusagen mit unserem Ursprungsprojekt verknüpft. Ich wollte es sozusagen eigentlich bis heute geschafft haben, um das dann ein bisschen live zu zeigen.
16:41
Aber ja, zwei Wochen wäre es dann besser gewesen, aber so ist es halt. Ich habe es mit LiveRay umgesetzt. LiveRay ist eine Portal-Software, die in Java programmiert ist und relativ bekannte Frameworks wie Spring, Hibernate, Lucene etc. verwendet.
17:04
Und es kann über Portlets, Hooks, Themes, Extensions, Layouts, Services und so erweitert werden. Ich habe mich hauptsächlich sozusagen auf diese Portlets beschränkt, die im Grunde so Bausteine sind, die ich auf einer Webseite anzeigen kann. Ja, welche Bausteine sind das? Einmal natürlich brauche ich eine Karte, die habe ich mit Open Layers umgesetzt.
17:28
Ich habe mich da sozusagen in weiser Voraussicht auf Open Layers 3 gestürzt. Der zeigt es halt noch, ein WMS-Layer aus der Tweetmap und besteht aus mehreren Portlets.
17:45
Also einmal eine ebenden Verwaltung, dann auch noch so eine Feature-Info und die interagieren sozusagen kleinzeitig über eine LiveRay JavaScript API. Dann dazu natürlich, jetzt will ich das natürlich auch noch zeitlich da was reinbringen, so eine Timeline dazu gebaut, die verwendet D3.js.
18:12
Das ist auch ein JavaScript-Framework, was hauptsächlich SVGs oder Scable Vector Graphics rendert.
18:23
Und dann habe ich da noch eingebaut, dass man sozusagen über die Zeit aggregieren kann, weil wenn man das wirklich auf die Sekunde oder Millisekunde kriegt, dann würde man teilweise relativ wilde Graphen da bekommen. Und über diese Brush Area, ich weiß nicht ob man die erkennt wahrscheinlich so gut, kann ich sozusagen das noch zeitlich einschränken, dass ich
18:45
jetzt hier die komplette Zeitachse habe und auf der Zeitachse jetzt im Grunde nur diesen Ausschnitt sehe und das auf der Karte dann auch. Dann noch so ein rudimentärer Spring XD Client, mit dem ich sozusagen diese Streams anlegen und steuern kann.
19:04
Der ist natürlich noch nicht so wirklich benutzerfreundlich, weil man muss dann schon wissen, was man da an Definitionen angibt. Das weitere soll aber kommen, dass man das dann sozusagen auch jemand anders an die Hand geben kann. Dass er einfach sagt, ich habe, ich will ein neues Twitter-Thema mal observieren
19:24
und dass der Client dann sozusagen oder dass diese Logik dahinter dann im Hintergrund läuft. Ja, noch ein kurzer Ausblick. Klar, als nächstes steht dann an die Client-Unterstützung auch für den Sensor Observation Service.
19:40
Dann klar, diese Einschränke von 1000 Request ist natürlich so ein bisschen schwierig. Da müsste man sich überlegen, ob man gegebenenfalls dann mit gewissen Frameworks eigene Services entwickelt. Dann, wie schon erwähnt, diese benutzerfreundliche Steuerung von den Sensordatenströmen.
20:02
Und natürlich, warum macht man das überhaupt in ein Sensornetzwerk rein? Weil man es natürlich mit anderen Sensorinformationen verknüpfen will. Und das wäre dann sozusagen der letzte Schritt, um dann zu zeigen, dass es Sinn macht oder dass es auch funktioniert, das mit anderen Sensorinformationen zu verbinden.
20:22
Ja, zum Schluss noch ein kurzer Screen, den ich gestern Abend noch gemacht habe. Habe ich dann sozusagen mal nach der Foskis 2014 geguckt. Und ja, man muss berücksichtigen, dass es sozusagen Green Ridge Meantime, also sprich, man muss eine Stunde draufrechnen.
20:44
Und sieht man hier ganz schön, dass so teilweise zu bestimmten Sessions dann gewisse Ausschläge aufgetreten sind. Ja, das war es dann von mir und dann bin ich für Fragen dann offen.
21:00
Ja, recht vielen Dank. Nachdem ich den ersten Schreck überwunden habe, dass ich jetzt doch nichts verstehe, habe ich doch ziemlich viel mitgenommen. Und ich denke, das Fachpublikum noch mehr sind trotzdem noch Fragen oder sind überhaupt Fragen, Anmerkungen? Erschlagen.
21:26
Schönen Dank für den guten Vortrag. Es hat mir sehr gut gefallen. Ich habe eine Frage, einfach nur eine blöde Frage vielleicht, zu der letzten Folie. Sie haben doch gerade gezeigt, können Sie die letzte Folie noch mal aufholen? Die, genau.
21:41
Das war, wonach hatten Sie das jetzt gesucht nach Foskis 2014, oder? Genau, ich habe nach dem Hashtag Foskis 2014 gesucht. Achso, okay. Also ich habe das gestern Abend gemacht. Und da ich das ja noch sozusagen über das alte Tool gemacht habe, musste, um das visualisieren zu können, zeigt das natürlich in die Vergangenheit.
22:03
Also sprich, ich habe gestern Abend den gestrigen Tag sozusagen analysiert. Und man sieht dann hier, dass so in der Eröffnungsveranstaltung dann teilweise so Peaks rauskamen. Ich glaube, das ging dann auch hier relativ hin und her wegen dem Beitrag von Christian Meyer.
22:23
Und wieso, meine Frage jetzt eigentlich, wieso ist das jetzt nicht lokalisiert in Berlin? Warum ist dort, oder sehe ich das falsch hier? Berlin ist völlig frei. Das ist interessant, weil sozusagen die Information, die an den Tweets dranhängt, nicht mit Berlin verknüpft ist. Also sprich, derjenige, der das geschrieben hat, hat entweder zum Beispiel keine, also ich denke mal, er hat keine Places angegeben,
22:49
sondern er wird einfach nur sein Benutzerprofil, wenn dann eine information, eine räumliche Information angegeben haben. Und die liegt dann zum Beispiel in Nordrhein-Westfalen oder in Hamburg oder in Kiel, ich glaube, ist das da oben.
23:03
Ich kann das jetzt von hier nicht so. Gut, sind weitere Fragen.
23:21
Ja, ich habe auch wahrscheinlich eine einfach strukturierte Frage. Und zwar, können Sie die Sentimentanalyse nochmal ein bisschen erläutern? Vielleicht mit einem Beispiel versehen, wie eine Information auf positiv, negativ und neutral sozusagen ausgewertet wird.
23:42
Ja, im Grunde wird der Text hergenommen. Und es wird natürlich nach irgendwelchen Schlagwörtern in dem Text versucht zu analysieren, ist das jetzt sozusagen, ist das eine positive oder eher negative Eigenschaft, die da beschrieben wird in einem bestimmten Kontext.
24:04
Also, ganz einfaches Beispiel, zum Beispiel, heute lief ein super Vortrag zum Thema Openair 3, nehme an. Ich glaube, dass das super war. Und dann macht er natürlich aus der Information, das ist super und so macht er eher eine positive Stimmung, als wenn ich jetzt sage,
24:25
dieser Vortrag da drüben zu Openair 3 war total langweilig.