We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Data Literacy an der Universität Göttingen

00:00

Formal Metadata

Title
Data Literacy an der Universität Göttingen
Title of Series
Number of Parts
6
Author
License
CC Attribution 3.0 Germany:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor.
Identifiers
Publisher
Release Date
Language

Content Metadata

Subject Area
Genre
Abstract
Data Literacy ist die Fähigkeit, Daten auf kritische Art und Weise zu sammeln, zu managen, zu bewerten und anzuwenden. Zu Data Literacy gehören eine ganze Reihe von Einzelkompetenzen – vom Schaffen des grundlegenden Bewusstseins bis hin zu ethischen und rechtlichen Fragestellungen. Data Literacy ist eine zentrale Kompetenz für die Digitalisierung und die globale Wissensgesellschaft in allen Sektoren und Disziplinen. Angesichts der zunehmenden Menge und der Verfügbarkeit von Daten stellt sich die Herausforderung, mit den Daten Wissen zu generieren und fundiert Entscheidungen treffen zu können. Hierfür sind einerseits spezialisierte Fachkräfte von Nöten, die so genannten Data Scientists, welche sich auf den Umgang mit Big Data konzentrieren. Andererseits wird heutzutage in allen Sektoren und Fächern bis hin zum gebildeten Bürger Grundwissen im Umgang mit Daten und entsprechenden Werkzeugen zur Datenverarbeitung gefordert. Data Literacy wird somit zu einer zentralen Kompetenz für das 21. Jahrhundert, die es systematisch im Rahmen der (Hochschul-)Bildung zu integrieren und nachhaltig zu vermitteln gilt.
Lecture/Conference
Reading (process)StatisticsMomentumRoute of administrationSlide ruleXMLComputer animation
Computer animation
Reading (process)Uniformer RaumSATAN <Programm>Reading (process)Computer animation
Reading (process)MetreComputer animation
Reading (process)Faculty (division)Component-based software engineeringContent (media)LogarithmPhysicistComputer animation
Content (media)Computer animation
Reading (process)StatisticsInferenceScripting languageHistogramZeitreiheStatistische BeratungScreening (medicine)Scripting languageUniformer RaumReading (process)Business informaticsRoute of administrationRow (database)File formatComponent-based software engineeringAbbildung <Physik>Direction (geometry)WritingAverageEigenvalues and eigenvectorsNoten <Programm>CodeContent (media)Inductive reasoningState of matterPopulation <Informatik>Data managementAudiovisualisierungEnergieHANS <Datenbanksystem>MathematicsPropositional formulaFRAMEWORK <Programm>Statistische BeratungCodeStatisticsInferenceSlide ruleComputer animation
Transcript: German(auto-generated)
Ich muss gar nicht mehr so viel einleitendes sagen, weil ich jetzt die letzte Sprecherin bin und weil schon wahnsinnig viel gesagt wurde. Ah, es kommen noch zwei, okay. Aber ich freue mich schon, dass es wahnsinnig viele Anknüpfungspunkte gibt, wo ich glaube ich sehr gut drauf aufbauen kann. Ja, mein Vortrag oder mein Impuls heißt Data Literacy an der Universität Göttingen und ich werde zum größten Teil darüber reden, was wir einfach schon konkret
machen und mich weniger mit den Leitfragen oder dem theoretischen Überbau beschäftigen. Als erste Slide wollte ich nochmal kurz motivieren, warum es eigentlich wichtig ist, unseren Studierenden Data Literacy beizubringen und dafür habe ich hier grafisch illustriert, was aus unseren Studierenden eigentlich wird, wenn sie nicht mehr Studierende sind
oder vielleicht sogar schon noch während sie Studierende sind. Es werden entweder Datenanwenderinnen, also Menschen, die tatsächlich Ergebnisse aus Daten generieren, sei es jetzt in der Forschung oder in Firmen später, oder Kollegen von Datenanwenderinnen, die auch ein gewisses Verständnis dafür brauchen, was die Datenanwenderinnen dann eigentlich machen oder, das ist jeder von uns,
Datenproduzenten, sei es jetzt mit unserem Smartphone, das wir jeden Tag mit uns herumtragen oder weil wir Experimente machen oder weil wir im Marketing sitzen und irgendwelche Dinge aggregieren, überall produzieren wir Daten und auch als Datenproduzenten und Produzentinnen brauchen wir ein gewisses Verständnis dafür, was mit diesen Daten später eigentlich passiert, was für Werte
daraus generiert werden können und dafür muss ich auch ein bisschen einen Einblick haben in diesem Bereich der Daten. Ja, zu unserem Projekt Daten lesen lernen. Das Projekt Ziel ist in einem Satz einfach ausgedrückt der Erwerb von
fachspezifischen und breiten Datenkompetenzen in der Breite, sprich alles Studierende. Wir verstehen Data Literacy als Kompetenz im Bereich Daten aufbereiten, Daten analysieren, Daten visualisieren und Daten interpretieren. Das Ganze, wie schon erwähnt, wird gefördert vom Stifter
verband, von der Hans-Nyx-Dorf-Stiftung, sprich tatsächlich auch ein relativ konkreter Bezug zur Wirtschaft. Die Wirtschaft hat gesagt, hier brauchen Menschen, die sind datenkompetent, aus der Uni kommen nicht genug raus, ändert das. Das heißt, unser Ziel oder warum wir gefördert werden, ist hier eine Entwicklung eines neuen Lehrangebots, dass eben diese
Data Literacy unseren Studierenden näher bringt. Wie brechen wir dieses Metaziel für uns herunter, unser konkretes Ziel ist, Datenkompetenzen in der Breite interpretieren wir als alle Studierenden aller 13 Fakultäten ansprechen. In Göttingen ist das relativ breit. Wir haben Archäologen, Physiker, Biologinnen, Ägyptologen, also
alles dabei. Auch ein großer Punkt, den wir immer schon versuchen mitzudenken, ist die Skalierung. Wenn wir wirklich in der Breite Studierende ansprechen wollen, dann müssen wir unsere Lehrveranstaltung skalieren, sprich in die Hunderte und Tausende gehen. Wir haben in der Universität Göttingen jedes Jahr etwa 4.000 neue Anfänger. Unser mittelfristiges Ziel ist es,
von etwa 1.000 zu erreichen mit unserem Lehrangebot und wir wollen Praxis näher herstellen. Sprich, wir wollen unsere Inhalte der Lehrveranstaltung daran orientieren, was für Methoden und Inhalte gerade aktuell im Alltag der Forschung, aber auch im Alltag der Wirtschaft da sind, gebraucht werden und daran
anknüpfen. Unser Projekt setzt sich aus drei Komponenten zusammen. Das erste ist eine neue Vorlesung, eine neue Lehrveranstaltung. Also zum einen ein klassisches Vorlesungsformat, sprich über ein Semester jede Woche werden Inhalte vermittelt. Das Ganze ist begleitet von Tutorien,
wo konkret direkt praktisch umgesetzt wird, was wir den Studierenden vermitteln. Dann gibt es das Data Lab, das soll ein Raum werden, wo Studierende zusammenkommen können, auch Forschende, kollaborativ und interdisziplinär Projekte bearbeiten. Und das dritte ist ein sogenannter Data Learning Catalog und da wollen wir genau auf die Problematik eingehen,
die hier schon oftmals angesprochen wurde, dass wir nämlich nicht immer das Radmauer finden wollen, sondern auch schon existierende Open Educational Resources, die online verfügbar sind, in unser Lehrangebot der Uni mit einbeziehen wollen. Ja, erst mal zur Vorlesung. Die Vorlesung ist schon losgegangen am 15.04. Wir hatten einen
relativ kalten Start, weil unser Projekt gibt es erst seit 1.1. Das heißt, wir hatten nicht wahnsinnig viel Zeit zu planen, aber wir haben uns sehr bewusst dafür entschieden, direkt schon loszulegen und dann in einem iterativen Prozess über den Zeitraum der Projektförderung unsere Ansätze zu verbessern. Wir haben etwa 50 Studierende schon. Das ist natürlich noch weit weg von den 1000, die wir anpeilen am Ende, aber wir können zumindest
unser Konzept schon testen. Wir können testen, ob das, was wir uns überlegt haben, für den Menschen, die Skandinavistik studiert, genauso funktioniert wie für den Wirtschaftsinformatiker. Genau, also wir haben auch schon unter diesen 50 Studierenden eine sehr hohe Diversität. Was ist in dieser Vorlesung drin? Also was bringen wir unseren Studierenden eigentlich bei?
Wir fangen an mit den Grundlagen einer Skriptsprache. Python ist das bei uns, weil wir ganz tief davon überzeugt sind, dass man nur kompetent und selbstbestimmt später mit Daten umgehen kann und Daten verstehen kann, wenn man zumindest ein bisschen unter die Haube geguckt hat, was eigentlich passiert, wenn man davon weggeht, dass man auf irgendwelchen Applikationen
bunte Knöpfe drückt, sondern tatsächlich mal selbst einen Datensatz geladen hat, den gefiltert hat, geguckt hat, was mache ich eigentlich, wenn da jetzt fehlende Einträge sind? Also sehr nervig, dann wird man dafür sensibilisiert. Ja, Daten lesen, schreiben und säubern bringen wir den Studierenden bei und das ist auch was, wo wir viel Zeit drauf verwenden, wo wir tatsächlich
mit unseren Studierenden konkret anhand von Datensätzen durchextazieren. Wie lade ich die jetzt, wenn die verschiedene Formate haben? Was mache ich mit korrumpierten Einträgen? Weil das ein Aspekt ist, der gerne unter den Teppich gekehrt wird, gerade wenn man hoch polierte Publikationen sieht. Da sind immer schöne Ergebnisse, schöne Bilder, aber die Tatsache, dass eigentlich 80, 90 Prozent der Zeit, der Arbeitszeit
draufgehen, Daten erst mal zu sammeln, zu aggregieren, zu säubern, darüber redet niemand. Aber darüber reden wir mit unseren Studierenden und zeigen ihnen auch, wie sie das dann konkret machen können und auch, wo sie sich Hilfe suchen können, wenn sie nicht weiterkommen. Ja, eine weitere große Komponente ist Daten visualisieren. Wir wollen den Studierenden zeigen, wie sie anhand von einfachen Visualisierungen
sich erst mal einen Überblick darüber verschaffen können, was in einem Datensatz drinnen ist. Histogramme, Zeitreihen, Bar Charts, Pie Charts, solche Geschichten, alles mit Pizen natürlich. Weil es hier schon häufiger gesagt wurde, wir verwenden Jupyter Notebooks. Unsere Lehr- und Lernmaterialien sind Jupyter Notebooks, unsere Übungsblätter sind Jupyter Notebooks, die Aufgaben werden in Jupyter Notebooks gelöst.
Das ist eine wunderbare Lehrressource, kann ich echt allen nur empfehlen, weil es eben ermöglicht, ausführbaren Code mit anderen Inhalten, Abbildungen, Text, strukturierten Text zu verknüpfen und den Studierenden auch ermöglicht, das, was sie gelernt haben, beziehungsweise sogar die Folien aus der Vorlesung direkt auf ihrem eigenen Computer hochzuladen, auf ausführen zu drücken, zu sehen, ach, da ist ein
Ergebnis, was kleines zu ändern. Nochmal ausführen, ah, Ergebnis hat sich geändert. Da kommt man relativ schnell ins eigene machen und die Studierenden haben auch direkt ein Erfolgserlebnis. Ja, vierter Punkt, Grundlagen der Statistik und Inferenz. Das Ganze gehen wir sehr untheoretisch an, sprich wir zeigen den Studierenden direkt anhand eines Beispieldatensatzes,
wie man rechnet man eigentlich einen Mittelwert aus. Was bedeutet das in diesem Datensatz? Was bedeutet das vielleicht auch nicht? Also ist das robust, ist das nicht robust? Wir halten uns nicht lange mit der Mathematik dahinter auf. Dafür gibt es andere Vorlesungen, sondern wir gehen es direkt ins Anwenden. Und last but not least, das ist ein Punkt, der sich begleitend durch alle anderen Punkte durchzieht, das kritische
Hinterfragen von Ergebnissen. Also zum Beispiel, wenn ich jetzt alle korrumpierten Daten rausfilte, wie beeinflusst das dann eigentlich mein Ergebnis? Wie verändert das die Interpretierbarkeit? Wie beeinflusst die Grundgesamtheit der Daten, die ich hier eigentlich erhoben habe, mein Ergebnis? Kann ich Aussagen über andere Populationen treffen, die vielleicht
gar nicht so repräsentiert sind in meinem Datensatz? Solche Geschichten wollen wir, wir wollen sensibilisieren. Wir sind uns bewusst, dass wir natürlich nicht alle Anwendungsfälle in allen Disziplinen auf einmal erschlagen können, weil wir ja immer noch relativ generisch unterrichten. Wir wollen zumindest diese Fragen einmal gestellt haben und hoffen, dass die Studierenden dann, wenn sie selbst das mal anwenden, den Transfer
hinkriegen. Oh, vielleicht sollte ich mir noch mal Gedanken drüber machen, was ich hier mit einem unsauberen Datensatz anstellen soll. Die zweite Projektkomponente, das Datalab, darüber kann ich noch nicht so viel reden, weil das existiert noch nicht. Das ja, der Start ist hoffentlich im
Herbst. Das Ganze ist bei uns angesiedelt in der SOB, also in der Bibliothek, sehr zentral. Das war uns auch sehr wichtig, weil wir einen zentralen Ort an der Uni schaffen wollen, wo Menschen auch physisch hinkommen können, wo sie sich, also dem sich beschäftigen mit Daten gewidmet ist. Das Ganze ist der sogenannte Digital Creative Space der Uni, den die
neu schaffen, dort, wo früher die Fernleihe war, 400 Quadratmeter Platz. Und das wollen wir mit unserem Angebot bespielen, unter Anführungsstrichen. Also wir wollen dort eine statistische Beratung reintun. Wir wollen unsere Tutorien dort drin abhalten. Wir wollen kleinere Workshops, die irgendwie auf unserer Vorlesung aufbauen, dort drinnen abhalten und hoffen, dass es so ein Kristallisationspunkt an der Uni gibt, wo sich mit
Daten beschäftigt wird und wo Menschen hinkommen, die in der Richtung interessiert sind. Ja, das habe ich alles schon erzählt. Und die dritte Projektkomponente, ja, die startet gerade. Da geht es darum, einen Katalog aufzubauen an
kuratierten Online-Kursen, sprich, wir werden uns Online-Kurse durchgucken, gucken, was ist da für ein Inhalt drin, Modulbeschreibungen erstellen und insbesondere auch einen Workflow zu etablieren an unserer Universität, wie wir diese Online-Kurse als Prüfungsleistung anerkennen können. Weil wir wissen, alle Studierende lernen zwar gerne,
aber lernen auch für Credits und Zeit in der Studierenden ist auch begrenzt, vor allem, wenn sie an anderer Stelle noch für Credits lernen müssen. Das heißt, wir wollen das irgendwie hinkriegen, dass Studierende durch Online-Kurse, die sie wahrnehmen, ihren Studienverlauf ein bisschen diversifizieren können,
ein bisschen individualisieren können, unser eigenes Lerngebot vergrößern, weil wir können nicht alles anbieten, was da draußen herumschwirrt, vor allem, wenn das irgendwie Nischen-Themen sind, kleinere Kurse zu spezifischen Bibliotheken oder spezifischen Anwendungsfällen. Aber wir wollen da eben so ein Framework schaffen, wo wir eine Qualitätssicherung des
Kurses der Prüfungsleistung bereitstellen und eben auch einen bürokratischen Workflow, das dann anzuerkennen. Ja, und last but not least wollen wir die Kurse, die wir in diesem Rahmen kuratiert haben, bündeln in einem Zertifikat, auch zusammen mit unserer Lehrveranstaltung, mit anderen Lehrveranstaltungen in die Richtung, die es an unserer Uni auch schon gibt, um unseren
Studierenden ihre Datenkompetenz nochmal zusätzlich zu bescheinigen, in der Hoffnung, dass das dann später auch bei Arbeitgebern irgendwie zieht, wenn da steht Zertifikat über 18 Credits Datenkompetenz. So was. Genau. Das ist mein letztes Slide. Ich wollte aber noch was hinterher schieben. Ganz am Anfang haben wir die
News gehört über die Datenmanagement-Infrastruktur und dass das jetzt bewilligt ist und implementiert werden soll und dass man dort das projektförmige Denken ein bisschen ablegen soll und langfristig denken. Das ist wahnsinnig schön, wenn man an Infrastruktur denkt. Ich glaube, das sollte man auch anwenden, wenn man an die Menschen denkt, die das hier jetzt umsetzen, weil es gibt
wahnsinnig viele Projekte, die jetzt aus dem Boden gestampft werden, wo Menschen sich neue Konzepte überlegen, die austesten, weil das sind alles Projekte und die Leute, die das machen, sind Nachwuchswissenschaftler und die sind nach drei Jahren weg. Und auch für diese Leute sollte man sich Konzepte überlegen, die langfristig ausgelegt sind, weil ich glaube, sonst verpulvert man ganz, ganz, ganz viel Energie.