We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Aus dem Leben der Bewohner des Supercontinent – Tracking im Wissenschaftssystem

00:00

Formal Metadata

Title
Aus dem Leben der Bewohner des Supercontinent – Tracking im Wissenschaftssystem
Title of Series
Number of Parts
11
Author
License
CC Attribution 3.0 Germany:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor.
Identifiers
Publisher
Release Date
Language

Content Metadata

Subject Area
Genre
Computer animation
Computer animation
Computer animation
Computer animation
Computer animation
Computer animation
Computer animation
Computer animation
Computer animation
Computer animation
Transcript: German(auto-generated)
Ich darf das heute ein bisschen ausführen und habe dafür relativ viel Zeit bekommen. Das freut mich sehr und ich werde dann so ein bisschen etwas ausführen in Richtung dessen, was George Schoenfelder zu diesem Thema Supercontinent ja schon formuliert hat.
Er bezog das auf den Bereich des scientific publishings und ich möchte gerne diesen Bereich tracking gerne auf das Wissenschaftssystem als solches mehr anwenden. Denn das ist das, worauf wir achten müssen. Wir dürfen nicht mehr von Verlagen reden,
jedenfalls nicht bei den einschlägigen Playern und wir dürfen auch nicht davon ausgehen, dass das, was wir dort sehen, auf den Bereich der Informationsinfrastrukturen im engeren Sinne begrenzt ist.
Da möchte ich ein bisschen darüber hinaus gehen. Wir haben ja diese Situation, dass wir einerseits natürlich viele Ideen und Vorschläge haben für zeitgemäße Bibliothekservices,
für Publikationsinfrastrukturen, für wissenschaftliche Dienste, für Digitalen Fortschritt, für die Zivilgesellschaft insgesamt. Das ist so der Weg, den wir uns vorstellen. Es gibt aber auch eine entsprechende Abzweigung Richtung Data Collection und wir sehen, wer damit sehr viel Werbe gerade versucht, die Kurve noch zu bekommen.
Ich möchte anfangs ein bisschen so ein Reminder machen für die, die den Vorteil von Felix Vergangenes ja nicht mitbekommen haben, und zwar, was da beim Thema Tracking eigentlich so passiert.
Und so als Reminder, das sind hier ein paar Namen und zwar nur eine ganz kleine Auswahl dessen, ist Cody Hansen damals, als er mal die ganzen Verlagsplattformen bei sich zu Hause an der Universität Minnesota auswertete, was er dort alles gefunden hat, wer alles so mit in der Leitung hängt,
wer alles so Informationsverhalten der Wissenschaftlerinnen und Wissenschaftler und Studierenden alles so mitbekommt. Und man sieht also, das Informationsverhalten vieler, vieler Menschen wird dann zum Beispiel mit Ebay geteilt, mit LifeRamp geteilt und mit vielen anderen Firmen,
wo wir immer noch denken, das ist irgendwie eine etwas ungewohnte Erfahrung für uns. Was hat Cody Hansen gemacht? Der hatte eben halt bei einer Veranstaltung, wo es eben halt um Authentifizierungssysteme ging, von Todd Carpenter,
die Bemerkung gehört so, ja, kann man sich viel über Datenschutz streiten, aber Verlage brauchen solche personenbezogenen Angaben überhaupt nicht, um Bibliotheksnutzende identifizieren zu können.
Und dem ging Cody Hansen einmal nach und er fand über 130 Tracker auf 15 Verlagsplattformen, die er untersucht hatte. Und weil Cody Hansen so ein Mann von Humor ist, hat er dann sich den Schützenkönig gleich auf sein Schlüsselband drucken lassen.
Was hat Cody Hansen alles so gefunden? Er hat einfach Tracker gefunden, also das, was bei uns die Cookie Banner aufploppen lässt. Er hat Audience Tools gefunden, das sind sozusagen Metatracker, die Daten aus vielen Quellen zusammenführen und damit dann auch dieses ganze Targeting
ermöglichen, dass man so einzelne Gruppen und bis hin zu einzelnen Personen genau adressieren kann für digitale Services und Angebote, beziehungsweise dann entsprechend auf ihr Verhalten reagieren kann und auch dort gewissermaßen motivierend eingreifen kann.
Er hat Fingerprinter gefunden, also dass eben halt die Online-Nutzung trotz Privacy Mode im Browser zuordnungsfähig ist. Er hat Real-Time-Bidding-Instrumente gefunden, also das, was hinter jeder Google-Suche steckt und einige weitere Web-Technologien.
Birth-Party-Data ist dabei das ganz Interessante, also das ist das, was die Diskussion damit ausgelöst hatte, eben halt die Fragen der Authentifizierung,
weil solche First-Party-Data, also alles, was mit Login zu tun hat, mit Angaben, die man macht, zum Beispiel, um ein Newsletter oder sonst was zu bekommen, das ist natürlich das, wo man echte Daten echter Menschen hat und dementsprechend dann darauf auch dann reagieren kann.
Und das ist das, was die Verlage natürlich auch gerne durchsetzen müssen, vor allem die, die dann eben halt hinauswachsen, außer Verlagsrolle in Richtung Data Analytics. Und deshalb gehen sie, wie man hier bei dem Tweet von Kaudi Henson sieht, auch einigermaßen rüde vor.
Third-Party-Data ist das, was dann so ein bisschen das größere Ding ist, wo dann eben halt Quellen aus vielen Rubriken zusammengeführt werden, sei es noch teils aus der analogen Zeit, wenn der entsprechende Data Broker nur eine weitreichende Geschichte hat,
wie hier XM Live Frame, wo dann eben halt alles Mögliche von Garantieschein über Wählerverzeichnisse, Führerscheinverzeichnisse, Gerichtsakten und so weiter eingesammelt werden, also XM ist in den USA tätig, wie man da leicht erkennen kann. Und das Ganze dann aber auch immer mehr mit Online-Sachen aggregiert wird,
also sei es vom Einkaufen um die Ecke, vom Smart TV, von Health Data, Internet of Things, also alles, was irgendwelche Smart Devices sind, sind da dann entsprechend unterwegs. Dann das Ganze auch nochmal im Austausch mit den großen Plattformen
kann man das dann aggregieren, die einzelnen Personen bekommen dann entsprechende Identifier und das Ganze wird dann ausgewertet, sei es, dass man Bonitätsklassen entwickelt von Verbrauchern, dass man Menschen finden kann, also das, was die Sicherheitsindustrie interessiert,
dass man Dinge personalisieren kann, um eben halt Angebote besser an den Mann oder an die Frau bringen zu können, dass man Verhalten messen kann oder verkaufen möchte man ja auch gerne und in diesem Fall dann eben Daten.
Bit Streaming ist die älteste Technologie bald, die hier unterwegs ist, das ist eben halt das, was wir bei jeder Google-Suche dann haben, dass wir also dann entsprechend dann alle möglichen Daten haben,
die automatisch verauktioniert werden in dem Moment, wo wir dann eine Option machen. Das Ganze dann auch noch innerhalb entsprechend dann unserer internen Systeme,
nämlich, dass wir da immer mehr sehen, dass es nicht nur eine Sache quasi von da ganz draußen ist, sondern dass wir eben halt das ganze Thema auch bei uns in unseren internen Systemen haben,
deshalb eben halt dieses Treffen der National Acquisitions Group der britischen Kolleginnen und Kollegen diese Woche, die das diskutierten und man muss eben halt sagen, dass gewissermaßen alle Bibliothekssysteme, die wir momentan so auf dem internationalen Markt haben,
dass sie alle nicht wirklich sauber sind. Das Ganze gilt für Alma von Ex Libris, was Sarah Landon hier vorstellte. Das ist ja bekannt dafür, dass es relativ viele Daten sammelt, wenn man da nicht sehr, sehr sorgfältig administriert und Türchen zumacht.
Und wofür kann das genutzt werden? Für verschiedene Dinge, unter anderem natürlich auch gewissermaßen für andere Campus-Systeme, um damit Learning Analytics anzureichern und dadurch dann Studierende entsprechend beobachten, verwerten, sonst wie zu können.
Das Gleiche gilt aber eben halt auch zum Beispiel für EBSCO. Man kann sich ja immer fragen, warum haben die so viel Geld schon in Folio reingegeben? Not for charity, wie man sieht, wenn man die entsprechenden Beiträge auf deren Blog dann verfolgt.
Bibliothekssysteme, das Gleiche in Grün, auch bei OCLC. Ich möchte sagen, dass es natürlich ein deutlicher Unterschied ist,
ob man so gewissermaßen einen Data Analytics Vollsortiment hat wie Clarivate, wo dann Ex Libris mittlerweile dazugehört oder ob man einen Bibliotheksanbieter hat. Aber man muss eben sagen, dass auch hier nicht alles wirklich in Ordnung ist,
wenn zum Beispiel hier jemand sich mal überlegt, was passiert eigentlich, wenn ich da zum Beispiel bei WorldCat eine Recherche absetze und es zeigt sich dann eben halt, dass das ganze System dann nicht nur nach Hause telefoniert, sondern auch an andere Stellen hin und dann zum Beispiel meine Recherche und meine IP-Adresse an Facebook sendet,
an Google sendet und vielleicht auch noch woanders hin. Was wir also als Zwischenstand beobachten müssen, ist, dass das Informationsverhalten von Bibliotheksnutzenden
ganz offensichtlich nicht privat ist, sondern es wird personalisiert beobachtet und diese Daten bleiben auch nicht bei den Verlagen oder den entsprechenden Unternehmen, sondern gerade Third-Party-Daten wandern natürlich auch entsprechend ab zu den entsprechenden Data-Brokern und werden dort weiterverwertet.
Das heißt, es entstehen durchgehende Online-Biografien und was eine Wissenschaftlerin recherchiert, verbindet sich mit Social Media, mit ihrem Shopping, sei es im Netz oder beim Laden um die Ecke, ihre Jogging-Strecke, hat sie Kinder oder ehemals sonstige Lebensumstände.
Das Ganze läuft natürlich aber auch noch einiges weiter in dem Moment, wo man nicht mehr Publikationsinfrastrukturen alleine betrachtet und was eben auch Claudius Pezi hier vorregt in Science,
dass es eben halt um Knowledge Infrastructures insgesamt geht. Das ist das, was beachtet werden muss, weil das eben halt, das ist, was uns in den nächsten Jahren noch sehr, sehr gründlich beschäftigen wird.
Was früher Verlage waren, brauchen nämlich dann ganze Ökosysteme, ich nenne das mal Workbench, das sind so Werkbänke über den ganzen Research-Life-Cycle hinweg und da muss man halt mal ein bisschen aufdröseln, wie sieht das finanziell aus, weil wir das Ganze ja momentan finanzieren.
Wir haben beim Artikel, von dem ein Verlag für Elsevier im Durchschnitt 4.000 Dollar erlöst, haben wir 600 Dollar Publikationskosten, so wie das Alexander Grossmann und Björn Brems gegenwärtig mal ausgerechnet haben.
Das Doppelte davon, 1200 Dollar, sind die Profite und dann gibt es über die Hälfte sogenannte Non-Publication-Costs und da ist natürlich die Frage, was geschieht denn damit? Nun, die Verlage machen im Prinzip das, was wir auch machen, wenn wir Geld in der Tasche haben, sie gehen shoppen
und es ist ja seit Jahren so, dass man jeden Morgen aufwacht und einen neuen Tag, ein neuer Merchant, ein Big Lattex und Informationswesen und da ist die Lage einigermaßen komplex, aber man muss deutlich sagen, wenn man sich das mal aufdröselt auf die verschiedenen Bereiche des Research-Life-Cycles,
dann sieht man, da sind durchgängige Ökosysteme entstanden, die man überhaupt nicht mehr verlassen muss als Wissenschaftlerin oder Wissenschaftler und soll es auch nicht, denn so wie bei Social Media auch,
je länger jemand im System drin ist, desto mehr Daten fallen an, desto mehr kann man beobachten, desto mehr kann man auswerten, desto mehr kann man verwerten. Und wenn man hier so ein Angebot hat, wie es Springer Nature beziehungsweise Digital Science macht, dann hat man hier im Bereich Discovery natürlich Springer Link und andere,
dann gehen die Leute ins Labor, arbeiten mit einem populären elektronischen Labornotbook wie LabGo, das hat dann Springer aufgekauft. Man schreibt einen Artikel dann mit einem populären LaTeX-Editor wie Overleaf, den hat Springer auch aufgekauft, dann geht es in die Publikation
wieder zu Springer Link oder Biome Central oder Nature und dann bei Outreach und Assessment, wenn es nur um Kennzahlen und so weiter, geht das Gleiche dann weiter. Und in allen Elementen fallen dann Daten an. Also Eiko Fried hat sich zum Beispiel mal überlegt,
was passiert da eigentlich in meinem Mendeley-Account und wie man sieht, jede Menge. Es wird im Zweifel jeder Klick und jede Aktion protokolliert und ausgewertet und man kann überhaupt nicht sagen, wo geht das hin, mit was wird es zusammengeführt und wenn manche sagen, ich habe doch nichts zu verbergen,
dann wird man sagen müssen, doch jede Menge, also die persönliche Integrität, das wofür man steht, die Institution, für die man steht, das Thema, für das man steht, da hat man jede Menge zu verbergen, vor allem wenn man dann zum Beispiel mit Themen zu tun hat,
die gerade auch bei entsprechenden Regierungen und Regimes nicht sonderlich populär sind. Kommen wir weiter zu den Datenkartellen. Das Buch von Sarah Lambdon Data Cartels ist ja einigermaßen im Gespräch
und das ist sehr gut, denn man kann von Sarah vieles lernen, was über den eigentlichen Informationsbereich hinausgeht. Denn Datenkartelle, egal in welcher Branche sie eigentlich unterwegs sind,
agieren immer nach dem gleichen Muster. Also sie verwandeln öffentliche Güter in Club-Güter, die eben halt einen ausschließenden Charakter haben. Bei uns kennen wir das in der Informationsversorgung, ganz erkennbar an Payrolls, APCs und so weiter. Und dieser ausschließenden Charakter bewirkt dann,
dass wir eine Hierarchisierung im Wissenszugang haben. Die Datenkartelle sind das, was Sarah eigentlich so als Terminus ganz gut fand, ein Gaffam der kuratierten Informationen. Wir haben ja die großen Internetplattformen,
die sich gewissermaßen übers gesamte Internet erstrecken. Was wir bei den Datenkartellen haben und Sarah bezieht sich da modellhaft auf Rolex und Thomson Reuters, das sind eben halt Unternehmen, die das Ganze dann spezialisiert
für Informationen für die Entscheiderebene machen. Das ist ja das, was zum Beispiel Rolex auch so als gewissermaßen Motivation des Unternehmens angeht. Wir bieten Hilfen für Entscheider an und das heißt, da gibt es eben halt eine Hierarchie im Wissenszugang
und das Ganze profitiert dann auch entsprechend von Größenvorteilen. Also die Größe zum Beispiel der Datenbestände, die so ein Datenkartell sammelt, ermöglicht dann natürlich auch immer neue Datenprodukte
und die nutzen dann auch wieder den Großen am meisten, sei es entsprechende Konzerne und Unternehmen, staatliche Institutionen, die können mit den entsprechenden Daten am meisten anfangen. Und was man eben halt dann auch sagen muss,
wir reden hier ja jetzt nicht von irgendeinem Kartoffelacker, den man umgraben will, sondern es sind ja sehr, sehr persönliche und personenbezogene Dinge, die dann eingesammelt, aggregiert und verwertet werden von uns allen. Das ist natürlich entsprechend intransparent dann immer wieder.
Man sieht bei diesen Unternehmen nur immer mehr Daten hineingehen und neue Datenprodukte wieder herauskommen, die dann auch entsprechend großzügig bepreist sind in der Regel. Und das Ganze hat dann auch immer mehr einen,
nicht nur ausschließenden Charakter, sondern die Systeme selber schließen sich immer mehr ab. Wenn man z.B. an die entsprechenden Modellversuche sich erinnert, um immer mehr KI einzusetzen,
wie Esevir das momentan z.B. beim Peer Reviewing vorhat und entwickelt, das ist natürlich ein extrem schwieriger Bereich, weil bislang heißt Peer Reviewing ja, dass Wissenschaftlerinnen und Wissenschaftler eine Position sind, über die entsprechenden Diskursschranken zu bestimmen.
Dies ist Teil des Diskurses, das gehört hier nicht her, dies ist wichtig, dies ist weniger wichtig. Wenn das durch entsprechende technische Systeme funktioniert oder ersetzt wird, sind Wissenschaftlerinnen und Wissenschaftler aus dieser Position draußen.
Das System genügt sich dann immer mehr selbst. Es wird dann quasi eine Wahrheitsmaschine, ganz unbenommen dessen, wie gut das überhaupt schon funktioniert. Also wenn wir jetzt momentan diese Diskussionen über Large-Language-Models haben und jemand sagt,
naja, eigentlich ist das momentan eher noch so eine Art Mintz Planning as a Service, dann ist das sicherlich richtig und zeigt eben halt auch, dass wir auf diesem Weg sicherlich immer mehr Verzerrungen an Bias reinbekommen
und das bei der Generierung des wissenschaftlichen Diskurses selbst. Diese Datenkartelle flechten sich auch immer mehr in Entscheidungsprozesse der öffentlichen Hand rein, also sei es dann eben halt bei der Erstellung von Kennzahlen, von Rankings, dadurch, dass die öffentliche Hand selber
immer weniger digital kann, immer weniger digitale Kompetenzen hat, immer mehr auf solche Kartelle angewiesen ist, ist sie darauf angewiesen, dann eben halt auch solche Informationen zugeliefert zu bekommen. Ganz extrem wird es dann in diesem sogenannten
Risk Solutions-Bereich, ein Bereich, der extrem wächst, also die Risk Solution-Sparte von Relix ist mittlerweile größer als der Verlag Elsevier als weitere Sparte und wächst auch viel dynamischer, denn der Gesamtmarkt für diese Risk Solutions ist auch ungefähr zehnmal so groß
wie der Markt für wissenschaftliche Kommunikation und auch das wird sich sicherlich noch erweitern. Das heißt, in der Summe für Sarah Lemden sind Datenkartelle eben halt die Informational Landlords, also sie bestimmen über diejenigen, die gewissermaßen
rein können ins System, die Informationen haben, die eine gesicherte Position haben oder entsprechend exkludiert sind und dann natürlich eine sehr randständige Position dann nur noch haben.
Das bringt mich schon zum gewissen, sagen wir mal, experimentellen Teil meines Vortrags unter der Rubrik Datenkolonialismus. Das Ganze sind so ein bisschen noch, sage ich mal, eher schwammige Überlegungen,
wie auch das ganze Thema noch ein bisschen schwammig ist, aber ich glaube, es ist wichtig, das mal als Stichwort mit reinzuführen hier die Überlegungen. Denn wenn wir über diesen ganzen Plattformkapitalismus reden, wenn wir über das reden, was Shoshana Zuboff
als Überwachungskapitalismus definiert hat, dann kann man sich ja immer fragen, was ist das für ein Gestus, was ist das für eine Attitüde, wie dort agiert wird und mir scheint das immer mehr wie eine koloniale Attitüde. So diese Art, wie eben halt persönliche Daten vom Überwachungskapitalismus und eben halt von den großen Plattformen
eben halt nicht als persönliche Daten als Attribut einer Person und als Eigentum einer Person gesehen werden, sondern es wird gewiss mal als Virgin Wood als Datenabfall liegt hier rum, werten wir eben mit aus, kommt ja nicht drauf an.
Das ist sehr, sehr ähnlich wie diese Art von Bezeichnung ganzer Kontinente wie Australien damals so als No-Mans-Land, dass eigentlich niemand gehört. Das kann man dann besetzen, besiedeln, ausbeuten
und Ähnliches haben wir auch bei uns in der Wissenschaft, denn wenn wir zum Beispiel alles auf APCs umstellen würden, dann ist klar, das ist eine extreme Form der Exklusion, dann ist der Global South eigentlich draußen
und dessen Wissensbeitrag, dessen Beitrag zur Vielfalt und zur Diversität von Forschung würde dann nicht gehört werden. Wahrscheinlich dürften kleinere Fächer auch gleich draußen sein, weil sie für die Monetarisierung keine Rolle spielen und wir sehen ja zum Beispiel bei den Klagen,
die in Indien anhängig sind gegen Sahyad, dass das notfalls auch auf dem Rechtsweg durchgesetzt wird. Und diese koloniale Attitüde, die war damals natürlich furchtbar und wenn wir an unsere eigene Kolonialgeschichte denken,
dann hat man dann die Bewohner dieser angeblichen No-Mans-Lands, die hat man dann bei Hagenbeck im Zoo ausgestellt und auch sehr, sehr weit entfernt in Anologie haben wir Ähnliches heute auch. Viele werden ja wissen, dass zum Beispiel den Uiguren
in China unter Zwang genetisches Material abgenommen wird und auf diesem Material basieren auch viele Studien. Und da muss man sagen, dass es natürlich krass gegen jede Form von guter wissenschaftlicher Praxis gerichtet.
Trotzdem ist es wirklich eine sehr, sehr schwierige und zähe Aktion, die Verlage dazu zu bringen, dass diese Studien dann auch zurückgezogen werden. Das passiert mittlerweile, aber es geschieht nicht von allein.
Was sind denn dann so koloniale Geschäftsfelder, die wir da haben? Das größte Thema, das größte Problem ist natürlich diese gesamte Sicherheitsindustrie, wie mit diesen großen Institutionen, zum Beispiel in den USA mit der
Immigration and Customs Enforcement, die landesweit Ratschen durchführt und deshalb auch landesweit entsprechend Daten einsammelt, zukauft und entsprechend als Grundlage für Aktionen nimmt.
Und diese Daten kriegt sie eben halt von diesen Datenkartellen. Also das, was früher unter anderem Wissenschaftsverlage und wissenschaftliche Infrastrukturanbieter waren. Thomson Reuters und Relics sind ins Big Data Policing eingestiegen, weil es sich eben halt auch von einer Marktgröße her unglaublich lohnt.
Und diese Datenprodukte wie CLEAR von Thomson Reuters und Lexis Risk Solutions werden dann entsprechend an Organisationen wie ICE oder eben halt auch an viele lokale Polizeieinrichtungen lizenziert.
Aber auch andere Anbieter, mit denen wir umgehen, wie CLEARovate, agieren in ganz ähnlich trackingintensiven Bereichen wie Fraud Prevention und alles was so in Richtung Finanzprodukte und deren Abwicklung bezogen ist.
Was wir immer noch nicht sagen können dabei ist, ob Nutzungsdaten wissenschaftsbezogener Produkte dabei verwendet werden. Das wäre eigentlich nur logisch, die Anbieter bestreiten dies. Ich würde zugestehen auch, dass zumindest bei den Daten, die zum Beispiel Relics selber erhebt,
denen natürlich sehr genau darauf gucken, wo das hingeht und was sie damit tun. Aber wenn wir daran denken, dass auf diesen Verlagsplattformen jede Menge Third Parties installiert sind, diese Daten abfließen, weiterverarbeitet, aggregiert und wiederverkauft werden, so ist das durchaus möglich und wäre genau zu prüfen,
inwieweit dann eben halt solche Nutzungsdaten nicht doch in entsprechenden aggregierten Produkten auch für die Sicherheitsindustrie nicht Eingang finden. Was kann man tun?
Da ist momentan sehr, sehr stark dieses Stichwort digitale Souveränität unterwegs. Das da flittet wird man dann nicht hören, weil dann kriegt man gleich wieder den nächsten Schreikrampf, teilweise zu Recht. Teilweise muss man auch sagen, was steckt hinter dem Begriff. Das ist eigentlich das, was Claudio Aspesi hier formuliert.
Wissenschaft, Forschung, also eben halt gerade die öffentlichen Bereiche müssen in alternative Lösungen investieren. Das heißt, der öffentliche Bereich muss mehr können, er muss mehr Ressourcen haben, er muss mehr Kompetenzen haben. Es muss sichere öffentliche Alternativen geben,
damit man eben halt handlungsfähig bleibt und nicht dann eben halt gewissen Massen von digitalen Silos umzingelt ist, von entsprechenden Plattformen, von Fahrtabhängigkeiten, die einen dann irgendwann an eine Art Ransom-Software denken lassen
und nicht an wissenschaftliche Informationsinfrastrukturen mehr. Wir haben auch Ansätze dafür, wie die nationale Forschungsdateninfrastruktur, die jetzt weiterläuft, nachdem zwischendurch finanziell
durchaus ein Wackler mit drin war. Das ist ein positives Beispiel eben halt wissenschaftsgetriebener Infrastruktur. Und das könnte auch eine Dateninfrastruktur sein, die so Keimzelle eines öffentlichen Forschungsökosystems wird.
Auf europäischer Ebene sehen wir das ja schon. Wir haben die European Science Cloud. Wir haben die entsprechenden Publikationsplattformen dazu mit Open Research Europe. Wir haben entsprechende Arbeitsinfrastrukturen, die da so nach und nach mit angeflanscht werden.
Das heißt, da entsteht etwas, was so ein bisschen in die Richtung geht und eben halt die Wissenschaft wieder ein Stück weit zurück in den Fahrersitz ihres eigenen Handelns bringen kann, wenn ansonsten die Zwänge ja mittlerweile in vielen Bereichen sehr, sehr groß sind.
Zentral sind dabei die strategischen Assets, also gerade elektronische Laborbücher, Forschungsinformationssysteme. Das sind einfach Gelenkstellen im Research Life Cycle, die wichtig sind, dass man dort eine entsprechende,
sichere Alternative hat. Die größte Baustelle ist da bei Forschungsbewertung. Da geschieht sowohl auf europäischer wie auf deutscher Ebene Gott sei Dank einiges. Da ist die DFG sehr unterwegs. Und das ist eine super Sache, dass dort endlich was passiert,
weil die Veränderung der Forschungsbewertung, dass wir eben auch andere Forschungsleistungen als nur das Paper in einem High Impact Journal angemessen bewerten, tut der Forschung gut. Und es schlägt den Datenkartell noch ein Stück weit die Waffen aus der Hand, weil es Abhängigkeiten von diesen kennzahlgetriebenen Instrumenten verringert.
Was sagt die DFG insgesamt dazu? Sie ist da sehr klar und warnt deutlich. Wir haben hier eine Privatisierung der Wissensgesellschaft mit großen Risiken, weil eben halt dann nicht mit der öffentlichen Hand das Steuerungswissen hat,
sondern Unternehmen, die dann natürlich nach ihren Prioritäten damit umgehen und das im Zweifel nur unter gewissen Auflagen und vor allem zu gewissen Preisen überhaupt zugänglich machen. Was wir bei diesen ganzen Risiken eben halt im Datenbereich
auch sehen müssen, ist, dass Hochschulen und Bibliotheken durchaus auch Mitwirkende sein können bei solchen auch rechtlich kritischen Dingen. Das muss und wird momentan geprüft, weil das natürlich für alle Beteiligte riskant ist und natürlich eben halt
der Forschungsfreiheit auch nicht gut tut. Und zuletzt meint die DFG, wer auch immer in der Wissenschaft unterwegs ist, die informationelle Selbstbestimmung im digitalen Raum muss da oberste Priorität
haben, denn sonst ist es mit wissenschaftlicher Autonomie und auch mit wissenschaftlicher Freiheit irgendwann nicht mehr so richtig weit her. Und damit wäre ich jetzt erst einmal durch. Ich bedanke mich und freue mich auf Fragen und Diskussionen.