We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Integrierte Entwicklungs- und Publikationsumgebung für Forschungssoftware und Daten am Helmholtz-Zentrum Dresden-Rossendorf (HZDR)

00:00

Formal Metadata

Title
Integrierte Entwicklungs- und Publikationsumgebung für Forschungssoftware und Daten am Helmholtz-Zentrum Dresden-Rossendorf (HZDR)
Title of Series
Number of Parts
60
Author
Contributors
License
CC Attribution 3.0 Germany:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor.
Identifiers
Publisher
Release Date
Language

Content Metadata

Subject Area
Genre
Abstract
Mit dem Ziel den gesamten Lebenszyklus wissenschaftlicher Artikel, Forschungssoftware und Daten in Vereinbarkeit mit den FAIR-Prinzipien zu unterstützen, wurde am HZDR eine integrierte Entwicklungs- und Publikationsumgebung geschaffen. Insbesondere die Publikation von Forschungssoftware und Daten erfordert eine technische und organisatorische Infrastruktur. Oft ist auch ein intensiverer Wissensaustausch und die Unterstützung der Wissenschaftler notwendig. Die Hürde zur Veröffentlichung sollte durch Automatisierung und Integration verschiedener Plattformen möglichst klein gehalten werden. In diesem Vortrag wird der aktuelle Stand, Erfahrungen und Herausforderungen gezeigt, die bei der Bereitstellung einer derartigen Umgebung gemacht wurden.
6
Thumbnail
15:56
53
Thumbnail
22:03
Repository (publishing)Sign (mathematics)Computer clusterThermal radiationGamma functionSource codePower (physics)LaserSurfaceMathematical analysisSoftwarePlot (narrative)WordLöschen <Datenverarbeitung>Set (mathematics)Particle detectorComputer animationLecture/Conference
Data managementDigital object identifierComponent-based software engineeringDesign of experimentsRepository (publishing)SoftwareMathematical analysisSimulationCluster samplingSupercomputerService (economics)TelecommunicationLimit (category theory)Computer fileBand matrixLocal ringGamma functionSpacetimeProcess (computing)Vapor barrierOpen setControl flowData storage deviceServer (computing)SoftwareEckeLocal ringDecision theoryParticle detectorRow (database)Computing platformServer (computing)Systems <München>Software repositoryMetadataData centerEnde <Graphentheorie>Component-based software engineeringComputer fileDatenformatComplete metric spaceALT <Programm>Constraint (mathematics)HöheLimitierungsverfahrenWeb applicationService (economics)Git <Software>Persistent identifierPAPUploadingWeb-AnwendungLecture/ConferenceXML
Data storage deviceServer (computing)Control flowFile Transfer ProtocolSheaf (mathematics)PhysicsStatisticsForm (programming)Link (knot theory)MIDISimulationDrag (physics)Computer fileMedical imagingHand fanSineComputer fileRow (database)Route of administrationWeb browserEmailUploadingClefNormal (geometry)WEBXMLProgram flowchart
SoftwareDisintegrationInstance (computer science)Zeno of EleaData managementFrequencyEmbargoTask (computing)CollaborationismLocal GroupOpen setComputing platformRepository (publishing)Core dumpData modelOperations researchDistribution (mathematics)Service (economics)Internet service providerStandard deviationFile formatInternet service providerSoftwareComputing platformService (economics)Instanz <Informatik>ErweiterbarkeitRow (database)Software repositoryStandard deviationForceSet (mathematics)Control engineeringDirection (geometry)MetadataEmailOpen sourceMoment (mathematics)Systems <München>ACCESS <Programm>XMLComputer animation
Transcript: German(auto-generated)
Genau, bevor wir weitermachen, möchte ich kurz nochmal, dass wir das Ganze einordnen können, für was wir das eigentlich tun, ein paar Worte zum HCDR verlieren, also wir sind
auch Mitglied der Helmholtz-Gemeinschaft, es sind ungefähr 1200 Mitarbeiter, Forschungsstandorte in Dresden, aber auch noch vier weitere verteilt in Deutschland und in Grenoble und neben einer sehr diversen Landschaft an wissenschaftlichen Richtungen, würde ich sagen, gibt es auch
drei Großforschungseinrichtungen, das ist einmal das ELBE-Zentrum für Hochleistungsstrahlenquellen, das Hochfeldmagnetlabor und das Ionstrahlzentrum und da kann man sich vorstellen, das sind Detektoren, das sind Messinstrumenten, die erzeugen eine ganze Menge von Daten mit
hohen Bandbreiten und die muss man irgendwie handhaben und das ist im Prinzip unsere Aufgabe und da ist natürlich die Frage, ja wo packt man die denn nun hin, also alles, was hier dargestellt ist, ist auf jeden Fall die falsche Entscheidung, wenn das nur dort liegt,
die Sachen können verloren gehen, man kann sie aus Versehen löschen, Hardware-Defekte sind nie auszuschließen und selbst wenn die Daten da sind und man weiß, wo sie liegen, dann in einem meiner Lieblingscomics hier, dann fehlt vielleicht die Dokumentation und
weiß nicht, was mache ich denn damit jetzt überhaupt, wie nutze ich die Software und dann kommt es doch oft dazu, dass der Doktorand dann doch noch mal von null anfangen muss und das ist natürlich dann schade um die Arbeit, die vorher reingesteckt wurde. Genau und aus
dem Grund habe ich uns auch auf die Fahne geschrieben, die FAIR-Prinzipien, die ja schon mal ansieht, wie heutzutage so eine Publikation in dem Journal, aus welchen Komponenten die zusammengeht, das hat keinen Anspruch auf Vollständigkeit, aber die Ergebnisse,
die werden auf Basis, ganz oft auf Basis irgendwelcher Daten erzeugt, damit man da überhaupt Ergebnisse rausbekommt, braucht man Software, die die Daten auswertet und dann spielen natürlich noch sowas wie persistente Identifier und irgendwie auch die Autoren eine
Rolle und all das, nur wenn all das zusammenkommt, dann kann man es auch schaffen, dass so eine Publikation am Ende auch irgendwie wieder reproduzierbar und wieder überprüfbar ist für den Leser sozusagen. Genau und bei uns am HCDR läuft das dann aktuell im Prinzip
ganz häufig wie folgt ab, also die Großgeräte, bei denen gibt es dann sozusagen so ein Proposal-System, also interne und externe Nutzer auch, die müssen einfach einen Messzeitantrag stellen, beschreiben dort schon das erste Mal, was sie tun wollen, also geben dort
eigentlich schon das erste Mal so ein paar Metadaten an, was denn eigentlich für eine Messung gemacht werden soll. Dann wurde der Messantrag genehmigt und man kommt zu dem Punkt, wo man jetzt Daten aufnimmt, wo man dann wieder neue Metadaten generiert, also in dem Fall dann eher die Steuerelektronik von irgendeinem Detektor oder
es können unendlich viele Dinge sein und im Optimalfall hoffen wir dann, dass wenn der Nutzer die Sachen dann gleich noch mit in einem elektronischen Laborbuch dokumentiert, also sich Laser ausgefallen um 14.24 Uhr, dann hat man auch noch mal einen zusätzlichen Punkt, um die Experimente, die ablaufen, besser nachvollziehen zu können. Genau
und wichtig ist, dass all das, was man hier sieht, einfach gut ineinander greift, genauso wie die Software, die dann irgendwo entwickelt wird, sei es auf GitLab, auf GitHub, auf einem lokalen GitLab Repository, Git Repository, wo auch immer, das muss einfach gut
ineinander greifen und am Ende ist dann unser Ziel, dass die Daten dann und unsere Daten und Daten und Software in unserer Datenpublikationsplattform landen und die haben wir Rodare genannt. Genau, hier haben wir mal einen Screenshot von Rodare, wir
haben vorhin schon den Namen Zenodo gehört. Ich weiß nicht, wer von Ihnen hat Zenodo schon mal benutzt, sind das einige hier. Ich denke, die meisten erkennen das sehr gut wieder, wenn man sich das optisch mal ansieht. Das ist auch kein Zufall, denn das ist im Prinzip ein Falk von Zenodo. Und an der Stelle kann man sich
fragen, na gut, da hätte die auch gleich Zenodo verwenden können. Das ist richtig. Das Problem ist aber, dass wir Datensätze erwarten und auch schon publizieren mussten, die einfach die Beschränkungen, die es bei Zenodo gibt, überreißen und wir
einfach größere Datensätze publizieren müssen. Und selbst wenn wir dort unendlich viel Speicherplatz hätten, dann hat man da natürlich immer noch eine lange Leitung, also eine Bandbreitenlimitierung, die dann weiteres Problem ist und uns war es
wichtig, dass die verschiedenen Systeme dann irgendwann möglichst gut miteinander integriert sind und wir hatten den Eindruck, dass das leichter geht, wenn man das System dann unter der eigenen Kontrolle hat. Und deswegen die Entscheidung. Und zu dem Zeitpunkt, als wir das entschieden haben, war Zenodo oder Invenio einfach die Plattform, die gezeigt hat,
dass sie mit vielen, vielen Einträgen und auch mit großen Datenmengen umgehen kann. Das war bei anderen einfach aus unserer Sicht nicht so stark der Fall. Genau, das System, das ist jetzt seit ungefähr ein bisschen mehr als einem Jahr ein Betribe, würde ich sagen. Und da kann man dann natürlich schon die ersten Erfahrungen machen. Wie nehmen die Nutzer das
an? Wo sind Hürden, die die Nutzer abhalten, das Ganze zu nutzen? Und die drei größten, aus meiner Sicht, die ich in Unterhaltungen so mitgenommen habe, habe ich hier mal aufgenommen. Also ganz häufig hat man den Punkt, okay, das klingt alles schön und gut, was Sie da erzählen,
aber was bringt mir das und für wen soll ich das eigentlich machen? Das brauche ich nicht. In dem Fall, also da ist es wirklich ein schwieriger Überzeugungsprozess, den man da fahren muss, was ganz häufig hilft. Es gibt ja immer mehr Journal, die dort auch wirklich
klare Anforderungen stellen und sagen, wir veröffentlichen den Artikel nur, wenn ihr uns auch Software und Daten dazu liefert oder halt zumindest referenziert. Weil sonst kann man ja, kann man sonst was verkaufen in seinem Paper und niemand kann es nachprüfen. Und das ist auch der Punkt, wo die Nutzer am meisten zu uns hinkommen und
sagen, okay, könnt ihr uns da irgendwie helfen? Habt ihr da was? Wie machen wir das? Ja, dann kommt der Punkt, also neben dem nicht einsehen, dass es da ist. Manche sehen es vielleicht eindenken sich, aber okay, die Hürde, das zu tun, die ist mir einfach zu hoch. Das mache ich nicht. Mir ist wichtig, dass mein Paper veröffentlicht
wird. Den Rest brauche ich nicht. Und ich denke, da kommt man auch nochmal auf den Punkt zurück, wo man sagen muss, dass es wirklich wichtig ist, dass man die Sachen, die die Leute, die Dienste, die die Leute so und so schon nutzen, gut miteinander integriert sind. Weil wenn der Aufwand gering ist von dem System, wo man seine Daten
eh schon liegen hat, sie dorthin zu bekommen, wo man sie dann veröffentlicht hat, wenn der klein ist, dann ist natürlich auch die Hürde geringer, das zu tun. Und abschließend ist dann auch so das Thema, ja, das Wissen über, wie man macht man es denn richtig, auch an vielen Stellen einfach noch nicht da.
Und ich denke, da kommt man nicht drumherum, als dort einfach Training, Support anzubieten und den Leuten zu sagen, ja, die Lizenzen sind zu empfehlen. Welche Datenformate sollte man nutzen? Und also da kann man sich ganz viele Fragestellungen vorstellen, was das angeht. Genau, ich möchte jetzt
nochmal so ein paar Integrationen, die wir gebaut haben, also vorstellen, eine nochmal live zeigen und zwar den Feature, das wir Background Upload genannt haben. Bei uns ist es so, dass also die Dateien, die Daten liegen schon ganz häufig im Rechenzentrum auf zentralen Servern, sind dort aber noch
unter der Kontrolle vom Nutzer. Also der Nutzer kann dort die Sachen löschen, er kann verschieben und das ist natürlich für eine langfristiges Aufheben in Form von so einer Web-Anwendung sehr eigentlich nicht machbar. Deswegen muss man die also irgendwie in die Kontrolle der Anwendung bekommen, die Daten. Standardmäßig findet man da meistens
einen Web-Upload, der ist aber dann ab irgendeiner Größe ein bisschen unhandlich, würde ich sagen, und einfach zu fehlerbehaftet. Und deswegen haben wir uns dann für eine Lösung entschieden, die SFTP nutzt und sozusagen über eine Web-Oberfläche dem Nutzer ermöglicht, Daten
hochzuladen, ohne dass er wirklich darauf warten muss, dass sie hochgeladen sind. Und das wollte ich jetzt einfach mal kurz zeigen, wie das bei uns aussieht. Ich hoffe, ich komme hier mit der Bedienung zurecht. Ja, geht. Geht gar nicht eigentlich, die Maus.
Vielleicht ist auch mein, also wir müssen hier einen Browser. Ja, also ich weiß nicht, ob meine Finger zu. Genau, das müssen wir halt. Ja, also ich kann ja mal helfen. Also wir gehen jetzt hier sozusagen auf den
den Pfeil hier. Das ist das bisschen hagelig. Na gut, dann machen wir das so. Danke für den Tipp.
Genau, also das ist hier erst mal die Oberfläche. Also erst mal muss der Nutzer ja einrichten. Die Anwendung braucht irgendwie eine Möglichkeit überhaupt per SFTP auf den Server, wo auch immer die Daten liegen, zugreifen zu können. Das haben wir jetzt so gelöst, dass der Nutzer einmalig hier sein Account verknüpft und in dem Schritt wird
dann ein SSH Key Pair erzeugt, mit dem dann die Anwendung auf die Datensätze eben zugreifen kann. Der Nutzer kann sich dann hier so einen
Upload erstellen und wenn er jetzt hier abklickt, dann kann er entweder seine Dateien reinziehen, dann ist es ein normaler Web Upload oder er nutzt diesen Browser, Dateibrowser im Browser, wie auch immer man das nennen möchte und navigiert sich dann hier zu seiner Datei. Das mache ich jetzt
einfach mal. Wo habe ich da was hingelegt? Genau, ich nehme jetzt hier noch mal was kleines und er klickt dann hier einfach auf Upload File und das Ganze wird dann hochgeladen und er bekommt eine E-Mail, wenn das Ganze
dann fertig ist und auf die Weise ist es dann auch wirklich einfach möglich, sehr große Datensätze unter die Kontrolle dieser Anwendung zu bekommen. Das ist eigentlich etwas, was sehr gerne angenommen wird bisher und was erstaunlich gut geklappt hat, wie ich finde bisher. Jetzt gehen wir wieder hier zurück. Genau, jetzt habe ich viel über Daten gesprochen.
Es geht natürlich auch hier um Software und die ist mindestens genauso wichtig und bei Zenodo ist es ja so, dass es eine Integration für GitHub bereits gibt, also man erzeugt auf GitHub einen neuen Release.
Zenodo wird darüber benachrichtigt und erholt sich dann den aktuellen Stand des Repositories und erzeugt einen neuen Eintrag mit DOI und so weiter und es gibt ganz viele Wünsche, dass das auch mit GitLab passiert. Aus dem Grund haben wir uns entschieden, das einfach mal
zu implementieren. Die funktioniert dann ziemlich ähnlich, diese Integration, wie die bestehende GitHub-Integration, bloß eben mit GitLab oder einer privaten GitLab-Instanz und wir haben hier nochmal die URL, wo die
Entwicklung aktuell stattfindet. Das wurde natürlich primär für unser Hodare-System entwickelt, aber ich bin auch guter Hoffnung, dass man das dann in Zenodo reinbekommt und dort dann eine GitLab-Integration auch zur Verfügung stellen kann. Da kommt dann auch am Ende noch mal kurz was dazu.
Genau, neben den guten Integrationen habe ich ja gesagt, dass auch Guidelines vielleicht helfen kann oder verpflichtende Regelungen, wie einfach damit umgegangen werden muss und deswegen gibt es bei uns im letzten Jahr eine Data Policy, die hat auch unser Vorstand verabschiedet und
verpflichtend gemacht und dem ist festgelegt, wer ist verantwortlich für das Hochladen von Forschungsdaten, wie muss ein Data Management Plan erzeugt werden, welche Lizenzen werden empfohlen und das gibt vielleicht den Leuten dann auch noch mal einen Weg vor, wie man damit umgehen kann. Man ist sich nicht so unsicher, was darf ich denn nun, was
darf ich nicht. Das gleiche ist aktuell mit Software geplant. Ich glaube, da läuft auch gerade ein Workshop parallel oder das ist morgen, bin ich mir nicht sicher, mit der Helmholtz Task Group Open Science. Da gibt es aktuell einen ersten Draft von der Vorlage und der befindet sich aktuell in der
Abstimmung mit Technologietransfer, Juristen und so weiter und ja, dann hoffen wir mal, dass sowas dann auch für Software in absehbarer Zeit bei uns entsteht und es wurde jetzt auch die Wichtigkeit erkannt aus meiner Sicht, dass man da wirklich jemanden braucht, der die Leute
unterstützt, die ihnen Training gibt und unsere Bibliothek darf jetzt so einen Data Librarian einstellen, der dann genau diese Aufgabe hat, den Nutzern eben zu helfen bei genau den Fragen, die ich vorhin angesprochen habe. Genau, ich habe es gerade noch mal gesagt, vorhin noch mal gesagt,
Rodare basierte im Prinzip auf Zenodo und ja, also das, wir am HCDR waren nicht die einzigen, die das gemacht haben, das waren eine ganze Menge von Institutionen, also ich glaube zehn oder elf, die den gleichen Weg gegangen sind, zumindest die ich kenne und darauf sind natürlich auch
die Leute von Zenodo aufmerksam geworden und haben wir dann mit uns gesprochen und gesagt, ja, wenn wir hier die Kräfte bündeln, da schaffen wir doch bestimmt dann eine fundiertere Basis zu bauen und da wurde
Invenio RDM genannt, Projekt entstanden, da ist in zwei oder drei Wochen der Kickoff dazu und der Plan ist dort, dass man einfach sozusagen eine gemeinsame Plattform baut, die Support erhält, die einen klaren Upgrade-Fahrt hat, die einfach installierbar ist und das dann sowohl
Zenodo als auch die anderen Repositories in Zukunft auf diesem Invenio RDM basieren und man dadurch einfach einfacher hat. Genau, also noch mal die drei Ziele, die da gesagt wurden, also man will einfach einen Repository haben oder ein Angebot, wo man ein erweiterbares
Metadatenschema hat, das basiert auf dem Datasite Schema, soll in der Lage sein, Millionen von Einträgen und Petabytes von Daten zu handeln, also was Zenodo ja im Prinzip schon macht, was aber dazukommt ist, dass es
halt einfach ein ordentliches Packaging geben soll, also bisher ist es sehr viel, also es ist keine Sache, die man mal in fünf Minuten macht, das zum Laufen zu bekommen, also muss man sich schon sehr lange damit beschäftigen, ohne Anleitung das zum Laufen zu bekommen und das soll einfach wesentlich besser werden dadurch und ich denke dadurch ist es
dann auch möglich zu sagen, okay auch da haben wir eine gute Basis, um damit weiterarbeiten zu können. Genau, noch mal zusammengefasst, was ich gesagt habe, also ich denke es ist absolut wichtig, dass die angebotenen Dienste alle möglichst gut miteinander integriert sind, man muss
Metadaten und Dokumentation möglichst frühzeitig und so früh wie möglich und kontinuierlich betrachten und nicht einfach erst am Ende, weil das haben wir auch vorhin gehört, am Ende macht es keiner mehr, das ganze sollte so automatisch wie möglich passieren und der Nutzer, der
braucht einfach auch persönlich oder angepasstes und individuelles Training aus meiner Sicht, um das sinnvoll machen zu können und aus Sicht von dem Service Provider, wie wir es ja dann eher sind, würde ich sagen, dass also die Administration von so einem System möglichst einfach sein kann, umso weniger Fehler könnte natürlich auch passieren und umso
sicherer aus meiner Sicht die Daten, es muss einfach weiter und anpassbar sein, einfach auch um diese Integration gut implementieren zu können und aus meiner Sicht auch ganz wichtig, dass man auf breit akzeptiertes Standards setzt, weil ansonsten kocht man da nur sein eigenes Süppchen und ist dann nicht austauschbar mit anderen
Systemen, denn es ist auch wichtig für uns, dass wir auf anderen Systemen auftauchen, denn niemand geht auf rodare.hcdr.de und sucht direkt nach einem Datensatz, sondern der kommt eher von woanders und wird dann dorthin verlinkt, also deswegen ist es wichtig, dass man da einfach entsprechend integriert ist.
Genau, damit bin ich auch am Ende. Ganz herzlichen Dank für die Arbeit und den Vortrag. Jetzt Fragen. Wie portabel ist denn euer System im Moment schon?
Also wenn jetzt mein Institut entscheiden würde, wir hätten auch gern so ein tolles System wie rodare und wollen das jetzt implementieren bei uns, wie kompliziert wird das? Also es ist, wenn man weiß, wie es geht, hat man das ganze
innerhalb von kurzer Zeit gemacht, also mit Unterstützung würde ich sagen, dass man das in ein, zwei Tagen hinbekommen hat. Wenn man alles von Null anfängt, also es ist inzwischen auch
besser geworden, was die Dokumentation angeht, denn zu Anfangszeiten, als wir angefangen haben, war das in Venio noch im Alphastadium ohne Dokumentation und so weiter, also das war ja eine schwere Zeit und jetzt ist es inzwischen auch besser geworden, was die Dokumentation angeht und ich hoffe auch
wirklich, dass was ich am Ende gezeigt habe, dass das auch nochmal da wirklich ein Schritt vorwärts ist, das Ganze nochmal auf solide Beine zu stellen. Also wir können da gerne noch mal im Nachhinein drüber reden, wie man das dann, wie das im Detail funktionieren würde.
Was mich interessieren würde, ist es denn auch möglich, prinzipiell da irgendwelche Access Rights auf die Daten zu setzen, also wenn man Daten hat, die man gezielt freigeben will, ist das möglich oder ist das angedacht, weil wir natürlich mit den medizinischen Daten immer nicht so komplett Open Source gehen können.
Genau, es gibt in Zenodo und auch bei unserem System hier, da gibt es erstmal vier verschiedene Zugriffsrechte, also Open, Embargoed, Restricted und Closed, also das wären wahrscheinlich dann Restricted und Closed, die interessant wären, also Closed heißt, das darf nur der Besitzer sehen und bei Restricted hat dann jemand
drittes die Möglichkeit, so eine Zugangsanfrage zu stellen sozusagen, also eher, das ist schwierig zu zeigen, also ich glaube, er klickt dann einfach, geht auf den Datensatz drauf, da steht dann so was wie Request Dort gibt er dann seine E-Mail-Adresse ein, mit einer
kurzen Erklärung, warum er das denn haben möchte und dann bekommt der Besitzer des Datensatzes eine E-Mail und kann den dann freigeben oder das Ganze ablehnen und dann bekommt derjenige so einen geheimen Link, wie man vielleicht von Dropbox oder sowas kennt, der dann auch ein Ablaufdatum hat, also so würde das in
dem System aktuell funktionieren. Ja, danke nochmal für den Vortrag und nun gibt es ja auch schon ganz aktive Communities so in dem Bereich, Datenrepositorien, einmal fällt mir da ein, dSpace ist glaube ich relativ weit verbreitet, Dataverse und jetzt Invenio RDM klingt so ein bisschen
in die gleiche Richtung, was ist das besonders neue, tolle an diesem Projekt? Ja, also Invenio RDM ist im Prinzip nur noch mal ein Zenodo als einfach installierbares Paket.
Wir hatten uns damals, als wir entschieden haben, uns diesen Weg zu gehen, haben wir uns auch dSpace und, mir fallen die Namen jetzt gerade alle nicht mehr ein, aber alle angeschaut und allein von dem, also Invenio hat einfach aus unserer Sicht die modernste und auch am einfachsten erweiterbare Plattform geboten, hat moderne
Webtechnologien verwendet mit Elasticsearch im Hintergrund und das hat für uns einfach den am besten skalierbaren Eindruck gemacht und mit Zenodo hat es ja auch eine Installation gehabt, die eigentlich schon gezeigt hat, dass es gut skalierbar ist und das war auch der Grund, warum wir diesen Weg gegangen sind.
Ja, und kann euer System dann auch die Genau. Also wir mussten uns bei der TIB in Hannover
registrieren sozusagen als institutionelles Mitglied sozusagen und dann erhält man Zugang zu diesem Datasite Service, über den man DOS registrieren kann. Wie genau dieser Prozess abläuft, kann ich nicht sagen, das habe ich nicht selber gemacht, aber ist auf
alle Fälle möglich und kostet, glaube ich, auch für, ich weiß nicht, ob das jemand weiß, für öffentliche Institutionen, die nicht auf Profit ausgelegt sind, kein Geld, aber da müsste man jemand fragen, der das genauer weiß.