Das Berliner Metadatenprojekt
This is a modal window.
Das Video konnte nicht geladen werden, da entweder ein Server- oder Netzwerkfehler auftrat oder das Format nicht unterstützt wird.
Formale Metadaten
Titel |
| |
Serientitel | ||
Anzahl der Teile | 9 | |
Autor | ||
Mitwirkende | ||
Lizenz | CC-Namensnennung 3.0 Unported: Sie dürfen das Werk bzw. den Inhalt zu jedem legalen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen. | |
Identifikatoren | 10.5446/57546 (DOI) | |
Herausgeber | ||
Erscheinungsjahr | ||
Sprache | ||
Produktionsjahr | 2022 | |
Produktionsort | Berlin |
Inhaltliche Metadaten
Fachgebiet | ||
Genre | ||
Abstract |
| |
Schlagwörter |
3
00:00
Computeranimation
07:26
Computeranimation
14:51
ComputeranimationBesprechung/Interview
15:13
Besprechung/Interview
16:05
BerlinBesprechung/Interview
16:30
BerlinBesprechung/Interview
16:57
Besprechung/Interview
17:18
Besprechung/Interview
17:56
BerlinBesprechung/Interview
18:25
BerlinBesprechung/Interview
19:26
Besprechung/Interview
20:08
Besprechung/Interview
20:41
Besprechung/Interview
21:04
Besprechung/Interview
22:12
Besprechung/Interview
22:47
Besprechung/Interview
23:17
Besprechung/Interview
25:09
Besprechung/Interview
25:58
Besprechung/Interview
Transkript: German(automatisch erzeugt)
00:02
Herzlich willkommen zum D-Space Praxistreffen 2022. Wir kommen nun zu einem Vortrag, den ich in der Einrichtung besonders spannend fand. Da geht es um die Koordination von Metadaten-Schematar in D-Space. Wie können sich mehrere Institutionen auf ein gemeinsames Metadaten-Schematar einigen? Hier am Beispiel der Berliner Universitäten.
00:21
Der Vortrag heute, vielen Dank dafür, von Dr. Andreas Sabis und Tatjana Fritz von der FU Berlin. Herzlich willkommen. Ja, erstmal Hallo, alle miteinander. Ich werde das im Wesentlichen vortragen. Und immer wenn es ins Detail geht, wird dann Frau Fritz Ihnen die Antworten geben,
00:40
weil sie das im Wesentlichen gemanagt hat. Was ich jetzt vortragen werde, ist zum einen ein bisschen was über die Ziele unseres Projektes. Die Ausgangssituation hier in Berlin. Und dann werde ich die beiden Schritte, die wir bis jetzt gemacht haben, vorstellen. Und ganz zum Schluss noch den Stand und das, was wir noch vor uns haben.
01:01
Und woran wir auch durchaus Interesse haben. Rückmeldungen von Ihnen, die müssen nicht heute kommen. Über manches von diesen Sachen haben wir auch länger nachgedacht. Kurz die Personen, die an dieser Arbeitsgruppe teilgenommen haben. Frau Fritz und ich, die das so ein bisschen organisieren und leiten.
01:22
Frau Schlegel, die bei uns die Leiterin der russischen Schriftstelle ist. Und sich mit diesen ganzen Arbeitsvorgängen in der Praxis auch beschäftigt. Von der HU Fromm und Sandra Gold. Ich weiß gar nicht, ob sie heute da ist. Frau Vogt habe ich heute schon gesehen, von der TU. Und Anja Siebert von der Charité.
01:43
Tatsächlich, wir haben hier nur drei DSPS6-Installationen in Berlin. Die Charité schlüpft ein bisschen traditionell seit 20 Jahren bei uns unter. Und das Ziel des Projektes war, für diese drei DSPS-Installationen, die sehr unterschiedlich sind.
02:06
So etwas wie ein gemeinsames Metadat-Modell zu entwickeln. Zum einen, weil wir alle drei über sehr langjährige Reparatorien verfügen. Oder alle vier, wenn ich die Charité als eigene Institutionen mitrechne.
02:22
Das heißt, diese Metadatenschematare sind natürlich im Laufe der Zeit und über die verschiedenen Migrationen aus den unterschiedlichen Systemen mitgenommen worden. Ich will jetzt nicht sagen gewachsen, das ist mehr ein Buch ran. Zu dem letzten Push hat das gekriegt durch die Forschungsdaten und die Generierung von APC-Daten.
02:48
Und insofern war es auch notwendig für uns, erstmal so ein gemeinsames Verständnis der Metadaten einzuführen. Also warum haben wir eigentlich bestimmte Metadaten in unseren Schemataren?
03:01
Und wenn wir fertig sind, was wir noch nicht ganz sind, werden wir zum einen Mappingroutinen für die Schnittstellen austauschen können. Weil jede Schnittstelle natürlich irgendwie unsere internen Metadaten in irgendeinem anderen Format haben will. Corration-Task ist ein zweiter Effekt, den wir haben werden.
03:25
Also dass wir schlicht und einfach Teile der Programme leichter austauschen können. Und nicht jedes Mal dort, wo dann Metadaten von Programmen oder Hilfsprogrammen aufgegriffen werden müssen, jedes Mal da was Neues zu erfinden in den drei Einrichtungen
03:43
oder zumindest langwierige Anpassungen zu machen. Ja, die Ausgangssituation, ich habe es ganz vorsichtig schon darauf hingewiesen, wir haben alle drei mehr als 20 Jahre eigene Dokumentenserver. Das heißt auch DSPS ist nicht das erste System, mit dem wir arbeiten.
04:01
Die TU hat eine Eigenentwicklung die letzten 20 Jahre gehabt, bis sie auf DSPS gewechselt ist. Die TU hat glaube ich zwei gehabt. Frau Vogt, ergänzen Sie mich, wenn ich das jetzt falsch im Kopf habe. Und auch wir hatten zwei bis drei Vorgängerversionen, bis wir jetzt DSPS sind.
04:23
Was wir auch haben neben der langjährigen Einsatz von eigenen Datenmodellen, die sich natürlich an dem orientieren, was die DNB mal ursprünglich publiziert hat, was in Dublin Core publiziert worden ist, aber auch anderen Quellen, Open Air und Bees und was, Guck, wie da alles.
04:42
Ahja, Datasite, das vergesse ich immer wieder gerne. All das schließt natürlich in diese Entwicklungen ein, mehr oder minder systematisch. Dazu kommt, dass wir unterschiedliche Workflows in den Bibliotheken haben. Daraus kommen dann auch unterschiedliche Anforderungen in den Details
05:01
der zu speichernden Daten. Und jetzt sehe ich hier oben irgendeine Chat-Nachricht, die ich nicht lesen kann. Frau Fritz, unterstützen Sie mich jetzt mal. Ich glaube, da kam die Message von Frau Vogt, was genau für eine Version bei TU eingesetzt war davor. Opus 4 habe ich jetzt auch gerade gesehen.
05:21
Ah, ok. Wunderbar. Also Sie sehen... Bei der TU Berlin gab es ursprünglich ein Opus 2 Server, dann ein Opus 3 Server, dann ein Opus 4 Server, die ich damals beim KBV schon betreut habe. Und als ich zur TU gegangen bin, haben wir das dort durch den D-Space abgelöst. Das ist viele Jahre weg auf Opus gesetzt und ist dann ins D-Space-Lager übergelaufen.
05:40
Ja, also sind zwei oder vier, je nachdem, wie man das mit den Migrationen rechnen will. Ok, also das ist die Situation, wie wir sie überall kennen, bei denen, die sehr lange Dokumentenserver betreiben und mit jeder Migration kommen dann auch neue Begehrlichkeiten und manchmal auch zwischendrin. Das heißt also, das ist wirklich eher ein Wuchern von Datenmodellen als ein Wachsen.
06:05
Gut, wie sind wir jetzt vorgegangen, um uns diesem Problem, ein einigermaßen einheitliches Metadatenschema da zu bekommen? Also wie kann man sowas machen? Wir haben zuerst mal die Metadatenmodelle der drei Universitäten
06:21
in einer Excel-Tabelle einfach nebeneinander gestellt und natürlich so sortiert, dass man natürlich mit einer gewissen Nachfrage und einem Nachjustieren gesehen hat, wo Attribute inhaltlich und in der Benennung identisch waren. Das waren aber nicht viele.
06:42
Eher hatten wir das Problem, dass Attribute die gleichen Inhalte hatten, aber unterschiedlich benannt waren, was natürlich, wenn ich irgendwas austauschen will, sofort wieder in der Bing bedeutet. Dann gab es gar nicht so wenig Attribute, die nicht in allen Modellen enthalten waren. Dann haben wir Attribute gehabt, die unterschiedliche Lösungen hatten.
07:06
Also beispielsweise feste Auswahlfelder versus freie Textfelder oder Zahlenangaben versus freie Textfelder. Solche Probleme, die natürlich auch für einen Austausch ein gewisses Problem darstellen. Und dann ist in allen drei Einrichtungen die Kommentarfelder verwendet worden,
07:29
um formalisierte oder spezifische Daten wie beispielsweise das ist eine Zweitveröffentlichung aus dem grünen Weg oder aus den Diebverträgen anzugeben. Also das werden hier für Informationen, die wir an bestimmten Stellen immer wieder benötigen,
07:44
gar keine speziellen Felder vorhanden waren. So, das war also der erste Schritt, der uns natürlich auch schon einiges an Arbeit und gemeinsame Diskussionen gekostet hat. Und dann sind wir schrittweise vorgegangen und haben einzelne Gruppen dieser Metadatenfelder,
08:05
wie sie dann in unserer großen Excel-Tabelle gewesen sind, besprochen. Und dann jeweils einheitliche Festlegungen der Namen aus den Bereichen Dublin Core, Dublin Core Terms.
08:20
Und wir haben einen eigenen Name Space namens BUA gegründet, mit dem wir vor allen Dingen dann spezifischere Sachen, die in den großen Metadatenprovidern noch nicht vorhanden sind, abzubilden. Wir haben Feldtypen festgelegt. Für jedes Feld, für jedes Metadatenfeld, was wir dann identifiziert und gemeinsam benannt haben.
08:49
Und wir legen auch gleich fest, welche Pflichtfelder wir benötigen. Das in Anlehnung an DataSite und Open Air. Es ist völlig klar, also an der Stelle wissen wir beispielsweise,
09:02
dass wir diese Informationen nach außen geben müssen über die Schnittstellen. Und deswegen legen wir das intern auch gleich fest. Das erste Ergebnis in unserer Schrittweise Bemühungen war, dass wir trennen können in einheitliche Kernmetadaten und lokale Felder.
09:22
Also es gibt tatsächlich Felder, die aus den unterschiedlichen Workflows heraus in den Einrichtungen lokal weitergehalten werden müssen oder sollen. Und die werden dann entsprechend als lokale Felder nochmal gekennzeichnet. Relativ einfach war natürlich so dieser große Block die einheitlich benannten,
09:43
gebrauchten Felder wie Titel, Autor und solche Geschichten. Obwohl es da natürlich bei der Frage Subtitel dann auch schon gewisse Diskussionen gab. Die haben wir aber inzwischen entschieden. Ebenfalls umfangreiche Diskussionen, die auch inzwischen entschieden sind, sind Anmerkungsfelder und die Subjekte.
10:03
Also da haben wir uns unter anderem über Mehrsprachigkeit, Auswahl, Ebene, Darstellungen unterhalten. Die Festlegungen sind jetzt da. Ich will sie hier heute nicht mit den Einzelheiten klären, obwohl ich bestimmt weiß, dass es hier ein paar Leute gibt, die da massig dran interessiert sind. Aber da sind wir gerne bereit, dann nochmal in Einzeldiskussionen zu gehen.
10:21
Also insgesamt haben wir nun 45 Felder in dem Kernmetadaten-Satz festgelegt. Das ist natürlich schon eine ganze Menge, ist aber noch nicht alles. Wir haben eine Reihe von Diskussionen schon geführt, ohne das bisher abzuschließen zu können, über Founding, also Trennung in Forschungs- und Open Access-Förderung. Also das ist eine große Diskussion gewesen.
10:43
Rechte, wir haben hier Lizenzrechte, Verlagsrechte, Nutzungsrechte. Da ist die AC Rights deutlich zu klein. Und wir müssen uns noch überlegen, wie wir das genau darstellen wollen. Identifier and Relations. Auch das ist bisher nur in einem ersten Überblick diskutiert worden.
11:03
Die Publikationstypen haben wir bewusst zurückgestellt. Die meisten von Ihnen haben inzwischen sicherlich die Mail gesehen, dass die neuen DINI-Typen jetzt verfügbar sind. Und da werden wir sicherlich drauf orientieren. Die Affiliation ist noch ein offener Punkt.
11:22
Also bis wohin gehen wir? FU Berlin oder Lehrstuhl für angewandte Mathematik? Am Fachbereich Mathematik und Informatik der Freien Universität Berlin. Also das ist durchaus eine Frage, die wir noch nicht geklärt haben. Und dieser Bereich Datumsangabe, da gibt es auch noch so ein paar offene Punkte,
11:44
wo wir noch keinen Abschluss gekriegt haben. Wenn wir jetzt diese Punkte abgeschlossen haben, und Sie merken schon, das wird uns sicherlich noch einige Wochen beschäftigen, werden wir dann das erzielte Ergebnis, das ist dann eine große Excel-Liste, mit den Festlegungen, Festlegungen der Typen,
12:04
Festlegungen von Auswahlfeldern und auch, zumindest so, hilft für uns selber noch mal zur erinnerungrufenden Beschreibung, welches Metadatenfeld eigentlich welche Bedeutung hat. Wir werden das noch mal abschließend beraten, auch noch mit den Kolleginnen und Kollegen über diesen kleinen Arbeitskreis hinaus.
12:25
Und dann werden wir noch einmal dieses Ergebnis auf das Entitätenmodell überprüfen, weil wir eigentlich die Entitäten, in die wir sieben, dann benutzen wollen. Das trifft vor allen Dingen natürlich die Autoren mit Orchid und Affiliations,
12:42
die ganz sicher mit diesem Entitätenmodell abgebildet werden sollen und können. Diese ganzen Founding-Projekte werden wir wahrscheinlich versuchen, mit Entitäten zu erschlagen oder abzubilden, und der gesamte Bereich von Serien und mehrbändigen Werken. Und wir haben durchaus ein Interesse, wenn es also hier jemanden gibt,
13:03
der schon ein bisschen mehr Erfahrung als wir mit den Entitäten haben, von diesen Erfahrungen auch zu hören. Da können Sie auch ganz einfach auf mich zukommen. Und dann machen wir vielleicht mal eine schöne Webac-Session, wo wir dann mit Ihnen und unserer Arbeitsgruppe über die Entitäten diskutieren.
13:23
Okay, ich will noch mal ganz kurz zum Ende zusammenfassen und dann bin ich heute auch relativ schnell, wenn ich das hier richtig sehe. 15 Minuten habe ich gekriegt, das schaffe ich. Also das Ziel war, ein einheitliches Datenmodell in den Berliner Displays-Installationen für einen einfachen Austausch von Know-How- und Softwarelösungen zu erreichen.
13:42
Wir haben zuerst unsere unterschiedlichen Metadatenmodelle verglichen. Wir haben sie auf den Kernmetadatensatz vereinheitlicht und über lokale Felder noch gewisse Erweiterungen zugelassen. Wir sind noch nicht ganz abgeschlossen, was den Kernmetadatensatz angeht.
14:02
Und die Umsetzung des Entitätmodells steht auch noch aus. Wir haben uns vorgenommen, wenn wir fertig sind, dass wir unsere Excel-Liste dann an irgendeiner geeigneten Stelle, also wahrscheinlich dann auf den Seiten des Displays-Konsortiums, zu hinterlegen, sodass man dort davon partizipieren kann.
14:22
Und wir stehen natürlich gerne auch zur Diskussion für andere Einrichtungen, die vor den gleichen Problemen stehen. Und ich weiß aus meiner langjährigen Erfahrung, dass diese Frage der Metadatenmodelle immer wieder ein beliebtes Problem darstellt.
14:42
So, ich habe meine 15 Minuten gehalten. Und ja, jetzt dürfen Sie Fragen stellen. Okay. Gut, eröffnen wir die Fragerunde. Noch ist keine Frage während des Vortrags gekommen.
15:01
Sie haben das offensichtlich gut erklärt. Ja, ich bin ja nicht in die Details gegangen. Da wird es dann spannend. Ja, oder zu spezifisch vielleicht, wer weiß. Ja. Ich finde es ein sehr spannendes Projekt, und ich würde mich freuen, wenn das hinterher vernünftig dokumentiert und öffentlich gemacht wird, und wenn man das nachnutzen kann in einer anderen Form,
15:21
weil ich schon die Hoffnung habe, dass man vielleicht doch irgendwann an den Punkt kommt. So ein beispielhaftes Themateil für Displays zu haben, vielleicht auch gleich mit den zugehörigen XML-Dateien, mit denen das einfache Displays anlegbar ist. Weil so groß sind die Hauptnutzungsunterschiede zwischen den verschiedenen Universitäten zumindest nicht. Also, disziplinspezifische Repositoren und institutionelle Repositoren
15:42
von Forschungsinstitutionen, die jetzt keine Universitäten sind, Leibniz-Institute und so weiter. Da mag das anders sein. Aber jetzt mal für den klassischen universitären institutionellen Ansatz finde ich, eigentlich kriege ich mich schon gut vorstellen, dass wir da zu was zusammenkommen. Michaela, du hast dich gemeldet. Möchtest du deinen Ton einfach einschalten?
16:02
Ja, du hast gerade gesagt, dass sich die Anforderungen von Universitäten vielleicht nicht so stark unterscheiden. Und ich glaube, dass tatsächlich unser Projekt hier ein gutes Beispiel für das Gegenteil dessen, was du gerade gesagt hast, ist tatsächlich. Also, es gibt einen sehr großen Kernsatz.
16:22
Aber es war sehr früh klar, dass wir nicht zu dem Punkt eines identischen Schemas kommen werden, weil es immer irgendwelche spezifischen Sachen gibt. Dass nur nochmal, genau, irgendwas ist immer so. Also, das muss man wirklich sagen, diese unterschiedlichen Workflows,
16:40
unterschiedlichen Anforderungen, also schon die Frage beispielsweise, die wir ja in einem vorigen Vortrag gehört hat, in welcher Form gibt es eine Unibibliografie und wie arbeitet die mit diesem System zusammen? Er fordert sofort Fragen, die sich dann mit lokalen Feldern nur noch erschlagen lassen. Da gibt es gleich die passende Frage aus dem Chat zu, wenn ich darf.
17:00
Gibt es auch ein Regelwerk, wie einzelne Felder befüllt werden sollen? Ja, wir legen tatsächlich auch fest, welche Typen diese Felder bekommen sollen. Also, ob das ein Textfeld, eine Auswahlliste, bei einer Auswahlliste, müssen wir uns dann auch auf die Auswahlfelder einigen und so ein Zeugs. Ja, das machen wir tatsächlich gleich mit. Also, als definiertes Regelwerk benutzen wir die Spezifikation von DataSight,
17:23
von OpenAir und von DINI. Also, daraus bedienen wir uns. Das ist genau, also das, was man irgendwann mal später für ein Zertifikat erfüllen muss oder wenn man irgendwie Daten abgibt, abliefert an die DNB zum Beispiel oder die zur Verfügung stellt zum Harvesten von bestimmten Diensten,
17:44
die da halt ihre Metadaten in bestimmten Formaten haben wollen. Und da gibt es immer Spezifikationen, auch die Pflichtfelder und die Ausdrehungen. Das ist dann sozusagen das, was wir uns zugrunde legen. Michael, ich habe dich gleich mit online gelassen. Ja, und nur als Ergänzung, weil ich vermute,
18:00
dass hinter der Frage noch steckt, ob es Erschließungsregeln für die wirklich... Also das, was sozusagen die Technik da nicht mehr interessiert, sondern nur noch die Bibliothekarinnen. Wie schreibe ich den Titel? Wie ist jetzt der Zeitschriftennahme anzusetzen? Wie werden Keywords erfasst? Gibt es da Regeln für?
18:23
Soweit sind wir nicht, das ist abzugleichen. Wir sind jetzt erstmal auf der Ebene Metadatenschema harmonisieren und nicht bibliothekarische Erschließungsregeln. Also eine technische gemeinsame Basis schaffen, auf der eine gemeinsame Entwicklung erfolgen kann und die Nutzung separat in eine Institution noch zu überlassen. Ja, wobei hier gibt es natürlich einen gewissen Zwang
18:44
durch RAC und unsere gemeinsamen ALMA. Also wir haben ja alle drei ALMA-Institutionen und dort gibt es natürlich verbindliche Regeln, die an der Stelle im Prinzip zumindest so eine Leitlinie darstellen, wenn man sich mit solchen Fragen auseinandersetzen muss.
19:03
Und da die aber zumindest in unseren drei Einrichtungen die eigentliche Arbeit von Bibliothekarinnen gemacht werden, die diese Regeln kennen oder kennen sollten, bin ich da nicht ganz so pessimistisch, dass das allzu weit auseinander läuft. Aber ja, das ist ein Problem natürlich, das wir nicht adressieren.
19:26
Gibt es noch etwas zu ergänzen oder kann ich zur nächsten Frage übergehen? Vielleicht wurde es übersehen, aber gibt es auch lokale Felder, die für UI, PMH und Q berücksichtigt werden oder handelt es sich nur um interne Felder?
19:40
Und falls ja, was sind die Gründe dafür? Also bisher würde ich nicht sehen, dass wir irgendwelche Felder haben, die für UI intern benutzt werden. Die tatsächlich, die lokalen Felder, das sind eher Sachen, die sich aus Workflow oder Verknüpfung mit internen Prozessen,
20:00
also Stichwort Uni-Bibliografien, eignen. Wir sind aber noch nicht ganz durch, also das könnte schon noch passieren. Also wir haben generell die Unterscheidung, interne Felder sind die, die meistens redaktionell genutzt werden für interne Kommunikation, die im Prinzip, also sozusagen nicht nach außen, nicht mal in der Anzeige
20:22
und auch nicht in den Schnittstellen erscheinen. Also das sind diese Hidden Fields. Und lokale Felder sind die, die wir für unser Datenmodell inhaltlich auch zur Verfügung stellen. Teilweise sind das auch die UI-Parameter, die wir dann später mappen auf die benötigten Formate.
20:42
Spätestens wenn es um X Meter des Plus geht, gibt es ja immer wieder Felder, die schwierig in Dublin Co-op zu bilden sind, für Felder in De-Space angelegt werden müssen, die auch über UI exportiert werden sollen, ganz bewusst, zumindest dann für das Bilden von Sets und ähnlichen Geschichten verwendet werden. Ich hoffe, das beantwortet die Frage hinreichend. Das sind einfach Nachfragen, also wir sind da ja.
21:01
Genau. Haben ja noch Zeit, ich habe mich ja an meine 15 Minuten gehalten. Sehr gut. Sehr gut. Sind auch Forschungsdaten, spezifische Metadaten berücksichtigt? Also wir haben alle drei Forschungsdaten in den System. Insofern, ja, es sind bestimmt Forschungsdaten berücksichtigt. Wir sind aber kein forschungsspezifisches Repositorium.
21:22
Das heißt, wir behandeln Forschungsdaten jetzt nicht fachdisziplinärmäßig, sondern tatsächlich eher erschließungsmäßig. Wenn also beispielsweise irgendeine GISS-Karte dort als Forschungsdaten kommen würde, dann würden wir irgendwelche Koordinaten, die zu dieser GISS-Karte gehören,
21:44
nicht ordentlich abspeichern können. Also solche Felder haben wir dann nicht, sondern die können dann nur in irgendeinen Bemerkungsfeld reingeschrieben werden oder als Übersichtskarte aus Afrika oder sowas von der Sorte verbalisiert werden. Und die eigentlichen Metadaten dann für diese GISS-Karte
22:02
müsste man in irgendeine geeignete Datei zu dieser GISS-Karte mit als Metadatum des Forschungsdatensatzes anlegen. Ich kann nur ergänzen, dass wir auch schon bis jetzt an der FU ein reparates Schema haben, also für die Eingabemaske der Forschungsdaten.
22:20
Die sieht dann etwas erweitert und umfangreicher aus als für die Publikation oder zum Beispiel für studentische Abschlussarbeiten. Und wir betrachten diese Metadaten in Gänze und daraus könnte man, also die sind dann sozusagen auch Teil dieses Kernmetadatensatzes, daraus könnte man sich dann sozusagen das Schema für Forschungsdaten,
22:42
für die Maske der Forschungsdaten dann zusammenstellen. Ja, das habe ich vielleicht vergessen nochmal deutlich zu machen. Also wir bestachten alle Metadaten unabhängig vom Plikationstyp. Das ist natürlich klar, dass man für einen Zeitschriftenartikel bestimmte Teile ausblenden kann.
23:00
Und das ist auch das, was wir tatsächlich in unserem System machen. Nichtsdestotrotz müssen natürlich die Teile, die für so einen Artikel notwendig sind, in diesem Kerndatensatz einheitlich sein. Weil wenn ich den Typartikel habe, dann muss der dann wieder überall matchen. Super. Es wurden Quation-Tasks erwähnt.
23:21
Können Sie vielleicht ein, zwei Beispiele nennen, wofür Sie die einsetzen? Frau Fritz. Na ja, also eigentlich, ja, also Sie lieben, Herr Sabes liebt die Quation-Tasks. Wir benutzen die sehr oft für Datenbereinigung. Also es passieren doch, ja, also entweder werden dann irgendwie Datenprobleme nach der Migration erst später aufgedeckt
23:47
oder es wird irgendwas anderes beschlossen, wo die Daten konsolidiert in anderes Metadatum bekommen. Also hauptsächlich für Datenbereinigung. Ein paar Quation-Tasks haben wir auch in dem Workflow eingebaut,
24:01
die sich hauptsächlich beziehen auf die Rechtevergabe, auf die aus den Berechtigungen resultierende Zugriffsrechte. Ja, so im Großen und Ganzen. Also zum Beispiel für Open Air oder für DNB. Also das sind die Sachen, die jetzt nicht der Autor eingibt.
24:26
Der erteilt nun eine Lizenz, Nutzungslizenz. Und nach der Abgabe und beim Überführen in den Workflow werden zum Beispiel per Quation-Task die Berechtigungen,
24:41
also die Rechte für die Open Access oder DNB Nutzung ermittelt per Quation-Task eben. Und ja, an sich ist diese Einsatz der Quation-Tasks beliebig erweiterbar. Von daher ist es wirklich sehr sinnvoll, das soweit einheitlich zu halten, dass man das ja irgendwie gegenseitig nutzen kann oder komplementär weitergeben kann.
25:09
Super, danke. Ich würde noch mal schauen, ob es noch Folgefragen gibt, aber das sieht nichts aus. Vielen Dank für den spannenden Bericht aus Berlin. Herzlichen Dank dafür.
25:22
Vielen Dank. Und wie gesagt, wenn noch jemand gezielte Fragen zu Einzelproblemen hat und woran wir wirklich interessiert sind, wenn jemand schon Erfahrungen oder auch Probleme mit den Entitäten hat, sich mit uns mal zusammenzusetzen, das fänden wir sehr gut.
25:41
Und dank der nun von uns allen jetzt gelernten Möglichkeiten an der FU benutzen wir nicht Zoom, sondern WebEx, aber dafür haben wir es per Datenschutzbeauftragten abgenommen bekommen, können wir also sichere Verbindungen machen. Entitäten ist spannend. Wie gesagt, hört man nicht so viel heute? Keine Ahnung, vielleicht.
26:03
Morgen gibt es noch ein paar Vorträge zu dieses B7. Ich nehme an, dass es auch dann dort noch beim Tum gehen wird. Super. Ich würde hier gerne den Sack zumachen. Herzlichen Dank dafür. Die Kontaktinformationen sind, denke ich, nämlich bekannt. Das können auch bei uns nachfragen, vermitteln wir gerne. Vielen Dank für den Vortrag.