Diskussion
This is a modal window.
The media could not be loaded, either because the server or network failed or because the format is not supported.
Formal Metadata
Title |
| |
Title of Series | ||
Number of Parts | 36 | |
Author | ||
License | CC Attribution 3.0 Unported: You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor. | |
Identifiers | 10.5446/51058 (DOI) | |
Publisher | ||
Release Date | ||
Language |
Content Metadata
Subject Area | |
Genre |
5
11
13
14
15
16
18
19
31
32
36
00:00
WikiACCESS <Programm>String (computer science)MODULAZoom lensMenu (computing)World Wide WebSurfaceXML
00:29
GravitationComputer hardwareMathematicianFunction (mathematics)Data storage deviceLinieVersion <Informatik>Architecture of Integrated Information SystemsWEBMusical ensembleMetadataFIS Informationssysteme und Consulting GmbHWikiMoment (mathematics)Link (knot theory)Social classMeeting/Interview
04:12
WEBVersion <Informatik>Computer animationMeeting/Interview
04:49
Version <Informatik>Meeting/Interview
05:18
Version <Informatik>Texture mappingInformationComputer animationMeeting/Interview
06:17
EditorInformationZahlLevel (video gaming)Grand Unified TheoryNumberLink (knot theory)Library catalogStatement (computer science)TaligentSystems <München>Texture mappingCocoa <Programm>WikiSoftwareClient (computing)Meeting/Interview
11:35
ForcePhysical quantityTransmitterHausdorff spaceLink (knot theory)Library catalogEckeSocial classOpen setSpring (hydrology)WikiValue-added networkDefault (computer science)Meeting/Interview
16:54
Tape driveOnline chatTwitterVaporMeeting/Interview
Transcript: German(auto-generated)
00:01
Ja, ich würde sagen, die allgemeine Diskussion ist vielleicht eröffnet. Vielleicht können wir unsere anderen Diskutantinnen noch dazuschalten. Jakob, Andrea, sie ist gerade nicht zu haben. Genau, und das vielleicht nochmal insgesamt eröffnen oder gegeneinander halten.
00:22
Wir haben zwei Tools gesehen. Ah, da kommt Andrea auch wieder. Ich nehme dich mal mit dazu. Wie, genau, jetzt fällt mir keine Eingangsfrage ein. Möchtet ihr auch noch was beitragen?
00:47
Ja, Andrea, du bist gemutet, vermute ich. Ja, Philipp, ich fand das sehr interessant, weil auch viele meiner Kollegen so Tero benutzen. Hast du denn irgendwo so eine Einführung sozusagen für Dummies irgendwo liegen,
01:07
dass sich dann Leute darauf aufmerksam machen können, dass die vielleicht mal gucken, ob sie das machen können und dann die Datenbank, die sie selber pflegen, auch gleichzeitig eben für Wikidata nutzbar machen?
01:21
Also es gibt auf Wikidata selbst eine Zotero-Seite. Also das heißt, da ist auf Englisch ein bisschen die Verknüpfung beschrieben. Es ist zum einen beschrieben, dass man auch nur einfach schon die Daten aus Wikidata in Zotero speichern kann,
01:42
aber eben auch genau dieser umgekehrte Weg. Das ist aber sozusagen der erste Teil, den ich noch gezeigt habe. Also das mit diesen PQ und QIDs, ja, sagen wir mal so, das ist noch recht neu. Ich glaube, eine einfache Einführung, wenn du das vielleicht nochmal ins Aesopad kopieren könntest, das wäre ganz lieb.
02:02
Ich kopiere den Links gerne hinein. Die Folien hier gibt es ja auch sozusagen online dann. Und ja, also vielleicht hilft das schon. Ansonsten gerne auch einfach, wenn man sagt, ach, da gibt es ein paar Leute, dann wir sehen ja heutzutage so ein kurz online was aufsetzen und dann spricht man miteinander
02:24
oder irgendwie so. Das geht ja relativ schnell. Also wenn da Bedarf ist, kann ich da auch gerne mal was dazukommen. Dann spreche ich ein bisschen langsamer und dann haben wir etwas länger als 20 Minuten vielleicht Zeit. Dann kann man das gern machen.
02:41
Danke. Ich habe auch noch eine Frage an Jakob. Jakob, die Version, ja, die Version sind ja irgendwie echt tricky. Was ich also nicht gleich gesehen habe in deiner Demonstration von dem Tool ist, wenn du die Auswahl machst, machst du da, gibst du da an, zu welcher sozusagen Ausgabe der Klassifikation sich das bezieht
03:06
oder taucht das irgendwo später auf? Nee, im Moment ist wirklich jedes Klassifikationssystem hat einfach nur eine Version, die erst da drin ist. Hast du irgendwo die Metadaten angegeben, welche Version das ist?
03:21
Ja, die Version, dann bei den einzelnen Konzepten oder Klassen ist manchmal mit dabei, wann die eingeführt wurden, also im Datum. Und ansonsten die Mathematics Subject Classification haben wir glaube ich in zwei Versionen. Das sind dann einfach zwei verschiedene Klassifikationssysteme. Aber diese, ja, wie das über die Zeit sich ändert, so eine Funktion haben wir noch nicht drin.
03:45
Also ich kann vielleicht einfach kurz nochmal sagen, warum das so, also ich arbeite in einem anderen Projekt, haben wir mit Aida und Ronald Siebes zusammen überlegt, wie könnte eine Architektur von Link Data aussehen für die UDC.
04:00
Ja, und da hat es schon mal einen Versuch gegeben. Da gab es glaube ich auch ein Scos, eine Scos-Version von dem Summary. Aber einer der Gründe, warum das UDC-Konsortium das wieder auf Eis gelegt hat, ist, dass so viele UDC-Nummern aus den Bibliotheken jetzt halt praktisch auf das Web strömen in einer Link-Daten-Form.
04:25
Und dass es total unklar ist, zu welchen Versionen die eigentlich Bezug haben. Und in der UDC selber ist es eben so, dass da immer wieder Alterationen, also immer wieder Veränderungen gemacht werden. Und manchmal durchaus auch, also fundamentaler.
04:43
Und das heißt, du kannst nicht einfach eine Nummer nehmen und die in das heutige UDC-Universe schmeißen. Das kann sein, dass du zu ganz komischen Interpretationen kommst für die Bedeutung. Deshalb ist in dem jetzigen Konzept der Architektur, was noch diskutiert wird, ist eben angedacht worden,
05:06
also selbst in der URI also eine Verweisung zu machen zu der Version von dem Master Reference File. Ja, wo dieses Konzept ist. Also es hat alle Vor- und Nachteile. Und wir haben auch diskutiert, warte mal, das war das eine, also eine Versionslink.
05:22
Und der andere ist, dass wir diskutiert haben, dass wir praktisch diese Compound-Nummer auseinandernehmen. Und das ist ja bei vielen Klassifikationen hast du ja Kombination. Und das für jedes dieses Element einzeln sozusagen ein Verweis ist, in welcher Version das auftaucht.
05:41
Ja, das ist einfach nur noch mal ein Kommentar dazu. Wir sind da schon ein paar Jahre dabei mit dem Projekt, aber trotzdem sind halt noch so ein paar dicke Brocken, die wir noch nicht eingegangen sind, weil es einfach so viel ist. Also erst mal, dass überhaupt das Mapping einfacher zu erstellen ist und die Vokabulare in eine einheitliche Brausing-Oberfläche zu bekommen.
06:03
Das war unser erstes Ziel. Und da kommt man glaube ich schon ganz weit mit. Ja, aber natürlich mit der Versionierung, das dürfen wir nicht einfach ignorieren. Ja, die Gefahr ist eben, dass wir Informationen oder dass dadurch Informationen produziert wird,
06:21
die selber mehr verrauscht ist, als man eigentlich möchte, dass sie verrauscht ist. Ja, das ist halt die große Gefahr dabei. Aber ich bin mir bewusst, dass du mir dessen bewusst bist. Aber es gibt eben keine einfache Lösung. Ich denke, man muss erst mal anfangen und nicht das perfekte System schon am Anfang haben.
06:44
Da komme ich so sehr aus der Wikimedia-Bewegung, die einfach mal loslegen. Und plötzlich ist da was ganz Gutes. Aber es geht natürlich nicht immer. Also bei Philipps ist mir auch eingefallen, mit Zotero hatte ich auch schon vor fast zehn Jahren mal angefangen zu überlegen, dass unsere Bibliothekskataloge,
07:01
ob man die nicht mit Zotero als Client steuern könnte. Dass halt dort einfache Änderungen über Zotero laufen. Weil natürlich nur Bibliothekare sonst Bearbeitung vornehmen, also vielleicht eine Sacherschließung. Aber da sind auch, ja, meine JavaScript-Fähigkeiten waren da noch nicht gut genug.
07:20
Und hier kann man ziemlich viel gerade in die Usability reinstecken. Das haben wir auch die Erfahrung gemacht. Also da ist das mit dem Software schon ganz gut, was da möglich ist. Aber es ist immer die Frage, wie weit macht man doch ein Tutorial und das noch ein bisschen einfacher oder besser direkt auf die Nutzer zugehen und denen das erklären.
07:42
Wie weit sind denn eure Tools genutzt? Gibt es da Zahlen, die ihr sagen könnt? Philipp googelt schnell oder guckt irgendwo nach. Das Einzige, was ich sagen kann, ist, glaube ich, wie viele diesen Baustein integriert haben.
08:01
Aber da müsste ich jetzt auch kurz gucken, wo ich die Zahlen kriege. Vielleicht ist Jakob da schneller. Genaue Zahlen kann ich nicht geben, aber ich kann schon mal sagen, dass die Zahlen eher enttäuschend sind bisher. Oder man muss oft dann nochmal direkt Leute ansprechen, weil die Hauptzielgruppe, die Bibliothekarin und die Bibliothekarin,
08:25
viele haben dann anderes zu tun. Und dieser Mehrwert, warum überhaupt diese Mappings erstellt werden sollen, erschließt sich nicht sofort. Da sind wir dabei, jetzt die Mappings auch in den Katalog wieder zurückzuspielen, dass man darüber halt leichter Sachen finden kann. Und ich denke, das wird dann nochmal eine Motivation sein.
08:43
Aber wir müssen halt schon einzelne Leute direkt dafür freistellen, um massenweise Mappings zu erstellen. Also die, wo es viel genutzt wurde, das waren dann oft so einzelne Vokabulare. Wie gesagt, für dieses Vokabular wollen wir abschaffen oder ändern. Und das soll einmal gemappt werden.
09:00
Und dann ist das mit mehreren Leuten angegangen. Und das ist so Projektcharakter. Während Leute, die es regelmäßig nutzen, ist wirklich eine Handvoll. Aber man kann ja dein Tool auch, oder das Tool, was ihr erstellt habt, auch für andere Mappings verwenden. Also unabhängig von Wikidata. Genau, also das, was ich gezeigt habe, war nur Wikidata.
09:22
Aber der Ursprung war halt für Systeme. Philipp, hast du herausgefunden, wie die Zahlen sind? Ich habe ein paar Zahlen, ja. Auch enttäuschend, wie bei Jakob. Also ich bin zufrieden. Ich meine, es gibt 25 Wikidata-Editors, die diesen Zotero-Template eingebunden haben.
09:44
Und ich glaube, was sehe ich noch, bei GitHub, es gibt sechs Personen, die swatschen, 30 Sternchen und 13 Forks. Also ich finde das GitHub-Projekt ganz viel eigentlich. Und das werden ja vielleicht nach der Konferenz jetzt noch mehr.
10:00
Ja, übrigens, ich nutze ja auch Kokoda, beziehungsweise die Mappings dann bei Malibu nach, also bei einem anderen Tool, dass ich die jetzt anzeigen lasse und habe dort auch den Link drauf. Also da müssten eigentlich teilweise die Bibliothekare auch nachgucken im Sinn von, welche RVK-Stelle ergebe ich da jetzt.
10:24
Oder ich habe noch keine RVK-Stelle, aber eine DDC-Stelle halt. Und wenn dieses Mapping nicht da ist, dann wird die DDC auf Kokoda verlinkt sozusagen. Also dann könnte man die halt auch vielleicht einfach mal schnell nachtragen, ist die Idee.
10:43
Okay. Also ich habe noch eine Frage vielleicht. Ich hoffe, dass das nicht zu groß ist. Ich finde irgendwie spannend, fand ich auch diese klassischen Systeme wie jetzt DDC, UDC, RVK. Und auf der anderen Seite können wir einfach sagen,
11:02
wir können ja im Prinzip mit jeglichen Wikidata-Element auch eine Erschließung machen. Und das hat ja eine URI und ist ja auch irgendwie ein Konzept. Wie ist dieses Spannungsverhältnis? Wie ist das? Ja, Meinungen dazu oder?
11:25
Also die Frage, warum schaffen wir nicht alle Systeme vokabularer ab? Wir haben doch Wikidata, da ist alles drin überspitzt. Und da würde ich nicht direkt von der Hand weisen. Also bei neuen Sachen würde ich mir erst mal Wikidata angucken,
11:41
ob das hilft. Man hat halt nur oft das, dass ich gar nicht so ein Universalsystem haben möchte, sondern nur beispielsweise bis zu einer bestimmten Tiefe. Also das nicht zu viele Klassen, dass es sich, ja in einigen Bereichen ist ja total tief bei Wikidata oder die Hierarchie nicht so sinnig.
12:00
Oder man möchte halt nur Orte haben und Personen oder Organisationen oder Themen aus einem bestimmten Bereich. Also wenn sich das fachlich oder anderweitig abgrenzen lässt, dann macht halt ein eigenes System ein eigenes Vokabular immer Sinn. Aber das sollte halt dann auch gegen Wikidata gemapt werden. Wenn diese großen Bibliotheks, allgemein Bibliotheksysteme,
12:25
wenn man sowas nicht hätte, würde es glaube ich keinen Sinn machen, das jetzt nochmal neu sowas ins Leben zu rufen, sondern da über Wikidata zu gehen. Ist aber, ja.
12:41
Naja, ich denke man darf dabei eben nicht, also ein zentraler Punkt wäre sicher gut. Da würde ich dir auch zustimmen. Aber man darf eben nicht vergessen, dass es immer wieder spezifische Communitys sind. Also was ich von außen beobachte jetzt für einen anderen Fall,
13:00
und zwar ist das also Datensammlung im Bereich von Covid und wissenschaftlicher Literatur zu der Pandemiks. Da gibt es ganz verschiedene Gruppen. Da gibt es Gruppen in dem Wikipedia- oder Wikimedia-Raum. Aber da gibt es auch Gruppen außerhalb. Also ich habe zufällig zwei Vorträge gehört, eine von der Coronavai-Gruppe und eine von einer Wikimedia,
13:22
sozusagen in Wikimedia operierenden Gruppe. Also faszinierende Vorträge, aber die Leute reden nicht miteinander. Die sind also, beide Gruppen sind beschäftigt sozusagen überhaupt erstmal mit der Technologie, die sie selber beherrschen. Also da was zu bauen.
13:41
Und das hat auch eine innere Logik, aber es führt nicht unbedingt dazu, dass also dann Kräfte gebündelt werden können. Und ihr verweist auf Wikidata, weil ihr da drin zu Hause seid, aber viele andere Leute sind darin nicht zu Hause. Also was ich höre von dem UDC-Konsortium,
14:02
um das als Beispiel zu nehmen, die in dem UDC-Konsortium sind eben große, sozusagen Bibliotheken vertreten, in deren Katalogen die UDC also angewendet wird. Und die das also nach wie vor brauchen. Die also brauchen, dass die Klassifikation abtodet gehalten wird.
14:21
Die also auch benutzen, dass man da also diese verschiedenen Sprachen hat, weil das eben eine Dezimalklassifikation ist. Und man dann praktisch diese verschiedenen sprachlichen Ausgaben hat. Das ist ja auch eine große Kraft von dieser Art von Klassifikation. Also das ist eben das, was ich auch sagen wollte,
14:44
dass es eben sozial konstruiert ist. Und das heißt dann auch, dass es in kognitiven Ecken sitzt. Und solange man sich dessen nicht bewusst ist, dann kann man auch nicht versuchen, da zu übersetzen und was zu machen.
15:03
Keine Lösung, nur eine Meinung. Das stimmt schon. Und Wikidata ist halt auch zunehmend fuzzy, sage ich mal. Unter einem Wikidata-Item sollen alle Wikipedia-Sprachversionen miteinander verlinkt werden. Und das ist schon allein durch die Sprachen der Begriffumfang ein bisschen unterschiedlich.
15:24
Und es ist halt weniger Kontrolle da, das System ist sehr dynamisch. Also da gibt es auch Gründe, andere Sachen zu benutzen. Aber ich würde halt in jedem Fall, Wikidata ist so das zentrale System, wenn man auch in andere Daten machen rein möchte, da zu schauen, ob es nicht Sinn macht, gegen Wikidata zu verlinken.
15:43
Und ich denke eben, was wichtig ist, ist, dass solche Möglichkeiten offen angeboten werden. Also wir haben auch ein Projekt gemacht zum historischen Zensus in der historischen sozusagen Volkszählung in der Niederlande. Albert Morogno und Ashkan Ashpur waren die beiden sozusagen.
16:02
Christoph Guerree als Postdoc, zwei PhD-Studenten im Postdoc. Und die Computerwissenschaftler gucken dann halt, welche Quellen sind eben offen? Welche Quellen kann man benutzen? Mit welchen Quellen kann ich umgehen? Und wenn die Quellen gar nicht offen sind, dann stoppt da schon der Prozess überhaupt nachzudenken.
16:20
Und das ist eben das große Plus in der Wikimedia, in dem Wikimedia-Universe. Dass es also per Default offen ist, ja. Ja, das ist halt sehr bedauerlich. Also wir haben ja viel mit der Duodezimal-Klassifikation gemacht. Und da stellt OCLC sich selber an den Bein, dass sie das nicht freigeben, weil das wird halt dann immer weniger genutzt.
16:42
Oder man könnte halt wirklich sehr viel mitmachen. Ja, da sind ein paar Bretter zu wohnen, immer mal wieder nachzufragen. Genau, bei der UDC, die haben eben die Entscheidung gemacht, dass sie die in Summary auf jeden Fall öffentlich machen, ja. Und auch also automatisch ansprechbar machen. Aber sind eben zurückhaltend, was jetzt sozusagen,
17:02
dass also die mehr detaillierten Varianten gehört, weil sie da eben auch Abonnementen haben, für die sie dann arbeiten. Also da ist es eben noch das klassische Lizenzmodell, ja. Und klar, bei OCLC ist das, die Erfahrung habe ich auch gemacht, ja. Dass die im Prinzip offen sind für Forschungskollaborationen,
17:22
aber in der Praxis dann es schwierig ist. Okay, ich glaube, wir sind jetzt fünf Minuten über der Zeit. Gibt es noch was, was ihr unbedingt ansprechen möchtet? Oder sonst würde ich die Session schließen.
17:41
Ich bedanke mich sehr, sehr herzlich bei Andrea Scharnhorst, bei Philipp Zumstein und bei Jakob Voss. Und genau, uns bleibt noch anzukündigen, dass wir morgen eine weitere Session hosten, Jakob und ich. Jetzt muss ich da gerade mal hinscrollen.
18:00
Und da geht es los um 12 Uhr UTC. Und das ist dann 13 Uhr in Deutschland, auch wieder auf Deutsch. Da wird es gehen, da wird der Jens Bemmel von der Slog Dresden, also auch Bibliotheker, sein Projekt die Datenlaube vorstellen. Dann wird der Christian Erlinger aus Wien sprechen.
18:23
Und, ach ja, danach stelle ich auch noch was vor. In einer Stunde geht es ja weiter mit dem nächsten WikiSight-Session. Und da ist ja auch noch mal über Oberflächen, also wie die bibliografischen Daten genutzt oder bearbeitet werden.
18:41
Also bin ich auch mal gespannt. Genau, also wir sehen uns im Chat oder im Stream oder bei Twitter und so weiter. Alles klar, gut, dann bis dahin. Ciao. Tschüss.