We're sorry but this page doesn't work properly without JavaScript enabled. Please enable it to continue.
Feedback

Quo vadis Peer Review?

00:00

Formal Metadata

Title
Quo vadis Peer Review?
Title of Series
Number of Parts
90
Author
Contributors
License
CC Attribution 3.0 Germany:
You are free to use, adapt and copy, distribute and transmit the work or content in adapted or unchanged form for any legal purpose as long as the work is attributed to the author in the manner specified by the author or licensor.
Identifiers
Publisher
Release Date
Language

Content Metadata

Subject Area
Genre
Abstract
Das klassische PeerReview-Verfahren ist aus vielen Gründen in der Kritik. Kann der Einsatz von Bibliometrie oder #OpenPeerReview ein Ersatz sein?
66
Thumbnail
22:52
Computer animation
Computer animation
Computer animation
Computer animation
Computer animation
Computer animation
Computer animation
Computer animation
Computer animation
Computer animation
Computer animation
Computer animation
Meeting/Interview
Transcript: German(auto-generated)
Herr Dr. Mittermeier, Sie sind seit über zehn Jahren Leiter der Zentralbibliothek am Forschungszentrum Gülich. Sie kommen wie ich selbst ursprünglich aus der Forschung. Von Haus aus sind Sie nämlich promovierter Chemiker und haben, wie ich Ihrem Lebenslauf entnehmen konnte, während Ihrer Promotion sogar zwei Forschungsaufenthalte auf dem
Forschungsschiff Polarstern absolviert, um die ich Sie zugegebenermaßen etwas beneide. In Ihrem Vortrag setzen Sie sich mit dem klassischen Peer-Review-Verfahren und der Kritik daran auseinander und widmen sich der Frage, ob der Einsatz von Bibliometrie oder Open Peer-Review ein Ersatz dafür sein kann. Ich bin sehr gespannt auf Ihre Antworten darauf.
Ja, vielen Dank für die freundliche Einführung. Sieht man jetzt meine Folien? Ja. Gut, dann lege ich los. Peer-Review. Peer-Review ist ein Verfahren zur Qualitätssicherung.
Diese Definition aus der Wikipedia greift schon viele wichtige Aspekte, die Peer-Review-Kennzeichnungen aus. Zu ergänzen wäre allerdings, Peer-Review wird nicht nur eingesetzt, um
wissenschaftliche Arbeiten und Projekte zu begutachten, sondern auch als Begutachtung im Rahmen von Berufungsverfahren sowie zur Evaluierung von Arbeitsgruppen bis hin zur Evaluierung der Forschung eines ganzen Landes im Vergleich zu anderen Ländern.
Peer-Review wurde in Anführungszeichen erfunden von Henri Oldenburg. Er war Herausgeber der Philosophical Transactions, einer sehr, sehr alten Zeitschrift, die herausgegeben wird von der Royal Society.
Und er hatte die Idee, die Einreichungen für diese Zeitschrift vor ihrer Veröffentlichung zunächst von anderen Mitgliedern der Society begutachten zu lassen. Und dieses Verfahren wurde dann später auch von anderen wissenschaftlichen Gesellschaften übernommen,
beispielsweise die Royal Society of Chemistry Ende des 19. Jahrhunderts, die APS Anfang des 20. Wobei selbst beim Flagship Journal den Physical Reviews erst in den 1960er Jahren die Peer-Review-Begutachtung obligatorisch wurde.
Und bei Nature, einem der wichtigsten und angesehensten Zeitschriften überhaupt, wurde Peer-Review erst im Jahr 1973 obligatorisch. Wenn also gesagt wird, dass Peer-Review mit wissenschaftlichem Publizieren untrennbar verbunden sei,
so kann man daran sicherlich ein Fragezeichen machen, denn niemand wird bezweifeln, dass in den 1950er Jahren auch schon vernünftige Wissenschaft publiziert wurde. Es gibt eine Reihe von Aussagen über Peer-Review, was Peer-Review beiträgt zur Verbesserung der Qualität der Publikation.
Vieles davon ist richtig. In der Plakativheit, in der ich es hier dargestellt habe, ist es aber sicher nicht richtig. Ich warte gleich bei der Kritik an Peer-Review auf einige Aspekte noch zu sprechen kommen. Unzweifelhaft ist aber, dass Peer-Review eine Selbstregulierung innerhalb des Fachgebietes darstellt.
Es ist also nicht so, dass irgendjemand von außen, beispielsweise die Politik, sagt, was publiziert werden darf und wie, sondern das regelt das Fach, das regelt die Fachcommunity jeweils selbst.
Und ein weiterer sehr wichtiger Aspekt ist die Gatekeeper-Funktion. Es gibt ja Zeitschriften, die hochselektiv sind, mit Ablehnungsraten von 80, 90 Prozent. Niemand würde, so glaube ich, ein Interesse daran haben, in einer solchen Zeitschrift zu publizieren, wenn
die, sagen wir mal, 10 Prozent am Ende tatsächlich publizierten Artikel durch ein Lotterieverfahren ausgewählt würden. Sondern das akzeptiert man nur und im Gegenteil, man ist ja sogar sehr bestrebt, dort zu publizieren, weil die Annahme beziehungsweise Ablehnung auf eine wissenschaftliche Begutachtung beruht.
Das heißt natürlich auch, Verlage haben ein hohes kommerzielles Interesse an Peer-Review, nur Peer-Review sichert den Fortbestand der Journals, so wie wir sie kennen. Die innere Einstellung zu Peer-Review bei Verlagen und Zeitschriften kann da durchaus etwas anders sein.
DeLancet schrieb 1989, dass sie sich selbst als Peer-Reviewed betrachten, auch wenn sie keineswegs alle Artikel nach außen geben und nur intern eine Entscheidung treffen.
Und um dem Ganzen noch die Spitze aufzusetzen, ein früherer Editor von DeLancet sagte einmal, wenn er den Stapel an Einreichungen, die am Ende publiziert werden und den Stapel der Einreichungen, die
abgelehnt werden, austauschen würde, dann hätte das weder für die Zeitschriften noch für die Leser eine große Auswirkung. Das stellt natürlich Peer-Review schon in Frage, denn wenn es quasi egal ist, was publiziert wird, dann brauche ich auch nicht eine so aufwändige Entscheidung zu treffen.
Ja, aufwändig, das wäre mal so ein erster Kritikpunkt an Peer-Review. Peer-Review kostet die Zeit der WissenschaftlerInnen und damit auch ist es teuer, denn Arbeitsstunden von WissenschaftlerInnen sind nicht eben billig. Man muss auch bedenken, man muss wesentlich mehr begutachten, als man selbst publiziert.
Wenn man mal als Maßstab nimmt, dass die Zeitschriften im Durchschnitt eine Ablehnungsquote von 50 Prozent haben und wenn man im Durchschnitt zwei Gutachterinnen pro Publikation annimmt, dann müssen alle viermal so viel begutachten, wie sie selbst publizieren, damit das System insgesamt in der Waage ist.
Zweiter Kritikpunkt, Veröffentlichungen werden verzögert und das wird durch die Ineffizienz des Verfahrens sogar noch verstärkt. Denn wenn die ersten Gutachterinnen abgesagt haben und das geschieht sehr häufig,
dann müssen erst die nächsten angefragt werden und das Ganze kann lange dauern. Ich hatte erst gestern Kontakt zu einem Autor, der hat eine Publikation im Jahr 2016 eingereicht, die im Jahr 2020 publiziert wurde. Wenn Gutachterinnen neuen Ansätzen gegenüber wenig aufgeschlossen sind, dann
können innovative und unkonventionelle Ideen durch Peer Review behindert werden. Beispielsweise Enrico Fermi hat bei Nature seine Theorie des Beta-Zapfais eingereicht, der Gutachter lehnte das mit dem Kommentar ab. Die Manuskript contains speculations too remote from reality to be of interest to the reader.
Also, der war einfach der Ansicht Beta-Zapfai sei so was Unsinniges, das könne man in Nature nicht abdrucken und tatsächlich Beta-Zapfai existiert. Enrico Fermi hat das dann eben anderswo publiziert.
Entgegen der vor allem in der Öffentlichkeit oft geäußerten Annahme, Peer Review stelle die Richtigkeit der Befunde einer Publikation sicher, sind begutachtete Arbeiten selbst in hochrangigen Zeitschriften nicht frei von Fehlern oder gar von wissenschaftlichem Betrug.
Der Beispiele hierfür sind Legion und es gibt ja sogar Untersuchungen, dass je höher der Impact Faktor einer Zeitschrift, desto größer ist die Wahrscheinlichkeit, dass ein Artikel korrigiert oder zurückgezogen werden muss. Gutachter können das Paper absichtlich ablehnen oder zumindest den Prozess
verlangsamen und in der Zwischenzeit die Ergebnisse selbst nutzen und veröffentlichen. Auch hierfür gibt es viele Beispiele, die auf der Seite RetractionWatch.com dargestellt sind.
Die Reproduzierbarkeit und Zuverlässigkeit von Peer Review ist schlecht. Mehrere Gutachterinnen stimmen selten in ihrer Empfehlung überein. Das heißt, dass das Schicksal eines bestimmten Vorschlags, der Annahme oder Ablehnung, nur teilweise durch seinen wissenschaftlichen Wert bestimmt wird.
So gab es zum Beispiel mal eine Untersuchung von Proposals bei der National Science Foundation in den USA. 150 Proposals aus drei Fachgebieten, je zur Hälfte abgelehnt und angenommen, wurden kurz danach einem neuen Set von Gutachterinnen zur Begutachtung gegeben.
Die Korrelation der Gutachten war zibbelig keine Bücher. Beispielsweise wurde eine Publikation in Chemie von Vormars Platz 33 im neuen Ranking auf Platz 3 eingestuft.
Was vorher Platz 8 und damit natürlich gefördert war, landete abgeschlagen auf Platz 50. Single Blind Review, also die Gutachterinnen wissen, wer den Artikel geschrieben hat, die Autorinnen wissen aber nicht, wer begutachtet hat,
ist einer Voreingenommenheit von Gutachterinnen ausgeliefert und somit ist die Fairness des Verfahrens fraglich. Es gibt beispielsweise Untersuchungen, dass Einreichungen von Frauen systematisch schlechter bewertet werden als von Männern.
Und das Geschlecht einer Person ist ja, wenn man den Namen kennt, nun sehr leicht festzustellen. Das heißt also, dieses Single Blind Review, das häufigste angewendete Verfahren, bietet an der Stelle auch nochmal einen ganz deutlichen Angriffspunkt. Was kann man stattdessen tun?
Ein Ansatz wäre die Verwendung bibliometrischer Methoden, vielleicht nur ganz ganz kurz. Es wird ja dem meisten bekannt sein, man kann die Zahl der Publikationen zählen, die Zahl der Zitationen, man kann die Quotienten daraus bilden. Das wäre dann die Zitationsrate. Und dann gibt es eine ganze Reihe, hier sind nur einige aufgezählt, von abgeleiteten Indikatoren.
Oftmals sind sie fällt normalisiert oder auf eine Zeitschrift normalisiert. Das bedeutet, es wird berücksichtigt, dass in den unterschiedlichen Fachdisziplinen die Zitationsraten sehr unterschiedlich sind, ebenso in den verschiedenen Zeitschriften.
Und die Idee, die dahinter steckt, ist nun, wenn man beispielsweise ein Berufungsverfahren durchführt, dann kann man entweder sich die Publikationen der Aspiranten ansehen oder man kann auch einfach bibliometrische Indikatoren verwenden. Also wie viele Publikationen haben die Leute veröffentlicht, wie häufig wurden sie zitiert etc.
Und die Frage ist, kann das eine Alternative sein? Es gibt eine ganze Reihe von Studien und ich stelle die Ergebnisse hier kurz vor. Studien, die sich über die Entscheidung von Förderanträgen, mit
der Entscheidung über Förderanträge befasst haben, liefern keine eindeutigen Ergebnisse. Manche zeigen eine positive Koalition, andere nicht. Bei Berufungsverfahren ist die Lage ebenfalls wenig überzeugend. Ganz einfache Frage, ist Kandidatin A besser als Kandidatin B?
Da hat Bibliometrie, bibliometrische Indikatoren, eine Übereinstimmung von 75% ergeben, mit dem, was die Begutachtung ergeben hat. Dann kann man sagen, 75% ist nicht schlecht. Andererseits, 50% kommt ja schon allein dadurch durch den Zufall sozusagen.
Mit 50% Wahrscheinlichkeit hat man bei zwei Personen die richtige Reihenfolge schlichtweg durch Zufall. Also das ist insgesamt wenig überzeugend. Besser ist es, wenn man Forschungsgruppen bewertet, wobei es hier stark vom wissenschaftlichen Bereich abhängt und vom gewählten Indikator.
Und nationale Forschungsbewertungen, von denen es ja auch eine ganze Reihe gibt, beispielsweise wurde in Deutschland mal im Auftrag des Wissenschaftsrates die Soziologie und die Chemie bewertet. Das sind die Ergebnisse ähnlich wie bei Forschungsgruppen.
Und als Faustregeln kann man festhalten, es funktioniert in den Naturwissenschaften besser als in den Reistes- und Sozialwissenschaften. Feldnormalisierte Indikatoren sind besser als Basisindikatoren. Und je größer das Untersuchungsobjekt, desto besser funktioniert es. Also einfach formuliert, Bibliometrie kann man nicht verwenden,
wenn es um die Besetzung eines Lehrstuhls für Literaturwissenschaften geht. Bibliometrie kann man verwenden, wenn es um die Evaluierung der Fachbereiche Chemie in Deutschland geht. Letztes Kapitel Open Peer Review. Open Peer Review ist der Versuch, Prinzipien von Open Science auf Peer Review anzuwenden, zu übertragen.
Das bedeutet zum Beispiel, dass die Identität von Gutachterinnen und Autorinnen offengelegt wird, dass die Gutachten veröffentlicht werden und auch, dass die breite Öffentlichkeit sich an der Begutachtung beteiligen kann.
Oftmals wird es dadurch gewährleistet, dass auf der einen Seite einzelne Gutachterinnen eingeladen werden, explizit eingeladen werden, ein Gutachten zu stellen. Und andererseits hat aber auch die gesamte Fachöffentlichkeit die Möglichkeit, im Internet sich an der Begutachtung zu beteiligen.
Open Peer Review ist, das zeigen die Beispiele vieler Verlage, in der Praxis tatsächlich durchführbar. Open Peer Review hat kaum negative Auswirkungen. Es wurde in einer einzelnen Studie bemerkt, dass die Ablehnungsquote bei der Einladung bei Open Peer Review größer ist,
als beim konventionellen Peer Review. Es führt allerdings oftmals zu qualitativ besseren Gutachten. Die Gutachterinnen geben sich offenbar mehr Mühe und es bietet auch das Potenzial,
ein Anerkennungssystem für Gutachterinnen zu schaffen. So etwas wurde ja auch schon ins Leben gerufen. Mit Open Peer Review ist das natürlich besser möglich, denn da ist die Identität der Gutachterinnen nun mal passé bekannt. Und schließlich, Open Peer Review ist ethisch überlegen.
Das Verantwortungsbewusstsein der Gutachterinnen nimmt zu. Die Voreingenommenheit nimmt ab und die Gefahr des Datendiebstahls wird minimiert. Eine Stimme sagt sogar, es gibt ethisch gesehen nur zwei Systeme, die gerechtfertigt sind.
Entweder komplett offen oder komplett geschlossen, wobei komplett geschlossen eigentlich bedeutet, es muss eine Brandmauer sogar innerhalb der Zeitschrift geben. Also eine Person nimmt die Publikation an, anonymisiert sie, gibt sie weiter an eine andere Person
und diese andere Person gibt sie dann weiter an die Gutachterinnen und Gutachter. Aber hier besteht auch das Problem, auch das wurde untersucht, dass es Gutachterinnen oftmals gelingt zu identifizieren, wer denn die Autorinnen sind.
Stellen Sie sich vor, Sie bekommen einen Artikel über Zeppelinflüge über dem Rheinland zur Feststellung, wie sich die Schadstoffkonzentration im Zuge des Corona-Shutdowns entwickelt hat. Man weiß sehr genau, das wurde im Forschungszentrum Mühlich erstellt, diese Arbeit, denn das Forschungszentrum Mühlich hat diese Flüge gemacht, das kam ja sogar in der Tagesschau.
Also wer vom Fach ist, weiß das garantiert, von wem das kommt. Und schließlich ein letzter Punkt, ganz aktuell, Open Peer Review kann aber auch dazu führen, dass die Gutachten oder Sätze aus den Gutachten missbraucht werden und die BILD-Zeitung hat das heute
just in einer Kampagne gegen Professor Drosten vorgeführt, was man damit machen kann. Also damit muss man leider auch rechnen und ich bleibe jetzt beim aktuellen Anlass Corona, wie Sie sich vorstellen können, Leute, die auf diesem Gebiet aktiv sind, die werden derzeit
mit Peer Review Anfragen überhäuft, überschüttet und gleichzeitig wollen sie eigentlich selbst forschen und müssen selbst forschen und publizieren. Ein Ansatz, das zu umgehen oder zu verbessern wäre, das wurde in Nature kürzlich publiziert, ein eigener Preprint Server für Covid-19, Publikationen, in denen dann ein Rapid Peer Review durchgeführt werden kann.
Und die Frage ist, warum macht man das, was jetzt bei Covid-19 ins Leben gerufen wurde, eigentlich nicht überall. Mein Fazit ist, Peer Review steht aus verschiedenen Gründen zu Recht in der Kritik. Bibliometrische Methoden können nur in Einzelfällen als Ersatz dienen.
Für Rankings beispielsweise ist es wirklich nicht sinnvoll, dass da die Zeit von Wissenschaftlerinnen und Wissenschaftlern vergeudet wird. Dafür ist Bibliometrie in Ordnung, aber nicht für Beluchungsverfahren. Open Peer Review dagegen kann einige Schwächen des
klassischen Peer Review-Systems ausmerzen und es ist die natürliche Begutachtungsart für Overlay Journals, also der Ansatz, dass Publikationen zunächst auf einen Preprint Server veröffentlicht werden, wie es ja oftmals schon geschieht, und die dann einfach in
einer virtuellen Zeitschrift zusammengefasst werden, nachdem sie einem Peer Review-Verfahren, einem Open Peer Review-Verfahren unterworfen worden sind. Das würde das bisherige Geschäftsmodell von Zeitschriften zweifellos infrage stellen. Das wäre aber, glaube ich,
auch nicht das Schlimmste, was der Welt passieren könnte. Die Studien, das ist der letzte Satz, die Studien, die ich erwähnt habe, sind in den beiden Publikationen, die unten zitiert sind, alle nachgewiesen. Ich danke für die Aufmerksamkeit. Ja, vielen herzlichen Dank,
Herr Mittermeyer. Eine Frage, die mir auf der Zunge lag mit Overlay Journals, haben Sie in Ihrem letzten Satz schon beantwortet. Es gibt jetzt eine Reihe von Fragen, die ich mal an die erste Frage von Frau Langenkamp. Wie unterscheiden sich feldnormalisierte Indikatoren zu Basisindikatoren? Basisindikatoren werden unabhängig davon,
in welchem wissenschaftlichen Gebiet publiziert wird, angewandt. Also das Zählen beispielsweise von Publikationen oder von Zitationen, das ist überall gleich. Und ein feldnormalisierter Indikator, der berechnet, was die Zitationsrate anbelangt, der berechnet, wie groß ist die
durchschnittliche Zitationsrate zum Beispiel in Onkologie. Und man dividiert dann die Zitationsrate, die ein Onkologe hat, in seinem wissenschaftlichen Werk durch die durchschnittliche Zitationsrate, die alle Onkologen haben. Wer dann übereins liegt, der ist eben besser als
durchschnittlich. Wer unterein fliegt, ist schlechter als durchschnittlich. Wenn man das nicht machen würde, dann käme raus, Onkologen mit einer durchschnittlichen Zitationsrate von 20 sind die viel besseren Wissenschaftler als Mathematiker, die eine Zitationsrate von 1,5
haben, was ja Unsinn ist. Zumindest schlecht für die Mathematiker. Ja. Herr Schabinger fragt, ist ein Peer Review von Forschungsdaten praktikabel? Das stellt die Wissenschaftsgemeinschaft vor,
sage ich jetzt mal, neue Herausforderungen. Also was gemacht werden kann, was noch relativ einfach gemacht werden kann, ist die methodische Untersuchung. Also sind die Methoden richtig beschrieben und sind sie dann auch korrekt angewandt und entsprechen sie dem Stand der
Wissenschaft, dem Stand der Technik? Das, glaube ich, kann gut gemacht werden. Ein unmittelbares Nachvollziehen der Daten ist per se jedenfalls nicht in allen Fällen möglich. Also was man machen kann, um jetzt mal bei der Chemie wieder zu bleiben, man kann natürlich, wenn jemand
eine Synthesevorschrift publiziert und dann kann man das Ganze nachkochen, wenn man das machen möchte und überprüfen, ob die Ausbeute in etwa so stimmt, wie in der Vorschrift angegeben.
Aber den Zeppelin-Flug, den ich erwähnt habe, den kann nun mal kein anderer nachvollziehen. Also was da an Messdaten ermittelt wurde, das kann vielleicht mit statistischen Methoden überprüft werden, aber das kann nicht als Datum selbst überprüft werden. Ja, insbesondere,
wenn man an sowas denkt wie Großgeräteforschung, wo die Datenerhebung ja auch extrem viel Zeit oder extrem viel Geld kostet. Gut, herzlichen Dank. Herr Zumstein stellt die Frage, ist Open Peer Review besser in Bezug auf Reproduzierbarkeit als Closed Peer Review? Darf ich die Frage mal
zurückstellen und ich suche inzwischen, stellen Sie einfach mal die nächste. Wie sind Ihre Beobachtungen zur Begutachtung von unterliegenden Methoden, also über das Papier hinaus?
Beispiele sind Begutachtung von Daten und Software, das haben Sie gerade schon größtenteils beantwortet. Wie viele Journals gibt es überhaupt und welche unterziehen die Skripte einem Open Peer Review? Also die Zahl der Journals kennt niemand. Es hängt auch
von der Definition ab. Es sind jedenfalls über 20.000. Wie viele Open Peer Review haben, wobei die nicht alle Peer Review sind, wie viele Peer Review haben, weiß ich nicht. Es ist auf alle Fälle bestenfalls eine einstellige Prozentzahl, eher weniger. Jose Calvo-Tello teilt
die Einschätzung, dass Open Peer Review eher Nachteile für jüngere Forscherinnen bringt, da sie andere Forscher begutachten müssen, während sie die nächste Stelle beziehungsweise
das nächste Projekt suchen müssen. Bei ständig befristeten Stellen ist Open Peer Review unfair. Was ist Ihre Meinung? Also Peer Review nimmt seit den Anspruch gar keine Frage, auch Open Peer Review. Auf der anderen Seite birgt es auch ein großes Potenzial aus meiner
Sicht für die eigene Entwicklung. Also wenn man mal eine Arbeit begutachtet hat, dann tut man sich selbst beim Schreiben der nächsten Arbeit leichter. Also es bringt einen selbst vorwärts. Und man lernt dabei Fehler zu vermeiden, die einem vor allem bei der Arbeit
andere auffallen, bei den eigenen Arbeiten nicht so sehr. Man ist ja da ein bisschen auch in seiner eigenen Blase gefangen. Und ich kann also nur empfehlen, die Begutachtung von Arbeiten zu übernehmen. Vorausgesetzt, man fühlt sich, das sollte man schon dazu sagen,
man fühlt sich halbwegs in der Lage, das Gebiet zu begutachten. Man muss nicht in jedem Fall das Thema ganz umreisen. Also beispielsweise bei der Begutachtung von DFG-Anträgen, für die ich schon öfters angefragt wurde, da kenne ich mich mit dem Fach in der Regel
überhaupt nicht aus. Ich werde da angefragt, weil ich etwas zum Thema Datenpolicy in dem DFG-Antrag sagen kann. Also zu diesem Aspekt. Aber ich kann natürlich eigentlich nichts zur Materialwissenschaft sagen oder sogar noch weiter zu Sonderforschungsbereichen. Aber man kann auch,
wenn man nur einen Teil begutachten kann, kann man trotzdem seinen Beitrag leisten. Ja, vielleicht noch eine letzte Frage, die jetzt auch durchaus bibliotheksrelevant ist. Frau Schildwein merkt an, dass die Profiteure des Systems ja die Verlage sind. Gibt es
realistische Ansätze, das Geld in der Wissenschaft zu halten? Ja, ich verweise auf die Overlay Journals, die die Wissenschaft auch problemlos und für sehr kleines Geld gründen könnte. Es scheint Konsens zu bestehen, dass es nicht
ausreicht, Preprints auf einen Preprint-Server zu legen. Das war es dann. Und da gibt es aber man muss ja nicht den Artikel auf Archive legen und dann anschließend bei Physikereview
einreichen, sondern man könnte auch die Begutachtung direkt auf Archive machen. Und wenn das in großem Maßstab geschehen würde, dann frage ich mich schon, was dann mit den Journals noch los wäre. So und auf die vorhergehende Frage,
auf die schnelle habe ich jetzt leider keine Aussagen dazu finden können, wie sich die Qualität verhält. Also die meisten sagen keine Unterschiede. Es gibt einmal improved quality. Vielleicht, wenn die Person mich nochmal direkt anwählen könnte,
ich kann da gerne versuchen, noch was auszufinden. Ja oder wir können das vielleicht auch später noch in der Diskussion im Jitsi-Raum nochmal vertiefen, diese Frage. Dann möchte ich nochmal mich herzlich bedanken
bei diesen Einblicken in den Status quo des Wissenschaftssystems. Man hat es ja schon so ein bisschen befürchtet. Zitieren möchte ich Karl Valentin an dieser Stelle. Hoffentlich wird es nicht so schlimm, wie es schon ist. Ich habe auch die Erfahrung gemacht in meiner Zeit als Wissenschaftler, dass das durchaus problematisch ist. Herzlichen Dank Herr