Daten und Modelle
This is a modal window.
Das Video konnte nicht geladen werden, da entweder ein Server- oder Netzwerkfehler auftrat oder das Format nicht unterstützt wird.
Formale Metadaten
Titel |
| |
Untertitel |
| |
Serientitel | ||
Anzahl der Teile | 18 | |
Autor | 0000-0003-2603-1502 (ORCID) | |
Mitwirkende | 0000-0003-0493-7522 (ORCID) 0000-0002-2377-5963 (ORCID) 0000-0002-2480-7787 (ORCID) | |
Lizenz | CC-Namensnennung 3.0 Deutschland: Sie dürfen das Werk bzw. den Inhalt zu jedem legalen Zweck nutzen, verändern und in unveränderter oder veränderter Form vervielfältigen, verbreiten und öffentlich zugänglich machen, sofern Sie den Namen des Autors/Rechteinhabers in der von ihm festgelegten Weise nennen. | |
Identifikatoren | 10.5446/57167 (DOI) | |
Herausgeber | 0000 0001 2153 9986 (ISNI) 04v76ef78 (ROR) | |
Erscheinungsjahr | ||
Sprache | ||
Produktionsjahr | 2021 | |
Produktionsort | Kiel |
Inhaltliche Metadaten
Fachgebiet | |
Genre |
3
6
11
12
15
17
18
00:00
KielComputeranimation
45:35
Computeranimation
54:42
Besprechung/Interview
01:04:25
Besprechung/Interview
01:23:50
Besprechung/Interview
Transkript: German(automatisch erzeugt)
00:00
Ich darf Sie alle ganz herzlich begrüßen zu unserem heutigen Vortrag im Rahmen der Ringvorlesung Corona-Virus-Pandemie und ihre Folgen. Mein Name ist Claudia Bozzaro. Ich habe diese Ringvorlesung gemeinsam mit meinen Kollegen Karin Kunde, Konrad Ott und Ulrich Stefani zusammen organisiert. Die Ringvorlesung ist eine Kooperation zwischen der Medizinischen Fakultät
00:25
und dem Gustav-Rathbruch-Netzwerk. Viele von Ihnen sind schon auch bei den anderen Sitzungen dabei gewesen und kennen somit unser Vorgehen für diejenigen, die heute neu dazugekommen sind, einfach ein paar Hinweise. Sie sehen hier auf der Folie, dass wir natürlich einerseits
00:44
diese Ringvorlesung organisiert haben, aber wir führen diese nicht alleine zu. Wir haben ein Team, das uns dabei unterstützt, ein organisatorisches Team, Jochen Heubach, Dominik Kössling und Berit Müller-Meinhardt, die im Hintergrund sind und ihre Fragen,
01:02
die sie gerne am besten gegen Ende des Vortrags im Chat stellen dürfen, zu uns sichten und sortieren, sodass im Nachgang des Vortrages wir ihre Fragen an den Referenten weiterleiten können. Wir nehmen gerne allerlei Fragen an, nur keine Beleidigungen
01:25
oder tendenziöse Kommentare, die lassen wir einfach außen vor, weil das nicht der Stil dieser Veranstaltung sein soll. Wir haben auch tatkräftige technische Unterstützung im Hintergrund von Frau Gerold und Herrn Peters. An dieser Stelle an alle auch schon mal herzlichen Dank. Unter anderem Frau Gerold und Herr Peters stellen uns auch die Möglichkeit zur Verfügung,
01:48
dass wir diese Vorträge, die wir aufnehmen, dann auf dem YouTube-Kanal der CHU hochladen können, sodass sie die Vorträge auch nachhören oder sich nachträglich anschauen können,
02:01
wenn sie das möchten. Auf der nächsten Folie sehen Sie noch einen ganz kurzen Ausblick auf die nächsten Termine und ich möchte da einfach nur einen Termin hervorheben, nämlich den nächsten. Am 17.6. wird der Kollege Konrad Ott, den wir jetzt alle schon folgen, seit mehreren Wochen
02:21
als Moderator und Organisator kennengelernt haben. Jetzt werden Sie ihn auch als Vortragenden kennenlernen. Konrad Ott wird uns einen Vortrag zur Nachhaltigkeitspolitik nach der Pandemie halten. Soviel zu den organisatorischen Fragen. Jetzt möchte ich Ihnen ganz gerne unseren heutigen Referent vorstellen, Professor Michael Krafczak. Professor Krafczak ist
02:44
Direktor des Instituts für Medizinische Informatik und Statistik hier an der Medizinischen Fakultät in Kiel. Herr Krafczak hat einen, wie ich finde, sehr spannenden Werdegang. Er kommt ursprünglich aus der Mathematik, er ist Mathematiker, hat sich dann in der
03:04
Bildungsbiologie promoviert. Anschließend hat er eine Habilitation im Bereich der Humangenetik abgelegt an der Medizinischen Hochschule in Hannover. Von dort ist er an die Universität Cardiff gewechselt, wo er als Professor für Mathematische Genetik
03:20
tätig war. Und hier hat er auch eine der größten öffentlichen Biobanken zu humanen genetischen Rotationen mit gegründet, mit aufgebaut. Er ist 2001 dann eben als Direktor des Instituts für Medizinische Informatik und Statistik nach Kiel gekommen
03:40
und hat eben diese Erfahrung und Expertise auch im Aufbau von Datenbanken auch hier vor Ort nochmal eingebracht. Er ist an der Gründung der Popgang Biobank maßgeblich beteiligt gewesen. Das ist eine der größten populationsbasierten Biobanken hier in Deutschland.
04:02
Er hat auch das Netzwerk Popgang 2, ein Netzwerk von verschiedenen Biobanken hier in der Region, irgendwie maßgeblich mit aufgebaut. Er ist beim Aufbau des Centers für Klinische Studien beteiligt gewesen und seit 2011 ist Herr Kraftschack auch Mitglied im Vorstand
04:20
der Technologie- und Methodenplattform für vernetzte medizinische Forschung. Also Sie sehen, unser Referent heute bringt eine sehr vielfältige Perspektive mit und er hat vor einigen Monaten mal in einem Vortrag, ich würde sagen kritisch irgendwie angemerkt, dass die aktuelle Pandemie in Teilen auch eine Missing-Data-Krise darstellt und er wird
04:47
uns heute, denke ich, darüber aufklären und informieren, warum Daten, vor allem gute Daten für die Forschung, aber eben auch für die Bekämpfung einer solchen Pandemie ganz grundlegend sind und wichtig sind. Herr Kraftschack, ich freue mich sehr,
05:03
dass Sie heute da sind und darf Ihnen das Wort übergeben. Ganz herzlichen Dank, Frau Butzarow, für die einführenden Worte und an alle Organisatoren dieser Ringvorlesung. Ganz herzlichen Dank für die Einladung, die heute Abend über das Thema Daten, Informationen, Wissen, methodische und strukturelle Herausforderungen der
05:24
Corona-Pandemie zu sprechen. Und Sie hatten es ja bereits in Ihrer Einführung erwähnt, ich tue das ein bisschen mit zwei Hüten auf, einmal als Inhaltswissenschaftler an der Christian-Albrechts-Universität, aber auch als Vertreter der Technologie- und Methodenplattform für die vernetzte Medizinische Forschung in Berlin, weil viele von den Anliegen,
05:45
über die ich heute sprechen werde, zum einen mich persönlich eben aus der Arbeit in der TMF, dass die Abkürzung dafür betreffen und zum anderen, weil ich der Überzeugung bin, dass die TMF bei der Bewältigung der Probleme und der Bearbeitung der
06:06
Herausforderungen, um die es hier gehen soll, eine entscheidende Rolle spielen soll. Aber dazu später dann vielleicht im Verlauf des Vortrags etwas mehr. Ich möchte anfangen mit einem kurzen wissenstheoretischen Primer. Wohl wissend, dass ich bei dem Publikum insbesondere unter
06:22
den Organisatoren hier vielleicht Eulen nach Athen trage, aber ich möchte gern den Titel doch noch mal ein bisschen motivieren, Daten, Informationen, Wissen. Dem einen oder anderen wird es bekannt sein, dass das ein, was Sie hier sehen, diese Wissenspyramide ein gängiges Modell ist, um die unterschiedlichen Ebenen der Wissensgenerierung zu illustrieren.
06:43
Das geht auf zwei norwegische Wissenschaftler zurück. Eigentlich gehören da noch zwei Schichten dazu, nämlich unter den Daten die Zeichen und über dem Wissen die Handlung. Aber ich möchte mich jetzt auf diese drei Komponenten konzentrieren. Daten sind zunächst mal Fakten
07:01
und Zahlen, die es gilt zu sammeln, die für sich genommen jetzt noch keine große Bedeutung haben und die erst durch Kontextualisierung, das heißt im Wesentlichen das Strukturieren der Daten, Rechnung von Maßzahlen oder auch das Aufbereiten der Daten zu Informationen werden und dann durch weitere Kontextualisierung die erkennen oder verstehen zu wissen werden.
07:24
Wichtig ist mir an diesem Diagramm eben, dass die Daten die Basis von Information und Wissen bilden und dass die Güte des Wissens und der Information, mit dem wir umgehen, entscheidend von der Güte und der Qualität der Daten abhängen, die der Information und
07:43
dem Wissen zugrunde liegen. Ich möchte auch ganz kurz das noch mal illustrieren, diesen Schritt von den Daten zur Information und dem Wissen an einem kurzen Beispiel aus einer Vorlesung. Also wenn Sie die oberste Zeile gucken, da sehen Sie zwölf reelle Zahlen, das sind die Daten, die sagen zunächst mal wenig aus. Wenn diese zwölf Zahlen aber
08:03
dadurch kontextualisiert werden, dass man zum Beispiel die Skalierung angibt, das wäre in diesem Fall Zentimeter und dann zusätzlich noch die Information, dass dieses Körpergrößen sind, die zu Personen unterschiedlichen Geschlechts gehören,
08:20
Männer und Frauen, dann ergibt sich aus dieser Kontextualisierung der Daten die Information, dass in der Stichprobe Frauen offensichtlich durchschnittlich kleiner sind als Männer. Und wenn man jetzt noch zusätzliches biologisches Vorwissen hinzuzieht, dann kann man eben aus dieser Information das Wissen generieren, dass Männer und Frauen
08:42
offensichtlich ontogenetisch unterschiedlich sind. Aber was das illustrieren soll, ist die Tatsache, dass eben dieser Schritt von den Daten zur Information, zum Wissen, was die Qualität angeht, sehr von der Qualität der Daten abhängt und die methodische Herausforderung natürlich ist, geeignete Wege zu finden der Kontextualisierung,
09:05
mit der diese Überführung stattfinden kann. Und der Vortrag adressiert jetzt die Frage, was also diese Abhängigkeit der Güte von Wissen und Informationen von den Daten, was diese Abhängigkeit bedeutet für diese Jahrhundertkatastrophe Corona-Pandemie in
09:24
die wir im letzten Jahr hineingeraten sind. Vielleicht noch mal zur Erinnerung, das Ganze begann Ende 2019, als das WHO-Büro in China informiert wurde über Fälle von einer
09:40
Lungenerkrankung, schweren Lungenerkrankung mit unbekannter Ethiologie. Und wenn man den öffentlichen Stellen glaubt, waren die ersten Betroffenen von dieser Krankheit Händler und Käufer auf dem Seafood Market, also dem Fischmarkt in Wuhan. Interessant ist,
10:01
dass in dieser Meldung der WHO vom 5. Januar noch steht, dass es keine Evidenz für eine signifikante Übertragung von Mensch zu Mensch gebe. In der Zwischenzeit sind wir da leidvoll eines Besseren belehrt worden. Und man hat zu dem Zeitpunkt auch schon vermutet, dass vielleicht das Wuhan Virology-Institut, also das Zentralinstitut für Virologie der
10:26
Volksrepublik China, irgendetwas mit diesem Ausbruch zu tun hatte. Das hat man dann lange Zeit wieder auf Eis gelegt, aber ich werde auf der übernächsten Folie noch mal kurz auf diese Theorie zurückkommen. Was wichtig ist, schon im Februar 2020 gab es dann die erste
10:45
wichtige Publikation im New England Journal of Medicine einer chinesischen Arbeitsgruppe um Wissenschaftler aus diesem Institut in Wuhan, die über das Virus berichtet haben. Und von da ab, das sehen Sie hier oben auf der rechten Seite, ging es publikatorisch sehr, sehr stark
11:06
nach oben. Schon im März 2012 war die Anzahl der Publikationen zum Thema Covid-19 und Coronavirus auf etwas über 1000 gestiegen und danach, etwa im Mai 2020, hat sich das bei
11:24
ungefähr 2000 Publikationen pro Woche stabilisiert. Sie sehen hier, es gibt in der Zwischenzeit bei PubMed einen eigenen Bereich, der heißt LitCovid und ich habe es heute Morgen noch mal gecheckt, wo in der Zwischenzeit 137.000 oder mehr als 137.000
11:42
relevante Publikationen zu Covid-19 gelistet sind. Interessant ist, wenn man hier auf die untere Weltkarte guckt, da ist einfach nur gezählt worden, wie häufig bestimmte Länder in den Abstracts dieser Publikation genannt wurden. Da sehen Sie, dass es eine klare Konzentration auf die USA und China gibt. Das ist nicht verwunderlich, weil eben China als
12:06
der wahrscheinlich Ursprung dieser Pandemie, USA als eines der am stärksten, numerisch wahrscheinlich das stärkst betroffene Land ist. Was auch interessant ist, sind die grauen Stellen. Wie man sieht, ist also das Interesse an Covid-19-Publikationen aus Zentralasien
12:24
und aus Afrika nicht besonders ausgeprägt. Ich hatte ja gesagt, dass man also zu Anfang vermutet hat, dass das Virus mit diesem Virologieinstitut in Wuhan zu tun haben könnte. Dann wurde das eine Zeitlang auf Eis gelegt und ich habe vor einer Woche
12:44
einen Hinweis bekommen von einem Kollegen auf einen Science-Blog, der zumindest wert ist, dass man das mal liest. Und zwar, was ich auch nicht wusste, ist, dass 2012 in China, in Yunnan, das ist mehrere tausend Kilometer von Wuhan entfernt, in einer Mine sechs Arbeiter
13:05
an Covid-19-Symptomen erkrankt waren, nachdem sie dort manuell Fledermoskot entsorgt hatten. Und 2014 ist dann eine Masterarbeit in China erschienen, die berichtet, dass Proben
13:21
dieser Arbeiter 2013 schon zu dem Institut nach Wuhan geschickt worden waren und dort positiv auf Coronaviren getestet wurden. Und 2016 gab es dann eine Doktorarbeit. Sie sehen hier links das Deckblatt dieser Doktorarbeit, die dokumentiert, dass auch Proben aus der Mine 2014 in dem Wuhan-Institut für Virologie positiv auf Coronaviren getestet
13:47
wurden. Es ist interessant, wo diese Information herkommt. Das war ein anonymer Facebook-Teilnehmer, der diese Arbeit, also diese Doktorarbeit, ins Englische hat übersetzen lassen und dann ins Internet gestellt hat. Und aus dieser Doktorarbeit geht auch hervor, dass
14:04
der 2013 in dieser Mine in Yunnan entdeckte Fledermausvirus Bt-CoV-4991 identisch ist mit dem vom Wuhan-Institut in 2020, so haben sie es damals vorgegeben in dieser Publikation im
14:21
New England Journal, wahrscheinlich aber schon 2018 untersuchten Virus RATG13. Und das ist der engste genetische Verwandte von SARS-CoV-2. Sodass also diese Information möglicherweise doch wieder darauf hindeuten, dass es eben einen Zusammenhang zwischen dieser Pandemie oder im Ausdruck dieser Pandemie und diesem Institut in Wuhan gegeben hat. Letztendlich
14:48
klären mit hundertprozentiger Sicherheit wird man es wahrscheinlich nie, weil eben auch dazu letztendlich verlässliche Daten nicht mehr verfügbar oder wahrscheinlich auch nie verfügbar
15:01
gewesen sind. Seit 2020, also spätestens seit, ich würde sagen Februar, März, hat diese Pandemie auch Deutschland fest im Griff gehabt. Sie sehen hier zwei Kurven, die schon fast ikonografischen Wert bekommen haben. Das sind diese Inzidenzwerte, die das Robert-Koch-Institut
15:24
jeden Tag veröffentlicht. Auf der linken Seite dieses graue Diagramm, das sind diese Inzidenzwerte. Ein bisschen missverständlich steht auf der Tagesschau-Website auch darüber, das wäre die 7-Tage-Inzidenz pro 100.000 Einwohner. Das ist so nicht richtig. Das ist nicht die Inzidenz, sondern es ist das, was man dann als Inzidenzwert bezeichnet. Das
15:45
heißt, es ist die Anzahl der in 7 Tage den RKI gemeldeten Neuinfektionen pro 100.000 Einwohner. Das unterscheidet sich von der Inzidenz aus mehreren methodischen Gründen. Trotzdem sieht man diese Kurve an, dass es also in Deutschland drei große Wellen gegeben hat,
16:06
eine vergleichsweise glimpfliche im Frühjahr 2020, dann eine sehr heftige Welle im Herbst 2020 und dann diese dritte Welle, die glücklicherweise im Moment abzuklingen scheint. Und selbst wenn man diesen Inzidenzwerten nicht glauben würde,
16:24
wenn man die Anzahl der gemeldeten intensivmedizinisch behandelten Covid-19 Patienten, das ist diese weiße Kurve mit dem, dieses weiße Diagramm mit der orangenen Kurve, wenn man sich das anschaut, sieht man, dass es klar diese Wellen gegeben hat. Warum betrifft uns diese Pandemie so sehr? Sie ist eben nicht nur ein medizinisches
16:46
oder epidemiologisches Problem, sondern sie hat eben auch massive soziale und wirkswirtschaftliche Auswirkungen. Und das ist eigentlich die Hauptmotivation auch für meinen Vortrag, weil angesichts der dramatischen Folgen, die diese Pandemie eben auch für
17:05
die Wirtschaft und die Bildung und das Sozialleben hat, muss ich ganz ehrlich sagen, möchte ich nicht in der Haut der Politiker stecken, die natürlich Entscheidungen treffen müssen. Das heißt, Entscheidungen wie zum Beispiel dieser dramatische Shutdown der Wirtschaft
17:22
muss sich auf irgendetwas gründen. Das heißt, die Politik muss Risiken und Nutzen solcher Maßnahmen bewerten können. Und das müsste sie eigentlich tun und könnte sie eigentlich auch nur auf der Grundlage von validen Wissen und damit validen Daten. Und da
17:40
liegt aus meiner Sicht das Problem, und das ist eigentlich schon erwähnt worden, also ich habe in diesem Zusammenhang eben auch diesen Begriff der Missing-Data-Krise mal ins Spiel gebracht. Also aus meiner Sicht ist die Corona-Pandemie tatsächlich zumindest in ihren Auswirkungen in Teilen eine Missing-Data-Krise. Und ich habe vor etwa zwei Monaten gemeinsam
18:07
mit Kollegen Amke Kalibe hier aus Kiel und Gerhard Antes und Friedhelm Leverkus dazu auch mal einen Artikel im deutschen Ärzteblatt verfasst, wo sie die wesentlichen Argumente auch noch mal nachlesen können. Also es geht im Kern darum, dass viele wirklich schwere
18:25
gesundheitspolitische Entscheidungen mit weitreichenden gesellschaftlichen Auswirkungen auf der Grundlage unzulänglicher und oftmals gänzlich fehlender Daten getroffen werden mussten und auch immer noch werden. Und dass die Wirksamkeit der Maßnahmen, die im Zuge dessen
18:41
häufig gar nicht überprüft werden konnten, weil wiederum die Daten aber auch die informationstechnischen Voraussetzungen dafür fehlen. Und das ist ein Phänomen, das sich wirklich auf allen Ebenen wiederfindet. Also aussagegekräftige Daten, die fehlen zum Beispiel eben in der Epidemiologie, die ja die Grundlage für ein sinnvolles Pandemiemanagement sein sollte.
19:04
Also die Gesundheitsämter und auch das RKI sind auf relativ rudimentäre Daten angewiesen. Ich habe sehr früh gesagt, wir hätten von der Pandemieentwicklung sehr viel mehr verstanden, wenn wir einfach nur gewusst hätten von Anfang an, wer wurde eigentlich zu welchem Zeitpunkt, aus welchem Grund, mit welchem Ergebnis auf SARS-CoV-2
19:25
getestet. Diese Daten gibt es schlechthin nicht. Es ist nach wie vor so, dass dem RKI im Wesentlichen nur diese summarischen Testergebnisse mitgeteilt werden. Zusätzliche Daten hätten potenziell kommen können aus einer Selbsterhebung und da
19:42
waren viele Hoffnungen auf die Corona-App gerichtet, die aber letztendlich das auch nicht leisten können. Konnte auch dazu, werde ich noch ein paar Worte sagen. Und dann ist interessanterweise vor nicht allzu langer Zeit unter anderem auch von Karl Lauterbach nochmal daran erinnert worden, wie wertvoll es gewesen wäre,
20:01
wenn man relativ früh während der Pandemie Kohortenstudien begonnen hätte. Idealerweise zum Beispiel eine Zufallsstichprobe aus der deutschen Bevölkerung mit vielleicht 50 oder 100.000 Teilnehmern, die man dazu verpflichtet hätte, sich regelmäßig testen zu lassen. Weil das das methodische Problem, dass diese Inzidenzwerte, die aus den Meldungen an das RKI entstehen, relativ einfach
20:25
hätte überwinden können. Das zweite, das eine relativ aktuelle Diskussion gerade ist, wir haben eben keine Impfregister. Das heißt, es wird nirgendwo zentral die Information hinterlegt, wer wurde wann mit welchem Impfstoff geimpft.
20:42
In der klinischen Forschung, da bin ich jetzt nicht unbedingt der Experte, aber da sieht man eben auch, dass es eine ganze Reihe von Wirksamkeitsstudien schon relativ früh in der Pandemie gegeben hat, die aber sehr unkoordiniert abgelaufen sind. Insbesondere gab es damals keine systematischen Ansätze,
21:01
zum einen die Studien selbst zu registrieren und in gewisser Weise zu koordinieren oder auch die Daten, die im Zuge dieser Studien gesammelt wurden, in irgendeiner Art und Weise zusammenzubringen und zu integrieren. Der letzte Aspekt, das ist die große Schwierigkeit aus der Versorgung, gerade jetzt auch der Covid-19-Patienten, aus der Versorgung
21:25
daraus, Daten zu sichern und für die Forschung bzw. für die Pandemiebewertung nutzbar zu machen. Das gilt zum einen für die Krankenhaus- und die Praxis-IT. Praxis-IT kann ich wenig zu sagen, aber die Krankenhaus-IT, insbesondere in den
21:41
Universitätskrankenhäusern in Deutschland, ist ebenso heterogen und so wenig darauf ausgelegt, daraus systematisch strukturierte Daten zu erlangen, dass wir im Moment immer noch Schwierigkeiten haben, diesen Prozess, der Zusammenführung der Versorgungsdaten dieser Patienten, diesen Prozess zu gestalten. Und die andere Möglichkeit wäre, Daten von den Versicherern zu bekommen.
22:03
Das scheitert unter anderem eben auch an Datenschutz und Intellectual Property fragen. Ich möchte diese drei Bereiche Epidemiologie und klinische Forschung und Versorgung jetzt kurz beleuchten und dann am Ende noch mal im Zuge der Versorgung auf die Möglichkeiten,
22:24
wie man diesem Problem der mangelnden Daten begegnen kann, eingehen. Nun, in der Epidemiologie gab es lange Zeit so etwas, was man die Auseinandersetzung zwischen oder die Frage, wem sollte die Politik jetzt mehr Vertrauen,
22:43
Eminenz oder Evidenz zusammenfassen kann. Sie sehen hier dieses Bild von Frau Priesemann aus Göttingen mit der Frage darüber, das ist ein Artikel aus der Zeit, hat sie die Lösung? Also es gab sicherlich eine Zeit, wo man sehr darauf gehofft hat, dass die Theoretiker mit ihren
23:04
Differenzialgleichungssystemen in der Lage wären, jetzt wirklich verlässlich das Pandemiegeschehen zu beurteilen und vorherzusagen. Das mag in Teilen auch richtig sein. Und ich zitiere jetzt mal aus diesem Artikel im Deutschen Erzeblatt von Frau Kalibe und Kollegen,
23:22
dass natürlich diese Kompetenz, die gerade auch die Theoretiker haben, dass das sehr hilfreich ist für die wissenschaftsgeleitete Politik, Unterstützung der Politik und der Verwaltung. Auf der anderen Seite kann der Rat dieser Experten nur dann sinnvoll sein, wenn er sich auch auf aussagekräftige Daten stützt,
23:42
weil kein noch so ausgefeiltes statistisches Modell eine unzureichende Datenlage kompensieren kann. Und wir sehen ja gerade im Moment, dass dieser doch rapide Rückgang dieser Inzidenzwerte die Theoretiker im Moment alle vor große Fragen stellt. Keiner kann sich eigentlich so richtig erklären, weshalb der Rückgang jetzt so schnell und so
24:04
rapide ist, wo die die ganzen Modelle eigentlich vorhergesagt hatten, dass es eher so ein Phasing out geben sollte. Und was ganz interessant ist, das ist jetzt hier, erschrecken Sie nicht, das ist eine Formel aus einer Arbeit von einem amerikanischen Mathematiker
24:24
Xiaoli Meng, der hat über diese Fragestellung auch im letzten Jahr bei der Jahraustragung der Deutschen Gesellschaft für Epidemiologie einen Vortrag gehalten, der klar darauf hingewiesen hat, dass das große Problem bei der Schätzung der Inzidenzen aus Stichproben, das heißt also in einer Situation, wo man noch nicht
24:43
die gesamte Population auf das Corona Virus getestet hat, dass zu diesem Zeitpunkt es zu systematischen Verfälschungen dieser Schätzungen kommt, die abhängt davon, wie stark die Wahrscheinlichkeit, dass jemand getestet wird, abhängt von der Wahrscheinlichkeit, dass er bereits infiziert ist.
25:03
Also im Idealfall würde man eine Zufallsstichprobe ziehen. Da würde es diesen Zusammenhang nicht geben. Das heißt, die Frage, ob jemand getestet wird, hat nichts damit zu tun, ob er infiziert ist, weil es ja eine Zufallsstichprobe ist. Sobald es da aber eine positive Korrelation gibt, führt es dazu, dass in der Stichprobe die Inzidenz
25:22
systematisch falsch eingeschätzt wird. Und das kann wirklich dazu führen, das hat der Xiaoli Meng in diesem Vortrag bei den Epidemiologen sehr gut illustriert, dass auf diese Art und Weise selbst große Stichproben vollkommen ihre Aussagekraft verlieren, wenn
25:42
der grundlegende Rekrutierungsmechanismus für diese Stichproben eben irgendwas mit der Infektion selbst zu tun hat. Und wir haben das in diesem Artikel im Arztblatt ebenso formuliert, dass dieses Außerachtlassen dieses Zusammenhangs und insbesondere der Störgrößen, die dazu führen könnten,
26:01
eben bedeuten kann, dass die Aussagekraft der Daten vollständig ruiniert wird. Das heißt also irgendwie, es ist ja auch plausibel, wenn ich also gezielt nur noch solche Personen teste, die auch eine große Wahrscheinlichkeit haben, infiziert zu sein, dann drücke ich auf diese Art und Weise natürlich die Schätzung der Inzidenz nach oben.
26:22
Das heißt, diese Wahrscheinlichkeit hängt natürlich von der Teststrategie ab. Wenn man zufällig testet, ist der Zusammenhang, das hatte ich vorhin gesagt, gleich null. Aber die Teststrategie hat sich oft auch daran orientiert, möglichst effizient zu sein. Und das führte dann dazu, dass in der Anfangszeit im Wesentlichen die Corona-Tests im Umfeld
26:41
von overt erkrankten Personen und damit gesichert Infizierten durchgeführt wurden. Und das treibt diese Korrelation nach oben. Wo soll die Information über diese Störgrößen, also das, was das Impfgeschehen beeinflusst, herkommen? Und eine Hoffnung, die alle Kolleginnen und Kollegen hatten,
27:04
war, dass letztendlich das über eine Selbstauskunft funktionieren könnte, wo Menschen also sagen können, ich bin jetzt heute aus dem und dem Grund getestet werden, mit dem und dem Ergebnis. Das wäre die Aufgabe der Corona-App gewesen. Aber das Problem mit der Corona-App war eben,
27:22
dass es nur einen relativ geringen Nutzungsanreiz für diese App gab. Insbesondere gab es keine Verpflichtung, sie zu nutzen. Und dass auch die Freiwilligkeit der Infektionsmeldung dazu geführt hat, dass die Effizienz sehr, sehr gering war. Also man schätzt, dass die Warnrate, das heißt der Anteil der tatsächlich Infizierten,
27:43
die über die App dann tatsächlich diese Meldung herausgegeben haben, nur bei etwa 11% liegt. Weil die App eben mit anonymen Daten gearbeitet hat, hat sie keine direkte Entlastung der Gesundheitsämter mit sich gebracht. Das heißt also, dieses Meldewesen der Gesundheitsämter
28:03
konnte in keiner Art und Weise durch die App selbst unterstützt werden. Und aus der Sicht der Epidemiologie war eben das Problem, dass es da relevante Funktionalitäten wie zum Beispiel eben das Tracking, wer hat sich denn wann wo bewegt und damit mit großer Wahrscheinlichkeit in einem bestimmten Zeitfenster an einer bestimmten Stelle
28:23
infiziert ist, diese Informationen nicht zur Verfügung standen. Das führte dazu, dass der Oberbürgermeister von Tübingen, Boris Palmer, der natürlich zugegebenermaßen eine kontroverse Person ist, gesagt hat, die Corona ab, die schützt zwar unsere Daten, aber sie schützt uns nicht vor dem Virus.
28:40
Und welche Bedeutung das hat, wenn man also diese exakten Umstände der Infektion außer Acht lässt, das ist aus meiner Sicht auch noch mal sehr eindringlich illustriert worden, als die Stadt Kiel sich das erste Mal entschlossen hat, tatsächlich die gemeldeten Infektionen
29:02
mal auf das Stadtgebiet zu mappen. Und natürlich ist es denkbar, dass das jetzt politisch nicht besonders opportun ist. Aber wenn man sich das hier anguckt, dass die Meldung der Kieler Nachrichten vom 3. April, dann sieht man sehr wohl, dass das Infektionsgeschehen sehr unterschiedlich über die Stadt verteilt ist.
29:23
Und das hat dann Gott sei Dank ja dazu geführt, dass die Stadt Kiel auch Maßnahmen ergriffen hat und an den offensichtlichen Brennpunkten für dieses Infektionsgeschehen auch unterstützende Maßnahmen, wie zum Beispiel das Einsetzen von Kräften, die dort mit den Personen gesprochen haben,
29:42
auf diese Art und Weise eben reagiert hat. Das, was ich jetzt gesagt habe, also diese extreme Betonung auf die Daten, das soll jetzt die Wertigkeit von epidemiologischen Modellen nicht schmälern. Also die haben natürlich ihre Wichtigkeit
30:01
und insbesondere kann man das jetzt auch nicht gegeneinander ausspielen. Eigentlich ist dieses theoretische Modelle versus empirische Daten, das sind eigentlich zwei Philosophien, die das gleiche Ziel verfolgen. Und das ist sehr wunderbar. Dargestellt, wenn Sie das mal nachlesen wollen,
30:20
in einem solchen Blog des Boston Review. Da sind zwei sehr ausgewiesene Experten in der Epidemiologie zu Wort gekommen. Nämlich Mark Likswitsch, Epidemiologe von der Harvard-Universität und der Ihnen vielleicht bekannte Johann Johannides aus Stanford, Statistiker,
30:42
die in der Wahrnehmung so ein bisschen die Antipoden in diesem Feld waren. Also Mark Likswitsch, der eher so in der Kategorie theoretische Modelle verortet wurde, der aber klar gesagt hat, natürlich müssen die Wissenschaftler da
31:03
sich zurückhalten jetzt mit einem extremen Skeptizismus gegenüber Modellen und Vorhersagen und können nicht sagen, dass also solange es keine empirische Evidenz gibt, man keine Aussage machen sollte. Und stattdessen sollten Sie eben dafür sorgen,
31:22
dass wirklich jede Art von Information und Daten, die in irgendeiner Art und Weise helfen können, ein solches Problem zu lösen, auch tatsächlich Berücksichtigung finden sollten. Und John Johannides, der, wie gesagt, als Protagonist einer solchen datengetriebenen Herangehensweise gilt,
31:43
der hat wiederum gesagt, dass solange es keine hochqualitativen Daten gibt, ist eigentlich alles gut. Da sollte man alles machen, was irgendwie halbwegs vernünftig ist. Allerdings dabei nicht den gesunden Menschenverstand außer Acht lassen. Aber sobald es eben so weit ist, dass man gute Daten hat,
32:02
dann sollte man die Handlungen und die Maßnahmen, die man daraus ableitet, auch wirklich auf diese Daten stützen. Und diese beiden Positionen, die sind sehr gut zusammengefasst worden in diesem Blog von Jonathan Fuller, einem Philosophen aus Pittsburgh, der eben dann gesagt hat,
32:21
die Epidemiologie sollte wirklich beides zusammenfassen und beides in Betracht ziehen. Also die Theorie mit den Modellen und auf der anderen Seite die Nutzung der Daten. Er ist wunderbar formuliert hier. Also sie sollte in der Art und Weise, wie sie arbeitet und Wissen und Informationen ansammelt,
32:40
sehr liberal sein, aber in den Schlussfolgerungen nachher eher konservativ. Also mit einer Hand Daten sammeln und mit der anderen Hand dann trotzdem handeln. Und im Grunde genommen ist dieses zweite Zitat, was Sie hier sehen, also die Schaden und Nutzen abwiegen mit der gleichen Seriosität,
33:03
wie man es auch bei der Generierung der Evidenz anwendet. Das ist eigentlich das, was man dann der Politik tatsächlich auch nahelegen sollte. Also möglichst in alle Richtungen Informationen und Wissen abzuschöpfen.
33:20
Im Bereich der klinischen Forschung, da will ich jetzt gar nicht näher drauf eingehen. Vielleicht nur zwei Dinge, was interessant ist. Das ist hier eine Publikation, die zum Zeitpunkt der zweiten richtig starken Welle insgesamt auf der Welt aktiven klinischen Studien zu Covid-19 mal untersucht hat.
33:42
Zum einen, wie groß diese Studien waren und zum zweiten, um was es sich dabei eigentlich handelt. Und da sieht man hier in diesem Diagramm auf der rechten Seite diese Konzentration von Studien an hospitalisierten Patienten und dann mit Stichprobengrößen.
34:01
Das sind diese roten und diese gelben Punkte, die sich da häufen von etwa 50 bis 100. Das heißt, es gab dort offensichtlich viele kleine Studien, die wenig koordiniert voneinander abgelaufen sind. Überwiegend geteilt im Krankenhaus. Und was interessant ist, dass über 80 Prozent dieser Studien nur zweiarmig waren.
34:23
Das heißt, da wurde immer nur ein wirksamer Wirkstoff gegen ein Placebo getestet und 15 Prozent aller Studien über das Chloroquin. Das heißt, hier hätte sicherlich die klinische Forschung zu Covid-19 erheblich davon profitieren können, wenn es auf der einen Seite die Möglichkeit gegeben hätte,
34:42
diese Studien zu registrieren und zentral zu koordinieren, auch in der Fragestellung. Und darüber hinaus natürlich, wenn es möglich gewesen wäre, diese Daten auch hinterher zu teilen und diese Daten zu integrieren. Da gibt es natürlich Bestrebungen. Also, das ist eine andere Arbeit hier,
35:02
die im Juni letzten Jahres mal geschaut hat, wie denn die Data-Sharing-Neigung oder die Policy aussah bei diesen klinischen Studien. Und da sieht man das von den, das sind jetzt zugegebenermaßen zu dem Zeitpunkt relativ kleine Fallzahlen gewesen, von den 35 publizierten Studien,
35:23
die es im Sommer 2020 zu Covid-19 schon gab, waren nur etwa ein Drittel verlinkt zu einem Studienregister. Und da hatten zwar mehr als zwei Drittel der Studien erklärt, dass sie die Daten auch bereit wären zu teilen. Aber in fast allen Fällen war das ein Teilen nur auf Anfrage.
35:43
Das heißt, auch hier fehlte und fehlt auch mal, nach meinem Wissenkenntnisstand, immer noch eine Möglichkeit, systematisch dieses klinische Forschungsgeschehen zu koordinieren und diese Daten zusammenzutragen. Und damit komme ich zu dem letzten Bereich, das ist die Versorgung.
36:01
Also die Frage, welche Möglichkeit haben wir denn jetzt, wo die Covid-19-Patienten auch alle in Kliniken und Praxen versorgt werden, die Daten, die dort anfallen, in geeigneter Art und Weise nutzbar zu machen. Und das ist eine Frage, die sich jetzt eigentlich nicht nur auf dieses Geschehen, um Corona und Covid-19 konzentriert.
36:23
Und das ist wunderbar illustriert mit diesem Cartoon aus einem Cell-Paper im letzten Jahr. Weil es gab natürlich, was die Erschließung von Versorgungsdaten angeht, ein Leben nach Corona. Und das Leben wird nach Corona weitergehen. Und Sie sehen auf der rechten Seite die Gesundheitskrisen, die uns vor dieser Pandemie beschäftigt haben
36:42
und die uns mit Sicherheit auch alle nach der Pandemie noch beschäftigen werden. Also insofern ist die große Hoffnung, dass die Corona-Pandemie ein bisschen auch ein Katalysator ist dafür, dass diese Probleme, die es eben bei der Erschließung der Versorgungsdaten für Forschungszwecke gibt, auch gelöst werden könnten.
37:01
Und da ist im Moment wirklich auch Licht am Horizont zu sehen. Das werde ich Ihnen gleich erläutern. Ich möchte an dieser Stelle jetzt aber vielleicht kurz mal den Schlenker machen und etwas zu der Technologie und Methodenplattform sagen, die in diesem ganzen Bereich schon seit über 20 Jahren
37:22
eine entscheidende Rolle spielt. Die TMF ist die DACH-Organisation für die medizinische Verbundforschung in Deutschland. Zumindest, was organisatorische, rechtlich, ethische und technologische Probleme angeht. Und sie ist 1999 vom BMBF gegründet worden
37:41
im Zusammenhang mit der Etablierung der Kompetenznetze in der medizinischen Verbundforschung. Weil das BMBF damals erkannt hat, dass es also in diesen Bereichen IT, Organisation, Recht und Ethik Probleme gibt, die unabhängig von den Krankheitsbildern, die beforscht werden, letztendlich immer wieder auftauchen.
38:01
Und dass es sinnvoll wäre, wenn man dafür eine Plattform schaffen könnte, in der es einen interdisziplinären Austausch gibt und in der zu diesen Themen eben standortübergreifend zusammengearbeitet werden kann. Die TMF wird aktuell von drei Bundesministerien finanziert. BMBF, Gesundheitsministerium und Wirtschaftsministerium.
38:21
Und daneben auch die DFG und die EU. Ist heute seit 2003 ein eingetragener Verein mit aktuell 73 Mitgliedern. Und zu diesen Mitgliedern zählen die deutschen Zentren für Gesundheitsforschung, die NAKO-Studie, viele medizinische Fakultäten, Kompetenznetze, die Zentren für klinische Studien und so weiter.
38:41
Und ist in der Tat so, wenn man sich die Mitgliederstruktur zwischen 2003 und 2020 ansieht, sieht man, dass sich das Mitgliederportfolio extrem diversifiziert hat. Also 2003 zu Beginn waren es tatsächlich nur die Kompetenznetze. Heute, ich hatte ein paar Beispiele genannt, das sehen Sie auf der rechten Seite, ist das ein relativ buntes Spektrum.
39:03
Eigentlich alle Verbünde, Organisationen, die in der in der patientenbasierten Verbundforschung irgendwie unterwegs sind, sind Mitglied in der TMF. Was passiert da? Die Bearbeitung der Probleme, von denen ich gesprochen hatte, finden in zehn unterschiedlichen AGs statt,
39:22
die thematisch ausgerichtet sind. Also es geht um IT-Infrastruktur, um Wissenschaftsmethodik, Biobanking, dann ethisch-rechtliche Fragestellungen. Und daneben betätigt sich die TMF und insbesondere eben auch durch diese AGs
39:40
auch im Lobbing für die medizinische Verbundforschung in der Politik, Öffentlichkeitsarbeit und insbesondere auch intensive Dialoge mit den Wissenschaftsförderern. Und daneben, da komme ich gleich noch mal drauf zurück, engagiert sich die TMF auch in der Verbundkoordination. Und ich werde Ihnen zwei Beispiele geben, nämlich die Medizin Informatik Initiative und das NumCodex.
40:03
Daneben gibt es noch ein umfangreiches Registerprojekt, wo die TMF auch die Verbundkoordination übernommen hat. Und der Output sind eben im Wesentlichen generische Konzepte. Ich habe jetzt hier mal das Datenschutzkonzept genannt, harmonisierte SOPs, aber auch Service und Dienste für die klinische Forschung, Publikationen und Schriftenreihen.
40:23
Was ganz wichtig ist, ist, dass es eben über die Plattform auch den Austausch von Wissen und Informationen gibt in Form von Workshops. Ich hatte bereits erwähnt, die TMF hat die Verbundkoordination übernommen für die Medizin Informatik Initiative,
40:43
die seit 2018 läuft und eigentlich genau im Kern das adressiert, was ich vorhin gesagt habe. Es geht darum, Daten aus der Versorgung, aus sehr heterogenen Datensystemen nutzbar zu machen für die Forschung.
41:00
Und zwar so, dass dieser Austausch sowohl der Forschung als auch der Versorgung zugutekommt. Und das über Institutionen und Standorte hinweg. Und Sie sehen hier auf der Karte links, dass in der Zwischenzeit, ich glaube, mit wenigen Ausnahmen, wenn überhaupt, alle universitätsmedizinischen Standorte in Deutschland in der Medizin Informatik Initiative mitarbeiten,
41:23
organisiert in vier Konsortien. Und wir hier in Schleswig-Holstein, also Kiel und Lübeck zusammen unter dem Dach des UKSH, sind in dem Heimat-Konsortium vertreten. Daneben vielleicht noch als Randnotiz, weil wir eben sehen, dass diese Arbeiten
41:41
auch letztendlich Manpower brauchen, macht sich die Medizin Informatik Initiative auch stark für die Lehre und die Weiterbildung in dem Fach. Und neben der Medizin Informatik Initiative ist jetzt im Zuge der Corona-Pandemie ein zweiter Player auf der Bühne erschienen. Das ist das Netzwerk Universitätsmedizin.
42:03
Das dediziert jetzt das Ziel, hat Maßnahmenpläne, Diagnostik und Behandlungsstrategien an den deutschen Universitätskliniken zusammenzuführen und damit möglichst eine optimale Versorgung der Covid-19-Erkrankten sicherzustellen. Das wird sehr üppig finanziert vom BMBF,
42:20
das sehen Sie hier. Und hat auch das Ziel eben, über diese Covid-19-Pandemie hinaus auf diese Art und Weise eine Grundlage für die Koordination der Forschung an den deutschen Universitätskliniken zu legen. Es gibt hier drei Projekte im Wesentlichen, die sich dieser Datenproblematik widmen.
42:42
Ich fange mal unten an, das ist das RAKUN-Projekt. Da geht es um die Erschließung von Bilddaten. Das NAPCON, das ist ein nationales Kohortennetzwerk, in dem also bereits bestehende Kohortenstudien zusammengefasst werden sollen. Und dann das sogenannte CODEX, das ist die Covid-19-Datenaustauschplattform,
43:02
die in der Tat, und da fügt sich das Ganze dann auch wieder zusammen, das zentrale Projekt ist, dass die Medizin-Informatik-Initiative jetzt hier für das Netzwerk Universitätsmedizin koordiniert und bestreitet. Also das sind alles sehr vielversprechende Ansätze, die hoffentlich dazu dienen werden,
43:22
dass diese Problematik des Fehlens der verlässlichen und hochqualitativen Daten in der medizinischen Forschung sich beheben lässt und verbessert. Vielleicht eine kleine Kritik an der Stelle von meiner Seite oder persönlicher Eindruck.
43:41
Ich bin in diese, gerade hier auch in diese Aktivitäten des Netzwerk Universitätsmedizin auch so ein bisschen mit involviert. Und ich habe den Eindruck, dass da im Moment auf der anderen Seite wieder ein bisschen deutschtypisch eine sehr starke Überregulierung passiert. Also das Netzwerk hat sich jetzt sehr lange damit beschäftigt,
44:01
diese Themenbereiche zu definieren, jetzt Gremien zu schaffen. Da gibt es dann also organespezifische Fachgruppen, da gibt es Themenräume und so weiter und so weiter. Man hat immer das Gefühl, dass dem so eine gewisse Verschlankung und ein gewisser Kick mal gut tun würde, um da wirklich auch zur Sache zu kommen. Und so verwundert es nicht,
44:22
dass die Briten uns da wieder einen Schritt vorauszusammen zu sein scheinen. Weil in der letzten Woche diese Meldung hier über den Ticker ging, dass tatsächlich also die Briten über ihre relativ schlanke Studienstruktur mit diesem Covid-19-Infektions-Survey es geschafft haben,
44:41
also Daten zu den Langzeitfolgen der Covid-19-Infektionen, was ja auch jetzt wissenschaftlich im Fokus des Netzwerke Universitätsmedizin steht, solche Daten von einer Million Patienten zusammenzutragen und die auch öffentlich verfügbar zu machen. Also wir müssen da aufpassen, dass wir mit dieser Überregulierung
45:03
und diesem Fokussieren auf Organisationen und Strukturen oder so, da am Ende nicht einen Boden verlieren. Und das bringt mich jetzt zum Schluss meines Vortrags. Ich möchte vielleicht noch einen kurzen Ausblick geben, wo das denn hingehen könnte.
45:22
Also die Sekundärnutzung der Daten für die Forschung, also Daten, die für Versorgungszwecke generiert worden sind und dann für die Forschung genutzt werden sollen. Diese Sekundärnutzung steht natürlich unter bestimmten Voraussetzungen, also insbesondere eben regelt die Europäische Datenschutz-Grundverordnung,
45:40
dass diese Daten nur genutzt werden dürfen, wenn der Patient entweder informiert eingewilligt hat oder wenn die Forschung eben in einem hinreichend öffentlichen Interesse steht und durch ein Gesetz erlaubt wird. Und diese Einschränkungen, die haben jetzt natürlich beide Nachteile. Also zum einen, wenn jetzt es ein Gesetz geben würde,
46:01
das uneingeschränkt die Nutzung der Daten erlauben würde und man hätte erwarten können, dass eben durch diese akute Handlungsdruck der Pandemie es tatsächlich solche Überlegungen gegeben hätte, schränkt das natürlich die Patientenautonomie enorm ein. Und das zweite ist, wenn man tatsächlich diese sogenannte Forschungsklausel ziehen möchte,
46:22
also wenn man da von öffentlichem Interesse spricht, dass die Risiken für die Betroffenen überwiegen würde, ist man die Frage, wer stellt denn das eigentlich fest und wann und auf welche Art und Weise. Und bei der Einwilligungsbasiertheit zeigt sich doch zunehmend, dass es schwierig ist, dies in der klinischen Routine zu verankern.
46:43
Und dass es daneben eben auch schwierig ist, ein wirkliches inhaltliches Verständnis bei den Patienten in dieser Situation, diese Aufnahmesituation in einer Klinik zu erzeugen, was dann wirklich rechtfertigen würde, dass man von einer informierten Einwilligung spricht. Und hinzu kommen noch methodische Unzulänglichkeiten
47:01
wegen der mangelnden Repräsentativität, wenn diese Einwilligungen eben nicht wirklich dann auch mit hinreichend hoher Rate gegeben werden. Oder es gibt auch Patienten wie zum Beispiel Intensivpatienten, die auf diese Art und Weise systematisch von einer solchen Erfassung ausgeschlossen wären. Und aus diesem Grund ist im Herbst 2019 im Auftrag des Bundesministeriums für Gesundheit
47:30
ein Gutachten erstellt worden, zwei von den Kollegen aus Kiel, nämlich Sebastian Graf von Kielmanns Eck von der juristischen Fakultät und ich selbst waren daran beteiligt und dazu noch ein Ethiker aus Berlin, Daniel Strech
47:45
und ein Medizin Informatiker aus Bonn, Sven Zenker, unter der Koordination der TMF, dass die Frage aufgeworfen hat, ob es nicht tatsächlich einen dritten Weg gebe, um diese Daten zu nutzen in Form einer Datenspende, wo man dann die Möglichkeit
48:01
hätte, dass man diese Datenspende, also diesen Vorgang, dass der Patient zum Ausdruck bringt, ja ich möchte gerne, dass mit meinen Daten geforscht wird, von diesem Behandlungskontext entkoppelt und das verknüpfen würde mit einem einfach auszuübenden Widerspruchsrecht. Also die Idee wäre, die Daten können genommen werden, das ist gesetzlich erlaubt und jeder
48:24
Bürger hat das Recht, dem zu widersprechen, wenn er es nicht möchte und das Gutachten kommt zu dem Schluss, dass Voraussetzung, dass das tatsächlich so vertretbar wäre, auf der einen Seite ist, dass die Entscheidung über die Nutzung der Daten dann von unabhängigen
48:43
Einrichtungen, sogenannten Use-and-Access-Komitees getroffen wird und das ist auf der anderen Seite eine dauerhafte Überprüfung des Nutzens, den das Ganze hat, zum Beispiel durch einen unabhängigen Datenspendebeirat bedarfen würde. Dass aber dann, wenn man
49:01
tatsächlich die infrastrukturellen Voraussetzungen dafür schaffen würde, das relativ schlank gehalten werden könnte, dann wäre das möglicherweise doch ein Weg, um die Erschließung von Versorgungsdaten für die Forschung zu vereinfachen. Wir haben das hier in Kiel mit Befragungen von Patienten im Universitätsklinikum begleitet und vielleicht
49:25
nur ganz kurz auf der rechten Seite, dass eine Publikation aus 2019 von Gesine Richter hier aus der Medizinethik im UKSH das klar ergeben hat, dass weit über 90% der
49:42
Patienten damit einverstanden sind, dass ihre Daten genutzt werden, also die sind bereit, dem im Rahmen eines Konsentverfahrens zuzustimmen. Und was noch wichtiger ist, dass tatsächlich drei Viertel von diesen Personen auch damit einverstanden wären, dass man sie überhaupt nicht mehr fragt, sondern dass es eben einen solchen
50:04
Datenspendemechanismus mit einem Widerspruchsrecht gäbe. Auf der linken Seite sehen Sie eine Arbeit, die im Moment zur Publikation eingereicht ist. Da ist das Idee, setzt sich in der Zwischenzeit an vielen Stellen durch. Es gab Anfang April ein sehr
50:22
prominentes Interview in der Frankfurter Allgemeinen Zeitung mit zwei doch sehr prominenten Persönlichkeiten aus der medizinischen Verbundforschung. Einmal Roland Eins, Bioinformatiker vom Berlin Institute of Health, der das auch nochmal heraus gestrichen hat, dass aus ihrer Erfahrung heraus die Bereitschaft der
50:41
Bürger, Daten für die Forschung zur Verfügung zu stellen, enorm hoch ist. Und Christoph von Calle, ein Arzt an der Charité, hat das dann auch nochmal gesagt, im Zusammenhang mit der aktuellen Pandemie, dass unsere Unfähigkeit auf diese Daten jetzt wirklich im breiten Stil zugreifen zu können, dass es an
51:01
den Wünschen der Patienten eigentlich vorbei geht und dass wir uns diese Unfähigkeit nicht mehr länger schön reden könnten mit Datenschutzproblematiken, sondern dass es am Ende wirklich um ein organisatorisches und ein Infrastrukturproblem geht. Und damit bin ich am Ende meines Vortrags, möchte
51:21
vielleicht ein kurzes Fazit ziehen. Also zum einen sehen Sie hier oben, natürlich müssen wir jetzt lernen, aus dem, was jetzt während der Corona-Pandemie möglicherweise nicht so günstig gelaufen ist und zwar nicht nur für die nächste Pandemie, sondern für die nächste
51:40
Gesundheitskrise. Das hatten Sie vorhin auf diesem Karton gesehen, wenn die Pandemie erst mal abgeklungen ist, dann werden alle anderen Gesundheitsprobleme, die sich in einer älteren, alt werdenden Bevölkerung, wie unsere eben stellen, werden alle wieder akut werden. Und dass eben das Management solcher Krisen ohne Daten von hinreichender Qualität und
52:03
Quantität nicht möglich ist. Was auch ganz wichtig ist, das wäre auch in der Corona-Pandemie schon wichtig gewesen, dass eben die Verfügbarkeit solcher Daten auch die Versachlichung der politischen Diskussion stützen kann und insbesondere auch dann bei der Bevölkerung für eine höhere Akzeptanz
52:23
der aufgrund dieser Daten ergriffenen Maßnahmen zur Folge haben könnte. Wir haben derzeit noch eine unzureichende Infrastruktur, aber es gibt genug Aktivitäten, gerade jetzt unter dem Dach des Netzwerk Universitätsmedizin, diese Infrastruktur zu verbessern. Das wird
52:41
nicht reichen. Parallel dazu muss sicherlich die Digitalisierung im Gesundheitswesen auf breiterer Front vorangetrieben werden und insbesondere auch geeignet verzahnt werden mit der öffentlichen Verwaltung und dem privaten Umfeld. Die Sicherstellung einer besseren
53:01
Datenlage, das wird sich zeigen, ist aber kein ausschließliches Informatikproblem. Das, was ich am Schluss angesprochen hatte, zeigt, dass es da einen Dialog auch mit Ethikern, mit Juristen und insbesondere auch mit der Bevölkerung braucht und am Ende das Ganze eigentlich nur dann erfolgreich sein kann, wenn man
53:21
wirklich einen interdisziplinären Input und Austausch zwischen vielen Expertisen und vielen Erfahrungen in vielen Bereichen an dieser Stelle auf den Weg bringen würde. Und das letzte Dia, das möchte ich Ihnen nicht vorenthalten, bevor ich Ihnen für Ihr Interesse danke. Das ist ein Schnappschuss von dem Kühlschrank in unserem Institut. Da hing über Jahre hinweg so
53:44
ein Magnet Scrabble und wie Sie sehen, hat also diese Corona-Pandemie unsere Mitarbeiter derartig in Bann gezogen und derartig beschäftigt, dass tatsächlich dort dann relativ rasch ein solches Scrabble zu Themen aus der Corona-Pandemie entstanden ist.
54:02
Das hängt da heute noch. Wir hoffen alle, dass mit dem jetzt sich langsam verbesserten Infektionsgeschehen wir uns dann auch wieder anderen Fragestellungen und anderen Dingen zuwenden können und eine dieser Fragestellungen, eins dieser Probleme, das habe ich versucht, Ihnen eben in
54:20
diesem Vortrag nahe zu bringen, ist die Sicherstellung von einer hinreichenden Datengrundlage für die medizinische Forschung. Vielen Dank, lieber Herr Krafczak. Das sind die Worte eines Manas und eines Menschen, der sich
54:45
immer für Datenqualität eingesetzt hat. Und es wirkt, wie ganz oft bei diesem Thema, etwas trocken, aber es ist unheimlich viel Musik drin, so würde ich das bezeichnen wollen.
55:07
Wir haben jetzt eine Reihe von Fragen in unserem Chat-Protokoll, auch von unseren Unterstützern gut eingepflegt, die ich mal
55:22
anfangen möchte zu präsentieren. Eine Zuschauerin fragt zum Thema Modelle, welches Risiko schätzen Sie höher ein? Das Risiko einer fehlerhaften Schlussfolgerung und damit einer fehlerhaft ergriffenen
55:42
Maßnahme auf der Grundlage einer rein empirisch ermittelten Datenkorrelation ohne Absicherung des statistischen Ergebnisses durch ein dahinter liegendes Wissensmodell oder das Risiko trotz einer eventuell auch nur unsicheren statistischen Evidenz zur Gefahrenabwehr wegen nur dünner
56:02
Korrelation politisch nicht gehandelt zu haben. Unter welchem Unsicherheitsmaß sollte man in der Epidemiologie schon aufgrund eines rein empirisch ermittelten Erklärungsmodells politisch handeln, auch wenn es noch kein wissensbasiertes Erklärungsmodell gibt?
56:21
Also ich glaube, das geht so ein bisschen in die Richtung dieses Science Blocks, von dem ich da gesprochen hatte. Also alle Beteiligten dort hatten ja sich sehr dafür ausgesprochen, dass man also das Bestmögliche zu einem gewissen Zeitpunkt tun sollte. Das heißt, solange wie noch keine verlässlichen
56:42
und hinreichenden empirischen Daten vorliegen, ist es sicherlich unumgänglich, dass man sich dann eben auf Vorhersagen von Modellen, so sie denn wissenschaftlich fundiert sind, verlässt, was allemal besser ist, als sich einfach nur auf das Bauchgefühl zu verlassen.
57:00
Aber sobald eben dann hinreichende Daten zur Verfügung stehen, ist es eben erforderlich, dass man diese Frage ja auch zeigt, eben diese theoretischen Vorhersagen zunehmend eben dann auch untermauert beziehungsweise ablöst durch Maßnahmen, die sich auf tatsächlichen empirischen
57:21
Erkenntnissen gründen. Aber der Vortrag zielte ja in die Richtung, dass man eben dafür sorgen muss, dass diese Daten auch dann zur Verfügung stehen und dass das eigentlich das Kernproblem gewesen ist, dass wir eben vor dieser Pandemie es versäumt haben, den Aufbau solcher Infrastrukturen, die diese Daten
57:43
Erhebung und die Datennutzung auch ermöglichen würden, in geeignerter Art und Weise voranzutreiben. Also ich kann mich sehr gut daran erinnern, dass vor dieser vor dieser Pandemie die Medizin Informatik Initiative eben sehr auf der Stelle getreten hat und auch nicht wirklich die Wahrnehmung erhalten hat, die sie eigentlich verdient hatte.
58:03
Das hat sich jetzt durch die Pandemie geändert. Allerdings immer noch fokussiert jetzt auf das auf dieses Covid-19 Geschehen. Aber ich glaube schon, dass das jetzt ein Spin-off oder ein ein ein Impact haben wird da drauf, dass einfach diese Frage der
58:22
Infrastruktur für die Datengenerierung größeres Gewicht bekommen wird. Also um auf die Frage zu antworten, handeln muss man immer. Und das hatte ich ja gesagt. Also die Politik musste ja Entscheidungen treffen. Und ich glaube, sie hat das auch ganz gut gemacht. Das Einzige vielleicht, wenn ich das noch sagen darf, was der
58:43
ganzen Geschichte gut getan hätte, auch in der Wahrnehmung und der Akzeptanz in der Bevölkerung ist, wenn einfach der wissenschaftliche Input, den es gegeben hätte, transparenter gewesen wäre. Also ich hätte mir vorstellen können, dass man von Seiten des BMG auch so ein ein monatliches wissenschaftliches Symposium
59:02
online veranstaltet hätte, wo es wirklich einen wissenschaftlichen Dialog gegeben hätte. Das hätte den Eindruck verhindert, dass da eben zumindest in der Anfangszeit doch doch viele Empfehlungen eben einfach gegeben wurden, ohne dass wirklich transparent war, welche Wissenschaftsdisziplin da diesen Input leistet.
59:23
Denn insbesondere die Epidemiologen sind ja in der ersten Zeit der Pandemie wirklich kaum in Erscheinung getreten. Da waren es im Wesentlichen eben, muss man sagen, Virologen und Physiker, die dort wahrnehmbar die Politik beraten haben. Sie hatten ja auch mit einem kleinen ironischen Untertun,
59:43
wenn ich das richtig gehört habe, eine Art von deutscher Kleinstaaterei bei den Initiativen, um die es jetzt geht, bei NUM und bei anderen Initiativen geredet. Sie haben
01:00:02
Meine Perspektive an der Stelle ist auch, dass wir aufgrund unserer spezifisch deutschen Historie eine Datenschutzwahrnehmung haben, die eben sehr intensiv und extensiv ist, die so intensiv in der Öffentlichkeit debattiert wird, dass da teilweise der Gesundheitsschutz
01:00:25
von der Bewertung her geringer ausfällt als der Datenschutz. Sehen Sie das auch so oder würden Sie das nicht so gegeneinander ausspielen? Also ich finde es eben gerade wichtig, dass man
01:00:42
das nicht gegeneinander ausspielt. Der Datenschutz ist ein legitimes Interesse aller Bürger, weil wir eben wollen, dass insbesondere eben medizinische Daten, die besonders sensibel sind, auch geeignet geschützt werden. Was mir an der Stelle oft fehlt, ist wirklich eine risikoadaptierte
01:01:03
Sicht oder ein risikoadaptierter Umgang mit dem Thema Datenschutz. Also welche Risiken entstehen denn tatsächlich dadurch, dass sich zum Beispiel innerhalb des UKSHs, hinter der Firewall des UKSHs diese Arbeiten ausführe, die dazu führen, dass die Daten der Patienten, die sowieso in
01:01:23
diesem System liegen, in neuer Form dann für Forschung zur Verfügung gestellt werden. Wo liegen die Risiken, wenn da tatsächlich Experten aus der ganzen Bundesrepublik zusammenarbeiten, um geeignete Pseudonymisierung und Treuhänderlösungen auf den Weg zu bringen, damit eben
01:01:41
die Datenschutzrisiken minimiert werden. Also ich finde, dass in einer Zeit, wo viele Menschen bei Facebook und bei Google und Amazon Unmengen an persönlichen Daten bedenkenlos offenbaren, teilweise diese Diskussion im Zusammenhang mit der medizinischen Forschung,
01:02:02
wo es keinen bisher dokumentierten Fall eines Missbrauchs von medizinischen Forschungsdaten zum Nachteil einer einzelnen Person gegeben hat, das finde ich eben, das muss sich ändern. Weil ansonsten tut man dem Datenschutz damit auch keinen großen Gefallen, weil das eben
01:02:20
in der Warnung fast reflexartig immer dazu führt, ja der Datenschutz blockiert alles. Der Datenschutz muss nicht alles blockieren, aber es braucht einen vernünftigen, an den tatsächlichen Risiken ausgerichteten Umgang mit dieser Datenschutzproblematik. Ich denke, das sind die richtigen Worte dafür. Eine Zuschauerin oder ein Zuschauer
01:02:42
fragt, Daten, von schnell mal erhoben Daten oder gar systemisch systematisch falsch erhobenen Daten bis hin zu Qualitätsdaten mit hinterfragter Provenienz und kluger Vorbereitung, sind das eine. Denken ist das andere. Stecken wir nicht neben einer
01:03:01
Datenkrise auch in einer Modellkrise. Zum Beispiel sind Parameterräume zu orthogonalisieren oder zumindest zu normalisieren, vielleicht auch klug zu vergröbern. Ich weiß nicht, was PCM heißt, aber das wird hier in Klammern gesetzt.
01:03:21
Sind Parameterräume oder Indikatoren überhaupt der richtige Ansatz? Sie können das wahrscheinlich besser verstehen als ich. Ich muss zugeben, ich versuche mal halbwegs zu interpretieren, was damit gemeint ist. Vielleicht kann der
01:03:42
Fragesteller oder die Fragestellerin das ja noch mal korrigieren. Wir müssen natürlich mit den Daten in der Qualität, wie sie uns gerade jetzt aus den Versorgungssystemen zur Verfügung gestellt werden, leben. Und wir haben,
01:04:01
weil diese Daten eben Versorgungsdaten sind und primär erst mal Versorgungszwecken dienen, von Seiten der Forschung auch wenig Möglichkeit daran etwas zu ändern, weil sich eben diese Datenerzeugung primär auch an eigentlich zwei Dingen orientiert, nämlich der Patient muss wieder gesund werden und
01:04:21
die Daten müssen eben auch organisatorisch und insbesondere eben auch fast die Finanzierung dieser Prozesse angehen, das hergeben. Und deswegen ist die Forschung da auch nicht ganz frei zu bestimmen, in welcher Form oder welche Daten in welcher Form jetzt in der Medizin erzeugt werden. Deswegen
01:04:42
heißt das Ganze letztendlich auch Sekundärnutzung. Also wir müssen da schon ein bisschen mit dem leben, was wir bekommen. Das ist eine andere Frage, wenn man jetzt tatsächlich in gezielten Studien geplanten Studiendaten erhebt. Da ist man natürlich als Wissenschaftler relativ frei, wie man das ausgestaltet. Aber wir können insbesondere eben im Rahmen einer solchen
01:05:04
Pandemie die allermeisten wirklich wichtigen wissenschaftlichen Fragestellungen gar nicht mit gezielten prospektiven Studien beantworten, sondern wir sind eigentlich darauf angewiesen, dass wir das, was an Daten eben erzeugt wird oder anfällt, bis hin eben zu den selbst erhobenen Daten
01:05:22
mit Hilfe von Apps oder den Daten aus der Verwaltung. Wir müssen damit eben umgehen und müssen dann unser Methodenwissen einsetzen, um aus diesen Daten in dieser Form die bestmögliche Evidenz zu generieren.
01:05:44
Ja, Herr Kraftschack, Sie sind Mitglied bei der CoVidom Gruppe. Mögen Sie dazu kurz etwas sagen, wo es um Langzeituntersuchungen mehrerer Universitätskliniker bei Covid-19 erkrankten Patienten geht?
01:06:04
Das war ursprünglich vom Konzept her ein Schleswig-Holsteinisches Projekt. Mit der Idee, möglichst vollständig in einem bestimmten
01:06:22
geographischen Bereich alle mit einer SARS-CoV-2-Infektion getesteten Personen in ein solches Langzeit-Follow-up-Programm verschließen, weil sich relativ früh schon die Anzeichen verdichtet haben,
01:06:43
dass selbst Personen, die jetzt in der Akutphase der Infektion gar keine großen gesundheitlichen Probleme bekommen, möglicherweise doch Langzeitschäden zu befürchten hätten, insbesondere weil eben auch das Betroffensein von anderen Organsystemen als der Atmungstrakt
01:07:01
dann zunehmend in den Fokus gerückt ist. Deswegen haben wir hier in Kiel relativ früh dieses CoVidom-Projekt angeschoben, in Kooperation mit den Gesundheitsämtern Infizierte anzuschreiben und zu bitten, sich in so einen Langzeitprogramm mit einzubringen. Als dann das
01:07:26
Netzwerk Universitätsmedizin langsam Fahrt aufgenommen hat und dann auch die Struktur klar wurde mit diesem, Sie erinnern sich, NAPKON, also dieses nationale Kohortennetzwerk, da war klar, dass wir uns von Kiel aus darin beteiligen müssten. Und dann ist praktisch das CoVidom-Projekt
01:07:45
zu dem NAPKON-Pop geworden. Und daran maßgeblich beteiligt sind jetzt noch Würzburg und Berlin und zusätzlich auch noch einige andere Standorte. Aber der wesentliche Input in den Aufbau einer solchen Kohorte
01:08:01
von Infizierten, unabhängig von ihrem ursprünglichen Erkrankungszustand, dieses Projekt, das läuft jetzt unter dem Label NAPKON-Pop in dem Netzwerk Universitätsmedizin. Und die Kollegen arbeiten eigentlich jetzt hier in Kiel daran genauso weiter, als wenn das nach wie vor die
01:08:20
schleswig-hochsteinische Studie wäre. Und wir können auch mit der NAPKON-Pop, das soll ich sagen, dass wir immer noch mehr als 80% der Daten bislang beigetragen haben, beziehungsweise der Teilnehmer beigetragen haben zu diesem bundesweiten Projekt. Und dies trotz relativ niedriger Fallzahlen und einer geringen Bevölkerungsdichte.
01:08:42
Ja, aber es ist uns eben hier gelungen, auch mit Unterstützung des Gesundheitsministeriums hier in Schleswig-Holstein eben über die Gesundheitsämter doch eine sehr hohe Rekrutierungszahl hier zu erreichen. Auch das ist ja etwas, was wir, Sie hatten das ja bei der Vorstellung erwähnt, zum Beispiel eben in Zusammenhang mit dem PopCan Biobankprojekt
01:09:03
hier immer wieder erlebt haben, dass die Bereitschaft der Bürger an solchen Studien teilzunehmen eben extrem hoch ist. Also wir haben ja auch mit den ersten PopCan-Studien hier Rekrutierungszahlen von 60 bis 70% der Angeschriebenen erreicht. Das ist sehr hoch und es scheint
01:09:22
möglicherweise auch ein besonderes Kennzeichen von Schleswig-Holstein zu sein, dass die Bereitschaft da mitzumachen hier besonders hoch und ausgeprägt ist. Ein Zuschauer hat nachgetragen, PCM heißt Principle Component Analysis und wollte das nochmal deutlich machen,
01:09:43
um sich auf die Hauptparameter zu konzentrieren und gleichzeitig orthogonalisierte Räume betrachten zu können. Das sind Verfahren, die eigentlich eingesetzt werden, um sehr hochdimensionale Daten praktisch in
01:10:03
ihrer Dimensionalität zu reduzieren, sodass man sich auf das Wesentliche, was eigentlich in diesen Daten an Informationen steckt, konzentrieren kann. Das sind natürlich Dinge, also wir sind jetzt hier im Moment in Kiel gerade im Dialog über die Methoden, die für die Zwischenauswertung der Daten aus diesem Napcon-Pop vorher Kovidom angewandt werden sollen
01:10:25
und da werden gerade eben diese Dimensionsreduktionsverfahren auch eine große Rolle spielen. Ein Zuschauer oder eine Zuschauerin fragt, es wurde eingangs erläutert, dass die Qualität bzw. Validität unseres Wissens maßgeblich von der
01:10:44
Qualität der Daten an der Datenbasis der sogenannten Datenpyramide abhängt. Das haben Sie ja an dieser Grafik schon dargestellt. Wie beurteilen Sie die Gleichmäßigkeit der länderspezifisch gelieferten Daten etwa aus Europa, China, USA, Asien etc.
01:11:03
Und wie können bekannte Unterschiede in der Datenqualität im Prozess der Wissensmodulierung gegebenenfalls ausgeglichen werden? Also eine relativ einfache Möglichkeit, dem Rechnung zu tragen, ist das, was man in der Statistik als Stratifizierung bezeichnet.
01:11:23
Das heißt, dass man die statistische Bewertung der Daten und Auswertung der Daten nach den Quellen stratifiziert. Also einfach gesprochen, man macht eine Analyse mit deutschen Daten, eine mit italienischen Daten, eine mit brasilianischen Daten, und guckt, ob man im Wesentlichen zu den gleichen Ergebnissen kommt.
01:11:44
Eine weitere Möglichkeit ist, es gibt auch statistische Verfahren, mit denen man das berücksichtigen kann. Aber der eigentlich wirklich sinnvolle Schritt, ich spreche jetzt mal erstmal vom Ausgleich über die Institutionen in Deutschland,
01:12:01
die solche Daten beitragen, ist dafür zu sorgen, dass sich die Datenerzeuger auf Standards einigen, die dafür sorgen, dass es dann erstmal eine gemeinsame Sprache gibt, in der diese Daten beschrieben werden, und dann eben auch Standards für die Qualität dieser Daten. Also wie werden die Daten erhoben, wie werden sie validiert,
01:12:21
wie werden sie kontrolliert, wie werden sie eingegeben und dann nochmal kontrolliert. Das ist eigentlich ein wesentlich wirksameres und nachhaltigeres Werkzeug, um die Homogenität der Datenqualität zu garantieren, als vielleicht im Nachhinein dann zu versuchen, mithilfe statistischer Verfahren das zu berücksichtigen.
01:12:43
Da wo das organisatorisch nicht möglich ist, also wenn es wirklich darum gehen würde, jetzt Daten aus unterschiedlichen Kontinenten zusammenzuführen, die natürlich unterschiedliche Herkünfte und unterschiedliche Standards haben. Wenn man das machen will,
01:13:02
wird man wahrscheinlich nicht vorbeikommen, dass man diese Daten separat auswertet und versucht daraus ein großes, ganzes Bild insichtlich der wissenschaftlichen Fragestellung abzuleiten, die man hat. An manchen Stellen wird das nicht gehen, insbesondere wenn es darum geht, auch Unterschiede zwischen den Ländern und den möglichen Zusammenhängen aufzudecken,
01:13:23
da wird sich das kaum adressieren lassen. Es ist schon natürlich von erheblicher Interesse, ob der schwedische Weg der günstigere oder weniger günstige gewesen ist. Insofern sind diese Daten zur Zusammenfügung und Vergleiche
01:13:43
ja eben immer mit der Frage versehen, haben wir es hier mit Äpfel und Birnen im Vergleich zu tun? Wenn wir jetzt von Schweden reden, würde ich mal davon ausgehen, dass es schon überprüfbar ist, ob danach den gleichen Standards
01:14:01
und mit den gleichen Qualitätskriterien und Qualitätssicherungskriterien gearbeitet wurde, wie zum Beispiel in Deutschland. Insbesondere wenn die Datenerhebung, eben auch Legiatis, diese ganzen Begleitdaten, also die Metadaten, die zu diesen Daten gehören,
01:14:21
in geeigneter Art und Weise mit erfassen. Ich glaube, dann kann man das relativ gut urteilen, ob das vergleichbar ist oder nicht. Es gibt auch Kenngrößen oder Indikatoren für die Qualität von Daten, die man dann natürlich auch nutzen kann, um möglicherweise eben Unterschiede, die man sieht, dann zu adjustieren.
01:14:44
Eine Zuschauerin oder ein Zuschauer sagt und kommentiert zunächst zum Datenschutz, die von Ihnen angesprochene Datenspende ist nach meinem Kenntnisstand in der gegenwärtigen Fassung der DSGVO nicht vorgesehen.
01:15:01
Auch handelt es sich hier um höchstpersönliche Daten. Einen etwaigen großen Vertrauensverlust würde ich nicht unterschätzen. Es hat ja schon MRT-Bilder im Internet gegeben. Wäre nicht die vollständige Anonymisierung hier ein Ausweg? Vollständig anonyme Daten sind nach meinem Kenntnisstand nicht von der DSGVO beschränkt.
01:15:25
Oder kommt es auf die Rückverfolgbarkeit zum Patienten an? Also vielleicht die letzte Frage zuerst. Das ist ja letztendlich das, was uns auch das Kopfzerbrechen mit dem Datenschutz bereitet ist, dass wir eben auf die vollständige Anonymisierung nicht mehr setzen können,
01:15:42
weil wir für viele wissenschaftliche Fragestellungen eben wirklich solche Langzeitverläufe brauchen. Also insbesondere wenn man daran, das hat jetzt nicht mit Covid-19 zu tun, aber die ganze Forschung zu Prävention ist ja darauf angewiesen, dass man relativ früh möglicherweise noch vor der Erkrankung erhobene Daten zu möglichen Prädiktoren
01:16:09
hinterher in Verbindung bringt mit dem akuten Erkrankungszustand. Und das geht eben nicht auf vollständig anonymisierten Daten. Das heißt, wir brauchen die Möglichkeit, immer wieder auch bereits bestehende Datenbestände, personenbezogen,
01:16:22
weiter zu ergänzen und vorzuschreiben. Zu der ersten Frage. Also ich hatte ja gesagt, dass an diesem Datenspendegutachten auch Sebastian Graf von Kielmannsäck hier aus Kiel beteiligt war. Genau, als Jurist, der einen sehr umfangreichen juristischen Teil zu dem Gutachten beigetragen hat,
01:16:42
der zu der Aussage kommt, dass die Datenspende zwar so nicht explizit vorgesehen ist, aber vereinbar ist mit dem Europäischen Datenschutz-Grundverordnung. Weil die Europäische Datenschutz-Grundverordnung ist im Kern extrem forschungsfreundlich. Das muss man wirklich sagen. Die Frage ist, wie sie in nationales Recht überführt wird und umgesetzt wird.
01:17:03
Aber man merkt der DSGVO und insbesondere den Erwägungsgründen, die dazu angeführt werden, zu den einschlägigen Artikeln an, dass hier wirklich der Wunsch bestand, die Forschung und insbesondere auch die medizinische Forschung
01:17:20
zu privilegieren gegenüber anderen Formen der Datennutzung, wie zum Beispiel eben für soziale Netzwerke, Werbung und so weiter. Also das bringt meines Erachtens auch schon zum Ausdruck, dass der europäische Gesetzgeber dort ein gewisses Grundvertrauen gegenüber medizinischer Forschung hat und eben auch die Notwendigkeit erkannt hat,
01:17:43
dass an diesen Stellen eben ein besonderes Bedürfnis und besondere Anforderungen bestehen und das eben rechtlich auch zu ermöglichen. Ganz wichtig vielleicht, man muss sich eben in Erinnerung rufen, dass auch in der DSGVO das öffentliche Interesse in Abwägung gegen die Risiken
01:18:02
für die Betroffenen als gleichwertige Rechtsgrundlage für die Verarbeitung personenbezogener Daten vorgesehen ist, neben der informierten Einwilligung. In Deutschland habe ich immer den Eindruck, es gibt so eine Hierarchisierung dieser beiden Rechtsgrundlagen, also Broad Consent geht immer vor.
01:18:22
Und wenn das nicht geht, kann man sich was anderes überlegen. Das ist aber vom Gesetzgeber nicht so intendiert gewesen, sondern es stehen beide Rechtsgrundlagen, nämlich öffentliches Interesse in Abwägung gegen die Risiken und persönliches Einverständnis auf einer Stufe nebeneinander. Und das hat Sebastian von Kielmanns Eck auch in einem relativ rezenten Gutachten
01:18:44
für das NUM, also das Netzwerk Universitätsmedizin, noch mal zum Ausdruck gebracht, wo es um die Frage geht, ob eventuell sehr wichtige Daten aus der frühen Phase der Corona-Pandemie, die gesammelt wurden ohne Einwilligung, nicht doch retrospektiv jetzt
01:19:01
in das Netzwerk integriert werden können, um sie eben dort wissenschaftlich nutzen zu können. Weil realistischerweise niemand jetzt mehr an die Patienten zurückgehen kann und sie nachträglich um eine Einwilligung bitten kann. Und im Zuge dessen hat Sebastian von Kielmanns Eck das relativ klargestellt. Dass es diese Hierarchisierung dieser beiden Rechtsgrundlagen
01:19:22
in der DSGV und auch in der nationalen Gesetzgebung nicht gibt. Das heißt also, dass es auch ein öffentliches Interesse gibt, was auf der gleichen Datenschutzebene wie das individuelle Datenschutz ist.
01:19:41
Genau, also ich glaube, die Idee dahinter ist, wenn das öffentliche Interesse an der Nutzung der Daten, die Risiken, die den Betroffenen daraus entstehen, sehr weit überwiegt, dann ist das eine hinreichende Rechtsgrundlage, um die Daten zu verarbeiten, selbst wenn es keine Einwilligung gibt.
01:20:01
Ganz wichtig, dass in diesem zweiten Guter, ich bin ja kein Jurist, das ist jetzt secondhand, aber ich glaube, ich habe es soweit verstanden, dass natürlich das eine nicht gegen das andere ausgespielt werden kann. Das heißt, wenn es eine Einwilligung gibt und der Patient klargibt, dass das eingeschränkt ist oder es sogar einen Widerspruch gibt,
01:20:20
dann kann die andere Rechtsgrundlage, also das öffentliche Interesse, das nicht aushebeln. Aber wenn es keine Einwilligung gibt, dann ist eben das öffentliche Interesse, abgewogen gegen die Risiken, eine valide Rechtsgrundlage, um diese Daten auch zu verarbeiten. Was große Konsequenzen jetzt auch für das Netzwerk hat, weil das eben bedeutet, dass in der Tat jetzt diese Daten aus der Frühphase,
01:20:42
die sehr, sehr wichtig sind, weil sie eben gerade vor der Fragestellung, die ich vorhin geschildert habe, auch etwas vielleicht hinsichtlich Frühindikatoren für dieses spätere Gesundheitsrisiko enthalten könnte, ist es eben extrem wichtig, dass wir diese Daten jetzt auch nutzen können. Nochmal zu den Daten. Da fragt eine Zuschauerin oder ein Zuschauer
01:21:04
einmal angenommen. Es könnten alle Daten ermittelt werden, wie gewünscht, und aufgrund einer Modellierung kommt man zu dem Schluss einer bestimmten Handlungsempfehlung. Ethisch ließe sich diese Maßnahme aber nicht oder nicht so verantworten.
01:21:21
Sollte dann die Empfehlung aus dem objektiven Datenmodell dennoch Vorrang haben? Mich erinnert das Ganze ein wenig an die Diskussion um KI, etwa im Straßenverkehr oder auch auf sonstigen Gebieten. Sollten wir uns also im Zweifel einer Herrschaft der Daten unterwerfen?
01:21:42
Also ich glaube, das hat niemand vor. Ich kann mir erinnern, dass Mehrfachpolitiker auch Angela Merkel immer gesagt, das Land wird nicht von Virologen regiert. Das sind Ratschläge, die aus der Wissenschaft kommen. Aber die Entscheidung, die daraus abgeleitet wird, ist eine Entscheidung der Entscheidungsträger, also in dem Fall der Politik.
01:22:04
Und daran sollte man auch nicht rütteln. Auch die Wissenschaft, glaube ich, hat überhaupt kein Interesse daran, dass jetzt so ein Automatismus entstehen würde, dass eine bestimmte wissenschaftliche Schlussfolgerung oder wissenschaftlicher Rat unmittelbar jetzt dann übersetzt wird
01:22:21
in eine bestimmte Entscheidung der Politik. Also im Gegenteil, die Wissenschaftler haben ja selbst immer auch in dieser Diskussion darauf hingewiesen, dass Wissenschaft immer Dissens ist. Es ist immer Diskussion, es ist immer Widerstreit. Und wir haben ja gelernt, das auszuhalten.
01:22:41
Die Politik muss aber irgendwann entscheiden. Und deswegen können wir eigentlich nichts weitermachen, als eben die Optionen und die Unterschiede in Sichtweisen, die es zu einem bestimmten Problem gibt, eben verständlich zu machen und heranzutransportieren. Aber die Entscheidung muss letztendlich dann die Politik treffen.
01:23:00
Und das hat meines Erachtens auch nichts damit zu tun, dass sich da irgendjemand wegducken will. Ich glaube, die Rollenverteilung, so wie ich sie geschildert habe, tut der ganzen Sache gut. Und deswegen gibt es keine Herrschaft der Daten oder Herrschaft der Wissenschaft. Das ist schon fast ein Schlusswort. Wir haben noch eine Frage, und die lese ich jetzt einfach auch vor.
01:23:24
Würden Sie angesichts Ihrer Ausführungen auf struktureller Ebene ein Plädoyer für weniger kompetitive und mehr kooperative Forschung halten? Dem steht der gegenwärtige Universitätsbetrieb mit seiner eigenen Logik ja gewissermaßen entgegen.
01:23:42
Beziehungsweise, also beispielsweise durch die Fragmentierung über die Drittmittel. Also ich glaube, man muss ganz deutlich unterscheiden zwischen Infrastrukturaufbau und Infrastrukturpflege, die natürlich immer davon profitieren würde,
01:24:02
wenn sie nicht kompetitiv ist. Denn es ist eben einfach unsinnig, solche Infrastrukturaufbauten in Konkurrenz zueinander zu betreiben. Und das ist mehr oder weniger, kann man sagen, wirklich auch die DNA der TMF. Dafür ist sie eigentlich da, dass sie genau dem entgegenwirkt, dass eben unterschiedliche Lösungen immer wieder in unterschiedlichen Kontexten entstehen.
01:24:24
Also es hat nicht immer wieder neu erfunden wird. Und davon deutlich trennen muss man wirklich die wissenschaftliche Kompetition. Also der Streit der Ideen und der Methodiken und der wissenschaftlichen Arbeit.
01:24:40
Und das ist ja unser Alltag. Und zu einem erheblichen Teil ist das ja auch die Grundlage des, was ich gesagt habe, dass Wissenschaft immer Auseinandersetzung, immer Streit, immer Diskussion ist. Und im besten Fall führt es eben irgendwo zur Konvergenz. Das heißt, wir einigen uns auf irgendeine bestimmte Sache.
01:25:01
Und an anderen Stellen treiben wir den Streit fort. Und da ist Kompetition, glaube ich, letztendlich auch der Treibstoff für Wissenschaft. Denn ohne diese Kompetition würden wir, glaube ich, nicht dastehen, wo wir heute sind. Aber wie gesagt, da, wo es um Infrastruktur und die Grundlagen für das Ganze geht,
01:25:20
da ist Einigung allemal besser, als das im Widerstreit immer wieder neu zu bauen. Ulrich Konrad-Ott hatte Sie noch ganz, ganz lange gemeldet. Wollen wir vielleicht noch eine letzte Minute? Er hat ja ganz lange die Hand oben, oder? Sorry. Ist es in Ordnung, noch eine Frage? Ich war so hier engagiert.
01:25:42
Muss nicht unbedingt sein. Sorry, Konrad. Alles gut. Vielen Dank, Herr Krapczak, für den Vortrag. Ich habe zwei Fragen. Die erste Frage betrifft, was Sie am Anfang des Vortrags gesagt haben, zum Ursprung des Virus. Da gab es ja im Grunde immer die Laborhypothese und es gab den Bericht der WHO.
01:26:03
Und in diesem 400 Seiten starken Bericht wurde eigentlich gesagt, die Laborhypothese ist extrem unwahrscheinlich und muss verworfen werden. Jetzt gibt es neuen Streit über diesen Report. Da gibt es auch ein paar wissenschaftliche Sachen. Also da wird auch gezeigt, dass im Grunde in dem Labor unter Sicherheitsstufe 2 Bedingungen
01:26:25
Forschung und Coronaviren durchgeführt worden sind, die man vielleicht nicht hätte unter Stufe 2 machen sollen, sondern in einer höheren Stufe und, und, und. Und was Sie jetzt dann gesagt haben, das war mir neu, dass im Grunde haben Sie ja gesagt, dass im Grunde dieses Virus nach diesem Minenunfall in diesem Labor präsent gewesen ist.
01:26:44
Also könnte man noch sagen, gewinnt in den vergangenen Wochen doch die Laborhypothese wieder an Plausibilität. Auch wenn wir es vielleicht nie endgültig mit Sicherheit wissen werden. Da würde ich einfach fragen, ob Sie dem zustimmen können. Dem würde ich zustimmen. Vielleicht noch ein Wort dazu.
01:27:03
Also was, was mich wirklich so ein bisschen stutzig macht, ist, dass offensichtlich das Institut durch die Unbenennung des Virus versucht hat zu verschleiern, dass dieses Virus bereits 2013 dort untersucht worden ist und aufgetaucht ist.
01:27:22
Und dieser Vorläufer, der ist auch in Teilen schon sequenziert worden. Diese Sequenzen sind auch schon veröffentlicht worden, 2016 glaube ich, aber eben unter dieser alten Identität. Und mit den ersten Proben, die dann mit Beginn der Pandemie erhoben wurden, taucht da plötzlich ein neuer Name auf.
01:27:42
Und das Institut hat damals behauptet, das wäre 2020, als sie damit angefangen haben, das wäre das erste Mal gewesen, dass sie diesen Virus in der Hand gehabt haben. Und das stimmt offensichtlich nicht. Weil wirklich, das ist eins zu eins. Es muss eben einfach dieser Virus von 2013 schon gewesen sein, der dann unter anderem Namen 2020 praktisch von dort das erste Mal publiziert worden ist.
01:28:08
Meine zweite Frage geht doch noch auf die Datenspende ein. Ich bin sehr für die Datenspende. Das ist überhaupt kein Problem. Natürlich darf ich meine Daten spenden,
01:28:20
auch wenn ich nicht genau weiß, für welche Forschungen sie dann gebraucht werden. Man muss wahrscheinlich bei diesem informed consent Prinzip einfach von der Bedingung abrücken. Consent must be specific. Denn diese Bedingung, consent must be specific, ist nicht erfüllbar, wenn man im Grunde Daten in so Forschungsprozesse reingibt.
01:28:41
Das ist in Ordnung, ist völlig in Ordnung. Meine Frage betrifft die Einfachheit der Widerspruchslösung. Eine Widerspruchslösung kann in technischer Hinsicht einfach sein oder sie kann in psychischer Hinsicht einfach sein. Und da haben wir in einem anderen Forschungsprojekt herausgefunden, dass natürlich gerade der klinische Kontext, man ist behandelt worden.
01:29:05
Die Schwestern waren super nett. Die Ärztin war großartig. Man ist wieder gesund gemacht worden und soll in diesem klinischen Kontext dann jetzt einen Widerspruch einlegen. Das ist einfach psychisch schwer. Man hat irgendwie das Gefühl, das gehört sich nicht.
01:29:22
Das ist irgendwie fast unnett und fies gegenüber dem medizinischen Personal, das einen da so gut behandelt hat. Aber deswegen genau die Frage, müsste nicht im Grunde die Einfachheit der Widerspruchslösung neben den der technischen Dimension im Grunde auch diese psychische Dimension in Rechnung stellen?
01:29:42
Unbedingt. Und deswegen haben wir ja auch dafür plädiert, dass man das so weit, wie es irgendwie geht, von diesem Behandlungskontext löst. Also zum einen aus dieser unmittelbaren Aufnahmesituation, weil man auch nicht vermeiden kann, dass die Patienten glauben, dass eben die Frage, ob sie da zustimmen oder nicht,
01:30:02
dann irgendwie einen Einfluss auf ihre weitere Behandlung hat. Das ist das eine abgesehen von der Tatsache, dass die in dem Moment auch was anderes im Kopf haben. Die warten auf eine Behandlung oder eine Diagnose oder irgendwas und wollen sich dann nicht mit Forschungsnutzung auseinandersetzen. Und der zweite Grund ist, dass man eben, wenn man das schon tatsächlich für so kompliziert hält,
01:30:22
dass man darüber, wie also ja auch in der Medizin Informatik Initiative irgendwie auf zehn Seiten aufklären müsste, dann halte ich es allemal für fairer, dass man diese Informationen und diese Auseinandersetzung dann eben dem Bürger in seinem normalen Leben einfach treffen lässt.
01:30:41
Wenn er zu Hause auf dem Sofa sitzt, dann kann er sich das nochmal überlegen. Finde ich das jetzt gut, dass mit meinen Daten geforscht wird oder möchte ich das lieber nicht? Schätze ich die Risiken vielleicht dann doch irgendwie zu hoch ein? Dann habe ich immer gesagt, im Idealfall beim nächsten Hausarztbesuch oder in der nächsten Apotheke steckt man irgendwie seine Versichertenkarte rein
01:31:01
und sagt, ich möchte gern widersprechen und dann war es das. Also ich glaube, man kann das technisch so niederschwellig machen, dass man wirklich sagen kann, wenn jemand bewusst sagt, ich möchte das nicht, dann kann er das auch wirklich zum Ausdruck bringen. Aber meine Erwartung ist, dass wenn jemand wirklich darüber nachdenkt, was bedeutet das denn eigentlich?
01:31:21
Und da sind wir natürlich auch gefordert, dann hinreichend Informationen bereitzustellen und dafür zu sorgen, dass eine Auseinandersetzung damit auch informiert möglich ist für den Bürger. Wenn dann jemand darüber nachdenkt, dann wird die Mehrheit sagen, eigentlich finde ich es sehr gut, dass mit den Daten geforscht sind. Wir haben in den Veranstaltungen zu diesem Thema
01:31:40
immer wieder Patientenvertreter gehabt und ich habe nie erlebt, dass ein Patientenvertreter in irgendeiner Art und Weise auch nur annähernd gesagt, das finde ich nicht gut. Im Gegenteil, wir möchten ja, dass wenigstens mit unseren Daten noch was Gutes haben mit Blick auf die Erforschung dieser Krankheit und damit der Behandlung zukünftiger Patienten.
01:32:05
Danke. Lieber Herr Kraftschack, vielen herzlichen Dank für diesen sehr, sehr klaren Ausführungen und vielleicht ist es ja tatsächlich etwas, was man aus dieser Corona-Erfahrung jetzt auch mitnehmen kann. Vielleicht auch diese Schuld, dass wir eben gelernt haben und nochmal vor Augen geführt bekommen haben,
01:32:21
wie wichtig eben Daten für die Forschung sind und vielleicht wird das ja auch eben für dieses Anliegen, was uns jetzt endlich alle irgendwie auch für die Zukunft angeht, einfach wichtig ist. Vielleicht kommt da eben tatsächlich dann auch dadurch ein bisschen Schwung rein und dann hätte diese Corona-Pandemie zumindest mal in der Hinsicht auch noch etwas Gutes.
01:32:42
Wir machen einen Punkt, denke ich, Konrad Ott. Wir freuen uns auf deinen Vortrag nächste Woche und Ihnen nochmal ganz, ganz herzlichen Dank und auch den Zuschauerinnen und Zuschauern zu Hause für das Zuhören und mitdiskutieren und bis nächste Woche. Tschüss.
Empfehlungen
Serie mit 7 Medien
Serie mit 2 Medien