MRI data models at low SNR
This is a modal window.
The media could not be loaded, either because the server or network failed or because the format is not supported.
Formal Metadata
Title |
| |
Title of Series | ||
Number of Parts | 22 | |
Author | ||
Contributors | ||
License | CC Attribution - NonCommercial - NoDerivatives 3.0 Germany: You are free to use, copy, distribute and transmit the work or content in unchanged form for any legal and non-commercial purpose as long as the work is attributed to the author in the manner specified by the author or licensor. | |
Identifiers | 10.5446/21910 (DOI) | |
Publisher | ||
Release Date | ||
Language | ||
Production Year | 2017 | |
Production Place | Hannover |
Content Metadata
Subject Area | ||
Genre | ||
Abstract |
|
1
2
9
14
00:00
Mathematical analysisStochasticEndliche ModelltheorieLocal ringParameter (computer programming)EstimationContent (media)Lie groupSpacetimeComputer-generated imageryInformationOrder of magnitudePhase transitionVolumeWebDAVDistribution (mathematics)Population densityExpected valueSensitivity analysisParallel portComa BerenicesFinite element methodSignalNoise (electronics)Raum <Mathematik>Variable (mathematics)Social classDistortionSound effectLösung <Mathematik>Parameter (computer programming)Focus (optics)AlgorithmInformationExpected valueFourier transformFrequencyMusical ensembleNegative predictive valueElectronic signatureNormal distributionScientific modellingDurchschnitt <Mengenlehre>Computer animation
06:58
Parameter (computer programming)EstimationLocal ringVideo gameEndliche ModelltheorieDistribution (mathematics)Function (mathematics)Logical constantInstant MessagingAdaptive behaviorWeightAlgorithmWeight functionModularityArtificial neural networkModemParameter (computer programming)SignalProbability distributionIdentifiabilityRun-time systemTerm (mathematics)DistanceDegrees of freedom (physics and chemistry)MathematicsAlgorithmNoise (electronics)Social classMusical ensembleAtomic nucleusZahlPopulation densityLocal ringLokation <Statistik>EstimatorWeightState of matterExpected valueCLOU <Programm>KernschätzungInformationDecision theoryComputer animation
13:56
Row (database)
14:26
AlgorithmRow (database)Parameter (computer programming)Version <Informatik>Noise (electronics)
15:22
EstimationEndliche ModelltheorieModularityVolumeGradientDistribution (mathematics)Data modelTensorSingle-precision floating-point formatSign (mathematics)Square numberParameter (computer programming)Local ringInstant MessagingWeb pageVideo gameWebDAVStatistical dispersionAdaptive behaviorSmoothingFluxCase moddingSound effectMassParameter (computer programming)Fusion <Programm>PlotterPropositional formulaMathematical structureDirection (geometry)Noise (electronics)Expected valueAnisotropyCharakteristik <Algebra>Scientific modellingTED <Datenbank>EstimationSignalVersion <Informatik>Eccentricity (mathematics)TensorDatabaseBildverbesserungWeightAlgorithmQuadratic formDistanceVortexMittelungsverfahrenOptimization problemOnline chatKanteEllipsoidSequenceSimulationEigenvalues and eigenvectorsPort scannerComputer animation
Transcript: German(auto-generated)
00:01
Okay, vielen Dank. Nach zwei so exzellenten Vorträgen ist es eher für mich eine Birde, hier nochmal den Fokus komplett zu wechseln auf eine fachliche Detailarbeit. Aber ich hoffe,
00:28
wir kriegen das hin. Ich möchte Ihnen nichtsdestotrotz, wo ich hier schon mal ganz im Sinne des Selbstdarstellertums nehme, ich diese Gelegenheit jetzt wahr und erzähle Ihnen etwas über die
00:44
Arbeit, die ich zusammen, insbesondere mit Herrn Polze hier im Publikum und Henning in den letzten Jahren gemacht habe. Und es geht dort vor allen Dingen um MRI-Daten,
01:00
also Daten aus Magnetresonanztomographie. Und der entscheidende Punkt, der uns daran interessiert, ist unter anderem, was passiert, wenn das Signal zum Rauschverhältnis sehr, sehr klein ist. Das wirft eigene Probleme hervor. Erstens, die Bilder sind verrauscht, nicht gut aus, die Information ist versteckt im Rauschen sozusagen, im Extremfall. Und ich
01:28
will hier in diesem Vortrag auch darauf eingehen, was das noch so für spezifische Probleme hervorruft. Ich vermute, dass nicht ganz jeder auf dem Schirm hat, wie
01:45
Magnetresonanztomographie funktioniert. Ich werde da auch gar nicht so ins Detail gehen, aber ich werde ein paar Dinge nennen, wie das funktioniert und was das für grundsätzliche Auswirkungen auf die statistischen Eigenschaften der Daten hat. Und dann möchte ich Ihnen zwei
02:01
Dinge nahebringen. Das Rauschen, das in den Daten drin ist, also die Unsicherheit in den Daten erzählen, wie wir diese Viabilität charakterisieren. Und das hat aber auch
02:27
einen zweiten Effekt. Wir sind in der Regel nicht nur an den Daten selbst interessiert, sondern an Parametern aus abgeleiteten Modellen, die biophysikalischen Hintergrund zum Beispiel haben. Und das ist ein ganz wichtiger Punkt, da zu verstehen, dass das
02:45
Rauschen auch zu einem Schätz-Bias führt, zu einer Verzerrung dieser Parameter. Und ich möchte Ihnen sozusagen erzählen, was wir da für Vorstellungen zu haben. Gut, zunächst kurz zum MRI. MRI ist ein großes Gerät, ein teures Gerät, basierend
03:08
auf magnetischer Resonanz. Das heißt, wir haben hier in diesem Scanner ein starkes statisches Magnetfeld, zu dem zusätzliche Magnetfeldgradienten hinzukommen, zeitlich
03:22
abhängig, plus Radiofrequenzwellen zur Anregung der Nuklearspins. Sie nehmen in die Bildakquisition erfolgt im K-Raum. Das heißt, sie messen Frequenzprofile typischerweise
03:43
in 2D. Es gibt auch Sequenzen, die ganze 3D-Bilder aufnehmen. Aber typischerweise wird das in Stacks von 2D aufgenommen. Und wie kommt man dann von einem solchen nicht-sagenden Bild im Car-Space zum Real-Space durch eine Foyertransformation? Ganz spezifisch
04:04
macht man einfach Foyertransformation und schmeißt in der Regel die Phaseninformation weg. Das ist zumindest der typische Weg und nimmt nur die Amplitude davon. Dieses Vorgehen führt zu ganz spezifischen statistischen Eigenschaften. Sie bilden also sozusagen
04:24
den Modulus des Signals im K-Raum. Und wenn wir davon ausgehen, und davon können wir ganz gut ausgehen, dass im K-Raum das Rauschen durch ein gaussisches Variable beschrieben werden kann, einfach als thermisches Rauschen, dann hat das ganz klar den Effekt auf
04:46
diesen Modulus im Real-Space, dass der nicht mehr gaussverteilt ist, sondern reißverteilt. Für gutes Signalrauschverhältnis, also sehr gutes Signal, wenig Rauschen, lässt
05:01
sich das gut durch eine Gaussverteilung wieder approximieren. In dem Bereich, wo es kleines Signal-to-Noise ist, geht das nicht mehr. Und der Effekt, der später dann noch eine Rolle spielen wird, der Erwartungswert dieses Signals ist dann nicht mehr identisch mit dem True-Noiseless-Signal, das wir eigentlich erwarten wollen. Das liegt einfach daran,
05:23
dass für kleine Signalrauschverhältnisse die Verteilung nicht mehr symmetrisch ist, sondern schief wird. Nun, die Sache wird noch komplizierter dadurch, dass man sogenanntes Parallelimaging hat. Die Signalakquise geschieht durch sogenannte
05:47
Receiver-Coils, also hier in diesen Kasten, hier sind die versteckt. Jeder dieser Löcher hier entspricht einer gewissen Receiver-Coil. Wenn wir da nur eine davon haben, ist ganz
06:00
klar, dass wir nur eine gewisse ausgezeichnete Sensitivität nahe der Coils haben. Weiter weg nimmt das immer mehr ab. Und deswegen zur Erhöhung des Signals und einer guten Abdeckung des gesamten Raumes macht man vor allen Dingen, also in den letzten Jahren fast nur noch Parallelimaging mit acht 1632 Coils, hat eine gute Abdeckung vom gesamten
06:26
Raum. Da entsteht sofort das Problem, auf das ich hier nicht im Detail eingehen will, wie kombiniert man jetzt 1632 Signale. Da gibt es viele Lösungen für viele Algorithmen mit unterschiedlichsten Namen, unterschiedlichsten Eigenschaften. Und
06:44
es ist klar, dass die Art und Weise, wie ich aus diesen 1632 Signalen wieder ein Bild zusammensetze, auch auf die statistischen Eigenschaften der Verteilung einen entscheidenden Einfluss hat. Nichtsdestotrotz zeigt sich, man kann das wieder in eine Klasse von
07:03
Verteilungen einsortieren. Und das ist dann eine Verallgemeinerung der Reißverteilung, die nicht zentrale Schiefverteilung. Zwei wichtige Parameter spielen dabei eine Rolle, das ist im Grunde genommen der Rauschparameter und die Freiheitsgrade. Und das zeigt
07:21
sich, auch abhängig vom Rekonstruktionsalgorithmus, da steht immer mal was anderes. Im Extremfall steht hier die Anzahl der Receiver-Coils, im anderen Extremfall steht da einfach ein Eins. Da bewegt sich das. Nun, das was mich jetzt hier interessieren will, ist dieser
07:47
Parameter, also dieser neues Parameter. Der Punkt ist nämlich, man könnte nun denken, ok, ich habe jetzt irgendwie so ein homogenes Rauschen, das ist überall gleich. Was zeigt sich, dass das nicht der Fall ist, sondern, dass dieser neues Parameter räumlich
08:06
variiert. Wir haben hier gewissermaßen acht Coils mit einer verschiedenen Sensitivität der Abdeckung. An unterschiedlichen Stellen im Gehirn sind sie unterschiedlich sensitiv. Wir addieren einen Rausch drauf. In der Regel haben wir dann ein nicht global
08:24
homogenes Rauschniveau, sondern sowas in der Art, aber wenigstens glatt. Ziel soll es jetzt sein, das zu charakterisieren, so ein lokales, diesen lokalen neues Parameter
08:43
aus den Daten effektiv zu schätzen. Der Algorithmus, den wir da verwenden, der kommt auf der nächsten Folie, der hat einige Voraussetzungen, die ich kurz mal erläutern möchte. Die erste Voraussetzung, quasi die Nullte, die habe ich Ihnen schon
09:01
genannt. Man kann das Signal durch eine nicht zentrale Schiefverteilung approximieren, mit einem lokal variierenden, aber glatten neues Parameter. Das scheint so jedenfalls die experimentellen Befunde und die Literatur sehr gut erfüllt zu sein.
09:24
Der Parameter variiert glatt, auch das ist eine vernünftige Voraussetzung. Die nächste Voraussetzung ist schon schwieriger, die Zahl der Freiheitsgrade, die die Verteilung hat, wie gesagt, die hängt vom Rekonstruktionsalgorithmus ab. Wenn es ganz schlimm kommt, kennen wir den nicht, sondern wir können nur so eine Art Guess für einen effektiven
09:42
Parameter machen. Es zeigt sich, wir haben zunächst versucht, sowohl den neues Parameter als auch L zu schätzen, aber es zeigt sich, dass das Schlechtmöglichkeit möglich ist, sondern die Identifizierbarkeit beider Parameter dann nicht gewährleistet ist. Nichtsdestotrotz,
10:01
für viele Rekonstruktionsalgorithmen im Parallel-Imaging kann man L direkt benennen und dann können wir das in den Algorithmus reinstecken. Die letzte Voraussetzung ist, eine über das Bild selbst, versteckt im Parameter Teta, also Teta ist der Parameter, der die Bildintensität, also True Intensity meines Bildes repräsentiert und das ist eine
10:26
Voraussetzung, die man immer ganz gut an Bilder ganz im Allgemeinen machen kann. Das ist eine lokal konstante Funktion, also irgendetwas mehr oder weniger homogene Bereiche, zum Beispiel verschiedene Tissues im Gehirn, getrennt durch mehr oder weniger scharfe
10:42
Diskontinuitäten. Gut, die Signalverteilung steht da unten. Hier unten nochmal der Erwartungswert dieser Verteilung, der sich von dem Tissue-Parameter sozusagen unterscheidet. So, was ist die Idee des Algorithmus, wenn wir Sigma schätzen wollen? Dazu verwenden wir
11:09
einen gewichteten Lock likelihood Schätzer, der ganz einfach hier unten steht. Hier geht die Dichte, also der nicht zentralen Schiefverteilung ein und hier geht ein Gewicht ein und in der Konstruktion dieser Gewichte steckt der ganze Clou. Da werden nämlich sogenannte adaptive
11:25
Gewichte definiert. Wenn Sie nur diesen Teil hier vorne ansehen, dann kennen Sie das sicherlich von Kernschätzung. Das ist einfach ein Kern genommen, es wird ein euklidischer Abstand im Real Space zwischen zwei Boxeln genommen und eine Bandweite damit versteckt.
11:43
Das wäre also gewissermaßen ein Gausskletter, den Sie nehmen können. Die entscheidende Idee, Nummer eins, besteht darin, hier einen zusätzlichen Term einzuführen, der zusätzlich zum Abstand der Lokation bewertet, wie der Abstand der gemessenen Werte an diesen
12:04
beiden Lokationen zu bewerten ist, im Verhältnis zum Rauschniveau. Sie sehen, hier steht das Rauschniveau mit drin. Der zweite Punkt ist, dass man hier einen Multiscalen, nämlich einen iterativen Ansatz draus macht und hier die Bandweite variieren lässt in einem iterativen
12:23
Prozess. Man startet sehr lokal für sehr kleine Bandweiten, erhöht dann im Laufe des Algorithmus immer mehr Bandweiten, die Bandweite immer mehr und bekommt immer mehr und verbesserte Informationen für den Schätzer, einfach weil man immer größere Umgebungen mit rein und stabilisiert die ganze Sache. Ich sollte vielleicht erwähnen, eins muss man reinstecken,
12:48
ein Initial Guess für das Sigma, für so einen globalen Schätzer. Das ist aber nicht so schwer, weil man eigentlich ganz gute Methoden hat, zum Beispiel so ein Sigma sich aus dem
13:05
Background des Images, also da wo eigentlich gar kein Signal ist, wo kein Brain ist, wo eigentlich schwarz sein sollte, zu beschaffen, da ist dieses Problem relativ einfach. So, das funktioniert hier einfach in einer Simulation für verschiedene Stärken des
13:25
Rauschens. Hier haben wir schon ein sehr, sehr schlechtes Signal-Rausch-Verhältnis, sieht man fast gar nichts. Das hier ist das glatte Profil, was ich Ihnen am Anfang zeigte, was sich in die Simulation für das Sigma, die lokale Abhängigkeit des Sigmas,
13:41
reingesteckt ist und grün indiziert, dass wir in dem geschätzten Werten, also in lokal geschätzten Werten für diesen Noise-Parameter eigentlich ziemlich gut drauflegen. Wofür braucht man das tatsächlich in der Praxis? Nun, das ist mal ein geschätztes Noise-Profil für einen
14:03
echten Datensatz, hier in dem Falle sogenannte Diffusionsbildgebung. Und was man hier ungefähr sieht, das ist tatsächlich auch in realen Daten nicht homogen. Man hat hier aus verschiedenen Gründen der Aufnahmetechnik ein sehr viel höheres Rauschniveau hier in den
14:22
vorderen Bereichen. Und der Punkt ist, das braucht man, wenn man sich zum Beispiel zur Aufgabe gesetzt hat, dieses Bild, was sehr verrauscht ist, adäquat zu rekonstruieren.
14:41
Das heißt, einen Glättungsalgorithmus zu verwenden, aus dem man eine geglättete entrauschte Version dieser Daten generiert. Hier ist es wichtig, denn dieser Glättungsalgorithmus braucht den Noise-Parameter Sigma, dass man den lokal richtig einsetzt. Das ist natürlich
15:01
visuell hier schwer auszumachen, wie die Unterschiede tatsächlich sind, aber ich kann Ihnen versichern, dass die Berücksichtigung eines lokalen Noise-Parameters, im Gegensatz zu einem zum Beispiel durch den Initial Guess aus dem Background bestimmten globalen Parameter, noch mal zu einer deutlichen Verbesserung führt. Nun zum zweiten Teil. Das Rauschen
15:30
führt nicht nur dazu, dass die Bilder schlecht aussehen und in gewisser Weise verbessert werden sollten zur Analyse, zur Auswertung. Er führt auch zu systematischem Bias in den
15:42
Noise-Parametern von spezifischen Modellen. Das ist wichtig, wenn wir bedenken, dass gerade in der MRI mehr und mehr dazu übergegangen wird, nicht nur nicht nur Kontrastbilder, also nicht skalierte Kontrastbilder anzusehen, sondern auch quantitative Aussagen zu treffen,
16:04
also wo die gemessenen Bilddaten nicht nur skalenfreie Bilder sind, sondern wirklich eine Einheit versehen sind und so eine Vergleichbarkeit über die Zeit, über verschiedene Patienten, Probanden oder auch nur zwischen verschiedenen Scannern zu gewährleisten.
16:26
Nun ein solches Modell für Daten, ich hatte das schon gezeigt, ein sehr einfaches Modell für diffusionsgewichtete Daten, ist das sogenannte Diffusionstensor-Modell. Das steht hier charakterisiert durch einen Diffusionstensor oben in einer quadratischen Form. Was bedeutet
16:45
das in der Interpretation? Nun das sagt einfach, was messe ich mit Diffusionsbildgebung, messe ich die Diffusivität von Wasser in bestimmten Richtungen im Gehirn an jeder
17:08
Faserartigen Strukturen einfach nur verschiedene Diffusivität in verschiedene Richtungen zulassen. Das einfachste Modell davon ist, ich nehme die Hauptdiffusionsrichtung entlang
17:20
solcher Fasern, wenn das die wichtigen Strukturen sind und mache einen Ellipsoiden in diese Richtung und je stärker die Exzentritität dieses Ellipsoiden ist und so, umso stärker bin ich in diese Richtung eingebunden. Das ist im Wesentlichen die Essenz dieses Tensor-Modells und mathematisch repräsentiert durch diese Formel da oben. Eine wichtige
17:47
Charakteristik, eine skalare Charakteristik, das ist ein mehrdimensionales Objekt, eine skalare Charakteristik ist die fraktionelle Analystropie. Das ist einfach ein Maß für die Exzentrizität dieses Ellipsoiden oder dieses Tensors, liegt zwischen 0 und
18:06
1 basiert auf den Eigenwerten dieses Diffusionstensors. Den haben wir schon mal im Hinterkopf, solche skalaren Maps würden wir gerne haben. Nun, typischerweise werden solche
18:22
Verschätzungen für die Parameter des Diffusionstensor-Modells einfach gemacht. Ich mache nicht lineares least squares, ich mache einfach hier, stecke ich die Signale rein, ich betrachte einfach einen L2-Abstand zu meinem Modell, setze eventuell noch ein paar Gewichte ein,
18:46
kann ich auch weglassen, aber kann ich auch machen und dann schätze ich die Parameter einfach aus der Lösung dieses Optimierungsproblems. Der Punkt ist, das verlangt ein solches
19:04
Modell, dass wir hier, dass die Signale gegeben sind als echte Parameter plus ein bisschen Rauschen und dieses Rauschen hat einen Erwartungswert. Jetzt habe ich Ihnen gesagt, dass das nicht der Fall ist, für die Reißverteilung nicht, für die nichtzentrale
19:21
Schiefverteilung ist das nicht der Fall, das ist schief, der Erwartungswert stimmt nicht mit diesem Wert überein. Das heißt, hier handeln wir uns in der Schätzung der Parameter systematischen Bias ein. Stattdessen, das ist etwas, was wir kürzlich ausgearbeitet haben, kann man eine quasi likelihood-Schätzung davon machen, das heißt, man setzt hier nicht den Wert selbst ein, sondern den Wert, den wir eigentlich
19:44
erwarten, mu war meine Erwartungswertfunktion und löst dieses Optimierungsproblem. Das funktioniert tatsächlich, ich möchte Ihnen nur darauf hinweisen, dass hier plötzlich wieder der neues Parameter auftritt, auch hier wieder in seiner lokalen Variante und
20:03
ich möchte auch darauf hinweisen, dass es sich bei diesem neues Parameter um den letzten Parameter der sogenannten unprozessierten Daten handelt, die Daten, die wir noch gar nicht angefasst haben. Wofür ist das alles jetzt wichtig? Zunächst die Ergebnisse
20:25
einer Simulation, um Ihnen den Effekt nochmal zu verdeutlichen, Sie haben hier für verschiedene FA-Werte von 0 bis 1, sehen Sie in rot das Problem gewissermaßen, eine systematische Unterschätzung des FA-Wertes durch den nicht-linären Regressionsschätzer,
20:47
hier in schwarz das entsprechende Ergebnis, das quasi likelihood-Schätzung, also in Simulationen funktioniert das schon mal. Sowas hat das jetzt für reale Daten zu sagen und dazu
21:00
haben wir eine Datenbank angezapft, eine sehr wichtige Datenbank für die Neurowissenschaften, das sogenannten Human Connectome Project, also ein Projekt, was sich zum Ziel gestellt hat, quasi mit viel Aufwand, mit viel Geld eine Karteografie, eine Konnektivitäts-Karteografie
21:21
des menschlichen Gehirns zu erstellen, Sie sehen hier über 900 Subjects, die werden also von vorne bis hinten in verschiedenen Modalitäten durchgescannt, die Daten sind frei verfügbar und von extrem hoher Qualität, in zwei Varianten übrigens. Einmal sogenannte
21:42
Minimally Processed Data, da ist noch gar nicht viel passiert, mehr oder weniger das, was aus dem Scanner rauskommt und dann natürlich als Unterstützung zur Analyse für Neurowissenschaftliche Zwecke schon mal verschiedene Sachen gemacht, zum Beispiel eine Registrierung aufeinander, es werden ja Folgen von Bildern aufgenommen, die Registrierung,
22:02
das ist ein aufwendiger Prozess, das kann man schon mal vorab machen und so, man muss für Wirbelströme korrigieren und verschiedene andere Artefakte rauskorrigieren. Danach sehen die Daten perfekt aus, das ist ein Wahnsinn. Die unprozessierten Daten, und deswegen ist
22:24
wichtig, haben aber noch einen nicht zu vernachlässigen Noise-Parameter. Das Signet-to-Noise-Ratio in den unprozessierten Daten ist nicht so gut, wie es am Ende nach den ganzen Registrierungen, die ja alle Mittelungen beinhalten, den Anschein hat. Und was wir zeigen konnten,
22:41
ist, dass es wichtig ist, genau diesen Parameter der unprozessierten Daten hier reinzustecken, um den Bias, den man durch die Verwendung eines falschen Modells, den wir dadurch bekommen, dass wir den vernünftig korrigieren können. Und nur um Ihnen zu zeigen,
23:01
wie groß der Effekt eigentlich für diese very high quality data ist, mal einfach hier so ein Dichteplot über die Differenz zwischen den beiden verschiedenen Schätzer, also nicht lineare Regressionen, quasi likelihood, der ist im Bereich von, also hier ist eine 0,3, 0,2. FA, jetzt fragen Sie sich vielleicht, okay, wie viel ist denn das? Die FA liegt
23:23
zwischen 0 und 1. Es ist ein Unterschied von 0,02, denn überhaupt viel. Da kann ich Ihnen versichern, das ist viel. Wir haben in verschiedenen Projekten mit Kollegen vom Uniklinikum Münster das debattiert. Die FA ist ein sehr sensitiver Marker für
23:45
neuronale Erkrankungen. Und sensitiv bedeutet, dass so eine Änderung von 0,02 wirklich schon eine große und unter Umständen pathologische Änderung anzeigen kann. Das heißt, die Nichtberücksichtigung eines solchen Bias-Effekts, wenn die schon für solche very high quality
24:06
data einen verhältnismäßig großen Effekt hat, wie soll das dann auch erst in der Und einfach nur eine kurze Zusammenfassung geben. Über das, was ich gesprochen habe,
24:27
also Magnetresonanzdaten, insbesondere bei kleinem Signal-to-Noise-Verhältnis, haben eine hohe Viabilität und ein Noise. Das ist ein Problem an sich. Das kann man aber, die
24:47
und dann insbesondere für Algorithmen nutzen, die die Bildverbesserung vorantreiben. Und der zweite Punkt ist, dieses Noise führt auch zu einem Schätzbias für nachgelagerte Modelle, die man
25:04
basierend auf diesen Daten erstellt. Und eine Nichtberücksichtigung führt unter Umständen zu einer, dann sagen wir mal, führt uns weg von der Behauptung, dass es sich wirklich um quantitative Methodik handelt. Und gut, ich hatte ein paar unserer Spezialmethoden
25:26
in genannt, wie man das unserer Meinung nach machen könnte. Und vielen Dank für Ihre Aufmerksamkeit.