Professor Dr. med. Gerald Ulrich

EEG-Diagnostik

Allgemeines (KLICK) Aktuelles(KLICK)
Ergänzende Texte (KLICK) Ergänzende Texte (KLICK)
Allgemeines:

Als bekannt darf vorausgesetzt werden, dass der Jenaer Nervenarzt Hans Berger überzeugt war, in der von ihm in den 20er Jahren erforschten hirnelektrischen Aktivitätsregistrierung einen methodisch konkurrenzlosen Zugang zur Diagnostik funktionsgestörter menschlicher Gehirne gefunden zu haben.

Während Bergers Interesse in erster Linie der Psychophysiologie galt – ein von ihm geprägter Begriff – geriet das EEG in der Folge unter die Oberhoheit der sich von der Psychiatrie abspaltenden Neurologie. Hier sah man im EEG jedoch, entgegen der ursprünglichen Bergerschen Intention, lediglich ein für Fragen der Herd- und Epilepsiediagnostik nützliches Hilfsinstrument.

Im deutschsprachigen Raum hatte anfangs der 50er Jahre der Übervater der Nachkriegsneurologie, Richard Jung, die Weichen gestellt. Jung sah im EEG eine Abfolge visuell nach Amplitude, Frequenz und Form unterscheidbarer Wellen. Er prägte dafür den Begriff der „Graphoelemente“.

Antithetisch zu Jungs Bottom-up Perspektive steht die Top-down Perspektive, wie sie ursprünglich von der französischen EEG-Schule propagiert wurde. Nicht den einzelnen „Graphoelementen“ galt ihr Interesse, sondern visuell unterscheidbaren komplexeren morphologischen Strukturen (von Bente später treffend als „höhere Strukturmerkmale“ bezeichnet) und der Dynamik der Übergänge zwischen denselben.

Für meinen Lehrer Dieter Bente war die Top-down Perspektive Voraussetzung für die Nutzung des EEG als psychophysiologisches Instrument im Sinne Bergers. Sein Verdienst war es, die unsystematischen und kaum beachteten Hinweise früherer mustermorphologisch orientierter Autoren aufgegriffen und eine Theorie des EEG auf der Grundlage mustermorphologischer Gesetzmäßigkeiten unter Bezugnahme auf das sehr allgemeine, aus der klinischen Beobachtung abgeleitete Vigilanz-Konzept von Henry Head skizziert zu haben. Mit seinen erkenntnistheoretisch und empirisch fundierten Publikationen aus den Jahren 1960 bis 1982 stieß er im Wesentlichen auf Unverständnis und Skepsis. Dies erklärt sich unschwer damit, dass seit geraumer Zeit der theorieabstinente Logische Positivismus, bzw. Empirismus in der Medizin das Kriterium von Wissenschaftlichkeit darstellt. Daran hat sich bis heute nichts geändert. Es gilt den meisten Forschern, im Zeitalter der „molekularen Medizin“ mehr denn je, als nicht diskussionsbedürftige Gewissheit - „Tacit assumption“ (M. Polyani) -, dass ein Erkenntnisgewinn allein von der Mikrodetailanalyse, d. h. aus der Bottom-up Perspektive zu erwarten sei.

Der damit verbundene Verzicht auf eine theoretische Fundierung, die die verpönte Top-down Perspektive voraussetzen würde, veranlasste zahlreiche Neurophysiologen, sich vom spontanen Ruhe-EEG ab- und anderen scheinbar weniger theorielastigen Methoden, etwa den „evozierten Potentialen“ und der Kohärenzanalyse, zuzuwenden. Andere Forscher zeigten sich weniger konsequent und setzten auf den technologischen Fortschritt aber auch auf statistische Techniken wie etwa die Faktorenanalyse als Theorieersatz. Nachdem durch die in den 70er-Jahren einsetzende allgemeine Computerisierung unserer Gesellschaft die Spektralanalyse des EEG in Form der schnellen Fourier-Transformation (FFT) allgemein verfügbar geworden war, bedeutete es nur noch einen kleinen Schritt, die leicht errechenbaren spektralen Komponenten als bedeutsame Zielvariablen auszugeben – auch dies wieder eine „Tacit assumption“. Obgleich diese Art rein methodengeleiteter Forschung ebenso riesige wie nutzlose Datenfriedhöfe produzierte, wird sie auch heute noch praktiziert. Es ist bezeichnend, dass kaum jemand zu fragen wagte, damals wie heute, was dazu berechtigen könnte, in den kruden Frequenzparametern psychophysiologisch relevante Zielvariablen zu sehen. Tatsächlich haben wir es hierbei lediglich mit einer vom Mainstream getragenen, empirisch nicht zu substantiierenden und daher der kritischen Hinterfragung entzogenen Übereinkunft mit Tabucharakter zu tun. Die gar als legitim verteidigte „Strategie“ solchen Forschens wird von ihren Protagonisten als eine des „Let’s-try-it-and-see“ bezeichnet. Doch nicht genug damit. Die spektralanalytische Transformation vom Zeit- in den Frequenzbereich wäre - unbeschadet der Sinnfrage – aus rein mathematischen Gründen nur dann erlaubt, wenn es sich beim EEG um einen zufälligen (stochastischen) Prozess handeln würde. Obgleich die Inspektion eines beliebigen Ruhe-EEG schon für den Laien leicht erkennbare regelhafte Änderungen im Zeitverlauf aufweist, mithin „Non-Stationarität“ und eben gerade keine „Zufallsstochastik“, wurde als Konvention  mit Richtliniencharakter dekretiert, dass das EEG auf eben dieser - erwiesenermaßen falschen - Grundannahme zu quantifizieren sei. Um die Irrigkeit dieser falschen Prämisse zu kaschieren, scheute man nicht davor zurück, das EEG auf eine recht anschauliche Weise als „Begleitmusik“ der vielfältig verwobenen neurochemischen Reaktionskaskaden auszugeben.

Die von Dieter Bente in groben Zügen skizzierte und von Gerald Ulrich präzisierte, auf der Mustermorphologie des EEG basierende Theorie, lässt sich in Abgrenzung zur gängigen empiristischen Forschungspraxis wie folgt umreißen:

  1. Das EEG ist Ausdruck der hirnelektrischen Massenaktivität (im Sinne von K. S. Lashley und D. O. Hebb und W. Freeman). Damit ist seine Funktionsdynamik als eine nicht-lineare charakterisiert .
  1. Das EEG ist integraler Ausdruck dieser Massenaktivität und damit ein Makroindikator der „Zerebralen Gesamtfunktion“ (D. Bente).
  1. Die „Zerebrale Gesamtfunktion“ stellt sich im EEG visuell als „Verlaufsgestalt“ dar, die zwischen den Polen voller Wachheit und dem Einschlafen (wie auch darüber hinaus) eine zyklische Ordnung erkennen lässt. Wir bezeichnen dies als die „Spontane Zyklusdynamik“ des Ruhe-EEG
  1. In synergetische Begrifflichkeit handelt es sich um den Ausdruck eines sich selbst organisierenden Systems vielfältig miteinander verkoppelter Partialsysteme. Die visuell abgrenzbaren Stadien repräsentieren eine zyklische Ordnung im Sinne eine „limit cycle“. Jedes Stadium stellt einen „dynamiv attractor“ dar, der aus der Vorherrschaft („Versklavungsprinzip“) eines Ordnungsparameters resultiert. Ein Ordnungsparameter ist mathematisch in der „Ordnungsparametergleichung“ darzustellen. Schwankungen der Ordungsparameter ermöglichen den Übergang von einem Ordnungszustand zu einem anderen, wobei sich unterschiedliche Stabilitätsgrade der zyklischen Ordnung zwischen den Polen „dynamischer Labilitiät und „dynamischer Rigidität“ (DR) unterscheiden lassen.
  1. Neben der von der Ableitezeit abhängigen regelhaften Veränderlichkeit besteht eine erhebliche interindividuelle Variabilität der Verlaufsgestalten. Aufgrund einer hohen „Test-Retest-Reliabilität ist von einem persönlichkeitsgebundenen Merkmal („trait“) auszugehen. Daraus folgt, dass es dasnormale EEG“, wie man es gemeinhin mit (geistiger) Gesundheit assoziiert nicht gibt. Ohne Bezugnahme auf eine wie auch immer definierte Norm bzw. „Normabweichung“ des EEG, ist aber eine psychophysiologische Querschnittsdiagnostik grundsätzlich ausgeschlossen. Ebenso verbietet sich eine primär-gruppenstatistische Analyse von EEG-Daten, etwa vermittels der heute als verbindlich geltenden Varianzanalyse. Dies gilt auch für den Vergleich eines bestimmten EEG mit einer Referenz nach Art kommerziell vertriebener, patentierter und dadurch der wissenschaftlichen Überprüfung entzogener sog. „Normative Data Bases“.

In den beiden letzten Dekaden lässt sich – ausgehend von den USA – eine zunehmende Kommerzialisierung psychiatrisch zu nutzender EEG-Quantifizierungssysteme konstatieren. Einen guten Eindruck über diese Entwicklung vermittelt eine neuere Übersichtsarbeit des „Commitee on  Research of the American Neuropsychiatric Association“ (Coburn et al.: The value of quantitative electroencephalography in clinical psychiatry. J Neuropsychiatry Clin Neurosci 18 , 2006: 460-500). Diese Art psychiatrischer Elektroenzephalographie zielt ausschließlich auf eine probabilistische Differenzierung von Gruppen Kranker (klassifiziert nach einem bestimmten, gerade vom „grünen Tisch“ aus als verbindlich vorgegebenen Klassifikationssystem) und Gesunder. Dabei wird eingeräumt, dass die gruppenstatistisch ermittelten Überzufälligkeiten für den einzelnen Patienten durchaus irrelevant sein mögen. Über die „Diskriminatoren“, also die aus dem EEG extrahierten Parameter, erfahren wir indes nichts! Längst geht es nicht mehr um einfache univariate Werte der spektralen Power, sondern um multivariate Größen, die vermittels komplizierter, für den Anwender unverständlicher und daher auch nicht hinterfragter mathematischer Techniken generiert werden. Eine zentrale Stellung innerhalb eines jeden dieser Quantifizierungssysteme nimmt die zugehörige „Normative Data Base“ ein, deren Umfang ein entscheidender Werbe- und Preisfaktor ist. Die beiden marktbeherrschenden Hauptkonkurrenten sind das „Neurometric Analysis System“ von R. John und das „NeuroGuide Analysis System“ von R. Thatcher.

Nach dem oben Gesagten haben wir es hier mit einer bedauerlichen Fehlentwicklung zu tun, ethisch problematisch zudem, weil durchaus besseres Wissen unterstellt werden darf. Die wissenschaftliche Klärung kontroverser, die Geschäfte tangierender Auffassungen, überlässt man schon seit längerem der Justiz. So befand ein texanisches Gericht im Jahre 1999, dass eine öffentliche Kritik des EEG-Experten M. Nuwer an der wissenschaftlichen Lauterkeit („veracity of reports published by authors having commercial interests in qEEG systems“ in Nuwer M.: Neurology 49, 1997, 277-292) seiner geschäftstüchtigen Kollegen den allgemein akzeptierten wissenschaftlichen Standards nicht genügen würde; („Nuwer’s criticism of qEEG failed to meet acceptable scientific standards“ in Thatcher RW et al.: Clin EEG 30, 1999, 94-98). Lässt man einmal den ethischen Aspekt unbeachtet, kann man sich nur verwundert die Augen reiben, dass ein derartiges, im Mäntelchen wissenschaftlicher Reputation daher kommendes unredliches Geschäftsgebaren, durchaus vergleichbar antikem Augurentum oder mittelalterlicher Astrologie und Alchimie, von den Käufern nicht durchschaut wird.

Immerhin zeigen sich heute - nach Jahren nahezu völligen Forschungsstillstands auf dem klinischen EEG-Sektor - vereinzelte Ansätze zur Wiederanknüpfung an eine verschüttet geglaubte Tradition (z. B. Hegerl U, Stein M, Mulert C et al.: EEG-vigilance differences between patients with borderline personality disorder and healthy controls. Eur Arch Psychiatry Clin Neurosci 258: 137-143, 2008).

Seit Jahrzehnten in der Literatur unbeachtete Autoren gewinnen dadurch neue Aktualität – wenngleich nicht immer mit der wünschenswerten Klarheit hinsichtlich der geistigen Urheberschaft (vgl. Olbrich S, Sander C. Wilk K et al.: Klassifikation der Vigilanzregulation:

http://psychiatrie.uniklinikum-leipzig.de/_forschung/forschungsbereich_1_1_9.html

Durch Ausschluss der notwendiger Weise erfolglos gebliebenen, um nicht zu sagen erkenntnisverhindernden Verfahrensweisen, lässt sich der für die zukünftige klinisch-psychiatrische Nutzung des EEG allein aussichtsreiche Weg umso deutlicher machen. Es ist dies der Weg der Ermittlung von Unterschieden zwischen zeitversetzt abgeleiteten EEGs bei ein und derselben Person. Anders gesagt, an die Stelle der bisher geübten Praxis der eine Normalreferenz voraussetzenden Querschnittsanalyse (unter Beschränkung auf eine einmalige Registrierung/Messung) hat die Längsschnittanalyse zu treten, verstanden als relationale oder ipsative Veränderungsmessung.

Damit ist die aus dem Lager der Bottom-up Empiristen nach Art eines Abwehrreflexes zu gewärtigende Forderung nach einer Validierung des Verfahrens durch die übliche gruppenstatistische Signifikanzberechnung gegenstandslos.

„Validität“ ist bei einer ipsativen Trendanalyse vor allem gleichzusetzen mit der Übereinstimmung zwischen der gefundenen und der von der zugrunde liegenden Theorie geforderten Änderungsrichtung. Dies setzt die theoriegeleitete Auswahl geeigneter, voneinander möglichst unabhängiger, unterschiedssensitiver Parameter voraus. Die Sicherstellung einer hinreichenden Test-Retest-Reliabilität ist demgegenüber in erster Linie ein rein ableitetechnisches Problem, wobei natürlich auch der zirkadianen Biorhythmik Rechnung zu tragen ist.

Ergänzende Texte (Zum Öffnen bitte auf die einzelnen Punkte klicken)

Aktuelles:

Gesundes Altern und Altersdemenz

Die Demenz vom Alzheimer Typ (DAT) ist eine typische Alterserkrankung. Vor dem 60. Lebensjahr ist sie eher selten, im 8. Lebensjahrzehnt ist jeder Fünfte betroffen!
Die Alzheimer-typischen feingeweblichen Hirnveränderungen findet der Neuropathologe in aller Regel nicht vor dem 50. Lebensjahr. In der Klasse der 50 bis 60 Jährigen weist jeder Fünfte derartige Veränderungen auf, wobei aber nur einer von Tausend geistige Leistungseinbußen erkennen lässt.
Vom 60. bis 65. Lebensjahr kommt es zu einem langsamen Häufigkeitsanstieg der klinischen Diagnose. Danach steigt die Kurve exponentiell an: Als Faustregel gilt: Verdoppelung der DAT-Prävalenz alle 5 Jahre. Man schätzt, dass jede dritte Person in der Altersklasse der 80 bis 90 Jährigen an einer DAT leidet.
Seit Anfang der 90er Jahre weiß man, dass die Alzheimer-typischen Hirnveränderungen einen über viele Jahre unbemerkt bleibenden Degenerationsprozess indizieren, der in eine irreversible Zerstörung von Hirnrindenneuronen mündet. Erst seit wenigen Jahren beginnt sich die daraus zu ziehende Schlussfolgerung Bahn zu brechen, dass Leistungsdefizite erst dann zu erwarten sind, wenn bereits der allergrößte Teil – man schätzt wenigstens 90% - der ursprünglichen Rindenneurone unwiederbringlich verloren ist.

Daraus folgt:

Die Frühdiagnose einer DAT aufgrund geistiger Defizite ist eine Spätdiagnose der neuropathologisch definierten Hirnkrankheit!

Für den Patienten kann es allein darum gehen, dass alle ärztlichen Anstrengungen auf die Frühdiagnose der Hirnkrankheit fokussiert werden.

Nur eine echte Frühdiagnose eröffnet die Chance, den Prozess zu verlangsamen, wenn schon nicht einzudämmen! Bereits heute gilt als gesichert, dass eine Reihe unspezifischer Faktoren das Erkrankungsrisiko vervielfacht. Die echte Frühdiagnose ist Vorbedingung für die Zukunftsvision einer pharmakologischen Bekämpfung der neurotoxischen Eiweißkörper. Jedes Pharmakon braucht, um wirken zu können, auch einen Angriffspunkt! Wo keine Neurone mehr sind kann kein Pharmakon etwas ausrichten.

Umgekehrt gilt, je mehr Neurone noch vorhanden sind –ungeschädigte oder auch nur partiell geschädigte – desto günstiger sind die Aussichten auf einen Behandlungserfolg.


Zahlreiche per Suchmaschine aufzurufende Internet-Einträge erwecken beim medizinischen Laien (aber auch bei Ärzten) den Eindruck, dass es sich bei der DAT primär um einen Mangel an der Überträgersubstanz Acetylcholin handelt , woraus sich eine generelle Indikation für eine entsprechende Substitution, bzw. Abbaublockade mit Cholinesterasehemmern ergibt. Es wäre naiv, darin etwas anderes sehen zu wollen als eine auf Umsatzsteigerung zielende Marketingstrategie.

Dass sich zwischen Pharmaindustrie und gerontopsychiatrischen Opinion Leaders machtvolle Kartelle gebildet haben, die sich mit der Erkenntnisstagnation offenbar gut einzurichten wussten, wird in einem vom „Kompetenznetz Demenz“ ins „Deutsche Ärzteblatt“ lancierten Beitrag überdeutlich (Riepe MW, Frölich L, Gertz H-J, Haupt M, Kohler J, Mielke R, von der Damerau-Dambrowski V, Kurz A : Evidenzbasierte medikamentöse Therapie der Alzheimer-Erkrankung“, DÄ 102, Heft 51-52 (2005) A 3587-3593.
Die Kernaussage lautet, dass:
„ …unabhängig vom Therapieerfolg … die Behandlungsindikation für
jeden Patienten bestehen (bleibt) … weil evidenz-basierte Medizin nur Aussagen über den Effekt einer Behandlung in Gruppen von Patienten macht“ …

Explizit wird die Fortführung einer einmal eingeleiteten AChE- Therapie auch „ohne individuelle Erfolgskontrolle“ gefordert, ja es wird mit dankenswerter Offenheit sogar eine individuelle Nutzen-Risiko Abschätzung als wissenschaftlich nicht vertretbar abgelehnt. Der Widerspruch zwischen der rationalen Anwendung evidenz-basierter Erkenntnisse und der „ärztlichen Maxime einer individuellen Erfolgskontrolle“ könnte „erst mit verbesserter Methodik der Therapiekontrolle am einzelnen Patienten“ beseitigt werden. Dass sie selbst keinerlei Interesse an einer Änderung des Status quo, d. h. einer Verbesserung der Methodik haben, zeigt sich u. a. in ihrer Fixiertheit auf die Gruppenstatistik, die geradezu Alibicharakter gewinnt sowie die vollständige Ausblendung der neurophysiologischen Perspektive zugunsten der testpsychologischen : „Die Variabilität des Verlaufs der Alzheimer-Erkrankung und weiterer Einflussgrößen bedingen, dass psychometrische Messungen für Verlaufsuntersuchungen an Patientengruppen sinnvoll sind, nur bedingt aber für den Einzelfall“.
Die allesamt kritischen Leserbriefe zu dieser -auch in ethischer Hinsicht höchst bedenklichen - umfänglichen Publikation mit Richtliniencharakter, die jegliche wissenschaftliche Aussage vermissen lässt, verbindet ein sehr einfacher gemeinsamer Nenner, nämlich die Frage nach dem damit verfolgten Zweck.

Ergänzende Texte (Zum Öffnen bitte auf die einzelnen Punkte klicken)