Psychotische und insbesondere schizophrene Störungen sind bestens geeignete Kandidaten für das moderne Programm der prädiktiven, präventiven und personalisierten Medizin. Einmal ausgebrochen nehmen sie auch unter den heutigen Behandlungsbedingungen oft noch einen für die weitere Lebensführung höchst ungünstigen Verlauf und sollten deshalb nach Möglichkeit von vornherein verhindert werden. Dafür muss man allerdings zunächst einmal das individuelle Psychoserisiko richtig einschätzen und den Krankheitsausbruch treffsicher vorhersagen können.

Prädiktive, präventive und personalisierte Medizin

Seit das traditionelle klinische vom modernen molekularbiologischen Paradigma abgelöst worden ist, beschreitet die Medizin neue Wege. Es soll nicht mehr allein um Diagnoseverbesserung, Ursachenaufklärung und Bereitstellung kausalerer Therapien für Erkrankungen gehen, die schon ausgebrochen sind. Man will vielmehr auch das Risiko für die Entwicklung solcher Erkrankungen bereits frühzeitig erkennen, individuell richtig einschätzen und mithilfe dieser Risikoidentifikation ihren Ausbruch vorhersagen können. Wenn dies nämlich mit ausreichender Sicherheit gelänge, erwüchse daraus die Möglichkeit, risikoadaptierte Präventionsstrategien zu entwickeln und durch ihren selektiven Einsatz die Neuerkrankungsrate abzusenken. Dieselben Risikoprofile wären auch nach dem Erkrankungsausbruch hilfreich und würden es erlauben, personenbezogene Therapieoptionen herauszufinden. Gerade die großen Volkserkrankungen sind es, die man mit dieser prädiktiven, präventiven und personalisierten Medizin wirksamer bekämpfen will als bisher. Dazu gehören auch – und heute immer mehr – schwere psychische Erkrankungen wie die psychotischen Störungen und speziell die Schizophrenien [1].

Selektive und indizierte Primärprävention

Die geringe Inzidenz solcher Erkrankungen in der Allgemeinbevölkerung und die ebenfalls nur sehr geringe Prädiktionskraft aller inzwischen für sie bekannten genetischen und umweltbedingten Risikofaktoren einschließlich auch ihrer bisher durchschauten risikosteigernden Interaktionen stellt die Anwendung dieses Forschungsprogramms auf Psychosen allerdings vor methodische Probleme [2]. Nur wirklich longitudinale Untersuchungen großer Bevölkerungskohorten über viele Jahre und Jahrzehnte hinweg könnten letztlich darüber Aufschluss geben, ob und wann es bei einer bestimmten Risikokonstellation zum Übergang in die Psychose kommt und welche Schlussfolgerungen dann hieraus für die richtige Art und den richtigen Zeitpunkt sinnvoller selektiver Präventionsmaßnahmen zu ziehen wären (Abb. 1).

Abb. 1
figure 1

Prävention Psychischer Erkrankungen. (Nach [1])

In dieser Situation erweist es sich heute als außerordentlich hilfreich, dass in der Psychosenforschung auch Symptome und Funktionsbeeinträchtigungen in die Risikoermittlung mit einbezogen worden sind. Der Anstoß hierzu ging von der Neugründung und weiteren internationalen Ausbreitung von Früherkennungs- und Präventivzentren aus, in denen Betroffene mit ersten Beschwerden und Beeinträchtigungen, aufmerksam gemacht durch nachhaltige Aufklärungsarbeit in der Allgemeinbevölkerung, Rat und Hilfe suchen [1]. Im Zuge dieser Bewegung konnten Risikosymptome herausgearbeitet werden, die schon eine hohe Vorhersagekraft besitzen und den drohenden Psychoseausbruch bereits in überschaubaren Zeiträumen erwarten lassen. Dies hat zum einen die Entwicklung, Überprüfung und Erfolgskontrolle von Interventionsmaßnahmen ermöglicht, die im Hinblick auf den eindeutig präpsychotischen, jedoch auch schon krankheitswertigen Charakter der Risikosymptome der indizierten Form primärer Prävention zuzurechnen sind. Indizierte Prävention bei Risikosymptomen kann aber auch den sonst sehr langen wissenschaftlichen Weg zur selektiven Prävention bei Risikofaktoren ebnen und verkürzen [3]. Der Ansatz bietet nämlich zugleich die Möglichkeit, die von der genetisch-epigenetischen, neurobiologischen und umweltbezogenen Forschung vermuteten Risikomechanismen in dem umschriebenen Zeitfenster des drohenden Psychoseausbruchs zu untersuchen. Weil dies eine Hypothesenprüfung erlaubt, auf die man sonst sehr lange warten müsste, wird die Prädiktionskraft der Risikosymptome heute in alle wichtigen Vorhaben der risikoorientierten Psychosenforschung mit einbezogen [4].

Hochrisikostadium für Psychosen

Zwei wissenschaftliche Entwicklungslinien mit lebhafter Studienaktivität haben zu der heute gültigen Charakterisierung dieses kritischen, zwischen die prämorbide Störanfälligkeit und den Krankheitsausbruch eingeschalteten Hochrisikostadiums („psychosis high-risk state“, HRS) geführt. Die erste ist aus der deutschen Basissymptom(BS)-Forschung hervorgegangen, der die wohl umfassendste und feinste Beschreibung aller in diesem Zeitfenster erfassbaren, von den Betroffenen selbst erlebten und auch selber als eigenes Defizit wahrgenommenen Veränderungen in den verschiedenen psychologischen Funktionsbereichen zu verdanken ist. Die zweite Entwicklungslinie war mehr pragmatisch ausgerichtet und versuchte die zuerst in der 3. Version des „Diagnostic and Statistical Manuals (DSM-III)“ festgelegten Prodromalsymptom- und Schizotypie-Merkmalsdefinitionen der amerikanischen Psychiatrie für Früherkennung und Frühintervention nutzbar zu machen. Die hieraus entstandenen Beschreibungen von abgeschwächten („attenuated positive symptoms“, APS) oder flüchtigen („brief limited intermittent psychotic symptoms“, BLIPS) Positivsymptomen unterscheiden sich vom Vollbild psychotischer Wahnphänomene, Halluzinationen oder formaler Denkstörungen nur noch quantitativ-graduell, während die BS als Erlebnis eigener Funktionsstörungen auch phänomenologisch-qualitativ noch ganz eindeutig von psychotischer Positivsymptomatik zu trennen sind (Abb. 2).

Abb. 2
figure 2

Psychoseprädiktion im Hochrisikostadium

Die schon allein hierdurch nahegelegte Annahme, dass BS eher einen früheren, noch psychoseferneren und APS sowie BLIPS eher einen späteren, schon psychosenäheren Abschnitt der Psychoseentwicklung charakterisieren, konnte durch subtile Rekonstruktionen des erstmaligen Zeitpunkts und der zeitlichen Abfolge ihrer Manifestation erhärtet werden [5]. Die aktuelle Fassung des aus den beiden Forschungslinien hervorgegangenen HRS-Konzepts unterscheidet dementsprechend zwischen einem frühen Entwicklungsabschnitt der Symptombildung („early at-risk of psychosis states“, ERPS), der sich an die lange, offenbar schon pränatal beginnende Phase prämorbider Störanfälligkeit anschließt, und einem späten Entwicklungsabschnitt („late at-risk of psychosis states“, LRPS), der in die frühe Psychose, also die Anfänge der psychotischen Erstmanifestation übergeht [6]. Auch die der prämorbiden Phase zuzuordnenden genetischen, epigenetischen und anderen neurobiologischen sowie umweltbedingten Risikofaktoren und frühen Dysfunktionen, die in einer Vielzahl von jüngeren und älteren Studien unterschiedlichen Typs außerhalb der klinischen Hochrisikoforschung herausgearbeitet worden sind, lassen sich natürlich schon als Prädiktoren einstufen. Ob und inwieweit solche Prädiktoren bei noch symptomfreien Risikoträgern dieser Einschätzung aber auch gerecht werden, kann man aus den genannten methodischen Gründen beim heutigen Stand der Risikoforschung noch nicht genügend überschauen.

Prädiktionsleistung früher Hochrisikokriterien

Dagegen lassen sich die Risikosymptome im HRS anders als bisher die vorbestehenden Risikofaktoren systematischen Prädiktionsanalysen unterziehen und dies gilt auch schon für die frühen BS. Die erste groß angelegte prospektive Untersuchung im Cologne-Early-Recognition (CER)-Projekt [7], das sich auf 385 zuvor noch niemals psychotisch erkrankte Hilfesuchende mit und ohne BS aus mehreren deutschen Zentren bezog, konnte überraschend hohe Übergangsraten in psychotische Erstepisoden dokumentieren. Bei 160 der eingeschlossenen Personen ließ sich die weitere Symptomentwicklung über den vollen Studienzeitraum von knapp 10 Jahren überschaubar machen und sie hatten bereits nach 12 Monaten zu 20 %, nach 24 Monaten zu 17 %, nach 36 Monaten zu weiteren 13 % und nach durchschnittlich 4,5 Jahren schließlich in 70 % der Fälle eine schizophrene Störung entwickelt. Solche Übergangsraten und dazu noch der für die Spezifitätsermittlung methodologisch wichtige Umstand, dass in dieser Studie auch eine Kontrollgruppe aus Hilfesuchenden mit verschiedenen Beschwerden, jedoch ohne gesicherte BS mitgeführt wurde, machten erstmals detaillierte Prädiktionsanalysen auf Syndrom- und Symptomebene möglich. Die tatsächlich psychoseprädiktive Symptomatik erwies sich als durchgehend kognitiv geprägt und bestand aus zehn einzelnen Störungstypen der Denk-, Sprach- und Wahrnehmungsprozesse, die immerhin bei mehr als einem Viertel der Hilfesuchenden beim Studieneinschluss nachweisbar gewesen waren, alle positive prädiktive Stärken von ≥ 70 % besaßen und alle auch nur geringfügige falsch-positive Vorhersageraten von ≤ 7,5 % erkennen ließen.

Je nach Zielsetzung kann die Psychoseprädiktion eher sensitiv oder spezifisch ausgerichtet sein

Nach weiteren inhaltlichen und methodischen Analysen sowie umfassenden systematischen Überprüfungen in einer neuen prospektiven Prädiktionsstudie an 146 Risikopersonen über 24 Monate führten diese Ergebnisse zur Formulierung der heute allgemein anerkannten Hochrisikokriterien für ERPS (Tab. 1). Je nachdem, um welche Zielsetzung es bei der Psychosevorhersage geht, kann man zwischen der sensitiveren Prädiktionsleistung eines kognitiv-perzeptiven Kriteriensatzes, genannt COPER, oder der spezifischeren Prädiktionsleistung eines reinen kognitiven Kriteriensatzes mit der Bezeichnung COGDIS wählen und dabei von nahezu identischen Übergangsraten schon nach 24 Monaten ausgehen (COPER 32,9 %, COGDIS 33,1 %). Für die Ermittlung dieser Kriterien stehen heute in viele Sprachen transformierte und überall auf der Welt gut eingeführte Untersuchungsinstrumente, nämlich die originäre Bonner Basissymptomskala (BSABS) und das „Schizophrenia Proneness Instrument“ in einer Adult-Version (SPI-A)“ und einer „Child and Youth Version (SPI-CY)“ zur Verfügung [8].

Tab. 1 Die Basissymtomkriterien und ihre psychoseprädiktive Aussagekraft (Cologne-Early-Recognition-Studie)

Prädiktionsleistung später Hochrisikokriterien

LRPS sind nach dem HRS-Konzept dann anzunehmen, wenn die Symptomentwicklung bereits zu den psychosenäheren APS oder BLIPS vorangeschritten ist. Die genauen Definitionen für diese beiden vom Vollbild der frühen Psychose nur noch graduell zu trennenden Symptomkonstellationen wurden in der zweiten, vom Melbourner Früherkennungszentrum ausgegangenen Entwicklungslinie der klinischen Risikoforschung sehr bewusst ausgewählt [9]. Man wollte Ultra-high-risk(UHR)-Kriterien entwickeln, die den drohenden Psychoseausbruch schon in dem gut überschaubaren, angesichts der durchschnittlich 5-jährigen HRS-Dauer relativ kurz bemessenden Zeitraum von möglichst nur 12 Monaten erwarten ließen und dadurch dann auch die Überprüfung der Wirksamkeit indizierter Präventionsmaßnahmen ganz erheblich erleichtern könnten. Zu den breit aufgenommenen, allerdings in den vielen Zentren weltweit nicht immer identisch gehandhabten UHR-Kriterien gehörte ursprünglich neben APS und BLIPS auch noch ein dritter Kriteriensatz, der familiäre Risikofaktoren mit einschloss und die Psychosenähe durch bereits eingetretene Funktionsverluste sicherstellen wollte. Er ist aber inzwischen mehr in den Hintergrund getreten und wird, wenn man überhaupt noch von ihm Gebrauch macht, mehr den ERPS zugerechnet und in manchen Zentren noch durch Geburtskomplikationen ergänzt (Tab. 2).

Tab. 2 Ultra-high-risk-Kriterien für einen Psychoseausbruch

Die Übergangsraten von Risikopersonen, die APS- und/oder BLIPS-Kriterien erfüllen, wiesen in dem Studienaufkommen der letzten 10 Jahre eine erhebliche Schwankungsbreite auf und betrugen in früheren Untersuchungen den Ausgangserwartungen entsprechend bis zu 50 % schon in 12 Monaten, in einigen späteren Studien dann für diese kurze Risikoperiode aber mitunter auch nur noch weniger als 20 % (Abb. 3). Je besser die studiendurchführenden Zentren bereits etabliert waren, je mehr ihre Angebote in der Öffentlichkeit wahr- und angenommen wurden, umso geringer fielen die jeweils ermittelten Übergangsraten aus. Diese Beobachtung legte die Annahme nahe, dass sich die eingeschlossenen Risikopersonen der letzten Jahre zu einem größeren Anteil noch in früheren Abschnitten des UHR-Stadiums befanden, als dies in den älteren Studien der Fall gewesen war. Sie hätten dementsprechend dann auch über längere Zeiträume als nur 12 Monate beobachtet werden müssen, um die tatsächlichen Übergangsraten zu erfassen. Dass auch so psychosenah formulierte Kriterien wie die APS und BLIPS noch steigende Übergangsraten nach 12 Monaten erwarten lassen, wird inzwischen durch eine Reihe von Studien mit längeren Beobachtungszeiträumen belegt.

Abb. 3
figure 3

Anteile und Zeitpunkte der Psychoseentwicklung im HRS. (Adaptiert nach [6]; Literatur auf Anfrage beim Autor)

Unter den bislang durchgeführten Untersuchungen zur Prädiktionskraft der UHR-Kriterien sind zwei Großprojekte hervorzuheben, die genauso wie die CER-Studie eine hinlänglich große Kontrollgruppe aus Personen mit eingeschlossen haben, die nicht die zur Überprüfung anstehenden Hochrisikokriterien erfüllten [10]. In dem einen dieser beiden Projekte wurden Melbourner Ergebnisse aus zwei jeweils nach 6 und 24 Monaten nachuntersuchten Stichproben, die eine aus einem Früherkennungs- und die andere aus einem nicht spezialisierten Zentrum, beide jeweils mit UHR-positiven und -negativen Patienten, für übergreifende Prädiktionsanalysen zusammengestellt und dabei exzellente, teilweise mit den Langzeitresultaten der CER-Studie vergleichbare Kennwerte für die Vorhersageleistung der UHR-Kriterien ermittelt. Bei dem anderen Projekt handelt es sich um die große nordamerikanische Prodromlongitudinalstudie (NAPLS) mit einem Beobachtungszeitraum über 30 Monate, in die gepoolte Daten aus unabhängigen, an acht verschiedenen Zentren durchgeführten Studien eingingen und sich ebenfalls eine methodisch solide Sensitivitäts- und Spezifitätskalkulation für die UHR-Kriterien durch Vergleiche der Hochrisikopersonen mit einer ausreichend stark besetzten Kontrollgruppe durchführen ließ [11].

Für die Kriterienermittlung stehen im Übrigen neben dem Melbourner Ursprungsinstrument, dem Comprehensive Assessment of at-Risk Mental States (CARMS; [12]) schon lange auch weltweit gut eingeführte, an der Yale Universität entwickelte Interviews, Skalen und Kriterien (SIPS, SOPS, COPS) zur Verfügung [13]. Zwei eng verwandte in New York [14] und in Basel [15] entwickelte Programme arbeiten mit jeweils eigenen Kriterienfassungen und Untersuchungsinstrumenten. Zudem ist das Mannheimer Interview für die retrospektive Erfassung des Erkrankungsbeginns (IRAOS) inzwischen durch ein Early Recognition Inventory (ERIraos) ergänzt worden, mit dem man BS- und UHR-Kriterien zugleich erfassen kann [16].

Verbesserung der Prädiktionsleistung durch Kriterienkombinationen

Dass auch gemeinsame Verwendungen der klinischen Hochrisikokriterien sinnvoll sein könnten, hat sich zum ersten Mal in der European Prediction of Psychosis Study (EPOS) abgezeichnet [17]. Für dieses besonders wichtige, von seiner Bedeutung her NAPLS entsprechende Projekt ließ sich nämlich in sechs europäischen Zentren eine große Gruppe von adoleszenten und jungen Erwachsenen zusammenstellen, die entweder UHR-Kriterien oder das BS-fundierte Kriterium COGDIS oder beide Kriterien zugleich erfüllten. Für UHR-Symptome und COGDIS jeweils allein für sich ergaben sich bei der Prädiktionsanalyse nach 18-monatiger Beobachtungsdauer Kennwerte, wie sie auch nach dem vorangegangenen Kenntnisstand schon zu erwarten waren. Demgegenüber wies aber jetzt die Kriterienkombination in bis dahin nicht bekannter und auch gar nicht vermuteter Weise eine etwas höhere positive prädiktive Stärke und vor allem auch eine weit überlegene Fähigkeit, Risikopersonen mit drohendem Psychoseübergang richtig zu erkennen, im Sinne der Sensitivität auf. Diese Überlegenheit der Kriterienkombination konnte gerade kürzlich bei der Nachuntersuchung von 246 Risikopersonen nach 48 Monaten durch den Nachweis deutlich höherer Übergangsraten, einer klar verbesserten Sensitivität und einer ebenso eindeutigen Verminderung der Gefahr von falsch-positiven Vorhersagen noch einmal eindrucksvoll bestätigt werden [18].

Die Überlegenheit der Kriterienkombination konnte bei Nachuntersuchung bestätigt werden

Die beste Orientierung über die Prädiktionsleistung der beiden Hochrisikokriteriensätze war bisher aus einer Metaanalyse zu beziehen, die den Publikationszeitraum von 1996 bis zum Januar 2011 umfasste. Von den 27 eingeschlossenen Studien an insgesamt 2502 Risikopersonen hatten bis dahin neben EPOS nur noch zwei weitere Untersuchungen an kleineren Stichproben beide Kriteriensätze gemeinsam benutzt. Das mittlere Übergangsrisiko in eine Psychose betrug in diesen ansonsten alternativ entweder auf BS- oder UHR-Kriterien bezogenen Studien 18 % nach 6 Monaten, 22 % nach einem, 29 % nach 2 und 36 % nach 3 Jahren [19]. Sobald mehr Studien mit simultaner Kriterienverwendung und längeren Beobachtungsdauern mit einbezogen werden können, dürften zukünftige Metaanalysen noch höhere Übergangsraten ergeben. In der gerade erwähnten ersten derartigen Prädiktionsanalyse [18] seit EPOS betrug der Anteil der Risikopersonen mit Psychoseübergang jetzt nämlich 66 % nach 4 Jahren und erreichte damit eine Größenordnung, wie sie für die separate Kriterienverwendung nur die longitudinale CER-Studie mit einer Übergangsrate von 70 % nach 4,5 Jahren dokumentieren konnte (Abb. 4).

Abb. 4
figure 4

Anteile und Zeitpunkte der Psychoseentwicklung bei separater und kombinierter Kriterienverwendung. COGDIS kognitive Basisstörungen, UHR ultra-high risk. (Adaptiert nach [18], mit freundlicher Genehmigung von Elsevier)

Neben der Risikoanreicherung durch Kriterienkombination und der Entwicklung eines klinisch plausiblen Prädiktionsmodells mit exzellenten Vorhersageleistungen hat EPOS auch noch in anderer Hinsicht neue Wege eröffnet. Um Individualisierungsmöglichkeiten für die Risikoeinschätzung und die sich daran orientierenden Präventionsangebote vorzubereiten, wurde für jede eingeschlossene Risikoperson anhand der klinischen und demographischen Variablen ein individueller prognostisches Score kalkuliert. Diese Risikowerte ließen sich mithilfe einer Modellierungsprozedur in vier Klassen mit Steigerungsraten der Erkrankungswahrscheinlichkeit vom 67- bis zum 1621-Fachen gegenüber dem relativen Erkrankungsrisiko in der Allgemeinbevölkerung nach 18 Monaten stratifizieren. In Stratifizierungsmodelle wie diesen vierstufigen Prognoseindex kann man zur weiteren Absicherung, Verfeinerung und Verbesserung der Individualisierungsmöglichkeiten auch noch neurobiologische und umweltbedingte Risikofaktoren mit einbeziehen. Ein erstes Beispiel hierfür, das neben klinischen Variablen auch gängige neurokognitive Testverfahren benutzt, liegt in Form eines stratifizierten Prädiktionsmodells für Psychosen bereits vor und hat sich aufgrund seiner einfachen Praktikabilität auch in der Arbeit der Früherkennungszentren schon bewährt [20].

Verbesserung der Prädiktionsleistung durch Biomarker

Wenn in Gedächtnisambulanzen ein „mild cognitive impairment (MCI)“ aufgedeckt wird, entsprechen die zu erwartenden Übergangsraten in das Vollbild einer Alzheimer-Demenz in etwa denen in psychotische Erstepisoden, die nach dem augenblicklichen metaanalytischen Wissensstand in HRS gegeben sind. Durch Hirnbildgebungsverfahren und Liquoranalysen gelingt dann gerade bei den mit starkem subjektivem Beschwerdedruck einhergehenden Gedächtnisstörungen die Demenzprädiktion nahezu schon mit diagnostischer Sicherheit [21] und genau diese Verbesserung der klinischen Risikoeinschätzung durch eine geregelte Zusatzdiagnostik streben heute auch die Früherkennungs- und Präventivzentren für psychotische Störungen an.

Folgerichtig ist die klinische Hochrisikoforschung schon seit langem auch mit der Suche nach Biomarkern beschäftigt, die eine eigenständige Prädiktionskraft besitzen, und hat eigentlich auch auf allen infrage kommenden Untersuchungsebenen bei den Risikopersonen in ERPS und LRPS prinzipiell nutzbare Normabweichungen gefunden. Dazu gehören selber auch schon metaanalytisch abgesicherte neuropsychologische Leistungseinschränkungen [6] wie die Verminderung der kognitiven Verarbeitungsgeschwindigkeit, Veränderungen der EEG-Power-Spektren [22], Devianzen von ereigniskorrelierten Potenzialen wie der P 300 [23] und insbesondere der „mismatch negativity“ (MMN; [24]), hirnstrukturell fassbare Dichteveränderungen in orbitofrontalen, hippokampalen und auch das Zerebellum mit umfassenden Regionen [25] sowie schließlich auch die derzeit stark beachteten Ergebnisse der maschinellen Musterklassifikation von hirnstrukturellen MRT-Bildern, neurokognitiven und anderen neurobiologisch-genetischen Befunden [26]. Die Entwicklung von Vorhersagemodellen, die mehrere Untersuchungsebenen umfassen [27] und die genannten potenziellen Biomarker auch zur Risikostratifizierung nutzen, schreitet voran [20, 22]. Für die Kombination der UHR- und auch der BS-Kriterien mit neuropsychologischen, neurophysiologischen und hirnstrukturellen Parametern konnte in einzelnen Studien bereits nachgewiesen werden, dass sie die klinische Prädiktionsleistung auf ein ähnlich hohes Niveau anhebt, wie es durch die Zusatzdiagnostik beim MCI erreichbar ist [21, 26]. Insbesondere die Normabweichungen der MMN haben sich international inzwischen in mehreren voneinander unabhängigen und durchweg sehr anspruchsvollen Studien als ein sehr gut für die Zusatzdiagnostik in HRS geeigneter Biomarker mit eigenständiger Prädiktionskraft herausgestellt [24].

Das angereicherte Wissen zu den Möglichkeiten der Risikoanreicherung und Risikostratifizierung durch Biomarker erreicht allmählich einen Stand, der Konsensusentscheidungen über und Festlegungen auf geregelte Verfahren der Zusatzdiagnostik in HRS ermöglicht. Die Musterklassifikation von neurobiologischen Befunden mithilfe maschineller Lernalgorithmen könnte diese Möglichkeiten allerdings noch einmal sehr deutlich bereichern und verbessern. Daher sollte die anstehende Anwendung dieser Verfahren auf die hirnstrukturellen MRT-Befunde aus PREVENT, der derzeit vor dem Abschluss stehenden bislang größten deutschen Studie zur indizierten Prävention [28], und die gerade angelaufene systematische Überprüfung der Eignung solcher Bildgebungsmuster zur Prädiktionsverbesserung in einer groß angelegten europäischen Studie erst noch abgewartet werden, bevor man die klinischen Hochrisikokriterien für Psychosen durch eine verbindliche Zusatzdiagnostik ergänzt [1, 29].

Fazit für die Praxis

  • Auf der Grundlage allein biologischer und umweltbedingter Risikofaktoren ist derzeit noch keine präventiv nutzbare Krankheitsvorhersage möglich.

  • Sobald man jedoch in das klinische Hochrisikostadium eintritt, kann der bevorstehende Psychoseausbruch mit hoher Treffsicherheit vorhergesagt werden.

  • Diese Prädiktionsleistung lässt sich durch Kombination der Kriteriensätze für frühe und späte Hochrisikostadien noch weiter verbessern und mehr auf die betroffenen Individuen zuschneiden.

  • Hirnbiologische Untersuchungsverfahren werden in naher Zukunft die klinische Psychoseprädiktion in Form einer geregelten Zusatzdiagnostik ergänzen.