Die Tests, die bei Screenings eingesetzt werden, müssen hinreichend genau sein. Wie lässt sich die Genauigkeit quantifizieren?
Häufig finden sich zur Testgüte zwei Werte: Die Sensitivität und die Spezifität.
Die Sensitivität (oder Empfindlichkeit) beschreibt, wie gut ein Test Patienten mit der Erkrankung erkennt. Ein sehr sensitiver Test birgt nur ein geringes Risiko, Patienten mit der Erkrankung zu übersehen. Eine hohe Sensitivität bedeutet also ein geringes Risiko für ein falsch negatives Ergebnis.
Die Spezifität gibt an, wie sicher der Test bei einem Patienten ohne die Erkrankung negativ ausfällt. Ein sehr spezifischer Test hat also nur ein geringes Risiko, Patienten ohne die Erkrankung irrtümlich als krank zu klassifizieren. Eine hohe Spezifität bedeutet also ein geringes Risiko für ein falsch positives Ergebnis.
Soweit die Theorie. In der Praxis gibt es häufig das Problem, dass sich die wahre Spezifität und Sensitivität eines Tests nur im Vergleich zu einem „Goldstandard“ herausfinden lässt – häufig gibt es einen solchen Goldstandard allerdings nicht oder der Vergleich ist nicht ausreichend untersucht.
Gelegentlich findet man als Angabe für die Testgüte auch die sogenannte „Likelihood Ratio“. Was es damit auf sich hat, erkläre ich im nächsten Post in dieser Reihe.