Vorhersage des Demenzrisikos bei Personen mit leichter kognitiver Beeinträchtigung: ein Vergleich von Cox-Regressions- und maschinellen Lernmodellen
BMC Medical Research Methodology Band 22, Artikelnummer: 284 (2022) Diesen Artikel zitieren
1911 Zugriffe
2 Zitate
7 Altmetrisch
Details zu den Metriken
Cox-Proportional-Hazards-Regressionsmodelle und Modelle des maschinellen Lernens werden häufig zur Vorhersage des Demenzrisikos verwendet. Bestehende Vergleiche dieser Modelle basierten größtenteils auf empirischen Datensätzen und lieferten gemischte Ergebnisse. Diese Studie untersucht die Genauigkeit verschiedener maschineller Lern- und Cox-Regressionsmodelle zur Vorhersage von Zeit-bis-Ereignis-Ergebnissen mithilfe der Monte-Carlo-Simulation bei Menschen mit leichter kognitiver Beeinträchtigung (MCI).
Die Vorhersagegenauigkeit von neun Time-to-Event-Regressions- und maschinellen Lernmodellen wurde untersucht. Zu diesen Modellen gehören Cox-Regression, bestrafte Cox-Regression (mit Ridge-, LASSO- und elastischen Netzstrafen), Überlebensbäume, zufällige Überlebenswälder, Überlebensunterstützungsvektormaschinen, künstliche neuronale Netze und extreme Gradientenverstärkung. Simulationsdaten wurden unter Verwendung des Studiendesigns und der Datenmerkmale eines klinischen Registers und eines großen gemeindebasierten Registers von Patienten mit MCI generiert. Die Vorhersageleistung dieser Modelle wurde auf der Grundlage einer dreifachen Kreuzvalidierung mithilfe des Harrell-Konkordanzindex (C-Index), des integrierten Kalibrierungsindex (ICI) und des integrierten Brier-Scores (IBS) bewertet.
Das Cox-Regressions- und maschinelle Lernmodell hatte eine vergleichbare Vorhersagegenauigkeit über drei verschiedene Leistungsmetriken und Datenanalysebedingungen hinweg. Die geschätzten C-Index-Werte für Cox-Regression, Random Survival Forests und Extreme Gradient Boosting betrugen 0,70, 0,69 bzw. 0,70, als die Daten aus einem Cox-Regressionsmodell unter Bedingungen großer Stichprobengröße generiert wurden. Im Gegensatz dazu betrugen die geschätzten C-Index-Werte für diese Modelle 0,64, 0,64 und 0,65, wenn die Daten aus einem zufälligen Überlebenswald unter Bedingungen einer großen Stichprobe generiert wurden. Sowohl die Cox-Regression als auch der Random Survival Forest hatten unter allen untersuchten Modellen die niedrigsten ICI-Werte (0,12 für eine große Stichprobengröße und 0,18 für eine kleine Stichprobengröße), unabhängig von der Stichprobengröße und dem Datengenerierungsmodell.
Cox-Regressionsmodelle weisen eine vergleichbare und manchmal bessere Vorhersageleistung auf als komplexere Modelle für maschinelles Lernen. Wir empfehlen, dass sich die Auswahl dieser Modelle an wichtigen Überlegungen zu Forschungshypothesen, Modellinterpretierbarkeit und Datentyp orientieren sollte.
Peer-Review-Berichte
Demenz ist ein komplexer Gesundheitszustand, der Gedächtnis, Denken, Verhalten und Lebensqualität beeinflusst. Im Jahr 2015 wurden die weltweiten Kosten von Demenz auf 818 Milliarden US-Dollar geschätzt, wobei 86 % der Kosten in Ländern mit hohem Einkommen anfielen [1]. Der Demenz geht in der Regel eine leichte kognitive Beeinträchtigung (MCI) voraus, die als kognitive Beeinträchtigung mit schlechten kognitiven Testergebnissen trotz Beibehaltung der Aktivitäten des täglichen Lebens definiert ist. Personen mit MCI haben im Vergleich zu Personen mit normaler Kognition ein wesentlich höheres Risiko, an Demenz zu erkranken. Im Durchschnitt entwickeln 5–10 % der Menschen mit MCI pro Jahr eine Demenz [2]; Allerdings entwickeln nicht alle Personen mit MCI eine Demenz [3]. Da es keine krankheitsmodifizierenden Behandlungen für Demenz gibt, besteht ein erhöhter Bedarf an klinischen Entscheidungshilfen zur Unterstützung der Früherkennung von Personen mit hohem Risiko für die Entwicklung einer Demenz, die von gezielten Interventionen für modifizierbare Risikofaktoren profitieren könnten. Solche Tools können auch zu Überwachungszwecken eingesetzt werden: Wenn Personen mit MCI an Demenz erkranken, können sie unterstützende Pflege erhalten, um sicher in der Gemeinschaft zu leben [4]. Darüber hinaus können solche Tools Leistungserbringer bei der Beantwortung von Fragen für Patienten mit MCI und ihren Familien zum Risiko einer Demenzentwicklung und zur zukünftigen Lebensplanung unterstützen [5].
Prognostische Risikovorhersagemodelle [6], die die Wahrscheinlichkeit der Entwicklung einer Demenz auf der Grundlage einer Reihe von Risikofaktoren des Patienten abschätzen, bilden eine Klasse von Modellen, auf deren Grundlage solche Entscheidungsinstrumente entwickelt werden können. Prognostische Risikoscores für Demenz wurden auf der Grundlage von Regressionsanalysen und maschinellen Lernmodellen entwickelt, wobei letztere in den letzten Jahren häufig verwendet wurden. Beispielsweise zeigte eine kürzlich veröffentlichte systematische Überprüfung der Demenz-Risikoscores, dass etwa 40 % der veröffentlichten Modelle einen Algorithmus für maschinelles Lernen verwendeten [7]. Die Überprüfung kam jedoch zu dem Schluss, dass die meisten der identifizierten Risikobewertungen inhärente methodische Einschränkungen aufweisen, zu denen das Fehlen interner und externer Validierungen der Modelle, die Wahl statistischer Methoden zur Entwicklung der Risikobewertungen und die lange Zeitspanne zwischen den Bewertungen von Einzelpersonen gehören Risiko [7]. Bisher wurde kein geeigneter Demenz-Risikoscore als klinische Entscheidungshilfe für den Einsatz in der klinischen Routinepraxis übernommen [7, 8].
Die zunehmende Verbreitung von Modellen des maschinellen Lernens in der klinischen Forschung beruht auf der Annahme, dass ML von Natur aus leistungsfähiger ist als herkömmliche Regressionsmodelle, da es sich um nichtlineare Modelle handelt, die nichtlineare Zusammenhänge zwischen erklärenden Variablen und dem interessierenden Ergebnis erfassen können. Frühere Studien berichteten jedoch aus einer systematischen Überprüfung empirischer Studien über keine signifikanten Unterschiede in der Modellleistung zwischen maschinellem Lernen und logistischen Regressionsmodellen [9]. Solche Vergleiche schränken die externe Verallgemeinerbarkeit von Schlussfolgerungen über die Leistung der Modelle ein. Die Monte-Carlo-Simulationsmethode ist ein alternativer Ansatz zur Beurteilung der Vergleichbarkeit mehrerer Modelle unter verschiedenen Datenanalysebedingungen[10]. Obwohl es einige Simulationsstudien gibt, die statistische und maschinelle Lernansätze zur Risikovorhersage für Zeit-bis-Ereignis-Daten verglichen haben [11], sind diese Simulationsstudien häufig auf den neuartigen Ansatz ausgerichtet. Es besteht Bedarf an unvoreingenommenen Vergleichen von maschinellem Lernen und herkömmlichen statistischen Methoden, um die Auswahl der optimalen Methodik für die Entwicklung klinischer Risikovorhersagen für Demenz zu bestimmen [11]. Das übergeordnete Ziel dieser Studie besteht darin, die vergleichende Leistung von maschinellem Lernen und (ungestraften und bestraften) Cox-Regressionsmodellen zur Vorhersage von Time-to-Event-Ergebnissen (MCI bis zum Fortschreiten der Demenz) unter verschiedenen datenanalytischen Bedingungen zu untersuchen. Wir gehen davon aus, dass die Cox-Regression eine mit maschinellen Lernalgorithmen vergleichbare und/oder sogar bessere Genauigkeit (in Bezug auf Diskriminierung und Kalibrierung) aufweisen wird.
Um sicherzustellen, dass das Design der Simulation und die untersuchten Simulationsbedingungen die Merkmale und Merkmale realer Datensätze widerspiegeln, wurden Daten aus einem klinischen Register und einem großen gemeindebasierten Register von Menschen mit MCI als Grundlage für die Auswahl der Simulationsbedingungen verwendet.
Das PROMPT-Register der Cognitive Neurosciences Clinic an der University of Calgary ist ein Gedächtnisklinikregister, in das alle Patienten mit MCI aufgenommen werden. Das PROMPT-Register wurde im Juli 2010 eingerichtet und registriert Patienten, die zur Beurteilung einer vermuteten Beeinträchtigung der kognitiven oder Verhaltensfunktion an die Cognitive Neuroscience Clinic in Calgary, Alberta, Kanada, überwiesen wurden [12]. Teilnahmeberechtigt sind alle Patienten, die die Klinik besuchen. Um eine vollständige Nachverfolgung sicherzustellen, verknüpften wir die PROMPT-Teilnehmer mit Verwaltungsdaten des Gesundheitswesens in Alberta, um neue Demenzdiagnosen zu überwachen. Es gab 273 Patienten mit MCI in PROMPT (bis April 2020), im Alter von 55 Jahren und älter, mit Daten zu Basisprädiktoren und mit mindestens einer Nachuntersuchung nach dem Basisbesuch. Zu den Studienprädiktoren gehören demografische Merkmale (Alter, Geschlecht, Bildung, Familienstand, Muttersprache und Händigkeit), kognitive Tests oder Profile (Gesamtpunktzahl für die neuropsychologische Batterie des Consortium to Establish a Registry for Alzheimer's Disease, Montreal Cognitive Assessment [MoCA]). Gesamtpunktzahl, Gesamtpunktzahl für leichte Verhaltensstörungen, etwaige neurologische Anzeichen, Familienanamnese und kognitive Beschwerden von Informanten), Lebensstilfaktoren (Rauchen und Alkoholmissbrauch) sowie Krankengeschichte (Bluthochdruck, Dyslipidämie, Diabetes, Hypothyreose, Schädel-Hirn-Trauma). Verletzungen, zerebrovaskuläre Erkrankungen, Herz-Kreislauf-Erkrankungen, Stimmungsstörungen, Schlaflosigkeit, obstruktive Schlafapnoe, alle neurologischen Störungen und andere psychiatrische Erkrankungen als Stimmungsstörungen).
Das NACC wurde von den vom National Institute on Aging (NIA) finanzierten Alzheimer’s Disease Research Centers (ADRCs) gegründet, die Probanden mit kognitiven Funktionen von normal bis Demenz rekrutieren und Daten darüber sammeln. Die in dieser Studie verwendete NACC-Kohorte stammt aus dem Uniform Data Set (NACC-UDS; naccdata.org). Das NACC-UDS ist ein Längsschnittdatensatz, der etwa jährlich erhobene demografische und standardisierte klinische Daten umfasst. Alle Testzentren verwalteten standardisierte Formulare. Detaillierte Informationen zur Kohorte und der im UDS enthaltenen neuropsychologischen Testbatterie sind an anderer Stelle beschrieben [13,14,15]. Patientendaten wurden prospektiv auf vorab festgelegten Fallberichtsformularen gesammelt. Aufgrund erheblicher Änderungen gegenüber früheren Versionen haben wir Version 3 (bezieht sich auf diejenigen, die ab 2015 eingeschrieben sind) des NACC verwendet. Es gab 967 Patienten mit MCI im NACC im Alter von 55 Jahren und älter, mit Daten zu Prädiktoren zu Studienbeginn und mit mindestens einer Nachuntersuchung nach dem Studienbesuch. Die Identifizierung dieser beiden Studienkohorten finden Sie in unserem Begleitdokument (Abbildung S1-S2). Zu den Studienprädiktoren gehören demografische Merkmale (Alter, Geschlecht, Bildung, Rasse, Muttersprache, Händigkeit und Familienstand), kognitive Tests oder Profile (Zeit seit dem anfänglichen kognitiven Rückgang, Gedächtnisbeschwerden von Probanden oder Informanten, Familiengeschichte, MoCA-Gesamtpunktzahl, geriatrische Depressionsskala, Gesamtscore neuropsychiatrischer Symptome, vom Arzt diagnostizierte Verhaltenssymptome, motorische Symptome und Gesamtverlauf des Rückgangs), Lebensstilfaktoren (Rauchen), ob von medizinischem Fachpersonal überwiesen, Hauptgrund für den Besuch von Alzheimer-Zentren B. Anamnese (Bluthochdruck, Diabetes, Hypercholesterinämie, Arthritis, Harninkontinenz, zerebrovaskuläre Erkrankungen, Herz-Kreislauf-Erkrankungen, Schlafstörungen bei schnellen Augenbewegungen, Schlaflosigkeit, Schädel-Hirn-Trauma, Krebs, Einnahme nichtsteroidaler entzündungshemmender Medikamente, Schilddrüsenerkrankungen, Stimmungsstörungen, Parkinsonismus und Vitamin-B12-Mangel) sowie körperliche Untersuchungen (Body-Mass-Index, Seh- und Hörvermögen).
Diese beiden Register wurden aufgrund ihrer unterschiedlichen Designs (z. B. Stichprobengröße, Art der Patientenpopulation, Anzahl der Prädiktoren) und Dateneigenschaften (z. B. Zeit-bis-Ereignis-Verteilung und Zensurrate) als Grundlage für das Design dieser Simulationsstudie ausgewählt. Dies könnte sicherstellen, dass unsere Simulation und die untersuchten Bedingungen reale Studien nachahmen.
Für beide Kohorten ist das Überlebensergebnis die Zeit bis zur vollständigen Demenz über einen Zeitraum von drei Jahren nach der MCI-Diagnose, die auf den Standardergebnisdefinitionen basiert, einschließlich des Diagnostic and Statistical Manual of Mental Disorders und des National Institute on Aging – Alzheimer's Association [16, 17]. In den Registern PROMPT (N = 273) und NACC (N = 967) entwickelten 110 (40 %) bzw. 224 (23 %) der Personen zu Studienbeginn innerhalb von drei Jahren eine Demenz aufgrund von MCI. In beiden Kohorten wurden alle potenziellen Prädiktoren zu Studienbeginn gemessen. Wir erkennen an, dass Menschen mit MCI möglicherweise nie eine Demenz entwickeln [3]. In dieser aktuellen Studie wurde davon ausgegangen, dass Personen, die im Zeitraum von drei Jahren nach der MCI-Diagnose keine Demenz entwickelten, rechtszensiert waren. Eine beschreibende Analyse der Probenmerkmale war in unserem Supportdokument Tabelle S1-S2 enthalten.
Die in dieser Simulationsstudie verglichenen Vorhersagemodelle umfassen (1) Cox-Regression, (2) Cox-Regression mit Auswahloperator für die geringste absolute Schrumpfung (LASSO-Cox), (3) Cox-Regression mit Ridge Penalty (Ridge-Cox), (4) Cox Regression mit elastischem Netz (EN-Cox), (5) Überlebensbäumen, (6) zufälligen Überlebenswäldern, (7) Überlebensunterstützungsvektormaschinen, (8) Überlebens-Neuronalen Netzen und (9) extremer Gradientenverstärkung.
Ein Überlebensbaum bezieht sich auf ein nichtparametrisches Time-to-Event-Regressionsmodell, bei dem die Stichprobe auf der Grundlage von Eingabeprädiktoren rekursiv in homogene Untergruppen aufgeteilt wird, wodurch die Unterschiede in den Überlebensverteilungen für die Untergruppen maximiert werden [18]. Random Survival Forests [19] sind eine direkte Erweiterung der Random Forests [20] zur Handhabung von Time-to-Event-Ergebnissen. Zufällige Überlebenswälder [19] funktionieren genauso wie herkömmliche Zufallswaldmodelle, mit der Ausnahme, dass jede Aufteilung durch Maximierung der Überlebensunterschiede zwischen Tochterknoten optimiert wird. Das Ergebnis zufälliger Überlebenswälder ist die Ensembleschätzung für die kumulative Gefahrenfunktion. Überlebensunterstützungsvektormaschinen wurden erweitert, um zensierte Daten zu analysieren, einschließlich Regression [21], Ranking [22] und Hybridansatz [23]. Die Regressionsmethode behandelt Überlebenszeiten als Standard-Regressionsproblem (ohne Bestrafung für zensierte Beobachtungen). Der Ranking-Ansatz behandelt im Wesentlichen die auf Support-Vektor-Maschinen basierende Überlebensanalyse als Klassifizierungsproblem mit einer ordinalen Zielvariablen. Der Hybridansatz kombiniert die Regressions- und Ranking-Methoden. Da zuvor berichtet wurde, dass Regressionsbeschränkungen eine deutlich bessere Leistung erbringen als Rangfolgebeschränkungen und eine ähnliche Leistung wie der Hybridansatz bei klinischen Daten [23], haben wir in dieser Arbeit den Regressionsansatz übernommen. Das überlebenstiefe neuronale Netzwerk „DeepSurv“ [24] ist ein nichtlineares Cox-Proportional-Hazard-Deep-Feed-Forward-Neuronales Netzwerk, das Gefahrenraten modellieren kann. Konkret dienen die Basisdaten der Patienten als Eingabe für die erste Schicht, die dann in den verborgenen Schichten verarbeitet und kombiniert wird, gefolgt von einer Dropout-Schicht, um eine Überanpassung zu reduzieren [25]. Die Ausgabeschicht erzeugt Schätzungen für die Gefährdungsraten ähnlich dem Cox-Regressionsmodell. Die entsprechende Kostenfunktion kombiniert die Cox-Teilwahrscheinlichkeit mit der Regularisierung, und zur Schätzung der Parameter wird eine Gradientenabstiegsoptimierung verwendet. Der Extreme-Gradient-Boosting-Algorithmus ist eine effektive und flexible Methode des maschinellen Lernens [26], die die ursprüngliche Gradient-Boosting-Maschine [27] um Flexibilitäten für verschiedene Arten von Ergebnissen erweitert (z. B. binäre, kontinuierliche oder Überlebensdaten). Das Überlebensmodell mit extremer Gradientenverstärkung kann zur Verarbeitung der rechtszensierten Überlebensdaten verwendet werden. Es lockert die Linearitätsannahme zwischen dem Log-Hazard-Verhältnis und den Kovariaten und hat weiterhin eine proportionale Hazard-Annahme [28, 29].
Zu den zu untersuchenden Simulationsbedingungen gehören (a) die Stichprobengröße (N), (b) die Zensurrate (CR), (c) die Datenerzeugungsprozesse (die Beziehung zwischen den Prädiktoren und der Gefahrenfunktion) und (d) die Anzahl der Prädiktoren . Um eine externe Generalisierbarkeit der Studienergebnisse sicherzustellen, wurden die in unserer Simulationsstudie untersuchten datenanalytischen Bedingungen so ausgewählt, dass sie reale Datenszenarien nachahmen, die in bestehenden Registern erhältlich sind [30, 31]. Wir haben Daten basierend auf den Kovariaten (Designmatrix) von zwei Kohorten von Patienten mit MCI simuliert. Bei jeder Kohorte wurden zwei unterschiedliche Datengenerierungsprozesse verwendet, die auf der Anpassung entweder der Cox-Regression (eine typische konventionelle Regression) oder der Zufallsüberlebenswälder (ein typisches maschinelles Lernen, das Nichtlinearität und Wechselwirkungen höherer Ordnung untersucht) basierten. Anschließend wurden simulierte Zeit-bis-Ereignis-Ergebnisse basierend auf der prognostizierten Überlebensverteilung und der prognostizierten Ausfallwahrscheinlichkeit (Umwandlung von MCI in Demenz) nach drei Jahren generiert.
Der Datengenerierungsprozess wird wie in Abb. 1 beschrieben beschrieben. Das Cox-Regressionsmodell und zufällige Überlebenswälder wurden verwendet, um die Überlebensergebnisse (Überlebensverteilung und Ausfallwahrscheinlichkeit nach drei Jahren) für jedes Individuum in der realen Stichprobe anzupassen und vorherzusagen. Die Studienergebnisdaten wurden nach diesem Schritt nicht mehr verwendet. Das Modell (entweder Cox-Regression oder zufällige Überlebenswälder) sagte die Überlebensverteilung \(\widehat{{S}_{i}\left(t\right)}\) für jedes Individuum voraus und repräsentierte die Schätzungen der Zufallsvariablen Überlebenszeit \ (t\) für eine einzelne \(i\) Beobachtung. Als nächstes wurde eine Zufallssimulationsfunktion [32] verwendet, um Simulationen (d. h. Überlebenszeiten) aus der Verteilung für jedes Individuum in der Stichprobe zu zeichnen. Der Zensurindikator wurde unter Verwendung einer Bernoulli-Verteilung mit der gegebenen individuellen Wahrscheinlichkeit \(\widehat{{p}_{i}}\) simuliert, bei der es sich um die vorhergesagte Ausfallwahrscheinlichkeit nach drei Jahren basierend auf der Cox-Regression oder dem zufälligen Überleben handelte Wälder. Die Simulationsdaten wurden auf der Grundlage von Cox-Regressionsmodellen und zufälligen Überlebenswäldern generiert, auch weil diese im Vergleich zu den übrigen verglichenen Methoden eine relativ bessere Modellleistung aufwiesen (Einzelheiten finden Sie in unserem Supportdokument, Tabelle S3).
Der Simulationsprozess wurde wie folgt durchgeführt:
Die Leistung jedes Modells wurde anhand von Diskriminierungs- und Kalibrierungsmaßen auf der Grundlage einer dreifachen Kreuzvalidierung (CV) bewertet. Insbesondere wurden der Harrell-Konkordanzindex (c-index) [33], der integrierte Kalibrierungsindex (ICI) für Überlebensmodelle [34] und der integrierte Brier-Score (IBS) [35] zur Beurteilung der Modellgenauigkeit verwendet. Der C-Index ermöglicht die Berechnung der Konkordanzwahrscheinlichkeit und misst den Anteil der Paare (die verglichen werden können), bei denen die Beobachtung mit der längeren Überlebenszeit die vom Modell vorhergesagte höhere Überlebenswahrscheinlichkeit aufweist.
Eine numerische Kalibrierungsmetrik ICI [34] wurde erweitert, um die Kalibrierung vorhergesagter Wahrscheinlichkeiten für Überlebensmodelle zu bewerten. Sie wird als mittlere absolute Differenz zwischen beobachteten und vorhergesagten Wahrscheinlichkeiten in der Stichprobe geschätzt.
Sei \(F \left({t}^{*} \right|\varvec{X})\) ein Überlebensmodell zur Schätzung der Ausfallwahrscheinlichkeit (z. B. der Wahrscheinlichkeit, an Demenz zu erkranken) für ein Subjekt mit dem Kovariatenvektor \ (\mathbf{X}\); \(\widehat{{p }_{{t}^{*}}^{\left(k\right)}}\)bezieht sich auf die \({\text{k}}^{\text{t} \text{h}}\) vorhergesagte Ausfallwahrscheinlichkeit vor der Zeit \({t}^{*}\) basierend auf dem angepassten Modell \(F \left({t}^{*} \right|\varvec{X} )\); \(n\) bezeichnet die Anzahl der eindeutigen Vorhersagen aus dem angepassten Modell; \(\widehat{{ p}_{{t}^{*}}^{ \left(k\right)c }}\)bezieht sich auf die geschätzte beobachtete Ausfallwahrscheinlichkeit, die der gegebenen vorhergesagten Wahrscheinlichkeit entspricht
basierend auf der Beziehung zwischen
und das
Funktion g, die entweder mithilfe einer flexiblen adaptiven Hazard-Regression [36] oder mithilfe eines Cox-Regressionsmodells mit eingeschränkten kubischen Splines [34] geschätzt werden kann. Die letztgenannte Methode mit drei Knoten wurde in dieser Arbeit verwendet, da gezeigt wurde, dass die beiden Ansätze eine vergleichbare Leistung hatten [34]. Ein kleinerer ICI-Wert weist auf ein besser kalibriertes Vorhersagemodell hin und es wird empfohlen, diese Metrik beim Vergleich verschiedener Vorhersagemodelle zu verwenden [34].
Der IBS, der eine quadratische Verlustfunktion verwendet [35], ist definiert als
.
Hier wird eine Annäherung an die Integration vorgenommen, indem der Stichprobenmittelwert über alle \(T\) eindeutigen Zeitpunkte und alle \(N\) Beobachtungen ermittelt wird, wobei \(N\) die Anzahl der Beobachtungen ist, \({S}_ {i}\) ist die vorhergesagte Überlebensfunktion für das Individuum \(i\) und \({t}_{i}\)ist die Überlebenszeit. Für eine Person, die zum Zeitpunkt \(t\) eine Demenz entwickelte und eine vorhergesagte Überlebensfunktion aufweist, ist S zum Zeitpunkt \({t}^{*}\) definiert durch:
,
wobei \(G\) die Kaplan-Meier-Schätzung der Zensurverteilung ist. \(I \left(\bullet \right)\) ist zum Beispiel die Indikatorfunktion,
Ein kleinerer IBS-Wert weist auf eine bessere Kalibrierung hin und zeigt eine bessere Kombination aus Unterscheidung und Kalibrierung.
Für jede Überlebensmethode, mit Ausnahme der ungestraften Cox-Regression, wurde eine Hyperparameteroptimierung durchgeführt, basierend auf einer Zufallsrastersuche (insgesamt 1000 Bewertungen) unter Verwendung eines fünffachen CV mit C-Index als Bewertungsmetrik. Der Suchraum für jeden Hyperparameter und die verwendeten optimierten Hyperparameter sind in unserem Supportdokument enthalten (Tabelle S4). Für jede Kombination von Simulationsbedingungen wurden basierend auf jedem Datengenerierungsprozess insgesamt 500 Replikationen erstellt. Alle Analysen wurden mit der statistischen Programmiersprache R durchgeführt [37].
Abbildung 2 beschreibt die Genauigkeitsverteilung für die neun Überlebensmodelle unter Verwendung des Harrell-C-Index für die Simulationsbedingungen, wenn der Datengenerierungsprozess auf Cox-Regression und zufälligen Überlebenswäldern basierte. Die simulierten Bedingungen repräsentierten eine relativ kleine Stichprobengröße (basierend auf den Merkmalen und Merkmalen des PROMPT-Datensatzes) und eine relativ große Stichprobe (basierend auf den Merkmalen und Merkmalen des NACC-Datensatzes). Wenn die Daten auf der Grundlage eines Cox-Regressionsmodells generiert wurden, waren die geschätzten C-Index-Werte für alle Modelle im Allgemeinen höher als bei der Simulation der Daten auf der Grundlage zufälliger Überlebenswälder, unabhängig von der Stichprobengröße.
Verteilung des geschätzten c-Index von neun Modellen, bewertet anhand des dreifachen CV über 500 Replikationen
Hinweis: Es gibt vier Panels, wobei die oberen beiden Panels (A und B) für die kleinen Stichproben sind (basierend auf den Merkmalen und Merkmalen des PROMPT-Datensatzes), die unteren beiden Panels (C und D) für die großen Stichproben (basierend auf). Merkmale und Merkmale des NACC-Datensatzes). Das linke und das rechte Feld beziehen sich auf die Cox-Regression, die für den Datengenerierungsprozess (DGP) bzw. für DGP auf der Basis von Zufallsüberlebenswäldern (Random Survival Forests, RSF) verwendet wird. Jedes Panel besteht aus neun Boxplots, die jedem der neun Überlebensanalysemodelle entsprechen. Jedes Boxplot zeigt die Variation des Harrell-c-Index [c-index] über die 500 Simulationsreplikate, wenn eine bestimmte DGP- und Überlebensanalysemethode angewendet wurde. Cox: Cox-proportionale Gefahren; Ridge-Cox: Cox-Regression basierend auf Ridge-Strafe; LASSO-Cox: Cox-Regression basierend auf der Strafe des Auswahloperators für die geringste absolute Schrumpfung; EN-Cox: Cox-Regression basierend auf der elastischen Nettostrafe; SurvTree: Überlebensbaum; RSF: Zufällige Überlebenswälder; SSVM: Survival Support Vector Machine; SNN: Survival Neural Networks; XGBoost: Extreme Steigungsverstärkung
Wenn die Daten auf der Grundlage einer kleinen Stichprobengröße und der Cox-Regression generiert wurden, war der geschätzte mittlere C-Index für die bestrafte Cox-Regression mit elastischem Netz (EN-Cox) und mit LASSO (LASSO-Cox) am höchsten, für das neuronale Überleben jedoch am niedrigsten Netzwerke. Darüber hinaus waren die geschätzten mittleren C-Index-Werte für zufällige Überlebenswälder, Cox-Regression und Ridge-Cox etwas niedriger als EN-Cox und LASSO-Cox. Wenn andererseits Daten auf der Grundlage eines Random-Survival-Forests-Modells generiert wurden, wiesen nur Random-Survival-Forests und Survival-Support-Vector-Maschinen geschätzte mittlere C-Index-Werte größer als 0,5 auf. Die geschätzten mittleren C-Index-Werte für die Cox-Regression, Ridge- Cox, EN-Cox, Überlebensbäume und überlebende neuronale Netze waren vergleichbar, lagen jedoch unter 0,5. Wenn die Daten auf der Grundlage einer großen Stichprobe generiert wurden, gab es unabhängig vom Datengenerierungsmodell bei den meisten Modellen vernachlässigbare Unterschiede zwischen den geschätzten C-Index-Werten, mit Ausnahme der Modelle „Survival Support Vector Machine“ und „Survival Neural Networks“, bei denen dies der Fall war die niedrigsten geschätzten C-Index-Werte.
Abbildung 3 beschreibt die Verteilung der ICI-Werte für alle neun Modelle aus 500 Replikationen für Cox-Regression und Datengenerierungsprozesse für zufällige Überlebenswälder. Wenn die Stichprobengröße klein war und das Cox-Regressionsmodell zur Generierung von Zeit-bis-Ereignis-Ergebnissen verwendet wurde, wiesen die extremen Gradientenverstärkungen, der zufällige Überlebenswald, die überlebenden neuronalen Netzwerke und die Cox-Regression die niedrigsten geschätzten ICI-Werte auf. Darüber hinaus wiesen das LASSO-Cox- und das Survival Support Vector Machine-Modell höhere geschätzte ICI-Werte auf, was darauf hindeutet, dass diese beiden Modelle schlechter kalibriert waren als die übrigen Modelle. Wenn die Simulationsdaten andererseits auf der Grundlage von Random Survival Forests generiert wurden, führten die extreme Gradientenverstärkung, EN-Cox und Random Survival Forest tendenziell zu Schätzungen mit den niedrigsten ICI-Werten in den Simulationsreplikationen. Das Cox-Regressionsmodell, LASSO-Cox und überlebende neuronale Netze hatten etwas höhere geschätzte ICI-Werte als zufällige Überlebenswälder. Darüber hinaus führten die extreme Gradientenverstärkung, der Random Survival Forest, die Survival Neural Networks und die Cox-Regression bei großen Stichproben unabhängig vom Datengenerierungsmodell tendenziell zu Schätzungen mit den niedrigsten ICI-Werten in den Simulationsreplikationen als im Rest Modelle. Im Gegenteil führte LASSO-Cox im Vergleich zu den übrigen Modellen tendenziell zu Schätzungen mit den höchsten ICI-Werten.
Verteilung des geschätzten ICI von neun Modellen, bewertet anhand des dreifachen CV über 500 Replikationen
Hinweis: Es gibt vier Panels, wobei die oberen beiden Panels (A und B) für die kleinen Stichproben sind (basierend auf den Merkmalen und Merkmalen des PROMPT-Datensatzes), die unteren beiden Panels (C und D) für die großen Stichproben (basierend auf). Merkmale und Merkmale des NACC-Datensatzes). Das linke und das rechte Feld beziehen sich auf die Cox-Regression, die für den Datengenerierungsprozess (DGP) bzw. für DGP auf der Basis von Zufallsüberlebenswäldern (Random Survival Forests, RSF) verwendet wird. Jedes Panel besteht aus neun Boxplots, die jedem der neun Überlebensanalysemodelle entsprechen. Jedes Boxplot zeigt die Variation des integrierten Kalibrierungsindex [ICI] über die 500 Simulationsreplikate, wenn eine bestimmte DGP- und Überlebensanalysemethode angewendet wurde. Cox: Cox-proportionale Gefahren; Ridge-Cox: Cox-Regression basierend auf Ridge-Strafe; LASSO-Cox: Cox-Regression basierend auf der Strafe des Auswahloperators für die geringste absolute Schrumpfung; EN-Cox: Cox-Regression basierend auf der elastischen Nettostrafe; SurvTree: Überlebensbaum; RSF: Zufällige Überlebenswälder; SSVM: Survival Support Vector Machine; SNN: Survival Neural Networks; XGBoost: Extreme Steigungsverstärkung
Abbildung 4 beschreibt die Verteilung der IBS-Werte für alle untersuchten Modelle, wenn der Datengenerierungsprozess auf Cox-Regression und zufälligen Überlebenswäldern basierte. Wenn Daten basierend auf der Cox-Regression für Bedingungen mit kleiner Stichprobengröße, zufälligen Überlebenswäldern, extremer Gradientenverstärkung und dem Cox-Regressionsmodell generiert wurden, wiesen sie niedrigere geschätzte mittlere IBS-Werte auf. Im Gegensatz dazu wiesen LASSO-Cox und die Survival-Support-Vector-Machine-Modelle die höchsten geschätzten mittleren IBS-Werte auf. Als die Simulationsdaten auf der Grundlage des Random Survival Forests-Modells generiert wurden, hatten Cox, LASSO-Cox, EN-Cox, Survival Neural Networks, Extreme Gradient Boosting und Random Survival Forests alle vergleichbare geschätzte IBS-Werte. Andererseits wiesen Ridge-Cox-Überlebensbäume und Überlebensunterstützungsvektormaschinen höhere geschätzte mittlere IBS-Werte auf als die übrigen Modelle. Wenn die Stichprobengröße groß war und der Datengenerierungsprozess auf der Cox-Regression basierte, hatten EN-Cox, Random Survival Forests, Survival Neural Networks und Extreme Gradient Boosting alle analoge geschätzte IBS-Werte wie das Cox-Regressionsmodell. Allerdings hatte LASSO-Cox den höchsten geschätzten mittleren IBS-Wert. Im Gegensatz dazu wiesen die Cox-Regression, Ridge-Cox, EN-Cox, Random Survival Forests, Survival Neural Networks und Extreme Gradient Boosting, als die Daten auf der Grundlage von Random Survival Forests generiert wurden, relativ kleine und ähnliche geschätzte IBS-Werte auf, während die LASSO-Cox- und Überlebensbäume wiesen höhere geschätzte IBS-Werte auf.
Verteilung des geschätzten Reizdarmsyndroms von neun Modellen, bewertet anhand des dreifachen CV über 500 Replikationen
Hinweis: Es gibt vier Panels, wobei die oberen beiden Panels (A und B) für die kleinen Stichproben sind (basierend auf den Merkmalen und Merkmalen des PROMPT-Datensatzes), die unteren beiden Panels (C und D) für die großen Stichproben (basierend auf). Merkmale und Merkmale des NACC-Datensatzes). Das linke und das rechte Feld beziehen sich auf die Cox-Regression, die für den Datengenerierungsprozess (DGP) bzw. für DGP auf der Basis von Zufallsüberlebenswäldern (Random Survival Forests, RSF) verwendet wird. Jedes Panel besteht aus neun Boxplots, die jedem der neun Überlebensanalysemodelle entsprechen. Jedes Boxplot zeigt die Variation im integrierten Brier-Score [IBS] über die 500 Simulationsreplikate, wenn eine bestimmte DGP- und Überlebensanalysemethode angewendet wurde. Cox: Cox-proportionale Gefahren; Ridge-Cox: Cox-Regression basierend auf Ridge-Strafe; LASSO-Cox: Cox-Regression basierend auf der Strafe des Auswahloperators für die geringste absolute Schrumpfung; EN-Cox: Cox-Regression basierend auf der elastischen Nettostrafe; SurvTree: Überlebensbaum; RSF: Zufällige Überlebenswälder; SSVM: Survival Support Vector Machine; SNN: Survival Neural Networks; XGBoost: Extreme Steigungsverstärkung
Diese Studie bewertete die Genauigkeit von (bestraften und nicht bestraften) Cox-Regressions- und maschinellen Lernüberlebensmodellen mithilfe der Monte-Carlo-Simulation. Unsere Simulationsergebnisse zeigen, dass die Cox-Regression und das maschinelle Lernmodell über drei verschiedene Leistungsmetriken und Datenanalysebedingungen hinweg eine vergleichbare Vorhersagegenauigkeit aufwiesen. Die ungestrafte Cox-Regression, zufällige Überlebenswälder und extreme Gradientenverstärkung hatten eine etwas höhere geschätzte Unterscheidungsleistung (d. h. C-Index) und waren unabhängig vom Datengenerierungsmodell und der Stichprobengröße besser kalibriert als die übrigen Modelle.
Diese Ergebnisse stimmen mit Schlussfolgerungen früherer Studien überein, in denen die Leistung herkömmlicher Regressionsmodelle und Modelle für maschinelles Lernen zur Vorhersage binärer Ergebnisse untersucht wurde [9, 30]. In einer systematischen Überprüfung von 71 Studien, die logistische Regressionsmodelle und maschinelle Lernmodelle für binäre Ergebnisvorhersagen verwendeten, fanden die Autoren keine signifikanten Unterschiede in der Unterscheidungsleistung zwischen maschinellen Lern- und logistischen Regressionsmodellen [9]. Eine kürzlich durchgeführte Studie verwendete Monte-Carlo-Simulationen, um die logistische Regression mit Modellen des maschinellen Lernens zu vergleichen, und kam zu dem Schluss, dass diese Modelle eine vergleichbare Leistung in Bezug auf die Vorhersagegenauigkeit aufwiesen, wohingegen (bestrafte) logistische Regression und verstärkte Bäume im Vergleich zu anderen Methoden tendenziell eine bessere Leistung aufwiesen [30] .
Eine wesentliche Schlussfolgerung aus unserer Studie ist, dass die Wahl zwischen Cox-Regression und maschinellen Lernalgorithmen zur Vorhersage von Zeit-bis-Ereignis-Ergebnissen auf anderen wichtigen Überlegungen als der Modellgenauigkeit basieren sollte, da es keinen signifikanten Unterschied in der Unterscheidungsleistung beider Klassen gibt Modelle. Überlegungen zu Forschungszielen und Datenmerkmalen (z. B. Ergebnisverteilung, Art und Anzahl der Prädiktoren) sowie die Interpretierbarkeit der Modellergebnisse könnten die Modellauswahl beeinflussen. Cox-Regressionsmodelle könnten beispielsweise besser für die Beantwortung von Forschungsfragen geeignet sein, wenn die Quantifizierung und Erklärung des Einflusses von Prädiktoren auf die Zeit-bis-zu-Ereignis-Ergebnisse von Interesse ist. Im Gegensatz dazu eignen sich Algorithmen für maschinelles Lernen möglicherweise besser für die Vorhersage in Datensätzen, die unkonventionelle Prädiktorvariablen enthalten, wie z. B. Bilddaten auf Voxelebene.
Diese Studie weist mehrere Stärken und einige Einschränkungen auf. Eine Stärke dieser Studie besteht darin, dass das Design und die Implementierung der Simulationsstudie auf realen Datenmerkmalen und nicht auf theoretischen Verteilungsdatenmerkmalen basieren, die unter den in der Demenzforschung anzutreffenden Datenanalysebedingungen möglicherweise unrealistisch sind. Zweitens wurde ein robusterer Ansatz für das Design und die Implementierung der Simulationsstudie gewählt, um einen unvoreingenommenen Vergleich der Vorhersageleistung der untersuchten Modelle sicherzustellen. Die Simulationsstudie untersuchte umfassend sowohl die Unterscheidung als auch die Kalibrierung der Modellleistung und die Verwendung mehrerer Datengenerierungsmodelle, die die Fairness des Modellvergleichs gewährleisten. Dennoch weist diese Studie Einschränkungen auf. Erstens beschränkten sich die untersuchten Simulationsbedingungen auf Datenmerkmale (z. B. Korrelationsstrukturen zwischen Prädiktoren), die häufig in bestehenden Registern und Beobachtungsstudien von Patienten mit leichten kognitiven Störungen vorkommen und nicht repräsentativ für die Allgemeinbevölkerung sind. Während unsere Simulationsbedingungen die Datenmerkmale anderer Populationen (z. B. der von [30] untersuchten Herzpopulation) nicht untersuchten, stimmen unsere Ergebnisse mit Schlussfolgerungen aus anderen relevanten Simulationsstudien in anderen Patientenpopulationen überein [30]. Zweitens ging unsere Simulationsstudie davon aus, dass es kein konkurrierendes Ereignis gab, das das Auftreten einer Demenz während des Dreijahreszeitraums hätte verhindern können. Konkurrierende Ereignisse wie die Sterblichkeit können die Beobachtung einer Progression zur Demenz verschleiern, insbesondere bei der Population der MCI-Patienten, die überwiegend aus älteren Erwachsenen und älteren Menschen besteht. Zukünftige Forschungen werden die Auswirkungen konkurrierender Sterberisiken auf die Genauigkeit dieser Modelle untersuchen. Eine weitere Einschränkung ist der erhebliche Rückgang der Vorhersagegenauigkeit aller neun Modelle, wenn die Simulationsdaten auf der Grundlage der zufälligen Überlebenswälder in kleinen Stichproben (N = 276) generiert wurden. Dies war jedoch nicht der Fall, als die Cox-Regression als Datengenerierungsmodell verwendet wurde . Dieser Rückgang der Vorhersagegenauigkeit könnte auf die Tatsache zurückgeführt werden, dass der Datengenerierungsprozess für zufällige Überlebenswälder empfindlich auf die kleine Stichprobengröße des PROMPT-Registers reagiert. Schließlich ging unsere Simulationsstudie davon aus, dass die im Modell enthaltenen Studienprädiktoren bekannt waren und eine Hyperparameter-Abstimmung verwendet wurde, um die Überanpassung des Modells zu reduzieren. Zukünftige Studien werden den Einfluss von Variablenauswahlmethoden auf die Genauigkeit von (bestraften und nicht bestraften) Cox-Regressions- und maschinellen Lernmodellen untersuchen.
Zusammenfassend lässt sich sagen, dass maschinelles Lernen und traditionelle Regressionsmodelle nach wie vor weit verbreitete Methoden zur Entwicklung klinischer Risikovorhersagemodelle sind. Unsere Studie zeigt vernachlässigbare Unterschiede in der Unterscheidung und Kalibrierung von Cox-Regressions- und maschinellen Lernmodellen, wie z. B. Survival Random Forest, zur Vorhersage von Time-to-Event-Ergebnissen. Diese Studie ergänzt die Literatur, die die vergleichende Leistung dieser beiden Modellklassen untersucht, die in der Prognoseforschung weit verbreitet sind. Da herkömmliche Cox-Regressionsmodelle im Allgemeinen besser interpretierbar und gut kalibriert sind als die meisten Algorithmen für maschinelles Lernen, empfehlen wir ihre Verwendung für die Entwicklung klinischer Risikovorhersagemodelle. Noch wichtiger ist, dass die Auswahl dieser Modelle von wichtigen Überlegungen zu Forschungshypothesen, Modellinterpretierbarkeit und Datentyp geleitet werden sollte. Zukünftige Studien werden untersuchen, wie die Variablenauswahlmethoden die Genauigkeit dieser Modelle beeinflussen.
Die Daten, die die Ergebnisse dieser Studie stützen, sind beim Hauptforscher (Eric Smith: [email protected]) des PROMPT-Registers und des NACC Uniform Data Set erhältlich (Link zur Datenanforderung: https://naccdata.org/requesting-data). /submit-data-request), es gelten jedoch Einschränkungen hinsichtlich der Verfügbarkeit dieser Daten, die für die aktuelle Studie unter Lizenz verwendet wurden und daher nicht öffentlich verfügbar sind. Daten sind jedoch auf begründete Anfrage und mit Genehmigung des Hauptforschers des PROMPT-Registers und der Genehmigung des NACC-Datenzugriffs bei den Autoren erhältlich.
leichte kognitive Einschränkung
Prospektives Register für Personen mit Gedächtnissymptomen
das Montreal Cognitive Assessment
das Register des National Alzheimer's Coordinating Center
Nationales Institut für Altern
Forschungszentren für Alzheimer-Krankheit
Einheitlicher Datensatz
Stichprobengröße
Zensurrate
Kreuzvalidierung
Harrells Konkordanzindex
Integrierter Kalibrierindex
Integrierter Brier-Score
Datengenerierungsprozess
Cox-proportionale Gefahren
Cox-Regression basierend auf der Ridge-Strafe
Cox-Regression basierend auf der Strafe des Selektionsoperators für die geringste absolute Schrumpfung
Cox-Regression basierend auf der elastischen Nettostrafe
Überlebensbaum
Zufällige Überlebenswälder
Überlebensunterstützungsvektormaschine
Überleben neuronale Netze
Extreme Steigungssteigerung
Livingston G, Sommerlad A, Orgeta V, Costafreda SG, Huntley J, Ames D, et al. Prävention, Intervention und Pflege bei Demenz. Die Lanzette. 2017;390:2673–734.
Artikel Google Scholar
Mitchell AJ, Shiri-Feshki M. Progressionsrate einer leichten kognitiven Beeinträchtigung zu Demenz – Metaanalyse von 41 robusten Kohortenstudien zu Beginn. Acta psychiatrica Scandinavica. 2009;119:252–65.
Artikel CAS PubMed Google Scholar
Ganguli M, Jia Y, Hughes TF, Snitz BE, Chang C-CH, Berman SB, et al. Leichte kognitive Beeinträchtigung, die nicht zu Demenz führt: Eine bevölkerungsbasierte Studie. J Bin Geriatr Soc. 2019;67:232–8.
Artikel PubMed Google Scholar
Arvanitakis Z, Shah RC, Bennett DA. Diagnose und Behandlung von Demenz. JAMA. 2019;322:1589–99.
Artikel PubMed PubMed Central Google Scholar
Cooper C, Sommerlad A, Lyketsos CG, Livingston G. Modifizierbare Prädiktoren für Demenz bei leichter kognitiver Beeinträchtigung: eine systematische Überprüfung und Metaanalyse. Bin J Psychiatrie. 2015;172:323–34.
Artikel PubMed Google Scholar
Collins GS, Reitsma JB, Altman DG, Moons KG. Transparente Berichterstattung über ein multivariables Vorhersagemodell für die individuelle Prognose oder Diagnose (TRIPOD): die TRIPOD-Anweisung. Br J Surg. 2015;102:148–58.
Artikel CAS PubMed Google Scholar
Goerdten J, Čukić I, Danso SO, Carrière I, Muniz?Terrera G. Statistische Methoden zur Vorhersage des Demenzrisikos und Empfehlungen für zukünftige Arbeiten: Eine systematische Überprüfung. Alzheimer und Demenz: Translationale Forschung und klinische Interventionen. 2019;5:563–9
Tang EYH, Harrison SL, Errington L, Gordon MF, Visser PJ, Novak G, et al. Aktuelle Entwicklungen in der Modellierung der Demenzrisikovorhersage: Eine aktualisierte systematische Überprüfung. Plus eins. 2015;10:e0136181.
Artikel PubMed PubMed Central Google Scholar
Christodoulou E, Ma J, Collins GS, Steyerberg EW, Verbakel JY, Van Calster B. Eine systematische Überprüfung zeigt keinen Leistungsvorteil von maschinellem Lernen gegenüber logistischer Regression für klinische Vorhersagemodelle. J Clin Epidemiol. 2019;110:12–22.
Artikel PubMed Google Scholar
Morris TP, White IR, Crowther MJ. Verwendung von Simulationsstudien zur Bewertung statistischer Methoden. Stat Med. 2019;38:2074–102.
Artikel PubMed PubMed Central Google Scholar
Smith H, Sweeting M, Morris T, Crowther MJ. Eine umfassende methodische Überprüfung von Simulationsstudien, in denen statistische und maschinelle Lernansätze zur Risikovorhersage für Zeit-bis-Ereignis-Daten verglichen werden. Diagn Prognostic Res. 2022;6:10.
Artikel Google Scholar
Sheikh F, Ismail Z, Mortby ME, Barber P, Cieslak A, Fischer K, et al. Prävalenz leichter Verhaltensstörungen bei leichter kognitiver Beeinträchtigung und subjektivem kognitiven Rückgang und ihr Zusammenhang mit der Belastung des Pflegepersonals. Int. Psychogeriatr. 2018;30:233–44.
Artikel PubMed Google Scholar
Weintraub S, Salmon D, Mercaldo N, Ferris S, Graff-Radford NR, Chui H, et al. Der einheitliche Datensatz (UDS) der Alzheimer-Krankheitszentren: Die neuropsychologische Testbatterie. Alzheimer Dis Assoc Disord. 2009;23:91–101.
Artikel PubMed PubMed Central Google Scholar
Beekly DL, Ramos EM, van Belle G, Deitrich W, Clark AD, Jacka ME, et al. Die Datenbank des National Alzheimer's Coordinating Center (NACC): eine Datenbank zur Alzheimer-Krankheit. Alzheimer Dis Assoc Disord. 2004;18:270–7.
PubMed Google Scholar
Morris JC, Weintraub S, Chui HC, Cummings J, Decarli C, Ferris S, et al. Der Uniform Data Set (UDS): klinische und kognitive Variablen und deskriptive Daten von Alzheimer-Krankheitszentren. Alzheimer Dis Assoc Disord. 2006;20:210–6.
Artikel PubMed Google Scholar
McKhann GM, Knopman DS, Chertkow H, Hyman BT, Jack CR, Kawas CH, et al. Die Diagnose einer Demenz aufgrund der Alzheimer-Krankheit: Empfehlungen der Arbeitsgruppen des National Institute on Aging-Alzheimer's Association zu Diagnoserichtlinien für die Alzheimer-Krankheit. Alzheimer-Demenz. 2011;7:263–9.
Artikel PubMed PubMed Central Google Scholar
Albert MS, DeKosky ST, Dickson D, Dubois B, Feldman HH, Fox NC, et al. Die Diagnose einer leichten kognitiven Beeinträchtigung aufgrund der Alzheimer-Krankheit: Empfehlungen der Arbeitsgruppen des National Institute on Aging-Alzheimer's Association zu Diagnoserichtlinien für die Alzheimer-Krankheit. Alzheimer und Demenz. 2011;7:270–9.
Artikel Google Scholar
Breiman L, Friedman J, Stone CJ, Olshen RA. Klassifizierungs- und Regressionsbäume. CRC-Presse; 1984.
Ishwaran H, Kogalur UB, Blackstone EH, Lauer MS. Zufällige Überlebenswälder. Die Annalen der angewandten Statistik. 2008;2:841–60.
Artikel Google Scholar
Breiman L. Zufällige Wälder. Mach lernen. 2001;45:5–32.
Artikel Google Scholar
Shivaswamy PK, Chu W, Jansche M. Ein Support-Vektor-Ansatz für zensierte Ziele. In: Siebte internationale IEEE-Konferenz zum Thema Data Mining (ICDM 2007). Omaha, NE, USA: IEEE; 2007. S. 655–60.
Van Belle V, Pelckmans K, Suykens JAK, Van Huffel S. Unterstützungsvektormaschinen für die Überlebensanalyse. In: Tagungsband der Dritten Internationalen Konferenz über Computational Intelligence in Medizin und Gesundheitswesen (CIMED2007). 2007. S. 1–8.
Van Belle V, Pelckmans K, Van Huffel S, Suykens JA. Support-Vektor-Methoden für die Überlebensanalyse: ein Vergleich zwischen Ranking- und Regressionsansätzen. Artif Intell Med. 2011;53:107–18.
Artikel PubMed Google Scholar
Katzman JL, Shaham U, Cloninger A, Bates J, Jiang T, Kluger Y. DeepSurv: personalisiertes Behandlungsempfehlungssystem unter Verwendung eines tiefen neuronalen Cox-Proportional-Hazards-Netzwerks. BMC Med Res Methodol. 2018;18:24.
Artikel PubMed PubMed Central Google Scholar
Srivastava N, Hinton G, Krizhevsky A, Sutskever I, Salakhutdinov R. Dropout: eine einfache Möglichkeit, eine Überanpassung neuronaler Netze zu verhindern. J Mach Learn Res. 2014;15:1929–58.
Google Scholar
Chen T, Guestrin C. XGBoost: Ein skalierbares Baum-Boosting-System. Tagungsband der 22. ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. 2016;:785–94.
Friedman JH. Gierige Funktionsnäherung: Eine Gradientenverstärkungsmaschine. Die Annalen der Statistik. 2001;29:1189–232.
Artikel Google Scholar
Ridgeway G. Der Stand der Steigerung. Comput Sci Stat. 1999;31:172–81.
Google Scholar
Binder H, Schumacher M. Berücksichtigung obligatorischer Kovariaten zur Verbesserung der Schätzung spärlicher hochdimensionaler Überlebensmodelle. BMC Bioinformatik. 2008;9:14.
Artikel PubMed PubMed Central Google Scholar
Austin PC, Harrell FE, Steyerberg EW. Vorhersageleistung maschineller und statistischer Lernmethoden: Einfluss datengenerierender Prozesse auf die externe Validität im „großen N, kleinen p“-Setting. Statistische Methoden Med Res. 2021;30:1465–83.
Artikel PubMed PubMed Central Google Scholar
van der Ploeg T, Austin PC, Steyerberg EW. Moderne Modellierungstechniken sind datenhungrig: eine Simulationsstudie zur Vorhersage dichotomer Endpunkte. BMC Med Res Methodol. 2014;14:137.
Artikel PubMed PubMed Central Google Scholar
Sonabend R, Kiraly F. distr6: R6 Object-Oriented Probability Distributions Interface in R. arXiv Preprint arXiv. 2021;:02993.
Harrell FE, Califf RM, Pryor DB, Lee KL, Rosati RA. Bewertung der Ausbeute medizinischer Tests. JAMA. 1982;247:2543–6.
Artikel PubMed Google Scholar
Austin PC, Harrell FE, van Klaveren D. Grafische Kalibrierungskurven und der integrierte Kalibrierungsindex (ICI) für Überlebensmodelle. Stat Med. 2020;39:2714–42.
Artikel PubMed PubMed Central Google Scholar
Graf E, Schmoor C, Sauerbrei W, Schumacher M. Bewertung und Vergleich prognostischer Klassifizierungsschemata für Überlebensdaten. Stat Med. 1999;18:2529–45.
3.0.CO;2-5" data-track-action="article reference" href="https://doi.org/10.1002%2F%28SICI%291097-0258%2819990915%2F30%2918%3A17%2F18%3C2529%3A%3AAID-SIM274%3E3.0.CO%3B2-5" aria-label="Article reference 35" data-doi="10.1002/(SICI)1097-0258(19990915/30)18:17/183.0.CO;2-5">Artikel CAS PubMed Google Scholar
Kooperberg C, Stone CJ, Truong YK. Gefahrenregression. J Am Stat Assoc. 1995;90:78–94.
Artikel Google Scholar
R-Kernteam. R: Eine Sprache und Umgebung für statistische Berechnungen. R Foundation for Statistical Computing; 2021.
Referenzen herunterladen
Meng Wangs Doktorarbeit wurde durch ein Alberta Innovates Graduate Student Scholarship, ein Graduate Scholarship der University of Calgary Cumming School of Medicine und ein Harley N. Hotchkiss Doctoral Scholarship in Neuroscience unterstützt. Dr. Sajobi wird vom Discovery Grant des Natural Sciences and Engineering Research Council unterstützt. Wir möchten uns für die technische Unterstützung und die bereitgestellten Ressourcen durch die Research Computing Services der University of Calgary bedanken und danken insbesondere Tannistha Nandi, Dmitri Rozmanov, Javad Rahimipour Anaraki und Raissa Souza de Andrade. Das PROMPT-Register wird vom Kathy Taylor Chair in Vascular Dementia an der University of Calgary finanziert und zusätzlich von der Brain and Mental Health Research Clinics-Initiative des Hotchkiss Brain Institute der University of Calgary unterstützt. Die NACC-Datenbank wird durch NIA/NIH Grant U01 AG016976 finanziert. NACC-Daten werden von den NIA-finanzierten ADCs beigesteuert: P30 AG019610 (PI Eric Reiman, MD), P30 AG013846 (PI Neil Kowall, MD), P50 AG008702 (PI Scott Small, MD), P50 AG025688 (PI Allan Levey, MD, PhD), P50 AG047266 (PI Todd Golde, MD, PhD), P30 AG010133 (PI Andrew Saykin, PsyD), P50 AG005146 (PI Marilyn Albert, PhD), P50 AG005134 (PI Bradley Hyman, MD, PhD), P50 AG016574 ( PI Ronald Petersen, MD, PhD), P50 AG005138 (PI Mary Sano, PhD), P30 AG008051 (PI Thomas Wisniewski, MD), P30 AG013854 (PI Robert Vassar, PhD), P30 AG008017 (PI Jeffrey Kaye, MD), P30 AG010161 (PI David Bennett, MD), P50 AG047366 (PI Victor Henderson, MD, MS), P30 AG010129 (PI Charles DeCarli, MD), P50 AG016573 (PI Frank LaFerla, PhD), P50 AG005131 (PI James Brewer, MD, PhD), P50 AG023501 (PI Bruce Miller, MD), P30 AG035982 (PI Russell Swerdlow, MD), P30 AG028383 (PI Linda Van Eldik, PhD), P30 AG053760 (PI Henry Paulson, MD, PhD), P30 AG010124 (PI John Trojanowski, MD, PhD), P50 AG005133 (PI Oscar Lopez, MD), P50 AG005142 (PI Helena Chui, MD), P30 AG012300 (PI Roger Rosenberg, MD), P30 AG049638 (PI Suzanne Craft, PhD), P50 AG005136 (PI Thomas Grabowski, MD), P50 AG033514 (PI Sanjay Asthana, MD, FRCP), P50 AG005681 (PI John Morris, MD), P50 AG047270 (PI Stephen Strittmatter, MD, PhD).
Unzutreffend.
Department of Community Health Sciences, Cumming School of Medicine, University of Calgary, 3280 Hospital Drive NW, T2N 4Z6 AB, Calgary, Kanada
Meng Wang, Gabriel Afriyie und Tolulope T. Sajobi
Abteilung für klinische Neurowissenschaften und Hotchkiss Brain Institute, Cumming School of Medicine, University of Calgary, Calgary, AB, Kanada
Meng Wang, Nils D. Forkert, Zahinoor Ismail, Eric E. Smith und Tolulope T. Sajobi
Institut für Mathematik und Statistik, Universität Calgary, Calgary, Kanada
Matthew Greenberg
Abteilung für Radiologie, Cumming School of Medicine, University of Calgary, Calgary, AB, Kanada
Nils D. Falsch
Abteilung für Biostatistik, School of Public Health, University of Minnesota, Minneapolis, USA
Thierry Chekouo
Abteilung für Psychiatrie, Cumming School of Medicine, Universität Calgary, Calgary, Kanada
Zahinoor Ismail
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
Sie können diesen Autor auch in PubMed Google Scholar suchen
TTS und MW konzipierten, gestalteten und entwickelten die Studie. MW führte die Datenbereinigung/-analyse/-simulation durch, fasste die Ergebnisse zusammen und verfasste den ersten Entwurf des Manuskripts. TTS und EES beaufsichtigen die Doktorarbeit von MW, einschließlich der Anwendung ethischer Grundsätze, der Datenmanipulation und der Interpretation von Ergebnissen. MG und NDF lieferten Fachwissen zu Algorithmen für maschinelles Lernen und lieferten Beiträge zu Suchräumen für jeden abgestimmten Hyperparameter. EES und ZI stellten die klinische Relevanz der potenziellen Liste potenzieller Prädiktoren für MCI-Konvertierungen für beide Datensätze sicher. TC und TTS stellten methodisches Fachwissen zu Modellleistungsmaßen und zur Modellierung von Risikovorhersagen zur Verfügung. GA half bei der Zusammenfassung der Ergebnisse und der tabellarischen Darstellung der Ergebnisse. EES und ZI überwachten die Kohortenauswahl mit realen Daten und die Datenverknüpfung mit den Verwaltungsdatenbanken der Provinzen. TTS, MG, NDF, TC, GA, ZI und EES haben den Artikel kritisch geprüft und bearbeitet. Alle Autoren haben das endgültige Manuskript gelesen und genehmigt.
Korrespondenz mit Tolulope T. Sajobi.
Diese Studie wurde vom Conjoint Health Research Ethics Board der University of Calgary (REB19-0469) genehmigt. Die NACC-Datenbank selbst ist von der Überprüfung durch das Institutional Review Board ausgenommen, da sie keine menschlichen Probanden umfasst, wie von der Human Subjects Division der University of Washington festgelegt. Alle beitragenden ADRCs hatten die Einverständniserklärung ihrer Teilnehmer eingeholt. Das PROMPT wurde vom Conjoint Health Research Ethics Board der University of Calgary genehmigt und alle Probanden oder ihre Bevollmächtigten haben eine schriftliche Einverständniserklärung abgegeben. Die verwendeten Methoden wurden in Übereinstimmung mit den einschlägigen Richtlinien und Vorschriften durchgeführt.
Unzutreffend.
Keines davon wurde aufgrund konkurrierender finanzieller, allgemeiner und institutioneller Interessen erklärt.
Springer Nature bleibt neutral hinsichtlich der Zuständigkeitsansprüche in veröffentlichten Karten und institutionellen Zugehörigkeiten.
Unten finden Sie den Link zum elektronischen Zusatzmaterial.
Open Access Dieser Artikel ist unter einer Creative Commons Attribution 4.0 International License lizenziert, die die Nutzung, Weitergabe, Anpassung, Verbreitung und Reproduktion in jedem Medium oder Format erlaubt, sofern Sie den/die Originalautor(en) und die Quelle angemessen angeben. Geben Sie einen Link zur Creative Commons-Lizenz an und geben Sie an, ob Änderungen vorgenommen wurden. Die Bilder oder anderes Material Dritter in diesem Artikel sind in der Creative Commons-Lizenz des Artikels enthalten, sofern in der Quellenangabe für das Material nichts anderes angegeben ist. Wenn Material nicht in der Creative-Commons-Lizenz des Artikels enthalten ist und Ihre beabsichtigte Nutzung nicht gesetzlich zulässig ist oder über die zulässige Nutzung hinausgeht, müssen Sie die Genehmigung direkt vom Urheberrechtsinhaber einholen. Um eine Kopie dieser Lizenz anzuzeigen, besuchen Sie http://creativecommons.org/licenses/by/4.0/.
Nachdrucke und Genehmigungen
Wang, M., Greenberg, M., Forkert, ND et al. Vorhersage des Demenzrisikos bei Personen mit leichter kognitiver Beeinträchtigung: ein Vergleich von Cox-Regressions- und maschinellen Lernmodellen. BMC Med Res Methodol 22, 284 (2022). https://doi.org/10.1186/s12874-022-01754-y
Zitat herunterladen
Eingegangen: 26. April 2022
Überarbeitet: 12. September 2022
Angenommen: 10. Oktober 2022
Veröffentlicht: 02. November 2022
DOI: https://doi.org/10.1186/s12874-022-01754-y
Jeder, mit dem Sie den folgenden Link teilen, kann diesen Inhalt lesen:
Leider ist für diesen Artikel derzeit kein Link zum Teilen verfügbar.
Bereitgestellt von der Content-Sharing-Initiative Springer Nature SharedIt