Analyse de survie

Analyse de survie

Analyse de survie

Auteur:

Lisa Sullivan, PhD

Professeur de biostatistique

École de santé publique de l’Université de Boston


Ce module présente des techniques statistiques pour analyser un « variable de résultat du délai avant l’événement, « qui est un type de variable de résultat différent de ceux considérés dans les modules précédents. Une variable time to event reflète le temps écoulé jusqu’à ce qu’un participant subisse un événement d’intérêt (par exemple, une crise cardiaque, une rémission du cancer, un décès). Analyse statistique des variables time to event nécessitent des techniques différentes de celles décrites jusqu’ici pour d’autres types de résultats en raison des caractéristiques uniques des variables time to event. L’analyse statistique de ces variables est appelée analyse time to event ou analyse de survie, même si le résultat n’est pas toujours Ce que nous entendons par «survie» dans ce contexte, c’est rester libre d’un résultat particulier au fil du temps.

Les questions d’intérêt dans l’analyse de survie sont des questions telles que: Quelle est la probabilité qu’un participant survit 5 ans? Existe-t-il des différences de survie entre les groupes (p. Ex., Entre ceux attribués à un nouveau médicament par rapport à un médicament standard dans un essai clinique)? Comment certaines caractéristiques personnelles, comportementales ou cliniques affectent-elles les chances de survie des participants?


Après avoir terminé ce module, l’étudiant sera capable de:

  1. Identifier les applications avec le délai avant les résultats de l’événement
  2. Construire une table de mortalité en utilisant l’approche actuarielle
  3. Construire une table de mortalité en utilisant l’approche Kaplan-Meier
  4. Effectuer et interpréter le test du log rank
  5. Calculer et interpréter un rapport de risque
  6. Interpréter les coefficients dans l’analyse de régression des risques proportionnels de Cox

Il existe des caractéristiques uniques des variables time to event. Premièrement, les délais avant l’événement sont toujours positifs et leurs distributions sont souvent biaisées. Par exemple, dans une étude évaluant le temps de rechute chez des patients à haut risque, la majorité des événements (rechutes) peuvent survenir tôt dans le suivi et très peu se produisent plus tard. D’un autre côté, dans une étude sur le temps jusqu’à la mort dans un échantillon communautaire, la majorité des événements (décès) peuvent survenir plus tard dans le suivi. Les procédures statistiques standard qui supposent la normalité des distributions ne s’appliquent pas. Des procédures non paramétriques peuvent être invoquées, à l’exception du fait qu’il existe des problèmes supplémentaires. Plus précisément, des données complètes (temps réel avant l’événement) ne sont pas toujours disponibles pour chaque participant à une étude. Dans de nombreuses études, les participants sont inscrits sur une période de temps (mois ou années) et l’étude se termine à une date calendaire spécifique. Ainsi, les participants qui s’inscrivent plus tard sont suivis pendant une période plus courte que les participants qui s’inscrivent tôt. Certains participants peuvent abandonner l’étude avant la fin de la période de suivi (par exemple, s’éloigner, se désintéresser) et d’autres peuvent mourir pendant la période de suivi (en supposant que le résultat d’intérêt n’est pas la mort).

Dans chacun de ces cas, nous avons des informations de suivi incomplètes. Le vrai temps de survie (parfois appelé temps d’échec) n’est pas connu parce que l’étude se termine ou parce qu’un participant abandonne l’étude avant de vivre l’événement. Ce que nous savons, c’est que le temps de survie des participants est supérieur à leur dernier temps de suivi observé. Ces temps sont appelés temps censuré.

Censurer

Il existe plusieurs types de censure. Le plus courant est appelé censure à droite et survient lorsqu’un participant n’a pas l’événement qui l’intéresse pendant l’étude et que, par conséquent, son dernier temps de suivi observé est inférieur à son délai avant l’événement. Cela peut se produire lorsqu’un participant abandonne avant la fin de l’étude ou lorsqu’un participant est libre d’événement à la fin de la période d’observation.

Dans le premier cas, le temps observé des participants est inférieur à la durée du suivi et dans le second, le temps observé du participant est égal à la durée de la période de suivi. Ces problèmes sont illustrés dans les exemples suivants.

Exemple:

Une petite étude prospective est menée et suit dix participants pour le développement de l’infarctus du myocarde (IM ou crise cardiaque) sur une période de 10 ans. Les participants sont recrutés dans l’étude sur une période de deux ans et sont suivis jusqu’à 10 ans. Le graphique ci-dessous indique quand ils se sont inscrits et ce qui leur est arrivé par la suite pendant la période d’observation.

Une chronologie de douze ans pour 10 sujets montrant des différences dans le temps d'inscription et montrant également quand certains sujets développent une crise cardiaque ou abandonnent l'étude, c'est-à-dire perdent de vue le suivi.

Au cours de la période d’étude, trois participants souffrent d’infarctus du myocarde (IM), un décède, deux abandonnent l’étude (pour des raisons inconnues) et quatre terminent le suivi de 10 ans sans souffrir d’IM. La figure ci-dessous montre les mêmes données, mais montre le temps de survie commençant à un temps commun zéro (c’est-à-dire, comme si tous les participants étaient inscrits à l’étude en même temps).

Mêmes informations que le graphique précédent sauf que toutes les heures d'inscription des matières ont été réglées sur le temps 0.

Sur la base de ces données, quelle est la probabilité qu’un participant souffre d’un IM sur 10 ans? Trois participants sur 10 souffrent d’IM au cours du suivi, mais 30% est probablement une sous-estimation du pourcentage réel car deux participants ont abandonné et auraient pu souffrir d’un IM s’ils avaient été observés pendant les 10 années complètes. Leurs temps observés sont censuré. De plus, un participant décède après 3 ans de suivi. Ces trois personnes devraient-elles être incluses dans l’analyse, et si oui, comment?

Si nous excluons les trois, l’estimation de la probabilité qu’un participant souffre d’un IM est de 3/7 = 43%, nettement plus élevée que l’estimation initiale de 30%. Le fait que tous les participants ne soient souvent pas observés pendant toute la période de suivi rend les données de survie uniques. Dans ce petit exemple, le participant 4 est observé pendant 4 ans et sur cette période n’a pas d’IM. Le participant 7 est observé pendant 2 ans et au cours de cette période n’a pas d’IM. Bien qu’ils ne subissent pas l’événement qui les intéresse, ils apportent des informations importantes. Les techniques d’analyse de survie utilisent ces informations pour estimer la probabilité d’un événement.

Une hypothèse importante est faite pour utiliser de manière appropriée les données censurées. Plus précisément, nous supposons que la censure est indépendant ou sans rapport avec la probabilité de développer l’événement d’intérêt.

C’est appelé censure non informative et suppose essentiellement que les participants dont les données sont censurées auraient la même distribution des temps de panne (ou des temps avant l’événement) s’ils étaient réellement observés.

Considérons maintenant la même étude et les expériences de 10 participants différents comme illustré ci-dessous.

Chronologie pour un autre ensemble de 10 sujets

Notez ici que, encore une fois, trois participants souffrent d’IM, un décède, deux abandonnent l’étude et quatre terminent le suivi de 10 ans sans souffrir d’IM. Cependant, les événements (IM) surviennent beaucoup plus tôt, et les abandons et les décès surviennent plus tard au cours du suivi. Ces différences dans les expériences des participants devraient-elles affecter l’estimation de la probabilité qu’un participant souffre d’un IM sur 10 ans?

Dans l’analyse de survie, nous analysons non seulement Nombres des participants qui subissent l’événement d’intérêt (un indicateur dichotomique du statut de l’événement), mais aussi fois au cours de laquelle les événements se produisent.


L’analyse de survie se concentre sur deux informations importantes:

  1. Si un participant souffre ou non de l’événement d’intérêt pendant la période d’étude (c.-à-d. une variable dichotomique ou indicatrice souvent codée 1 = événement survenu ou 0 = événement ne s’est pas produit pendant la période d’observation de l’étude.
  2. le temps de suivi pour chaque individu suivi.

Temps de suivi

Temps zéro, ou la origine temporelle, est le moment auquel les participants sont considérés à risque pour le résultat qui les intéresse. Dans de nombreuses études, le temps à risque est mesuré à partir du début de l’étude (c’est-à-dire au moment du recrutement). Dans une étude de cohorte prospective évaluant le délai avant l’incident d’AVC, les enquêteurs peuvent recruter des participants âgés de 55 ans et plus, car le risque d’AVC avant cet âge est très faible. Dans une étude de cohorte prospective évaluant le délai avant l’apparition d’une maladie cardiovasculaire, les enquêteurs peuvent recruter des participants âgés de 35 ans et plus. Dans chacune de ces études, un âge minimum pourrait être spécifié comme critère d’inclusion dans l’étude. Le temps de suivi est mesuré à partir du temps zéro (le début de l’étude ou à partir du moment où le participant est considéré comme à risque) jusqu’à ce que l’événement se produise, que l’étude se termine ou que le participant soit perdu, selon la première éventualité. Dans un essai clinique, l’origine temporelle est généralement considérée comme l’heure de la randomisation. Les patients entrent ou sont souvent recrutés dans des études de cohorte et des essais cliniques sur une période de plusieurs mois ou années civils. Ainsi, il est important d’enregistrer le temps d’entrée afin que le temps de suivi soit mesuré avec précision. Encore une fois, notre intérêt réside dans le temps avant l’événement, mais pour diverses raisons (par exemple, le participant abandonne l’étude ou la période d’observation de l’étude se termine), nous ne pouvons pas toujours mesurer le temps avant l’événement. Pour les participants qui ne subissent pas l’événement d’intérêt, nous mesurons le temps de suivi qui est inférieur au temps de l’événement, et ces temps de suivi sont censurés.


Dans l’analyse de survie, nous utilisons les informations sur l’état de l’événement et le temps de suivi pour estimer une fonction de survie. Envisagez une étude prospective de 20 ans sur la survie des patients après un infarctus du myocarde. Dans cette étude, le résultat est la mortalité toutes causes et la fonction de survie (ou courbe de survie) pourrait être comme illustré dans la figure ci-dessous.

Exemple de courbe de survie – Probabilité de survivre

L'axe X correspond au temps de 0 à 20 ans. L'axe Y représente la probabilité de survie de 0 à 1,0.

L’axe horizontal représente le temps en années et l’axe vertical montre la probabilité de survie ou la proportion de personnes survivant.

  • Au temps zéro, la probabilité de survie est de 1,0 (ou 100% des participants sont vivants).
  • À 2 ans, la probabilité de survie est d’environ 0,83 ou 83%.
  • À 10 ans, la probabilité de survie est d’environ 0,55 ou 55%.
  • La survie médiane est d’environ 11 ans.

Une courbe de survie plate (c’est-à-dire une courbe qui reste proche de 1,0) suggère une très bonne survie, alors qu’une courbe de survie qui descend brusquement vers 0 suggère une faible survie.

La figure ci-dessus montre la fonction de survie sous la forme d’une courbe lisse. Dans la plupart des applications, la fonction de survie est représentée comme une fonction de pas plutôt qu’une courbe lisse (voir la page suivante).

Icône de l'homme pensant idiquant une question à laquelle l'élève doit répondre.

Activer / désactiver le groupe de quiz

La figure ci-dessous montre les courbes de Kaplan-Meier pour le risque cumulatif de démence chez les personnes âgées qui jouaient fréquemment à des jeux de société tels que les échecs, les dames, le backgammon ou les cartes au départ par rapport aux sujets qui jouaient rarement à de tels jeux.

Kaplan = courbe de survie de Meir sur 20 ans

Source: Adapté de Verghese et al.


Il existe plusieurs manières d’estimer une fonction de survie ou une courbe de survie. Il existe un certain nombre de méthodes paramétriques populaires qui sont utilisées pour modéliser les données de survie, et elles diffèrent en termes d’hypothèses sur la distribution des temps de survie dans la population. Certaines distributions populaires incluent les distributions exponentielles, Weibull, Gompertz et log-normales.2 La distribution exponentielle est peut-être la plus populaire, qui suppose que la probabilité pour un participant de subir l’événement d’intérêt est indépendante de la durée pendant laquelle cette personne est restée sans événement. D’autres distributions font des hypothèses différentes sur la probabilité qu’un individu développe un événement (c’est-à-dire qu’il peut augmenter, diminuer ou changer avec le temps). Plus de détails sur les méthodes paramétriques pour l’analyse de survie peuvent être trouvés dans Hosmer et Lemeshow et Lee et Wang1,3.

Nous nous concentrons ici sur deux méthodes non paramétriques, qui ne font aucune hypothèse sur la façon dont la probabilité qu’une personne développe l’événement change avec le temps. À l’aide de méthodes non paramétriques, nous estimons et représentons distribution de survie ou la courbe de survie. Les courbes de survie sont souvent tracées sous forme de fonctions d’étape, comme le montre la figure ci-dessous. Le temps est indiqué sur l’axe X et la survie (proportion de personnes à risque) est indiquée sur l’axe Y. Notez que le pourcentage de participants survivants ne représente pas toujours le pourcentage de vivants (ce qui suppose que le résultat d’intérêt est la mort). «Survie» peut également faire référence à la proportion de personnes sans autre événement final (par exemple, pourcentage sans IM ou maladie cardiovasculaire), ou elle peut également représenter le pourcentage qui ne connaît pas de résultat sain (par exemple, rémission du cancer).

Fonction de survie

Pourcentage de survie (axe Y) sur 10 ans d'observation. Il y a une diminution progressive de la survie

Notez que la probabilité de survie est de 100% pendant 2 ans, puis tombe à 90%. La survie médiane est de 9 ans (c’est-à-dire que 50% de la population survit 9 ans; voir les lignes pointillées).

Exemple:

Prenons une petite étude de cohorte prospective conçue pour étudier le temps jusqu’à la mort. L’étude porte sur 20 participants âgés de 65 ans et plus; ils sont inscrits sur une période de 5 ans et sont suivis jusqu’à 24 ans jusqu’à ce qu’ils décèdent, que l’étude se termine ou qu’ils abandonnent l’étude (perdus de vue). [Note that if a participant enrolls after the study start, their maximum follow up time is less than 24 years. e.g., if a participant enrolls two years after the study start, their maximum follow up time is 22 years.] Les données sont présentées ci-dessous. Dans l’étude, il y a 6 décès et 3 participants avec un suivi complet (soit 24 ans). Les 11 autres ont moins de 24 ans de suivi en raison d’une inscription tardive ou d’une perte de suivi.

Numéro d’identification du participant

Année du décès

Année du dernier contact

1

24

2

3

3

11

4

19

5

24

6

13

sept

14

8

2

9

18

dix

17

11

24

12

21

13

12

14

1

15

dix

16

23

17

6

18

5

19

9

20

17

Table de mortalité (table actuarielle)

Une façon de résumer les expériences des participants consiste à table de mortalité, ou un table actuarielle. Les tables de mortalité sont souvent utilisées dans le secteur de l’assurance pour estimer l’espérance de vie et pour fixer les primes. Nous nous concentrons sur un type particulier de table de mortalité largement utilisé dans l’analyse biostatistique appelée table de mortalité par cohorte ou un table de survie de suivi. La table de survie de suivi résume les expériences des participants sur une période de suivi prédéfinie dans une étude de cohorte ou dans un essai clinique jusqu’au moment de l’événement d’intérêt ou à la fin de l’étude, selon la première éventualité.

Pour construire une table de mortalité, nous organisons d’abord les temps de suivi en intervalles également espacés. Dans le tableau ci-dessus, nous avons un suivi maximal de 24 ans, et nous considérons des intervalles de 5 ans (0-4, 5-9, 10-14, 15-19 et 20-24 ans). Nous additionnons le nombre de participants vivants au début de chaque intervalle, le nombre de morts et le nombre de personnes censurées dans chaque intervalle.

Intervalle en années

Nombre vivant au début de l’intervalle

Nombre de décès pendant l’intervalle

Nombre censuré

0-4

20

2

1

5-9

17

1

2

10-14

14

1

4

15-19

9

1

3

20-24

5

1

4

Nous utilisons la notation suivante dans notre analyse des tables de mortalité. Nous définissons d’abord la notation, puis nous l’utilisons pour construire la table de mortalité.

  • Nt = nombre de participants sans événement et considérés à risque pendant l’intervalle t (par exemple, dans cet exemple, le nombre de participants vivants car notre résultat d’intérêt est la mort)
  • t = nombre de participants décédés (ou subissant l’événement d’intérêt) pendant l’intervalle t
  • Ct = nombre de participants censurés pendant l’intervalle t Nt* = le nombre moyen de participants à risque pendant l’intervalle t
  • Nt* = le nombre moyen de participants à risque pendant l’intervalle t[Lorsdelaconstructiondestablesdemortalitéactuariellesleshypothèsessuivantessontsouventformulées:Premièrementlesévénementsd’intérêt(parexemplelesdécès)sontsupposésseproduireàlafindel’intervalleetlesévénementscensuréssontsupposésseproduireuniformément(ouuniformément)toutaulongdel’intervalleParconséquentunajustementestsouventapportéàN[Inconstructingactuariallifetablesthefollowingassumptionsareoftenmade:Firsttheeventsofinterest(egdeaths)areassumedtooccurattheendoftheintervalandcensoredeventsareassumedtooccuruniformly(orevenly)throughouttheintervalThereforeanadjustmentisoftenmadetoN[Lorsdelaconstructiondestablesdemortalitéactuariellesleshypothèsessuivantessontsouventformulées:Premièrementlesévénementsd’intérêt(parexemplelesdécès)sontsupposésseproduireàlafindel’intervalleetlesévénementscensuréssontsupposésseproduireuniformément(ouuniformément)toutaulongdel’intervalleParconséquentunajustementestsouventapportéàN[Inconstructingactuariallifetablesthefollowingassumptionsareoftenmade:Firsttheeventsofinterest(egdeaths)areassumedtooccurattheendoftheintervalandcensoredeventsareassumedtooccuruniformly(orevenly)throughouttheintervalThereforeanadjustmentisoftenmadetoNt pour refléter le nombre moyen de participants à risque pendant l’intervalle, Nt*, qui se calcule comme suit: Nt * = Nt-Ct/ 2 (c’est-à-dire que nous soustrayons la moitié des événements censurés).
  • qt = proportion de décès (ou de souffrance) pendant l’intervalle t, qt = Dt/ Nt*
  • pt = proportion survivant (sans événement) intervalle t, pt = 1-qt
  • St, la proportion survivant (ou restant sans événement) au-delà de l’intervalle t; cela s’appelle parfois le probabilité de survie cumulative et il est calculé comme suit: Premièrement, la proportion de participants ayant survécu au temps passé 0 (l’heure de départ) est définie comme S0 = 1 (tous les participants vivants ou sans événement au temps zéro ou au début de l’étude). La proportion survivant au-delà de chaque intervalle suivant est calculée en utilisant les principes de probabilité conditionnelle introduits dans le module sur les probabilités. Plus précisément, la probabilité qu’un participant survit au-delà de l’intervalle 1 est S1 = p1. La probabilité qu’un participant survit au-delà de l’intervalle 2 signifie qu’il a dû survivre au-delà de l’intervalle 1 et de l’intervalle 2: S2 = P (survivre au-delà de l’intervalle 2) = P (survivre à l’intervalle 2) * P (survivre au-delà de l’intervalle 1), ou S2 = p2* S1. En général, St + 1 = pt + 1* St.

Le format de la table de survie de suivi est indiqué ci-dessous.

Pour le premier intervalle, 0-4 ans: Au temps 0, début du premier intervalle (0-4 ans), il y a 20 participants vivants ou à risque. Deux participants meurent dans l’intervalle et 1 est censuré. Nous appliquons la correction du nombre de participants censurés pendant cet intervalle pour produire Nt* = Nt-Ct/ 2 = 20- (1/2) = 19,5. Les calculs des colonnes restantes sont affichés dans le tableau. La probabilité qu’un participant survit après 4 ans ou après le premier intervalle (en utilisant la limite supérieure de l’intervalle pour définir le temps) est S4 = p4 = 0,897.

Pour le deuxième intervalle, 5-9 ans: Le nombre à risque est le nombre à risque dans l’intervalle précédent (0 à 4 ans) moins ceux qui meurent et sont censurés (c.-à-d. Nt = Nt-1-RÉt-1-Ct-1 = 20-2-1 = 17). La probabilité qu’un participant survit au cours des 9 dernières années est S9 = p9* S4 = 0,937 * 0,897 = 0,840.

Intervalle en années

Nombre à risque pendant l’intervalle,

Nt

Nombre moyen à risque pendant l’intervalle, Nt *

Nombre de décès pendant l’intervalle, Dt

Perdu de vue,

Ct

Proportion de décès

Pendant l’intervalle,

qt

Parmi les personnes à risque, proportion de survivants

Intervalle, pt

Probabilité de survie St

0-4

20

20- (1/2) = 19,5

2

1

2 / 19,5 = 0,103

1-0,103 = 0,897

1 (0,897) = 0,897

5-9

17

17- (2/2) = 16,0

1

2

1/16 = 0,063

1-0,063 = 0,937

(0,897) (0,937) = 0,840

La table de survie complète est présentée ci-dessous.

Intervalle en années

Nombre à risque pendant l’intervalle,

Nt

Nombre moyen à risque pendant l’intervalle, Nt *

Nombre de décès pendant l’intervalle, Dt

Perdu de vue,

Ct

Proportion de décès

Pendant l’intervalle,

qt

Parmi les personnes à risque, proportion de survivants

Intervalle, pt

Probabilité de survie St

0-4

20

19,5

2

1

0,103

0,897

0,897

5-9

17

16,0

1

2

0,063

0,937

0,840

10-14

14

12,0

1

4

0,083

0,917

0,770

15-19

9

7,5

1

3

0,133

0,867

0,668

20-24

5

3.0

1

4

0,333

0,667

0,446

Ce tableau utilise la méthode actuarielle pour construire la table de survie de suivi où le temps est divisé en intervalles également espacés.

Approche Kaplan-Meier (Limite de produit)

Un problème avec l’approche de table de survie présentée ci-dessus est que les probabilités de survie peuvent changer en fonction de la façon dont les intervalles sont organisés, en particulier avec de petits échantillons. L’approche de Kaplan-Meier, également appelée approche de limite de produit, est une approche populaire qui aborde ce problème en réestimant la probabilité de survie chaque fois qu’un événement se produit.

Une utilisation appropriée de l’approche de Kaplan-Meier repose sur l’hypothèse que la censure est indépendante de la probabilité de développer l’événement d’intérêt et que les probabilités de survie sont comparables chez les participants qui sont recrutés tôt et tard dans l’étude. Lors de la comparaison de plusieurs groupes, il est également important que ces hypothèses soient satisfaites dans chaque groupe de comparaison et que, par exemple, la censure ne soit pas plus probable dans un groupe que dans un autre.

Le tableau ci-dessous utilise l’approche de Kaplan-Meier pour présenter les mêmes données que celles présentées ci-dessus en utilisant l’approche de la table de mortalité. Notez que nous commençons le tableau avec Temps = 0 et Probabilité de survie = 1. À Temps = 0 (référence ou début de l’étude), tous les participants sont à risque et la probabilité de survie est de 1 (ou 100%). Avec l’approche de Kaplan-Meier, la probabilité de survie est calculée en utilisant St + 1 = St* ((Nt + 1-RÉt + 1) / Nt + 1). À noter que les calculs utilisant l’approche de Kaplan-Meier sont similaires à ceux utilisant l’approche actuarielle des tables de mortalité. La principale différence réside dans les intervalles de temps, c’est-à-dire qu’avec l’approche de la table de mortalité actuarielle, nous considérons des intervalles également espacés, tandis qu’avec l’approche de Kaplan-Meier, nous utilisons les temps d’événements observés et les temps de censure. Les calculs des probabilités de survie sont détaillés dans les premières lignes du tableau.

Table de mortalité selon l’approche de Kaplan-Meier

Temps, années

Nombre à risque

NT

Nombre de décès

Dt

Nombre censuré

Ct

Probabilité de survie

St + 1 = St* ((Nt + 1-RÉt + 1) / Nt + 1)

0

20

1

1

20

1

1 * ((20-1) / 20) = 0,950

2

19

1

0,950 * ((19-0) / 19) = 0,950

3

18

1

0,950 * ((18-1) / 18) = 0,897

5

17

1

0,897 * ((17-1) / 17) = 0,844

6

16

1

0,844

9

15

1

0,844

dix

14

1

0,844

11

13

1

0,844

12

12

1

0,844

13

11

1

0,844

14

dix

1

0,760

17

9

1

1

0,676

18

sept

1

0,676

19

6

1

0,676

21

5

1

0,676

23

4

1

0,507

24

3

3

0,507

Avec de grands ensembles de données, ces calculs sont fastidieux. Cependant, ces analyses peuvent être générées par des programmes de calcul statistique comme SAS. Excel peut également être utilisé pour calculer les probabilités de survie une fois que les données sont organisées par heure et que le nombre d’événements et les heures censurées sont résumés.

À partir de la table de mortalité, nous pouvons produire une courbe de survie de Kaplan-Meier.

Courbe de survie de Kaplan-Meier pour les données ci-dessus

La courbe de survie commence à 1,0 et descend à une survie de 50% à 25 ans. À 10 ans, la survie semble être d'environ 84%.

Dans la courbe de survie ci-dessus, les symboles représentent chaque heure d’événement, soit une mort, soit une heure censurée. À partir de la courbe de survie, nous pouvons également estimer la probabilité qu’un participant survit au cours des 10 dernières années en localisant 10 ans sur l’axe X et en lisant de haut en bas sur l’axe Y. La proportion de participants ayant survécu les 10 dernières années est de 84% et la proportion de participants ayant survécu les 20 dernières années est de 68%. La survie médiane est estimée en localisant 0,5 sur l’axe Y et en lisant sur et vers le bas jusqu’à l’axe X. La survie médiane est d’environ 23 ans.

Erreurs standard et estimations des intervalles de confiance des probabilités de survie

Ces estimations des probabilités de survie à des moments précis et du temps de survie médian sont des estimations ponctuelles et doivent être interprétées comme telles. Il existe des formules pour produire des erreurs standard et des estimations d’intervalle de confiance des probabilités de survie qui peuvent être générées avec de nombreux progiciels de calcul statistique. Une formule populaire pour estimer l’erreur standard des estimations de survie est appelée Greenwoods5 formule et se présente comme suit:

La quantité est additionné pour les nombres à risque (Nt) et le nombre de décès (Dt) survenant au cours de la période d’intérêt (c’est-à-dire cumulative, à tous les moments précédant l’heure d’intérêt, voir l’exemple dans le tableau ci-dessous). Les erreurs types sont calculées pour les estimations de survie pour les données du tableau ci-dessous. Notez que la dernière colonne indique la quantité 1,96 * SE (St) qui est la marge d’erreur et utilisée pour calculer les estimations de l’intervalle de confiance à 95% (c.-à-d. St ± 1,96 x SE (St)).

Erreurs standard des estimations de survie

Temps, années

Nombre à risque

NT

Nombre de décès

Dt

Probabilité de survie

St

https://sphweb.bumc.bu.edu/KM2.png

https://sphweb.bumc.bu.edu/KM3.png

https://sphweb.bumc.bu.edu/KM4.png

1,96 * SE (St)

0

20

1

1

20

1

0,950

0,003

0,003

0,049

0,096

2

19

0,950

0,000

0,003

0,049

0,096

3

18

1

0,897

0,003

0,006

0,069

0,135

5

17

1

0,844

0,004

0,010

0,083

0,162

6

16

0,844

0,000

0,010

0,083

0,162

9

15

0,844

0,000

0,010

0,083

0,162

dix

14

0,844

0,000

0,010

0,083

0,162

11

13

0,844

0,000

0,010

0,083

0,162

12

12

0,844

0,000

0,010

0,083

0,162

13

11

0,844

0,000

0,010

0,083

0,162

14

dix

1

0,760

0,011

0,021

0,109

0,214

17

9

1

0,676

0,014

0,035

0,126

0,246

18

sept

0,676

0,000

0,035

0,126

0,246

19

6

0,676

0,000

0,035

0,126

0,246

21

5

0,676

0,000

0,035

0,126

0,246

23

4

1

0,507

0,083

0,118

0,174

0,341

24

3

0,507

0,000

0,118

0,174

0,341

La figure ci-dessous résume les estimations et les intervalles de confiance dans la figure ci-dessous. La courbe de survie de Kaplan-Meier est représentée par une ligne continue et les limites de confiance à 95% sont représentées par des lignes pointillées.

Courbe de survie de Kaplan-Meier avec intervalles de confiance

La précédente courbe de Kaplan-Meirer avec une survie diminuant de 100% à 50% sur 10 ans est représentée par des lignes au-dessus et en dessous qui indiquent les limites de cofidence de 95% pour les estimations de survie.

Courbes d’incidence cumulative

Certains chercheurs préfèrent générer des courbes d’incidence cumulative, par opposition à des courbes de survie qui montrent les probabilités cumulées de vivre l’événement d’intérêt. L’incidence cumulée, ou probabilité de défaillance cumulée, est calculée comme 1-St et peuvent être calculés facilement à partir de la table de mortalité en utilisant l’approche de Kaplan-Meier. Les probabilités de défaillance cumulées pour l’exemple ci-dessus sont indiquées dans le tableau ci-dessous.

Table de survie avec probabilités de défaillance cumulées

Temps, années

Nombre à risque

Nt

Nombre de décès

t

Nombre censuré

Ct

Probabilité de survie

St

Probabilité d’échec

1-St

0

20

1

0

1

20

1

0,950

0,050

2

19

1

0,950

0,050

3

18

1

0,897

0,103

5

17

1

0,844

0,156

6

16

1

0,844

0,156

9

15

1

0,844

0,156

dix

14

1

0,844

0,156

11

13

1

0,844

0,156

12

12

1

0,844

0,156

13

11

1

0,844

0,156

14

dix

1

0,760

0,240

17

9

1

1

0,676

0,324

18

sept

1

0,676

0,324

19

6

1

0,676

0,324

21

5

1

0,676

0,324

23

4

1

0,507

0,493

24

3

3

0,507

0,493

La figure ci-dessous montre l’incidence cumulative de décès pour les participants inscrits à l’étude décrite ci-dessus.

Courbe d’incidence cumulative

L'axe Y est l'incidence cumulée des décès de 0 à 0,6. L'axe X représente le temps sur 25 ans. La probabilité de décès augmente progressivement jusqu'à une probabilité de 0,5 à 25 ans.

À partir de ce chiffre, nous pouvons estimer la probabilité qu’un participant décède à un certain moment. Par exemple, la probabilité de décès est d’environ 33% à 15 ans (voir les lignes pointillées).


Nous sommes souvent intéressés à évaluer s’il existe des différences de survie (ou d’incidence cumulative de l’événement) entre les différents groupes de participants. Par exemple, dans un essai clinique avec un résultat de survie, nous pourrions être intéressés à comparer la survie entre les participants recevant un nouveau médicament par rapport à un placebo (ou une thérapie standard). Dans une étude observationnelle, nous pourrions être intéressés à comparer la survie entre hommes et femmes, ou entre participants avec et sans facteur de risque particulier (par exemple, hypertension ou diabète). Il existe plusieurs tests disponibles pour comparer la survie parmi des groupes indépendants.

Le test de classement du journal

Le test du log rank est un test populaire pour tester l’hypothèse nulle d’absence de différence de survie entre deux ou plusieurs groupes indépendants. Le test compare toute l’expérience de survie entre les groupes et peut être considéré comme un test permettant de déterminer si les courbes de survie sont identiques (se chevauchent) ou non. Les courbes de survie sont estimées pour chaque groupe, considérées séparément, en utilisant la méthode de Kaplan-Meier et comparées statistiquement en utilisant le test du log rank. Il est important de noter qu’il existe plusieurs variantes de la statistique de test du log rank qui sont implémentées par divers progiciels de calcul statistique (par exemple, SAS, R 4,6). Nous présentons ici une version qui est étroitement liée à la statistique du test du chi carré et compare le nombre d’événements observés aux nombres attendus d’événements à chaque point dans le temps au cours de la période de suivi.

Exemple:

Un petit essai clinique est mené pour comparer deux traitements combinés chez des patients atteints d’un cancer gastrique avancé. Vingt participants atteints d’un cancer gastrique de stade IV qui consentent à participer à l’essai sont randomisés pour recevoir une chimiothérapie avant la chirurgie ou une chimiothérapie après la chirurgie. Le principal critère de jugement est le décès et les participants sont suivis jusqu’à 48 mois (4 ans) après leur inscription à l’essai. Les expériences des participants à chaque volet de l’essai sont présentées ci-dessous.

Chimiothérapie avant la chirurgie

Chimiothérapie après la chirurgie

Mois de la mort

Mois du dernier contact

Mois de la mort

Mois du dernier contact

8

8

33

48

12

32

28

48

26

20

41

25

14

40

37

21

48

27

25

43

Six participants au groupe chimiothérapie avant chirurgie meurent au cours du suivi, contre trois participants au groupe chimiothérapie après chirurgie. Les autres participants de chaque groupe sont suivis pendant des nombres variables de mois, certains jusqu’à la fin de l’étude à 48 mois (dans le groupe chimiothérapie après chirurgie). En utilisant les procédures décrites ci-dessus, nous construisons d’abord des tables de mortalité pour chaque groupe de traitement en utilisant l’approche de Kaplan-Meier.

Table de mortalité pour le groupe recevant une chimiothérapie avant la chirurgie

Temps, mois

Nombre à risque

Nt

Nombre de décès

t

Nombre censuré

Ct

Probabilité de survie

0

dix

1

8

dix

1

1

0,900

12

8

1

0,788

14

sept

1

0,675

20

6

1

0,675

21

5

1

0,540

26

4

1

0,405

27

3

1

0,270

32

2

1

0,270

40

1

1

0,270

Table de mortalité pour un groupe recevant une chimiothérapie après une chirurgie

Temps, mois

Nombre à risque

Nt

Nombre de décès

t

Nombre censuré

Ct

Probabilité de survie

0

dix

1

25

dix

2

1 000

28

8

1

0,875

33

sept

1

0,750

37

6

1

0,750

41

5

1

0,600

43

4

1

0,600

48

3

3

0,600

Les deux courbes de survie sont présentées ci-dessous.

Survie dans chaque groupe de traitement

Courbes de survie avec chimiothérapie avant ou après la chirurgie.

Les probabilités de survie pour la chimiothérapie après groupe de chirurgie sont plus élevés que les probabilités de survie pour le groupe de chimiothérapie avant chirurgie, suggérant un bénéfice de survie. Cependant, ces courbes de survie sont estimées à partir de petits échantillons. Pour comparer la survie entre les groupes, nous pouvons utiliser le test du log rank. L’hypothèse nulle est qu’il n’y a pas de différence de survie entre les deux groupes ou qu’il n’y a pas de différence entre les populations dans la probabilité de décès à tout moment. Le test du log rank est un test non paramétrique et ne fait aucune hypothèse sur les distributions de survie. Essentiellement, le test du log rank compare le nombre d’événements observés dans chaque groupe à ce qui serait attendu si l’hypothèse nulle était vraie (c’est-à-dire si les courbes de survie étaient identiques).

H0: Les deux courbes de survie sont identiques (ou S1 t = S2t) contre H1: Les deux courbes de survie ne sont pas identiques (ou S1 t ≠ S2t, à tout instant t) (α = 0,05).

La statistique du log rank est approximativement distribuée sous forme de statistique de test du chi carré. Il existe plusieurs formes de statistiques de test, et elles varient en fonction de la façon dont elles sont calculées. Nous utilisons les éléments suivants:

où ΣOjt représente la somme des nombre d’événements observés dans le je groupe au fil du temps (par exemple, j = 1,2) et ΣEjt représente la somme des nombre prévu d’événements dans le jème groupe au fil du temps.

Les sommes des nombres d’événements observés et attendus sont calculées pour chaque heure d’événement et additionnées pour chaque groupe de comparaison. La statistique de rang log a des degrés de liberté égaux à k-1, où k représente le nombre de groupes de comparaison. Dans cet exemple, k = 2 donc la statistique de test a 1 degré de liberté.

Pour calculer la statistique de test, nous avons besoin du nombre d’événements observé et attendu à chaque événement. Le nombre d’événements observés provient de l’échantillon et le nombre prévu d’événements est calculé en supposant que l’hypothèse nulle est vraie (c’est-à-dire que les courbes de survie sont identiques).

Pour générer le nombre prévu d’événements, nous organisons les données dans une table de vie avec des lignes représentant chaque heure de l’événement, quel que soit le groupe dans lequel l’événement s’est produit. We also keep track of group assignment. We then estimate the proportion of events that occur at each time (Ot/Nt) using data from both groups combined under the assumption of no difference in survival (i.e., assuming the null hypothesis is true). We multiply these estimates by the number of participants at risk at that time in each of the comparison groups (N1t and N2t for groups 1 and 2 respectively).

Specifically, we compute for each event time t, the number at risk in each group, Njt (e.g., where j indicates the group, j=1, 2) and the number of events (deaths), Ojt ,in each group. The table below contains the information needed to conduct the log rank test to compare the survival curves above. Group 1 represents the chemotherapy before surgery group, and group 2 represents the chemotherapy after surgery group.

Data for Log Rank Test to Compare Survival Curves

Time, Months

Number at Risk in Group 1

N1t

Number at Risk in Group 2

N2t

Number of Events (Deaths) in Group 1

O1t

Number of Events (Deaths) in Group 2

O2t

8

dix

dix

1

0

12

8

dix

1

0

14

sept

dix

1

0

21

5

dix

1

0

26

4

8

1

0

27

3

8

1

0

28

2

8

0

1

33

1

sept

0

1

41

0

5

0

1

We next total the number at risk, Nt = N1t+N2t, at each event time and the number of observed events (deaths), Ot = O1t+O2t, at each event time. We then compute the expected number of events in each group. The expected number of events is computed at each event time as follows:

E1t = N1t*(Ot/Nt) for group 1 and E2t = N2t*(Ot/Nt) for group 2. The calculations are shown in the table below.

Expected Numbers of Events in Each Group

Time, Months

Number at Risk in Group 1

N1t

Number at Risk in Group 2

N2t

Total Number at Risk

Nt

Number of Events in Group 1

O1t

Number of Events in Group 2

O2t

Total Number of Events

Ot

Expected Number of Events in

Group 1

E1t = N1t*(Ot/Nt)

Expected Number of Events in

Group 2

E2t = N2t*(Ot/Nt)

8

dix

dix

20

1

0

1

0.500

0.500

12

8

dix

18

1

0

1

0.444

0.556

14

sept

dix

17

1

0

1

0.412

0.588

21

5

dix

15

1

0

1

0.333

0.667

26

4

8

12

1

0

1

0.333

0.667

27

3

8

11

1

0

1

0.273

0.727

28

2

8

dix

0

1

1

0.200

0.800

33

1

sept

8

0

1

1

0.125

0.875

41

0

5

5

0

1

1

0.000

1.000

We next sum the observed numbers of events in each group (∑O1t and ΣO2t) and the expected numbers of events in each group (ΣE1t and ΣE2t) over time. These are shown in the bottom row of the next table below.

Total Observed and Expected Numbers of Observed in each Group

Time, Months

Number at Risk in Group 1

N1t

Number at Risk in Group 2

N2t

Total Number at Risk

Nt

Number of Events in Group 1

O1t

Number of Events in Group 2

O2t

Total Number of Events

Ot

Expected Number of Events in

Group 1

E1t = N1t*(Ot/Nt)

Expected Number of Events in

Group 2

E2t = N2t*(Ot/Nt)

8

dix

dix

20

1

0

1

0.500

0.500

12

8

dix

18

1

0

1

0.444

0.556

14

sept

dix

17

1

0

1

0.412

0.588

21

5

dix

15

1

0

1

0.333

0.667

26

4

8

12

1

0

1

0.333

0.667

27

3

8

11

1

0

1

0.273

0.727

28

2

8

dix

0

1

1

0.200

0.800

33

1

sept

8

0

1

1

0.125

0.875

41

0

5

5

0

1

1

0.000

1.000

6

3

2.620

6.380

We can now compute the test statistic:

The test statistic is approximately distributed as chi-square with 1 degree of freedom. Thus, the critical value for the test can be found in the table of Critical Values of the Χ2 Distribution.

For this test the decision rule is to Reject H0 si Χ2 > 3.84. We observe Χ2 = 6.151, which exceeds the critical value of 3.84. Therefore, we reject H0. We have significant evidence, α=0.05, to show that the two survival curves are different.

Example:

An investigator wishes to evaluate the efficacy of a brief intervention to prevent alcohol consumption in pregnancy. Pregnant women with a history of heavy alcohol consumption are recruited into the study and randomized to receive either the brief intervention focused on abstinence from alcohol or standard prenatal care. The outcome of interest is relapse to drinking. Women are recruited into the study at approximately 18 weeks gestation and followed through the course of pregnancy to delivery (approximately 39 weeks gestation). The data are shown below and indicate whether women relapse to drinking and if so, the time of their first drink measured in the number of weeks from randomization. For women who do not relapse, we record the number of weeks from randomization that they are alcohol free.

Standard Prenatal Care

Brief Intervention

Relapse

No Relapse

Relapse

No Relapse

19

20

16

21

6

19

21

15

5

17

sept

18

4

14

18

5

The question of interest is whether there is a difference in time to relapse between women assigned to standard prenatal care as compared to those assigned to the brief intervention.

Set up hypotheses and determine level of significance.

H0: Relapse-free time is identical between groups versus

H1: Relapse-free time is not identical between groups (α=0.05)

Select the appropriate test statistic.

The test statistic for the log rank test is

Set up the decision rule.

The test statistic follows a chi-square distribution, and so we find the critical value in the table of critical values for the Χ2 distribution) for df=k-1=2-1=1 and α=0.05. The critical value is 3.84 and the decision rule is to reject H0 si Χ2 > 3.84.

Compute the test statistic.

To compute the test statistic, we organize the data according to event (relapse) times and determine the numbers of women at risk in each treatment group and the number who relapse at each observed relapse time. In the following table, group 1 represents women who receive standard prenatal care and group 2 represents women who receive the brief intervention.

Time, Weeks

Number at Risk – Group 1

N1t

Number at Risk – Group 2

N2t

Number of Relapses – Group 1 O1t

Number of Relapses – Group 2 O2t

4

8

8

1

0

5

sept

8

1

0

6

6

sept

1

0

sept

5

sept

0

1

16

4

5

0

1

19

3

2

1

0

21

0

2

0

1

We next total the number at risk, , at each event time, the number of observed events (relapses), , at each event time and determine the expected number of relapses in each group at each event time using et .

We then sum the observed numbers of events in each group (ΣO1t and ΣO2t) and the expected numbers of events in each group (ΣE1t and ΣE2t) over time. The calculations for the data in this example are shown below.

Time, Weeks

Number at Risk Group 1

N1t

Number at Risk Group 2

N2t

Total Number at Risk

Nt

Number of Relapses

Group 1

O1t

Number of Relapses

Group 2

O2t

Total Number

of Relapses

Ot

Expected Number of Relapses in Group 1

Expected Number of Relapses in Group 2

4

8

8

16

1

0

1

0.500

0.500

5

sept

8

15

1

0

1

0.467

0.533

6

6

sept

13

1

0

1

0.462

0.538

sept

5

sept

12

0

1

1

0.417

0.583

16

4

5

9

0

1

1

0.444

0.556

19

3

2

5

1

0

1

0.600

0.400

21

0

2

2

0

1

1

0.000

1.000

4

3

2.890

4.110

We now compute the test statistic:

Conclusion. Do not reject H0 because 0.726 < 3.84. We do not have statistically significant evidence at α=0.05, to show that the time to relapse is different between groups.

The figure below shows the survival (relapse-free time) in each group. Notice that the survival curves do not show much separation, consistent with the non-significant findings in the test of hypothesis.

Relapse-Free Time in Each Group

Plot of relapse-free time in each of the two groups.

As noted, there are several variations of the log rank statistic. Some statistical computing packages use the following test statistic for the log rank test to compare two independent groups:

where ΣO1t is the sum of the observed number of events in group 1, and ΣE1t is the sum of the expected number of events in group 1 taken over all event times. The denominator is the sum of the variances of the expected numbers of events at each event time, which is computed as follows:

There are other versions of the log rank statistic as well as other tests to compare survival functions between independent groups.7-9 For example, a popular test is the modified Wilcoxon test which is sensitive to larger differences in hazards earlier as opposed to later in follow-up.dix


Survival analysis methods can also be extended to assess several risk factors simultaneously similar to multiple linear and multiple logistic regression analysis as described in the modules discussing Confounding, Effect Modification, Correlation, and Multivariable Methods. One of the most popular regression techniques for survival analysis is Cox proportional hazards regression, which is used to relate several risk factors or exposures, considered simultaneously, to survival time. In a Cox proportional hazards regression model, the measure of effect is the hazard rate, which is the risk of failure (i.e., the risk or probability of suffering the event of interest), given that the participant has survived up to a specific time. A probability must lie in the range 0 to 1. However, the hazard represents the expected number of events per one unit of time. As a result, the hazard in a group can exceed 1. For example, if the hazard is 0.2 at time t and the time units are months, then on average, 0.2 events are expected per person at risk per month. Another interpretation is based on the reciprocal of the hazard. For example, 1/0.2 = 5, which is the expected event-free time (5 months) per person at risk.

In most situations, we are interested in comparing groups with respect to their hazards, and we use a hazard ratio, which is analogous to an odds ratio in the setting of multiple logistic regression analysis. The hazard ratio can be estimated from the data we organize to conduct the log rank test. Specifically, the hazard ratio is the ratio of the total number of observed to expected events in two independent comparison groups:

In some studies, the distinction between the exposed or treated as compared to the unexposed or control groups are clear. In other studies, it is not. In the latter case, either group can appear in the numerator and the interpretation of the hazard ratio is then the risk of event in the group in the numerator as compared to the risk of event in the group in the denominator.

In Example 3 there are two active treatments being compared (chemotherapy before surgery versus chemotherapy after surgery). Consequently, it does not matter which appears in the numerator of the hazard ratio. Using the data in Example 3, the hazard ratio is estimated as:

Thus, the risk of death is 4.870 times higher in the chemotherapy before surgery group as compared to the chemotherapy after surgery group.

Example 3 examined the association of a single independent variable (chemotherapy before or after surgery) on survival. However, it is often of interest to assess the association between several risk factors, considered simultaneously, and survival time. One of the most popular regression techniques for survival outcomes is Cox proportional hazards regression analysis. There are several important assumptions for appropriate use of the Cox proportional hazards regression model, including

  1. independence of survival times between distinct individuals in the sample,
  2. a multiplicative relationship between the predictors and the hazard (as opposed to a linear one as was the case with multiple linear regression analysis, discussed in more detail below), and
  3. a constant hazard ratio over time.

The Cox proportional hazards regression model can be written as follows:

where h

Consider a simple model with one predictor, X1. The Cox proportional hazards model is:

Suppose we wish to compare two participants in terms of their expected hazards, and the first has X1= a and the second has X1= b. The expected hazards are h

The hazard ratio is the ratio of these two expected hazards: h0

Sometimes the model is expressed differently, relating the relative hazard, which is the ratio of the hazard at time t to the baseline hazard, to the risk factors:

We can take the natural logarithm (ln) of each side of the Cox proportional hazards regression model, to produce the following which relates the log of the relative hazard to a linear function of the predictors. Notice that the right hand side of the equation looks like the more familiar linear combination of the predictors or risk factors (as seen in the multiple linear regression model).

In practice, interest lies in the associations between each of the risk factors or predictors (X1, X2, …, Xp) and the outcome. The associations are quantified by the regression coefficients coefficients (b1, b2, …, bp). The technique for estimating the regression coefficients in a Cox proportional hazards regression model is beyond the scope of this text and is described in Cox and Oakes.9 Here we focus on interpretation. The estimated coefficients in the Cox proportional hazards regression model, b1, for example, represent the change in the expected log of the hazard ratio relative to a one unit change in X1, holding all other predictors constant.

The antilog of an estimated regression coefficient, exp(bi), produces a hazard ratio. If a predictor is dichotomous (e.g., X1 is an indicator of prevalent cardiovascular disease or male sex) then exp(b1) is the hazard ratio comparing the risk of event for participants with X1=1 (e.g., prevalent cardiovascular disease or male sex) to participants with X1=0 (e.g., free of cardiovascular disease or female sex).

If the hazard ratio for a predictor is close to 1 then that predictor does not affect survival. If the hazard ratio is less than 1, then the predictor is protective (i.e., associated with improved survival) and if the hazard ratio is greater than 1, then the predictor is associated with increased risk (or decreased survival).

Tests of hypothesis are used to assess whether there are statistically significant associations between predictors and time to event. The examples that follow illustrate these tests and their interpretation.

The Cox proportional hazards model is called a semi-parametric model, because there are no assumptions about the shape of the baseline hazard function. There are however, other assumptions as noted above (i.e., independence, changes in predictors produce proportional changes in the hazard regardless of time, and a linear association between the natural logarithm of the relative hazard and the predictors). There are other regression models used in survival analysis that assume specific distributions for the survival times such as the exponential, Weibull, Gompertz and log-normal distributions1,8. The exponential regression survival model, for example, assumes that the hazard function is constant. Other distributions assume that the hazard is increasing over time, decreasing over time, or increasing initially and then decreasing. Example 5 will illustrate estimation of a Cox proportional hazards regression model and discuss the interpretation of the regression coefficients.

Example:

An analysis is conducted to investigate differences in all-cause mortality between men and women participating in the Framingham Heart Study adjusting for age. A total of 5,180 participants aged 45 years and older are followed until time of death or up to 10 years, whichever comes first. Forty six percent of the sample are male, the mean age of the sample is 56.8 years (standard deviation = 8.0 years) and the ages range from 45 to 82 years at the start of the study. There are a total of 402 deaths observed among 5,180 participants. Descriptive statistics are shown below on the age and sex of participants at the start of the study classified by whether they die or do not die during the follow up period.

Die (n=402)

Do Not Die (n=4778)

Mean (SD) Age, years

65.6 (8.7)

56.1 (7.5)

N (%) Male

221 (55%)

2145 (45%)

We now estimate a Cox proportional hazards regression model and relate an indicator of male sex and age, in years, to time to death. The parameter estimates are generated in SAS using the SAS Cox proportional hazards regression procedure12 and are shown below along with their p-values.

Risk Factor

Parameter Estimate

P-Value

Age, years

0.11149

0.0001

Male Sex

0.67958

0.0001

Note that there is a positive association between age and all-cause mortality and between male sex and all-cause mortality (i.e., there is increased risk of death for older participants and for men).

Again, the parameter estimates represent the increase in the expected log of the relative hazard for each one unit increase in the predictor, holding other predictors constant. There is a 0.11149 unit increase in the expected log of the relative hazard for each one year increase in age, holding sex constant, and a 0.67958 unit increase in expected log of the relative hazard for men as compared to women, holding age constant.

For interpretability, we compute hazard ratios by exponentiating the parameter estimates. For age, exp(0.11149) = 1.118. There is an 11.8% increase in the expected hazard relative to a one year increase in age (or the expected hazard is 1.12 times higher in a person who is one year older than another), holding sex constant. Similarly, exp(0.67958) = 1.973. The expected hazard is 1.973 times higher in men as compared to women, holding age constant.

Suppose we consider additional risk factors for all-cause mortality and estimate a Cox proportional hazards regression model relating an expanded set of risk factors to time to death. The parameter estimates are again generated in SAS using the SAS Cox proportional hazards regression procedure and are shown below along with their p-values.12 Also included below are the hazard ratios along with their 95% confidence intervals.

Risk Factor

Parameter Estimate

P-Value

Hazard Ratio (HR)

(95% CI for HR)

Age, years

0.11691

0.0001

1.124 (1.111-1.138)

Male Sex

0.40359

0.0002

1.497 (1.215-1.845)

Systolic Blood Pressure

0.01645

0.0001

1.017 (1.012-1.021)

Current Smoker

0.76798

0.0001

2.155 (1.758-2.643)

Total Serum Cholesterol

-0.00209

0.0963

0.998 (0.995-2.643)

Diabète

-0.02366

0.1585

0.816 (0.615-1.083)

All of the parameter estimates are estimated taking the other predictors into account. After accounting for age, sex, blood pressure and smoking status, there are no statistically significant associations between total serum cholesterol and all-cause mortality or between diabetes and all-cause mortality. This is not to say that these risk factors are not associated with all-cause mortality; their lack of significance is likely due to confounding (interrelationships among the risk factors considered). Notice that for the statistically significant risk factors (i.e., age, sex, systolic blood pressure and current smoking status), that the 95% confidence intervals for the hazard ratios do not include 1 (the null value). In contrast, the 95% confidence intervals for the non-significant risk factors (total serum cholesterol and diabetes) include the null value.

Example:

A prospective cohort study is run to assess the association between body mass index and time to incident cardiovascular disease (CVD). At baseline, participants’ body mass index is measured along with other known clinical risk factors for cardiovascular disease (e.g., age, sex, blood pressure). Participants are followed for up to 10 years for the development of CVD. In the study of n=3,937 participants, 543 develop CVD during the study observation period. In a Cox proportional hazards regression analysis, we find the association between BMI and time to CVD statistically significant with a parameter estimate of 0.02312 (p=0.0175) relative to a one unit change in BMI.

If we exponentiate the parameter estimate, we have a hazard ratio of 1.023 with a confidence interval of (1.004-1.043). Because we model BMI as a continuous predictor, the interpretation of the hazard ratio for CVD is relative to a one unit change in BMI (recall BMI is measured as the ratio of weight in kilograms to height in meters squared). A one unit increase in BMI is associated with a 2.3% increase in the expected hazard.

To facilitate interpretation, suppose we create 3 categories of weight defined by participant’s BMI.

  • Normal weight is defined as BMI < 25.0,
  • Overweight as BMI between 25.0 and 29.9, and
  • Obese as BMI exceeding 29.9.

In the sample, there are 1,651 (42%) participants who meet the definition of normal weight, 1,648 (42%) who meet the definition of over weight, and 638 (16%) who meet the definition of obese. The numbers of CVD events in each of the 3 groups are shown below.

Groupe

Number of Participants

Number (%) of CVD Events

Normal Weight

1651

202 (12.2%)

Overweight

1648

241 (14.6%)

Obese

638

100 (15.7%)

The incidence of CVD is higher in participants classified as overweight and obese as compared to participants of normal weight.

We now use Cox proportional hazards regression analysis to make maximum use of the data on all participants in the study. The following table displays the parameter estimates, p-values, hazard ratios and 95% confidence intervals for the hazards ratios when we consider the weight groups alone (unadjusted model), when we adjust for age and sex and when we adjust for age, sex and other known clinical risk factors for incident CVD.

The latter two models are multivariable models and are performed to assess the association between weight and incident CVD adjusting for confounders. Because we have three weight groups, we need two dummy variables or indicator variables to represent the three groups. In the models we include the indicators for overweight and obese and consider normal weight the reference group.

Overweight

Obese

Model

Parameter Estimate

P- Value

HR

(95% CI

for HR)

Parameter Estimate

P- Value

HR

(95% CI for HR)

Unadjusted

or Crude Model

0.19484

0.0411

1.215

(1.008-1.465)

0.27030

0.0271

1.310

(1.031-1.665)

Age and Sex Adjusted

0.06525

0.5038

1.067

(0.882-1.292)

0.28960

0.0188

1.336

(1.049-1.701)

Adjusted for Clinical Risk Factors*

0.07503

0.4446

1.078

(0.889-1.307)

0.24944

0.0485

1.283

(1.002-1.644)

* Adjusted for age, sex, systolic blood pressure, treatment for hypertension, current smoking status, total serum cholesterol.

In the unadjusted model, there is an increased risk of CVD in overweight participants as compared to normal weight and in obese as compared to normal weight participants (hazard ratios of 1.215 and 1.310, respectively). However, after adjustment for age and sex, there is no statistically significant difference between overweight and normal weight participants in terms of CVD risk (hazard ratio = 1.067, p=0.5038). The same is true in the model adjusting for age, sex and the clinical risk factors. However, after adjustment, the difference in CVD risk between obese and normal weight participants remains statistically significant, with approximately a 30% increase in risk of CVD among obese participants as compared to participants of normal weight.


There are a number of important extensions of the approach that are beyond the scope of this text.

Time-Dependent Covariates

In the previous examples, we considered the effect of risk factors measured at the beginning of the study period, or at baseline, but there are many applications where the risk factors or predictors change over time. Suppose we wish to assess the impact of exposure to nicotine and alcohol during pregnancy on time to preterm delivery. Smoking and alcohol consumption may change during the course of pregnancy. These predictors are called time-dependent covariates and they can be incorporated into survival analysis models. The Cox proportional hazards regression model with time dependent covariates takes the form:

Notice that each of the predictors, X1, X2, … , Xp, now has a time component. There are also many predictors, such as sex and race, that are independent of time. Survival analysis models can include both time dependent and time independent predictors simultaneously. Many statistical computing packages (e.g., SAS12) offer options for the inclusion of time dependent covariates. A difficult aspect of the analysis of time-dependent covariates is the appropriate measurement and management of these data for inclusion in the models.

Proportionality Assumption

A very important assumption for the appropriate use of the log rank test and the Cox proportional hazards regression model is the proportionality assumption.

Specifically, we assume that the hazards are proportional over time which implies that the effect of a risk factor is constant over time. There are several approaches to assess the proportionality assumption, some are based on statistical tests and others involve graphical assessments.

In the statistical testing approach, predictor by time interaction effects are included in the model and tested for statistical significance. If one (or more) of the predictor by time interactions reaches statistical significance (e.g., p<0.05), then the assumption of proportionality is violated. An alternative approach to assessing proportionality is through graphical analysis. There are several graphical displays that can be used to assess whether the proportional hazards assumption is reasonable. These are often based on residuals and examine trends (or lack thereof) over time. More details can be found in Hosmer and Lemeshow1.

If either a statistical test or a graphical analysis suggest that the hazards are not proportional over time, then the Cox proportional hazards model is not appropriate, and adjustments must be made to account for non-proportionality. One approach is to stratify the data into groups such that within groups the hazards are proportional, and different baseline hazards are estimated in each stratum (as opposed to a single baseline hazard as was the case for the model presented earlier). Many statistical computing packages offer this option.

Competing Risks

The competing risks issue is one in which there are several possible outcome events of interest. For example, a prospective study may be conducted to assess risk factors for time to incident cardiovascular disease. Cardiovascular disease includes myocardial infarction, coronary heart disease, coronary insufficiency and many other conditions. The investigator measures whether each of the component outcomes occurs during the study observation period as well as the time to each distinct event. The goal of the analysis is to determine the risk factors for each specific outcome and the outcomes are correlated. Interested readers should see Kalbfleisch and Prenticedix for more details.


Time to event data, or survival data, are frequently measured in studies of important medical and public health issues. Because of the unique features of survival data, most specifically the presence of censoring, special statistical procedures are necessary to analyze these data. In survival analysis applications, it is often of interest to estimate the survival function, or survival probabilities over time. There are several techniques available; we present here two popular nonparametric techniques called the life table or actuarial table approach and the Kaplan-Meier approach to constructing cohort life tables or follow-up life tables. Both approaches generate estimates of the survival function which can be used to estimate the probability that a participant survives to a specific time (e.g., 5 or 10 years).

The notation and template for each approach are summarized below.

Actuarial, Follow-Up Life Table Approach

Time Intervals

Number At Risk During Interval,

Nt

Average Number At Risk During   Interval,

Nt* = Nt-Ct/2

Number of Deaths During Interval, Dt

Lost to

Follow-Up,

Ct

Proportion Dying

qt = Dt/Nt*

Proportion Surviving

pt = 1-qt

Survival Probability St = pt*St-1

(S0=1)

Kaplan-Meier Approach

Temps

Number at Risk

Nt

Number of Deaths

t

Number Censored

Ct

Survival Probability

St+1 = St*((Nt+1-Dt+1)/Nt+1)

(S0=1)

It is often of interest to assess whether there are statistically significant differences in survival between groups between competing treatment groups in a clinical trial or between men and women, or patients with and without a specific risk factor in an observational study. There are many statistical tests available; we present the log rank test, which is a popular non-parametric test. It makes no assumptions about the survival distributions and can be conducted relatively easily using life tables based on the Kaplan-Meier approach.

There are several variations of the log rank statistic as well as other tests to compare survival curves between independent groups.

We use the following test statistic which is distributed as a chi-square statistic with degrees of freedom k-1, where k represents the number of independent comparison groups:

where ΣOjt represents the sum of the observed number of events in the jth group over time and ΣEjt represents the sum of the expected number of events in the jth group over time. The observed and expected numbers of events are computed for each event time and summed for each comparison group over time. To compute the log rank test statistic, we compute for each event time t, the number at risk in each group, Njt (e.g., where j indicates the group) and the observed number of events Ojt in each group. We then sum the number at risk, Nt , in each group over time to produce ΣNjt , the number of observed events Ot , in each group over time to produce ΣOjt , and compute the expected number of events in each group using Ejt = Njt*(Ot/Nt) at each time. The expected numbers of events are then summed over time to produce ΣEjt for each group.

Finally, there are many applications in which it is of interest to estimate the effect of several risk factors, considered simultaneously, on survival. Cox proportional hazards regression analysis is a popular multivariable technique for this purpose. The Cox proportional hazards regression model is as follows:

where h

The associations between risk factors and survival time in a Cox proportional hazards model are often summarized by hazard ratios. The hazard ratio for a dichotomous risk factor (e.g., treatment assignment in a clinical trial or prevalent diabetes in an observational study) represents the increase or decrease in the hazard in one group as compared to the other.

For example, in a clinical trial with survival time as the outcome, if the hazard ratio is 0.5 comparing participants on a treatment to those on placebo, this suggests a 50% reduction in the hazard (risk of failure assuming the person survived to a certain point) in the treatment group as compared to the placebo. In an observational study with survival time as the outcome, if the hazard ratio is 1.25 comparing participants with prevalent diabetes to those free of diabetes then the risk of failure is 25% higher in participants with diabetes.


  1. Hosmer, DW and Lemeshow, S. Applied Survival Analysis: Regression Modeling of Time to Event Data. NewYork: John Wiley and Sons; 1999.
  2. Cox DR, Oakes D. Analysis of Survival Data, Chapman and Hall, 1984.
  3. Lee ET and Wang JW. Statistical Methods for Survival Data Analysis. 3rd edition. New York: John Wiley & Sons; 2003.
  4. SAS version 9.1© 2002-2003 by SAS Institute, Inc., Cary, NC.
  5. Greenwood M, Jr. The Natural Duration of Cancer. Reports of Public Health and Related Subjects Vol 33, HMSO, London; 1926.
  6. Crawley MJ. Statistics: An Introduction using R. NewYork: John Wiley and Sons; 2005.
  7. Mantel, N. Evaluation of survival data and two new rank order statistics arising in its consideration. Cancer Chemotherapy Reports. 1966; 50 (3): 163- 70.
  8. Peto R and Peto J. Asymptotically Efficient Rank Invariant Test Procedures. Journal of the Royal Statistical Society. Series A (General). 1972; 135 (2): 185-207.
  9. Gehan EA. A Generalized Wilcoxon Test for Comparing Arbitrarily Singly-Censored Samples. Biometrika. 1965; 52: 203-223.
  10. Kalbfleisch JD and Prentice RL. The Statistical Analysis of Failure Time Data. 2nd ed. New York: Wiley, 2002.
  11. Kleinbaun DG and Klein M. Survival Analysis: A Self-Learning Text. New York: Springer Science + Business Median, Inc., 2005.
  12. Allison P. Survival Analysis Using the SAS System, SAS Institute, 1995.


Source de l’article

A découvrir