Les modèles structurels marginaux : un outil utile qui fournit des preuves pour les études observationnelles

INTRODUCTION

L’un des objectifs les plus courants de la recherche clinique est de tenter de quantifier l’association causale entre une exposition ou un traitement et un événement ou un résultat clinique. Les essais cliniques contrôlés (EC) apparaissent pour apporter une réponse scientifique aux différentes innovations thérapeutiques dans le domaine de la médecine1. 1 En ce sens, le plan d’EC a été établi comme le plan de la plus haute qualité pour étudier les relations causales dans les traitements2, en évitant les biais ou les erreurs systématiques qui peuvent masquer le véritable effet d’une intervention donnée. En fait, l’objectif principal de la plupart des EC est d’estimer l’impact d’un nouveau traitement par rapport au traitement conventionnel sur le résultat clinique d’un patient. Par conséquent, les EC constituent le « gold standard » des preuves pour la prise de décision clinique dans la pratique médicale courante.

Cependant, les EC présentent certaines limites principalement dues à leurs conditions d’étude et à leur incapacité à détecter certaines différences pour des résultats autres que la cible d’intérêt entre les groupes analysés. Les EC sont généralement réalisés chez des patients hautement sélectionnés selon des critères d’inclusion très stricts qui peuvent empêcher leur applicabilité dans la pratique clinique de routine. De même, le développement d’un EC peut être irréalisable pour des raisons éthiques évidentes ou avoir un suivi réduit par rapport à l’événement d’intérêt (en général, 1 à 2 ans), ce qui limite sa reproductibilité3. 3 Enfin, les ECR peuvent manquer de puissance statistique suffisante car ils portent sur des maladies rares et/ou ont un suivi très long.4

Toutes ces raisons justifient le besoin d’études observationnelles (OS), qui peuvent fournir des informations valides et complémentaires d’une exposition ou d’une intervention thérapeutique sur un résultat, à condition d’appliquer une méthodologie scientifique rigoureuse. En d’autres termes, les ENP représentent une option valable dans la recherche clinique pour évaluer les interventions thérapeutiques lorsque des outils statistiques appropriés sont utilisés pour leur analyse, tels que les modèles de régression, les scores de propension ou les modèles structurels marginaux (SEM).

Les MODÈLES STRUCTURELS MARGINAUX : FOURNIR DES ÉVIDENCES POUR LES ÉTUDES OBSERVATIONNELLES

En général, les ENP de cohorte sont menées pour évaluer l’effet d’un traitement dont l’allocation n’a pas été distribuée de manière aléatoire, étant donné que l’intervention thérapeutique a été établie sur la base de la pratique médicale standard ou des caractéristiques individuelles des patients. Cependant, si la conception et l’analyse sont appropriées, les résultats des études de cohorte peuvent être comparables à ceux des essais cliniques.6

Dans la pratique clinique courante, l’évaluation de l’effet du traitement sur le pronostic des patients est complexe en raison des variables cliniques confondantes, en particulier si l’initiation du traitement varie dans le temps et que la variable de résultat est le délai avant un événement. Il ne fait aucun doute que cela peut entraîner des surestimations ou des sous-estimations de l’effet du traitement, ce qui rend les ENP très vulnérables, affaiblissant la robustesse des résultats et entraînant une confusion par indication. Les outils statistiques conventionnels les plus fréquemment utilisés pour minimiser ces problèmes sont les modèles de régression et le score de propension et la stratification,7-9 mais ils peuvent également être biaisés s’il existe des variables confusionnelles qui varient dans le temps ou qui peuvent être affectées par les traitements précédents.10

Une analyse alternative pour gérer ces biais est l’application des MEM, proposée par Robins et al. (1999)11 . Essentiellement, les MEM sont une alternative aux modèles classiques lorsqu’il existe une variable confusionnelle dépendant du temps qui est associée à l’événement d’intérêt, mais qui est également liée au traitement évalué. Elles sont dites structurelles car elles étudient la causalité et non la simple association. Elles sont marginales parce qu’elles utilisent les distributions marginales des contrefactuels, conditionnelles aux variables de base, plutôt que la distribution groupée. Un contrefactuel est tout événement qui ne s’est pas produit mais qui aurait pu se produire. L’inférence causale se fait en comparant théoriquement ce qui se passerait si tous les patients avaient été traités et si aucun patient n’avait été traité. Les méthodes de régression sont biaisées même s’il n’y a pas de confusion résiduelle (c’est-à-dire même si toutes les indications possibles de traitement avaient été mesurées) parce qu’elles sont dues à un ajustement inapproprié de la confusion créée par des variables dépendantes du temps et affectées par un traitement antérieur.

La mise en œuvre, proposée par ces auteurs, de ces modèles consiste en 3 étapes de base :

1) Créer un score de propension, c’est-à-dire une fonction qui estime la probabilité ( » propension « ) que les patients soient affectés à chaque groupe de traitement à l’aide d’une régression logistique dans laquelle la variable dépendante est le traitement et les variables indépendantes sont des variables associées à l’initiation du traitement. Pour ajuster ce modèle de régression, chaque patient est  » déplié  » en autant d’observations que d’unités de temps (mois, semaines, etc.) (figure 2 et figure 3) et ajusté avec une méthode qui tient compte de leur manque d’indépendance (modèles GEE)12.

2) Avec la même méthode, une fonction pour la probabilité d’être censuré est créée et en combinant les deux, un poids est créé pour pondérer chaque individu par son inverse. Avec cette pondération, on simule une pseudo-population dans laquelle le traitement, et la censure, sont indépendants des facteurs de confusion mesurables.

3) Enfin, on ajuste un modèle de Cox pour le traitement, en pondérant les individus avec ces poids. Le modèle de Cox est simulé à l’aide d’un modèle de régression logistique étendu, c’est-à-dire que, comme à l’étape 1, chaque patient est « déplié » en autant d’observations que de mesures répétées dans le temps. L’odds ratio de cette régression logistique se rapproche bien du risque relatif instantané du modèle de Cox, car le risque d’événements est faible pour tous les mois13.

ASSUMATIONS ET CONDITIONS DES MODÈLES MARGINAUX STRUCTURELS

Comme tous les modèles statistiques, les MME comportent des hypothèses qu’il convient de vérifier9. Fondamentalement, ces hypothèses sont :

    • Consistance : c’est-à-dire que l’exposition doit pouvoir être définie sans ambiguïté, expliquer comment avec un certain niveau d’exposition une personne exposée à un niveau différent est attribuée. L’évaluation de la cohérence peut être très facile pour les traitements, mais compliquée pour d’autres types d’exposition, comme le poids corporel, la résistance à l’insuline ou le niveau d’exposition aux particules.
    • Interchangeabilité : que les sujets exposés et non exposés, censurés et non censurés aient une distribution égale des facteurs de confusion. Elle implique l’hypothèse de l’absence de facteurs de confusion non mesurables. Cette hypothèse ne peut être testée dans un ensemble de données observées, mais des analyses de sensibilité peuvent être effectuées en ajoutant au modèle plus simple d’autres facteurs de confusion ou en modifiant la fonction des facteurs de confusion, par exemple en ajoutant des termes quadratiques ou des fonctions splines. Dans un essai clinique, l’interchangeabilité des traitements est ce que l’assignation aléatoire vise à obtenir.
    • Position : existence d’individus exposés et non exposés pour chaque niveau des facteurs de confusion, également appelée assignation expérimentale des traitements. Par exemple, si un traitement ayant un effet tératogène possible est évalué, la probabilité de recevoir ce médicament chez les femmes enceintes est structurellement de 0. Cela semble très évident dans ce cas, mais il est difficile de l’établir pour différentes combinaisons de facteurs de confusion. Une façon simple de tester cette hypothèse peut être faite en calculant les différentes combinaisons possibles de facteurs de confusion et en calculant le pourcentage d’exposés pour chaque combinaison. Par exemple, si vous souhaitez évaluer l’effet d’une statine chez des patients ayant subi une transplantation rénale, vous devrez disposer de patients traités et non traités pour toute valeur de cholestérol donnée. De toute évidence, ce point constitue peut-être une limitation importante pour son application généralisée en pratique clinique.
    • Bonne spécification du modèle : l’estimation pondérée des paramètres d’un modèle structurel marginal nécessite également l’ajustement de plusieurs modèles : le modèle structurel, le modèle de régression du traitement et le modèle de régression pour la censure.

    Sous ces 4 hypothèses de cohérence, d’échangeabilité, de positivité et de bonne spécification du modèle pour estimer les poids, une pseudo-population est créée par IPTW dans laquelle l’exposition est indépendante des facteurs de confusion mesurés. La pseudo-population est le résultat de l’attribution à chaque patient d’un poids proportionnel à la probabilité de recevoir son historique d’exposition au traitement.

    L’un des principaux problèmes de l’estimation de l’effet du traitement sur un résultat donné est la sélection des variables à corriger14,15. 14,15 Le mauvais choix des variables confusionnelles peut entraîner un biais, modifiant la variance de l’estimateur ou l’erreur. Pour décider du choix des variables, 2 approches sont proposées :

      • Approche clinique, dans laquelle la décision est basée sur les connaissances des cliniciens experts, en essayant d’établir le schéma causal entre l’exposition et l’événement. En d’autres termes, le choix de chaque variable est justifié par les connaissances des experts.
      • Approche statistique, en recherchant quelles variables sont statistiquement associées de manière univariée à l’exposition et/ou à l’événement. De cette façon, nous aurions 3 types de variables possibles : les variables qui sont uniquement associées à l’événement/résultat, les variables qui sont uniquement liées au traitement/exposition, et les variables qui sont associées à la fois au résultat et au traitement.

      Quelles variables inclure ?

      Variables qui se rapportent au résultat : leur inclusion diminue la variance et garde le même biais.

      Variables qui se rapportent uniquement à l’exposition : leur inclusion augmente la variance de l’estimation et garde le même biais. Le choix des variables dans une étude avec appariement par score de propension a pour but de réduire le biais de l’estimateur de l’effet du traitement, et non de maximiser la prédiction du statut du traitement. Par conséquent, ces variables ne devraient pas être incluses.

      Variables qui sont liées aux deux : oui, elles devraient être incluses.

      Adéquation du modèle

      Traditionnellement, la justesse du modèle de score de propension a été testée par l’indice C de Harrell (aire sous la courbe ROC)16 en supposant que les indices C proches de 1 refléteraient une mesure adéquate de la discrimination. Cependant, une valeur élevée de l’indice C indique un chevauchement entre les individus expérimentaux et les individus témoins, ce qui peut indiquer un manque de comparabilité entre les caractéristiques des individus traités et non traités.

      À l’heure actuelle, les MEM sont mis en œuvre via des macros logicielles dans SAS15, R17 et Stata18.

      APPLICATION DES MODÈLES STRUCTURELS MARGINAUX EN NÉPHROLOGIE

      Les MEM ont été mis en œuvre dans le domaine de la médecine, y compris dans le domaine de la néphrologie, pour donner une rigueur scientifique aux ENP, notamment lors de l’évaluation de variables dépendant du temps. A titre d’exemple, cet outil a été initialement utilisé chez les patients atteints du VIH10 où la charge virale ou le nombre de CD4 peuvent être considérés comme des facteurs de confusion dépendant du temps dans l’évaluation causale d’un traitement rétroviral, lors de l’apparition d’un nouvel événement lié au SIDA ou lors du décès du patient au cours de la maladie.

      En néphrologie, les MEM ont été mis en œuvre pour établir la relation causale entre de multiples traitements ou expositions et le pronostic ou le résultat final d’une entité. De multiples ENP ont montré que les patients sous érythropoïétine (EPO) à forte dose présentaient une mortalité élevée, bien que les patients nécessitant des doses plus élevées d’EPO aient une plus grande comorbidité. La grande variabilité de la dose d’EPO au cours du suivi des patients dialysés a rendu les facteurs de confusion dépendants du temps, c’est-à-dire que les facteurs pronostiques pourraient être des marqueurs pour initier le traitement et en même temps être affectés par le traitement lui-même. Dans une récente ENP, la relation de cause à effet entre la dose d’EPO et la mortalité a été étudiée de manière élégante en utilisant les MEM19. Dans cette étude, qui a inclus 27 791 patients pendant un suivi de 12 mois, la variable d’exposition était la dose d’EPO (classée en fourchettes), tandis que le critère d’évaluation était le décès du patient ou la perte de suivi. Les variables de base (âge, sexe, race, durée de dialyse, présence de diabète, etc.) et les variables évolutives dépendant du temps (paramètres de laboratoire, médicaments concomitants, comorbidité, etc.) ont été incluses dans l’analyse finale. Le taux d’hémoglobine pourrait a priori être une variable confusionnelle dépendant du temps, puisque des taux d’hémoglobine bas favorisent l’administration de fortes doses d’EPO, qui augmentent le taux d’hémoglobine. Par conséquent, et étant donné que l’hémoglobine pourrait se trouver dans la chaîne de causalité entre l’EPO et la mortalité, les modèles de régression conventionnels ne devraient pas être utilisés dans ce cas pour élucider cette association. Trois types de modèles ont été évalués en augmentant le nombre de prédicteurs associés à l’utilisation de l’EPO pour une bonne spécification du modèle d’étude. Les variables les plus directement associées à la dose d’EPO étaient l’hémoglobine antérieure, le type d’accès vasculaire et la comorbidité, évaluée par les hospitalisations. La conclusion à laquelle sont parvenus les auteurs est que, bien que l’analyse la plus simple, corrigeant uniquement l’hémoglobine et les antécédents d’utilisation de l’EPO, puisse indiquer que des doses très élevées d’EPO (plus de 49 000 UI en 2 semaines) sont associées à une mortalité plus élevée (hazard ratio = 1,51), cet effet disparaît (HR = 0,98) lorsqu’un MEM plus complet est considéré. Quoi qu’il en soit, cette étude n’est pas exempte de limites importantes, telles que l’hypothèse de positivité, qui nécessiterait une probabilité différente de 0 de recevoir l’une des doses d’EPO à n’importe quelle valeur d’hémoglobine, ou une confusion résiduelle, car des variables biologiques importantes (protéine C-réactive, numération lymphocytaire, etc.) susceptibles d’affecter le résultat final ne sont pas incluses dans le modèle.

      De même, l’application du MEM à l’EPO chez des patients atteints d’une maladie rénale avancée a mis en lumière certains aspects cliniques controversés du traitement de substitution de la fonction rénale. Plus précisément, cet outil statistique a permis d’élucider le fait que ni la restriction de phosphate dans le régime alimentaire de ces patients ni le type de dialyse reçue (hémodialyse vs dialyse péritonéale) n’ont une influence décisive sur la mortalité de ces patients20,21. 20,21 Au contraire, une restriction excessive du phosphore dans l’alimentation pourrait entraîner un risque de décès plus élevé dans cette population. De même, l’application du MEM dans une OT multicentrique néerlandaise a montré que la perte de la fonction rénale résiduelle était associée à une plus grande mortalité22. 22 Ceci soutient la possibilité d’appliquer un traitement de substitution rénale individualisé en fonction du volume urinaire de chaque patient au début du traitement de dialyse chronique.

      Dans le domaine de la transplantation rénale, l’utilité de l’EMM s’est concentrée sur le test de l’impact des altérations métaboliques sur la mortalité et l’évaluation de l’efficacité des médicaments immunosuppresseurs et des médicaments cardioprotecteurs sur la survie des patients et des greffons rénaux. En effet, l’utilisation de modèles de régression de Cox et MEM, ajustant les variables confondantes, a montré que des niveaux élevés de glycémie ou un traitement insulinique plus intense étaient associés à une plus grande mortalité23. 23 En utilisant une méthodologie similaire, il a été démontré que l’utilisation du mycophénolate mofétil permettait une meilleure survie du greffon rénal par rapport à l’utilisation de l’azathioprine24. 24 Enfin, une récente ENP de notre groupe incluant 990 patients ayant reçu un greffon rénal entre 1996 et 2005 a démontré, au moyen d’une analyse de régression de Cox avec variables dépendantes du temps, que l’utilisation de médicaments bloquant l’utilisation du mycophénolate mofétil permettait une plus grande survie du greffon rénal par rapport à l’utilisation de l’azathioprine, que l’utilisation de médicaments bloquant le système rénine-angiotensine (inhibiteurs de l’enzyme de conversion de l’angiotensine et antagonistes des récepteurs de l’angiotensine II) était associée à un risque réduit de mortalité (HR = 0,626, intervalle de confiance à 95%, 0,407-0,963), mais pas de perte de greffe. Des résultats similaires ont été observés après ajustement des variables confusionnelles pour l’indication de l’IEC/ARA à l’aide du MEM (HR = 0,629, IC 95 %, 0,407-0,973)25. Une fois de plus, ces résultats confirment l’utilité de la mise en œuvre des MEM dans les ENP de cohortes de patients atteints de maladies rénales.

      En résumé, l’application des MEM dans les ENP de cohortes utilisant des variables dépendantes du temps peut fournir des informations valides et complémentaires aux EC lors de l’évaluation de l’efficacité clinique d’un traitement ou d’une exposition donnée. Cela contribuera sans aucun doute à augmenter le niveau de preuve des ENP dans différents domaines de la médecine, y compris la néphrologie.

      CONCEPTS CLÉS

      1. Les résultats des ENP peuvent être comparables à ceux des essais cliniques en termes d’évaluation de l’efficacité d’un traitement ou d’une exposition, à condition que la conception et l’analyse de ceux-ci soient appropriées et rigoureuses.

      2. L’existence de variables cliniques dépendantes du temps et susceptibles de créer une confusion peut entraîner une surestimation ou une sous-estimation de l’effet du traitement lorsque des modèles de régression conventionnels sont employés, ce qui entraîne une confusion par indication.

      3. Les EMM peuvent éviter le biais de confusion par indication, mais comportent des hypothèses qui doivent être vérifiées.

      4. Le choix des variables confondantes pour l’application MEM doit être fait à partir d’une approche clinique et statistique. Le mauvais choix de ces variables peut générer un biais qui modifie la variance de l’estimateur.

      5. Lors de l’évaluation de l’efficacité d’un traitement au moyen d’une ENP, l’application du MEM peut augmenter le niveau de preuve de son application dans la pratique clinique quotidienne.

      Reconnaissances

      Les auteurs remercient la collaboration de l’unité de biostatistique de l’hôpital Ramón y Cajal (IRYCIS, Madrid ; CIBER Épidémiologie et santé publique CIBERESP) et celle des équipes de transplantation rénale de l’hôpital universitaire de Canarias (Tenerife) et de l’hôpital universitaire Carlos Haya (Malaga). Cette étude a été partiellement financée par l’Instituto de Salud Carlos III Retic RD06/0016 (RedInRen), FIS PI070732 et FIS PI10/01020 du ministère espagnol des Sciences et de l’Innovation (MICINN), et par le ministère de la Santé du gouvernement d’Andalousie (PI-0499/2009).

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *