ApproachesEdit
En général, deux types de preuves peuvent être distingués lors de la réalisation dune méta-analyse: les données individuelles des participants (IPD) et les données agrégées (AD ). Les données agrégées peuvent être directes ou indirectes.
AD est plus couramment disponible (par exemple dans la littérature) et représente généralement des estimations sommaires telles que les rapports de cotes ou les risques relatifs. Cela peut être directement synthétisé à travers des études conceptuellement similaires en utilisant plusieurs approches (voir ci-dessous). Dautre part, les données agrégées indirectes mesurent leffet de deux traitements qui ont chacun été comparés à un groupe témoin similaire dans une méta-analyse. Par exemple, si le traitement A et le traitement B ont été directement comparés à un placebo dans des méta-analyses séparées, nous pouvons utiliser ces deux résultats regroupés pour obtenir une estimation des effets de A vs B dans une comparaison indirecte comme effet A vs placebo moins effet B vs Placebo.
Les preuves IPD représentent les données brutes collectées par les centres détude. Cette distinction a soulevé le besoin de méthodes méta-analytiques différentes lorsque la synthèse des preuves est souhaitée, et a conduit au développement de méthodes en une et deux étapes. Dans les méthodes en une étape, lIPD de toutes les études est modélisé simultanément tout en tenant compte du regroupement des participants au sein des études. Les méthodes en deux étapes calculent dabord les statistiques récapitulatives pour la DA à partir de chaque étude, puis calculent les statistiques globales comme une moyenne pondérée des statistiques de létude. En réduisant lIPD en AD, des méthodes en deux étapes peuvent également être appliquées lorsque lIPD est disponible; cela en fait un choix attrayant lors de la réalisation dune méta-analyse. Bien que lon pense généralement que les méthodes en une et deux étapes donnent des résultats similaires, des études récentes ont montré quelles peuvent parfois conduire à des conclusions différentes.
Modèles statistiques pour les données agrégéesEdit
Preuve directe: Modèles intégrant uniquement les effets de létudeModifier
Modèle à effets fixesModifier
Le modèle à effets fixes fournit une moyenne pondérée dune série destimations de létude. Linverse de la variance des estimations est couramment utilisé comme poids détude, de sorte que les études plus importantes ont tendance à contribuer davantage que les études plus petites à la moyenne pondérée. Par conséquent, lorsque les études dune méta-analyse sont dominées par une très grande étude, les résultats de Les études plus petites sont pratiquement ignorées. Plus important encore, le modèle à effets fixes suppose que toutes les études incluses étudient la même population, utilisent les mêmes définitions de variable et de résultat, etc. Cette hypothèse est généralement irréaliste car la recherche est souvent sujette à plusieurs sources dhétérogénéité. les effets du traitement peuvent différer selon les paramètres régionaux, les niveaux de dosage, les conditions détude, …
Modèle deffets aléatoiresModifier
Un modèle commun utilisé pour synthétiser la recherche hétérogène est le modèle deffets aléatoires de méta Il sagit simplement de la moyenne pondérée des tailles deffet dun groupe détudes. Le poids appliqué dans ce processus de calcul de la moyenne pondérée avec une méta-analyse à effets aléatoires est chieved en deux étapes:
- Étape 1: Pondération de la variance inverse
- Étape 2: Dépondage de cette pondération de la variance inverse en appliquant une composante de variance à effets aléatoires (REVC) qui est simplement dérivée de létendue de la variabilité des tailles deffet des études sous-jacentes.
Cela signifie que plus cette variabilité des tailles deffet (autrement connue sous le nom dhétérogénéité) est grande, plus la non- pondération et cela peut atteindre un point où le résultat de la méta-analyse des effets aléatoires devient simplement la taille deffet moyenne non pondérée dans les études. À lautre extrême, lorsque toutes les tailles deffet sont similaires (ou que la variabilité ne dépasse pas lerreur déchantillonnage), aucune REVC nest appliquée et la méta-analyse des effets aléatoires se transforme par défaut en une simple méta-analyse à effet fixe (uniquement pondération de la variance inverse).
Lampleur de cette inversion dépend uniquement de deux facteurs:
- Hétérogénéité de la précision
- Hétérogénéité de la taille de leffet
tant donné quaucun de ces facteurs nindique automatiquement une étude plus grande défectueuse ou des études plus petites plus fiables, la redistribution des poids sous ce modèle naura pas de relation avec ce que ces études pourraient réellement offrir. En effet, il a été démontré que la redistribution des poids se fait simplement dans une direction des études plus grandes aux plus petites à mesure que lhétérogénéité augmente jusquà ce que toutes les études aient finalement le même poids et quaucune redistribution ne soit plus possible. Les intervalles de confiance ne conservent généralement pas leur probabilité de couverture au-dessus du niveau nominal spécifié et sous-estiment donc considérablement lerreur statistique et sont potentiellement trop confiants dans leurs conclusions. Plusieurs correctifs ont été suggérés mais le débat se poursuit.Un autre problème est que leffet moyen du traitement peut parfois être encore moins conservateur que le modèle à effets fixes et donc trompeur dans la pratique. Une solution dinterprétation qui a été suggérée consiste à créer un intervalle de prédiction autour de lestimation des effets aléatoires pour décrire la gamme des effets possibles dans la pratique. Cependant, une hypothèse derrière le calcul dun tel intervalle de prédiction est que les essais sont considérés comme des entités plus ou moins homogènes et que les populations de patients inclus et que les traitements de comparaison doivent être considérés comme échangeables, ce qui est généralement impossible en pratique.
Le La méthode la plus largement utilisée pour estimer la variance entre les études (REVC) est lapproche DerSimonian-Laird (DL). Il existe plusieurs techniques itératives avancées (et coûteuses en calcul) pour calculer la variance entre les études (comme le maximum de vraisemblance, le profil de vraisemblance et les méthodes de maximum de vraisemblance restreinte) et des modèles deffets aléatoires utilisant ces méthodes peuvent être exécutés dans Stata avec la commande metaan. La commande metaan doit être distinguée de la commande metan classique (simple « a ») dans Stata qui utilise lestimateur DL. Ces méthodes avancées ont également été implémentées dans un module complémentaire Microsoft Excel gratuit et facile à utiliser, MetaEasy. Cependant, une comparaison entre ces méthodes avancées et la méthode DL de calcul de la variance entre les études a démontré quil y a peu à gagner et que DL est tout à fait adéquate dans la plupart des scénarios.
Cependant, la plupart des méta-analyses incluent entre 2 et 4 études et un tel échantillon est le plus souvent insuffisant pour estimer avec précision lhétérogénéité. Ainsi, il semble que dans les petites méta-analyses, un zéro incorrect entre lestimation de la variance des études est obtenu, conduisant à une fausse hypothèse dhomogénéité. Dans lensemble, il semble que lhétérogénéité est constamment sous-estimée dans les méta-analyses et les analyses de sensibilité dans lesquelles des niveaux dhétérogénéité élevés sont supposés être informatifs. Ces modèles à effets aléatoires et progiciels mentionnés ci-dessus se rapportent à des méta-analyses agrégées détudes et les chercheurs souhaitant mener des méta-analyses de données individuelles sur des patients (IPD) doivent envisager des approches de modélisation à effets mixtes.
IVhet modelEdit
Doi & Barendregt travaillant en collaboration avec Khan, Thalib et Williams (de lUniversité du Queensland, de lUniversité du Queensland du Sud et de lUniversité du Koweït), ont créé une variance inverse alternative basée sur la quasi-vraisemblance (IVhet) au modèle à effets aléatoires (RE) dont les détails sont disponibles en ligne. Cela a été intégré à MetaXL version 2.0, un complément Microsoft Excel gratuit pour la méta-analyse produit par Epigear International Pty Ltd, et mis à disposition le 5 avril 2014. Les auteurs déclarent que lun des avantages de ce modèle est quil résout les deux principaux problèmes du modèle à effets aléatoires. Le premier avantage du modèle IVhet est que la couverture reste au niveau nominal (généralement 95%) pour lintervalle de confiance contrairement au modèle à effets aléatoires dont la couverture diminue avec une hétérogénéité croissante. Le deuxième avantage est que le modèle IVhet maintient les poids de variance inverses des études individuelles, contrairement au modèle RE qui donne plus de poids aux petites études (et donc moins aux études plus grandes) avec une hétérogénéité croissante. Lorsque lhétérogénéité devient grande, les poids individuels de létude sous le modèle RE deviennent égaux et le modèle RE renvoie donc une moyenne arithmétique plutôt quune moyenne pondérée. Cet effet secondaire du modèle RE ne se produit pas avec le modèle IVhet qui diffère donc de lestimation du modèle RE dans deux perspectives: Les estimations groupées favoriseront les essais plus importants (par opposition à pénaliser les essais plus importants dans le modèle RE) et auront une confiance intervalle qui reste dans la couverture nominale en cas dincertitude (hétérogénéité). Doi & Barendregt suggère que si le modèle RE fournit une méthode alternative de mise en commun des données de létude, leurs résultats de simulation démontrent que lutilisation dun modèle de probabilité plus spécifié avec des hypothèses intenables, comme avec le modèle RE , ne donne pas nécessairement de meilleurs résultats. Cette dernière étude rapporte également que le modèle IVhet résout les problèmes liés à la sous-estimation de lerreur statistique, à la mauvaise couverture de lintervalle de confiance et à laugmentation de lEQM observée avec le modèle à effets aléatoires et les auteurs concluent que les chercheurs devraient désormais abandonner lutilisation du modèle à effets aléatoires. en méta-analyse. Bien que leurs données soient convaincantes, les ramifications (en termes dampleur des résultats faussement positifs dans la base de données Cochrane) sont énormes et donc accepter cette conclusion nécessite une confirmation indépendante minutieuse. La disponibilité dun logiciel libre (MetaXL) qui exécute le modèle IVhet (et tous les autres modèles à titre de comparaison) facilite cela pour la communauté de recherche.
Preuve directe: Modèles intégrant des informations supplémentairesModifier
Modélisation des effets de qualité
Doi et Thalib ont initialement introduit le modèle des effets de qualité. Ils ont introduit une nouvelle approche dajustement pour la variabilité inter-études en incorporant la contribution de la variance due à une composante pertinente (qualité) en plus de la contribution de la variance due à lerreur aléatoire qui est utilisée dans tout modèle de méta-analyse à effets fixes pour générer poids pour chaque étude. La force de la méta-analyse des effets sur la qualité est quelle permet dutiliser les preuves méthodologiques disponibles sur les effets aléatoires subjectifs, et contribue ainsi à combler lécart préjudiciable qui sest ouvert entre la méthodologie et les statistiques dans la recherche clinique. Pour ce faire, une variance de biais synthétique est calculée sur la base des informations de qualité pour ajuster les poids de variance inverse et le poids ajusté de la qualité de la ième étude est introduit. Ces poids ajustés sont ensuite utilisés dans la méta-analyse. En dautres termes, si létude i est de bonne qualité et que dautres études sont de mauvaise qualité, une proportion de leurs poids corrigés de la qualité est mathématiquement redistribuée à létude i, ce qui lui donne plus de poids par rapport à la taille globale de leffet. Au fur et à mesure que les études deviennent de plus en plus similaires en termes de qualité, la redistribution devient progressivement moins importante et cesse lorsque toutes les études sont de qualité égale (dans le cas de qualité égale, le modèle des effets de qualité utilise par défaut le modèle IVhet – voir section précédente). Une évaluation récente du modèle des effets de qualité (avec quelques mises à jour) montre que malgré la subjectivité de lévaluation de la qualité, la performance (MSE et vraie variance sous simulation) est supérieure à celle réalisable avec le modèle à effets aléatoires. Ce modèle remplace ainsi les interprétations intenables qui abondent dans la littérature et un logiciel est disponible pour explorer cette méthode plus en détail.
Preuve indirecte: Méta-analyses en réseauMéthodesModifier
Une méta-analyse de réseau examine les comparaisons indirectes. Dans limage, A a été analysé par rapport à C et C a été analysé par rapport à b. Cependant, la relation entre A et B nest connue quindirectement, et une méta-analyse en réseau examine ces preuves indirectes de différences entre les méthodes et les interventions en utilisant une méthode statistique.
Comparaison indirecte Les méthodes de méta-analyse (également appelées méta-analyses en réseau, en particulier lorsque plusieurs traitements sont évalués simultanément) utilisent généralement deux méthodologies principales. La première est la méthode de Bucher qui est une comparaison unique ou répétée dune boucle fermée de trois traitements de telle sorte que lun dentre eux soit commun aux deux études et forme le nœud où commence et se termine la boucle. Par conséquent, plusieurs comparaisons deux par deux (3 boucles de traitement) sont nécessaires pour comparer plusieurs traitements. Cette méthodologie exige que les essais avec plus de deux bras aient deux bras uniquement sélectionnés car des comparaisons indépendantes par paires sont nécessaires. La méthodologie alternative utilise une modélisation statistique complexe pour inclure les essais à plusieurs bras et les comparaisons simultanément entre tous les traitements concurrents. Celles-ci ont été exécutées en utilisant des méthodes bayésiennes, des modèles linéaires mixtes et des approches de méta-régression.
Cadre bayésienEdit
La spécification dun modèle de méta-analyse de réseau bayésien implique lécriture dun graphe acyclique dirigé (DAG) modèle pour un logiciel de Monte Carlo (MCMC) de chaîne de Markov à usage général tel que WinBUGS De plus, des distributions antérieures doivent être spécifiées pour un certain nombre de paramètres et les données doivent être fournies dans un format spécifique. Ensemble, le DAG, les priors et les données forment un modèle hiérarchique bayésien. Pour compliquer davantage les choses, en raison de la nature de lestimation MCMC, des valeurs de départ surdispersées doivent être choisies pour un certain nombre de chaînes indépendantes afin que la convergence puisse être évaluée. Actuellement, il nexiste aucun logiciel qui génère automatiquement de tels modèles, bien quil existe des outils pour faciliter le processus. La complexité de lapproche bayésienne a limité lutilisation de cette méthodologie. Une méthodologie pour lautomatisation de cette méthode a été suggérée, mais nécessite que des données sur les résultats au niveau du bras soient disponibles, ce qui nest généralement pas disponible. De grandes revendications sont parfois faites pour la capacité inhérente du cadre bayésien à gérer la méta-analyse du réseau et sa plus grande flexibilité. Cependant, ce choix dimplémentation du framework dinférence, bayésien ou fréquentiste, peut être moins important que dautres choix concernant la modélisation des effets (voir discussion sur les modèles ci-dessus).
Framework multivarié fréquentiste Modifier
Dautre part, les méthodes multivariées fréquentistes impliquent des approximations et des hypothèses qui ne sont pas explicitement énoncées ou vérifiées lors de lapplication des méthodes (voir la discussion sur les modèles de méta-analyse ci-dessus). Par exemple, le package mvmeta pour Stata permet la méta-analyse du réseau dans un cadre fréquentiste.Cependant, sil ny a pas de comparateur commun dans le réseau, cela doit être géré en augmentant lensemble de données avec des bras fictifs avec une variance élevée, ce qui nest pas très objectif et nécessite une décision quant à ce qui constitue une variance suffisamment élevée. Lautre problème est lutilisation du modèle des effets aléatoires à la fois dans ce cadre fréquentiste et dans le cadre bayésien. Senn conseille aux analystes de se méfier de linterprétation de lanalyse des «effets aléatoires» car un seul effet aléatoire est autorisé mais on pourrait en envisager plusieurs. Senn poursuit en disant que cest plutôt naïf, même dans le cas où seuls deux traitements sont comparés, de supposer que lanalyse des effets aléatoires tient compte de toute lincertitude sur la façon dont les effets peuvent varier dun essai à lautre. Des modèles plus récents de méta-analyse tels que ceux discutés ci-dessus aideraient certainement à atténuer cette situation et ont été mis en œuvre dans le cadre suivant.
Cadre de modélisation par paires généralisé Modifier
Une approche qui a été essayée depuis la fin des années 1990 est la mise en œuvre de lanalyse en boucle fermée à trois traitements multiples. Cela na pas été populaire car le processus devient rapidement écrasant à mesure que la complexité du réseau augmente. Le développement dans ce domaine a alors été abandonné au profit des méthodes fréquentistes bayésiennes et multivariées qui ont émergé comme des alternatives. Très récemment, lautomatisation de la méthode en boucle fermée à trois traitements a été développée pour des réseaux complexes par certains chercheurs afin de mettre cette méthodologie à la disposition du grand public. Cette proposition limite chaque essai à deux interventions, mais introduit également une solution de contournement pour les essais à plusieurs bras: un nœud de contrôle fixe différent peut être sélectionné dans différentes séries. Il utilise également des méthodes de méta-analyse robustes afin déviter de nombreux problèmes soulignés ci-dessus. Des recherches supplémentaires autour de ce cadre sont nécessaires pour déterminer si celui-ci est en effet supérieur aux cadres fréquentistes bayésiens ou multivariés. Les chercheurs désireux de lessayer ont accès à ce framework via un logiciel gratuit.
Méta-analyse personnaliséeEdit
Une autre forme dinformations supplémentaires provient du paramètre prévu. Si le réglage cible pour lapplication des résultats de la méta-analyse est connu, il peut être possible dutiliser les données du réglage pour adapter les résultats, produisant ainsi une « méta-analyse sur mesure ». Cela a été utilisé dans les méta-analyses de précision des tests, où la connaissance empirique du taux de test positif et de la prévalence a été utilisée pour dériver une région dans lespace des caractéristiques de fonctionnement du récepteur (ROC) connue sous le nom de «région applicable». Les études sont ensuite sélectionnées pour la définition de la cible en fonction de la comparaison avec cette région et agrégées pour produire une estimation récapitulative adaptée à la définition de la cible.
Agrégation de lIPD et ADEdit
Méta-analyse peut également être appliqué pour combiner IPD et AD. Cela est pratique lorsque les chercheurs qui effectuent lanalyse disposent de leurs propres données brutes tout en collectant des données agrégées ou sommaires à partir de la littérature. Le modèle dintégration généralisée (GIM) est une généralisation de la méta-analyse. Il permet que le modèle ajusté sur les données individuelles des participants (IPD) soit différent de ceux utilisés pour calculer les données agrégées (AD). GIM peut être considéré comme une méthode détalonnage de modèle pour intégrer des informations avec plus de flexibilité.
Validation des résultats de la méta-analyseModifier
Lestimation de la méta-analyse représente une moyenne pondérée entre les études et le cas échéant Cette hétérogénéité peut faire en sorte que lestimation récapitulative ne soit pas représentative des études individuelles. Une évaluation qualitative des études primaires à laide doutils établis peut révéler des biais potentiels, mais ne quantifie pas leffet global de ces biais sur lestimation sommaire. Bien que le résultat de la méta-analyse puisse être comparé à une étude primaire prospective indépendante, une telle validation externe est souvent peu pratique. Cela a conduit au développement de méthodes qui exploitent une forme de validation croisée sans retrait, parfois appelée validation croisée interne-externe (IOCV). Ici, chacune des k études incluses à son tour est omise et comparée à lestimation récapitulative dérivée de lagrégation des études k-1 restantes. Une statistique de validation générale, Vn basée sur IOCV a été développée pour mesurer la validité statistique des résultats de méta-analyse. Pour la précision des tests et la prédiction, en particulier lorsquil y a des effets multivariés, dautres approches visant à estimer lerreur de prédiction ont également été proposées.