ApproachesEdit
Generelt kan der skelnes mellem to typer beviser, når der udføres en metaanalyse: individuelle deltagerdata (IPD) og samlede data (AD ). De samlede data kan være direkte eller indirekte.
AD er mere almindeligt tilgængelig (f.eks. Fra litteraturen) og repræsenterer typisk sammenfattende estimater såsom oddsforhold eller relative risici. Dette kan syntetiseres direkte på tværs af konceptuelt lignende studier ved hjælp af flere tilgange (se nedenfor). På den anden side måler indirekte samlede data effekten af to behandlinger, der hver blev sammenlignet med en lignende kontrolgruppe i en metaanalyse. For eksempel, hvis behandling A og behandling B blev sammenlignet direkte mod placebo i separate metaanalyser, kan vi bruge disse to samlede resultater til at få et skøn over virkningerne af A vs B i en indirekte sammenligning som effekt A vs Placebo minus effekt B vs Placebo.
IPD-beviser repræsenterer rådata som indsamlet af undersøgelsescentre. Denne skelnen har rejst behovet for forskellige meta-analytiske metoder, når evidenssyntese ønskes, og har ført til udviklingen af et-trins- og to-trinsmetoder. I en-trinsmetoder modelleres IPD fra alle undersøgelser samtidigt, samtidig med at der tages højde for gruppering af deltagere i studier. To-trinsmetoder beregner først sammenfattende statistik for AD fra hver undersøgelse og beregner derefter samlet statistik som et vægtet gennemsnit af undersøgelsesstatistikken. Ved at reducere IPD til AD kan to-trins metoder også anvendes, når IPD er tilgængelig; dette gør dem til et tiltalende valg, når de udfører en metaanalyse. Selvom det traditionelt antages, at en-trins- og to-trinsmetoder giver lignende resultater, har nylige undersøgelser vist, at de lejlighedsvis kan føre til forskellige konklusioner.
Statistiske modeller for samlede dataEdit
Direkte beviser: Modeller, der kun indeholder undersøgelseseffekter Rediger
Model med faste effekter Rediger
Den faste effekt-model giver et vægtet gennemsnit af en række undersøgelsesestimater. Omvendt af estimaterne “varians anvendes ofte som undersøgelsesvægt, så større studier har tendens til at bidrage mere end mindre studier til det vægtede gennemsnit. Derfor, når studier inden for en metaanalyse er domineret af en meget stor undersøgelse, viser resultaterne fra mindre undersøgelser ignoreres praktisk talt. Vigtigst er det, at modellen med faste effekter antager, at alle inkluderede studier undersøger den samme population, bruger den samme variabel og definitionsdefinitioner osv. Denne antagelse er typisk urealistisk, da forskning ofte er tilbøjelig til flere kilder til heterogenitet, f.eks. behandlingseffekter kan variere alt efter lokalitet, doseringsniveauer, undersøgelsesbetingelser, …
Model for tilfældige effekter Rediger
En almindelig model, der bruges til at syntetisere heterogen forskning, er den tilfældige effektmodel for meta- Dette er simpelthen det vægtede gennemsnit af effektstørrelserne i en gruppe undersøgelser. Den vægt, der anvendes i denne proces med vægtet gennemsnit med en tilfældig effekt metaanalyse er en findet i to trin:
- Trin 1: Invers variansvægtning
- Trin 2: Un-vægtning af denne inverse variansvægtning ved anvendelse af en tilfældig effektvarianskomponent (REVC), der er simpelthen afledt af omfanget af variabiliteten af de underliggende undersøgelsers effektstørrelser.
Dette betyder, at jo større denne variation i effektstørrelser (ellers kendt som heterogenitet), jo større er un- vægtning og dette kan nå et punkt, hvor meta-analyseresultatet med tilfældige effekter simpelthen bliver den uvægtede gennemsnitlige effektstørrelse på tværs af undersøgelserne. På den anden ekstreme måde, når alle effektstørrelser er ens (eller variabiliteten ikke overstiger prøveudtagningsfejl), anvendes der ikke REVC, og meta-analyse med tilfældige effekter er standard til blot en fast effekt-metaanalyse (kun invers variansvægtning). p>
Omfanget af denne tilbageførsel afhænger udelukkende af to faktorer:
- Heterogenitet af præcision
- Heterogenitet af effektstørrelse
a ingen af disse faktorer automatisk indikerer en defekt større undersøgelse eller mere pålidelige mindre undersøgelser, vil fordelingen af vægte under denne model ikke have et forhold til, hvad disse undersøgelser faktisk kan tilbyde. Faktisk er det blevet påvist, at omfordeling af vægte simpelthen er i en retning fra større til mindre undersøgelser, da heterogenitet øges, indtil alle studier til sidst har samme vægt, og det er ikke muligt at omfordele mere. Et andet problem med modellen med tilfældige effekter er, at den mest almindeligt anvendte konfidensintervaller bevarer generelt ikke deres dæknings sandsynlighed over det specificerede nominelle niveau og undervurderer således den statistiske fejl i det væsentlige og er potentielt overbevisende i deres konklusioner. Flere rettelser er blevet foreslået, men debatten fortsætter.En yderligere bekymring er, at den gennemsnitlige behandlingseffekt undertiden kan være endnu mindre konservativ sammenlignet med modellen med fast effekt og derfor vildledende i praksis. En fortolkningsløsning, der er blevet foreslået, er at skabe et forudsigelsesinterval omkring estimatet af tilfældige effekter for at skildre rækkevidden af mulige effekter i praksis. En antagelse bag beregningen af et sådant forudsigelsesinterval er imidlertid, at forsøg betragtes som mere eller mindre homogene enheder, og at inkluderede patientpopulationer og komparatorbehandlinger bør betragtes som udskiftelige, og dette er normalt uopnåeligt i praksis.
den mest anvendte metode til at estimere forskel mellem studier (REVC) er DerSimonian-Laird (DL) tilgang. Adskillige avancerede iterative (og beregningsmæssigt dyre) teknikker til beregning af forskellen mellem studier findes (såsom maksimal sandsynlighed, profil sandsynlighed og begrænsede maksimale sandsynlighedsmetoder), og modeller med tilfældige effekter ved hjælp af disse metoder kan køres i Stata med metaan-kommandoen. Metaan-kommandoen skal skelnes fra den klassiske metan-kommando (enkelt “a”) i Stata, der bruger DL-estimatoren. Disse avancerede metoder er også implementeret i en gratis og nem at bruge Microsoft Excel-tilføjelse, MetaEasy. En sammenligning mellem disse avancerede metoder og DL-metoden til beregning af forskellen mellem studier viste imidlertid, at der er lidt at vinde, og DL er ret tilstrækkelig i de fleste scenarier.
De fleste metaanalyser inkluderer dog mellem 2 og 4 undersøgelser og en sådan prøve er oftere end ikke utilstrækkelig til nøjagtigt at estimere heterogenitet. Således ser det ud til, at der i små metaanalyser opnås et forkert nul mellem studiens variansestimat, hvilket fører til en falsk antagelse om homogenitet. Samlet set ser det ud til, at heterogenitet konsekvent undervurderes i metaanalyser og følsomhedsanalyser, hvor høje heterogenitetsniveauer antages kunne være informative. Disse tilfældige effekter-modeller og softwarepakker, der er nævnt ovenfor, vedrører undersøgelsesaggregerede metaanalyser, og forskere, der ønsker at udføre individuelle patientdata (IPD) metaanalyser, skal overveje modelleringsmetoder med blandede effekter.
IVhet modelEdit
Doi & Barendregt, der arbejder i samarbejde med Khan, Thalib og Williams (fra University of Queensland, University of Southern Queensland og Kuwait University), har skabt en omvendt varians kvasi-sandsynlighedsbaseret alternativ (IVhet) til tilfældige effekter (RE) -modellen, som detaljer er tilgængelige online for. Dette blev indarbejdet i MetaXL version 2.0, et gratis Microsoft excel-tilføjelsesprogram til metaanalyse produceret af Epigear International Pty Ltd, og gjort tilgængeligt den 5. april 2014. Forfatterne siger, at en klar fordel ved denne model er, at den løser de to hovedproblemer i tilfældige effekter-modellen. Den første fordel ved IVhet-modellen er, at dækningen forbliver på det nominelle (normalt 95%) niveau for konfidensintervallet i modsætning til den tilfældige effektmodel, der falder i dækning med stigende heterogenitet. Den anden fordel er, at IVhet-modellen opretholder de inverse variansvægte ved individuelle studier, i modsætning til RE-modellen, som giver mindre studier mere vægt (og derfor større studier mindre) med stigende heterogenitet. Når heterogenitet bliver stor, bliver de individuelle undersøgelsesvægte under RE-modellen lige, og RE returnerer således et aritmetisk gennemsnit snarere end et vægtet gennemsnit. Denne bivirkning af RE-modellen forekommer ikke med IVhet-modellen, som således adskiller sig fra RE-modelestimatet i to perspektiver: Samlede skøn vil favorisere større forsøg (i modsætning til at straffe større forsøg i RE-modellen) og vil have en tillid interval, der forbliver inden for den nominelle dækning under usikkerhed (heterogenitet). Doi & Barendregt antyder, at mens RE-modellen giver en alternativ metode til at samle undersøgelsesdataene, viser deres simuleringsresultater, at brug af en mere specificeret sandsynlighedsmodel med uholdbare antagelser, som med RE-modellen , giver ikke nødvendigvis bedre resultater. Sidstnævnte undersøgelse rapporterer også, at IVhet-modellen løser problemerne i forbindelse med undervurdering af den statistiske fejl, dårlig dækning af konfidensintervallet og øget MSE set med modellen for tilfældige effekter, og forfatterne konkluderer, at forskere fremover skal opgive brugen af modellen med tilfældige effekter i metaanalyse. Mens deres data er overbevisende, er konsekvenserne (med hensyn til omfanget af falske positive resultater inden for Cochrane-databasen) enorme, og det kræver derfor omhyggelig uafhængig bekræftelse at acceptere denne konklusion. Tilgængeligheden af en gratis software (MetaXL), der kører IVhet-modellen (og alle andre modeller til sammenligning) letter dette for forskningsmiljøet.
Direkte dokumentation: Modeller, der indeholder yderligere information Rediger
Kvalitetseffektmodel Rediger
Doi og Thalib introducerede oprindeligt kvalitetseffektmodellen. De introducerede en ny tilgang til justering for interstudievariabilitet ved at inkorporere variansbidrag på grund af en relevant komponent (kvalitet) ud over variansbidraget på grund af tilfældig fejl, der bruges i en hvilken som helst meta-analysemodel med faste effekter til at generere vægte for hver undersøgelse. Styrken ved meta-analyse af kvalitetseffekter er, at den gør det muligt at anvende tilgængelig metodologisk dokumentation over subjektive tilfældige effekter og derved hjælper med at lukke det skadelige hul, der er åbnet mellem metode og statistik i klinisk forskning. For at gøre dette beregnes en syntetisk biasvarians baseret på kvalitetsinformation for at justere inverse variansvægte, og den kvalitetsjusterede vægt af ith-undersøgelsen introduceres. Disse justerede vægte anvendes derefter i metaanalyse. Med andre ord, hvis undersøgelse i er af god kvalitet, og andre undersøgelser er af dårlig kvalitet, fordeles en del af deres kvalitetsjusterede vægte matematisk til undersøgelse I, der giver den mere vægt i forhold til den samlede effektstørrelse. Da undersøgelser bliver mere og mere ens med hensyn til kvalitet, bliver omfordeling gradvist mindre og ophører, når alle undersøgelser er af samme kvalitet (i tilfælde af lige kvalitet er modellen med kvalitetseffekter som standard IVhet-modellen – se forrige afsnit). En nylig evaluering af kvalitetseffektmodellen (med nogle opdateringer) viser, at på trods af subjektivitetsgraden for kvalitetsvurdering er ydeevnen (MSE og ægte varians under simulering) bedre end den opnåelige med modellen for tilfældige effekter. Denne model erstatter således de uholdbare fortolkninger, der findes i litteraturen, og der findes en software til at udforske denne metode yderligere.
Indirekte beviser: Netværksmetaanalysemetoder Rediger
En netværksmetaanalyse ser på indirekte sammenligninger. På billedet er A blevet analyseret i forhold til C, og C er blevet analyseret i forhold til b. Forholdet mellem A og B er kun kendt indirekte, og en netværksmetaanalyse ser på sådanne indirekte beviser for forskelle mellem metoder og interventioner ved hjælp af statistisk metode.
Indirekte sammenligning Metaanalysemetoder (også kaldet netværksmetaanalyser, især når flere behandlinger vurderes samtidigt) bruger generelt to hovedmetoder. For det første er Bucher-metoden, som er en enkelt eller gentagen sammenligning af en lukket sløjfe af tre-behandlinger, således at en af dem er fælles for de to undersøgelser og danner noden, hvor sløjfen begynder og slutter. Derfor er der behov for flere to-to-to-sammenligninger (3-behandlingssløjfer) for at sammenligne flere behandlinger. Denne metode kræver, at forsøg med mere end to arme kun har to arme, da der kræves uafhængige parvise sammenligninger. Den alternative metode bruger kompleks statistisk modellering til at inkludere flere armforsøg og sammenligninger samtidigt mellem alle konkurrerende behandlinger. Disse er blevet udført ved hjælp af Bayesian-metoder, blandede lineære modeller og meta-regressionsmetoder.
Bayesian frameworkEdit
Angivelse af en Bayesian-meta-analysemodel involverer skrivning af en rettet acyklisk graf (DAG) model til almindelig Markov-kæde Monte Carlo (MCMC) -software såsom WinBUGS. Derudover skal tidligere distributioner specificeres for et antal af parametrene, og dataene skal leveres i et specifikt format. Sammen udgør DAG, prior og data en Bayesisk hierarkisk model. For at komplicere forholdene yderligere skal der på grund af karakteren af MCMC-estimering vælges overdispergerede startværdier til et antal uafhængige kæder, så konvergens kan vurderes. I øjeblikket er der ingen software, der automatisk genererer sådanne modeller, selvom der er nogle værktøjer, der kan hjælpe i processen. Kompleksiteten i den bayesiske tilgang har begrænset anvendelse af denne metode. Metode til automatisering af denne metode er blevet foreslået, men kræver, at der foreligger data om armniveau, og dette er normalt ikke tilgængeligt. Nogle gange fremsættes der store påstande om den bayesiske rammes iboende evne til at håndtere netværksmetaanalyse og dens større fleksibilitet. Imidlertid kan dette valg af implementering af framework for inference, Bayesian eller frequentist, være mindre vigtigt end andre valg vedrørende modellering af effekter (se diskussion om modeller ovenfor).
Frequentist multivariate frameworkEdit
På den anden side involverer de hyppige multivariate metoder tilnærmelser og antagelser, der ikke udtrykkeligt eller verificeres, når metoderne anvendes (se diskussion om metaanalysemodeller ovenfor). For eksempel muliggør mvmeta-pakken til Stata netværksmetaanalyse i en hyppig ramme.Men hvis der ikke er nogen fælles komparator i netværket, skal dette håndteres ved at udvide datasættet med fiktive arme med høj varians, hvilket ikke er særlig objektivt og kræver en beslutning om, hvad der udgør en tilstrækkelig høj varians. Det andet spørgsmål er brugen af modellen for tilfældige effekter i både denne hyppige ramme og den bayesiske ramme. Senn råder analytikere til at være forsigtige med at fortolke “tilfældige effekter” -analysen, da kun en tilfældig effekt er tilladt, men man kunne forestille sig mange. Senn fortsætter med at sige, at det er ret naivt, selv i det tilfælde, hvor kun to behandlinger sammenlignes, idet han antager, at analyse af tilfældige effekter tegner sig for al usikkerhed om, hvordan effekter kan variere fra forsøg til forsøg. Nyere modeller af metaanalyse som dem, der er diskuteret ovenfor, vil helt sikkert hjælpe med at lindre denne situation og er blevet implementeret i den næste ramme.
Generaliseret parvis modelleringsramme Rediger
En tilgang, der er blevet prøvet siden slutningen af 1990erne er implementeringen af den multiple tre-behandlede lukkede sløjfe-analyse. Dette har ikke været populært, fordi processen hurtigt bliver overvældende, når netværkets kompleksitet øges. Udviklingen i dette område blev derefter opgivet til fordel for de bayesiske og multivariate hyppige metoder, der opstod som alternativer. For nylig er automatisering af metoden med tre behandlings lukkede kredsløb blevet udviklet til komplekse netværk af nogle forskere som en måde at gøre denne metode tilgængelig for det almindelige forskningsmiljø. Dette forslag begrænser hvert forsøg til to interventioner, men introducerer også en løsning til flere armforsøg: en anden fast kontrolknude kan vælges i forskellige kørsler. Det bruger også robuste metaanalysemetoder, så mange af de ovennævnte problemer undgås. Yderligere forskning omkring denne ramme er påkrævet for at afgøre, om dette faktisk er bedre end de bayesiske eller multivariate hyppige rammer. Forskere, der er villige til at prøve dette, har adgang til denne ramme via en gratis software.
Skræddersyet meta-analyseEdit
En anden form for yderligere information kommer fra den tilsigtede indstilling. Hvis målindstillingen til anvendelse af metaanalyseresultaterne er kendt, kan det være muligt at bruge data fra indstillingen til at skræddersy resultaterne og derved frembringe en “skræddersyet metaanalyse”. Dette er blevet brugt til testnøjagtighedsmetaanalyser, hvor empirisk viden om testens positive hastighed og prævalensen er blevet brugt til at udlede et område i modtagerens driftskarakteristiske (ROC) rum kendt som en “anvendelig region”. Undersøgelser vælges derefter til målindstillingen baseret på sammenligning med denne region og aggregeres for at producere et resumeoverslag, der er skræddersyet til målindstillingen.
Aggregerende IPD og ADEdit
Metaanalyse kan også anvendes til at kombinere IPD og AD. Dette er praktisk, når forskerne, der foretager analysen, har deres egne rådata, mens de indsamler samlede eller sammenfattende data fra litteraturen. Den generaliserede integrationsmodel (GIM) er en generalisering af metaanalysen. Det tillader, at modellen monteret på de enkelte deltagerdata (IPD) er forskellig fra dem, der bruges til at beregne de samlede data (AD). GIM kan ses som en modelkalibreringsmetode til integration af information med mere fleksibilitet.
Validering af meta-analyseresultaterEdit
Meta-analysestimatet repræsenterer et vægtet gennemsnit på tværs af undersøgelser, og når der er er heterogenitet, kan dette resultere i, at det samlede resume ikke er repræsentativt for individuelle studier. Kvalitativ vurdering af de primære undersøgelser ved hjælp af etablerede værktøjer kan afdække potentielle forstyrrelser, men kvantificerer ikke den samlede effekt af disse forspændinger på det samlede resume. Selv om metaanalyseresultatet kunne sammenlignes med en uafhængig potentiel primær undersøgelse, er sådan ekstern validering ofte upraktisk. Dette har ført til udviklingen af metoder, der udnytter en form for leave-one-out krydsvalidering, undertiden benævnt intern-ekstern krydsvalidering (IOCV). Her udelades hver af de k inkluderede studier til gengæld og sammenlignes med det sammenfattende estimat afledt af sammenlægning af de resterende k-1-studier. En generel valideringsstatistik, Vn baseret på IOCV, er blevet udviklet til at måle den statistiske validitet af metaanalyseresultater. For testnøjagtighed og forudsigelse, især når der er multivariate effekter, er andre metoder, der søger at estimere forudsigelsesfejlen, også blevet foreslået.