Metaanalyse (Norsk)

ApproachesEdit

Generelt kan man skille mellom to typer bevis når man utfører en metaanalyse: individuelle deltakerdata (IPD) og samlede data (AD ). De samlede dataene kan være direkte eller indirekte.

AD er mer tilgjengelig (f.eks. Fra litteraturen) og representerer vanligvis sammendragsestimater som oddsforhold eller relative risikoer. Dette kan syntetiseres direkte på tvers av konseptuelt lignende studier ved hjelp av flere tilnærminger (se nedenfor). På den annen side måler indirekte samlede data effekten av to behandlinger som hver ble sammenlignet mot en lignende kontrollgruppe i en metaanalyse. For eksempel, hvis behandling A og behandling B ble direkte sammenlignet mot placebo i separate metaanalyser, kan vi bruke disse to samlede resultatene for å få et estimat av effekten av A vs B i en indirekte sammenligning som effekt A vs Placebo minus effekt B vs Placebo.

IPD-bevis representerer rådata som er samlet inn av studiesentrene. Dette skillet har økt behovet for forskjellige metaanalytiske metoder når bevisssyntese er ønsket, og har ført til utviklingen av ett-trinns og to-trinns metoder. I en-trinnsmetoder modelleres IPD fra alle studier samtidig mens den tar høyde for grupperingen av deltakere i studiene. To-trinns metoder beregner først sammendragsstatistikk for AD fra hver studie, og beregner deretter samlet statistikk som et veid gjennomsnitt av studiestatistikken. Ved å redusere IPD til AD, kan to-trinns metoder også brukes når IPD er tilgjengelig; dette gjør dem til et tiltalende valg når de utfører en metaanalyse. Selv om det konvensjonelt antas at en-trinns og to-trinns metoder gir lignende resultater, har nylige studier vist at de noen ganger kan føre til forskjellige konklusjoner.

Statistiske modeller for samlede data Rediger

Direkte bevis: Modeller som bare inneholder studieeffekter Rediger

Faste effekter-modell Rediger

Den faste effekten modellen gir et vektet gjennomsnitt av en serie studieestimater. Omvendt av estimatene «varians brukes ofte som studievekt, slik at større studier har en tendens til å bidra mer enn mindre studier til det vektede gjennomsnittet. Følgelig, når studier innen en metaanalyse er dominert av en veldig stor studie, blir funnene fra mindre studier blir praktisk talt ignorert. Viktigst av alt, modellen for faste effekter forutsetter at alle inkluderte studier undersøker den samme populasjonen, bruker samme variabel og utfallsdefinisjoner, etc. Denne antagelsen er vanligvis urealistisk da forskning ofte er utsatt for flere kilder til heterogenitet, f.eks. behandlingseffekter kan variere avhengig av lokalitet, doseringsnivå, studieforhold, …

Random effects modelEdit

En vanlig modell som brukes til å syntetisere heterogen forskning er modellen for random effekter av meta- Dette er ganske enkelt det vektede gjennomsnittet av effektstørrelsene til en gruppe studier. Vekten som brukes i denne prosessen med vektet gjennomsnitt med en tilfeldig effekt metaanalyse er en hentet i to trinn:

  1. Trinn 1: Invers variansvekting
  2. Trinn 2: Unvekting av denne inverse variansvektingen ved å bruke en tilfeldig effektvariansekomponent (REVC) som er ganske enkelt avledet fra omfanget av variabilitet av effektstørrelsene til de underliggende studiene.

Dette betyr at jo større denne variabiliteten i effektstørrelser (ellers kjent som heterogenitet), jo større er un- vekting og dette kan nå et punkt når meta-analyseresultatet for tilfeldige effekter ganske enkelt blir den uveide gjennomsnittlige effektstørrelsen på tvers av studiene. På den andre ekstremen, når alle effektstørrelser er like (eller variasjonen ikke overstiger prøvetakingsfeilen), blir ingen REVC brukt, og meta-analyse for tilfeldige effekter er standard til bare en fast effekt-metaanalyse (bare invers variansvekting). p>

Omfanget av denne reverseringen er utelukkende avhengig av to faktorer:

  1. Heterogenitet av presisjon
  2. Heterogenitet av effektstørrelse

iden ingen av disse faktorene automatisk indikerer en feil med større studier eller mer pålitelige mindre studier, vil ikke fordelingen av vekter under denne modellen ikke ha noe forhold til hva disse studiene faktisk kan tilby. Det er faktisk vist at omfordeling av vekter rett og slett er i en retning fra større til mindre studier ettersom heterogeniteten øker til til slutt alle studier har like vekt og ikke mer omfordeling er mulig. Et annet problem med modellen for tilfeldige effekter er at den mest brukte konfidensintervaller beholder vanligvis ikke dekningssannsynligheten over det angitte nominelle nivået og undervurderer dermed den statistiske feilen vesentlig og er potensielt selvsikker i sine konklusjoner. Flere løsninger er blitt foreslått, men debatten fortsetter.En annen bekymring er at den gjennomsnittlige behandlingseffekten noen ganger kan være enda mindre konservativ sammenlignet med modellen for fast effekt og derfor misvisende i praksis. En tolkningskorrigering som er blitt foreslått er å lage et prediksjonsintervall rundt estimatet for tilfeldige effekter for å skildre rekkevidden av mulige effekter i praksis. Imidlertid er en antagelse bak beregningen av et slikt prediksjonsintervall at studier blir ansett som mer eller mindre homogene enheter, og at inkluderte pasientpopulasjoner og komparatorbehandlinger bør anses utvekslingsbare, og dette er vanligvis uoppnåelig i praksis.

den mest brukte metoden for å estimere variansen mellom studier (REVC) er DerSimonian-Laird (DL) tilnærming. Flere avanserte iterative (og beregningsmessig dyre) teknikker for beregning av variansen mellom studier eksisterer (som maksimal sannsynlighet, profil sannsynlighet og begrenset maksimal sannsynlighet metoder) og tilfeldige effekter modeller ved hjelp av disse metodene kan kjøres i Stata med metaan kommandoen. Metaan-kommandoen må skille seg fra den klassiske metan-kommandoen (enkelt «a») i Stata som bruker DL-estimatoren. Disse avanserte metodene er også implementert i et gratis og brukervennlig Microsoft Excel-tillegg, MetaEasy. En sammenligning mellom disse avanserte metodene og DL-metoden for beregning av avviket mellom studier viste imidlertid at det er lite å hente, og DL er ganske tilstrekkelig i de fleste scenarier.

De fleste metaanalyser inkluderer imidlertid mellom 2 og 4 studier og en slik prøve er oftere enn ikke tilstrekkelig til å estimere heterogenitet nøyaktig. Dermed ser det ut til at i små metaanalyser oppnås et feil null mellom estimat for avvik fra studien, noe som fører til en falsk antagelse om homogenitet. Samlet ser det ut til at heterogenitet konsekvent blir undervurdert i metaanalyser og sensitivitetsanalyser der høy heterogenitetsnivå antas kunne være informativ. Disse tilfeldige effektmodellene og programvarepakkene som er nevnt ovenfor, er relatert til studieaggregerte metaanalyser, og forskere som ønsker å utføre individuelle pasientdata (IPD) metaanalyser må vurdere modelleringsmetoder for blandede effekter.

IVhet modelEdit

Doi & Barendregt som jobber i samarbeid med Khan, Thalib og Williams (fra University of Queensland, University of Southern Queensland og Kuwait University), har skapt en omvendt varians kvasi-sannsynlighetsbasert alternativ (IVhet) til random effects (RE) -modellen som detaljer er tilgjengelig online. Dette ble innlemmet i MetaXL versjon 2.0, et gratis Microsoft excel-tillegg for metaanalyse produsert av Epigear International Pty Ltd, og gjort tilgjengelig 5. april 2014. Forfatterne uttaler at en klar fordel med denne modellen er at den løser de to hovedproblemer i modellen for tilfeldige effekter. Den første fordelen med IVhet-modellen er at dekningen forblir på det nominelle (vanligvis 95%) nivået for konfidensintervallet i motsetning til modellen for tilfeldige effekter som faller i dekning med økende heterogenitet. Den andre fordelen er at IVhet-modellen opprettholder de inverse variasjonsvektene til individuelle studier, i motsetning til RE-modellen som gir små studier mer vekt (og derfor større studier mindre) med økende heterogenitet. Når heterogenitet blir stor, blir de individuelle studievektene under RE-modellen like, og dermed returnerer RE-modellen et aritmetisk gjennomsnitt snarere enn et vektet gjennomsnitt. Denne bivirkningen av RE-modellen forekommer ikke med IVhet-modellen som således skiller seg fra RE-modellestimatet i to perspektiver: Samlede estimater vil favorisere større studier (i motsetning til å straffe større studier i RE-modellen) og vil ha tillit intervall som holder seg innenfor den nominelle dekningen under usikkerhet (heterogenitet). Doi & Barendregt antyder at mens RE-modellen gir en alternativ metode for å samle studiedataene, viser deres simuleringsresultater at bruk av en mer spesifisert sannsynlighetsmodell med uholdbare forutsetninger, som med RE-modellen , gir ikke nødvendigvis bedre resultater. Sistnevnte studie rapporterer også at IVhet-modellen løser problemene knyttet til undervurdering av den statistiske feilen, dårlig dekning av konfidensintervallet og økt MSE sett med modellen for tilfeldige effekter, og forfatterne konkluderer med at forskere heretter bør forlate bruken av modellen for tilfeldige effekter i metaanalyse. Mens dataene deres er overbevisende, er konsekvensene (når det gjelder omfanget av falske positive resultater i Cochrane-databasen) enorme, og det krever derfor nøye uavhengig bekreftelse å akseptere denne konklusjonen. Tilgjengeligheten av en gratis programvare (MetaXL) som kjører IVhet-modellen (og alle andre modeller for sammenligning) letter dette for forskningsmiljøet.

Direkte bevis: Modeller som inneholder tilleggsinformasjon Rediger

Kvalitetseffektmodell Rediger

Doi og Thalib introduserte opprinnelig kvalitetseffektmodellen. De introduserte en ny tilnærming til justering for variabilitet mellom studier ved å innlemme variansens bidrag på grunn av en relevant komponent (kvalitet) i tillegg til bidraget til varians på grunn av tilfeldig feil som brukes i en hvilken som helst meta-analysemodell for faste effekter for å generere vekter for hver studie. Styrken med kvalitetseffektmetaanalysen er at den gjør det mulig å bruke tilgjengelig metodisk bevis over subjektive tilfeldige effekter, og derved bidra til å lukke det skadelige gapet som har åpnet seg mellom metodikk og statistikk i klinisk forskning. For å gjøre dette beregnes en syntetisk biasvarians basert på kvalitetsinformasjon for å justere inverse variansvekter og den kvalitetsjusterte vekten til studien blir introdusert. Disse justerte vektene blir deretter brukt i metaanalyse. Med andre ord, hvis studie i er av god kvalitet og andre studier er av dårlig kvalitet, blir en andel av deres kvalitetsjusterte vekter matematisk omfordelt til studie I som gir den mer vekt mot den samlede effektstørrelsen. Etter hvert som studier blir mer og mer like når det gjelder kvalitet, blir distribusjon gradvis mindre og opphører når alle studier er av samme kvalitet (når det gjelder like kvalitet, er standard for kvalitetseffekter IVhet-modellen – se forrige avsnitt). En nylig evaluering av kvalitetseffektmodellen (med noen oppdateringer) viser at til tross for subjektivitetsgraden for kvalitetsvurdering, er ytelsen (MSE og sann varians under simulering) bedre enn den som er oppnåelig med modellen for tilfeldige effekter. Denne modellen erstatter dermed de uholdbare tolkningene som finnes i litteraturen, og en programvare er tilgjengelig for å utforske denne metoden videre.

Indirekte bevis: Nettverksmetaanalysemetoder Rediger

En nettverksmetaanalyse ser på indirekte sammenligninger. På bildet er A analysert i forhold til C og C er analysert i forhold til b. Forholdet mellom A og B er imidlertid bare kjent indirekte, og en nettverksmetaanalyse ser på slike indirekte bevis på forskjeller mellom metoder og intervensjoner ved hjelp av statistisk metode.

Indirekte sammenligning metaanalysemetoder (også kalt nettverksmetaanalyser, spesielt når flere behandlinger vurderes samtidig) bruker vanligvis to hovedmetoder. For det første er Bucher-metoden som er en enkelt eller gjentatt sammenligning av en lukket sløyfe av tre-behandlinger slik at en av dem er vanlig for de to studiene og danner noden der sløyfen begynner og slutter. Derfor er det nødvendig med flere to-to-to-sammenligninger (3-behandlingssløyfer) for å sammenligne flere behandlinger. Denne metoden krever at studier med mer enn to armer har to armer bare valgt som uavhengige parvise sammenligninger er påkrevd. Den alternative metoden bruker kompleks statistisk modellering for å inkludere flere armforsøk og sammenligninger samtidig mellom alle konkurrerende behandlinger. Disse har blitt utført ved bruk av Bayesian-metoder, blandede lineære modeller og meta-regresjonsmetoder.

Bayesian frameworkEdit

Spesifisering av en meta-analysemodell for Bayesian nettverk innebærer å skrive en rettet asyklisk graf (DAG) modell for generell Markov-kjede Monte Carlo (MCMC) programvare som WinBUGS. I tillegg må tidligere distribusjoner spesifiseres for et antall parametere, og dataene må leveres i et bestemt format. Sammen utgjør DAG, prior og data en bayesisk hierarkisk modell. For å komplisere saken ytterligere, på grunn av karakteren av MCMC-estimering, må overdispergerte startverdier velges for et antall uavhengige kjeder, slik at konvergens kan vurderes. Foreløpig er det ingen programvare som automatisk genererer slike modeller, selv om det er noen verktøy for å hjelpe i prosessen. Kompleksiteten i den Bayesiske tilnærmingen har begrenset bruk av denne metoden. Metodikk for automatisering av denne metoden har blitt foreslått, men krever at resultatdata på armnivå er tilgjengelige, og dette er vanligvis utilgjengelig. Noen ganger blir det gjort store påstander om den bayesiske rammeverkets iboende evne til å håndtere nettverksmetaanalyse og større fleksibilitet. Imidlertid kan dette valget av implementering av rammeverk for inferens, Bayesian eller frequentist, være mindre viktig enn andre valg angående modellering av effekter (se diskusjon om modeller ovenfor).

Frequentist multivariate frameworkEdit

På den annen side involverer de hyppige multivariate metodene tilnærminger og antagelser som ikke er eksplisitt eller verifisert når metodene brukes (se diskusjon om metaanalysemodeller ovenfor). For eksempel muliggjør mvmeta-pakken for Stata nettverksmetaanalyse i en hyppig ramme.Imidlertid, hvis det ikke er noen vanlig komparator i nettverket, må dette håndteres ved å utvide datasettet med fiktive armer med høy varians, noe som ikke er veldig objektivt og krever en beslutning om hva som utgjør en tilstrekkelig høy varians. Det andre problemet er bruk av modellen for tilfeldige effekter i både dette hyppige rammeverket og det Bayesiske rammeverket. Senn råder analytikere til å være forsiktige med å tolke «tilfeldige effekter» -analysen, siden bare en tilfeldig effekt er tillatt, men man kan se for seg mange. Senn fortsetter med å si at det er ganske naivt, selv i tilfelle hvor bare to behandlinger blir sammenlignet, og antar at analyse av tilfeldige effekter utgjør all usikkerhet rundt hvordan effekten kan variere fra prøve til prøve. Nyere modeller av metaanalyser som de som er diskutert ovenfor, vil absolutt bidra til å lindre denne situasjonen og har blitt implementert i neste rammeverk.

Generalisert parvis modellrammeverk Rediger

En tilnærming som er prøvd siden slutten av 1990-tallet er implementeringen av flere trebehandlede lukkede analyser. Dette har ikke vært populært fordi prosessen raskt blir overveldende ettersom nettverkskompleksiteten øker. Utviklingen i dette området ble deretter forlatt til fordel for de bayesiske og multivariate hyppige metodene som dukket opp som alternativer. Svært nylig er automatisering av metoden med tre behandlinger med lukket sløyfe utviklet for komplekse nettverk av noen forskere som en måte å gjøre denne metoden tilgjengelig for det vanlige forskningsmiljøet. Dette forslaget begrenser hver prøve til to inngrep, men introduserer også en løsning for flere armforsøk: en annen fast kontrollnode kan velges i forskjellige kjøringer. Den bruker også robuste metaanalysemetoder, slik at mange av problemene som er fremhevet ovenfor unngås. Ytterligere undersøkelser rundt dette rammeverket er nødvendig for å avgjøre om dette virkelig er bedre enn Bayesianske eller multivariate hyppige rammer. Forskere som er villige til å prøve dette, har tilgang til dette rammeverket gjennom en gratis programvare.

Skreddersydd metaanalyseEdit

En annen form for tilleggsinformasjon kommer fra den tiltenkte innstillingen. Hvis målinnstillingen for å anvende metaanalyseresultatene er kjent, kan det være mulig å bruke data fra innstillingen til å skreddersy resultatene og dermed produsere en «skreddersydd metaanalyse»., Dette har blitt brukt i testnøyaktighetsmetaanalyser, der empirisk kunnskap om testens positive frekvens og utbredelse har blitt brukt til å utlede et område i mottakeroperativkarakteristikk (ROC), kjent som en «anvendelig region». Studier blir deretter valgt for målinnstillingen basert på sammenligning med denne regionen og samlet for å produsere et sammendragsestimat som er skreddersydd til målinnstillingen.

Aggregerende IPD og ADEdit

Metaanalyse kan også brukes for å kombinere IPD og AD. Dette er praktisk når forskerne som utfører analysen har sine egne rådata mens de samler inn samlet eller sammendragsdata fra litteraturen. Den generaliserte integrasjonsmodellen (GIM) er en generalisering av metaanalysen. Det tillater at modellen montert på individuelle deltakerdata (IPD) er forskjellig fra den som brukes til å beregne de samlede dataene (AD). GIM kan sees på som en modellkalibreringsmetode for å integrere informasjon med mer fleksibilitet.

Validering av metaanalyseresultaterRediger

Metaanalysestimatet representerer et vektet gjennomsnitt på tvers av studier og når det er heterogenitet, kan dette føre til at det sammendragsberegningen ikke er representativ for individuelle studier. Kvalitativ vurdering av primærstudiene ved bruk av etablerte verktøy kan avdekke potensielle skjevheter, men kvantifiserer ikke den samlede effekten av disse skjevhetene på sammendragsestimatet. Selv om metaanalyseresultatet kunne sammenlignes med en uavhengig potensiell primærstudie, er slik ekstern validering ofte upraktisk. Dette har ført til utvikling av metoder som utnytter en form for permisjon på tvers av validering, noen ganger referert til som intern-ekstern kryssvalidering (IOCV). Her er hver av de inkluderte studiene i sin tur utelatt og sammenlignet med sammendragsestimatet avledet fra aggregering av de gjenværende k-1-studiene. En generell valideringsstatistikk, Vn basert på IOCV, er utviklet for å måle den statistiske gyldigheten av metaanalyseresultater. For testnøyaktighet og prediksjon, spesielt når det er multivariate effekter, er det også foreslått andre tilnærminger som søker å estimere prediksjonsfeilen.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *