Metaanalys

ApproachesEdit

I allmänhet kan två typer av bevis särskiljas när man utför en metaanalys: individuella deltagardata (IPD) och aggregerade data (AD ). De sammanlagda uppgifterna kan vara direkta eller indirekta.

AD är vanligare tillgängligt (t.ex. från litteraturen) och representerar vanligtvis sammanfattande uppskattningar såsom oddskvoter eller relativa risker. Detta kan syntetiseras direkt över konceptuellt liknande studier med flera metoder (se nedan). Å andra sidan mäter indirekt aggregerad effekt effekten av två behandlingar som var och en jämfördes mot en liknande kontrollgrupp i en metaanalys. Om exempelvis behandling A och behandling B jämfördes direkt mot placebo i separata metaanalyser kan vi använda dessa två poolade resultat för att få en uppskattning av effekterna av A mot B i en indirekt jämförelse som effekt A mot placebo minus effekt B vs Placebo.

IPD-bevis representerar rådata som samlats in av studiecentren. Denna åtskillnad har väckt behovet av olika metaanalysmetoder när evidenssyntes önskas och har lett till utvecklingen av enstegs- och tvåstegsmetoder. I enstegsmetoder modelleras IPD från alla studier samtidigt samtidigt som man tar hänsyn till gruppering av deltagare i studierna. Tvåstegsmetoder beräknar först sammanfattningsstatistik för AD från varje studie och beräknar sedan övergripande statistik som ett viktat genomsnitt av studiestatistiken. Genom att minska IPD till AD kan tvåstegsmetoder också tillämpas när IPD är tillgänglig; detta gör dem till ett tilltalande val när de utför en metaanalys. Även om man traditionellt tror att enstegs- och tvåstegsmetoder ger liknande resultat, har nyligen genomförda studier visat att de ibland kan leda till olika slutsatser.

Statistiska modeller för aggregerade dataRedigera

Direkt bevis: Modeller som endast innehåller studieeffekter Redigera

Fixed effects modelEdit

Den fasta effektmodellen ger ett vägt genomsnitt av en serie studieuppskattningar. Det omvända av uppskattningarna ”varians används ofta som studievikt, så att större studier tenderar att bidra mer än mindre studier till det viktade genomsnittet. Följaktligen, när studier inom en metaanalys domineras av en mycket stor studie, är resultaten från mindre studier ignoreras praktiskt taget. Viktigast av allt antar modellen med fasta effekter att alla inkluderade studier undersöker samma population, använder samma variabel och utfallsdefinitioner etc. Detta antagande är vanligtvis orealistiskt eftersom forskning ofta är benägen för flera källor till heterogenitet, t.ex. behandlingseffekter kan variera beroende på lokal, dosnivåer, studieförhållanden, …

Random effects modelEdit

En vanlig modell som används för att syntetisera heterogen forskning är den slumpmässiga effektmodellen för meta- Detta är helt enkelt det viktade genomsnittet av effektstorlekarna för en grupp av studier. Den vikt som tillämpas i denna process av vägd medelvärde med en slumpmässig effekt metaanalys är en hämtas i två steg:

  1. Steg 1: Invers variansviktning
  2. Steg 2: Un-viktning av denna inversa variansviktning genom att tillämpa en slumpeffektsvarianskomponent (REVC) som härrör helt enkelt från graden av variation hos effektstorlekarna för de underliggande studierna.

Detta betyder att ju större denna variation i effektstorlekar (annars känd som heterogenitet), desto större är viktning och detta kan nå en punkt när meta-analysresultatet av slumpmässiga effekter helt enkelt blir den ovägda genomsnittliga effektstorleken över studierna. Vid den andra ytterligheten, när alla effektstorlekar är lika (eller variabiliteten inte överstiger samplingsfel), tillämpas ingen REVC och meta-analysens slumpmässiga effekter är standard till en fast meta-analys (endast invers variansviktning). p>

Omvandlingens omfattning är enbart beroende av två faktorer:

  1. Precisionens heterogenitet
  2. Effektstorlekens heterogenitet

Eftersom ingen av dessa faktorer automatiskt indikerar en felaktig större studie eller mer tillförlitliga mindre studier, kommer omfördelningen av vikter enligt denna modell inte att ha något samband med vad dessa studier faktiskt kan erbjuda. Det har visats att omfördelning av vikter helt enkelt är i en riktning från större till mindre studier eftersom heterogenitet ökar tills så småningom alla studier har lika vikt och ingen mer omfördelning är möjlig. En annan fråga med modellen för slumpmässiga effekter är att den vanligaste konfidensintervall behåller i allmänhet inte sin täckningssannolikhet över den angivna nominella nivån och underskattar därmed väsentligt det statistiska felet och är potentiellt övertygade i sina slutsatser. Flera korrigeringar har föreslagits men debatten fortsätter.En annan oro är att den genomsnittliga behandlingseffekten ibland kan vara ännu mindre konservativ jämfört med modellen för fast effekt och därför vilseledande i praktiken. En tolkningslösning som har föreslagits är att skapa ett förutsägningsintervall kring uppskattningen av slumpmässiga effekter för att skildra intervallet av möjliga effekter i praktiken. Ett antagande bakom beräkningen av ett sådant förutsägningsintervall är dock att försök anses vara mer eller mindre homogena enheter och att inkluderade patientpopulationer och komparatorbehandlingar bör betraktas som utbytbara och detta är vanligtvis ouppnåeligt i praktiken.

den mest använda metoden för att uppskatta mellan studiernas varians (REVC) är metoden DerSimonian-Laird (DL). Flera avancerade iterativa (och beräkningsmässigt dyra) tekniker för beräkning av variationen mellan studier finns (såsom maximal sannolikhet, profilsannolikhet och begränsade maximala sannolikhetsmetoder) och modeller med slumpmässiga effekter som använder dessa metoder kan köras i Stata med metaan-kommandot. Metaan-kommandot måste särskiljas från det klassiska metan-kommandot (en ”a”) i Stata som använder DL-estimatorn. Dessa avancerade metoder har också implementerats i ett gratis och lättanvänt Microsoft Excel-tillägg, MetaEasy. En jämförelse mellan dessa avancerade metoder och DL-metoden för beräkning av variationen mellan studier visade dock att det finns lite att vinna och DL är ganska adekvat i de flesta scenarier.

De flesta metaanalyser inkluderar emellertid mellan 2 och 4 studier och ett sådant prov är oftast inte tillräckligt för att exakt uppskatta heterogenitet. Således verkar det som att i små metaanalyser erhålls en felaktig noll mellan uppskattning av studiens varians, vilket leder till ett falskt antagande om homogenitet. Sammantaget verkar det som om heterogenitet konsekvent underskattas i metaanalyser och känslighetsanalyser där höga heterogenitetsnivåer antas kan vara informativa. Dessa ovannämnda slumpmässiga effektmodeller och mjukvarupaket relaterar till studieaggregerade metaanalyser och forskare som vill genomföra individuella patientdata (IPD) metaanalyser måste överväga modelleringsmetoder för blandade effekter.

IVhet modelEdit

Doi & Barendregt arbetar i samarbete med Khan, Thalib och Williams (från University of Queensland, University of Southern Queensland och Kuwait University), har skapat en omvänd variation quasi likelihood based alternative (IVhet) till random random (RE) -modellen för vilken information finns tillgänglig online. Detta införlivades i MetaXL version 2.0, ett gratis Microsoft excel-tillägg för metaanalys producerat av Epigear International Pty Ltd, och gjordes tillgängligt den 5 april 2014. Författarna säger att en tydlig fördel med denna modell är att den löser de två huvudproblemen i modellen för slumpmässiga effekter. Den första fördelen med IVhet-modellen är att täckningen förblir på den nominella (vanligtvis 95%) nivån för konfidensintervallet till skillnad från den slumpmässiga effektmodellen som minskar i täckning med ökande heterogenitet. Den andra fördelen är att IVhet-modellen upprätthåller de inversa variansvikterna för enskilda studier, till skillnad från RE-modellen som ger små studier mer vikt (och därmed större studier mindre) med ökande heterogenitet. När heterogeniteten blir stor blir de enskilda studievikterna enligt RE-modellen lika och RE-modellen returnerar därmed ett aritmetiskt medelvärde snarare än ett viktat genomsnitt. Denna bieffekt av RE-modellen inträffar inte med IVhet-modellen som således skiljer sig från RE-modelluppskattningen i två perspektiv: Sammanlagda uppskattningar kommer att gynna större försök (i motsats till att straffa större försök i RE-modellen) och kommer att ha ett förtroende intervall som ligger inom den nominella täckningen under osäkerhet (heterogenitet). Doi & Barendregt föreslår att även om RE-modellen ger en alternativ metod för att slå samman studiedata, visar deras simuleringsresultat att man använder en mer specificerad sannolikhetsmodell med ohållbara antaganden, som med RE-modellen , ger inte nödvändigtvis bättre resultat. Den senare studien rapporterar också att IVhet-modellen löser problemen relaterade till underskattning av det statistiska felet, dålig täckning av konfidensintervallet och ökat MSE sett med modellen för slumpmässiga effekter och författarna drar slutsatsen att forskare hädanefter bör överge användningen av modellen för slumpmässiga effekter i metaanalys. Medan deras data är övertygande är förgreningarna (i termer av storleken på falskt positiva resultat inom Cochrane-databasen) enorma och det krävs därför en noggrann oberoende bekräftelse för att acceptera denna slutsats. Tillgången på en fri programvara (MetaXL) som kör IVhet-modellen (och alla andra modeller för jämförelse) underlättar detta för forskarsamhället.

Direkt bevis: Modeller med ytterligare information Redigera

Kvalitetseffektmodell Redigera

Doi och Thalib introducerade ursprungligen kvalitetseffektmodellen. De införde ett nytt tillvägagångssätt för justering för interstudievariabilitet genom att införliva variansbidraget på grund av en relevant komponent (kvalitet) utöver variansbidraget på grund av slumpmässigt fel som används i alla meta-analysmodeller för fasta effekter för att generera vikter för varje studie. Styrkan med kvalitetseffektsmetaanalysen är att den gör det möjligt att använda tillgängliga metodologiska bevis över subjektiva slumpmässiga effekter och därigenom bidra till att minska den skadliga klyftan som har öppnats mellan metodik och statistik i klinisk forskning. För att göra detta beräknas en syntetisk förskjutningsvarians baserat på kvalitetsinformation för att justera inversa variansvikter och den kvalitetsjusterade vikten för denna studie introduceras. Dessa justerade vikter används sedan i metaanalys. Med andra ord, om studie i är av god kvalitet och andra studier är av dålig kvalitet, fördelas en del av deras kvalitetsjusterade vikter matematiskt till studie I som ger den mer vikt mot den totala effektstorleken. Eftersom studier blir mer och mer lika med avseende på kvalitet blir omfördelningen successivt mindre och upphör när alla studier är av samma kvalitet (i fallet med lika kvalitet är kvalitetseffektsmodellen som standard IVhet-modellen – se föregående avsnitt). En nyligen utvärdering av kvalitetseffektmodellen (med vissa uppdateringar) visar att trots kvalitetsbedömningens subjektivitet är prestandan (MSE och sann variation under simulering) överlägsen den som uppnås med modellen för slumpmässiga effekter. Den här modellen ersätter alltså de ohållbara tolkningar som finns i litteraturen och det finns en programvara för att utforska denna metod vidare.

Indirekt bevis: Nätverksmetaanalysmetoder Redigera

En nätverksmetaanalys undersöker indirekta jämförelser. I bilden har A analyserats i förhållande till C och C har analyserats i förhållande till b. Förhållandet mellan A och B är emellertid bara känt indirekt, och en nätverksmetaanalys tittar på sådana indirekta bevis på skillnader mellan metoder och interventioner med hjälp av statistisk metod.

Indirekt jämförelse Metaanalysmetoder (även kallade nätverksmetaanalyser, särskilt när flera behandlingar bedöms samtidigt) använder i allmänhet två huvudmetoder. För det första är Bucher-metoden som är en enstaka eller upprepad jämförelse av en sluten slinga av tre behandlingar så att en av dem är gemensam för de två studierna och bildar noden där slingan börjar och slutar. Därför behövs flera två-för-två-jämförelser (3-behandlingsslingor) för att jämföra flera behandlingar. Denna metod kräver att försök med mer än två armar har två armar endast valda som oberoende parvisa jämförelser krävs. Den alternativa metoden använder komplex statistisk modellering för att inkludera flera armförsök och jämförelser samtidigt mellan alla konkurrerande behandlingar. Dessa har utförts med Bayesian-metoder, blandade linjära modeller och meta-regressionsmetoder.

Bayesian frameworkEdit

Att ange en meta-analysmodell för Bayesian-nätverk innebär att man skriver en riktad acyklisk graf (DAG) modell för allmänt ändamål Markov-kedja Monte Carlo (MCMC) programvara som WinBUGS. Dessutom måste tidigare distributioner specificeras för ett antal parametrar och data måste tillhandahållas i ett specifikt format. Tillsammans bildar DAG, prior och data en Bayesisk hierarkisk modell. För att komplicera saken ytterligare, på grund av karaktären av MCMC-uppskattning, måste överdispergerade startvärden väljas för ett antal oberoende kedjor så att konvergens kan bedömas. För närvarande finns det ingen programvara som automatiskt genererar sådana modeller, även om det finns några verktyg som hjälper till i processen. Komplexiteten i den Bayesiska metoden har begränsad användning av denna metod. Metod för automatisering av denna metod har föreslagits men kräver att resultatdata på armnivå finns tillgängliga, och detta är vanligtvis inte tillgängligt. Ibland görs stora påståenden om den bayesiska ramens inneboende förmåga att hantera nätverksmetaanalys och dess större flexibilitet. Detta val av implementering av ram för inferens, Bayesian eller frequentist, kan dock vara mindre viktigt än andra val när det gäller modellering av effekter (se diskussion om modeller ovan).

Frequentist multivariate frameworkEdit

Å andra sidan involverar de frekventistiska multivariata metoderna approximationer och antaganden som inte uttryckligen anges eller verifieras när metoderna tillämpas (se diskussion om metaanalysmodeller ovan). Till exempel möjliggör mvmetapaketet för Stata nätverksmetaanalys i en frekvent ram.Men om det inte finns någon gemensam jämförare i nätverket, måste detta hanteras genom att förstärka datasetet med fiktiva armar med hög varians, vilket inte är särskilt objektivt och kräver ett beslut om vad som utgör en tillräckligt hög varians. Den andra frågan är användningen av modellen för slumpmässiga effekter i både detta frekventistiska ramverk och det Bayesiska ramverket. Senn råder analytiker att vara försiktiga med att tolka ”slumpmässiga effekter” -analysen, eftersom endast en slumpmässig effekt är tillåten men man kan tänka sig många. Senn fortsätter med att säga att det är ganska naivt, även i fallet där endast två behandlingar jämförs för att anta att analys av slumpmässiga effekter står för all osäkerhet om hur effekterna kan variera från försök till prövning. Nyare modeller av metaanalys som de som diskuterats ovan skulle säkert hjälpa till att lindra denna situation och har implementerats i nästa ramverk.

Allmänt parvis modelleringsramverk Redigera

En metod som har prövats sedan slutet av 1990-talet är genomförandet av multipel tre-behandling sluten slinga analys. Detta har inte varit populärt eftersom processen snabbt blir överväldigande när nätverkets komplexitet ökar. Utvecklingen inom detta område övergavs sedan till förmån för de bayesiska och multivariata frekventistiska metoderna som framkom som alternativ. Mycket nyligen har automatisering av metoden för trebehandlad sluten slinga utvecklats för komplexa nätverk av vissa forskare som ett sätt att göra denna metod tillgänglig för det vanliga forskarsamhället. Detta förslag begränsar varje försök till två interventioner, men introducerar också en lösning för flera armförsök: en annan fast kontrollnod kan väljas i olika körningar. Det använder också robusta metaanalysmetoder så att många av problemen som markeras ovan undviks. Ytterligare forskning kring detta ramverk krävs för att avgöra om detta verkligen är överlägset de Bayesiska eller multivariata frekvensistiska ramarna. Forskare som är villiga att testa detta har tillgång till detta ramverk via en fri programvara.

Skräddarsydd metaanalysRedigera

En annan form av ytterligare information kommer från den avsedda inställningen. Om målinställningen för att tillämpa metaanalysresultaten är känd kan det vara möjligt att använda data från inställningen för att skräddarsy resultaten och därigenom producera en ”skräddarsydd metaanalys”. Detta har använts i testnoggrannhetsmetaanalyser, där empirisk kunskap om testets positiva frekvens och prevalensen har använts för att härleda ett område i mottagardriftkarakteristiskt (ROC) utrymme som kallas ett ”tillämpligt område”. Studier väljs sedan för målinställningen baserat på jämförelse med denna region och aggregeras för att producera en sammanfattande uppskattning som är anpassad till målinställningen.

Aggregerande IPD och ADEdit

Metaanalys kan också användas för att kombinera IPD och AD. Detta är praktiskt när forskarna som genomför analysen har sina egna rådata medan de samlar sammanlagda eller sammanfattande data från litteraturen. Den generaliserade integrationsmodellen (GIM) är en generalisering av metaanalysen. Det gör att modellen som är monterad på de enskilda deltagardata (IPD) skiljer sig från den som används för att beräkna den sammanlagda informationen (AD). GIM kan ses som en modellkalibreringsmetod för att integrera information med mer flexibilitet.

Validering av metaanalysresultatRedigera

Metaanalysuppskattningen representerar ett viktat genomsnitt för studier och när det finns är heterogenitet kan detta resultera i att den sammanfattande uppskattningen inte är representativ för enskilda studier. Kvalitativ bedömning av de primära studierna med etablerade verktyg kan avslöja potentiella fördomar, men kvantifierar inte den sammanlagda effekten av dessa förspänningar på den sammanfattande uppskattningen. Även om metaanalysresultatet kunde jämföras med en oberoende prospektiv primärstudie är sådan extern validering ofta opraktisk. Detta har lett till utvecklingen av metoder som utnyttjar en form av uteslutningskorsvalidering, ibland kallad intern-extern korsvalidering (IOCV). Här utelämnas var och en av de k inkluderade studierna och jämförs med den sammanfattande uppskattningen härrörande från aggregering av de återstående k-1-studierna. En allmän valideringsstatistik, Vn baserad på IOCV, har utvecklats för att mäta den statistiska validiteten för metaanalysresultaten. För testnoggrannhet och förutsägelse, särskilt när det finns multivariata effekter, har andra tillvägagångssätt som syftar till att uppskatta förutsägelsefelet också föreslagits.

Lämna ett svar

Din e-postadress kommer inte publiceras. Obligatoriska fält är märkta *