Meta-analyse

ApproachesEdit

In het algemeen kunnen twee soorten bewijs worden onderscheiden bij het uitvoeren van een meta-analyse: individuele deelnemersgegevens (IPD) en geaggregeerde gegevens (AD ). De geaggregeerde gegevens kunnen direct of indirect zijn.

AD is algemeen verkrijgbaar (bijv. Uit de literatuur) en vertegenwoordigt doorgaans samenvattende schattingen zoals odds ratios of relatieve risicos. Dit kan direct worden gesynthetiseerd in conceptueel vergelijkbare onderzoeken met behulp van verschillende benaderingen (zie hieronder). Aan de andere kant meten indirecte geaggregeerde gegevens het effect van twee behandelingen die elk werden vergeleken met een vergelijkbare controlegroep in een meta-analyse. Als behandeling A en behandeling B bijvoorbeeld direct vergeleken werden met placebo in afzonderlijke meta-analyses, kunnen we deze twee gepoolde resultaten gebruiken om een schatting te krijgen van de effecten van A versus B in een indirecte vergelijking als effect A versus placebo minus effect B vs Placebo.

IPD-bewijs vertegenwoordigt ruwe gegevens zoals verzameld door de studiecentra. Dit onderscheid heeft de behoefte doen ontstaan aan verschillende meta-analytische methoden wanneer bewijssynthese gewenst is, en heeft geleid tot de ontwikkeling van eentraps- en tweetrapsmethoden. In eentrapsmethoden worden de IPD van alle onderzoeken gelijktijdig gemodelleerd, waarbij rekening wordt gehouden met de clustering van deelnemers binnen onderzoeken. Tweefasige methoden berekenen eerst samenvattende statistieken voor AD van elke studie en berekenen vervolgens de algemene statistieken als een gewogen gemiddelde van de studiestatistieken. Door IPD terug te brengen tot AD, kunnen tweetrapsmethoden ook worden toegepast wanneer IPD beschikbaar is; dit maakt ze een aantrekkelijke keuze bij het uitvoeren van een meta-analyse. Hoewel conventioneel wordt aangenomen dat eentraps- en tweetrapsmethoden vergelijkbare resultaten opleveren, hebben recente studies aangetoond dat ze af en toe tot verschillende conclusies kunnen leiden.

Statistische modellen voor geaggregeerde gegevens Bewerken

Direct bewijs: modellen die alleen studie-effecten bevatten Bewerken

Model met vaste effecten Bewerken

Het vaste-effectmodel geeft een gewogen gemiddelde van een reeks studieschattingen. De inverse van de schattingen “variantie wordt vaak gebruikt als studiegewicht, zodat grotere studies de neiging hebben om meer dan kleinere studies bij te dragen aan het gewogen gemiddelde. Wanneer studies binnen een meta-analyse worden gedomineerd door een zeer grote studie, zullen de bevindingen van kleinere studies worden praktisch genegeerd. Het belangrijkste is dat het fixed effects-model ervan uitgaat dat alle opgenomen studies dezelfde populatie onderzoeken, dezelfde variabele en uitkomstdefinities gebruiken, enz. Deze aanname is typisch onrealistisch omdat onderzoek vaak vatbaar is voor verschillende bronnen van heterogeniteit; behandelingseffecten kunnen verschillen afhankelijk van de locatie, doseringsniveaus, studieomstandigheden, …

Random effects modelEdit

Een algemeen model dat wordt gebruikt om heterogeen onderzoek te synthetiseren is het random effects-model van meta analyse. Dit is gewoon het gewogen gemiddelde van de effectgroottes van een groep onderzoeken. Het gewicht dat wordt toegepast in dit proces van gewogen gemiddelden met een random effects-meta-analyse is een bereikt in twee stappen:

  1. Stap 1: weging van inverse variantie
  2. Stap 2: weging van deze inverse variantie weging door een random effects variance component (REVC) toe te passen die wordt eenvoudigweg afgeleid uit de mate van variabiliteit van de effectgroottes van de onderliggende onderzoeken.

Dit betekent dat hoe groter deze variabiliteit in effectgroottes (ook wel bekend als heterogeniteit), hoe groter het on- weging en dit kan een punt bereiken waarop het resultaat van de meta-analyse van willekeurige effecten eenvoudigweg de niet-gewogen gemiddelde effectgrootte over de onderzoeken wordt. Aan het andere uiterste, wanneer alle effectgroottes vergelijkbaar zijn (of de variabiliteit niet groter is dan de steekproeffout), wordt geen REVC toegepast en wordt de meta-analyse met willekeurige effecten standaard ingesteld op een meta-analyse met vast effect (alleen weging van inverse variantie).

De omvang van deze omkering is uitsluitend afhankelijk van twee factoren:

  1. Heterogeniteit van precisie
  2. Heterogeniteit van effectgrootte

Aangezien geen van deze factoren automatisch een foutieve grotere studie of betrouwbaardere kleinere studies aangeeft, zal de herverdeling van gewichten onder dit model geen verband houden met wat deze studies feitelijk zouden kunnen bieden. Het is inderdaad aangetoond dat herverdeling van gewichten eenvoudigweg in één richting verloopt van grotere naar kleinere onderzoeken naarmate de heterogeniteit toeneemt totdat uiteindelijk alle onderzoeken hetzelfde gewicht hebben en er geen herverdeling meer mogelijk is. Een ander probleem met het random effects-model is dat het meest gebruikte betrouwbaarheidsintervallen behouden over het algemeen hun dekkingskans niet boven het gespecificeerde nominale niveau en onderschatten dus aanzienlijk de statistische fout en zijn mogelijk te zelfverzekerd in hun conclusies. Er zijn verschillende oplossingen voorgesteld, maar het debat gaat door.Een andere zorg is dat het gemiddelde behandelingseffect soms nog minder conservatief kan zijn in vergelijking met het fixed effect-model en daarom misleidend in de praktijk. Een interpretatieve oplossing die is gesuggereerd, is het creëren van een voorspellingsinterval rond de schatting van willekeurige effecten om het bereik van mogelijke effecten in de praktijk weer te geven. Een aanname achter de berekening van een dergelijk voorspellingsinterval is echter dat onderzoeken als min of meer homogene entiteiten worden beschouwd en dat inclusief patiëntenpopulaties en vergelijkende behandelingen als uitwisselbaar moeten worden beschouwd en dit is in de praktijk meestal niet haalbaar.

Het De meest gebruikte methode om de variantie tussen studies te schatten (REVC) is de DerSimonian-Laird (DL) -benadering. Er bestaan verschillende geavanceerde iteratieve (en computationeel dure) technieken voor het berekenen van de variantie tussen studies (zoals maximale waarschijnlijkheid, profielwaarschijnlijkheid en beperkte maximale waarschijnlijkheidsmethoden) en willekeurige effectmodellen die deze methoden gebruiken, kunnen in Stata worden uitgevoerd met het metaan-commando. Het metaan-commando moet worden onderscheiden van het klassieke meta-commando (enkele “a”) in Stata dat de DL-schatter gebruikt. Deze geavanceerde methoden zijn ook geïmplementeerd in een gratis en eenvoudig te gebruiken Microsoft Excel-add-on, MetaEasy. Een vergelijking tussen deze geavanceerde methoden en de DL-methode voor het berekenen van de variantie tussen studies toonde echter aan dat er weinig te winnen valt en dat DL in de meeste scenarios redelijk toereikend is.

De meeste meta-analyses bevatten echter tussen 2 en 4 studies en zon steekproef is vaker wel dan niet onvoldoende om heterogeniteit nauwkeurig te schatten. Het lijkt er dus op dat in kleine meta-analyses een onjuiste nulwaarde tussen de schattingen van de studievariantie wordt verkregen, wat leidt tot een valse homogeniteitsaanname. Over het algemeen lijkt het erop dat heterogeniteit consequent wordt onderschat in meta-analyses en gevoeligheidsanalyses waarin wordt aangenomen dat hoge heterogeniteitsniveaus informatief kunnen zijn. Deze random-effectmodellen en softwarepakketten die hierboven zijn genoemd, hebben betrekking op studie-geaggregeerde meta-analyses en onderzoekers die individuele patiëntgegevens (IPD) meta-analyses willen uitvoeren, moeten modelleringsbenaderingen met gemengde effecten overwegen.

IVhet model / h5>

Doi & Barendregt in samenwerking met Khan, Thalib en Williams (van de University of Queensland, University of Southern Queensland en Kuwait University), hebben een omgekeerde variantie gecreëerd quasi likelihood-based alternatief (IVhet) voor het random effects-model (RE) waarvoor details online beschikbaar zijn. Dit werd opgenomen in MetaXL versie 2.0, een gratis Microsoft Excel-invoegtoepassing voor meta-analyse geproduceerd door Epigear International Pty Ltd, en beschikbaar gesteld op 5 april 2014. De auteurs stellen dat een duidelijk voordeel van dit model is dat het de twee oplost belangrijkste problemen van het random effects-model. Het eerste voordeel van het IVhet-model is dat de dekking op het nominale (meestal 95%) niveau blijft voor het betrouwbaarheidsinterval, in tegenstelling tot het random effects-model dat in dekking daalt met toenemende heterogeniteit. Het tweede voordeel is dat het IVhet-model de inverse variantie-gewichten van individuele studies handhaaft, in tegenstelling tot het RE-model dat kleine studies meer gewicht geeft (en dus grotere studies minder) met toenemende heterogeniteit. Wanneer de heterogeniteit groot wordt, worden de individuele studiegewichten onder het RE-model gelijk en geeft het RE-model dus een rekenkundig gemiddelde in plaats van een gewogen gemiddelde. Deze bijwerking van het RE-model doet zich niet voor bij het IVhet-model, dat dus in twee perspectieven verschilt van de RE-modelschatting: Gepoolde schattingen zullen de voorkeur geven aan grotere onderzoeken (in tegenstelling tot het bestraffen van grotere onderzoeken in het RE-model) en zullen vertrouwen hebben. interval dat binnen de nominale dekking blijft onder onzekerheid (heterogeniteit). Doi & Barendregt suggereert dat, hoewel het RE-model een alternatieve methode biedt om de onderzoeksgegevens te poolen, hun simulatieresultaten aantonen dat het gebruik van een meer gespecificeerd waarschijnlijkheidsmodel met onhoudbare aannames, zoals bij het RE-model , levert niet noodzakelijk betere resultaten op. De laatste studie meldt ook dat het IVhet-model de problemen oplost die verband houden met een onderschatting van de statistische fout, een slechte dekking van het betrouwbaarheidsinterval en een verhoogde MSE die wordt gezien met het random effects-model en de auteurs concluderen dat onderzoekers voortaan het gebruik van het random effects-model moeten staken. in meta-analyse. Hoewel hun gegevens dwingend zijn, zijn de gevolgen (in termen van de omvang van de onechte positieve resultaten binnen de Cochrane-database) enorm en het accepteren van deze conclusie vereist dus een zorgvuldige onafhankelijke bevestiging. De beschikbaarheid van gratis software (MetaXL) die het IVhet-model (en alle andere modellen ter vergelijking) draait, vergemakkelijkt dit voor de onderzoeksgemeenschap.

Direct bewijs: modellen met aanvullende informatie Bewerken

Model voor kwaliteitseffecten Bewerken

Doi en Thalib hebben oorspronkelijk het model voor kwaliteitseffecten geïntroduceerd. Ze introduceerden een nieuwe benadering voor correctie voor variabiliteit tussen studies door de bijdrage van variantie als gevolg van een relevante component (kwaliteit) op te nemen naast de bijdrage van variantie als gevolg van willekeurige fouten die in elk meta-analysemodel met vaste effecten wordt gebruikt om gewichten voor elke studie. De kracht van de meta-analyse van kwaliteitseffecten is dat hiermee beschikbaar methodologisch bewijs kan worden gebruikt in plaats van subjectieve willekeurige effecten, en daarmee helpt het de schadelijke kloof te dichten die is ontstaan tussen methodologie en statistiek in klinisch onderzoek. Om dit te doen wordt een synthetische biasvariantie berekend op basis van kwaliteitsinformatie om inverse variantie-gewichten aan te passen en wordt het voor kwaliteit gecorrigeerde gewicht van de ie studie geïntroduceerd. Deze aangepaste gewichten worden vervolgens gebruikt in meta-analyse. Met andere woorden, als studie i van goede kwaliteit is en andere studies van slechte kwaliteit, wordt een deel van hun voor kwaliteit gecorrigeerde gewichten wiskundig herverdeeld om studie i, waarbij het meer gewicht krijgt in de richting van de totale effectgrootte. Naarmate studies qua kwaliteit steeds meer op elkaar lijken, wordt herverdeling geleidelijk minder en stopt wanneer alle studies van gelijke kwaliteit zijn (in het geval van gelijke kwaliteit gaat het kwaliteitseffectenmodel standaard naar het IVhet-model – zie vorige paragraaf). Een recente evaluatie van het kwaliteitseffectenmodel (met enkele updates) toont aan dat ondanks de subjectiviteit van kwaliteitsbeoordeling, de prestatie (MSE en werkelijke variantie onder simulatie) superieur is aan die welke haalbaar is met het random effects-model. Dit model vervangt dus de onhoudbare interpretaties die in de literatuur overvloedig aanwezig zijn en er is software beschikbaar om deze methode verder te onderzoeken.

Indirect bewijs: netwerk meta-analyse methoden Bewerken

Een netwerk meta-analyse kijkt naar indirecte vergelijkingen. In de afbeelding is A geanalyseerd in relatie tot C en C is geanalyseerd in relatie tot b. De relatie tussen A en B is echter alleen indirect bekend, en een netwerk meta-analyse kijkt naar dergelijk indirect bewijs van verschillen tussen methoden en interventies met behulp van statistische methoden.

Indirecte vergelijking meta-analysemethoden (ook wel netwerkmeta-analyses genoemd, in het bijzonder wanneer meerdere behandelingen gelijktijdig worden beoordeeld) gebruiken doorgaans twee hoofdmethodologieën. Ten eerste is er de Bucher-methode, die een enkele of herhaalde vergelijking is van een gesloten lus van drie behandelingen, zodat een ervan gemeenschappelijk is voor de twee onderzoeken en het knooppunt vormt waar de lus begint en eindigt. Daarom zijn meerdere twee-aan-twee-vergelijkingen (lussen van 3 behandelingen) nodig om meerdere behandelingen te vergelijken. Deze methodologie vereist dat bij proeven met meer dan twee armen alleen twee armen worden geselecteerd, aangezien onafhankelijke paarsgewijze vergelijkingen vereist zijn. De alternatieve methodologie maakt gebruik van complexe statistische modellen om de meerarmige onderzoeken en vergelijkingen tegelijkertijd tussen alle concurrerende behandelingen op te nemen. Deze zijn uitgevoerd met behulp van Bayesiaanse methoden, gemengde lineaire modellen en meta-regressiebenaderingen.

Bayesian frameworkEdit

Het specificeren van een Bayesiaans netwerk meta-analysemodel omvat het schrijven van een gerichte acyclische grafiek (DAG) model voor algemene Markov-keten Monte Carlo (MCMC) -software zoals WinBUGS. Bovendien moeten voor een aantal parameters eerdere distributies worden gespecificeerd en moeten de gegevens in een specifiek formaat worden aangeleverd. Samen vormen de DAG, priors en gegevens een Bayesiaans hiërarchisch model. Om de zaken nog ingewikkelder te maken, moeten vanwege de aard van de MCMC-schatting voor een aantal onafhankelijke ketens overdispergeerde startwaarden worden gekozen, zodat de convergentie kan worden beoordeeld. Momenteel is er geen software die dergelijke modellen automatisch genereert, hoewel er enkele hulpmiddelen zijn die bij het proces kunnen helpen. De complexiteit van de Bayesiaanse benadering heeft een beperkt gebruik van deze methodologie gemaakt. Methodologie voor automatisering van deze methode is voorgesteld, maar vereist dat uitkomstgegevens op armniveau beschikbaar zijn, en dit is meestal niet beschikbaar. Er worden soms grote claims gemaakt over het inherente vermogen van het Bayesiaanse raamwerk om netwerkmeta-analyse te verwerken en de grotere flexibiliteit ervan. Deze keuze van implementatie van een raamwerk voor inferentie, Bayesiaans of frequentistisch, kan echter minder belangrijk zijn dan andere keuzes met betrekking tot het modelleren van effecten (zie bespreking van modellen hierboven).

Frequentistisch multivariaat raamwerkEdit

Aan de andere kant omvatten de frequentistische multivariate methoden benaderingen en veronderstellingen die niet expliciet worden vermeld of geverifieerd wanneer de methoden worden toegepast (zie bespreking van meta-analysemodellen hierboven). Het mvmeta-pakket voor Stata maakt bijvoorbeeld netwerkmeta-analyse mogelijk in een frequentistisch kader.Als er echter geen gemeenschappelijke comparator in het netwerk is, moet dit worden afgehandeld door de dataset uit te breiden met fictieve armen met een hoge variantie, wat niet erg objectief is en een beslissing vereist over wat een voldoende hoge variantie is. Het andere probleem is het gebruik van het random effects-model in zowel dit frequentistische raamwerk als het Bayesiaanse raamwerk. Senn raadt analisten aan voorzichtig te zijn met het interpreteren van de “random effects” -analyse, aangezien slechts één willekeurig effect is toegestaan, maar men zich er vele zou kunnen voorstellen. Senn gaat verder met te zeggen dat het nogal naïef is, zelfs in het geval waarin slechts twee behandelingen worden vergeleken, om aan te nemen dat analyse van willekeurige effecten alle onzekerheid verklaart over de manier waarop effecten kunnen variëren van proef tot proef. Nieuwere modellen van meta-analyse, zoals die hierboven besproken, zouden deze situatie zeker helpen verlichten en zijn geïmplementeerd in het volgende raamwerk.

Gegeneraliseerd paarsgewijs modelleerraamwerk Bewerken

Een aanpak die is uitgeprobeerd sinds het einde van de jaren negentig is de implementatie van de meervoudige gesloten-kringloopanalyse met drie behandelingen uitgevoerd. Dit is niet populair omdat het proces snel overweldigend wordt naarmate de netwerkcomplexiteit toeneemt. De ontwikkeling op dit gebied werd vervolgens verlaten ten gunste van de Bayesiaanse en multivariate frequentistische methoden die als alternatieven naar voren kwamen. Zeer recentelijk is door sommige onderzoekers automatisering van de gesloten-kringloopmethode met drie behandelingen ontwikkeld voor complexe netwerken als een manier om deze methodologie beschikbaar te maken voor de reguliere onderzoeksgemeenschap. Dit voorstel beperkt elke proef tot twee interventies, maar introduceert ook een tijdelijke oplossing voor proeven met meerdere armen: een ander vast controleknooppunt kan in verschillende runs worden geselecteerd. Het maakt ook gebruik van robuuste meta-analysemethoden, zodat veel van de hierboven genoemde problemen worden vermeden. Verder onderzoek rond dit raamwerk is nodig om te bepalen of dit inderdaad superieur is aan de Bayesiaanse of multivariate frequentistische raamwerken. Onderzoekers die dit willen uitproberen, hebben toegang tot dit raamwerk via gratis software.

Meta-analyse op maat Bewerken

Een andere vorm van aanvullende informatie komt van de beoogde omgeving. Als de doelinstelling voor het toepassen van de meta-analyseresultaten bekend is, dan is het wellicht mogelijk om gegevens uit de setting te gebruiken om de resultaten aan te passen en zo een “op maat gemaakte meta-analyse” te produceren., Dit is gebruikt in meta-analyses van testnauwkeurigheid, waar empirische kennis van het positieve testpercentage en de prevalentie zijn gebruikt om een regio in de Receiver Operating Characteristic (ROC) -ruimte af te leiden die bekend staat als een “toepasselijke regio”. Studies worden vervolgens geselecteerd voor de doelinstelling op basis van vergelijking met deze regio en geaggregeerd om een samenvattende schatting te produceren die is afgestemd op de doelinstelling.

IPD en ADEdit samenvoegen

Meta-analyse kan ook worden toegepast om IPD en AD te combineren. Dit is handig als de onderzoekers die de analyse uitvoeren, hun eigen ruwe gegevens hebben terwijl ze geaggregeerde of samenvattende gegevens uit de literatuur verzamelen. Het gegeneraliseerde integratiemodel (GIM) is een generalisatie van de meta-analyse. Het maakt het mogelijk dat het model dat op de individuele deelnemersgegevens (IPD) past, verschilt van het model dat wordt gebruikt om de geaggregeerde gegevens (AD) te berekenen. GIM kan worden gezien als een modelkalibratiemethode voor het integreren van informatie met meer flexibiliteit.

Validatie van meta-analyseresultaten Bewerken

De meta-analyseschatting vertegenwoordigt een gewogen gemiddelde over studies heen en wanneer er heterogeniteit is, kan dit ertoe leiden dat de samenvattende schatting niet representatief is voor individuele onderzoeken. Kwalitatieve beoordeling van de primaire onderzoeken met behulp van gevestigde instrumenten kan mogelijke vooroordelen aan het licht brengen, maar kwantificeert niet het totale effect van deze vooroordelen op de samenvattende schatting. Hoewel het resultaat van de meta-analyse kan worden vergeleken met een onafhankelijke prospectieve primaire studie, is een dergelijke externe validatie vaak onpraktisch. Dit heeft geleid tot de ontwikkeling van methoden die gebruik maken van een vorm van leave-one-out-kruisvalidatie, ook wel intern-externe kruisvalidatie (IOCV) genoemd. Hier wordt elk van de k opgenomen onderzoeken op hun beurt weggelaten en vergeleken met de samenvattende schatting die is afgeleid uit het samenvoegen van de resterende k-1 onderzoeken. Een algemene validatiestatistiek, Vn op basis van IOCV, is ontwikkeld om de statistische validiteit van meta-analyseresultaten te meten. Voor testnauwkeurigheid en voorspelling, met name wanneer er multivariate effecten zijn, zijn ook andere benaderingen voorgesteld om de voorspellingsfout te schatten.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *