Meta-analisi

ApprocciModifica

In generale, quando si esegue una meta-analisi è possibile distinguere due tipi di prove: dati dei partecipanti individuali (IPD) e dati aggregati (AD ). I dati aggregati possono essere diretti o indiretti.

AD è più comunemente disponibile (ad es. Dalla letteratura) e tipicamente rappresenta stime riassuntive come odds ratio o rischi relativi. Questo può essere sintetizzato direttamente attraverso studi concettualmente simili utilizzando diversi approcci (vedi sotto). Daltra parte, i dati aggregati indiretti misurano leffetto di due trattamenti che sono stati confrontati ciascuno con un gruppo di controllo simile in una meta-analisi. Ad esempio, se il trattamento A e il trattamento B sono stati confrontati direttamente rispetto al placebo in meta-analisi separate, possiamo utilizzare questi due risultati aggregati per ottenere una stima degli effetti di A vs B in un confronto indiretto come effetto A vs Placebo meno effetto B vs Placebo.

Le evidenze IPD rappresentano i dati grezzi raccolti dai centri di studio. Questa distinzione ha sollevato la necessità di diversi metodi meta-analitici quando si desidera la sintesi delle prove e ha portato allo sviluppo di metodi a una fase ea due fasi. Nei metodi a una fase, lIPD di tutti gli studi viene modellato simultaneamente tenendo conto del raggruppamento dei partecipanti allinterno degli studi. I metodi a due fasi calcolano innanzitutto le statistiche riassuntive per AD da ogni studio e quindi calcolano le statistiche generali come media ponderata delle statistiche dello studio. Riducendo lIPD ad AD, possono essere applicati anche metodi a due fasi quando lIPD è disponibile; questo li rende una scelta interessante quando si esegue una meta-analisi. Sebbene si ritenga convenzionalmente che i metodi in una fase e in due fasi producano risultati simili, studi recenti hanno dimostrato che possono occasionalmente portare a conclusioni diverse.

Modelli statistici per dati aggregatiModifica

Evidenza diretta: modelli che incorporano solo effetti di studioModifica

Modello a effetti fissiModifica

Il modello a effetti fissi fornisce una media ponderata di una serie di stime di studio. Linverso della varianza delle stime è comunemente usata come peso dello studio, in modo che studi più grandi tendono a contribuire più di studi più piccoli alla media ponderata. Di conseguenza, quando gli studi allinterno di una meta-analisi sono dominati da uno studio molto ampio, i risultati di gli studi più piccoli vengono praticamente ignorati. Soprattutto, il modello a effetti fissi presume che tutti gli studi inclusi esaminino la stessa popolazione, utilizzino le stesse definizioni di variabili e risultati, ecc. gli effetti del trattamento possono differire a seconda delle località, dei livelli di dosaggio, delle condizioni di studio, …

Modello degli effetti casuali Modifica

Un modello comune utilizzato per sintetizzare la ricerca eterogenea è il modello degli effetti casuali di meta- analisi. Questa è semplicemente la media ponderata delle dimensioni degli effetti di un gruppo di studi. Il peso che viene applicato in questo processo di media ponderata con una meta-analisi di effetti casuali è un determinato in due fasi:

  1. Passaggio 1: ponderazione della varianza inversa
  2. Passaggio 2: non ponderazione di questa ponderazione della varianza inversa mediante lapplicazione di una componente della varianza degli effetti casuali (REVC) che è semplicemente derivato dallentità della variabilità delle dimensioni degli effetti degli studi sottostanti.

Ciò significa che maggiore è questa variabilità nelle dimensioni degli effetti (altrimenti nota come eterogeneità), maggiore è la disuguaglianza ponderazione e questo può raggiungere un punto in cui il risultato della meta-analisi degli effetti casuali diventa semplicemente la dimensione media non ponderata delleffetto negli studi. Allaltro estremo, quando tutte le dimensioni degli effetti sono simili (o la variabilità non supera lerrore di campionamento), non viene applicato alcun REVC e la meta-analisi degli effetti casuali assume per impostazione predefinita una semplice meta-analisi a effetti fissi (solo ponderazione della varianza inversa).

Lentità di questa inversione dipende esclusivamente da due fattori:

  1. Eterogeneità della precisione
  2. Eterogeneità della dimensione delleffetto

Poiché nessuno di questi fattori indica automaticamente uno studio più ampio difettoso o studi più piccoli più affidabili, la ridistribuzione dei pesi secondo questo modello non avrà una relazione con ciò che questi studi potrebbero effettivamente offrire. Infatti, è stato dimostrato che la ridistribuzione dei pesi è semplicemente in una direzione da studi più grandi a studi più piccoli poiché leterogeneità aumenta fino a quando alla fine tutti gli studi hanno lo stesso peso e non è più possibile ridistribuire. Un altro problema con il modello a effetti casuali è che gli intervalli di confidenza generalmente non mantengono la loro probabilità di copertura al di sopra del livello nominale specificato e quindi sottostimano sostanzialmente lerrore statistico e sono potenzialmente troppo sicuri nelle loro conclusioni. Sono state suggerite diverse soluzioni, ma il dibattito continua.Unaltra preoccupazione è che leffetto medio del trattamento a volte può essere anche meno conservativo rispetto al modello a effetti fissi e quindi fuorviante nella pratica. Una soluzione interpretativa che è stata suggerita è quella di creare un intervallo di previsione intorno alla stima degli effetti casuali per rappresentare la gamma dei possibili effetti nella pratica. Tuttavia, unipotesi alla base del calcolo di tale intervallo di previsione è che gli studi sono considerati entità più o meno omogenee e che le popolazioni di pazienti incluse e i trattamenti di confronto dovrebbero essere considerati scambiabili e questo è solitamente irraggiungibile nella pratica.

Il metodo più utilizzato per stimare la varianza tra gli studi (REVC) è lapproccio DerSimonian-Laird (DL). Esistono diverse tecniche iterative avanzate (e computazionalmente costose) per calcolare la varianza tra gli studi (come metodi di massima verosimiglianza, probabilità del profilo e massima probabilità limitata) e modelli di effetti casuali che utilizzano questi metodi possono essere eseguiti in Stata con il comando metaan. Il comando metaan deve essere distinto dal classico comando metan (“a” singola) in Stata che utilizza lo stimatore DL. Questi metodi avanzati sono stati implementati anche in un componente aggiuntivo di Microsoft Excel gratuito e facile da usare, MetaEasy. Tuttavia, un confronto tra questi metodi avanzati e il metodo DL per calcolare la varianza tra studi ha dimostrato che cè poco da guadagnare e DL è abbastanza adeguato nella maggior parte degli scenari.

Tuttavia, la maggior parte delle meta-analisi include tra 2 e 4 studi e un tale campione è il più delle volte inadeguato per stimare accuratamente leterogeneità. Pertanto sembra che in piccole meta-analisi si ottenga uno zero errato tra la stima della varianza dello studio, portando a una falsa ipotesi di omogeneità. Nel complesso, sembra che leterogeneità sia costantemente sottostimata nelle meta-analisi e nelle analisi di sensibilità in cui si presume che alti livelli di eterogeneità potrebbero essere informativi. Questi modelli a effetti casuali e pacchetti software sopra menzionati si riferiscono a meta-analisi aggregate di studio e i ricercatori che desiderano condurre meta-analisi dei dati dei singoli pazienti (IPD) devono considerare approcci di modellazione a effetti misti.

IVhet modelEdit

Doi & Barendregt, lavorando in collaborazione con Khan, Thalib e Williams (dellUniversità del Queensland, dellUniversità del Queensland meridionale e della Kuwait University), hanno creato una varianza inversa alternativa basata sulla quasi verosimiglianza (IVhet) al modello a effetti casuali (RE) i cui dettagli sono disponibili online. Questo è stato incorporato in MetaXL versione 2.0, un componente aggiuntivo gratuito di Microsoft Excel per la meta-analisi prodotto da Epigear International Pty Ltd, e reso disponibile il 5 aprile 2014. Gli autori affermano che un chiaro vantaggio di questo modello è che risolve i due principali problemi del modello a effetti casuali. Il primo vantaggio del modello IVhet è che la copertura rimane al livello nominale (solitamente 95%) per lintervallo di confidenza a differenza del modello a effetti casuali che scende di copertura con crescente eterogeneità. Il secondo vantaggio è che il modello IVhet mantiene i pesi della varianza inversi dei singoli studi, a differenza del modello RE che dà più peso ai piccoli studi (e quindi agli studi più grandi meno) con crescente eterogeneità. Quando leterogeneità diventa grande, i pesi dei singoli studi sotto il modello RE diventano uguali e quindi il modello RE restituisce una media aritmetica piuttosto che una media ponderata. Questo effetto collaterale del modello RE non si verifica con il modello IVhet che quindi differisce dalla stima del modello RE in due prospettive: le stime aggregate favoriranno prove più grandi (invece di penalizzare prove più grandi nel modello RE) e avranno una fiducia intervallo che rimane allinterno della copertura nominale in condizioni di incertezza (eterogeneità). Doi & Barendregt suggerisce che mentre il modello RE fornisce un metodo alternativo per mettere in comune i dati dello studio, i risultati della simulazione dimostrano che lutilizzo di un modello di probabilità più specificato con ipotesi insostenibili, come con il modello RE , non fornisce necessariamente risultati migliori. Questultimo studio riporta anche che il modello IVhet risolve i problemi legati alla sottostima dellerrore statistico, scarsa copertura dellintervallo di confidenza e aumento dellMSE visto con il modello a effetti casuali e gli autori concludono che i ricercatori dovrebbero dora in poi abbandonare luso del modello a effetti casuali in meta-analisi. Sebbene i loro dati siano convincenti, le ramificazioni (in termini di entità dei risultati falsamente positivi allinterno del database Cochrane) sono enormi e quindi accettare questa conclusione richiede unattenta conferma indipendente. La disponibilità di un software gratuito (MetaXL) che esegue il modello IVhet (e tutti gli altri modelli per il confronto) facilita questo per la comunità di ricerca.

Evidenza diretta: modelli che incorporano informazioni aggiuntive Modifica

Modello per effetti di qualità Modifica

Doi e Thalib hanno originariamente introdotto il modello per effetti di qualità. Hanno introdotto un nuovo approccio allaggiustamento per la variabilità inter-studio incorporando il contributo della varianza dovuto a una componente rilevante (qualità) oltre al contributo della varianza dovuto allerrore casuale che viene utilizzato in qualsiasi modello di meta-analisi a effetti fissi per generare pesi per ogni studio. Il punto di forza della meta-analisi degli effetti di qualità è che consente di utilizzare le prove metodologiche disponibili su effetti casuali soggettivi e quindi aiuta a colmare il divario dannoso che si è aperto tra metodologia e statistica nella ricerca clinica. Per fare ciò, viene calcolata una varianza di bias sintetica sulla base di informazioni sulla qualità per regolare i pesi della varianza inversi e viene introdotto il peso aggiustato per la qualità delli esimo studio. Questi pesi regolati vengono quindi utilizzati nella meta-analisi. In altre parole, se lo studio i è di buona qualità e altri studi sono di scarsa qualità, una proporzione dei loro pesi aggiustati per la qualità viene ridistribuita matematicamente allo studio i dandogli più peso rispetto alla dimensione complessiva delleffetto. Man mano che gli studi diventano sempre più simili in termini di qualità, la ridistribuzione diminuisce progressivamente e cessa quando tutti gli studi sono di uguale qualità (nel caso di uguale qualità, il modello degli effetti di qualità è predefinito sul modello IVhet – vedere la sezione precedente). Una recente valutazione del modello degli effetti di qualità (con alcuni aggiornamenti) dimostra che, nonostante la soggettività della valutazione della qualità, le prestazioni (MSE e varianza reale sotto simulazione) sono superiori a quelle ottenibili con il modello a effetti casuali. Questo modello sostituisce quindi le interpretazioni insostenibili che abbondano nella letteratura ed è disponibile un software per esplorare ulteriormente questo metodo.

Evidenza indiretta: metodi di meta-analisi di reteModifica

Una meta-analisi di rete esamina i confronti indiretti. Nellimmagine, A è stato analizzato in relazione a C e C è stato analizzato in relazione a b. Tuttavia la relazione tra A e B è nota solo indirettamente, e una meta-analisi di rete esamina tali prove indirette delle differenze tra metodi e interventi utilizzando il metodo statistico.

Confronto indiretto I metodi di meta-analisi (chiamati anche meta-analisi di rete, in particolare quando vengono valutati più trattamenti simultaneamente) generalmente utilizzano due metodologie principali. Il primo è il metodo Bucher che è un confronto singolo o ripetuto di un ciclo chiuso di tre trattamenti in modo tale che uno di essi sia comune ai due studi e formi il nodo in cui il ciclo inizia e finisce. Pertanto, sono necessari più confronti due per due (cicli di 3 trattamenti) per confrontare più trattamenti. Questa metodologia richiede che le prove con più di due bracci abbiano due bracci selezionati solo perché sono necessari confronti indipendenti a coppie. La metodologia alternativa utilizza modelli statistici complessi per includere le prove a più bracci e confronti simultaneamente tra tutti i trattamenti concorrenti. Questi sono stati eseguiti utilizzando metodi bayesiani, modelli lineari misti e approcci di meta-regressione.

Framework bayesianoModifica

La specifica di un modello di meta-analisi di rete bayesiana implica la scrittura di un grafo aciclico diretto (DAG) modello per software generico per catena Markov Monte Carlo (MCMC) come WinBUGS. Inoltre, le distribuzioni precedenti devono essere specificate per un certo numero di parametri e i dati devono essere forniti in un formato specifico. Insieme, DAG, priori e dati formano un modello gerarchico bayesiano. Per complicare ulteriormente le cose, a causa della natura della stima MCMC, è necessario scegliere valori iniziali eccessivamente dispersi per un numero di catene indipendenti in modo da poter valutare la convergenza. Al momento, non esiste alcun software che generi automaticamente tali modelli, sebbene ci siano alcuni strumenti per aiutare nel processo. La complessità dellapproccio bayesiano ha un uso limitato di questa metodologia. La metodologia per lautomazione di questo metodo è stata suggerita, ma richiede che siano disponibili dati sugli esiti a livello di braccio, e questo di solito non è disponibile. A volte vengono fatte grandi affermazioni per la capacità intrinseca del framework bayesiano di gestire la meta-analisi di rete e la sua maggiore flessibilità. Tuttavia, questa scelta di implementazione del framework per linferenza, bayesiano o frequentista, può essere meno importante di altre scelte riguardanti la modellazione degli effetti (vedi la discussione sui modelli sopra).

Framework multivariata frequentista p> Daltra parte, i metodi multivariati frequentisti implicano approssimazioni e ipotesi che non sono dichiarate esplicitamente o verificate quando i metodi vengono applicati (vedere la discussione sui modelli di meta-analisi sopra). Ad esempio, il pacchetto mvmeta per Stata consente la meta-analisi di rete in un framework frequentista.Tuttavia, se non esiste un comparatore comune nella rete, questo deve essere gestito aumentando il set di dati con bracci fittizi con alta varianza, il che non è molto obiettivo e richiede una decisione su ciò che costituisce una varianza sufficientemente alta. Laltro problema è luso del modello degli effetti casuali sia in questo quadro frequentista che in quello bayesiano. Senn consiglia agli analisti di essere cauti nellinterpretazione dellanalisi degli “effetti casuali” poiché è consentito un solo effetto casuale ma se ne possono prevedere molti. Senn prosegue dicendo che è piuttosto ingenuo, anche nel caso in cui vengono confrontati solo due trattamenti, presumere che lanalisi degli effetti casuali tenga conto di tutta lincertezza sul modo in cui gli effetti possono variare da un processo allaltro. Nuovi modelli di meta-analisi come quelli discussi sopra aiuterebbero sicuramente ad alleviare questa situazione e sono stati implementati nel prossimo framework.

Framework di modellazione a coppie generalizzata Modifica

Un approccio che è stato provato dalla fine degli anni 90 è limplementazione dellanalisi a ciclo chiuso a tre trattamenti multipli. Questo non è stato popolare perché il processo diventa rapidamente travolgente con laumentare della complessità della rete. Lo sviluppo in questarea fu poi abbandonato a favore dei metodi frequentisti bayesiani e multivariati che emersero come alternative. Di recente, alcuni ricercatori hanno sviluppato lautomazione del metodo a circuito chiuso a tre trattamenti per reti complesse come un modo per rendere questa metodologia disponibile alla comunità di ricerca tradizionale. Questa proposta limita ogni prova a due interventi, ma introduce anche una soluzione alternativa per più prove del braccio: un diverso nodo di controllo fisso può essere selezionato in diverse sessioni. Utilizza anche robusti metodi di meta-analisi in modo da evitare molti dei problemi evidenziati sopra. Sono necessarie ulteriori ricerche attorno a questo quadro per determinare se questo è effettivamente superiore ai quadri frequentisti bayesiani o multivariati. I ricercatori che desiderano provare questo hanno accesso a questo framework attraverso un software gratuito.

Meta-analisi su misura Modifica

Unaltra forma di informazioni aggiuntive proviene dallimpostazione prevista. Se limpostazione dellobiettivo per lapplicazione dei risultati della meta-analisi è nota, potrebbe essere possibile utilizzare i dati dellimpostazione per adattare i risultati producendo così una “meta-analisi su misura”., Questa è stata utilizzata nelle meta-analisi dellaccuratezza del test, dove la conoscenza empirica del tasso di positività al test e la prevalenza sono state utilizzate per derivare una regione nello spazio delle caratteristiche operative del ricevitore (ROC) nota come “regione applicabile”. Gli studi vengono quindi selezionati per la definizione del target in base al confronto con questa regione e aggregati per produrre una stima riepilogativa adattata alla definizione del target.

Aggregazione di IPD e ADEdit

Meta-analisi può anche essere applicato per combinare IPD e AD. Ciò è utile quando i ricercatori che conducono lanalisi hanno i propri dati grezzi mentre raccolgono dati aggregati o riepilogativi dalla letteratura. Il modello di integrazione generalizzata (GIM) è una generalizzazione della meta-analisi. Consente che il modello adattato ai dati dei singoli partecipanti (IPD) sia diverso da quelli utilizzati per calcolare i dati aggregati (AD). GIM può essere visto come un metodo di calibrazione del modello per integrare le informazioni con maggiore flessibilità.

Convalida dei risultati della meta-analisi Modifica

La stima della meta-analisi rappresenta una media ponderata tra gli studi e quando esiste è eterogeneità ciò può far sì che la stima sommaria non sia rappresentativa dei singoli studi. La valutazione qualitativa degli studi primari utilizzando strumenti consolidati può scoprire potenziali bias, ma non quantifica leffetto aggregato di questi bias sulla stima sommaria. Sebbene il risultato della meta-analisi possa essere confrontato con uno studio primario prospettico indipendente, tale convalida esterna è spesso impraticabile. Ciò ha portato allo sviluppo di metodi che sfruttano una forma di validazione incrociata leave-one-out, a volte indicata come validazione incrociata interna-esterna (IOCV). Qui ciascuno dei k studi inclusi a sua volta viene omesso e confrontato con la stima riassuntiva derivata dallaggregazione dei restanti studi k-1. Una statistica di convalida generale, Vn basata su IOCV, è stata sviluppata per misurare la validità statistica dei risultati della meta-analisi. Per laccuratezza e la previsione del test, in particolare quando sono presenti effetti multivariati, sono stati proposti anche altri approcci che cercano di stimare lerrore di previsione.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *