Metaanalýza

ApproachesEdit

Při provádění metaanalýzy lze obecně rozlišovat dva typy důkazů: údaje o jednotlivých účastnících (IPD) a agregované údaje (AD ). Souhrnné údaje mohou být přímé nebo nepřímé.

AD je běžněji dostupná (např. Z literatury) a obvykle představuje souhrnné odhady, jako jsou poměry šancí nebo relativní rizika. To lze přímo syntetizovat napříč koncepčně podobnými studiemi pomocí několika přístupů (viz níže). Na druhé straně nepřímá agregovaná data měří účinek dvou ošetření, která byla každá porovnána s podobnou kontrolní skupinou v metaanalýze. Například pokud byla léčba A a léčba B přímo porovnána s placebem v samostatných metaanalýzách, můžeme tyto dva souhrnné výsledky použít k získání odhadu účinků A vs B v nepřímém srovnání jako účinek A vs Placebo minus účinek B vs. Placebo.

Důkazy IPD představují nezpracovaná data shromážděná studijními centry. Toto rozlišení vyvolalo potřebu různých metaanalytických metod, když je žádoucí syntéza důkazů, a vedlo k vývoji jednostupňových a dvoustupňových metod. V jednostupňových metodách se IPD ze všech studií modeluje současně, přičemž se zohledňuje shlukování účastníků v rámci studií. Dvoustupňové metody nejprve vypočítají souhrnnou statistiku pro AD z každé studie a poté vypočítají celkovou statistiku jako vážený průměr statistik studie. Snížením IPD na AD lze také použít dvoustupňové metody, pokud je IPD k dispozici; díky tomu jsou lákavou volbou při provádění metaanalýzy. Ačkoli se běžně věří, že jednostupňové a dvoustupňové metody přinášejí podobné výsledky, nedávné studie ukázaly, že mohou příležitostně vést k odlišným závěrům.

Statistické modely agregovaných údajůEdit

Přímý důkaz: Modely zahrnující pouze studijní efektyEdit

Model s pevnými efektyEdit

Model s fixními efekty poskytuje vážený průměr řady odhadů studie. Inverzní varianta odhadů „rozptyl se běžně používá jako váha studie, takže větší studie mají tendenci přispívat více než menší studie k váženému průměru. V důsledku toho, když ve studiích v rámci metaanalýzy dominuje velmi velká studie, budou výsledky z menší studie jsou prakticky ignorovány. Nejdůležitější je, že model fixních efektů předpokládá, že všechny zahrnuté studie zkoumají stejnou populaci, používají stejné definice proměnných a výsledků atd. Tento předpoklad je obvykle nereálný, protože výzkum je často náchylný k několika zdrojům heterogenity; např. účinky léčby se mohou lišit podle národního prostředí, úrovní dávek, podmínek studie, …

Model náhodných účinků Upravit

Běžným modelem používaným k syntéze heterogenního výzkumu je model náhodných účinků meta Jedná se jednoduše o vážený průměr velikostí efektů skupiny studií. Váha, která se aplikuje v tomto procesu váženého průměrování s metaanalýzou náhodných efektů, je provedeno ve dvou krocích:

  1. Krok 1: Inverzní odchylka rozptylu
  2. Krok 2: Un-vážení této inverzní variační váhy použitím komponenty odchylky náhodných efektů (REVC), která je jednoduše odvozeno z rozsahu variability velikostí efektů podkladových studií.

To znamená, že čím větší je tato variabilita velikostí efektů (jinak známá jako heterogenita), tím větší je ne- vážení a to může dosáhnout bodu, kdy se výsledek metaanalýzy náhodných efektů stane jednoduše neváženou průměrnou velikostí efektu napříč studiemi. Na druhém konci, když jsou všechny velikosti efektů podobné (nebo variabilita nepřesahuje chybu vzorkování), nepoužije se žádný REVC a metaanalýza náhodných efektů je výchozí jednoduše metaanalýza s pevným efektem (pouze inverzní vážení odchylek). p>

Rozsah tohoto obrácení závisí pouze na dvou faktorech:

  1. Heterogenita přesnosti
  2. Heterogenita velikosti účinku

Protože žádný z těchto faktorů automaticky nenaznačuje vadnou větší studii nebo spolehlivější menší studie, opětovné rozložení vah podle tohoto modelu nebude mít vztah k tomu, co tyto studie ve skutečnosti mohou nabídnout. Ve skutečnosti bylo prokázáno, že přerozdělování váh je jednoduše v jednom směru od větších po menší studie, protože heterogenita se zvyšuje, dokud nakonec nebudou mít všechny studie stejnou váhu a již nebude možné další přerozdělování. Dalším problémem modelu náhodných efektů je, že nejčastěji používané intervaly spolehlivosti obecně nezachovávají svou pravděpodobnost pokrytí nad stanovenou nominální úroveň, a tak podstatně podceňují statistickou chybu a jsou ve svých závěrech potenciálně sebevědomé. Bylo navrženo několik oprav, ale debata pokračuje dál.Další obavou je, že průměrný účinek léčby může být někdy ještě méně konzervativní ve srovnání s modelem s fixním účinkem, a proto v praxi zavádějící. Jedna interpretační oprava, která byla navržena, je vytvoření intervalu predikce kolem odhadu náhodných efektů, aby se v praxi zobrazil rozsah možných efektů. Předpokladem pro výpočet takového predikčního intervalu je však to, že studie jsou považovány za víceméně homogenní entity a že zahrnuty populace pacientů a srovnávací léčby by měly být považovány za vyměnitelné, což je v praxi obvykle nedosažitelné.

nejběžněji používanou metodou k odhadu rozptylu studií (REVC) je přístup DerSimonian-Laird (DL). Existuje několik pokročilých iterativních (a výpočetně nákladných) technik pro výpočet rozptylu mezi studiemi (jako jsou metody maximální věrohodnosti, profilové věrohodnosti a metody omezené maximální věrohodnosti) a modely náhodných efektů využívající tyto metody lze spustit ve Stata pomocí příkazu metaan. Příkaz metaan musí být odlišen od klasického příkazu metan (jeden „a“) ve Stata, který používá odhad DL. Tyto pokročilé metody byly také implementovány do bezplatného a snadno použitelného doplňku Microsoft Excel MetaEasy. Srovnání mezi těmito pokročilými metodami a metodou DL výpočtu rozptylu mezi studiemi však prokázalo, že lze získat jen málo a DL je ve většině scénářů dostačující.

Většina metaanalýz však zahrnuje a 4 studie a takový vzorek je častěji než nedostatečný pro přesný odhad heterogenity. Zdá se tedy, že v malých metaanalýzách je mezi odhadem rozptylu studie získána nesprávná nula, což vede k falešnému předpokladu homogenity. Celkově se zdá, že heterogenita je neustále podceňována v metaanalýzách a analýzy citlivosti, u nichž se předpokládá, že vysoké úrovně heterogenity mohou být informativní. Tyto modely náhodných efektů a softwarové balíčky zmíněné výše se týkají souhrnných metaanalýz studií a vědci, kteří chtějí provádět individuální metaanalýzy údajů o pacientech (IPD), musí zvážit přístupy modelování smíšených účinků.

IVhet modelEdit

Doi & Barendregt ve spolupráci s Khanem, Thalibem a Williamsem (z University of Queensland, University of Southern Queensland a Kuwait University) vytvořili inverzní rozptyl alternativa založená na kvazi pravděpodobnosti (IVhet) k modelu náhodných efektů (RE), pro kterou jsou podrobnosti k dispozici online. To bylo začleněno do MetaXL verze 2.0, bezplatného doplňku Microsoft Excel pro metaanalýzu vytvořeného společností Epigear International Pty Ltd, a bylo k dispozici 5. dubna 2014. Autoři uvádějí, že jasnou výhodou tohoto modelu je, že řeší dva hlavní problémy modelu náhodných efektů. První výhodou modelu IVhet je, že pokrytí zůstává na nominální (obvykle 95%) úrovni intervalu spolehlivosti na rozdíl od modelu náhodných efektů, který klesá v pokrytí se zvyšující se heterogenitou. Druhou výhodou je, že model IVhet udržuje váhy inverzních variací jednotlivých studií, na rozdíl od modelu RE, který dává malým studiím větší váhu (a tedy větší studie méně) se zvyšující se heterogenitou. Když se heterogenita zvětší, váhy jednotlivých studií v rámci modelu RE se stanou rovnocennými, a tak model RE vrátí aritmetický průměr, nikoli vážený průměr. K tomuto vedlejšímu účinku modelu RE nedochází u modelu IVhet, který se tak liší od odhadu modelu RE ve dvou perspektivách: Souhrnné odhady zvýhodní větší pokusy (na rozdíl od penalizace větších pokusů v modelu RE) a budou mít důvěru interval, který zůstává v rámci nominálního pokrytí za nejistoty (heterogenity). Doi & Barendregt naznačuje, že zatímco model RE poskytuje alternativní metodu shromažďování údajů ze studie, jejich výsledky simulace ukazují, že použití konkrétnějšího modelu pravděpodobnosti s neudržitelnými předpoklady, jako u modelu RE , nemusí nutně poskytovat lepší výsledky. Druhá studie rovněž uvádí, že model IVhet řeší problémy související s podceňováním statistické chyby, špatným pokrytím intervalu spolehlivosti a zvýšenou hodnotou MSE pozorovanou u modelu náhodných účinků a autoři docházejí k závěru, že vědci by měli od nynějška upustit od používání modelu náhodných účinků v metaanalýze. I když jsou jejich data přesvědčivá, důsledky (pokud jde o rozsah falešně pozitivních výsledků v Cochraneově databázi) jsou obrovské, a proto přijetí tohoto závěru vyžaduje pečlivé nezávislé potvrzení. Dostupnost bezplatného softwaru (MetaXL), který provozuje model IVhet (a všechny ostatní modely pro srovnání), to usnadňuje výzkumné komunitě.

Přímé důkazy: Modely zahrnující další informace Upravit

Model efektů kvalityEdit

Doi a Thalib původně představili model efektů kvality. Zavedli nový přístup k přizpůsobení variabilitě mezi studiemi začleněním příspěvku rozptylu v důsledku relevantní složky (kvality) navíc k příspěvku rozptylu v důsledku náhodné chyby, který se používá v jakémkoli modelu metaanalýzy s pevnými efekty ke generování váhy pro každou studii. Silná stránka metaanalýzy účinků na kvalitu spočívá v tom, že umožňuje použít dostupné metodické důkazy o subjektivních náhodných účincích, a pomáhá tak překonat škodlivou propast, která se v klinickém výzkumu otevřela mezi metodikou a statistikou. K tomu se na základě informací o kvalitě vypočítá odchylka syntetického zkreslení, aby se upravila váha inverzní odchylky a zavede se váha i-té studie upravená podle kvality. Tyto upravené váhy se poté použijí v metaanalýze. Jinými slovy, pokud je studie i kvalitní a jiné studie nekvalitní, část jejich kvalitativně upravených vah se matematicky přerozdělí ke studii i, což jí dává větší váhu na celkovou velikost účinku. Vzhledem k tomu, že se studie z hlediska kvality stávají čím dál tím podobnějšími, re-distribuce se postupně zmenšuje a přestává, když jsou všechny studie stejné kvality (v případě stejné kvality je model efektů kvality standardně model IVhet – viz předchozí část). Nedávné hodnocení modelu účinků na kvalitu (s některými aktualizacemi) ukazuje, že navzdory subjektivitě hodnocení kvality je výkon (MSE a skutečná odchylka při simulaci) lepší než výkon dosažitelný pomocí modelu náhodných účinků. Tento model tak nahrazuje neudržitelné interpretace, které se v literatuře hojně vyskytují, a k dalšímu prozkoumání této metody je k dispozici software.

Nepřímé důkazy: Metody síťové metaanalýzy Upravit

Síťová metaanalýza zkoumá nepřímá srovnání. Na obrázku byla A analyzována ve vztahu k C a C byla analyzována ve vztahu k b. Vztah mezi A a B je však znám pouze nepřímo a síťová metaanalýza zkoumá takové nepřímé důkazy o rozdílech mezi metodami a intervencemi pomocí statistické metody.

Nepřímé srovnání metody metaanalýzy (nazývané také síťové metaanalýzy, zejména když je hodnoceno více ošetření současně) obecně používají dvě hlavní metodiky. Nejprve jde o Bucherovu metodu, která je jednoduchým nebo opakovaným porovnáním uzavřené smyčky tří ošetření, takže jedno z nich je společné pro obě studie a tvoří uzel, kde smyčka začíná a končí. Proto je pro porovnání více ošetření potřeba několik srovnání dva po druhém (smyčky 3 ošetření). Tato metodika vyžaduje, aby pokusy s více než dvěma rameny měly pouze dvě ramena vybraná, protože je vyžadováno nezávislé párové srovnání. Alternativní metodologie využívá komplexní statistické modelování k zahrnutí vícečetných testů ramen a srovnání současně mezi všemi konkurenčními způsoby léčby. Ty byly provedeny pomocí Bayesianových metod, smíšených lineárních modelů a meta-regresních přístupů.

Bayesian frameworkEdit

Specifikace Bayesianského modelu metaanalýzy zahrnuje psaní směrovaného acyklického grafu (DAG) model pro univerzální software Markov Chain Monte Carlo (MCMC), jako je WinBUGS. Kromě toho je třeba u řady parametrů zadat předchozí distribuce a data je nutné zadat v určitém formátu. Společně DAG, priorové a data tvoří Bayesovský hierarchický model. Aby to ještě více zkomplikovalo, je vzhledem k povaze odhadu MCMC nutné zvolit nadměrně rozptýlené počáteční hodnoty pro řadu nezávislých řetězců, aby bylo možné posoudit konvergenci. V současné době neexistuje žádný software, který by automaticky generoval takové modely, i když existují určité nástroje, které by tento proces usnadnily. Složitost bayesovského přístupu omezila použití této metodiky. Metodika pro automatizaci této metody byla navržena, ale vyžaduje, aby byly k dispozici údaje o výsledcích na úrovni paže, které jsou obvykle nedostupné. Někdy se objevují velké nároky na inherentní schopnost Bayesianského rámce zpracovávat síťovou metaanalýzu a jeho větší flexibilitu. Tato volba implementace rámce pro odvození, Bayesianova nebo frekventovaná, však může být méně důležitá než jiné volby týkající se modelování účinků (viz diskuse o modelech výše).

Frequentist multivariate frameworkEdit

a druhou stranu, časté metody s více proměnnými zahrnují aproximace a předpoklady, které nejsou výslovně uvedeny nebo ověřeny, když jsou metody použity (viz diskuse o metaanalýzových modelech výše). Například balíček mvmeta pro Stata umožňuje metaanalýzu sítě ve frekventovaném rámci.Pokud však v síti není společný komparátor, je třeba to vyřešit rozšířením datové sady o fiktivní zbraně s vysokou variabilitou, což není příliš objektivní a vyžaduje rozhodnutí, co představuje dostatečně vysokou variabilitu. Druhým problémem je použití modelu náhodných efektů v tomto frekventovaném rámci i v bayesovském rámci. Senn doporučuje analytikům, aby při interpretaci analýzy „náhodných efektů“ postupovali opatrně, protože je povolen pouze jeden náhodný efekt, ale dalo by se předpokládat mnoho. Senn dále říká, že je to naivní, a to i v případě, že se srovnávají pouze dvě léčby, za předpokladu, že analýza náhodných účinků odpovídá za veškerou nejistotu ohledně toho, jak se mohou účinky u jednotlivých studií lišit. Novější modely metaanalýzy, jako jsou ty diskutované výše, by jistě pomohly zmírnit tuto situaci a byly implementovány v příštím rámci.

Zobecněné párové modelování frameworkEdit

Vyzkoušený přístup od konce 90. let je implementace vícenásobné analýzy tří uzavřené smyčky. To nebylo populární, protože proces se rychle stává ohromujícím, jak se zvyšuje složitost sítě. Vývoj v této oblasti byl poté opuštěn ve prospěch bayesovských a vícerozměrných frekventovaných metod, které se ukázaly jako alternativy. Velmi nedávno byla pro složité sítě vyvinuta automatizace metody uzavřené smyčky se třemi léčbami některými výzkumníky jako způsob, jak tuto metodiku zpřístupnit běžné výzkumné komunitě. Tento návrh omezuje každou zkoušku na dva zásahy, ale také zavádí řešení pro více pokusů s rameny: v různých bězích lze vybrat jiný pevný uzel kontroly. Využívá také robustní metaanalytické metody, aby se zabránilo mnoha výše uvedeným problémům. Je zapotřebí dalšího výzkumu tohoto rámce, aby se zjistilo, zda je to skutečně lepší než Bayesovské nebo vícerozměrné frekventované rámce. Vědci, kteří si to chtějí vyzkoušet, mají přístup k tomuto rámci prostřednictvím bezplatného softwaru.

Metaanalýza na míruEdit

Další forma doplňujících informací pochází ze zamýšleného prostředí. Pokud je známo nastavení cíle pro aplikaci výsledků metaanalýzy, je možné použít data z nastavení k přizpůsobení výsledků, čímž se vytvoří „metaanalýza na míru“., Toto bylo použito v metaanalýzách přesnosti testu, kde byly empirické znalosti o míře pozitivity testu a prevalenci použity k odvození oblasti v prostoru provozních charakteristik přijímače (ROC) známého jako „použitelná oblast“. Studie jsou poté vybrány pro nastavení cíle na základě srovnání s touto oblastí a agregovány za účelem vytvoření souhrnného odhadu, který je přizpůsoben nastavení cíle.

Agregace IPD a ADEdit

Metaanalýza lze také použít ke kombinaci IPD a AD. To je výhodné, když mají vědci, kteří provádějí analýzu, svá vlastní hrubá data při shromažďování souhrnných nebo souhrnných údajů z literatury. Zobecněný integrační model (GIM) je zobecněním metaanalýzy. Umožňuje to, aby se model přizpůsobený datům jednotlivých účastníků (IPD) lišil od modelu použitého k výpočtu agregovaných dat (AD). Na GIM lze nahlížet jako na metodu kalibrace modelu pro integraci informací s větší flexibilitou.

Ověření výsledků metaanalýzy Upravit

Odhad metaanalýzy představuje vážený průměr napříč studiemi a kdy je heterogenita, což může vést k tomu, že souhrnný odhad nebude reprezentativní pro jednotlivé studie. Kvalitativní posouzení primárních studií pomocí zavedených nástrojů může odhalit potenciální předsudky, ale nekvantifikuje celkový účinek těchto předsudků na souhrnný odhad. Přestože lze výsledek metaanalýzy porovnat s nezávislou prospektivní primární studií, je taková externí validace často nepraktická. To vedlo k vývoji metod, které využívají formu křížové validace s vynecháním jednoho místa, někdy označované jako interní-externí křížová validace (IOCV). Zde je každá ze studií zahrnutých do k vynechána a porovnána se souhrnným odhadem odvozeným ze agregace zbývajících studií k-1. Pro měření statistické platnosti výsledků metaanalýzy byla vyvinuta obecná validační statistika Vn založená na IOCV. Pro přesnost a predikci testu, zejména pokud existují vícerozměrné efekty, byly také navrženy jiné přístupy, které se snaží odhadnout chybu predikce.

Napsat komentář

Vaše e-mailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *