Meta-analízis

ApproachesEdit

A metaanalízis során általában kétféle bizonyítékot lehet megkülönböztetni: egyéni résztvevők adatait (IPD) és összesített adatokat (AD ). Az összesített adatok lehetnek közvetlenek vagy közvetettek.

Az AD gyakrabban elérhető (pl. Az irodalomból), és általában olyan összefoglaló becsléseket képvisel, mint az esélyhányadok vagy a relatív kockázatok. Ez koncepcionálisan hasonló vizsgálatokon keresztül többféle megközelítés alkalmazásával közvetlenül szintetizálható (lásd alább). Másrészt a közvetett összesített adatok két olyan kezelés hatását mérik, amelyeket egy-egy analízis során egy-egy hasonló kontroll csoporthoz hasonlítottak. Például, ha az A kezelést és a B kezelést közvetlenül összehasonlították a placebóval külön meta-analízisekben, akkor ezt a két összesített eredményt felhasználhatjuk arra, hogy közvetett összehasonlításban becslést kapjunk az A vs B hatásairól, mint A hatás Placebo mínusz B hatás vs Placebo.

Az IPD bizonyíték a tanulmányi központok által gyűjtött nyers adatokat reprezentálja. Ez a megkülönböztetés felvetette a különböző meta-analitikai módszerek szükségességét, amikor bizonyítékok szintézisére van szükség, és egy- és kétlépcsős módszerek kifejlesztéséhez vezetett. Egylépcsős módszerekben az összes vizsgálat IPD-jét egyidejűleg modellezik, miközben figyelembe veszik a résztvevők csoportosulását a tanulmányokon belül. A kétlépcsős módszerek először kiszámítják az AD összesített statisztikáját az egyes vizsgálatokból, majd az általános statisztikákat a tanulmányi statisztikák súlyozott átlagaként számítják ki. Az IPD AD-re történő csökkentésével kétlépcsős módszerek is alkalmazhatók, ha az IPD rendelkezésre áll; ez vonzó választássá teszi őket a metaanalízis elvégzése során. Bár hagyományosan úgy gondolják, hogy az egy- és a kétlépcsős módszerek hasonló eredményeket hoznak, a legújabb vizsgálatok kimutatták, hogy ezek időnként eltérő következtetésekhez vezethetnek.

Az összesített adatok statisztikai modelljeiEdit

Közvetlen bizonyíték: Csak tanulmányi hatásokat tartalmazó modellekEdit

Fixed effects modelEdit

A fix hatású modell a tanulmányi becslések sorozatának súlyozott átlagát adja. A becslések inverzét “a varianciát használják általában vizsgálati súlyként, így a nagyobb tanulmányok általában a kisebb tanulmányoknál nagyobb mértékben járulnak hozzá a súlyozott átlaghoz. Következésképpen, amikor a metaanalízisben végzett vizsgálatokat nagyon nagy tanulmány uralja, a A legfontosabb, hogy a fix effektus modell azt feltételezi, hogy az összes érintett tanulmány ugyanazt a populációt vizsgálja, ugyanazokat a változó- és eredménydefiníciókat használja stb. Ez a feltételezés általában irreális, mivel a kutatás gyakran hajlamos a heterogenitás több forrására; a kezelési hatások a területtől, az adagolási szintektől, a vizsgálati körülményektől függően eltérőek lehetnek.

Véletlenszerű hatások modellEdit

A heterogén kutatások szintetizálására használt gyakori modell a metanol Ez egyszerűen egy tanulmánycsoport hatásméretének súlyozott átlaga. A véletlenszerű hatások meta-analízisével végzett súlyozott átlagolás e folyamatában alkalmazott súly egy két lépésben érhető el:

  1. 1. lépés: inverz variancia-súlyozás
  2. 2. lépés: Ennek az inverz variancia-súlyozásnak a súlyozás nélküli levonása egy véletlenszerű effektus-variancia komponens (REVC) alkalmazásával, amely egyszerűen az alapul szolgáló vizsgálatok hatásméreteinek változékonyságának mértékéből származik.

Ez azt jelenti, hogy minél nagyobb ez a hatásméretek változékonysága (más néven heterogenitás), annál nagyobb a nem súlyozás, és ez elérheti azt a pontot, amikor a véletlenszerű hatások meta-analízis eredménye egyszerűen a súlyozás nélküli átlagos hatásméret lesz a vizsgálatok során. A másik végletben, amikor az összes effektusméret hasonló (vagy a változékonyság nem haladja meg a mintavételi hibát), nem alkalmaznak REVC-t, és a véletlenszerű hatások metaanalízise alapértelmezés szerint egyszerűen rögzített hatású metaanalízis (csak inverz variancia súlyozás).

A megfordulás mértéke kizárólag két tényezőtől függ:

  1. A pontosság heterogenitása
  2. A hatásméret heterogenitása

Mivel ezek a tényezők egyik sem utal automatikusan hibásan nagyobb vagy megbízhatóbb kisebb tanulmányokra, a súlyok e modell szerinti újraelosztása nem fog kapcsolatot teremteni azzal, amit ezek a tanulmányok valóban kínálhatnak. Valójában bebizonyosodott, hogy a súlyok újraelosztása egyszerűen egy irányba halad a nagyobb és a kisebb vizsgálatok között, mivel a heterogenitás növekszik, míg végül minden tanulmánynak azonos súlya van, és nem lehetséges tovább újraelosztás. A véletlenszerű hatások modelljének másik kérdése, hogy a leggyakrabban használt a konfidencia intervallumok általában nem tartják meg a lefedettség valószínűségét a megadott névleges szint fölött, ezért lényegesen alábecsülik a statisztikai hibát, és következtetéseikben potenciálisan túl magabiztosak. Számos javítást javasoltak, de a vita folytatódik.További aggodalomra ad okot, hogy az átlagos kezelési hatás néha még kevésbé konzervatív is lehet a rögzített hatású modellhez képest, ezért a gyakorlatban félrevezető. Az egyik értelmezési javítás, amelyet felvetünk, egy predikciós intervallum létrehozása a véletlenszerű hatás becslés köré, hogy bemutassa a lehetséges hatások tartományát a gyakorlatban. Egy ilyen előrejelzési intervallum kiszámításának hátterében az a feltételezés áll, hogy a vizsgálatokat többé-kevésbé homogén entitásoknak tekintik, és amelyek a betegpopulációkat és az összehasonlító kezeléseket is magukban foglalják, cserélhetőnek kell tekinteni, és ez a gyakorlatban általában nem érhető el.

A tanulmányi variancia (REVC) megbecsülésére a legszélesebb körben alkalmazott módszer a DerSimonian-Laird (DL) megközelítés. A tanulmányok közötti variancia kiszámításához számos fejlett iteratív (és számítási szempontból drága) technika létezik (például maximális valószínűség, profil valószínűség és korlátozott maximális valószínűség módszerek), és az ezeket a módszereket alkalmazó véletlenszerű effektusok modelljei futtathatóak a Statában a metaan paranccsal. A metaan parancsot meg kell különböztetni a Stata klasszikus metan (single “a”) parancsától, amely a DL becslőt használja. Ezeket a fejlett módszereket egy ingyenes és könnyen használható Microsoft Excel kiegészítőben, a MetaEasy-ben is megvalósították. E fejlett módszerek és a DL módszer közötti összehasonlítás a vizsgálatok közötti variancia kiszámításához azonban azt mutatta, hogy kevés a nyereség, és a DL a legtöbb forgatókönyvben elég megfelelő.

A legtöbb metaanalízis azonban 2 és 4 tanulmány, és egy ilyen minta gyakran nem megfelelő a heterogenitás pontos becsléséhez. Így úgy tűnik, hogy a kis metaanalízisekben hibás nullát kapunk a vizsgálati variancia becslés között, ami hamis homogenitás feltételezéshez vezet. Összességében úgy tűnik, hogy a meta-elemzések során következetesen alábecsülik a heterogenitást, és az érzékenységi elemzések, amelyekben feltételezik, hogy a magas heterogenitási szintek informatívak lehetnek. Ezek a fent említett véletlenszerű hatásmodellek és szoftvercsomagok tanulmányok összesített metaanalíziseihez kapcsolódnak, és azoknak a kutatóknak, akik egyéni betegadatokat (IPD) kívánnak végezni, vegyes hatású modellezési megközelítéseket kell figyelembe venniük.

IVhet modelEdit

Doi & Barendregt, Khan, Thalib és Williams együttműködésével (a Queenslandi Egyetem, a Dél-Queenslandi Egyetem és a Kuvaiti Egyetem munkatársaival), inverz varianciát hozott létre kvázi valószínűségen alapuló alternatíva (IVhet) a véletlenszerű effektusok (RE) modellhez, amelyekről a részletek online elérhetők. Ezt beépítették a MetaXL 2.0 verziójába, amely az Epigear International Pty Ltd által készített és a meta-analízishez szükséges Microsoft Excel ingyenes kiegészítő, amelyet 2014. április 5-én tették elérhetővé. A szerzők szerint a modell egyértelmű előnye, hogy megoldja a két a véletlenszerű hatások modell fő problémái. Az IVhet modell első előnye, hogy a lefedettség a konfidencia intervallum nominális (általában 95%) szintjén marad, ellentétben a véletlenszerű hatások modelljével, amely a heterogenitás növekedésével csökken a lefedettségben. A második előny az, hogy az IVhet modell megtartja az egyes vizsgálatok inverz variancia súlyát, ellentétben a RE modellel, amely a kicsi tanulmányoknak nagyobb súllyal (és ennélfogva a nagyobb vizsgálatokkal) nagyobb heterogenitással rendelkezik. Amikor a heterogenitás megnövekszik, a RE modell szerinti egyéni vizsgálati súlyok egyenlővé válnak, és így a RE modell aritmetikai átlagot ad vissza, nem pedig súlyozott átlagot. A RE modellnek ez a mellékhatása nem fordul elő az IVhet modellnél, amely két szempontból tér el az RE modell becslésétől: Az összevont becslések a nagyobb kísérleteket fogják előnyben részesíteni (szemben a nagyobb vizsgálatok büntetésével az RE modellben), és magabiztosak lesznek intervallum, amely bizonytalanság (heterogenitás) alatt a névleges lefedettségen belül marad. Doi & Barendregt azt javasolja, hogy bár az RE modell alternatív módszert kínál a vizsgálati adatok összegyűjtésére, szimulációs eredményeik azt mutatják, hogy egy pontosabb valószínűségi modellt használva tarthatatlan feltételezésekkel, mint az RE modellnél , nem feltétlenül nyújt jobb eredményeket. Ez utóbbi tanulmány arról is beszámol, hogy az IVhet modell megoldja a statisztikai hiba alábecsülésével, a konfidencia intervallum gyenge lefedettségével és a véletlenszerű hatások modelljével megnövekedett MSE-vel kapcsolatos problémákat, és a szerzők arra a következtetésre jutottak, hogy a kutatóknak ezentúl el kell hagyniuk a véletlenszerű hatások modelljét a metaanalízisben. Míg adataik meggyőzőek, a következmények (a hamisan pozitív eredmények nagyságát tekintve a Cochrane adatbázisban) hatalmasak, ezért ennek a következtetésnek az elfogadása gondos, független megerősítést igényel. Az IVhet modellt (és összehasonlítás céljából az összes többi modellt) futtató ingyenes szoftver (MetaXL) elérhetősége megkönnyíti ezt a kutatói közösség számára.

Közvetlen bizonyíték: További információkat tartalmazó modellekEdit

Minőségi hatások modelEdit

Doi és Thalib eredetileg bevezették a minőségi hatások modelljét. Új megközelítést vezettek be a vizsgálatok közötti változékonyság kiigazításához, beépítve a releváns komponens (minőség) miatti variancia-hozzájárulást a véletlenszerű hibából eredő variancia-hozzájárulás mellett, amelyet bármely fix effektus meta-analízis modellben használnak a generáláshoz. súlyokat az egyes vizsgálatokhoz. A minőségi hatások metaanalízisének erőssége az, hogy lehetővé teszi a rendelkezésre álló módszertani bizonyítékok felhasználását a szubjektív véletlenszerű hatások felett, és ezáltal hozzájárul a klinikai kutatás során a módszertan és a statisztikák között megnyíló káros rés megszüntetéséhez. Ehhez a minőségi információk alapján kiszámítják a szintetikus torzítási varianciát az inverz variancia-súlyok beállításához, és bevezetik az i-edik vizsgálat minõséggel korrigált súlyát. Ezeket a kiigazított súlyokat használják a metaanalízis során. Más szavakkal, ha az i vizsgálat jó minőségű, és más vizsgálatok rossz minőségűek, akkor a minőségileg kiigazított súlyuk egy részét matematikailag újraosztják az i vizsgálatra, nagyobb súlyt adva neki az összhatás nagysága felé. Amint a tanulmányok minőségi szempontból egyre hasonlóbbá válnak, az újraterjesztés fokozatosan csökken és megszűnik, ha minden tanulmány azonos minőségű (egyenlő minőségű esetén a minőségi hatások modellje alapértelmezés szerint az IVhet modell – lásd az előző szakaszt). A minőségi hatásmodell friss értékelése (néhány frissítéssel) azt mutatja, hogy a minőségértékelés szubjektivitása ellenére a teljesítmény (MSE és a valódi variancia a szimuláció alatt) jobb, mint a véletlenszerű hatások modelljével elérhető. Ez a modell így felváltja a szakirodalomban bővelkedő tarthatatlan értelmezéseket, és egy szoftver is rendelkezésre áll a módszer további feltárásához. be2463f94b “>

A hálózati metaanalízis közvetett összehasonlításokat vizsgál. A képen A-t C-vel, C-t b-vel elemeztük. Az A és B kapcsolata azonban csak közvetetten ismert, és egy hálózati metaanalízis a statisztikai módszerrel végzett módszerek és beavatkozások közötti különbségek ilyen közvetett bizonyítékait vizsgálja.

Indirekt összehasonlítás a metaanalízis módszerek (más néven hálózati meta-analízisek, különösen akkor, ha több kezelést egyidejűleg értékelnek) általában két fő módszert alkalmaznak. Először is a Bucher-módszer, amely a három kezelés zárt hurkának egyszeri vagy ismételt összehasonlítása, oly módon, hogy egyikük közös a két vizsgálatban, és képezi azt a csomópontot, ahol a hurok kezdődik és véget ér. Ezért több kettő-két összehasonlításra (3-kezelési hurok) van szükség a többféle kezelés összehasonlításához. Ez a módszertan megköveteli, hogy a kettőnél több karral végzett kísérleteknél két kar legyen, amelyek csak független, páronkénti összehasonlításként lettek kiválasztva. Az alternatív módszertan komplex statisztikai modellezést alkalmaz a több karon végzett kísérletek és az összes versengő kezelés közötti egyidejű összehasonlítás céljából. Ezeket Bayes-módszerekkel, vegyes lineáris modellekkel és meta-regressziós megközelítésekkel hajtották végre. modell általános célú Markov lánc Monte Carlo (MCMC) szoftverekhez, mint például a WinBUGS. Ezenkívül számos paraméterhez meg kell adni az előzetes elosztást, és az adatokat meghatározott formátumban kell megadni. A DAG, a priorok és az adatok együttesen Bayes-féle hierarchikus modellt alkotnak. A helyzet további bonyolításához az MCMC becslés jellege miatt számos független lánc számára ki kell választani a túl diszpergált kiindulási értékeket, hogy a konvergencia értékelhető legyen. Jelenleg nincs olyan szoftver, amely automatikusan létrehozna ilyen modelleket, bár vannak olyan eszközök, amelyek segítik a folyamatot. A Bayes-i megközelítés összetettsége korlátozottan alkalmazza ezt a módszertant. Javasolták ennek a módszernek az automatizálását, de megköveteli, hogy karszintű kimeneti adatok álljanak rendelkezésre, és ez általában nem érhető el. Néha nagy igényeket támasztanak a Bayes-féle keretrendszer eredendő képességével a hálózati metaanalízis kezelésére és annak nagyobb rugalmasságára. A következtetési keretrendszer megvalósításának ez a választása, Bayes-féle vagy frekvenciás, kevésbé fontos lehet, mint a hatások modellezésével kapcsolatos egyéb választási lehetőségek (lásd a fenti modellekről szóló vitát). p> Másrészről a gyakoriságú többváltozós módszerek olyan közelítéseket és feltételezéseket foglalnak magukban, amelyeket a módszerek alkalmazásakor nem kifejezetten megfogalmaznak vagy igazolnak (lásd fent a metaanalízis modellekről szóló vitát). Például a Stata mvmeta csomagja lehetővé teszi a hálózat meta-elemzését a gyakoriak körében.Ha azonban nincs közös összehasonlító elem a hálózatban, akkor ezt úgy kell kezelni, hogy az adatkészletet nagy szórású kitalált karokkal egészítsük ki, ami nem túl objektív, és döntést igényel arról, hogy mi minősül kellően nagy szórásnak. A másik kérdés a véletlenszerű effektusok modelljének használata mind ebben a gyakorisági, mind a Bayes-i keretrendszerben. Senn azt javasolja az elemzőknek, hogy legyenek óvatosak a “véletlenszerű hatások” elemzésének értelmezésében, mivel csak egy véletlenszerű hatás engedélyezett, de sokakat elképzelni lehet. Senn folytatja, hogy meglehetősen naiv, még abban az esetben is, amikor csak két kezelést hasonlítanak össze, feltételezve, hogy a véletlenszerű hatások elemzése minden bizonytalanságot elszámol azzal kapcsolatban, hogy a hatások hogyan változhatnak kísérletenként. A fentiekben tárgyalt újabb metaanalízis-modellek minden bizonnyal segítenek enyhíteni ezt a helyzetet, és a következő keretrendszerben is megvalósításra kerültek.

Általánosított páros modellezési keretEdit

Kipróbált megközelítés az 1990-es évek vége óta a többszörös háromkezelésű, zárt hurkú elemzés végrehajtása. Ez nem volt népszerű, mert a folyamat a hálózati bonyolultság növekedésével gyorsan elsöprővé válik. A terület fejlesztését aztán alternatívaként jelent meg a Bayes-i és a többváltozós gyakoriságú módszerek mellett. A közelmúltban néhány kutató a komplex hálózatok számára kifejlesztette a háromkezeléses zárt hurkú módszer automatizálását, hogy ezt a módszertant elérhetővé tegye a kutatói közösség számára. Ez a javaslat az egyes próbákat két beavatkozásra korlátozza, de megkerülést vezet be a több karos próbákhoz is: különböző futtatások során különböző rögzített vezérlő csomópont választható ki. Ezenkívül robusztus meta-analízis módszereket is alkalmaz, így elkerülhető a fentebb felsorolt problémák közül sok. További kutatások szükségesek e keretrendszer körül annak megállapításához, hogy ez valóban felülmúlja-e a Bayes-i vagy a többváltozós gyakoriságú kereteket. A kipróbálásra kész kutatók ingyenes szoftveren keresztül férhetnek hozzá ehhez a keretrendszerhez.

Testreszabott meta-analysisEdit

A további információk egy másik formája a kívánt beállításból származik. Ha ismert a metaanalízis eredmények alkalmazásának célbeállítása, akkor lehet, hogy a beállítás adatait felhasználják az eredmények testreszabására, így “testre szabott metaanalízist” hoznak létre. Ezt használták a teszt pontosságú metaanalízisekben, ahol a teszt pozitív arányának és prevalenciájának empirikus ismereteit használták fel egy olyan terület levezetésére a vevő működési jellemzőinek (ROC) térében, amelyet “alkalmazható régiónak” neveznek. Ezután a vizsgálatokat kiválasztják a célbeállításhoz, összehasonlítva ezzel a régióval, és összesítve egy összefoglaló becslést készítenek, amely a cél beállításához igazodik.

IPD és ADEdit összesítése

Meta-elemzés alkalmazható az IPD és az AD kombinálására is. Ez akkor kényelmes, ha az elemzést végző kutatók saját nyers adatokkal rendelkeznek, miközben összesített vagy összefoglaló adatokat gyűjtenek az irodalomból. Az általánosított integrációs modell (GIM) a metaanalízis általánosítása. Lehetővé teszi, hogy az egyedi résztvevői adatokra (IPD) illesztett modell eltérjen az összesített adatok (AD) kiszámításához használt modelltől. A GIM modell-kalibrációs módszerként tekinthető az információk nagyobb rugalmasságú integrálásához. heterogenitás, ez azt eredményezheti, hogy az összefoglaló becslés nem reprezentatív az egyes vizsgálatokra. Az elsődleges vizsgálatok minőségi értékelése bevált eszközökkel feltárhatja a potenciális torzításokat, de nem számszerűsíti ezen torzítások összesített hatását az összesített becslésre. Bár a metaanalízis eredményét össze lehet hasonlítani egy független prospektív elsődleges vizsgálattal, az ilyen külső validálás gyakran nem praktikus. Ez olyan módszerek kifejlesztéséhez vezetett, amelyek kihasználják az egy az egyben történő keresztellenőrzés egyik formáját, amelyet néha belső-külső keresztellenőrzésnek (IOCV) is neveznek. Itt mindegyik k-ból álló tanulmány kihagyásra kerül, és összehasonlításra kerül a fennmaradó k-1 vizsgálatok összesítéséből származó összesített becsléssel. A metaanalízis eredmények statisztikai validitásának mérésére az IOCV-n alapuló általános validációs statisztikát (Vn) fejlesztettek ki. A teszt pontossága és az előrejelzés, különösen ha többváltozós hatások vannak, más megközelítéseket is javasolnak, amelyek célja az előrejelzési hiba becslése.

Vélemény, hozzászólás?

Az email címet nem tesszük közzé. A kötelező mezőket * karakterrel jelöltük