Metaanaliza

PodejściaEdytuj

Generalnie podczas przeprowadzania metaanalizy można wyróżnić dwa rodzaje dowodów: dane poszczególnych uczestników (WRZ) i dane zagregowane (AD ). Dane zagregowane mogą być bezpośrednie lub pośrednie.

AD jest bardziej powszechnie dostępne (np. Z literatury) i zazwyczaj przedstawia podsumowanie szacunkowe, takie jak iloraz szans lub ryzyko względne. Można to bezpośrednio zsyntetyzować w ramach podobnych koncepcyjnie badań przy użyciu kilku podejść (patrz poniżej). Z drugiej strony, pośrednie dane zagregowane mierzą efekt dwóch terapii, z których każde porównano z podobną grupą kontrolną w metaanalizie. Na przykład, jeśli leczenie A i leczenie B były bezpośrednio porównywane z placebo w oddzielnych metaanalizach, możemy wykorzystać te dwa połączone wyniki, aby uzyskać oszacowanie wpływu A w porównaniu z B w pośrednim porównaniu jako efekt A vs placebo minus efekt B. vs Placebo.

Dowody dotyczące IPD reprezentują surowe dane zebrane przez ośrodki badawcze. To rozróżnienie wywołało potrzebę stosowania różnych metod metaanalitycznych, gdy pożądana jest synteza dowodów, i doprowadziło do opracowania metod jedno- i dwuetapowych. W metodach jednoetapowych WRZ ze wszystkich badań są modelowane jednocześnie z uwzględnieniem grupowania uczestników w badaniach. Metody dwuetapowe najpierw obliczają statystyki podsumowujące dla AD z każdego badania, a następnie obliczają statystyki ogólne jako średnią ważoną statystyk badania. Poprzez redukcję WRZ do AD można również stosować metody dwuetapowe, gdy dostępne jest WRZ; To sprawia, że są atrakcyjnym wyborem podczas przeprowadzania metaanalizy. Chociaż powszechnie uważa się, że metody jednoetapowe i dwuetapowe dają podobne wyniki, ostatnie badania wykazały, że czasami mogą one prowadzić do różnych wniosków.

Modele statystyczne dla danych zagregowanychEdit

Dowody bezpośrednie: modele uwzględniające tylko efekty badaniaEdytuj

Model efektów stałychEdytuj

Model efektów stałych zapewnia średnią ważoną serii szacunków badania. Odwrotność szacunków „wariancja jest powszechnie stosowana jako waga badania, tak więc większe badania mają zwykle większy wkład niż mniejsze badania do średniej ważonej. W konsekwencji, gdy badania w ramach metaanalizy są zdominowane przez bardzo duże badanie, wyniki z Praktycznie pomija się mniejsze badania. Co najważniejsze, model efektów stałych zakłada, że wszystkie uwzględnione badania dotyczą tej samej populacji, używają tych samych definicji zmiennych i wyników, itp. To założenie jest zazwyczaj nierealistyczne, ponieważ badania są często podatne na kilka źródeł heterogeniczności; efekty leczenia mogą się różnić w zależności od lokalizacji, poziomów dawkowania, warunków badania, …

Model efektów losowychEdytuj

Typowym modelem stosowanym do syntezy heterogenicznych badań jest model efektów losowych meta- Jest to po prostu średnia ważona wielkości efektów grupy badań. Waga stosowana w tym procesie ważonego uśredniania z metaanalizą efektów losowych jest osiągane w dwóch krokach:

  1. Krok 1: Odwrotne ważenie wariancji
  2. Krok 2: Odważanie tego odwrotnego ważenia wariancji poprzez zastosowanie składnika wariancji efektów losowych (REVC), który jest po prostu wyprowadzana ze stopnia zmienności wielkości efektów w podstawowych badaniach.

Oznacza to, że im większa zmienność wielkości efektu (inaczej nazywana niejednorodnością), tym większa nie- ważenie, co może osiągnąć punkt, w którym wynik metaanalizy efektów losowych stanie się po prostu nieważoną średnią wielkością efektu w badaniach. Z drugiej strony, gdy wszystkie wielkości efektów są podobne (lub zmienność nie przekracza błędu próbkowania), nie jest stosowana żadna wartość REVC, a metaanaliza efektów losowych domyślnie przyjmuje po prostu metaanalizę efektów stałych (tylko odwrotne ważenie wariancji).

Zakres tego odwrócenia zależy wyłącznie od dwóch czynników:

  1. Heterogeniczność precyzji
  2. Heterogeniczność wielkości efektu

Ponieważ żaden z tych czynników nie wskazuje automatycznie na błędne większe badanie lub bardziej wiarygodne mniejsze badania, ponowne rozłożenie wag w tym modelu nie będzie miało związku z tym, co te badania faktycznie mogą zaoferować. Rzeczywiście, wykazano, że redystrybucja wag jest po prostu w jednym kierunku, od badań większych do mniejszych, wraz ze wzrostem niejednorodności, aż w końcu wszystkie badania mają taką samą wagę i żadna kolejna redystrybucja nie jest możliwa. przedziały ufności generalnie nie zachowują swojego prawdopodobieństwa pokrycia powyżej określonego poziomu nominalnego, a zatem znacznie zaniżają błąd statystyczny i są potencjalnie zbyt pewne w swoich wnioskach. Zaproponowano kilka poprawek, ale debata trwa.Kolejną obawą jest to, że średni efekt leczenia może czasami być jeszcze mniej konserwatywny w porównaniu z modelem z efektem stałym, a zatem wprowadzać w błąd w praktyce. Jedną z sugerowanych poprawek interpretacyjnych jest utworzenie przedziału predykcji wokół oszacowania efektów losowych, aby przedstawić zakres możliwych efektów w praktyce. Jednak założeniem stojącym za obliczeniem takiego przedziału predykcji jest to, że badania są uważane za mniej lub bardziej jednorodne jednostki i że obejmowały populacje pacjentów i terapie porównawcze należy uznać za wymienne, co jest zwykle nieosiągalne w praktyce.

Najczęściej stosowaną metodą szacowania wariancji między badaniami (REVC) jest metoda DerSimonian-Laird (DL). Istnieje kilka zaawansowanych iteracyjnych (i kosztownych obliczeniowo) technik obliczania wariancji między badaniami (takich jak maksymalne prawdopodobieństwo, wiarygodność profilu i ograniczone metody największej wiarygodności), a modele efektów losowych wykorzystujące te metody można uruchamiać w programie Stata za pomocą polecenia metaan. Polecenie metaan należy odróżnić od klasycznego polecenia metan (pojedyncze „a”) w programie Stata, które używa estymatora DL. Te zaawansowane metody zostały również zaimplementowane w darmowym i łatwym w użyciu dodatku do programu Microsoft Excel, MetaEasy. Jednak porównanie między tymi zaawansowanymi metodami i metodą DL obliczania wariancji między badaniami wykazało, że niewiele można zyskać, a DL jest całkiem wystarczające w większości scenariuszy.

Jednak większość metaanaliz obejmuje między 2 oraz 4 badania, a taka próba jest najczęściej nieadekwatna do dokładnego oszacowania niejednorodności. Wydaje się zatem, że w małych metaanalizach uzyskuje się nieprawidłowe zero między oszacowaniem wariancji badania, co prowadzi do fałszywego założenia o jednorodności. Ogólnie wydaje się, że heterogeniczność jest konsekwentnie niedoceniana w metaanalizach i analizach wrażliwości, w których zakłada się, że wysoki poziom heterogeniczności może być pouczający. Te modele efektów losowych i pakiety oprogramowania, o których mowa powyżej, odnoszą się do metaanalizy zbiorczych badań, a badacze, którzy chcą przeprowadzić metaanalizy danych indywidualnych pacjentów (IPD), muszą wziąć pod uwagę metody modelowania efektów mieszanych.

IVhet modelEdit

Doi & Barendregt we współpracy z Khanem, Thalibem i Williamsem (z University of Queensland, University of Southern Queensland i Kuwait University) stworzyli odwrotną wariancję quasi-wiarygodna alternatywa (IVhet) dla modelu efektów losowych (RE), dla której szczegóły są dostępne online. Zostało to włączone do MetaXL w wersji 2.0, bezpłatnego dodatku Microsoft Excel do metaanalizy, wyprodukowanego przez Epigear International Pty Ltd i udostępnionego 5 kwietnia 2014 r. Autorzy stwierdzają, że wyraźną zaletą tego modelu jest to, że rozwiązuje główne problemy modelu efektów losowych. Pierwszą zaletą modelu IVhet jest to, że pokrycie pozostaje na nominalnym (zwykle 95%) poziomie dla przedziału ufności, w przeciwieństwie do modelu efektów losowych, którego pokrycie maleje wraz ze wzrostem niejednorodności. Drugą zaletą jest to, że model IVhet zachowuje odwrotne wagi wariancji poszczególnych badań, w przeciwieństwie do modelu RE, który nadaje małym badaniom większą wagę (a zatem mniejszym badaniom) przy rosnącej niejednorodności. Kiedy heterogeniczność staje się duża, wagi poszczególnych badań w modelu RE stają się równe, a zatem model RE zwraca raczej średnią arytmetyczną niż średnią ważoną. Ten efekt uboczny modelu RE nie występuje w modelu IVhet, który w ten sposób różni się od oszacowania modelu RE w dwóch perspektywach: Połączone szacunki będą faworyzować większe badania (w przeciwieństwie do karania większych prób w modelu RE) i będą miały pewność przedział pozostający w nominalnym pokryciu w warunkach niepewności (niejednorodność). Doi & Barendregt sugeruje, że chociaż model RE zapewnia alternatywną metodę łączenia danych z badania, ich wyniki symulacji pokazują, że przy użyciu bardziej sprecyzowanego modelu prawdopodobieństwa z założeniami nie do utrzymania, tak jak w przypadku modelu RE , niekoniecznie zapewnia lepsze wyniki. To ostatnie badanie podaje również, że model IVhet rozwiązuje problemy związane z niedoszacowaniem błędu statystycznego, słabym pokryciem przedziału ufności i zwiększonym MSE obserwowanym w modelu efektów losowych, a autorzy wnioskują, że badacze powinni odtąd zrezygnować z modelu efektów losowych. w metaanalizie. Chociaż ich dane są przekonujące, konsekwencje (pod względem wielkości fałszywie pozytywnych wyników w bazie danych Cochrane) są ogromne, a zatem zaakceptowanie tego wniosku wymaga starannego niezależnego potwierdzenia. Dostępność bezpłatnego oprogramowania (MetaXL), które obsługuje model IVhet (i wszystkie inne modele do porównania) ułatwia to społeczności badawczej.

Bezpośredni dowód: modele zawierające dodatkowe informacjeEdytuj

Model efektów jakościowych Wprowadzili nowe podejście do korygowania zmienności między badaniami poprzez uwzględnienie wkładu wariancji ze względu na odpowiedni składnik (jakość) oprócz wkładu wariancji spowodowanego błędem losowym, który jest używany w każdym modelu metaanalizy efektów stałych do generowania wagi dla każdego badania. Mocną stroną metaanalizy efektów jakościowych jest to, że pozwala ona na wykorzystanie dostępnych dowodów metodologicznych zamiast subiektywnych efektów losowych, a tym samym pomaga wypełnić szkodliwą lukę, która powstała między metodologią a statystyką w badaniach klinicznych. W tym celu obliczana jest syntetyczna wariancja odchylenia na podstawie informacji o jakości w celu dostosowania wag odwrotnych wariancji i wprowadzana jest waga skorygowana o jakość i-tego badania. Te skorygowane wagi są następnie wykorzystywane w metaanalizie. Innymi słowy, jeśli badanie i jest dobrej jakości, a inne badania są słabej jakości, część ich wag skorygowanych o jakość jest matematycznie redystrybuowana do badania i, nadając jej większą wagę do ogólnej wielkości efektu. W miarę jak badania stają się coraz bardziej podobne pod względem jakości, redystrybucja staje się stopniowo coraz mniejsza i ustaje, gdy wszystkie badania są jednakowej jakości (w przypadku równej jakości model efektów jakościowych domyślnie przyjmuje model IVhet – patrz poprzednia sekcja). Niedawna ocena modelu efektów jakościowych (z pewnymi aktualizacjami) pokazuje, że pomimo subiektywności oceny jakości wydajność (MSE i rzeczywista wariancja w ramach symulacji) jest lepsza niż osiągalna w modelu efektów losowych. W ten sposób model ten zastępuje niedopuszczalne interpretacje, które obfitują w literaturę, i dostępne jest oprogramowanie do dalszego zbadania tej metody.

Dowody pośrednie: metody metaanalizy sieciEdit

Metaanaliza sieci analizuje porównania pośrednie. Na zdjęciu, A zostało przeanalizowane w odniesieniu do C, a C zostało przeanalizowane w odniesieniu do b. Jednak związek między A i B jest znany tylko pośrednio, a metaanaliza sieci analizuje takie pośrednie dowody różnic między metodami i interwencjami przy użyciu metody statystycznej.

Porównanie pośrednie Metody metaanalizy (zwane także metaanalizami sieciowymi, w szczególności gdy ocenianych jest wiele terapii jednocześnie) na ogół wykorzystują dwie główne metodologie. Pierwsza to metoda Buchera, która polega na pojedynczym lub powtórzonym porównaniu zamkniętej pętli trzech zabiegów, tak że jedno z nich jest wspólne dla obu badań i tworzy węzeł, w którym pętla zaczyna się i kończy. Dlatego konieczne jest wielokrotne porównanie dwa na dwa (3 pętle zabiegów), aby porównać wiele terapii. Ta metodologia wymaga, aby w badaniach obejmujących więcej niż dwie odmiany wybrano tylko dwie odmiany, ponieważ wymagane są niezależne porównania parami. Alternatywna metodologia wykorzystuje złożone modelowanie statystyczne w celu jednoczesnego uwzględnienia badań z wieloma grupami i porównań między wszystkimi konkurującymi terapiami. Zostały one wykonane przy użyciu metod bayesowskich, mieszanych modeli liniowych i metod metaregresji.

Struktura bayesowskaEdit

Określenie modelu metaanalizy sieci bayesowskiej wymaga napisania skierowanego acyklicznego wykresu (DAG) model dla uniwersalnego oprogramowania Monte Carlo (MCMC) dla łańcucha Markowa, takiego jak WinBUGS. Ponadto dla szeregu parametrów należy określić wcześniejsze rozkłady, a dane należy dostarczyć w określonym formacie. DAG, wcześniejsze i dane razem tworzą hierarchiczny model bayesowski. Aby jeszcze bardziej skomplikować sprawę, ze względu na naturę oszacowania MCMC, należy wybrać nadmiernie rozproszone wartości początkowe dla wielu niezależnych łańcuchów, aby można było ocenić zbieżność. Obecnie nie ma oprogramowania, które automatycznie generuje takie modele, chociaż istnieją narzędzia, które mogą w tym pomóc. Złożoność podejścia bayesowskiego ma ograniczone zastosowanie tej metodologii. Zaproponowano metodologię automatyzacji tej metody, ale wymaga ona dostępności danych o wynikach na poziomie ramienia, co jest zwykle niedostępne. Czasami wysuwane są wielkie twierdzenia co do wrodzonej zdolności struktury bayesowskiej do obsługi metaanalizy sieci i jej większej elastyczności. Jednak ten wybór implementacji struktury do wnioskowania, bayesowskiego lub częstego, może być mniej ważny niż inne wybory dotyczące modelowania efektów (zobacz omówienie modeli powyżej).

Frequentist multivariate frameworkEdit

Z drugiej strony, częste metody wielowymiarowe obejmują aproksymacje i założenia, które nie są wyraźnie określone ani weryfikowane podczas stosowania tych metod (patrz omówienie powyżej modeli metaanaliz). Na przykład pakiet mvmeta dla Stata umożliwia metaanalizę sieci w częstoistycznym frameworku.Jeśli jednak w sieci nie ma wspólnego komparatora, należy sobie z tym poradzić, uzupełniając zbiór danych o ramiona fikcyjne o dużej wariancji, co nie jest zbyt obiektywne i wymaga decyzji, co stanowi wystarczająco dużą wariancję. Drugą kwestią jest użycie modelu efektów losowych zarówno w ramach częstościowych, jak i bayesowskich. Senn radzi analitykom, aby byli ostrożni przy interpretowaniu analizy „efektów losowych”, ponieważ dopuszcza się tylko jeden efekt losowy, ale można sobie wyobrazić wiele. Senn mówi dalej, że jest to raczej naiwne, nawet w przypadku, gdy porównuje się tylko dwie terapie, zakładając, że analiza efektów losowych odpowiada za wszelką niepewność co do tego, w jaki sposób efekty mogą się różnić w poszczególnych badaniach. Nowsze modele metaanalizy, takie jak te omówione powyżej, z pewnością pomogłyby złagodzić tę sytuację i zostały zaimplementowane w następnej strukturze.

Uogólnione ramy modelowania paramiEdytuj

Podejście, które zostało wypróbowane od późnych lat dziewięćdziesiątych XX wieku jest wdrażanie analizy w zamkniętej pętli wielokrotnych trzech zabiegów. Nie było to popularne, ponieważ proces szybko staje się przytłaczający wraz ze wzrostem złożoności sieci. Rozwój w tym obszarze został wówczas porzucony na rzecz metod bayesowskich i wielowymiarowych częstoistycznych, które pojawiły się jako alternatywy. Niedawno niektórzy badacze opracowali automatyzację metody zamkniętej pętli trzech zabiegów dla złożonych sieci jako sposób na udostępnienie tej metodologii społeczności badawczej głównego nurtu. Ta propozycja ogranicza każde badanie do dwóch interwencji, ale wprowadza również obejście dla prób z wieloma ramionami: można wybrać inny stały węzeł kontrolny w różnych przebiegach. Wykorzystuje również solidne metody metaanalizy, dzięki czemu można uniknąć wielu problemów przedstawionych powyżej. Konieczne są dalsze badania dotyczące tej struktury, aby określić, czy jest ona rzeczywiście lepsza od struktur bayesowskich lub wielowymiarowych częstościowych. Badacze, którzy chcą to wypróbować, mają dostęp do tej struktury za pośrednictwem bezpłatnego oprogramowania.

Metaanaliza dostosowana do potrzeb użytkownikaEdit

Inna forma dodatkowych informacji pochodzi z zamierzonych ustawień. Jeśli docelowe ustawienie stosowania wyników metaanalizy jest znane, może być możliwe użycie danych z ustawienia w celu dostosowania wyników, tworząc „dostosowaną metaanalizę”., Zostało to wykorzystane w metaanalizach dokładności testów, gdzie empiryczna wiedza na temat wskaźnika pozytywnych wyników testów i częstości występowania została wykorzystana do wyprowadzenia obszaru w przestrzeni charakterystyki operacyjnej odbiornika (ROC) znanego jako „region mający zastosowanie”. Następnie badania są wybierane do ustawienia celu w oparciu o porównanie z tym regionem i agregowane w celu uzyskania sumarycznego oszacowania, które jest dostosowane do ustawienia docelowego.

Agregacja IPD i ADEdit

Metaanaliza można również zastosować do łączenia WRZ i AZS. Jest to wygodne, gdy badacze, którzy przeprowadzają analizę, mają własne surowe dane, zbierając dane zbiorcze lub podsumowujące z literatury. Uogólniony model integracji (GIM) jest uogólnieniem metaanalizy. Pozwala to na to, że model dopasowany do indywidualnych danych uczestnika (WRZ) różni się od modelu używanego do obliczania danych zagregowanych (AD). GIM można postrzegać jako metodę kalibracji modelu do integracji informacji z większą elastycznością.

Walidacja wyników metaanalizyEdytuj

Oszacowanie metaanalizy reprezentuje średnią ważoną z badań, a kiedy jest niejednorodność, może to spowodować, że sumaryczne oszacowanie nie będzie reprezentatywne dla poszczególnych badań. Ocena jakościowa badań podstawowych przy użyciu uznanych narzędzi może ujawnić potencjalne odchylenia, ale nie określa ilościowo łącznego wpływu tych błędów na sumaryczne oszacowanie. Chociaż wynik metaanalizy można porównać z niezależnym prospektywnym badaniem podstawowym, taka zewnętrzna walidacja jest często niepraktyczna. Doprowadziło to do opracowania metod, które wykorzystują formę walidacji krzyżowej z pominięciem jednego wyjścia, czasami nazywaną wewnętrzną i zewnętrzną walidacją krzyżową (IOCV). Tutaj każde z k obejmujących badania jest z kolei pomijane i porównywane z sumarycznym oszacowaniem uzyskanym z agregacji pozostałych badań k-1. Ogólna statystyka walidacyjna Vn oparta na IOCV została opracowana w celu pomiaru statystycznej trafności wyników metaanalizy. Aby zapewnić dokładność testów i przewidywanie, szczególnie w przypadku efektów wielowymiarowych, zaproponowano również inne podejścia, które mają na celu oszacowanie błędu przewidywania.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *