Metaanalyse

ApproachesEdit

Im Allgemeinen können bei der Durchführung einer Metaanalyse zwei Arten von Nachweisen unterschieden werden: einzelne Teilnehmerdaten (IPD) und aggregierte Daten (AD) ). Die aggregierten Daten können direkt oder indirekt sein.

AD ist häufiger verfügbar (z. B. aus der Literatur) und repräsentiert typischerweise zusammenfassende Schätzungen wie Quotenverhältnisse oder relative Risiken. Dies kann über konzeptionell ähnliche Studien hinweg unter Verwendung verschiedener Ansätze direkt synthetisiert werden (siehe unten). Andererseits messen indirekte aggregierte Daten die Wirkung von zwei Behandlungen, die jeweils in einer Metaanalyse mit einer ähnlichen Kontrollgruppe verglichen wurden. Wenn beispielsweise Behandlung A und Behandlung B in separaten Metaanalysen direkt mit Placebo verglichen wurden, können wir diese beiden gepoolten Ergebnisse verwenden, um eine Schätzung der Wirkungen von A gegen B in einem indirekten Vergleich als Wirkung A gegen Placebo minus Wirkung B zu erhalten vs Placebo.

IPD-Nachweise stellen Rohdaten dar, die von den Studienzentren gesammelt wurden. Diese Unterscheidung hat den Bedarf an verschiedenen metaanalytischen Methoden erhöht, wenn eine Evidenzsynthese gewünscht wird, und zur Entwicklung von einstufigen und zweistufigen Methoden geführt. Bei einstufigen Methoden wird die IPD aus allen Studien gleichzeitig modelliert, wobei die Häufung von Teilnehmern innerhalb der Studien berücksichtigt wird. Zweistufige Methoden berechnen zunächst zusammenfassende Statistiken für AD aus jeder Studie und berechnen dann die Gesamtstatistik als gewichteten Durchschnitt der Studienstatistik. Durch Reduzieren von IPD auf AD können zweistufige Methoden auch angewendet werden, wenn IPD verfügbar ist. Dies macht sie zu einer attraktiven Wahl bei der Durchführung einer Metaanalyse. Obwohl herkömmlicherweise angenommen wird, dass einstufige und zweistufige Methoden ähnliche Ergebnisse liefern, haben neuere Studien gezeigt, dass sie gelegentlich zu unterschiedlichen Schlussfolgerungen führen können.

Statistische Modelle für aggregierte DatenEdit

Direkter Beweis: Modelle, die nur Studieneffekte enthaltenEdit

Modell mit festen EffektenEdit

Das Modell mit festen Effekten liefert einen gewichteten Durchschnitt einer Reihe von Studienschätzungen. Die Umkehrung der Schätzungen „Varianz wird üblicherweise als Studiengewicht verwendet, so dass größere Studien tendenziell mehr als kleinere Studien zum gewichteten Durchschnitt beitragen. Wenn Studien innerhalb einer Metaanalyse von einer sehr großen Studie dominiert werden, werden die Ergebnisse von kleinere Studien werden praktisch ignoriert. Am wichtigsten ist, dass das Modell mit festen Effekten davon ausgeht, dass alle eingeschlossenen Studien dieselbe Population untersuchen, dieselbe Variablen- und Ergebnisdefinition verwenden usw. Diese Annahme ist in der Regel unrealistisch, da die Forschung häufig mehreren Quellen von Heterogenität ausgesetzt ist, z Die Behandlungseffekte können je nach Gebietsschema, Dosierungsniveau, Studienbedingungen usw. unterschiedlich sein.

Modell für zufällige EffekteEdit

Ein gängiges Modell zur Synthese heterogener Forschung ist das Modell für zufällige Effekte von Meta- Analyse. Dies ist einfach der gewichtete Durchschnitt der Effektgrößen einer Gruppe von Studien. Das Gewicht, das bei diesem Prozess der gewichteten Mittelwertbildung mit einer Metaanalyse mit zufälligen Effekten angewendet wird, ist a in zwei Schritten durchgeführt:

  1. Schritt 1: Inverse Varianzgewichtung
  2. Schritt 2: Entgewichtung dieser inversen Varianzgewichtung durch Anwendung einer Zufallseffektvarianzkomponente (REVC) wird einfach aus dem Ausmaß der Variabilität der Effektgrößen der zugrunde liegenden Studien abgeleitet.

Dies bedeutet, dass je größer diese Variabilität der Effektgrößen (auch als Heterogenität bezeichnet) ist, desto größer ist die Un- Gewichtung und dies kann einen Punkt erreichen, an dem das Ergebnis der Metaanalyse mit zufälligen Effekten einfach die ungewichtete durchschnittliche Effektgröße über die Studien hinweg wird. Im anderen Extremfall wird, wenn alle Effektgrößen ähnlich sind (oder die Variabilität den Stichprobenfehler nicht überschreitet), keine REVC angewendet, und die Metaanalyse mit zufälligen Effekten verwendet standardmäßig lediglich eine Metaanalyse mit festem Effekt (nur inverse Varianzgewichtung).

Das Ausmaß dieser Umkehrung hängt ausschließlich von zwei Faktoren ab:

  1. Heterogenität der Präzision
  2. Heterogenität der Effektgröße
  3. Da keiner dieser Faktoren automatisch auf eine fehlerhafte größere Studie oder zuverlässigere kleinere Studien hinweist, hat die Umverteilung der Gewichte unter diesem Modell keinen Zusammenhang mit dem, was diese Studien tatsächlich bieten könnten. In der Tat wurde gezeigt, dass die Umverteilung von Gewichten mit zunehmender Heterogenität einfach in eine Richtung von größeren zu kleineren Studien erfolgt, bis schließlich alle Studien das gleiche Gewicht haben und keine weitere Umverteilung mehr möglich ist. Ein weiteres Problem beim Zufallseffektmodell ist das am häufigsten verwendete Konfidenzintervalle behalten im Allgemeinen ihre Abdeckungswahrscheinlichkeit nicht über dem angegebenen nominalen Niveau bei und unterschätzen daher den statistischen Fehler erheblich und sind in ihren Schlussfolgerungen möglicherweise zu zuversichtlich. Es wurden mehrere Korrekturen vorgeschlagen, aber die Debatte geht weiter.Ein weiteres Problem ist, dass der durchschnittliche Behandlungseffekt im Vergleich zum Modell mit festem Effekt manchmal noch weniger konservativ und daher in der Praxis irreführend sein kann. Eine vorgeschlagene Interpretationskorrektur besteht darin, ein Vorhersageintervall um die Schätzung der zufälligen Effekte zu erstellen, um den Bereich möglicher Effekte in der Praxis darzustellen. Eine Annahme hinter der Berechnung eines solchen Vorhersageintervalls ist jedoch, dass Studien als mehr oder weniger homogene Einheiten betrachtet werden und Patientenpopulationen und Vergleichsbehandlungen als austauschbar angesehen werden sollten, und dies ist in der Praxis normalerweise nicht erreichbar.

    Die Die am weitesten verbreitete Methode zur Schätzung der Varianz zwischen Studien (REVC) ist der DerSimonian-Laird (DL) -Ansatz. Es gibt mehrere fortgeschrittene iterative (und rechenintensive) Techniken zur Berechnung der Varianz zwischen Studien (wie Methoden mit maximaler Wahrscheinlichkeit, Profilwahrscheinlichkeit und eingeschränkter maximaler Wahrscheinlichkeit), und Modelle mit zufälligen Effekten, die diese Methoden verwenden, können in Stata mit dem Befehl metaan ausgeführt werden. Der Metaan-Befehl muss von dem klassischen Metan-Befehl (einzelnes „a“) in Stata unterschieden werden, der den DL-Schätzer verwendet. Diese erweiterten Methoden wurden auch in einem kostenlosen und benutzerfreundlichen Microsoft Excel-Add-On, MetaEasy, implementiert. Ein Vergleich zwischen diesen fortgeschrittenen Methoden und der DL-Methode zur Berechnung der Varianz zwischen den Studien hat jedoch gezeigt, dass es wenig zu gewinnen gibt und DL in den meisten Szenarien völlig ausreichend ist.

    Die meisten Metaanalysen umfassen jedoch zwischen 2 und 4 Studien und eine solche Stichprobe ist meistens nicht ausreichend, um die Heterogenität genau abzuschätzen. Daher scheint es, dass in kleinen Metaanalysen eine falsche Null zwischen der Varianzschätzung der Studie erhalten wird, was zu einer falschen Homogenitätsannahme führt. Insgesamt scheint die Heterogenität in Metaanalysen und Sensitivitätsanalysen, bei denen hohe Heterogenitätsniveaus angenommen werden, immer wieder unterschätzt zu werden. Diese oben genannten Modelle und Softwarepakete mit zufälligen Effekten beziehen sich auf studienaggregierte Metaanalysen, und Forscher, die Metaanalysen mit individuellen Patientendaten (IPD) durchführen möchten, müssen Modellierungsansätze mit gemischten Effekten berücksichtigen.

    IVhet modelEdit

    Doi & Barendregt hat in Zusammenarbeit mit Khan, Thalib und Williams (von der University of Queensland, der University of Southern Queensland und der Kuwait University) eine inverse Varianz erzeugt Quasi-Likelihood-basierte Alternative (IVhet) zum Zufallseffektmodell (RE), für das Details online verfügbar sind. Dies wurde in MetaXL Version 2.0 integriert, ein kostenloses Microsoft Excel-Add-In für die Metaanalyse, das von Epigear International Pty Ltd erstellt und am 5. April 2014 zur Verfügung gestellt wurde. Die Autoren geben an, dass ein klarer Vorteil dieses Modells darin besteht, dass es die beiden Probleme löst Hauptprobleme des Zufallseffektmodells. Der erste Vorteil des IVhet-Modells besteht darin, dass die Abdeckung für das Konfidenzintervall auf dem nominalen Niveau (normalerweise 95%) bleibt, im Gegensatz zum Modell mit zufälligen Effekten, dessen Abdeckung mit zunehmender Heterogenität abnimmt. Der zweite Vorteil besteht darin, dass das IVhet-Modell die inversen Varianzgewichte einzelner Studien beibehält, im Gegensatz zum RE-Modell, bei dem kleine Studien mit zunehmender Heterogenität mehr Gewicht (und damit größere Studien weniger) erhalten. Wenn die Heterogenität groß wird, werden die einzelnen Studiengewichte unter dem RE-Modell gleich und somit gibt das RE-Modell eher ein arithmetisches Mittel als einen gewichteten Durchschnitt zurück. Dieser Nebeneffekt des RE-Modells tritt beim IVhet-Modell nicht auf, das sich daher in zwei Perspektiven von der RE-Modellschätzung unterscheidet: Gepoolte Schätzungen begünstigen größere Studien (im Gegensatz zur Bestrafung größerer Studien im RE-Modell) und haben Vertrauen Intervall, das unter Unsicherheit (Heterogenität) innerhalb der nominalen Abdeckung bleibt. Doi & Barendregt schlägt vor, dass das RE-Modell zwar eine alternative Methode zur Zusammenfassung der Studiendaten bietet, die Simulationsergebnisse jedoch zeigen, dass ein spezifizierteres Wahrscheinlichkeitsmodell mit unhaltbaren Annahmen wie beim RE-Modell verwendet wird liefert nicht unbedingt bessere Ergebnisse. Die letztere Studie berichtet auch, dass das IVhet-Modell die Probleme im Zusammenhang mit der Unterschätzung des statistischen Fehlers, der schlechten Abdeckung des Konfidenzintervalls und der erhöhten MSE, die mit dem Zufallseffektmodell beobachtet wurden, löst, und die Autoren kommen zu dem Schluss, dass Forscher die Verwendung des Zufallseffektmodells künftig aufgeben sollten in der Metaanalyse. Obwohl ihre Daten überzeugend sind, sind die Auswirkungen (in Bezug auf das Ausmaß falsch positiver Ergebnisse in der Cochrane-Datenbank) enorm und die Akzeptanz dieser Schlussfolgerung erfordert daher eine sorgfältige unabhängige Bestätigung. Die Verfügbarkeit einer freien Software (MetaXL), auf der das IVhet-Modell (und alle anderen Vergleichsmodelle) ausgeführt wird, erleichtert dies der Forschungsgemeinschaft.

    Direkter Beweis: Modelle mit zusätzlichen InformationenEdit

    QualitätseffektmodellEdit

    Doi und Thalib haben ursprünglich das Qualitätseffektmodell eingeführt. Sie führten einen neuen Ansatz zur Anpassung der Variabilität zwischen Studien ein, indem sie den Beitrag der Varianz aufgrund einer relevanten Komponente (Qualität) zusätzlich zum Beitrag der Varianz aufgrund eines zufälligen Fehlers einbezogen, der in jedem Metaanalysemodell mit festen Effekten zur Erzeugung verwendet wird Gewichte für jede Studie. Die Stärke der Metaanalyse von Qualitätseffekten besteht darin, dass verfügbare methodische Beweise über subjektive zufällige Effekte hinweg verwendet werden können, wodurch die schädliche Lücke geschlossen wird, die sich zwischen Methodik und Statistik in der klinischen Forschung geöffnet hat. Zu diesem Zweck wird eine synthetische Bias-Varianz basierend auf Qualitätsinformationen berechnet, um die inversen Varianzgewichte anzupassen, und das qualitätsangepasste Gewicht der i-ten Studie wird eingeführt. Diese angepassten Gewichte werden dann in der Metaanalyse verwendet. Mit anderen Worten, wenn die Studie i von guter Qualität ist und andere Studien von schlechter Qualität sind, wird ein Teil ihrer qualitätsangepassten Gewichte mathematisch neu verteilt, um die Studie i stärker auf die Gesamteffektgröße auszurichten. Da sich die Studien hinsichtlich der Qualität immer ähnlicher werden, wird die Umverteilung zunehmend geringer und endet, wenn alle Studien von gleicher Qualität sind (bei gleicher Qualität wird standardmäßig das IVhet-Modell verwendet – siehe vorherigen Abschnitt). Eine kürzlich durchgeführte Bewertung des Modells für Qualitätseffekte (mit einigen Aktualisierungen) zeigt, dass trotz der Subjektivität der Qualitätsbewertung die Leistung (MSE und wahre Varianz unter Simulation) der mit dem Zufallseffektmodell erzielbaren Leistung überlegen ist. Dieses Modell ersetzt somit die unhaltbaren Interpretationen, die in der Literatur im Überfluss vorhanden sind, und es steht eine Software zur Verfügung, um diese Methode weiter zu untersuchen.

    Indirekte Beweise: Netzwerk-Metaanalyse-MethodenEdit

    Eine Netzwerk-Metaanalyse untersucht indirekte Vergleiche. Im Bild wurde A in Bezug auf C und C in Bezug auf b analysiert. Die Beziehung zwischen A und B ist jedoch nur indirekt bekannt, und eine Netzwerk-Metaanalyse untersucht solche indirekten Hinweise auf Unterschiede zwischen Methoden und Interventionen unter Verwendung statistischer Methoden.

    Indirekter Vergleich Metaanalysemethoden (auch Netzwerk-Metaanalysen genannt, insbesondere wenn mehrere Behandlungen gleichzeitig bewertet werden) verwenden im Allgemeinen zwei Hauptmethoden. Erstens ist die Bucher-Methode ein einzelner oder wiederholter Vergleich einer geschlossenen Schleife von drei Behandlungen, so dass eine von beiden den beiden Studien gemeinsam ist und den Knoten bildet, an dem die Schleife beginnt und endet. Daher sind mehrere Zwei-mal-Zwei-Vergleiche (3-Behandlungsschleifen) erforderlich, um mehrere Behandlungen zu vergleichen. Diese Methode erfordert, dass bei Versuchen mit mehr als zwei Armen nur zwei Arme ausgewählt werden, da unabhängige paarweise Vergleiche erforderlich sind. Die alternative Methodik verwendet eine komplexe statistische Modellierung, um die Mehrarmversuche und Vergleiche gleichzeitig zwischen allen konkurrierenden Behandlungen einzuschließen. Diese wurden mit Bayesschen Methoden, gemischten linearen Modellen und Meta-Regressionsansätzen ausgeführt.

    Bayesianisches FrameworkEdit

    Um ein Bayessches Netzwerk-Metaanalysemodell anzugeben, muss ein gerichteter azyklischer Graph (DAG) geschrieben werden. Modell für Allzweck-Markov-Ketten-Monte-Carlo-Software (MCMC) wie WinBUGS. Darüber hinaus müssen für eine Reihe von Parametern vorherige Verteilungen angegeben und die Daten in einem bestimmten Format bereitgestellt werden. DAG, Priors und Daten bilden zusammen ein Bayessches hierarchisches Modell. Um die Sache weiter zu verkomplizieren, müssen aufgrund der Art der MCMC-Schätzung überdisperse Startwerte für eine Reihe unabhängiger Ketten gewählt werden, damit die Konvergenz bewertet werden kann. Derzeit gibt es keine Software, die solche Modelle automatisch generiert, obwohl es einige Tools gibt, die den Prozess unterstützen. Die Komplexität des Bayesschen Ansatzes hat die Verwendung dieser Methodik begrenzt. Eine Methode zur Automatisierung dieser Methode wurde vorgeschlagen, erfordert jedoch, dass Ergebnisdaten auf Armebene verfügbar sind, und diese sind normalerweise nicht verfügbar. Manchmal werden große Ansprüche an die inhärente Fähigkeit des Bayesschen Frameworks gestellt, Netzwerk-Metaanalysen durchzuführen, und an seine größere Flexibilität. Diese Wahl der Implementierung des Inferenzrahmens, Bayesian oder Frequentist, ist jedoch möglicherweise weniger wichtig als andere Entscheidungen hinsichtlich der Modellierung von Effekten (siehe Diskussion zu den obigen Modellen).

    Frequentist multivariate FrameworkEdit

    Andererseits beinhalten die häufig vorkommenden multivariaten Methoden Näherungen und Annahmen, die bei Anwendung der Methoden nicht explizit angegeben oder verifiziert werden (siehe Diskussion über Metaanalysemodelle oben). Das mvmeta-Paket für Stata ermöglicht beispielsweise die Netzwerk-Metaanalyse in einem frequentistischen Rahmen.Wenn es jedoch keinen gemeinsamen Komparator im Netzwerk gibt, muss dies durch Erweitern des Datensatzes mit fiktiven Armen mit hoher Varianz behandelt werden, was nicht sehr objektiv ist und eine Entscheidung darüber erfordert, was eine ausreichend hohe Varianz darstellt. Das andere Problem ist die Verwendung des Zufallseffektmodells sowohl in diesem frequentistischen als auch im Bayesschen Rahmen. Senn rät Analysten, bei der Interpretation der „Zufallseffekt“ -Analyse vorsichtig zu sein, da nur ein Zufallseffekt zulässig ist, man sich jedoch viele vorstellen kann. Senn fährt fort, dass es ziemlich naiv ist, selbst wenn nur zwei Behandlungen verglichen werden, um anzunehmen, dass die Random-Effects-Analyse alle Unsicherheiten darüber berücksichtigt, wie die Effekte von Studie zu Studie variieren können. Neuere Modelle der Metaanalyse wie die oben diskutierten würden sicherlich dazu beitragen, diese Situation zu lindern, und wurden im nächsten Framework implementiert.

    Verallgemeinertes paarweises ModellierungsframeworkEdit

    Ein Ansatz, der versucht wurde Seit Ende der neunziger Jahre erfolgt die Implementierung der Mehrfachanalyse mit drei Behandlungskreisen. Dies war nicht beliebt, da der Prozess mit zunehmender Netzwerkkomplexität schnell überwältigend wird. Die Entwicklung in diesem Bereich wurde dann zugunsten der Bayesschen und multivariaten frequentistischen Methoden aufgegeben, die sich als Alternativen herausstellten. In jüngster Zeit wurde von einigen Forschern die Automatisierung der Drei-Behandlungs-Closed-Loop-Methode für komplexe Netzwerke entwickelt, um diese Methodik der Mainstream-Forschungsgemeinschaft zur Verfügung zu stellen. Dieser Vorschlag beschränkt jeden Versuch auf zwei Eingriffe, führt jedoch auch eine Problemumgehung für Versuche mit mehreren Armen ein: Ein anderer fester Kontrollknoten kann in verschiedenen Läufen ausgewählt werden. Es werden auch robuste Metaanalysemethoden verwendet, damit viele der oben genannten Probleme vermieden werden. Weitere Untersuchungen zu diesem Rahmen sind erforderlich, um festzustellen, ob dieser den Bayesschen oder multivariaten frequentistischen Rahmenbedingungen tatsächlich überlegen ist. Forscher, die dies ausprobieren möchten, haben über eine kostenlose Software Zugriff auf dieses Framework.

    Maßgeschneiderte MetaanalyseEdit

    Eine andere Form zusätzlicher Informationen ergibt sich aus der beabsichtigten Einstellung. Wenn die Zieleinstellung für die Anwendung der Metaanalyseergebnisse bekannt ist, können möglicherweise Daten aus der Einstellung verwendet werden, um die Ergebnisse anzupassen, wodurch eine „maßgeschneiderte Metaanalyse“ erstellt wird. Dies wurde in Metaanalysen zur Testgenauigkeit verwendet. wobei empirische Kenntnisse der positiven Testrate und der Prävalenz verwendet wurden, um eine Region im ROC-Raum (Receiver Operating Characteristic) abzuleiten, die als „anwendbare Region“ bekannt ist. Die Studien werden dann basierend auf dem Vergleich mit dieser Region für die Zieleinstellung ausgewählt und aggregiert, um eine zusammenfassende Schätzung zu erstellen, die auf die Zieleinstellung zugeschnitten ist.

    Aggregation von IPD- und ADEdit

    Metaanalyse kann auch angewendet werden, um IPD und AD zu kombinieren. Dies ist praktisch, wenn die Forscher, die die Analyse durchführen, ihre eigenen Rohdaten haben, während sie aggregierte oder zusammenfassende Daten aus der Literatur sammeln. Das Generalized Integration Model (GIM) ist eine Verallgemeinerung der Metaanalyse. Dies ermöglicht, dass sich das auf die einzelnen Teilnehmerdaten (IPD) angepasste Modell von dem unterscheidet, das zur Berechnung der aggregierten Daten (AD) verwendet wird. GIM kann als Modellkalibrierungsmethode für eine flexiblere Integration von Informationen angesehen werden.

    Validierung der MetaanalyseergebnisseEdit

    Die Metaanalyse-Schätzung stellt einen gewichteten Durchschnitt über Studien hinweg dar und wenn vorhanden Aufgrund der Heterogenität kann dies dazu führen, dass die zusammenfassende Schätzung nicht für einzelne Studien repräsentativ ist. Eine qualitative Bewertung der Primärstudien unter Verwendung etablierter Tools kann potenzielle Verzerrungen aufdecken, quantifiziert jedoch nicht den Gesamteffekt dieser Verzerrungen auf die zusammenfassende Schätzung. Obwohl das Ergebnis der Metaanalyse mit einer unabhängigen prospektiven Primärstudie verglichen werden könnte, ist eine solche externe Validierung häufig unpraktisch. Dies hat zur Entwicklung von Methoden geführt, die eine Form der einmaligen Kreuzvalidierung ausnutzen, die manchmal als interne-externe Kreuzvalidierung (IOCV) bezeichnet wird. Hier wird jede der k eingeschlossenen Studien der Reihe nach weggelassen und mit der zusammenfassenden Schätzung verglichen, die aus der Aggregation der verbleibenden k-1-Studien abgeleitet wurde. Eine allgemeine Validierungsstatistik, Vn basierend auf IOCV, wurde entwickelt, um die statistische Validität von Metaanalyseergebnissen zu messen. Für die Testgenauigkeit und Vorhersage, insbesondere wenn es multivariate Effekte gibt, wurden auch andere Ansätze vorgeschlagen, die versuchen, den Vorhersagefehler abzuschätzen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.