Metanálisis

EnfoquesEditar

En general, se pueden distinguir dos tipos de evidencia al realizar un metanálisis: datos de participantes individuales (IPD) y datos agregados (AD ). Los datos agregados pueden ser directos o indirectos.

La EA está más comúnmente disponible (por ejemplo, en la literatura) y generalmente representa estimaciones resumidas como razones de probabilidades o riesgos relativos. Esto puede sintetizarse directamente a través de estudios conceptualmente similares utilizando varios enfoques (ver más abajo). Por otro lado, los datos agregados indirectos miden el efecto de dos tratamientos que se compararon cada uno con un grupo de control similar en un metanálisis. Por ejemplo, si el tratamiento A y el tratamiento B se compararon directamente con placebo en metanálisis separados, podemos usar estos dos resultados combinados para obtener una estimación de los efectos de A frente a B en una comparación indirecta como efecto A frente a placebo menos efecto B vs Placebo.

La evidencia de DPI representa datos sin procesar recolectados por los centros de estudio. Esta distinción ha planteado la necesidad de diferentes métodos metaanalíticos cuando se desea la síntesis de evidencia, y ha llevado al desarrollo de métodos de una y dos etapas. En los métodos de una etapa, los DPI de todos los estudios se modelan simultáneamente mientras se tiene en cuenta la agrupación de participantes dentro de los estudios. Los métodos de dos etapas primero calculan estadísticas resumidas para la EA de cada estudio y luego calculan las estadísticas generales como un promedio ponderado de las estadísticas del estudio. Al reducir la IPD a AD, también se pueden aplicar métodos de dos etapas cuando la IPD está disponible; esto los convierte en una opción atractiva a la hora de realizar un metanálisis. Aunque se cree convencionalmente que los métodos de una etapa y de dos etapas producen resultados similares, estudios recientes han demostrado que ocasionalmente pueden llevar a conclusiones diferentes.

Modelos estadísticos para datos agregadosEditar

Evidencia directa: Modelos que solo incorporan efectos de estudioEditar

Modelo de efectos fijosEditar

El modelo de efectos fijos proporciona un promedio ponderado de una serie de estimaciones de estudio. El inverso de las estimaciones «la varianza se utiliza comúnmente como ponderación del estudio, por lo que los estudios más grandes tienden a contribuir más que los estudios más pequeños al promedio ponderado. En consecuencia, cuando los estudios dentro de un metanálisis están dominados por un estudio muy grande, los resultados de Los estudios más pequeños son prácticamente ignorados. Lo que es más importante, el modelo de efectos fijos supone que todos los estudios incluidos investigan la misma población, utilizan las mismas variables y definiciones de resultado, etc. Esta suposición no suele ser realista, ya que la investigación suele ser propensa a varias fuentes de heterogeneidad; p. los efectos del tratamiento pueden diferir según el lugar, los niveles de dosificación, las condiciones del estudio, …

Modelo de efectos aleatoriosEditar

Un modelo común utilizado para sintetizar investigaciones heterogéneas es el modelo de efectos aleatorios de meta- Este es simplemente el promedio ponderado de los tamaños del efecto de un grupo de estudios. El peso que se aplica en este proceso de promedio ponderado con un metanálisis de efectos aleatorios es un realizado en dos pasos:

  1. Paso 1: Ponderación de la varianza inversa
  2. Paso 2: Desponderación de esta ponderación de la varianza inversa aplicando un componente de varianza de efectos aleatorios (REVC) que se deriva simplemente del grado de variabilidad de los tamaños del efecto de los estudios subyacentes.

Esto significa que cuanto mayor es esta variabilidad en los tamaños del efecto (también conocida como heterogeneidad), mayor es la ponderación y esto puede llegar a un punto en el que el resultado del metanálisis de efectos aleatorios se convierte simplemente en el tamaño del efecto promedio no ponderado en los estudios. En el otro extremo, cuando todos los tamaños del efecto son similares (o la variabilidad no excede el error de muestreo), no se aplica REVC y el metanálisis de efectos aleatorios cambia por defecto a un metanálisis de efectos fijos (solo ponderación de la varianza inversa).

El alcance de esta inversión depende únicamente de dos factores:

  1. Heterogeneidad de precisión
  2. Heterogeneidad del tamaño del efecto

Dado que ninguno de estos factores indica automáticamente un estudio más grande defectuoso o estudios más pequeños más confiables, la redistribución de pesos bajo este modelo no tendrá una relación con lo que estos estudios realmente podrían ofrecer. De hecho, se ha demostrado que la redistribución de pesos es simplemente en una dirección de estudios más grandes a más pequeños a medida que aumenta la heterogeneidad hasta que finalmente todos los estudios tienen el mismo peso y no es posible más redistribución. Otro problema con el modelo de efectos aleatorios es que el más comúnmente utilizado Los intervalos de confianza generalmente no retienen su probabilidad de cobertura por encima del nivel nominal especificado y, por lo tanto, subestiman sustancialmente el error estadístico y son potencialmente demasiado confiados en sus conclusiones. Se han sugerido varias correcciones, pero el debate continúa.Otra preocupación es que el efecto medio del tratamiento a veces puede ser incluso menos conservador en comparación con el modelo de efectos fijos y, por tanto, engañoso en la práctica. Una solución de interpretación que se ha sugerido es crear un intervalo de predicción alrededor de la estimación de efectos aleatorios para representar el rango de posibles efectos en la práctica. Sin embargo, una suposición detrás del cálculo de dicho intervalo de predicción es que los ensayos se consideran entidades más o menos homogéneas y que las poblaciones de pacientes incluidas y los tratamientos de comparación deben considerarse intercambiables y esto generalmente es inalcanzable en la práctica.

El El método más utilizado para estimar la varianza entre estudios (REVC) es el enfoque DerSimonian-Laird (DL). Existen varias técnicas iterativas avanzadas (y computacionalmente costosas) para calcular la varianza entre estudios (como los métodos de probabilidad máxima, probabilidad de perfil y probabilidad máxima restringida) y los modelos de efectos aleatorios que utilizan estos métodos se pueden ejecutar en Stata con el comando metaan. El comando metaan debe distinguirse del comando clásico metan («a» simple) en Stata que usa el estimador DL. Estos métodos avanzados también se han implementado en un complemento de Microsoft Excel gratuito y fácil de usar, MetaEasy. Sin embargo, una comparación entre estos métodos avanzados y el método DL para calcular la varianza entre estudios demostró que hay poco que ganar y que la DL es bastante adecuada en la mayoría de los escenarios.

Sin embargo, la mayoría de los metanálisis incluyen entre 2 y 4 estudios y tal muestra es a menudo inadecuada para estimar con precisión la heterogeneidad. Por lo tanto, parece que en pequeños metanálisis se obtiene un cero incorrecto entre la estimación de la varianza del estudio, lo que lleva a una falsa suposición de homogeneidad. En general, parece que la heterogeneidad se subestima de manera constante en los metanálisis y los análisis de sensibilidad en los que se asumen niveles altos de heterogeneidad podrían ser informativos. Estos modelos de efectos aleatorios y paquetes de software mencionados anteriormente se relacionan con metanálisis de estudios agregados y los investigadores que deseen realizar metanálisis de datos de pacientes individuales (DPI) deben considerar enfoques de modelado de efectos mixtos.

IVhet modelEdit

Doi & Barendregt, en colaboración con Khan, Thalib y Williams (de la Universidad de Queensland, la Universidad del Sur de Queensland y la Universidad de Kuwait), ha creado una variación inversa alternativa basada en cuasi verosimilitud (IVhet) al modelo de efectos aleatorios (RE) para el que los detalles están disponibles en línea. Esto se incorporó a la versión 2.0 de MetaXL, un complemento gratuito de Microsoft Excel para el metanálisis producido por Epigear International Pty Ltd, y estuvo disponible el 5 de abril de 2014. Los autores afirman que una clara ventaja de este modelo es que resuelve los dos principales problemas del modelo de efectos aleatorios. La primera ventaja del modelo IVhet es que la cobertura se mantiene en el nivel nominal (generalmente 95%) para el intervalo de confianza, a diferencia del modelo de efectos aleatorios, que disminuye la cobertura al aumentar la heterogeneidad. La segunda ventaja es que el modelo IVhet mantiene las ponderaciones de la varianza inversa de los estudios individuales, a diferencia del modelo RE, que otorga más peso a los estudios pequeños (y por lo tanto menos a los estudios más grandes) con una heterogeneidad creciente. Cuando la heterogeneidad se vuelve grande, las ponderaciones de los estudios individuales bajo el modelo RE se vuelven iguales y, por lo tanto, el modelo RE devuelve una media aritmética en lugar de un promedio ponderado. Este efecto secundario del modelo RE no ocurre con el modelo IVhet que, por lo tanto, difiere de la estimación del modelo RE en dos perspectivas: las estimaciones agrupadas favorecerán los ensayos más grandes (en lugar de penalizar los ensayos más grandes en el modelo RE) y tendrán una confianza intervalo que permanece dentro de la cobertura nominal bajo incertidumbre (heterogeneidad). Doi & Barendregt sugiere que, si bien el modelo de ER proporciona un método alternativo para agrupar los datos del estudio, los resultados de su simulación demuestran que el uso de un modelo de probabilidad más especificado con supuestos insostenibles, como con el modelo de ER , no proporciona necesariamente mejores resultados. El último estudio también informa que el modelo IVhet resuelve los problemas relacionados con la subestimación del error estadístico, la cobertura deficiente del intervalo de confianza y el aumento de MSE observado con el modelo de efectos aleatorios y los autores concluyen que los investigadores deberían abandonar en lo sucesivo el uso del modelo de efectos aleatorios. en metanálisis. Si bien sus datos son convincentes, las ramificaciones (en términos de la magnitud de los resultados falsos positivos dentro de la base de datos Cochrane) son enormes y, por lo tanto, aceptar esta conclusión requiere una cuidadosa confirmación independiente. La disponibilidad de un software gratuito (MetaXL) que ejecuta el modelo IVhet (y todos los demás modelos para comparar) facilita esto para la comunidad de investigadores.

Evidencia directa: modelos que incorporan información adicional. Editar

Modelo de efectos de calidad. Editar

Doi y Thalib introdujeron originalmente el modelo de efectos de calidad. Introdujeron un nuevo enfoque para el ajuste de la variabilidad entre estudios incorporando la contribución de la varianza debido a un componente relevante (calidad) además de la contribución de la varianza debido al error aleatorio que se utiliza en cualquier modelo de metanálisis de efectos fijos para generar pesos para cada estudio. La fuerza del metanálisis de efectos de calidad es que permite utilizar la evidencia metodológica disponible sobre los efectos aleatorios subjetivos y, por lo tanto, ayuda a cerrar la brecha dañina que se ha abierto entre la metodología y las estadísticas en la investigación clínica. Para hacer esto, se calcula una varianza de sesgo sintética basada en información de calidad para ajustar las ponderaciones de la varianza inversa y se introduce la ponderación ajustada por calidad del i-ésimo estudio. Estos pesos ajustados se utilizan luego en el metanálisis. En otras palabras, si el estudio i es de buena calidad y otros estudios son de mala calidad, una proporción de sus ponderaciones ajustadas por calidad se redistribuye matemáticamente para estudiar i dándole más peso hacia el tamaño del efecto general. A medida que los estudios se vuelven cada vez más similares en términos de calidad, la redistribución se vuelve progresivamente menor y cesa cuando todos los estudios son de igual calidad (en el caso de la misma calidad, el modelo de efectos de calidad cambia por defecto al modelo IVhet; consulte la sección anterior). Una evaluación reciente del modelo de efectos de calidad (con algunas actualizaciones) demuestra que a pesar de la subjetividad de la evaluación de la calidad, el desempeño (MSE y la varianza real bajo simulación) es superior al que se puede lograr con el modelo de efectos aleatorios. Por lo tanto, este modelo reemplaza las interpretaciones insostenibles que abundan en la literatura y hay un software disponible para explorar este método más a fondo.

Evidencia indirecta: métodos de metanálisis en redEditar

Un metanálisis de red analiza las comparaciones indirectas. En la imagen, A se ha analizado en relación con C y C se ha analizado en relación con b. Sin embargo, la relación entre A y B solo se conoce indirectamente, y un metanálisis en red analiza la evidencia indirecta de las diferencias entre los métodos y las intervenciones utilizando un método estadístico.

Comparación indirecta Los métodos de metanálisis (también denominados metanálisis en red, en particular cuando se evalúan varios tratamientos simultáneamente) generalmente utilizan dos metodologías principales. En primer lugar, está el método de Bucher, que es una comparación única o repetida de un ciclo cerrado de tres tratamientos, de modo que uno de ellos es común a los dos estudios y forma el nodo donde comienza y termina el ciclo. Por lo tanto, se necesitan múltiples comparaciones de dos por dos (ciclos de 3 tratamientos) para comparar múltiples tratamientos. Esta metodología requiere que los ensayos con más de dos brazos tengan dos brazos seleccionados solo ya que se requieren comparaciones independientes por pares. La metodología alternativa utiliza modelos estadísticos complejos para incluir los ensayos de múltiples brazos y las comparaciones simultáneamente entre todos los tratamientos en competencia. Estos se han ejecutado utilizando métodos bayesianos, modelos lineales mixtos y enfoques de metarregresión.

Marco bayesianoEditar

Especificar un modelo de metanálisis de red bayesiana implica escribir un gráfico acíclico dirigido (DAG) modelo para software de cadena de Markov Monte Carlo (MCMC) de propósito general, como WinBUGS. Además, deben especificarse distribuciones previas para varios de los parámetros y los datos deben proporcionarse en un formato específico. Juntos, el DAG, los antecedentes y los datos forman un modelo jerárquico bayesiano. Para complicar aún más las cosas, debido a la naturaleza de la estimación de MCMC, deben elegirse valores de partida sobredispersos para varias cadenas independientes, de modo que se pueda evaluar la convergencia. Actualmente, no existe ningún software que genere automáticamente dichos modelos, aunque existen algunas herramientas para ayudar en el proceso. La complejidad del enfoque bayesiano tiene un uso limitado de esta metodología. Se ha sugerido una metodología para la automatización de este método, pero requiere que los datos de resultados a nivel de brazo estén disponibles, y esto generalmente no está disponible. A veces se hacen grandes afirmaciones sobre la capacidad inherente del marco bayesiano para manejar el metanálisis de redes y su mayor flexibilidad. Sin embargo, esta elección de implementación del marco para la inferencia, bayesiano o frecuentista, puede ser menos importante que otras opciones con respecto al modelado de efectos (ver la discusión sobre los modelos más arriba).

Marco multivariante frecuenteEditar

Por otro lado, los métodos multivariados frecuentistas implican aproximaciones y suposiciones que no se declaran explícitamente o no se verifican cuando se aplican los métodos (ver discusión sobre los modelos de metanálisis más arriba). Por ejemplo, el paquete mvmeta para Stata permite el metanálisis de redes en un marco frecuentista.Sin embargo, si no hay un comparador común en la red, entonces esto debe manejarse aumentando el conjunto de datos con brazos ficticios con alta varianza, lo cual no es muy objetivo y requiere una decisión sobre lo que constituye una varianza suficientemente alta. El otro problema es el uso del modelo de efectos aleatorios tanto en este marco frecuentista como en el marco bayesiano. Senn aconseja a los analistas que sean cautelosos al interpretar el análisis de «efectos aleatorios», ya que sólo se permite un efecto aleatorio, pero se podrían prever muchos. Senn continúa diciendo que es bastante ingenuo, incluso en el caso en el que solo se comparan dos tratamientos, asumir que el análisis de efectos aleatorios tiene en cuenta toda la incertidumbre sobre la forma en que los efectos pueden variar de un ensayo a otro. Los modelos más nuevos de metanálisis, como los discutidos anteriormente, ciertamente ayudarían a aliviar esta situación y se han implementado en el siguiente marco.

Marco de modelado generalizado por paresEditar

Un enfoque que se ha probado desde finales de la década de 1990 es la implementación del análisis de ciclo cerrado de tres tratamientos múltiples. Esto no ha sido popular porque el proceso se vuelve abrumador rápidamente a medida que aumenta la complejidad de la red. El desarrollo en esta área fue luego abandonado en favor de los métodos frecuentistas bayesianos y multivariantes que surgieron como alternativas. Muy recientemente, algunos investigadores han desarrollado la automatización del método de ciclo cerrado de tres tratamientos para redes complejas como una forma de poner esta metodología a disposición de la comunidad de investigación convencional. Esta propuesta restringe cada ensayo a dos intervenciones, pero también introduce una solución para los ensayos de múltiples brazos: se puede seleccionar un nodo de control fijo diferente en diferentes ejecuciones. También utiliza métodos robustos de metanálisis para evitar muchos de los problemas destacados anteriormente. Se requiere más investigación en torno a este marco para determinar si es realmente superior a los marcos frecuentistas bayesianos o multivariantes. Los investigadores que deseen probar esto tienen acceso a este marco a través de un software gratuito.

Metaanálisis personalizadoEditar

Otra forma de información adicional proviene del entorno previsto. Si se conoce el entorno objetivo para aplicar los resultados del metanálisis, entonces puede ser posible utilizar los datos del entorno para adaptar los resultados y producir así un «metanálisis personalizado». Esto se ha utilizado en los metanálisis de precisión de las pruebas, donde el conocimiento empírico de la tasa de resultados positivos de la prueba y la prevalencia se han utilizado para derivar una región en el espacio de Características de funcionamiento del receptor (ROC) conocida como una «región aplicable». Luego, los estudios se seleccionan para la configuración de destino en función de la comparación con esta región y se agregan para producir una estimación resumida que se adapta a la configuración de destino.

Agregación de IPD y ADEdit

Metanálisis también se puede aplicar para combinar IPD y AD. Esto es conveniente cuando los investigadores que realizan el análisis tienen sus propios datos brutos mientras recopilan datos agregados o resumidos de la literatura. El modelo de integración generalizada (GIM) es una generalización del metanálisis. Permite que el modelo ajustado a los datos de los participantes individuales (DPI) sea diferente de los utilizados para calcular los datos agregados (DA). GIM puede verse como un método de calibración de modelos para integrar información con más flexibilidad.

Validación de los resultados del metanálisisEditar

La estimación del metanálisis representa un promedio ponderado entre los estudios y cuando Si hay heterogeneidad, esto puede dar lugar a que la estimación resumida no sea representativa de los estudios individuales. La evaluación cualitativa de los estudios primarios utilizando herramientas establecidas puede descubrir sesgos potenciales, pero no cuantifica el efecto agregado de estos sesgos en la estimación resumida. Aunque el resultado del metanálisis podría compararse con un estudio primario prospectivo independiente, dicha validación externa a menudo no es práctica. Esto ha llevado al desarrollo de métodos que explotan una forma de validación cruzada de dejar uno fuera, a veces denominada validación cruzada interna-externa (IOCV). Aquí cada uno de los k estudios incluidos se omite a su vez y se compara con la estimación resumida derivada de la agregación de los k-1 estudios restantes. Se ha desarrollado una estadística de validación general, Vn, basada en IOCV, para medir la validez estadística de los resultados del metanálisis. Para la precisión y la predicción de las pruebas, en particular cuando hay efectos multivariados, también se han propuesto otros enfoques que buscan estimar el error de predicción.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *