Meta-análise

ApproachesEdit

Em geral, dois tipos de evidência podem ser distinguidos ao realizar uma meta-análise: dados individuais do participante (IPD) e dados agregados (AD ) Os dados agregados podem ser diretos ou indiretos.

O AD está mais comumente disponível (por exemplo, na literatura) e geralmente representa estimativas resumidas, como odds ratios ou riscos relativos. Isso pode ser sintetizado diretamente em estudos conceitualmente semelhantes, usando várias abordagens (ver abaixo). Por outro lado, os dados agregados indiretos medem o efeito de dois tratamentos que foram comparados a um grupo de controle semelhante em uma meta-análise. Por exemplo, se o tratamento A e o tratamento B foram comparados diretamente vs placebo em metanálises separadas, podemos usar esses dois resultados agrupados para obter uma estimativa dos efeitos de A vs B em uma comparação indireta como efeito A vs Placebo menos efeito B vs Placebo.

A evidência de IPD representa dados brutos coletados pelos centros de estudo. Essa distinção levantou a necessidade de diferentes métodos meta-analíticos quando a síntese de evidências é desejada, e levou ao desenvolvimento de métodos de um e dois estágios. Nos métodos de um estágio, a IPD de todos os estudos é modelada simultaneamente, enquanto leva em consideração o agrupamento de participantes nos estudos. Os métodos de dois estágios calculam primeiro as estatísticas de resumo para AD de cada estudo e, em seguida, calculam as estatísticas gerais como uma média ponderada das estatísticas do estudo. Ao reduzir o IPD para AD, os métodos de dois estágios também podem ser aplicados quando o IPD está disponível; isso os torna uma escolha atraente ao realizar uma meta-análise. Embora se acredite convencionalmente que os métodos de um e dois estágios produzem resultados semelhantes, estudos recentes mostraram que eles podem ocasionalmente levar a conclusões diferentes.

Modelos estatísticos para dados agregadosEditar

Evidência direta: modelos que incorporam efeitos de estudo onlyEdit

efeitos fixos modelEdit

O modelo de efeito fixo fornece uma média ponderada de uma série de estimativas de estudo. O inverso das estimativas “variância é comumente usado como peso do estudo, de modo que estudos maiores tendem a contribuir mais do que estudos menores para a média ponderada. Consequentemente, quando os estudos dentro de uma meta-análise são dominados por um estudo muito grande, os resultados de estudos menores são praticamente ignorados. Mais importante ainda, o modelo de efeitos fixos pressupõe que todos os estudos incluídos investigam a mesma população, usam as mesmas variáveis e definições de resultados, etc. Esta suposição é tipicamente irrealista, pois a pesquisa é frequentemente sujeita a várias fontes de heterogeneidade; os efeitos do tratamento podem diferir de acordo com o local, os níveis de dosagem, as condições do estudo, …

ModelEdit de efeitos aleatórios

Um modelo comum usado para sintetizar pesquisas heterogêneas é o modelo de efeitos aleatórios de meta- análise. Esta é simplesmente a média ponderada dos tamanhos de efeito de um grupo de estudos. O peso que é aplicado neste processo de média ponderada com uma meta-análise de efeitos aleatórios é um alcançado em duas etapas:

  1. Etapa 1: ponderação da variância inversa
  2. Etapa 2: Despesagem desta ponderação da variância inversa aplicando um componente de variância de efeitos aleatórios (REVC) que é simplesmente derivado da extensão da variabilidade dos tamanhos de efeito dos estudos subjacentes.

Isso significa que quanto maior essa variabilidade nos tamanhos de efeito (também conhecida como heterogeneidade), maior será a ponderação e isso pode chegar a um ponto em que o resultado da metanálise de efeitos aleatórios torna-se simplesmente o tamanho do efeito médio não ponderado entre os estudos. No outro extremo, quando todos os tamanhos de efeito são semelhantes (ou a variabilidade não excede o erro de amostragem), nenhum REVC é aplicado e os padrões da meta-análise de efeitos aleatórios são simplesmente uma meta-análise de efeito fixo (apenas ponderação de variância inversa). p>

A extensão dessa reversão depende exclusivamente de dois fatores:

  1. Heterogeneidade da precisão
  2. Heterogeneidade do tamanho do efeito

Uma vez que nenhum desses fatores indica automaticamente um estudo maior defeituoso ou estudos menores mais confiáveis, a redistribuição de pesos sob este modelo não terá uma relação com o que esses estudos realmente podem oferecer. Na verdade, foi demonstrado que a redistribuição de pesos é simplesmente em uma direção de estudos maiores para menores conforme a heterogeneidade aumenta até que, eventualmente, todos os estudos tenham peso igual e nenhuma redistribuição seja possível. Outro problema com o modelo de efeitos aleatórios é que o mais comumente usado os intervalos de confiança geralmente não retêm sua probabilidade de cobertura acima do nível nominal especificado e, portanto, subestimam substancialmente o erro estatístico e são potencialmente superconfiantes em suas conclusões. Várias correções foram sugeridas, mas o debate continua.Uma outra preocupação é que o efeito médio do tratamento pode às vezes ser ainda menos conservador em comparação com o modelo de efeito fixo e, portanto, enganoso na prática. Uma correção interpretacional que foi sugerida é criar um intervalo de predição em torno da estimativa de efeitos aleatórios para retratar a gama de possíveis efeitos na prática. No entanto, uma suposição por trás do cálculo de tal intervalo de predição é que os ensaios são considerados entidades mais ou menos homogêneas e que as populações de pacientes incluídos e os tratamentos de comparação devem ser considerados trocáveis e isso geralmente é inatingível na prática.

O O método mais amplamente usado para estimar a variância entre os estudos (REVC) é a abordagem DerSimonian-Laird (DL). Existem várias técnicas iterativas avançadas (e computacionalmente caras) para calcular a variância entre os estudos (como máxima verossimilhança, verossimilhança de perfil e métodos de verossimilhança restrita) e modelos de efeitos aleatórios usando esses métodos podem ser executados no Stata com o comando metaan. O comando metaan deve ser diferenciado do comando metan clássico (“a” único) no Stata que usa o estimador DL. Esses métodos avançados também foram implementados em um complemento do Microsoft Excel gratuito e fácil de usar, o MetaEasy. No entanto, uma comparação entre esses métodos avançados e o método DL de calcular a variância entre os estudos demonstrou que há pouco a ganhar e DL é bastante adequado na maioria dos cenários.

No entanto, a maioria das meta-análises incluem entre 2 e 4 estudos e essa amostra é mais frequentemente do que inadequada para estimar com precisão a heterogeneidade. Assim, parece que em pequenas meta-análises, um zero incorreto entre a estimativa de variância do estudo é obtido, levando a uma falsa suposição de homogeneidade. No geral, parece que a heterogeneidade está sendo subestimada de forma consistente em meta-análises e análises de sensibilidade nas quais altos níveis de heterogeneidade são assumidos podem ser informativos. Esses modelos de efeitos aleatórios e pacotes de software mencionados acima estão relacionados a meta-análises agregadas de estudo e os pesquisadores que desejam realizar meta-análises de dados de pacientes individuais (IPD) precisam considerar abordagens de modelagem de efeitos mistos.

IVhet modelEdit

Doi & Barendregt trabalhando em colaboração com Khan, Thalib e Williams (da University of Queensland, University of Southern Queensland e Kuwait University), criaram uma variação inversa alternativa baseada em quase verossimilhança (IVhet) para o modelo de efeitos aleatórios (RE) para o qual os detalhes estão disponíveis online. Isso foi incorporado ao MetaXL versão 2.0, um suplemento gratuito do Microsoft Excel para meta-análise produzido pela Epigear International Pty Ltd, e disponibilizado em 5 de abril de 2014. Os autores afirmam que uma vantagem clara deste modelo é que ele resolve os dois principais problemas do modelo de efeitos aleatórios. A primeira vantagem do modelo IVhet é que a cobertura permanece no nível nominal (geralmente 95%) para o intervalo de confiança, ao contrário do modelo de efeitos aleatórios que cai na cobertura com o aumento da heterogeneidade. A segunda vantagem é que o modelo IVhet mantém os pesos da variância inversa dos estudos individuais, ao contrário do modelo RE, que dá aos pequenos estudos mais peso (e, portanto, estudos maiores menos) com o aumento da heterogeneidade. Quando a heterogeneidade se torna grande, os pesos do estudo individual sob o modelo RE tornam-se iguais e, portanto, o modelo RE retorna uma média aritmética em vez de uma média ponderada. Este efeito colateral do modelo RE não ocorre com o modelo IVhet que, portanto, difere da estimativa do modelo RE em duas perspectivas: Estimativas agrupadas favorecerão ensaios maiores (em oposição a penalizar ensaios maiores no modelo RE) e terão uma confiança intervalo que permanece dentro da cobertura nominal sob incerteza (heterogeneidade). Doi & Barendregt sugere que, embora o modelo RE forneça um método alternativo de agrupar os dados do estudo, seus resultados de simulação demonstram que usar um modelo de probabilidade mais especificado com suposições insustentáveis, como acontece com o modelo RE , não fornece necessariamente melhores resultados. O último estudo também relata que o modelo IVhet resolve os problemas relacionados à subestimação do erro estatístico, cobertura deficiente do intervalo de confiança e aumento do MSE visto com o modelo de efeitos aleatórios e os autores concluem que os pesquisadores devem, doravante, abandonar o uso do modelo de efeitos aleatórios em meta-análise. Embora seus dados sejam convincentes, as ramificações (em termos da magnitude dos resultados positivos espúrios dentro do banco de dados Cochrane) são enormes e, portanto, aceitar essa conclusão requer uma confirmação independente cuidadosa. A disponibilidade de um software livre (MetaXL) que executa o modelo IVhet (e todos os outros modelos para comparação) facilita isso para a comunidade de pesquisa.

Evidência direta: modelos que incorporam informações adicionais Editar

Modelo de efeitos de qualidade Editar

Doi e Thalib originalmente introduziram o modelo de efeitos de qualidade. Eles introduziram uma nova abordagem para o ajuste da variabilidade entre estudos, incorporando a contribuição da variância devido a um componente relevante (qualidade), além da contribuição da variância devido ao erro aleatório que é usado em qualquer modelo de meta-análise de efeitos fixos para gerar pesos para cada estudo. A força da meta-análise de efeitos de qualidade é que ela permite que a evidência metodológica disponível seja usada sobre os efeitos aleatórios subjetivos e, assim, ajuda a fechar a lacuna prejudicial que se abriu entre a metodologia e a estatística na pesquisa clínica. Para fazer isso, uma variância de polarização sintética é calculada com base nas informações de qualidade para ajustar os pesos de variância inversa e o peso ajustado de qualidade do iº estudo é introduzido. Esses pesos ajustados são então usados na meta-análise. Em outras palavras, se o estudo i é de boa qualidade e outros estudos são de baixa qualidade, uma proporção de seus pesos ajustados de qualidade é matematicamente redistribuída para o estudo i, dando-lhe mais peso em relação ao tamanho do efeito geral. À medida que os estudos se tornam cada vez mais semelhantes em termos de qualidade, a redistribuição torna-se progressivamente menor e cessa quando todos os estudos são de qualidade igual (no caso de qualidade igual, o modelo de efeitos de qualidade é padronizado para o modelo IVhet – consulte a seção anterior). Uma avaliação recente do modelo de efeitos de qualidade (com algumas atualizações) demonstra que, apesar da subjetividade da avaliação de qualidade, o desempenho (MSE e variância verdadeira sob simulação) é superior ao alcançável com o modelo de efeitos aleatórios. Este modelo, portanto, substitui as interpretações insustentáveis que abundam na literatura e um software está disponível para explorar esse método mais a fundo.

Evidência indireta: Métodos de meta-análise de redeEditar

Uma meta-análise de rede analisa comparações indiretas. Na imagem, A foi analisado em relação a C e C foi analisado em relação a b. No entanto, a relação entre A e B só é conhecida indiretamente, e uma meta-análise de rede examina tais evidências indiretas de diferenças entre métodos e intervenções usando o método estatístico.

Comparação indireta os métodos de meta-análise (também chamados de meta-análises de rede, em particular quando vários tratamentos são avaliados simultaneamente) geralmente usam duas metodologias principais. Em primeiro lugar, é o método de Bucher, que é uma comparação única ou repetida de um loop fechado de três tratamentos, de modo que um deles é comum aos dois estudos e forma o nó onde o loop começa e termina. Portanto, várias comparações dois por dois (loops de 3 tratamentos) são necessárias para comparar vários tratamentos. Esta metodologia requer que os ensaios com mais de dois braços tenham apenas dois braços selecionados, pois são necessárias comparações independentes de pares. A metodologia alternativa usa modelagem estatística complexa para incluir os testes de braço múltiplo e comparações simultaneamente entre todos os tratamentos concorrentes. Estes foram executados usando métodos bayesianos, modelos lineares mistos e abordagens de metarregressão.

FrameworkEdit bayesiano

A especificação de um modelo de meta-análise de rede bayesiana envolve escrever um gráfico acíclico direcionado (DAG) modelo para software de cadeia de Markov de uso geral Monte Carlo (MCMC), como WinBUGS. Além disso, as distribuições anteriores devem ser especificadas para vários parâmetros e os dados devem ser fornecidos em um formato específico. Juntos, o DAG, os antecedentes e os dados formam um modelo hierárquico bayesiano. Para complicar ainda mais, por causa da natureza da estimativa MCMC, valores iniciais superdispersos devem ser escolhidos para uma série de cadeias independentes para que a convergência possa ser avaliada. Atualmente, não existe um software que gere automaticamente esses modelos, embora existam algumas ferramentas para auxiliar no processo. A complexidade da abordagem Bayesiana limitou o uso desta metodologia. A metodologia para a automação desse método foi sugerida, mas requer que os dados de resultados no nível do braço estejam disponíveis, o que geralmente não está disponível. Às vezes, grandes afirmações são feitas sobre a capacidade inerente da estrutura bayesiana de lidar com meta-análise de rede e sua maior flexibilidade. No entanto, esta escolha de implementação de framework para inferência, bayesiana ou frequentista, pode ser menos importante do que outras escolhas em relação à modelagem de efeitos (veja a discussão sobre modelos acima).

Framework multivariate FrequentistEditar

Por outro lado, os métodos multivariados frequentistas envolvem aproximações e suposições que não são declaradas explicitamente ou verificadas quando os métodos são aplicados (ver discussão sobre modelos de meta-análise acima). Por exemplo, o pacote mvmeta para Stata permite meta-análise de rede em uma estrutura frequentista.No entanto, se não houver um comparador comum na rede, isso deve ser tratado aumentando o conjunto de dados com braços fictícios com alta variância, o que não é muito objetivo e requer uma decisão sobre o que constitui uma variância suficientemente alta. A outra questão é o uso do modelo de efeitos aleatórios tanto nesta estrutura frequentista quanto na estrutura bayesiana. Senn aconselha os analistas a serem cautelosos ao interpretar a análise de “efeitos aleatórios”, uma vez que apenas um efeito aleatório é permitido, mas pode-se imaginar muitos. Senn prossegue, dizendo que é bastante ingênuo, mesmo no caso em que apenas dois tratamentos estão sendo comparados, assumir que a análise de efeitos aleatórios é responsável por toda a incerteza sobre como os efeitos podem variar de ensaio para ensaio. Modelos mais novos de meta-análise, como os discutidos acima, certamente ajudariam a aliviar essa situação e foram implementados na próxima estrutura.

FrameworkEdit de modelagem de pares generalizada

Uma abordagem que foi tentada desde o final dos anos 1990 é a implementação da análise de circuito fechado de três tratamentos múltiplos. Isso não é popular porque o processo se torna rapidamente opressor conforme aumenta a complexidade da rede. O desenvolvimento nesta área foi então abandonado em favor dos métodos freqüentistas bayesianos e multivariados que surgiram como alternativas. Muito recentemente, a automação do método de ciclo fechado de três tratamentos foi desenvolvida para redes complexas por alguns pesquisadores como uma forma de tornar essa metodologia disponível para a comunidade de pesquisa convencional. Esta proposta restringe cada tentativa a duas intervenções, mas também apresenta uma solução alternativa para várias tentativas de braço: um nó de controle fixo diferente pode ser selecionado em diferentes execuções. Ele também utiliza métodos robustos de meta-análise para que muitos dos problemas destacados acima sejam evitados. Mais pesquisas em torno dessa estrutura são necessárias para determinar se isso é de fato superior às estruturas frequentistas bayesianas ou multivariadas. Os pesquisadores que desejam experimentar têm acesso a este framework por meio de um software livre.

Meta-analysisEdit sob medida

Outra forma de informação adicional vem da configuração pretendida. Se a configuração desejada para a aplicação dos resultados da meta-análise for conhecida, então pode ser possível usar os dados da configuração para adaptar os resultados, produzindo assim uma “meta-análise personalizada”. Isso foi usado em meta-análises de precisão de teste, onde o conhecimento empírico da taxa de teste positivo e a prevalência foram usados para derivar uma região no espaço Receiver Operating Characteristic (ROC) conhecido como uma “região aplicável”. Os estudos são então selecionados para a configuração de destino com base na comparação com esta região e agregados para produzir uma estimativa resumida que é adaptada para a configuração de destino.

Agregando IPD e ADEdit

Meta-análise também pode ser aplicado para combinar IPD e AD. Isso é conveniente quando os pesquisadores que conduzem a análise têm seus próprios dados brutos enquanto coletam dados agregados ou resumidos da literatura. O modelo de integração generalizada (GIM) é uma generalização da meta-análise. Permite que o modelo ajustado nos dados individuais do participante (IPD) seja diferente dos usados para calcular os dados agregados (AD). O GIM pode ser visto como um método de calibração de modelo para integrar informações com mais flexibilidade.

Validação de resultados de meta-análise Editar

A estimativa de meta-análise representa uma média ponderada entre os estudos e quando houver Se houver heterogeneidade, isso pode fazer com que a estimativa resumida não seja representativa dos estudos individuais. A avaliação qualitativa dos estudos primários usando ferramentas estabelecidas pode descobrir tendências potenciais, mas não quantifica o efeito agregado dessas tendências na estimativa resumida. Embora o resultado da meta-análise possa ser comparado com um estudo primário prospectivo independente, essa validação externa é frequentemente impraticável. Isso levou ao desenvolvimento de métodos que exploram uma forma de validação cruzada leave-one-out, às vezes referida como validação cruzada interna-externa (IOCV). Aqui, cada um dos k estudos incluídos, por sua vez, é omitido e comparado com a estimativa resumida derivada da agregação dos k-1 estudos restantes. Uma estatística de validação geral, Vn baseada em IOCV, foi desenvolvida para medir a validade estatística dos resultados da meta-análise. Para a precisão do teste e previsão, particularmente quando há efeitos multivariados, outras abordagens que buscam estimar o erro de previsão também foram propostas.

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *