Análise de variância unilateral - One-way analysis of variance

Em estatísticas , de um modo análise de variância (abreviado one-way ANOVA ) é uma técnica que pode ser utilizada para comparar os dois meios se amostras são significativamente diferentes ou não (usando a distribuição F ). Esta técnica pode ser usada apenas para dados de resposta numérica, o "Y", geralmente uma variável, e dados de entrada numéricos ou (geralmente) categóricos, o "X", sempre uma variável, portanto "unilateral".

A ANOVA testa a hipótese nula , que afirma que as amostras em todos os grupos são retiradas de populações com os mesmos valores médios. Para fazer isso, duas estimativas são feitas da variância da população. Essas estimativas baseiam-se em várias premissas ( veja abaixo ). A ANOVA produz uma estatística F, a razão entre a variância calculada entre as médias e a variância dentro das amostras. Se as médias do grupo são extraídas de populações com os mesmos valores médios, a variância entre as médias do grupo deve ser menor do que a variância das amostras, seguindo o teorema do limite central . Uma proporção mais alta, portanto, implica que as amostras foram retiradas de populações com diferentes valores médios.

Normalmente, no entanto, a ANOVA de um fator é usada para testar as diferenças entre pelo menos três grupos, uma vez que o caso de dois grupos pode ser coberto por um teste t (Gosset, 1908). Quando há apenas dois meios para comparar, o teste t e o teste F são equivalentes; a relação entre ANOVA e t é dada por F  =  t 2 . Uma extensão da ANOVA unilateral é a análise de variância bidirecional que examina a influência de duas variáveis ​​independentes categóricas diferentes em uma variável dependente.

Premissas

Os resultados de uma ANOVA unilateral podem ser considerados confiáveis, desde que as seguintes suposições sejam atendidas:

Se os dados forem ordinais , uma alternativa não paramétrica a esse teste deve ser usada, como a análise de variância unilateral de Kruskal-Wallis . Se as variâncias não forem iguais, uma generalização do teste t de Welch de 2 amostras pode ser usada.

Saídas da normalidade da população

ANOVA é um procedimento relativamente robusto no que diz respeito a violações do pressuposto de normalidade.

A ANOVA unilateral pode ser generalizada para os layouts fatoriais e multivariados, bem como para a análise de covariância.

É freqüentemente afirmado na literatura popular que nenhum desses testes F é robusto quando há violações graves da suposição de que cada população segue a distribuição normal , particularmente para níveis alfa pequenos e layouts desequilibrados. Além disso, também é afirmado que, se a suposição subjacente de homocedasticidade for violada, as propriedades de erro do Tipo I degeneram muito mais severamente.

No entanto, isso é um equívoco, baseado no trabalho feito na década de 1950 e antes. A primeira investigação abrangente do problema pela simulação de Monte Carlo foi Donaldson (1966). Ele mostrou que sob os desvios usuais (inclinação positiva, variâncias desiguais) "o teste F é conservador" e, portanto, é menos provável do que deveria ser descobrir que uma variável é significativa. No entanto, à medida que aumenta o tamanho da amostra ou o número de células, "as curvas de poder parecem convergir para aquelas baseadas na distribuição normal". Tiku (1971) descobriu que "o poder da teoria não normal de F difere do poder da teoria normal por um termo de correção que diminui drasticamente com o aumento do tamanho da amostra." O problema da não normalidade, especialmente em grandes amostras, é muito menos sério do que os artigos populares poderiam sugerir.

A visão atual é que "os estudos de Monte-Carlo foram usados ​​extensivamente com testes baseados na distribuição normal para determinar o quão sensíveis eles são às violações da suposição de distribuição normal das variáveis ​​analisadas na população. A conclusão geral desses estudos é que o as consequências de tais violações são menos graves do que se pensava anteriormente. Embora essas conclusões não devam desestimular ninguém de se preocupar com a suposição de normalidade, elas aumentaram a popularidade geral dos testes estatísticos dependentes da distribuição em todas as áreas de pesquisa. "

Para alternativas não paramétricas no layout fatorial, consulte Sawilowsky. Para obter mais informações, consulte ANOVA on ranks .

O caso de efeitos fixos, experimento totalmente aleatório, dados desequilibrados

O modelo

O modelo linear normal descreve grupos de tratamento com distribuições de probabilidade que são curvas em formato de sino (normais) idênticas com médias diferentes. Assim, o ajuste dos modelos requer apenas as médias de cada grupo de tratamento e um cálculo de variância (uma variância média dentro dos grupos de tratamento é usada). Os cálculos das médias e da variância são realizados como parte do teste de hipótese.

Os modelos lineares normais comumente usados ​​para um experimento completamente aleatório são:

(o modelo de meios)

ou

(o modelo de efeitos)

Onde

é um índice sobre unidades experimentais
é um índice sobre os grupos de tratamento
é o número de unidades experimentais no jº grupo de tratamento
é o número total de unidades experimentais
são observações
é a média das observações para o jº grupo de tratamento
é a grande média das observações
é o jº efeito do tratamento, um desvio da grande média
, são erros aleatórios de média zero normalmente distribuídos.

O índice sobre as unidades experimentais pode ser interpretado de várias maneiras. Em alguns experimentos, a mesma unidade experimental está sujeita a uma variedade de tratamentos; pode apontar para uma unidade específica. Em outros, cada grupo de tratamento possui um conjunto distinto de unidades experimentais; pode ser simplesmente um índice na -ésima lista.

Os dados e resumos estatísticos dos dados

Uma forma de organizar observações experimentais é com grupos em colunas:

Organização de dados ANOVA, desequilibrado, fator único
Listas de Observações de Grupo
1
2
3
Estatísticas de resumo do grupo Estatísticas de resumo geral
# Observado # Observado
Soma Soma
Soma Sq Soma Sq
Mau Mau
Variância Variância

Comparando o modelo com os resumos: e . A grande média e a grande variância são calculadas a partir das grandes somas, não das médias e variâncias do grupo.

O teste de hipótese

Dadas as estatísticas de resumo, os cálculos do teste de hipótese são mostrados em forma de tabela. Enquanto duas colunas de SS são mostradas para seu valor explicativo, apenas uma coluna é necessária para exibir os resultados.

Tabela ANOVA para modelo fixo, fator único, experimento totalmente aleatório
Fonte de variação Soma dos quadrados Soma dos quadrados Graus de liberdade Quadrado médio F
SS explicativo SS Computacional DF em
Tratamentos
Erro
Total

é a estimativa da variância correspondente a do modelo.

Resumo da análise

A análise ANOVA básica consiste em uma série de cálculos. Os dados são coletados em forma de tabela. Então

  • Cada grupo de tratamento é resumido pelo número de unidades experimentais, duas somas, uma média e uma variância. Os resumos do grupo de tratamento são combinados para fornecer totais para o número de unidades e as somas. A grande média e a grande variância são calculadas a partir das grandes somas. O tratamento e os grandes meios são usados ​​no modelo.
  • Os três DFs e SSs são calculados a partir dos resumos. Em seguida, os MSs são calculados e uma proporção determina F.
  • Um computador normalmente determina um valor p de F, que determina se os tratamentos produzem resultados significativamente diferentes. Se o resultado for significativo, o modelo provisoriamente tem validade.

Se o experimento for balanceado, todos os termos serão iguais, então as equações SS simplificam.

Em um experimento mais complexo, onde as unidades experimentais (ou efeitos ambientais) não são homogêneas, as estatísticas de linha também são usadas na análise. O modelo inclui termos dependentes de . A determinação dos termos extras reduz o número de graus de liberdade disponíveis.

Exemplo

Considere um experimento para estudar o efeito de três níveis diferentes de um fator em uma resposta (por exemplo, três níveis de um fertilizante no crescimento da planta). Se tivéssemos 6 observações para cada nível, poderíamos escrever o resultado do experimento em uma mesa como este, onde a 1 , a 2 e um 3 são os três níveis do fator a ser estudado.

a 1 a 2 a 3
6 8 13
8 12 9
4 9 11
5 11 8
3 6 7
4 8 12

A hipótese nula, denotada H 0 , para o teste F geral para este experimento seria que todos os três níveis do fator produzem a mesma resposta, em média. Para calcular a taxa F :

Passo 1: Calcule a média dentro de cada grupo:

Etapa 2: Calcule a média geral:

onde a é o número de grupos.

Etapa 3: calcule a soma "entre os grupos" das diferenças quadradas:

onde n é o número de valores de dados por grupo.

Os graus de liberdade entre os grupos são um a menos que o número de grupos

então o valor médio quadrático entre os grupos é

Etapa 4: calcule a soma dos quadrados "dentro do grupo". Comece centralizando os dados em cada grupo

a 1 a 2 a 3
6−5 = 1 8−9 = −1 13−10 = 3
8−5 = 3 12−9 = 3 9−10 = −1
4−5 = −1 9−9 = 0 11−10 = 1
5−5 = 0 11−9 = 2 8−10 = −2
3−5 = −2 6−9 = −3 7−10 = −3
4−5 = −1 8−9 = −1 12−10 = 2

A soma dos quadrados dentro do grupo é a soma dos quadrados de todos os 18 valores nesta tabela

Os graus de liberdade dentro do grupo são

F-dens-2-15df.svg

Assim, o valor quadrático médio dentro do grupo é

Etapa 5: a proporção F é

O valor crítico é o número que a estatística de teste deve exceder para rejeitar o teste. Nesse caso, F crit (2,15) = 3,68 em α = 0,05. Como F = 9,3> 3,68, os resultados são significativos ao nível de significância de 5%. Seria rejeitada a hipótese nula, concluindo que há fortes evidências de que os valores esperados nos três grupos são diferentes. O valor p para este teste é 0,002.

Depois de realizar o teste F , é comum realizar algumas análises "post-hoc" das médias do grupo. Neste caso, as primeiras duas médias de grupo diferem em 4 unidades, a primeira e a terceira médias de grupo diferem em 5 unidades e as médias do segundo e terceiro grupo diferem em apenas 1 unidade. O erro padrão de cada uma dessas diferenças é . Assim, o primeiro grupo é fortemente diferente dos outros grupos, pois a diferença média é mais vezes o erro padrão, portanto, podemos estar altamente confiantes de que a média populacional do primeiro grupo difere das médias populacionais dos outros grupos. No entanto, não há evidências de que o segundo e o terceiro grupos tenham médias populacionais diferentes entre si, pois sua diferença média de uma unidade é comparável ao erro padrão.

Nota F ( xy ) indica um F -distribuição função de distribuição cumulativa com x graus de liberdade do numerador e y graus de liberdade no denominador.

Veja também

Notas

Leitura adicional