Inferência freqüentista - Frequentist inference

A inferência frequentista é um tipo de inferência estatística baseada na probabilidade frequentista , que trata a “probabilidade” em termos equivalentes a “frequência” e tira conclusões dos dados amostrais por meio da ênfase na frequência ou proporção dos achados nos dados. A inferência frequentista fundamenta a estatística frequentista , na qual as metodologias bem estabelecidas de teste de hipótese estatística e intervalos de confiança são fundamentadas.

História da Estatística Frequentista

A história das estatísticas frequentistas é mais recente do que sua rival filosófica predominante, as estatísticas bayesianas. As estatísticas freqüentistas foram amplamente desenvolvidas no início do século 20 e recentemente se desenvolveram para se tornar o paradigma dominante na estatística inferencial, enquanto as estatísticas Bayesianas foram inventadas no século XIX. Apesar dessa dominância, não há acordo sobre se o frequentismo é melhor do que a estatística bayesiana, com uma minoria vocal de profissionais estudando inferência estatística condenando a inferência frequentista por ser internamente inconsistente. Para os fins deste artigo, a metodologia frequentista será discutida da forma mais resumida possível, mas é importante notar que este assunto permanece controverso até os dias modernos.

A formulação primária do frequentismo deriva da presunção de que as estatísticas podem ser percebidas como uma frequência probabilística. Essa visão foi desenvolvida principalmente por Ronald Fisher e a equipe de Jerzy Neyman e Egon Pearson . Ronald Fisher contribuiu para a estatística frequentista ao desenvolver o conceito frequentista de "teste de significância", que é o estudo da significância de uma medida de uma estatística quando comparada à hipótese. Neyman-Pearson estendeu as ideias de Fisher para várias hipóteses conjeturando que a proporção das probabilidades das hipóteses ao maximizar a diferença entre as duas hipóteses leva a uma maximização de exceder um determinado valor p, e também fornece a base dos erros tipo I e tipo II . Para mais informações, consulte os fundamentos da página de estatísticas .

Definição

Para inferência estatística, a estatística relevante sobre a qual queremos fazer inferências é , onde o vetor aleatório é uma função de um parâmetro desconhecido ,. O parâmetro é ainda particionado em ( ), onde é o parâmetro de interesse e é o parâmetro incômodo . Para concretizar, em uma área pode estar a média da população,, e o parâmetro incômodo seria então o desvio padrão da média da população ,.

Assim, a inferência estatística preocupa-se com a expectativa do vetor aleatório , a saber .

Para construir áreas de incerteza na inferência frequentista, um pivô é usado que define a área ao redor que pode ser usada para fornecer um intervalo para estimar a incerteza. O pivô é uma probabilidade tal que, para um pivô,, que é uma função, que está estritamente aumentando em , onde está um vetor aleatório. Isso permite que, para alguns 0 << 1, possamos definir , que é a probabilidade de que a função pivô seja menor do que algum valor bem definido. Isso implica , onde está um limite superior para . Observe que é uma gama de resultados que define um limite unilateral para , e esse é um limite bilateral para , quando queremos estimar uma gama de resultados onde pode ocorrer. Isso define com rigor o intervalo de confiança , que é a gama de resultados sobre os quais podemos fazer inferências estatísticas.

Redução Fisherian e critérios operacionais de Neyman-Pearson

Dois conceitos complementares na inferência frequentista são a redução Fisheriana e os critérios operacionais de Neyman-Pearson. Juntos, esses conceitos ilustram uma maneira de construir intervalos frequentistas que definem os limites para . A redução Fisheriana é um método de determinar o intervalo dentro do qual o verdadeiro valor de pode estar, enquanto o critério operacional de Neyman-Pearson é uma regra de decisão sobre fazer suposições de probabilidade a priori .

A redução Fisheriana é definida como segue:

  • Determine a função de verossimilhança (geralmente é apenas a coleta de dados);
  • Reduza para uma estatística suficiente da mesma dimensão que ;
  • Encontre a função de que tem uma distribuição dependendo apenas de ;
  • Inverta essa distribuição (isso produz uma função de distribuição cumulativa ou CDF) para obter limites para um conjunto arbitrário de níveis de probabilidade;
  • Use a distribuição condicional dos dados fornecidos informal ou formalmente para avaliar a adequação da formulação.

Essencialmente, a redução Fisheriana é projetada para encontrar onde a estatística suficiente pode ser usada para determinar a faixa de resultados onde pode ocorrer em uma distribuição de probabilidade que define todos os valores potenciais de . Isso é necessário para formular intervalos de confiança, onde podemos encontrar uma gama de resultados sobre os quais é provável que ocorra a longo prazo.

O critério operacional de Neyman-Pearon é uma compreensão ainda mais específica da gama de resultados em que a estatística relevante,, pode ser considerada como ocorrendo no longo prazo. Os critérios operacionais de Neyman-Pearson definem a probabilidade dessa faixa ser realmente adequada ou da faixa ser inadequada. Os critérios de Neyman-Pearson definem o intervalo da distribuição de probabilidade que, se existir neste intervalo, ainda está abaixo da verdadeira estatística populacional. Por exemplo, se a distribuição da redução Fisheriana exceder um limite que consideramos ser a priori implausível, então a avaliação da redução de Neyman-Pearson dessa distribuição pode ser usada para inferir onde olhar puramente para as distribuições da redução Fisheriana pode nos dar resultados imprecisos . Assim, a redução de Neyman-Pearson é usada para encontrar a probabilidade de erros do tipo I e do tipo II . Como ponto de referência, o complemento a isso nas estatísticas bayesianas é o critério de risco mínimo Bayesiano .

Devido à confiança dos critérios de Neyman-Pearson em nossa capacidade de encontrar uma gama de resultados onde é provável que ocorra, a abordagem de Neyman-Pearson só é possível onde uma redução Fisheriana pode ser alcançada.

Projeto experimental e metodologia

As inferências freqüentistas estão associadas à probabilidade freqüentista de aplicação ao projeto e à interpretação experimental e, especificamente, à visão de que qualquer experimento pode ser considerado uma de uma sequência infinita de repetições possíveis do mesmo experimento, cada uma capaz de produzir resultados estatisticamente independentes . Nesta visão, a abordagem de inferência frequentista para tirar conclusões de dados é efetivamente exigir que a conclusão correta seja tirada com uma dada (alta) probabilidade, entre este conjunto nocional de repetições.

No entanto, exatamente os mesmos procedimentos podem ser desenvolvidos sob uma formulação sutilmente diferente. Este é um ponto de vista pré-experimento. Pode-se argumentar que o desenho de um experimento deve incluir, antes de empreender o experimento, decisões sobre exatamente quais passos serão dados para chegar a uma conclusão a partir dos dados a serem obtidos. Essas etapas podem ser especificadas pelo cientista de modo que haja uma alta probabilidade de se chegar a uma decisão correta onde, neste caso, a probabilidade está relacionada a um conjunto de eventos aleatórios que ainda ocorrerão e, portanto, não depende da interpretação de frequência da probabilidade. Essa formulação foi discutida por Neyman, entre outros. Isso é especialmente pertinente porque a significância de um teste frequentista pode variar sob a seleção do modelo, uma violação do princípio da verossimilhança.

A Filosofia Estatística do Freqüentismo

Frequentismo é o estudo da probabilidade com a suposição de que os resultados ocorrem com uma determinada frequência ao longo de algum período de tempo ou com amostragem repetida. Como tal, a análise frequentista deve ser formulada levando-se em consideração os pressupostos do problema que o frequentismo tenta analisar. Isso requer verificar se a questão em questão está relacionada à compreensão da variedade de uma estatística ou à localização do verdadeiro valor de uma estatística. A diferença entre essas suposições é crítica para interpretar um teste de hipótese . O próximo parágrafo detalha isso.

Existem basicamente dois campos de inferência estatística, a abordagem epistêmica e a abordagem epidemiológica . A abordagem epistêmica é o estudo da variabilidade ; a saber, com que frequência esperamos que uma estatística se desvie de algum valor observado. A abordagem epidemiológica preocupa-se com o estudo da incerteza ; nesta abordagem, o valor da estatística é fixo, mas nosso entendimento dessa estatística é incompleto. Para concretizar, imagine tentar medir o mercado de ações em vez de avaliar um ativo. O mercado de ações flutua tanto que tentar descobrir exatamente onde o preço de uma ação vai estar não é útil: o mercado de ações é melhor compreendido usando a abordagem epistêmica, onde podemos tentar quantificar seus movimentos inconstantes. Por outro lado, o preço de um ativo pode não mudar muito de um dia para o outro: é melhor localizar o valor real do ativo em vez de encontrar uma gama de preços e, portanto, a abordagem epidemiológica é melhor. A diferença entre essas abordagens não é trivial para fins de inferência.

Para a abordagem epistêmica, formulamos o problema como se quiséssemos atribuir probabilidade a uma hipótese. Infelizmente, este tipo de abordagem é (por razões altamente rigorosas) melhor respondida com estatísticas Bayesianas, onde a interpretação da probabilidade é direta porque a estatística Bayesiana é condicional a todo o espaço amostral, enquanto os dados frequentistas são inerentemente condicionais a dados não observados e não quantificáveis. A razão para isso é inerente ao design frequentista. Infelizmente, as estatísticas freqüentistas não dependem apenas dos dados, mas também do projeto experimental . Nas estatísticas frequentistas, o ponto de corte para a compreensão da ocorrência de frequência é derivado da distribuição familiar usada no planejamento do experimento. Por exemplo, uma distribuição binomial e uma distribuição binomial negativa podem ser usadas para analisar exatamente os mesmos dados, mas como suas extremidades são diferentes, a análise frequentista perceberá diferentes níveis de significância estatística para os mesmos dados que assumem diferentes distribuições de probabilidade. Essa diferença não ocorre na inferência bayesiana. Para mais informações, consulte o princípio da probabilidade , que as estatísticas frequentistas violam inerentemente.

Para a abordagem epidemiológica, a ideia central por trás das estatísticas frequentistas deve ser discutida. A estatística freqüentista é projetada de forma que, no longo prazo , a frequência de uma estatística possa ser entendida e, no longo prazo, a faixa da média verdadeira de uma estatística possa ser inferida. Isso leva à redução Fisheriana e aos critérios operacionais de Neyman-Pearson, discutidos acima. Quando definimos a redução Fisheriana e os critérios operacionais de Neyman-Pearson para qualquer estatística, estamos avaliando, de acordo com esses autores, a probabilidade de que o verdadeiro valor da estatística ocorra dentro de um determinado intervalo de resultados assumindo um número de repetições de nosso método de amostragem. Isso permite inferência onde, a longo prazo, podemos definir que os resultados combinados de múltiplas inferências frequentistas significam que um intervalo de confiança de 95% significa literalmente que a verdadeira média está no intervalo de confiança 95% do tempo, mas não que a média está em um determinado intervalo de confiança com 95% de certeza. Este é um equívoco popular.

Um engano comum entre essas perspectivas

Muito comumente, a visão epistêmica e a visão epidemiológica são consideradas interconvertíveis. Isso é comprovadamente falso. Em primeiro lugar, a visão epistêmica é centrada em torno dos testes de significância de Fisher que são projetados para fornecer evidência indutiva contra a hipótese nula ,, em um único experimento, e é definida pelo valor de p de Fisher. Por outro lado, a visão epidemiológica, conduzida com o teste de hipótese de Neyman-Pearson, é projetada para minimizar os erros de aceitação falsa do Tipo II no longo prazo, fornecendo minimizações de erro que funcionam no longo prazo. A diferença entre os dois é crítica porque a visão epistêmica enfatiza as condições sob as quais podemos encontrar um valor como estatisticamente significativo; enquanto isso, a visão epidemiológica define as condições sob as quais os resultados de longo prazo apresentam resultados válidos. Essas são inferências extremamente diferentes, porque conclusões epistêmicas únicas não informam erros de longo prazo, e erros de longo prazo não podem ser usados ​​para certificar se experimentos únicos são sensatos. A suposição de experimentos únicos para ocorrências de longo prazo é uma atribuição incorreta, e a suposição de tendências de longo prazo para experimentos individuais é um exemplo de falácia ecológica.

Relacionamento com outras abordagens

As inferências freqüentistas contrastam com outros tipos de inferências estatísticas, como as inferências bayesianas e as inferências fiduciais . Embora a " inferência bayesiana " às vezes seja considerada como incluindo a abordagem de inferências que levam a decisões ótimas , uma visão mais restrita é adotada aqui para simplificar.

Inferência bayesiana

A inferência bayesiana é baseada na probabilidade Bayesiana , que trata “probabilidade” como equivalente a “certeza” e, portanto, que a diferença essencial entre a inferência frequentista e a inferência bayesiana é a mesma que a diferença entre as duas interpretações do que uma “probabilidade” meios. No entanto, quando apropriado, as inferências bayesianas (significando, neste caso, uma aplicação do teorema de Bayes ) são usadas por aqueles que empregam a probabilidade de frequência .

Existem duas diferenças principais nas abordagens frequentista e bayesiana para inferência que não estão incluídas na consideração acima da interpretação da probabilidade:

  1. Em uma abordagem frequentista de inferência, parâmetros desconhecidos são frequentemente, mas nem sempre, tratados como tendo valores fixos, mas desconhecidos, que não podem ser tratados como variáveis ​​aleatórias em qualquer sentido e, portanto, não há como as probabilidades possam ser associadas a eles . Em contraste, uma abordagem bayesiana para inferência permite que as probabilidades sejam associadas a parâmetros desconhecidos, onde essas probabilidades podem às vezes ter uma interpretação de probabilidade de frequência , bem como uma Bayesiana . A abordagem bayesiana permite que essas probabilidades tenham uma interpretação como uma representação da crença do cientista de que determinados valores do parâmetro são verdadeiros (ver probabilidade bayesiana - probabilidades pessoais e métodos objetivos para construir a priori ).
  2. Embora as "probabilidades" estejam envolvidas em ambas as abordagens de inferência, as probabilidades estão associadas a diferentes tipos de coisas. O resultado de uma abordagem bayesiana pode ser uma distribuição de probabilidade para o que é conhecido sobre os parâmetros dados os resultados do experimento ou estudo. O resultado de uma abordagem frequentista é uma conclusão "verdadeira ou falsa" de um teste de significância ou uma conclusão na forma de que um determinado intervalo de confiança derivado de amostra cobre o valor verdadeiro: qualquer uma dessas conclusões tem uma determinada probabilidade de estar correta, onde esta probabilidade tem uma interpretação de probabilidade de frequência ou uma interpretação pré-experimento.

Veja também

Referências

Bibliografia