Dados

Medidas de associação (efeito)

Nominais (tabela r x c)

Lambda

Coeficiente de incerteza

Ordinais por ordinais

Gamma

d de Sommers

tau-b de Kendall

tau-c de Kendall

Nominal por intervalar (tipo teste-t)

Eta

Risco

McNemar

Cochran's and Mantel-Haenszel statistics

Tem variação de 0 a 1, mas jamais chegará a 1 (sua desvantagem)

Tem 3 níveis de efeito: até 0.3 é fraco, de 0.3 a 0.5 é médio e acima de 0.5 é forte.

tabelas 2 x 2 ordenadas

Para tabelas maiores que 2 x 2

de 0 a +1

Risco relativo

Probabilidade de contrair uma doença vs. a probabilidade de não contrair

Razão de odds

Probabilidade de ocorrência de um evento sobre a probabilidade de não ocorrência

taxa de concordância corrigida ao acaso

indica o grau de consenso entre dois árbitros relativamente à atribuição de cada um dos n sujeitos/objetos a uma das k categorias mutuamente exclusivas

também analisa a variabilidade intraclasses

o número de concordâncias que seria de esperar por acaso é subtraído do número total de acordos no quadro de síntese

Uma medida de associação que reflecte a redução proporcional do erro quando são utilizados valores da variável independente para prever os valores da variável dependente.

Um valor de 1 significa que a variável independente prediz perfeitamente a variável dependente.

Um valor de 0 significa que a variável independente não é uma ajuda na previsão da variável dependente.

Uma medida de associação que indica a redução proporcional do erro quando valores de uma variável são usados para prever valores da outra variável.

Por exemplo, um valor de 0,83 indica que o conhecimento de uma variável reduz o erro na previsão de valores da outra variável em 83%.

O programa calcula tanto versões simétricas como assimétricas do coeficiente de incerteza.

Testes não paramétricos de amostras independentes

Mann-Whitney U

Seqüência de teste de aleatoriedade (Wald-Wolfowitz para 2 amostras)

Kruskal-Wallis 1-way ANOVA (k amostras)

Teste para alternativas ordenadas (Jonckheere-Terpstra para k amostras)

Reação extrema de Moses (2 amostras) (compare as faixas)

Teste da mediana (k amostras) (Compare as medianas entre os grupos)

Hodges-Lehman estimate (2 samples) (estimativa de intervalo de confiança)

Medida de associação entre qualquer tipo de tabela.

Combinação de 2 tabelas r x c

Mantel-Haenszel

Variáveis dicotómicas 0 / 1

Vai de -1 a +1, mas só atinge estes valores quando há um encaixe perfeito entre as proporções.

Só pode ser usado em tabelas 2x2

Kolmogorov-Smirnoff (comparar 2 distribuições ou 1 distribuição vs. distribuição teórica)

Método sem distribuição que testa qualquer diferença entre duas distribuições de probabilidade da população.


O teste é baseado na diferença máxima absoluta entre as funções de distribuição cumulativa das amostras de cada população.


Objetivo: descobrir se uma população vem de alguma distribuição específica (parecido com o PP)


Vantagem: é um teste exato (o teste de adequação do qui-quadrado depende de um tamanho de amostra adequado para que as aproximações sejam válidas)


Desvantagens: Só se aplica a distribuições contínuas.
Tende a ser mais sensível perto do centro da distribuição do que na cauda


A distribuição deve ser totalmente especificada. Ou seja, se os parâmetros de localização, escala e forma forem estimados a partir dos dados, a região crítica do teste K-S não é mais válida. Normalmente, ela deve ser determinada por simulação


Hipótese nula: Os dados seguem uma distribuição especificada. A hipótese relativa à forma de distribuição é rejeitada se a estatística do teste, D, for maior do que o valor crítico obtido de uma tabela


Alternativas: Vários testes de adequação, tais como o teste Anderson-Darling e o teste Cramer Von-Mises, são refinamentos do teste K-S, ou o teste de Shapiro-Wilk