Dados
Medidas de associação (efeito)
Nominais (tabela r x c)
Lambda
Coeficiente de incerteza
Ordinais por ordinais
Gamma
d de Sommers
tau-b de Kendall
tau-c de Kendall
Nominal por intervalar (tipo teste-t)
Eta
Risco
McNemar
Cochran's and Mantel-Haenszel statistics
Tem variação de 0 a 1, mas jamais chegará a 1 (sua desvantagem)
Tem 3 níveis de efeito: até 0.3 é fraco, de 0.3 a 0.5 é médio e acima de 0.5 é forte.
tabelas 2 x 2 ordenadas
Para tabelas maiores que 2 x 2
de 0 a +1
Risco relativo
Probabilidade de contrair uma doença vs. a probabilidade de não contrair
Razão de odds
Probabilidade de ocorrência de um evento sobre a probabilidade de não ocorrência
taxa de concordância corrigida ao acaso
indica o grau de consenso entre dois árbitros relativamente à atribuição de cada um dos n sujeitos/objetos a uma das k categorias mutuamente exclusivas
também analisa a variabilidade intraclasses
o número de concordâncias que seria de esperar por acaso é subtraído do número total de acordos no quadro de síntese
Uma medida de associação que reflecte a redução proporcional do erro quando são utilizados valores da variável independente para prever os valores da variável dependente.
Um valor de 1 significa que a variável independente prediz perfeitamente a variável dependente.
Um valor de 0 significa que a variável independente não é uma ajuda na previsão da variável dependente.
Uma medida de associação que indica a redução proporcional do erro quando valores de uma variável são usados para prever valores da outra variável.
Por exemplo, um valor de 0,83 indica que o conhecimento de uma variável reduz o erro na previsão de valores da outra variável em 83%.
O programa calcula tanto versões simétricas como assimétricas do coeficiente de incerteza.
Testes não paramétricos de amostras independentes
Mann-Whitney U
Seqüência de teste de aleatoriedade (Wald-Wolfowitz para 2 amostras)
Kruskal-Wallis 1-way ANOVA (k amostras)
Teste para alternativas ordenadas (Jonckheere-Terpstra para k amostras)
Reação extrema de Moses (2 amostras) (compare as faixas)
Teste da mediana (k amostras) (Compare as medianas entre os grupos)
Hodges-Lehman estimate (2 samples) (estimativa de intervalo de confiança)
Medida de associação entre qualquer tipo de tabela.
Combinação de 2 tabelas r x c
Mantel-Haenszel
Variáveis dicotómicas 0 / 1
Vai de -1 a +1, mas só atinge estes valores quando há um encaixe perfeito entre as proporções.
Só pode ser usado em tabelas 2x2
Kolmogorov-Smirnoff (comparar 2 distribuições ou 1 distribuição vs. distribuição teórica)
Método sem distribuição que testa qualquer diferença entre duas distribuições de probabilidade da população.
O teste é baseado na diferença máxima absoluta entre as funções de distribuição cumulativa das amostras de cada população.
Objetivo: descobrir se uma população vem de alguma distribuição específica (parecido com o PP)
Vantagem: é um teste exato (o teste de adequação do qui-quadrado depende de um tamanho de amostra adequado para que as aproximações sejam válidas)
Desvantagens: Só se aplica a distribuições contínuas.
Tende a ser mais sensível perto do centro da distribuição do que na cauda
A distribuição deve ser totalmente especificada. Ou seja, se os parâmetros de localização, escala e forma forem estimados a partir dos dados, a região crítica do teste K-S não é mais válida. Normalmente, ela deve ser determinada por simulação
Hipótese nula: Os dados seguem uma distribuição especificada. A hipótese relativa à forma de distribuição é rejeitada se a estatística do teste, D, for maior do que o valor crítico obtido de uma tabela
Alternativas: Vários testes de adequação, tais como o teste Anderson-Darling e o teste Cramer Von-Mises, são refinamentos do teste K-S, ou o teste de Shapiro-Wilk