Please enable JavaScript.
Coggle requires JavaScript to display documents.
09-REDES BAYESIANAS (REDE BAYESIANA (APRENDIZADO (APRENDIZADO DAS…
09-REDES BAYESIANAS
REDE BAYESIANA
GRÁFICO
Grafo dirigido e acíclicoPROBABILIDADE CONJUNTA DA REDE
USO
- Probabilidades para descrever crenças ou incertezas
- Forma de atualizar o conhecimento, com base em conhecimento prévio e dados disponíveis
- É encadeável, permitindo combinar diferentes eventos (desde que se possa atribuir probabilidades a eles)
- Alguns problemas podem envolver várias variáveis, dependentes entre si
- Pode-se descrever uma REDE dessas variáveis e suas relações de dependências
- Usadas para fazer inferência (TABELAS PROB)
APRENDIZADO
APRENDIZADO DA ESTRUTURA
- Testes estatísticos de independência para identificar dependências e independências entre as variáveis
- Tem que saber as variáveis
- Adequar os parâmetros do teste para impedir que, dependendo do tamanho da amostra, o teste diga que as variáveis são dependentes quando na verdade não são.
APRENDIZADO DAS PROBABILIDADES
Duas coisas são assumidas (a fim de que os parâmetros possam ser aprendidos independentemente):
-
DADOS
COMPLETOS
ESTIMAÇÃO POR MÁXIMA - VEROSSIMILHANÇA
- Uso das frequências como estimativas
Exemplo: P(A=a | B=b, C=c) = # (A=a, B=b, C=c)
- se algumas contagens for igual a zero a probabilidade naquele ponto será igual a zero.
- não é boa a estimativa, principalmente se a amostra for pequena
ESTIMAÇÃO BAYESIANA POR MÁXIMA POSTERIORI - MAP
- Pseudocontadores (Dirichlet)
- Inicialização dos contadores com algum valor diferente de zero
- Valor inicial pode ser igual para todos ou não
- Distribuição dos valores iniciais: distribuição de Dirichlet
INCOMPLETOS
- Estimação aproximada (algoritmo EM)
- Missing values: acidentais (ex: sensor), intencionais, etc
- Não observáveis (variáveis latentes ou escondidas)
-
JOGAR FORA OS MISSING VALUES
:warning: Amostra final pode ficar pequena
Amostra final pode ficar enviesada
APRENDIZADO DA REDE
- Métodos automáticos e semi-automáticos para aprendizado da estrutura e das probabilidades condicionais
- Pode não se saber as relações de dependência, mas apenas ter um conjunto de dados
COMO CLASSIFICADOR
A classe é uma das variáveis - Cada característica é uma variável - A variável da classe depende das variáveis das características - Você classifica para a classe ci com maior probabilidade
-
ALTERNATIVAS
Naive Bayes Classifier (NBC)
- Variável classe não tem pais
- Cada variável característica tem apenas um pai: a variável classe
- Estrutura fixa
PROS:parâmetros estimados por um dos métodos de estimação de parâmetros de redes bayesianas
CONS: Desvantagem: assume independência das características dada a classeResultados razoáveis
Tree Augmented NBC (TAN)
- Extensão do NBC: cada variável característica pode ter no máximo mais uma variável característica como pai
- A estrutura não é dada
- A estrutura pode ser aprendida de forma a ter, juntamente com parâmetros probabilísticos ótimos, máxima verossimilhança
-
-
-
DESCRICAO
redes Bayesianas são modelos gráficos para racioncínio baseado em incerteza, com dependência probabilística, baseado no teorema de Bayes. Suas vantagens são as de encadear essas incertezas, podendo combinar diversos eventos, utilizando-os para fazer inferências.