Please enable JavaScript.
Coggle requires JavaScript to display documents.
Learning: Boosting - Coggle Diagram
-
-
maybe, nós conseguimos classificar os H9x) em multiplos passos, e conseguir um monte de classificação
-
-
Scaling
tenho que escalar
essas decision trees cortam tão perto em volta do erro, que não tem espaço para overfitting, porque nada mais vai caber no mesmo volume
-
useful para classificação, muito bom
Classifiers
Classifiers are tests that produce binary choices about samples. They are considered strong classifiers if their error rate is close to 0, weak classifiers if their error rate is close to 0.5.
By using multiple classifiers with different weights, data samples can be sorted or grouped according to different characteristics.
Classificadores são testes que produzem escolhas binárias sobre amostras. Eles são considerados classificadores fortes se sua taxa de erro for próxima de 0, classificadores fracos se sua taxa de erro for próxima de 0,5.
Usando vários classificadores com diferentes pesos, as amostras de dados podem ser classificadas ou agrupadas de acordo com diferentes características.
Decision tree stumps
-
Através da adição de Weights em diferentes testes, uma amostra pode ser enfatizada em cima da outra
A soma total dos pesos deve sempre ser limitada a 1 para garantir uma distribuição adequada das amostras.
-
No over fitting
Boosting algorithms seems not to be over fitting, tends to be very tightly close to outlying samples,
-
O que aprendi
formas de classificação binária para Inteligência artificial, baseada em Decision tree e Boosting
Ela divide o espaço através das decision tree, os Weights (pesos) em positivo e negativo, e a partir disso
O boosting faz o corte no espaço tão apertado (tightly close to outlying samples). Que não tem espaço para overfitting
-