RD-FM: Algoritmo de Máquinas de Fatoração Distribuído e Resiliente
1 Introdução
1.2 Organização
1.1 Objetivos
2 Conceitos Básicos
2.1 Filtros Colaborativos
2.2 Características Latentes e Matrizes de Fatoração(?)
2.4 Tolerância a Faltas
2.3 Aprendizado de Máquina Distribuído
2.5 Erros, Falhas e Faltas
2.6 Tipos de Faltas
2.7 Aprendizado de Máquina
2.8 Máquinas de Fatoração
3 Trabalhos Relacionados
3.1 RD-SVM
3.2 DiFacto
3.3 Machine Learning with Adversaries Byzantine Tolerant Gradient Descent
3.4 Scaling Distributed Machine Learning with the Parameter Server
3.5 Comparações
4 Proposta RD-FM Resilient Distributed Factorization Machines
4.1 Formalização
4.2 RD-FM Arquitetura
4.3 Tardigrade - Tolerância a Faltas Bizantinas
4.2.1 Mínimos locais e hiperparâmetros
4.2.2 Escalabilidade contexto de esparsidade
3.6 Considerações Finais
3.4.1 Estruturação: Grupos de trabalho
2.1.1 Filtro Colaborativo baseado em usuário
2.1.2 Filtro Colaborativo baseado em itens
2.13 Filtro Colaborativo baseado em Conteúdo
2.1.4 Cold-start
2.2.1 SVD Singular Value Decomposition
2.6.1 Faltas bizantinas
2.7.1 Otimização não convexa e mínimos locais
2.8.1 Vantagens das Máquinas de Fatoração
2.8.2 Desvantagens das máquinas de fatoração
2.8.3 Conclusões
3.1.1 Support Vector Machines
3.1.2 Consenso Médio Distribuído
3.1.3 Arquitetura de rede no RD-SVM
3.1.4 Tolerância a faltas no RD-SVM
3.2.1 Aprimorando as Máquinas de Fatoração
3.3.1 Algoritmo de Krum
3.3.2 Algoritmo de Multi-Krum
3.4.2 Consistência Flexível
4.2.3 Validação de parâmetros
3.? Algoritmos de Gradiente Descendente
3.?.1 Adagrad
3.?.4 Adam
3.?.5 Adamax
3.? Vanilla Gradient Descent
3.? Loss Functions
3.?.2 Adadelta
3.?.6 AMSgrad
3.?.3 RMSprop
- Performance Evaluation
- Conclusions
Contribuições Científicas
?. Red And Blue: Optimizing classification surface
Projetos futuros
?.1 Classes desbalanceadas
?.2 Trabalhos relacionados