人工智能

机器学习

工作方式

模型数据

验证模型

测试模型

使用模型

调优模型

选择数据

地位

实际应用

演化

五大流派

符号主义

贝叶斯派

联结主义

进化主义

Analogizer

演化阶段

1980 符号主义

1990-2000 贝叶斯

2010 联结主义

2010末 联结+符号

2020+ 联结+符号+贝叶斯+...

2040 算法融合

算法

如何选择

种类以及优缺点

树形模型

线性模型

回归

隐性马尔可夫模型

朴素贝叶斯分类

随机森林

神经网络

种类

DNN

图灵测试

定义

测试设定

质疑

避而不答通过

改进版本或其他评价方法

或许通过图灵测试的软件

通过测试的欺骗性技巧

预测问题

回归问题

分类问题

支持向量机

决策树

梯度提升

实现权值共享的网络

线性回归

逻辑回归

知识图谱

目的

构成

知识获取

数据融合

处理非结构化数据

处理半结构化数据

知识计算及应用

提取正文

识别实体

实体链接

命名实体识别

包装器学习抽取规则

具有大量重复性结构

储存到数据库

本体

实体匹配

本体融合技术

数据储存

知识计算

本体/规则推理技术

链接预测

社会计算的不同算法

不一致检测技术

技术 (方法,例子,缺点)

实体关系识别技术

基于监督学习

半监督学习

无监督学习

知识融合技术

对比传统融合

改进

本体匹配

算法

模式匹配

实例匹配

技术层面分类

启发式方法

概率方法

基于图的方法

基于学习的方法

基于推理的方法

实体链接技术

根本难点

核心研究问题

方法

基于概率生成模型方法

基于主题模型方法

基于图的方法

基于深度神经网络的方法

知识推理技术

基于符号的推理

基于统计的推理

实体关系学习方法

潜在特征模型

图特征模型

类型推理方法

模式归纳方法

开放知识图谱介绍

研究十大主题排名

数学基础

线性代数

Moore-Penrose伪逆

性质

定义

奇异值分解

性质

利用SVD计算非奇异矩阵逆矩阵

稀疏SVD

表示

定义

诱导矩阵范数

性质

常用矩阵p-范数

2-范数

无穷范数

1-范数

定义

向量范数

常见p-范数

性质

无穷(最大)范数

欧几里得(2)范数

1-范数

定义

范数

性质

定义

基础表示

QR 分解

正交将矩阵

矩阵可逆性

逆矩阵

矩阵

0向量和1向量

n维向量

RandNLA

基本算法

跨学科领域

图论

概率图模型

种类

贝叶斯网络

马尔可夫网络

问题设置

条件独立

三门问题例子

参数估计

推理算法

对贝叶斯网络

对马尔可夫网络

边际推理

后验推理

最大后验推理

算法

变量消除

置信度传播

近似推理

应用:图像去噪

概率论

基本定义

概率

频率

条件概率

独立事件

贝叶斯概率论

抽样与统计

样本均值

样本方差

分布

随机变量

连续分布

离散分布

常见数据类型

离散

连续

伯努利分布

二项分布(多重伯努利分布)

泊松分布

均匀分布

指数分布

正态分布

定义

种类

树状图

有向图 vs 无向图

聚类算法

K-均值聚类

层级聚类

图团体检测

Fast-Greedy Modularity-Maximization

可替代 Modularity-Maximization的方法

分辨率极限

Edge-Betweenness

Clique Percolation

谱聚类算法

深度学习架构谱系

长短期记忆与门控制神经网络(LSTM)

基本

定义

输入 Xk

权重向量

函数

估计函数

激活函数

图片:3个RGB M x N 矩阵

分层

输入层

隐藏层

输出层

一般不用线性函数

损失函数

样本数量 m

训练

优化算法

调整权值改变函数

基于梯度

不基于梯度

随机梯度下降

小批量梯度下降

反向传播

计算梯度

动量随机梯度下降算法

数学表示

直观理解

为什么更好用

CNN

卷积

卷积核

方法演示

为什么图像卷积有用

滤波器

不同的核产生多种feature map

特征学习

同时学习多层级的多个核

卷积定理

快速傅里叶变换

频率过滤与卷积

理解传播子

架构

卷积层

激活函数

池化层

作用

池化方法

Sigmoid

tanh

ReLU

LeakyReLU

Softmax

维度计算

全连接层

输入数据

函数

损失函数

MSE

均方对数误差

L2损失函数

L1损失函数

平均绝对误差

平均绝对百分比误差

交叉熵

学习过程

前馈传播过程

卷积运算流程

输出: feature map

激活函数

处理输入的网络

前馈网络

循环网络

全连接

稀疏链接

限制对结果有影响的权重数量,可以实现更高效的计算

窗口式的权重共享网络

流行的模型

区别

不同的网络架构

不同层级数量

滤波器形状

层级类型

连接方式

开发资源

框架

分类数据集

硬件

评估和比较的基准指标

模型

硬件

error模型精准度

模型参数

权重量

运算量

能量效率

片外带宽

区域效率

吞吐量

前馈神经网络FNN

不考虑输入数据可能具备的结构

解决隐藏层难以训练的问题

架构

特征

加权平均值

激活函数

层级

输入层

全连接层

输出层

损失函数

梯度下降需要数据样本

正则化技术

反向传播

采样方法

Full-bath

随机梯度下降

小批量梯度下降

梯度优化技术

Chain Rule

如果用梯度更新权重

动量法

RMSprop

Adam

权重初始化

改进批归一化

实例

现实架构

LeNet

AlexNet

VGG

GoogleNet

ResNet

负面影响

inception层

残差模块

传播方式

全连接到池化

从输出到全连接层

从全连接到全连接

池化到卷积

卷积到卷积

卷积到池化

RNN

RNN-LSTM中的反向传递

特征

隐藏层详解

特征

数据也以新的时间依赖方向传递

强化学习

闭环系统

没有正确的输入输出对

尝试->奖励

尝试影响长期奖励

框架

状态

基本要素

图解

Agent 组成

策略

确定策略

随机策略

价值函数

Q价值函数

优化价值函数

模型

方法

基于价值的强化学习

基于策略的强化学习

基于模型的强化学习

结合深度学习

基于价值的深度强化学习

存在问题

解决方案

DQN深度强化网络

采样之间的相关性

不稳定的对象

改进

双深度Q网络

有优先级的经历回访

决斗网络

基于策略的深度强化学习

深度策略网络

策咯梯度

Actor-Critic 算法

异步优势Actor Critic 算法 (A3C)

Google Gorila

图解

没有Google的情况下,如何加速强化学习

异步强化学习

标准cpu多线程

并行执行一个agent的多个实例

线程共享Network 参数

并行消除数据相关性

方式

遗忘机制

保存机制

数学描述

变量标准名称

长期记忆 ltm(t)

工作记忆 wm(t)

记忆向量 remember(t)

保存向量 save(t)

注意向量 focus(t)

研究内部

计数

来自计数的计数

记忆状态

复制任务

拓展

门控循环神经网络

发现区分记忆门和保存门是多余的

迁移学习

定义

为什么需要

任务

目的

场景

跨语言适应(cross-lingual adaptation)

域适应(domain adaptation)

YS≠YT。两个任务的标签空间不同

P(Ys|Xs)≠P(Yt|Xt),源任务和目标任务的条件概率分布不同。

应用

从模拟中学习

适应到新的域

跨语言迁移知识

方法

使用预训练的 CNN 特征

学习域不变的表征

让表征更加相似

混淆域

相关研究领域

半监督学习

更有效地使用可用的数据

提高模型的泛化能力

让模型更加稳健

多任务学习

持续学习

zero-shot 学习

自然语言处理

自然语言理解

自然语言生成

层级

内容规划(Content Planning)

语句规划(Sentence Planning)

表层实现(Surface Realization)

四个阶段

确定目标

通过场景评估规划如何实现目标

可用的对话源

把规划实现为文本

深度学习中的NLP