p157 语音识别(A

课程目录
课程简介
  • p01 神经网络概览(
    04:26
  • p02 神经网络的表现形式(
    05:14
  • p03 计算神经网络的输出(
    09:58
  • p04 多样本向量化(
    09:05
  • p05 向量化实现的解释(
    07:37
  • p06 激活函数(
    10:56
  • p07 为什么需要非线性激活函数(
    05:36
  • p08 激活函数的导数(
    07:57
  • p09 神经网络的梯度下降(
    09:57
  • p10 反向传播的直觉(
    15:48
  • p11 随机初始化(
    07:57
  • p12 深L层神经网络(
    05:51
  • p13 深层网络中的正向传播(
    07:15
  • p14 正确的矩阵维数(
    11:10
  • p15 为什么深度这么有理(
    10:33
  • p16 为深层神经网络构建模块(
    08:33
  • p17 正向和反向传播
    11:02
  • p18 参数vs超参数(
    07:17
  • p19 这与大脑的关系是什么(
    03:17
  • p20 训练 开发 测试集(
    12:04
  • p21 偏见 方差(
    08:46
  • p22 机器学习的基本配方(
    06:21
  • p23 正则化(
    09:42
  • p24 为什么正则化可以减少过拟合(
    07:09
  • p25 正规化抛弃(
    09:25
  • p26 理解抛弃(
    07:04
  • p27 其他的正则化方法(
    08:24
  • p28 归一化输入(
    05:30
  • p29 梯度消失 爆炸(
    06:07
  • p30 深度网络权值初始化(
    06:12
  • p31 梯度的数值近似(
    06:35
  • p32 梯度检查(
    06:34
  • p33 梯度检查实施须知(
    05:18
  • p34 小批量梯度下降(
    11:28
  • p35 理解小批量梯度下降(
    11:18
  • p36 指数加权平均(
    05:58
  • p37 理解指数加权平均(
    09:42
  • p38 指数加权平均数的偏差修正(
    04:11
  • p39 动量梯度下降(
    09:20
  • p40 RMSprop
    07:41
  • p41 适应性矩估计(Adam)算法优化(
    07:07
  • p42 学习速率衰减(
    06:44
  • p43 局部最优解问题
    05:23
  • p44 参数调整过程
    07:10
  • p45 使用适当的标准来选择超参数(
    08:50
  • p46 实践中的超参数调整 熊猫vs鱼子酱(
    06:51
  • p47 网络中的正常化激活(
    08:55
  • p48 将Batch Norm拟合到神经网络中(
    12:55
  • p49 为什么Batch Norm有效(
    11:39
  • p50 测试时的Batch Norm(
    05:46
  • p51 Softmax回归(
    11:47
  • p52 训练一个softmax分类器(
    10:07
  • p53 深度学习框架(
    04:15
  • p54 TensorFlow(
    15:01
  • p55 为什么选择ML策略(
    02:42
  • p56 正交化(
    10:38
  • p57 单数评价指标(
    07:16
  • p58 满足和优化指标(
    05:58
  • p59 训练 开发 测试分布(
    06:35
  • p60 开发和测试集的大小和指标(
    05:39
  • p61 何时更改开发 测试集和指标(
    11:07
  • p62 为什么选择人类水平表现(
    05:46
  • p63 可避免的偏见(
    06:59
  • p64 理解人类水平表现(
    11:12
  • p65 超越人类水平表现(
    06:21
  • p66 提高您的模型性能(
    04:36
  • p67 Andrej Karpathy访谈(
    15:10
  • p68 进行误差分析(
    10:32
  • p69 清理错误标注的数据(
    13:05
  • p70 快速构建您的第一个系统,并进行迭代(
    05:25
  • p71 训练和测试的不同分布(
    10:55
  • p72 不匹配数据分布的偏差和方差(
    18:16
  • p73 解决数据不匹配问题(A
    10:08
  • p74 迁移学习(A
    11:17
  • p75 多任务学习(A
    12:59
  • p76 什么是端到端深度学习(A
    11:47
  • p77 是否使用端到端深度学习(A
    10:19
  • p78 计算机视觉(A
    05:44
  • p79 边缘探测示例(A
    11:30
  • p80 更多边缘探测(A
    07:57
  • p81 填充(A
    09:49
  • p82 卷积步长(A
    09:01
  • p83 三维卷积(A
    10:44
  • p84 卷积网络的一层(A
    16:10
  • p85 卷积网络的简单示例(A
    08:32
  • p86 池化层(A
    10:25
  • p87 CNN示例(A
    12:37
  • p88 为什么用卷积(A
    09:40
  • p89 为什么要进行案例研究?(A
    03:08
  • p90 经典网络(A
    18:19
  • p91 残差网络(A
    07:08
  • p92 为什么使用残差网络(A
    09:12
  • p93 网络中的网络及1x1卷积(A
    06:40
  • p94 初始网络动机(A
    10:14
  • p95 初始网络(A
    08:46
  • p96 MobileNet(A
    16:18
  • p97 MobileNet架构(A
    08:32
  • p98 EfficientNet(A
    03:39
  • p99 使用开放源码(A
    04:56
  • p100 迁移学习(A
    08:48
  • p101 【数据增强(A
    09:31
  • p102 计算机视觉状态(A
    12:38
  • p103 目标定位(A
    11:54
  • p104 地标检测(A
    05:56
  • p105 目标检测(A
    05:49
  • p106 在卷积网络上实现滑动窗口(A
    11:08
  • p107 边界框预测(A
    14:31
  • p108 并交比(A
    04:18
  • p109 非极大值抑制(A
    08:02
  • p110 锚框(A
    09:43
  • p111 YOLO(You Only Look Once)算法(A
    07:01
  • p112 区域推荐网络(选修)(A
    06:27
  • p113 用u-net进行语义分割(A
    07:21
  • p114 转置卷积(A
    07:39
  • p115 u-net 结构灵感(A
    03:21
  • p116 u-net 结构(A
    07:41
  • p117 什么是人脸识别(A
    04:37
  • p118 单样本学习(A
    04:45
  • p119 孪生神经网络(A
    04:51
  • p120 Triplet Loss三元组损失(A
    15:30
  • p121 人脸验证和二进制分类(A
    06:05
  • p122 什么是神经风格迁移(A
    02:02
  • p123 什么是深度卷积神经网络学习(A
    07:57
  • p124 代价函数(A
    03:59
  • p125 内容代价函数(A
    03:37
  • p126 风格代价函数(A
    13:17
  • p127 维和3维推广(A
    09:08
  • p128 为什么用序列模型(A
    03:00
  • p129 注释(A
    09:15
  • p130 循环神经网络模型(A
    16:31
  • p131 通过时间的反向传播(A
    06:11
  • p132 不同类型的RNNs(A
    09:34
  • p133 语言模型和序列生成(A
    12:01
  • p134 对新序列的采样
    08:38
  • p135 RNNs的梯度消失(A
    06:28
  • p136 长短期记忆(LSTM)(A
    09:53
  • p137 双向RNN(A
    08:19
  • p138 深度RNNs(A
    05:16
  • p139 词表示(A
    10:07
  • p140 使用词嵌入(A
    09:22
  • p141 词嵌入的性能(A
    11:54
  • p142 矩阵嵌入(A
    05:57
  • p143 学习词嵌入(A
    10:09
  • p144 词转换成向量形式(A
    12:47
  • p145 负采样(A
    11:53
  • p146 GloVe词向量(A
    11:08
  • p147 情感分类(A
    07:37
  • p148 词嵌入除偏(A
    11:08
  • p149 基础模型(A
    06:18
  • p150 选择最有可能的句子(A
    08:56
  • p151 集束搜索(A
    11:54
  • p152 细化集束搜索(A
    11:00
  • p153 集束搜索中的错误分析(A
    09:43
  • p154 Bleu分数(选修)(A
    16:26
  • p155 注意力模型直觉(A
    09:41
  • p156 注意力模型(A
    12:22
  • p157 语音识别(A
    08:53
  • p158 触发词检测(A
    05:03
  • p159 Transformer网络直觉(A
    05:29
  • p160 自注意力机制(A
    11:43
  • p161 多头注意力机制(A
    08:20
  • p162 Transformer网络(A
    13:10
  • p163 结论及感谢(A
    02:44

自动创建,来源于视频导入任务

Section outline