【2025版】不愧是吴恩达教授!一口气讲透CNN、RNN、GAN、GNN、DQN、Transformer、LSTM等八大深度学习神经网络算法!简直不要太爽!
p157 语音识别(A
课程目录
课程简介
-
p01 神经网络概览(04:26
-
p02 神经网络的表现形式(05:14
-
p03 计算神经网络的输出(09:58
-
p04 多样本向量化(09:05
-
p05 向量化实现的解释(07:37
-
p06 激活函数(10:56
-
p07 为什么需要非线性激活函数(05:36
-
p08 激活函数的导数(07:57
-
p09 神经网络的梯度下降(09:57
-
p10 反向传播的直觉(15:48
-
p11 随机初始化(07:57
-
p12 深L层神经网络(05:51
-
p13 深层网络中的正向传播(07:15
-
p14 正确的矩阵维数(11:10
-
p15 为什么深度这么有理(10:33
-
p16 为深层神经网络构建模块(08:33
-
p17 正向和反向传播11:02
-
p18 参数vs超参数(07:17
-
p19 这与大脑的关系是什么(03:17
-
p20 训练 开发 测试集(12:04
-
p21 偏见 方差(08:46
-
p22 机器学习的基本配方(06:21
-
p23 正则化(09:42
-
p24 为什么正则化可以减少过拟合(07:09
-
p25 正规化抛弃(09:25
-
p26 理解抛弃(07:04
-
p27 其他的正则化方法(08:24
-
p28 归一化输入(05:30
-
p29 梯度消失 爆炸(06:07
-
p30 深度网络权值初始化(06:12
-
p31 梯度的数值近似(06:35
-
p32 梯度检查(06:34
-
p33 梯度检查实施须知(05:18
-
p34 小批量梯度下降(11:28
-
p35 理解小批量梯度下降(11:18
-
p36 指数加权平均(05:58
-
p37 理解指数加权平均(09:42
-
p38 指数加权平均数的偏差修正(04:11
-
p39 动量梯度下降(09:20
-
p40 RMSprop07:41
-
p41 适应性矩估计(Adam)算法优化(07:07
-
p42 学习速率衰减(06:44
-
p43 局部最优解问题05:23
-
p44 参数调整过程07:10
-
p45 使用适当的标准来选择超参数(08:50
-
p46 实践中的超参数调整 熊猫vs鱼子酱(06:51
-
p47 网络中的正常化激活(08:55
-
p48 将Batch Norm拟合到神经网络中(12:55
-
p49 为什么Batch Norm有效(11:39
-
p50 测试时的Batch Norm(05:46
-
p51 Softmax回归(11:47
-
p52 训练一个softmax分类器(10:07
-
p53 深度学习框架(04:15
-
p54 TensorFlow(15:01
-
p55 为什么选择ML策略(02:42
-
p56 正交化(10:38
-
p57 单数评价指标(07:16
-
p58 满足和优化指标(05:58
-
p59 训练 开发 测试分布(06:35
-
p60 开发和测试集的大小和指标(05:39
-
p61 何时更改开发 测试集和指标(11:07
-
p62 为什么选择人类水平表现(05:46
-
p63 可避免的偏见(06:59
-
p64 理解人类水平表现(11:12
-
p65 超越人类水平表现(06:21
-
p66 提高您的模型性能(04:36
-
p67 Andrej Karpathy访谈(15:10
-
p68 进行误差分析(10:32
-
p69 清理错误标注的数据(13:05
-
p70 快速构建您的第一个系统,并进行迭代(05:25
-
p71 训练和测试的不同分布(10:55
-
p72 不匹配数据分布的偏差和方差(18:16
-
p73 解决数据不匹配问题(A10:08
-
p74 迁移学习(A11:17
-
p75 多任务学习(A12:59
-
p76 什么是端到端深度学习(A11:47
-
p77 是否使用端到端深度学习(A10:19
-
p78 计算机视觉(A05:44
-
p79 边缘探测示例(A11:30
-
p80 更多边缘探测(A07:57
-
p81 填充(A09:49
-
p82 卷积步长(A09:01
-
p83 三维卷积(A10:44
-
p84 卷积网络的一层(A16:10
-
p85 卷积网络的简单示例(A08:32
-
p86 池化层(A10:25
-
p87 CNN示例(A12:37
-
p88 为什么用卷积(A09:40
-
p89 为什么要进行案例研究?(A03:08
-
p90 经典网络(A18:19
-
p91 残差网络(A07:08
-
p92 为什么使用残差网络(A09:12
-
p93 网络中的网络及1x1卷积(A06:40
-
p94 初始网络动机(A10:14
-
p95 初始网络(A08:46
-
p96 MobileNet(A16:18
-
p97 MobileNet架构(A08:32
-
p98 EfficientNet(A03:39
-
p99 使用开放源码(A04:56
-
p100 迁移学习(A08:48
-
p101 【数据增强(A09:31
-
p102 计算机视觉状态(A12:38
-
p103 目标定位(A11:54
-
p104 地标检测(A05:56
-
p105 目标检测(A05:49
-
p106 在卷积网络上实现滑动窗口(A11:08
-
p107 边界框预测(A14:31
-
p108 并交比(A04:18
-
p109 非极大值抑制(A08:02
-
p110 锚框(A09:43
-
p111 YOLO(You Only Look Once)算法(A07:01
-
p112 区域推荐网络(选修)(A06:27
-
p113 用u-net进行语义分割(A07:21
-
p114 转置卷积(A07:39
-
p115 u-net 结构灵感(A03:21
-
p116 u-net 结构(A07:41
-
p117 什么是人脸识别(A04:37
-
p118 单样本学习(A04:45
-
p119 孪生神经网络(A04:51
-
p120 Triplet Loss三元组损失(A15:30
-
p121 人脸验证和二进制分类(A06:05
-
p122 什么是神经风格迁移(A02:02
-
p123 什么是深度卷积神经网络学习(A07:57
-
p124 代价函数(A03:59
-
p125 内容代价函数(A03:37
-
p126 风格代价函数(A13:17
-
p127 维和3维推广(A09:08
-
p128 为什么用序列模型(A03:00
-
p129 注释(A09:15
-
p130 循环神经网络模型(A16:31
-
p131 通过时间的反向传播(A06:11
-
p132 不同类型的RNNs(A09:34
-
p133 语言模型和序列生成(A12:01
-
p134 对新序列的采样08:38
-
p135 RNNs的梯度消失(A06:28
-
p136 长短期记忆(LSTM)(A09:53
-
p137 双向RNN(A08:19
-
p138 深度RNNs(A05:16
-
p139 词表示(A10:07
-
p140 使用词嵌入(A09:22
-
p141 词嵌入的性能(A11:54
-
p142 矩阵嵌入(A05:57
-
p143 学习词嵌入(A10:09
-
p144 词转换成向量形式(A12:47
-
p145 负采样(A11:53
-
p146 GloVe词向量(A11:08
-
p147 情感分类(A07:37
-
p148 词嵌入除偏(A11:08
-
p149 基础模型(A06:18
-
p150 选择最有可能的句子(A08:56
-
p151 集束搜索(A11:54
-
p152 细化集束搜索(A11:00
-
p153 集束搜索中的错误分析(A09:43
-
p154 Bleu分数(选修)(A16:26
-
p155 注意力模型直觉(A09:41
-
p156 注意力模型(A12:22
-
p157 语音识别(A08:53
-
p158 触发词检测(A05:03
-
p159 Transformer网络直觉(A05:29
-
p160 自注意力机制(A11:43
-
p161 多头注意力机制(A08:20
-
p162 Transformer网络(A13:10
-
p163 结论及感谢(A02:44
自动创建,来源于视频导入任务