零基础必看!【Transformer从零入门】不愧是王树森亲授!3小时就将Transformer底层逻辑原理讲清楚了!建议收藏!——(人工智能、深度学习、AI)
p01 1.神经网络结构搜索 (1_3)_ 基本概念和随机搜索
课程目录
课程简介
-
p01 1.神经网络结构搜索 (1_3)_ 基本概念和随机搜索10:40
-
p02 2.神经网络结构搜索 (2_3)_ RNN RL Neural Arch24:06
-
p03 3.神经网络结构搜索 (3_3)_ 可微方法 Differentiable23:47
-
p04 4.并行计算与机器学习(1_3)(中文) Parallel Computing25:24
-
p05 5.并行计算与机器学习(2_3)(中文) Parallel Computing17:24
-
p06 6.并行计算与机器学习(3_3)(中文) Parallel Computing24:54
-
p07 7.联邦学习:技术角度的讲解(中文)Introduction to Federa37:00
-
p08 8.Transformer模型(1_2)_ 剥离RNN,保留Attention24:06
-
p09 9.Transformer模型(2_2)_ 从Attention层到Transf14:32
-
p10 10.Vision Transformer (ViT) 用于图片分类13:08
-
p11 11.RNN模型与NLP应用(1_9):数据处理基础10:56
-
p12 12.RNN模型与NLP应用(2_9):文本处理与词嵌入16:11
-
p13 13.RNN模型与NLP应用(3_9):Simple RNN模型20:49
-
p14 14.RNN模型与NLP应用(4_9):LSTM模型13:01
-
p15 15.RNN模型与NLP应用(5_9):多层RNN、双向RNN、预训练(12:15
-
p16 16.RNN模型与NLP应用(6_9):Text Generation (自动文(Av888217369,P16)23:23
-
p17 17.RNN模型与NLP应用(7_9):机器翻译与Seq2Seq模型(Av888217369,P17)19:36
-
p18 18.RNN模型与NLP应用(8_9):Attention (注意力机制)(Av888217369,P18)16:50
-
p19 19.RNN模型与NLP应用(9_9):Self-Attention (自注意力(Av888217369,P19)07:16
自动创建,来源于视频导入任务