李沐的深度学习课
李沐
AWS 资深首席科学家、美国卡内基梅隆大学计算机系博士
10218 人已学习
免费领取
课程目录
已更新 132 讲/共 132 讲
第一章:深度学习基础
(32讲)
01|课程安排
时长 06:28
02|深度学习介绍
时长 13:35
03|安装
时长 16:04
04|数据操作
时长 04:47
05|数据操作实现
时长 14:13
06|数据预处理
时长 07:30
07|线性代数
时长 08:48
08|线性代数实现
时长 12:17
09|按特定轴求和
时长 07:26
10|矩阵计算
时长 12:20
11|自动求导
时长 11:30
12|自动求导实现
时长 06:34
13|线性回归
时长 15:08
14|基础优化方法
时长 08:27
15|线性回归的从零开始实现
时长 15:12
16|线性回归的简洁实现
时长 06:42
17|损失函数
时长 06:33
18|图像分类数据集
时长 09:32
19|softmax回归
时长 10:20
20|softmax回归的简洁实现
时长 04:16
21|softmax回归的从零开始实现
时长 18:29
22|感知机
时长 13:47
23|多层感知机
时长 21:52
24|多层感知机的从零开始实现
时长 07:53
25|过拟合和欠拟合
时长 16:21
26|权重衰退
时长 13:10
27|权重衰减
时长 12:38
28|Dropout
时长 12:25
29|丢弃法
时长 12:07
30|数值稳定性
时长 15:13
31|模型初始化和激活函数
时长 23:15
32|实战 Kaggle 比赛:预测房价
时长 14:13
第二章:卷积神经网络
(29讲)
33|模型构造
时长 13:33
34|参数管理
时长 17:12
35|自定义层
时长 05:29
36|读写文件
时长 06:12
37|buy_gpu
时长 08:40
38|GPU
时长 13:19
39|卷积
时长 14:47
40|卷积层
时长 10:50
41|图像卷积
时长 10:02
42|填充和步幅(上)
时长 14:08
43|填充和步幅(下)
时长 05:04
44|多输入多输出通道(上)
时长 18:51
45|多输入多输出通道(下)
时长 06:44
46|池化层(上)
时长 10:01
47|池化层(下)
时长 06:47
48|lenet
时长 08:42
49|卷积神经网络(LeNet)
时长 21:52
50|AlexNet
时长 35:22
51|深度卷积神经网络(AlexNet)
时长 10:48
52|使用块的网络(VGG)(上)
时长 09:15
53|使用块的网络(Vgg)(下)
时长 07:07
54.网络中的网络(Nin)(上)
时长 10:49
55|网络中的网络(NiN)(下)
时长 10:09
56 | 含并行连结的网络(GoogleNet)(上)
时长 27:08
57 | 含并行连结的网络(GoogleNet)(下)
时长 07:15
58 | 批量归一化(bn)
时长 18:09
59 | 批量归一化(bn_code)
时长 17:20
60 | 残差网络(ResNet)<上>
时长 13:55
61 | 残差网络(ResNet)<下>
时长 09:31
第三章:计算机视觉
(29讲)
62 | 深度学习硬件:CPU和GPU
时长 39:30
63 | 更多的专有硬件
时长 29:26
64 | 多GPU训练
时长 07:07
65 | 多GPU训练的实现
时长 21:47
66 | 分布式训练
时长 21:54
67 | 图像增广(上)
时长 12:57
68 | 图像增广(下)
时长 19:49
69 | 微调(上)
时长 13:58
70 | 微调(下)
时长 08:56
71 | 实战 Kaggle 比赛:图像分类(CIFAR-10)
时长 27:55
72 | 实战 Kaggle 比赛:狗的品种识别(ImageNet Dogs)
时长 19:17
73 | 物体检测
时长 11:44
74 | 边缘框实现
时长 03:54
75 | 物体检测数据集
时长 09:43
76 | 锚框
时长 18:15
77 | 区域卷积神经网络(R-CNNs)
时长 21:46
78 | 单发多框检测(SSD)
时长 09:22
79 | 你只看一次(YOLO)
时长 11:18
80 | 多尺度物体检测实现
时长 10:05
81 | SSD实现
时长 51:39
82 | 语义分割
时长 07:22
83 | 语义分割数据集
时长 27:51
84 | 转置卷积
时长 09:29
85 | 转置卷积(code)
时长 12:49
86 | 转置卷积是一种卷积
时长 09:48
87 | 全连接卷积神经网络(FCN)
时长 04:31
88 | 全连接卷积神经网络(code)
时长 17:48
89 | 样式迁移
时长 04:20
90 | 样式迁移(code)
时长 19:26
第四章:循环神经网络
(21讲)
91 | 序列模型
时长 20:12
92 | 序列模型(code)
时长 12:02
93 |文本预处理
时长 18:05
94 | 语言模型和数据集
时长 15:14
95 | 语言模型和数据集(code)
时长 25:07
96 | 循环神经网络
时长 24:17
97 | 循环神经网络的从零开始实现
时长 48:43
98 | 循环神经网络的简洁实现
时长 07:22
99 | 门控循环单元(GRU)
时长 15:33
100 | 门控循环单元(code)
时长 14:05
101 | 长短期记忆网络(LSTM)
时长 09:15
102 | 长短期记忆网络(code)
时长 04:40
103 | 深层循环神经网络
时长 03:31
104 | 深层循环神经网络(code)
时长 02:52
105 | 双向循环神经网络
时长 07:34
106 | 双向循环神经网络(code)
时长 01:58
107 | 机器翻译与数据集
时长 10:23
108 | 编码器-解码器结构
时长 03:40
109 | 编码器-解码器结构(Code)
时长 02:51
111 | 序列到序列学习(code)
时长 27:31
112 | 束搜索
时长 10:45
第五章:注意力机制
(21讲)
113 | 注意力机制
时长 14:06
114 | 注意力机制(code)
时长 10:08
115 | 注意力分数
时长 10:25
116 | 注意力分数(code)
时长 15:28
117 | 使用注意力机制的seq2seq
时长 10:23
118 | 使用注意力机制的seq2seq(code)
时长 13:24
119 | 自注意力和位置编码
时长 28:00
120 | 自注意力和位置编码(code)
时长 03:05
121 | Transformer
时长 21:12
122 | 多头注意力代码
时长 05:09
123 | Transformer(code)
时长 19:57
124 | BERT
时长 21:59
125 | BERT预训练数据集(code)
时长 11:45
126 | 预训练BERT
时长 08:22
127 | 预训练BERT(code)
时长 09:45
128 | 微调BERT
时长 09:53
129 | 自然语言推理和数据集
时长 04:51
130 | 自然语言推理:微调BERT
时长 12:22
131 | 目标检测总结
时长 24:05
132 | 优化算法
时长 34:12
133 | 课程总结和进阶学习
时长 22:45
李沐的深度学习课
登录
|
注册
留言
收藏
沉浸
阅读
分享
手机端
回顶部
Sorry, your browser doesn't support embedded videos.
当前播放: 101 | 长短期记忆网络(LSTM)
00:00
/ 00:00
高清
高清
1.0x
2.0x
1.5x
1.25x
1.0x
0.75x
0.5x
音量
网页全屏
全屏
00:00
可试看
01|课程安排
02|深度学习介绍
03|安装
04|数据操作
05|数据操作实现
06|数据预处理
07|线性代数
08|线性代数实现
09|按特定轴求和
10|矩阵计算
11|自动求导
12|自动求导实现
13|线性回归
14|基础优化方法
15|线性回归的从零开始实现
16|线性回归的简洁实现
17|损失函数
18|图像分类数据集
19|softmax回归
20|softmax回归的简洁实现
21|softmax回归的从零开始实现
22|感知机
23|多层感知机
24|多层感知机的从零开始实现
25|过拟合和欠拟合
26|权重衰退
27|权重衰减
28|Dropout
29|丢弃法
30|数值稳定性
31|模型初始化和激活函数
32|实战 Kaggle 比赛:预测房价
33|模型构造
34|参数管理
35|自定义层
36|读写文件
37|buy_gpu
38|GPU
39|卷积
40|卷积层
41|图像卷积
42|填充和步幅(上)
43|填充和步幅(下)
44|多输入多输出通道(上)
45|多输入多输出通道(下)
46|池化层(上)
47|池化层(下)
48|lenet
49|卷积神经网络(LeNet)
50|AlexNet
51|深度卷积神经网络(AlexNet)
52|使用块的网络(VGG)(上)
53|使用块的网络(Vgg)(下)
54.网络中的网络(Nin)(上)
55|网络中的网络(NiN)(下)
56 | 含并行连结的网络(GoogleNet)(上)
57 | 含并行连结的网络(GoogleNet)(下)
58 | 批量归一化(bn)
59 | 批量归一化(bn_code)
60 | 残差网络(ResNet)<上>
61 | 残差网络(ResNet)<下>
62 | 深度学习硬件:CPU和GPU
63 | 更多的专有硬件
64 | 多GPU训练
65 | 多GPU训练的实现
66 | 分布式训练
67 | 图像增广(上)
68 | 图像增广(下)
69 | 微调(上)
70 | 微调(下)
71 | 实战 Kaggle 比赛:图像分类(CIFAR-10)
72 | 实战 Kaggle 比赛:狗的品种识别(ImageNet Dogs)
73 | 物体检测
74 | 边缘框实现
75 | 物体检测数据集
76 | 锚框
77 | 区域卷积神经网络(R-CNNs)
78 | 单发多框检测(SSD)
79 | 你只看一次(YOLO)
80 | 多尺度物体检测实现
81 | SSD实现
82 | 语义分割
83 | 语义分割数据集
84 | 转置卷积
85 | 转置卷积(code)
86 | 转置卷积是一种卷积
87 | 全连接卷积神经网络(FCN)
88 | 全连接卷积神经网络(code)
89 | 样式迁移
90 | 样式迁移(code)
91 | 序列模型
92 | 序列模型(code)
93 |文本预处理
94 | 语言模型和数据集
95 | 语言模型和数据集(code)
96 | 循环神经网络
97 | 循环神经网络的从零开始实现
98 | 循环神经网络的简洁实现
99 | 门控循环单元(GRU)
100 | 门控循环单元(code)
101 | 长短期记忆网络(LSTM)
102 | 长短期记忆网络(code)
103 | 深层循环神经网络
104 | 深层循环神经网络(code)
105 | 双向循环神经网络
106 | 双向循环神经网络(code)
107 | 机器翻译与数据集
108 | 编码器-解码器结构
109 | 编码器-解码器结构(Code)
111 | 序列到序列学习(code)
112 | 束搜索
113 | 注意力机制
114 | 注意力机制(code)
115 | 注意力分数
116 | 注意力分数(code)
117 | 使用注意力机制的seq2seq
118 | 使用注意力机制的seq2seq(code)
119 | 自注意力和位置编码
120 | 自注意力和位置编码(code)
121 | Transformer
122 | 多头注意力代码
123 | Transformer(code)
124 | BERT
125 | BERT预训练数据集(code)
126 | 预训练BERT
127 | 预训练BERT(code)
128 | 微调BERT
129 | 自然语言推理和数据集
130 | 自然语言推理:微调BERT
131 | 目标检测总结
132 | 优化算法
133 | 课程总结和进阶学习
登录
后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论