TensorFlow 快速入门与实战
彭靖田
Google Developers Expert,《深入理解 TensorFlow》作者
31210 人已学习
新⼈⾸单¥59
课程目录
已完结/共 67 讲
第二章:TensorFlow初接触 (5讲)
第六章:实战TensorFlow验证码识别 (8讲)
TensorFlow 快速入门与实战
登录|注册
留言
16
收藏
沉浸
阅读
分享
手机端
回顶部
当前播放: 29 | 房价预测模型之创建与训练
00:00 / 00:00
高清
  • 高清
1.0x
  • 2.0x
  • 1.5x
  • 1.25x
  • 1.0x
  • 0.75x
  • 0.5x
网页全屏
全屏
00:00
付费课程,可试看
01 | 课程介绍
02 | 课程内容综述
03 | 第一章内容概述
04 | TensorFlow产生的历史必然性
05 | TensorFlow与Jeff Dean的那些事
06 | TensorFlow的应用场景
07 | TensorFlow的落地应用
08 | TensorFlow的发展现状
09 | 第二章内容概述
10 | 搭建你的TensorFlow开发环境
11 | Hello TensorFlow
12 | 在交互环境中使用TensorFlow
13 | 在容器中使用TensorFlow
14 | 第三章内容概述
15 | TensorFlow模块与架构介绍
16 | TensorFlow数据流图介绍
17 | 张量(Tensor)是什么(上)
18 | 张量(Tensor)是什么(下)
19 | 变量(Variable)是什么(上)
20 | 变量(Variable)是什么(下)
21 | 操作(Operation)是什么(上)
22 | 操作(Operation)是什么(下)
23 | 会话(Session)是什么
24 | 优化器(Optimizer)是什么
25 | 第四章内容概述
26 | 房价预测模型的前置知识
27 | 房价预测模型介绍
28 | 房价预测模型之数据处理
29 | 房价预测模型之创建与训练
30 | TensorBoard可视化工具介绍
31 | 使用TensorBoard可视化数据流图
32 | 实战房价预测模型:数据分析与处理
33 | 实战房价预测模型:创建与训练
34 | 实战房价预测模型:可视化数据流图
35 | 第五章内容概述
36 | 手写体数字数据集MNIST介绍(上)
37 | 手写体数字数据集MNIST介绍(下)
38 | MNIST Softmax网络介绍(上)
39 | MNIST Softmax网络介绍(下)
40 | 实战MNIST Softmax网络(上)
41 | 实战MNIST Softmax网络(下)
42 | MNIST CNN网络介绍
43 | 实战MNIST CNN网络
44 | 第六章内容概述
45 | 准备模型开发环境
46 | 生成验证码数据集
47 | 输入与输出数据处理
48 | 模型结构设计
49 | 模型损失函数设计
50 | 模型训练过程分析
51 | 模型部署与效果演示
52 | 第七部分内容介绍
53 | 人脸识别问题概述
54 | 典型人脸相关数据集介绍
55 | 人脸检测算法介绍
56 | 人脸识别算法介绍
57 | 人脸检测工具介绍
58 | 解析FaceNet人脸识别模型
59 | 实战FaceNet人脸识别模型
60 | 测试与可视化分析
61 | 番外篇内容介绍
62 | TensorFlow社区介绍
63 | TensorFlow生态:TFX
64 | TensorFlow生态:Kubeflow
65 | 如何参与TensorFlow社区开源贡献
66 | ML GDE是TensorFlow社区与开发者的桥梁
67 | 课程总结
登录 后留言

全部留言(16)

  • 最新
  • 精选
松涛
一个epoch表示:使用所有training data 训练一遍模型 batch:是因为随机梯度下降等原因才设置的,一个batch表示很小的已部分训练数据 one epoch = one forward pass and one backward pass of all the training examples batch size = the number of training examples in one forward/backward pass. The higher the batch size, the more memory space you'll need. number of iterations = number of passes, each pass using [batch size] number of examples. To be clear, one pass = one forward pass + one backward pass (we do not count the forward pass and backward pass as two different passes).

作者回复: 对的:)

2019-01-25
5
大魔王
👍,讲的很细

作者回复: ✔

2020-06-05
ace
13:05 处,500 epochs 模型参数有误: 0.8304*x1 + 8.239^{-4} x2 + 4.138^{-9} 应修正为: 0.8304*x1 + 8.239*10^{-4} x2 + 4.138*10^{-9}

作者回复: 对的,谢谢指正!

2019-04-15
深蓝
老师,并没有看到代码中哪里有把w的值重新修改的地方,是梯度下降函数tf.train.GradientDescentOptimizer自动去做的吗?

作者回复: 是的,Opt 内部有个 apply_gradients 方法,会更新 weights。

2019-03-23
长脖子树
最后输出结果那里应该 先进行sess.run(W),否则无法输出W[1]

作者回复: 之前有提到,只有 Session 中实际运行的 operator,才能从数据流图中获取到执行的数据。

2019-03-21
Ken
"我也是,把源码chapter-4导入到Jupyter,运行2-training-model.ipynb,结果训练出来的模型全是 Model: y = 0x1 + 0x2 + 0 ,是有什么问题吗?" 找到原因了,换了一个Docker镜像,“tensorflow/tensorflow:latest-py3-jupyter" 之后就正常了

作者回复: 之前用的什么镜像呢?

2019-03-03
姜昆
我问的是如果train example被分成512个minibatch,那么每个epoch(或这说每个step)是训练1个minibath还是512个minibatch,因为我看到网上有些代码两种情况都有,但是更倾向于每个epoch训练512个minibatch(也就是所有的train example)

作者回复: Up to u Epoch 表示数据集所有的 samples Step 表示一次前向和后向使用的 samples Batch 表示一个批次的数据包含的 samples

2019-01-25
姜昆
老师,我问一下,你视频里面说的step和epoch的训练能不能再详细一点,涉及到batch数据训练事,是个怎么回事,有些代码里面将所有的的batchs训练完当成一个epoch,有些代码直接就把一个batch当成一个epoch,这样差别会很大吗
2019-01-25
3
Elvis
老师,请问下我把你的源码chapter-4导入到Jupyter,运行2-training-model.ipynb,结果训练出来的模型全是 Model: y = 0x1 + 0x2 + 0, 感觉没有生效,请问可能是什么原因, 是否是因为我是用的容器,硬件设备不能进行训练呢
2019-02-16
1
2
cy
第一圈计算损失值的时候就为 0 了,debug 看了下 ,loss_op = 1 / (2 * len(X_data)) * tf.matmul((y_pred - y), (y_pred - y), transpose_a=True) 里,1 需要改成 1.0;
2020-08-06
1
收起评论