下载APP
登录
关闭
讲堂
算法训练营
Python 进阶训练营
企业服务
极客商城
客户端下载
兑换中心
渠道合作
推荐作者
当前播放: 29 | 房价预测模型之创建与训练
00:00 / 00:00
标清
  • 标清
1.0x
  • 2.0x
  • 1.5x
  • 1.25x
  • 1.0x
  • 0.5x
网页全屏
全屏
00:00
付费课程,可试看

TensorFlow快速入门与实战

共67讲 · 67课时,约1000分钟
6964
免费
01 | 课程介绍
免费
02 | 课程内容综述
免费
03 | 第一章内容概述
免费
04 | TensorFlow产生的历史必然...
免费
05 | TensorFlow与Jeff Dean的...
免费
06 | TensorFlow的应用场景
07 | TensorFlow的落地应用
08 | TensorFlow的发展现状
09 | 第二章内容概述
10 | 搭建你的TensorFlow开发环...
11 | Hello TensorFlow
12 | 在交互环境中使用TensorFl...
13 | 在容器中使用TensorFlow
14 | 第三章内容概述
15 | TensorFlow模块与架构介绍
16 | TensorFlow数据流图介绍
17 | 张量(Tensor)是什么(上...
18 | 张量(Tensor)是什么(下...
19 | 变量(Variable)是什么(...
20 | 变量(Variable)是什么(...
21 | 操作(Operation)是什么...
22 | 操作(Operation)是什么...
23 | 会话(Session)是什么
24 | 优化器(Optimizer)是什...
25 | 第四章内容概述
26 | 房价预测模型的前置知识
27 | 房价预测模型介绍
28 | 房价预测模型之数据处理
29 | 房价预测模型之创建与训练
30 | TensorBoard可视化工具介...
31 | 使用TensorBoard可视化数...
32 | 实战房价预测模型:数据分...
33 | 实战房价预测模型:创建与...
34 | 实战房价预测模型:可视化...
35 | 第五章内容概述
36 | 手写体数字数据集MNIST介...
37 | 手写体数字数据集MNIST介...
38 | MNIST Softmax网络介绍(...
39 | MNIST Softmax网络介绍(...
40 | 实战MNIST Softmax网络(...
41 | 实战MNIST Softmax网络(...
42 | MNIST CNN网络介绍
43 | 实战MNIST CNN网络
44 | 第六章内容概述
45 | 准备模型开发环境
46 | 生成验证码数据集
47 | 输入与输出数据处理
48 | 模型结构设计
49 | 模型损失函数设计
50 | 模型训练过程分析
51 | 模型部署与效果演示
52 | 第七部分内容介绍
53 | 人脸识别问题概述
54 | 典型人脸相关数据集介绍
55 | 人脸检测算法介绍
56 | 人脸识别算法介绍
57 | 人脸检测工具介绍
58 | 解析FaceNet人脸识别模型
59 | 实战FaceNet人脸识别模型
60 | 测试与可视化分析
61 | 番外篇内容介绍
62 | TensorFlow社区介绍
63 | TensorFlow生态:TFX
64 | TensorFlow生态:Kubeflow
65 | 如何参与TensorFlow社区开...
66 | ML GDE是TensorFlow社区...
67 | 课程总结

精选留言(11)

  • 2019-01-25
    一个epoch表示:使用所有training data 训练一遍模型
    batch:是因为随机梯度下降等原因才设置的,一个batch表示很小的已部分训练数据
    one epoch = one forward pass and one backward pass of all the training examples
    batch size = the number of training examples in one forward/backward pass. The higher the batch size, the more memory space you'll need.
    number of iterations = number of passes, each pass using [batch size] number of examples. To be clear, one pass = one forward pass + one backward pass (we do not count the forward pass and backward pass as two different passes).
    展开

    作者回复: 对的:)

    4
  • 2019-01-25
    老师,我问一下,你视频里面说的step和epoch的训练能不能再详细一点,涉及到batch数据训练事,是个怎么回事,有些代码里面将所有的的batchs训练完当成一个epoch,有些代码直接就把一个batch当成一个epoch,这样差别会很大吗
    3
  • 2019-02-16
    老师,请问下我把你的源码chapter-4导入到Jupyter,运行2-training-model.ipynb,结果训练出来的模型全是 Model: y = 0x1 + 0x2 + 0, 感觉没有生效,请问可能是什么原因, 是否是因为我是用的容器,硬件设备不能进行训练呢
    2
  • 2019-07-03
    我是在pycharm里面实现了这些代码,但是输出的值也全是y=0x1+0x2+0;loss也等于0;为什么呢?老师!
  • 2019-04-15
    13:05 处,500 epochs 模型参数有误:

    0.8304*x1 + 8.239^{-4} x2 + 4.138^{-9}
    应修正为:
    0.8304*x1 + 8.239*10^{-4} x2 + 4.138*10^{-9}

    作者回复: 对的,谢谢指正!

  • 2019-04-03
    我没用Jupyter,直接自己搭的python3环境,安装了TensorFlow,可是用data1数据训练出来的,也是
    Epoch 100      Loss = nan      Model:y = nanxl + nanx2 + nan 是TensorFlow的版本问题吗?
  • 2019-03-23
    老师,并没有看到代码中哪里有把w的值重新修改的地方,是梯度下降函数tf.train.GradientDescentOptimizer自动去做的吗?

    作者回复: 是的,Opt 内部有个 apply_gradients 方法,会更新 weights。

  • 2019-03-21
    最后输出结果那里应该 先进行sess.run(W),否则无法输出W[1]

    作者回复: 之前有提到,只有 Session 中实际运行的 operator,才能从数据流图中获取到执行的数据。

  • 2019-03-03
    "我也是,把源码chapter-4导入到Jupyter,运行2-training-model.ipynb,结果训练出来的模型全是 Model: y = 0x1 + 0x2 + 0 ,是有什么问题吗?"
    找到原因了,换了一个Docker镜像,“tensorflow/tensorflow:latest-py3-jupyter" 之后就正常了

    作者回复: 之前用的什么镜像呢?

  • 2019-03-03
    我也是,把源码chapter-4导入到Jupyter,运行2-training-model.ipynb,结果训练出来的模型全是 Model: y = 0x1 + 0x2 + 0 ,是有什么问题吗?
  • 2019-01-25
    我问的是如果train example被分成512个minibatch,那么每个epoch(或这说每个step)是训练1个minibath还是512个minibatch,因为我看到网上有些代码两种情况都有,但是更倾向于每个epoch训练512个minibatch(也就是所有的train example)

    作者回复: Up to u
    Epoch 表示数据集所有的 samples
    Step 表示一次前向和后向使用的 samples
    Batch 表示一个批次的数据包含的 samples