当前播放: 29 | 房价预测模型之创建与训练
00:00 / 00:00
高清
  • 高清
1.0x
  • 2.0x
  • 1.5x
  • 1.25x
  • 1.0x
  • 0.5x
网页全屏
全屏
00:00
付费课程,可试看
课程目录
第一章:TensorFlow初印象 (8讲)
01 | 课程介绍
免费
02 | 课程内容综述
免费
03 | 第一章内容概述
免费
04 | TensorFlow产生的历史必然性
免费
05 | TensorFlow与Jeff Dean的那些事
免费
06 | TensorFlow的应用场景
免费
07 | TensorFlow的落地应用
08 | TensorFlow的发展现状
第二章:TensorFlow初接触 (5讲)
09 | 第二章内容概述
10 | 搭建你的TensorFlow开发环境
11 | Hello TensorFlow
12 | 在交互环境中使用TensorFlow
13 | 在容器中使用TensorFlow
第三章:TensorFlow基本概念解析 (11讲)
14 | 第三章内容概述
15 | TensorFlow模块与架构介绍
16 | TensorFlow数据流图介绍
17 | 张量(Tensor)是什么(上)
18 | 张量(Tensor)是什么(下)
19 | 变量(Variable)是什么(上)
20 | 变量(Variable)是什么(下)
21 | 操作(Operation)是什么(上)
22 | 操作(Operation)是什么(下)
23 | 会话(Session)是什么
24 | 优化器(Optimizer)是什么
第四章:实战TensorFlow房价预测 (10讲)
25 | 第四章内容概述
26 | 房价预测模型的前置知识
27 | 房价预测模型介绍
28 | 房价预测模型之数据处理
29 | 房价预测模型之创建与训练
30 | TensorBoard可视化工具介绍
31 | 使用TensorBoard可视化数据流图
32 | 实战房价预测模型:数据分析与处理
33 | 实战房价预测模型:创建与训练
34 | 实战房价预测模型:可视化数据流图
第五章:实战TensorFlow手写体数字识别 (9讲)
35 | 第五章内容概述
36 | 手写体数字数据集MNIST介绍(上)
37 | 手写体数字数据集MNIST介绍(下)
38 | MNIST Softmax网络介绍(上)
39 | MNIST Softmax网络介绍(下)
40 | 实战MNIST Softmax网络(上)
41 | 实战MNIST Softmax网络(下)
42 | MNIST CNN网络介绍
43 | 实战MNIST CNN网络
第六章:实战TensorFlow验证码识别 (8讲)
44 | 第六章内容概述
45 | 准备模型开发环境
46 | 生成验证码数据集
47 | 输入与输出数据处理
48 | 模型结构设计
49 | 模型损失函数设计
50 | 模型训练过程分析
51 | 模型部署与效果演示
第七章:实战TensorFlow人脸识别 (9讲)
52 | 第七部分内容介绍
53 | 人脸识别问题概述
54 | 典型人脸相关数据集介绍
55 | 人脸检测算法介绍
56 | 人脸识别算法介绍
57 | 人脸检测工具介绍
58 | 解析FaceNet人脸识别模型
59 | 实战FaceNet人脸识别模型
60 | 测试与可视化分析
番外篇:TensorFlow社区参与指南 (7讲)
61 | 番外篇内容介绍
62 | TensorFlow社区介绍
63 | TensorFlow生态:TFX
64 | TensorFlow生态:Kubeflow
65 | 如何参与TensorFlow社区开源贡献
66 | ML GDE是TensorFlow社区与开发者的桥梁
67 | 课程总结
29 | 房价预测模型之创建与训练

29 | 房价预测模型之创建与训练

彭靖田
Google Developers Expert,《深入理解TensorFlow》作者
全集8235
新人首单 ¥29.9 原价 ¥129
4
登录 后留言

精选留言(14)

  • 松涛
    一个epoch表示:使用所有training data 训练一遍模型
    batch:是因为随机梯度下降等原因才设置的,一个batch表示很小的已部分训练数据
    one epoch = one forward pass and one backward pass of all the training examples
    batch size = the number of training examples in one forward/backward pass. The higher the batch size, the more memory space you'll need.
    number of iterations = number of passes, each pass using [batch size] number of examples. To be clear, one pass = one forward pass + one backward pass (we do not count the forward pass and backward pass as two different passes).

    作者回复: 对的:)

    2019-01-25
    4
  • 姜昆
    老师,我问一下,你视频里面说的step和epoch的训练能不能再详细一点,涉及到batch数据训练事,是个怎么回事,有些代码里面将所有的的batchs训练完当成一个epoch,有些代码直接就把一个batch当成一个epoch,这样差别会很大吗
    2019-01-25
    3
  • Elvis
    老师,请问下我把你的源码chapter-4导入到Jupyter,运行2-training-model.ipynb,结果训练出来的模型全是 Model: y = 0x1 + 0x2 + 0, 感觉没有生效,请问可能是什么原因, 是否是因为我是用的容器,硬件设备不能进行训练呢
    2019-02-16
    2
  • 子曰
    输出一直都是
    Epoch 10 Loss=0 Model: y = 0x1 + 0x2 + 0
    Epoch 20 Loss=0 Model: y = 0x1 + 0x2 + 0
    Epoch 30 Loss=0 Model: y = 0x1 + 0x2 + 0
    Epoch 40 Loss=0 Model: y = 0x1 + 0x2 + 0
    Epoch 50 Loss=0 Model: y = 0x1 + 0x2 + 0
    Epoch 60 Loss=0 Model: y = 0x1 + 0x2 + 0
    Epoch 70 Loss=0 Model: y = 0x1 + 0x2 + 0
    Epoch 80 Loss=0 Model: y = 0x1 + 0x2 + 0
    Epoch 90 Loss=0 Model: y = 0x1 + 0x2 + 0
    Epoch 100 Loss=0 Model: y = 0x1 + 0x2 + 0
    也不知道哪里出问题了
    2020-07-01
  • 大魔王
    👍,讲的很细

    作者回复: ✔

    2020-06-05
  • Diserver
    500轮公式:
    y = 0.8304*x1 + 0.0008239*x2 + 0.000000004138

    带入数据:
    2104,3,399900
    2300,4,449900
    2238,3,329900

    0.8304*2104 + 0.0008239*3 + 0.000000004138= 1747.164071704138
    0.8304*2300 + 0.0008239*4 + 0.000000004138= 1909.923295604138
    0.8304*2238 + 0.0008239*3 + 0.000000004138= 1858.437671704138
    请问是这样带入么?为什么算出的值和测试数据中价格有差距?
    2020-02-02
  • Eric
    我是在pycharm里面实现了这些代码,但是输出的值也全是y=0x1+0x2+0;loss也等于0;为什么呢?老师!
    2019-07-03
  • ace
    13:05 处,500 epochs 模型参数有误:

    0.8304*x1 + 8.239^{-4} x2 + 4.138^{-9}
    应修正为:
    0.8304*x1 + 8.239*10^{-4} x2 + 4.138*10^{-9}

    作者回复: 对的,谢谢指正!

    2019-04-15
  • Geek_49e793
    我没用Jupyter,直接自己搭的python3环境,安装了TensorFlow,可是用data1数据训练出来的,也是
    Epoch 100 Loss = nan Model:y = nanxl + nanx2 + nan 是TensorFlow的版本问题吗?
    2019-04-03
  • 深蓝
    老师,并没有看到代码中哪里有把w的值重新修改的地方,是梯度下降函数tf.train.GradientDescentOptimizer自动去做的吗?

    作者回复: 是的,Opt 内部有个 apply_gradients 方法,会更新 weights。

    2019-03-23
  • 长脖子树
    最后输出结果那里应该 先进行sess.run(W),否则无法输出W[1]

    作者回复: 之前有提到,只有 Session 中实际运行的 operator,才能从数据流图中获取到执行的数据。

    2019-03-21
  • Kevin
    "我也是,把源码chapter-4导入到Jupyter,运行2-training-model.ipynb,结果训练出来的模型全是 Model: y = 0x1 + 0x2 + 0 ,是有什么问题吗?"
    找到原因了,换了一个Docker镜像,“tensorflow/tensorflow:latest-py3-jupyter" 之后就正常了

    作者回复: 之前用的什么镜像呢?

    2019-03-03
  • Kevin
    我也是,把源码chapter-4导入到Jupyter,运行2-training-model.ipynb,结果训练出来的模型全是 Model: y = 0x1 + 0x2 + 0 ,是有什么问题吗?
    2019-03-03
  • 姜昆
    我问的是如果train example被分成512个minibatch,那么每个epoch(或这说每个step)是训练1个minibath还是512个minibatch,因为我看到网上有些代码两种情况都有,但是更倾向于每个epoch训练512个minibatch(也就是所有的train example)

    作者回复: Up to u
    Epoch 表示数据集所有的 samples
    Step 表示一次前向和后向使用的 samples
    Batch 表示一个批次的数据包含的 samples

    2019-01-25
收起评论
看过的人还看
数据结构与算法之美

王争  前Google工程师

80讲 | 86659 人已学习

新人首单 ¥29.9 原价 ¥129
趣谈网络协议

刘超  网易研究院云计算技术部首席架构师

51讲 | 45102 人已学习

新人首单 ¥19.9 原价 ¥99
机器学习40讲

王天一  工学博士,副教授

46讲 | 9215 人已学习

新人首单 ¥9.9 原价 ¥68
左耳听风

陈皓  网名“左耳朵耗子”,资深技术专家,骨灰级程序员

109讲 | 45805 人已学习

新人首单 ¥69.9 原价 ¥299