• 松涛
    2019-01-25
    一个epoch表示:使用所有training data 训练一遍模型
    batch:是因为随机梯度下降等原因才设置的,一个batch表示很小的已部分训练数据
    one epoch = one forward pass and one backward pass of all the training examples
    batch size = the number of training examples in one forward/backward pass. The higher the batch size, the more memory space you'll need.
    number of iterations = number of passes, each pass using [batch size] number of examples. To be clear, one pass = one forward pass + one backward pass (we do not count the forward pass and backward pass as two different passes).
    展开

    作者回复: 对的:)

    
     4
  • 姜昆
    2019-01-25
    老师,我问一下,你视频里面说的step和epoch的训练能不能再详细一点,涉及到batch数据训练事,是个怎么回事,有些代码里面将所有的的batchs训练完当成一个epoch,有些代码直接就把一个batch当成一个epoch,这样差别会很大吗
    
     3
  • Elvis
    2019-02-16
    老师,请问下我把你的源码chapter-4导入到Jupyter,运行2-training-model.ipynb,结果训练出来的模型全是 Model: y = 0x1 + 0x2 + 0, 感觉没有生效,请问可能是什么原因, 是否是因为我是用的容器,硬件设备不能进行训练呢
    
     2
  • Diserver
    2020-02-02
    500轮公式:
    y = 0.8304*x1 + 0.0008239*x2 + 0.000000004138

    带入数据:
    2104,3,399900
    2300,4,449900
    2238,3,329900

    0.8304*2104 + 0.0008239*3 + 0.000000004138= 1747.164071704138
    0.8304*2300 + 0.0008239*4 + 0.000000004138= 1909.923295604138
    0.8304*2238 + 0.0008239*3 + 0.000000004138= 1858.437671704138
    请问是这样带入么?为什么算出的值和测试数据中价格有差距?
    展开
    
    
  • Eric
    2019-07-03
    我是在pycharm里面实现了这些代码,但是输出的值也全是y=0x1+0x2+0;loss也等于0;为什么呢?老师!
    
    
  • ace
    2019-04-15
    13:05 处,500 epochs 模型参数有误:

    0.8304*x1 + 8.239^{-4} x2 + 4.138^{-9}
    应修正为:
    0.8304*x1 + 8.239*10^{-4} x2 + 4.138*10^{-9}

    作者回复: 对的,谢谢指正!

    
    
  • Geek_49e793
    2019-04-03
    我没用Jupyter,直接自己搭的python3环境,安装了TensorFlow,可是用data1数据训练出来的,也是
    Epoch 100      Loss = nan      Model:y = nanxl + nanx2 + nan 是TensorFlow的版本问题吗?
    
    
  • 深蓝
    2019-03-23
    老师,并没有看到代码中哪里有把w的值重新修改的地方,是梯度下降函数tf.train.GradientDescentOptimizer自动去做的吗?

    作者回复: 是的,Opt 内部有个 apply_gradients 方法,会更新 weights。

    
    
  • 长脖子树
    2019-03-21
    最后输出结果那里应该 先进行sess.run(W),否则无法输出W[1]

    作者回复: 之前有提到,只有 Session 中实际运行的 operator,才能从数据流图中获取到执行的数据。

    
    
  • Kevin
    2019-03-03
    "我也是,把源码chapter-4导入到Jupyter,运行2-training-model.ipynb,结果训练出来的模型全是 Model: y = 0x1 + 0x2 + 0 ,是有什么问题吗?"
    找到原因了,换了一个Docker镜像,“tensorflow/tensorflow:latest-py3-jupyter" 之后就正常了

    作者回复: 之前用的什么镜像呢?

    
    
  • Kevin
    2019-03-03
    我也是,把源码chapter-4导入到Jupyter,运行2-training-model.ipynb,结果训练出来的模型全是 Model: y = 0x1 + 0x2 + 0 ,是有什么问题吗?
    
    
  • 姜昆
    2019-01-25
    我问的是如果train example被分成512个minibatch,那么每个epoch(或这说每个step)是训练1个minibath还是512个minibatch,因为我看到网上有些代码两种情况都有,但是更倾向于每个epoch训练512个minibatch(也就是所有的train example)

    作者回复: Up to u
    Epoch 表示数据集所有的 samples
    Step 表示一次前向和后向使用的 samples
    Batch 表示一个批次的数据包含的 samples

    
    
我们在线,来聊聊吧