• vcjmhg
    2021-11-03
    不是,如果损失函数过小可能会出现过拟合的情况,降低整个模型的泛化能力

    作者回复: 👍🏻👍🏻: )

    
    16
  • 没有十万伏特的皮卡丘...
    2021-12-05
    损失函数过小可能会导致模型过拟合,降低模型的鲁棒性。

    作者回复: 👍🏻👍🏻👍🏻^^

    
    3
  • 术子米德
    2021-11-03
    这节课的内容,跟课程主题PyTorch之间是什么关系?

    作者回复: 你好,术子米德。谢谢你的留言。 PyTorch是用来实习机器学习算法的一个工具,它帮助我们封装了机器学习背后很多的理论知识。 编程时虽然很简单,但是背后的知识确很复杂,作为从业人员有必要知道背后的理论知识。接下来的三节课都是围绕模型参数更新的方法展开的。

    共 6 条评论
    3
  • 和你一起搬砖的胡大爷
    2021-11-05
    老师能把soft max 交叉熵用几个数据做例子演示下计算过程吗

    作者回复: 你好,感谢你的留言。 softmax在pytorch中对应函数是torch.nn.functional.softmax(input, dim, ...),其中input是输入的tensor,dim是指需要进行softmax操作的维度,如果dim=0,表示沿着行的维度进行计算。在本节课中,我们只需要了解softmax和交叉熵损失函数的定义即可,因为在后续我们的实战环节中,将会对这几个函数进行更细致的讨论和学习。

    
    2
  • John(易筋)
    2022-08-04 来自北京
    损失函数的值越小越好么? 老师,我将来买了劳斯莱斯带你去兜风。如果这句话损失函数的值很小很小,有可能是做梦。 为了防止过拟合,可以正则化,踏实一点,跟方老师学完Pytorch,再考虑劳斯莱斯的事情。

    作者回复: 损失函数越小,模型的鲁棒性就越好。但是需要添加结构损失函数,防止过拟合。

    
    1
  • 醒狮
    2022-08-04 来自北京
    老师好,我想请教一下,就是咱们这一节的内容需要掌握到什么程度那?感觉只是对这些函数有了个最基本的了解,谢谢您!

    作者回复: 当然是理解的越深入越好啦

    
    1
  • clee
    2021-11-08
    老师,还有激活函数也经常听到,后面会讲吗?

    作者回复: 你好,clee,感谢你的留言。 后面没有对激活函数的讲解,不过这部分知识还是比较容易的。你可以尝试自己去看一看^^

    共 2 条评论
    
  • 官
    2021-11-03
    不一定,损失函数的值很小既有可能是模型较好,也可能是模型过拟合

    作者回复: 你好,官,谢谢你的留言。 👍🏻👍🏻^^,加油~

    
    
  • Jerusalem
    2021-11-03
    太小可能会过拟合

    作者回复: 你好,Jerusalem。感谢你的留言。 👍🏻👍🏻👍🏻👍🏻👍🏻👍🏻 ^^

    
    
  • 亚林
    2022-05-17
    那就变成了过拟合了
    
    