课件地址:https://pan.baidu.com/s/1yLg2haWLbScGBwwQyEy6Gw
提取码:t8rv
作者回复: 有啊,加我微信jackyhuang79入群学习
作者回复: 这时可以选择的步骤很多,可以继续训练观察,也可以通过很多种策略解决。 使用更多的训练数据。 增加正则化(如L2正则化、dropout)。 减少模型的复杂性或大小。 使用早停法(Early Stopping)。
作者回复: 国庆节仍然坚持学习!
作者回复: 我的话用Nvidia 3090 20G卡足够了。BERT是小模型。现在的大模型至少8张A100 40G卡。
作者回复: # 加载pytorch_model.bin文件 model_path = 'path/to/pytorch_model.bin' state_dict = torch.load(model_path)
作者回复: 啊?这么神奇么?同学可否尝试一下,看看结果如何?