课件地址:https://pan.baidu.com/s/1yLg2haWLbScGBwwQyEy6Gw
提取码:t8rv
作者回复: 谢谢支持!
作者回复: BERT吗?BERT觉得编码器就够了。有几个原因。 BERT 的主要预训练任务是随机掩盖输入句子的一部分词汇,并试图预测被掩盖的词。为了完成这一任务,BERT 只需要对整个句子进行编码。 另外就是简化了模型结构,训练速度更快。
作者回复: Token是训练数据-文本data分词之后的东西,参数是模型的一部分,神经网络函数的参数。参数是用来处理Token的。
作者回复: 斜杠青年,爱学习的好青年
作者回复: 很快了
作者回复: 谢谢,有收获就好,可以加我微信jackyhuang79进一步探讨