翔
2024-07-02
来自上海
课程到这里,没人互动了,是不是都掉队了😟
作者回复: 有的,可能大家还没到这节课
翔
2024-07-02
来自上海
训练模型必须要用显卡吗,跑一丢丢测试数据,用 cpu 不行吗
作者回复: CPU比较慢,你可以试一下,把模型网络定义的简单一点,训练数据少一点,CPU可能也可以
张申傲
2024-07-03
来自北京
第16讲打卡~ 这里简单补充一下GPT和Bert这两种模型的差异:GPT是Decoder-only架构,并且采用单向注意力机制,这意味着在生成文本时,它只考虑前面的上下文信息;而Bert是Encoder-only架构,并且采用双向注意力机制,也就是可以同时考虑上文和下文的信息。这两种结构的差别,也就决定了GPT和Bert有各自擅长的应用场景:GPT更擅长文本生成,也就是“续写”,即根据上文生成下文;而Bert可以被应用于更广泛的NLP任务中,如文本分类、情感分析、命名实体识别等。
1