AI 大模型之美
徐文浩
bothub 创始人
32335 人已学习
新⼈⾸单¥68
登录后,你可以任选4讲全文学习
课程目录
已完结/共 33 讲
AI 大模型之美
15
15
1.0x
00:00/00:00
登录|注册

04|新时代模型性能大比拼,GPT-3到底胜在哪里?

但仍低于GPT-3
准确率达到90%
零样本学习效果较好
2.2亿参数
零样本学习效果不佳
6000万参数
无法区分单词顺序导致的语义差异
1750亿参数
无需额外训练即可进行情感分析
OpenAI API的Embedding准确率达到96%
GPT-3在情感分析任务中表现优异
预训练模型可用于零样本学习
模型大小对性能有显著影响
2. 探索适合使用单词向量平均的文本分类问题
1. 使用T5-small模型测试整个数据集
T5-Base模型
T5-Small模型
基于Transformer
零样本学习效果差
单词向量平均
基于Word2Vec
参数多,学习关系多
学习文本内在关联
无需人工标注
大规模预训练模型
零样本学习
高准确率
总结
课后练习
T5模型测试
Fasttext模型测试
预训练模型概念
GPT-3的优势
新时代模型性能大比拼

该思维导图由 AI 生成,仅供参考

你好,我是徐文浩。
前面两讲,我带你体验了 OpenAI 通过 API 提供的 GPT-3.5 系列模型的两个核心接口。一个是获取一段文本的 Embedding 向量,另一个则是根据提示语,直接生成一段补全的文本内容。我们用这两种方法,都可以实现零样本(zero-shot)或者少样本下的情感分析任务。不过,你可能会提出这样两个疑问。
Embedding 不就是把文本变成向量吗?我也学过一些自然语言处理,直接用个开源模型,比如 Word2Vec、Bert 之类的就好了呀,何必要去调用 OpenAI 的 API 呢?
我们在这个情感分析里做了很多投机取巧的工作。一方面,我们把 3 分这种相对中性的评价分数排除掉了;另一方面,我们把 1 分 2 分和 4 分 5 分分别合并在了一起,把一个原本需要判断 5 个分类的问题简化了。那如果我们想要准确地预测多个分类,也会这么简单吗?
那么,这一讲我们就先来回答第一个问题。我们还是拿代码和数据来说话,就拿常见的开源模型来试一试,看看能否通过零样本学习的方式来取得比较好的效果。第二个问题,我们下一讲再来探讨,看看能不能利用 Embedding 进一步通过一些机器学习的算法,来更好地处理情感分析问题。

什么是预训练模型?

确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结

本文深入探讨了新时代预训练模型性能的比较,着重关注了GPT-3的优势。作者首先介绍了预训练模型的重要性,并对比了Fasttext、T5和GPT-3这三个模型的效果。通过对模型的向量化和数据集的测试,展示了模型的性能和应用。文章指出,GPT-3在预训练模型领域具有明显优势。此外,文章还探讨了零样本学习的方式,并对T5模型进行了效果测试。 在实际测试中,Fasttext和T5模型的效果并不理想,而GPT-3表现出明显的优势。尽管T5模型在初始测试中表现不佳,但在使用参数更多的T5-Base模型后,效果得到改善。通过对整个数据集进行测试,T5-Base模型在判断评论情感方面表现出了较高的准确率。文章的研究成果为读者提供了对不同预训练模型性能的全面了解,为其在实际应用中做出更明智的选择提供了重要参考。 总的来说,本文通过对比不同模型的效果,展现了GPT-3在预训练模型领域的优势,并为读者提供了对新时代模型性能的深入了解。文章还提到了使用T5模型进行零样本学习的方式,以及对不同模型在情感分析方面的效果测试。这些内容为读者提供了丰富的技术信息,帮助他们更好地理解和应用预训练模型。

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《AI 大模型之美》
新⼈⾸单¥68
立即购买
登录 后留言

全部留言(30)

  • 最新
  • 精选
  • Daniel
    BERT:BERT 基于 Transformer 的(Encoder)。BERT 使用双向(bidirectional)的自注意力机制,可以同时捕捉文本中的前后上下文信息。 GPT:GPT 基于 Transformer 的(Decoder)。GPT 使用单向(unidirectional)的自注意力机制,只能捕捉文本中的前文(left context)信息。 能否请老师详细讲一下,这两者的差别?

    作者回复: BERT是 白日依山尽,_____,欲穷千里目 GPT是 白日依山尽,_____ 一个是完形填空,一个是续写。GPT没法看到后面的东西,所以在很多语义理解的指标上不如BERT。 但是很多真实的使用场景你看不到后面的东西,所以从AGI的路线上,很多人觉得GPT才是正确路径。

    2023-03-28归属地:北京
    53
  • stg609
    老师能说说 1. davinci, ada 等模型与gpt3的关系吗? 2. gpt3有1750亿参数,那是不是 ada 也有这么大量的参数

    作者回复: 1. 都是 GPT 家族的模型, ada, babbage, curie, davinci 模型从小到大 2. ada模型应该要小得多,所以便宜

    2023-03-28归属地:浙江
    7
  • Roy Liang
    1. 小数据集验证结果是这样,但是门外汉其实不懂表格里什么意思 precision recall f1-score support negative 0.25 0.99 0.40 136 positive 1.00 0.48 0.65 789 accuracy 0.56 925 macro avg 0.62 0.74 0.52 925 weighted avg 0.89 0.56 0.61 925 2. 可能适合新闻分类、垃圾邮件分类等不关心词语次序的场景吧

    作者回复: 1. 往后看一讲,第5讲里会具体解释这些指标的含义。 2. 对,主题分类不太关注语序

    2023-03-27归属地:广东
    2
    6
  • Geek_61af67
    不关心顺序的话,对tags进行分析会不会比较合适?

    作者回复: tags的确不太关注顺序

    2023-03-27归属地:北京
    5
  • 王昊翔Harry
    这一套流程有没有在Colab友好的。本身没有编程经验该怎么着手?

    作者回复: 我在 https://github.com/xuwenhao/geektime-ai-course 放了可以在Colab运行的Notebook代码,只要通过 pip 安装好依赖的包就能够运行。

    2023-04-04归属地:英国
    3
  • HXL
    还是没明白什么是 预训练模型

    作者回复: 预训练模型,顾名思义,就是“预先训练好的模型” 也就是这个模型,用了别的很多很多数据训练好了。可能和我们现在要解决的问题的数据有关,也有可能没有关系。 但是因为 预训练模型 通常通过海量的数据训练的,它多少对你现在要解决的问题的知识是有了解和帮助的。

    2023-04-02归属地:北京
    3
  • qingtama
    请问老师,这里的2.2亿参数,可以理解成向量所在的维度是2.2亿个吗?

    作者回复: 不能,输出的向量维度没有那么大。 是指所谓的 transformer模型里面的各种变量参数有2.2亿个。

    2023-04-21归属地:北京
    2
  • Geek_93970d
    load_facebook_model 这个函数就得卡好半天,模型文件6.7G,加载很慢。另外 fasttext 既然用的是 gensim 里的,那就不用单独安装了吧?安装也安装不上,PackagesNotFoundError。

    作者回复: pip install fasttext 不行么?

    2023-05-12归属地:北京
    1
  • 摩西
    刚接触机器学习,基础比较薄弱,请问老师 Transformer 是指什么?这里的transformer 跟 huggingface 中的transformer是相同的内容吗?

    作者回复: transformers 是指一种深度学习的基础模型架构,huggingface的transformers库,相当于为这类模型架构的开发、部署、试用定义了一个通用的接口形式。

    2023-04-16归属地:广东
    1
  • 王石磊
    参考文中的用例,用T5-base 推理的结果如下,准确度为56%,这大概是什么原因呢? precision recall f1-score support negative 0.25 0.99 0.40 136 positive 1.00 0.48 0.65 789 accuracy 0.56 925 macro avg 0.62 0.74 0.52 925 weighted avg 0.89 0.56 0.61 925

    作者回复: 看一下哪里有问题?T5-Base没有那么差,这个看起来像T5-Small乃至更小的模型的结果。

    2023-05-13归属地:土耳其
收起评论
显示
设置
留言
30
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部