这就是 ChatGPT
[美] 斯蒂芬 • 沃尔弗拉姆(Stephen Wolfram)
计算机科学家、数学家和理论物理学家
509 人已学习
立即订阅
登录后,你可以任选4讲全文学习
课程目录
已更新 24 讲/共 30 讲
第2章 (5讲)
时长 02:51
时长 03:57
时长 08:18
时长 00:38
这就是 ChatGPT
15
15
1.0x
00:00/00:00
登录|注册

它只是一次添加一个词

更好的结果
Wolfram 语言代码
简单系统
温度参数
随机选择非排名最高的词
选择排名最高的词
列出随后可能出现的词及其概率
查找“意义匹配”的事物
产生“合理的延续”
零温度
0.8
决策
应用到文本中
工作原理
GPT-3
GPT-2
选择下一个词
工作方式
了不起且意外
生成类似于人类书写的文本
语言的统计特征
温度
神经网络
ChatGPT
参考文章

该思维导图由 AI 生成,仅供参考

ChatGPT 可以自动生成类似于人类书写的文本,这非常了不起,也非常令人意外。它是如何做到的呢?这为什么会奏效呢?我在这里将概述 ChatGPT 内部的工作方式,然后探讨为什么它能够如此出色地产生我们认为有意义的文本。必须在开头说明,我会重点关注宏观的工作方式,虽然也会提到一些工程细节,但不会深入探讨。[这里提到的本质不仅适用于 ChatGPT,也同样适用于当前的其他“大语言模型”(large language model,LLM)。]
首先需要解释,ChatGPT 从根本上始终要做的是,针对它得到的任何文本产生“合理的延续”。这里所说的“合理”是指,“人们在看到诸如数十亿个网页上的内容后,可能期待别人会这样写”。
假设我们手里的文本是“The best thing about AI is its ability to”(AI 最棒的地方在于它能)。想象一下浏览人类编写的数十亿页文本(比如在互联网上和电子书中),找到该文本的所有实例,然后看看接下来出现的是什么词,以及这些词出现的概率是多少。ChatGPT 实际上做了类似的事情,只不过它不是查看字面上的文本,而是寻找在某种程度上“意义匹配”的事物(稍后将解释)。
最终的结果是,它会列出随后可能出现的词及其出现的“概率”(按“概率”从高到低排列)。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结

ChatGPT 是一款能够生成类似于人类书写的文本的工具,其工作原理是基于对大量文本数据的学习和概率推断。它通过不断添加词或标记来生成连贯的文本,每次都会列出随后可能出现的词及其出现的概率。在选择下一个词时,它并非总是选择概率最高的词,而是引入一定的随机性,以增加文本的创造性和趣味性。此外,ChatGPT 还引入了“温度”参数来控制低排名词的使用频率,从而影响生成文本的多样性。文章还介绍了 ChatGPT 的工作原理和 GPT-2 模型的应用,以及展示了使用 GPT-3 模型生成的文本示例。总的来说,ChatGPT 通过对大量文本数据的学习和概率推断,实现了生成类似于人类书写的文本,同时也在选择词语和控制随机性方面进行了优化。

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《这就是 ChatGPT》
立即购买
登录 后留言

精选留言

由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论
显示
设置
留言
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部