这就是 ChatGPT
[美] 斯蒂芬 • 沃尔弗拉姆(Stephen Wolfram)
计算机科学家、数学家和理论物理学家
509 人已学习
立即订阅
登录后,你可以任选4讲全文学习
课程目录
已更新 24 讲/共 30 讲
第2章 (5讲)
时长 02:51
时长 03:57
时长 08:18
时长 00:38
这就是 ChatGPT
15
15
1.0x
00:00/00:00
登录|注册

概率从何而来

统计不同字母的出现次数
建立大语言模型能够估计序列出现的概率
无法根据已有的文本估计所有可能的 n 元词的概率
生成“句子”并考虑词对或更长的 n 元词的概率
估计每个词的常用程度
使用逐渐变长的 n 元字母的概率生成“随机的词”
生成“随机的词”并使其看起来更“真实”
使用二元字母的概率一次关注两个字母
强制要求“词长”的分布与英文中相符
通过添加空格分解成“词”
生成字母序列的样本
计算每个字母的出现概率
处理整个词而不是字母
逐字母生成英文文本
ChatGPT 总是根据概率选择下一个词
参考文章

该思维导图由 AI 生成,仅供参考

ChatGPT 总是根据概率选择下一个词,但是这些概率是从何而来的呢?让我们从一个更简单的问题开始:考虑逐字母(而非逐词)地生成英文文本。怎样才能计算出每个字母应当出现的概率呢?
我们可以做一件很小的事,拿一段英文文本样本,然后计算其中不同字母的出现次数。例如,下面的例子统计了维基百科上“cats”(猫)的条目中各个字母的出现次数。
对“dogs”(狗)的条目也做同样的统计。
结果有些相似,但并不完全一样。(毫无疑问,在“dogs”的条目中,字母 o 更常见,毕竟 dog 一词本身就含有 o。)不过,如果我们采集足够大的英文文本样本,最终就可以得到相当一致的结果。
这是在只根据这些概率生成字母序列时得到的样本。
我们可以通过添加空格将其分解成“词”,就像这些“词”也是具有一定概率的字母一样。
还可以通过强制要求“词长”的分布与英文中相符来更好地造“词”。
虽然并没有碰巧得到任何“实际的词”,但结果看起来稍好一些了。不过,要进一步完善,我们需要做的不仅仅是随机地挑选每个字母。举例来说,我们知道,如果句子中有一个字母 q,那么紧随其后的下一个字母几乎一定是 u。
以下是每个字母单独出现的概率图。
下图则显示了典型英文文本中字母对[二元(2-gram 或 bigram)字母]的概率。可能出现的第一个字母横向显示,第二个字母纵向显示。
确认放弃笔记?
放弃后所记笔记将不保留。
新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
批量公开的笔记不会为你同步至部落
公开
同步至部落
取消
完成
0/2000
荧光笔
直线
曲线
笔记
复制
AI
  • 深入了解
  • 翻译
    • 英语
    • 中文简体
    • 中文繁体
    • 法语
    • 德语
    • 日语
    • 韩语
    • 俄语
    • 西班牙语
    • 阿拉伯语
  • 解释
  • 总结

文章总结:概率在自然语言生成中扮演着重要角色。本文以ChatGPT为例,探讨了概率是如何应用于逐字母和逐词生成英文文本的过程中。通过统计不同字母的出现次数,以及考虑字母对或更长的n元字母的概率,可以生成更加“真实”的文本。然而,由于英文文本的复杂性,要准确估计所有可能的n元词的概率是一项艰巨的任务。因此,建立一个能够估计序列出现概率的大语言模型是解决这一问题的最佳思路。ChatGPT正是基于这一思路构建的,能够很好地估计文本序列的概率,从而生成更加符合“正确的整体文章概率”的文本。文章通过简洁清晰的例子和图片,生动地展示了概率在自然语言生成中的应用,为读者呈现了一幅技术特点鲜明的概览。

仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《这就是 ChatGPT》
立即购买
登录 后留言

全部留言(1)

  • 最新
  • 精选
  • 3.141516
    这里将隐马尔可夫模型描述的通俗易懂
    2024-01-15归属地:广东
收起评论
显示
设置
留言
1
收藏
沉浸
阅读
分享
手机端
快捷键
回顶部