极客时间 VIP · 干货直播稿精选
极客时间
讲师团队
279 人已学习
立即订阅
登录后,你可以任选4讲全文学习
课程目录
已更新 18 讲/共 58 讲
AI 技术架构与工程化实践 (1讲)
程序员 AI 能力培养与职业发展 (3讲)
极客时间 VIP · 干货直播稿精选
15
15
1.0x
00:00/00:00
登录|注册

揭秘Transformer技术内幕

分享嘉宾:海纳,摩尔线程编译器团队负责人
00:00 / 00:00
    1.0x
    • 3.0x
    • 2.5x
    • 2.0x
    • 1.5x
    • 1.25x
    • 1.0x
    • 0.75x
    • 0.5x
    网页全屏
    全屏
    00:00
    欢迎大家来到这次直播,周末愉快!首先我们回顾一下,上次直播我们介绍了 AI Infra 的相关知识。其中第三部分关于 Transformer 的结构没有展开,今天我们就来完成这部分内容。
    接下来我先介绍一下自己。我叫海纳,目前是摩尔线程编译器团队的负责人。我之前参与过华为 JDK 的研发,以及静态编译器、推理引擎等开发工作。在极客专栏上,我撰写了《编程高手必学的内存知识》《从零开始写 Python 虚拟机》等专栏,也出版了《从零开始写 Linux 内核》等图书。关于这些专栏和图书,我会在直播接近结束时再作介绍。
    上次直播我们讨论了一个问题:传统 Infra 与当前 AI Infra 之间究竟有哪些区别?实际上,可能有人会认为,我以前写的专栏、写的 Linux 内核——尤其是那个 35 年前的内核版本——会不会过于陈旧?这些知识是否已经过时?但我们上节课恰恰回答了这个问题:无论形式如何变化,其内在的知识体系并没有发生根本性的改变。
    上节课我们重点讲解了 GPU 的体系结构。我们从多核 CPU 的并发讲起,一直延伸到 GPU 如何将这些概念硬件化。这部分内容不再重复,如果当时没来得及看或仍有疑问,可以回看上一期的直播回放,也欢迎随时交流。
    确认放弃笔记?
    放弃后所记笔记将不保留。
    新功能上线,你的历史笔记已初始化为私密笔记,是否一键批量公开?
    批量公开的笔记不会为你同步至部落
    公开
    同步至部落
    取消
    完成
    0/2000
    荧光笔
    直线
    曲线
    笔记
    复制
    AI
    • 深入了解
    • 翻译
      • 英语
      • 中文简体
      • 法语
      • 德语
      • 日语
      • 韩语
      • 俄语
      • 西班牙语
    • 解释
    • 总结

    1. Transformer 模型源自2017年的论文《Attention Is All You Need》,推动了自然语言处理的发展,需要足够的参数量才能展现出强大的能力。 2. 注意力机制是 Transformer 模型的关键,通过内积、Softmax、矩阵乘法等计算方式实现,能够在自然语言处理中计算每个词与之前所有词的注意力,从而实现对文本的理解和处理。 3. Transformer 的整体结构包括词嵌入、多头注意力模块、残差连接与层归一化、前馈网络和输出层,其中残差连接和层归一化用于提高训练稳定性,前馈网络是大模型的主要部分。 4. 自然语言处理中的大模型需要大量参数和语料来训练,参数量不足时,模型表现往往一般。 5. 基础知识如微积分、线性代数、概率论、数据结构、操作系统、编译器、体系结构等在 AI 时代仍然重要,对于 AI Infra 岗位需求旺盛,具备扎实基础的人才更受欢迎。 (Note: The summary has been condensed to focus on the main points and is within the specified word limit.)

    仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
    《极客时间 VIP · 干货直播稿精选》
    立即购买
    登录 后留言

    精选留言

    由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
    收起评论
    显示
    设置
    留言
    收藏
    沉浸
    阅读
    分享
    手机端
    快捷键
    回顶部