AI Infra:智能时代的基座
海纳

分享嘉宾:海纳,摩尔线程编译器团队的负责人
00:00 / 00:00
1.0x
- 3.0x
- 2.5x
- 2.0x
- 1.5x
- 1.25x
- 1.0x
- 0.75x
- 0.5x
大家好,好久不见。过去我在这里做过几次直播,聊过编译器、Java 语言发展等内容。而最近两年,我的工作重心逐渐转向了 AI 编译器。这段时间,我被问到最多的问题是:“做 AI 和做传统基础设施到底有什么区别?为什么感觉 AI 入门这么难?”所以今天,我就围绕这个话题,为大家做一个简单的介绍。
毫无疑问,我们已逐步进入智能化时代。AI 的应用——无论是大模型、图像识别与处理,还是机器人、具身智能等等——正深入到各行各业,包括教育、医疗、药物研发等传统领域,大家纷纷借助 AI 来提升工作效率。
很多人希望进入 AI 领域从事相关工作,但刚接触时往往会觉得门槛很高。因此,我今天想做一个科普,帮助大家把入门的门槛降一降,至少让大家清楚:该朝哪个方向学习,以及已有的知识在新时代是否已经过时。
接下来我们正式开始。
先自我介绍一下。我的笔名是海纳,目前是摩尔线程的编译器负责人。之前我在华为负责华为 JDK 的研发,也做过静态编译器以及基于 MLIR 的推理引擎。我在知乎有一个专栏叫“进击的 Java 新人”,不过目前更新不多了。一方面是因为工作转向了 AI,另一方面也是由于大模型发展很快——有时候感觉自己写的内容也不比大模型写得好了。
公开
同步至部落
取消
完成
0/2000
笔记
复制
AI
- 深入了解
- 翻译
- 解释
- 总结

1. GPU架构中的Grid和Thread Block是CUDA编程中的重要概念,Grid是一个完整的GPU计算任务,由多个Thread Block组成,每个Thread Block会被调度到一个SM上执行。 2. Warp是GPU硬件执行和调度的基本单位,通常由32个线程组成,而Thread Block则由多个Warp组成。 3. 在GPU架构中,同一个Thread Block内的线程可以共享特定SM上的资源,如Shared Memory,而不同Thread Block的线程一般不能直接共享。 4. CUDA编程中,线程需要明确的编号,通过内建变量blockIdx和threadIdx来确定每个线程在整个Grid中的全局位置,从而确定自己负责处理哪一部分数据。 5. GPU编程中的SIMT(单指令多线程)允许根据线程编号进行差异化操作,每个线程都有唯一身份标识,这与SIMD(单指令多数据)的集中控制的向量化计算模式有所不同。 6. 理解GPU架构有助于学习CUDA编程,通过硬件结构去理解软件概念可以帮助理清相关概念,避免被抽象概念淹没。 7. GPU编程的核心逻辑包括线程的唯一编号、Warp作为硬件调度的基本单位、Thread Block在SM上执行并可共享Shared Memory、Grid由多个Thread Block组成。 8. 深入学习操作系统、编译器、体系结构、算法与数据结构等基础学科对于理解GPU编程非常关键,这些基础知识会让整个技术生涯受益无穷。
仅可试看部分内容,如需阅读全部内容,请付费购买文章所属专栏
《极客时间 VIP · 干货直播稿精选》
《极客时间 VIP · 干货直播稿精选》
立即购买
© 版权归极客邦科技所有,未经许可不得传播售卖。 页面已增加防盗追踪,如有侵权极客邦将依法追究其法律责任。
登录 后留言
精选留言
由作者筛选后的优质留言将会公开显示,欢迎踊跃留言。
收起评论