课程介绍
本课程聚焦大模型实践中的两大核心支撑 —— 工具生态与硬件选型,为学员提供从软件工具到硬件配置的全链条实战指南。
第一部分围绕 “大模型时代的 Github:Hugging Face” 展开,首先解析 Hugging Face 的定位与核心价值,让学员明确其在大模型生态中的关键作用。深入讲解 Hugging Face Transformers 库的基础使用,助力学员快速上手大模型开发工具。系统介绍开源社区四大核心组件:Models(模型库)、Datasets(数据集)、Spaces(应用空间)、Docs(文档资源),掌握资源获取与应用技巧。同时传授大模型横向对比方法,结合 Open LLM Leaderboard(大模型天梯榜),教你科学评估模型性能,精准匹配业务需求。
第二部分聚焦 “显卡选型推荐指南”,扫清硬件认知盲区。详解 GPU 与显卡的本质区别,厘清 GPU Core 与 AMD CU、CUDA Core 与 Tensor Core 的技术差异及适用场景。梳理 N 卡架构的发展变迁,帮助学员理解硬件性能迭代逻辑。通过显卡性能天梯榜直观呈现不同型号显卡的能力梯度,结合大模型训练 / 推理的算力需求,传授显卡选型的核心原则与实战技巧,让学员避免硬件资源浪费,选对设备支撑大模型高效落地。
课程通过理论解析与实用工具结合,助力学员同时打通大模型 “软件工具链” 与 “硬件配置关”,为大模型实践奠定扎实基础。
课程目录
- 大模型时代的 Github:Hugging Face
- Hugging Face 是什么?
- Hugging Face Transformers 库
- Hugging Face 开源社区:Models, Datasets, Spaces, Docs
- ⼤模型横向对⽐
- Open LLM Leaderboard(⼤模型天梯榜)
- 显卡选型推荐指南
- GPU vs 显卡
- GPU Core vs AMD CU
- CUDA Core vs Tensor Core
- N 卡的架构变迁
- 显卡性能天梯榜
查看更多
看过的人还看了











