• enjoylearning
    2025-12-29 来自北京
    微调需要多少张卡是根据什么来估算的呢,数据集大小还是参数量,成本很高吧

    作者回复: 这是垂类场景,不需要模型世界能力,可以基于QWen 7B模型做微调。 GPU卡数量主要根据参数量来估算,而非数据集大小。 全量微调 Qwen-7B,常规混合精度 + AdamW 配置下峰值显存约需 62-66 GB 显存 → 需要2张A100(40GB)。但在合理优化下,单张 A100也可实现。

    
    
  • 拖鞋小老弟~~
    2025-12-30 来自北京
    催更催更,前面的课反复听三遍了~
    
    