作者回复: 这是垂类场景,不需要模型世界能力,可以基于QWen 7B模型做微调。 GPU卡数量主要根据参数量来估算,而非数据集大小。 全量微调 Qwen-7B,常规混合精度 + AdamW 配置下峰值显存约需 62-66 GB 显存 → 需要2张A100(40GB)。但在合理优化下,单张 A100也可实现。