Pans Gpu Calculator

v1.0.0

AI算力销售GPU配置计算器。输入模型参数量和需求,自动推荐最优GPU配置并估算成本。 支持训练和推理场景,覆盖H100/A100/L40S/A10G等主流GPU。 触发词:GPU计算, 算力配置, 模型部署成本, GPU选型, 显存估算, 训练成本, 推理成本, GPU推荐

0· 64· 1 versions· 0 current· 0 all-time· Updated 1w ago· MIT-0

pans-gpu-calculator — GPU 配置计算器

输入模型参数量和需求参数,自动推荐最优 GPU 配置并估算成本。

支持的 GPU 型号

GPU显存FP16 TFLOPS云租赁价格
H10080 GB989$2.5/hr
A10080 GB624$1.8/hr
A10040 GB624$1.2/hr
L40S48 GB362$0.8/hr
A10G24 GB200$0.5/hr

核心计算公式

  • 模型显存需求 = 参数量 × 2 bytes (FP16) + KV Cache (batch × seq_len × 2 × layers × hidden) + 激活值
  • 最小 GPU 数 = ⌈模型显存 / 单卡显存⌉
  • 推理吞吐 = GPU TFLOPS × MFU / 模型 FLOPs_per_token
  • 训练时间 = 8 × 参数量 × token数 / (GPU数 × TFLOPS × MFU)

使用方法

# 推理场景 — 对比所有 GPU
python3 scripts/calc.py --params 70B --mode inference --compare

# 推理场景 — 指定 GPU
python3 scripts/calc.py --params 7B --mode inference --gpu L40S --batch 32

# 训练场景
python3 scripts/calc.py --params 7B --mode train --tokens 100B --batch 256

# JSON 输出(便于程序调用)
python3 scripts/calc.py --params 70B --mode inference --compare --json

CLI 参数

参数说明默认值
--params模型参数量,如 7B, 70B, 405B必填
--modetrain / inferenceinference
--gpu指定 GPU 型号(可选,默认自动推荐最优)自动
--batchbatch size1
--latency目标延迟 ms(推理模式)
--tokens训练 token 数(训练模式)100B
--jsonJSON 格式输出false
--compare对比所有 GPU 型号false

Version tags

latestvk97dja33eq6kst4xza3a4c72x18502vg