🚀 GPU显存计算器
精准估算AI大模型部署所需显存,选择最适合的GPU配置
选择模型
量化精度
上下文长度 (tokens)
📊 显存占用估算
模型权重
0.00 GB
KV Cache
0.00 GB
框架开销
1.50 GB
总显存需求
0.00 GB
0%
💎 推荐GPU配置
最佳选择
-
显存容量
- GB
预计占用率
0%
能否满足
待计算
💡 使用提示:
本工具基于经验公式估算,实际部署时请预留15-20%显存余量。不同推理框架(vLLM/llama.cpp/TensorRT-LLM)的显存占用可能有差异。
📋 复制配置
🔗 分享链接
🔄 重置