Skip to content
LlamaFactory
Main Navigation
博 客
文档翻译
OpenAI Cookbook中文文档
Ollama中文文档
vLLM中文文档
SGLang中文文档
工 具
大模型调用和集成
显存计算助手
大模型Debug助手
精选资源
Prompt指南
精选大模型工具
关 于
大模型显存计算器
支持的模型数量: 127 | 最后更新日期: 2024-08-26
搜索模型...
LoRA微调百分比:
%
请选择模型
退出比较
分 享
参数解释
Total (GB):
模型所有参数占用的显存总量。
Inference (GB):
模型在进行推理时所需的显存大小。
Training (GB):
使用Adam优化器进行全参数微调时所需的显存大小。
LoRA (GB):
一种参数高效的微调方法,只更新部分参数。
Parameters (B):
模型的参数数量
计算公式
Inference:
Memory
Inference
≈
Model Size
×
1.2
\text{Memory}_\text{Inference} \approx \text{Model Size} \times 1.2
LoRA:
Memory
LoRA
≈
(
Model Size
+
# trainable Params
Billions
×
16
8
×
4
)
×
1.2
\text{Memory}_\text{LoRa} \approx \left(\text{Model Size} + \text{ \# trainable Params}_\text{Billions}\times\frac{16}{8} \times 4\right) \times 1.2
参考来源
Hugging Face: https://huggingface.co/spaces/Vokturz/can-it-run-llm
Hugging Face: https://huggingface.co/spaces/hf-accelerate/model-memory-usage
Hugging Face: https://huggingface.co/spaces/NyxKrage/LLM-Model-VRAM-Calculator
Hugging Face: https://huggingface.co/collections/husseinmo/vram-calculator-663a0a249613725d94c8b1c4