安装指南
多种本地运行 Gemma 4 的方法
Ollama(推荐)
从 ollama.ai 下载 Ollama
$ ollama run gemma4开始与 Gemma 4 对话!
LM Studio
从 lmstudio.ai 下载 LM Studio
在模型库中搜索 'Gemma 4'
选择您喜欢的模型大小并下载
加载模型并开始对话
Hugging Face
安装 transformers 库:
$ pip install transformers torch加载并运行模型:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained('google/gemma-4-31b')
tokenizer = AutoTokenizer.from_pretrained('google/gemma-4-31b')Docker
$ docker run -it --gpus all ghcr.io/google-deepmind/gemma4:latest硬件需求
E2B / E4B
可在手机和 Raspberry Pi 上运行
26B
需要约 16GB GPU 内存
31B
需要约 20GB GPU 内存