安装指南

多种本地运行 Gemma 4 的方法

Ollama(推荐)

从 ollama.ai 下载 Ollama

$ ollama run gemma4

开始与 Gemma 4 对话!

LM Studio

从 lmstudio.ai 下载 LM Studio

在模型库中搜索 'Gemma 4'

选择您喜欢的模型大小并下载

加载模型并开始对话

Hugging Face

安装 transformers 库:

$ pip install transformers torch

加载并运行模型:

from transformers import AutoModelForCausalLM, AutoTokenizer model = AutoModelForCausalLM.from_pretrained('google/gemma-4-31b') tokenizer = AutoTokenizer.from_pretrained('google/gemma-4-31b')

Docker

$ docker run -it --gpus all ghcr.io/google-deepmind/gemma4:latest

硬件需求

E2B / E4B

可在手机和 Raspberry Pi 上运行

26B

需要约 16GB GPU 内存

31B

需要约 20GB GPU 内存