谷歌開源Gemma 4,干掉13倍體量的Qwen3.5
發(fā)布日期:2026/4/4 8:13:24 瀏覽量:
4 月 3 日凌晨,Google 推出了新一代開源模型 Gemma 4,包括 E2B、E4B、26B(MoE)、31B 「一門四杰」,其中 E2B、E4B 兩個(gè)較小模型直接可以在手機(jī)、樹莓派等設(shè)備上部署運(yùn)行,26B、31B 兩個(gè)較大模型也只需要一張消費(fèi)級(jí)顯卡就能跑起來(lái)。
不同于閉源的 Gemini 大模型走的是「力大磚飛」,Google 在 Gemma 開源模型的思路上一直是「小而精」。

但 Gemma 4 給人的第一印象還是有點(diǎn)不按劇本來(lái)。參數(shù)規(guī)模沒(méi)有膨脹,結(jié)構(gòu)也談不上顛覆,可是在一系列 benchmark 里,Gemma 4 卻能逼近甚至超越更大一檔規(guī)模的模型。26B、31B 版本在 AI 競(jìng)技場(chǎng)(人工對(duì)話打分)已經(jīng)比肩一眾國(guó)產(chǎn)開源模型,甚至超越了 685B 的 DeepSeek V3.2 以及 397B 的 Qwen 3.5。
如何使用Gemma 4
訪問(wèn) Hugging Face 網(wǎng)站:進(jìn)入模型頁(yè)面獲取模型標(biāo)識(shí)符并下載權(quán)重文件。
安裝依賴庫(kù):在終端執(zhí)行 pip install transformers accelerate torch 命令安裝模型推理所需的 Python 環(huán)境。
加載模型與分詞器:在代碼中使用 AutoModelForCausalLM.from_pretrained("google/gemma-4-31B-it") 和對(duì)應(yīng)的分詞器初始化模型實(shí)例。
執(zhí)行推理:將輸入文本通過(guò)分詞器編碼為張量后傳入模型生成回復(fù),將輸出張量解碼為可讀文本完成推理。
Gemma 4的項(xiàng)目地址
項(xiàng)目官網(wǎng):https://blog.google/innovation-and-ai/technology/developers-tools/gemma-4/
HuggingFace模型庫(kù):https://huggingface.co/collections/google/gemma-4
比國(guó)產(chǎn)模型還卷了。
過(guò)去在這個(gè)戰(zhàn)場(chǎng)上,Qwen 幾乎就是「小而精」模型的代名詞,但 Gemma 4 這次的進(jìn)步確實(shí)太大了。 不只是在 AI 競(jìng)技場(chǎng)這種偏「AI 聊天」的真實(shí)場(chǎng)景測(cè)試中有驚艷的表現(xiàn),Gemma 4 還是少有從一開始就面向本地 Agent 工作流設(shè)計(jì)的模型,也支持多模態(tài)。
這么小規(guī)模的模型下,Gemma 4 卻做到了超預(yù)期的性能和能力,也難怪 AI 研究工程師 Sebastian Raschka 在 X 上說(shuō),「Gemma 4 是一個(gè)巨大的跨越?!?/strong>
但很多人忽略的一個(gè)關(guān)鍵,還在于開源協(xié)議的切換。這次 Google 終于想通了,放棄了自家糟糕透頂?shù)?Gemma 開源協(xié)議,Gemma 4 全系換上了主流的 Apache 2.0 協(xié)議,從個(gè)人到企業(yè)都可以放心商用、再分發(fā)。

免費(fèi)、無(wú) API,大模型不大但好用
先從 26B 和 31B 這兩個(gè)模型說(shuō)起。
按照過(guò)去兩年的直覺(jué),這個(gè)參數(shù)規(guī)模幾乎不在第一梯隊(duì)。開源世界里,動(dòng)輒就是百億、千億,甚至像 DeepSeek V3.2 這種 600B+ 級(jí)別的模型,才有資格談「對(duì)標(biāo)閉源」。但 Gemma 4 的這兩個(gè)模型,上來(lái)就把這套邏輯打亂了。
26B 和 31B 的表現(xiàn),不只是「能打」,而是已經(jīng)開始穩(wěn)定貼近甚至超過(guò)更大體量的模型。Google DeepMind 創(chuàng)始人兼 CEO Demis Hassabis 就說(shuō)得很直白,Gemma 4 就是「同級(jí)別(參數(shù)規(guī)模)最好的開源模型」。
需要一提的是,Gemma 4(26B)采用的是 MoE 架構(gòu),總參數(shù) 26B,但實(shí)際激活規(guī)模要小得多。這種設(shè)計(jì)帶來(lái)的直接結(jié)果不是紙面參數(shù)的好看,而是一個(gè)更現(xiàn)實(shí)的變化:在很多任務(wù)里,它用小模型的成本,打出了接近更大模型的效果。
事實(shí)上,Gemma 4 的優(yōu)勢(shì),不在絕對(duì)能力,而在「智能密度」,或者說(shuō)是每個(gè)參數(shù)的效率最大化。

26B 和 31B 就是最直觀的例子,在實(shí)際測(cè)試?yán)锞湍芨惺艿竭@種密度和效率。在一些開發(fā)者的早期測(cè)試中,它反而比更大的模型更「好用」,因?yàn)樗恢皇悄茏觯€能穩(wěn)定、快速地做。
簡(jiǎn)言之,能夠承擔(dān)更復(fù)雜的任務(wù)和更好的表現(xiàn)。
Gemma 4 推出后,X 上就有獨(dú)立開發(fā)者就在 RTX 5090 上本地部署了 31B,不僅能快速完成代碼生成、多模態(tài)理解任務(wù),整體表現(xiàn)已經(jīng)相當(dāng)可用。至于 Gemma 4(26B),在 Mac mini(M4 16GB)上就能很好地部署運(yùn)行 。

更重要的是,Hacker New 社區(qū)還有人指出,測(cè)試將 Gemma 4 接進(jìn) code-agent harness(30K+ 上下文)的表現(xiàn)很好,明顯快于 Qwen 同級(jí)模型。
免費(fèi)、無(wú)需 API。Gemma 4 的 26B 和 31B,并不是最強(qiáng)的開源模型,但已經(jīng)足夠強(qiáng),同時(shí)又足夠「輕」,甚至可以真正在本地做事,用極低的使用成本在本地處理一系列低復(fù)雜度的 Agent 任務(wù)。
這也是為什么很多開發(fā)者在討論 Gemma 4 時(shí),很少再糾結(jié)它和 GPT、Claude 的差距,而是開始討論另一件事,這樣體量的模型,能不能成為本地 Agent 的核心。因?yàn)橐坏┻@個(gè)問(wèn)題的答案變成「可以」,那整個(gè)開源模型的價(jià)值,就不再只是替代 API,而是開始接管一部分真實(shí)的工作流。
接下來(lái)一段時(shí)間,相信這也是 Gemma 4 的重點(diǎn)。

聯(lián)手高通、聯(lián)發(fā)科,小模型引發(fā)本地 Agent 浪潮?
但這一代 Gemma 4,不只看 26B、31B,把視角往下拉到 E2B、E4B,會(huì)發(fā)現(xiàn) Google 還想更進(jìn)一步把端側(cè) AI 塞進(jìn)手機(jī)等邊緣設(shè)備。
先說(shuō)一點(diǎn)。這兩個(gè)模型不是可以在端側(cè)跑,而是從一開始就是為端側(cè)設(shè)計(jì)的。Google 在官方描述里就強(qiáng)調(diào),E2B 和 E4B 的目標(biāo)是「重新定義端側(cè)實(shí)用性」,優(yōu)先考慮的是低延遲、多模態(tài)和系統(tǒng)級(jí)集成,而不是參數(shù)規(guī)模。這句話背后其實(shí)很明確,它們不是縮小版的大模型,而是另一類產(chǎn)品。
這類產(chǎn)品最關(guān)鍵的一點(diǎn),是把「本地 AI」從概念變成了一個(gè)可以落地的工程路徑。E2B 在量化之后可以壓到 1.5GB 以內(nèi),在樹莓派 5 上也能跑出可用的推理速度,prefill 可以到 100 tokens/s 以上 。意味著一個(gè)不依賴云、不走 API 的 AI 系統(tǒng),開始可以在極其有限的硬件上運(yùn)行。
更重要的是,這件事并不是 Google 一家在做。為了讓這兩個(gè)模型真的跑起來(lái),Google 這次是把整條硬件鏈路一起拉進(jìn)來(lái)了,從 Pixel 團(tuán)隊(duì),到高通、聯(lián)發(fā)科,再到 ARM、NVIDIA,都參與了優(yōu)化 。換句話說(shuō),這還是一次面向手機(jī)和邊緣設(shè)備的系統(tǒng)級(jí)協(xié)同。
這也解釋了為什么 E2B 和 E4B 的意義,和過(guò)去的小模型完全不一樣。以前的小模型,本質(zhì)是「能力不夠,只能在端側(cè)跑」?,F(xiàn)在這兩個(gè)模型更像是「能力剛好夠,而且專門為端側(cè)優(yōu)化」。它們不僅支持文本,還原生支持圖像、音頻輸入,甚至可以直接參與多步 Agent 工作流 ,支持 Skiill。
真正的變化在這里開始顯現(xiàn)。過(guò)去討論手機(jī)上的 AI,大多還停留在「調(diào)用云端模型」,本地只負(fù)責(zé)做一些簡(jiǎn)單推理。但 Gemma 4 這一步,相當(dāng)于是把更完整的 AI 能力,直接搬進(jìn)手機(jī)等設(shè)備里,甚至是脫離網(wǎng)絡(luò)在本地運(yùn)行 Agent 。
尤其是在豆包手機(jī)助手引發(fā)云端 AI Agent 的隱私安全顧慮之后,這對(duì)手機(jī)意味著什么,其實(shí)不難想象。
而當(dāng)模型可以直接運(yùn)行在 SoC 的 NPU 上,當(dāng)系統(tǒng)級(jí)組件可以調(diào)用本地模型完成推理、生成、甚至多步任務(wù)執(zhí)行,AI 也會(huì)更進(jìn)一步變成操作系統(tǒng)的一部分。
所以 E2B 和 E4B 真正讓人興奮的地方,但不是它們的性能,而是讓人看到端側(cè) AI 的潛力還有巨大的挖掘空間。而這條路徑,一旦跑通,影響的就不只是模型本身,而是整個(gè)終端生態(tài)。
開源 AI 模型,在 Agent 時(shí)代重新洗牌
最早,Meta 用 Llama 奠定了開源模型生態(tài)的方式,但很快,從 Qwen、DeepSeek 到去年 Kimi、MiniMax 的相繼開源,中國(guó)公司已經(jīng)主導(dǎo)了全球開源 AI 的大模型格局,也在在性能、成本和落地能力上同時(shí)逼近甚至反超閉源模型。
也正是在這個(gè)背景下,再看 Google 的動(dòng)作,就不只是一次模型更新了。
Gemma 過(guò)去一直處在一個(gè)略顯尷尬的位置,名義上開源,但協(xié)議并不徹底,企業(yè)用起來(lái)有顧慮,開發(fā)者也很難放心做二次分發(fā)和深度定制。這一次,Gemma 4 直接換成 Apache 2.0,本質(zhì)上是把最后一道門檻拆掉了,從「可以用」變成「可以放心用」。
這一步的意義,比模型本身更大。因?yàn)樗扔诿鞔_了一件事,Google 不只是要做模型,還要重新進(jìn)入開源生態(tài)。
這也讓它的整體策略變得更清晰了。一邊是 Gemini,繼續(xù)對(duì)標(biāo) GPT 和 Claude,守住能力上限和商業(yè)化;另一邊是 Gemma,面向開發(fā)者、面向本地部署、面向生態(tài)擴(kuò)展。閉源和開源,不再是取舍,而是分工。
過(guò)去幾個(gè)月,真正把行業(yè)注意力拉走的,是 Agent。無(wú)論是 Anthropic 推出的 Claude Code,還是開源社區(qū)圍繞 OpenClaw 搭起來(lái)的一整套工具鏈,大家討論的焦點(diǎn)已經(jīng)不再是對(duì)話、多模態(tài),而是「干活」。
在這波變化里,Gemini 的存在感其實(shí)不算強(qiáng)。能力依然在第一梯隊(duì),但在開發(fā)者心智里,它并沒(méi)有成為 Agent 的首選底座。這也是為什么你會(huì)看到越來(lái)越多開發(fā)者開始轉(zhuǎn)向開源模型,哪怕能力略遜一籌,也更愿意換取可控性和可部署性。
Gemma 4 出現(xiàn)在這個(gè)時(shí)間點(diǎn),就顯得很微妙了。
一方面,它補(bǔ)上了 Google 在開源上的短板,尤其是協(xié)議問(wèn)題解決之后,開發(fā)者終于可以真正把它當(dāng)作基礎(chǔ)設(shè)施來(lái)用。另一方面,它又剛好踩在「本地 Agent」這個(gè)新需求上,無(wú)論是 26B、31B,還是 E2B、E4B,都在試圖回答同一個(gè)問(wèn)題:能不能把一部分 AI 能力,直接搬到設(shè)備上運(yùn)行。
這未必是最激進(jìn)的一步,但很可能是最現(xiàn)實(shí)的一步。
開源模型的競(jìng)爭(zhēng),正在從「誰(shuí)更強(qiáng)」,變成「誰(shuí)更能被用起來(lái)」。而在這個(gè)新的牌桌上,Google 終于重新坐了下來(lái),只是這一次,它不再是發(fā)牌的人,而是必須重新爭(zhēng)奪籌碼的玩家。
馬上咨詢: 如果您有業(yè)務(wù)方面的問(wèn)題或者需求,歡迎您咨詢!我們帶來(lái)的不僅僅是技術(shù),還有行業(yè)經(jīng)驗(yàn)積累。
QQ: 39764417/308460098 Phone: 13 9800 1 9844 / 135 6887 9550 聯(lián)系人:石先生/雷先生