作者 | 林潜
编辑 | 头头
过去几年,行业几乎默认了一条路径:模型越大,能力越强。从百亿参数到千亿参数,再到万亿级规模,厂商不断堆高算力与数据,试图用规模换性能。但与此同时,一个现实问题也越来越明显——大模型正在变得越来越“难用”。
它们运行成本高、部署门槛高,对硬件要求极其苛刻。对于普通开发者和终端设备来说,顶级AI几乎等同于“只能远观”的云端能力。
就在这样的背景下,Google 推出的 Gemma 4,给出了一个完全不同的答案:
不靠无限放大参数,而是用更高效的架构,把顶级能力“压缩”下来。
- 要性能,就必须牺牲体积与成本
- 要轻量,就必须接受能力下降
这也是为什么,大多数顶级模型都集中在云端,而端侧模型往往只能完成基础任务。
Gemma 4试图打破的,正是这一点。
手机也能运行“高级大脑”
以E2B和E4B为代表的轻量模型,核心目标非常明确——让AI真正“走出云端”。在极端压缩下,模型可以在较低内存环境中运行,这意味着普通消费级设备也具备了部署本地AI的可能。
首先是隐私。数据不再需要上传云端,本地即可完成处理,这对于个人用户和企业来说都具有吸引力。
其次是延迟。端侧运行意味着无需等待网络响应,AI可以实现更接近“实时”的交互体验。
更重要的是使用场景的扩展。当AI能力不再依赖网络环境,它就可以进入更多离线场景,比如出行、会议、甚至一些对网络依赖较低的行业应用。
从这个角度看,Gemma 4并不是简单的模型升级,而是在推动AI形态从“云端服务”向“本地能力”转变。
更聪明,而不是更大
其中一个关键点,是混合专家(MoE)架构的应用。简单来说,这种架构将模型拆分为多个“子模块”,在处理任务时,只激活最相关的部分,而不是让整个模型同时参与计算。
在传统模型中,每一次推理都需要调动全部参数,而在MoE架构下,只需调用一部分“专家模块”,就可以完成任务。这种“按需调用”的机制,使得模型在保持高性能的同时,大幅提升运行效率。
这也是为什么中等规模的模型,能够在实际表现上接近更大体量模型的原因。
换句话说,行业正在从“拼参数规模”,转向“拼结构效率”。
谷歌的“主动让利”
这一次,谷歌选择采用更加宽松的开源协议,使得开发者可以在更少限制下进行商用、修改和二次开发。
据天眼查平台信息显示,谷歌在人工智能、大模型及开源生态领域持续推进技术布局,相关能力已广泛应用于其云服务与终端生态体系。
为什么会出现这样的转变?
原因并不复杂——开源生态的竞争已经进入白热化阶段。
过去两年,包括 Llama、以及国内多家厂商推出的开源模型,正在快速扩大影响力。开源不再只是技术分享,而是生态竞争的重要手段。
对于谷歌来说,如果继续保持封闭或半开放策略,很容易在开发者生态中失去话语权。因此,Gemma 4的“放开”,本质上是一种以生态换影响力的选择。
安卓才是最终战场
当大多数厂商仍在云端竞争时,谷歌已经把目光投向了更广阔的终端市场——安卓生态。
全球范围内,安卓设备的规模达到数十亿级别。如果这些设备能够原生运行高质量AI模型,那么带来的影响,将远远超过单一模型的性能提升。
通过与芯片厂商和设备体系的协同优化,Gemma 4正在尝试打通从模型到硬件的完整链路。这种“软硬一体”的策略,与单纯依赖云端服务的路径形成了明显差异。
一旦端侧AI能力成熟,开发者可以基于统一框架开发应用,并在大规模设备上直接运行。这将极大降低AI应用的分发成本,同时提升用户体验的一致性。
从这个角度看,Gemma 4不仅是一个模型,更像是一块基础设施。
它没有把参数规模推到新的极限,也没有单纯追求某个榜单排名,而是从另一个方向切入——让AI变得更高效、更易用、更可落地。
这背后反映的,是整个行业阶段的变化。
当模型能力逐渐接近瓶颈,单纯依赖规模扩张的路径开始失效,效率、成本与生态,将成为新的竞争核心。
对于谷歌来说,Gemma 4是一次主动调整;对于行业来说,这可能是一个信号——
AI的下一个阶段,不再只是“更强”,而是“更普及”。
与此同时,随着国内厂商持续推进新一代模型研发,新一轮竞争也在酝酿之中。
未来的关键问题,或许不再是谁的模型更大,而是谁能让AI真正进入每一个设备、每一个场景。
这场竞争,才刚刚开始。
本文来自投稿,不代表增长黑客立场,如若转载,请注明出处:https://www.growthhk.cn/cgo/market/157869.html
微信扫一扫
支付宝扫一扫