谷歌宣布开源多模态大模型Gemma3 媲美DeepSeek

谷歌宣布开源多模态大模型Gemma3 媲美DeepSeek
2025年03月13日 07:40 CNMO

谷歌宣布开源多模态大模型Gemma3 媲美DeepSeek

  【CNMO科技消息】日前,谷歌首席执行官Sundar Pichai宣布开源最新多模态大模型Gemma-3,主打低成本与高性能。Gemma-3提供四种不同参数规模的版本,分别为10亿、40亿、120亿和270亿参数。即便在参数量最大的270亿版本中,仅需一张H100显卡即可实现高效推理。相比之下,同类模型若要达到类似效果,至少需要提升10倍算力。因此,Gemma-3也是目前性能最强的小参数模型之一。

  在性能测试方面,根据LMSYS ChatbotArena的盲测数据,Gemma-3的表现仅次于DeepSeek的R1-671B,优于OpenAI的o3-mini和Llama3-405B等知名模型。

  在架构设计上,Gemma-3延续了前两代的通用解码器Transformer架构,并进行了多项创新和优化。为解决长上下文带来的内存占用问题,Gemma-3采用了局部和全局自注意力层交错的架构:每5个局部层之间插入1个全局层,局部层的跨度仅为1024个token。由于只有全局层负责处理长上下文,局部层仅关注1024个token的小跨度,从而有效降低了内存占用。

  多模态能力是Gemma-3的一大技术亮点。该模型能够同时处理文本和图像,并集成了定制版的SigLIP视觉编码器。这一编码器基于Vision Transformer架构,通过CLIP损失的变体进行训练。

  为了评估Gemma-3的性能,谷歌在MGSM、Global-MMLU-Lite、WMT24++、RULER、MRCR等多个主流平台进行了测试。结果显示,Gemma-3在多模态任务中表现出色,例如在DocVQA、InfoVQA和TextVQA等任务中,其性能显著优于前代模型。在长文本处理方面,270亿参数版本的Gemma-3在RULER128K任务上达到了66.0%的准确率。

版权所有,未经许可不得转载

(本文来自于手机中国)

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片