美团开源满血DeepSeek量化版?造福老显卡

美团开源满血DeepSeek量化版?造福老显卡
2025年03月08日 18:50 中关村在线

美团技术团队近日宣布,对DeepSeek R1模型进行了INT8精度量化,使得该模型能够在老型号GPU如A100上进行部署。原生的DeepSeek R1模型权重采用FP8数据格式,这限制了其只能在英伟达的新型GPU上部署,而其他型号的GPU则无法直接支持。

为了解决这个问题,美团搜索和推荐平台部门尝试了对DeepSeek R1模型进行INT8精度量化。结果显示,量化后的模型精度基本保持不变。通过INT8量化,DeepSeek R1突破了芯片限制,现在可以部署在A100等GPU上。此外,与BF16相比,INT8量化还实现了50%的吞吐量提升,从而降低了推理成本。

现在,INT8量化代码已经发布在开源LLM推理框架SGLang上,量化模型也已发布至Hugging Face社区,以下是模型链接:

https://huggingface.co/meituan/DeepSeek-R1-Block-INT8

https://huggingface.co/meituan/DeepSeek-R1-Channel-INT8

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片