IT之家 11 月 12 日消息,阿里通义千问今日开源 Qwen2.5-Coder 全系列模型,其中 Qwen2.5-Coder-32B-Instruct 成为目前 SOTA 的开源代码模型,官方号称代码能力追平 GPT-4o。
Qwen2.5-Coder-32B-Instruct 作为本次开源的旗舰模型,在多个流行的代码生成基准(如 EvalPlus、LiveCodeBench、BigCodeBench)上都取得了开源模型中的最佳表现,官方称达到和 GPT-4o 有竞争力的表现。
阿里通义千问此前开源了 1.5B、7B 两个尺寸,本次开源带来 0.5B、3B、14B、32B 四个尺寸,覆盖了主流的六个模型尺寸。
Qwen2.5-Coder 0.5B / 1.5B / 7B / 14B / 32B 模型均采用 Apache 2.0 许可证,3B 模型使用 Research Only 许可。
IT之家附相关链接如下:
Github:https://github.com/QwenLM/Qwen2.5-Coder
Huggingface:https://huggingface.co/collections/Qwen/qwen25-coder-66eaa22e6f99801bf65b0c2f
Modelscope:https://modelscope.cn/organization/qwen
演示:https://huggingface.co/spaces/Qwen/Qwen2.5-Coder-demo
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)