豆包语音识别模型 2.0 上线:不仅“听懂字”还能“看懂图”,支持日韩德法等 13 种外语

豆包语音识别模型 2.0 上线:不仅“听懂字”还能“看懂图”,支持日韩德法等 13 种外语
2025年12月05日 16:09 IT之家

IT之家 12 月 5 日消息,火山引擎今日发布豆包语音识别模型 2.0(Doubao-Seed-ASR-2.0)

模型推理能力提升,通过深度理解上下文完成精准识别,上下文整体关键词召回率提升 20%;支持多模态视觉识别,不仅“听懂字”还能“看懂图”,通过单图和多图等视觉信息输入让文字识别更精准;支持日语、韩语、德语、法语等 13 种海外语种的精准识别

豆包语音识别模型依托 Seed 混合专家大语言模型架构构建,在延续 1.0 版本中 20 亿参数音频编码器的基础上,重点针对专有名词、人名、地名、品牌名称及易混淆多音字等复杂场景进行优化升级。而更强的上下文推理能力,让模型实现多模态信息理解、混合语言精准识别能力。

豆包语音识别模型 2.0 基于 PPO 方案进行强化学习,不需要依赖目标词汇的历史出现记录,通过深度理解更加泛化的上下文即可完成识别,让语音识别更适配动态变化的真实交互场景,输出结果更准确。

以历史人物生平讨论场景为例,当用户提及苏辙贬谪地“筠(IT之家注读音:yún)州”时,如果模型缺乏推理能力会易将其误识别为同音的“云州”“郓州”等。而豆包语音识别模型 2.0 可依托“当前讨论苏轼、苏辙”这一背景,即便上下文从没出现过“筠州”,也能通过逻辑推理锁定用户所指的特定地名,最终实现对多音字地名的精准识别。

豆包语音识别模型 2.0 将上下文理解范围从纯文本拓展至视觉层面,让语音识别突破“只识文字”的局限,实现“能识场景”的升级。它通过辅助理解单图和多图内容,帮助用户在搜拍或图片创作场景,识别易混淆字词,提升识别准确性。

以搜拍场景为例,当用户发送照片后,若想描述画面内容,传统模型可能因“滑鸡”不常见而误识别为常用词“滑稽”。而豆包语音识别模型 2.0 能同步解析图像,发现画面中是正在玩滑板的“鸡”,从而精准判断用户想表达的是“滑鸡”,避免字词混淆导致的识别偏差

在图片创作场景中,越来越多用户选择用语音指令生成或修改内容,豆包语音识别模型 2.0 可智能结合当前图像内容进行辨析与纠错。当用户语音提及需修改的元素时,模型能精准判断其真实需求 —— 比如明确用户想调整的是画面中的“马头”,而非同音且更常见的“码头”,最终让图片生成贴合预期的画面。

豆包语音识别模型 2.0 采用 Function Call 策略,在高度保持中、英和方言识别准确度的前提下,支持日语、韩语、德语、法语、印尼语、西班牙语、葡萄牙语等 13 类语种的识别

目前,豆包语音识别模型 2.0 已上线火山方舟体验中心并对外提供 API 服务。

语音识别韩德
新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片