智谱上线GLM-4-Voice端到端情感语音模型:迈向AGI之路的最新一步

智谱上线GLM-4-Voice端到端情感语音模型:迈向AGI之路的最新一步
2024年10月26日 10:13 IPO早知道

@全体股民:《投资研报》巨额特惠,满3000减1000,满1500减500!【历史低价手慢无,速抢>>

发布即开源,这也是智谱首个开源的端到端多模态模型。

作者|C叔

据IPO早知道消息,智谱于10月25日上线了GLM-4-Voice 端到端情感语音模型。

GLM-4-Voice 能够理解情感,有情绪表达、情感共鸣,可自助调节语速,支持多语言和方言,并且延时更低、可随时打断。

作为端到端的语音模型,GLM-4-Voice 避免了传统的 “语音转文字再转语音” 级联方案过程中带来的信息损失和误差积累,也拥有理论上更高的建模上限。

整体而言,GLM-4-Voice 具备以下特点:1、情感表达和情感共鸣:声音有不同的情感和细腻的变化,如高兴、悲伤、生气、害怕等。2、调节语速:在同一轮对话中,可以要求 TA 快点说 or 慢点说。3、随时打断,灵活输入指令:根据实时的用户指令,调整语音输出的内容和风格,支持更灵活的对话互动。4、多语言、多方言支持:目前 GLM-4-Voice 支持中英文语音以及中国各地方言,尤其擅长粤语、重庆话、北京话等。5、结合视频通话,能看也能说:即将上线视频通话功能,打造真正能看又能说的AI助理。

在保持一贯发布即上线风格的同时,GLM-4-Voice 发布即开源,这是智谱首个开源的端到端多模态模型。

可以说,GLM-4-Voice 的出现是智谱在迈向 AGI 的道路上迈出的最新一步。

当然,从文本的一种模态,到包括图像、视频、情感语音模型在内的多模态,然后让AI学会使用各种工具,背后是智谱新的基座模型能力——GLM-4-Plus。在语言文本能力方面,GLM-4-Plus和GPT-4o及405B参数量的 Llama3.1 相当。

基于GLM-4-Plus,智谱过去几年在多模态领域探索取得了一些阶段性成果。智谱发布的GLM-4-Voice,让 GLM 多模态模型家族更加完整,为朝着原生多模态模型又迈出了一步。

本文由公众号IPO早知道(ID:ipozaozhidao)原创撰写,如需转载请联系C叔↓↓↓

海量资讯、精准解读,尽在新浪财经APP
端到端

VIP课程推荐

加载中...

APP专享直播

1/10

热门推荐

收起
新浪财经公众号
新浪财经公众号

24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)

股市直播

  • 图文直播间
  • 视频直播间

7X24小时

  • 10-29 聚星科技 920111 6.25
  • 10-25 港迪技术 301633 37.94
  • 10-25 健尔康 603205 14.65
  • 10-22 科拜尔 920066 13.31
  • 10-21 强达电路 301628 28.18
  • 新浪首页 语音播报 相关新闻 返回顶部