李彦宏:DeepSeek不是万能的 存在幻觉多、速度慢等痛点

李彦宏:DeepSeek不是万能的 存在幻觉多、速度慢等痛点
2025年04月25日 14:39 快科技

快科技4月25日消息,今日,百度在武汉举行Create 2025百度AI开发者大会,百度创始人李彦宏就“模型的世界,应用的天下”主题发表了近60分钟的演讲。

李彦宏称百度各业务线都在积极接入DeepSeek的模型,文小言、百度搜索、百度地图等都接入了DeepSeek满血版,在很多内外部应用场景都产生了非常不错的效果,但他同时强调“DeepSeek也不是万能的”

他表示,DeepSeek目前只能处理文本,还不能理解和生成图片、音频、视频等多媒体内容,幻觉率较高,更大的问题则是慢和贵

以下为李彦宏在演讲时就DeepSeek相关的内容实录:

当然DeepSeek也不是万能的,比如它只能处理文本,还不能理解和生成图片、音频、视频等多媒体内容,而我们的很多百度智能云客户,都需要这种多模理解和生成能力。

比如它幻觉率比较高,在很多场合不能放心使用,如果在电商直播中幻觉出来一个买一送一的优惠,那商家就要赔惨了。

当然它更大的问题是慢和贵,中国市场上绝大多数的大模型API调用价格都比DeepSeek满血版要低,速度要更快,而今天我们要隆重发布的文心大模型的4.5 Turbo和X1 Turbo就是要解决这些问题的。

今天,我们正式发布文心大模型4.5 Turbo和文心大模型X1 Turbo,主打三大特性:多模态、强推理、低成本。

多模态是未来基础模型的标配,纯文本模型的市场会越变越小,多模态模型的市场会越来越大。

文心大模型4.5 Turbo每百万token 输入价格仅为0.8元,输出价格3.2元,相比文心4.5,速度更快,价格下降80%;文心大模型X1 Turbo每百万token输入价格1元,输出价格4元,相比文心X1,性能提升的同时,价格再降50%。

为什么我们要不断把大模型的成本降下来?因为开发者做AI应用的一个很大阻碍就是成本高,用不起。而创新的本质往往就是成本下降。

成本降低后,开发者和创业者们才可以放心大胆地做开发,企业才能够低成本地部署大模型,最终推动各行各业应用的爆发。

【本文结束】如需转载请务必注明出处:快科技

责任编辑:落木

李彦宏文心百度
新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片