![](http://n.sinaimg.cn/spider20240520/600/w300h300/20240520/0154-7844d557b455182fc45044b8e11a1294.jpg)
美国开放人工智能研究中心(OpenAI)5月13日展示了ChatGPT最新版本GPT-4o,相比先前版本,它与使用者对话基本无延迟,会倾听,能唠嗑,还善于察言观色,让人惊呼新版本“更像人”了。
![](http://n.sinaimg.cn/spider20240520/600/w300h300/20240520/f6be-8afaaa6042d9727a9bf3b11e37b1a114.jpg)
GPT-4o能捕捉用户声音中的细微差别,做到随时开始或打断对话,识别说话人的语气、情绪,根据场景或指令生成多种音调、带有丰富人类情绪特征的音频回复,你甚至可以要求它唱歌。
![](http://n.sinaimg.cn/spider20240520/600/w300h300/20240520/dae3-dfaf26fe0b34f65d0e959301549e8ffd.jpg)
GPT-4o-视觉能力大大提升。它可以查看不同语言的菜单照片并进行翻译,还能在传统识图的基础上,识别手写体,比如解答手写的方程组、精准分析数据,并能够读懂画面中人物的面部表情。
![](http://n.sinaimg.cn/spider20240520/600/w300h300/20240520/046d-9aa2c3a1f64dfaaee023d64ee0e48f69.jpg)
GPT-4o语言能力更加强大。目前GPT-4o已经支持包括中文在内的20种语言进行音频等多模态交互,这次更新在多语言方面更加强大。
![](http://n.sinaimg.cn/spider20240520/600/w300h300/20240520/bb9e-75b40b061ae490654beff7facb9e4121.jpg)
GPT-4o数据优势明显。在数据层面,根据传统基准测试,GPT-4o的性能对比GPT-4 Turbo处于优势,对比其他模型更是大幅领先。
![](http://n.sinaimg.cn/spider20240520/600/w300h300/20240520/fede-d1b78a227d340aa7f17e05cb5ccfe553.jpg)
GPT-4o可通过呼吸来辨别情绪,它甚至可以指导使用者怎么深吸慢呼平复心情,在分析用户喘气声后进行呼吸指导。
![](http://n.sinaimg.cn/spider20240520/600/w300h300/20240520/dc82-23b793db6699db80f34501a8f86217c4.jpg)
GPT-4o响应时间越来越短。它可以在最短232毫秒内响应对话,平均响应时间320毫秒,和人类的反应速度几乎一样。
![](http://n.sinaimg.cn/spider20240520/600/w300h300/20240520/2998-0285cf5a1324a1b609c8e79f138fc285.jpg)
GPT-4o还在一定程度上免费。首席技术官穆里穆拉蒂表示,OpenAI的使命就是要向所有人免费提供高级人工智能工具。
![](http://n.sinaimg.cn/spider20240520/600/w300h300/20240520/1337-802badd78cce435474112c1576fe6bfe.jpg)
GPT-4o可能是有史以来最好的模型。OpenAI联合创始人表示,这是OpenAI朝着更自然的人机交互形式迈出的重要一步。
![](http://n.sinaimg.cn/finance/cece9e13/20200514/343233024.png)
海量资讯、精准解读,尽在新浪财经APP
VIP课程推荐
加载中...
APP专享直播
热门推荐
收起![新浪财经公众号 新浪财经公众号](http://n.sinaimg.cn/finance/72219a70/20180103/_thumb_23666.png)
新浪财经公众号
24小时滚动播报最新的财经资讯和视频,更多粉丝福利扫描二维码关注(sinafinance)