真有围剿 Google 的态势啊!
在谷歌昨晚 Cloud Next 大会进行一系列重大发布时,你们都来抢热度:前有 OpenAI 更新 GPT-4 Turbo,后有 Mistral 开源 8X22B 的超大模型。
谷歌内心:南村群童欺我老无力。
![](http://n.sinaimg.cn/spider20240410/487/w664h623/20240410/4e13-bec0686049ebe95e17180a903141682f.png)
第二大开源模型:Mixtral 8X22B
今年 1 月,Mistral AI 公布了 Mixtral 8x7B 的技术细节,并推出了 Mixtral 8x7B – Instruct 聊天模型。该模型的性能在人类评估基准上明显超过了 GPT-3.5 Turbo、Claude-2.1、Gemini Pro 和 Llama 2 70B 聊天模型。
短短 3 个月后,Mistral AI 开源了 Mistral 8X22B 模型,为开源社区带来了又一个性能强劲的大模型。
![](http://n.sinaimg.cn/spider20240410/53/w1080h573/20240410/0016-684cd8dc011746033075fc56800146ac.png)
有人已经查看了 Mistral 8X22B 模型的细节,模型文件大小约为 262 GB。
![](http://n.sinaimg.cn/spider20240410/312/w1080h832/20240410/2c6a-6d42abd521dcbaf1066384224b85eaac.png)
由此,Mistral 8X22B 仅次于 xAI 此前推出的 Grok-1(参数量为 3140 亿),成为迄今为止第二大开源模型。
![](http://n.sinaimg.cn/spider20240410/55/w1080h575/20240410/da37-b043aa708a7384a2436cd0ad7d975da7.png)
还有人惊呼,MoE 圈子又来了个「大家伙」。MoE 即专家混合模型,此前 Grok-1 也为 MoE 模型。
![](http://n.sinaimg.cn/spider20240410/518/w1080h238/20240410/151f-dd8a2047822b38961a858a58f8ba1773.png)
GPT-4 Turbo 视觉功能新升级
另一边,OpenAI 宣布 GPT-4 Turbo with Vision 现在可以通过 API 使用了,并且 Vision 功能也可以使用 JSON 模式和函数调用了。
![](http://n.sinaimg.cn/spider20240410/766/w1080h486/20240410/38ac-a89c197bd0123e3a8aa2cda5e2608fa3.png)
下面为 OpenAI 官网细节。
![](http://n.sinaimg.cn/spider20240410/547/w1080h267/20240410/099e-445ae5091ca1578bbc48ef1c6ff9fab8.png)
虽然如此,各路网友对 OpenAI 的小修小补「并不感冒」。
![参考链接:](http://n.sinaimg.cn/spider20240410/439/w1080h159/20240410/878e-81d5f8c239eed676a8b3db50bc5e3a28.png)
![参考链接:](http://n.sinaimg.cn/spider20240410/444/w1080h164/20240410/bcb0-7db3675ea34a3c06121d55a8f50325cc.png)
![新浪科技公众号 新浪科技公众号](http://n.sinaimg.cn/tech/content/tech_qr2x.png)
新浪科技公众号
“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)
![](http://n.sinaimg.cn/tech/content/tech_weixin2.png)
0条评论|0人参与网友评论
![](http://img.t.sinajs.cn/t5/style/images/face/male_180.png)
![](http://img.t.sinajs.cn/t5/style/images/face/male_180.png)
表情
登录|注册
|退出
分享到微博
发布最热评论
最新评论
更多精彩评论>>