罕见!4家AI顶流同台:从AGI聊到了ROI

罕见!4家AI顶流同台:从AGI聊到了ROI
2024年06月15日 17:56 i黑马网

昨日(6月14日),一场AI论坛爆火。

月之暗面、百川智能、智谱华章、面壁智能,4家AI公司首次同台分享。

4位顶流大模型公司的CEO,一聊就是一个多小时。

今天的大模型真能通往 AGI ?

还是说,它可能只是一个数据的压缩,并不一定能够通往AGI? 

大模型价格战,是过度内卷还是有利于整个市场发展?

AI安全,是当下最急迫的问题吗?

论坛现场,主持人还问了一个“彩蛋”问题,斯坦福团队抄袭了中国大模型?

以下是本次论坛的嘉宾信息:

王仲远 智源研究院 院长

杨植麟 月之暗面 创始人兼CEO

李大海 面壁智能 联合创始人兼CEO

王小川 百川智能 创始人兼CEO

张鹏   智谱AI  CEO

01

今天的大模型真能通往 AGI ?

王仲远:各位都是国内头部大模型公司的CEO,那我也想请教一下,各位是否相信大模型是通往 AGI 之路的基石?它可能依然只是数据的压缩,并不一定能够通往AGI?

王小川:我觉得用“基石”这个词没有问题。我的结论是,我们到了 AGI 时代,这个时代里我们有足够多的科学家进来,更多资源进来,能够走向AGI。

今天大家已经看到的Scaling Law 带来的提升。但是我想说,它只是在逼近AGI,光靠 Scaling Law 是不够的。除了规模以外,必须产生范式的改变。

张鹏:现在做人工智能的这波人还是挺实用主义的。所谓的实用主义就是,不看广告,看疗效,这东西能不能解决问题?能不能真像我们每个人心中的 AGI 那样可以帮我们推进一步?大模型到目前为止还是很有效地在推进这件事情。

而且就像刚才小川说的一样, Scaling Law 还是有效,还在往前进,那至于说,它是不是能帮助我们推到那个顶峰上去,我们现在也找不到很确切的答案。

李大海:我认为大模型一定是通往 AGI 这个方向上,当前所有技术里面能走得最远的。它能不能够直接到达,我觉得现在还有很多未知的因素,包括刚才提到的AGI定义是什么。

但我想提一个可能大家没有提到的点,我觉得现在的大模型作为知识压缩主要是在处理人的大脑的系统1的工作。我认为这种慢思考的系统2的去做各种各样的推理,搜索空间里面去做搜索、组合,来完成任务这样的能力,我觉得是未来大模型可能要通过 agent 的技术外部化,或者把它内化为自己的能力,这是行业里面大家需要去探索的。

杨植麟:对,我们比较相信大模型的第一性原理,就是通过不断地去提升模型的规模。 Scaling Law 没有本质的问题。而且我觉得接下来 3 到 4 个数量级是非常确定的。本质上是怎么定义 Scaling Law?Scaling Law 是什么?

如果就沿着现在的方法,用跟现在完全一样的数据分布,我觉得它的上限是很明显的。但是 Scaling Law 本身其实并不受这个的限制。它讲的是我只要有更多的算力,更多的数据模型,参数变大,那我就能持续产生更多的智能。

但这里面它并没有定义模型是什么样的,比如说它要多少个模态,它中间的数据是什么样的?我觉得scale 的方法可能会发生很大的变化。

02

AI价格战:过度内卷or普及运动?

王仲远:近期大模型价格战,大家怎么看?是更利于大模型普及,还是实不利于企业的长期发展?

王小川:我先说结论,价格战对中国发展大模型是特别好的事。先说个视角,很多时候好不好,你得看是对单个公司,还是整个市场。因为价格战,通常是市场行为,竞争的一个导向。我觉得至少带来两个好的后果:

第一个,更多公司和个人能用上大模型了。价格战让很多公司免费或便宜的使用大模型,让大模型在中国能够迅速普及,对整个市场都有好处。

第二个,减少了社会资源的浪费。大家在恐慌的时候,不知道大模型为何物,我观察到很多企业但凡有点技术能力,都说要自己拿卡训练大模型,甚至跑来找我们聊怎么联合训练。他本来是大模型的消费者、使用方,却想成为大模型的供给方。这种企业行为其实带来很多人才、资金和社会资源的浪费。

但在价格战之后,很多企业开始清醒了,我干嘛非得去做大模型?我到底在干嘛?我的竞争优势在什么地方?最终退回来成为了大模型的用户,减少了社会资源的浪费。

张鹏:之前有人跑过来跟我们说,你们是什么大模型价格战的发起方之类的。我说这个子虚乌有,我们一直秉持的一个概念,用我们的创新去降低大家使用大模型的成本,让大模型变成水电一样的基础设施,非常便宜,随时可用。

不过,不建议大家过多宣讲宣扬价格战,商业上肯定是牺牲企业的短期利益,但这不是一个正常的商业逻辑,只能持续很短的时间,最终还是要回归生产力价值。

杨植麟:如果我们把时间线拉足够长的话,最终还是会回归价值本身。我自己有三个判断:

第一,如果投入在推理上的算力,明显超过投入于训练的算力,这将是一个标志。就是说,你的价值开始得到释放,你前面用来训练的那些成本其实很大程度上可以被覆盖。

第二,如果从 c 端角度来说,你的推理成本可能会显著低于你的获客成本。从商业本质上来讲,可能不会跟之前的各种商业模式有非常本质的区别。

第三,AI 本身做的事情可能在会在某个时间点超过人做的事情。这时候就可能会产生新的商业模式。它可能不是今天说的价格战,而是一个普惠的AI,同时可能是根据它产生的价值,从这里面去分层产生的新型商业模式。

03

AI安全是当下最急迫的问题吗?

王仲远:现在大模型产业界怎么去看AI 安全?这是一个当下最急迫的问题吗?

王小川:AI安全有不同的内涵和外延,我想提三个安全相关的事情。

第一就是意识形态安全。国内的大模型首先要在意识形态上能跟国家发展,对一个民族、对一个社会负责,这个安全是个底线。

第二个是大家空谈得比较远的安全。觉得模型把人类灭了,人就没了,机器掌握世界了。我不希望发生像核弹一样的发明把人类文明给搞没了,但是研究模型是否比人更聪明,能够取代人做事情,是个鼓励的一件事情。在人类文明里,发展技术去延续我们的生命和文明,才是重要的事情。

第三个比较现实。现在AI连医疗都搞不定,能力如此之弱,就不要想什么AI颠覆人类这么复杂的事。所以,现实里我觉得近期还不存在安全问题。

张鹏:前段时间,我们刚和美国、欧洲、中东和亚洲其他国家的16家人工智能公司共同签署了《前沿人工智能安全承诺》。

这个事情就比安全要更大一点,我们叫负责任的AI,更多的方面是思考如何努力让技术真的帮助人类,帮助社会、帮助地球,而不是去为恶。

当然,我们很难保证没人去拿AI作恶,但你防守永远比破坏要难。更要的,不只是管理和约束AI作恶,更要增强大家对AI安全的了解,让大家形成统一共识,让更多人参与进来,把问题摆到桌面上。最后总有解决问题的办法。

李大海:我认为,现阶段AI安全主要还是聚焦在基础安全跟内容安全这两个方向上。未来的大模型本质上是只读的,就是我们把模型训练好,权重是固定的,你的推理其实不会影响权重,你的权重都是在线下去持续的阶段性训练的。

有一天当我们把模型部署到机器人终端上,如果它能动态地更新自己的权重,安全问题就会变成一个非常非常重要的课题。

04

回应:斯坦福团队抄袭中国大模型

王仲远:大家最近关注到一个热门新闻,斯坦福团队抄袭了面壁智能的开源模型MiniCPM-Llama3-V 2.5?

李大海:对,这个事情在国内引起了非常大的反响,我们完全没有想到会以这种方式出圈,挺惶恐的。

在这里我想也想澄清一下,我们认为这其实是海外的个别学生组成的小团队所做的个人行为,它不代表像 Stanford 这样的学校。事件发生后,像 Stanford 的系主任,还有整个西方的同行都表达了非常正的一些观点。这让我们也更加坚定地相信开源的力量。

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片