来源:i黑马
![](http://n.sinaimg.cn/sinakd20240524s/88/w1080h608/20240524/b36f-da63a2a4f707e465c2faf8dbc8f81ea5.jpg)
Claude 3:李飞飞说得对。
大模型已经具备知觉?
AI教母李飞飞的最新回答旗帜鲜明:No。
![](http://n.sinaimg.cn/sinakd20240524s/202/w1080h722/20240524/2b23-dd59b6b82fcd09bbab2173d892ca23a7.png)
她和斯坦福逻辑学家、哲学家John Etchemendy刚刚发表一篇合著文章,标题很直接:
不,现在的AI没有知觉No, Today’s AI Isn’t Sentient. Here’s How We Know
文章中还写道:
我们还没有实现有知觉的人工智能,更大的语言模型也无法帮助我们实现这一目标。
我们不会在下一个版本的ChatGPT中偶然发现知觉。
![](http://n.sinaimg.cn/sinakd20240524s/619/w1080h339/20240524/c81c-ff6c7c81b68b133119cccecee4cf05bd.png)
这与图灵奖得主Yann LeCun的最新观点不谋而合。LeCun的言论还要更犀利一些:
自回归大语言模型不足以达到人类的智力水平(甚至达不到猫的智力水平)。
![](http://n.sinaimg.cn/sinakd20240524s/274/w1080h794/20240524/8deb-025d4eafd91b684b9887ccefdbbdb7ad.png)
两位大拿同时发声,使得围绕AI知觉的争议话题再度发酵,不少网友已经第一时间加入论战,be like:
![](http://n.sinaimg.cn/sinakd20240524s/518/w1080h238/20240524/adef-9f7fa9d18ce3061f2862d9837b88ceae.png)
![](http://n.sinaimg.cn/sinakd20240524s/632/w1080h352/20240524/20fe-37f5beb0a2ae64408f8fcbc8a2b62f73.png)
那么,在聆听你的观点之前,我们先留下一些思考的时间,一起来看看李飞飞文章具体内容——
01不,现在的AI不具备知觉
通用人工智能(AGI)是一个术语,用于描述在人类所能展示的智能的所有维度上,至少和人类具备同等水平的人工智能体。
之所以需要添加“G”,是因为由AI驱动的系统激增,但它们只专注于单一或极少数任务。IBM的“深蓝”可以击败世界冠军卡斯帕罗夫,但即使房间着火,它也不能理解是时候停止下棋了。
现在,通用智能有点像一个神话,至少如果我们自命不凡地认为我们拥有它的话。
在动物世界中可以找到大量智能行为的例子,其结果远远好于人类在类似任务上取得的成果。这么说吧,我们的智力不是完全通用的,但足够通用,足以使我们在大多数环境中完成自己想做的事。
如果我们饿了,我们会去找当地的超市。如果房间着火,我们会去找逃生出口。
通用智能的基本特征之一是“感知力”,即拥有主观体验的能力。知觉是通向通用智能的关键一步。
随着ChatGPT的发布,大语言模型(LLM)时代已经拉开序幕。这立即引发了关于这些算法是否真的具备知觉的激烈争论。
基于LLM的人工智能可能具备的知觉,不仅引发了媒体的狂欢,也深刻地影响到了全球范围内对如何监管AI的态度。
最突出的观点是,“有知觉的AI”的出现可能对人类极其危险,会带来“人类灭绝”、“生存危机”。
毕竟,有知觉的AI可能会发展出自己的欲望,人类无法保证它们不与我们发生冲突。
这篇短文源于一次群聊,目的是反驳LLM可能已经获得知觉的论点。这并不完整全面。我们的主要观点是反对“有知觉的AI”阵营提供的最常见的论点。
02为什么有些人相信AI已经获得知觉
在过去几个月里,我们俩与AI领域的许多同事进行了激烈的辩论和对话,其中包括与一些最著名AI科学家的一对一对谈。
AI是否具有知觉一直是一个焦点话题。他们中的一小部分人坚信事实确实如此。以下是其中一位代表的观点:
人工智能是有知觉的,因为它具有主观体验。主观体验是意识的标志,特点是声称知道自己所知道或经历的事情。比如,当一个人说“我有吃完一顿大餐后感到幸福的主观体验”时,这个人是具备意识的。其实没有什么直接证据能证明主观体验。但如果你传达了这一点,从表面上看,你就是有意识的。现在,让我们对大模型应用相同的“规则”。就像没办法知道一个人究竟在想什么,我们无法访问大模型的内部状态,但可以质疑它的主观体验。现在大模型可以明确地分享“主观体验”,比如看到红色是什么感觉。因此,我没有理由怀疑它不具备意识,就像我没有理由怀疑一个人没有意识一样。
03为什么他们错了
这乍一看很有道理,但这个论点是错误的。两种情况完全不可同日而语。
当你说“我饿了”时,你正在经历饥饿,而我判断你的主观体验是基于大量的事实证据。
首先,是你说的话,也许还有一些其他行为证据,比如肚子的咕咕声。
其次,没有相矛盾的证据,比如你其实刚吃完一顿四菜一汤的大餐。
最后,也是最重要的一点,你我拥有一样的肉体,需要周期性地进食进水,冷时冷,热时热,等等。
而大模型呢?它可以产生一串音节说“我饿了”,但相似之处到此为止。大模型没有身体,根本就不会挨饿。它不具备饥饿所需要的生理机能。
所有的感觉——饥饿、疼痛、坠入爱河,都是大模型根本不具备的生理状态导致的结果。因此大模型不可能对这些状态有主观体验。换句话说,它不可能有感知力。
大模型是在芯片上编码的数学模型,并非如人类一样的具体存在。它没有需要进食、饮水、繁殖、经历情感、生病并最终死亡的“生命”。
理解人类如何生成单词序列,和大模型如何生成相同序列之间的深刻差异非常重要。
当我说“我饿了”时,我是在报告我感知到的生理状态。
当LLM生成“我饿了”这个序列时,它只是在生成当前提示中单词序列最可能的补全。这是概率补全。
我们还没有实现有知觉的人工智能,更大的语言模型也不会让我们实现这一目标。
如果我们想在AI系统中实现知觉,我们需要更好地了解知觉到底是如何在生物系统中产生的。
我们不会在下个版本的ChatGPT中偶然发现知觉。
04One More Thing
本文翻译主要由Claude 3完成,于是人类编辑也把这个话题抛给了Claude 3。
Claude 3表示:李飞飞说得对。
![](http://n.sinaimg.cn/sinakd20240524s/61/w1080h581/20240524/a223-7bd58cfa3a51dbc6e1b2d2345f51237e.png)
![新浪科技公众号 新浪科技公众号](http://n.sinaimg.cn/tech/content/tech_qr2x.png)
“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)
![](http://n.sinaimg.cn/tech/content/tech_weixin2.png)