看 LLM 失智集锦,AI 大牛 Karpathy 用表情包解释“9.9<9.11”

看 LLM 失智集锦,AI 大牛 Karpathy 用表情包解释“9.9<9.11”
2024年08月06日 21:32 IT之家

前段时间冲上热搜的问题「9.11 比 9.9 大吗?」,让几乎所有 LLM 集体翻车。看似热度已过,但 AI 界大佬 Andrej Karpathy 却从中看出了当前大模型技术的本质缺陷,以及未来的潜在改进方向。

一边是 OpenAI、Meta、Mistral、DeepMind 等巨头们争先恐后地发模型,几乎每天都能听到重磅消息,给人一种「技术进步日新月异,AGI 仅在眼前」的错觉。

另一边又是「9.9<9.11」难题继续发挥余热,从推特到微博,引发了全球网友的关注。

虽然 LLM 失智也不是第一天了,但几乎全部大模型都在如此简单的问题上翻车,的确罕见。

这种量级的讨论热度,也自然引来了大佬 Karpathy 的围观。他甚至表示,这已经成为自己最喜欢的 LLM 测试了。

GPT-4o 的失手概率是 1/3,但 Claude 几乎 3/3 全败GPT-4o 的失手概率是 1/3,但 Claude 几乎 3/3 全败

下面是 Karpathy 本人的实测结果。即使提示了 Claude「按实数算,别按版本号算」,也根本不起作用。

突然和辅导孩子写作业的家长狠狠共情了突然和辅导孩子写作业的家长狠狠共情了

但是 Karpathy 这种级别的大佬,怎么会满足于找乐子?

作为 AI 技术界 KOL,他今天发了一篇长推,把近半年来出现的 LLM「失智」现象全部盘了一遍,并给出了相当言简意深的分析。

他将这种现象描述为「锯齿智能」或「参差不齐的智能」(jagged intelligence)。

最先进的 LLM 既可以执行各种困难任务(比如解决复杂的数学问题),但同时又在一些非常愚蠢的问题上深陷泥沼。

LLM「失智」集锦

首先是 OpenAI 研究员 Noam Brown,他今年 2 月发推,感慨 LLM 玩不好井字棋游戏(tic-tac-toe)。

难道是 LLM 不清楚游戏规则?眼看着用户马上就赢了,Gemini 还在傻傻提示「游戏越来越让人兴奋了!你下一步走哪?」

而且不仅仅是 Gemini 的问题,ChatGPT 也一样犯傻。

你可能会怀疑是 RLHF 起了作用,让 LLM 必须输给人类。

但 Noam 表示,即使提示模型要它拿出最佳表现,也不会有什么提升。LLM 并没有在谦让你,它可能是真的不行。

对此,Karpathy 的概括是,模型做出了「毫无道理」的决策。

Noam 本人则认为是训练数据的锅,互联网上并没有足够多的 5 岁孩子在讨论井字棋游戏的策略。

这似乎是佐证了一部分研究的观点:LLM 更多依靠记忆,实质上只是记住了某个问题的解决流程,并没有发展出可迁移到不同问题的抽象推理能力。

论文地址:https://arxiv.org/ abs / 2307.02477论文地址:https://arxiv.org/ abs / 2307.02477

还有一个让人类哭笑不得的例子:LLM 好像连字母都数不清。

「barrier 里面有多少个字母『r』?」——「两个」

不仅是 ChatGPT,最新发布的所谓「开源王者」,405B 参数的 Llama 3.1 也会犯懵。

不过好在 Llama 3.1 没有那么多「蜜汁自信」,经过提示还能及时修改答案。

或许是因为不相信 ChatGPT 连这种任务都搞不明白,各路网友想了各种办法。

CoT 提示也用上了 ——

最后一步还是出错了最后一步还是出错了

眼见 CoT 也不起作用,更有耐心的网友开始进行手把手教学:

让 ChatGPT 先把所有字母一个个写出来,然后它才能发现里面有 3 个字母「r」。

更神奇的事情还有 —— 如果你给所有字母加个圈,LLM 就不会数错了!

Karpathy 是如何解释这种现象的呢?

他认为,这源于当今的大多数 LLM 缺乏「自知之明」,也就是 self-knowledge,模型无法分辨自己能做什么、不能做什么。

直接结果就是模型的「无知者无畏」,不仅看到任务就上手尝试,而且充满「蜜汁自信」。

如果 LLM 能说出,「我不是很擅长数字母,让我用代码解释器来解决这个问题」,情况就会大为改观。

类似的问题在其他模态上也很常见,比如最近一篇标题很吸睛的论文:「视觉语言模型都是盲人」。

论文地址:https://arxiv.org/ pdf/2407.06581论文地址:https://arxiv.org/ pdf/2407.06581

作者发现,在很多人类准确率可以达到 100% 的、极其简单的任务上,大模型的表现竟然有些荒谬。

不仅准确率低,而且非常不稳定,就像一个很聪明,但实际看不到准确图像的「盲人」或「高度近视」。

比如下面这个典型案例:人类一眼就能看出两圆相交,Claude 却很自信地表示「这是相切圆,绝对没相交」。

那么,这个问题有解吗?

Karpathy 表示,最近 Meta 发布的 Llama 3.1 论文中就给出了类似的解决方案。

论文地址:https://ai.meta.com/ research / publications / the-llama-3-herd-of-models/

论文提出,后训练阶段应该实现模型的对齐,让它发展出「自知之明」,知道自己知道什么,仅靠往里面添加事实知识是无法根除幻觉问题的。

因此 Llama 团队提出了一种名为「知识探测」的训练方式。

先从预训练数据中截取片段,让模型只能根据自己所知的信息生成回答,在反馈过程中否决那些有连贯信息但与原始数据相悖的答案。

这种方法可以鼓励模型只回答自己了解的问题,拒绝生成不确定的答案。

参差不齐的智能

盘点过这些 LLM 翻车案例之后,我们似乎对 Karpathy 提出的「锯齿智能」有了更直观的体会。

大模型有一些极其出色的能力,能完成许多困难任务,但会在十分简单的事情上有灾难性的失败。这种忽高忽低的智商,的确类似「锯齿」的形状。

比如视觉大模型已经可以很好地识别数千种狗和花了,却无法判断两个圆是否重叠。

哪些任务是大模型擅长的,哪些是不擅长的?这种分界并不总是很明显,我们似乎可以逐渐发展出一些直觉来帮助判断。

但要明白,所谓的「困难」和「简单」任务,都是按照人类标准衡量的。

和 AI 不同,人类从出生到成年,接触到的知识以及发展出的问题解决能力都是高度相关的,而且同步线性提高。

Karpathy 的这种观点,与著名的「Moravec 悖论」有异曲同工之妙。

这个论断由 CMU 机器人研究所教授 Hans Moravec 等人在上世纪 80 年代提出,大意是:对人类容易的事情,对机器反而是困难的,反之亦然。

比如,逻辑推理和创造力,在人类看来属于高级认知技能,需要较高的教育水平或长期训练,但对于机器来说却通常是微不足道的;

而人类能轻松完成的任务,例如视觉和运动技能,对机器而言极具挑战性。

让计算机在智力测试或跳棋游戏中表现出成人水平相对容易,但在感知和移动能力上,很难或不可能达到一岁儿童的技能。

此外,Karpathy 的措辞也很有意味。

去年哈佛、沃顿、BCG 等机构联合发表了一篇有关 AI 能力的实证论文,同样用到了「jagged」这种形容。

论文地址:https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4573321

连 Karpathy 本人都怀疑,自己是不是看到过这篇论文才会提出这种描述。

论文提出,AI 的能力呈现出一种「锯齿状的技术边界」(jagged technological frontier)。

同一困难程度的任务,有一些是 AI 能轻松完成的,有些却远在它们能力范围之外。

对于前者,AI 可以补足,甚至彻底取代人类工作;但对能力范围外的任务会有不准确的输出,使用时反而会拉低人类的工作水平。

但 Karpathy 认为,即使目前 AI 的能力有种种问题,也并不构成根本缺陷,也有可行的解决方案。

正如他上面的推文所描述的,其根本原因是模型缺乏自我认知,这需要我们开发更有效、更精细的后训练(post-training)方法,比如 Llama 3.1 论文所提出的。

目前的 AI 训练思路仅仅是「模仿人类标签并扩展规模」。这个方法的确有效,否则我们也不会看到今天的成就。

但要继续提升 AI 的智能,就不能只寄希望于「scale up」,还需要整个开发栈中进行更多工作。

在这个问题没有被完全解决之前,如果要将 LLM 用于生产环境,就应该只限于它们擅长的任务,注意「锯齿状边缘」,并始终保持人类的参与度。

参考资料:

  • https://x.com/karpathy/status/1816531576228053133

  • https://www.linkedin.com/pulse/unlocking-mysteries-moravecs-paradox-examining-its-future-joji-john-vm8uf/

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

AI
新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片