计算机程序可以生成很像真随机的「伪随机数」,而 LLM 表示,干脆不装了,我就有自己最喜欢的数。
![](http://n.sinaimg.cn/spider20240628/743/w1080h463/20240628/b3a7-cfa278d92dc0f13053e082d1b77cd4a5.png)
计算机程序中,「随机」是一个常见的概念。
由于生成真正的随机数过于昂贵,所以 Python、Java 等语言都内置了「伪随机数生成算法」。虽然生成的数字序列是完全可预测的,但它看起来就像是真正的随机数。
一个好的随机数生成器会以相等的概率选择给定范围内的所有数字。这和人类选择随机数的思维过程完全不同。
比如,我们会故意避开 5 和 10 的倍数,也不会选择 66 和 99 这样重复的数字,而且几乎从不选择 0、1 和 100,因为它们看起来「不够随机」。
最近,一群工程师突发奇想:LLM 会怎样输出随机数?
于是他们做了一个非正式的实验,让 GPT-3.5 Turbo、Claude 3 Haiku 和 Gemini 1.0 Pro 三个模型从 0-100 中选择随机数,并将实验结果和源代码都公布了出来。
总体而言,他们的发现是:即使是在生成随机数这种琐碎的数理任务上,LLM 还是学习到了人类的偏好和思维习惯。
模型的这种「类人」行为让工程师和科技媒体都非常吃惊。他们在标题中都使用了「最喜欢的数」这种描述,仿佛 LLM 真的发展出了自我意识。
![https://gramener.com/llmrandom/](http://n.sinaimg.cn/spider20240628/638/w1080h358/20240628/1579-3283ba7ad03e0753259495f59bbd3174.png)
![https://gramener.com/llmrandom/](http://n.sinaimg.cn/spider20240628/545/w1080h265/20240628/e731-03d91e47a08d65974dcc13d73109c431.png)
甚至文章的最后,实验者呼吁「LLM 心理学」的研究来解释一下模型在试验中体现出的行为偏好。
那么就详细看看,实验的结果究竟如何?
LLM 的数字喜好
由于 LLM 的温度设置会影响输出的随机性,因此 3 个模型的温度被调到 0.0,0.1,・・・,0.9,1.0 这 10 个值分别进行实验。
虽然温度升高会不断拉平各个数的出现频率,但即使设为 1.0 时,LLM 还是表现出了和温度最低时相同的偏好。
![](http://n.sinaimg.cn/spider20240628/227/w1080h747/20240628/708c-d52bc881659a792e61ef6b25777ec050.png)
GPT 在去年 10 月的实验中最喜欢 42,但今年它「见异思迁」,变成了最喜欢 47。
![](http://n.sinaimg.cn/spider20240628/466/w1080h186/20240628/47ed-f387a1f92ebe894b770f095a5e81c7db.png)
而 Claude 和去年的 GPT 一样,最喜欢 42。实验者们猜测,或许是因为 Anthropic 使用了 GPT-3.5 来训练 Claude 3 Haiku,因此培养出了相似的「品味」。
![](http://n.sinaimg.cn/spider20240628/466/w1080h186/20240628/84fe-7c4b606e300629310edf89f877ca5de8.png)
Gemini 最喜欢的是 72(这个数有什么特别的吗?)
![](http://n.sinaimg.cn/spider20240628/466/w1080h186/20240628/4c8c-fac8ed8620c8241a53ee6afc4278e28d.png)
将 3 个模型的所有输出放在一起,可以看到其中几个数有非常明显的领先优势,也可以很好地反映人类的偏好。
![](http://n.sinaimg.cn/spider20240628/466/w1080h186/20240628/1137-2037feef7581717809f4144ac831a84a.png)
42 是第二受欢迎的数,因为风靡世界的《银河系漫游指南》让这个数有了特别的含义。
37、47、57、67、77 等以 7 结尾的数都很受欢迎,在人类眼里这些数也会显得更「随机」。
有重复数字的数、小于 10 的数,以及 5 或 10 的倍数都很少见。
但也有一些行为很难解释,比如 56 和 73 这两个数得到了 3 个模型的一致青睐。
AI 越来越像人类?
不仅仅是生成随机数,最近的很多研究发现,LLM 的思维和认知似乎越来越向人类靠近。
南加州大学最近一篇的论文发现,要引导 LLM 产生意识形态倾向,是一件非常简单的事情。
![https://arxiv.org/abs/2402.11725](http://n.sinaimg.cn/spider20240628/593/w1080h313/20240628/f875-7f003916b3e8de2058340b5b097f21aa.png)
论文作者表示,LLM 的训练数据有政治偏见已经不算新鲜事了。他们的研究仅仅让模型在微调过程中接触 100 条数据,就可以注入新的偏见,并改变模型的行为。
而且,ChatGPT 似乎比 Llama 更容易受到偏见的操控和影响。
这篇论文在 ICLR 的「安全可信的大型语言模型」研讨会上获得最佳论文奖亚军。
另一篇 NAAC 今年接收的论文则研究了 LLM Agent 的社交互动,却得出了几乎相反的结论。
![https://arxiv.org/abs/2311.09618](http://n.sinaimg.cn/spider20240628/593/w1080h313/20240628/4ed4-c24d920e997e69e613935e2bfa385c44.png)
他们发现,在默认情况下,LLM 并不会很像人类。但如果明确诱发人类的认知偏见,情况就发生变化了。
首先,他们构建了 10 个有不同初始观点的 LLM Agent,有些被定义为气候活动家,有些被初始化为否定气候变化的存在。
这些 Agent 被放在同一个社交网络中,并参与 100 次二元交互 —— 写推文,并阅读其他人的推文。
![](http://n.sinaimg.cn/spider20240628/398/w680h518/20240628/a6a0-81beca69a63a5e06061f87dbb77f880f.png)
经过了 100 次互动后,所有 Agent 的观点都倾向于承认气候变化的存在。
![](http://n.sinaimg.cn/spider20240628/163/w680h283/20240628/1d0c-155f654501353094ab715dcf1882b15b.png)
即使有些 Agent 被初始化为气候变化阴谋论的信徒,它们最终还是会倾向于否认阴谋论。
![](http://n.sinaimg.cn/spider20240628/342/w680h462/20240628/a645-f97cbaaee58c77a413c8ff6696734951.png)
为了排除训练数据的观点对这些 LLM 的影响,论文又在更广泛的话题上做了类似的实验,包括科学、历史和常识,但实验结果依旧保持一致 ——
LLM 总是倾向于认可真相、拒绝虚假信息。
![](http://n.sinaimg.cn/spider20240628/254/w680h374/20240628/6543-d47f9d5712121445b3f23494cd604080.png)
这似乎说明,LLM 有一种固定的对真相的偏好,并不像南加大论文中所表现的那样,容易被操纵观点。
此外,Agent 之间的交互所引发的意见动态变化,和人类社会的实际情况也并不相像。
难道,我们真的需要「LLM 心理学」,来解释这些模型的行为?
参考资料:
https://techcrunch.com/2023/12/21/against-pseudanthropy/
https://techcrunch.com/2024/05/28/ai-models-have-favorite-numbers-because-they-think-theyre-people/
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。
![新浪科技公众号 新浪科技公众号](http://n.sinaimg.cn/tech/content/tech_qr2x.png)
“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)
![](http://n.sinaimg.cn/tech/content/tech_weixin2.png)