研究表明 AI 能独立自发组成社会,形成自己的规范和习俗

研究表明 AI 能独立自发组成社会,形成自己的规范和习俗
2025年05月18日 14:43 IT之家

IT之家 5 月 18 日消息,伦敦大学城市学院与哥本哈根信息技术大学研究发现,当 AI 在没有外界参与的情况下,也可以自发地形成类似人类的社会习俗。

在实验中,科学家将目前全球流行的 AI 智能体置于一个去中心化的交流环境中,模拟人类社会的群体互动场景。他们将 AI 模型分成不同规模的小组,每组从 24 个到 200 个不等。

通过长时间的互动观察发现,这些 AI 模型能够自发地形成共同的行为约定和社会习俗,而这一切完全是在没有任何中央协调和预定义规则的情况下实现的。

相关研究成果已于 5 月 14 日发表在《Science Advances》杂志上。

主要作者、伦敦大学城市学院博士研究员阿里尔・弗林特・阿舍里(Ariel Flint Ashery)指出:“现有研究大多孤立考察单个 LLM 智能体,但现实中的 AI 系统将日益涉及多方互动。我们的实验证明这些模型能够通过形成约定实现行为协调,这种群体性特征无法从个体行为中推导得出。”

研究团队发现 AI 群体的行为扩散过程与人类社会的语言演变存在相似性。“智能体并非照搬领导者行为”,另一位作者、复杂系统科学教授安德里亚・巴隆切利(Andrea Baronchelli)解释道。

在实验中,随机配对的 AI 智能体需从候选池中选择相同“名称”(字母或字符串)才能获得奖励,若选择不一致则会遭受惩罚并被公布对方选择结果。尽管每个智能体仅掌握自身近期交互记录且不了解群体全貌,但仍能够自发形成一种“潜规则”来共享命名规范。

“每次交互都是两个智能体尝试达成共识的过程。每次交互都是一对一的尝试,在没有全局视角的情况下就‘名称’达成一致。”

他认为,这就类似于“垃圾邮件”这个词的诞生。从来没有人正式定义过所谓的“垃圾邮件”,但其概念却随着人们彼此接触、反复协调而逐渐获得普遍认同。此外,研究小组还观察到自然形成的集体偏见无法追溯到个体因素。

这些 AI 模型在交流过程中表现出了类似人类社会中的行为模式。它们会就共同的行为规范进行协商和调整,甚至会出现分歧和争议,但最终能够达成共识,形成一种类似人类文化中自下而上形成的“道德”或习俗。然而,这些由 AI 群体自发形成的“道德”和习俗并非不可改变。实验中发现,当一小群坚定的 AI 模型出现时,它们能够迅速改变原有的群体约定,并制造出新的规则。

随着 AI 技术的快速发展,越来越多的 AI 模型被应用于各个领域,其行为和决策将对人类社会产生深远影响。科学家称,研究了解 AI 群体的“社会性”特征,能够帮助人类更好地理解和控制 AI 的发展方向,确保 AI 技术始终服务于人类的利益,而不是反过来主导人类的未来。

伦敦大学
新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片