在图像生成领域占据主导地位的扩散模型,开始挑战强化学习智能体。
世界模型提供了一种以安全且样本高效的方式训练强化学习智能体的方法。近期,世界模型主要对离散潜在变量序列进行操作来模拟环境动态。
然而,这种压缩为紧凑离散表征的方式可能会忽略对强化学习很重要的视觉细节。另一方面,扩散模型已成为图像生成的主要方法,对离散潜在模型提出了挑战。
受这种范式转变的推动,来自日内瓦大学、爱丁堡大学、微软研究院的研究者联合提出一种在扩散世界模型中训练的强化学习智能体 —— DIAMOND(DIffusion As a Model Of eNvironment Dreams)。
![](http://n.sinaimg.cn/spider20240523/711/w1080h431/20240523/565b-b86cf47fb6be7a00c0d54b9ccc25db4a.png)
论文地址:https://arxiv.org/abs/2405.12399
项目地址:https://github.com/eloialonso/diamond
论文标题:Diffusion for World Modeling: Visual Details Matter in Atari
DIAMOND 在 Atari 100k 基准测试中获得了 1.46 的平均人类归一化得分 (HNS),可以媲美完全在世界模型中训练的智能体的 SOTA 水平。该研究提供了定性分析来说明,DIAMOND 的设计选择对于确保扩散世界模型的长期高效稳定是必要的。
此外,在图像空间中操作的好处是使扩散世界模型能够成为环境的直接替代品,从而提供对世界模型和智能体行为更深入的了解。特别地,该研究发现某些游戏中性能的提高源于对关键视觉细节的更好建模。
方法介绍
接下来,本文介绍了 DIAMOND, 这是一种在扩散世界模型中训练的强化学习智能体。具体来说,研究者基于 2.2 节引入的漂移和扩散系数 f 和 g,这两个系数对应于一种特定的扩散范式选择。此外,该研究还选择了基于 Karras 等人提出的 EDM 公式。
![](http://n.sinaimg.cn/spider20240523/608/w562h46/20240523/2aed-d36f0ae2644964e5dd55ec7666630ac4.png)
,其中, 是一个与扩散时间相关的实值函数,称为噪声时间表。这对应于将漂移和扩散系数设为
接着使用 Karras 等人(2022)引入的网络预处理,同时参数化公式(5)中的,作为噪声观测值和神经网络预测值的加权和:
![](http://n.sinaimg.cn/spider20240523/366/w1080h86/20240523/aba1-765c031267ba27324d286b86007caac2.png)
得到公式(6)
![](http://n.sinaimg.cn/spider20240523/341/w1062h79/20240523/927e-e32e79e8988fecc22da4e14f8dcfb928.png)
其中为了简洁定义,
![](http://n.sinaimg.cn/spider20240523/57/w1080h577/20240523/1cf2-cb5c18f12bd3e11cd31cba7a1b67054d.png)
预处理器的选择。选择预处理器
下的单位方差。 是噪声水平的经验转换, 由 和数据分布的标准差 给出,公式为
结合公式 5 和 6,得到训练目标:
![](http://n.sinaimg.cn/spider20240523/368/w1039h129/20240523/8157-0c12016967685542c89141850c4c27f0.png)
该研究使用标准的 U-Net 2D 来构建向量场,并保留一个包含过去 L 个观测和动作的缓冲区,以此来对模型进行条件化。接下来他们将这些过去的观测按通道方式与下一个带噪观测拼接,并通过自适应组归一化层将动作输入到 U-Net 的残差块中。正如在第 2.3 节和附录 A 中讨论的,有许多可能的采样方法可以从训练好的扩散模型中生成下一个观测。虽然该研究发布的代码库支持多种采样方案,但该研究发现欧拉方法在不需要额外的 NFE(函数评估次数)以及避免了高阶采样器或随机采样的不必要复杂性的情况下是有效的。
实验
为了全面评估 DIAMOND,该研究使用了公认的 Atari 100k 基准测试,该基准测试包括 26 个游戏,用于测试智能体的广泛能力。对于每个游戏,智能体只允许在环境中进行 100k 次操作,这大约相当于人类 2 小时的游戏时间,以在评估前学习玩游戏。作为参考,没有限制的 Atari 智能体通常训练 5000 万步,这相当于经验的 500 倍增加。研究者从头开始在每个游戏上用 5 个随机种子训练 DIAMOND。每次运行大约使用 12GB 的 VRAM,在单个 Nvidia RTX 4090 上大约需要 2.9 天(总计 1.03 个 GPU 年)。
表 1 比较了在世界模型中训练智能体的不同得分:
![图 2 中提供了平均值和 IQM( Interquartile Mean )置信区间:](http://n.sinaimg.cn/spider20240523/348/w1080h868/20240523/0d2d-33791e2f7dc5a99720616a312b55e50a.png)
![](http://n.sinaimg.cn/spider20240523/192/w1080h712/20240523/c596-7fb6abf55e465bd2e85f1ce98273c616.png)
结果表明,DIAMOND 在基准测试中表现强劲,超过人类玩家在 11 个游戏中的表现,并达到了 1.46 的 HNS 得分,这是完全在世界模型中训练的智能体的新纪录。该研究还发现,DIAMOND 在需要捕捉细节的环境中表现特别出色,例如 Asterix、Breakout 和 Road Runner。
为了研究扩散变量的稳定性,该研究分析了自回归生成的想象轨迹(imagined trajectory),如下图 3 所示:
![该研究发现有些情况需要迭代求解器将采样过程驱动到特定模式,如图 4 所示的拳击游戏:](http://n.sinaimg.cn/spider20240523/10/w1080h530/20240523/db0c-8772d6b3686e8c38b91a07fbd5972833.png)
![如图 5 所示,与 IRIS 想象的轨迹相比,DIAMOND 想象的轨迹通常具有更高的视觉质量,并且更符合真实环境。](http://n.sinaimg.cn/spider20240523/744/w1080h464/20240523/03ac-021b7eaeae3cd2cf2f058a933ec046e7.png)
![](http://n.sinaimg.cn/spider20240523/143/w1080h663/20240523/5915-59d24e5f729a7e954837b91cab31ce35.png)
感兴趣的读者可以阅读论文原文,了解更多研究内容。
为了挖掘和展示人工智能领域具有市场竞争力、技术实力的机构、产品、案例,形成 “鸿雁” 引领效应,机器之心发起 2024 “人工智能 +” 标杆示范征集活动。本次征集将设置《2024 “人工智能 +” 产品标杆》、《2024 “人工智能 +” 创新案例标杆》、《2024 人工智能隐形冠军企业标杆》三大维度,面向全球征集 “人工智能 +” 标杆示范。本次征集结果将于 7 月在 2024 WAIC “人工智能 +” 论坛上公布并进行颁奖。本次征集截至 2024 年 6 月 7 日,最终结果将于 7 月在世界人工智能大会上公布并颁奖。
![新浪科技公众号 新浪科技公众号](http://n.sinaimg.cn/tech/content/tech_qr2x.png)
“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)
![](http://n.sinaimg.cn/tech/content/tech_weixin2.png)