最火 AI 角色扮演流量已达谷歌搜索 20%:每秒处理两万推理请求,Transformer 作者公开优化秘诀

最火 AI 角色扮演流量已达谷歌搜索 20%:每秒处理两万推理请求,Transformer 作者公开优化秘诀
2024年06月21日 13:23 IT之家

什么 AI 应用每秒处理 20000 个 AI 推理请求,达到 2024 年谷歌搜索流量的 1/5

答案是独角兽 Character.ai,由 Transformer 作者 Noam Shazeer(后面简称沙哥)创办。

刚刚,沙哥公布了推理优化独门秘诀,迅速引起业界热议。

具体来说 Character.ai 在整个服务堆栈中实现了如下成绩:

  • 内存高效架构设计:将 KV 缓存大小减少 20 倍以上,而不会降低质量

  • Attention 状态缓存:95% 请求无需重算

  • 直接用 in8 精度量化训练:推理零损失还省显存

Character.AI 通过以上种种优化,已经把推理成本降低到最初的 1/33,如果用市场上最好的商业 API 来支撑这种级别的流量,成本会比现在高出 13.5 倍!

众多公布的方法中,原生 int8 训练是最受关注的。

虽然大多数技巧都来自公开研究,但是正如网友所说,知道如何把它们高效整合在一起实现的团队才是真正的护城河。

秘诀 1:高效利用显存,attention 参数量降低 20 倍

大模型的一大痛点是显存占用高,导致无法支持大批量推理。Attention 层中的 Key-Value (KV) 缓存便是罪魁祸首之一。

为了降低显存占用,Character.AI 在 Attention 层大动手术:

全面采用 MQA(Multi-Query Attention)

与大多数开源模型中采用的 GQA(Grouped-Query Attention)相比,将 KV 缓存大小减少了 8 倍。

而 MQA 正是沙哥本人 2019 年在谷歌期间提出的,有网友评价“当一个人能在生产环境中引用自己的论文,就达到了一个新的高度”。

混合注意力视野

将局部注意力与全局注意力层交织在一起,使用滑动窗口训练局部注意力,将复杂度从 O (length^2) 降低到 O (length)。

团队发现,将大多数注意力层的注意力范围减少到 1024 不会对评估指标产生重大影响,包括长上下文大海捞针基准。在 Character.ai 生产模型中,每 6 层中只有 1 层使用全局注意力

跨层 KV 共享

团队将 KV 缓存绑定在相邻的注意力层上,这进一步将 KV 缓存大小减少了 2-3 倍。

对于全局注意力,跨块绑定多个全局层的 KV 缓存,因为全局注意力层在长上下文用例中主导 KV 缓存大小,团队发现跨层共享 KV 不会降低质量。

下图中左半部分是标准 Transformer 设计,每个注意力都是全局注意力。右半部分为 Character.ai 的设计,蓝色框表示全局注意力,绿色框表示局部注意力,连线表示 KV 共享。

这一套组合拳下来,KV 缓存大小减少 20 倍以上,显存再也不是瓶颈了。

秘诀 2:巧用状态缓存,95% 请求无需重算

Character.AI 还有一招神来之笔,就是在不同对话之间缓存 Attention 状态

作为聊天机器人角色扮演服务,Character.AI 上大部分对话都是连续多轮的,平均每个对话包含 180 条消息。如果每次都要重新计算前面的状态,成本可想而知。

于是团队设计了一个缓存机制,把每个对话的 Prefix 和生成的消息都缓存在内存中,供后续调用。

借鉴 RadixAttention 的思路,树状结构的 LRU 缓存组织缓存的 KV 张量。缓存的 KV 值由前缀 token 的 Rolling Hash 速检索最长匹配的缓存,即使前缀只有部分匹配也能命中。

更妙的是,他们还用会话保持 (Sticky Session) 把同一对话路由到同一个服务器,进一步提高缓存命中率。最终做到 95% 的请求都能复用已有缓存,大幅降低了计算成本。

下图中,蓝色框表示主机内存上的缓存张量。绿色和黄色框表示 CUDA 内存上的 KV 缓存。当新查询到达时,它检索最长匹配前缀的 KV 缓存,Rolling Hash 系统允许检索部分匹配消息的缓存。

秘诀 3:直接量化训练,推理零损失还省显存

最后一招,Character.AI 没有采用常见的“训练后量化”,而是直接用 Int8 精度训练模型

这种格式虽然表达精度降低,但通过精心设计定制的矩阵乘和 Attention 内核,不仅把训练效率提高了好几倍,而且还能无损用于推理。

不过沙哥在这里暂时留了一手,表示“量化训练本身就是一个复杂的话题,将在以后的文章中继续讨论。”

沙哥其人

最后再来介绍一下传奇人物 Noam Shazeer 本人。

他 1994 年拿了信息学奥赛 IOI 金牌,后来毕业于杜克大学。

2000 年加入谷歌,当时全公司只有 200 人左右,他参与了谷歌搜索的拼写纠正功能,后来也负责过早期广告系统。

据知情人透露,在当初面试谷歌时,沙哥就被问到如何实现拼写纠正。他描述了一种根据其他用户的输入输入记录,进行统计验证的方法。

面试官 Gmail 之父 Paul Buchheit 意识到,沙哥的方案比谷歌当时使用的要好。沙哥成功入职之后就把他的面试方案写出来了。

在 Transformer 开山之作《Attention is All You Need》研究中,沙哥最后一个加入团队,一来就负责重新编写了整个代码。

在沙哥出手之前,Transformer 早期原型性能并没有超越当时流行的 LSTM 方案,是他把早期设计中的卷积等模块都拿掉,给出了一个极简主义方案。最终破了 BLEU 测试的记录,同时计算效率也更高。

队友用“他是一个巫师”来评价他的工程和代码能力。

除此之外,沙哥还有惊人的远见。在 Transformer 架构问世不久,他就给谷歌高层写信,提议公司放弃整个搜索索引,并用 Transformer 架构训练一个巨大的神经网络替代。

2021 年,沙哥离开谷歌后创办了 Character.AI,让玩家简单自创个性化 AI 陪聊,目前估值约 50 亿美元。

最近有消息称,Meta 与马斯克的𝕏都在争取与他们合作,把聊天机器人引入社交平台。

参考链接:

  • [1]https://research.character.ai/optimizing-inference/

  • [2]https://x.com/NoamShazeer/status/1803790708358410380

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片