CES 2026 人工智能(Artificial Intelligence)类 Best of Innovation在 CES 2026 上,来自 Deep Fusion AI 的 RAPA(Real-time Attention-based Pillar Architecture for 4D Radar Perception) 荣获 Artificial Intelligence 类别 Best of Innovation。该系统是一套完全基于 4D 成像雷达的实时 360° 感知软件架构,目标直指一个长期被认为“难以单独成立”的技术命题:仅依靠雷达,实现接近 LiDAR 级别的自动驾驶环境感知能力。
近年来,4D 成像雷达 被视为自动驾驶感知体系中的关键增量技术:
具备 距离、方位、俯仰 + 多普勒速度 的四维信息
全天候工作能力强,对雨、雾、雪、灰尘不敏感
成本显著低于高线数 LiDAR,更易规模化部署
然而,在算法层面,4D 雷达长期存在两个核心难题:
数据高度稀疏、噪声强
传统深度学习模型难以有效建模雷达信号特性
这导致雷达在多数系统中更多充当“辅助传感器”,而非主感知来源。
RAPA,正是为打破这一技术天花板而设计。
与“将雷达数据强行套用 LiDAR / Camera 网络结构”的思路不同,RAPA 的设计原则是:
从雷达信号本身出发,构建原生适配 4D 雷达的数据表达与深度学习架构。
其关键特征包括:
软件定义(software-defined)感知系统
100% 依赖多颗 4D 成像雷达
360° 全向覆盖
无需摄像头或 LiDAR 融合
这使 RAPA 成为一种真正意义上的 Radar-only Perception Solution。
RAPA 采用了专门面向雷达点云的 Pillar(柱状)表示方式,在空间上对雷达回波进行结构化编码,使其更适合深度网络处理。
与 LiDAR 点云相比,雷达点云具有:
点数更少
分布更不均匀
噪声与虚警更多
Pillar 架构在此基础上,引入了 针对雷达信号统计特性的优化过滤机制,显著提升有效信息密度。
RAPA 的核心算法是一套 基于注意力机制(Attention)的深度学习模型,其训练完全基于 Deep Fusion AI 的 自有 4D 雷达数据集。
注意力机制在这里承担的角色是:
动态区分 高价值回波 vs. 噪声回波
在稀疏数据中聚焦于 关键目标区域
提升在复杂场景下的鲁棒性
这种设计,使模型不再被动接受雷达的“原始不完美数据”,而是 主动学习雷达信号的物理与统计特性。
RAPA 充分利用了雷达区别于其他传感器的独特优势——多普勒速度信息。
通过速度维度,RAPA 能够:
精准区分静态目标与动态目标
在目标检测与跟踪阶段显著降低误检
在拥挤或弱纹理场景中保持稳定感知
在公开基准测试(public benchmarks)中,RAPA 在目标检测与跟踪任务上的整体准确率,相比同类方案提升超过 40%,这一提升主要来自对多普勒信息的深度建模与利用。
在性能之外,RAPA 的另一个关键价值在于 工程可落地性:
可在边缘嵌入式平台上高效运行
满足自动驾驶与机器人对 实时性(real-time) 的严格要求
不依赖高功耗 GPU 或昂贵传感器组合
这使其在成本、功耗与系统复杂度上具备明显优势。
虽然 RAPA 的核心应用场景是自动驾驶汽车(AV),但其雷达原生架构也天然适用于更多平台:
自动驾驶车辆(AV)
成本敏感型 L2+/L3/L4 系统
低能见度、复杂反射环境
室外全天候运行需求
无人水面艇(USV)
机器人与移动平台
在这些场景中,雷达往往比视觉更可靠,而 RAPA 则为其提供了“单独成立”的算法基础。
从行业角度看,RAPA 的意义不只是一次算法性能提升,而在于它验证了一个重要方向:
通过为雷达量身定制的数据表示与注意力模型,雷达可以成为主感知传感器,而非 LiDAR 的低配替代。
在自动驾驶产业面临 成本压力、规模化部署与冗余安全 多重挑战的当下,这一方向具有极强的现实价值。
RAPA 之所以能够获得 CES 2026 人工智能类 Best of Innovation,本质原因在于它完成了三件难度极高的事情:
正视雷达数据的缺陷,而非回避
在模型结构上真正“为雷达而设计”
在实时性、精度与成本之间取得工程级平衡
如果说过去的雷达感知更多是“补充视觉与 LiDAR 的保险层”,那么 RAPA 展示的,是雷达作为 独立、可规模化主感知方案 的现实可能性。
在自动驾驶、无人系统与机器人持续扩展的未来,这种 雷达原生 + 注意力驱动 的感知架构,极有可能成为下一阶段的重要技术分支。
“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)










