Google 又一次发布了 Google Glass ,这次想帮你把 Gemini 与 Nano Banana 戴在头上

Google 又一次发布了 Google Glass ,这次想帮你把 Gemini 与 Nano Banana 戴在头上
2025年12月09日 04:27 极客公园

真正的 AI ,距离眼镜还有多远?

作者|张勇毅

如果你今年一直在密切关注 AI 眼镜/AI 硬件领域的大厂动态,那你肯定对 Google I/O 期间 DeepMind 发布的 Project Astra AI 项目演示印象深刻。

在这个惊艳的 Demo 中,Google 展示了一个极其超前的原型概念:戴上一款 AR 眼镜,借助其中的 AI 能力,它不仅能帮助你理解现实世界中的各种元素,还能帮你记下现实中的各种信息,甚至提醒你某一样具体的物件放在了哪个位置。这一技术在发布后立即惊艳全场,被认为是 AR 眼镜在技术上的一次新突破,但其实同样可以被看作是 Google 过去近十年在增强现实技术领域投入的缩影。

而在今天刚刚举行的 Google The Android Show 特别节目中,这一愿景终于迎来了真正的落地时刻。

和去年一样,今年 Google 仍然对 Android XR 寄予厚望,强调这不仅仅是一个操作系统,它是一个跨越设备形态的统一平台。

据 Google AR/XR 副总裁 Shahram Izadi 在发布会中强调,Google 将 XR 设备定义为一个广阔的「光谱」:从轻若无物、主打全天候佩戴辅助的 AI 眼镜,到融合了两者的有线 XR 眼镜,最后才是算力强大、沉浸感极致的 VR 头显。

在这个光谱中,Gemini 不再仅仅是一个聊天机器人,它是整个生态系统的「粘合剂」和核心交互界面。它让 XR 设备真正有能力,从「个人设备」转变为赋予用户「超能力」的延伸感官。

显然,在这个战略之下,最让人感到兴奋,也是最能体现 Google 差异化策略的,并非传统类似 Apple Vision Pro 那样的重型头显,而是那些试图让技术彻底「隐形」的轻量化设备。

01

AI 眼镜:时尚优先,让技术「隐形」

在整个目前的 XR 设备生态中,Google 对 AI 眼镜的策略也称得上相当激进;因为不同于以往科技巨头对硬件堆料的执着,Google 这次避开了笨重的「赛博朋克」式科技感,选择了完全拥抱时尚。正如 Shahram 在视频中掷地有声的宣言:「我们的 AI 眼镜首先必须是眼镜。这意味着它们必须轻便、时尚,适合全天佩戴。」

这倒是与今年国内 AI 眼镜行业里出现最多的那句话「AI 眼镜首先得是一只好看的眼镜」不谋而合。

为了实现这一目标,Google 也并没有选择闭门造车,而是宣布与全球顶尖的眼镜品牌 Warby Parker 和 Gentle Monster 达成深度合作。同时公布了 Google AI 眼镜的原型机。

Gentle Monster 在发布会中表示,他们希望挑战传统的认知,创造出不仅提供连接,更能激发惊奇感的时尚单品。Google 的技术专长在于让复杂的科技「消失」在精美的镜框之中。

按照规划, Google 未来将推出两种形态的 AI 眼镜:一种是类似 Ray-Ban Meta 的纯音频/摄像头版,专注于语音交互和捕捉生活;另一种则是集成了 Micro-LED 或 Micro-OLED 投影的显示版 AI 眼镜(Display Smart Glasses),能够在不阻挡视线的前提下私密地显示信息。

在 The Android Show 的实机演示环节,Google 也展示了这种轻量化设备的潜力,尤其是 Gemini 多模态能力的实际应用。演示者戴着原型机走进休息区,目光落在桌上一包陌生的零食上,随口问道:「这是什么?」Gemini 几乎在瞬间识别出这是韩国流行的食物,同时还详细解释了它独特的吃法——捏碎面饼并撒上调料粉。这不仅仅是视觉搜索,更是一种对现实世界的深度理解。

更有趣的是 Nano Banana 的端侧图像编辑模型演示:当你对着面前的朋友拍了一张照片,然后通过语音指令:「给每个人加上全套身体的 Android 机器人特效,还要戴墨镜。」在毫秒之间,AI 就在眼镜的视野中生成了有趣的增强现实图像。

为了证明这不仅仅是极客的玩具,Google 还展示了与旅游平台 Get Your Guide 的合作案例。在一个名为「寻找纽约最好吃的热狗」的旅程中,AI 眼镜成为了比智能手机更沉浸体验的向导。

当游客在复杂的街道上寻找集合点时,眼镜直接在视野中标记出路径;当面对究竟「热狗算不算三明治」这种存在主义哲学问题时,Gemini 也能即时加入讨论。甚至在 Uber 的演示中,当用户抵达繁忙的机场路边,眼镜能直接显示车辆的实时位置、车牌号,并引导用户精准找到司机。

这种仅仅通过「抬头」这一动作就能完成的交互,让用户既能获取数字信息,又能保持与现实世界的连接,真正做到了让计算如影随形。

当然,为了支撑这些体验,开发者生态至关重要。Google 今天也发布了全新的 Glimmer UI 工具包,这是 Jetpack Compose 的一部分,专门针对眼镜进行了优化。它引导开发者避免使用在透明屏幕上会「消失」的黑色背景,转而使用高对比度的卡片式 UI。

此外,新的 Projected Library 允许开发者将现有的手机 App 画面直接「流式传输」到眼镜上,无需重写代码即可实现跨端体验,这无疑将大大加速 AI 眼镜应用生态的成熟。

02

Project Aura:把「大脑」挂在腰间的 4K 巨屏

介于轻便的 AI 眼镜与重型的全沉浸头显之间,Google 也并没有留下真空地带。由 XREAL 承载的 Project Aura 代表了 Android XR 生态中一条极为务实的路线。此前外界对它的认知仅停留在「有线眼镜」的概念上,但在这次展示中,它被重新定义为一种平衡了移动性与生产力的全新计算形态。

与 XREAL 其他产品相同,Project Aura 采用的也是光学透视(Optical See-Through)方案,这也意味着用户是透过透明镜片直接看到真实世界,而不是通过摄像头拍摄再显示的视频透视。

但 Project Aura 的野心远不止于此,它并非简单的投屏眼镜,而是一套完整的计算系统。

其核心创新在于那个通过 USB-C 连接的计算模块。这个像冰球一样大小的模块内置了强大的 Snapdragon XR2+ Gen 2 芯片和高容量电池,运行着完整的 Android XR 系统。

这种分离式设计它极大地减轻了眼镜本体的重量,解决了长时间佩戴鼻梁压迫的问题,同时将发热源从头部移开,避免了「暖宝宝贴脑门」的尴尬体验。

同时,这个模块本身也是一个控制器,表面配备了触控板和方向键,方便用户在无法语音或手势的场景下进行盲操作交互。

在视觉体验上,尽管眼镜本体轻便,但堆料却毫不含糊。根据 UploadVR 的上手报告,Project Aura 提供了单眼 4K 的超高分辨率和 70 度的视场角。虽然这一视场角不及 VR 头显,但在 AR 眼镜领域已属顶尖,足以填补全沉浸头显与普通眼镜之间的空白。

在 Google 演示的「咖啡馆场景」中,用户可以通过 Project Aura 扩展出了多个巨大的虚拟屏幕:左边播放着流媒体视频,右边是聊天窗口,中间则是巨大的工作界面。

更令人印象深刻的是它的混合办公能力。当你需要处理复杂的照片编辑任务(如 Lightroom)时,Project Aura 可以通过线缆连接到笔记本电脑,瞬间变身为电脑的超大虚拟显示器。

此时,Gemini 依然在线——当你看着 Lightroom 的界面不知道如何操作时,可以直接询问 Gemini:「如何给这张照片添加背景虚化?」Gemini 能够识别电脑屏幕上的内容,并一步步指导你操作滑块。这种跨设备的智能协同,彻底摆脱了 AR 眼镜作为「手机附属品」的固有标签,使其成为了真正的生产力工具。

03

Galaxy XR:硬刚 Vision Pro 的参数怪兽

作为 Android XR 平台的旗舰级「重武器」,今年稍早时候正式发布的三星 Galaxy XR 头显虽然在形态上不如眼镜轻盈,但在硬件参数和沉浸式体验上展示了安卓阵营的绝对肌肉。这款设备被 Google 称为拥有「无限屏」,旨在为用户提供最极致的视觉效果和计算能力。

本次发布会上虽然没有头显产品线的硬件更新,但 Google 和三星深知软件体验才是留住用户的关键,因此通过最新的功能更新解锁了几个直击痛点的关键体验。

首先是解决了「不想以卡通形象开会」为痛点的 Likeness(拟真形象)Beta 版。在视频演示中,用户奥斯汀展示了这一功能:只需将头显取下,反转面向自己进行约 30 到 90 秒的扫描,结合设备内部的眼动追踪和面部传感器,即可生成一个逼真的 3D 数字化身。在 Google Meet 通话中,这个化身能精准捕捉用户的每一个微笑、皱眉和眼神变化,让远程协作不再像是在玩电子游戏,而是真正的人与人之间的交流。

对于经常出差的商务人士,新增的旅行模式则是一个刚需功能。如果你在飞机上使用过 VR 设备,就会知道机身的颠簸和转向往往会导致虚拟窗口漂移甚至让人眩晕。Travel Mode 通过算法优化,暂时禁用了依赖视觉特征点的追踪技术,转而依靠 IMU(惯性测量单元)来实现稳定的 3DoF 追踪,从而确保面前的虚拟屏幕像钉子一样钉在空中,无论机舱如何颠簸都稳如泰山。

而在娱乐和内容消费方面,Google 还画了一个巨大的饼—— 自动将所有 2D 内容转制成 3D 版本。

Google 产品经理 Austin 表示:「想象一下,如果每一个游戏都是沉浸式的,每一部 YouTube 视频都是 3D 的,整个互联网都变得立体起来。」

这一功能计划于明年系统级推送,它将利用设备的端侧算力,能将普通的 2D 内容实时转换为 3D 体验,彻底解决了 XR 平台初期内容匮乏的难题。

值得一提的是,三星在交互硬件上也做出了改变,Galaxy XR 配备了一对类似「星战光剑柄」的流线型手柄,彻底移除了硕大的红外追踪环,转而完全依靠 LED 和计算机视觉算法进行追踪。这不仅让手柄看起来更具未来感,也大大减少了在使用过程中双手碰撞的几率。

从最前端、最贴近生活的 AI 眼镜,到兼顾便携与性能的 Project Aura,再到代表着算力巅峰的 Galaxy XR,Google 今年正试图通过 Android XR 证明一个道理:未来的计算不应该把你关在封闭的房间里,也不应该强迫用户去适应单一的硬件形态。

相反,计算应该像空气一样,通过不同形态的设备,渗透进生活的每一个缝隙——无论是你在咖啡厅办公,在异国他乡旅游,还是在客厅里享受电影。

随着开发者工具的全面开放,以及 Gemini 智能核心的不断进化,2026 年,或许我们真的可以把熟悉的 Android 应用不仅「装」在口袋里,更是「戴」在头上,看着它们在现实世界中活灵活现。

*头图来源:Google

GoogleAInanoBanana
新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片