苹果牌“AI”官方详解:Apple Intelligence 本地 30 亿参数模型,云端基于苹果芯片服务器

苹果牌“AI”官方详解:Apple Intelligence 本地 30 亿参数模型,云端基于苹果芯片服务器
2024年06月12日 13:42 IT之家

感谢IT之家网友 Apllo 的线索投递!

IT之家 6 月 12 日消息,苹果在昨日的 WWDC24 上重磅公布了 Apple Intelligence(苹果智能),将为 iPhone、Mac 等设备引入一系列 AI 功能。

随后,苹果机器学习官网公布了 Apple Intelligence 的详细信息。据苹果官方介绍,Apple Intelligence 拥有两个基础模型:

  • 本地模型:设备上约 30 亿参数的语言模型,测试得分高于诸多 70 亿参数的开源模型(Mistral-7B 或 Gemma-7B);

  • 云上模型:可通过私有云计算并在 Apple 芯片服务器上运行的更大的基于服务器的语言模型。

苹果表示,Apple Intelligence 由多个高性能生成模型组成,这些模型专门针对用户的日常任务,并且可以动态适应他们当前的活动。Apple Intelligence 中内置的基础模型针对用户体验进行了微调,例如编写和精炼文本、对通知进行优先级排序和总结、为用户与家人和朋友的对话创建有趣图像,以及采取应用内操作来简化应用之间的交互。

在预训练方面,苹果的基础模型在 AXLearn 框架上进行训练,这是苹果于 2023 年发布的开源项目。它构建在 JAX 和 XLA 之上,使苹果能够在各种训练硬件和云平台上可扩展地训练模型,包括 TPU 以及云和本地 GPU。

IT之家注意到,苹果承诺在训练基础模型时,该公司从不使用用户的私人个人数据或用户交互,并且会使用过滤器来删除互联网上公开的个人身份信息,例如社会保障和信用卡号码。苹果还过滤了脏话和其他低质量内容,以防止其包含在训练语料库中。除了过滤之外,苹果还执行数据提取、重复数据删除以及应用基于模型的分类器来识别高质量文档。

在优化方面,苹果在设备端模型和服务器端模型都使用了 grouped-query-attention,设备上模型使用 49K 的词汇大小,而服务器模型使用 100K 的词汇大小,其中包括额外的语言和技术标记。

通过优化,苹果号称在 iPhone 15 Pro 上,能够实现每个 prompt token 约 0.6 毫秒的首次 token 延迟,以及每秒 30 个 token 的生成速率

在指令跟踪评估(IFEval)测试中,苹果本地模型性能优于包括 Phi-3-mini、Mistral-7B 和 Gemma-7B 等模型,且与 DBRX-Instruct、Mixtral-8x22B 和 GPT-3.5-Turbo 相比毫不逊色;而云上模型水平基本与 GPT-4-Turbo 持平。

苹果计划在今年夏天推出的 iOS 18、iPadOS 18 和 macOS Sequoia 测试版中,开放 Apple Intelligence,然后会以测试版的形式,于今年秋季向公众开放,但部分功能、更多语言和平台支持需要等到明年。

Apple Intelligence 可以免费使用,但仅限于配备 A17 Pro 芯片或任何 M 系列芯片的设备。这意味着要使用这些功能,你需要一部 iPhone 15 Pro 或 iPhone 15 Pro Max,即将推出的 iPhone 16 系列也将支持 Apple Intelligence。

在 Mac 方面,你需要一台配备 M1 或更高版本的 Mac,而对于 iPad,你需要一台配备 M1 芯片或更高版本的 iPad Pro 或 iPad Air。

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片