万万没想到!限制苹果AI的不是芯片算力,反倒是内存!

万万没想到!限制苹果AI的不是芯片算力,反倒是内存!
2024年06月25日 10:17 爱活网

前不久WWDC 2024上苹果终于是把自己的AI给搬出来了,在那之后风头一时无两,股价也随之涨了一波。

但是,苹果也宣布能使用Apple Intelligence的设备必须是iPhone 15 Pro系列或者搭载M系列的平板、电脑,也就是说最低门槛也得是个三千多的Mac mini。

苹果这波操作也让数以亿计拥有老设备的用户觉得自己是个小丑,认为苹果把他们给抛弃了。

WHY?

当然这里面不乏苹果想要让老用户更新设备,从而刺激销量;另一部分是硬件受限所导致。

自从2017年开始,苹果就开始给芯片加入NPU,说白了就是让芯片长脑子,但Apple Intelligence 所需的计算能力不仅需要更强的NPU还要更大的RAM(运存)。

我们把A16和A17 Pro芯片的详细参数比较一番可以发现,前者的算力有17 TOPS,后者却翻了一倍达到35 TOPS。本以为这就是答案了,但我们把目光转向M1芯片才发现事情远没有这么简单。

根据相关信息来看,M1芯片的算力仅有11TOPS,甚至要低于A16芯片,但它之所以能使用AI主要“归功于”8GB运存。

通常来说,运行AI大模型需要使用大量的数据和计算来生成内容,因此需要足够的内存来支持这些操作。安卓手机厂商现在使用的普遍都是70亿参数的大模型,而且它们为了保证日常使用不受限,需要运行设备拥有12GB以上的运存。

按照我查到的资料显示,苹果AI运行着一个30亿参数的大模型,其能力要比很多安卓厂商的70亿大模型要强。但运行AI时,系统会占用1-2G的内存空间,假如你的设备只有6G运存,这就让手机出现卡顿。

好嘛,本以为是芯片能力问题,结果问题居然是出在运存上。

但是苹果人家也是有话要说的。

据苹果公司人工智能主管John Giannandrea称,Apple Intelligence的推理计算量非常大。因此,这非常依赖于设备的带宽、NPU规模,以及设备本身的性能,理论上,你可以在非常老的设备上运行这些模型,但运行速度过慢以至于完全可以说毫无用处。

翻译人话就是:能用,但只能用一点点,这边还是建议加钱换新设备。

其实苹果完全可以让不同运存的手机使用“残血版Apple Intelligence ”,或者干脆设置一个使用门槛。

但你要知道它可是苹果啊,孤傲的且不可一世的苹果啊,既然要做就做最完整、最好的。8GB 内存,就是目前体验苹果 AI 的最低门槛。

但话又说回来了,既然苹果早就知道AI吃运存,早就知道自己的“野心”了,怎么就不能上大内存呢?

这时候苹果又有话要说了:我们的8G运存和其他设备的16G运存是比较近似的。

但真当用户抱着这个心态选购一款8G运存的Mac时才发现,原来8GB内存真的只是个笑话,自己又成了小丑。

近日也有消息称,苹果自家编程软件Xcode 16的预测代码功能需要16GB内存起步,但Xcode 16 却支持在低于 16GB 内存的 Mac 电脑上运行,只是不支持预测代码完成功能而已。此举也让苹果高管的话成了笑话,简直是啪啪打脸。

另外,国外有消息称,在新iPad Pro当中苹果为256GB和512GB的版本配备了两颗运存芯片,单颗规格为6GB,也就是说苹果原本的内存规格是12GB,但通过某种技术手段屏蔽了 4GB 的内存,最终只有8GB内存,而1TB的版本为两颗8GB内存组成的16GB内存。

这一下就让不少网友看不懂苹果的骚操作了,只能说库克刀法绝了。

如今来看,当年M1芯片使用8G运存可以理解,但时间都来到2024年了,苹果似乎真得考虑在下代 Mac 电脑中将最低内存标准提升至 16GB。

但有的小伙伴要问了,如果说就是单纯的为了AI功能而去换15Pro系列甚至是未来的苹果设备值不值?

答案肯定是值得的,AI是未来的大势所趋,对于那些渴望智能化的用户来说,AI确实能提升你的使用体验。

但话又说回来,现如今的苹果AI更像是为开发者和股东们画的饼,至于为了这块饼还得买个“刀叉”个人认为有点不值当,况且iPhone 16 是否会支持完整的苹果 AI 功能还两说呢,反正我觉得库克没那么好心。

新浪科技公众号
新浪科技公众号

“掌”握科技鲜闻 (微信搜索techsina或扫描左侧二维码关注)

创事记

科学探索

科学大家

苹果汇

众测

专题

官方微博

新浪科技 新浪数码 新浪手机 科学探索 苹果汇 新浪众测

公众号

新浪科技

新浪科技为你带来最新鲜的科技资讯

苹果汇

苹果汇为你带来最新鲜的苹果产品新闻

新浪众测

新酷产品第一时间免费试玩

新浪探索

提供最新的科学家新闻,精彩的震撼图片