为什么你的,肯定用不上「苹果」?
一周前,苹果在WWDC上发布了自己的AI功能AppleIntelligence,包括直接集成OpenAI的ChatGPT,自那以来,股价上涨逾7%,重夺全球市值第一宝座。
AppleIntelligence目前公布的一系列AI功能都没有什么太大的颠覆性,比如AI表情符号、AI摘要和转录、优先通知、智能回复、照片搜索编辑、更智能的Siri等等。但也可以说,这显示了苹果的实用与谨慎。
但可惜的是,只有iPhone15Pro和15ProMax,以及配备M1或更新芯片的iPad和Mac才能用上苹果AI的新功能。
这意味着,目前全球数亿台苹果设备,都无法用上苹果AI——即使是买上了最新的iPhone15也用不了。
为什么?!
除了这或许是库克催促大家购买新iPhone的「疯狂暗示」,从iPhone15到之前的苹果手机没法用上AI功能,还有什么其他原因?
01确实跟硬件有关
首先是来自硬件的限制,之所以出现硬件的限制,又与苹果爱宣扬的理念有关。
乔布斯曾非常重视隐私。「我们对隐私的看法与硅谷的一些同行非常不同。例如,我们非常担心手机上的位置。在任何应用程序获得位置数据之前,我们都会规定它们必须询问。」十四年前,他如此说道,「硅谷的很多人认为我们在这一点上非常守旧,也许我们确实如此。但我们对此感到担忧。」
「我相信人们是聪明的,有些人想分享更多的数据,那就问他们,让他们确切地知道你将如何使用他们的数据,这就是我的想法。」
如今时间来到十四年后,苹果的高管们也有意无意地不断强调这样的愿景。不过,马斯克却讽刺,如今苹果与OpenAI合作的话,就是要把数据喂给OpenAI。
马斯克在X上讽刺苹果AI|图片来源:X
无论如何,苹果还是尝试部分改变这种情况。在开发者大会上,苹果高管在发布AI新功能时就说:「你不应该为了存储和分析自己的生活细节,就将它们都交给某个云端AI。」
当前市面上各类AI产品更依赖云端计算,不管用户用ChatGPT、Midjourney、还是Photoshop的AI功能时,用户自己的设备并没有做什么实际工作,信息都要交给某个远程云服务器进行处理。
苹果想要的不是这种方式,为了完成苹果一贯宣扬的隐私理念,它要的是在用户的设备上直接处理各种AI任务。
「个人智能系统的基石,是在设备上处理。我们将其深度集成到你的iPhone、iPad和Mac中,并贯穿于你的应用程序中,因此它可以了解你的个人数据,却无需收集你的个人数据。」苹果高管称。
这种在设备上处理AI的隐私策略,或许也可以直接称为「终端AI」,苹果并非第一个打出这个旗号的科技公司。高通在去年曝光的PC系列芯片产品、骁龙最新芯片,即为终端侧生成式AI打造,从中提取——大卖点也是隐私。微软的Copilot ,也是类似的概念,AIPC允许在设备上处理AI任务。
由于苹果想让用户在设备上运行AI,回到最初的问题,之所以许多老款iPhone设备也用不了新的AI功能,原因就在于硬件的限制。
苹果最新的iPhone15Pro及Max上使用的A17Pro芯片功能|图片来源:Apple
据连线杂志称,尽管自2017年起苹果就在iPhone中引入了NPU(神经处理单元),包括iPhone8、iPhone8Plus和iPhoneX都有,但AppleIntelligence所需的计算能力远超以往。
同时,RAM(运存)的限制也是一个关键因素。
当AI模型本地运行而不是在云端运行时,它们必须存储在RAM或vRAM中。虽然iPhone14的NPU芯片组据称比M1MacBook更强大,但其仅有6GB的RAM,而AppleIntelligence所需的设备则需要8GB的RAM。
这意味着,老款设备即使具备AI和机器学习能力,也难以运行AppleIntelligence的全部功能。
不过,真的没有任何办法吗?
有一个观点是,一些新的AI功能实际上是被人为地限制在新的硬件背后。一名叫Albacore的技术爱好者,专注于逆向工程,曾让一些微软的Copilot 功能在理论上不应该运行的硬件上运行,比如一台廉价的三星GalaxyBook2Go笔记本,它的价格是Copilot 笔记本的五分之一到四分之一。
有技术爱好者用逆向工程运行AI功能|图片来源:Albacore
当然,这种逆向工程有缺陷。据其称,逆向工程出来的微软Recall功能,可以运行,只是在搜索方面会有时间滞后,而图像生成功能Cocreator虽然启动并占用大量计算资源,但最终还是崩溃了。
02iPhone16就能玩转苹果AI了?
还有一个问题是,iPhone15Pro和15ProMax,以及配备M1或更新芯片的iPad和Mac,又或者未来买到手的iPhone16,就能用上苹果全部的AI功能吗?
连线杂志就提出了相关质疑,甚至直接称,「通过逻辑推理可以看出,所有那些旨在让人们兴奋的生成式AI功能,无法在iPhone15ProMax本地完成,也可能无法在iPhone16ProMax上实现。」「剩下的开始看起来非常像其他手机已经有的功能,或者类似于Albacore在没有NPU的硬件上设法运行的功能。」
因为从现实来看,iPhone15ProMax可以提供大约2GB-4GB的RAM,其NPU的速度为35TOPS。作为一个参照,英伟达的消费级显卡GeForceRTXGPU提供的AI性能,达到1300TOPS。苹果想要在消费者设备上直接运行AI,可能必须基于一个小的、相对简单的AI模型。
在设备上运行AI所需要的计算资源,厂商会考虑到消费者如何负担的问题,一台消费者级设备的售价与成本如何平衡。
网传的iPhone16机模图|图片来源:iPhoned
想想目前市场上,像英伟达专为AI设计的H200,每张卡的价格达到数万美元。这些高性能显卡为服务器提供动力,执行在云端发起的AI计算请求。每张卡最多有上百GB的vRAM,并且需要大量这样的卡来支持OpenAI最新的AI模型。
如果要实现完全在设备上运行AI,似乎离普通消费者级的设备还有段距离。这或许也说明了,苹果为何最终还是接触了OpenAI,然后,遭到了马斯克的讽刺与质疑。
不过,这好像也没有违背乔布斯当年说的话,毕竟按照苹果高管的说法,用不用ChatGPT,选择权还是在用户。如果用户想问Siri一个它不知道答案的问题,它可以建议切换到ChatGPT,这样,用户可以分享数据,探索各种创作和答案。而且当ChatGPT出现「幻觉」问题时,还可以说,为什么你的,肯定用不上「苹果」?错在它身上,而不是苹果。
而且话说回来,即使AI功能未来也是「挤牙膏」,对苹果自己来说,这可能也是「挤牙膏」的一点好处,就是降低各种AI安全争议和风险。毕竟,在科技巨头的生成式AI竞赛里,已经出现不少「翻车」案例。比如,谷歌对AI搜索的改造,曾建议用户在披萨上涂胶水,还有各种AI工具生成问题图片的争议。
AppleIntelligence的推出可能会促使用户考虑硬件升级。不过,iPhone16是否会支持全部的苹果AI功能,还是继续作为Pro系列的专属卖点,这一点有待验证。
苹果首批AI功能将在今年晚些时候随iOS18的公开发布而推出,预计将于9月与iPhone16一同发布。
届时,消费者或许就能亲自验证苹果AI的实际效果和价值。
*头图来源:iPhoned
本文为极客公园原创文章,转载请联系极客君微信geekparkGO