当前位置: 欣欣网 > 资讯

深入解读苹果 AGI 第一枪究竟带来了什么?

2024-06-12资讯

作者 | 唐小引

出品丨AI 科技大本营(ID:rgznai100)

人们一度很为苹果感到着急。

在动不动就迎来一夜巨变的大模型时代,隔壁 Google、Meta、Amazon 干得热火朝天,而苹果却异常闷声,我们时常只能从人员招聘、论文发布等来找寻苹果布局大模型的蛛丝马迹。

在 WWDC 2024 上,苹果终于众望所归地将 AI 带入了苹果全系产品,还一如 2007 年乔布斯发布首代 iPhone 喊出重新定义手机一样,以「Apple Intelligence」要重新定义 AI, :

  • 最备受关注的,与 OpenAI 强强联手,GPT-4o 入驻苹果生态,这一操作让 Sam Altman 来了,却让马斯克彻底怒了。

  • Apple Intelligence 跨平台交互生成式AI体验,Siri 浴火重生,期待 Siri 能够不再「智障」。

  • 万万没想到:(1)苹果重新定义了计算器,将 iPad 计算器用作记事本可以实时获得答案,还能帮助画曲线、公式解析。(2)用户盼了 20 年的通话录音功能一分钟带来了。

  • 苹果自家的模型风头因为 OpenAI 又再次被盖过,但在 Hacker News 冲上了 TOP 榜。苹果自研模型的细节可以查看 AI 科技大本营的文章:【 】。

  • ……

  • 苹果这 AGI 第一枪,究竟给我们带来了什么?从开发者的角度亟需关注的有哪些?CSDN 特别邀请了四位专家一起深度点评和解读 WWDC 的发布以及苹果的 AGI 战略背后值得深思的地方。他们分别是:

  • 王佳梁,触宝科技创始人

  • 汪源,前网易副总裁

  • 任鑫,云九资本合伙人、Sky9 Build 孵化器 CEO、前京东O2O副总裁

  • 王巍(@onevcat),知名 iOS 开发者

  • 一句话总结 WWDC 2024 有多少惊喜有多少失望

    王佳梁: 这届 WWDC 没有特别深刻的点。即使是最大的亮点 AI,也基本在预期之中。

    任鑫: 印象最深的是计算器,这是唯一没想到的创新,其他都太普通。这也给了我很大的启发,应该把多模态的识别能力和生成能力用得更广泛一些、更有想象力一些。

    汪源: 我印象最深刻也最意想不到的点是苹果用自家的硬件搭建了大模型的云服务,之前还没有听说过这方面的消息。但 这次发布会,苹果只是在自家的几个软件中增加了一些相对比较简单的「套壳」类应用,远非完美,只能打 70 分。

    王巍: 终于支持图标排列了(iOS 18 终于可以自由排列 App 图标了,iOS 开发者该「哭」了)

    苹果大模型的组合拳:左手集成 ChatGPT,右手自研大模型

    苹果的大模型步伐虽慢,但我们能够不断看到了一些动态。比如:

  • 2023 年 9 月,苹果大模型核心团队首次曝光。

  • 2023 年 12 月,苹果开源 M 系列芯片专用、能跑 70 亿参数大模型的机器学习框架。

  • 2024 年 3 月,苹果收购专注于视觉技术的 AI 初创公司 DarwinAI,同时发布 300 亿参数的 。

  • 就在 WWDC24 首日结束后,苹果默默地放出一篇文章介绍自己推出的一系列人工智能基础模型策略,其中既有参数为 3B 的 On-Device Models(端侧模型),也有 Server Foundation Models(服务器端模型),引起了开发者社区大量围观。

  • 但具有标志性的是,和 OpenAI 合作集成 ChatGPT,这是苹果首次在核心技术层面不是完全自研,同时苹果也表示「未来还会使用其他大模型」,那么苹果自己的模型会处于什么样的位置呢?

    王佳梁: 其实这次和 OpenAI 的合作并不是很深度,至少比预期的低一些。在大部分场景下,苹果都还是有自己的端模型和云模型。尤其在它展示的主要几个场景,例如个人助理、效率工具、跨应用协调,文案改写,都没有采用外部模型,而是采用了自己的模型,特别是自己训练的本地模型。

    虽然苹果并没有像谷歌那样以模型为亮点进行宣传,但看得出它的本地模型能力还是很强的。这也体现出苹果一直以来和谷歌微软的最大区别: 以用户体验为核心,而不是以技术为核心。 和 OpenAI 和合作,更有点像一个外部搜索,并不像微软那样把 GPT 作为核心做了大量的基础,用 GPT 来调度自己的应用。所以这次合作有很多象征性的意义,但还是体现了苹果一贯的谨慎态度。

    未来,苹果应该会接入更多大模型,而且主要目的是为了它的应用开发者生态,因为一旦开发者全部依赖云服务商来集成,如 AWS 或者 GCP 的话,用户数据和隐私安全就会变得不可控。所以苹果最好是把这部分集成工作抓在自己手里。不过这些外部调用的模型和 GPT 一样,不太可能深入到应用场景里。 真正和场景耦合最大的,肯定还是自家的模型。

    至于专用模型运用到对应领域的 App,这个应该并不是苹果决定的,而是开发者自己决定的。未来苹果可能会做一个模型商店,所有符合它标准要求的模型(数据、隐私安全)都可以上架,让开发者自主选择。

    任鑫: 苹果 还是把 Siri 放在最前面的,如果 Siri 判断自己搞不定才交给 ChatGPT。所以理论上讲,如果 Siri 不断增强的话,需要转发给 ChatGPT 的需求就会减少很多。而绝大部分人绝大部分命令,应该是简单的(例如设置一个闹钟)、本地的(拷贝粘贴),或许给 ChatGPT 的量并不会太大。

    汪源: 苹果的大模型分端侧、自有云端和第三方三层,ChatGPT 只是最外围的第三层,如果将来苹果自身的大模型能力更强,完全可以把更多的任务用自有模型满足,主动权在苹果侧。当然也不排除苹果最终会让整个 OS 里同时调用多种不同的模型,这很难预测。

    同时,苹果也选择了云端协同的方式,通过端侧 AI 确保实时性和隐私保护,而如果用户需要更复杂的功能,则可以调用云端大模型完成。

    王佳梁: 云和端的协同肯定是未来的趋势。可以在端上做的智能,没必要放到云上面去做。未来的手机芯片算力也会越来越强,而模型的优化和压缩也会做得越来越好。端模型的性能,主要看应用场景。苹果这次演示的日常效率场景,已经可以本地化,有些场景端模型足够了。

    任鑫: 断网场景太小,但海外确实存在很多人有很强的隐私保护需求,他们会宁可牺牲便利性来使用本地模型,应该不是个太小的市场。另外,如果是 toB 场景,也可能有一些合规要求不能用云端模型。

    汪源: 我认为是趋势,并且端侧大模型的价值会进一步增加,因为模型小型化的趋势很明显。

    AI + OS,苹果在 AGI 时代究竟会处于什么样的位置?

    这一次,苹果给 AI+OS 是否交出了一份完美的答卷?当前,诸多手机厂商、模型厂商都在着力将 AI 能力集成到系统层,苹果能够后来居上吗?它和 Android 手机厂商的整合方式,又有哪些差异和超越?

    王佳梁: AI+OS 是未来的一个大趋势。苹果交出的答卷谈不上完美,但还是很扎实也很有远见的。首先苹果有着最好的应用生态和应用场景,和 AI 结合也有着必然的优势。大家一直存在一个误解,认为 AI 的核心在于大模型和底层技术。实际上,应用场景和数据才是 C 端最核心的机会。所以苹果后发制人,并不会有任何问题。但如何把用户关注的数据隐私安全处理好,效率和隐私之间如何找到平衡点,才是最难的。 这次苹果提出的 Apple Inteligence 以及 Private Cloud Compute 底层架构,显然是深思熟虑的。 这才是苹果比其他手机厂商更强的地方。

    手机厂商们一直在探索如何将 AI 的能力集成到系统层,对于这一点,我们要分国内和国外来看。海外的 Android 生态主导者是谷歌,谷歌的应用开发者生态没有苹果好,主要变现模式也在广告而非内购。但近几年谷歌也逐步有所好转。谷歌在大模型方面肯定比苹果更有优势,有一部分场景在 I/O 上也已经有了。但的确谷歌在应用生态控制力上远不及苹果,数据和隐私保护也做得没有苹果那么好,这都是历史遗留问题。苹果这次的架构,我觉得就设计得比谷歌和微软更加先进。

    而对于国内厂商而言,最大的问题是生态的割裂,以及信任的缺失,还有就是模型能力不足。其实很多功能已经有实现了,但底层的架构还是不一样的。这就好像有些家具看上去样子一样,里面的材质不一样。

    王巍: 鉴于 Siri 弱智一般的表现,没有 OpenAI 支持的 Apple Intelligence 用起来到底如何,还需要观察。

    AGI 之战,苹果最熟悉的战场 —— 人机交互

    苹果终于将大模型军备竞赛拉到了自己最熟悉的战场人机交互上,苹果的跨 App 交互是独属于苹果的生态又是,还是大家都可以实现的?

    王巍: 基于 AI 的非结构化 API 会是趋势,今后 App 间的交互可能是以一种没有见过的自然语言方式打破的,而不是现在的结构化数据和 API。

    王佳梁: 跨 App 交互只要在系统层面有足够的权限,谁都可以做,这方面没有什么特别壁垒。只不过 Android 生态在国内比较分散,除非大家形成一个统一标准,否则很难像苹果那样有一个统一的 Intent 系统。谷歌应该会跟进和定义这样的接口,到时看看效果如何。最重要的还是对数据和隐私的架构设计,这部分是有壁垒的,还有就是端模型需要的算力支持。

    任鑫: 微软也可以做到,AI PC 可能还可以做更彻底一些,毕竟微软在 AI 上走得更前面,而且前面探路的伙伴更多(类似 Android 生态在很多 UI 玩法上已经领先 iOS 了)。国内比较麻烦,没有操作系统,但如果日后都是 AI Agent 化,可能 App 这层会被断路,Agent 直接调 API 帮助用户完成任务,这样说不定有绕开现有 OS 的新机会。

    最为关键的担忧:隐私性、数据安全性

    这次苹果智能最大的争议点在于它的隐私性和数据安全性,除了马斯克冲冠一怒的集成 ChatGPT 之外,有人说苹果智能为了实现跨 App 交互几乎动用了所有的隐私数据,也有人说只有苹果靠多年的口碑积累才能让用户放心把数据交出去,对此, 王佳梁 表示:

    我们应该反过来想,如果苹果来做这件事他们都不放心的话,那么这群人基本上就会放弃大部分 AI 应用场景。巧妇难为无米之炊,不访问应用数据,怎么可能给你做智能推荐呢?这是一个必要条件。再说了,本身操作系统就会有几乎所有的数据,无非是它是否访问和如何访问罢了。关键是自愿、知情、可控、透明。一方面要征求用户的同意,一方面要将所有处理透明化,做到可审计。包括 App 里的数据,也是开发者自主接入 Intent 来实现对接的。这件事苹果给了最严格的方案,其他厂商肯定做不到那么严谨的。所以这也是苹果牛逼的地方。

    我认为这些数据只要不上到云端就没有问题,但苹果强调自有云端大模型的安全性,这点我表示怀疑。

    结语:学习 在苹果生态里开发程序是不是更加重要了?

    在 iOS 的黄金时代,无数的开发者投身 iOS 开发,时至今日即使 AI 很热但 iOS 开发者依然很是抢手。此次 WWDC,Apple Intelligence 搭建的云端服务器,采用了苹果自家的芯片,并且用 Swift 语言编程,服务器的代码接受第三方专家的审查。从开发者的角度来讲,在苹果生态里开发程序会有什么样的变化?学习 Swift 的必要性是否有所提升?对此, 王佳梁和汪源的观点不谋而合。 汪源 表示, 学习 Swift 语言的必要性取决于苹果的市场占有率,目前没有理由表明苹果的市占率会显著提升。而 王佳梁 则这样说道:「 现在有了 AI 编程之后,学某一门语言的重要性都在不断下降。 你很容易就可以让 AI 帮你编程或者把一门语言转换成另一门语言。 这个问题应该换成,学习在苹果生态里开发程序是不是更加重要了? 那就要看开发者需要用到多少 OS Native 的功能。 目前大部分商用 App 都采用 H5 等跨系统的方案,用 Swift 或者 Kotlin 开发原生应用,对于一些以业务逻辑为导向的 App 本身就不是必要的。 当然如果要用到 OS 提供的这些底层能力,交互上也比较注重原生体验的,就自然会在 Swift 上多花时间。」