Apple AI中文版正式上线:不好用 但确实很苹果

今日头条
Toutiao
  返回列表
65291 阅读
0 评论
极客公园

3 月 31 日,随着 iOS18.4 更新,Apple Intelligence 正式支持包括简体中文、法语、德语、意大利语、葡萄牙语(巴西)、西班牙语、日语和韩语在内的多种语言,并提供新加坡和印度版本的本地化英语。

本次更新也是苹果预热已久、苹果在人工智能能力上的更新路线图,如今提前迈出这一步。此前,苹果曾预告中文版 Apple Intelligence 将在 2025 年四月正式推出。而实际上推出的时间则是 3 月 31 日——当然,中国这边大部分读者在第一时间收到这个消息时,已经是 4 月 1 日清晨了。

在 Apple Intelligence 发布早期,我们就曾用手上现有的设备,对当时还只支持英文版的苹果 AI 能力进行了综合体验,如今随着「Apple 智能」正式支持简体中文,它有变得更适合中国用户使用了吗?

01

在正式测试之前,需要澄清的一个细节是,Apple 智能本次更新中加入的中文支持,并不能直接等同于 Apple Intelligence 国行版,当前国行版 iPhone 手机以及其他苹果设备仍然暂时无法使用。

但本次更新中,我们也的确能看到苹果在朝着「更加本地化的 Apple 智能」这件事上的新进展,已经明显看到搜索中出现包括百度搜索、图片搜索中文内容本地化适配以及百度百科调用这样的本地化优化,这也与百度作为最早传出成为苹果在中国本地的合作伙伴的新闻时间线相同。

对于已经支持 Apple Intelligence 的设备来讲,本次更新最重要的就是带来的 Apple 智能的中文化支持。虽然 Apple 智能相比市面上目前已经出现了的手机 AI 能力解决方案,更加强调对用户请求的端侧处理。

但对于涉及到网络搜索的大量用户请求,还是需要依赖类似「百度百科」这样的内容来源,作为更加可靠的补充方案。本次更新中对于中国用户最明显的更新,就是中文版支持的内容来源,开始大量引用来自百度搜素/百度百科,作为端侧信息/Apple 第一方信息之外的补充。

目前,Apple 智能对用户的处理基于这样的模式:用户向 Siri 提问,当 iPhone 目前所搭载的端侧模型确定自己无法回答时,就会将这部分的用户信息数据,上传到苹果的私有云服务器上。在服务器端经过进一步处理,确定这样的复杂请求仍然需要 ChatGPT 这样的外部支援之后,才会将经过脱密的请求数据转发给 OpenAI 的服务器。再经由相同的路径,将请求的结果返回给用户。

作为处理用户问题的「终点站」,实际上 iPhone 用户访问到的模型能力,也是 ChatGPT-4o,但由于上述这套流程并没有随着中文版的加入而变动,因此此前英文版使用体验中频繁出现的「抄送给 ChatGPT」现象,其实在当前的中文版使用体验中,并没有改变。

具体到使用体验上,免费用户同样可以使用一定额度的 ChatGPT 访问数量,订阅 ChatGPT Plus 的用户则可以在登录自己的账号后,在 iPhone 上实现无限次调用。如果你没有订阅也没关系,苹果甚至在设置界面中专门设计了一个引导你订阅 ChatGPT Plus 的界面。

图像识别部分,iOS18.2 新增的「视觉智能」功能,也随着本次更新获得了中文内容的支持,除了 UI 能力的识别,在简单的图像搜索/识别,例如问 Apple 智能「这是什么猫猫」时,它都能依靠自有的云端知识库给出一个中文回复。

但在 ChatGPT 的多模态内容识别能力部分,Apple 智能的使用体验中出现了比较吊诡的一幕,即使手机系统界面与 Apple 智能都已经设置为中文,并且能使用中文沟通,但经由苹果私有云服务器转发过的 ChatGPT 请求,仍然只能返回给用户一个英文结果,同时由于目前 Apple 智能在涉及到与 AI 交互的部分相对简单,用户也暂时也无法手动将其设定为英文。

部分时候经由 Apple 私有云服务器转发的 ChatGPT 返回的内容仍然会以英文展示 | 图片来源:极客公园

在图像识别智能的综合体验中,目前反而是仍然基于 Google 搜索的图像内容搜索能力,在全部在中文环境下运行后,所返回的搜索结果也会优先从中文内容中抓取。对于更依赖即时中文互联网内容的搜索情况而言,这一点能显著提升返回内容的流畅度,以及信息的准确度。

我尝试了用 Apple 智能拍一张华为上周刚刚发布的新机 Pura X,Apple 智能也准确通过搜索,识别出这款手机的具体型号以及官网开售信息,仅这一点的体验上,已经做到比主流多模态大模型识别准确度更高。

虽然整体体验相比此前的英文版本 Apple Intelligence 有所提升,但客观来讲,当前仅使用 ChatGPT / Google 搜索,没有接入中国本土服务商的多模态大模型识别服务的前提下,Apple 智能在多模态内容识别的体验仍然有待提高。

换言之,即使你的 iPhone 现在已经支持 Apple Intelligence,这个功能在中国大陆的可用程度仍然不高,即使你能够正常地全流程跑通当前「视觉智能」提供的所有服务,由 Google 搜索给出的例如商品购买链接等信息,对于大部分中国用户来讲也确实「仅供参考」。

当然,这个问题的解法也已经很明确,我们可以期待一下苹果在今年与百度/阿里的合作进一步推进,将这部分功能完全本地化之后的体验了。

除了这些直接交互,在 Writing Tools 写作工具中可校对、改写或总结文本,还支持通过 ChatGPT 直接起草内容,这部分能力现在也已经加入了对中文的支持——这对于不少朋友来讲,可能算是最熟悉大模型能力使用场景之一了。

文本生成工具或许是很多人最熟悉的大模型应用领域 | 图片来源:极客公园

实际体验下来,这部分功能在备忘录中的整合,无论是改写还是让它直接生成一份文档,在中文场景下都能给出类似 ChatGPT 水准的体验,加上与 Apple 输入法/第一方 App 的整合,对于 iPhone 用户来讲,确实有变得更加方便。

02 不求最快,但求最「稳」

但这显然不是苹果要在端侧 AI 上能实现的全部,虽然比起 ChatGPT、豆包等模型的使用体验而言,Siri 当前展现出的综合体验,还远远谈不上「行业领先」。

苹果的「保守」,或许可以被理解为苹果对于新技术一贯的「谨慎」,不仅不急于拓展AI能力在智能手机上的边界,还在主动为 AI 设置围栏。不仅在备忘录中的 AI 改写功能中,对于改写写作风格的调性偏向保守;

包括之前有提到过,在用于创建风格化自定义图像的 Playground 中,用户很明显就能察觉到它与其他大厂发布图像生成工具的不同之处。它完全无法像今年爆火的预训练图像生成模型 Lora 那样,用于生成那些和真人几乎无异、让人真假难辨的图像。

e

实际上这种谨慎不无道理:即使多模态大模型已经出现几年,但包括内容幻觉、AI 生成内容用于犯罪,都是当下伴随着大模型应用「蒙眼狂奔」伴随而来的问题,近年来 AI 生成的虚假内容充斥网络。

除了内容泛滥,如何保护用户的私有数据,在AI时代也成为了一个重要的命题,而苹果是首先直面这一问题,并喊出自家解决方案的厂商。

Apple Intelligence 的最大特征之一,就是在 AI 时代仍坚持「隐私优先」的技术路径。系统默认在设备本地完成处理;当任务超出本地处理能力时,会通过「私有云计算」调用苹果自研服务器,并全程加密,确保用户数据不会被用于模型训练或第三方存储。

在硬件之外,面向开发者的趁手工具也已经在路上:在 iOS18.2 Beta 测试版发布后,苹果随即更新了三个关键 Apple Intelligence 功能的 API:编写工具 API、Genmoji API 和 Image Playground API。

这三个 API 借口,都旨在帮助开发人员将 Apple Intelligence 集成到他们的应用程序中,换言之:随着越来越多这样的 API 接口加入,开发者都能够在所有 Apple 生态的硬件设备上调用端侧模型计算能力,无需额外的服务器成本,加上当前 Apple 生态数以亿计的用户,这无论对于中小开发者还是巨头来讲都是一项极具诱惑力的条件。

由此可见,苹果的第一方应用目前并不谋求短暂的效果取胜,而是通过构建软硬件深度整合、搭建原生 AI 硬件生态平台的方式,为开发者提供一个适合 AI 时代超级 App 生长的土壤。

长期来看,只有诸如苹果、华为这样,有自有生态/硬件以及掌控能力的厂商,才有机会参与的深度竞争;拥有生态的平台级的玩家,与只有「硬件制造商」单一标签的厂商,或许从这场竞争的一开始,就拉开了巨大差距。

回到文章最开始提出的那个问题:「支持简体中文后的 Apple 智能,真的更加好用了吗」。

在长期使用英文版 Apple Intelligence 以及主流手机 AI 助手类工具之后,我的回答是「有变得更加好用,但对苹果来讲,或许真正的能让 AI 更加好用的下一步更加值得关注」。

对于用户来讲,或许这才是 Apple 智能在一步一步迈向中国用户的过程中,最值得我们关注的问题所在。