Apple 承诺将在私有云中提供个性化的 AI 服务

苹果公司在人工智能领域的首次重大举措,是赌定人们在使用自动化任务时会关注数据隐私问题。

苹果首次在人工智能领域的重大举措,在此次激烈的AI竞争中强调用户对自动化任务中的数据隐私关注。在周一举行的全球开发者大会上,苹果展示了如何利用人工智能提升其产品线的新愿景。这次发布的重要功能名为 Apple Intelligence,是一组基于AI技术的新能力,能够提供个性化服务,同时确保用户敏感信息安全。这标志着苹果使用私人数据来辅助AI执行任务的一大进步。为了保证这一点,公司介绍了一种全新的云端处理敏感信息的方法。

据悉,该系统优先选择在设备本地执行AI任务。如果需要与云服务交互,则所有传输的数据都会进行加密,并随后删除。此外,这个过程(称为 Private Cloud Compute)还将由独立安全研究人员进行验证。

相比之下,一些科技巨头如 Alphabet、Amazon 和 Meta 会收集并存储大量个人信息。而苹果则承诺,仅将在当前AI任务中使用必要的数据,并且当请求完成后,不再保留这些信息,也无法用于调试或质量控制等目的。

总而言之,Apple 表示用户可以放心让他们分析高度机密的信息,如照片、消息和电子邮件,以便提供相应自动化服务,而无需担心这些资料会被在线保存或者面临风险暴露的问题。

以下几个例子展示了未来iOS新版本中的一些功能。例如,当你想听朋友推荐的一期播客时,无需再翻阅聊天记录,只需让Siri帮你查找并播放即可。而对于另外一种情况,Apple 软件工程高级副总裁 Craig Federighi 描述道:假如收到一封推迟工作会议时间的邮件,但当天晚上正好有女儿参加的话剧表演,他的新款手机现在能够找到相关表演的信息PDF文件、预测当地交通状况,并告诉他是否能按时赶到。这些强大的功能不仅限于由 Apple 开发的软件,还允许第三方开发者接入 Apple’s AI 技术 [20] 。

由于相比广告收入,公司更多依赖硬件和服务盈利,所以与其他一些企业相比,Apple 收集在线个人数据动力较小,这使得他们能够把iPhone定位为最注重隐私保护的设备。然而,即便如此,在过去几年里,Apple 一直受到隐私权倡导者们质疑。例如,在2014年,由于安全漏洞导致iCloud泄漏裸照事件发生;2019年,又曝出为了质量控制目的,有承包商监听私人Siri录音。此外,对于如何回应执法部门的数据需求问题,目前争议仍然不断 [20] 。

根据 Apple’s 官方声明,对抗隐私泄露的重要措施之一,是尽量避免使用云计算来进行人工智能 (Artificial Intelligence) 任务。”我们认为个人人工智能系统 (Personal Intelligence System) 的核心是在设备上进行处理”,Federighi解释道,也就是说很多人工智能算法都会直接在iPhones 和 Macs 上运行,而不是依赖远程服务器。”这样做既能获取你的私人信息,又不会真正收集这些信息” [20] 。

这种方法确实面临着不少技术挑战。在人工智能蓬勃发展的两年间,即便只是执行简单任务,也往往需要庞大的计算资源。而要靠现有手机和笔记本电脑里的芯片来完成这样的运算非常困难。因此,目前只有 Google 小规模的一部分人工智能算法可以直接跑在他们自己的手机上,大多数情况下还是必须借助远程服务器才能完成。而据介绍,多年来致力于芯片设计研发,让他们成功推出M1系列芯片,使得如今很多复杂运算已经可以直接交由终端设备自行解决 [20] 。

不过,即使是目前最先进M1系列芯片,也不能完全胜任所有预期内的人工智能操作。当遇见特别复杂的问题,比如向Siri提出高难度要求时,就不得不把这个需求连同相关资料一起转交至专门部署在人家服务器上的大型算法去解决。据网络安全专家指出,这样做无形之中增加潜藏风险,因为每次涉及外部通信,都可能令敏感资料遭受黑客攻击或者至少被内部员工窥探[20] 。

“我一直提醒大家,一旦资料离开自己的装置,就变得格外脆弱”,监控科技监督项目(Surveillance Technology Oversight Project) 执行主任兼纽约大学(NYU Law School’s Information Law Institute) 驻校实践教授Albert Fox Cahn说道[20] 。

针对上述担忧,新发布Private Cloud Compute 系统声称有效降低此类风险。”这是第一次,我们把业界领先水平下放至整个生态圈,包括延伸进各类线上服务领域”,官方公告中特别强调:”除本人以外,没有任何机构或组织,包括我们自己,都无法触碰那些经过特殊保护后的私人档案” 那么究竟怎样做到呢?[20]

历年来,他们鼓励客户启用类似Signal等通讯工具采用全链路加密(end-to-end encryption),确保重要文件存储期间免受侵害。不过这种办法显然没办法套用于机器学习(Machine Learning)。不像WhatsApp等社交平台无需读取文本内容就能正常投递讯息那样,要训练精确回答问题前提条件之一,就是必须先解码分析输入素材。所以这里头关键环节就在于是采取何种手段保障过程中绝对保密原则: 首先明确规定只能单纯围绕指定用途展开; 然后还须接受独立审计团队严格检验核实。[20]

毋庸赘言整套机制极其繁复,不过大致思路其实跟传统密码学(Encryption Protocols)颇具相似之处: 当检测判断自身能力不足够支撑起某项超负荷命令时候,会自动打包附带详细说明书式申请函,再施予唯一对应秘钥锁住待办事项清单; 唯有匹配成功才予以放行进入下一步操作阶段.[20]

MIT 科技评论(MIT Technology Review) 曾经询问过官方代表,如果后台切换成远程协助模式时候普通消费者知情否? 对方答复肯定给予充分透明度但暂未透露具体实施方案.

Dawn Song 是加州大学伯克利分校负责任去中心化智能中心 (UC Berkeley Center on Responsible Decentralized Intelligence) 的联合主任,同时也是一位私人计算专家,她表示苹果的新进展令人振奋。”他们公布的一系列目标非常周全,” 她说道。”当然,实现这些目标还面临一些挑战。”

Cahn 指出,根据苹果目前披露的信息,这个系统看起来比现有其他人工智能产品更注重隐私保护。不过,他强调,他们行业内常讲的一句话就是 “信任但需验证” 。换句话说,要等到独立研究员能够核实苹果所宣称的数据安全性,并且该公司对此作出响应之后,我们才能真正确定这些系统到底有多安全。

他说:”允许独立研究员进行审查是一大步前进。但关键还是看当你听到自己不想听的话时,会怎么应对。” 对于 MIT 科技评论提出有关如何评估来自研究员反馈的问题,苹果未作回应。

**隐私与人工智能之间的权衡**

不仅仅是苹果,公司们都在赌很多用户为了让繁琐任务自动化,会给予人工智能模型广泛访问个人数据权限。例如 OpenAI 的 Sam Altman 就向 MIT 科技评论描述了他理想中的人工智能工具:一种了解他全部生活细节,包括每封邮件、每次谈话记录的软件。在今年五月举行自家开发者大会上,谷歌宣布了一项名为 Project Astra 的计划,这是一个旨在打造日常生活助手级别通用人工智能 (universal AI agent) 项目,非常具有野心。

这一权衡促使很多人首次认真思考是否希望让人工智能参与管理我们的数据和设备。在 ChatGPT 刚问世的时候,这种问题根本无需考虑,因为它只不过是个文本生成器,可以帮忙写生日贺卡或者诗歌。而那时候大家关心的是,它从哪里获取训练数据,又有哪些潜在偏见,看起来跟个人关系没那么密切。然而不到两年时间里,大科技企业已经投入巨资,希望大家相信这些系统足够安全,从而放心提供自己的私人信息。目前尚无法确定公众是否已充分了解相关风险,也不知道即便有人想拒绝,又有没有选择余地。”我确实担忧这种‘AI 军备竞赛’会导致更多个人信息落入别人手中,” Cahn 表示道.

今年秋季起, 苹果将开始推出包括 iPhone 15 和新版 macOS Sequoia 在内的新功能测试版。这些功能可运行于搭载 M1 或更新芯片型号 Mac 与 iPad 上。 苹果 CEO Tim Cook 称:” 我们认为 Apple intelligence 会成为必不可少之物.”

VIA@James O’Donnell

发表评论

邮箱地址不会被公开。 必填项已用*标注