AI隐私卷到新高度:苹果“老司机”带路,谷歌华为“集体抄作业”?

温故智新AIGC实验室

TL;DR:

手机AI的“卷”已经蔓延到隐私和性能的平衡战。苹果凭借其“私有云计算”开辟新赛道,让数据“可用不可见”。谷歌、华为、OPPO等巨头纷纷“跟牌”,推出类似平台,力求在AI狂飙突进时,不把用户隐私“裸奔”在云端。这波,大佬们都在玩“既要又要”!

最近AI这波浪潮,真是把人看得眼花缭乱。一边是各种大模型“狂飙突进”,参数动辄千亿万亿;另一边,“AI泡沫论”也开始浮出水面,连OpenAI的Sam Altman和亚马逊的Jeff Bezos都出来“盖章”认可了。为啥?因为钱和算力像“泼水”一样砸进去,回报却遥遥无期,这味道,简直让人梦回当年的“互联网泡沫”。

但在这种“反思文学”的背景下,苹果这个曾经被吐槽“AI落后”的“老司机”,却意外成了“香饽饽”。过去两年它佛系搞AI,现在反而因为稳健和克制,赢得了不少掌声。甚至连华为、OPPO、荣耀,以及老对手Google,都开始“真香”式地认可并跟随了苹果的AI策略。

这不,Google在11月11日,除了例行更新Pixel功能,还正式公布了一个新玩意儿——私有AI计算平台(Private AI Compute,简称PAC)。它已经悄咪咪地在Pixel 10上运行了,比如那个能跨应用提供上下文建议的Magic Cue功能,现在就跑在这个PAC平台上。

Pixel 10,图片来源:Google

Google说得很清楚,PAC的核心目标就是“构建私有且有用的AI”。有没有觉得这话有点耳熟?没错,华为的HPIC个人智能计算、OPPO的PPC私密计算云、荣耀的HPPC,目标都是一个:既要AI聪明,又要用户数据安全。1

这些名字和目标,都让人一秒想到苹果在WWDC24上提出的PCC(Private Cloud Compute)。这可不是巧合,这简直是明晃晃的“大家都在抄作业”!

WWDC24,图片来源:苹果

苹果的“私房菜”:PCC怎么就成香饽饽了?

说起这“私有AI计算”的风潮,苹果的PCC(Private Cloud Compute)绝对是“带头大哥”。去年WWDC24上,苹果祭出这招,想解决一个AI时代的世纪难题:模型都在云端跑才够强,但数据一上云,隐私就可能“裸奔”?

苹果的答案很巧妙:它设计了一套端云混合架构,叫Apple Intelligence。当你的设备需要云端AI帮忙时,它会先像个“守门员”一样,验证云端是不是运行着经过公开审计的系统版本。确认是“自己人”后,数据才会被送进一个“专用环境”进行计算。任务一完成,数据立刻“阅后即焚”,连苹果自己都无权访问,隐私安全感直接拉满。而这些“专用环境”,都搭建在苹果自家基于自研芯片和操作系统的“私密数据中心”里。这操作,简直是把用户数据宠成了“易碎品”,生怕磕着碰着。

当然,苹果这套也有自己的“小烦恼”。毕竟运行在云端的AI,有时候没那么“有用”,所以前阵子才传出苹果要花10亿美元/年从Google那里“借”Gemini模型来给Apple Intelligence“撑场面”的消息。这说明,光有隐私还不够,性能和功能还得跟上。

Google“弯道超车”?PAC这波操作有点秀

面对苹果的“私房菜”,Google显然是认真研究了食谱,并在上面“加了点料”,搞出了自己的PAC(Private AI Compute)平台。Google同样把隐私挂在嘴边,但它的路径更“云原生”,或者说,它的云端基础设施更“硬核”。

Google的PAC平台,是建立在它自家那堆“黑科技”之上的:

  • 硬件加持: 自研的TPU(AI芯片)和机密计算基础设施。
  • 安全防线: 结合AMD的SEV-SNP硬件隔离技术,以及自研的Titanium安全架构。
  • 双重认证: 每一次模型调用,都要通过“远程证明”来验证云端节点的身份和系统完整性。只有通过验证的“合法”节点,才能处理你的请求。

搭载 TPU 的 Google Cloud 数据中心,图片来源:Google

简单来说,Google给云端的大模型戴上了一层“防偷窥外壳”。当Pixel设备向PAC发送请求时,数据会被加密,然后被送进一个“零权限沙箱”。这个沙箱有多安全?据说是连Google自己的运维工程师都无法查看的。任务结束后,数据和缓存自动销毁,“不落地、不留痕”,效率高还干净利落。

更“秀”的是,Google已经把这套机制真正“嵌”进了系统体验。在Pixel 10上,当你用Magic Cue功能时,PAC会自动从短信、日历、地图等信息里提取上下文,然后生成下一步建议。Pixel 10自带的Recorder(录音)也因为PAC的加持,支持了更多语言的转录和更精准的总结。这体验,直接是“润物细无声”的升级。

而且,Google还很“凡尔赛”地告诉你:PAC的调用日志,你甚至可以在“设置-开发者选项”里直接查看!2这透明度,简直把“隐私保护”写在了脸上。

这种策略的意义远不止于安全。当AI模型越来越懂你、越来越个性化的时候,“私有AI”就成了体验质量的“压舱石”。PAC提供了一条新路径:既让AI聪明到没朋友,又不用牺牲你的隐私。

从云端的TPU和Gemini,到Pixel终端的Tensor芯片和Android,Google在AI体验的“全链路”上,确实有着苹果也难以比拟的“主场优势”,尤其是在云端,它就是个“大富翁”。

国产厂商“集体抄作业”?华为OPPO荣耀不甘示弱!

AI时代,手机和云的界限正在被“重新定义”。手机芯片再强,也扛不住百亿级参数的大模型;但纯依赖云端,又会触碰隐私和延迟的“红线”。于是,“端云协同”这条路,成了所有厂商都绕不过的“华容道”:端侧负责响应、理解和控制,云侧负责推理、生成和学习。真正的智能体验,必须在这两者之间找到那个“甜蜜点”。

国产厂商也早就嗅到了这股“私人订制”的AI风潮。OPPO、华为、荣耀这些“头部玩家”,过去两年几乎同步完成了自己的端云架构设计和搭建,力求在隐私和性能的“拔河赛”中,不落人后。

尤其是OPPO,在AI探索这条路上简直是个“积极分子”。2023年就推出了自主训练的安第斯大模型,还搞了个“三级大模型部署”策略:端侧有轻量的Tiny模型,端云联合有Turbo大模型,云端还有超大的Titan模型。

上个月的2025 OPPO开发者大会上,OPPO更是官宣要跟火山引擎等公有云“组队”,打造自己的私密计算云(简称PCC)。这波操作,再次证明了苹果PCC的方向,正在成为行业“大趋势”。

图片来源:OPPO

OPPO的做法是,引入火山引擎、Google Cloud(海外)等公有云能力,再融合自家数据中心,构建一个“安全可信的云上基础设施”。同时,OPPO PCC还会和火山引擎Jedddak AICC进行“双向可信认证与加密通信”,确保用户数据在整个链路中都处于加密状态,最终实现“数据可用不可见”——包括OPPO和火山引擎在内的任何人都不能获取用户数据。3

不过,用第三方云以及与终端之间的通信,在隐私安全方面多少还是有些顾虑和劣势。这对于OPPO、荣耀以及其他大多数厂商来说,都是个不小的挑战。在国产手机里,目前可能也只有华为有能力像Google一样,在软硬件全栈上都“自己动手丰衣足食”。

今年6月,华为在HDC 2025开发者大会上发布了HarmonyOS 6,其中一个核心升级就是全新的鸿蒙智能体框架。但直到10月HarmonyOS 6正式推出,大家才发现华为还藏着一个“大招”——HPIC个人智能计算平台。官方是这么介绍的:

“在云上建立专属个人的计算空间,将设备上的隐私保护延伸至云端。”4

图片来源:华为

据雷科技查阅资料,华为的HPIC同样在云端部署了“机密计算区”。当你的任务太复杂,或者数据量太大,超出了设备算力(比如小艺通话摘要)时,系统就会把请求发到HPI处理。所有数据都只会用于当前任务的计算过程,处理完立刻删除,不留任何“痕迹”。整个过程中,华为既不存储也不访问用户的原始数据。4

虽然华为没有像苹果那样公布可验证镜像,但从设计思路上看,它毫无疑问也是冲着PCC的方向去的。而且,因为华为同样拥有自己的大规模数据中心、AI芯片、终端操作系统和芯片,这让它和Google的PAC,简直是“异父异母的亲兄弟”——都在追求这种从云到端的全链路掌控。

写在最后:AI隐私,大佬们的“新战场”

现在回过头来看,苹果确实再一次“改变了潮水的方向”。你看,华为、OPPO、荣耀,甚至是曾经的AI“先行者”Google,都在某种程度上“追随”了它的私有AI计算理念。

虽然不是所有厂商都能像Google、华为和苹果一样,从芯片、操作系统到云服务,实现对软硬件的“全链路把控”,但这股“大模型性能与隐私安全兼顾”的风潮,已然势不可挡。毕竟,在一个AI越来越聪明的世界里,让它既能成为你的“超级大脑”,又不会变成“偷窥狂”,才是用户最想要的“杀手锏”。这场AI隐私的“卷王争霸赛”,才刚刚开始。

引用


  1. 探索手机AI 隐私“最优解”:苹果之后,谷歌也入局私有云计算 ·MSN · (2025/11/12) · 检索日期2025/11/14 ↩︎

  2. 探索手机端AI 隐私问题“最优解”:苹果之后,谷歌也入局私有云计算 ·新浪科技 ·IT之家 (2025/11/12) · 检索日期2025/11/14 ↩︎

  3. 手机AI「卷」隐私和性能:苹果是老司机,华为、谷歌都是弟弟 ·36氪 ·冬日果酱 (2025/11/13) · 检索日期2025/11/14 ↩︎

  4. 手机AI「卷」隐私和性能:苹果是老司机,华为、谷歌都是弟弟 ·36氪 ·冬日果酱 (2025/11/13) · 检索日期2025/11/14 ↩︎ ↩︎