OPPO 的安第斯云,背后是什么?

摘要

在 AI 时代,手机的算力「组织架构」需要重组。

过去一年,OPPO 改换了一副新面目示人。

早期 OPPO 做产品,是以「脚踏实地」著称的。他们更关注功能如何具体地落实到用户需求。比如「充电五分钟,通话两小时」,「多倍潜望长焦」、就连他们探索卷轴屏等概念产品,都显得特别接地气。

但近一年,OPPO 接连发布了几项有点「抽象」的技术,从一年前的马里亚纳自研芯片,到夏天的潘塔纳尔,在刚刚结束的 OPPO INNODAY 上,OPPO 又推出了一项新概念,安第斯智能云。

作为手机厂商,OPPO 早就在做云服务。这并非行业焦点,而各家的云服务在功能上都大同小异。毕竟也不存在竞争,用户用哪家的手机,就要用谁的云。

但这一次,OPPO 似乎在做一个大动作:从马里亚纳芯片、到潘塔纳尔智慧跨端系统,再到安第斯智能云,OPPO 将三者并成为「三大核心技术」,其战略上赋予的关键性不言而喻。

看起来,OPPO 正计划布局一个完全不同的「云系统」。我们不妨分析下它因何而来,又将意味着什么?

 

 

01

云服务的兴起

 

 

要研究一个全新的云服务,我们就不得不回顾「个人云」的发展历史。

个人云服务进入主流视野,可以追溯到 Dropbox 的兴起。它是第一代「云盘」的成功典范,自 2008 年上线后,仅 7 个月时间,Dropbox 就吸引了 100 万用户,这个速度甚至比 Facebook 的初期增长还要更快。一年后,这个数字变成了 1000 万。

但就在 Dropbox 飞奔的同时,智能手机也迅速普及,手机厂商开始入局。2011 年,苹果推出 iCloud,次年,谷歌推出 Google Drive。

智能手机厂商、系统商的入局,给云储存带来了一项杀手级应用:储存用户智能手机上生成的数据。从照片、通讯录,到日历、邮件、应用数据。这一变化将云服务的用户面,一下拓宽到了亿级、十亿级。

但很长一段时间里,云服务的本质,都只是「云储存」而已。甚至直到今天,用户用得最多的云服务,依然是手机数据的备份和恢复。

这一背景下,用户也开始讨论,云真的可靠吗?真的有必要且无可替代吗?部分「硬核玩家」一直在尝试用本地的云储存,也就是 NAS,来管理自己的数据。这部分数据安全原教旨主义者认为,只有把数据放在自己的硬盘上,才是 100% 安全的。

直到 2015 年,Google Photos 的诞生,彻底改变了「云服务」的本质。

自创业以来,谷歌提供给用户的「云服务」,一直偏向于「应用」而不是「存储」。比如邮箱、日历、云文档,只不过它们的本质依然是储存,用户有将一切数据导入本地的选择。

但 Google Photos 不一样,它是真正完全基于「云端算力」的应用。谷歌用云端算里、AI 能力,对数据进行了深度挖掘,提供了更好的呈现方式。比如 Google Photos 可以识别用户照片里的人,通过一张照片里的人脸,就可以轻松找到同一个人的全部照片;又比如用户可以通过自然语言,对图片进行检索,搜索「西瓜」、「度假」、「新年」等照片。这都是传统云服务完全不具备的能力。

自此,个人云服务悄悄发生了一次质变。因为用户如果将照片存在本地或 Dropbox 等云盘上,就无法实现相应的 AI 功能。所以,当我看到 OPPO 说要打造一个新的「智能云」,第一反应就是它要朝着应用化、服务化的方向加速发展。

事实确实如此,安第斯智能云规划的六大能力,除了传统的储存、机器学习之外,还包括云端实时渲染、智能对话、硬件仿真等能力。云端实时渲染解决的,是端侧算力不足时在端云之间实现超低时延的渲染;智能对话可以实现多场景下的人机交互,理解用户意图,主动推荐服务;硬件仿真包括芯片仿真、手机仿真。其中手机仿真是指通过手机虚拟化帮助开发者远程开发与测试。

 

这些计划都充满雄心,也值得用户期待。

现在,让我们把视线放回历史。谷歌发布 Google Photos 之后,「照片搜索」已经成了大部分手机标配的功能,这背后又有另一段故事,另一条关键技术路线。

 

 

02

「终端计算」的崛起和局限

 

 

面对谷歌的全新云相册,苹果第一个作出了应对。

2016 年,在 iOS 10 上,苹果首次推出「照片搜索」功能,显然是在对标 Google Photos。

与 Google Photos 不同的是,苹果的相册并不利用云端算力对照片进行分析,而是用手机自身的 NPU(神经网络处理器),来实现 AI 学习、识别。

苹果之所以把一切放到本地运行,一方面是强调自己保护隐私,另一方面也能提升服务的可靠性,在网络环境不好的时候也能供用户使用。

这开启了手机 NPU 普及,以及之后军备竞赛的时代。到今天,每家手机厂商在发布新产品时,都会把 NPU 性能当作一个重要模块来阐释。「机器学习」在手机上的应用场景逐渐变得越来越广泛:从语音识别、图像识别处理、影像优化,甚至可以对游戏进行「插帧」,优化流畅度。

 

图片来源:视觉中国

 

但 NPU 也并非事事完美。首先,它的性能依然有局限,NPU 模块的算力再强,在模型处理能力上,也无法与谷歌云端 AI 的能力相媲美。

其次,它依然会占用相当多的系统资源,今天很多 iPhone 用户都发现,新手机拿到手之后前几天,恢复数据后,掉电会特别快。这背后就是手机一直在跑它的 NPU 模型,对相册等数据进行识别、目录重建,也常会带来一些异常发热的问题。

最后,NPU 模型跑在本地,但云端的数据却横跨不同终端。所以类似苹果这样的厂商,就必须为旗下每款硬件都配备同等算力的 NPU,否则就会出现手机上能实现的功能,平板、电脑等设备因为性能不足,无法实现的问题。

一个最近的例子就非常典型:苹果新推出了 Apple Music 的 K 歌功能,这个功能是利用本地的 NPU,对歌曲的人声部分进行分析、消音。有大量老旧设备,因为 NPU 算力不足,无法体验这一功能。而这个应用是典型的,本应通过云端算力来解决的场景,因为它不涉及任何隐私问题,处理一次推送给手机即可。舆论认为这是苹果的一次秀肌肉,但它确实影响了老用户的体验。

从这个逻辑,就不难理解为什么 OPPO 要从「影像功能」入手,自研马里亚纳芯片。照片,可能是手机隐私保护级别最高的功能之一,且对实时性的要求极高。用户按下快门,当然希望马上看到经过处理、优化的图像。这一点 Google Photo 的体验就相对差一点,很多时候照片拍摄完成、上传之后,要到第二天甚至之后,才能看到经云端 AI 优化的效果。

无论如何,最后的结局是,谷歌、苹果两家巨头,选择了两种不同的路线。两种路线在数据处理,呈现上,分别有不同优势,很难说谁「选对了」。

理解了这两种路线,再回头看 OPPO 提出的「端云协同」,就会容易理解很多。

 

03

「端云协同」的未来

 

 

显然,「端云协同」的目标,是同时吸取云端和终端计算的优势。

在需要快速反应,处理敏感数据时,利用终端算力更快、更实时、无需「在线」的特性;在分析、训练大量非敏感数据时,则发挥云端省资源、算力强的特性,在云端后台实现,提升服务能力。

理想状况下,「端云协同」还将有一个关键优势,就是能让不同终端,具备统一的体验。这件事不一定要发生在互联网的云端,而是也可以发生在本地局域网内。

比如当用户用耳机唤醒语音助手时,耳机的算力显然不足以对语音进行识别。它就可以把识别任务发送到手机等其他设备,进行处理。通过这种方式,也能极大提升电视、手表等算力相对较弱设备的体验。

优势显而易见,但这件事也一定不简单。苹果、谷歌,两家顶级巨头都各自只做好了一件,OPPO 又要如何同时探索自研芯片、跨端系统、智能云三个方向呢?

答案依然要到 OPPO 的历史里去找。回顾国产智能手机市场的发展历程,不难发现,国内用户对云应用的认知、接受度相对要低一些。同时,OPPO 也很难在一夜之间拥有比肩苹果的芯片自研能力。

你会发现,这应该是 OPPO 在自我审视,观察市场,分析用户后,做出的谨慎选择。

现在,马里亚纳自研芯片已经是 OPPO 手机里关键的 AI 芯片,核心差异与优势在于 NPU,也就是 AI 算力,为终端性能与更广阔的应用前景打下坚实基础;潘塔纳尔则是不同设备操作系统之上的共用「中间件」,让数据、服务,能够在不同终端间流转,实现真正的以人为中心而非以设备为中心;最后,安第斯智能云将那些重算力、大数据的任务拿到云端,成为多设备共享的「智慧大脑」。

对 OPPO 来说,选择这个目标本身,基本上就是选择了一条漫漫长路。因为同时涉及三个核心技术的发展和协同,挑战是相当之大。

 

不过我问了问 OPPO,据说陈明永在战略上是把决心和耐心都准备好了,「在芯片研发上不要寄希望于奇迹」,他曾经明确表达了这个观点。

 

其实所谓做「难而正确的事情」,首先是要找到正确的事情。这样,即便要「滚石上山」,也是有意义的艰难。

 

最新文章

极客公园

用极客视角,追踪你不可错过的科技圈.

极客之选

新鲜、有趣的硬件产品,第一时间为你呈现。

张鹏科技商业观察

聊科技,谈商业。