谷歌大脑刘小兵:AI 发展这么多年,首先需要解决的是平台问题

谷歌大脑刘小兵:AI 发展这么多年,首先需要解决的是平台问题

前段时间 AlphaGo 接连打败人类棋手的消息在全球范围内造成巨大影响,AlphaGo 背后一个叫做 DeepMind 的英国 AI 公司也开始被人熟知,该团队于 2014 年被 Google 收购。Google 是全世界在 AI 技术上积累最深厚的公司之一,去年年底 Google 将未来发展战略从「Mobile First」调整为「AI First」。

谷歌大脑是 Google 旗下的一个深度学习科研项目团队,前百度首席科学家吴恩达就是这个团队最初的三名成员之一。谷歌大脑一开始只是 Google X 的一个研究项目。但因其惊人的效益,它脱离了 Google X 成为了谷歌总公司的单独部门。Google X 前负责人 Eric Teller 曾透露过,谷歌大脑团队当时赚到的钱超过了整个 Google X 部门的成本。

在极客公园 Rebuild 2017 大会上,谷歌大脑资深研究员刘小兵介绍了他们团队从 TensorFlow 到最新深度学习的研究。


被数据唤醒的神经网络

现在讲 AI 绕不过深度学习,因为深度学习是这波 AI 浪潮最开始的驱动力,深度学习严格来讲其实是深度神经网络。神经网络最开始模拟人类大脑,有神经元,神经元之间有连接,模型就是在学习连接的强度。

放到实际问题中,比如图象识别,给一张猫的图片,我们一眼就能看出它是一只猫,但对于机器来说它需要进行识别。机器面对一张图片,它看到的不是猫,而是一堆像素,每个像素是 0.255 一个点。比如猫的图片是 128×128 分辨率,那么机器看到的就是 128×128,这么多的整数值的东西。

图象识别中有一个概念叫做深度卷积网络,基本的含义就是把一张图片输到网络中,网络里有很多层状结构,每一层都会学到图片中的不同信息,比如第一层是颜色、第二层是形状、第三层是花纹...... 总之深度网络就是一个很深的层状结构,经过多次学习,机器就能得出结论,这张图上是一只猫还是狗。

这就是深度卷积网络。

CIQI1968.jpg

神经网络并不是一个新概念,它发明于上个世纪 80、90 年代,但那时候 AI 并没有火起来。原因就是当时没有这么多数据,硬件也不够强大。经过 40 年的摩尔定律发展,CPU、GPU 越来越强大,在大数据时代,我们收集了越来越多的数据,这个时候神经网络的效果要比其他算法好很多。

大家可以看到的语音识别、图像处理,包括无人驾驶、AlphaGo 这样的东西,全部是得益于神经网络的飞跃或突破。


强大的基础平台可以驱动新的研究和应用

去年年底谷歌将未来发展战略从「Mobile First」调整为「AI First」,对谷歌来说,全公司都转向了 AI。

TensorFlow 最初由 Google Brain 团队开发,用于各种感知和语言理解任务的机器学习。如语音识别、Gmail、Google 相册和搜索,只要涉及到智能的东西,谷歌都在用深度学习和机器学习来进一步提高用户体验和产品的准确性。2015 年 TensorFlow 作为开源软件发布,普遍应用于各种领域,已经进入很多大学的课堂,相当于课堂的官方系统,比如说斯坦福、伯克利,还有一些顶级的研究机构:OpenAI、DeepMind,还有中国的很多公司都在用 Tensorflow。

2016 年 6 月,谷歌大脑负责人 Jeff Dean 说在 GitHub 有 1500 个库提到了 TensorFlow,其中只有 5 个来自 Google。

除了提高现有产品的体验,谷歌还做了些新的尝试。AlphaGo 在去年和今年连续两次击败了人类最顶尖的棋手,这个就得益于深度学习的发展。

CONG9103.jpg

当然,还要有足够的硬件支撑。在今年 5 月份的开发者大会上,Google 发布了第二代 TPU,这是一个云计算硬件和软件系统,被称为 Cloud TPU,主要是为了提高机器学习计算处理所需要大量的负载,包括训练和推理,为 Google 云计算平台带来的巨大福音。

得益于 Google 在硬件与软件的集成方面的实力,TensorFlow 已经成为构建 AI 软件最领先的平台之一。而 TPU 则是作为专门为机器学习而专门设计的专用芯片,第一代 TPU 被 AlphaGo 人工智能系统用作其预测和决策的基础。

刘小兵提到,「摩尔定律经过 40 年高速发展,已经受限于物理学的一些限制。我们需要更加合理化地应用硬件,基于深度学习本身的机制重新思考硬件设计,这也是为什么我们做 TPU 的原因。」

 

模型越大,神经网络带来的提高会更多

AI 继续发展会带来一些新的可能,比如说无人驾驶。因为深度学习现在可以让计算机能够看清、识别和理解,放在汽车上,就是一个无人驾驶汽车。未来的趋势是有更多数据,模型会越来越大,神经网络带来的提高会越来越多。

AI 发展这么多年,首先需要解决的是平台问题。刘小兵提到,「很多创业公司没有这种资源,而我们的做法是让计算机去自动生成算法,称之为 learn to learn,或者叫 auto ML。基本想法就是像 AlphaGO 一样,不断的提高机器学习的效果。最终有可能达到的效果是,放一堆数据,设定一堆目标,机器就会自动完成这个目标。」

CIQI1961.jpg

「对于谷歌深度学习来说,我们想布局一个非常大的模型,用算法自动生成算法,最后软件到硬件的映射通过另外的机器学习算法去协同软硬件的功率,使它达到整体效果最优。我们认为这对于解决一些人工智能的事是一个非常好的解决方案。」

谷歌TensorFlowAI神经网络
关注极客公园公众号
反馈