为人工智能再来点催化剂,Facebook 也开源了自己的 AI 硬件设计

为人工智能再来点催化剂,Facebook 也开源了自己的 AI 硬件设计

人工智能、机器学习、深度学习,这些概念正在这两年快速兴起。作为未来科技的发展方向,各大科技公司也都在这方面投入了巨大的资源和精力。

Google 和 Facebook 当然是其中的翘楚。对于 Google 来说,这些技术可以让他们的搜索引擎更加好用,帮助他们巩固自己在核心技术上的优势;而对 Facebook 来说,虽然他们在这个领域不如 Google 的影响力大,但事实上,正如我们在周一为大家介绍的深度文章中谈到的那样,AI 领域已经成为了他们重要的发展方向之一。

昨天,Facebook 宣布,他们的研究人员已经在近日开发出了一款人工智能方向的硬件产品,并且从昨天开始将这项设计开源,让它能够服务更多的人。

与 Nvidia 合作

Facebook 这次开源的是一款名为 Big Sur 的服务器,这款服务器装配有图形处理单元(GPUs),是专为深度学习方向设计的芯片。该技术主要是在大量的数据基础上(比如说各种图片)训练人工神经网络,这样,系统之后就能够对其他新的数据做出理解和回应。

12057171_1651307828480035_1295090969_n.jpg

Facebook 在这个图形处理单元的技术是与 Nvidia 合作的。GPUs 被广泛应用于人工智能领域,因为相比英特尔公司生产的传统处理器,芯片对他们来说拥有更加独立的处理内核。这让它可以更好地处理 AI 所需要的那些愚蠢但是数量庞大的数据计算。

每一个 Big Sur 服务器都可以装配多达 8 个的 GPUs,每一个的最大输出功率可达到 300 瓦。它基于 Nvidia 的 Tesla M40 GPU 设计,但也可以适配其他的 GPU。

更快、更灵活、更高效

官方博文中,Facebook 认为自己的这个设计比起之前的设计会更快、更灵活、更高效。

在速度方面,他们如此说道:「凭借 Nvidia 的 Tesla 加速计算平台,Big Sur 比我们的上一代设计版本要快两倍。这意味着我们训练机器的速度会快两倍,探索网络的能力也会更强。」

在性能方面,虽然也有很多其他的高效计算系统,但 Big Sur 已经优化了服务器的散热和电源效率,这能够让 Big Sur 在 Facebook 自由空气冷却的开放计算数据中心工作,让他们可以更好地搭配其他的工作。

Big-Sur-top-view-without-cover-GPU-removal-1024x587.jpg

同时,在效率上,Big Sur 移除了那些不必要的组件,将其进行了完全简化。「事实上,Big Sur 几乎完全不需要任何工具的辅助——CPU 的散热片是你唯一一个需要用到螺丝刀的地方。」

开源利人利己

对 Facebook 来说,AI 领域是他们在未来工作的重点方向,这个技术可以被运用在语言识别、图像识别、甚至是自然语言处理方面,所以,它非常重要。

而对像 Facebook 和 Google 这些科技公司来说,开源这些技术对他们来说有非常大的好处。在他们看来,毕竟众人拾柴火焰高,这样的开源可以加速这个方向上的研究进程,因为会有很多的开发者和公司加入到这个项目的研发当中去。

「这就是网络效应。有更多的人使用它,它就会变得更好。」Facebook AI 领域的创建者 Yann LeCun 如此说道。

而 Facebook 在 AI 团队中的工程总监 Serkan Piantino 也认为「越多的人使用这项技术,它的成本就会变得越低,这对 Facebook 当然也是一件好事。」

事实上,将 AI 领域的技术开源已经成为了一种共识,大家都觉得这样做不仅不会使自己丢掉自己的优势,反而会让自己的技术发展的更快。Google 就在上个月开源了他们非常重要的一项机器学习核心技术——TensorFlow

共享不会停止

Facebook 会将这个设计上传至 Open Compute Project 这个网站,这是一个扎克伯格在 2011 年成立的计划,是 Facebook 用来分享他们在数据方面内容的一个中心。

同时,Facebook 也承诺会在未来继续公开这类代码,并以学术论文的方式将相关的发现公布出来。

我们希望通过这样的方式让更多的 AI 研究者们分享他们的技术。

这是 Facebook 的想法,也是我们普通人的心声,只有这样共享、开放的思维才能够让这样顶尖的科技更快地向前推动,让 AI 技术更好地为每一个普通人服务。



本文参考了 VentureBeat, Bloomberg Business, 及 ZDnet 等新闻源。

开源AI人工智能Facebook
下载极客公园客户端
iOS下载
反馈