谷歌发布七条 AI 应用的「道德原则」,确保技术在正确的轨道上进步

摘要

谷歌「Don't be evil」又一作为。

6 月 7 日,谷歌 CEO 桑达尔·皮查伊发布了七条 AI 应用的「道德原则」,包括对社会有益;避免制造或强加不公平的偏见;发展和利用 AI 技术时注重隐私原则等。谷歌称其不会将 AI 用于军事武器和侵犯人权的监控中。但是仍会在其他领域保持跟政府和军队的合作,包括网络安全、军事训练、军队招募、退伍兵医疗、搜索、营救等方面。桑达尔·皮查伊表示这些合作至关重要,谷歌也会积极寻求其他方式来加强这些方面的工作,并保证服务人员和平民的安全。同时,谷歌不会研发可能会造成伤害的科技,除非谷歌认定「科技带来的好处远超过其造成的威胁」。

早在 4 月,谷歌因为美国国防部提供 AI 技术而受到公司内外的广泛批评和质疑。合作项目叫做「Project Maven」,帮助开发应用于无人机的人工智能系统。此举遭到四千多名员工联名上书,数十名员工离职,要求皮查伊远离「战争的生意」。最终谷歌向员工做出妥协,承诺明年合约到期后将终止「Project Maven」计划。这场「风暴」之后,谷歌管理层承诺会发布一系列「道德原则」规范未来的项目,指导技术研究、产品发展、商务决策。谷歌对 The Verge 透露,如果这项原则发布得早一点,谷歌也许不会参与到「Project Maven」中。

其实,谷歌决定发布这项 AI 原则也是考虑到多年以来自动化系统所构成的威胁,还有人工通用智能引起的耸人听闻的声音。就在上个月,一个人权组织和技术团体联盟发起「多伦多宣言」,呼吁政府和科技公司确保 AI 尊重平等和非歧视的基本准则。

作为行走在人工智能领域前沿的科技公司,谷歌早已将其未来押注在人工智能技术上,公司管理层都相信人工智能所带来的影响力绝不亚于互联网所能做到的。皮查伊表示,「在谷歌,我们用 AI 技术让产品变得更好:从 Gmail 电子邮件服务做到垃圾邮件拦截率高至 99.9%,为用户编写邮件时提供简单的建议到语音助手自如地与用户交谈。但是 AI 也有「犯错」的时刻,比如 Google Photos 的图像识别功能曾将黑人识别成大猩猩。」

尽管谷歌发布了这项原则,也无法控制科技的方方面面。谷歌拥有顶级的人工智能实验室,承载很多重要的学术研究,谷歌也公开发布了人工智能领域的很多研究成果。这意味着,其他公司可以重新创造和使用谷歌的研究方法和思想。当谷歌与其他实验室合作的时候,如果认为后者没有「正当」使用自己的研究成果,就会将其收回。谷歌的一位发言人说道,「比如拿谷歌开源的 AI 软件库——TensorFlow 来说,发布的原则不可能照顾得『面面俱到』,但是谷歌可以做到发挥其在开源社区的影响力,直接控制软件开发工具包,出台更严格的许可条例。最起码,在「不作恶」的这件事情上,谷歌明确表示,「如果在使用科技的过程中违背了原则,那么我们保留阻止或者停止科技的权利。」

谷歌还在极力争取竞标国防部价值 100 亿美元的云服务订单。在微软、IBM 等公司的共同竞争下,谷歌 AI 原则的发布也许意味着其将离国防合同更远了一步。但是皮查伊表示「原则的出台为的就是减少人工智能造成的危害、限制人工智能的滥用。我们承认人工智能如此强大的科技一定会引起同等效应的社会问题。也许在未来的几年,人工智能的发展和应用会给社会造成严重的影响。但是作为人工智能领域的领导者,谷歌有责任要让人工智能的发展步入正轨。」


参考:AI at Google: our principles

Google pledges not to develop AI weapons, but says it will still work with the military

Google Promises Its A.I. Will Not Be Used for Weapons

Google promises not to use A.I. for weapons or surveillance, for the most part

责任编辑:克里斯

最新文章

极客公园

用极客视角,追踪你最不可错过的科技圈。

极客之选

新鲜、有趣的硬件产品,第一时间为你呈现。

顶楼

关注前沿科技,发表最具科技的商业洞见。