马斯克带头呼吁禁止「杀人机器」,他们在恐惧什么?

摘要

担心 AI 进军军火行业会造成人类战争和杀戮的低成本化,这才是他们上书联合国的原因。

军火行业可以说是世界上最大最赚钱的行业之一,尽管多数人对它知之甚少,在和平的地区更是完全接触不到。但是这并不影响日渐渗透到我们日常生活的人工智能向这个领域迈进。

说起人工智能和军火业,你可能最先想到的是 T-800 那样的终结者或者《超能查派》里的 CHAPPiE,但很可惜,这些科幻电影里的机器人目前还只能存在于人们的幻想,或者恐惧之中,距离现实还非常遥远。

我们所说的人工智能进军军火业,是指致命自主化武器(LAW),现阶段有一些自动机枪和无人战斗机,比较有代表性的包括韩国三星的步哨机枪 SGR-A1英国航太雷神无人战斗机,另外美国和俄罗斯也在开发无人坦克,无需人类的操作就可以在地面上战斗。

毫无疑问,随着计算机技术的发展,军火行业也盯上了一些能为其所用的技术,利用人工智能的先进算法,自主化武器也会像日常生活中的智能设备一样,发生革命性的进步。而普通人工智能设备的安全问题就足以引起我们的关注,更不要说这些致命的杀伤性武器了。


专家团联名谏书联合国

据多家外媒报道,当地时间上周日,包括埃隆·马斯克和 DeepMind 联合创始人穆斯塔法·苏里曼(Mustafa Suleyman)在内的 116 位来自 26 个国家的科技公司创始人及 AI 和机器人领域的专家联名签署了一封致联合国的公开信,请求联合国禁止自主化武器(「杀人机器人」)的开发与应用。

「由于科技公司们所开发的人工智能和机器人技术可能会被误用于自主化武器的开发,因此我们认为发出这样的警醒是我们的责任。」

「致命的自主化武器可能会带来第三次战争革命,一旦发展完善,它将会导致武装冲突进入一个前所未有的规模,并且在速度上超越人类的理解范围。它们可能会成为令人闻风丧胆的武器,被恐怖分子、暴君所利用,施暴于无辜的人民,甚至可能会为黑客所挟持。」

IJCAI 是全球最重要的 AI 盛会之一,而 AI 的安全问题也是其重点讨论的议题之一。两年前的 IJCAI 大会上,包括埃隆·马斯克和史蒂芬·霍金和很多人工智能领域专家在内的数千人同样签署了一封公开信,呼吁联合国禁止致命自主化武器,那次事件在全球范围内引起了不小的波澜,也赢得了联合国充分的重视。

2015 年,英国政府公开表示反对这样的禁令,并表示「国际人道主义法规已经对该领域制定了足够的限制」,英国并没有在开发致命的自主性武器,英国使用的所有武器都「在人类的监察和控制之内」。

2014埃隆马斯克推特.png

(马斯克 2014 年发的推特)

埃隆·马斯克早在 2014 年就发过推特,表示人工智能可能会成为比核武器更大的威胁。前不久在 DOTA 2 的一场国际比赛上,OpenAI 开发的 AI 玩家 solo 完胜了人类顶级玩家,之后马斯克又在推特上发言称「如果你还没开始担心 AI 的安全性,你应该考虑考虑了。(它)比朝鲜半岛的情况危险多了。」然后配了一张标示着「最终胜利的是机器」的图。

524879033825072751.jpg


他们在怕什么?

那么,这些科技公司的创始人们到底在担心——甚至害怕些什么呢?

此前这些科技公司的创始人们曾经表示,根据目前 AI 技术的发展,不需要数十年,自主化武器在几年之内就可以开始部署。虽然有观点认为自主化武器和理想中的机器士兵能够让人类士兵避免在战场上受到直接伤害,但也有专家认为,自动运行的武器会降低战争的门槛,从而给人类带来更大的伤害。VCG41596306670.jpg

(普林斯顿之战)

的确,战争从古老的冷兵器作战到热兵器再到核武器,发生了两次大的革命,有观点称人工智能将会成为第三次武器革命的核心技术。战场上人类的参与越来越少已经是一个不可逆的趋势了,但随着人类参与的减少,人类对武器的控制也越来越松弛了,从前人们举着砍刀和长枪,后来有了导弹和核武器,人类可以在控制室里实现横跨大洲的武力打击,现在,完全自主的武器连遥控都不需要了,它能够针对目标完成自动的打击。

那么万一这种武器落入不法者的手里呢?以前他们需要揣着小刀近距离实施犯罪,后来他们远距离使用枪支犯罪,未来,这些罪犯可能已经「过时」了,一旦自主化武器在各个国家普及开来,针对军事力量的黑客们可能也就成为了最具威胁性的恐怖分子,试想一下,如果各国的自主武器系统被攻破,后果会是怎样的。

《连线》杂志就刊文表示,马斯克等人联名签署的这封公开信只是为了给联合国提供技术上的咨询与支持,「该组织警告自主化武器会成为恐怖分子的武器是没错的,但试图彻底禁止它们可能就是在浪费时间了。」

再回到这封信上来,在公开信下方列出的一百多位来自各个国家的专家和企业家中,大部分人本都应该是技术革命的绝对拥护者,他们中很多人是技术出身,甚至可能对军事和武器有着浓厚的兴趣,但为什么他们要站出来反对 AI 在军事行业的应用呢?

他们看似「杞人忧天」地警示我们一些尚未发生的「科幻情节」,这才是最值得我们关注的。

当然,虽然埃隆·马斯克不遗余力地警告人工智能的危险性,诸多人工智能专家和科技公司创始人联名谏书联合国,但是他们依然没有放弃人工智能技术的开发和研究,AI 是行业的未来,这一点,是一两条联合国的禁令所阻止不了的。


头图&部分插图来源:视觉中国

最新文章

极客公园

用极客视角,追踪你最不可错过的科技圈。

极客之选

新鲜、有趣的硬件产品,第一时间为你呈现。

顶楼

关注前沿科技,发表最具科技的商业洞见。