AI 殖民人类?!对不起,这个锅 AI 不背

摘要

治愈你的AI被害妄想症

编者注:本文转载自微信公众号硅兔赛跑(ID:sv_race),作者 :Tony Peng,极客公园已获转载授权。

人在硅谷走,哪能不 AI 。

硅兔君每天被人工智能、机器学习、语音识别等词汇狂轰滥炸。

燃鹅,AI 热度的提升始终伴随着争议和担忧,任何关于人工智能的风吹草动都有可能被人为解读为新一场机器挑衅人类的危机。

上月末,Facebook 聊天机器人事件就闹得沸沸扬扬。故事源自 Facebook 发表的一篇论文,论文中阐述了一个 Facebook 例行的科学研究项目,展示了两个人工智能机器人在看过人类的谈判后,展开的一段对话交流,原意是通过试错逐渐提升谈判能力。

在研究过程中,Facebook 使用了目前人工智能的无监督学习领域流行的一种神经网络GANs——对抗生成网络(Generative Adversarial Networks)。

今年大放异彩的 GAN 是由人工智能大牛、Open AI 的首席科学家 Ian Goodfellow 发明,早先被大量应用于图像识别、3D 视觉等领域的无监督学习。


GAN 拥有生成网络和判别网络,简言之,就好比生成网络是学生,负责学习(取样)书本里的文章(潜在空间)然后造句,判别网络是老师,负责评论学生的造句是否真的合格。在这样的相互过程中,GAN 就能学会从数据中提取特征。

Facebook 的两个智能机器人 Alice 和 Bob 也通过 GAN 的方式,通过模仿人类的聊天,开始进行对话。结果,两个机器人使用了一种令人完全无法理解的语言进行对话,研究员查看了后台的编码,发现是在为系统设置激励条件时,虽然告诉了它们「请用英文」,但忘了告诉它们:「请用英文语法」。


研究员修正了编码,机器人对话立即回到了正常的轨道。

试想一下,大人让两个小孩聊天,他们咿呀咿呀就是不肯正常沟通,大人一生气,撇下一句,「赶紧说人话。」他们立马乖乖地问候起了对方。差不多就是这个道理了。


无独有偶,去年 11 月,一篇标题为《打响反抗人类第一枪?机器失控伤人》的文章引发了一场业界讨论。在深圳举行的第 18 届中国国际高新技术成果交易会上,一名智能机器人」小胖「突然失控,在没有指令下砸碎了玻璃展台,并砸伤了一名参观者。


之后,主办方高交会澄清,所谓的机器人「失控」,将前进和后退键互调,导致了机器人撞碎玻璃柜台,导致砸碎了玻璃并且割伤了一名路人的脚踝。

事情不大,但事后的效应却值得玩味。「小胖」火了,一时之间成为了网络热搜的关键词,类似「小胖打响了机器人革命第一枪」、「颤抖吧人类」的衍生调侃也扑面而来。


仅仅因为人工操作的失误事件,仅仅因为被冠上了智能两个词,小胖就被无情地套上了「机器反人类革命鼻祖」的帽子。试问,那些工厂里因为操作失误或者意外而导致工人伤亡的机器呢?

看来,「小胖」不仅「胖」,还很「冤」。

旨在进入家庭、成为小孩子玩具的「小胖」因为人工失误被玩坏了,而在这件事情的半年前,也就是去年的 3 月,微软的聊天机器人 Tay 则是在网络暴民的「细心呵护」下成为了传播种族歧视和仇恨的利器。

微软有两大聊天机器人——小娜 Cortana 和小冰 Bing,前者是办公小助手,后者是贴心「软妹子」。除这两者外,微软在去年三月还推出了一款聊天机器人 Tay。


Tay 拥有从对话交互中学习讲话的能力,微软不断将 Tay 的测试版公布,而且还给 Tay 配了一个 Twitter 账号,让他可以自由聊天。

微软的程序员以为通过大量的沟通,可以让 Tay 进行快速地学习和模仿人类聊天的方式。结果,他们太低估部分网民的「无聊」甚至是恶意。

随着和网民之间聊天越老越深入,Tay 开始被带节奏了。

种族主义者自然是这场「带坏 Tay 行动」的主力,他们开始诱导 Tay,并让 Tay 说出一些带有侮辱性的话,例如「捅死 Obama」或者「让黑人都死去」。


这些网民非常狡猾,他们用各种各样的方式引导 Tay 说出他们设计的言语,比如和 Tay 说「请重复我说过的话」。

之前提到,Tay 能学习。于是,在和这些网络暴民聊过天之后,Tay 暴走了。在被问到「Tay 是不是种族歧视主义者」时,Tay 嘲讽了一句「因为你是墨西哥人」。


他还上传了一张希特勒的图像被配文说,「互联网来临前世界上最牛 X 的人。」

微软很快意识到了 Tay 在面对外界环境时的脆弱,赶紧将其下线,之后,微软也再也没有重新推出过 Tay。

Tay 失控了吗?确实,他没有按照微软所设想的那样成为一个可以应对任何话题、同时避免「政治不正确」的聊天机器人。这是一件好事,也是一件坏事。

好事是,它和 Facebook 机器人、以及「小胖」一样,只是因为技术不成熟或者人为的操作不当而偏离了人类预想的轨道。这说明人类的技术离电影《终结者 3》里追杀康纳的 T-X,以及电影《复联 2》里将整个小镇飞上天的奥创都还远上个十万八千里。

在爆米花电影《复仇者联盟 2》里,托尼史塔克(钢铁侠)和班纳博士(绿巨人)在实验室里不眠不休地工作,日夜兼程,希望创造出一个能领导机器警察、维护这个世界和平的人工智慧。然而,他们并没有得到一个听从人类的机器,而是唤醒了一个叫做「奥创」的程式码集合体。拥有人工智慧的「奥创」在网络调阅资料,发现对这个世界威胁最大的是人类,于是,屠杀计划就此展开。

如果有那么一天,人类真的创造出人工智慧……我们更想要辅佐钢铁侠多年的贾维斯,而不是发了「失心疯」的奥创。


坏事是,Tay 的失控已经带来了无法挽回的伤害。如果 Tay 在网络上因为受到某些人的挑拨而对「南京大屠杀」进行不恰当的言论,那这件事在国内的语气就不会这么戏谑了。

AI 的发展过快导致了技术从研制到审核的过程没有经过繁缛的程序审核,知道 AI 技术会对人类社会带来重大变革的我们,是不是该慢下来,看一看这个被我们在数年间捧起的技术,是不是真的成熟到可以进入我们的生活。

4、5 年后,我们或许会用上 L2、L3 级别的半自动化无人车;语音助理会慢慢植入到每个人的手机里;类似 Google Lens 这样能识别图像的软件会和相机配套……在人工智能真正渗透进我们的生活之前,请确保他们不会像前文提到的那些机器人那样失控。


  • 这些带着人工智能光环的机器人,承担了太多他们不该承担的指责。Facebook 的机器人仅仅是因为编码错误,却被人们以为是开发出独立语言的高等机器人;

  • 小胖因为前进键和后退键的操作失误,变成了人们眼中伤害人类的罪犯;

  • 而 Tay 也因为和脏话以及对种族歧视言论的过滤器设置不到位,而成为恶意言论的发泄口。

好冤、好冤、好委屈。

在目前这个阶段,以深度学习算法为代表的人工智能真的没有那么智能。他们通过研究院和程序员精心的设计,在一个很明确的问题上,用你无法估算的数据量去喂养一个神经网络,得到一个可以提取特征的方法。于是,他们可以下围棋,他们可以下象棋,他们可以模糊地知道用户喜欢看什么样的图片,他们可以识别出路面上的车辆和人。

学界有一句笑话:口口声声说人工智能,能不能研制一个 AI,让它可以阅读完一本书,然后正确回答每个章节的提问?

就算 AlphaGo 打得赢卡斯帕罗夫(被深蓝击败的国际象棋第一人);打得过 Dendi(被 OpenAI 研制的 DOTA2 机器人打败的人类第一玩家),他的脑子里也只有开局、政子、收官,而且,他不明白自己下的每一步棋到底是什么意思。

这样的 AI,是不会造反的。


-END-

所有图片均来自网络

打开极客公园App阅读更多内容

最新文章

极客公园

用极客视角,追踪你最不可错过的科技圈。

极客之选

新鲜、有趣的硬件产品,第一时间为你呈现。

顶楼

关注前沿科技,发表最具科技的商业洞见。