你好,游客 登录 注册 搜索
背景:
阅读新闻

脸书的AI失控?脑洞开得太大了吧!_网易体育

[日期:2017-08-07] 来源:现金网  作者: [字体: ]

虚拟@现实

如果人类迄今的AI系统能够发明出能彼此交流沟通的语言,那绝对是一件石破天惊的大事,绝不可能由类似英国《太阳报》这样的小报来成为报道的主力。事实上,迄今为止人类在人工智能领域所取得的成就,距离发展出具有自我意识的系统还有十万八千里。即便是像击败人类围棋顶尖高手的人工智能系统AlphaGo,它所仰赖的神经网络也只不过是具有自学习功能的复杂程序而已。而人工智能系统发明出彼此交流沟通的语言,意味着这个AI系统已经具备了自我意识,它能意识到自己的需要以及行为的动机,而不再是被动地执行人类事先编好的程序。

日前,一则关于Facebook(脸书)所开发的人工智能系统(AI)失控被迫关闭的新闻在坊间传播,在社会中也引起了人们的关注和舆论热议。这则带有流言性质的新闻传播的要点为Facebook的AI系统自己发明了人类不懂的语言进行互相交流,甚至还包括一则Bob和Alice两个聊天机器人对话的截图在网上流传。

本文来源:南方都市报 责任编辑:王晓易_NE0011

唐映红专栏

本版言论仅代表作者个人观点

(原标题:脸书的AI失控?脑洞开得太大了吧!)

由此观之,作为媒体,包括大众媒体和自媒体,面对那些似是而非的具有噱头性质的流言时,尽量报道事实,而不要脑洞大开。既然无法苛求普罗大众,那就告诫媒体警惕。(作者系高校心理学教师)

根据Facebook人工智能研究院(FAIR)的官方解释,这次流传的所谓关闭人工智能系统只不过是修正聊天机器人编程中的一个BUG,工程师在设计两个聊天机器人对话测试的编程中忘记输入激励使用符合英语语法反馈的相关参数。这次修正BUG也不是什么“关闭”,更没有出现所谓的“失控”,道理其实很简单,这次因为BUG而出现的所谓“读不懂”的聊天记录其实毫无意义。这就好比收音机频道设置错了产生的噪音一样,没有人会为收音机出现“听不懂”的噪音而大惊小怪。

这次FAIR聊天机器人之间编程的BUG,被讹传成AI发明出人类难以理解的语言互相交流导致系统失控并不得不关闭,不过是迎合了人们脑子里已经形成的联想模式。对于没有经过系统方法学训练以及科学教育的人来说,“果然如此”的经验是他们做出确信判断的重要主观依据,至于真相到底如何,门槛太高实在难以企及。

其实,在这次媒体传播流言的现象中,最有趣的是为什么那些非专业的媒体以及大众会以讹传讹地误信不实的流言呢?最直观的一个解释就是人们从影视、小说以及似是而非的未来预测讨论以及伪科学的聒噪中,学习了太多人工智能系统失控的例子。人工智能失控是科幻影视、小说最主要和常见的题材之一,像近两年热卖的影片《机器姬》(Ex Machina)以及《超能查派》(Chappie)就反映了这个主题。同时,由于人工智能是具有相当高专业门槛的前沿技术研究领域,能搞懂的人寥寥无几。这样,大众就很容易在“人工智能系统”与“失控”之间产生联想学习效应,甚至启动效应,前者意指人们一听到“人工智能系统”就很容易联想起“失控”;后者则更进一步,指人们一听到“人工智能系统”就自动联系上“失控”。

不仅如此,互联网和社交网络普及的现时代,一个似是而非的流言,如果迎合了人们普遍的心理预期,根本来不及等到事实真相的澄清,短时间之内以讹传讹的流言就会铺天盖地,形成强势的舆论洪流。这时即便是事实澄清的信息发布出来,也会被流言的洪流所淹没。

人类目前最接近具备自我意识的人工系统应该是目前欧洲正在实施的“蓝脑计划”。瑞士洛桑理工学院的心理学家亨利·马克拉姆和他的小组正在用IBM的计算机阵列来模拟人类的大脑,在此之前他们已经成功地模拟了爬行动物、猫和猕猴的大脑。“蓝脑计划”是迄今最可能产生自我意识的人工系统项目,而距离这一步成功也只是一种最乐观的预测。即使是“蓝脑计划”的人工系统产生了自我意识,它实质上并不是一个通常意义的人工智能系统,而只是模拟人类大脑的逆向工程,产生自我意识并不等于具有智能。