去年六月,Facebook人工智能研究部门的五位研究员联名发表了一份研究报告,主要介绍了机器人如何能够模拟谈判性质的对话。
虽然在很大程度上,机器人确实能够保证对话的连贯性,但研究员发现那些软件也会偶尔说出一些奇怪的话,比如“对我来说、对我来说、对我来说、对我来说,球没什么用。”
看到这些研究结果之后,Facebook人工智能团队便清楚地意识到,他们没有能够在日常口语的参数范围内,对机器人说出的话语进行有效限制。换句话说,他们只是研发出了一种仅限于机器人相互之间使用的独特机器语言。而对于这些研究结论,或许身处其他领域的人会觉得比较有趣,但其实在专业人士看来,根本就是毫无新意可言,也算不上是突破性发现。
就在那份研究报告发表之后的一个月,国外知名新闻媒体又发表了一篇名为《人工智能正在投资那些人类无法听懂的语言,我们是否应该阻止这种趋势?》的文章。具体看来,文章主要讲了机器人时常出现的偏离日常英语交流的问题。虽然这并不是上述研究报告的主要结论,但外媒文章表示,在发现机器人已经开始以一种全新的语言进行交流时,研究人员认为它们发展到了一种失去控制的地步,从而决定叫停整个实验。
该文章一经发表,便迅速传遍了整个网络,导致大量缺少创新报道内容的出版商开始跟风,纷纷说Facebook的工程师是因为机器人以一种独特语言进行自主交流出现了恐慌,从而叫停了人工智能项目的研究。甚至还有媒体指出,这一现象简直就是电影《终结者》在现实生活中的重现。因为在这部电影中,有一个机器人在有了自主意识之后就对人类发起了战争。
Zachary Lipton是卡耐基梅隆大学机器学习部门的助理教授,看到这篇本来还算有点儿意思的文章逐渐成为各家媒体博得关注的噱头,他不禁产生了一丝沮丧之情。
根据Lipton的介绍,近些年来,广大民众对“机器学习”和“深度学习”这类话题是越来越感兴趣。但与此同时,也导致了不少“趁虚而入”的低质新闻报道现象出现,对人们正确理解相关研究报告以及行业发展前景带来了负面影响。用他的话说,这就是人工智能错误信息的蔓延。其实,除了Lipton,还有很多该领域的研究人员也是感同身受。他们担心关于人工智能的猜测性虚











