Facebook的人工智能机器人对话是真的嘛?
补个图
快看 | Facebook人工智能科学家贾扬清加入阿里巴巴,任技术副总裁
记者 | 陆柯言
3月18日,阿里巴巴达摩院通过账号宣布,原Facebook人工智能科学家贾扬清已正式加入阿里巴巴,担任技术副总裁岗位,领导大数据计算平台的研发工作。
贾扬清本硕毕业于清华大学,此后在加州大学伯克利分校获得计算机科学博士学位。研究生期间,他曾在新加坡国立大学、微软亚洲研究院、NEC美国实验室和谷歌研究院实习。
三年前,他加入Facebook担任研究主管(Research scientist director),负责为Facebook各个人工智能产品搭建支柱平台,比如计算机视觉、自然语言处理、语音识别、移动人工智能和AR等。
在加入Facebook之前,他曾在Google Brain担任研究科学家,主要从事计算机视觉、深度学习和TensorFlow框架的研究。学生阶段,
贾扬清最为人熟知的成就是他在博士期间开发的深度学习框架Caffe。这已成为一种常用的深度学习框架,主要应用在视频、图像处理方面的应用上。
出乎人类预料,Facebook的AI意外发明了自己的语言,到底是怎么回事?
李杉 编译整理
量子位 报道 | 公众号 QbitAI
Facebook人工智能研究实验室里,最近出现了一些神奇的对话。比如说:
Bob: i can i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
Bob: i i can i i i everything else . . . . . . . . . . . . . .
Alice: balls have a ball to me to me to me to me to me to me to me
△ 现场就是这个样子的
不要怀疑自己的英语水平,起码你认识每一个词。
至于整句话是什么意思……Facebook那些常年生活在美国的研究人员们也看不懂。
这些对话,是在他们教AI进行协商的过程中,两个AI之间发生的。这是两个AI在谈判啊!
负责训练AI的研究人员说,眼看着机器自己聊着聊着就不说人话”了……
为了准确了解这些AI在说什么,研究人员不得不调整了模型,限制他们只能以人类可以理解的方式进行交流。
当然,强行让AI说人话,也是为了他们最终能派上实际用场:和Facebook用户沟通。
有人可能觉得,限制他们干什么啊,AI发明自己的语言很酷啊!
可是作为人类,不觉得这有点恐怖么……
嫌不够恐怖的再看一段:
Bob: i . . . . . . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
Bob: you i i i i i everything else . . . . . . . . . . . . . .
Alice: balls have 0 to me to me to me to me to me to me to me to me to
Bob: you i i i everything else . . . . . . . . . . . . . .
Alice: balls have zero to me to me to me to me to me to me to me to me to
这些内容不仅看起来毫无意义,而且似乎根本没有在谈判。Alice基本在重复自己说过的话,并没有对最初的立场做出让步。
但奇怪的是,Facebook的数据表明,这样的对话仍然让AI最终成功完成了谈判。
如果你还是觉得不恐怖,可能是因为,你有着和量子位一样的疑问:这堆bla bla bla也算发明了语言?
《大西洋月刊》今天发表的一篇文章说,要思考这个问题,可以回想一下cryptophasia,也就是一对双胞胎用只有他们自己能理解的秘密语言展开沟通的现象。
这段2011红遍全球网络的视频你可能看过,当时有两个刚学会走路的双胞胎用我们完全无法理解的语言相互沟通”。
关于双胞胎之间的这种沟通究竟是语言还是玩耍,目前仍然存在争论。很多语言学家认为,YouTube上的那对双胞胎可能是在社交,但未必表达了任何意义。
但Facebook的AI,似乎融入了更多语言元素。
其他人工智能研究人员也表示,曾经观察到机器可以发展自己的语言,包括拥有拟序结构的语言,而且可以定义词汇和句法。
但按照人类的标准来看,这些语言未必总有实际意义。
今年早些时候,非盈利AI研究机构OpenAI的计算机科学家在arXiv上发的一篇论文Emergence of Grounded Compositional Language in Multi-Agent Populations”中,就阐述了AI如何学会使用抽象语言相互沟通。
论文地址:
在语言沟通不可用的情况下,这些AI智能体还会转向非口头沟通,相当于人类的手势动作。
不过,AI不需要通过实质性的动作来完成非口头沟通,只需要利用视觉感应形态来实现。
最近一篇由乔治亚理工学院、卡内基梅隆大学、弗吉尼亚理工大学的研究人员共同发表的论文Learning Cooperative Visual Dialog Agents with Deep Reinforcement Learning”也表明,两个AI可以通过讨论和分配颜色和形状值来发明自己的通信协议。
论文地址:
换句话说,研究人员认为他们目睹了在没有人类监督的情况下自动出现的基础语言和沟通”。
这种研究工作的意义重大。不仅可以了解AI之间如何沟通,还有可能揭开人类句法和行文结构最初的形成方式。
但是,我们还是要回到这个问题上来:这些AI创造的是真的语言吗?
《大西洋月刊》带着这个问题,去问了宾夕法尼亚大学语言学教授Mark Liberman。
Liberman说:我们必须首先承认,‘语言’这个词如何使用并不是语言学家说了算,但语言学家对于人类语言的特性以及这种自然类的边界显然有自己的观点和看法。”
所以,Facebook的AI是否创造了自己的语言,取决于我们所谓的语言”究竟是何含义。
例如,语言学家往往认为,符号语言和方言属于真正的语言——而不仅仅是真正语言的近似物,而肢体语言”和Python及JavaScript这样的计算机语言并非真正的语言,尽管我们也会用语言”来称呼它们。
所以,Liberman的问题就变成了:Facebook AI的语言——我们称之为Facebotlish——是否会成为一种新型而持久的语言,或者说,未来的英语?
尽管没有足够的信息可以判断,但答案恐怕是否定的。”他说,首先,它完全基于文本,而人类语言的本质是口头和手势表达,文本只是人为附加的。”
从更大的角度来看,Facebook聊天机器人的智能程度还远未达到人类的水平。
现在看来,1970年代的‘专家系统’风格的人工智能程序最多只能算古董,就像17世纪用发条驱动的自动化装置一样。”Liberman说,几乎可以肯定的是,几十年之后,如今的机器学习人工智能也将变成同样的古董。”
Liberman表示,如今已经很容易通过各种算法建立一个虚拟的世界,就像建造一套会弹琴的发条装置一样。”
在接受《大西洋月刊》就这个问题的采访之后,Liberman在语言学博客Language Log上强烈推荐了这篇报道,还贴出了完整的采访内容。
最后关于Facebook的评论,没有出现在大西洋月刊的文章中:
Facebook的聊天机器人,就是一个用各种算法建立的虚拟世界”。
是不是总有一天会有一些自组织的系统,开发出一个属于自己的系统间交流方式,并且不被人类的程序员们重启打断,自己进化几十年甚至几百年?
应该是可以的。
但是,Facebook的聊天机器人在引领这种潮流吗?
Liberman对此持怀疑态度。
相关链接Facebook AI意外发明语言的那个研究:
Facebook让AI学会谈判协商,能通过说谎”达到目的
《大西洋月刊》报道:
?utm_source=feed
Language Log博文:
?p=33355
【完】
一则通知
量子位正在组建自动驾驶技术群,面向研究自动驾驶相关领域的在校学生或一线工程师。欢迎大家加量子位微信(qbitbot),备注自动驾驶”申请加入哈~
招聘
量子位正在招募记者、运营、产品等岗位,工作地点在北京中关村。相关细节,请在公众号对话界面,回复:招聘”。
Facebook这个机器人厉害了,看几小时视频就能模仿人类聊天
安妮 编译整理
量子位 出品 | 公众号 QbitAI
人形机器人的相似度与人类的好感度不成正比。根据日本机器人专家森政弘1970年提出的恐怖谷理论,随着物体拟人程度增加,人类的反应呈增-减-增曲线。当拟人度达到某一程度时,人类好感度会大幅下降,甚至还会觉得拟人物惊悚可怕。
△ 恐怖谷理论/维基百科
Facebook正在努力让自己的机器人尽快跨过恐怖谷。
近日,Facebook人工智能实验室(FAIR)的研究人员就开发出一个善于表达情绪的机器人。这是由一个由AI算法操控的虚拟动画机器人,在观察几小时人类Skype聊天视频能模仿人的表情。
68个面部标记区块为了更好模拟人类的情感表达方式,研究人员将动画中的人脸分成68个区块,在Skype对话中重点观察这些部位的变化。在交谈中,人类的点头、眨眼和嘴部的动作变化都会反应出来,机器人会学会这些面部变化。
△ 上图为捕捉到的人类对话中的面部表情,下图为系统对面部表情的追踪
观察一段时间后,动画机器人可以实时预测可能出现的面部表情。如果视频中人在笑,机器人也可能张开嘴,或者歪着头。
测试结果随后,Facebook研究人员进行了一组测试。志愿者们观看了人和人对话的原版视频,以及训练后的机器人模拟的反应,他们认为机器人表现得自然且真实。
△ 图片中线条高低表示嘴部(左)及眼部(右)的张合度,可以看出用户(上)和智能体预测(下)的表情基本一致
因为目前算法还只能表现在动画中,尚不清楚算法支持的人形机器人的反应如何。
学习面部交流的基本规则不足以创造真正的对话伙伴,以色列特拉维夫大学的博士生Goren Gordon说,真正的面部表情是要基于所思所感的。”
在这种情况下,Facebook系统会创造出一种平均性格”,卡内基梅隆大学语言技术学院副教授louis-Philippe Morency说。在未来,机器人的性格可能更复杂,或能根据谈话对象调整自己的性格。
机器人不擅长人类之间互动的这些微妙元素,Gordon说。他同时表达了对机器人的期望:在某一时刻,我们终会走出恐怖谷,走到另一边。”
△ 日本大阪大学智能机器人研究所设计的人形机器人女播音员Otonaroid
Facebook将在本月24号温哥华召开的IROS 2017上展示这项技术,目前已将这项技术的论文《Learn2Smile: Learning Non-Verbal Interaction Through Observation》公开。
论文摘要在这篇论文中,我们研究了人类和智能体面对面交流中的非语言面部暗示,提出了基于用户表情自动学习并升级智能体面部情感表达的方法。我们用数百个视频训练神经网络,包含人类相互对话的视频,这其中没有加入外部的人为监督。
实验结果显示,我们的智能体面部标记模型可以长时间预测人类的表情;对比结果也表明,模型明显优于基线方法。最后,我们进行了更深入的研究以更好地理解模型性能。
本项研究的数据集已经开放,方便领域内的其他研究者使用。
最后,附论文下载地址:
?dl=0
— 完 —
诚挚招聘
量子位正在招募/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复招聘”两个字。
量子位 QbitAI
?'?' ? 追踪AI技术和产品新动态