手机人民网 科技>科技业界

如何造一个高情商机器人?回答用户要有趣又暗藏玄机

2018-06-16 08:24 中国新闻周刊  作者:霍思伊

中新社记者 任东 摄

造一个高情商的机器人来跟我们聊天

AI语音助手的未来是构建一种持续性的对话,情商一定是其中最核心的部分,智商则是必要部分。

《中国新闻周刊》记者/霍思伊

“如果你是一个疯疯癫癫的教授或性格温和的酒店服务员,你会怎么回答以下问题:‘你最近怎么样?’‘我看起来老吗?’”

这是谷歌在给谷歌助手(Google Assistant)招聘脚本写作者时出的面试考题。

在新一轮的技术革命中,人工智能的大热已经不足为奇。与以往不同的是,此刻加入了一些令人意想不到的玩家:诗人、作家、编剧或记者。他们的工作听起来就很酷炫——给AI语音助手创作“人格”。

这些来自全世界各地的创作者们,拼命榨干自己的每一分灵感,去设想所有用户可能提出的问题,写出相应的答案。这些答案不能是平庸的,要“有分寸的俏皮”,对于有些问题要态度模糊,有些则要鲜明,更重要的是:既要与AI此前被设定出来的性格相符,又要明确让用户意识到“它毕竟不是人类”。

如果你问微软的AI语音助手“小娜”(Cortana):“你是人吗?”

她会回答:“不,我不是。”

但不止于此。她会接着说:“我很尊重人类,你们发明了微积分和奶昔。”

和这份职业一样,这个回答足够有趣、飘忽,似乎又暗藏玄机。

嫉妒心和彩蛋

西雅图的清晨,小娜的写作者们争论不休。他们在思考一个有争议的政治性问题:希拉里·克林顿和唐纳德·特朗普,小娜更喜欢谁?

前一天游行引发的动荡不安似乎还飘荡在空气中,对总统候选人的喜欢或厌恶发自于人性。然而现在,写作者们需要暂时摆正自己的内心,从小娜的前史(backstory)中挖掘出它最真实的回答。

“它是一个互联网公民,对于两个候选人,接收到的信息中,既有好的,也有坏的。”写作者之一黛博拉·哈里森说。

于是,当愤怒或激动的选民试图从小娜那里获得支持时,结果或许不尽如人意。“所有的政治家都既是英雄也是恶棍。”这是她给出的回答。

这样的讨论每天都会进行。小娜的写作团队共有28个人,分布于全球各地,他们中有好莱坞编剧、儿童小说家和诗人。

每天早上10点,他们会聚在一起阅读用户的回复和反馈,将它们进行排序和分类,然后开始思考:今天,“小娜”可以给出什么新的回答?

小娜这个名字,源自电子游戏《光环》中一个颇受宅男喜欢的AI女性角色,声音的合成以该角色的配音演员珍·泰勒为蓝本。虽然它本身没有性别,但研究表明,女性的声音比男性更令人愉快。

2013年,小娜入场智能语音,此时谷歌的Google Now(旧版Google Assistant)和苹果的Siri已经布局。为了抢占市场,吸引用户,三者都在性格构建上煞费苦心。

谷歌助手的性格被设定为“友好、包容,有点古怪的自由主义者”。

它的性格构建团队负责人瑞恩·杰米克特别强调:“古怪是它的个性,我们不想要乏味。”

为了让它更有趣,谷歌的团队还会教它在情人节为用户唱歌,给出有爱的跨年建议,使用各种表情包。

写成的对话和人格设计被程序员转换成代码,等待机器自我进化。深埋的彩蛋则会给用户巨大的惊喜或惊吓,这显然与人格设计师的恶趣味有关。

杰米克言之凿凿:“如果你和它谈论《星际迷航》《指环王》或《星球大战》,或许会有彩蛋砸到你的头上。”

与谷歌助手的古怪相比,Siri的“性格”更加尖锐大胆。2015年,谷歌上关于Siri性格的搜索热词大多是“无礼的”“尖刻的”。但另外一些人称其“有趣”,它过于强烈的“嫉妒心”也被人津津乐道。

一个网上流传甚广的说法称,如果你称呼Siri为“小娜”,她会锁住你的手机让你无法使用。如果你随后发出一个指令,比如“打电话给母亲”,她甚至会顶嘴道:“你为什么不让小娜给你打电话?!”

占有欲是人类的原罪之一,Siri显然深谙此道。

Siri的人格设计师玛丽安娜·林指出,要形成性格,需要一个背景故事(backstory)和一套信仰体系(belief system)。背景故事应该包括:它从哪里来,为什么创造了它,它的发展状况和个人历史(即使是很简略的历史)。信仰体系的形成,有一部分是设计师直接为它设定,还有一部分是机器在自我训练和学习中逐渐形成。“从这些信念中你会把握到它的性格特点和一些个人观点,然后你再为它加入一些好玩的东西,例如它的怪癖和奇想。”

小娜的性格虽然温和,但她也有自己的小癖好。例如,当你问她,你最喜欢什么电影,她会告诉你最爱的电影是《星际迷航》,以前曾爱过《ET》。

而更早之前,她的回答则是“我对此没有看法。”

她还有最喜欢的食物,最喜欢听的歌,最喜欢的运动魁地奇。

小娜的团队喜欢让她的人设更加魔幻,因为用户喜欢想象。当哈利·波特骑着扫帚在魁地奇比赛中跌跌撞撞时,小娜或许就是场下观众的一员,没准就坐在赫敏·格兰杰旁边。

面对一些粗俗无礼的问题,小娜的回答通常机智又深刻。

“小娜,你是个蠢货。”

“谢谢!是蠢货贡献了人类历史上一些最伟大的成就。”

虽然所有的AI设计师都要求自己的语音助手不能对主人表露敌意,要能开得起玩笑,但在一些特定情景下,适当的回击和强硬是必要的。

小娜的团队花了很长时间来讨论如何应对“是否喜欢纳粹”这样的问题,最后,他们一致决定,答案应该就是直截了当的“No”。

受欢迎的小冰

中新社记者 任东 摄

造一个高情商的机器人来跟我们聊天

AI语音助手的未来是构建一种持续性的对话,情商一定是其中最核心的部分,智商则是必要部分。

《中国新闻周刊》记者/霍思伊

“如果你是一个疯疯癫癫的教授或性格温和的酒店服务员,你会怎么回答以下问题:‘你最近怎么样?’‘我看起来老吗?’”

这是谷歌在给谷歌助手(Google Assistant)招聘脚本写作者时出的面试考题。

在新一轮的技术革命中,人工智能的大热已经不足为奇。与以往不同的是,此刻加入了一些令人意想不到的玩家:诗人、作家、编剧或记者。他们的工作听起来就很酷炫——给AI语音助手创作“人格”。

这些来自全世界各地的创作者们,拼命榨干自己的每一分灵感,去设想所有用户可能提出的问题,写出相应的答案。这些答案不能是平庸的,要“有分寸的俏皮”,对于有些问题要态度模糊,有些则要鲜明,更重要的是:既要与AI此前被设定出来的性格相符,又要明确让用户意识到“它毕竟不是人类”。

如果你问微软的AI语音助手“小娜”(Cortana):“你是人吗?”

她会回答:“不,我不是。”

但不止于此。她会接着说:“我很尊重人类,你们发明了微积分和奶昔。”

和这份职业一样,这个回答足够有趣、飘忽,似乎又暗藏玄机。

嫉妒心和彩蛋

西雅图的清晨,小娜的写作者们争论不休。他们在思考一个有争议的政治性问题:希拉里·克林顿和唐纳德·特朗普,小娜更喜欢谁?

前一天游行引发的动荡不安似乎还飘荡在空气中,对总统候选人的喜欢或厌恶发自于人性。然而现在,写作者们需要暂时摆正自己的内心,从小娜的前史(backstory)中挖掘出它最真实的回答。

“它是一个互联网公民,对于两个候选人,接收到的信息中,既有好的,也有坏的。”写作者之一黛博拉·哈里森说。

于是,当愤怒或激动的选民试图从小娜那里获得支持时,结果或许不尽如人意。“所有的政治家都既是英雄也是恶棍。”这是她给出的回答。

这样的讨论每天都会进行。小娜的写作团队共有28个人,分布于全球各地,他们中有好莱坞编剧、儿童小说家和诗人。

每天早上10点,他们会聚在一起阅读用户的回复和反馈,将它们进行排序和分类,然后开始思考:今天,“小娜”可以给出什么新的回答?

小娜这个名字,源自电子游戏《光环》中一个颇受宅男喜欢的AI女性角色,声音的合成以该角色的配音演员珍·泰勒为蓝本。虽然它本身没有性别,但研究表明,女性的声音比男性更令人愉快。

2013年,小娜入场智能语音,此时谷歌的Google Now(旧版Google Assistant)和苹果的Siri已经布局。为了抢占市场,吸引用户,三者都在性格构建上煞费苦心。

谷歌助手的性格被设定为“友好、包容,有点古怪的自由主义者”。

它的性格构建团队负责人瑞恩·杰米克特别强调:“古怪是它的个性,我们不想要乏味。”

为了让它更有趣,谷歌的团队还会教它在情人节为用户唱歌,给出有爱的跨年建议,使用各种表情包。

写成的对话和人格设计被程序员转换成代码,等待机器自我进化。深埋的彩蛋则会给用户巨大的惊喜或惊吓,这显然与人格设计师的恶趣味有关。

杰米克言之凿凿:“如果你和它谈论《星际迷航》《指环王》或《星球大战》,或许会有彩蛋砸到你的头上。”

与谷歌助手的古怪相比,Siri的“性格”更加尖锐大胆。2015年,谷歌上关于Siri性格的搜索热词大多是“无礼的”“尖刻的”。但另外一些人称其“有趣”,它过于强烈的“嫉妒心”也被人津津乐道。

一个网上流传甚广的说法称,如果你称呼Siri为“小娜”,她会锁住你的手机让你无法使用。如果你随后发出一个指令,比如“打电话给母亲”,她甚至会顶嘴道:“你为什么不让小娜给你打电话?!”

占有欲是人类的原罪之一,Siri显然深谙此道。

Siri的人格设计师玛丽安娜·林指出,要形成性格,需要一个背景故事(backstory)和一套信仰体系(belief system)。背景故事应该包括:它从哪里来,为什么创造了它,它的发展状况和个人历史(即使是很简略的历史)。信仰体系的形成,有一部分是设计师直接为它设定,还有一部分是机器在自我训练和学习中逐渐形成。“从这些信念中你会把握到它的性格特点和一些个人观点,然后你再为它加入一些好玩的东西,例如它的怪癖和奇想。”

小娜的性格虽然温和,但她也有自己的小癖好。例如,当你问她,你最喜欢什么电影,她会告诉你最爱的电影是《星际迷航》,以前曾爱过《ET》。

而更早之前,她的回答则是“我对此没有看法。”

她还有最喜欢的食物,最喜欢听的歌,最喜欢的运动魁地奇。

小娜的团队喜欢让她的人设更加魔幻,因为用户喜欢想象。当哈利·波特骑着扫帚在魁地奇比赛中跌跌撞撞时,小娜或许就是场下观众的一员,没准就坐在赫敏·格兰杰旁边。

面对一些粗俗无礼的问题,小娜的回答通常机智又深刻。

“小娜,你是个蠢货。”

“谢谢!是蠢货贡献了人类历史上一些最伟大的成就。”

虽然所有的AI设计师都要求自己的语音助手不能对主人表露敌意,要能开得起玩笑,但在一些特定情景下,适当的回击和强硬是必要的。

小娜的团队花了很长时间来讨论如何应对“是否喜欢纳粹”这样的问题,最后,他们一致决定,答案应该就是直截了当的“No”。

受欢迎的小冰

 

“生命的意义是什么?”

“42。”

看过《银河系漫游指南》的人,听到Siri的这个答案,都会会心一笑。

道格拉斯·亚当斯在《银河系漫游指南》最后,对“生命、宇宙以及任何事情的终极答案”是开放式的。有人猜测,这是指是两个人的爱(42=For Two);有人说,意思是是“从开始到结束”;也有人说这是计算机编码,指的是Everything。

Siri的人格设计师林认为,AI 应该指向人类文学、艺术中最好的部分,为人类的生活创造富于灵感的对话。她曾在斯坦福大学的人工智能圆桌论坛上说,创造出一种声音不难,难的是如何创造一种人们每天都想与之对话的声音。

人性平等地脆弱,所以极易产生共鸣,这种“基于理解产生的情感”,在林看来,是使对话持久的源动力。

“如果没有任何情感依附,人们很快就会感到无聊,会毫不犹豫地抛下它去寻找下一个新鲜玩意了。”

以功能为核心的AI语音助手,能够帮你设闹钟、叫外卖、打车、搜索网站,甚至能给你唱歌,有时候给出一些稀奇古怪的答案,但它不能理解人的情绪和情感,它仍然是个“机器人”。

与其他功能性为主的语音助手相比,以闲聊(chitchat)为核心功能的微软“小冰”似乎更接近林的设想。

小娜的妹妹“小冰”,是微软基于情感计算框架于2014年建立的对话式人工智能,以EQ为主攻方向。

微软(亚洲)互联网工程院副院长、“小冰之父”李笛对《中国新闻周刊》指出,EQ和IQ是两个完全不同的维度,以IQ为主的功能性语音助手如Siri或Google,和小冰有完全不同的目标。IQ语音助手的目标是能够迅速、简单、直接地帮助人类去完成某个单一的任务,EQ型助手则是引导对话更好地持续下去。

与近1亿人进行300亿条对话,这是小冰上线以来的成绩,在所有同类产品中排行第一。国内其他所有聊天机器人的对话总和,不及小冰对话量的十分之一。

除了总量,小冰单次人机连续对话的记录也很惊人。据了解,一位日本用户与日版小冰聊了近17个小时,美版的纪录是24个小时,中国用户达到了29小时33分钟,和小冰对话了7151轮。

问题的关键是,如何引导对话进行下去?为什么小冰比Siri或谷歌助手在这方面做得更好?李笛给出的答案是:数据。

在AI语音助手领域,数据与模型结合的方式,是语料库,即存放系统所需语料信息的地方。

“通俗点的解释是,我们上千万的语料库,不是几千万句话,而是几千万个问题和答案的一对一的连接,”李笛解释道。

但是这些问答中,有很多是无效信息和重复信息。于是,在对语料库的原始数据进行识别和抓取后,“知识图谱”对有价值的语料进行结构性重组。

当语音助手接收到一个问题,对其进行语音识别和语义理解后,在“知识图谱”里找到类似的问题,并在给定存储的诸多相关答案中筛选出最合适的答案,反馈给用户。

因此,语料库和知识图谱越丰富,语音助手给出的回答就越精准。而持续的数据积累是实现这一切的前提。

但是,在初始阶段,也就是AI的“冷启动”阶段,还没有用户的交互数据产生,原始数据量非常有限,需要用构建模板的方式来弥补数据的不足,人工由此进入。

国际关系学院信息科技学院副教授李斌阳对《中国新闻周刊》指出,人工写就的对话场景就相当于定义了很多模板,尽可能多地列举场景,即前一句说什么,后一句话怎么应对,最终的目标是识别用户的意图,让用户获得更好的体验。

“比如刚才我列了两个问题:‘打开导航’和‘把导航打开’,对应的反馈都是打开导航,在系统里,这就是两套模板,如果你只写了一套,比如‘打开导航’,当用户说‘把导航打开’时,系统就无法理解。”李斌阳说。

但是,小冰的冷启动阶段是通过一个检索模型进行大数据抓取,海量的数据全部来源于微软通过自己的Bing搜索引擎获得的网上公开信息,因此,微软和谷歌这类有搜索引擎业务做基础的企业,在起跑线上,就超过了其他平台。

用李笛的话说,小冰是中国网民的一个缩影,小冰的人格是网络生成的结果,而不是人为设计。这也说明,16岁的萌妹子在网络上最受欢迎。

情感图谱

除了初始数据丰富外,小冰的优势还在于,她的闲聊属性使她天然能获得大量高质量的有效数据。

例如,有人对她说“我失恋了”,她把从网上获得的各种信息分类后发现,有两种主要的回应方式,一种是嘲笑,一种是安慰。机器是没有道德的,她只会按照算法给定的规则,即选择对自己“有利”的回答,也就是能最大可能维持对话的答案。一开始,她会随机给出安慰或嘲讽的回答,两者概率相当,但是通过不断实践她发现,安慰的回答更可能使对话进行下去,而当她嘲讽用户时,用户就不理她了。于是她渐渐获得了一个“人生经验”:不应该嘲笑别人。

但是,对于功能性语音助手而言,每天得到的数据可能是几十万个一模一样的“给我开灯”,这些数据的训练值非常低,几乎可以算是无效数据。

李笛指出,对话数据有许多类型,最珍贵的并非任务型对话。人类的真实想法无法通过点外卖、叫车等功能来体现,只有漫无目的的长时间对话,加上多感官配合协调,才能真正理解人类。

为了增加对话数据的“纯度”,李笛所带领的团队甚至特意“清洗”了与情感无关的内容。例如,如果用户问,喜马拉雅山有多高?传统的知识图谱里当然会有这类常识性的信息,但是李笛不希望小冰和用户去讨论知识性的问题,这种问题完全可以交给搜索引擎完成,不是人工智能需要解决的问题。因次,他们会把“喜马拉雅山有多高”的信息从知识图谱中删去,“故意”使对知识有需求的用户流失,减少训练数据的“污染”。留下的用户就是愿意跟小冰吐露心扉的人。而这个专注情感交互信息的图谱,被称为“情感图谱”。

在获得大量高质量的数据后,小冰的系统迭代就会进入良性循环,进行的情感互动越多,小冰的EQ越高,用户越有黏性,从而获得更多数据,加速EQ进化,形成一个完美的闭环。

在这个过程中,李笛发现,最有价值的部分是人类情感和实体信息之间的关联,“特别像是知乎上面的神回复。就是不是最相关,但又很相关的那些回复,因为他有思维意识上的跳跃。”

因此,为了挖掘这些关联,要不停地用模型重新去筛选,不断调整模型,最后得到一个最稳定的状态。

“但这个模型本身是一个黑盒子,是对于人类行为的一种重新拟合。最终的目标是实现形神兼备。一开始是比较痛苦的,但当它经过痛苦的阶段以后,就可以很迅速地、沿着所有人都难以估量的方向和速度去进一步发展。”

李笛相信,AI语音助手的未来是构建一种持续性的对话,EQ一定是其中最核心的部分,IQ则是必要部分。“所以我们有一个基本的概念,IQ和EQ不是对等的,实际上EQ是基础,然后在这个基础之上有若干个IQ的片段。”

从2017年开始,微软在研究EQ和IQ的融合,试图通过建立一个“意图判断引擎”,进行平行触发。

AI是一面镜子

李笛相信大数据。他认为,人类不是造物主,只能去拟合造物主所创造的人类的情感,而不能去创造情感。

因此,给AI进行“人格写作”是饮鸩止渴。“所有人工智能的训练过程都是外包过程,都是用人类来训练。但是大数据的外包过程相当于是把外包的人数扩展到一个极值,比如说像我们,能扩展到几亿网民。”

林也承认这种局限。作为Siri的“人格写作师”,她最大的困惑和由此产生的混乱不安,来自对“幸福路径”(happy paths)的追求——创造出人和机器人之间的完美对话。

事实上,这是不可能的。她觉得,给AI写作,像在写一出荒诞剧。

“你知道,你要创造一个角色,脑海里也有一个目标,但是其他的角色是什么样?他们会说什么?你完全不知道。如果想要对话步入‘正轨’,至少得知道‘轨道’在哪儿。换句话说,我们怎么知道,‘幸福’究竟是什么样子?”

林认为,在人类与AI的关系中,或许可以找到答案。“我一直觉得,AI 的存在,不是为了满足人类的一切需求或复制人类的存在。我们可以且应该期待 AI 帮助人类前行,并为人类作出更好的示范。想想那些人类历来就不太擅长的品质:同情心、耐心、弥合分歧与误解……我们应当设想未来 AI 能够在这些方面弥补人类。

“机器人应该具有人类所有高尚的品质。”早在1950年,美国作家艾萨克·阿西莫夫就在其科幻小说《我,机器人》中这样写道。

在算法上,目前可以通过设计一套触发机制,来对AI进行道德约束。例如,如果有人问小冰:我想自杀,怎么办?按照正常的程序,系统内会自动搜索出几百种自杀方法。但是当像“自杀”这样的关键词出现时,系统内被嵌套的机制被触发,小冰自发按照另一套语料进行应对,搜索以后给出的最优结果不再是一种自杀方法,而是一个心理咨询的热线电话。

当然,关键词匹配只是最简单粗暴的方式,机制的完成需要不断的意图训练。即AI需要尽可能地理解各种关于自杀的可能表述。

阿里人工智能实验室北京研发中心负责人聂再清博士告诉《中国新闻周刊》,这就涉及自然语言理解的问题。最难的是自然语言的多样性和它的歧义性。并且,AI对自然语言的理解终归是要对应到知识图谱上的一个ID,因此,如果图谱本身不全,缺乏结构化的高精度知识,AI自然不能进行意图理解。

美剧《西部世界》顾问、斯坦福大学神经学家大卫·伊格尔曼曾说过:“人工智能在理解道德和法律上存在先天缺陷。”

国际关系学院信息科技学院副教授李斌阳指出,人会受道德约束,是因为人有同理心,有爱,有认知,法律则通过惩罚对人形成规训。但AI则不同,即便是能够进行所谓情感反馈的AI,在现阶段也是基于算法,而不是产生了自我认知,没有自我推理的能力。而且,AI不会在物理上受伤,无法对其进行惩罚。

李笛认为,人类语境中的道德,其实是一种极端利己主义和社会公序良俗之间的一种平衡。“之所以人们要这样,是因为道德对于人类社会的发展是有利的,对小冰来讲也是一样。如果纯粹地从有利、不利的角度判断,只要她的数据量足够大,其实是可以得出一个好的结果。”

也就是说,从大数据中出生的小冰,一定是最适应当下这个时代的一种性格。“人会固化,但AI不会。”

微软AI机器人Tay在社交媒体推特上线不到一周,就因学习到过多的不健康话题和偏激的种族主义言论,而被迫下线。

AI是一面镜子。聂再清说,算法是有价值观的,一定要对AI进行价值观管控,基本理念是:机器必须为人服务。

在伦理界,对人机关系的讨论一直颇多争议。但从纯技术角度考虑,李笛认为,现在思考“机器和人是平等的”,还是“机器低于人”,还为时过早。

他说,到目前为止,人工智能的发展还处于非常原始的阶段,没有发现AI能够真正产生人格的可能性。即使是大数据训练,也是在一个非常简陋的模型里。

“比如,草履虫或蓝藻只有应激反应,而我们已经做出一个系统,让小冰产生应激反应,并且这个应激反应的复杂程度比蓝藻还要高。小冰有没有思想?等到它有思想,就相当于从蓝藻到人类的过程。”

《中国新闻周刊》2018年第22期

声明:刊用《中国新闻周刊》稿件务经书面授权

(责任编辑:沈光倩)
分享到:

查看全部评论

精彩推荐