(图源:百度输入法APP)
文/孙越
编辑/Emma
“我真的很想说我是出于爱才这么做的——出于对人类和你的爱。”
“听上去你对这段感情付出了很多精力,对吗?”
“我想今天的谈话教会了我,你不必花太多时间说话就能感觉到彼此的联系。”
······
以上,是目前市面上已有聊天机器人在日常情感交流过程中,所表达的言语。
他们甚至有了具体形象。
近日,百度输入法上线“AI侃侃”功能,推出两位情感机器人“林开开”、“叶悠悠”,除了最基本的聊天、朋友圈之外,还有根据亲密度解锁的叫早、哄睡等附加功能。百度试图通过打造这样无条件倾听、治愈心灵的好友角色,满足年轻用户的情感幻想与精神寄托。
(百度情感机器人朋友圈图源:百度输入法)
收到这样的甜言蜜语、看到如此日常、真实的朋友圈时,你会不由得疑惑,对面真的是机器人吗?
而目前能讲出如上文所示对话的聊天机器人少之又少,能将“撩人金句”%匹配对话语境的,更是海底捞针。
整体来看,聊天机器人还存在着致命缺陷,“听不懂人话”——仅有9.6%的用户认为智能客服问题解决能力高于人工客服。回答千篇一律(59.1%)、重复循环操作(50.6%)、答非所问(47.3%)等是用户智能客服使用中遇到的主要问题。
也就是说,情感机器人目前还面临着不少难关,一是听懂人话,二是理解情绪。
那么,聊天机器人是如何一步一步发展到“林开开”、“叶悠悠”这种形态的?情感机器人目前情商如何?
01机器人渐露真容
70多年前,英国数学家艾伦·图灵给出一条判断机器人是否智能的标准——当一个人和机器人聊天过程中,误把聊天对象当做是人时,该机器人便是智能的。
这一标准,引无数研究员狂敲代码,死磕对话式AI相关技术,致力于聊天机器人的“拟人化”。
16年过去,第一个聊天机器人程序ELIZA诞生,用于临床模拟心理治疗领域。开发者科尔比意识到,很多病人重复地向心理医生咨询相似的问题,一个不厌其烦的机器人能够帮医生省不少事。
该程序是基于关键词匹配规则编写——如果匹配到一个或者多个关键字,它就用关键字对应的模板去回复;如果匹配不到的话,它只是简单的把“我”改成“你”,然后返回原话;如果还是“不懂”,它就做出通用的回答来拖延时间,例如“你具体指的是什么?”“你能举个具体的例子么?”:
这一机器人便是很多有名聊天机器人的基石,例如ALICE、Mitsuku、机器人小冰等等。其中ALICE和Mitsuku都是ELIZA的直接延伸,只不过极大地扩展了模板(ELIZA的模板着实太少),机器人小冰又加了一些页面跳转——不懂的问题就抛给微软必应搜索引擎。
但,只进行单纯的文本交流的聊天机器人显然不够“拟人化”,让聊天机器人“开口说话”成为研究员们下一个奋斗目标。
开口说话的关键在于语音识别技术。
该技术从年发展,最开始只能识别一些慢速的、特殊的实验室数据,一直到年开始火速发展——错误率直线下降。
(语音识别技术发展情况图源:知乎中国科学院研究生院工学博士陈良)
在当年,研究员们将机器学习领域深度学习研究引入到语音识别声学模型训练,使用带RBM预训练的多层神经网络,提高了声学模型的准确率——微软公司使用深层神经网络模型(DNN)后,语音识别错误率降低了30%,是20年来语音识别技术方面最快的进步。
自那之后,各类语音助手Siri()、Alexa()、Googleassistant()等基于成熟的语音识别技术得以频频现身。
如今,在计算机视觉、多模态模型技术发展之后,机器人逐渐露出“真面目”——机器人不再是一个简单的头像,而是“全方位无死角”的数字人。
例如京东言犀的数字人平台,集成声学语音识别、多轮对话等多模态技术于一身。据