
翻译 | CDA数据分析研究院,转载需授权
原文 | https://blog.statsbot.co/chatbots-machine-learning-e83698b1a91e
你是否曾与苹果的Siri,亚马逊的Alexa,微软的Cortana或其他助手交谈以设置闹钟、给朋友打电话或安排会议?许多人可能会说对的我的确这么做过,尽管会话助手在常见和日常任务中都很有用,但很难迫使会话助手就一般性的,有时是哲学性质的话题进行讨论。
Statsbot团队邀请了数据科学家,dmitry Persiyanov,来解释如何用神经会话模型修复这个问题,以及如何使用机器学习来创建聊天机器人。
通过自然语言与机器交互是通用人工智能的要求之一。人工智能的这一领域被称为对话系统,语音对话系统或聊天机器人。机器需要为你提供信息丰富的答案,维持对话的上下文,并且难以与人类(理想情况下)区分。
在实践中,最后一项要求尚未达到,但幸运的是,如果机器人有用,并且是一个有趣的沟通者,可以进行一些有趣的沟通,那么人类就准备好与他们进行对话了。
对话系统目前有两种主要类型:面向目标(Siri,Alexa,Cortana等)和一般会话(Microsoft Tay bot)。
前者帮助人们使用自然语言解决日常问题,而后者尝试与人们进行范围广泛的对话。
在这篇文章中,我将给出一个基于深度神经网络的一般会话对话系统进行比较概述。我将描述主要的架构类型和推进它们的方法。
我希望这篇文章最终能成为每个想要用机器学习创建聊天机器人的人的切入点。如果你读完这篇文章直到最后,你就可以训练自己的会话模型了。
准备好了么?
让我们开始吧!
我将参考循环神经网络和单词嵌入,所以你应该知道它们是如何工作的,以便轻松地理解这篇文章。
生成和选择模型
一般会话模型可以简单地分为两种主要类型 - 生成模型和选择性(或排名)模型。此外,混合模型也是可能的。但常见的是,这些模型构思了对话语境的几个句子并预测了这种语境的答案。在下图中,你可以看到此类系统的说明。
在这篇文章中,当我说“网络使用单词序列”或“单词被传递给RNN”时,我的意思是单词嵌入被传递到网络,而不是单词ID。
关于对话数据表示的注释
在深入讨论之前,我们应该讨论一下对话数据集是什么样的。下面描述的所有模型都是成对训练(上下文,回复)。上下文是在回复之前的几个句子(可能是一个)。 这个句子只是它的词汇表中的一系列标记。
为了更好地理解,请查看表格。从两个人之间的原始对话中提取了三个样本:
- 嗨! - 嗨,你好。 - 你几岁? - 二十二。你呢? - 我也是!哇!
请注意批处理中每个句子末尾的“ ”(序列结尾)标记。这个特殊标记有助于神经网络理解句子的边界并明智地更新其内部状态。
某些模型可能会使用来自数据的附加元信息,例如说话者的ID,性别,情感等。
现在,我们准备继续讨论生成模型。
生成模型
我们从最简单的会话模型开始,“ 神经对话模型”。
为了对对话进行建模,本文采用了一个序列到序列(seq2seq)框架,该框架出现在神经机器翻译领域,并成功地适应了对话问题。该体系结构由两个具有不同参数集的RNN组成。左边的一个(对应于ABC标记)称为编码器, 而右边的一个(对应于 -WXYZ标记)称为解码器。
编码器如何工作的?
编码器RNN每次构造一个上下文的标记序列,并更新它的隐藏状态。在处理整个上下文序列之后,它产生一个最终隐藏的状态,这个隐藏状态结合了上下文的意义并用于生成答案。
解码器如何工作?
解码器的目标是从编码器获取上下文表示并生成一个答案。为此目的,在解码器RNN中维护词汇上的softmax层。在每个时间步长中,该层采用解码器隐藏状态并输出其词汇表中所有单词的概率分布。
以下是生成回复的工作原理:
解码器中生成回复,适用于那些喜欢公式而不是单词的人。这里,w_t是时间步长t上采样的单词; θ是解码器参数,phi是密集层参数,g表示密集层,p-hat是时间步长t词汇表的概率分布。
在生成回复时使用argmax,当使用相同的上下文时,总是会得到相同的答案(argmax是确定性的,而采样是随机的)。
我上面描述的过程只是模型推理部分,但也有模型训练部分,它以稍微不同的方式进行工作 - 在每个解码步骤,我们使用正确的单词y_t而不是生成的单词(w_t)作为输入。换句话说,在训练时,解码器使用正确的回复序列,但删除了最后一个标记并且标记被预先添加。
解码器推断阶段的说明。前一时间步长的输出作为当前时间步长的输入。
目标是在每个时间步长上最大化限度的提高下一个正确的单词的概率。更简单地说,我们要求网络通过为序列提供正确的前缀来预测序列中的下一个单词。通过最大似然训练进行训练,这导致经典的交叉熵损失:
这里,y_t是在时间步骤t的回复中的正确答案。
生成模型的修改
现在我们对序列到序列框架有了基本的了解。我们如何为这些模型添加更多泛化能力?有很多方法:
生成模型的问题
稍后,我将为你提供流行实现的链接,以便你可以训练自己的对话模型。但现在我想告诉你一些你将面对的生成模型的常见问题。
通用回复
通过极大似然训练的生成模型倾向于预测一般回复的高概率,例如“好”,“否”,“是”和“我不知道”的广泛情境。
回复不一致/如何合并元数据
seq2seq模型的第二个主要问题是它们可以为释义的上下文生成不一致的回复,但具有相同的意义:
最常被引用的与之相关的工作是“ 基于角色的神经对话模型”。作者为每个话语使用说话者的ID来产生答案,这不仅取决于编码器状态,还取决于说话者的嵌入。扬声器嵌入与模型一起从头开始学习。
使用这个想法,你可以使用你拥有的不同元数据来扩充你的模型。例如,如果你知道说话的时态(过去/现在/将来),你可以在推理时以不同的时态生成回复!你可以调整回复者的性格(性别,年龄,情绪)或回复属性(时态,情绪,问题/非问题等),同时你有这些数据来训练模型。
为了你的练习
下面是一些不同框架中的seq2seq模型,如果你可以打开的话,可以看一下,都是一些外网的模型数据之类的。
TensorFlow
论文和指南
深入选择性模型
完成生成模型之后,让我们了解选择性神经对话模型的工作原理(它们通常被称为DSSM,代表深层语义相似性模型)。
选择模型不是估计概率p(回复|上下文; w),而是学习相似性函数 - sim(回复,上下文; w),其中回复是预定义的可能答案池中的元素之一(参见下图)。
直觉是网络将上下文和候选答案作为输入,并返回它们彼此之间的可信度。
选择性(或排名或dssm)网络由两个“塔”组成:第一个用于上下文,第二个用于响应。每座塔都可能拥有你想要的任何结构。塔取其输入并将其嵌入语义向量空间(图中的向量R和C)。然后,计算上下文和应答向量之间的相似性,即使用余弦相似度。
在推理时,我们可以计算给定上下文和所有可能答案之间的相似性,并选择具有最大相似性的答案。
为了训练模型,我们使用三重损失。Triplet loss在triplets上定义(context, replycorrect, replywrong),等于:
选择性模型的三重损失。它与SVM中的最大边际损失非常相似。
什么是replywrong?它也被称为“负面”样本(replycorrect称为“正面”样本),在最简单的情况下,它是来自答案池的随机回复。因此,通过最小化这种损失,我们以绝对值不提供信息的排序方式学习相似性函数。但请记住,在推理阶段,我们只需要比较所有回复的分数,并选择一个得分最高的。
选择模型中的抽样方案
你可能会问,我们为什么要从数据集中随机抽取样本?也许使用更复杂的抽样方案是个好主意?确实如此。如果你仔细观察,你可能会发现三元组的数量是O(n³),因此正确选择负数是很重要的,因为我们无法完成所有这些(大数据,你知道)。
例如,我们可以从池中抽取K个随机否定回复,对其进行评分,并选择最高得分的那个作为否定答案。这种方案被称为“硬负面”开采。如果你想深入挖掘,请阅读“ 深度嵌入学习中的采样事项 ”一文。
生成性与选择性:利弊
此时,我们已经了解了生成模型和选择模型的工作原理。但是你选择哪种类型?这完全取决于你的需求。下表是为了帮助你做出决定。
最难的部分是评估
其中一个最重要的问题是如何评估神经对话模型。有许多自动指标用于评估聊天机器人与机器学习:
但是最近的一些研究)表明,所有这些指标都与人类对特定情境的答复适当性的判断密切相关。
例如,假设你有上下文“Statsbot是否破坏了我们处理数据的方式”?,然后回答“当然是这样”。但是你的模型会回答例如“这绝对是真的。”之类的话来回答上下文。上面显示的所有指标都会给出这样一个答案的低分,但我们可以看到这个答案与你的数据提供的一样好。
因此,目前最合适的方法是使用目标指标对模型进行人工评估,然后选择最佳模型。是的,这似乎是一个昂贵的过程(你需要使用像Amazon Mechanical Turk这样的东西来评估模型),但是目前我们没有更好的东西。无论如何,研究界都朝这个方向发展。
为什么我们不能在智能手机中看到它们?
最后,我们准备创建最强大,最智能的会话模型,通用的人工智能,对吧?如果是这样的话,拥有数千名研究人员的苹果,亚马逊和谷歌等公司已经将它们与个人助理产品一起部署。
尽管在这个领域做了很多工作,神经对话系统还没有准备好在开放领域与人交谈,并为他们提供信息/有趣/有用的答案。但至于封闭领域(例如技术支持或问答系统),有成功的案例。
总结
会话模型起初可能看起来很难掌握(而且不仅仅只有一开始)。当你准备练习时,选择一些简单的架构,从一个流行的数据集或者自己的数据集(Twitter,Reddit或其他)中选取一个,并在上面训练一个会话模型。
数据分析咨询请扫描二维码
若不方便扫码,搜微信号:CDAshujufenxi
2025 年,数据如同数字时代的 DNA,编码着人类社会的未来图景,驱动着商业时代的运转。从全球互联网用户每天产生的2.5亿TB数据, ...
2025-06-052025 年,数据如同数字时代的 DNA,编码着人类社会的未来图景,驱动着商业时代的运转。从全球互联网用户每天产生的2.5亿TB数据, ...
2025-05-27CDA数据分析师证书考试体系(更新于2025年05月22日)
2025-05-26解码数据基因:从数字敏感度到逻辑思维 每当看到超市货架上商品的排列变化,你是否会联想到背后的销售数据波动?三年前在零售行 ...
2025-05-23在本文中,我们将探讨 AI 为何能够加速数据分析、如何在每个步骤中实现数据分析自动化以及使用哪些工具。 数据分析中的AI是什么 ...
2025-05-20当数据遇见人生:我的第一个分析项目 记得三年前接手第一个数据分析项目时,我面对Excel里密密麻麻的销售数据手足无措。那些跳动 ...
2025-05-20在数字化运营的时代,企业每天都在产生海量数据:用户点击行为、商品销售记录、广告投放反馈…… 这些数据就像散落的拼图,而相 ...
2025-05-19在当今数字化营销时代,小红书作为国内领先的社交电商平台,其销售数据蕴含着巨大的商业价值。通过对小红书销售数据的深入分析, ...
2025-05-16Excel作为最常用的数据分析工具,有没有什么工具可以帮助我们快速地使用excel表格,只要轻松几步甚至输入几项指令就能搞定呢? ...
2025-05-15数据,如同无形的燃料,驱动着现代社会的运转。从全球互联网用户每天产生的2.5亿TB数据,到制造业的传感器、金融交易 ...
2025-05-15大数据是什么_数据分析师培训 其实,现在的大数据指的并不仅仅是海量数据,更准确而言是对大数据分析的方法。传统的数 ...
2025-05-14CDA持证人简介: 万木,CDA L1持证人,某电商中厂BI工程师 ,5年数据经验1年BI内训师,高级数据分析师,拥有丰富的行业经验。 ...
2025-05-13CDA持证人简介: 王明月 ,CDA 数据分析师二级持证人,2年数据产品工作经验,管理学博士在读。 学习入口:https://edu.cda.cn/g ...
2025-05-12CDA持证人简介: 杨贞玺 ,CDA一级持证人,郑州大学情报学硕士研究生,某上市公司数据分析师。 学习入口:https://edu.cda.cn/g ...
2025-05-09CDA持证人简介 程靖 CDA会员大咖,畅销书《小白学产品》作者,13年顶级互联网公司产品经理相关经验,曾在百度、美团、阿里等 ...
2025-05-07相信很多做数据分析的小伙伴,都接到过一些高阶的数据分析需求,实现的过程需要用到一些数据获取,数据清洗转换,建模方法等,这 ...
2025-05-06以下的文章内容来源于刘静老师的专栏,如果您想阅读专栏《10大业务分析模型突破业务瓶颈》,点击下方链接 https://edu.cda.cn/g ...
2025-04-30CDA持证人简介: 邱立峰 CDA 数据分析师二级持证人,数字化转型专家,数据治理专家,高级数据分析师,拥有丰富的行业经验。 ...
2025-04-29CDA持证人简介: 程靖 CDA会员大咖,畅销书《小白学产品》作者,13年顶级互联网公司产品经理相关经验,曾在百度,美团,阿里等 ...
2025-04-28CDA持证人简介: 居瑜 ,CDA一级持证人国企财务经理,13年财务管理运营经验,在数据分析就业和实践经验方面有着丰富的积累和经 ...
2025-04-27