剑客
关注科技互联网

cs.CL weekly 2016.10.10-2016.10.14

【对话系统】【迁移学习】面向具体任务的对话系统由于数据不充分,面临难以训练的尴尬境地。解决这一问题的方法之一是用迁移学习来做,本文提出了一种基于POMDP的迁移学习框架。并且在购买咖啡的实际场景中得到了应用,取得了不错的效果。港科大杨强老师是迁移学习领域的专家,而迁移学习是解决机器学习中领域数据过小问题的一种有效方法,现有的特有对话系统面临着这个问题,尤其是要求对话系统具有个性化的特点时。本文对于研究语音对话系统和聊天机器人都有一定的启发性。

Dialogue Session Segmentation by Embedding-Enhanced TextTiling

【chatbot】【上下文处理】本文研究的内容是开放域聊天机器人context处理的问题,当前聊天的内容很大程度上都会与之前的聊天内容有相关,但并不是每一句都相关,因此算好相关度很有必要。

Exploiting Sentence and Context Representations in Deep Neural Models for Spoken Language Understanding

【对话系统】【深度学习】本文是steve young组的一篇新文,旨在探索CNN表示对话句子和LSTM表示上下文信息在对话理解问题上的效果,相比于传统方法,DNN方法鲁棒性更强。

Latent Sequence Decompositions

【seq2seq】本文研究的内容是对seq2seq框架中输入和输出序列进行有意义分解的问题,而不是简单地分解为char,提出了一种Latent Sequence Decompositions框架,在语音识别问题上取得了不错的效果。其实不仅仅是语音识别问题,在用seq2seq框架时总会遇到OOV的问题,char是一种方法,但信息量太少,如果能够将word sequence分解为更加有意义的子序列,既兼顾了信息量,又降低了词表维度。对英文系的语言效果好一些,中文效果应该不会那么明显。

Diverse Beam Search: Decoding Diverse Solutions from Neural Sequence Models

【seq2seq】seq2seq框架中在解码阶段,常常会用beam search来从左至右、贪心地生成N个最好的输出,不仅仅效率低下,而且在很多复杂任务中效果不好。本文提出了一种新的搜索算法。算法会在解空间内exploration和exploitation,通过设定diverse的目标进行训练,得到结果。相比之下,本文的方法更加高效。并且在image caption、VQA和MT等任务中进行了验证。

Gated End-to-End Memory Networks

【seq2seq】【memory networks】端到端的记忆网络在简单的机器阅读理解任务上取得了不错的效果,但复杂的事实问答和对话理解相关的任务处理的并不好,原因在于记忆单元与模型之间交互复杂。本文针对该问题,提出了一种Gated记忆网络,取得了不错的效果。本文模型在机器阅读理解bAbI dataset和task-oriented 对话系统任务DSTC2中均取得了非常好的结果。

Neural Paraphrase Generation with Stacked Residual LSTM Networks

【paraphrase】本文提出用多层残差LSTM网络来做paraphrase的任务,得到了比之前seq2seq以及seq2seq+attention更好的效果。转述在某个角度上和标题生成(句子level摘要)类似,方法可借鉴。

SentiHood: Targeted Aspect Based Sentiment Analysis Dataset for Urban Neighbourhoods

【观点挖掘】【数据集】本文给出了一个观点挖掘的数据集,数据源来自Yahoo问答中与London相关的提问。这个数据集适合这样的场景,一段评论中包含了多个entity的多个aspect的观点,相互之间有一些比较。

Domain-specific Question Generation from a Knowledge Base

【问题生成】问答系统是一个热门研究领域,其关注点在于如何理解问题然后选择或者生成相应的答案。而本文研究的问题是如何根据知识图谱生成高质量的问题。提出高质量的问题难度很大,且看本文内容。

Compressing Neural Language Models by Sparse Word Representations

【语言模型】【提升效率】本文解决的是在学习语言模型时输出层词表过大的问题,词表过大导致效率过低,本文针对这一问题,提出了一种压缩方法,常见词用dense向量来表示,而罕见词用常见词的线性组合来表示。

一周资源

CCL & NLP-NABD 2016论文集

由Springer出版的CCL & NLP-NABD 2016论文集已经公布,并在10月10日-11月10日期间可以免费下载。免费下载方式如下:(1)访问会议首页;(2)点击该页面最新“会议论文下载”中的链接;(3)点击新页面的“Download Book (PDF, 35547KB)”按钮。

北京大学万小军老师组开源自动摘要小工具PKUSUMSUM

本组推出文档自动摘要小工具PKUSUMSUM,集成多种无监督摘要提取算法,支持多种摘要任务与多种语言,采用Java编写,代码完全开源,欢迎批评指正,也欢迎同行一起完善该工具。

斯坦福大学NLP组2016年秋季paper阅读周计划

斯坦福大学NLP组2016年秋季paper阅读周计划,挺多篇都是对话系统相关的。

广告时间

PaperWeekly是一个分享知识和交流学问的民间组织,关注的领域是NLP的各个方向。如果你也经常读paper,也喜欢分享知识,也喜欢和大家一起讨论和学习的话,请速速来加入我们吧。

微信公众号:PaperWeekly

微博账号:PaperWeekly( http://weibo.com/u/2678093863

知乎专栏:PaperWeekly( https://zhuanlan.zhihu.com/paperweekly

微信交流群:微信+ zhangjun168305(请备注:加群 or 加入paperweekly)

分享到:更多 ()

评论 抢沙发

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址