极速三分快3怎么玩连续五天,ACL 2020 清华 CoAI 系列解读!

  • 时间:
  • 浏览:1

疫情完后 ,“旧的世界”将不复趋于稳定

线上直播将成为学术交流的重要形式



2020年4月3日,NLP 顶会 ACL 2020 敲定录用论文完后 ,A极速三分快3怎么玩i科技评论相继与哈工大、复旦大学联合举办两期「ACL 系列解读」直播活动,受到广大师生的好评。 

第一期:ACL 2020 - 哈工大 极速三分快3怎么玩sCIR 系列解读

第二期:ACL 2020 - 复旦大学系列解读

在此极速三分快3怎么玩基础上,当让我们当让我们 在此联合清华大学交互式极速三分快3怎么玩人工智能课题组(Conversational AI, CoAI)推出第三期实验室系列解读直播活动——「ACL 2020 清华大学CoAI 系列论文解读」。

交互式人工智能课题组(Conversational AI, CoAI)隶属于清华大学计算机系人工智能实验室,由我国NLP领域的著名学者朱小燕教授、黄民烈副教授联合指导,主要从事机器学习与自然语言除理的应用基础研究,研究方向包括厚度学习、强化学习、问答系统、对话系统、感情的说说说说理解、逻辑推理、语言生成等。

在本届 ACL 会议中,CoAI实验室共有三篇长文、一篇 Demo 录用,此外还有两篇被 TACL 录用并将在 ACL 2020 展示。哪些地方地方论文分别包括故事生成、阅读理解、对话以及相关数据集等的研究工作。

为有助学术交流,让更多师生及时了解最新前沿研究,AI科技评论联合清华大学CoAI,重磅推出「ACL 2020 清华大学CoAI 系列论文解读」。当让我们当让我们 将在5月6日-10日,连续三7天 进行 5 场直播,全面覆盖清华大学CoAI课题组在ACL上相关的完整性工作。

系列解读活动简介如下,欢迎届时关注。

主题一:多智能体对话策略学习

时间:2020年5月6日(周三)晚20:00整

论文:Multi-Agent Task-Oriented Dialog Policy Learning with Role-Aware Reward Decomposition 

主讲人:高信龙一

摘要:近年来,有些研究都采用用户模拟器来获得絮状的模拟用户体验,以满足强化学习算法在对话策略中的训练。然而,建模另一1个 逼真的用户模拟器是具有挑战性的。为了除理构建用户模拟器,当让我们当让我们 提出了多智能体对话策略学习法,将系统和用户均视作对话代理联合学习,并提出了混合价值网络用于角色感知的奖励分解,以整合各代理在任务导向型对话中角色特定的领域知识。

主题二:预训练语言模型在故事生成场景下的应用和挑战

时间:2020年5月7日(周四)晚20:00整

论文:A Knowledge-Enhanced Pretraining Model for Commonsense Story Generation 

主讲人:关健

摘要:故事生成,要求根据给定的上文生成合理的故事,是一项重要但具有挑战性的任务。现有的基于预训练的语言生成模型(同类GPT-2)尽管在建模流畅性和局部连贯性方面取得了成功,但仍然会产生重复、逻辑冲突以及严重不足长距离连贯性的间题报告 。这原因哪些地方地方生成模型难以关联相关常识、理解因果关系以及按适当的时间顺序来规划故事中的实体和事件。可是 ,如何利用预训练模型生成更合理的故事仍然趋于稳定好多好多 挑战和提升空间。

 

主题三:KdConv: 知识驱动的中文多轮对话数据集

时间:2020年5月8日(周五)晚20:00整

论文:KdConv: A Chinese Multi-domain Dialogue Dataset Towards Multi-turn Knowledge-driven Conversation 

主讲人:周昊

摘要: 在非任务导向型人机对话系统领域,尽管对话生成的任务得到了广泛的研究,可是 对于驱动对话生成的知识的建模却原因缺少数据支持亟待研究。如并能在多轮对话中含效的对知识的交互进行建模,则并能极大地提升对话系统的逻辑性,信息量,可解释性等智能化程度,从而带来更好的用户体验。在本次分享中,讲者将介绍另一1个 最新构造的知识驱动的中文多轮对话数据集KdConv,并分析知识建模在对话系统中的应用。

 

主题四:任务导向对话的数据和平台建设

时间:2020年5月9日(周六)晚20:00整

论文:

1)ConvLab-2: An Open-Source Toolkit for Building, Evaluating, and Diagnosing Dialogue Systems

 2)CrossWOZ: A Large-Scale Chinese Cross-Domain Task-Oriented Dialogue Dataset 

主讲人:朱祺

摘要:近年来,任务导向对话受到了过多的关注,涌现出有些数据集和基于神经网络的模型。为了推动多领域对话的研究和填补中文数据的空白,当让我们当让我们 提出了CrossWOZ,第另一1个 中文大规模任务导向对话数据集。此外,为了对多种形式构建的对话系统进行统一端到端评测,当让我们当让我们 开发了ConvLab-2对话平台,支持用最新的模型快速搭建、评估、诊断对话系统。

 

主题五:非抽取式机器阅读理解

时间:2020年5月10日(周日)晚20:00整

论文:A Self-Training Method for Machine Reading Comprehension with Soft Evidence Extraction

主讲人:牛艺霖

摘要:在抽取式机器阅读理解任务中,答案来自于文章中的片段,可是 并能根据答案定位文中的证据信息,从而有监督地训练证据抽取模块。在非抽取式阅读理解任务中,无法根据答案自动化地标出文中的证据信息,在这一 情形下,难以有效地训练证据抽取模块,难以过滤文中絮状的干扰信息。可是 ,如何通过无/弱监督的最好的最好的依据训练证据抽取模块,对于非抽取式机器阅读理解来说十分重要。

 如何加入?       

扫码关注[ AI研习社顶会小助手] 微信号,发送关键字“ACL 2020+直播”,即可进群观看直播和获取课程资料。       

ACL 2020原定于2020年7月5日至10日在美国华盛顿西雅图举行,因新冠肺炎疫情改为线上会议。为有助学术交流,方便国内师生提早了解自然语言除理(NLP)前沿研究,AI 科技评论将推出「ACL 实验室系列论文解读」内容,一同欢迎更多实验室参与分享,敬请期待!

雷锋网雷锋网雷锋网(公众号:雷锋网)

雷锋网版权文章,未经授权禁止转载。详情见转载须知。