一、基于语义结构分析的汉语零代词消解(论文文献综述)
宁湘铭[1](2021)在《认知视阈下的篇章零形回指研究 ——以近十年政府工作报告为例》文中研究表明零形回指是回指研究中的热门领域,在零形回指研究中,前人研究多集中于封闭语料库分析以及理论分析中,缺乏理论与实践的结合。本文以零形回指作为语料的理论研究点,在认知视角下,以近十年(2010-2020)国务院政府工作报告为语料进行分析,采用理论研究与语料库研究相结合的方法,探讨零形回指在其中的特点及出现的规律、并借助西方语言理论的框架,从可及性理论、向心理论与参照点理论的角度出发,分析理论在语料库中的应用,以及挖掘其内部隐含的深层因素。最后从认知的角度对零形回指现象进行分析,并提出自己的思考和见解。第一章将对零形回指的定义及分类进行介绍,并对政府工作报告中出现的零形回指现象进行统计以及探讨其分布特点。第二章将从零形上指、零形下指、跨句段零形回指三大方面对语料进行分类,分析每一类中零形回指的特点,为后续章节理论联系实际做铺垫。第三章至第五章将分别从可及性理论、向心理论、参照点理论出发,分析该理论在零形回指中的应用,以及零形回指的产生条件。第六章将基于前文理论基础,从复句角度分析政府工作报告复句中零形回指认知的结构因素,并在整体视角下探讨零形回指的生成机制以及先行语的核查机制。研究发现,可及性理论与参照点理论,对于零形回指具备强大解释力,而向心理论虽能对其进行解释,却存在一定局限。文章最后对于零形回指的生成机制与先行语的筛查机制进行分析,并试图从认知层面对零形回指的产生进行分析。尽管本文从多个层面对零形回指的认知机制进行了剖析。但文章对于汉语零形回指的认知机制研究不够充分,在与语料库结合时,由于篇幅有限以及文章重点的偏离,并没有将出现的零形回指形式进行详尽分类,且对于理论的研究仍不够透彻,从这方面来讲,仍具有较大研究空间。
佟见卓[2](2020)在《基于语义背景知识的中文对话代词补全问题的研究》文中指出随着深度学习浪潮的不断发展,自然语言处理任务基于其多样性和灵活性的特色,许多的课题不断被提出,并通过神经网络的方法得以解决。缺失代词补全是众多任务中的一个分支,该任务目的是在句子中判断缺失代词的位置并且还原相对应的正确的代词类别,从而解决计算机理解人类语言进程中关键性语义缺失的难题。针对缺失代词补全问题,传统解决方案包含特征工程、构建条件随机场、神经网络等。在实际应用中,这些方法均无法针对缺失代词位置获取上下文句子中长依赖的文本信息。在这个背景下,我们基于对缺失代词背景语义知识的理解,提出两种不同的模型对于缺失代词上下文语义背景知识建模,并且通过注意力机制热图,对于本文模型训练的特征附加了可视化的解释。实验结果证明我们的模型在与传统模型的对比上来看表现良好。本文针对缺失代词补全问题的研究,主要工作内容列举为以下三点:(1)本文提出了基于主题模型的记忆力网络。在神经网络基础上加入无监督主题模型。主题模型可以很好地对于上下文语义信息进行概括和提取,同时主题模型基于全语料提取到的主题词也有很大概率表达了缺失代词的指示信息,充当缺失代词的指示词。本文在中文短信服务数据集上验证模型的有效性,同时将多维注意力机制的结果进行可视化和分析。(2)本文提出了融合外部知识的神经注意力模型。通过构造自上而下的“句子-词语”注意力机制,对于上下文语义信息进行不同粒度的编码,在这过程中加入常识信息。实验在三个中文对话数据集上的表现均优于传统方法;并且通过消融实验,验证了加入外部指示词信息和层级式的代词分类标准对于结果的提升;最终通过注意力热图的分布情况,验证了模型训练过程中,对于缺失代词在上下文语义信息的指示情况。(3)本文在两种模型神经网络端到端框架的基础上,找到了加入外部知识的训练方法。外部知识包含主题模型中的代词特征信息、神经注意力模型中代词指示词信息,和代词对上下文的依赖信息。
梁迪[3](2020)在《认知视角下外国汉语学习者零形回指习得研究》文中认为汉语中的零形回指是其意合性的突出体现,也是语篇衔接的重要手段。恰当地使用零形回指不仅可以提高语篇连贯性,还可以用简洁的话语表达充实的语义,突出关键信息。然而外国汉语学习者在语篇表达时往往不重视衔接问题,更难以准确使用零形回指,表达连贯性不强,甚至“话不连贯,语无伦次”。本文以汉语水平达到HSK 4级及以上的外国学习者为研究对象,借助问卷调查和微信访谈的形式,获取汉语学习者习得零形回指的客观数据及使用零形回指句进行表达的自然真实语料,旨在全面分析不同水平的外国汉语学习者习得零形回指的情况。结合当下对外汉语教学现状,我们从不同课型教学内容的改善及教材相关内容的改进等角度,提出了参考性建议,以期帮助对外汉语教师调整教学方法,解决汉语学习者语篇表达衔接问题,提高对外汉语的教学质量和教学效率。本文分为六个部分。第一章为绪论。主要介绍了选题缘起及意义、研究对象、研究目标及方法和研究创新点,并对相关研究成果进行了综述。本文分别综述了回指和零形回指的研究现状,发现相较于成果丰富的本体研究,二语习得研究成果数量较少且略显薄弱。基于习得的教学实践研究没有充分借鉴本体研究成果,也不失为一种遗憾。第二章对汉语零形回指进行本体研究。该章首先介绍了研究中涉及的相关概念、零形回指的具体分类,然后从句法特点、语义结构层次、篇章衔接功能和语用功能四个角度对零形回指进行了细致分析。第三章从认知角度对零形回指进行分析。该章介绍了本文用到的可及性理论、心理表征与文本更新理论和信息结构理论,并从语言交际产生过程、零形回指的消解释义过程、零形回指的认知优势与认知难度四方面展开详细研究。第四章对调研过程及数据结果进行分析。该章对习得调研设计进行了详细说明,并对问卷调研数据进行了统计学分析,对主观表达的内容进行了质性分析。第五章对外国汉语学习者习得零形回指的情况进行认知角度的系统分析。从句法角度来说,主语显着性和关联词对理解和使用零形式有很大帮助;从语用角度来看,上下文语境信息及背景知识对汉语学习者理解零形回指意义重大,他们在使用时不擅长使用长距离零形回指。基于习得情况及当前对外汉语教学中存在的不足,我们提出几条针对性教学建议:教师要强化汉语学习者对关联词的认识,提高使用率,提高语篇教学的比重,培养学习者的汉语思维方式;教材中应适当提升语篇中衔接手段使用的频率及难度,拓宽学习者自学的学习渠道,提供更多的阅读材料。第六章为结语。总结本文的主要结论,对研究存在的不足之处进行了反思。
葛海柱[4](2020)在《面向文本理解汉语零指代关键问题研究》文中研究表明文本理解一方面需要正确把握文本的篇章构成单元以及它们之间的关系(逻辑语义关系、话题链关系等),另一方面需要理解篇章的整体结构及表述内容的主次等信息。本文从面向文本理解的角度出发,以篇章的视角对汉语零指代消解展开了一系列的研究,主要工作包括如下三个方面:(1)篇章视角的汉语零指代语料库构建。汉语零指代语料资源匮乏,现有资源主要从句法层面对零元素及零指代进行了梳理和标注,而服务于文本理解的零指代语料资源还未见到相关报道。本文从服务于篇章理解的视角出发,提出了面向文本理解的汉语零指代表示体系:根据零元素在基本篇章单元中承担的角色将零元素划分成主干类和修饰类两类;接着从两个维度对零指代关系进行了划分;最后,基于这一表示体系构建了服务于篇章理解的汉语零指代语料库,为篇章视角的汉语零指代研究提供了必要的支撑。(2)汉语零元素位置检测。目前零指代消解的相关研究都将重心放在了零元素消解这一子任务上,对零元素位置检测的研究较少。本文从面向文本理解出发,认为修饰类零元素的出现主要与局部的句法信息关系密切,而主干类零元素则在上下文话题信息的传递方面起着核心作用。基于此,在关注局部句法信息的同时,本文结合篇章的结构信息(基本篇章单元、主述位等),借助序列化标注策略给出一个联合主述位的零元素识别神经模型,并从服务文本理解的角度对识别结果进行了详细的分析。(3)汉语零元素消解。为了提升零元素消解的效果,同时解决句法层面的零元素消解研究中没有考虑零元素和先行词之间联系的问题,本文提出了基于MASK机制与孪生网络的零元素消解模型,该模型借助基本篇章单元和句子作为联合输入获取篇章层面和句子层面的表征,实验结果表明该模型能显着提高零元素消解的性能。
郑杰[5](2020)在《实体链接中的关键问题研究》文中研究指明省略恢复是自然语言处理领域的一项关键任务,该任务针对存在省略现象的语句进行内容填充,从而使得语句的句式结构和内容完整,语义信息连贯。对话是自然语言中一种特殊的表达形式,相较于其他自然语言形式,人们在对话中的表述更加的随意和简练,难以被机器理解。而面向对话领域的省略恢复能够补充缺失的语义信息,促进了对话主题推进的整体把握,为问答系统、对话系统等其他下游自然语言应用提供极为重要的基础支撑。近年来,互联网的高速发展产生了海量的数据,基于这些数据之上的自动问答、人机对话等自然语言处理的应用成为热门的研究方向。但对于对话而言,有标语料极少,可借鉴的相关工作较少,因此面向对话领域的省略恢复研究存在许多未知的挑战。针对这一问题,本文开展了一系列研究工作,具体包括以下几个方面:(1)针对单轮对话的省略恢复问题,提出了一种端到端的序列到序列的神经网络模型。该模型双向上对序列进行编码,使用注意力机制保持语义“软对齐”,采用生成式解码单元得到补全后的序列。实验结果证明该方法在单轮对话的省略恢复任务中能够取得较好的效果,应对复杂的省略类型具有很好的鲁棒性。(2)针对序列到序列模型中存在的系列问题进行了改进,提出了一种细粒度的语义表征方式和一种融入序列约束信息的解码算法。改进模型首先在词嵌入层使用了一种结合句内词语字符信息的细粒度的词语表征方式;其次相比双向编码,增加了句内词语自注意力信息,提高了编码层的特征抽取能力。最后针对传统生成式解码算法存在的曝光误差和语义偏离的问题给出了一种带序列约束信息的解码算法。实验结果证明上述三方面的改进能有效提升单轮对话中省略恢复的性能。(3)针对多轮对话的省略恢复问题,提出了一种动态拷贝和掩码机制相结合的端到端神经网络模型。该模型使用门控机制自适应地融合拷贝模式和生成模式词语的概率分布,使用两种序列的边界信息来提高解码层省略恢复的准确度。实验结果证明了该模型的有效性。
张月平[6](2020)在《零形式识别与填充方法及应用研究》文中进行了进一步梳理零形式(Null Instantiation,NI)是指句子中隐式的语义成分,这些语义成分的正确理解将会影响篇章语义的完整性。对于机器来说,识别与实现隐式语义成分的内容填充是一个较难的任务,需要借助相应的语境,准确地理解语篇,才能有效解决该问题。汉语框架网(Chinese FrameNet,CFN)是从框架语义的角度去描述句子的语境,包含刻画句子特定语境的语义信息。本文基于汉语框架网对零形式进行识别与填充,并将其应用于框架关系判别任务。本文主要工作如下:(1)零形式识别研究。本文根据缺失的语义论元在语义理解上的不同,对零形式进行识别,分别基于传统机器学习与深度学习进行研究。在基于深度学习方法中,首先输入层包含词嵌入和框架表示,其次使用BiLSTM获取上下文信息,最后通过全连接层预测零形式类别,其中探索了基于WASBIE、Word2vec算法及基于框架关系的三种框架表示方法;在基于传统机器学习方法中,构建最优特征集,分别在决策树和随机森林算法上进行实验,得到零形式类别。结果显示,本文构建的零形式模型比baseline结果提高了2%-9%。(2)有定零形式填充研究。本文针对识别出的有定零形式,为其在语篇上下文寻找填充内容。首先提出改进的SMOTE(Synthetic Minority Oversampling Technique)算法扩展数据,为零形式填充提供平衡的数据集。其次在构建分类模型过程中融入语义特征,并借助框架元素间的映射关系提升零形式填充效果。结果显示,融入数据的平衡化处理及语义信息比baseline结果提高了12%。(3)零形式识别与填充在框架关系判别中的应用研究。框架关系判别任务是框架语义分析任务的难点,本文将零形式识别与填充应用于该任务,初步探索了零形式对该任务的影响。首先定义框架关系判别任务,其次对于句子中涉及到的零形式,采用前述方法将其在上下文中的填充内容找出,最后选取相关特征构建分类模型,判别框架间是否具有联系。结果显示,零形式的加入使得框架关系判别任务的F1值提高了1.53%,表明零形式对框架关系判别具有积极的作用。
刘依欢[7](2020)在《基于抽象语义表示的省略现象研究》文中研究表明省略现象在人类语言中普遍存在,人们在处理省略现象时,通常需要补充出缺省的成分,才能完整地理解句子的语义。以往的研究大都依赖句子中出现的与省略成分相同的词语也即先行语,来补充省略成分。但是,汉语中省略成分与先行语有时并不完全对应,有些省略成分甚至不存在先行语。对于计算机来说,正确地识别和恢复省略成分并不简单,目前省略识别与消解系统的表现不如人意。究其原因,主要包括以下三个方面:(1)省略现象的界定本身存在争议,省略现象的判定标准并不统一;(2)省略成分与先行语并不总是完全对应,甚至存在无先行语的省略句,这也加大了恢复省略成分的难度;(3)标注了省略现象的语料资源匮乏,省略的表示机制不够合理,省略的理论研究和自动消解系统缺乏大规模高质量的语料资源作为支撑。为了解决这些问题,本文采用了一种新的语义表示方法——抽象语义表示(AMR),改进了省略成分的标注方法,使其能够较为合理地恢复汉语句子中的各类省略成分。在此基础上,本文构建了包含10000句新闻语料的中文AMR语料库,重点研究了汉语中不同类型的省略成分的恢复策略及其分布情况,并探讨了省略成分与先行语的对应关系。本文的工作主要包括以下三个方面:(1)针对省略现象的判定标准不统一的问题,本文从资源建设和可操作性的角度,确定了语义标注时省略现象的判定标准,把在句子的语义理解中必不可少,但在表层结构中没有出现的成分看作省略。本文只关注对句义的完整性起重要作用的主要语义成分,并不把省略的修饰语作为研究目标。此外,空语类、“的”字结构、论元共享和比较项不完整等现象符合本文中省略的定义,因此都被划入省略现象的范畴。明确语义标注时省略现象的判定标准,提高了标注的一致性和标注语料的质量。(2)针对省略成分与先行语不完全对应的问题,本文根据省略成分与先行语的语义关系,对省略现象进行重新分类,将其分为与先行语完全对应的省略、与先行语不完全对应的省略和无先行语的省略三类。然后介绍了中文AMR处理这三类省略现象的方法,分别采用复制先行语、新增概念、复制先行语与新增概念相结合的方法合理地将语料中的省略成分补充出来。根据省略成分是否存在修饰语及其数量多少,恢复的省略成分在AMR图中的表现可以分为三类——完整的子树、子树的根节点以及子树的一部分,本文也设计了特殊的标签进行区分,完善和提高了中文AMR处理汉语中各类省略现象的能力。(3)针对省略现象的语料资源较少,省略的理论研究与消解系统缺乏数据支撑的问题,本文构建了一个10000句规模的包含省略信息的中文AMR语料库,在此基础上,统计分析了省略现象的分布情况。统计发现,有56.21%的句子出现了省略现象,其中与先行语完全对应的省略占所有句子的90.82%,与先行语不对应的省略和无先行语的省略分别占9.63%和14.5%1。此外,本文还统计省略成分的语义角色分布情况,87.79%的省略成分都是核心语义角色,并且各类语义角色的分布极不均衡,其中原型施事(arg0)出现省略现象的频率最高;62.28%的省略成分与先行语的语义角色一致,而出现最频繁的语义角色——arg0的一致性高达70%。综上所述,本文重点关注了中文AMR语料库中的省略现象,确定了省略的定义及表示方法,统计分析了汉语中省略现象的分布特点和规律,为省略现象的理论研究和识别恢复提供了数据基础。具体而言,统计数据验证了理论研究提出的省略现象非常普遍这一观点,也证明了汉语中不存在先行语或存在不完全对应的先行语的省略句占比较高,单纯依赖先行语的恢复方法并不合理,新增概念等方法很有必要。此外,通过比较先行语与省略成分的语义角色异同,我们发现先行语不仅在恢复省略成分时发挥着重要作用,同时也能为确定省略成分的语义角色提供线索。
戴茹冰[8](2020)在《汉语抽象语义表示体系、资源构建及其应用研究》文中研究说明语义表示作为自然语言处理的重难点,一直是学界研究的热点问题。面对语言计算从句法向语义层面转型的大趋势,现有的语言资源包括概念语义、框架语义和情境语义方面都有不同程度的发展,将多层次多类型的语义资源融合,构建一个深层语义表示的语言知识库成为现阶段亟待解决的问题之一。目前对于语义表示的研究不论是从语言理论还是自动分析领域,研究方向都逐渐从句法走向了语义,句法结构的表示方法也由最初树形(tree)结构,到非投影树(non-project tree)结构,再到初步尝试和应用图(graph)结构,经历了由树到图的发展进程。而抽象语义表示AMR(Abstract Meaning Representation,AMR)作为一种全新的语义表示方法,将句子的语义抽象为一个单根有向无环图。这种抽象语义表示方法将句法和语义信息相结合,以图结构来表示语义,揭示树结构所无法表征的论元共享现象,给句子语义以更加清晰的表达。然而句子中的词语和AMR图的概念对齐信息缺失,一定程度上影响自动分析效果和语料标注质量,同时中文还未有较大规模的AMR语料库。本文借鉴英文AMR语义表示理念,结合汉语自身特点并融合概念对齐信息,提出一套适用于汉语的句法语义一体化的表示方法,即概念对齐汉语抽象语义表示CA-CAMR(Concept-to-word Alignment Chinese Abstract Meaning Representation,CA-CAMR)体系。具体内容包括以图结构处理论元共享问题,融合句子词语到AMR图的概念对齐信息以提升语义表示能力,并在CA-CAMR标注体系中规定汉语特殊结构及复句关系标注方法。通过英汉AMR在语义表示的对比,总结CA-CAMR对AMR的继承及在此基础上的发展,证明本文提出的CA-CAMR表示体系在描写汉语语义的优势,并且融合概念对齐信息对于语言学研究和自动分析算法设计都具有一定价值。CA-CAMR表示体系的建立为进一步开展概念对齐的汉语抽象语义表示语料库奠定基础。在此基础上,本文进行了CA-CAMR语料库构建。以CA-CAMR标注规范为指导,采用人机结合的语料库标注方式,通过CAMR语料标注平台CAMR Anno Kit构建汉语抽象语义标注语料库。CA-CAMR语料库目前包含来自《小王子》、宾州中文树库CTB8.0(the Penn Chinese Treebank,CTB)的网络媒体语料和小学语文教材(人教版)共20149句语料。本文详细展示语料标注情况,针对试标语料的不一致现象给出消解策略,并对语料库数据进行系统地统计与分析,包括图结构、论元共享现象及汉语特殊句法结构的标注情况。统计结果表明所标CA-CAMR语料库达到一定规模,并在深层语义表示及特殊句法结构上具有优势,实现句法语义一体化标注,可以为相关研究提供语料资源支持。最后探索构建CA-CAMR表示体系及语料库在语言本体及自然语言处理两个方面的应用价值。省略是汉语中常见的语言现象,在传统的句法语义表示方式中,含有省略信息的语言结构往往被忽视。本文利用CA-CAMR语料库考察汉语语义省略结构在大规模真实文本中的分布情况,大致描写出汉语省略现象的概貌。然后以省略现象中所占比例最高(47.3%)的省略“的”字结构为研究对象,构建一套自动识别与自动补全省略中心语的实验方案,实验结果表明该方法能够在CA-CAMR语料中有效识别及补全省略的“的”字结构,证明CACAMR表示体系及语料库对汉语深层语义关系表达的研究价值。
蒋平[9](2017)在《主语属格语的零形指代现象研究》文中研究指明在汉语中,除了句首主题、主语和宾语之外,主语属格语位置上的指称对象也可以受零代词回指。这不仅增加了零形回指先行语识别的难度,尤其是主语和主语属格语何者为先行语,而且对语言成分的功能分析提出了新问题。研究发现,受零代词回指的主要是结构简单的主语属格语,与主语之间有三种领属关系。其零形回指现象是由该位置上的指称对象的生命性、突显性、物主性等认知因素决定的,使之具有类似于主语位置上的指称对象的高可及性。
屈锦春[10](2017)在《中文代词消解关键技术研究》文中研究表明指代和省略是自然语言中广泛存在的语言现象,会造成语句的歧义问题,给自然语言理解带来了极大的困难,尤其是在聊天机器人等多轮对话的应用场景下。指代消解具有较长的研究历史,从早期的手工规则等理论方法研究到后来大规模语料中计算机自动处理技术的衍生,再到目前多种机器学习方法的引入,指代消解系统的性能在不断的提高。但由于对自然语言中语义的理解和表示方法仍然不够成熟,深层次的语言知识和语义特征的使用还较为简单,因此没有对词、句、篇章多层级的不同特点进行足够深入的挖掘,也没有对上下文信息进行有效的利用。本文旨在完善和提高多轮对话场景下的上下文理解,主要对中文代词消解及省略恢复任务中的关键技术进行研究,特别是在聊天机器人系统中的使用。主要内容包含如下几个方面:(1)本文提出了多特征融合的中文代词消解算法,引入了经验向量化特征、语义角色标注特征和词向量等多种类型的特征从多个角度来刻画表述对的语义、结构等多层次的特点。本文具体阐述了基于表述对模型的中文代词消解整体算法框架的构建与实现,在此基础上,探讨了多种类特征在该任务上的不同表现,提出并对比了几种特征融合方法的有效性,并在向量拼接方法的基础上验证了不同分类器参数、词向量维度、分类器阈值等对实验结果的影响,据此得到的最佳的实验结果。(2)本文将深度学习技术引入代词消解任务中。具体的,使用适宜序列化输入的长短时记忆网络模型学习表述对上下文的深层特征表示,分别将其应用于中文代词消解及省略恢复任务中。本文提出了一种基于双向循环网络的中文零代词识别算法,尝试归纳和总结了零代词识别任务中存在的问题,提出相应的规则优化方案。本文还研究了不同网络结构的深度学习模型在中文代词省略恢复任务中的表现,通过对比试验得到较优的模型和参数配置。(3)本文实现了基于微信平台得智能聊天机器人系统,详细介绍系统的总体结构、模块设计和系统展示,并对代词消解和省略恢复模块进行说明。在实践中探讨了中文代词消解技术和代词省略恢复技术在智能机器人系统中的有效性,并对语义补全任务做出了针对性分析和优化。
二、基于语义结构分析的汉语零代词消解(论文开题报告)
(1)论文研究背景及目的
此处内容要求:
首先简单简介论文所研究问题的基本概念和背景,再而简单明了地指出论文所要研究解决的具体问题,并提出你的论文准备的观点或解决方法。
写法范例:
本文主要提出一款精简64位RISC处理器存储管理单元结构并详细分析其设计过程。在该MMU结构中,TLB采用叁个分离的TLB,TLB采用基于内容查找的相联存储器并行查找,支持粗粒度为64KB和细粒度为4KB两种页面大小,采用多级分层页表结构映射地址空间,并详细论述了四级页表转换过程,TLB结构组织等。该MMU结构将作为该处理器存储系统实现的一个重要组成部分。
(2)本文研究方法
调查法:该方法是有目的、有系统的搜集有关研究对象的具体信息。
观察法:用自己的感官和辅助工具直接观察研究对象从而得到有关信息。
实验法:通过主支变革、控制研究对象来发现与确认事物间的因果关系。
文献研究法:通过调查文献来获得资料,从而全面的、正确的了解掌握研究方法。
实证研究法:依据现有的科学理论和实践的需要提出设计。
定性分析法:对研究对象进行“质”的方面的研究,这个方法需要计算的数据较少。
定量分析法:通过具体的数字,使人们对研究对象的认识进一步精确化。
跨学科研究法:运用多学科的理论、方法和成果从整体上对某一课题进行研究。
功能分析法:这是社会科学用来分析社会现象的一种方法,从某一功能出发研究多个方面的影响。
模拟法:通过创设一个与原型相似的模型来间接研究原型某种特性的一种形容方法。
三、基于语义结构分析的汉语零代词消解(论文提纲范文)
(1)认知视阈下的篇章零形回指研究 ——以近十年政府工作报告为例(论文提纲范文)
摘要 |
abstract |
绪论 |
一、选题缘起 |
二、研究综述 |
三、理论基础 |
四、研究方法 |
五、语料来源 |
第一章 零形回指的相关概念以及在政府工作报告中的分布情况 |
第一节 零形回指的定义 |
第二节 零形回指的分类 |
第三节 政府工作报告中零回指现象的统计 |
第二章 政府工作报告中零形回指现象分析 |
第一节 政府工作报告中的零形上指现象 |
一、全零形 |
二、部分零形 |
三、政府工作报告中零形上指的特征 |
第二节 政府工作报告中的零形下指现象 |
一、一小句承后省 |
二、多小句承后省 |
三、政府工作报告中零形下指的特征 |
第三节 本章小结 |
第三章 可及性理论视角下政府工作报告的零形回指现象 |
第一节 可及性理论的基本原理 |
一、“可及性”与“可知性” |
二、认知推理与语境理论 |
第二节 从可及性理论角度解读政府工作报告零形回指 |
第三节 本章小结 |
第四章 向心理论视角下政府工作报告的零形回指现象 |
第一节 向心理论的基本原理 |
第二节 从向心理论角度解读政府工作报告零形回指 |
第三节 本章小结 |
第五章 认知参照点理论视角下政府工作报告零形回指现象 |
第一节 参照点理论基本原理 |
第二节 从参照点理论角度解读政府工作报告零形回指 |
第三节 本章小结 |
第六章 政府工作报告中零形回指认知的结构因素 |
第一节 复句语义关系类型与修辞结构理论 |
第二节 复句语义关系类型与先行语语法角色 |
第三节 零形回指的生成与先行语筛查机制 |
一、零形回指生成机制 |
二、先行语筛查机制 |
第四节 本章小结 |
结语 |
参考文献 |
致谢 |
(2)基于语义背景知识的中文对话代词补全问题的研究(论文提纲范文)
摘要 |
ABSTRACT |
第一章 绪论 |
1.1 课题研究背景 |
1.2 主要研究工作 |
1.3 相关研究进展 |
1.4 本文研究重点及章节安排 |
第二章 缺失代词补全相关研究技术 |
2.1 序列处理模型 |
2.1.1 词向量模型 |
2.1.2 循环神经网络 |
2.2 降维模型 |
2.2.1 池化模型 |
2.2.2 注意力模型 |
2.3 语义信息处理模型 |
2.3.1 主题模型 |
2.3.2 记忆力模型 |
第三章 基于主题模型的记忆力网络在缺失代词补全任务上的应用 |
3.1 基于主题模型的记忆力网络对背景语义信息的表示 |
3.1.1 基于主题模型的记忆力网络任务的说明及流程 |
3.1.2 降维——神经主题模型在文本表示上的降维操作 |
3.1.3 联合——主题维度的文本表示与背景语义信息的联合操作 |
3.1.4 记忆——包含主题背景语义信息对输入文本的表示 |
3.2 数据集及评价指标 |
3.2.1 数据集 |
3.2.2 评价指标 |
3.2.3 评价指标训练参数设置 |
3.3 实验结果及分析 |
3.3.1 实验结果 |
3.3.2 结果分析——主题热力图 |
3.4 实验结论 |
第四章 融合知识的神经注意力网络在缺失代词补全上的应用 |
4.1 融合外部知识的神经注意力模型对语义背景信息的表示 |
4.1.1 融合外部知识的神经注意力模型任务说明及流程 |
4.1.2 表示——反向层级注意力机制对语义背景信息的表示 |
4.1.3 补充——外部知识库对语义背景信息的补充 |
4.1.4 记忆——层级的代词记忆力模块分类 |
4.2 数据集及评价指标 |
4.2.1 数据集 |
4.2.2 评价指标 |
4.2.3 训练参数设置 |
4.3 实验结果分析 |
4.3.1 实验结果 |
4.3.2 消融对比实验 |
4.3.3 结果分析——注意力热力图 |
4.4 实验结论 |
第五章 总结及展望 |
5.1 总结 |
5.2 展望 |
参考文献 |
致谢 |
攻读学位期间发表的学术论文目录 |
(3)认知视角下外国汉语学习者零形回指习得研究(论文提纲范文)
中文摘要 |
ABSTRACT |
第一章 绪论 |
第一节 选题缘起及意义 |
第二节 研究综述 |
第三节 研究对象、目标及方法 |
第四节 研究创新点 |
第二章 汉语零形回指本体探究 |
第一节 相关概念界定 |
第二节 零形回指的具体分类 |
第三节 零形回指的句法特点分析 |
第四节 零形回指的语义层次和语用特点功能分析 |
小结 |
第三章 汉语零形回指的认知分析 |
第一节 认知理论介绍 |
第二节 零形回指的认知视角分析 |
小结 |
第四章 外国汉语学习者零形回指习得情况考察 |
第一节 零形回指习得调研设计 |
第二节 零形回指习得调研结果分析 |
小结 |
第五章 零形回指习得情况分析及教学启示 |
第一节 习得情况的认知分析 |
第二节 教学启示及建议 |
小结 |
第六章 结语 |
附录一 调查问卷 |
附录二 小作文 |
附录三 访谈内容 |
附录四 受访者情况一览表 |
参考文献 |
致谢 |
学位论文评阅及答辩情况表 |
(4)面向文本理解汉语零指代关键问题研究(论文提纲范文)
中文摘要 |
Abstract |
第1章 绪论 |
1.1 研究背景及意义 |
1.1.1 研究背景 |
1.1.2 研究意义 |
1.2 研究现状 |
1.3 汉语零指代消解研究中存在的问题 |
1.4 研究内容和组织结构 |
第2章 相关背景知识和资源 |
2.1 基于语言学规则的方法 |
2.1.1 基于句法分析的方法 |
2.1.2 基于中心理论的方法 |
2.2 基于统计机器学习的方法 |
2.2.1 基于特征的方法 |
2.2.2 基于树核的方法 |
2.2.3 篇章层面的方法 |
2.3 基于语义的深度学习方法 |
2.4 汉语零指代消解语料构建 |
2.5 评价方式 |
2.6 本章小结 |
第3章 篇章视角的汉语零指代语料库构建 |
3.1 引言 |
3.2 篇章视角的汉语零指代表示体系 |
3.2.1 篇章视角的零元素分类 |
3.2.2 篇章视角的零指代结构 |
3.3 篇章视角的汉语零指代标注规范的制定和语料构建 |
3.3.1 文本数据的准备 |
3.3.2 标注过程 |
3.3.3 标注语料一致性评价及分析 |
3.4 语料库统计与分析 |
3.4.1 语料规模的统计 |
3.4.2 与OntoNotes中标注的零指代结构对比 |
3.5 本章小结 |
第4章 汉语零元素位置检测 |
4.1 研究动机 |
4.2 相关知识 |
4.3 汉语零元素位置检测模型 |
4.3.1 编码层 |
4.3.2 解码层 |
4.4 实验结果与分析 |
4.5 本章小结 |
第5章 汉语零元素消解 |
5.1 研究动机 |
5.2 相关知识 |
5.2.1 孪生网络 |
5.2.2 Contrastive Loss |
5.3 基于MASK机制与孪生网络的零元素消解模型 |
5.3.1 输入层 |
5.3.2 编码层 |
5.3.3 计算消解分数 |
5.4 实验结果与分析 |
5.4.1 实验语料与实验设置 |
5.4.2 实验结果与分析 |
5.5 本章小结 |
第6章 总结与展望 |
6.1 研究工作总结 |
6.2 下一步工作设想 |
参考文献 |
攻读学位期间取得的科研成果 |
致谢 |
(5)实体链接中的关键问题研究(论文提纲范文)
中文摘要 |
Abstract |
第一章 绪论 |
1.1 课题研究背景与意义 |
1.2 研究现状 |
1.2.1 面向英文动词短语的省略恢复 |
1.2.2 面向中文零元素的省略恢复 |
1.2.3 面向短对话的省略恢复 |
1.3 目前存在的主要问题 |
1.4 本文主要工作及创新点 |
1.5 本文组织结构 |
第二章 相关背景知识和资源 |
2.1 背景知识 |
2.1.1 LSTM |
2.1.2 Bahdanau Attention |
2.1.3 集束搜索 |
2.1.4 自注意力机制 |
2.1.5 GRU |
2.1.6 GloVe |
2.2 语料及评价方式 |
2.2.1 语料 |
2.2.2 评价标准 |
2.3 多轮对话省略恢复基准模型 |
2.3.1 嵌入层 |
2.3.2 编码层 |
2.3.3 解码层 |
2.3.4 拷贝机制 |
2.4 本章小节 |
第三章 序列到序列的单轮对话省略恢复模型 |
3.1 研究动机 |
3.2 序列到序列单轮对话省略恢复模型 |
3.2.1 嵌入层 |
3.2.2 编码层 |
3.2.3 解码层 |
3.3 实验结果分析 |
3.3.1 实验设置 |
3.3.2 实验结果与分析 |
3.4 本章小节 |
第四章 基于细粒度语义和序列约束信息的单轮对话基准模型改进 |
4.1 研究动机 |
4.2 细粒度语义和序列约束信息改进方法 |
4.2.1 嵌入层 |
4.2.2 编码层 |
4.2.3 解码层 |
4.3 实验结果分析 |
4.3.1 实验设置 |
4.3.2 实验结果与分析 |
4.4 本章小节 |
第五章 基于动态拷贝和掩码机制的对话省略恢复模型 |
5.1 研究动机 |
5.2 动态拷贝和掩码机制的对话省略恢复模型 |
5.2.1 嵌入层 |
5.2.2 Gated Encoder |
5.2.3 Mask Decoder |
5.3 实验结果分析 |
5.3.1 实验设置 |
5.3.2 实验结果与分析 |
5.4 本章小结 |
第六章 总结与展望 |
6.1 论文工作总结 |
6.2 未来工作展望 |
参考文献 |
攻读学位期间参与科研项目和公开发表的论文 |
致谢 |
(6)零形式识别与填充方法及应用研究(论文提纲范文)
中文摘要 |
ABSTRACT |
第一章 绪论 |
1.1 研究背景及意义 |
1.2 国内外研究现状 |
1.3 本文研究内容 |
1.4 论文组织结构 |
第二章 相关概念介绍及任务描述 |
2.1 汉语框架网相关概念 |
2.2 零形式 |
2.2.1 无定零形式 |
2.2.2 有定零形式 |
2.3 任务描述 |
2.4 相关数据集及评价指标 |
2.5 本章小结 |
第三章 零形式识别 |
3.1 问题描述 |
3.2 基于Bi-LSTM网络的零形式识别模型 |
3.2.1 框架向量表示 |
3.2.2 Bi-LSTM网络的构建 |
3.2.3 基于Bi-LSTM网络的零形式识别 |
3.3 基于传统机器学习的零形式识别模型 |
3.3.1 基于决策树的零形式识别 |
3.3.2 基于随机森林的零形式识别 |
3.3.3 特征选择 |
3.4 实验结果与分析 |
3.4.1 语料扩充 |
3.4.2 结果与分析 |
3.5 本章小结 |
第四章 有定零形式填充 |
4.1 问题描述 |
4.2 基于改进SMOTE算法的语料扩充 |
4.3 基于决策树的有定零形式填充 |
4.4 基于框架元素间映射关系的有定零形式填充 |
4.5 实验结果与分析 |
4.6 本章小结 |
第五章 零形式识别与填充在框架关系判别中的应用 |
5.1 任务定义与分析 |
5.2 框架关系判别 |
5.2.1 基于零形式识别与填充的特征选择 |
5.2.2 基于SVM的框架关系判别 |
5.3 实验结果与分析 |
5.4 本章小结 |
第六章 结论与展望 |
6.1 结论 |
6.2 展望 |
参考文献 |
攻读学位期间取得的研究成果 |
致谢 |
个人简况及联系方式 |
(7)基于抽象语义表示的省略现象研究(论文提纲范文)
摘要 |
Abstract |
第1章 引言 |
1.1 选题理由 |
1.2 研究内容 |
1.3 研究价值 |
1.3.1 理论价值 |
1.3.2 应用价值 |
1.4 章节安排 |
第2章 省略现象及AMR的相关研究 |
2.1 理论研究 |
2.1.1 省略现象的界定 |
2.1.2 省略成分与先行语的关系 |
2.1.3 省略现象的分类 |
2.1.4 几类特殊的省略现象 |
2.2 应用研究 |
2.2.1 省略现象的资源建设情况 |
2.2.2 省略现象的自动分析情况 |
2.3 AMR的理论与应用研究 |
2.3.1 AMR的理论研究动态 |
2.3.2 AMR的应用研究现状 |
2.4 本章小结 |
第3章 中文AMR处理省略现象的方法和优势 |
3.1 语义层面上的省略分类 |
3.1.1 与先行语完全对应的省略 |
3.1.2 无先行语的省略 |
3.1.3 与先行语不对应的省略 |
3.2 各类省略的表示方法 |
3.2.1 与先行语完全对应的省略——复制先行语 |
3.2.2 无先行语的省略——新增概念 |
3.2.3 与先行语不对应的省略——新增概念+复制先行语 |
3.3 共享语义内容的类型和表示 |
3.3.1 共享的语义内容在AMR图中的类型 |
3.3.2 完善共享语义内容的表示方法 |
3.4 中文AMR表示省略成分的优势 |
3.4.1 修改增删概念机制便于恢复省略成分 |
3.4.2 词语和概念对齐使省略成分更直观 |
3.4.3 合并省略成分与先行语使语义结构更简洁 |
3.4.4 应用省略表示方法可解决其他语义表示难题 |
3.5 本章小结 |
第4章 省略现象的标注与统计分析 |
4.1 中文AMR语料库简介 |
4.1.1 语料的来源 |
4.1.2 语料的标注过程 |
4.1.3 语料的基本信息 |
4.2 省略现象的分布情况统计 |
4.2.1 省略现象的整体分布情况 |
4.2.2 各类省略的具体分布情况 |
4.3 分析省略现象的分布统计 |
4.3.1 容易出现省略的句法成分和语义角色 |
4.3.2 容易出现省略的特殊句式和谓词 |
4.3.3 省略成分与先行语的位置和距离 |
4.4 本章小结 |
第5章 统计分析省略成分的语义角色 |
5.1 省略成分的语义角色 |
5.1.1 省略成分是核心语义角色 |
5.1.2 省略成分是非核心语义角色 |
5.2 省略成分与先行语的语义角色分析 |
5.2.1 与先行语的语义角色的对应关系 |
5.2.2 省略成分与先行语的语义角色统计 |
5.3 本章小结 |
第6章 结论与未来展望 |
6.1 研究的结论 |
6.2 研究的不足及展望 |
附录1 省略成分与先行语的距离 |
附录2 所有语义关系标签使用频率汇总表 |
附录3 省略成分是非核心语义角色的分布情况 |
参考文献 |
在读期间发表的学术论文及研究成果 |
致谢 |
(8)汉语抽象语义表示体系、资源构建及其应用研究(论文提纲范文)
摘要 |
Abstract |
引言 |
第一章 句法语义的理论发展及应用探索 |
第一节 句法语义理论研究综述 |
第二节 句法结构表示方法及资源建设概述 |
第三节 英文AMR发展现状及应用研究 |
本章小结 |
第二章 CA-CAMR表示体系 |
第一节 英汉AMR表示体系 |
第二节 CA-CAMR表示方法 |
第三节 CA-CAMR标注体系 |
第四节 CA-CAMR的特点 |
本章小结 |
第三章 CA-CAMR语料库构建 |
第一节 人机结合的CAMR语料标注方法 |
第二节 语料标注一致性统计与问题分析 |
第三节 语料标注不一致现象消解策略 |
第四节 CA-CAMR语料标注规范完善 |
本章小结 |
第四章 CA-CAMR语料库标注结果统计及分析 |
第一节 CA-CAMR基本数据及图结构统计分析 |
第二节 CA-CAMR论元共享统计分析 |
第三节 CA-CAMR特殊句法结构表示及统计分析 |
本章小结 |
第五章 CA-CAMR应用:语义省略研究 |
第一节 相关研究 |
第二节 基于CA-CAMR汉语语义省略研究 |
第三节 基于CA-CAMR省略“的”字结构自动识别与补全 |
本章小结 |
结语 |
附录 A |
参考文献 |
在读期间相关成果发表情况 |
致谢 |
(10)中文代词消解关键技术研究(论文提纲范文)
摘要 |
Abstract |
第1章 绪论 |
1.1 课题背景及研究的意义 |
1.2 国内外研究现状 |
1.2.1 中文代词消解 |
1.2.2 中文代词省略恢复 |
1.2.3 相关语料资源 |
1.3 本文主要研究内容 |
1.4 本文内容安排 |
第2章 基于多特征融合的中文代词消解 |
2.1 本章概述 |
2.2 中文代词消解框架 |
2.2.1 数据预处理 |
2.2.2 表述对生成 |
2.3 表述对特征提取及融合 |
2.3.1 基于经验的向量化特征 |
2.3.2 基于语义角色标注的特征 |
2.3.3 基于词向量的语义特征 |
2.3.4 表述对特征融合方法 |
2.4 分类器介绍 |
2.4.1 梯度迭代决策树 |
2.4.2 人工神经网络 |
2.5 系统实验及分析 |
2.5.1 实验数据集 |
2.5.2 实验设置与结果分析 |
2.6 本章小结 |
第3章 基于长短时记忆网络的中文代词消解及恢复 |
3.1 本章概述 |
3.2 深度学习技术 |
3.2.1 网络模型介绍 |
3.2.2 模型训练及优化策略 |
3.2.3 深度学习框架 |
3.3 中文代词消解 |
3.4 中文代词省略恢复 |
3.4.1 中文零代词识别 |
3.4.2 基于长短时记忆网络的中文代词省略恢复 |
3.4.3 引入注意力机制的中文代词省略恢复 |
3.5 系统实验及分析 |
3.5.1 实验数据集 |
3.5.2 零代词识别对比实验 |
3.5.3 零代词消解不同模型对比实验 |
3.5.4 零代词消解LSTM模型优化对比实验 |
3.6 本章小结 |
第4章 智能微信聊天机器人的设计与实现 |
4.1 本章概述 |
4.2 系统结构 |
4.2.1 系统功能设计 |
4.2.2 系统模块设计 |
4.3 系统实现 |
4.3.1 语义补充模块 |
4.3.2 问答核心模块 |
4.3.3 对话管理模块 |
4.4 系统展示 |
4.4.1 系统运行环境 |
4.4.2 系统运行截图 |
4.5 本章小结 |
结论 |
参考文献 |
致谢 |
四、基于语义结构分析的汉语零代词消解(论文参考文献)
- [1]认知视阈下的篇章零形回指研究 ——以近十年政府工作报告为例[D]. 宁湘铭. 大连外国语大学, 2021(12)
- [2]基于语义背景知识的中文对话代词补全问题的研究[D]. 佟见卓. 北京邮电大学, 2020(04)
- [3]认知视角下外国汉语学习者零形回指习得研究[D]. 梁迪. 山东大学, 2020(12)
- [4]面向文本理解汉语零指代关键问题研究[D]. 葛海柱. 苏州大学, 2020(02)
- [5]实体链接中的关键问题研究[D]. 郑杰. 苏州大学, 2020(02)
- [6]零形式识别与填充方法及应用研究[D]. 张月平. 山西大学, 2020(01)
- [7]基于抽象语义表示的省略现象研究[D]. 刘依欢. 南京师范大学, 2020(04)
- [8]汉语抽象语义表示体系、资源构建及其应用研究[D]. 戴茹冰. 南京师范大学, 2020(02)
- [9]主语属格语的零形指代现象研究[J]. 蒋平. 湖南大学学报(社会科学版), 2017(06)
- [10]中文代词消解关键技术研究[D]. 屈锦春. 哈尔滨工业大学, 2017(02)