语言分析与计算模型
✦ 基于字级依存句法分析的汉语句子语义组合计算方法
作 者: 梁宇腾,汪凯,张玉洁,满志博,徐金安,陈钰枫
摘 要: 句子的语义表示学习是自然语言处理的基础核心技术,根据语义组合理论,句子的语义将由其组合成分的语义按照一定的组合方式计算得到。在汉语上,这方面的工作提出以汉字或词语作为组合成分并以句法结构作为组合方式的多种模型,在复述识别等应用中取得了较好的效果,受到研究者的关注。该文围绕组合成分的语义表示学习和语义组合方式的建模进行探索,提出基于字级依存句法分析的汉语语义组合计算模型:(1)为了强化汉字的语义表示学习,引入N-gram获取可能构成的词语作为上下文特征,并采用多头注意力机制获取全句的上下文表示; (2)采用图框架依存句法分析获取汉字依存关系特征,并在此基础上构建语义组合计算模型; (3)联合复述识别任务进行汉语句子的语义组合表示学习。作者在 LCQMC 数据集上的实验结果表明,该文方法在 F1 和准确率上分别达到 87.10% 和 86.01%,较现有最优方法提升 1.02% 和 1.20%。此外,在以预训练语言模型 BERT 作为基线的情况下,引入该文提出的方法后,复述识别任务中的 F1 和准确率分别提升 1.65% 和 2.12%,表明该方法同样适用于预训练模型。
关键词 : 字级依存句法分析, 语义组合, 复述识别
引用格式 : 梁宇腾,汪凯,张玉洁,满志博,徐金安,陈钰枫. 基于字级依存句法分析的汉语句子语义组合计算方法[J]. 中文信息学报. 2025, 39 (11): 1-14.
LIANG Yuteng, WANG Kai, ZHANG Yujie, MAN Zhibo, XU Jin’an, CHEN Yufeng. Sentence Semantic Composition Computing Method Based on Chinese Character Dependency Parsing[J]. Journal of Chinese Information Processing. 2025, 39 (11): 1-14.
全文链接: 点击下载
✦ 融合文本困惑度特征和相似度特征的推特机器人检测方法
作 者: 王钟杰,张朝文,刘秉权,丁文琪,付雨濛,单丽莉
摘 要: 推特机器人检测任务的目标是判断一个推特账号是真人账号还是自动化机器人账号。随着自动化账号拟人算法的快速迭代,检测最新类别的自动化账号变得越来越困难。最近,预训练语言模型在自然语言生成任务和其他任务上表现出了出色的水平,当这些预训练语言模型被用于推特文本自动生成时,会为推特机器人检测任务带来很大挑战。该文研究发现,困惑度偏低和相似度偏高的现象始终出现在不同时代自动化账号的历史推文中,且该现象不受具体预训练语言模型类型的影响。针对这些发现,该文提出了一种抽取历史推文困惑度特征和相似度特征的方法,并设计了一种特征融合策略,以更好地将这些新特征应用于现有推特机器人检测模型。
关键词 : 推特机器人检测, 预训练语言模型, 文本困惑度分析, 文本相似度分析
引用格式 : 王钟杰,张朝文,刘秉权,丁文琪,付雨濛,单丽莉. 融合文本困惑度特征和相似度特征的推特机器人检测方法[J]. 中文信息学报. 2025, 39 (11): 15-23.
WANG Zhongjie, ZHANG Zhaowen, LIU Bingquan, DING Wenqi, FU yumeng, SHAN Lili. Twitter Robot Detection Based on Text Perplexity and Text Similarity[J]. Journal of Chinese Information Processing. 2025, 39 (11): 15-23.
全文链接: 点击下载
✦ 基于多属性可控生成的文本去毒害方法
作 者: 丁汉星,庞亮,魏子豪,沈华伟,程学旗
摘 要: 基于大规模文本语料库的预训练语言模型在文本生成时存在生成毒害文本的潜在风险,即输出的文本可能包含不适当的内容,从而给实际应用带来安全风险。传统的去毒害方法往往将毒害视作一个整体进行处理,未能有效解耦并区分不同类型的毒害成分,这导致了对毒害信息缺乏针对性的精细化控制,从而使得去毒害效果相对有限。针对传统方法的不足,该文提出了一种多属性可控的文本去毒害方法。该方法利用变分自编码器学习多类毒害信息的联合隐空间分布,并结合联合隐空间的能量模型和独立的毒害判别器,实现了对各类毒害信息的精细控制并显著消除。实验结果显示,该方法在降低多类毒害信息的生成水平方面明显优于现有方法,同时保证了文本的流畅性和多样性。
关键词 : 预训练语言模型, 文本去毒害, 多属性可控生成
引用格式 : 丁汉星,庞亮,魏子豪,沈华伟,程学旗. 基于多属性可控生成的文本去毒害方法[J]. 中文信息学报. 2025, 39 (11): 24-33,49.
DING Hanxing, PANG Liang, WEI Zihao, SHEN Huawei, CHENG Xueqi. Multi-aspect Controllable Text Generation for Text Detoxification[J]. Journal of Chinese Information Processing. 2025, 39 (11): 24-33,49.
全文链接: 点击下载
语言资源建设与应用
✦ 构建面向审计领域的大规模知识库及大模型评测指令数据集
作 者: 黄佳佳,徐超,李鹏伟,詹天明,郑纬民
摘 要: 随着审计数智化程度的提高,构建面向审计领域的大规模知识库成为一项迫切需求。该文介绍一种领域知识库构建框架,并基于该知识库构建了大模型评测数据集。首先,分析审计知识需求并设计知识表示框架,收集领域文本并利用信息抽取技术获取结构化知识。其次,提出一种基于领域专家指导的半自动化本体构建方法快速构建审计领域本体,通过神经网络抽取出大量领域命名实体并从海量审计文本中自动抽取审计知识三元组。最后,基于审计知识库,设计指令数据集并评测当前主流大模型在审计任务上的表现。实验结果表明,该文提出的方法在构建面向审计领域的知识库方面取得了显著效果。在指令数据集上的评测结果表明,各类大模型在大部分任务上的回答结果不尽如人意,尚未达到工程应用水准。
关键词 : 审计知识库, 命名实体识别, 大语言模型, 评测语料
引用格式 : 黄佳佳,徐超,李鹏伟,詹天明,郑纬民. 构建面向审计领域的大规模知识库及大模型评测指令数据集[J]. 中文信息学报. 2025, 39 (11): 34-49.
HUANG Jiajia, XU Chao, LI Pengwei, ZHAN Tianming, ZHENG Weimin. A Large-scale Audit Knowledge Base and a Benchmark Dataset for Large Language Model Evaluation[J]. Journal of Chinese Information Processing. 2025, 39 (11): 34-49.
全文链接: 点击下载
✦ 动词驱动事件的共指关系中文语料库构建及大模型评测
作 者: 王皓泽,辛欣
摘 要: 事件共指关系研究是自然语言处理领域的一项基础任务。现有工作主要在封闭域上对事件共指进行研究。为了在开放域上研究事件共指关系,该文提出直接从事件的表达载体出发定义事件共指的研究思路,并具体讨论了动词驱动的事件之间的共指关系。该文构建了动词驱动事件共指关系的数据规范,并将共指关系细分为强共指与弱共指。基于数据规范,人工标注构建了38万余字的中文语料库,含1 000篇文档,29 250个动词,1 858条强共指链,994个弱共指动词对。并进行了流水线共指消解实验:提及检测阶段,采用成分句法分析算法提取动词成分,F1值为96.9%;共指关系预测阶段,分别采用提示工程、指令微调、知识蒸馏评测了大语言模型在该任务上的表现,比较模型预测的平均F1值,其中,提示工程方法为50.0%,指令微调方法为64.4%,知识蒸馏方法为71.7%。将经指令微调的大模型与经有监督微调的小模型进行对比,小模型的推理表现略低于大模型,推理效率远高于大模型。
关键词 : 事件共指关系, 中文语料库, 大语言模型
引用格式 : 王皓泽,辛欣. 动词驱动事件的共指关系中文语料库构建及大模型评测[J]. 中文信息学报. 2025, 39 (11): 50-65.
WANG Haoze, XIN Xin. Chinese Coreference Corpus from Verb-Driven Events and Its Application for LLM Evaluation[J]. Journal of Chinese Information Processing. 2025, 39 (11): 50-65.
全文链接: 点击下载
知识表示与知识获取
✦ 基于超边注意力的双边约束超网络表示学习
作 者: 王威,朱宇,王晓英,黄建强,曹腾飞,陈毅艰
摘 要: 现有的大多数超网络表示学习方法无法有效地捕获超边信息。因此,该文针对上述问题提出一个基于超边注意力的双边约束超网络表示学习方法,该方法首先通过知识表示学习中的平移机制,提出一种超边注意力感知的超路径随机游走算法,以便于在随机游走中保留超网络的高阶元组关系,即超边信息。然后,利用结构派生神经网络模型和高阶元组关系感知模型捕获超网络的节点之间的成对关系和高阶元组关系来分别获得节点表示向量,并对节点表示向量进行线性加权融合。在三个真实世界的超网络数据集上的实验表明,对于链接预测任务,该方法在GPS和drug数据集上较最优基线方法Hyper-SAGNN分别提高了0.58和0.42个百分点;在MovieLens数据集上非常接近于最优基线方法HPSG。对于超网络重建任务,该方法在GPS数据集上均优于基线方法;在Drug数据集上,当重建比例大于30%时,该方法优于基线方法。
关键词 : 超网络表示学习, 高阶元组关系, 超边注意力, 链接预测, 超网络重建
引用格式 : 王威,朱宇,王晓英,黄建强,曹腾飞,陈毅艰. 基于超边注意力的双边约束超网络表示学习[J]. 中文信息学报. 2025, 39 (11): 66-77.
WANG Wei, ZHU Yu , WANG Xiaoying, HUANG Jianqiang, CAO Tengfei, CHEN Yijian. Bilateral Constrained Hypernetwork Representation Learning with Hyperedge Attention[J]. Journal of Chinese Information Processing. 2025, 39 (11): 66-77.
全文链接: 点击下载
✦ 联合结构和边信息嵌入的实体对齐
作 者: 张胜利,段友祥,孙歧峰
摘 要: 实体对齐旨在匹配不同知识图谱中相同对象对应的实体,是知识图谱构建与融合过程中的一项关键任务。传统方法依赖于外部信息和人工定义的规则,适配性较差。基于表示学习的方法之前主要关注结构信息,而对实体边信息利用不够充分。针对以上问题,该文提出了一种联合知识图谱多方面信息嵌入的实体对齐方法。引入预训练模型LaBSE生成值嵌入向量,利用图注意力网络突出重要的属性信息;从语义和字符串两个角度探索得到实体名称特征;利用实体的单跳和多跳邻域信息学习知识图谱的结构嵌入;最后采用加权连结策略对各通道对齐结果进行融合。在公开数据集上的实验结果表明,该方法可以使结构信息和边信息在对齐过程中相互补充和增强,相较于其他方法改进显著。
关键词 : 实体对齐, 知识图谱, 表示学习
引用格式 : 张胜利,段友祥,孙歧峰. 联合结构和边信息嵌入的实体对齐[J]. 中文信息学报. 2025, 39 (11): 78-85.
ZHANG Shengli, DUAN Youxiang, SUN Qifeng. Joint Structure and Side Information Embedding for Entity Alignment[J]. Journal of Chinese Information Processing. 2025, 39 (11): 78-85.
全文链接: 点击下载
✦ 基于知识蒸馏的无监督句向量表征对比学习
作 者: 丁妍,金日泽
摘 要: 近年来研究者们广泛使用对比学习技术进行无监督句向量学习,但仍存在正负样本划分不合理、数据增强易导致文本语义严重改变等问题。该文在无监督句向量模型SimCSE基础上进一步优化了文本正负样例的构建: 在构建正样例时,为了避免学习饱和现象,将输入句子标记(token)进行随机重复操作,以确保正样例的多样性;同时,通过计算语料间的语义相似性分数,选择更有意义的负样例,从而进一步优化模型的性能。此外,该文采用了知识蒸馏方法,利用BERT模型的注意力头(attention heads)机制更好地捕捉句子之间的语义关系,同时保持了无监督训练的优点。在STS(语义文本相似度)数据集上的实验结果表明,该文的方法在无监督环境下基于BERT-base的模型达到了81.03%的Spearman相关性,优于现有的STS基准测试分数。同时,该方法学习到的句向量表征分布更均匀,进一步验证了该文所提方法的有效性。
关键词 : 对比学习, 无监督句向量, 知识蒸馏, 语义相似度
引用格式 : 丁妍,金日泽. 基于知识蒸馏的无监督句向量表征对比学习[J]. 中文信息学报. 2025, 39 (11): 86-94.
DING Yan, JIN Rize. Contrastive Learning of Unsupervised Sentence Representation with Knowledge Distillation[J]. Journal of Chinese Information Processing. 2025, 39 (11): 86-94.
全文链接: 点击下载
机器翻译
✦ 多粒度关键词注意力修正机制的篇章机器翻译方法
作 者: 林超,张为泰,王士进,刘俊华,刘聪
摘 要: 篇章级机器翻译因可充分考量上下文信息,故而能有效提升译文质量与连贯性。然而,输入序列长度的大幅扩增,对翻译模型在长序列里捕获关键信息的能力提出了更为严苛的要求。针对上述问题,该文提出了一种多粒度关键词注意力修正机制的篇章机器翻译方法。具体地,首先引入掩码注意力扰动模块,评估篇章序列中不同词的重要性,并对关键词的权重进行激励,对噪声词权重进行抑制;其次,结合上下文知识迁移学习方法,将模型在子句和句子粒度层面的上下文建模能力迁移至篇章级翻译模型,从而提升篇章机器翻译模型的鲁棒性和翻译效果。与基线篇章翻译模型相比,在开源的WMT篇章翻译任务数据集上,该文方法平均提升0.55个BLEU,用词一致性提升4.1%,表明该方法在上下文信息利用上具有显著的有效性。
关键词 : 注意力修正机制, 篇章级机器翻译, 迁移学习
引用格式 : 林超,张为泰,王士进,刘俊华,刘聪. 多粒度关键词注意力修正机制的篇章机器翻译方法[J]. 中文信息学报. 2025, 39 (11): 95-103.
LIN Chao, ZHANG Weitai, WANG Shijin, LIU Junhua, LIU Cong. Document-level Machine Translation with Multi-ghranularity Keyword Attention Correction Mechanism[J]. Journal of Chinese Information Processing. 2025, 39 (11): 95-103.
全文链接: 点击下载
民族及周边语言信息处理
✦ 融合回译与多种改进的汉老神经机器翻译方法
作 者: 雷歆,周兰江,毛存礼
摘 要: 神经机器翻译现已成为翻译技术主流,在诸多大语种上已取得了极佳的进展,但对于老挝语这种低资源语言的机器翻译技术尚存在欠缺。该文使用弱监督的方法将汉老双语映射在同一向量空间中,减小了因跨语言而带来的嵌入差异,接着使用反向翻译策略缓解了老挝语低资源语言问题,运用汉老平行句对筛选策略得到了扩充的高质量平行句对。在此基础上,对Transformer模型进行改进,实现了编码器-解码器层间的信息增强,使模型翻译性能得到提升,同时引入平均注意力机制,使模型解码速度得到提升。实验表明,该文模型在老汉和汉老翻译任务中BLEU值较基线系统提升了1.36和1.22。
关键词 : 汉语-老挝语, 神经机器翻译, 回译, 信息传输增强, 解码加速
引用格式 : 雷歆,周兰江,毛存礼. 融合回译与多种改进的汉老神经机器翻译方法[J]. 中文信息学报. 2025, 39 (11): 104-111.
LEI Xin, ZHOU Lanjiang, MAO Cunli. Chinese-Lao Neural Machine Translation Method based on Back Translation and Various Improvements[J]. Journal of Chinese Information Processing. 2025, 39 (11): 104-111.
全文链接: 点击下载
信息抽取与文本挖掘
✦ SPTEE:一种用于解决事件抽取任务的生成模型
作 者: 王江晴,白鑫,尹帆,帖军,雷炜豪
摘 要: 事件抽取是自然语言处理中一项重要的子任务。目前在缺乏足够标注语料的低资源场景下如何有效地进行事件抽取任务,仍然是一项具有挑战的任务。Prompt-Tuning范式通过引入文本提示并重新制定下游任务,在低资源场景下取得了不错的效果。受Prompt-Tuning启发,该文为低资源下事件抽取任务提出一种基于软模板(Soft-Prompt-Template)的生成模型SPTEE。SPTEE通过引入可训练的软模板和带有标签语义的标签语义空间,促使模型直接生成触发词、论元及其标签序列。实验结果表明,SPTEE模型在低资源和标准资源场景下都具有良好的表现。
关键词 : 事件抽取, Prompt-Tuning, 低资源
引用格式 : 王江晴,白鑫,尹帆,帖军,雷炜豪. SPTEE:一种用于解决事件抽取任务的生成模型[J]. 中文信息学报. 2025, 39 (11): 112-119.
WANG Jiangqing, BAI Xin, YIN Fan, TIE Jun, LEI Weihao. SPTEE: A Generation Model for Event Extraction[J]. Journal of Chinese Information Processing. 2025, 39 (11): 112-119.
全文链接: 点击下载
✦ 基于对角注意力池化的零样本关系抽取模型
作 者: 胡婕,毕宗旺,高珊
摘 要: 目前主流的零样本关系抽取模型多从设计匹配模式的角度出发,旨在达到性能与推理速度的平衡。它们未考虑匹配中句子表示存在的各向异性问题,限制了模型对底层语义特征的获取,该文引入对角注意力池化来缓解此问题。此外,为了解决预训练语言模型中高低频词不平衡对句子向量造成距离偏差而产生的模型对句子语义理解模糊的问题,该文使用语义向量归一化来平衡高低频词的权重。最后,在预训练语言模型的隐藏状态中引入噪声扰动来缓解预训练过程中存在的过拟合和表示崩溃问题。在两个公开数据集Wiki-ZSL和FewRel上的实验结果表明,所提模型相较于SOTA模型的综合性能以及推理速度都具有明显的优势。
关键词 : 零样本关系抽取, 对角注意力池化, 语义向量归一化, 隐藏状态噪声扰动
引用格式 : 胡婕,毕宗旺,高珊. 基于对角注意力池化的零样本关系抽取模型[J]. 中文信息学报. 2025, 39 (11): 120-129.
HU Jie, BI Zongwang, GAO Shan. Zero-shot Relation Extraction Model based on Diagonal Attention Pooling[J]. Journal of Chinese Information Processing. 2025, 39 (11): 120-129.
全文链接: 点击下载
问答与对话
✦ 基于预训练模型的个性化对话生成
作 者: 徐晖,王中卿
摘 要: 在对话系统中引入用户画像对于生成个性化的对话至关重要。然而,在大多数个性化对话语料库中,用户画像结构是不完整的。尽管神经网络在个性化对话模型方面取得了一些进展,但是它们在学习说话者的个性以及说话者之间互动方面表现出的能力非常有限。为此,该文提出了基于预训练模型的将用户画像信息融入模型中帮助生成个性化对话的方法。具体来说,该文引入了个性化关系树结构,将人物个性以及人物关系以树结构方式进行表示,在预训练阶段,模型通过预测个性化关系树来学习说话者的个性以及人物间的关系,并将学习到的知识迁移到对话生成阶段。实验结果表明,该文所提出的模型在BLEU和PPL等评价指标上提升明显,可以有效地提升对话之间的个性化表现,研究结果还表明了个性化关系树结构对个性化对话模型的重要性。
关键词 : 对话生成, 个性化, 用户画像, 预训练
引用格式 : 徐晖,王中卿. 基于预训练模型的个性化对话生成[J]. 中文信息学报. 2025, 39 (11): 130-137.
XU Hui, WANG Zhongqing. Personalized Dialog Generation Based on Pre-trained Model[J]. Journal of Chinese Information Processing. 2025, 39 (11): 130-137.
全文链接: 点击下载
✦ 基于用户预期情绪感知策略选择的情感支持对话系统
作 者: 陈妍,杨燕,孙宇翔,庄鹏杰,陈成才,贺樑
摘 要: 情感支持对话任务旨在通过对话的方法帮助用户进行情绪疏导,克服其所面临的问题。现有工作仅基于对话历史选择支持策略,用户情绪反馈对策略选择的影响未得到充分利用。因此,该文提出一种基于用户预期情绪感知策略选择的情感支持对话模型(Lookahead Emotion-aware Strategy Selection Model for Emotional Support Conversation,EmoESC),通过模拟用户对不同支持策略产生的反应得到预期情绪,利用强化学习的方法将策略使用前后用户的情绪变化作为奖励,选择使用户预期情绪更佳的支持策略。同时,为了增加回复与用户问题之间的相关性,利用用户问题描述增强回复生成,从而有效缓解用户负面情绪并提供帮助。在ESConv公开数据集上进行的实验表明,EmoESC模型在5项自动评估指标和3项人工评估指标上取得了比其他基准模型更好的效果。
关键词 : 情感支持对话, 策略选择, 强化学习
引用格式 : 陈妍,杨燕,孙宇翔,庄鹏杰,陈成才,贺樑. 基于用户预期情绪感知策略选择的情感支持对话系统[J]. 中文信息学报. 2025, 39 (11): 138-147.
CHEN Yan, YANG Yan, SUN Yuxiang, ZHUANG Pengjie, CHEN Chengcai, HE Liang. Lookahead Emotion-aware Strategy Selection Model for Emotional Support Conversation[J]. Journal of Chinese Information Processing. 2025, 39 (11): 138-147.
全文链接: 点击下载
情感分析与社会计算
✦ 基于结构信息引导LSTM和融合门控机制的方面级情感分析
作 者: 吴文,李卫疆
摘 要: 现有的方面级情感分析研究大部分只关注依存句法关系,忽略了语义依赖关系,导致它们在句法不规范的评论文本数据上表现不佳,并且此类方法没有充分利用线性表示的上下文信息和图编码表示的结构信息。针对上述问题,该文提出了一种基于结构信息引导LSTM和融合门控机制的方面级情感分析模型。该模型同时考虑了句法结构信息和语义结构信息,并通过结构信息引导LSTM在每个时间步指导模型学习结构信息。这种机制能够更好地集成上下文信息和结构化信息,然后通过融合门控机制评估增强表示的结构信息对方面词情感极性的贡献,得到深度融合后的特征进行分类。模型在Twitter、Restaurant和Laptop数据集上的实验结果与基准模型相比均有明显提升。
关键词 : 方面级情感分类, 结构信息引导单元, 门控机制
引用格式 : 吴文,李卫疆. 基于结构信息引导LSTM和融合门控机制的方面级情感分析[J]. 中文信息学报. 2025, 39 (11): 148-159.
WU Wen, LI Weijiang. Aspect-level Sentiment Analysis Based on Structural Information-Guided LSTM and Gate Mechanism[J]. Journal of Chinese Information Processing. 2025, 39 (11): 148-159.
全文链接: 点击下载
✦ 常识图增强双编码器的方面级情感三元组提取
作 者: 姜珊,诺明花,王浩
摘 要: 方面级情感三元组提取(ASTE)是基于方面级别的情感分析(ABSA)中一个复杂而重要的任务,其旨在从评论句中抽取情感三元组。近年来,先进方法主要集中在挖掘深层语义和语法信息,但这些特征仍然不足以准确地提取情感三元组,静态特征也无法对动态语义信息进行建模。该文提出了一种将常识知识与双编码器相结合的模型,引入了动态掩码和动态加权模块,增强了对动态语义信息的捕获能力。同时,构建常识图,将常识知识与语义和句法信息融合,使模型充分掌握领域知识。该模型利用句法依赖树和图卷积神经网络提取结构信息。实验结果表明,该文所提方法在四个基准数据集14lap,14res,15res,16res上的F1值分别提升了2.48%,2.16%,1.93%和2.72%。
关键词 : 情感分析, 常识图, 动态掩码, 动态加权
引用格式 : 姜珊,诺明花,王浩. 常识图增强双编码器的方面级情感三元组提取[J]. 中文信息学报. 2025, 39 (11): 160-171.
JIANG Shan, NUO Minghua, WANG Hao. Enhanced Dual Encoder with Commonsense Graph for ASTE[J]. Journal of Chinese Information Processing. 2025, 39 (11): 160-171.
全文链接: 点击下载
✦ 基于多任务多模态交互学习的情感分析网络
作 者: 薛鹏,李旸,王素格,廖健,郑建兴,符玉杰,李德玉
摘 要: 由于现有方法在融合不同模态的高级与低级特征时,忽视了不同模态特征层次之间的差异。因此,该文提出了多任务多模态交互学习的自监督动态融合模型,通过多层网络结构,构建了单模态特征表示与两两模态特征的层次融合表示,并设计了从低级特征渐变到高级特征的融合策略。为了进一步加强多模态特征融合,使用了分布相似性损失函数和异质损失函数,用于学习模态的共性表征和特性表征。在此基础上,利用多任务学习,获得模态的一致性及差异性特征。在CMU-MOSI和CMU-MOSEI数据集上的实验,结果表明该文模型的情感分类性能优于基线模型。
关键词 : 多模态融合, 多任务学习, 情感分析
引用格式 : 薛鹏,李旸,王素格,廖健,郑建兴,符玉杰,李德玉. 基于多任务多模态交互学习的情感分析网络[J]. 中文信息学报. 2025, 39 (11): 172-182.
XUE Peng, LI Yang, WANG Suge, LIAO Jian, ZHENG Jianxing, FU Yujie, LI Deyu. Sentiment Classification Method Based on Multi-tasking and Multimodal Interactive Learning[J]. Journal of Chinese Information Processing. 2025, 39 (11): 172-182.
全文链接: 点击下载
✦ 一种基于预训练标签序列生成模型的多标签情绪分类方法
作 者: 揭安全,陈雷,曾雪强,左家莉
摘 要: 基于序列到序列的情绪标签生成模型采用循环神经网络建模情绪相关性,是一种有效的多标签情绪分类方法。然而,现有序列生成模型仅通过隐状态隐式地学习标签相关性,难以有效捕捉细粒度情绪间的强相关性。针对这一问题,该文提出了一种基于预训练序列生成模型的多标签情绪分类方法(Multi-Label Emotion Classification Based on Pre-trained BART, EmoBART)。EmoBART模型采用预训练生成式语言模型BART为情绪标签序列生成的网络骨架,使用相关性网络(CorNet)显式地学习情绪相关性。EmoBART模型由编码模块、解码模块和相关性网络模块组成。编码模块提取文本语义信息、解码模块采用生成式标签链构建情绪标签序列、相关性网络模块显式建模情绪相关性,并对情绪标签进行预测。在细粒度情绪数据集上的对比实验结果表明,EmoBART模型具有比已有模型更优的情绪识别性能。
关键词 : 多标签情绪分类, 序列生成模型, 序列到序列, 情绪相关性学习
引用格式 : 揭安全,陈雷,曾雪强,左家莉. 一种基于预训练标签序列生成模型的多标签情绪分类方法[J]. 中文信息学报. 2025, 39 (11): 183-194.
JIE Anquan, Chen Lei, ZENG Xueqiang, ZUO Jiali. A Multi-label Emotion Classification Method Based on Pre-trained Label Sequence Generation Model[J]. Journal of Chinese Information Processing. 2025, 39 (11): 183-194.
全文链接: 点击下载