Note:[ wechat:Y466551 | 付费咨询,非诚勿扰 ]
论文信息
论文标题:CNN-Based Broad Learning for Cross-Domain Emotion Classification
论文作者:Rong Zeng, Hongzhan Liu , Sancheng Peng , Lihong Cao, Aimin Yang, Chengqing Zong,Guodong Zhou
论文来源:2023 aRxiv
论文地址:download
论文代码:download
视屏讲解:click
1 介绍
出发点:许多研究者关注的是传统的跨域情感分类,即粗粒度情绪分类。然而,跨领域的情绪分类问题却很少被涉及到。
摘要:在本文中,提出了一种基于卷积神经网络(CNN)的广泛学习方法,通过结合 CNN 和广泛学习的强度来进行跨域情感分类。首先利用 CNN 同时提取领域不变和领域特定特征,通过广泛学习来训练两个更有效的分类器。然后,为了利用这两个分类器,设计了一个共同训练模型来为它们进行提升。
贡献:
-
- 提出了一种结合深度学习和广泛学习的模型,即基于卷积神经网络(CNN)的广泛学习(CBL);
- 开发了四个真实世界的数据集,涉及四个不同领域;
- 结果表明,该方法比基线方法能更有效地提高情绪分类的性能;
2 方法
模型框架:

2.1 Maximum mean discrepancy
MMD 公式:
MMD(Xs,Xt)=∥∥1Ns∑Nsi=1ϕ(xis)−1Nt∑Nti=1ϕ(xit)∥∥2H(1)
2.2 Feature extraction
本小节,为了同时提取 DIF(域不变特征) 和 DSF (域特定特征),先使用两个不同的映射器将数据映射到一个域不变的空间和一个域特定的空间中。
首先使用 BERT 来生成 Xs 和 Xtl 的词向量,其描述如下:
Wsinv=BERTinv(Xs;θBERTinv)∈R(Nsl)×768Wtlinv=BERTinv(Xtl;θBERTinv)∈R(Ntll)×768Wsspec=BERTspec(Xs;θBERTspec )∈R(Nsl)×768Wtlspec=BERTspec(Xtl;θBERTspec )∈R(Ntll)×768(2)
基于此,使用 CNN 和 最大池化 ,提取 n-gram feature 和 salient feature,可以描述如下:
Fsinv=CNNinv(Wsinv;θCNNinv)∈RNs×qFtlinv=CNNinv(Wtlinv;θCNNinv)∈RNtl×qFsspec=CNNspec(Wsspec;θCNNspec )∈RNs×qFtlspec =CNNspec (Wtlspec ;θCNNspec )∈RNtl×q(3)
对于 DIF,希望它能够编码源域和目标域共享的特性:
Lsim=MMD(Fsinv,Ftlinv)(4)
对于 DSF,希望它只从目标域中提取特征,这些特性通常应该出现在目标域中,而很少出现在源域中:
Ldiff=−MMD(Fsspec ,Ftlspec )(5)
2.3 BL-Based classifier
为增强节点语义特征,设计了基于 DIF 的域不变分类器(DIC)和基于 DSF 的域特定分类器(DSC)两种分类器。
对于 DIC,第 i 组增强节点可以表示如下:
Eiinvi=φ(θiinv[Fsinv,Ftlinv]+βiinv)=1,2,…,ninv(6)
增强的节点特征:Einv≜[E1inv,E2inv,…,Eninvinv] 。
因此,DIC 的输出可以表示如下:
Y^inv=[Fsinv,Ftlinv,Einv]θBLinv=AinvθBLinv(7)
由于 DSC 只需要对目标域数据进行分类,因此我们对 Ftl spec 到增强节点的 nspec 组进行了非线性映射。因此,第 j 组增强节点可以表示如下:
Ejspecj=φ(θjspecFtlspec+βjspec)=1,2,…,nspec(8)
增强的节点特征:Espec ≜[E1spec ,E2spec ,…,Enspec spec ]
因此,DSC的输出可以表示如下:
Y^spec=[Ftlspec,Espec]θBLspec=AspecθBLspec(9)
2.4 Co-training
至于DIF,训练的目的是尽量减少以下损失:
Linv=Lsim(θBERTinv,θCNNinv)+αLc(θBERTinv,θCNNinv)(10)
Lc=1Ns+Ntl∑i=1Ns−yislnP(yis∣Fsiinv)+1Ns+Ntl∑j=1Ntl−yjtllnP(yjtl∣Ftljinv)(11)
在到DSF时,训练的目的是尽量减少下面的损失:
Lspec =Ldiff (θBERTspec ,θCNNspec )+γLt(θBERTspec ,θCNNspec )(12)
Lt=1Ntl∑Ntli=1−Yitllogfc(yitl∣Ftlispec)(13)
对于 DIC,我们需要求解一个合适的 θBERTinv,使 Yinv 和 Y^inv 之间的差异尽可能小,其中 Yinv 表示标记源数据和标记目标数据的地面真实标签。因此,采用岭回归作为目标函数,其表示如下:
argminθBLinv(∥∥Yinv−Y^inv∥∥22+λ1∥∥θBLinv∥∥22)(14)
对于 DSC,同样,目标函数表示如下:
argminθBLspec (∥∥Yspec −Y^spec ∥∥22+λ2∥∥θBLspec ∥∥22)(15)
Yspec 表示已标记的目标数据的地面真实标签。
因此,采用岭回归作为目标函数,得到最优解 θBLinv,表示如下:
θBLinv=(λ1I+AinvATinv)−1ATinvYinv(16)
其中,I 表示单位矩阵。
同样,得到最优解 θBLspec 规范,表示如下:
θBLspec =(λ2I+Aspec ATspec )−1ATspec Yspec (17)
2.5 完整算法

3 实验结果
数据集

情感分类

__EOF__
-
本文作者: Blair
本文链接: https://www.cnblogs.com/BlairGrowing/p/17589407.html
关于博主: I am a good person
版权声明: 本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
声援博主: 如果您觉得文章对您有帮助,可以点击文章右下角【推荐】一下。