论文解读(CBL)《CNN-Based Broad Learning for Cross-Domain Emotion Classification》

Note:[ wechat:Y466551 | 付费咨询,非诚勿扰 ]

论文信息

论文标题:CNN-Based Broad Learning for Cross-Domain Emotion Classification
论文作者:Rong Zeng, Hongzhan Liu , Sancheng Peng , Lihong Cao, Aimin Yang, Chengqing Zong,Guodong Zhou
论文来源:2023 aRxiv
论文地址:download 
论文代码:download
视屏讲解:click

1 介绍 

  出发点:许多研究者关注的是传统的跨域情感分类,即粗粒度情绪分类。然而,跨领域的情绪分类问题却很少被涉及到。

  摘要:在本文中,提出了一种基于卷积神经网络(CNN)的广泛学习方法,通过结合 CNN 和广泛学习的强度来进行跨域情感分类。首先利用 CNN 同时提取领域不变和领域特定特征,通过广泛学习来训练两个更有效的分类器。然后,为了利用这两个分类器,设计了一个共同训练模型来为它们进行提升。

  贡献

    • 提出了一种结合深度学习和广泛学习的模型,即基于卷积神经网络(CNN)的广泛学习(CBL);
    • 开发了四个真实世界的数据集,涉及四个不同领域;
    • 结果表明,该方法比基线方法能更有效地提高情绪分类的性能;

2 方法

模型框架:

  

2.1 Maximum mean discrepancy

  MMD 公式:

    MMD(Xs,Xt)=1Nsi=1Nsϕ(xsi)1Nti=1Ntϕ(xti)H2(1)

2.2 Feature extraction

  本小节,为了同时提取 DIF(域不变特征) 和 DSF (域特定特征),先使用两个不同的映射器将数据映射到一个域不变的空间和一个域特定的空间中。

  首先使用 BERT 来生成 XsXtl 的词向量,其描述如下:

    Winvs=BERTinv(Xs;θinvBERT)R(Nsl)×768Winvtl=BERTinv(Xtl;θinvBERT)R(Ntll)×768Wspecs=BERTspec(Xs;θspec BERT)R(Nsl)×768Wspectl=BERTspec(Xtl;θspec BERT)R(Ntll)×768(2)

  基于此,使用 CNN 和 最大池化 ,提取 n-gram feature 和 salient feature,可以描述如下:

    Finvs=CNNinv(Winvs;θinvCNN)RNs×qFinvtl=CNNinv(Winvtl;θinvCNN)RNtl×qFspecs=CNNspec(Wspecs;θspec CNN)RNs×qFspec tl=CNNspec (Wspec tl;θspec CNN)RNtl×q(3)

  对于 DIF,希望它能够编码源域和目标域共享的特性:

    Lsim=MMD(Finvs,Finvtl)(4)

  对于 DSF,希望它只从目标域中提取特征,这些特性通常应该出现在目标域中,而很少出现在源域中:

    Ldiff=MMD(Fspec s,Fspec tl)(5)

2.3 BL-Based classifier

  为增强节点语义特征,设计了基于 DIF 的域不变分类器(DIC)和基于 DSF 的域特定分类器(DSC)两种分类器。

  对于 DIC,第 i 组增强节点可以表示如下:

    Einvi=φ(θinvi[Finvs,Finvtl]+βinvi)i=1,2,,ninv(6)

  增强的节点特征:Einv[Einv1,Einv2,,Einvninv]

  因此,DIC 的输出可以表示如下:

    Y^inv=[Finvs,Finvtl,Einv]θinvBL=AinvθinvBL(7)

  由于 DSC 只需要对目标域数据进行分类,因此我们对 Fspec tl  到增强节点的 nspec  组进行了非线性映射。因此,第 j 组增强节点可以表示如下:

    Especj=φ(θspecjFspectl+βspecj)j=1,2,,nspec(8)

  增强的节点特征:Espec [Espec 1,Espec 2,,Espec nspec ]

  因此,DSC的输出可以表示如下:

    Y^spec=[Fspectl,Espec]θspecBL=AspecθspecBL(9)

2.4 Co-training

  至于DIF,训练的目的是尽量减少以下损失:

    Linv=Lsim(θinvBERT,θinvCNN)+αLc(θinvBERT,θinvCNN)(10)

    Lc=1Ns+Ntli=1NsysilnP(ysiFinvsi)+1Ns+Ntlj=1NtlytljlnP(ytljFinvtlj)(11)

  在到DSF时,训练的目的是尽量减少下面的损失:

    Lspec =Ldiff (θspec BERT,θspec CNN)+γLt(θspec BERT,θspec CNN)(12)
    Lt=1Ntli=1NtlYtlilogfc(ytliFspectli)(13)
  对于 DIC,我们需要求解一个合适的 θinvBERT,使 YinvY^inv 之间的差异尽可能小,其中 Yinv 表示标记源数据和标记目标数据的地面真实标签。因此,采用岭回归作为目标函数,其表示如下:

    argminθinvBL(YinvY^inv22+λ1θinvBL22)(14)

  对于 DSC,同样,目标函数表示如下:

    argminθspec BL(Yspec Y^spec 22+λ2θspec BL22)(15)

  Yspec  表示已标记的目标数据的地面真实标签。

  因此,采用岭回归作为目标函数,得到最优解 θinvBL,表示如下:

    θinvBL=(λ1I+AinvAinvT)1AinvTYinv(16)

  其中,I 表示单位矩阵。

  同样,得到最优解 θspec BL 规范,表示如下:

    θspec BL=(λ2I+Aspec Aspec T)1Aspec TYspec (17)

2.5 完整算法

    

3 实验结果

数据集

  

情感分类

  

__EOF__

  • 本文作者: Blair
  • 本文链接: https://www.cnblogs.com/BlairGrowing/p/17589407.html
  • 关于博主: I am a good person
  • 版权声明: 本博客所有文章除特别声明外,均采用 BY-NC-SA 许可协议。转载请注明出处!
  • 声援博主: 如果您觉得文章对您有帮助,可以点击文章右下角推荐一下。
  • © 版权声明
    THE END
    喜欢就支持一下吧
    点赞0

    Warning: mysqli_query(): (HY000/3): Error writing file '/tmp/MYTXNFIm' (Errcode: 28 - No space left on device) in /www/wwwroot/583.cn/wp-includes/class-wpdb.php on line 2345
    admin的头像-五八三
    评论 抢沙发
    头像
    欢迎您留下宝贵的见解!
    提交
    头像

    昵称

    图形验证码
    取消
    昵称代码图片