新闻中心
新闻中心

当前位置:首页 / 新闻中心 / 实验室动态 / 正文

CSA多模态情感计算课题组第33期学术组会召开

2025-11-20

       11月19日,CSA多模态情感计算课题组第33期学术组会顺利召开。本次会议由国际联合实验室宋斌老师主持。本次组会的主题是《Emotion-Aware Multimodal Fusion for Meme Emotion Detection》和《SSLMM: Semi-Supervised Learning with Missing Modalities for Multimodal Sentiment Analysis》。

       河南科技大学2025级硕士研究生杨海畅对《Emotion-Aware Multimodal Fusion for Meme Emotion Detection》文献进行汇报交流。本次汇报分五部分:一是点明研究背景与问题,表情包作为社交媒体核心情感表达载体,兼具文本与图像双模态特征,但现有多模态模型缺乏情绪特征显式建模,难以应对模态冲突、跨模态噪声等挑战,导致情感检测准确率与泛化能力不足;二是阐述MOOD数据集构建,介绍该数据集通过手动标注10004个表情包,覆盖恐惧、愤怒、快乐等六种基本情绪,补充非人类主体样本,标注一致性达0.86,有效填补了基本情绪精细化标注的空白;三是详解ALFRED框架架构,该框架通过ViT与BERT提取双模态特征,经情绪强化模块捕捉情绪相关线索,再通过门控多模态融合(GMF)与门控交叉注意力(GCA)实现动态融合,**终输出情绪分类结果;四是展示实验成果,重点说明ALFRED在MOOD数据集上F1分数达0.8243,较基线模型提升4.94%,在Memotion、HarMeme等跨领域数据集上同样表现优异,消融实验验证了各核心模块的有效性;五是总结研究价值与展望,指出MOOD数据集与ALFRED框架为表情包情感检测提供了完整解决方案,未来计划扩展情绪类别、优化模型轻量化设计,并探索多模态融合与多任务学习的深度结合,进一步提升复杂场景的适配能力。

图片1.png

       随后,河南科技大学2025级硕士生姜先博对《SSLMM: Semi-Supervised Learning with Missing Modalities for Multimodal Sentiment Analysis》文献进行汇报交流。本次汇报分五部分:一是点明研究背景与问题,多模态情感分析可综合文本、语音和视觉信息提升情感识别精度,但在实际场景中常面临模态缺失与标签稀缺,现有方法多假设模态完整、监督充分,导致在“缺模态+少标签”条件下鲁棒性不足;二是阐述SSLMM的核心方法框架,介绍如何通过图结构建模统一三模态数据,引入交替式模态内/模态间消息传播的图编码器Enc,并结合自监督对比预训练SPT-CL与半监督微调MFT-SR,在弱视图–强视图设计下引入监督损失、一致性损失与模态重构损失,系统应对模态缺失与无标签样本利用问题;三是展示实验结果,重点说明在MOSI、MOSEI、CH-SIMS等基准数据集上,SSLMM在模态完整时性能与主流模型相当,而在不同缺失率、不同标记率设置下明显优于对比方法,消融实验验证了预训练、交替式图编码与模态重构等模块的有效性;四是总结研究结论,指出SSLMM在图结构建模、多模态融合与半监督学习之间构建了统一范式,为复杂现实场景下的多模态情感分析提供了可迁移的解决思路;五是展望未来工作,计划进一步扩展到多模态对话与在线交互场景,引入更大规模预训练模型与更高效的图编码结构,并探索与其他鲁棒学习、迁移学习方法的集成方案。

图片2.png

       在交流讨论环节,宋斌老师对汇报进行了总结,并提出了宝贵的建设性建议。其他与会组员围绕汇报内容提出了问题并展开了深入讨论,进一步加深了对相关问题的理解。

(图文/杨海畅、姜先博 审核/宋斌)

微信扫码分享