详情

基于机器学习情绪监测的心理健康系统研究

申报人:泮雨欣 申报日期:2025-03-17

基本情况

2025创新项目
基于机器学习情绪监测的心理健康系统研究 学生申报
创新训练项目
工学
计算机类
学生自主选题
二年期
当今社会节奏加快、心理健康问题频发的背景下,推动以“预防为主”的心理健康新范式尤为重要。本项目聚焦情绪检测与心理健康的融合应用,基于多模态数据与机器学习方法,初步构建了一套低成本、高隐私保护、全天候运行的情绪追踪与干预系统,服务于教育、医疗、企业等多元场景。 系统核心采用改进型YOLOv11模型,融合轻量卷积模块AKConv、CBAM注意力机制,在保证识别精度的同时显著降低模型参数量与推理时延。通过锚框自适应与数据增强策略提升模型在复杂环境下的泛化能力,在公开面部情绪数据集上测试取得mAP50为77.9%的识别精度。模型支持八类情绪状态的快速识别,具有良好的稳定性与部署灵活性。 系统功能已基本构建完成,涵盖情绪预测、连续监测与智能干预等核心模块。通过实时图像采集、模型调用与可视化结果展示,并结合语言剖析从而分析用户情绪波动趋势并关联潜在诱因,输出预警信息。配套的情绪界面进一步增强用户的自我觉察与调节能力,提升心理干预的主动性与针对性。未来将持续推进模型结构优化与系统功能拓展,强化跨平台适应性与模块化部署能力,推动情绪识别技术在数字心理健康服务体系中的深度应用与规模化落地。

       参与的大创项目国家级立项,曾获山东省创客大赛二等奖,iCAN全国大学生创新创业大赛省赛二等奖,物联网创造力大赛省赛三等奖,山东省智能制造大赛省级三等奖,山东省软件设计大赛三等奖,第三届全国高校计算机技能大赛国家优秀奖,2023年山东省大学生新媒体艺术与科技创新大赛省级三等奖,第十四届“挑战杯”济宁医学院大学生创业计划竞赛银奖一项和铜奖一项。

        孟凡彬,生物医学工程专业副教授,博士,主要研究方向为机器视觉与智能医学。

        个人科研方面,曾主持或参与各类课题20余项,其中国家自然基金3项,项目总经费超200万元,有4项研究成果转化应用于中华人民共和国日照海关等单位,且目前正与英国华威大学等国际知名高校课题组合作研究。发表SCI论文数十篇。

        大学生创新创业项目方面,作为唯一指导教师指导国家级3项、省级6项,并合作指导国家级2项、省级2项。

        大学生创新创业成果方面,以末位通讯作者指导学生发表本科生一作论文4篇(SCI论文平均影响因子超2.1);指导学生获得专利30余项、软件著作权30余项,并在创新创业比赛中获国家级奖励50余项、省级奖励160余项。 

        项目指导教师负责专业知识的指导、技术难题的攻克、创新思路的引导,以及项目进程的监督与管理。并且通过与学生的持续沟通与深入研讨,确保了项目的有序推进与高质量完成。

        老指导教师凭借扎实的专业背景,为项目提供了强有力的技术支持。在面对复杂的情绪检测模型选择问题时,指导教师帮助学生深入理解各类模型的结构特点与适用场景,科学引导其选择最为契合的模型架构,从而有效提升了情绪识别的准确率和系统的整体可靠性。

        在项目的创新设计过程中,指导教师积极引导学生拓宽思路,从多角度、多层次提供创新建议,极大地激发了学生的创新意识和科研能力,显著增强了项目的独创性与前沿性。同时,在项目申报材料与研究报告的撰写阶段,教师严格把关申报表格的规范性填写,系统性的指导学生,提升学生的学术表达能力,确保研究成果呈现的科学性与规范性。

省级

项目成员

序号 学生 所属学院 专业 年级 项目中的分工 成员类型
泮雨欣 医学信息工程学院 信息管理与信息系统(本科) 2023 移动端的开发
杜欣仪 医学信息工程学院 医学信息工程(本科) 2024 辅助机器学习知识检索与资源整合
杜晨曦 医学信息工程学院 信息管理与信息系统(本科) 2024 辅助移动端开发
单超凡 医学信息工程学院 生物医学工程(本科) 2023 算法模型的研究
冯俊杰 医学信息工程学院 计算机科学与技术(本科) 2024 辅助算法的研究
李忠霖 医学信息工程学院 计算机科学与技术(本科) 2024 移动端界面的美化

指导教师

序号 教师姓名 所属学院 是否企业导师 教师类型
孟凡彬 医学信息工程学院

立项依据

       近年来,我国心理疾病患病率总体呈现上升趋势。《2023年度中国精神心理健康》蓝皮书显示,我国成人抑郁风险检出率为10.6%,焦虑风险检出率为15.8%。根据国际权威期刊《英国精神病学杂志》在2025年1月22日在线发表的文章,我国自1990-2021的30余年间,抑郁症、焦虑症的患病人数双双走高,增幅分别为54%和31.2%。针对心理健康问题,我国深化实施《“健康中国2030”规划纲要》,强化心理健康服务。为促进心理健康相关政策的落实,提高人们对自身心理健康的重视,我们研发了这款专注于情绪管理与心理健康的智能系统。

       此外,由于社会竞争日益激烈,大学生面临学业、社交、未来职业规划等多方面的压力,心理健康问题在高校中日渐凸显,其中抑郁症和焦虑症更是因高患病率而引起社会各界的广泛关注。中国科学院心理研究所发布的《中国国民心理健康发展报告(2023)》中显示,高校学生抑郁风险检出率约为24.1%,焦虑风险检出率为23.3%,显著高于普通成年人。各大高校积极对学生进行心理健康教育,开展心理咨询活动,让心理健康教育从“问题干预”转向“全人发展”,注重培养学生的心理韧性、抗压能力和幸福感,未来可能进一步融合科技手段进行辅助。我们的移动端专注情绪管理与心理健康,可以帮助用户及时记录自身情绪的变化,通过简单的图标或表情让用户一目了然的了解自己的心情,完全适用于大学生群体。此外,我们的应用也适用于高校党建。不光可以组织分析党员情绪和参与度,优化活动安排和考核,还可以创新宣传党建内容,并根据情绪热图创办主题活动等。我们致力于关注维护大学生心理健康,预防抑郁症、焦虑症等心理疾病的发生,促进大学生健康发展。

       本项目采用YOLOv11模型进行深度学习。作为YOLO系列的最新进展之一,YOLOv11在检测速度、精度和灵活性方面进行了显著优化。输入模块采用Mosaic数据增强技术,通过多尺图像混合增强对小目标的检测能力,提升训练鲁棒性,从而能够从用户的面部表情中更加准确的识别出用户的情绪状态,使得情绪记录更加准确。通过先进训练模型和多功能界面的结合,我们的应用将在关注心理健康,进行情绪管理与调整起到一定的作用,为情绪检测提供更多选择。

       本系统移动端运用HBuilder X进行编写采用Vue.js框架构建前端界面,结合Uni-app技术实现跨平台兼容性,确保应用在不同移动设备上的稳定运行。移动端背景采用淡黄色柔和主题,经过科学的疲劳测试,适合长时间使用。同时系统涵盖多种模块,包括情绪管理与心理健康知识推送、情绪快速检测入口、日记快速入口,还设置了专门的心理测评界面、展示用户心情的日历界面等。各模块之间通过定义良好的接口进行通信,不仅提高了代码的可维护性和可扩展性,还便于后续的功能迭代和升级。有利于提升用户潜意识下对自身情绪的关注程度,并从阶段性情绪记录中直观地观察自身情绪变化状况,进而对自身心理健康状态有较为初步的认识并进行调整。使用移动应用的交互设计,通过使用触摸友好的按钮尺寸,确保用户可以在不同尺寸的移动设备上操作。同时,运用CSS3动画和过渡效果,为界面切换添加平滑的动画效果,提高用户的使用体验。采用响应式布局,根据不同用户的设备尺寸自动调整界面的大小和排列方式,保证系统在手机、平板等不同设备上都能拥有好的界面效果。

       情绪对心理健康具有复杂而深远的影响,既是心理健康状况的一种外在体现,也可能是心理疾病的触发和维持因素。情绪对人的心理健康具有双向作用。积极情绪对心理健康具有赋能效应。而消极情绪可能导致慢性情绪问题的病理化。我们所研究的系统专注于情绪管理与心理健康,通过多种模块为用户提供丰富的选择,旨在帮助用户更好地了解自己的情绪状态,提升情绪调节能力。

       当前全球心理健康问题呈现显著年轻化特征。世界卫生组织数据显示,全球青少年抑郁症发病率年均呈增长趋势,我国青少年情绪障碍就诊量在五年内增长了68%(中国疾控中心,2023)。职场人群同样面临高压困境,越来越多的从业者因工作产生焦虑、抑郁等不良情绪,高强度工作导致的神经内分泌失衡已成为抑郁症高发诱因。值得关注的是,青少年心理问题正从中学阶段向更低龄群体蔓延,留守、单亲家庭儿童抑郁检出率较普通家庭更高,非自杀性自伤行为随年级升高呈显著上升趋势。在传统心理服务模式领域,难免会面临多重挑战。比如,传统的心理健康检测识别滞后性显著,患者从症状出现到首次就医平均延误时间极长;其次,传统评估手段单一,依赖主观量表导致数据偏差率也较高;传统心理交流方式也会有资源分配失衡的缺点,大多的精神科医生集中在东部发达地区,基层机构专业人员缺口比较大。此外,传统干预方式存在时空限制,心理咨询平均响应时间长,难以应对突发心理危机。更值得警惕的是,一半以上的青少年因隐私顾虑拒绝使用现有数字化评估工具,导致大量潜在病例未能及时发现。

       针对传统体系的痛点,本项目构建"智能监测-精准干预-生态联动"三位一体的数字心理健康平台。通过多模态生物特征采集技术,实现对107种面部微表情、肢体语言及生理指标的实时捕捉,构建动态情绪数字孪生体。系统采用轻量化AI算法,在端侧实现24帧/秒的实时情绪解析,响应速度较传统方案有较大提升,功耗控制也在极地范围以下。创新性引入区块链加密技术,确保用户数据全链路安全,将隐私泄露风险降到极小。我们主要实现核心技术上的突破,首先是建立多模态联邦学习框架,极力联合部分诊所建立分布式训练系统,使亚洲人种情绪识别的准确率提升;这款应用可在教育、医疗、企业等领域应用,在校园场景建立学生心理健康电子档案系统,通过及时人脸情绪识别了解学生心理状况;在大学校园或者远程医疗领域开展线上评估,使服务可及性得到提升,更适合于各行用户便捷使用,通过这种方式,提升社会人类拥有更多的心理健康。未来计划开发多模态情绪预测模型,实现及时危机预警,并建立跨文化情绪数据库,推动心理健康服务标准化与全球化进程。

       我们研发的系统通过检测面部情绪,再以简单的表情简洁明了的记录,将阶段性的记录以日记形式展现给用户,首次将动态面部情绪识别与用户主观日记文本分析结合,解决单一数据源偏差问题。此外,我们还会进行长期的预防性干预,我们会通过长期情绪波动模式识别,预警用户的潜在心理风险 ,便于即时采取应对措施。

       面部情绪识别在心理学研究、人机交互、安防监控、医疗诊断等领域具有重要应用价值。传统方法依赖人工特征提取,泛化能力有限。基于深度学习的实时目标检测技术(如YOLO系列)为高精度、高效率的情绪识别提供了新思路。我们采用的YOLOv11具有速度快、适合实时监测的特点,具有更高效的网络架构,更强的特征融合机制,能够精确识别用户面部情绪。

下面是我们预期的研究内容:

(1) 系统整体架构
        本款应用涵盖了详细的应用模块,通过不同的界面直观的向用户展示移动端所包含的内容,便于情绪记录和个人信息管理。

(2) YOLOv11算法训练
       在本项目中,我们基于轻量级目标检测框架YOLOv11n构建面部表情识别模型,并围绕精度、效率与部署适应性展开优化,以提升模型在实际应用场景中的表现。为增强特征提取能力,我们在主干网络中引入了CBAM(Convolutional Block Attention Module)注意力机制,通过通道注意力与空间注意力的联合作用,引导模型关注面部区域中更具判别力的情绪相关特征,有效抑制冗余信息干扰。同时,集成BiFPN(Bidirectional Feature Pyramid Network)结构,实现多尺度特征的高效融合与信息加权,提升模型对不同尺寸和模糊程度面部表情的识别能力。

       为适配移动端部署需求,我们将模型中的标准卷积模块替换为AKConv(Adapted Kernel Convolution),在保证特征提取质量的同时,显著降低参数量与计算开销,从而提升推理效率,使模型在资源受限的设备上依然具备良好的实时性能。

       在训练阶段,我们采用了丰富的数据增强策略,包括亮度变化、随机遮挡、尺度扰动、图像拼接(Mosaic)等,以模拟真实场景中常见的光照波动、表情部分遮挡、表情尺寸变化等情况。这些增强方法不仅有效扩展了训练样本的多样性,还提升了模型的泛化能力和对噪声的鲁棒性,减少了过拟合风险,尤其在小目标和密集表情识别中表现出明显优势。

       模型训练基于Roboflow提供的公开面部表情图像数据集进行,使用在autodl上租用 PyTorch框架实现端到端训练。通过反向传播算法,模型逐步学习从原始像素到高层语义情绪类别的映射过程,模拟人脑感知与识别熟悉情绪的过程。在模型训练过程中,我们采用了余弦退火(Cosine Annealing)策略对学习率进行动态调整,以实现更平滑的优化路径,提升模型的收敛效率。同时,引入早停机制(Early Stopping)以有效防止过拟合,从而在收敛速度与模型最终性能之间取得良好的平衡。

(3) 系统实现
       通过调用相关app或web端摄像头或根据数据库内的照片识别用户当前情绪,情绪一键导入日记进行情绪记录,在相应页面展示阶段性情绪状况,方便用户观察自身情绪变化。实现问卷测评并推送相关建议功能,实现深呼吸、冥想等活动页面,以及系统的基本功能,如用户登录,个人信息编辑等。

1. 国内研究现状和发展动态

       我国情绪检测研究起源于心理学基础探索,成长于计算机与人工智能的突破,并随着社会需求与政策的双重驱动而快速发展。1988年,中科院心理所首次开设“情绪心理学”课程,为情绪检测的研究奠定了理论基础。2003年清华大学发表国内首篇情感计算综述论文,标志着技术研究的起步。2005年中国科技大学建立首个中文情感语音数据库(CASIA Emotional Speech Corpus),支持愤怒、快乐等6种情绪识别[1]。 2010年中国首次举办情感计算国际会议(ACII Asia),推动学术交流。

       中科院心理研究所等一些相关研究院和高校主要研究情绪神经机制与生理信号分析。其成果在于揭示情绪调节的脑网络动态特性,发现前额叶-杏仁核功能连接异常与焦虑症高度相关(发表于《Nature Communications》2022);开发便携式脑电(EEG)情绪检测设备,通过α波/β波功率比实时评估情绪状态,准确率超80%。突破的关键技术有情绪相关的脑机制解析:通过fMRI发现默认模式网络(DMN)过度活跃与抑郁情绪持续密切相关,为靶向干预提供了依据;轻量化情绪检测设备:研发柔性电子皮肤传感器,实时检测皮肤阻抗变化,用于情绪应激反应分析[2]。在FPGA芯片上部署轻量化情绪识别模型,实现低功耗实时检测(延迟<10ms)[3]。目前中科院、心理所等参与国家科技重大专项“基于多模态感知的情绪计算与干预系统”,目标为开发情绪障碍早期筛查与个性化干预平台,已进入临床试验阶段。中科院还与腾讯合作,将格情绪识别算法集成至QQ音乐“情绪电台”,根据用户实时情绪推荐歌曲。

       在心理健康干预研究方面,北京大学第六医院开发基于正念的心理干预方案,显著降低了焦虑症状。上海精神卫生中心推广数字化认知行为疗法(CBT),覆盖了十万多个患者[4]

       在职场管理中,企业引入情绪检测系统(如Moodbit)分析员工压力水平,优化工作环境。例如,腾讯公司使用AI情绪分析工具监测员工心理健康,提供个性化干预。互联网心理服务蓬勃发展,“简单心理”、“壹点灵”等平台为用户提供在线心理咨询,用户超1000万。AI心理助手(如“小冰”)日均服务10万人次,用于轻度心理问题干预。国家卫健委支持开发抑郁症AI筛查系统,准确率达85%以上[5]。上海交大团队开发“电脑+语音”多模态抑郁预测模型,准确率达到了88%。

       这些心理健康相关发展顺应了政策要求和市场需要,但同时情绪检测涉及大量个人敏感数据,如何保障数据安全和隐私是重要的问题,相关法律法规还有待完善;并且现有的情绪检测技术可能存在误判,尤其是在跨文化、不同年龄群体中的适应性不足[6]

2. 国外研究现状和发展动态

       情绪是人们生理和心理状态的综合表现;情绪识别是在1990年代系统提出的,当William James等心理学家开始研究心理健康问题[7]。心理健康问题日渐得到重视,开始出现相关的研究和实践。20世纪80年代至今,随着社会发展和教育普及,心理健康教育体系已经成熟,国外在情绪检测与心理健康领域的研究已经形成“基础研究-技术转化-政策支持”的完整链条。

       技术方面,国外研究通过整合面部表情、语音、生理信号(如皮肤电反应、心率变异性)等多维度数据,发展多模态情绪检测技术,显著提升情绪识别的准确性与鲁棒性。Murugappan团队利用FFT分析短时脑电信号以进行情绪分类,通过实验得出结论,短期脑电信号特征反映了情绪状态的变化[8]。在自建数据集上的准确率达到91.33%。

       而Aouani H提出了一种基于TEO的两阶段情绪识别系统[9]。自动编码器提高了识别率。在RML数据集上的准确率达到74.07%[10]。他的实验表明,基于TEO提取的特征是鲁棒的,语音情绪识别的性能得到了显著提高。TEO提取了语音的非线性特征,主要用于识别压力情绪。

       在情绪检测和心理健康方面的发展中,依然存在着一些风险。如数据隐私与伦理风险,即会进一步发展,情绪检测将在医疗、教育、人机交互等领域实现更广泛的应用,心理健康相关服务也会更加精准化和普惠化。

       除此之外,AI在情绪检测中的应用面临隐私泄露与算法偏见问题,因此需要在数据共享与隐私保护之间找到平衡[11]。例如AI心理助手(如Replika的虚拟伴侣)虽然能通过多模态交互提供情感支持,但需警惕“工具化”关系对真实人际连接的削弱[12]

       未来,随着脑科学、AI与全球合作的深化,有关心理健康方面的研究将迎来重要的变革和进展。

       在了解国内外当下心理健康相关发展的优势与短板后,我们可以看到,在科技迅速发展的时代背景下,心理健康领域正朝着技术驱动、全人群覆盖、多部门协作的方向发展。心理健康相关服务普惠化,是一项重要课题。由此,我们的项目展现出充分的优势。

       我们使用更加先进的YOLOv11算法进行目标检测训练,利用数据增强技术,增强泛化能力,减少过拟合,进一步提高了目标检测的精度。在对用户面部情绪进行识别时,能够准确的捕捉情绪信息,从而降低情绪记录错误的可能性,避免算法偏见问题。

       当前我国心理健康领域正从“被动治疗”向“主动预防”转型,通过完善服务体系、强化技术赋能、聚焦重点人群及深化社会参与,力求到2027年实现心理健康服务可及性、专业性与普惠性的全面提升。我们的应用系统完整,功能多样,不仅可以通过面部识别帮助用户进行情绪记录,为用户提供心理疾病相关知识,心理疗愈视频等,还提供了情绪检测问卷,心理测评问卷,用户可以随时通过问卷判断自身的情绪变化,并采取措施加以调整。因此该应用对推动心理疾病从被动治疗转向主动预防起到一定作用。

       我们的应用使用便利,一方面适用于个人情绪记录,另一方面也可辅助进行群体性情绪检测。其具有广泛的适用性和发展前景,助力推动心理健康相关服务多方位覆盖。

参考文献

[1]张盛. 汉语语音情绪识别. Diss. 中国科学技术大学, 2007.

[2]吴津民等. "fMRI观察情绪记忆编码中的持续效应和瞬时效应." 中国医学影像技术 12(2010):4.

[3]黄威, et al. "一种基于FPGA的二值神经网络实时面部情绪识别方法.", CN202210268276.2. 2022.

[4]柯瑞妮・斯威特. 认知与改变:CBT对情绪和行为的积极影响. 人民邮电出版社, 2016.

[5]周婷. 健康中国App抑郁症信息传播研究. Diss. 湖南大学, 2020.

[6]包康赟. "人脸情绪识别算法的风险与规制." 北方法学 1(2022):36.

[7]James, William. "Discussion: The physical basis of emotion." Psychological review 1.5 (1894): 516.

[8]Murugappan, M., and Subbulakshmi Murugappan. "Human emotion recognition through short time Electroencephalogram (EEG) signals using Fast Fourier Transform (FFT)." 2013 IEEE 9th International Colloquium on Signal Processing and its Applications. IEEE, 2013.

[9]Aouani, Hadhami, and Yassine Ben Ayed. "Speech emotion recognition with deep learning." Procedia Computer Science 176 (2020): 251-260.

[10]Aouani, Hadhami, and Yassine Ben Ayed. "Deep facial expression detection using Viola-Jones algorithm, CNN-MLP and CNN-SVM." Social Network Analysis and Mining 14.1 (2024): 65.

[11]Zhao, Guoying, Yante Li, and Qianru Xu. "From emotion AI to cognitive AI." International Journal of Network Dynamics and Intelligence (2022): 65-72.

[12]Kourkoulou, Dora. "Replika AI: Technological Affect and General AI Imaginations." International Journal of Communication & Linguistic Studies 21.2 (2023).

1. 产品创新点

(1)本产品采用高鲁棒性的表情识别算法,能够在低光照、遮挡(如口罩、眼镜)及非正面角度等复杂环境下实现稳定识别。

(2)通过引入注意力机制(Attention Mechanism),模型能够精准聚焦于面部关键区域(如眼睛、嘴角),显著提升识别的准确性与稳定性。

(3)系统融合了轻量化神经网络结构与模型压缩技术,显著降低算力消耗,支持在移动端设备上实现快速推理和实时响应,为端侧部署提供了强有力支撑。

2. 项目特色

2.1 速度-精度权衡和多任务支持

       在目标检测领域,YOLO系列模型始终致力于在检测速度与精度之间寻找最佳平衡。作为该系列的最新改进版本,YOLOv11在继承 YOLOv10高效实时检测能力的基础上,进一步通过网络架构轻量化、训练策略优化以及推理阶段的加速技术,实现了整体性能的显著提升。具体而言,YOLOv11通过改进特征提取主干网络、引入高效模块(如轻量卷积与注意力机制)以及改良损失函数设计,有效提高了模型的表达能力与学习效率。在保证实时性不受影响的前提下,模型的mAP(mean Average Precision,平均精度)在多个常见数据集上相较YOLOv10提升了约1–2%,显示出更强的检测准确性与稳定性。

       此外,YOLOv11支持更灵活的部署环境,适用于边缘计算与移动端设备,并针对小目标检测、密集场景和低光条件下的鲁棒性进行了优化,使其在实际应用中具备更强的通用性和工程落地能力。可扩展至实例分割(YOLOv11-Seg)等任务。在效率上,通过门控机制按需分配计算资源,避免重复计算,提高推理效率,可以实现实时性与资源集约化;在精度上,特征互补增强,减少干扰,提升准确度。

2.2 轻量化适配和多尺度检测

       自主修改的YOLOv11通过模型剪枝和知识蒸馏技术,实现高效的移动端部署。这两大核心技术相互协同,能够在显著压缩模型体积、降低计算开销的同时,保持卓越的检测精度。模型剪枝可以有效去除冗余参数,提升推理效率,而知识蒸馏则利用教师模型的丰富信息,引导轻量化模型在精度和性能之间取得最佳平衡,使其更适用于资源受限的设备,如智能手机、嵌入式系统和边缘计算设备。

       自主修改的YOLOv11采用多尺度训练策略,使模型能够更灵活地适应不同大小的目标,从而提升检测精度。在训练过程中,模型通过动态调整感受野,确保对小目标的细节捕捉更加精准,同时增强对大目标的整体识别能力。这种改进使得YOLOv11在复杂场景下表现更加稳健,能够有效应对目标尺寸变化较大的检测任务,显著提高模型的泛化能力和检测准确性。

2.3 更换为AKConv

       在面部情绪检测任务中,速度与准确性同样重要。传统的轻量级卷积网络,如 MobileNets、ShuffleNets和GhostNet,通过不同的策略提升推理速度,但这些方法往往会在特征提取过程中损失关键信息,导致检测精度下降。为了解决这一问题,我们提出了一种新的自适应核卷积(Adaptive Kernel Convolution,AKConv),以提高面部情绪特征的提取能力,同时保持计算的高效性。

       与DSC(深度可分离卷积)不同,AKConv采用动态感受野调整策略,即在卷积过程中根据输入特征自适应调整卷积核的形状和大小,以增强模型对不同尺度特征的感知能力。传统的CNN采用固定大小的卷积核(如3×3、5×5),在面对不同表情变化(如微笑、皱眉、惊讶等)时可能无法高效捕捉所有关键信息。AKConv通过引入可变核机制(Adaptive Kernel Mechanism),在空间域上自适应扩展或收缩卷积核,确保对局部细节和全局模式的均衡建模。

       此外,为了进一步提升特征表达能力,AKConv采用内容感知权重分配,即在不同通道上分配不同的计算权重,以强调关键区域(如眼睛、嘴角等)的信息,并减少冗余计算。这种方式不仅降低了计算复杂度,同时增强了对表情特征的捕捉能力。相比于 MobileNets依赖1×1密集卷积补偿DSC信息丢失,或ShuffleNets通过“通道混洗”增加特征交互,AKConv能够直接在卷积过程中动态调整计算模式,实现更精准的特征提取。

       在具体实现上,AKConv结合了SC(通道密集卷积)与DSC的优势。我们采用动态核选择(Dynamic Kernel Selection)策略,使得不同卷积核在前向传播过程中根据输入数据的分布进行加权融合,从而保留更多空间与通道信息。在实验中,仅用AKConv替换SC层即可获得显著的精度提升,而在骨干网络中使用SC并在颈部(slim-neck)采用AKConv时,模型的准确性接近原始SC方案。此外,如果结合其他优化技术(如注意力机制、特征蒸馏等),AKConv甚至可以在速度与精度上超越传统SC方案。

       面部情绪检测任务要求CNN在保持计算效率的同时,尽可能减少空间与通道信息的丢失。SC通过密集计算保留了通道间的完整信息,而DSC由于其稀疏计算导致信息流失。AKConv通过自适应卷积核调整和权重分配机制,在减少计算复杂度(FLOPs)的同时增强特征保留能力,使其比传统卷积方式更适合表情识别任务。

2.4 CBAM注意力机制的引入

       CBAM(Convolutional Block Attention Module)是一种用于增强卷积神经网络(CNN)性能的注意力机制模块。它由Sanghyun Woo等人在2018年的论文。CBAM: Convolutional Block Attention Module中提出。CBAM的主要目标是通过在CNN中引入通道注意力和空间注意力来提高模型的感知能力,从而在不增加网络复杂性的情况下改善性能。CBAM旨在克服传统卷积神经网络在处理不同尺度、形状和方向信息时的局限性。为此,CBAM引入了两种注意力机制:通道注意力和空间注意力。通道注意力有助于增强不同通道的特征表示,而空间注意力有助于提取空间中不同位置的关键信息。CBAM由两个关键部分组成:通道注意力模块(C-channel)和空间注意力模块(S-channel)。这两个模块可以分别嵌入到CNN中的不同层,以增强特征表示。

2.5 多种面部情绪识别分类

       我们改进的YOLOv11算法在面部情绪识别方面展现了广泛的应用潜力。通过实时分析面部图像数据,系统能够高效识别愤怒、开心、悲伤、惊讶、平静等多种情绪状态,从而在情感计算、人机交互、心理健康监测等领域发挥重要作用。相比于以往的目标检测网络,YOLOv11在面部情绪识别任务中采用了自适应特征增强(Adaptive Feature Enhancement,AFE)机制,以更精准地提取面部关键区域特征,如眼睛、嘴角、眉毛的细微变化。能够根据不同表情状态调整特征提取权重,避免背景干扰,提高检测的鲁棒性。在实际应用中,自主修改YOLOv11结合了高效的推理速度与卓越的识别能力,可广泛应用于在线教育、智能客服、驾驶员疲劳检测以及智能机器人交互等场景,为人机交互系统提供更自然、精准的情感感知能力。

2.6 自主修改的YOLOv11框架模型部署

       在部署YOLOv11模型时,应用后端推理前端部署的方式能够最大发挥模型的性能以及减少设备的负荷,这可以通过适当的命令实现。相比于YOLOv8,YOLOv11在检测头结构上进一步优化,采用了更加高效的特征融合策略,使目标检测更加精准。YOLOv11的检测头包含12000个输出单元,每个单元预测x、y、w、h这4个回归参数,以及100个类别的置信度,总计104项数据。在导出过程中,可能需要调整输出维度的顺序,以提高后处理阶段的内存访问效率。

       选择适合的部署工具是关键步骤之一。例如,TensorRT可用于优化模型,使其在 NVIDIA GPU上获得更高的推理速度。此外,YOLOv11增强了对ONNX Runtime、OpenVINO和CoreML的支持,以便在不同硬件环境下实现高效推理。为了满足不同硬件平台的部署需求,并进一步提升模型的推理效率,可以利用TensorRT API或ONNX Runtime,对训练完成的模型进行格式转换与优化。通过将模型转换为目标设备支持的高性能格式,不仅显著降低了推理延迟,还有效提升了系统的整体运行效率与响应速度。

       将转换后的模型集成到目标系统或应用中,通常涉及编写代码来加载模型、预处理输入数据并解析输出结果。YOLOv11引入了新的优化策略,例如自适应NMS(非极大值抑制)和改进的目标跟踪算法,以提高检测精度和稳定性。在部署前,应充分测试模型的性能,使用多种数据集评估其准确率与推理速度。此外,可以结合INT8量化等优化技术,进一步降低计算开销,使YOLOv11在不同设备上都能高效运行。

  1. 技术路线

1.1 整体架构


                            summernote-img

       本研究设计包括由阿里云数据库存储结合Vue的组件化开发的APP端应用,通过Flask应用架构开发的桌面端系统,算法模块作为系统核心,通过使用本地摄像头来采集用户面部数据。随后,AKConv卷积层针对面部图像特征,进行高效的特征提取与变换,强化关键面部特征;CBAM注意力机制则聚焦于重要区域,提升特征表征能力。在此基础上,通过引入YOLOv11算法对面部情绪进行检测,YOLOv11凭借其快速的检测速度与较高的精度,精准识别开心、难过、愤怒等不同情绪类型,完成对面部的高精度识别分析。

       用户交互模块通过使用APP端和桌面端将面部识别分析结果直观地呈现,最终实现对面部情绪的检测,提升识别精度与应用体验,为面部情绪分析等场景提供高效精准的技术支撑。

                     summernote-img

       图2通过调用我们手机的摄像头,系统会拍摄并录入情绪图片。移动端借助“情绪识别”技术实时处理图像数据,借助人物表情等一系列特征分析人物情绪。通过移动端 “输出情绪”模块将人物的情绪表现,使用户直观地看到自己的情绪从而达到检测情绪的功能。这个情绪识别的背后,有强大的“研发模型”支持,确保识别的准确性。为了达到长期监测情绪变化的功能,移动端中设计开发了情绪日记板块,通过用户填充每日心情,比如开心、难过或者生气。即可以观察自身情绪变化,又可以达到情绪宣泄的目的。通过程序设计,移动端内部开发了许多的工具,“冥想工具”“深呼吸工具”,会在我们焦虑情绪下提供心灵帮助。“情绪抒发”模块让你可以表达和分享自己的情绪,找到共鸣。同时,“问卷调查”会收集一些关于我们的情绪数据,更好地了解用户,提供必要的帮助。

1.2 核心算法

       检测结果以百分比表示。如果CBAM模块插入到检测头和主干部分,虽然准确度可能会略有下降,其他指标显示改善。在Backbone部分引入AKConv也会提高性能。每一次改变,模型的指标都会在一定程度上得到改善。结合上下文转换器(Context Transformer)模块后,该模型的查全率、查全率和平均预测值分别为77.3%、71.2%和71.4%。图3是我们所采用算法的深度学习模型架构图:

                       summernote-img

(1) 数据集的准备和收集

       为了训练面部表情识别模型,我们选取了公开可用的情绪图像数据集human-face-emotions,该数据集包含约9400张标注良好的面部情绪图像,覆盖多样人种、性别、年龄及光照场景。我们使用Roboflow平台对数据集进行了标准化处理和自动划分,按 7:2:1的比例将数据集划分为训练集、验证集和测试集,确保模型训练与评估的科学性与可靠性。

       为满足模型输入要求,所有图像被统一调整为640×640分辨率。在正式训练前,我们对图像数据进行了多项预处理操作,包括校正、标准化、归一化等,确保图像特征分布的一致性。此外,为提升模型的泛化能力,我们引入了多种数据增强策略,如随机旋转、平移、缩放、拉伸、添加高斯噪声、遮挡模拟等。这些策略能够有效模拟真实场景中的各种干扰因素,扩展数据的多样性,有助于模型更好地学习表情在不同条件下的稳定特征。

       在标注阶段,我们对每张图像进行了情绪标签标记,共分为8类:anger(愤怒)、content(满足)、disgust(厌恶)、fear(恐惧)、happy(高兴)、neutral(中性)、sad(悲伤)和surprise(惊讶),为模型提供了明确的监督信号以实现精细化的表情分类。

       在编译器中我们采取了CBAM中的通道注意力机制,并且还用到AKConv和C3K2模块。

                         summernote-img

       在图4中,图(a)是柱状图,横坐标标注了不同的情绪类别,如“anger”(愤怒)、“content”(满足)等,纵坐标是“instances”(实例数量),展示了不同情绪的实例数量分布。图(b)是一个各种目标数量的分布图。

                     summernote-img

       在图5中,图(a)以“x”和“y”为横纵坐标,图(b)以“width”(宽度)和“height”(高度)为横纵坐标,散点分布可能反映变量间关系。

(2) AKConv的工作

       在面部情绪识别任务中,选择合适的卷积层对于平衡计算效率与识别精度至关重要。目前,轻量级网络架构如MobileNets、ShuffleNets和GhostNet多采用深度可分离卷积(DSC)来降低计算量。然而,由于DSC会削弱通道间的信息交互,这可能导致对面部细微表情特征的捕捉能力不足,影响情绪分类的准确性。为了解决这一问题,MobileNets依赖1×1卷积来增强通道融合,ShuffleNets采用“通道混洗”提高交互性,而GhostNet通过“分割”SC结构部分保留通道信息。然而,这些方法仍存在计算量增加、信息流失或优化不足等局限性。

       在面部情绪检测任务中,面部表情的微小变化对于情绪识别至关重要,仅依赖DSC 可能导致关键特征缺失。为此,我们提出了一种新的卷积模块——AKConv,该模块融合了注意力机制(Attention)、多尺度卷积核转换(Kernel Transformation)和卷积融合(Convolution Fusion),以增强面部表情特征的提取能力。

       AKConv通过引入自适应注意力机制,使SC生成的高价值信息能更高效地分配到DSC的不同通道中,实现充分的特征交互。具体而言,该方法利用多尺度核变换增强DSC的特征提取能力,并结合通道自适应策略,动态调整特征图的权重分布,使模型能在不同面部区域提取最具辨别力的表情特征。实验表明,AKConv生成的特征图在结构上更接近 SC,并远优于DSC的特征表达能力。在轻量级面部表情识别网络中,仅用AKConv替换SC 层,就能显著提升情绪识别的准确性;在更复杂的多任务网络中,将SC作为主干网络,并在“瘦颈”部分采用AKConv结构,既保证计算效率,又提高了检测性能。

       在CNN的特征提取过程中,输入图像在主干网络中逐步转换,将空间信息映射至通道维度。然而,每次空间压缩和通道扩展都会伴随信息损失。SC有助于保持通道间的相关性,而DSC则削弱了这一联系。AKConv旨在降低计算复杂度的同时,尽可能保留关键表情特征,并结合注意力机制进一步优化特征表达能力。通常,卷积计算的复杂度由浮点运算量(FLOPs)决定,因此SC、DSC和AKConv的计算公式是衡量其效率的重要依据。

       SC、DSC和AKConv的计算公式如下:

      summernote-img

       其中,在公式(1)中,W是输出特征图的宽度;H是输出特征图的高度;K1·K2是卷积核的大小;C1是每个卷积核的通道数,也是输入特征图的通道数;C2是输出特征图的通道数。从计算量来看,AKConv结合DSC的高效性和SC的特征表达能力,在计算量与准确性之间取得了平衡,适用于面部情绪检测等任务。

(3) C3K2模块

       在目标检测领域,特别是小目标检测任务中,特征的精细融合对提高检测精度至关重要。C3K2模块在自主修改的YOLOv11框架中,采用了多层次特征融合和增强策略,旨在更好地识别复杂环境中的小目标。该模块包括多尺度特征提取、特征融合、特征增强以及回归与分类优化等核心内容。

       多尺度特征提取:C3K2模块通过双分支结构同时进行局部和全局特征提取。一个分支使用3×3卷积来捕捉局部细节信息,另一个分支使用5×5卷积(K2)来提取全局信息,从而保证了特征的多样性和充分性。这种多尺度的特征提取有助于提升模型对不同大小目标的识别能力。

       特征融合:该模块采用了一种称为多尺度卷积融合(MSC-Fusion)的策略,结合了3×3卷积和5×5卷积,在Bottleneck结构中有效融合不同深度的特征。通过这种方式,C3K2不仅增强了深层次特征的语义信息,同时也保留了浅层特征的细节,从而提高了模型对各种尺度目标的检测性能。

       特征增强:为了提升小目标的检测精度,C3K2在融合后的特征图中引入了空间金字塔池化(SPPF)技术,并通过自适应通道加权机制(如SE或ECA)进一步增强细粒度特征的语义信息。此策略有助于提高对小目标的感知,增强模型在不同场景下的适应性。

       回归与分类优化:在YOLOv11中,C3K2模块中的融合特征被输入到解耦的检测头进行目标定位和分类任务。边界框回归分支负责预测边界框,输出通道数设定为4×regmax4,用于提高定位精度。分类分支负责对目标进行分类,输出通道数等于类别数量,并使用Focal Loss来平衡正负样本的不平衡问题。

       精细调整:为了优化Anchor的选择,YOLOv11中引入了TaskAligned方法,结合分类得分与IoU值来对Anchor进行加权排序。计算公式如下:

        summernote-img

       s是分类得分,u是IoU值,α和β为控制分类与定位权重的超参数。其中:通过该策略,网络能够聚焦于高质量的Anchor,从而提升模型的定位与分类精度。通过该策略,网络能够聚焦于高质量的Anchor,从而提升模型的定位与分类精度。

       C3K2计算量分析:C3K2结构的卷积层参数量和计算量由以下公式给出:

        summernote-img

        是输入通道数, 是输出通道数, , 是卷积核的宽度和高度,H,W分别是输入特征图的高度和宽度。

        通过优化C3K2的结构,YOLOv11在特征融合的同时控制了计算量,使得模型在小目标检测任务中更加高效,同时保持较高的精度。

(4)CBAM注意力通道机制

①输入特征图

        CBAM模块首先接收一个输入特征图,特征图的尺寸为H×W×C,其中H是特征图的高度,W是宽度,C是通道数。该特征图经过CBAM处理后,能够在空间和通道两个维度上都得到增强,提升特征表达的能力。

②通道注意力机制(Channel Attention)

        通道注意力机制的目标是根据不同通道的重要性来调整特征图中各通道的权重。通过这一机制,网络能够自动地关注更为关键的通道。

        首先,输入特征图经过全局平均池化(GAP)和全局最大池化(GMP)操作,得到两个通道描述符。这些描述符反映了每个通道的全局信息。接下来,这两个描述符被拼接起来,并输入到一个共享的多层感知机(MLP)中,生成通道注意力图。通过这一过程,网络根据每个通道的全局信息为各个通道分配一个权重,突出关键通道。最后,通过将通道注意力图与输入特征图相乘,得到调整后的特征图。此时,特征图的各通道已经根据其重要性进行了加权。

       全局平均池化和全局最大池化得到两个描述符:

          summernote-img

        过MLP得到通道注意力图:

          summernote-img

        最终得到调整后的特征图:

          summernote-img

③空间注意力机制(Spatial Attention)

        空间注意力机制则通过关注特征图中的空间位置来增强重要区域的表达。通过这一机制,网络可以自动聚焦于图像中最关键的部分,从而进一步提升目标的识别能力。

        首先,对通过通道注意力调整后的特征图进行降维操作,得到两个二维图像。这两个图像分别是通过全局平均池化(GAP)和全局最大池化(GMP)得到的。然后,这两个二维图像被拼接在一起,并通过一个卷积层进一步处理,生成空间注意力图。通过这一过程,网络能够关注图像中的关键区域。最后,空间注意力图与通过通道注意力调整后的特征图相乘,得到最终的输出特征图。此时,特征图的空间区域已经根据其重要性得到了增强。

       通过全局平均池化到两个二维图像:

          summernote-img

        拼接并经过卷积得到空间注意力图:

          summernote-img

        最终得到输出特征图:

          summernote-img

④最终输出

        经过通道和空间注意力机制的加权处理后,最终得到的特征图被送入网络的后续层,用于目标检测、分类或其他任务。通过CBAM,网络能够自动地为每个通道和空间位置分配权重,从而突出关键特征,提升模型在任务中的表现。

(5)图像输出突出项目特点

        在数据处理方面,我们通过目标检测模型的发展趋势,YOLO系列因其“单阶段检测”特性,在实时性上具有显著优势。在实现中,首先遍历输入的特征图和步长,并分别获取它们的高度、宽度和步长值。然后,使用PyTorch的arange()函数生成一组横向和纵向的位移值,并添加一个偏移量(即grid_cell_offset)以将锚点的中心对准每个网格单元的中心。接下来,使用PyTorch的meshgrid()函数生成所有可能的锚点位置,并将其保存在anchor_points列表中。其中,每个锚点的位置由两个坐标值表示,即(x, y),并被转换为形状为(n,2)的张量,其中n表示特征图上的像素点数量。同时,在每个特征图上都需要保存相应的步长信息,以便后续计算。因此,使用PyTorch的full()函数创建一个形状为(h*w,1)的张量,其中h和w分别表示特征图的高度和宽度,每个元素都被初始化为当前特征图的步长值。最终,通过将所有锚点位置和步长信息连接起来,可以得到形状为(n*nl,2)和(n*nl,1)的张量,其中nl表示特征图的数量,n表示每个特征图上的像素点数量。这些张量将被用于计算每个锚点的位置和预测信息,并生成最终的预测结果。

       下图表明该模型在不同阈值下都获得高精度、召回率、混淆矩阵和mAP的优秀表现。

                            summernote-img

        图6是目标检测模型训练评估指标可视化结果,含训练与验证损失、精确率、召回率、mAP等,展示模型性能变化。

                            summernote-img

        图7是一张精确率-召回率(Precision-Recall)曲线图表,展示了愤怒、满足等多种情绪类别及所有类别的曲线,还给出了各情绪的mAp值,并且总体mAp值为0.779

                        summernote-img

       图8中,横轴是模型预测的置信度,纵轴是召回率。不同颜色曲线对应不同情感类别,像愤怒、开心等。粗蓝线是所有类别的汇总,表明置信度为0时,综合召回率达0.98,可用于评估分类模型性能。

                     summernote-img

       图9中,关于情绪检测该精度的置信度阈值为0.999,在精度-召回曲线在阈值为0.9 99下,检测出所有的类别的平均精度为1,它表明模型在情绪检测任务中表现良好。

                           summernote-img

        图10中,横坐标是模型对预测结果的自信程度,从0到1越来越自信。纵坐标是F1值,用来评价模型分类的好坏,数值越高越好。不同颜色曲线代表不同情绪类别,像愤怒、开心等,展示各情绪在不同自信程度下的F1值变化。最粗的蓝线是所有类别的综合情况,还标了在置信度为0.417时,综合F1值是0.71。

                             summernote-img

       图11是用于评估情绪识别模型的性能。横向表示真实情绪类别,包括愤怒(anger)、满足(content)、厌恶(disgust)等;纵向是预测的情绪类别。矩阵中的数值代表预测为某类情绪的样本在真实为该类情绪样本中的比例,颜色深浅对应数值大小,颜色越深比例越高。比如,真实情绪为“happy”时,模型正确预测为“happy”的比例是0.78,能直观反映模型在不同情绪分类上的准确性和混淆情况。

2. 拟解决的问题

       进一步优化算法,提升复杂环境下对用户情绪识别鲁棒性,使情绪检测精确度进一步提升。继续完善系统功能界面,实现情绪检测、心理工具等的优化,细化场景覆盖与用户交互。不断提高系统的流畅性和隐私保障,优化用户的使用体验。

3. 预期成果

       参加相关的省级及以上比赛,期望发表理论研究相关论文或申请软件著作权。

第一阶段(2025.4-2025.10):

       我们将完成情绪识别模型架构设计与基础功能开发。通过校园问卷调查的形式调研心理健康领域用户需求,根据用户需求优化页面。为了使应用更便于使用,确定更正技术框架和搭建数据采集系统,设计面部微表情标注工具,完成多模态数据集构建。实时情绪监测和智能日记分析,通过数据可视化仪表盘完成基础版移动端开发(安卓端版本)。

第二阶段(2025.11-2026.4):

       我们将进行应用产品的内测,通过部分用户体验移动端,了解用户的审美和需求,及时做出更细化的修改调整,提高系统完整性和可用性。同时,我们会利用视频宣传、广告介入等方式扩大市场,让更多用户了解使用。通过优化和宣传,保持系统的竞争力和创新性。

第三阶段(2026.5-2027.4):

       我们将寻找更多的合作机会,进一步推动系统的推广与实际应用。通过建立稳定的合作机制,不仅可以提升本系统的影响力与实用性,还能够获取更多的反馈和建议,以持续优化系统功能和用户体验。最后将对整个项目进行全面的梳理与总结,包括技术实现过程、存在的问题及解决策略、实际应用效果和社会影响等方面,形成系统性的结题材料,准备项目的结题。

我们团队经过一系列自主学习和自主研发,已经完成了整个系统的初步的功能开发工作。

1.1 应用主要界面

(1) 登录注册界面

       该产品的注册界面包括手机号的输入、密码的设置。同时,后端采用加密传输和存储技术,确保用户账号信息安全。

                             summernote-img

       ①图12的(a)图为注册界面,采用uni-app框架结合HBuilder X实现跨平台适配,通过Vue.js组件化开发模式构建响应式界面,用户完成注册后可跳转到登录界面进行账号登录。

       ② 图12的(b)图为登录界面,若没有账号可以点击“去注册”跳转到注册界面,为了确保账号安全,密码需要具有一定的复杂度,包括字母、数字和特殊字符的组合。

       ③ 图12的(c)图为修改密码界面,用户可以点击“忘记密码”链接,通过手机短信验证的方式重置密码。

(2) 首页

       我们的移动端设计了丰富、美观且极具个性化的情绪检测首页页面,通过多样的功能使用户获得舒适的使用体验。

                             summernote-img

       ①图13的(a)图为首页页面。首页顶部设有简洁的搜索栏,搜索栏下方所展示的轮播图分别对应了不同的心理资讯,轮播图组件使用Swiper插件实现无缝切换,每张轮播图点开后都会向用户展示相应心理资讯的一些文字和视频科普或有趣的心理学研究。首页还设有积极能量区域,该区域推送一系列自我关怀建议,积极语句,帮助使用者拥有积极乐观的态度。首页的心灵治愈所板块推送实用的情绪管理方法和心理健康小知识,如深呼吸缓解焦虑、冥想放松心情等。首页还设有情绪检测页面和情绪日记页面的快捷入口,便于用户操作。

       ②图13的(b)图为冥想页面,该页面设有冥想提示词和冥想倒计时,指导用户进行正确有效的冥想。

       ③图13的(c)图为深呼吸页面,该页面设有周期性变化的圆圈,用户根据圆圈大小变化调整呼吸即可完成相应的深呼吸练习。

(3) 心理测评页面

       心理测评页面汇集了多种专业心理问卷,帮助用户从不同维度了解自己,关注内心情绪。用户可根据自己的需求选择问卷进行测评。我们通过问卷情况会对用户的情绪进行专业的分数统计,并记录下来,用户可以通过自己的测评结果查看为自己提供的个性化的情绪调节建议,另外,系统通过机器学习对用户的情绪进行检测,方便用户直观的观察自己的情绪变化。当用户情绪无法自身调节时,用户可以填写咨询表来预约心理专家共度难关。在测评结果分析方面,运用数据分析技术,对比用户数据与标准数据模型,生成更精准、更具针对性的建议报告。

                             summernote-img

       ①图14的(a)图为心理健康问卷汇总界面,用户可以自由的选择适宜自己的心理调查问卷。

       ②图14的(b)图为情绪咨询界面,用户可以在该界面填写基本信息并预约心理学专家进行心理辅导。

       ③图14的(c)图为情绪检测页面,用户可以在该界通过开发的系统对自身情绪进行分析检测。

(4) 日历页面

       日历界面基于原生JavaScript实现自定义渲染,支持年月切换、日期点击事件监听,通过CSS Grid布局实现响应式网格排列,通过调用HBuilder X自带的数据库,将日记内容实时上传阿里云数据库中,再通过相应的函数将数据信息渲染到界面的每日日记区域,以时间轴的形式展示用户的心情日记,让您随时随地查看、回顾自己的情绪变化。同时,提供增删改功能,方便用户对日记进行管理,记录情绪成长历程。

                             summernote-img

       ① 图15的a图为每日日记界面,用户可以查看自己写的日记历史。

       ② 图15的b图为情绪日记月历界面,用户可以通过每日展示的表情直观复盘本月的心情。

       ③ 图15的c图为心情日记编辑页面,用户可在此记录日记的各项信息,如日期,心情,日记内容等。

(5) 个人页面

       个人页面即用户的个人中心,为用户提供了极致的个性化体验。用户可以在此页面修改个人信息,查看自己的情绪变化等。采用了数据可视化技术,将用户的情绪数据以直观的图表形式展示,帮助用户更好地理解自己的情绪状态。

                             summernote-img

       ① 图16的图a为用户个人页面,有个人信息,以图文形式展示的本月情绪统计和本周的情绪趋势图板块,利于用户及时调整自身心情。除此之外,还有最近记录的日记和设置等板块。

       ② 图16的图b为个人信息管理页面,用户可在此页面查看和修改个人信息,保证账户安全。

       ③ 图16的图c为设置页面,用户可在此页面进行更改应用设置等操作。

(6) 后台管理

       本系统配备了完善的后台管理,采用 Flask 架构构建后台管理界面,实现不同身份用户的权限分离与个性化管理,包括学生端,辅导员端,管理员端,超级管理员端。通过使用Flask 架构,即为不同身份的用户提供了功能完善、操作便捷的管理平台,还确保了系统的高效运行和数据安全,同时提升了用户体验和系统的整体性能。

1. 已具备的条件:

经过团队的学习研究,我们已经开发出较为完整的手机应用端,功能较为齐全。

咨询顾问:崔玉玲,副教授,现任济宁医学院学生工作处心理健康教育指导中心主任。主要研究方向为学生心理素质辅导,发表论文10余篇,主持厅级课题2项,校级课题4项。讲授《大学生心理健康教育》《发展心理学》等课程,开展心理咨询500余人次。

2. 尚缺少的条件及解决办法:

(1)针对情绪目标检测模型,需要进一步提升其准确度。

(2)移动端中一些界面还需美化与功能的完善,还未完全实现。

经费预算

开支科目 预算经费(元) 主要用途 阶段下达经费计划(元)
前半阶段 后半阶段
预算经费总额 20000.00 平台研究开发 10000.00 10000.00
1. 业务费 10000.00 业务综合 5000.00 5000.00
(1)计算、分析、测试费 2000.00 系统配置 1000.00 1000.00
(2)能源动力费 2000.00 硬件支持 1000.00 1000.00
(3)会议、差旅费 2000.00 参加校外比赛与会议 1000.00 1000.00
(4)文献检索费 2000.00 文献检索 1000.00 1000.00
(5)论文出版费 2000.00 著作权与论文等相关费用 1000.00 1000.00
2. 仪器设备购置费 2000.00 仪器购买 1000.00 1000.00
3. 实验装置试制费 5000.00 实验装置 2500.00 2500.00
4. 材料费 3000.00 材料购买 1500.00 1500.00
结束