【讲座预告】情感脑机接口:解码人的情绪、疲劳、视觉感知和决策信心

发布时间:2026-05-11浏览次数:10

题目情感脑机接口:解码人的情绪、疲劳、视觉感知和决策信心

主讲人:郑伟龙,上海交通大学计算机学院副教授,博士生导师。入选国家级高层次海外青年人才和上海市海外高层次青年人才。哈佛大学医学院麻省总医院和麻省理工学院博士后,长期从事脑认知与智能、情感计算、脑机交互、类脑计算理论与模型等研究。在国际高水平会议和期刊发表研究论文130余篇,Google学术引用超万余次。荣获IEEE Transactions on Autonomous Mental Development最佳论文奖、IEEE Transactions on Affective Computing最佳论文奖、ACM Multimedia Top Paper Award、ARC Prize 最佳论文奖、中国人工智能学会优秀博士学位论文奖以及吴文俊人工智能自然科学一等奖,入选上海市浦江人才、小米青年学者、微软亚洲研究院铸星计划和2023-2025全球前2%科学家年度影响力榜单。目前担任IEEE Transactions on Affective Computing编委、教育部脑认知科学课程群虚拟教研室副主任、中国人工智能学会脑机融合与生物机器智能专委会委员。

时间:5月13日下午3:00

地点:线上--腾讯会议(840-708-699)

内容简介:本讲座聚焦情感脑机接口技术,系统介绍其原理、研究进展与临床应用。情感脑机接口旨在通过脑电等信号实现情绪识别、解码与神经调控,分为侵入式、非侵入式及混合式,与传统运动脑机接口在控制逻辑上存在本质区别。
团队长期深耕该领域,构建了国际通用的SEED 系列情绪脑电数据集,覆盖多类情绪、跨文化与疲劳检测场景,被全球上千家机构使用。研究揭示脑电高频段与关键脑区对情绪表征更具优势,且情绪相关脑电模式具有时间稳定性,为技术落地奠定生理基础。针对实际应用中模态缺失难题,团队提出脑电与眼动融合的多模态识别框架,并研发 ECO‑FET、M2S、UMAP 等跨模态学习模型,实现单模态测试下的高精度情绪识别。同时,团队训练LaBraM、BrainGram等大规模脑电预训练模型,基于海量数据学习通用表征,在情绪识别、抑郁检测、睡眠分期等任务上大幅超越传统方法。该技术可用于情绪障碍客观诊断、抑郁无创检测与智能情感交互,有效弥补精神疾病缺乏客观评估指标的短板,为临床诊疗与日常情感交互提供全新解决方案。