李远明大气都不敢出。
“说吧,林会长。”
白若冰率先打破了沉默,她双手交叉放在桌上。
目光如炬,直视着林沐雪,开门见山。
“你打算怎么‘贡献力量’?”
“事先声明,我们这里是做正经学术研究的。”
白若冰的语气不带丝毫客气。
“可不养闲人,更不需要什么都不懂,只会指手画脚的空降领导。”
“如果你只是想来镀金,或者打发时间,那恐怕要让你失望了。”
她的话说得相当直接,甚至有些不留情面。
林沐雪脸上的笑容淡了一些,但依旧保持着镇定。
她微微歪了歪头,似乎在思考白若冰的话。
然后,她反问道,语气平静却带着一丝不容置疑的力量:
“白老师,在谈我如何贡献力量之前。”
“您是不是也应该,稍微介绍一下你们的项目呢?”
“毕竟,总不能让我两眼一抹黑地就盲目‘贡献’吧?”
“那样既不专业,也不负责,您说对吗?”
她将问题巧妙地抛了回去。
白若冰闻言,眉毛微微一挑。
她瞪了林沐雪一眼,心里暗道:这个林沐雪,果然牙尖嘴利。
不过,她说的也确实在理。
不介绍项目情况,别人也确实无从下手。
总不能让人家猜。
她清了清嗓子,表情严肃起来,开始介绍项目。
“可以。我们的项目,目前初步定为……”
“基于多模态情感交互的陪伴机器人。”
她说话时,习惯性地看向了李远明,毕竟他是技术主力。
“项目的核心目标,是利用多种信息模态。”
白若冰解释道,“比如,机器人的摄像头可以捕捉用户的视觉信息。”
“像是面部表情、肢体动作、甚至是生理信号,比如通过特定传感器检测心率变化。”
“麦克风则负责收集用户的语音信息。”
“包括说话的内容、语速、音调、音强等等。”
“我们甚至考虑,用户输入的文本信息也可以作为一种模态。”
“当然,这个文本模态,很多时候可以是语音实时转换过来的文本。”
“然后,”白若冰继续深入,“我们会设计和研究多模态融合的策略。”
“将这些来自不同传感器的、异构的原始数据进行处理和对齐。”
“提取出能够表征用户情感状态的关键特征。”
“最终得到一个融合了所有有效信息的综合特征向量。”
“这个特征向量,就是我们判断用户当前情绪状态的依据。”
“通过这个融合特征,机器人就能够更准确地感知用户的情绪状态。”
白若冰举例说明:
“比如说,用户对机器人说:‘唉,我的小猫生病了,它看起来很难受,我好担心,好悲伤啊。’”
“机器人不仅仅要理解‘小猫生病’这个事件,‘悲伤’这个情绪词。”
“更要结合用户说话时的低沉语气、可能皱起的眉头、缓慢的语速。”
“综合判断出用户现在的情绪的确是强烈的悲伤和焦虑。”
“理解了用户的情绪和原因之后,机器人就要作出智能化的交互反馈。”
“这种反馈,不仅仅是语言上的安慰。”
白若冰强调,“比如,不能简单地说一句‘别难过’。”
“而应该是更具共情性的回应,例如:‘听到您的小猫生病了,我感到很难过。它一定很不舒服,您也一定非常担心它。需要我为您播放一些舒缓的音乐吗?或者,我们可以聊聊您和小猫之间开心的回忆?’”
“这里面,还有很多值得深入探索的细节问题。”
白若冰补充道,“比如,机器人在回应时,它自己的语音应该是什么样的?”
“是模仿人类悲伤时的低沉语调,还是用一种温柔坚定的语调来给予支持?”
“它的虚拟形象(如果是在屏幕上)或者实体机器人的动作,应该如何配合?”
“是做出一个轻柔的安抚动作,还是保持安静的倾听姿态?”
“这些都是可以进行细致研究和设计的方向。”
“不过,”她话锋一转,“考虑到这只是一个PPT展示为主的比赛。”
“我们现阶段可能不需要把每一个细节都实现得那么完美。”
“比如机器人的具体动作都可以简化。”
“我们可以先设定为,根据用户的主要情绪状态,指定一种或几种预设的语调风格和代表性动作即可。”
“关键是要把核心理念和技术路径讲清楚。”
“从技术路径上来看,”白若冰继续说道,语速不快不慢,但条理异常清晰。
“主要涉及几个关键领域:”
“首先是自然语言处理(NLP),用于理解用户语言的语义和情感倾向。”
“其次是情感计算(AC),这是整个项目的核心,研究如何让机器识别、理解、甚至表达情感。”
“再次是计算机视觉(CV),特别是其中的人脸表情识别、姿态识别等技术。”
本小章还未完,请点击下一页继续阅读后面精彩内容!