据报道,这款名为MACH(My Automated Conversation Coach“我的自动化交谈教练”)的软件,其核心系部分是一个复杂的脸部和语音识别系统。由计算器生成的动画人像可模仿真人在交谈时的脸部表情和说话语气,来判别用户的响应。
MACH借助摄像头、麦克风、脸部识别、语音识别和自动应答系统,虚拟出现实世界的社交场景。它可通过对诸如“嗯”、“呃”、“基本上”等细微的口头禅的追踪,对用户表现出的平均笑容强度进行详细的分析,并对用户与虚拟谈话对象交流的表现给出实时反馈。就是在这些一次又一次的反馈中,用户的社交技巧不知不觉地得到提高。
MACH利用摄像头对用户的表情进行扫描,对讲话模式进行分析,并从中寻找细微的肢体语言的差别,来判断用户是否全心投入训练。为进一步提高对话的真实性,计算机生成的人像还可作出各种手势、身体姿势及动态、面部表情、眼神和与真人讲话时相符的口型。
领导开发MACH的MIT媒体实验室研究员霍克(M. Eshan Hoque)说,该软件有着全面的互动能力,用户微笑时,虚拟人像也相应地微笑,这让交谈者有身临其境的感觉。
霍克透露,开发MACH的灵感源于阿斯伯格综合症(Asperger’s)协会举办的一次辅导课程。当时工作人员找到为协会提供科技支持的霍克,询问是否能开发一个帮助亚斯伯格综合症患者提高社交能力的软件。
霍克称,MACH软件由数百万条源代码组成,研究队伍历时2年的开发、并对90名MIT本科生进行了试验,最终得以完善。