《表1 具身行为与离身语义所构成的交互语法中的局部示例对应》
智能体的使用情景兼具图形用户界面GUI和语音用户界面VUI等多模态的交互环境,需要通过具身交互的交互行为和离身交互的语义的设计,以及可信赖人工智能建立起人与智能体之间的信任关系。智能体通过触觉行为的具身交互和视觉听觉语义的离身交互,针对感知到的用户内隐需求,利用知识图谱的预测关联,找到符合人类社交智能以及具身认知的交互行为语句,再映射具体行为输出。人通过多通道多感知与真实世界进行交互,进而产生具身认知,所以映射到人工智能下的交互设计需要通过多模态的交互方式进行相应感官通道的匹配。相比传统的交互方式,多通道交互能够合理分配和使用用户的有效资源(视觉、听觉等),充分利用各设备、通道和交互方式的互补性,通过多个非精确信息流进行整合可以完全表达交互目的从而提高交互的自然性和灵活性。多模态交互的输出方式除视觉、语音外还可以充分利用体态语言行为通道进行表达。这种通道的好处在于通过发送更多信息而无须增加已有通信机制的负担,便于增加用于觉察情景的数据通道带宽,可利用扩展的体态语言通道预防通信错误,为人类智能与人工智能的交互行为方法提供新的多模态交互模式。具身行为与离身语义所构成的交互语法中的局部示例对应见表1。具身交互行为与离身交互语义的部分对应关系见图6。
图表编号 | XD0052433300 严禁用于非法目的 |
---|---|
绘制时间 | 2019.06.20 |
作者 | 覃京燕、安燕琳、卢星晖、吴准 |
绘制单位 | 北京科技大学、北京科技大学、北京科技大学、百度人工智能交互设计院 |
更多格式 | 高清、无水印(增值服务) |