微软研究院近日展示了ProjectRumi项目,结合文本,音频和视频数据,通过多模方法,提高人工智能系统的理解能力,从而更能理解人类的意图。人工智能系统近年来取得了长足的进步,尤其在自然语言处理(NLP)领域的成长更为惊人。
不过现有NLPAI主要依赖于文本输入输出,忽略了人类在自然交流中的语调,面部表情,手势和肢体语言等线索,从而在理解方面会存在偏差。
在AI专业术语中,这些线索统称为副语言(paralinguistics/paralanguage)。
微软研究院为了解决这个问题,开发了ProjectRumi,这是一个新颖的框架,旨在通过多模态副语言提示来增强人工智能的理解。该项目包括两个主要部分:多模式副语言编码器和多模式副语言解码器。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】