声明:本文来自于微信公众号 头号AI玩家(ID:AIGCplayer),作者:阿虎,授权站长之家转载发布
嘴角向下是笑,嘴角向上是哭。
这个男人叫王有胜(电视剧《亮剑》中的角色),仅凭一个表情,就把AI迷得“七上八下”,情绪数值在高兴、厌恶、悲伤中反复横跳。
最近,创作者们借助AI识别剧中人物的细微表情和情感变化,显微镜式鉴赏影视剧,并对一些网络热梗、名场面进行二创,开辟了内容创作的新赛道。
比如,B站UP主“佛辣西威”、“您可能错过了”曾用AI情绪识别“春山学”、“梅西中国行”、“小米公布SU7”等热点话题,B站最高一条播放量超600万。
YouTube博主用Sam Altman的采访视频进行情绪识别,试图揣测这位大佬特定时刻的心理状态。评论区有网友表示,未来可以让AI来实时鉴别微表情,玩梗造梗信手拈来。
还有开发者将机器训练得更有感情,企图在AI聊天机器人领域做出新花样。此前流行的ChatGPT的“Dan”模式,就从各类训练的GPTs中走出了差异化的路子。
无论是野生玩家,还是科技大厂都在探索一个“更懂人类”的AI。
今年3月,初创企业Inflection AI更新了面向个人用户的情感聊天机器人Pi,4月,Hume AI推出了情感语音对话机器人EVI,并成功完成5000万美元(约3.62亿人民币)的B轮融资。
Pi (https://pi.ai/onboarding)
Hume AI(https://www.hume.ai/)
从一开始通过面部微表情,想让AI“看”出人们的情绪变化,到借助语音“听”懂话语,AI究竟能做好情绪生意吗?识别情绪的AI产品,目前还差在哪儿?“头号AI玩家”和部分从业者聊了聊。
从“看”懂到“听”懂,AI情绪识别火了
4月7日,AI初创企业Hume AI发布了旗下第一款聊天对话机器人Empathetic Voice Interface(EVI),号称是“第一个具有情商的人工智能”,能够识别超50种人类情绪。
我们试了一下EVI的Demo版,无需登录注册即可使用。但目前只有男性声音,仅支持通过英文语音形式进行对话。
“你今天怎么样,我有点难过”,我对EVI如此说道。
“天呐,听上去你今天经历了很多”,EVI回复道,“我会在这里陪着你”,他同时补充说。
在简单的对话中,EVI同样标注出了我此时此刻的心情,“0.645的悲伤、0.434的痛苦以及0.401的沮丧”。
我只要对着他持续说话,他就会自动分析每一句话背后包含的情绪,开心、鼓励、愤怒、困惑等等,并标注出不同的情感浓度。
可以看到,屏幕中间是声音的波形图,不同的颜色长度的柱状反应了不同的情绪成分,代表快乐的橙色、象征冷静的蓝色、凸显愤怒的红色。另外,语音交互的内容也会被转成文字,显示在右侧历史对话中。
我们进一步提到,“最近的生活很糟糕,还看了一部很致郁的电影”。
EVI表示:“怎么说,你看了什么样的电影?但其实不是每部电影都适合你,不如换个电影类型怎么样?你喜欢喜剧还是恐怖片?”
更关键的是,似乎是意识到我在表达时情绪低落,EVI在说出这些句子时,刻意改变了自己的语调,有点像通过恶搞逗你开心。
HumeAI的视频片段,感受一下EVI的输出密度
既然是一个主打“有情商”、“心理疗愈”的AI,如果我不断传递出负面情绪,将Hume AI当作情绪垃圾桶会怎么样?
接下来的体验中,我开始“内耗”AI,不断告诉他“我好难过”、“我失恋了,我没有朋友”,甚至佯装生气“你为什么总是问我问题,我不知道,但我觉得你一定是错的”,如此之类的消极话语。
我还试过突然打断他,反复告诉他,“不是,你错了,听我的”。EVI会知道何时该结束讲话,在被打断的同时停下来听我把话说完,而不是自顾自先输出完观点和内容。这一对话过程中的细节,能给人更强的互动感。
整个过程中,EVI说的比较多的一句话是“别担心别担心别担心,你说,我在听”,给出的建议大多是“你再多说一点,是什么故事”,甚至还能改变输出的语音语调,丝毫不被我的焦虑、急躁所影响。
HumeAI对话语音,头号AI玩家,26秒
此前,一款情感疗愈类的AI游戏“林间聊愈室”同样在互联网上走红。
在游戏里,用户可以通过文字、语音的方式和AI进行聊天对话。AI动物疗愈师会分析用户对话内容中的不同表述,分析其情绪数值,帮助用户发现并解决问题。
比如,我们同样表示“今天过得很糟糕”:
同样AI会根据语音语调的变化,识别出其中的情绪成分。AI动物疗愈师还会进一步询问“可以表述详细点吗”“如果不高兴的时候,会选择去海边还是去林间”,通过追问和多轮对话来判断用户的心情。
聊天过程更多在引导我们梳理整个问题来龙去脉,做出决定。不过,AI聊愈师只通过“声音”和用户进行聊天,在AI说话过程中无法通过语音或者文字打断它。所以相比文字输入,语音交流能够更好把握对话节奏,更有沉浸感。
Hume AI创始人也曾提到,语音所传递的信息量会是文字的2倍,未来的AI交互界面将是语音为主。
但碍于Hume AI目前只支持英文,所以在识别语音语调的情绪差异上,有些不够准确,但交互对话方面,EVI相比其他对话机器人语音更真实,传递出的关怀价值更多。
整体体验上,相比ChatGPT等AI机器人,这些“读心”AI更多关注用户的个人情感和精神状态,在对话过程中充分展示自己的“善解人意”。
提供情绪价值的AI,还差在哪儿?
其实,主打情绪需求的AI产品并不是新鲜事物。随着AI技术的不断提升,极大优化了产品体验。爱你、知你、懂你,能让人付诸情感的AI,也比单纯提高效率的AI,更吸引人。
西湖心辰产品负责人李庆功认为,大模型讲什么话能让用户心情更好,某些情境下用户的心情是什么样的,这些被设定为“共情AI”首先要具备的能力。
因此,为了有效提供情感支持,能够识别情绪的AI,需要记住用户的历史信息、性格偏好、情感状态等,以便更好理解当下的需求,提供个性化的解决方案。
但这也要求AI模型具备“长记忆”能力,来建立和维护和用户之间的情感联系。关注AI心理咨询领域的从业者Brick表示,但现在大多数关注共情的AI产品定位非常模糊。
无论是此前流行的Pi,还是Hume AI,要么缺乏长时记忆系统,要么缺乏多元的互动形式。当我们再次打开Hume AI时,EVI开启对话的方式依旧是“你好,我在这里”,全然不记得你是那个因为观看电影难过的打工人。
有开发者对“头号AI玩家”表示:“其实AI在陪伴方面的作用,远大于提供情绪价值。比如,在失落抑郁时,有个树洞可以输出,能获得更真实的反馈体验就行。最终的情绪价值,还是来自于用户自己。”
另外,情绪识别的最终目的大多是为了了解用户的心理状态,输出疗愈建议,但这并不意味着对话机器人可以完全替代心理咨询师。
“对于名不见经传的新手心理咨询师来说,可能在ChatGPT、Claude和Gemini Pro的帮助下,通过恰当的Prompt为受访者提供远超过自身水平的心理咨询服务”,Brick认为,“但AI在短期内无法解决具身问题,心理治疗需要更立体的交互,比如森田疗法中,所处场景比内容本身更为重要。”
总的来说,目前的情绪识别AI是一个验证可行的赛道,相关产品层出不穷。但如果我们期待一个借助面部情绪、语音变化等数据集才拥有“情商”的AI,能够理解并帮我们摆脱精神内耗,这一想法的实现或许还要一段时间。
其实,当情感用数值量化的时候,AI也很难品出人类内心的小九九。毕竟,我们对人生的意义,都有百万种解释。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】