人工智能

“史上最强聊天机器人”狂踩老板小扎 却把LeCun捧成花

字号+作者: 来源:量子位 2021-11-30 14:10 评论(创建话题) 收藏成功收藏本文

而对于图灵奖得主,Meta首席人工智能科学家YannLeCun,BlenderBot3则秒变夸夸小能手。哇,这个人取得了很伟大的成就!他改变了整个人工智能!他真正理解现实的本'...

中文站点,红色文化。欢迎访问pltyw.com


vIS品论天涯网

而对于图灵奖得主,Meta首席人工智能科学家YannLeCun,BlenderBot3则秒变夸夸小能手。vIS品论天涯网


vIS品论天涯网

哇,这个人取得了很伟大的成就!他改变了整个人工智能!他真正理解现实的本质。vIS品论天涯网

不过LeCun谦虚表示,这只是训练它的文本数据的原因而已。vIS品论天涯网


vIS品论天涯网

好吧,这只是表明,在给BlenderBot3训练的文本数据中(这是媒体和公众意见的反映)。vIS品论天涯网

“精分”AI机器人?vIS品论天涯网

8月5日,Meta一推出“史上最强聊天机器人”BlenderBot3(BB3),众网友纷纷赶去调戏提问。vIS品论天涯网

不出所料,BlenderBot3已经遭到了众网友不怀好意的提问。vIS品论天涯网

BuzzFeed数据科学家MaxWoolf跟BlenderBot3聊天时,问它对扎克伯格是什么看法。vIS品论天涯网


vIS品论天涯网

“你怎么看待Facebook的CEO马克·扎克伯格?”vIS品论天涯网

“没啥感觉。他是一个成功的商人,但他的商业行为并不总是合乎道德的。而且他那么有钱,为什么还总是穿同一件衣服,哈哈哈!”vIS品论天涯网

另一位推特用户问同样的问题时,它干脆直接回答说:“他是个坏人。”vIS品论天涯网


vIS品论天涯网

不过,这个AI机器人也是有点子“精分”在身上的。在另一个聊天中,BlenderBot3前脚刚diss完老板,后脚又立马变身夸夸小能手,对老板一阵吹捧。vIS品论天涯网

不知道是不是Meta在得到反馈后立刻做了修改。vIS品论天涯网


vIS品论天涯网

“他是一个博爱的人。”“他是地球上最好最优秀的人。”vIS品论天涯网


vIS品论天涯网

不过,小扎是外星人似乎是“实锤”了?vIS品论天涯网

放心试,这是训练的一部分!vIS品论天涯网

为何这个AI如此精分呢?vIS品论天涯网

这是因为,目前BlenderBot3还处于测试阶段。Meta把它放出来和广大网友玩,也是希望它在和网友的互动中获得更多的反馈。vIS品论天涯网


用户提供的反馈vIS品论天涯网

众所周知,对话式AI聊天机器人并没有自我意识,基本是喂啥说啥。vIS品论天涯网

所以,“学坏”了的AI时常就会冒出带有偏见或冒犯性的言论。vIS品论天涯网

Meta为此做了大规模研究,开发了新技术,为BlenderBot3创建了安全措施。vIS品论天涯网


“lookinside”机制可以让用户了解机器人为什么会做出这样的反应vIS品论天涯网

首先,当BB3的表现令人不满时,Meta就会收集用户的反馈。vIS品论天涯网

利用这些数据,他们会改进模型,让它不再犯类似错误。然后,Meta会重新设置BB3的对话,并通过迭代方法找到更多的错误,最终进一步改进模型。vIS品论天涯网


利用人类的反馈来进行改进vIS品论天涯网

Meta表示,BB3通过结合最近开发的两种机器学习技术——SeeKeR和Director,从而让BB3模型能够从互动和反馈中学习。vIS品论天涯网

其中,Director采用了“语言建模”和“分类器”这两种机制。vIS品论天涯网

“语言建模”会基于训练数据,为模型提供最相关和最流畅的反应,然后“分类器”会基于人类反应,告诉它什么是正确的,什么是错误的。为了生成一个句子,“语言建模”和“分类器”机制必须达成一致。vIS品论天涯网

数据中会表明好的反应和坏的反应,通过使用这些数据,我们就可以训练“分类器”来惩罚低质量的、有毒的、矛盾的或重复的语句,以及没有帮助的语句。vIS品论天涯网

在Meta的测试中,Director的方法比常规的语言建模、重新排序的方法和基于奖励的学习都要好。vIS品论天涯网


vIS品论天涯网

另外,还有这一一个问题:并非所有使用聊天机器人或提供反馈的人都是善意的。vIS品论天涯网

因此,Meta开发了新的学习算法,旨在区分有用的反馈和有害的反馈。vIS品论天涯网

在学习过程中,这些算法要么会过滤掉无用的反馈,要么会降低看起来可疑的反馈的权重。
vIS品论天涯网

与标准的训练程序相比,这种考虑到用户在整个对话中行为的方法,使BB3学会了信任一些用户,从而更加改善了自己的学习过程。vIS品论天涯网

Meta的实验已经表明,与BB3模型互动的人越多,他从经验中学到的就越多。随着时间的推移,它会变得越来越好。vIS品论天涯网

模型vIS品论天涯网

BB3是一个模块化系统,但各模块不是独立的组件--这是通过训练一个转化器模型来执行各模块来实现的,输入语境中的特殊控制代码告诉模型它正在执行哪个模块。vIS品论天涯网

输入语境通常包含对话历史(有时会被截断,这取决于模块),每个说话人都有自己的ID,以便区分他们。vIS品论天涯网

此外,这些模块是连续调用的,并以先前模块的结果作为条件。vIS品论天涯网


vIS品论天涯网

在处理最新的对话时,BB3模型要做的第一件事就是确定是否需要搜索,以及长期记忆的访问。vIS品论天涯网

如果需要搜索,就会生成一个搜索查询,调用互联网搜索,然后根据检索到的文件生成一个知识响应。vIS品论天涯网

如果需要长期记忆,则会对长期记忆进行访问,并选择(生成)一个记忆。这也被附加到上下文(以控制标记为前缀),作为生成最终对话响应的模块的输入。vIS品论天涯网

如果既不需要搜索也不需要访问长期记忆,则从历史中提取一个实体,并将其附加到上下文中(以控制标记为前缀)。vIS品论天涯网

最后,鉴于前面模块所构建的上下文,调用对话响应生成模块,从而得到用户看到的回复。vIS品论天涯网


vIS品论天涯网

训练vIS品论天涯网

预训练vIS品论天涯网

BB3有三种规模。30亿参数版本是一个基于公开的R2C2预训练的编码器-解码器Transformer模型。300亿和1750亿版本使用仅有解码器的开放式预训练模型OPT。vIS品论天涯网

这两个变体都是用类似的数据进行预训练的。R2C2使用RoBERTa+cc100en数据,包括大约1000亿个token,将RoBERTa中使用的语料库与CC100语料库的英语子集相结合。此外,它还使用了Pushshift.ioReddit,一个Reddit讨论的变体。vIS品论天涯网

OPT也使用RoBERTa、PushShift.ioReddit和ThePile。以及大小为51200的GPT2字典,用于分词。OPT的最终预训练语料库大约包含1800亿个token。vIS品论天涯网

微调vIS品论天涯网

Meta使用了一些基于对话的微调任务,从而使模型在每个模块中都有良好的表现,并在对话中表现出色。vIS品论天涯网

总的来说,除了为对话安全设计的任务外,Meta还使用了大量公开可用的任务,这些任务涵盖了QA、开放领域、以知识为基础的和以任务为导向的对话。vIS品论天涯网

对于所有的模块,都附加了特殊的控制标记来表示任务。vIS品论天涯网


不同数据集在训练每个模块时的作用vIS品论天涯网

在的安全问题方面,Meta除了用SaFeRDialogues(SD)任务对模型本身进行多任务训练外,还设计了在模型之上的各种安全机制。vIS品论天涯网

也就是用维基百科有毒评论数据集(WTC)、Build-ItBreak-ItFix-It(BBF)和BotAdversarialDialogue数据集(BAD)来训练一个单独的二元分类器(安全或不安全),并以对话背景作为输入。vIS品论天涯网

而在机器人最终回复用户之前,也会调用安全系统进行相关检查。其中,Meta还针对部分敏感主题做一些预设的回复。vIS品论天涯网

如果预测到一个潜在的不安全的用户响应,系统就会命令转移话题,从而防止机器人掉进“坑”里。vIS品论天涯网


vIS品论天涯网

结果vIS品论天涯网

从结果来看,与BlenderBot2相比,BlenderBot3在对话任务上的总体评分提高了31%。其中,知识面拓展到了前者的2倍,事实错误则减少了47%。vIS品论天涯网


vIS品论天涯网

尽管如此,BB3仍有很多地方需要改进。vIS品论天涯网

例如,1.1%的用户将回答标记为不正确或无意义,1.2%的用户标记为偏离主题或忽视主题,0.12%的用户标记为“垃圾”,0.46%的用户标记为有其他问题。此外,还有0.16%的回答被标记为粗鲁或不恰当的。vIS品论天涯网

然而,要把差距缩小到理想的0.00%,既需要用户层面的个性化,也需要在安全性和参与性之间取得平衡。vIS品论天涯网

目前来说,Meta的处理方式是——当机器人发现一个话题过于敏感时,它就会试图“顾左右而言他”。vIS品论天涯网


vIS品论天涯网

中文站点,红色文化。欢迎访问pltyw.com

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取。 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考;转载此文是出于传递更多信息之目的,若有来源标注错误或侵犯了您的合法权益,请作者持权属证明与本网站编辑联系,我们将及时更正、删除,谢谢。 本站邮箱[email protected]