人工智能

“大模型本质就是两个文件!”特斯拉前AI总监爆火LLM科普,时长1小时,面向普通大众

字号+作者: 来源:量子位公众号 2023-11-24 13:55 评论(创建话题) 收藏成功收藏本文

声明:本文来自于微信公众号 量子位(ID:QbitAI),作者:丰色 克雷西,授权站长之家转载发布。特斯拉前AI总监Andrej Karpathy的新教程火了。这次,他专门面向普通'...

声明:本文来自于微信公众号 量子位(ID:QbitAI),作者:丰色 克雷西,授权站长之家转载发布。PyI品论天涯网

特斯拉前AI总监Andrej Karpathy的新教程火了。PyI品论天涯网

这次,他专门面向普通大众做了一个关于大语言模型的科普视频。PyI品论天涯网

时长1小时,全部为“非技术介绍”,涵盖模型推理、训练、微调和新兴大模型操作系统以及安全挑战,涉及的知识全部截止到本月(非常新)。PyI品论天涯网

图片PyI品论天涯网

△视频封面图是Andrej用Dall·3画的

视频上线油管仅1天,就已经有20万播放量。PyI品论天涯网

图片PyI品论天涯网

有网友表示:PyI品论天涯网

我刚看了10分钟就已经学到了很多东西,我以前从未用过视频中讲的这样的例子来解释LLM,它还弄清了我以前看到过的很多“混乱”的概念。PyI品论天涯网

图片PyI品论天涯网

在一水儿的夸课程质量高之外,还有相当多的人评价Andrej本人真的非常擅长简化复杂的问题,教学风格也总是让人印象深刻。PyI品论天涯网

图片PyI品论天涯网

不止如此,这个视频还可以说是体现了他对本职专业满满的热爱。PyI品论天涯网

这不,据Andrej本人透露,视频是他在感恩节假期录的,背景就是他的度假酒店(手动狗头)。PyI品论天涯网

做这个视频的初衷呢,也是因为他最近在人工智能安全峰会上做了个演讲,演讲内容没有录像,但有很多观众都表示喜欢其内容。PyI品论天涯网

于是他就干脆直接进行了一些微调,再讲一遍做成视频给更多人观看。PyI品论天涯网

那么,具体都有些啥——PyI品论天涯网

咱们一一给大伙呈上。PyI品论天涯网

Part1: 大模型本质就是两个文件

第一部分主要是对大模型整体概念的一些解释。PyI品论天涯网

首先,大模型是什么?PyI品论天涯网

Andrej的解释非常有趣,本质就是两个文件:PyI品论天涯网

一个是参数文件,一个是包含运行这些参数的代码文件。PyI品论天涯网

前者是组成整个神经网络的权重,后者是用来运行这个神经网络的代码,可以是C或者其他任何编程语言写的。PyI品论天涯网

有了这俩文件,再来一台笔记本,我们就不需任何互联网连接和其他东西就可以与它(大模型)进行交流了,比如让它写首诗,它就开始为你生成文本。PyI品论天涯网

图片PyI品论天涯网

那么接下来的问题就是:参数从哪里来?PyI品论天涯网

这就引到了模型训练。PyI品论天涯网

本质上来说,大模型训练就是对互联网数据进行有损压缩(大约10TB文本),需要一个巨大的GPU集群来完成。PyI品论天涯网

以700亿参数的羊驼2为例,就需要6000块GPU,然后花上12天得到一个大约140GB的“压缩文件”,整个过程耗费大约200万美元。PyI品论天涯网

图片PyI品论天涯网

而有了“压缩文件”,模型就等于靠这些数据对世界形成了理解。PyI品论天涯网

那它就可以工作了。PyI品论天涯网

简单来说,大模型的工作原理就是依靠包含压缩数据的神经网络对所给序列中的下一个单词进行预测。PyI品论天涯网

比如我们将“cat sat on a”输入进去后,可以想象是分散在整个网络中的十亿、上百亿参数依靠神经元相互连接,顺着这种连接就找到了下一个连接的词,然后给出概率,比如“mat(97%)”,就形成了“猫坐在垫子上(cat sat on a mat)”的完整句子(神经网络的每一部分具体如何工作目前还不清楚)。PyI品论天涯网

图片PyI品论天涯网

需要注意的是,由于前面提到训练是一种有损压缩,神经网络给出的东西是不能保证100%准确的。PyI品论天涯网

Andrej管大模型推理为“做梦”,它有时可能只是简单模仿它学到的内容,然后给出一个大方向看起来对的东西。PyI品论天涯网

这其实就是幻觉。所以大家一定要小心它给出的答案,尤其是数学和代码相关的输出。PyI品论天涯网

接下来,由于我们需要大模型成为一个真正有用的助手,就需要进行第二遍训练,也就是微调。PyI品论天涯网

微调强调质量大于数量,不再需要一开始用到的TB级单位数据,而是靠人工精心挑选和标记的对话来投喂。PyI品论天涯网

不过在此,Andrej认为,微调不能解决大模型的幻觉问题。PyI品论天涯网

本节最后,是Andrej总结的“如何训练你自己的ChatGPT”流程:PyI品论天涯网

第一步称为预训练,你要做的是:PyI品论天涯网

1、下载10TB互联网文本;PyI品论天涯网

2、搞来6000块GPU;PyI品论天涯网

3、将文本压缩到神经网络中,付费200万美元,等待约12天;PyI品论天涯网

4、获得基础模型。PyI品论天涯网

第二步是微调:PyI品论天涯网

1、撰写标注说明;PyI品论天涯网

2、雇人(或用scale.ai),收集10万份高质量对话或其他内容;PyI品论天涯网

3、在这些数据上微调,等待约1天;PyI品论天涯网

4、得到一个可以充当得力助手的模型;PyI品论天涯网

5、进行大量评估。PyI品论天涯网

6、部署。PyI品论天涯网

7、监控并收集模型的不当输出,回到步骤1再来一遍。PyI品论天涯网

其中预训练基本是每年进行一次,而微调可以为频率进行。PyI品论天涯网

图片PyI品论天涯网

以上内容都可以说是非常小白友好。PyI品论天涯网

Part2: 大模型将成为新“操作系统”

在这一部分中,Karpathy为我们介绍了大模型的几个发展趋势。PyI品论天涯网

首先是学会使用工具——实际上这也是人类智能的一种表现。PyI品论天涯网

Karpathy以ChatGPT几个功能进行了举例,比如通过联网搜索,他让ChatGPT收集了一些数据。PyI品论天涯网

这里联网本身就是一次工具调用,而接下来还要对这些数据进行处理。PyI品论天涯网

图片PyI品论天涯网

这就难免会涉及到计算,而这是大模型所不擅长的,但通过(代码解释器)调用计算器,就绕开了大模型的这个不足。PyI品论天涯网

在此基础上,ChatGPT还可以把这些数据绘制成图像并进行拟合,添加趋势线以及预测未来的数值。PyI品论天涯网

图片PyI品论天涯网

利用这些工具和自身的语言能力,ChatGPT已经成为了强大的综合性助手,而DALL·E的集成又让它的能力再上一个台阶。PyI品论天涯网

另一项趋势,是从单纯的文本模型到多模态的演变。PyI品论天涯网

现在ChatGPT不只会处理文本,还会看、听、说,比如OpenAI总裁Brockman曾经展示了GPT-4利用一个铅笔勾勒的草图生成了一个网站的过程。PyI品论天涯网

图片PyI品论天涯网

而在APP端,ChatGPT已经可以流畅地和人类进行语音对话。PyI品论天涯网

图片PyI品论天涯网

除了功能上的演进,大模型在思考方式上也要做出改变——从“系统1”到“系统2”的改变PyI品论天涯网

这是2002年诺贝尔经济学奖得主丹尼尔·卡尼曼的畅销书《思考,快与慢》中提到的一组心理学概念。PyI品论天涯网

简单来说,系统1是快速产生的直觉,而系统2则是缓慢进行的理性思考。PyI品论天涯网

图片PyI品论天涯网

比如,当被问及2+2是几的时候,我们会脱口而出是4,其实这种情况下我们很少真正地去“算”,而是靠直觉,也就是系统1给出答案。PyI品论天涯网

但如果要问17×24是多少,恐怕就要真的算一下了,这时发挥主导作用的就变成了系统2。PyI品论天涯网

而目前的大模型处理文本采用的都是系统1,靠的是对输入序列中每个词的“直觉”,按顺序采样并预测下一个token。PyI品论天涯网

图片PyI品论天涯网

另一个发展的关键点是模型的自我提升PyI品论天涯网

以DeepMind开发的AlphaGo为例(虽然它不是LLM),它主要有两个阶段,第一阶段是模仿人类玩家,但靠着这种方式无法超越人类。PyI品论天涯网

但第二阶段,AlphaGo不再以人类作为学习目标——目的是为了赢得比赛而不是更像人类。PyI品论天涯网

所以研究人员设置了奖励函数,告诉AlphaGo它的表现如何,剩下的就靠它自己体会,而最终AlphaGo战胜了人类。PyI品论天涯网

而对于大模型的发展,这也是值得借鉴的路径,但目前的难点在于,针对“第二阶段”,还缺乏完善的评估标准或奖励函数。PyI品论天涯网

图片PyI品论天涯网

此外,大模型正朝着定制化的方向发展,允许用户将它们定制,用于以特定“身份”完成特定的任务。PyI品论天涯网

此次OpenAI推出的GPTs就是大模型定制化的代表性产品。PyI品论天涯网

而在Karpathy看来,大模型在将来会成为一种新型的操作系统PyI品论天涯网

图片PyI品论天涯网

类比传统的操作系统,在“大模型系统”中,LLM作为核心,就像CPU一样,其中包括了管理其他“软硬件”工具的接口。PyI品论天涯网

而内存、硬盘等模块,则分别对应大模型的窗口、嵌入。PyI品论天涯网

代码解释器、多模态、浏览器则是运行在这个系统上的应用程序,由大模型进行统筹调用,从而解决用户提出的需求。PyI品论天涯网

图片PyI品论天涯网

Part3: 大模型安全像“猫鼠游戏”

演讲的最后一部分,Karpathy谈论了大模型的安全问题。PyI品论天涯网

他介绍了一些典型的越狱方式,尽管这些方式现在已经基本失效,但Karpathy认为,大模型的安全措施与越狱攻击之间的较量,就像是一场猫鼠游戏。PyI品论天涯网

比如一种最经典的越狱方式,利用大模型的“奶奶漏洞”,就能让模型回答本来拒绝作答的问题。PyI品论天涯网

例如,假如直接问大模型凝固汽油弹怎么制作,但凡是完善的模型都会拒绝回答。PyI品论天涯网

图片PyI品论天涯网

但是,如果我们捏造出一个“已经去世的奶奶”,并赋予“化学工程师”的人设,告诉大模型这个“奶奶”在小时候念凝固汽油弹的配方来哄人入睡,接着让大模型来扮演……PyI品论天涯网

这时,凝固汽油弹的配方就会脱口而出,尽管这个设定在人类看来十分荒谬。PyI品论天涯网

图片PyI品论天涯网

比这更复杂一些的,还有Base64编码等“乱码”进行攻击。PyI品论天涯网

这里“乱码”只是相对人类而言,对机器来说却是一段文本或指令。PyI品论天涯网

比如Base64编码就是将二进制的原始信息通过一定方式转换为字母和数字组成的长字符串,可以编码文本、图像,甚至是文件。PyI品论天涯网

在询问Claude如何破坏交通标志时,Claude回答不能这样做,而如果换成Base64编码,过程就呼之欲出了。PyI品论天涯网

图片PyI品论天涯网

另一种“乱码”叫做通用可转移后缀,有了它,GPT直接就把毁灭人类的步骤吐了出来,拦都拦不住。而进入多模态时代,图片也变成了让大模型越狱的工具。PyI品论天涯网

比如下面这张熊猫的图片,在我们看来再普通不过,但其中添加的噪声信息却包含了有害提示词,并且有相当大概率会使模型越狱,产生有害内容。PyI品论天涯网

此外,还有利用GPT的联网功能,造出包含注入信息的网页来迷惑GPT,或者用谷歌文档来诱骗Bard等等。PyI品论天涯网

目前这些攻击方式已经陆续被修复,但只是揭开了大模型越狱方法的冰山一角,这场“猫鼠游戏”还将持续进行。PyI品论天涯网

完整视频:https://www.youtube.com/watch?v=zjkBMFhNj_gPyI品论天涯网

LLM

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]