眼看AI起高楼、眼看它楼塌了?就在昨天早上,一封公开信刷屏了朋友圈,著名安全机构生命未来研究所( FutureofLifeInstitute , FLI )呼吁全球所有研究机构暂停训练比GPT-4更强的AI。至少六个月。并且要在这六个月中来制订和AI相关的安全协议,其中就包括如何监管AI输出的内容,还有如何把AI创造出的内容和真实的内容区分开来。
咱别看这个研究所名字中二感满满,但在上面留下名字的,个个都是行业里的顶尖大牛。
图灵奖得主约书亚 · 本吉奥、苹果联合创始人史蒂夫 · 沃兹尼亚克、《 人类简史 》的作者尤瓦尔 · 赫拉利、以及什么地方都会刷一脚存在感的埃隆马斯克。
可以说是 “ 满级人类闪耀时 ” 了。
虽然,关于这次签名事件的准确性没有那么高,也有些人在自己不之情的情况下 ”被签名“了,比如一开始OpenAICEO奥特曼的签名也在上面( 我杀我自己? )
再比上面还有急速追杀的主角 JohnWick
但不管怎么说,可以感到大家都紧张起来了。
在信中,生命未来研究所提了四个问题:
我们一定要让机器用宣传和谎言充斥我们的信息渠道吗?
我们一定要把所有工作都自动化吗?包括哪些人工完全可以做得令人满意的工作吗?
我们一定要发展最终可能超过我们、超越我们、并取代我们的非人类思维吗?
我们一定要冒险失去对我们文明的控制吗?
讲道理,这些问题在过去几十年里一直是科幻小说中流行的题材。
但是可能谁也想不到,随着去年年底OpenAI一声枪响。这些难题真真切切的被搬到了我们面前,变成了我们可能需要立刻面对的元素。
>/眼见为真?耳听为实?
前几天,有人在网上发布了一组图片,记录了2001年发生在美国西部小镇卡斯卡迪亚上的了一场9.1级的地震之后的景象。
略带模糊的镜头记录下了当时哭喊的民众
被摧毁的建筑和房屋
甚至还有当时的美国总统小布什访问灾区的合影
无论是破损的城市,街道上大家的穿着,都在告诉观众这是一组来自2001年的照片。
不那么清晰的画质反而给大家一种 “ 路人随手拍 ” 的感觉,让照片的真实性再上了一个台阶。
但唯一的问题是,根本没有这场大地震,卡斯卡迪亚上一次有记录的灾难,是在1700 年。
没错,这组照片就是用Midjounrney来生成的。
比起前段时间流行的 “ 赛博COS” ,明暗对比更强烈,更擅长描述场景关系的Midjourney用来制作 “ 虚假历史 ” 明显更加得心应手了。
也更容易骗到大家的眼睛。前几天流行的 “ 川普被捕 ” 或者是 “ 教皇穿羽绒服 ” ,都是出于Midjourney的手笔。
图片来源 @ 谷大白话
说实话,看到这个照片的第一瞬间,还真觉得有点懵,毕竟做为解放神学出身的教皇,方济各穿个羽绒服也很正常对吧。
但是,这些图片用来图一乐倒是还好,一旦用来深究,那事情可能就大条了。
万一下回,这项技术被用来诈骗呢?
和前些年流行过的DeepFake换脸不同,如今的AI作图不需要特别好的显卡,更不需要很长的时间去调试,对Midjourney来说,只要坐在浏览器前敲敲键盘就行。
当AI让图像造假的成本足够低廉之后,咱又要花多少时间去分辨一张图是不是AI画的?
比如川普返乡:
可能生成一张假的图片需要10 秒,但咱们想要看出来是这张图是不是AI画的,可能少说得要花个半分钟。
不是每个人都有那么多精力能分辨AI的,只要有1% 的人认不出来上当受骗,就可以说是一本万利的生意了好吧。
以往我们说耳听为虚,眼见为实,然而现在,眼见也不再为真。
过去几十年来人类习以为常的秘密,已经悄悄被AI解构成了一堆的线性矩阵,在排列组合中,对人类瞒天过海。
而图片生成还只是AIGC( 人工智能技术来生成内容 )中的一部分。
这次被大佬们试图联名叫停的 “ 巨型AI” 更是重量级,对标的产品自然是出尽风头的ChatGPT。
这玩意有多离谱,咱们也写文章聊过很多,今天就不再做赘述。
前段时间还生成了一段杭州取消限行的文案,骗过了不少人。
实际上,这类大语言模型并不是没有监管,从它们出生的那刻开始,监管就如影随形了。
上个月OpenAI在发布GPT-4的时候就提到,他们早在22年8月就完成了GPT-4的开发,但是之后花了六个月来搞安全问题,为的就是不让AI “ 乱说话 ” 。
GPT-4经过拷打之后胡言乱语的水平大幅度下降:
但问题是,现在的AI和过去那些一步步执行编译的程序不一样,这AI有一个算一个,全是黑箱。
不像过去那些程序,要是出了问题,程序员还可以进去打断点,一个环节一个环节的调试Bug来把问题给搞清楚,哪一个环节有问题,针对性的改一下就好了。
但现在以Chatgpt为首的大模型AI就好像一个黑色的纸箱子,你只知道给它喂苹果,它能还你一个橘子,而中间发生了什么事情一概不知。
那万一这箱子要是出了问题,那咋办嘛?只能重新买一个黑箱子了。
ChatGPT就像一盒巧克力,在它输出完成之前,没有人知道它嘴巴里会蹦出什么字来。
李彦宏也提到: “ 生成式AI每次给出的答案不一定一样,会带来不确定性。”
这个生成到底有多不靠谱呢?
讲个刚刚遇到的事儿:前几天不是索尼微软任天堂、育碧和D社都说要退出E3展会么,我就有点好奇E3展会租金到底要多少钱?
先是在知乎上找到了一个回答,答主表示自己查到在06年时E3的租金就要500万美元以上。
额……06年,500万?这个数据好像有一些不靠谱,于是我又去用NewBing问了一下:也给出了类似的回答。
有数据有链接,看起来是有理有据。
但问题是当我点开这个链接的时候发现……IGN的文章里面根本没有提到租金500万这个数字。
合着你是直接把之前的知乎文章翻译了一遍,然后又给我编了一篇英文文章来讹我啊。
它顺应了我们的猜测给了一个谣言,要不是我多心看了一眼,可能真的给他糊弄过去了。
真就是睁眼说瞎话大师。
除了这个title以外,AI还是桀骜不羁的漏洞寻找大师,往往能在我们训练它的过程中表演一手出乎意料。
在人工智能领域,有个非常经典的理论叫做 “ 对齐问题 ”,意思是 AI 在做的事情和我们想要的结果之间没有对齐,命令的传递出现了偏差。
就比如前两年那只宁愿一头撞死的赛博狼,发现抓半天羊还会不断扣分,那还不如一头撞死自己分还比较高。
狼抓羊这么简单的程序都会出现没法对齐的问题,那更大模型的人工智能就更难说了。
实际上,缺乏 “ 对齐 ” 的AI,还可能会形成社会中一些错误印象的 “ 放大器 ” 。
就拿性别歧视举个例子,早些年亚马逊引入了一个人工智能,来给求职者的简历打分。
结果过了几年回头一看,在程序制定者啥也没做的情况下,性别歧视就很顺滑的出现了,男性简历的通过率比女性高了不少。
甚至就算简历上面没有明确写出性别,程序还会通过一些细枝末节的地方来确定:比如是否毕业于女子大学,是否是 “ 女子XX社 ” 社团社长。
这自然不是亚马逊在招聘时希望看到的,也绝对不是它们在设计AI时给它下的命令。
但是AI在训练的结果中很自然的 “ 没有对齐 ” 。
不光早些年的人工智能,最新的ChatGPT也依旧会有这些问题,比如宁可让百万人失去生命也不愿意说一句种族歧视的话语。
再比如不愿意写一首诗歌歌颂川普,但是可以赞扬拜登。
这些都是很明显的政治倾向,我愿意相信OpenAI在研发ChatGPT的时候并不希望它学会这些,不然他们也没有必要在GPT-4上花那么多时间用于自我审查。
但我们一不留神,AI可能就偷偷的跑偏。
去学习偏见、歧视这些我们不希望存在,但是又客观隐藏在社会关系里的性别歧视和政治倾向。
我也和清华大学交叉信息研究院的于洋教授聊过这个问题,探究到底是AI的哪里出了问题。
于教授的回答是: “ 这既是训练数据集的问题,也是模型架构的问题,也是训练方式的问题,还涉及到使用的问题——比如诱导AI犯错的攻击式使用。 ”
——对,就是全有问题。
现在的AI能做的还有限,就算没对齐,捅出了篓子,可能还在我们能控制的范围里。
但如果在这样狂飙下去,那可就说不定了,就像那个知名的 “ 曲别针假说 ” 。
说不定未来哪一天,AI会认为人类都是阻挠它生产曲别针的阻碍,把大家都给噶了?
人类有和自然相处成百上千年下来的道德约束,我们知道什么能做,什么不能做。而目前,人工智能学不会这些。
或许,这才是这次数千AI大佬发出联名信的原因。
监管必须要有,但是监管、法规不是一日而成。
AI算法突破起来毫无阻碍,连我们这种外行人都知道,AI带来的技术爆发已经箭在弦上。
去年啥情况,今年啥情况,称之为突飞猛进不为过。
随着AI算法的日益完善,下一步没准就要自我进化了,它能成长到什么地步我们很难说。
我们有可能只能跟着AI在屁股后面追,但是现在不知道还有没有我们一直在后面追的空间。
也许下一步只能用AI来监管AI。
今天的联名信或许是给人类敲响了一记警钟。
但可惜的是,这样一纸的“联名信”绝对停不下AI领域研发的脚步。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】