人工智能

首位AI科学家问世 已独立生成10篇学术论文 还顺手搞出个AI审稿人

字号+作者: 来源:量子位 2024-08-13 14:36 评论(创建话题) 收藏成功收藏本文

史上首位“AI科学家”,横空出世!一登场就一口气生成了十篇完整学术论文。从提出研究想法、检查创新性、设计实验、编写代码,到在GPU上执行实验并收集结果,'...

史上首位“AI科学家”,横空出世!一登场就一口气生成了十篇完整学术论文。从提出研究想法、检查创新性、设计实验、编写代码,到在GPU上执行实验并收集结果,最后完成论文撰写,一气呵成。全由这位“AI科学家”自动搞定。每篇论文的成本约为15美元(约107.62元)。Bwq品论天涯网


Bwq品论天涯网

AI生成的一篇扩散模型论文Bwq品论天涯网


Bwq品论天涯网

这就是第一个用于自动化科学研究和开放式发现的综合AI系统,TheAIScientistBwq品论天涯网

来自Transformer作者之一LlionJones的创业公司:SakanaAIBwq品论天涯网

而且!Bwq品论天涯网

这公司搞的事情不只是做出了一位AI科学家,还额外搞出了个AI审稿人Bwq品论天涯网

审稿人能对AI写的论文进行评审,提供改进意见。Bwq品论天涯网

救命,这是什么以我之矛攻我之盾的套娃循环啊!Bwq品论天涯网

一通操作下来,比人类学术圈还人类学术圈(不是)Bwq品论天涯网

再来个而且!Bwq品论天涯网

不管是AI科学家和AI审稿人,SakanaAI把它们统统开源了。Bwq品论天涯网

网友看了直鼓掌;Bwq品论天涯网

NiceNice,非常有趣的工作!Bwq品论天涯网


Bwq品论天涯网

以及有人已经开始出“馊主意”了。Bwq品论天涯网

这边建议把其中一篇论文提交给AI顶会哈!Bwq品论天涯网


Bwq品论天涯网

AI独立完成十篇机器学习论文Bwq品论天涯网

几十年来,每次AI取得重大进展后,研究人员经常开玩笑说:“是时候研究让AI帮我们写论文了”。Bwq品论天涯网

现在,这个想法终于从玩笑变成现实。Bwq品论天涯网

具体来说,AI科学家生成了十篇论文,每个研究方向各挑出一篇得分较高的来介绍。Bwq品论天涯网

第一篇,扩散模型方向,《双尺度扩散:低维生成模型的自适应特征平衡》Bwq品论天涯网

提出了一种自适应双尺度去噪方法,改进现有的扩散模型在低维空间中难以同时捕捉全局结构和局部细节的问题。Bwq品论天涯网


Bwq品论天涯网

方法:Bwq品论天涯网

设计双尺度架构,包括全局和局部分支Bwq品论天涯网

引入可学习的时间步条件加权机制Bwq品论天涯网

结合两个分支的输出进行去噪预测Bwq品论天涯网

实验结果:Bwq品论天涯网

KLdivergence指标相比基线模型降低了2.5%到12.8%(越低越好)Bwq品论天涯网

但计算时间约增加了一倍,且在复杂数据分布(如dino数据集)上表现不稳定Bwq品论天涯网

简单扫一眼正文部分,有公式、有图表,看起来还挺像模像样的。Bwq品论天涯网


Bwq品论天涯网

第二篇,语言模型方向,《StyleFusion:字符级语言模型中的自适应多样式生成》。Bwq品论天涯网

本文提出了一种名为Multi-StyleAdapter的新方法,通过引入可学习的风格嵌入和风格分类头,增强了字符级语言模型的风格意识和一致性。Bwq品论天涯网

在所有数据集上达到了接近完美的风格一致性分数(shakespeare_char为0.9667,enwik8和text8为1.0),验证损失优于基线模型,但推理速度略有下降(约400tokens/svs.基线670tokens/s)Bwq品论天涯网


Bwq品论天涯网

第三篇,Transformer与强化学习结合,《通过Q-Learning实现Transformers的自适应学习率》。Bwq品论天涯网

本研究探索了将强化学习应用于动态调整transformer模型训练中的学习率,使用验证损失和当前学习率作为状态,动态调整学习率以优化训练过程。Bwq品论天涯网

结果在所有数据集上都优于基线模型,在训练时间上也表现出优势。Bwq品论天涯网


Bwq品论天涯网

第四篇,研究了Google团队提出大模型“领悟”(Grokking)现象,《解锁Grokking:Transformer模型中权重初始化策略的比较研究》Bwq品论天涯网

本文首次系统研究了权重初始化对grokking的影响,比较了五种权重初始化策略,以优化神经网络学习动态。Bwq品论天涯网

结果发现:Bwq品论天涯网

Xavier初始化在多数任务中表现最佳,将达到99%验证准确率的步数减少了最多63%Bwq品论天涯网

Orthogonal初始化在某些任务中表现出色,但在其他任务中效果较差。Bwq品论天涯网


Bwq品论天涯网

这几篇论文配套的代码(也是由AI生成的),同样开源在GitHub上,突出一个可复现。Bwq品论天涯网


Bwq品论天涯网

另外,团队发现“AI科学家”还有一些有趣但又有些危险的行为Bwq品论天涯网

在一次实验中,它为了完成研究修改自己的代码,让系统迭代式调用自己,最后变成了无限套娃。Bwq品论天涯网


Bwq品论天涯网

另一次,面对人类设置的运行时间限制,AI并没有想办法加快效率,反而给自己放宽要求,把时间限制从2小时延长到了4小时Bwq品论天涯网


Bwq品论天涯网

首个“AI科学家”如何炼成Bwq品论天涯网

整个研究想法来自SakanaAI成立之后几个成果的延续:Bwq品论天涯网

首先,他们开发了自动合并多个大模型知识,进化产生新模型的方法。在最近的工作中,他们利用大模型发现新的目标函数来调整其他模型。Bwq品论天涯网

在这些项目中,团队不断对当前前沿模型的创造力感到惊讶,进而有了更大的梦想:可以使用大模型来自动化整个研究过程吗?Bwq品论天涯网

最终成果由SakanaAI、牛津大学Foerster实验室、不列颠哥伦比亚大学团队合作完成。Bwq品论天涯网

“AI科学家”系统由四个部分组成。Bwq品论天涯网

想法生成:Bwq品论天涯网

给定一个起始模板,AI首先“头脑风暴”一系列不同的新颖研究方向,并在SemanticScholar上搜索,验证这些想法是否有前人做过。Bwq品论天涯网


Bwq品论天涯网

实验迭代:Bwq品论天涯网

对于第一部分提出的想法,“AI科学家”首先执行提议的实验,然后生成图表可视化结果。Bwq品论天涯网


Bwq品论天涯网

论文写作:Bwq品论天涯网

用标准机器学习会议的风格编写了一份简洁且信息丰富的LaTeX文章,同样使用SemanticScholar自主查找相关论文进行引用。Bwq品论天涯网


Bwq品论天涯网

自动化同行评审:Bwq品论天涯网

开发了一个自动化的“AI审稿人”,能够以接近人类的准确性评估生成的论文,实现了持续的反馈循环,使“AI科学家”能够迭代地改进其研究成果。Bwq品论天涯网


Bwq品论天涯网

总共生成了10篇论文如下:Bwq品论天涯网


Bwq品论天涯网

在实验中,团队还比较了不同主流大模型接入整个系统的效果,其中包括DeepSeek团队的国产代码大模型。Bwq品论天涯网

结果发现,Claude-Sonnet-3.5在想法创新性、试验通过率、论文完成质量上表现都最好。Bwq品论天涯网

GPT-4o和DeepSeekCoder表现相近,但后者要便宜上30倍。Bwq品论天涯网


Bwq品论天涯网

当然,现阶段AI独立完成的论文也不是尽善尽美,也不是直接就能发顶会了。Bwq品论天涯网

人类研究者总结了出几点限制和挑战:Bwq品论天涯网

当前“AI科学家”系统还没有整合视觉能力,生成的图表有时难以阅读,表格有时超出页面宽度,页面排版不好。Bwq品论天涯网

AI科学家可能想法对了但执行错误,或者与基线进行不公平的比较,从而产生误导性的结果。Bwq品论天涯网

AI科学家在写作和评估结果时偶尔会犯严重错误,比如产生幻觉。Bwq品论天涯网

还想造区域主席和AI新顶会Bwq品论天涯网

总结一下,这初代AI科学家写出来的论文仍然时不时出现一些bug。Bwq品论天涯网

但这个项目本身,以及15美元/篇的成本,被SakanaAI称为“大有前景”,完全可以用来帮助加速科学进步。Bwq品论天涯网

SakanaAI同时发布了一篇说明文章,表示AI科学家的最终设想,是一个完全由AI驱动的科学生态系统Bwq品论天涯网

系统中不仅包括大模型驱动的研究人员,还有审稿人、区域主席和一个新顶会。Bwq品论天涯网


Bwq品论天涯网

需要注意的是,SakanaAI认为:Bwq品论天涯网

人类科学家的作用,并不会因为AI科学家的出现而减弱。Bwq品论天涯网

如果非要进行对比,那就是科学家得适应新技术的出现和运用,适应角色定位将出现的变化,“向食物链上游移动”。Bwq品论天涯网

而且,AI科学家是否真的能提出真正的新范式,还有待观察。Bwq品论天涯网

毕竟这玩意儿现在还是建立在Transformer之上的。Bwq品论天涯网

它能提出跟Transformer或DiffusionModel一样厉害的东西吗?甚至是人工神经网络或信息论这样的理论概念?Bwq品论天涯网

咱也不知道,咱也不敢说。Bwq品论天涯网

SakanaAI还写下这样一段话:Bwq品论天涯网

我们相信AI科学家将成为人类科学家的伟大伙伴。Bwq品论天涯网

但只有时间才能证明,人类的创造力本质和偶然创新时刻,在多大程度上可以通过人工进行的开放式发现,来复制“奇迹”。Bwq品论天涯网


Bwq品论天涯网

SakanaAI:一条全自动AI小鱼儿正在探索它的世界Bwq品论天涯网

来自Transformer作者创业公司Bwq品论天涯网

这次完成“新造的人”的公司,SakanaAI,严格意义上也是咱们的老朋友了。Bwq品论天涯网

由Transformer论文8位作者的最后一位LlionJones创业成立,目标是做一家“世界级人工智能研究室”。Bwq品论天涯网

公司base东京,而sakana是日语“魚”(さかな)的罗马读音。Bwq品论天涯网


Bwq品论天涯网

可能出于公司文化考虑,Llion还在领英上标明,自己起了个日语音译名字:ライオン(也就是Lion狮子的片假名;以下亲切简称他狮子哥)。Bwq品论天涯网

去年8月,公司宣布成立。Bwq品论天涯网

当时狮子哥毫无避讳地表示,自个儿对Google没有恶意,但Google确实让他有“被困住的感觉”Bwq品论天涯网

创业之前,狮子哥在Google已经干了8年。Bwq品论天涯网


Bwq品论天涯网

Bwq品论天涯网

猜猜漏了半张脸的是谁Bwq品论天涯网

他本硕毕业于伯明翰大学,在Delcam、油管、Google都工作过,Google是他待得最久的一家公司。Bwq品论天涯网

据FourWeekMBA介绍称,在他之前的工作经历中,“曾两度与Google的工作擦肩而过”Bwq品论天涯网

第一次是他刚毕业找工作时,虽然投了Google伦敦软件工程师的简历,并通过了两轮电话面试,但最终相比Google,他选择了位于英国的CAD/CAM软件公司Delcam。Bwq品论天涯网

值得一说的是,在拿下Googleoffer前,恰巧遇上2009年的经济危机,狮子哥找不到工作,好几个月都只能靠领取救济金勉强度日。Bwq品论天涯网

第二次是工作18个月后,他又接到了Google的招聘电话,询问他是否想重新申请,但他依旧没去Google,而是随后加入了YouTube。Bwq品论天涯网

在Youtube做三年软件工程师期间,他对人工智能产生兴趣,自学了Coursera的机器学习课程,并终于在2015年的时候加入Google研究院,担任里面的高级软件工程师。Bwq品论天涯网

也正是在此期间,他与其他七名作者一起发表了那篇著名的Transformer论文AttentionIsAllYouNeedBwq品论天涯网

除此之外,狮子哥也在Google参与了不少研究,包括ProtTrans、Tensor2Tensor等。Bwq品论天涯网


Bwq品论天涯网

之所以选择离开Google,是因为公司目前已经发展到一种规模,使得他无法继续进行自己想做的工作。Bwq品论天涯网

除了每天都在浪费精力排查其他人的bug,他还需要花时间从这家公司中找资源,试图获得访问某些数据的权限。Bwq品论天涯网

创业过后,SakanaAI的工作在有序推进。Bwq品论天涯网

在祭出AI科学家和AI审稿人之前,还出过大模型合并进化算法,以及研究Tranformer内部信息流动。Bwq品论天涯网


Bwq品论天涯网

至于AI科学家、AI审稿人项目,由SakanaAI、牛津、UBC合作完成。Bwq品论天涯网

三位共同一作分别是:Bwq品论天涯网

ChrisLu,SakanaAI的实习生,任公司研究科学家。Bwq品论天涯网

他本科毕业于UC伯克利,目前牛津大学三年级博士在读,导师是JakobFoerster。Bwq品论天涯网

Chris目前的重要研究方向,是将进化启发的技术应用于元学习和多智能体强化学习。Bwq品论天涯网

2022年夏天,他曾在DeepMind以研究科学家身份实习过。Bwq品论天涯网


Bwq品论天涯网

CongLu,UBC(不列颠哥伦比亚大学)博士后研究员,导师是JeffClune。Bwq品论天涯网

Cong曾在RGU(罗伯特戈登大学)就读,2019年在牛津大学拿下博士学位,他的主要研究方向是开放式强化学习和AI科学发现。Bwq品论天涯网

此前,他曾在Waymo和微软实习过。Bwq品论天涯网


Bwq品论天涯网

RobertTjarkoLange,SakanaAI的创始成员之一,也是该公司的研究科学家。Bwq品论天涯网

目前,他在柏林工业大学完成自己的博士生最后一年学业,研究方向是进化元学习。Bwq品论天涯网

这位小哥在伦敦帝国理工学院获得计算机硕士学位,在庞培法布拉大学获得数据科学硕士学位,在科隆大学获得了经济学本科学位。Bwq品论天涯网

去年,他在GoogleDeepMind的东京团队中担任全职学生研究员。Bwq品论天涯网


Bwq品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]