人工智能

35亿元!开源类ChatGPT平台Mistral AI,再获巨额融资

字号+作者: 来源:​AIGC开放社区公众号 2023-12-06 08:55 评论(创建话题) 收藏成功收藏本文

声明:本文来自于微信公众号 AIGC开放社区(ID:AIGCOPEN),作者:AIGC开放社区,授权站长之家转载发布。12月6日,彭博消息,开源类ChatGPT平台Mistral AI获得4.5亿'...

声明:本文来自于微信公众号 AIGC开放社区(ID:AIGCOPEN),作者:AIGC开放社区,授权站长之家转载发布。TMq品论天涯网

12月6日,彭博消息,开源类ChatGPT平台Mistral AI获得4.5亿欧元(近35亿元)融资,估值近20亿美元(142亿元)。本次由英伟达、 Salesforce等投资。TMq品论天涯网

Mistral AI的开源大语言模型Mistral7B主打参数小、能耗低、性能强等特点,并且允许商业化。支持生成文本/代码、数据微调、总结内容等,目前在github有4500颗星。TMq品论天涯网

值得一提的是,Mistral AI曾在没有发布任何产品的情况下,获得1.13亿美元种子轮融资,这也是欧洲科技史上最大的种子轮融资之一。TMq品论天涯网

开源地址:https://github.com/mistralai/mistral-srcTMq品论天涯网

帮助文档:https://docs.mistral.ai/TMq品论天涯网

API接口:https://docs.mistral.ai/apiTMq品论天涯网

图片TMq品论天涯网

相比元宇宙,刚过完1岁生日的ChatGPT经受住了商业落地、用户受众等多重考验,并且带动了一大批科技公司参与到生成式AI变革中。TMq品论天涯网

目前,主要分为闭源和开源两大阵营。在Meta的Llama打响第一枪后,开源大语言模型领域涌现出了Writer、百川智能、Together.ai、Mistral AI等一大批优秀企业,同时获得了资本市场的认可。这些厂商也坚信,开源才是大模型通向AGI的捷径之一。TMq品论天涯网

早在今年6月「AIGC开放社区」就介绍过Mistral AI,当时对其印象非常深刻。因为没有发布任何产品,官网只有3句话:我们正在组建一支世界一流的技术团队,来开发最好的生成式 AI 模型。TMq品论天涯网

图片TMq品论天涯网

今年6月Mistral AI的官网内容TMq品论天涯网

我们在欧洲开展业务,总部在法国巴黎。如果你在AI领域拥有丰富的研究、开发经验,请联系我们。TMq品论天涯网

当时就凭这三句话,便融了1.13亿美元种子轮融资,估值达到2.6亿美元。通常这种企业要么蹭一波热度拿完钱,随便改改模型坐着等死;TMq品论天涯网

要么就是扫地僧级别的技术大牛,一出手便名震天下。从本次融资结果来看,Mistral AI属于后者确实有两下子。TMq品论天涯网

公开资料显示,Mistral AI的三位联合创始人Timothée Lacroix 、Guillaume Lample和Arthur Mensch来头不小,拥有大厂履历和知名项目的成功经验同时也是大学校友。TMq品论天涯网

Timothée和Guillaume曾在Meta的AI研究部门工作,并领导了LLaMA的开发,这也是类ChatGPT开源模型的鼻祖。Arthur曾在谷歌的 AI 研究实验室DeepMind工作。TMq品论天涯网

产品方面,Mistral AI在今年9月27日推出的Mistral7B是目前最强开源大语言模型,在所有基准测试中均优于Llama213B;在许多基准测试上优于或与Llama134B相当;在代码测试的表现与CodeLlama7B相当。TMq品论天涯网

图片TMq品论天涯网

为了使模型能以更快的速度、更小的能耗进行推理,Mistral AI分别使用了分组查询注意力和滑动窗口注意力两大机制TMq品论天涯网

分组查询注意力是对标准注意力机制的一种改进,通过对查询进行分组来减少计算复杂性。在 Transformer 模型中,注意力机制通常涉及查询、键和值的三组向量。TMq品论天涯网

在标准的自注意力机制中,每个查询都会与所有的键进行匹配,这在序列很长时会导致巨大的计算负担。TMq品论天涯网

图片TMq品论天涯网

而分组查询注意力通过将多个查询合并成一个组来工作。然后,每个组的查询向量只与一部分键向量进行交互,而不是与所有键向量交互,整体效率非常高效。TMq品论天涯网

滑动窗口注意力是一种在序列处理任务中用来限制注意力机制的范围并减少计算量的技术。在这种方法中,每个元素的注意力不是对整个序列计算,而是仅限于其附近的一个窗口内的元素。TMq品论天涯网

通过这种方式,模型的每个部分只需要处理窗口内的信息,从而降低了每个注意力计算中涉及的元素数目。TMq品论天涯网

这不仅减少了计算需求,还可以限制模型的上下文范围,有助于模型关注局部信息。TMq品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]