声明:本文来自于微信公众号 AIGC开放社区(ID:AIGCOPEN),作者:AIGC开放社区,授权站长之家转载发布。
12月6日,彭博消息,开源类ChatGPT平台Mistral AI获得4.5亿欧元(近35亿元)融资,估值近20亿美元(142亿元)。本次由英伟达、 Salesforce等投资。
Mistral AI的开源大语言模型Mistral7B主打参数小、能耗低、性能强等特点,并且允许商业化。支持生成文本/代码、数据微调、总结内容等,目前在github有4500颗星。
值得一提的是,Mistral AI曾在没有发布任何产品的情况下,获得1.13亿美元种子轮融资,这也是欧洲科技史上最大的种子轮融资之一。
开源地址:https://github.com/mistralai/mistral-src
帮助文档:https://docs.mistral.ai/
API接口:https://docs.mistral.ai/api
相比元宇宙,刚过完1岁生日的ChatGPT经受住了商业落地、用户受众等多重考验,并且带动了一大批科技公司参与到生成式AI变革中。
目前,主要分为闭源和开源两大阵营。在Meta的Llama打响第一枪后,开源大语言模型领域涌现出了Writer、百川智能、Together.ai、Mistral AI等一大批优秀企业,同时获得了资本市场的认可。这些厂商也坚信,开源才是大模型通向AGI的捷径之一。
早在今年6月「AIGC开放社区」就介绍过Mistral AI,当时对其印象非常深刻。因为没有发布任何产品,官网只有3句话:我们正在组建一支世界一流的技术团队,来开发最好的生成式 AI 模型。
今年6月Mistral AI的官网内容
我们在欧洲开展业务,总部在法国巴黎。如果你在AI领域拥有丰富的研究、开发经验,请联系我们。
当时就凭这三句话,便融了1.13亿美元种子轮融资,估值达到2.6亿美元。通常这种企业要么蹭一波热度拿完钱,随便改改模型坐着等死;
要么就是扫地僧级别的技术大牛,一出手便名震天下。从本次融资结果来看,Mistral AI属于后者确实有两下子。
公开资料显示,Mistral AI的三位联合创始人Timothée Lacroix 、Guillaume Lample和Arthur Mensch来头不小,拥有大厂履历和知名项目的成功经验同时也是大学校友。
Timothée和Guillaume曾在Meta的AI研究部门工作,并领导了LLaMA的开发,这也是类ChatGPT开源模型的鼻祖。Arthur曾在谷歌的 AI 研究实验室DeepMind工作。
产品方面,Mistral AI在今年9月27日推出的Mistral7B是目前最强开源大语言模型,在所有基准测试中均优于Llama213B;在许多基准测试上优于或与Llama134B相当;在代码测试的表现与CodeLlama7B相当。
为了使模型能以更快的速度、更小的能耗进行推理,Mistral AI分别使用了分组查询注意力和滑动窗口注意力两大机制。
分组查询注意力是对标准注意力机制的一种改进,通过对查询进行分组来减少计算复杂性。在 Transformer 模型中,注意力机制通常涉及查询、键和值的三组向量。
在标准的自注意力机制中,每个查询都会与所有的键进行匹配,这在序列很长时会导致巨大的计算负担。
而分组查询注意力通过将多个查询合并成一个组来工作。然后,每个组的查询向量只与一部分键向量进行交互,而不是与所有键向量交互,整体效率非常高效。
滑动窗口注意力是一种在序列处理任务中用来限制注意力机制的范围并减少计算量的技术。在这种方法中,每个元素的注意力不是对整个序列计算,而是仅限于其附近的一个窗口内的元素。
通过这种方式,模型的每个部分只需要处理窗口内的信息,从而降低了每个注意力计算中涉及的元素数目。
这不仅减少了计算需求,还可以限制模型的上下文范围,有助于模型关注局部信息。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】