人工智能

指数级增长使Hugging Face上的人工智能模型达到100万个

字号+作者: 来源:cnBeta 2024-09-27 10:01 评论(创建话题) 收藏成功收藏本文

本周四,人工智能托管平台HuggingFace的人工智能模型列表首次突破100万个,这标志着快速扩张的机器学习领域的一个里程碑。人工智能模型是一种计算机程序(通'...

本周四,人工智能托管平台HuggingFace的人工智能模型列表首次突破100万个,这标志着快速扩张的机器学习领域的一个里程碑。人工智能模型是一种计算机程序(通常使用神经网络),通过数据训练来执行特定任务或进行预测。该平台在2016年以聊天机器人应用程序起步,在2020年转向成为人工智能模型的开源中心,现在为开发人员和研究人员提供了大量工具。zqO品论天涯网

zqO品论天涯网

机器学习领域所代表的世界远不止像ChatGPT这样的大型语言模型(LLM)。HuggingFace首席执行官克莱门特-德朗格(ClémentDelangue)在X上发表的一篇文章中谈到了他的公司如何托管了许多著名的人工智能模型,如"Llama、Gemma、Phi、Flux、Mistral、Starcoder、Qwen、Stablediffusion、Grok、Whisper、Olmo、Command、Zephyr、OpenELM、Jamba、Yi",而且还有"999984个其他模型"。zqO品论天涯网

Delangue说,原因在于定制。"他写道:"与'一个模型统治所有模型'的谬论相反,针对你的用例、你的领域、你的语言、你的硬件以及你的一般限制条件而定制的小型专门优化模型会更好。事实上,很少有人意识到,'拥抱脸谱'上几乎有同样多的模型只对一个组织开放,供公司私下构建人工智能,专门用于他们的用例。zqO品论天涯网

zqO品论天涯网

由HuggingFace提供的图表显示了随着时间推移逐月添加到HuggingFace的人工智能模型数量。zqO品论天涯网

随着整个科技行业人工智能研发步伐的加快,HuggingFace已转型成为一个重要的人工智能平台。短短几年间,随着人们对这一领域的兴趣日益浓厚,网站上托管的模型数量也急剧增加。在X上,HuggingFace产品工程师CalebFahlgren张贴了一张平台上每月创建的模型图表(以及一个指向其他图表的链接),他说:"模型逐月呈指数增长,而九月还没有结束。zqO品论天涯网

微调的力量zqO品论天涯网

正如德朗格在上文所暗示的,平台上的模型数量之多源于平台的协作性质以及针对特定任务对现有模型进行微调的做法。微调是指对现有模型进行额外训练,为其神经网络添加新概念,并改变其产生输出的方式。世界各地的开发人员和研究人员都在贡献自己的成果,从而形成了一个庞大的生态系统。zqO品论天涯网

例如,该平台上有许多不同的Meta开放权重Lama模型,它们代表了原始基础模型的不同微调版本,每个版本都针对特定应用进行了优化。zqO品论天涯网

HuggingFace的资源库包含适用于各种任务的模型。浏览其模型页面,可以在"多模态"部分看到图像到文本、视觉问题解答和文档问题解答等类别。在"计算机视觉"类别中,有深度估计、对象检测和图像生成等子类别。自然语言处理任务(如文本分类和问题解答)以及音频、表格和强化学习(RL)模型也有体现。zqO品论天涯网

zqO品论天涯网

放大/2024年9月26日拍摄的拥抱脸模型页面截图。zqO品论天涯网

如果按"下载次数最多"排序,HuggingFace模型列表揭示了人们认为哪些人工智能模型最有用的趋势。排名第一的是麻省理工学院的音频谱图转换器,其下载量高达1.63亿次,遥遥领先,该模型可对语音、音乐和环境声音等音频内容进行分类。紧随其后的是Google的BERT,其下载量为5420万次,这是一个人工智能语言模型,通过预测遮蔽的单词和句子关系来学习理解英语,使其能够协助完成各种语言任务。zqO品论天涯网

排在前五位的人工智能模型是all-MiniLM-L6-v2(该模型将句子和段落映射为384维密集向量表示,适用于语义搜索)、VisionTransformer(将图像处理为补丁序列,以执行图像分类),以及OpenAI的CLIP(连接图像和文本,允许使用自然语言对视觉内容进行分类或描述)。zqO品论天涯网

不管是什么模型或任务,该平台都在不断发展壮大。Delangue写道:"如今,HF上每10秒钟就会创建一个新的存储库(模型、数据集或空间)。"最终,模型的数量将和代码库的数量一样多,我们将为此而努力!"zqO品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]