人工智能

英特尔ARM英伟达力推规范草案,想统一AI数据交换格式

图1-语言模型AI训练(来自:NVIDIA)在开发人工智能系统时,数据科学家面临的关键问题不仅是收集大量数据来训练系统。此外还需要选择一种格式来表达系统权重,权'...

ufi品论天涯网

图1-语言模型AI训练(来自:NVIDIA)ufi品论天涯网

在开发人工智能系统时,数据科学家面临的关键问题不仅是收集大量数据来训练系统。此外还需要选择一种格式来表达系统权重,权重是人工智能从训练数据中学习到影响系统预测效果的重要因素。权重使得GPT-3这样的人工智能系统能够从一个长句子提示自动生成整个段落,还能让DALL-E2人工智能基于某个特定标题生成逼真的肖像画。ufi品论天涯网

人工智能系统权重常用的格式有半精度浮点数FP16和单精度浮点数FP32,前者使用16位数据表示系统权重,后者则使用32位。半精度浮点数以及更低精度浮点数能减少了训练和运行人工智能系统所需的内存空间,同时还加快计算速度,甚至减少占用的带宽资源和耗电量。但因为位数较单精度浮点数更少,准确性会有所降低。ufi品论天涯网

然而,包括英特尔、ARM和英伟达在内的许多行内公司都将8位的FP8浮点处理格式作为最佳选择。英伟达产品营销总监萨沙·纳拉西姆汉(SharNarasimhan)在一篇博客文章中指出,FP8浮点处理格式在计算机视觉和图像生成系统等用例中的精度与半精度浮点数相当,同时有“明显”加速。ufi品论天涯网

ufi品论天涯网

图2-语言模型AI推理ufi品论天涯网

英伟达、ARM和英特尔表示,他们将让FP8浮点处理格式成为一种开放标准,其他公司无需许可证即可使用。三家公司在一份白皮书对FP8进行了详细描述。纳拉西姆汉表示,这些规范都将提交给技术标准化组织IEEE,看FP8格式能否成为人工智能行业的通用标准。ufi品论天涯网

纳拉西姆汉说:“我们相信,一个通用的交换格式将带来硬件和软件平台的快速进步,提高互操作性,从而推进人工智能计算的进步。”ufi品论天涯网

当然,三家公司之所以不遗余力推动FP8格式成为通用交换格式也是出于自身研究的考虑。英伟达的GH100Hopper架构已经实现对FP8格式的支持,英特尔的Gaudi2人工智能训练芯片组也支持FP8格式。ufi品论天涯网

但通用的FP8格式也会使SambaNova、AMD、Groq、IBM、Graphcore和Cerebras等竞争对手受益,这些公司都曾在开发人工智能系统时试验或采用FP8格式。人工智能系统开发商Graphcore联合创始人兼首席技术官西蒙·诺尔斯(SimonKnowles)在今年7月份的一篇博客文章中写道,“8位浮点数的出现在处理性能和效率方面为人工智能计算带来了巨大优势”。诺尔斯还称,这是行业确定“单一开放标准”的“一个机会”,比采取多种格式相互竞争要好得多。ufi品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]