人工智能

OpenAI发布GPT-4o长输出 支持64K输出词元

字号+作者: 来源:cnBeta 2024-08-01 23:45 评论(创建话题) 收藏成功收藏本文

OpenAI昨天低调地宣布了一项重要消息,其旗舰前沿模型GPT-4o现在支持更多的输出词元。GPT-4o的实验版本名为GPT-4oLongOutput,现在每个请求最多可支持6400'...

OpenAI昨天低调地宣布了一项重要消息,其旗舰前沿模型GPT-4o现在支持更多的输出词元。GPT-4o的实验版本名为GPT-4oLongOutput,现在每个请求最多可支持64000个输出标记。qgM品论天涯网

qgM品论天涯网

这将有助于开发人员将GPT-4o模型用于需要较长时间完成的用例。加入OpenAIalpha计划的开发人员可以使用"gpt-4o-64k-output-alpha"模型名称访问GPT-4oLongOutput。qgM品论天涯网

由于长补全的成本较高,OpenAI提高了该模型的单位令牌定价。gpt-4o-64k-output-alpha的价格为6.00美元/100万个输入词元,18.00美元/100万个输出词元。qgM品论天涯网

与此相关,微软昨天宣布发布GPT-4ominiAPI,为全球和美国东部地区标准部署提供视觉支持,微软将很快把它推广到更多地区。qgM品论天涯网

有了GPT-4omini的视觉支持,开发人员可以在涉及视觉识别、场景理解等应用中使用API处理图像和视频。此外,GPT-4omini还能根据视觉输入生成详细、上下文准确的文本输出。qgM品论天涯网

qgM品论天涯网

MicrosoftAzure团队就GPT-4omini在Azure上的可用性撰文如下:qgM品论天涯网

"GPT-4omini增加了视觉输入功能,扩大了其多功能性,为开发人员和企业开辟了新天地。这一增强功能使用户能够处理和分析视觉数据,提取有价值的见解,并生成全面的文本输出"。qgM品论天涯网

Azure客户现在可以在AzureOpenAIStudioPlayground中试用GPT-4omini,他们可以在这里了解有关该模型的更多信息。qgM品论天涯网

OpenAI和微软产品的这些进步表明了人工智能领域的快速发展,尤其是在语言和视觉模型方面。随着这些模型变得更加强大和易于使用,它们为开发者和企业重新思考为消费者提供的体验开辟了新的可能性。qgM品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]