OpenAI昨天低调地宣布了一项重要消息,其旗舰前沿模型GPT-4o现在支持更多的输出词元。GPT-4o的实验版本名为GPT-4oLongOutput,现在每个请求最多可支持64000个输出标记。
这将有助于开发人员将GPT-4o模型用于需要较长时间完成的用例。加入OpenAIalpha计划的开发人员可以使用"gpt-4o-64k-output-alpha"模型名称访问GPT-4oLongOutput。
由于长补全的成本较高,OpenAI提高了该模型的单位令牌定价。gpt-4o-64k-output-alpha的价格为6.00美元/100万个输入词元,18.00美元/100万个输出词元。
与此相关,微软昨天宣布发布GPT-4ominiAPI,为全球和美国东部地区标准部署提供视觉支持,微软将很快把它推广到更多地区。
有了GPT-4omini的视觉支持,开发人员可以在涉及视觉识别、场景理解等应用中使用API处理图像和视频。此外,GPT-4omini还能根据视觉输入生成详细、上下文准确的文本输出。
MicrosoftAzure团队就GPT-4omini在Azure上的可用性撰文如下:
"GPT-4omini增加了视觉输入功能,扩大了其多功能性,为开发人员和企业开辟了新天地。这一增强功能使用户能够处理和分析视觉数据,提取有价值的见解,并生成全面的文本输出"。
Azure客户现在可以在AzureOpenAIStudioPlayground中试用GPT-4omini,他们可以在这里了解有关该模型的更多信息。
OpenAI和微软产品的这些进步表明了人工智能领域的快速发展,尤其是在语言和视觉模型方面。随着这些模型变得更加强大和易于使用,它们为开发者和企业重新思考为消费者提供的体验开辟了新的可能性。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】