早前OpenAI推出基于o1系列的新模型,分为o1-preview预览版和更快更便宜的o1-mini版,该系列模型的主要特点是可以解决更复杂推理任务。需要强调的是o1模型并不能直接替代GPT-4o模型,原因在于o1模型仅提高推理能力,但不支持图像功能、函数调用和快速响应时间。
对大多数开发者而言可能需要混合使用GPT-4o、GPT-4o-mini和o1系列模型,即在不同的使用场景中搭配不同的模型以获得最佳性能。
今天OpenAI宣布提高Tier5开发者的o1系列模型调用速率,鼓励更多开发者积极使用o1系列模型,但目前这仅适用于5级开发者,后续OpenAI会陆续扩展支持1~4级开发者。
此次调整前o1-preview模型的调用速率为每分钟100个请求,o1-mini的调用速率则是每分钟250个请求;此次调整后o1-preview调用速率提高到每分钟500个请求,而o1-mini调用速率提高到每分钟1000个请求。
调整后开发者们可以在更大并发场景中使用o1系列模型解决复杂的推理任务,并在获得推理结果后再使用GPT-4o系列模型进行接下来的处理等。
除了面向开发者调整速率外,OpenAI在本周还面向ChatGPTPlus和ChatGPTTeam用户调整了o1-mini的速率限制,从每周可以发送50条消息提高到每天可以发送50条消息。
但因为o1-preview模型的服务成本更高,所以OpenAI只将该模型的消息限制从每周30条提高到每周50条,所以总体来说还是有一些使用限制的。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】