今年5月,OpenAI发布了其新的旗舰前沿模型GPT-4o("o"代表"omni"),该模型的音频理解能力得到了突出强调。GPT-4o模型可以在平均320毫秒的时间内响应音频输入,这与人类在典型对话中的响应时间相似。OpenAI还宣布,ChatGPT的语音模式功能将利用GPT-4o模型的音频能力为用户提供无缝的语音对话体验。
OpenAI团队撰文介绍了GPT-4o的语音功能:
"通过GPT-4o,我们在文本、视觉和音频领域端到端训练了一个单一的新模型,这意味着所有输入和输出都由同一个神经网络处理。由于GPT-4o是我们第一个将所有这些模式结合起来的模型,因此我们在探索该模型的功能及其局限性方面仍处于起步阶段。"
今年6月,OpenAI宣布,原计划于6月底向一小部分ChatGPTPlus用户推出的高级语音模式将推迟一个月推出。OpenAI提到,需要更多时间来提高该模式检测和拒绝某些内容的能力。此外,它还在准备基础设施,以便在保持实时响应的同时将其扩展到数百万用户。
今天,OpenAI首席执行官SamAltman通过X确认,语音模式alpha版本将于下周面向ChatGPTPlus用户推出。
由于平均2.8秒(GPT-3.5)和5.4秒(GPT-4)的显著延迟,ChatGPT当前的语音模式并不直观。即将推出的基于GPT-4o的高级语音模式将使ChatGPT用户能够无延迟地进行无缝对话。
与此相关的是,OpenAI今天展示了它期待已久的网络搜索体验--SearchGPT。目前,SearchGPT只是一个原型,它提供的人工智能搜索功能可以从清晰、相关的来源为您提供快速、及时的答案。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】