人工智能

新的语音模式将于下周向 ChatGPT Plus 用户开放

字号+作者: 来源:cnBeta 2024-07-26 16:08 评论(创建话题) 收藏成功收藏本文

今年5月,OpenAI发布了其新的旗舰前沿模型GPT-4o("o"代表"omni"),该模型的音频理解能力得到了突出强调。GPT-4o模型可以在平均320毫秒的时间内响应音频输入,'...

今年5月,OpenAI发布了其新的旗舰前沿模型GPT-4o("o"代表"omni"),该模型的音频理解能力得到了突出强调。GPT-4o模型可以在平均320毫秒的时间内响应音频输入,这与人类在典型对话中的响应时间相似。OpenAI还宣布,ChatGPT的语音模式功能将利用GPT-4o模型的音频能力为用户提供无缝的语音对话体验。jE7品论天涯网

jE7品论天涯网

OpenAI团队撰文介绍了GPT-4o的语音功能:jE7品论天涯网

"通过GPT-4o,我们在文本、视觉和音频领域端到端训练了一个单一的新模型,这意味着所有输入和输出都由同一个神经网络处理。由于GPT-4o是我们第一个将所有这些模式结合起来的模型,因此我们在探索该模型的功能及其局限性方面仍处于起步阶段。"jE7品论天涯网

今年6月,OpenAI宣布,原计划于6月底向一小部分ChatGPTPlus用户推出的高级语音模式将推迟一个月推出。OpenAI提到,需要更多时间来提高该模式检测和拒绝某些内容的能力。此外,它还在准备基础设施,以便在保持实时响应的同时将其扩展到数百万用户。jE7品论天涯网

今天,OpenAI首席执行官SamAltman通过X确认,语音模式alpha版本将于下周面向ChatGPTPlus用户推出。jE7品论天涯网

由于平均2.8秒(GPT-3.5)和5.4秒(GPT-4)的显著延迟,ChatGPT当前的语音模式并不直观。即将推出的基于GPT-4o的高级语音模式将使ChatGPT用户能够无延迟地进行无缝对话。jE7品论天涯网

与此相关的是,OpenAI今天展示了它期待已久的网络搜索体验--SearchGPT。目前,SearchGPT只是一个原型,它提供的人工智能搜索功能可以从清晰、相关的来源为您提供快速、及时的答案。jE7品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]