人工智能

ChatGPT加速登陆手机?OpenAI招募移动终端团队

字号+作者: 来源:科创板日报 2023-04-18 15:40 评论(创建话题) 收藏成功收藏本文

上周,OpenAI创始人阿尔特曼(SamAltman)确认,现阶段并没有在训练GPT-5,“只是在GPT-4的基础上进行更多的工作”。“更多的工作”有哪些?布局移动端或是重要一'...

上周,OpenAI创始人阿尔特曼(SamAltman)确认,现阶段并没有在训练GPT-5,“只是在GPT-4的基础上进行更多的工作”。“更多的工作”有哪些?布局移动端或是重要一环。eK1品论天涯网

其公司招聘页显示,OpenAI正招募ChatGPT移动终端工程经理,“我们正在寻找一位经验丰富的工程师来帮助建立和领导ChatGPT移动团队。”该领导岗位的年薪在30万美元至50万美元间,还包括“慷慨”的股权赠与和员工福利。OpenAI的移动端布局跨iOS和Android,将招募Android软件工程师和iOS软件工程师等。eK1品论天涯网



图源:OpenAI官网eK1品论天涯网

此前,ChatGPT已经试水移动端。微软于2月份宣布,iOS和Android端的必应搜索和Edge浏览器均已接入ChatGPT。eK1品论天涯网

ChatGPT登陆移动端无疑有利于触达更多用户。正如微软所说,“如今有64%的搜索都发生在手机上。”据调研机构Gartner统计,2022年全球电脑出货2.862亿台,手机出货12.8亿部。eK1品论天涯网

另一方面,移动设备厂商也有意引入AI应用为硬件产品增加亮点。据消息,三星电子考虑将其设备上的默认搜索引擎由Google改为必应。三星是目前全球出货量第一的手机厂商,据估计,Google与三星的合同关系到前者近30亿美元的年收入。eK1品论天涯网

不过,以ChatGPT为代表的大模型应用登陆移动端将面临计算资源、网络资源、电量、储存空间和信息安全受限等技术问题。eK1品论天涯网

以大模型的计算需求为例,GPT等模型庞大且计算资源要求高,而手机上没有用来加速AI运算的专业GPU,计算速度远不及电脑,且在移动端运行AI模型需要的大量计算也会迅速耗尽设备电量。eK1品论天涯网

产业端已着手解决这些技术难题,高通、华为致力于实现AI大模型在终端的轻量化部署,Google、腾讯、百度等已将模型压缩技术紧密结合移动端模型部署框架/工具。eK1品论天涯网

3月2日,高通在MWC2023大会发布全球首个运行在Android手机上的StableDiffusion终端侧演示,StableDiffusion模型参数超过10亿,高通利用其AI软件栈对模型进行量化、编译和硬件加速优化,使其成功在搭载第二代骁龙8移动平台的手机上运行。

华为新一代P60系列手机将于5月上线智慧搜图功能,该功能通过对模型进行小型化处理,实现其在端侧轻量化应用。eK1品论天涯网

Google在2018年推出MLKit,核心功能Learn2Compress模型压缩技术结合网络剪枝、量化以及知识蒸馏三项技术,可实现在CIFAR-10图像分类测试任务中生成较NASNet尺寸缩小94倍的轻量化模型,且仍保持90%以上精度。

2018年腾讯推出全球首款自动化深度学习模型压缩框架PocketFlow,2022年百度开源的文心ERNIE-Tiny在线蒸馏方案可得到参数规模仅为原模型0.02%且效果相当的轻量级模型。eK1品论天涯网

华泰证券分析师黄乐平认为,模型压缩技术可在保有大模型原有性能和精度基本不变前提下降低对推理算力的需求,是实现AI大模型在边/端部署的核心技术。伴随模型压缩技术发展,AI将加速与终端设备融合应用。eK1品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]