中国经济网北京7月8日讯(记者李方) OpenAI即将于7月9日起终止对中国提供API(应用程序编程接口)服务,国内凡是调用OpenAI API的大模型公司将受重大影响?实际上并非如此。连日来,国内大模型厂商反应迅速,纷纷为开发者提供“免费”或“一键式”搬迁计划。不少人第一反应觉得“糟了”,但记者采访一些业内人士,他们却认为此举将更有利于中国AI的发展,那么,此事到底会产生怎样的影响呢?
OpenAI“停服”未产生明显影响
6月25日,OpenAI通过电子邮件通知位于中国的开发者,从7月9日起,将阻止来自非支持国家和地区的API。要继续使用OpenAI的服务,必须在支持的国家或地区内访问。其实,目前OpenAI的API向161个国家和地区开放,中国原本就未在其中。
事实上,OpenAI官方此前也并未向中国市场提供服务,至今也没有向中国用户直接开放注册和使用。据媒体报道,目前使用OpenAI的能力主要有两个主流渠道,一是对接OpenAI官方提供的API;二是对接微软Azure提供的OpenAI能力。此前在国内对接OpenAI官方提供的API使用OpenAI能力,就始终面临着随时被封禁的可能,“出于个人兴趣的开发者可以这么做,但企业这么做的话,风险就会比较高。”
那么,OpenAI“停服”,影响到底有多大?网易有道CEO周枫告诉中国经济网记者,“直接从行业来说影响不大,标准的大语言模型国内水平提升很快,不管是纯文字还是多模态都已经能基本满足大部分应用的需要。当然,OpenAI创新能力强大,国内公司还需要继续发奋图强。”
“目前没有观察到此举对国内AI行业带来实际影响。反过来,如果国内之前可以正常使用ChatGPT和OpenAI的API,那么封禁就会有很大影响。”月之暗面Kimi相关负责人向中国经济网记者表示,“面向普通用户,ChatGPT原本在国内就无法访问,这方面没变化;面向开发者,OpenAI的API也是同样的情况,但过去管得不严,现在会严一些。我们没有观察到Kimi的用户或开发者受到了相关信息的明显影响。”
工信部信息通信经济专家委员会委员盘和林告诉记者,“其实OpenAI一直对中国设限,这次只是将限制延伸到了API接口,使得一些本质上是ChatGPT的国内AI工具无法使用,从整体上看,此举对中国大模型独立自主、自立自强是件好事。”
有分析认为,国内部分将OpenAI技术“包装”成自己产品的“套壳”应用,或将受到此事波及。对此,360集团创始人周鸿祎在个人视频号中表示,现在国内几家大厂的大模型应用API在调用方式上完全兼容OpenAI,而且近期调用API的成本急剧下降,所以国内一些应用可以直接切换到国产大模型;其次,做企业级应用的厂商或创业者更不会受影响,因为他们不会用OpenAI给中国政府和企业提供服务,现在国内开源大模型都可以本地私有化部署,可以定制成专业大模型、场景大模型,在专门的政企场景上精心微调,配用内部独有的业务数据,在能力上要远超GPT-4,响应速度更快,还能保证数据安全。
“据我了解,国内在早期大模型训练时,会用OpenAI来生成一些微调的数据,相当于把OpenAI GPT-4的能力‘蒸馏’到国内本地大模型里,但这是在大模型发展早期。现在大模型的很多训练方法、数据、工具都已经发展非常成熟了,这样做的厂商应该也不太多了。”周鸿祎说。
国产大模型快速响应集体邀约
当OpenAI通过一封信明确提出“停服”日期时,国产大模型厂商快速响应,纷纷发出“搬家”邀约,集体上演花式抢用户。
6月25日,腾讯云宣布,即日起至2024年7月31日24时,将为新迁移企业用户免费赠送1亿腾讯混元大模型tokens,并提供免费专属迁移工具和服务。腾讯混元大模型是由腾讯全链路自研的通用大模型,拥有超万亿参数规模。目前,腾讯云提供混元Pro、Standard、Lite等多个不同版本和尺寸的模型。
同日,百度智能云千帆推出大模型普惠计划,即日起为新注册企业用户提供0元调用,在2024年7月25日24点前适用,包括文心旗舰模型首次免费,赠送ERNIE3.5旗舰模型5000万Tokens包,主力模型ERNIE Speed/ERNIE Lite和轻量模型ERNIE Tiny持续免费;针对OpenAI迁移用户额外赠送与OpenAI使用规模对等的ERNIE3.5旗舰模型Tokens包;还提供免费模型精调训练服务、零成本SDK迁移工具等。
阿里云百炼宣布,为中国开发者提供2200万免费tokens和专属迁移服务。通义千问GPT4级主力模型Qwen-plus在阿里云百炼上的调用价格为0.004元/千tokens,仅为GPT-4的50分之一。
除了头部大厂,初创企业也迅速抛出橄榄枝,争夺这波流量。月之暗面提到,Kimi开放平台接口完全兼容OpenAI,最快5分钟实现丝滑“搬家”。此外,在前一阵大模型“价格战”之下,kimi提出了增效方案,其正在公测的新技术——上下文缓存技术(Context Caching),将降低开发者使用长文本旗舰大模型的成本,最高可降本达90%。
从实际来看,就ChatGPT这一toC产品而言,国内用户本身也无法从常规渠道访问;对企业而言,面对逐渐加深的技术封锁形势,应该早有心理准备及应对方案。盘和林指出,国内大模型的发展,下一步的重点依然是突破算力技术的瓶颈,要将GPU等技术牢牢掌握在自己手中,并完善算力生态,才能让中国大模型的底层技术不再受制于人。
总之,今年以来我国人工智能行业发展提速,不少国产大模型的能力已逐步接近世界领先水平。我国拥有超大的市场规模和丰富的应用场景,这将为大模型落地应用提供广阔的市场空间。当OpenAI变为“CloseAI”时,可以预见的效果是,倒逼国产大模型企业把自强自立发展的加速踏板“踩到底”。
(责任编辑:王婉莹)
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】