本月早些时候,Google宣布计划推出Bard,这是一个人工智能,聊天机器人旨在通过自然语言模型帮助用户寻找信息。微软也宣布了新的必应搜索,它自己的聊天机器人结合了微软的技术和OpenAI的技术,后者是ChatGPT背后的公司。
然而,所有这些聊天机器人技术的一个重要方面,这些公司都没有谈及那么多,那就是其运营成本。路透社的一份新报告就这项新技术的这一部分提供了更多信息。它与Alphabet的主席JohnHennessy闲聊时后者表示,使用具有大型语言模型的聊天机器人的运行成本可能是普通搜索的10倍之多。
早在2022年12月,就在ChatGPT推出后,OpenAI的首席执行官SamAltman在Twitter上表示,"计算成本令人瞠目结舌"。这也是它在2月初推出ChatGPTPlus的部分原因,以每月20美元的价格提供更多的功能和更快的性能。
路透社引用了摩根士丹利的一份报告,估计如果像巴德这样的聊天机器人人工智能被投入使用,Google的搜索成本在2024年可能会增加60亿美元。这是假设聊天机器人处理Google一半的搜索,提供包含50个单词的答案的情况下。
当然,这些成本提高的原因是,需要更多的CPU来生成所有这些来自聊天机器人AI的文字与自然声音的答案,这也意味着保持这些服务器工作的电力成本更高。
那么,如何才能降低成本呢?可能发生的一件事是,这些聊天机器人将变得更有效率,从而降低运营成本,但目前还不清楚这对降低价格有多大作用。另一个解决方案是,Google和微软可以在聊天机器人的回答中显示广告链接,这将产生收入,补偿这些服务器的运行成本。
另一个解决方案是ChatGPT已经在做的事情;提供订阅服务,用户可以获得更快和更好的聊天机器人答案。这种选择可能是Google和微软的最后手段。随着越来越多的用户使用这些新的人工智能驱动的搜索服务,他们将不得不弄清楚成本是否会下降到足以让这些公司的财务底线在经济上可行。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】