人工智能

新研究发现人工智能搜索工具的平均准确率仅为60%

字号+作者:cnBeta.COM 来源:cnBeta 2025-03-12 07:32 评论(创建话题) 收藏成功收藏本文

人工智能模型可能缺乏准确性,这是不争的事实。对于开发人员来说,产生幻觉和重复错误信息一直是一个棘手的问题。由于用例千差万别,因此很难确定与人工智能'...

人工智能模型可能缺乏准确性,这是不争的事实。对于开发人员来说,产生幻觉和重复错误信息一直是一个棘手的问题。由于用例千差万别,因此很难确定与人工智能准确性相关的可量化百分比。一个研究团队声称,他们现在已经掌握了这些数字。OYm品论天涯网

Tow数字新闻中心最近研究了八个AI搜索引擎,包括ChatGPTSearch、Perplexity、PerplexityPro、Gemini、DeepSeekSearch、Grok-2Search、Grok-3Search和Copilot。他们测试了每种工具的准确性,并记录了工具拒绝回答的频率。OYm品论天涯网

研究人员从20家新闻出版社(每家10篇)随机选择了200篇新闻报道。他们确保每篇报道在使用文章摘录时都能在Google搜索中返回前三个结果。然后,他们在每个人工智能搜索工具中执行相同的查询,并根据搜索是否正确引用了A)文章、B)新闻机构和C)URL来评定准确性。OYm品论天涯网

然后,研究人员根据从"完全正确"到"完全不正确"的准确度给每条搜索贴上标签。从下图中可以看出,除了两个版本的Perplexity外,其他人工智能的表现都不理想。总体而言,人工智能搜索引擎有60%的时间是不准确的。此外,人工智能对这些错误结果的"信心"也强化了这些错误结果。OYm品论天涯网

OYm品论天涯网

这项研究之所以引人入胜,是因为它以量化的方式证实了我们几年前就已经知道的事实--LLM是"史上最狡猾的骗子"。他们以完全权威的口吻报告说,他们所说的都是真的,即使事实并非如此,有时甚至会争辩或在面对质疑时编造其他虚假的断言。OYm品论天涯网

在2023年的一篇轶事文章中,TedGioia(诚实的经纪人)指出了数十条ChatGPT的回复,显示机器人在回复大量询问时自信地"撒谎"。虽然有些例子是对抗性询问,但许多只是一般性问题。OYm品论天涯网

即使承认自己错了,ChatGPT也会在承认错误之后提供更多的虚假信息。LLM似乎被编程为不惜一切代价回答用户的每一个输入。研究人员的数据证实了这一假设,并指出ChatGPTSearch是唯一能回答全部200条文章查询的人工智能工具。不过,它的完全准确率仅为28%,完全不准确的时间占57%。OYm品论天涯网

OYm品论天涯网

OYm品论天涯网


OYm品论天涯网

ChatGPT还不是最差的。X的GrokAI的两个版本都表现不佳,但Grok-3Search的准确率高达94%。微软的Copilot也没好到哪里去,因为它在200次查询中拒绝回答了104次。在剩下的96个查询中,只有16个"完全正确",14个"部分正确",66个"完全错误",因此它的准确率大约为70%。OYm品论天涯网

可以说,这一切最疯狂的地方在于,制造这些工具的公司对这种缺乏准确性的情况并不透明,同时向公众收取每月20到200美元的费用。此外,PerplexityPro(20美元/月)和Grok-3Search(40美元/月)比其免费版本(Perplexity和Grok-2Search)回答的查询正确率略高,但错误率也明显更高(上图)。
OYm品论天涯网

不过,并非所有人都同意这种说法。TechRadar的兰斯-乌拉诺夫(LanceUlanoff)表示,在尝试了ChatGPTSearch之后,他可能再也不会使用Google了。他描述说,该工具快速、清晰、准确,界面简洁、无广告。OYm品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱service@pltyw.com

评论(0人参与,0条评论)
  • 请先说点什么
    热门评论
    最新评论
    正在载入评论列表...

    查看完整讨论话题】 | 【用户登录】 | 【用户注册

    22
    扫二维码添加收藏返回顶部