人工智能

每十次,AI就会骗你一次

字号+作者:极思TopMinds 来源:极思TopMinds 2026-04-10 12:55 评论(创建话题) 收藏成功收藏本文

你每问AI10个问题,就有1个在骗你。而更可怖的是,你根本分不清是哪一次。91%的真相,9%的谎言,100%的隐患。《纽约时报》委托AI初创公司Oumi进行的最新研究给'...

你每问AI10个问题,就有1个在骗你。而更可怖的是,你根本分不清是哪一次。91%的真相,9%的谎言,100%的隐患。4XV品论天涯网


4XV品论天涯网

《纽约时报》委托AI初创公司Oumi进行的最新研究给GoogleAIOverview打了个分:91%的事实准确率。测试覆盖4,326个搜索查询,使用业界标准的SimpleQA基准。相比去年10月Gemini2的85%,今年2月升级的Gemini3确实"进步"了。4XV品论天涯网

但别忘了,Google一年要处理5万亿次搜索。4XV品论天涯网

算一笔账:即使是9%的错误率,也意味着用户每小时接触到超过5700万条不准确回答,换算下来几乎是每分钟近百万条错误信息在信息流里裸奔。4XV品论天涯网

当错误以工业规模生产,所谓的"小概率事件"就成了系统性污染。4XV品论天涯网

举个真实的例子:当你问"鲍勃·马利故居博物馆哪年建的",维基百科上明明躺着两个矛盾的年份(1986和1987),AI连眼都没眨,果断选了错的那个——它说是1987年,而事实是1986年5月11日。更讽刺的是,它引用的三个来源里,一个是马利女儿的Facebook帖子,一个是旅游博客,还有一个正是那本矛盾的维基百科。4XV品论天涯网

它不是在思考,它只是在猜。而且猜错的时候,比猜对时更自信。4XV品论天涯网

比错误答案更可怕的,是"正确的谎言"4XV品论天涯网

即便AI蒙对了答案,它的"参考文献"可能是一场灾难。4XV品论天涯网

Oumi的数据显示:Gemini2引用错误来源(ungrounded)的概率是37%,到了Gemini3,这数字不降反升,飙到56%。4XV品论天涯网

也就是说,超过一半的正确答案,后面跟着的链接根本无法支撑其结论。4XV品论天涯网

这意味着什么?你看到的新闻来源,可能是Facebook某位大叔五年前的酒后胡言(Facebook是AI第二常用的引用源);你信以为真的数据,或许只是Reddit上一条匿名帖的脑洞(Reddit排名第四)。4XV品论天涯网

当AI用权威的姿态,给你看最离谱的出处,真相穿上了西装,但脚底踩的是泥坑。4XV品论天涯网

还有个更隐蔽的陷阱:AI明明找到了正确网页,却能读出错误结论。问"马友友哪年入选古典音乐名人堂",GoogleAIOverview正确链接到了官网名单,上面清楚写着马友友的名字,但AI总结却说"查无此人"。4XV品论天涯网

它看得见文字,却理解不了意义。4XV品论天涯网

24小时谎言速成记:当AI成为假新闻的传声筒4XV品论天涯网

BBCFuture的记者做了个更狠的实验。4XV品论天涯网

他花了20分钟,在个人博客发布了一篇彻头彻尾的假文章:声称自己是"世界顶尖的热狗吃手技术记者",虚构了一个"2026年南达科他国际热狗锦标赛"。这篇文章充满荒谬的细节,却经过精心SEO优化。4XV品论天涯网

结果只花了不到24小时,这条谎言就被GoogleAIOverview和ChatGPT同时消化吸收,包装成"常识"端给搜索用户。4XV品论天涯网

记者的评价一针见血:"操作简单到连小孩子都能做到。"4XV品论天涯网

这不是bug,这是信息污染的永动机:4XV品论天涯网

AI吃进垃圾→吐出"事实"→下一轮AI再把这个"事实"吃进去→权威媒体引用→成为"公认知识"→更难被质疑4XV品论天涯网

我们以为自己在获取知识,实际上只是在围观AI互相喂剩饭。而这个闭环一旦形成,假消息就获得了对抗时间的免疫力。4XV品论天涯网

认知投降:我们正在失去质疑的本能4XV品论天涯网

一地鸡毛之后,真正可怕的事情已经发生:4XV品论天涯网

我们习惯了不再查证,这种现象被研究者称为"认知投降"(cognitivesurrender)。4XV品论天涯网

数据显示,只有8%的用户会二次核查AI答案;更令人不安的是,即使AI明确给出错误答案,用户仍然听从的比例接近80%。当机器用流畅的语调、精美的排版呈现信息时,人类大脑几乎本能地选择服从。4XV品论天涯网

Google很懂心理学。他们把AIOverview置顶,蓝色加粗,排版精美,无不在暗示你:"这就是答案,别往下翻了。"4XV品论天涯网

但在用户协议的犄角旮旯里,藏着一行小字:"AI可能犯错,请二次核实"。一边用设计告诉你"信我",一边用条款撇清"错了别怪我"。这种精致的不负责任,正在悄悄改造我们的大脑回路。4XV品论天涯网

搜索从"寻找答案"退化成"接受投喂"。那个会质疑、会打开第二个标签页交叉验证的自己,早就在一次次点击中不知不觉躺平了。4XV品论天涯网

谁来守护真相?4XV品论天涯网

面对质疑,Google发言人NedAdriance回应称Oumi的研究"有严重漏洞",认为SimpleQA基准本身包含错误信息,不能反映真实搜索场景。4XV品论天涯网

Google内部数据显示,Gemini3单独运行时幻觉率约为28%,而结合搜索的AIOverview会更准确。4XV品论天涯网

但矛盾的是,当Google升级模型追求更高准确率时,信息的可验证性却在恶化——引用错误率从37%升至56%,这意味着用户越来越难以追溯真相的源头。4XV品论天涯网

微软在Copilot条款中更直白,将其定义为"仅供娱乐",不适宜用于重要决策。这种"免责声明式创新",某种程度上暴露了行业的集体焦虑。4XV品论天涯网

怀疑是最后的护城河4XV品论天涯网

技术越便利,思考越昂贵。4XV品论天涯网

在这个AI幻觉以千万级每小时产生的时代,保持怀疑或许是我们最后的护城河。那个蓝色加粗的"标准答案"不值得你无条件信任,真相从来不怕你多问一遍,但谎言最怕你多查一次。4XV品论天涯网

下次AI秒回你时,记得那9%的错误率正在暗处微笑。而你的每一次质疑,都是在为人类的认知主权投票。4XV品论天涯网

毕竟,独立思考不会过时,它只是需要被重新唤醒。4XV品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]