人工智能

揭秘AI推理,它真能像人一样思考吗?

字号+作者:凤凰网科技 来源:凤凰网科技 2025-03-27 15:21 评论(创建话题) 收藏成功收藏本文

眼下,DeepSeek、OpenAI等国内外公司都在纷纷推出推理大模型。和基础模型不同的是,推理模型要先花时间对复杂问题进行“思考”,然后再给出答案。那么,AI真的'...

眼下,DeepSeek、OpenAI等国内外公司都在纷纷推出推理大模型。和基础模型不同的是,推理模型要先花时间对复杂问题进行“思考”,然后再给出答案。那么,AI真的能够像人类那样进行推理吗?对于一台计算机而言,思考意味着什么?这些系统真的正在朝着真正的智能发展吗?ZFD品论天涯网


ZFD品论天涯网

DeepSeekR1推理模型ZFD品论天涯网

《纽约时报》周三发文,对AI模型的推理原理、它与早期模型的区别等问题进行了汇总解答。ZFD品论天涯网

何为AI推理?ZFD品论天涯网

推理仅仅意味着聊天机器人花费额外的时间解决问题。ZFD品论天涯网

“推理是指系统在问题提出后还要做额外的工作,”加州大学伯克利分校的计算机科学教授、AI创业公司ScaledCognition首席技术官丹·克莱因(DanKlein)表示。ZFD品论天涯网

在这一过程中,AI可能会将一个问题分解为一个个单独的步骤,或者尝试通过反复试验来解决它。以ChatGPT为例,最早版本会立即回答问题。新的推理系统在回答前则要花费几秒钟,甚至几分钟的时间来解决问题。ZFD品论天涯网

在某些情况下,AI推理系统会对问题的处理方法进行优化,反复尝试改进它选择的方法。其他时候,它可能会尝试几种不同的解决方法,然后选定其中之一。或者,它可能会回头检查几秒钟前做的某些工作,以确认是否正确。ZFD品论天涯网

总体来说,推理系统会尽一切努力回答你的问题。这有点像一名在解决数学问题时遇到困难的小学生,他会在纸上潦草地写上几种不同的解法。ZFD品论天涯网

什么问题需要推理?ZFD品论天涯网

AI可能会对任何问题进行推理,但是在涉及数学、科学和计算机编程的问题时,推理的效果最佳。ZFD品论天涯网

推理模型与早期模型有何不同?你可以要求早期的聊天机器人向你展示它们是如何得出某个特定答案的,或者要求它们检查自己的工作,因为老版ChatGPT是利用互联网上的文本进行学习训练的,人们会在这些文本中展示自己是如何得出答案或者检查自己工作的,所以聊天机器人也能进行这种自我反思。ZFD品论天涯网


ZFD品论天涯网

ChatGPTZFD品论天涯网

但是,推理系统的能力则更为强大。它能够自行完成这类任务,无需他人指使。而且,它还能以更广泛、更复杂的方式完成这些任务。ZFD品论天涯网

企业之所以将它称之为推理系统,是因为它的运作方式感觉就像是一个人在思考棘手的问题。ZFD品论天涯网

为什么AI推理现在变得重要了?ZFD品论天涯网

OpenAI等公司认为,这是改进其聊天机器人的最佳方式。ZFD品论天涯网

多年来,这些公司一直信奉一个简单的理念:喂给聊天机器人的互联网数据越多,它的的性能就越好。ZFD品论天涯网

但是到了2024年,它们几乎用尽了互联网上的所有文本数据。这意味着它们需要一种新的方法来改进聊天机器人。因此,它们开始构建推理系统。ZFD品论天涯网

如何构建推理系统?ZFD品论天涯网

去年,像OpenAI这样的公司开始大力依赖一种叫做强化学习的技术。ZFD品论天涯网

强化学习的过程可能持续数月之久。借助这一过程,AI系统可以通过大量反复试验学习行为。例如,在解决成千上万的数学问题后,它可以学会哪些方法能得到正确答案,哪些不能。ZFD品论天涯网

研究人员设计了一套复杂的反馈机制:当系统做对了某件事时,给它反馈;做错了时,告诉它哪里出错了。ZFD品论天涯网

“这有点像训练狗,”OpenAI研究员杰里·特沃雷克(JerryTworek)表示,“如果系统表现好,就奖励它一块饼干。如果表现不好,就说‘坏狗狗’(惩罚或提醒它)。”ZFD品论天涯网

强化学习管用吗?ZFD品论天涯网

它在某些领域非常有效,比如数学、科学和计算机编程。在这些领域,企业能够清晰地定义好的行为和坏的行为。数学问题有明确的答案。ZFD品论天涯网

然而,强化学习在创意写作、哲学和伦理学等领域的表现不佳,因为在这些领域,好坏的标准往往更加难以确定。研究人员表示,即使是在回答数学和科学之外的问题时,这一过程也通常能改善AI系统的表现。ZFD品论天涯网

“它逐渐学会了哪些推理模式能引导它走向正确的方向,哪些不能。”AI创业公司Anthropic首席科学官贾里德·卡普兰(JaredKaplan)表示。ZFD品论天涯网

强化学习和推理系统是一回事吗?ZFD品论天涯网

不是。强化学习是企业用于构建推理系统的方法。它是最终能让聊天机器人具备推理能力的训练阶段。ZFD品论天涯网

推理系统仍会犯错吗?ZFD品论天涯网

当然会。聊天机器人的一切都是基于概率做出的。它在决策时会选择与其数据学习内容最相似的一条路径,不管这些数据是来自互联网还是通过强化学习生成的。有时它会选择一个错误或不合逻辑的选项。ZFD品论天涯网

它能帮助机器达到人类智力水平吗?ZFD品论天涯网

AI专家对此看法不一。这些方法仍然相对较新,研究人员仍在努力理解它们的局限性。在AI领域,新的方法通常开始时进展很快,然后就会放慢速度。ZFD品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱service@pltyw.com

8
扫二维码添加收藏返回顶部