人工智能

股神巴菲特再次示警:AI的危险不亚于核武器

字号+作者:快科技 来源:快科技 2026-01-15 13:19 评论(创建话题) 收藏成功收藏本文

“股神”巴菲特于近期播出的专访中再次对人工智能的快速发展发出警告。他将AI技术带来的巨大不确定性,比作贯穿其整个职业生涯的核心地缘政治隐忧——核'...

“股神”巴菲特于近期播出的专访中再次对人工智能的快速发展发出警告。他将AI技术带来的巨大不确定性,比作贯穿其整个职业生涯的核心地缘政治隐忧——核武器的研发与控制问题。巴菲特在节目中明确指出,当前AI领域的领导者们也无法预知这项技术的最终走向,这种根本上的未知性本身就是最大的风险。2uO品论天涯网

他用哥伦布航海作比:“你可以说‘我不知道自己会到哪里’,因为你随时还能掉头回去。但现在不同了,精灵已经被放出瓶子。”2uO品论天涯网

他进一步援引爱因斯坦对原子弹的评论——它“改变了一切,唯独没有改变人类的思维方式”,以此强调技术飞跃与人类风险认知之间常存在致命脱节。2uO品论天涯网

巴菲特警示,核武器扩散的历史教训同样适用于AI领域。他回顾道,二战时人们以为只有一个国家拥有核武,如今却至少有八个,甚至可能变成九个。2uO品论天涯网

尽管他认为核威胁无法单靠金钱解决,但仍表示,如果有可能消除这一威胁,他愿意毫不犹豫地倾尽所有财富。2uO品论天涯网

作为全球投资界的标杆人物,巴菲特此次深刻的“核隐喻”式警告,预计将引发市场与社会对AI伦理及风险管控更为深入和紧迫的讨论。2uO品论天涯网

2uO品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]