人工智能

Palmer Luckey:应允许AI在战场上决定谁生谁死

字号+作者:cnBeta.COM 来源:cnBeta 2025-12-08 20:11 评论(创建话题) 收藏成功收藏本文

美国虚拟现实设备公司Oculus创始人、军工科技企业Anduril创办人PalmerLuckey近日在电视访谈中表示,人工智能应被允许在战争中参与生死决策,再次点燃关于'...

美国虚拟现实设备公司Oculus创始人、军工科技企业Anduril创办人PalmerLuckey近日在电视访谈中表示,人工智能应被允许在战争中参与生死决策,再次点燃关于“杀手机器人”的伦理争议。A0x品论天涯网

A0x品论天涯网

Luckey在福克斯新闻频道的节目中表示,在涉及生死抉择的问题上,“道德负担过于沉重、风险过于关键”,因此各国应当不惜一切代价采用最先进的技术,不论是人工智能、量子技术还是其他工具。在他看来,如果战争的目标是尽可能减少平民伤亡和附带损害,那么在打击决策中使用精度更高的系统,反而比坚持“人类掌控一切”的立场更具“道德优越性”。A0x品论天涯网

他指出,关键不是人为给武器系统划定“机器人不能决定谁生谁死”的红线,而是尽可能提升效率和准确性,以减少误伤和错误决策。Luckey直言,选择性能更差的技术,只是为了维护一种“我们从不让机器下杀人命令”的道德姿态,并不能真正带来更高的人道标准。A0x品论天涯网

这一表态与Anduril的业务方向高度一致,该公司自2017年成立以来,一直专注于为军方研发无人机、地面车辆、监视塔台和各类传感器,并通过名为Lattice的人工智能指挥与控制平台将这些硬件整合到统一系统中。公司此前已经展示过包括“自杀式无人机”在内的多种AI军事装备,引发外界对战场“高度自动化”的更多担忧。A0x品论天涯网

2024年底,Anduril宣布与OpenAI建立战略合作伙伴关系,计划在国家安全领域“负责任地部署”先进人工智能技术,首先聚焦反无人机系统等防御性用途,以提升美军在实时探测、评估和应对空中威胁方面的能力。与此同时,科技企业在是否参与军用AI研发上的立场正在悄然松动,例如Google在今年年初悄然删除了此前承诺“不将AI应用于武器等有害用途”的关键表述,促使业界再度讨论科技公司在战争中的角色边界。A0x品论天涯网

A0x品论天涯网

在AI装备不断演进的背景下,外界也更加关注这类技术是否会被引入核武控制体系。2024年5月,美国曾公开承诺,核武器的控制权必须始终由人类掌握,并呼吁中俄做出同样保证,但不久之后五角大楼又表示,希望利用AI来“增强”核指挥、控制和通信系统的能力,这种微妙的表态变化引发了观察人士的警惕。A0x品论天涯网

学界与业界对于让AI接近“核按钮”的设想尤为不安。去年有研究团队使用GPT-4、GPT-3.5、Claude2.0、Llama-2-Chat和GPT-4-Base等多种大模型进行国际冲突情景模拟,结果显示,这些系统在博弈过程中存在明显的升级倾向,有时会在缺乏充分理由和预警的情况下主动选择动用核武,甚至出现类似“既然有这种武器,那就用吧”的激进表述,凸显出将生死决策外包给机器的巨大风险。A0x品论天涯网

随着AI战机、无人集群和自动化防御系统的快速发展,围绕“应否让机器决定人类生死”的讨论正在成为科技伦理与国际安全领域的核心议题之一。PalmerLuckey的表态,既反映出军工科技企业推动自动化战场的强烈意愿,也进一步暴露各国在追逐技术优势与坚守人道底线之间的尖锐矛盾。A0x品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]