每当先进的技术在拓展人们能力的同时,也会带来极大的安全风险。就人工智能的战争应用问题而言,就存在着不少隐患挑战,必须引起我们高度关注。
竞争性风险。鉴于人工智能技术在军事领域的广阔应用前景,一些国家陷入人工智能军备竞赛的可能性在不断上升。特别是人工智能技术在发展过程中,技术还不够强大,很难保证系统的稳健性和可预测性。然而,即便如此,人们仍会坚持采取一些看似风险很大的举措,其重要原因在于人工智能系统将有助于夺取战略优势,没有哪个大国敢冒落后于对手的风险,这就陷入了“囚徒困境”。
可靠性风险。战争环境复杂、变化迅速,对人工智能系统的环境适应性提出了很高要求。在战场上多方部署的人工智能系统会使环境更加复杂化,多个系统的解析力冲突,会进一步加剧系统的脆弱性,增加事故和失误的可能性。可靠性也不仅仅是系统设计的问题,战争是竞争性行为,入侵和破坏潜在敌人的系统是常态。以大数据为基础的人工智能算法在有毒数据面前仍然很脆弱。
自主性风险。随着人工智能的不断发展并在军事领域的广泛运用,战术制定到战略决策,人的监督作用存在极大弱化甚至退出的可能。可以设想,完全自动化的战场,战争一经打响,人工智能系统会迅速锁定从导弹发射井到航空母舰等不同目标,然后设计出快速而精确的打击方式。由于人工智能缩短了战争决策流程,对手做出反应和决策的时间更加短暂。为避免在战争中陷入被动,先发制人的倾向性大大提升,战略稳定面临巨大风险。战略决策自主化因各种因素造成的误判更会带来毁灭性的结果。
多元化风险。人工智能的介入,会让武器和战争越来越多元,各种无人装备包括人工智能虚拟武器将会层出不穷。在万物互联的物联网社会,各种民用设备都有可能被改造为武器装备。无人系统集群作战的相对低成本、拥有大量智能化无人装备系统军队的低伤亡,将会深刻改变战争的成本收益对比,极大地降低战争门槛。无人水下航行器、无人飞行器、临近空间飞行器、网络空间智能化软件,都是基于算法进行自主控制,其攻防界限、侦打界限更加模糊,有可能被对手误解为是直接攻击,引发战争冲突的可能性也将大大增加。
扩散性风险。同其他与国家安全密切相关的技术相比,人工智能技术可通过商用、民用不断得到研发和升级。而且由于人工智能更多体现在软件而非硬件中,其研究平台更加广泛,获取途径更为多元,跟踪和控制的难度也成倍加大。人工智能武器在全球网络上的扩散,相当于带有放射性的物质分布在世界各地。恐怖主义分子通过无人装备形成行动的突然性和产生的破坏力更加难以预料,势必会引起法律、伦理等多方面的问题。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】