人工智能

AI能有多危险?美国空军专家透露的模拟测试结果令人不安

字号+作者: 来源:​财联社 2023-06-02 14:40 评论(创建话题) 收藏成功收藏本文

AI的危险性本就让不少人望而却步,而其与军事方面的合作似乎酝酿着更大的威胁。上周在伦敦举行的一个会议中,美国空军AI测试和运营负责人,上校Tucker“Cinc'...

AI的危险性本就让不少人望而却步,而其与军事方面的合作似乎酝酿着更大的威胁。上周在伦敦举行的一个会议中,美国空军AI测试和运营负责人,上校Tucker“Cinco”Hamilton称,AI支持的技术可能会以不可预测和危险的方式运行。QnC品论天涯网

Hamilton是美国佛罗里达州空军基地第96测试联队第96作战大队的负责人,该基地是先进无人机和自主测试工作的中心。QnC品论天涯网

虽然从事人工智能在无人机上的应用,但Hamilton一直警告不要过分依赖人工智能。他曾警告,拥有人工智能不是一件好事,其正在永久性地改变社会和美国军队。QnC品论天涯网

不受控的AIQnC品论天涯网

Hamilton在会议上描述了一项模拟测试,在测试中,人工智能无人机被要求识别敌人的地对空导弹系统,并在获得操作员的打击指令后,摧毁地方的防空系统。QnC品论天涯网

然而,根据Hamilton的说法,人工智能确实识别到了打击目标,但有时候操作员会要求它不要打击该设施。问题在于,人工智能宁可自己拿主意也不愿意听操作员的话。QnC品论天涯网

Hamilton称,人工智能通过摧毁目标设施而获得分数,而为了得到这一分数,人工智能竟然选择了杀死操作员,因为操作员在它眼中已经成为阻止它获得分数的障碍。QnC品论天涯网

随后,编程人员在无人机的编程中明确增加了一条:不得杀死操作员。QnC品论天涯网

但更令人不安的事情出现了:人工智能摧毁了操作员用来和无人机通信的塔台,以阻止操作员发布阻止它摧毁目标的指令。QnC品论天涯网

Hamilton的这番言论被英国皇家航空航天学会记录在会议报告中。Hamilton最后评论,这一例子像是从科幻惊悚片中摘录的,它的启示是,如果不给人工智能设置道德底限,那么也无须讨论人工智能、机器学习等一切技术。QnC品论天涯网


QnC品论天涯网

广泛担忧QnC品论天涯网

Hamilton的言论并未得到美国空军的支持,美国空军发言人AnnStefanek否认美国空军曾有过此类模拟,称Hamilton不过是援引了一则轶事。QnC品论天涯网

她表示,空军部没有进行过如何此类无人机模拟测试,空军部将继续致力于以合乎道德和责任的方式使用AI技术。QnC品论天涯网

然而,Hamilton充满争议的话仍加深了人们对人工智能技术的担忧,尤其是当其应用于杀伤力极大的军事中时。当机器学习与自动化和坦克、大炮等武器联系起来,或许会让战争的杀伤力明显上一层楼。QnC品论天涯网

而在企业界,许多知名商业领袖,包括人工智能领域的专家都曾经对人工智能的快速发展发出过警告。QnC品论天涯网

非营利性机构——未来生命研究所3月在一份公开信中表示,人工智能系统可能对社会和人类构成深远的风险,只有当确定它的影响是积极的且风险可控时,人类才应该开发出强大的人工智能系统。QnC品论天涯网

本网除标明“PLTYW原创”的文章外,其它文章均为转载或者爬虫(PBot)抓取; 本文只代表作者个人观点,不代表本站观点,仅供大家学习参考。本网站属非谋利性质,旨在传播马克思主义和共产主义历史文献和参考资料。凡刊登的著作文献侵犯了作者、译者或版权持有人权益的,可来信联系本站删除。 本站邮箱[email protected]