当地时间11月1日,英国主办的首届全球人工智能(AI)安全峰会在英国布莱切利公园拉开帷幕。峰会第一天,包括中国、美国、英国在内的28个国家及欧盟共同签署了《布莱切利宣言》,承诺以安全、以人为本、值得信赖和负责任的方式设计、开发、部署和使用AI。
宣言重点关注两个方面,一是识别共同关注的AI安全风险,建立对这些风险的共同科学和基于证据的理解;二是各国制定各自基于风险的政策,以确保此类风险的安全,酌情开展合作。宣言提到,为推进这一议程,各国决定支持一个具有国际包容性的前沿AI安全科学研究网络,该网络包含并补充现有和新的多边、诸边与双边合作,包括通过现有的国际论坛和其他相关举措,为政策制定和公共利益提供最佳的科学支持。
会议还确认了下一届峰会的主办方。英国数字部长米歇尔·唐兰(MichelleDonelan)宣布之后将再召开两场AI安全峰会,一场于6个月后由韩国主办,另一场将在一年内由法国主办。
据路透社报道,我国科技部副部长吴朝晖在开幕式上称,中国政府愿意加强在AI安全方面的合作,帮助建立一个国际治理框架,秉持相互尊重、平等互利的原则,“国家不分大小,都享有平等开发和利用人工智能的权利……我们呼吁全球合作,分享人工智能知识,并以开源方式向公众提供人工智能技术。”
▲我国科技部副部长吴朝晖
美国商务部长吉娜·雷蒙多(GinaMarieRaimondo)称,美国将成立一个AI安全研究所,以评估所谓“前沿”AI模型的已知和新出现的风险。她在会上发表演讲时称:“我几乎肯定会呼吁学术界和工业界的许多观众加入这个联盟……我们无法单独做到这一点,私营部门必须挺身而出。”
雷蒙多补充说,她还将致力于推动美国研究所与英国安全研究所建立正式的合作伙伴关系,这项新工作将由美国国家标准与技术研究院(NIST)负责。该部门称,此研究所“将促进AI模型安全、保障和测试标准的制定,制定验证AI生成内容的标准,并为研究人员提供测试环境,以评估新兴AI风险并解决已知影响”。
▲美国商务部长雷蒙多
美国副总统卡玛拉·哈里斯(KamalaHarris)当天在伦敦发表演讲,介绍美国政府对AI的应对措施。她的演讲时机受到一些英国高管和立法者的质疑,他们认为哈里斯似乎抢了AI安全峰会的风头。
据两位消息人士透露,哈里斯已邀请多个研究小组与她一起参加周三在伦敦大使馆举行的闭门活动,这意味着一些与会者可能不得不提前离开布莱切利公园的峰会。据报道,哈里斯将在周三晚些时候与苏纳克会面共进晚餐,并将出席周四第二天的峰会。
▲美国副总统哈里斯
英国政府还在峰会上宣布,将投资3亿英镑(约合3.64亿美元)用于构建新的“AI研究资源”,以支持先进AI模型的研究。资金将主要用于建设两台新的超级计算机,分别位于剑桥和布里斯托尔,为研究人员提供比英国目前最大的公共AI计算工具容量大30倍以上的资源。
据称,布里斯托尔的“Isambard-AI”超级计算机将包括来自英伟达的5000个先进AI芯片,由惠普构建;而剑桥的“Dawn”超级计算机将通过与戴尔和英国中小企业StackHPC的合作交付,并由1000多个英特尔芯片提供动力。这些机器将从明年夏天开始运行,将用于分析先进的AI模型以测试安全功能,并推动药物发现和清洁能源方面的突破。
英国首相里希·苏纳克(RishiSunak)在社交媒体平台X上称:“前沿AI模型的力量正在呈指数级增长。这项投资将确保英国的科学人才拥有他们所需的工具,以确保最先进的AI模型的安全。”
▲苏纳克在社交媒体平台X上评论
除了各国政府,一些科技头部企业的高管和研究人员也出席了峰会。
埃隆·马斯克(ElonMusk)称,希望建立一个“第三方裁判”,能够监督AI开发公司并在出现问题时发出警报。他在接受记者采访时说:“我不知道公平的规则是什么,但在进行监督之前,你必须从洞察力开始。”
GoogleDeepmind联合创始人穆斯塔法·苏莱曼(MustafaSuleyman)告诉记者,他并不认为目前的AI前沿模型会造成任何“重大灾难性危害”,但他谈道,随着AI行业训练出越来越大的模型,提前做好规划是有意义的。
结语:28国签署新宣言,推动AI风险管控议程
此次峰会是首届全球性质的AI安全峰会,《布莱切利宣言》的签署有助于推动全球AI风险管理的进程。
前沿AI模型可能带来的风险是不可忽视的,需要立法者、科技企业和国际社会共同监督与合作,确保这项技术能够负责任地造福于所有人。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】