英国与南韩21至22日共同举办人工智能(AI)安全峰会。英国政府表示,已有来自北美、欧洲、中东、亚洲等16家企业签署与AI科技研发有关的安全承诺,其中包括中国企业“智谱AI”。英国政府寻求在AI安全国际规范和技术标准扮演领导角色,促进在“严加管制”和“自由放任”两种AI安全管控策略之间取得平衡,并成立全球第一所“AI安全研究院”(AISafetyInstitute),通过预先取得业界开发中产品等方式,实际测试评估各类新AI模型和工具的能力及风险,以协助增进各国对AI安全的理解。
去年11月,英国召开首届全球AI安全峰会,有近30个国家的官方代表,以及超过80个学术研究机构、企业和公民组织与会。今年5月,英国与南韩合办在线峰会,规模较小,下一场实体峰会则由法国主办,明年召开。
根据英国科学创新暨科技部(DSIT)释出的资料,峰会尚未正式展开,已有16家AI科技企业签署安全承诺,要点包括不得发展或部署安全风险无法获充分缓解的AI模型或系统、建立可供问责的安全管理架构,以及向大众揭露各企业对前沿AI(frontierAI)科技安全的应处策略。
这16家签署“前沿AI安全承诺”(FrontierAISafetyCommitments)的企业包括OpenAI、亚马逊(Amazon)、Google(Google)及其旗下DeepMind、Meta、马斯克(ElonMusk)去年创办的xAI、微软(Microsoft)、IBM。
另外还有三星电子(SamsungElectronics)、Anthropic、InflectionAI、MistralAI、Cohere、G42、Naver、智谱AI、阿拉伯联合酋长国的“科技创新研究院”(TechnologyInnovationInstitute)等。
英国科技部指出,这16家企业名单包含AI两大强权:美国和中国。
科技部表示,这些企业将各自发布AI安全框架,向大众说明未来将如何测算自家前沿AI模型的安全风险,包括遭恶意行为者滥用的风险,以及各家企业对安全风险的最高容忍极限为何、如何确保AI模型的安全风险不会超越此预设门坎。
在极端情况下,若企业在采取补救措施后,仍未能将AI模型或系统的安全风险保持在门坎以下,则不得继续发展或进一步部署该模型或系统。
英国科技部指出,在订定前沿AI安全风险门坎时,相关企业已承诺将寻求“受信任行为者”的意见,包括本国政府(前提为若情况适当)。
根据议程,英国首相苏纳克(RishiSunak)和南韩总统尹锡悦,以及英国科技大臣唐萃兰(MichelleDonelan)和南韩科技部长李宗昊将在21和22日分别共同主持一场高阶会议。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】