本周晚些时候,人工智能安全峰会将在韩国首尔拉开帷幕,在此之前,峰会的共同主办国英国正在扩大自己在这一领域的努力。人工智能安全研究所(AISafetyInstitute)是英国于2023年11月成立的一个机构,其雄心勃勃的目标是评估和解决人工智能平台的风险。
访问:
湾区是OpenAI、Anthropic、Google和Meta等公司开发人工智能基础技术的所在地。
基础模型是生成式人工智能服务和其他应用的基石,有趣的是,虽然英国已经与美国签署了谅解备忘录,两国将在人工智能安全方面开展合作,但英国仍然选择在美国投资建立自己的直接机构来解决这一问题。
英国科学、创新和技术大臣米歇尔-多纳兰(MichelleDonelan)在接受采访时说:"通过在旧金山派驻人员,可以让他们接触到许多人工智能公司的总部。其中一些公司在英国本土设有基地,但我们认为在那里设立基地也非常有用,可以接触到更多的人才库,并能与美国开展更多的合作,携手共进。"
部分原因在于,对英国来说,更接近行业核心不仅有助于了解正在建设的项目,还能让英国在这些公司中拥有更高的知名度--这一点非常重要,因为英国将人工智能和技术整体视为经济增长和投资的巨大机遇。
鉴于OpenAI最近围绕其"超级对齐"团队发生的戏剧性事件,在这里设立办事处显得尤为及时。
人工智能安全研究所成立于2023年11月,目前规模相对较小。如果考虑到建立人工智能模型的公司所面临的数十亿美元投资,以及这些公司将其技术推广应用到付费用户手中的经济动机,那么该机构目前仅有32名员工,对于人工智能技术领域的歌利亚来说,是名副其实的"大卫"。
本月早些时候,人工智能安全研究所发布了第一套用于测试基础人工智能模型安全性的工具--Inspect。
多纳兰今天称这次发布是"第一阶段"的努力。事实证明,迄今为止,为模型设定基准不仅具有挑战性,而且目前的参与在很大程度上是一种选择性的、不一致的安排。正如一位英国监管机构的资深人士所指出的,公司目前没有法律义务对其模型进行审核;而且并非每家公司都愿意在模型发布前对其进行审核。这可能意味着,在可能发现风险的情况下,马可能已经跑了。
多纳兰说,人工智能安全研究所仍在研究如何以最佳方式与人工智能公司接触,对其进行评估。"我们的评估流程本身就是一门新兴科学,因此,在每一次评估中,我们都将开发流程,使其更加精细。"
多纳兰说,在首尔的一个目标是向参加峰会的监管机构提交检查报告,希望他们也能采纳。"现在我们有了一个评估系统。第二阶段还需要在全社会范围内确保人工智能的安全,"她说。
从长远来看,多纳兰认为英国将制定更多的人工智能立法,不过,英国首相苏纳克(RishiSunak)也表示,在更好地了解人工智能风险的范围之前,英国不会这么做。
该研究所最近发布的国际人工智能安全报告主要侧重于试图全面了解迄今为止的研究情况,"我们不相信在我们正确掌握和充分了解之前就立法,"她说,"报告强调,目前还存在很大的差距,我们需要在全球范围内激励和鼓励更多的研究。"
"在英国,立法也需要一年左右的时间。如果我们一开始就开始立法,而不是[组织][去年11月举行的]人工智能安全峰会,我们现在可能还在立法,而实际上我们不会有任何成果。"
人工智能安全研究所主席伊恩-霍加斯(IanHogarth)说:"从研究所成立的第一天起,我们就清楚地认识到,在人工智能安全、共享研究成果以及与其他国家合作测试模型和预测前沿人工智能风险等方面采取国际化方法的重要性。今日的进展标志着一个关键时刻,使我们能够进一步推进这一议程,我们很自豪能够在一个科技人才迸发的地区扩大我们的业务,为我们在伦敦的员工从一开始就带来的令人难以置信的专业知识锦上添花。"
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】