英国安全研究所(U.K.SafetyInstitute)是英国最近成立的人工智能安全机构,该机构发布了一个工具集,旨在"加强人工智能安全",使工业界、研究机构和学术界更容易开展人工智能评估。该工具集名为Inspect,采用开源许可(特别是MIT许可),旨在评估人工智能模型的某些能力,包括模型的核心知识和推理能力,并根据结果生成评分。
在周五宣布这一消息的新闻稿中,安全研究所声称,Inspect标志着"由国家支持的机构主导的人工智能安全测试平台首次被广泛使用"。
安全研究所主席伊恩-霍加斯(IanHogarth)在一份声明中说:"人工智能安全测试方面的成功合作意味着要有一个共享的、可访问的评估方法,我们希望Inspect能够成为一个基石。我们希望看到全球人工智能社区利用Inspect不仅开展自己的模型安全性测试,而且帮助调整和构建开源平台,以便我们能够全面开展高质量的评估。"
众所周知,人工智能基准很难制定--其中最重要的原因是,当今最复杂的人工智能模型几乎都是黑盒,其基础设施、训练数据和其他关键细节都被创建这些模型的公司保密。那么,Inspect如何应对这一挑战呢?主要是通过可扩展的新测试技术。
Inspect由三个基本部分组成:数据集、求解器和评分器。数据集为评估测试提供样本。求解器负责执行测试。评分器负责评估求解器的工作,并将测试得分汇总为指标。可以通过用Python编写的第三方软件包来增强Inspect的内置组件。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】