OpenAI提出“众包”AI监管:希望有一个“具有广泛代表性”的人群交换意见,参与“深思熟虑”的讨论,并最终通过透明的方式决定结果。欧盟数字政策负责人蒂埃里·布雷顿与Google首席执行官桑德尔·皮查伊讨论了引入“人工智能公约”——一套非正式的指导方针,供人工智能公司在正式规则生效之前遵守。
人类历史上可能没有哪个行业的企业这么急于让自己被监管。
在美国国会听证会上呼吁设立新机构监管AI后,OpenAI首席执行官山姆·奥特曼(SamAltman)又展开欧洲之旅,面见各国政府首脑,并在高校参加对话活动,重申监管建议。在接受媒体采访时,他警告称,因为欧盟正在制定的AI法规,OpenAI可能会从欧洲市场撤出其服务。
其他科技大企业也不甘示弱。当地时间5月25日,微软总裁布拉德·史密斯(BradSmith)在华盛顿与美国议员一起主持了一场备受瞩目的活动,推出了微软关于政府应该如何监管AI的建议。
前一天,Google首席执行官桑德尔·皮查伊(SundarPichai)在布鲁塞尔与欧盟官员会晤讨论AI政策,他强调,需要对技术进行适当监管且不会扼杀创新。
奥特曼对“对齐”持乐观态度
当地时间5月24日,为了观看奥特曼的对话活动,伦敦大学学院(UniversityCollegeLondon)排起了数百人的队伍。等待者在阳光下讨论OpenAI公司和使用ChatGPT的经历,少数抗议者在大门前发出严厉警告:OpenAI和类似的公司需要停止开发先进的AI系统,否则他们会伤害人类。
OpenAI首席执行官山姆·奥特曼举行对话活动的伦敦大学学院外,有人举牌抗议,反对通用人工智能
抗议者之一、牛津大学研究太阳能地球工程和生存风险的学生吉迪恩·富特曼(GideonFuterman)告诉科技媒体TheVerge记者,“他正在炒作具有足够已知危害的系统。无论如何,我们可能应该阻止他们。”
不过,奥特曼走上讲台时还是受到了热烈的欢迎。他在对话中重申了之前的论点,称人们担心AI是对的,但AI的潜在好处要大得多。他对监管的前景表示欢迎,但仅限于正确的监管方式。他说,希望看到“介于传统欧洲方法和传统美国方法之间的东西”,也就是说,有点监管,但不要太多。他强调,太多的规则可能会损害小公司和开源运动。
奥特曼提到了错误信息的话题,称他特别担心AI系统在传播错误信息时的“互动、个性化、说服能力”。与他对话的作家阿泽姆·阿扎尔(AzeemAzhar)提出,AI系统可能会冒充人工语音呼叫某人。奥特曼说:“我认为这将是一个挑战,而且还有很多工作要做。”
但是,奥特曼相信即使是目前的AI工具也会减少世界上的不平等现象,并且“在这场技术革命的另一端将会有更多的工作机会”。“我认为世界的基本模型是,智力成本和能源成本是两种有限的投入……如果你能让这些东西变得更便宜、更容易获得,那么坦率地说,这对穷人的帮助要大于对富人的帮助。”他说,“这项技术将提升整个世界。”
奥特曼对科学家通过“对齐”控制日益强大的AI系统的能力持乐观态度。“我们有很多想法,我们已经发表了关于超级智能系统对齐方式的想法,但我相信这是一个技术上可以解决的问题。”他说,“而且我现在对这个答案感到比几年前更有信心。有一些我认为不是很好的路径,我希望我们避免这些。但老实说,我对事情目前的发展轨迹相当满意。”
对欧盟的人工智能法案有很多担忧
到目前为止,奥特曼在这趟欧洲之行中已经与法国总统马克龙、英国首相苏纳克、波兰总理莫拉维茨基和西班牙首相桑切斯举行了会晤。目的似乎是双重的:平息因ChatGPT引起的对AI的恐惧,并在AI监管的对话中取得主动权。
OpenAI首席执行官山姆·奥特曼在法国与法国总统马克龙会晤
OpenAI首席执行官山姆·奥特曼与英国首相苏纳克、DeepMind首席执行官DemisHassabis等人在伦敦会晤
在接受媒体采访时,奥特曼说,他对欧盟的人工智能法案有“很多担忧”。
该法案目前正在由立法者最终确定,其条款在最近几个月得到了扩展,其中包括OpenAI等“基础模型”开发者的新义务。草案中的一项规定要求基础模型的创建者披露有关其系统设计的详细信息,包括“所需的计算能力、训练时间以及与模型大小和功率相关的其他相关信息”,并提供用于训练的受版权保护的数据摘要。ChatGPT和DALL-E等生成式AI系统使用从网络上抓取的大量数据进行训练,其中大部分数据受版权保护,当公司披露这些数据来源时,会面临法律挑战。
据《时代》杂志报道,奥特曼表示,人们担心的是,根据欧盟立法,ChatGPT等系统将被指定为“高风险”系统,这意味着OpenAI必须满足许多安全和透明度要求。“要么我们能够解决这些需求,要么不能。”他说,“这是对潜在技术的限制。”
“我们会努力遵守,但如果我们不能遵守,我们将停止(在欧洲)运营。”奥特曼告诉《金融时报》。
不过据路透社报道,奥特曼26日又表示,OpenAI没有离开欧洲的计划。
OpenAI最近一直在极力展现“负责任”态度,继其领导层当地时间5月22日联合撰文呼吁建立类似国际原子能机构的AI监管机构后,该公司25日又在官方博客上发文称,正在启动一项计划,提供10笔10万美元的赠款,以建立一个民主程序来决定AI系统应该“在法律规定的范围内”遵循哪些规则。具体来说,OpenAI正在寻求资助个人、团队和组织,以开发“民主进程”的概念验证,回答有关AI护栏的问题。
换句话说,OpenAI提出“众包”AI监管:希望有一个“具有广泛代表性”的人群交换意见,参与“深思熟虑”的讨论,并最终通过透明的方式决定结果。
Google与微软高管分别见欧美议员
奥特曼访问欧洲期间,Google首席执行官皮查伊也访问了欧洲各国首都,试图在政策制定者确定监管AI的“护栏”时影响他们。
皮查伊在布鲁塞尔与多位官员会晤,包括负责人工智能法案的欧洲议会议员布兰多·贝尼菲(BrandoBenifei)和德拉戈斯·图多拉奇(DragoşTudorache)。出席这些会议的3名人士透露,皮查伊强调,需要在对技术进行适当监管时不会扼杀创新。
皮查伊还与负责监督人工智能法案的欧盟内部市场专员、数字政策负责人蒂埃里·布雷顿(ThierryBreton)会晤。布雷顿告诉《金融时报》,他们讨论了引入“人工智能公约”——一套非正式的指导方针,供人工智能公司在正式规则生效之前遵守,因为“在人工智能竞赛中建立一个安全的网络环境,没有时间可以浪费了”。
5月19日,Google全球事务总裁肯特·沃克(KentWalker)在Google官方博客上发表了一篇文章,题为《负责任的人工智能进展的政策议程:机会、责任、安全》,鼓励政府关注三个关键领域——通过最大化AI的经济承诺来释放机会;在降低滥用风险的同时促进责任;加强全球安全,同时防止恶意行为者利用这项技术。
微软总裁布拉德·史密斯认为,在人工智能监管方面,科技行业“可能比华盛顿目前有更具体的想法”。
微软总裁史密斯25日对来自两党的6名议员发表了演讲,敦促华盛顿通过关于AI政策的五项新建议。其中,微软希望白宫敦促广泛采用国家标准与技术研究所(NationalInstituteofStandardsandTechnology)今年早些时候发布的“人工智能风险管理框架(AIRiskManagementFramework)”,希望立法者要求控制电网和水系统等关键基础设施的AI工具配备“安全制动器”,呼吁决策者促进人工智能透明度,并确保学术和非营利研究人员能够访问先进的计算基础设施。微软还希望与政府在公私伙伴关系中合作,具体来说,希望公共部门使用AI作为应对“不可避免的社会挑战”的工具。他还提到了微软使用AI帮助记录乌克兰战争中遭受的破坏。
史密斯认为,在人工智能监管方面,科技行业“可能比华盛顿目前有更具体的想法”。
斯坦福大学“以人为本的人工智能研究所”政策主任罗素·瓦尔德(RussellWald)最近表示,他担心一些决策者,特别是华盛顿的决策者过于关注科技行业的AI治理提案。他在上周的参议院听证会期间说:“有点令人失望的是......行业领域是纯粹的焦点。”瓦尔德建议,学术界、民间社会和政府官员都应该在制定AI政策方面发挥比目前更大的作用。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】