当地时间周三,OpenAI对加州一项旨在确保强大人工智能安全部署的法案进行了猛击抨击,从而加入了包括斯坦福大学教授李飞飞、前百度首席科学家吴恩达等AI行业大佬的行列。反对者试图赶在月底的州议会投票前,共同发动阻止该法案通过的游说狂潮……
OpenAI方面在信中认为,对这一问题的监管应来自联邦政府而非各州。其同时还担心,如果该法案获得通过,可能会对美国的人工智能竞争力和国家安全产生“广泛而重大”的影响。
在2027年1月1日之前,(i)使用超过10^26次整数或浮点运算的计算能力进行训练的人工智能模型,其成本超过一亿美元——该成本是根据开发者合理评估的训练开始时云计算的平均市场价格计算得出的。(ii)利用等于或大于10^25次整数或浮点运算三倍的计算能力,对范围内的模型进行微调而创建的人工智能模型,其成本经开发者合理评估超过一千万美元。
根据这项SB-1047法案,企业需要确保AI系统可以随时关闭,采取“合理的谨慎措施”确保AI模型不会造成灾难,并向加州总检察长披露合规声明。如果企业不遵守这些要求,可能会被起诉并面临民事处罚,若向该政府机构虚假陈述模型的功能,甚至可能会最终使开发人员因伪证而入狱。
法案中还加入了吹哨人保护条款,保护和鼓励AI开发实体内部的举报者,确保员工可以在不受报复的情况下报告企业的不合规情况。
Kwon在信中写道,“人工智能革命才刚刚开始,而加州作为人工智能领域全球领导者的独特地位,正在推动加州的经济活力。SB-1047法案将威胁到这种增长,减缓创新步伐,并导致加州的世界级工程师和企业家离开当地,到其他地方寻找更大的机会。”
OpenAI认为,白宫科技政策办公室、商务部和国家安全委员会等联邦机构,比加州州级政府机构更适合管理关键的人工智能风险。该公司表示,它支持几项拟议的联邦立法,例如《人工智能创新未来法案》,该法案为新的美国人工智能安全研究所提供了国会支持。
除OpenAI外,当前市场上的许多批评者也认为,该法案要求企业向州政府提交有关其模型的详细信息,这将阻碍创新,同时也会阻止较小的开源开发者创建初创企业,因为他们害怕被起诉。
斯坦福大学教授、人工智能知名学者李飞飞本月早些时候就刚刚牵头撰写了一封联名信。她表示,“加州的SB-1047法案将产生重大而意想不到的后果。如果通过成为法律,其将损害正在萌芽的人工智能生态系统。SB-1047法案也将不必要地惩罚开发人员,扼杀开源社区,并阻碍人工智能学术研究,同时仍无法解决其旨在解决的真正问题。”
他还批评了市场上那些“陈词滥调”的说法——即如果该法案获得通过,科技初创企业就会搬走,并表示总部设在州外的公司仍需遵守该法案,才能在当地开展业务。Wiener在周三写道:“底线是:SB-1047是一项非常合理的法案,它要求大型人工智能实验室做他们已经承诺要做的事情,即测试他们的大型模型是否存在灾难性的安全风险。”
据悉,加州议会将在本月底对该法案进行投票。如果获得通过,加州州长纽森(GavinNewsom)将决定是将其签署为法律还是予以否决。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】