有分析认为谷歌、微软等巨头牵头的成立的AI机构模糊了监管的重点,科技巨头们试图“逃避监管”,让公众忽视版权、数据保护和隐私等实际问题,监管需要来自外部。“安全和负责”已成为AI飞速发展至下的最重要的议题。AI巨头“自控”条例刚出台不久,如今谷歌、微软等巨头再次合作进一步探索如何负责任地开发人工智能。
7月26日,Google、微软、OpenAI和Anthropic这AI“四大天王”发布联合公告,宣布成立前沿模型论坛(FrontierModelForum),来确保未来可以安全且负责任地开发前沿人工智能模型。
公告指出,前沿模型论坛的核心目标包括:
推进人工智能安全研究,促进负责任地开发人工智能系统,最大限度地降低风险,并实现对大模型能力和安全性的独立、标准化评估。
确定前沿模型负责任开发和部署的最佳案例,帮助公众了解这项技术的性质、能力、局限性和影响。
与各国政府、学术界、社会组织及公司合作,分享有关AI大模型信任和安全风险的知识。
支持开发有助于应对全球社会挑战的应用程序,例如减缓和适应气候变化、早期癌症检测和预防以及应对网络威胁。
联合公告还指出,该论坛将在未来几个月内成立一个咨询委员会来指导AI战略,并将成立工作组和执行委员会,来安排包括章程、管理和资金在内的工作。
微软副董事长兼总裁布拉德·史密斯(BradSmith)表示,创造AI大模型的公司有责任确保其安全可靠,并始终处于人类控制之下:
这一举措是将科技行业聚集在一起,负责任地推进人工智能并应对挑战,使其造福全人类的重要一步。
但针对这一论坛,英国《金融时报》指出,论坛的建立意味着科技巨头们的工作将集中于日益强大的人工智能带来的潜在风险,而不是回答当今监管机构与版权、数据保护和隐私有关的实际问题。
华盛顿大学的计算语言学家EmilyBender认为这些公司的做法是试图逃避监管,让公众将注意力集中在对“AI‘涌现’并接管人类工作”的恐惧上,会分散人们对“数据盗窃、监视等实际问题”的注意力:
“监管需要来自外部。它需要由代表各国政府制定,来限制这些公司的行为。”
此前,美国联邦贸易委员会(FTC)已对OpenAI发起调查。
当地时间7月13日媒体报道称,FTC告知OpenAI,将调查ChatGPT是否通过发布虚假信息损害了人们的利益,以及OpenAI是否存在“不公平或欺骗性”的隐私和数据安全行为。
这一举动早有预警,今年5月,白宫与OpenAI、Google、微软等公司的首席执行官会面,探讨相关技术的风险。白宫还表示,七家最大的AI公司已经同意在8月份的年度DefCon极客大会上开放模型,接受一定程度的公众监督。
近日,在白宫“指示”下,美国人工智能(AI)巨头“自我管控”的条例浮出水面。白宫公布,拜登政府得到了亚马逊、Anthropic、Google、Inflection、Meta、微软和OpenAI七家公司自愿的承诺,管控AI带来的风险。他们承诺,将帮助推动AI技术安全且透明地发展。
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】