据报道,多名人工智能专家本周在一场会议上表示,人工智能的快速发展有可能加剧社会问题,甚至对人类的生存构成威胁,因此有必要加强全球范围对人工智能的监管。近几个月来,生成式人工智能的爆炸式发展既激起了人们对其技术潜力的兴渠,也引发了担忧。
例如,这些技术可能导致一些工作岗位流失,经济发展模式被颠覆,甚至能力超过人类。生成式人工智能可以根据无限制的提示生成文本、照片和视频。
在周二的会议上,ProtectAI的首席执行官、联合创始人伊恩·斯旺森(IanSwanson)表示:“我们正驾驶着这辆人工智能的汽车在高速公路上飞驰,那么我们需要做什么呢?我们需要进行安全检查,需要适当的基本维护,需要监管。”该公司帮助企业保护人工智能和机器学习系统的安全。
“负责任人工智能研究所”所长赛斯·多布林(SethDobrin)则表示,监管机构只需看看社交媒体平台,就可以明白一个新行业不受限制的发展会导致什么样的负面后果。他说:“如果我们扩大数字鸿沟,将导致社会的分裂。监管机构需要考虑这点。”
目前,已有多个国家正在准备通过监管手段去解决围绕人工智能的问题。例如,欧盟提议中的人工智能法案将把人工智能应用划分为不同的风险级别,禁止被定性为“不可接受”的应用,并对“高风险”应用进行严格评估。
美国的立法者上个月提出了两项独立的人工智能法案,其中一项要求美国政府在使用人工智能与人互动时保持透明,另一项法案提出设立一个办公室,调研美国在最新技术方面是否仍具备竞争力。
“未来生命研究所”创始人、执行主任安东尼·阿吉雷(AnthonyAguirre)在会议上说,立法者和科技行业领袖必须警惕的一个新威胁是,人工智能可能会使核武器变得更强大。
越来越强的人工智能也将带来社会失业的风险,因为人类将无法通过简单地学习新技能就进入其他行业。阿吉雷说:“我们最终会陷入一个所掌握技能无关紧要的世界。”
未来生命研究所是一家非营利性组织,目标是降低先进人工智能带来的灾难性风险。今年3月,该研究所发布公开信,呼吁暂停训练比OpenAI的GPT-4更强的人工智能系统,吸引了媒体的密切关注。该机构警告称,人工智能实验室已经“陷入了一场失控的竞赛”,正试图开发“没有人,甚至是它们的创造者,能够理解、预测或可靠控制的强大数字思维”。
阿吉雷说:“这似乎是世界上最显而易见的事情,不能让人工智能获得核指挥和控制权。但这并不意味着我们人类不会这么做,因为我们以往也做过很多不明智的事情。”
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】