美国证券交易委员会(SEC)席加里·詹斯勒(GaryGensler)多年来一直在研究AI的潜在后果。近期,像ChatGPT这样的生产式AI工具的激增表明,这项技术有望改变各行各业,甚至是整个社会。日前,詹斯勒谈到了他对AI最担心的一些问题。
AI可能是金融系统面临的下一个重大系统性风险。2020年,詹斯勒与他人合写了一篇关于深度学习和金融稳定的论文。其结论是,鉴于以往网络和平台效应对科技巨头的影响,将来可能只有少数几家AI公司能建立一些基础的模型,来支持企业所依赖的AI工具。
詹斯勒预计,美国最终很可能会出现2~3个基础性的AI模式。这将加深整个经济体系的相互联系,使金融崩溃的可能性变得更大。因为当一个模型或数据集成为核心时,它会增加“羊群”行为(即从众行为),意味着每个人都将依赖相同的信息,做出类似的反应。
詹斯勒说:“这项技术(AI)将成为未来危机和未来金融危机的中心。”
AI模型可能会把企业的利益置于投资者的利益之上。社交媒体推动的表情包股票狂潮,以及App上零售交易的兴起,突显了推送和预测算法的力量。但是,使用AI来研究投资者行为或推荐交易的公司,在根据这些信息采取行动时,会把用户利益放在优先位置吗?
SEC上个月提出了一项规则,要求各平台消除其技术中的利益冲突。詹斯勒说:“你不应该把顾问放在投资者之前,你也不应该把经纪人放在投资者之前。因此,我们就如何解决那些可能嵌入到模型中的冲突提出了具体的建议。”
如果生成式AI给出错误的财务建议,谁应该负责?詹斯勒称:“根据法律,投资顾问有受托义务、注意义务和对客户忠诚的义务。无论是否使用算法,你都有同样的注意义务。”
在政策制定者的心目中,到底谁应该为AI承担法律责任,还存在争议。但詹斯勒认为:“应该要求这些公司创建安全的机制,因为任何使用聊天机器人的人,都不会将责任下放给这项技术。他说:“机器人的各项参数,是由建造它们的人类设定的。”
【查看完整讨论话题】 | 【用户登录】 | 【用户注册】