据西班牙《机密报》网站8月15日报道,人工智能(AI)正在迅速改变我们的社会,它会对经济造成怎样的后果仍然属未知领域。然而,一些声音已经警告称,这些机器学习算法导致的新一轮金融崩溃的风险是真实存在的。其中一个声音来自美国证券交易委员会主席加里·根斯勒,他日前警告称:“人工智能将成为未来金融危机的中心,监管机构将无法向前迈步。”
作为监管机构的负责人,根斯勒在接受彭博社采访时表示,人工智能在金融市场最明显的风险是黑匣子算法,在用户看不到算法内部功能的封闭系统下运行,很可能会失去控制,最终同时出售同样的东西,导致市场崩溃。
根斯勒多年来一直警告说,如果不及时控制,人工智能可能会非常危险。2020年,当时还是麻省理工学院教授的根斯勒在一篇文章中警告深度学习(一种机器学习和人工智能系统)对金融稳定的风险。文章认为,现有的监管制度尚未准备好应对这种危险。
他指出,人工智能在金融市场中的危险之一是同质化。这种情况可能是所谓的“学徒效应”的结果。当有资格管理此类系统的人来自同一所学校、拥有相同的背景并建立牢固的亲和力时,就会出现这种效应。根斯勒在研究中解释说:“根本没有那么多人接受过构建和管理这些模型的培训,而且他们往往来自相当相似的背景。”
这种风险也可能是由法规本身造成的。如果监管机构对人工智能可以做什么和不能做什么进行控制,可能会增加它们最终同时做同样事情的危险,并会增加大多数公司选择使用由少数提供商提供的相同人工智能的可能性。
由于人工智能以不可预测的方式进化,我们很难了解它们的行为机制,而这隐含的巨大风险之一就是它们可能会对人类产生歧视行为。例如,一款昨天并不是种族主义者的人工智能今天可能会成为种族主义者,而我们却没有及时意识到并阻止它。此外,这些规则将是完全不透明和不可控的,甚至没有追溯性监管,这使得监管机构几乎不可能阻止未来的崩溃。
根斯勒警告说:“根据相同的数据集构建的模型可能会产生高度相关的预测,这些预测一致进行,从而导致羊群效应。”他还认为,对海量数据源的需求可能会产生垄断,并成为导致整个系统全面崩溃的“单一故障点”。
此外,他指出,即使是最大的数据集也是不完整的,“互联网使用情况、手持设备数据、远程信息处理数据以及GPS数据和智能手机数据根本没有足够长的时间范围来覆盖单个完整的金融周期”。
根斯勒认为,最有效的监管对策是增加金融机构使用人工智能工具所需的资本存量。监管机构可能会要求对人工智能系统进行测试,以阻止或禁止公司采取无法解释的行动,从而减缓增长速度,但根斯勒也警告说,“即便如此,也不太可能避免系统性风险的增加”。他说,即使实施了监管规则,仍“不足以完成当前的任务”。(编译/韩超)
来源:参考消息