微新创想(idea2003.com) 8月14日电 美国证券交易委员会主席Gary Gensler近日发出惊人预警,人工智能或将演变为未来金融危机的核心驱动力,而监管机构目前却缺乏预见和应对能力。这一观点源自美国最具影响力的监管者之一,更因其曾在麻省理工学院担任教授期间撰写的论文而备受瞩目,该论文为理解AI风险及监管应对提供了关键视角。
当前,人工智能在金融市场中最显著的风险源于AI驱动的”黑盒子”交易算法失控。当这些算法同时大规模抛售同质化资产时,极易引发市场崩盘。Gensler在论文中尖锐指出,市场上真正具备构建和管理复杂AI模型能力的人才严重匮乏,且从业背景高度同质化。这种人才结构的单一性加剧了”学徒效应”——受相同训练的模型间形成强烈亲和力,进一步放大了同质化风险。更值得警惕的是,监管政策本身可能无意中加剧了这一隐患。若监管机构对AI应用范围划定过窄,反而会迫使企业选择少数几家大型供应商的服务,形成新的垄断格局。
由于AI模型运作机制对人类而言具有天然不透明性,监管机构难以有效干预潜在的市场崩盘。Gensler以深度学习模型为例说明:”如果深度学习预测能够被解释,它们根本就不会被投入使用。”这暗示着AI带来的系统性风险远超传统交易算法。例如,在信用评估领域,AI算法的不透明性使其可能存在隐性歧视,更可怕的是,随着模型持续自我进化,昨天的无歧视模型可能突然产生种族主义倾向,而人类却无从察觉。
随着深度学习在金融领域的普及,监管空白问题将日益凸显。Gensler明确警告:”深度学习可能会显著增加系统性风险。”面对这一挑战,最直接有效的监管措施可能是提高金融机构使用AI工具时必须持有的资本量。此外,监管机构可要求所有AI生成的交易结果必须经过传统线性模型的”嗅探测试”,确保其决策逻辑符合基本面分析框架。尽管如此,Gensler坦言,这些措施”不足以胜任当前任务”,监管机构最多只能延缓风险上升速度,却难以彻底阻止系统性风险累积。
在数据依赖性方面,Gensler揭示了AI的致命弱点。AI模型对海量数据的贪得无厌使其容易陷入数据同质化陷阱。当多个模型基于相同训练数据集(如Common Crawl)构建时,它们会生成高度相关的预测,形成集体行为模式。这种数据垄断现象已现端倪——洲际交易所通过并购MERS、Ellie Mae等企业,已牢牢掌控抵押数据业务,成为整个金融网络的潜在单点故障。更严重的是,现有最大数据集仍严重不完整,互联网使用、可穿戴设备、车联网等数据都缺乏足够长的时序维度来覆盖完整金融周期,这与2008年金融危机前夕数据积累不足的教训如出一辙。
拥挤风险问题同样严峻。Gensler指出,高频交易中的集体行为和拥挤效应正是导致闪电崩盘的关键因素,随着AI交易系统普及,这一风险将持续恶化。发展中经济体企业若使用未经本土数据训练的AI模型,风险将进一步放大。归根结底,AI永远不知道自己不知道什么,这种认知局限可能成为引爆金融危机的导火索。面对这一前所未有的监管挑战,全球金融体系亟需建立全新的治理框架。