微新创想(idea2003.com)7月18日 消息:美国证券交易委员会(SEC)近日对生成式人工智能技术可能给金融市场带来的潜在风险表达了深切的担忧。据theverge权威报道,SEC主席加里·根斯勒在周一于国家新闻俱乐部举办的演讲中明确指出,生成式人工智能技术的迅猛发展正加剧金融机构依赖单一信息源进行决策的现象。
根斯勒强调,由于生成式人工智能对海量数据和强大计算能力的迫切需求,极有可能导致少数科技巨头垄断该领域,从而严重限制其他公司使用多样化人工智能模型的空间。他警示道,如果某个模型提供错误或不相关的信息,金融机构可能会陷入集体性误判的困境——最终引发类似2008年金融危机的系统性风险。当时银行盲目信任信用评级机构的数据,或受推特情绪化言论影响盲目抢购硅谷银行,最终酿成金融风暴。根斯勒将这一潜在风险与2008年危机进行类比,指出金融领域”过度依赖集中化数据集或模型”的致命缺陷。
“人工智能技术可能通过强化羊群效应来增加金融脆弱性。”根斯勒进一步解释道,”当个体决策者从同一基础模型或数据聚合器获取相同信号时,就会做出趋同的决策行为。”他特别指出,生成式人工智能和大型语言模型(LLM)作为”我们时代最具变革性的技术”,与其他深度学习模型相比具有独特的风险特征。尽管金融行业早已广泛应用人工智能系统——保险公司和债权人通过算法与自然语言处理技术解析财务数据,交易公司借助人工智能实现欺诈检测效率远超人类——但根斯勒特别关注大型语言模型可能带来的系统性风险。
值得注意的是,目前生成式人工智能在金融领域的应用尚处于起步阶段。这并非根斯勒首次对人工智能影响金融市场发出警示。早在麻省理工学院任职期间,他就与莉莉·贝利共同撰写论文,指出现行监管框架难以有效应对人工智能在金融领域的应用挑战。SEC作为监管先锋,早在2018年就建立了FinHub资源中心,专门解答人工智能、加密货币等金融科技领域的监管问题。该机构近年来积极查处涉嫌违法的新兴科技公司,尤其在加密领域表现活跃。SEC自身也早已将机器学习技术应用于市场监测,以强化政策执行力度。
根斯勒呼吁更新现有的风险管理指导方针,以适应人工智能技术的快速发展,但他同时强调,可能需要从根本上重新思考整个金融行业如何应用这项技术。与此同时,其他政府机构也正积极行动。联邦贸易委员会(FTC)上周正式宣布,已启动对OpenAI的全面调查,显示出监管机构对人工智能技术潜在风险的共同关注。