【谈金论策】当AI走进金融决策:从生成式人工智能到金融智能体的风险治理
5月8日,国家网信办、国家发展改革委、工业和信息化部联合印发《智能体规范应用与创新发展实施意见》,首次对“智能体”作出较为系统的政策部署。文件将智能体界定为具备自主感知、记忆、决策、交互与执行能力的智能系统,并明确提出在金融服务领域,要研发金融风控智能体,提升信贷审批、交易监控、账户安全等环节风险识别能力,完善智能体异常检测、合规审计功能,提升信贷违约预测、信用卡盗刷拦截、反洗钱监测等能力。
这意味着,人工智能(AI)在金融领域的政策讨论,已经不能停留在能否提高效率的层面。随着生成式人工智能和智能体技术进入金融业务链条,AI不再只是参与投研摘要、文本生成等操作的辅助工具,而正在逐步参与信息生产、风险识别、信用判断、交易监控乃至合规审计。金融AI应用的核心问题,也随之从技术的可用性转向风险的可控性:它究竟改变了金融业务的哪些环节?现有监管框架是否已经覆盖这些变化?在鼓励“人工智能+金融”的同时,如何避免金融信息污染、模型黑箱、责任分配和系统性风险累积?
一、AI金融应用已经发生分层
观察当前金融业AI应用,应当区分两条技术路径:一是生成式人工智能,二是金融智能体。二者都属于人工智能应用,但在金融业务链条中的位置不同,风险控制机制也不同。
生成式人工智能主要改变金融信息生产方式,可以自动生成宏观分析、市场评论,甚至生成短视频脚本和社交媒体内容。在金融机构内部使用中,它可以基于内部的数据库,辅助知识检索或材料撰写;在外部市场,它也可能参与财经资讯、投资观点和市场舆情的扩散。其核心风险不是替代人类写文章本身,而是当低成本、规模化、看似专业化的AI内容进入金融市场后,信息质量、来源可追溯性和责任主体都可能被弱化。
金融智能体则可能进一步改变金融行为的执行方式。鉴于其能够根据目标调用工具、拆解任务、持续交互并完成操作。在金融场景中,智能体可以用于信贷审批、交易监控、反洗钱监测、智能投顾等多个场景。《智能体规范应用与创新发展实施意见》直接点名了金融风控智能体,正说明监管部门已经看到智能体在金融风控中的应用潜力。
这一区分的必要性在于,对生成式AI的风险管控的重点在于内容本身的真实性和准确性;智能体的监管重点则在于决策权限是否清晰、执行边界是否可控、责任链条是否可穿透。因此,前者更多指向信息治理,后者更多指向行为治理。对AI在金融领域应用的监管如果不基于类别进行区分,就容易用技术安全规则替代金融业务监管。
二、政策回应:从内容治理到智能体权限治理
事实上,从算法推荐、深度合成到生成式AI,再到最新智能体规范,政策逻辑正在从管内容逐步走向“管能力、管权限、管执行”。
2023年出台的《生成式人工智能服务管理暂行办法》,明确适用于向境内公众提供生成文本、图片、音频、视频等内容的服务,并提出要促进生成式人工智能健康发展和规范应用,维护国家安全、社会公共利益以及公民、法人和其他组织的合法权益。该办法出台时,主管部门已经指出,生成式人工智能在带来发展机遇的同时,也产生了传播虚假信息、侵害个人信息权益、数据安全和偏见歧视等问题。这为金融信息污染治理提供了上位制度基础。
但生成式AI规则更多是通用型治理规则。它关注虚假信息、数据安全和偏见歧视,却尚未关注金融市场中的信息污染问题。金融信息污染不是一般意义上的谣言传播,而是虚假、过度拟合或未经验证的信息进入投资决策过程,并有意地通过社交平台、投顾工具和交易行为影响市场预期。其危害在于,它不一定表现为单条明显违法信息,而可能表现为大量低质量、似是而非的内容,这些集聚的信息在市场上共同稀释有效信息,使市场价格发现机制受到干扰。
相比之下,《智能体规范应用与创新发展实施意见》释放了更强的风险治理信号。文件强调坚持安全可控,将智能体安全、可靠、可信作为发展的底线要求。更关键的是,文件提出要明确决策权限,厘清仅限用户本人决策、需由用户授权决策和智能体自主决策等不同决策方式的边界,确保用户对智能体自主决策享有知情权和最终决策权,智能体执行操作不得超出用户授权范围。说明已经意识到智能体可能成为金融行为主体链条中的关键节点。
三、尚未解决的新问题
尽管现有政策已经搭建了基本框架,但仍有若干问题尚未被充分纳入监管体系。
首先是金融信息污染。生成式AI可以大规模生成财经评论、公司分析、行业报告和投资观点。与传统虚假陈述相比,AI信息污染更隐蔽:它可能不直接编造一个事实,而是通过片面选择材料、错误归因,制造貌似专业的市场叙事。对散户投资者占比较高的中国市场而言,这种信息污染可能放大追涨杀跌和主题炒作。
国际监管机构也明确关注这一点。金融稳定理事会(FSB)在2024年关于人工智能金融稳定影响的报告中指出,生成式AI可能增加金融欺诈和金融市场虚假信息风险,AI还可能通过第三方依赖、市场相关性、网络风险、模型风险、数据质量和治理问题放大金融脆弱性。这与中国当前所关注的生成式AI虚假信息问题相似,但在金融领域仍需更具体的规则承接。值得注意的是,随着智能体具备自动发帖、自动抓取舆情并进一步执行交易指令的能力,信息污染可能升级为“生成—传播—交易”的一体化风险。传统意义上的虚假金融信息,通常需要经过人工发布、媒体传播和投资者反应等环节,风险传导仍存在一定时间间隔;但在智能体参与后,同一系统可能同时完成信息生成、社交平台扩散、情绪识别和交易执行,使得风险传导时间被大幅压缩。
其次是智能体自动执行边界。最新智能体政策已经提出“不得超出用户授权范围”,但在金融场景中,“授权”本身并不总是充分。金融消费者可能并不真正理解智能体如何判断风险、如何调用数据、如何触发交易或调整额度。若仅以用户点击授权作为合规依据,可能导致金融机构将适当性义务和风险提示义务技术化外包。
第三是模型同质化和系统性风险。若大量金融机构采用相似基础模型、相似数据集和相似策略逻辑,市场可能出现高度同步反应。利好消息被模型同时解读为买入信号,风险事件被模型同时解读为卖出信号,价格波动可能被自动化交易和风险控制机制放大。FSB亦将第三方依赖、服务商集中和市场相关性列为AI可能放大系统性风险的重要渠道。
第四是责任穿透问题。AI生成错误投资建议、智能体误判授信风险、模型误触发交易行为时,责任究竟由金融机构、模型服务商、数据供应商还是用户承担?现有金融监管原则通常要求持牌机构承担业务责任,但AI应用链条拉长后,责任很容易被拆解成技术问题、数据问题和用户授权问题。若责任不能穿透,AI就可能成为规避金融监管义务的工具。
四、建议
国际上,金融AI监管也没有形成单一路径。欧盟更强调风险分级,将高风险AI纳入更严格的合规和评估框架;美国更侧重通过美国国家标准与技术研究院(NIST)AI风险管理框架和市场披露规则来约束AI使用;英国金融监管机构则更强调不因技术形式变化而改变机构责任。FSB的思路更具有金融稳定色彩:一方面承认AI可提升运营效率,另一方面要求监管机构弥补AI使用信息缺口,评估现有金融政策框架是否足以应对AI风险,再判断应当如何提升监管能力。中国已经有生成式AI管理办法、智能体规范意见、数字金融发展方案和金融科技监管框架,关键在于将现有规则向金融场景延伸。
具体而言,可以从三个方向改进。
首先,在生成式AI治理框架下增加金融信息污染规则。现有生成式AI管理办法已经要求提高生成内容准确性和可靠性,但金融市场需要更高要求。面向公众发布的AI生成的财经相关内容,应当建立来源留痕和责任主体规则。对可能影响证券期货价格、金融产品销售和投资者决策的AI内容,应纳入资本市场舆情监测和异常交易监测体系。
第二,在智能体政策框架下细化金融业务权限。意见提出的决策权限边界应在金融领域进一步转化为业务清单:哪些场景只能辅助,哪些场景可以建议,哪些场景必须人工复核,哪些场景不得自动执行。例如,信贷审批智能体可以辅助识别风险,但拒贷、降额、提高利率等影响消费者权益的关键决策,应保留人工复核和申诉机制。
第三,将AI风险纳入宏观审慎。现有数字金融政策已经强调监管数字化转型,下一步应把AI使用情况纳入监管的信息库中,包括模型类型、使用场景、外部服务商依赖等。对于系统重要性金融机构和关键金融基础设施,也应开展AI压力测试,评估模型失效、数据污染、网络攻击趋同情形下的风险传导。国际货币基金组织(IMF)近期亦有相关警示,AI驱动的网络攻击可能引发融资压力、偿付能力担忧和更广泛的市场扰动。
五、结论
当前最需要警惕的,并不是AI短期内取代金融从业者,而是金融机构在效率竞争中逐步把信息生产、风险判断和业务执行交给不可充分追责的系统。稳健的金融科技政策,应当既支持智能风控、反欺诈、反洗钱和普惠金融的服务创新,也要提前防范金融信息污染、模型同质化、自动执行失控和系统性风险外溢。(作者:中国政法大学法与经济学博士生、《中国金融政策报告》课题组实习生 闫佳昕)
编辑:杜少军
声明:新华财经(中国金融信息网)为新华社承建的国家金融信息平台。任何情况下,本平台所发布的信息均不构成投资建议。如有问题,请联系客服:400-6123115











