近期,《国务院关于深入实施“人工智能+”行动的意见》正式发布,上海也明确提出,要在三到五年内建成具有全球影响力的金融科技中心,正以开放姿态打造AI与金融结合的“试验田”和“示范区”。
那么,在“AI+金融”场景密集落地的当下,监管如何既设“边界”又装“导航”?9月10日,由上海交通大学上海高级金融学院主办的“AI落地金融之路”——“2025 Inclusion外滩大会”见解论坛召开,探索技术创新与风险管控平衡之道,以助力构建AI金融生态。
在圆桌讨论中,华东政法大学国际金融法律学院教授徐明指出,AI作为新事物,当前主要面临“问题新、风险大、监管难”三大挑战。
其中,在“监管难”方面,徐明认为主要体现在三方面。首先,现在的法律制度和监管制度还没有完全跟上,如何设计一个宽严相济的法律制度是个挑战。其次,AI无所不在,已深入百姓的寻常生活,涉及很多范围、领域和部门,需要监管部门之间彼此协调,协调存在难度,协调也需要成本。最后,AI科技属性很强、迭代更新很快,涉及大量新的技术和新的知识,监管者是否能及时跟进学习是监管者面临的难题。
针对这些挑战,徐明提出,需用综合手段,在法律、监管、技术等方面统筹应对。宏观上,要抓紧制定人工智能法,加快立法速度,明确责任主体、明确责任边界、严格责任落实,实现宽严相济;微观层面,要细化各种技术标准、安全标准、监管标准,使人工智能在探索和实践中可操作、可执行,要发挥行业、监管及相关部门的力量,主动应对人工智能带来的挑战。
联和金融人工智能业务负责人、杭州海茵斯科技创始人聂金则梳理了AI在金融业的四大核心监管问题。
一是数据隐含歧视风险。AI做决策是由数据驱动,但数据中如果纯数据有可能会隐含一些歧视问题,有可能推动社会的不平等,很有可能对公司主体有法律风险。二是AI决策的黑箱难题。2025年各国出台的监管条例显示,金融机构一旦开始使用AI模型或AI提供服务,模型所做出决策的可解释性必须出具审计报告。三是隐私问题。聂金指出,为了增强AI模型的性能,打破数据孤岛是非常重要的,打破的过程中如果用到很多数据,可能会模糊主体边界,对用户信息的隐私保护有一个比较大的挑战,而这个挑战如果放到跨国场景里就非常严重,会上升成安全问题。四是问责机制,AI可以作出决策,但这当中整个链条从训练、测试到应用,应该有一个合理的问责机制。
“我觉得监管上一是守住底线;二是给予比较好的引导,为AI在金融大规模承制式应用铺平道路。”针对这些挑战,聂金说道。
恒生电子首席科学家、研究院院长白硕则从AI落地实施的实际问题出发,探讨边界问题。
“人工智能可以了解你的客户,了解到比你还了解,它可以做到千人一面,但生成出来的东西最后一道关还要是人,这种场景是人最后兜底。”白硕指出,“这个边界目前看还要持续相当一段时间”。”