首页 > 实时讯息 >

银行业如何广泛应用大模型?孟茜:做好三个“共治”

0次浏览     发布时间:2025-04-10 14:43:00    

4月10日,以“人工智能与金融未来”为主题的国民财富发展研究合作平台2025春季峰会正式召开。会上,中国银行首席信息官孟茜就银行业如何拥抱人工智能,特别是如何应用大模型发表主题演讲。

孟茜认为,从银行的行业来看,要做好三个“共治”;从银行机构来看,要做好三个“协同”;此外,要统筹好发展和安全的关系,筑牢安全与风险三道防线。

银行业要做好三个“共治”

从今年DeepSeek-R1模型推出以后,已经有20多家银行都部署了私有化的DeepSeek,但主要还是国有大行和部分科技实力比较强的股份制银行。“中长期来看,大模型如果要在全行业广泛应用,需要关注并解决三方面的问题。”孟茜指出。

一是算力基础共治。虽然DeepSeek等技术降低了算力门槛,但是它的火爆也激发出了更多的应用场景,市场算力的总需求其实是有增无减的,要满足银行业特别是中小银行的算力需求,是否应该加强金融专用算力基础设施的建设,构建灵活的算力架构,并且通过集约化的运营去提升算力的使用率,同时还要加快现在国产化算力在适配大模型时存在的一些效率和兼容性的问题。

二是行业模型共治。目前预训练的基础大模型金融知识的配比只占到了5%左右,也导致了金融的专业性不足,限制了在金融场景的深度应用。为此,部分国有大行已经尝试开始进行二次训练企业的大模型。考虑到行业大模型在促进推广、降低成本等方面的作用,是否需要整合行业资源、建设行业大模型也成为银行同业现在正在讨论的一个热点话题。建议大型金融机构应该和中小金融机构加强交流和合作,缩小金融业机构在金融间的数字鸿沟。

三是行业数据集共治。金融业对数据的隐私保护和使用的要求是非常高的,支撑行业共享共用的金融语料现在比较缺乏,是否可以考虑组织行业在数据分级分类管理的基础上,共同推进建设金融公共语料库,进而降低各个金融机构单独构建的投入成本,同时可以建立统一的金融人工智能应用的评测体系,制定标准化测试数据集和评测的方法,提高评测结果的可比性和权威性,以提升大模型在我们金融应用的质量和水平。

银行机构要做好三个“协同”

对于银行业金融机构而言,在孟茜看来,拥抱人工智能要做好三个“协同”。

一是场景和技术协同,合理应用人工智能技术。应该说不同的人工智能技术有不同的特征和优劣,不同的金融场景的需求也各不相同。目前来看,大模型技术既不能一统人工智能应用的天下,也不是所有的业务场景的普世解,各机构还是要建立KYA机制,结合业务场景、风险特征、算法特点,合理选择大小模型,通过大小搭配、高低组合,在实现高效应用的同时,可以有效地降低成本。

二是业务和科技协同,实现应用创新敏捷迭代。要搭建企业级人工智能应用框架和体系,实现算力、数据和专家知识的高效共享,需要降低应用的门槛,要能够支持业务人员通过使用工具箱就能够自行开展业务验证、场景孵化的工作,同时还要加快培养既懂金融又懂人工智能应用的复合型专家型人才,负责推进业务的全面智能化转型。要通过技能培训形成人人会用、人人在用的人工智能工具,才能将人工智能的优势转化为实际的一个业务价值。

三是组织和技术协同,构建人机相适的新型组织模式。人工智能的深度应用会重塑银行原有的岗位职责、业务流程和决策模式,人机协同也将成为银行机构未来的一个常态,银行要逐步构建起人工智能和行业专家紧密协作的这么一种新型的模式。

孟茜认为,未来在金融行业中涉及信息处理、初级分析和标准化客服等这些重复性比较高、规则比较明确的工作,可能会被逐步地替代。未来的金融从业者或将转型为AI训练师与策略的指挥官,需要掌握数据解读、模型调优以及伦理审查等复合的技能,由行业专家去处理更加复杂和情感类的任务,实现人与智能的优势互补。

筑牢安全与风险三道防线

孟茜指出,人工智能在应用过程当中会面临数据泄露、算法黑箱、模型攻击等一系列的风险挑战,也会带来侵犯个人隐私、冲击法律和社会伦理等问题。近期,小米SU7智驾交通汽车交通事故在全社会再次引发了人工智能安全的讨论,要确保人工智能应用的安全、可靠、可控,可以从三方面再做一些重点工作。

一是要筑牢企业治理防线。银行机构自身要逐步建立健全企业级人工智能的治理机制,将人工智能的管理要纳入到全面风险管理的框架,强化科技伦理和消费者权益保护的审核,建立健全包括模型开发、验证、部署、监控和退出的全生命周期的管理机制,通过统一的管理来确保企业对人工智能应用的主动地掌控。

二是要筑牢业务安全防线。就如智能驾驶是辅助驾驶,无论如何都不能脱手一样,当前银行在应用大模型等人工智能技术时,必须将业务流程的最终责任还是要落实到人。如何落实业务流程的最终责任其实是有待进一步的研究和探索的,包括在法律法规层面,也需要有明确的规范和指引。

现阶段从实操中来看,一方面,要明确人工智能的辅助和效率工具的定位,在关键业务环节还是要建立强制性人工审核的机制,确保员工对关键业务流程的掌控;另一方面,在风控、授信、投资等高风险的业务领域,还是要审慎使用,应该优先选择精确度高、可解释强的人工智能的方案,确保问题可追溯、责任可落实。

三是要筑牢技术安全防线。尽管DeepSeek为行业发展带来了诸多的便利,但金融市场风险涉及领域广泛,AI大模型的广泛应用可能也会诱发新的问题,比如数据质量不可控,比如在训练数据中存在偏差,这些都会导致模型输出的结果不公正或者是不准确,从而误导投资者。另外,由于AI幻觉和黑箱的特点,当出现投资失误或者风险事件时,有可能会很难溯源找出问题的根源,无法及时采取有效措施去控制和管理风险。

另外,生成式人工智能在部分场景应用时也需要使用到大量的隐私数据,在部署和训练时,要更加防止信息泄露的风险。人工智能的普及还可能会带来更为复杂的网络攻击的行为,为此,银行在应用大模型的过程当中,还是要坚持模型不联外网、数据不出行、敏感信息不入模这些原则,并利用技术手段通过输入输出端的多层审核防护拦截违法内容、防御恶性指令等等,实现内容安全和交互安全的双重保证。

相关文章
银行理财首季减少8100亿 4月强势回升 存款搬家带来增量资金 微信提示租售账号风险 为“试错”兜底!绵阳推出首个“中试”保险方案 济南都市圈六市签署知识产权保护协议,2025年全国知识产权宣传周山东(济南)分会场活动启动 济南市一季度快递业务收入完成27.08亿元,同比增长12.17% 潮评丨三个词看浙江一季度经济成绩 中国电影基金会新媒体影视人才发展专项基金揭牌仪式盛大举行 郴州智能科技职业学院:举办人工智能产教融合发展对接会​

推荐文章

热门文章