零分Trader

DeepSeek大模型在金融机构的应用现状与挑战分析

作者头像
分析师熊大 本文作者

2025-3-10 阅读 176 约 11分钟读完

评论0

自今年年初以来,随着DeepSeek的流行,金融机构已经竞争了大型模型计划。中国工业和商业银行最近宣布完成了DeepSeek Big Model的私有化。 “ ICBC智能入职”系统涵盖了20多个业务线,例如信贷和风险控制,并且具有200多个实施方案,成为主要银行AI转型的基准。截至3月10日,已有20多家银行宣布访问DeepSeek系列模型。目前,尽管金融机构对大型模型充满热情,但实际的应用程序效果并没有预期。

一方面,大型模型在金融领域的应用效率并不理想。例如,在许多银行引入了大型模型之后,他们发现生成的内容需要大量的手动干预,即使在某些关键业务中,AI也不像手动处理那样可靠。另一方面,尽管DeepSeek的开源性质促进了金融行业的“技术包容性”,但金融机构在其申请过程中仍面临数据安全和合规性的挑战。

行业内部人士说,尽管金融机构对应用AI模型的应用充满期望,但他们仍面临多重挑战,例如效率瓶颈,技术限制和“幻觉”问题。在提高效率的同时解决上述问题已成为金融业需要紧急克服的问题。

输入高和低输出的瓶颈

在采访中,记者发现,人工智能模型在金融行业的实际影响远非期望。

一家主要银行的员工告诉记者,在实际工作中,AI系统产生的内容通常需要大量的手动干预,而在某些关键业务中,AI的性能不如手动处理那么可靠。

联合储备银行的技术部门负责人还说,在银行当前的主要业务流程中,大型模型的进入仍然相对有限,主要集中在所谓的“边缘业务”上。例如,尽管智能报告系统被视为亮点,但他们仍然需要解决通过手动干预幻觉等问题,并且不能完全依靠AIGC来完全自动化和解决业务痛点。

例如,就辅助合同审查而言,尽管许多金融机构都引入了AI模型,但准确性目前很差。尽管许多银行已经优化了计数器流程,但由于机器的精度不足,需要再次检查手动检查,这尚未达到避免努力的效果。一位银行出纳员告诉记者:“我们不敢完全相信机器审查的结果。最终,我们仍然必须依靠手动审查,这增加了工作量。”

不仅如此,在与主要金融业务打交道时,AI模型的专业歧视能力仍然不足。例如,在信用批准领域,大型模型可能无法准确区分正常贷款批准和潜在的贷款欺诈。

记者还从许多证券机构那里学到,尽管某些财务模型已经渗透到行业的运营过程中,但他们仍然需要依靠手动审查,例如文档提交和高频交易等重要链接。一位证券代理商交易员说:“以前,两个人可能已经完成了一个链接,并且花了两个或三个小时才能完成它。现在让大型模型首先完成,关键字和逻辑进行了调整,最后是必要的。在之前和之后的时间是相同的,与自己做的时间相同,甚至更多。”

此外,许多银行员工还担心大型模型在信用流程中的应用。他们希望大型模型能够产生尽职调查报告并将数据组织到表中,从而减轻人工负担。但是,此功能的实施目前尚不理想。一家联合股票银行信贷部的雇员告诉记者:“大型模型产生的尽职调查报告不完整,数据表经常犯错误。我们只能将其用作参考,我们仍然必须自己做大部分工作。”

AI模型“高输入和低输出”也已成为金融机构面临的挑战。在成本方面,许多银行技术部门在引入大型模型方面投入了大量投资。无论是服务采购还是操作所需的硬件资源,这都是一笔可观的费用,但是很难量化收益。一家大型银行技术部门的员工向记者透露:“在我们引入了大型模型之后,硬件设备的投资增加了近30%,但实际的业务效率提高并不明显,这使管理层怀疑随后的投资。”

一家联合股票银行的雇员还向记者透露,该银行以前花了大量资金来建立AI系统,但运营结果并不令人满意。 “我们投入了很多资源,但实际收益很小。”该员工说,该系统的一半是在证明PPT的,另一半花在修复系统漏洞上。

探索“幻觉”

随着人工智能技术在金融领域的广泛应用,AI大型模型的“幻想”问题逐渐成为行业关注的重点。所谓的“幻觉”是指AI模型产生的内容与现实或缺乏基础不一致的现象,这可能会导致财务领域的严重信息误导和风险。

“大型模型的幻觉现象主要是由多种因素引起的,其中培训数据的质量,金融领域的复杂性和模型架构的设计是关键的影响因素。”数字经济学家,工业和信息技术部信息和传播经济专家委员会成员刘Xingliang兼DCCI互联网研究所主任告诉记者。

北京国家金融技术认证中心副总经理李Zhen指出,金融行业涉及复杂的金融工具,市场动态和专业条款,并且模型很难理解这些内容。一方面,训练数据的不准确性可能导致模型中的缺陷。另一方面,有偏见的对齐数据可能会使模型倾向于迎合用户的观点,而不是基于客观事实做出判断。

中国计算学院的Cai Hua博士告诉记者,由于缺乏外部知识验证机制,自回归文本生成方法容易出现幻觉问题。在处理长文本推理和复杂的逻辑推理时,这种限制尤其明显。尤其是在跨段落和文档的推理时,该模型容易引入逻辑混乱或推理,这进一步增加了幻觉的可能性。

为了应对这一挑战,金融机构和技术公司正在积极探索解决方案。记者了解到,目前,金融领域的解决方案主要集中于抹布(搜索增强生成),高质量的指令参数数据集,并结合格式化的数据和计算功能。

“破布技术可以通过更改提示方式有效提高答案的准确性。” Huayuan Computing董事长Xuan Xiaohua告诉记者,大型模型主要依靠归纳来学习和产生。在微调阶段,如果使用高质量的数据集并且数据集可以完全涵盖该领域的所有方面,则大型模型的可靠性也将得到显着提高。

大型金融机构更喜欢使用抹布+搜索方法,并结合专业数据库来标记和分析财务数据库。大型外国银行技术部门的人告诉记者,数据是AI大型模型的基础,质量直接影响模型的准确性和可靠性。抹布技术用于允许AI回答问题时实时调用专业知识和数据,从而提高产出的准确性和可靠性。

例如,在专业保险领域,通常有必要投入大量的人力和时间来处理和标记大量保险条款,PDF文档和Excel数据,以确保数据的准确性和可用性。上海Yandao数字技术负责人Lou Daoyong告诉记者,保险模型通常需要积累大量数据并使用精算技术来构建全国各地的保险产品,社会保障规则以及相关法律和法规的信息,涵盖整个行业中人寿保险,社会保险规则,退休金,养老金,医疗,医疗和其他多维数据。这不仅需要强大的技术支持,而且还需要与专业精算团队的深入参与密不可分。

定制的培训和场景优化也是金融机构去上市的常用方法。金融机构通过定制培训优化了特定业务方案的AI模型。例如,在宁波银行(Ningbo Bank)连接到DeepSeek Big Model之后,它试图通过对商业人员和专业语料库支持的微调培训来减少“幻觉”问题。 Fufargo基金通过将大型语言模型应用于定量投资决策和使用情感因素等技术来提高业务效率。

上海人工智能研究所的算法专家卢·瓦京(Lu Wenao)总结说,为了有效避免产生错误的结果和AI模型的“幻觉”,应从技术实施的角度考虑三个问题。首先,至关重要的是要确保培训数据的高质量和多样性,其次,调整模型架构和培训策略,第三,改善实时监控和反馈机制。

除了抹布体系结构外,还有许多方法可以优化模型性能。 Cai Hua告诉记者,例如,加强学习优化(RLHF)通过人类反馈来提高产出的真实性和专业精神,并减少错误。同时,它基于使用外部API验证或规则模板约束来避免生成不符合事实的内容的生成。此外,与代理技术相结合,我们可以增强模型的工具呼叫和任务计划功能,降低幻觉并提高金融和其他领域的可靠性。

关于在方案优化中保护行业的核心技术和数据的问题,Lu Wenao提出,为了确保数据安全和金融技术领域的合规性,该行业可以从数据脱敏和加密,诸如信任数据生态系统的构建等方法中学习,并提高合规性工具链。例如,联合学习用于实现“数据不可见”,以确保原始数据未泄漏;区块链技术用于共享语料库证据,以实现数据权确认和可追溯性等。

上一篇 加拿大自由党新领袖马克·卡尼以压倒性优势当选,将成为首位未任民选职位的总理 下一篇 利用DeepSeek开发ESG智能化软件:探索AI在环境、社会和治理领域的应用
评论
更换验证码