今天分享的是大模型
专题系列
深度研究报告:《
大模型专题:大模型在金融领域的应用技术与安全白皮书
》
(报告出品方:
蚂蚁集团
)
报告共计:
76
页
摘要
大模型技术带来了AI的新一轮技术变革和产业应用。构建大模型在金融领域完善的开发框架和应用框架,可助力现有金融业务进行数字化转型。但其应用也面临着诸多风险,需要进行进一步防控。除了针对通用的大模型幻觉风险的防护围栏,还需要针对金融领域的应用进行隐私风险防控、大模型攻击防御、可解释性增强、可溯源性增强以及有害内容防控,从而更好的助力传统金融业务。除此之外,金融领域大模型治理框架的搭建、评测集的构建和人才体系的培养则有利于促进大模型在金融领域的生态体系构建。
基于此,本白皮书主要围绕大模型在金融领域的应用技术及安全防控研究,延伸至大模型在金融领域的评测框架及人才培养体系进行分析。应用技术方面,主要基于大模型的开发框架和应用框架及应用实践进行了探讨。在应用风险防控方面,主要聚焦在大模型金融领域的风险及安全防控手段,同时借鉴了国外的人工智能应用风险治理框架;而大模型评测主要聚焦在大模型的评测框架以及大模型在金融领域的评测:最后大模型人才培养体系构建则强调了人才需求、人才教育体系、跨界合作及人才评估认证。
本篇白皮书为本系列的第一本,主要围绕大模型的应用技术及风险防控技术进行撰写,分为五个章节。第一章节主要为大模型的概述,第二章节主要聚焦于大模型的技术分析,第三章节主要聚焦于大模型的风险与防控,第四章节给出了大模型的评测方式,第五章节则衍生到大模型发展中的人才培养。
1.1 大语言模型技术发展概述
语言建模(Language Model)可分为四个发展阶段,分别为统计语言模型、神经语言模型、预训练语言模型、大模型语言模型。
其中最早的统计语言模型基于统计学习来预测单词,而后演进成为神经语言模型基于神经网络方法预测单词。在神经网络语言模型中,通过使用神经网络,将单词映射为向量作为网络模型的输入来估计单词序列的概率。随着注意力机制被引入,注意力层(Attention Layers)在文本中建立了词之间的相关性,使得模型在生成下一个单词时,考虑到整体语句的意思,从而建立了Transformer 架构,提升了模型理解和生成语言的能力。
但随着参数的增加,需要大量人力来标注数据,因此 0penAI 提出了预训练语言模型(Generative Pre-Trained Transformer),通过无监督学习在大规模无标签语料库上进行预训练任务,在预训练中模型学会了基于前一个单词预测后一个单词。除此之外,模型还可以针对特定的任务基于更小的数据集进行微调,提升在特定领域的性能。基于此,通过不断叠加数据增加模型参数规模以及优化模型的提示工程,不仅可以解决更复杂的任务,同时也拥有了更强大的文本涌现能力,从而演进成为大模型语言模型(以下简称“大模型”)。
大模型浪潮爆发后,国内各企业纷纷推出自研大模型,大模型应用迎来了蓬勃发展的阶段。据测算,我国 2030年基于大模型的生成式人工智能市场规模有望突破千亿元人民币。
与此同时,国内垂直行业领域的大模型也成为各个行业头部企业未来的发展趋势之一其中前沿的垂类大模型涉及领域包括媒体影视、电商、广告营销、游戏、医疗、教育及金融行业。比如在金融领域,大型科技企业如华为推出了盘古金融大模型,而蚂蚁集团则在外滩大会发布了金融大模型“AntFinGLM”并应用于蚂蚁集团内部产品“支小宝”和“支小助”。
金融行业大模型在所有行业垂直大模型中落地速度相对较快。金融领域拥有天然的大量数据积淀,从而为大模型应用提供了良好的数据基础。同时金融领域大模型的应用场景较多,基于这些不同的场景,大模型有助于从不同角度提升原有从业人员及机构的工作效率。比如大模型情绪分析的功能可帮助从业者基于投资者情绪状态预测股票的价格;大模型精确度的提升可帮助从业者预测市场走势,大模型可基于过去大量的金融数据学习预测未来市场趋势帮助投资者和金融机构做出更合理的决策;而复杂任务的处理可协助从业者将大模型用于交易策略上,通过分析大量交易信息,大模型或可识别交易中的风险参数并给出风险防控策略。