专栏名称: 量化先行者
本公众号旨在发布我们在量化研究成果与投资心得
目录
相关文章推荐
高分子科学前沿  ·  复旦90后青年学者,观察“肥皂水”,发了一篇 ... ·  14 小时前  
高分子科技  ·  浙大梅清清团队 ... ·  4 天前  
艾邦高分子  ·  邀请函:第11届鞋材产业论坛(3月27日 ... ·  3 天前  
艾邦高分子  ·  HENGBO 参与 JEC 2025 ... ·  3 天前  
艾邦高分子  ·  POE材料简介与鞋材应用 ·  3 天前  
51好读  ›  专栏  ›  量化先行者

如何利用大语言模型辅助投研?开箱即用的方法

量化先行者  · 公众号  ·  · 2025-02-24 11:24

正文


报告提要

投研工作涉及大量数据和文字处理,与大语言模型的能力特点高度契合。

利用大模型高效写代码,让主观投资数量化

现有 AI 辅助编程工具,近乎实现编程全自动化。比如 Roo Code 插件,支持多模式、文件操作、命令行集成、多模型 API 等。能够在 VS Code 中实现更自动化的编程体验,包括自动读取文件、安装依赖包、运行代码和修复错误。

高效处理文字工作,让量化投资主观化

自动化归纳和总结:大模型能够对大量文本进行快速总结,例如对分析师报告的摘要进行归纳,提取关键信息。

文本分析和信息提取:大模型具备情感分析、信息提取等能力,能够从文本中提取有用信息,让量化投模型更好去理解产业链等主观信息。

深度研究: OpenAI Deep Research 功能能够自动化地完成复杂的研究任务,包括信息搜索、分析和综合,生成高质量的研究报告。

进一步解放双手,让重复工作智能体化

智能体( AI Agent ):如 ChatGPT Task Operator ,能够自动执行任务,如定期获取信息、自动化浏览网页等,减少重复性工作。

知识库:通过构建知识库,投研人员可以快速获取所需信息。例如,将文件上传至知识库,可以直接提问并获得相关答案。

API 和本地部署

API 选择:购买大模型 API 可以避免昂贵的硬件投资和维护成本。 OpenRouter 、火山引擎、阿里云等平台提供了多种大模型 API ,方便集成和使用。

本地部署:对于需要处理敏感信息或在研发环境受网络限制的情况下使用大模型的投研人员,可以选择本地部署工具如 Ollama ,简化模型的安装和运行流程。


目录


2024年度诺贝尔物理学奖和化学奖均与人工智能研究有关,《自然》作为科学杂志一星期内发表了五篇关于DeepSeek的文章, 这表明主流科学界释放出科学研究范式已经开始转变强烈的信号。投资研究作为科学和艺术的融合,其范式也正在随着人工智能的发展而产生变化。
2025年1月发布的DeepSeek-R1展现出不弱于OpenAI o1的水平,使得大家切身体会到高水平大语言模型对工作效率的影响。美国大模型领域Anthropic公司也在2025年2月10日发布了《The Anthropic Economic Index》报告,这份报告基于Claude.ai平台上数百万次匿名对话的数据,分析了人工智能对人类工作的影响。报告的主要发现有:① AI的使用主要集中在软件开发和写作任务上,这两者占总使用量的近50%,特别在软件开发方面,软件开发人员仅占美国职业的3.4%但却贡献了37.2%使用量(图1所示) ;②约4%的职业在75%以上的任务中使用AI(图2所示)。Anthropic发布详情请见链接:https://www.anthropic.com/news/the-anthropic-economic-index。


投研工作的一个重要内容和数据以及文字打交道,且资本市场信息众多,其工作特点和大语言模型的特长高度契合。 因此大模型辅助投研人员,有助于其提高工作效率、快速理解市场的信息,更好地应对市场的复杂性和不确定性。
天风金工在DeepSeek-V3发布后,即采用DeepSeek-V3对分析师研报进行每周总结(详见报告《天风证券-金工定期报告-大模型总结和解读行业研报》,发布于2025年1月6日) 。本文结合我们的使用经验,并利用现有的AI工具,从代码编写、案头工作、知识库/智能体三个方面来详细探究如何使用大模型来提高投研效率。

1.如何利用大模型高效写代码?
随着人工智能技术的持续飞速发展,AI 辅助编程已经从最初仅能进行简单的代码推荐与自动补全功能,逐步拓展至如今更为复杂的代码生成、调试以及由 AI 驱动的自动化开发阶段, 写代码的范式也从手搓代码到自动化生成。
虽然在大模型网页版中也可以进行代码问答,但是在IDE中可以更方便地进行代码架构设计、代码生成、上下文感知、实时代码补全和代码解释等功能,与 IDE 紧密集成,甚至可以根据调试的报错进行自动debug,生成完整可用的代码,从而或推动主动投资的数量化。
接下来,本部分将结合VS Code展示并详细介绍目前常见的相关工具及其具体使用示例。
1.1.GitHub Copilot
GitHub Copilot 是由 GitHub 和 OpenAI 合作开发的一款 AI 编程助手,于 2021 年 6 月首次推出预览版,并在 2022 年 6 月正式发布。它基于 OpenAI 的 Codex 模型,后来逐步支持了多个大型语言模型,目前支持包括 Anthropic 的 Claude 3.5、Google 的 Gemini 2.0 和 OpenAI 的 GPT-4o、o1和o3,是经典的AI辅助编程工具。

VS Code已经GitHub Copilot集成到软件中,能在输入代码时提供代码建议,或者使用编辑器中的内联聊天 (Inline Chat) 加速编写代码。借助 Copilot Edits,可以为整个项目添加新功能或修复 bug,还可以通过聊天功能以自然语言探索相关代码库。
具体来说,GitHub Copilot 可在多种场景下为投研人员提供帮助:实时代码建议、跨多个文件进行大范围修改、解答代码相关问题、重构和优化代码、修复代码问题和调试、创建新项目或文件、配置和生成测试、生成代码文档、提升 VS Code 中的开发效率。官方的详细文档请参考:https://code.visualstudio.com/docs/copilot/overview。
比如,我们使用Copilot Edits,使用如下提示“用python读取这个Excel文件,自动判断哪天是春节,并计算每年春节后第一周的收益率,计算平均收益,并画图展示,代码写入新文件”,模型选择Claude 3.5,把从Wind终端导出的Wind全A指数数据的Excel文件通过“Add Files”功能添加到working set中。我们可以看到,左侧自动新创建了一个 Python 脚本文件 detect_spring_festival.py,在当前目录中也创建了requirements.txt。代码的主要功能和提示词一致,使用 Python 读取 Excel 文件,分析与春节相关的数据,并计算节后五个交易日的收益率。代码中使用了 pandas 库来处理数据,matplotlib 库来绘图,以及 chinese_calendar 库来获取春节假期信息。

但是仔细查看代码,发现生成的代码一方面没有直接读取Add Files添加的“881001.WI.xlsx”文件,变量的列名也和实际文件并不相符,另一方面,对于没有安装的依赖包chinese_calendar也没有自动提示安装。因此,接下来我们介绍更为自动化的AI辅助编程工具。
1.2.Roo Code插件
Cursor 是一款基于 Visual Studio Code 的 AI 增强型IDE,Cline是VS Code的插件,Roo Code也是VS Code的插件,是Cline的一个分叉项目。考虑到Cursor每月需要20美元的费用,且对于投研人员来说需要更换IDE。而VS Code本身就是被普遍应用的IDE,而且在VS Code中,Roo Code的功能有比Cline更强大、适合更多样的API,因此本部分着重介绍Roo Code。
Roo Code(前身为Roo Cline)是一款基于Cline的增强版自主编程助手,通过其全面的功能和灵活的定制能力,为开发者提供了全新的开发体验,Cline的升级版本,以下是Roo Code的一些主要功能:
1)多模式支持:内置多种预设模式(如Code、Architect、Ask),并支持自定义模式以满足不同开发需求,比Cline多Ask模式,进行智能对话模式。
2)文件与编辑器操作:能够直接创建、编辑文件,并自动响应语法错误或编译错误,即自动读取运行的报错,进行错误修复。
3)命令行集成:支持运行构建、测试等命令,并根据输出自动调整操作,实现近乎全自动化编程。
4)多模型与多API支持:兼容OpenRouter、Anthropic、Google Gemini等国内外大模型的API,并提供详细的资源使用统计。
5)自适应自治模式:用户可选择手动、自动或混合模式,灵活控制Roo Code的行为,比如设计完程序架构后会自动从Architect模式转向Code模式。
6)上下文引用:可以通过@file、@folder等方式快速提供上下文信息,优化交互效率,也会根据任务需求自动读取上下文。
7)浏览器自动化:支持启动本地或远程Web应用,执行自动化测试与调试任务。
下图展示了Roo Code 提供的API接口“Provider Settings”部分。在下拉菜单,列出了多个 API 提供者选项,包括 OpenRouter、Anthropic、Google Gemini、DeepSeek、OpenAI 等。投研人员可以通过选择不同的 API 提供者来配置软件的功能。其中VS Code LM API调用就是GitHub Copilot的API。

此外,还支持使用本地部署的大模型,如Ollama或者LM Studio部署的模型,这使得开发环境中不能连接互联网的投研人员也可以使用大模型提高开发效率。

在Roo Code中,我们使用同样的提示词“用python读取这个Excel文件,自动判断哪天是春节,并计算每年春节后第一周的收益率,计算平均收益,并画图展示,代码写入新文件”,对Wind全A指数进行分析,来检验Roo Code的表现。可以看到,在下图左边部分,显示了Roo Code的任务描述和环境信息,帮助API理解任务需求和当前开发环境,右边部分显示了正在编写的 Python 脚本代码,用于完成任务中的具体功能。
具体来说,左侧部分包括了:
1)VSCode Visible Files:当前文件夹下在 VSCode 中是否有可见的文件。
2)VSCode Open Tabs:当前在 VSCode 中是否有打开的标签页。
3)Current Time:当前时间。
4)Current Context Size (Tokens):当前上下文大小。
5)Current Mode:当前模式是代码模式。
6)Current Working Directory:当前工作目录以及目录下的文件。
左侧上方还显示了当前对话上下文的大小、上行/下行Token数,以及预估费用。

当Roo Code在编写代码时候,还会尝试读取需要的文件或者数据的信息。在本例子中,Roo Code发现需要读取当前文件夹下的881001.WI.xlsx时候,则去读取了这个文件。因此我们发现其编写的代码引用相关字段时候,使用的是Wind终端导出Excel的字段,如“日期”。在Roo Code编写好之后,会提示我们安装相关依赖包,自动安装并命令并获取安装结果。如果安装失败,可能还会修改相应代码。下图展示了自动安装python包和获取安装结果的示例。

当Roo Code发现相关的包安装完之后,则会提示进行运行代码。如下图所示,Roo Code则自动运行了pytthon analyze_chinese_new_year_returns.py。而当代码有错误时候,Roo Code则自动获取报错,并将当前报错的结果对API进行再次请求,对代码进行进一步的修改,直到达到投研人员的要求。

最后我们可以实现最初指令的目的,即计算当前文件夹的指数数据在每年春节后第一周的收益率,并画图展示。下图左侧是Task Completed任务已完成,总结了主要发现,右侧是在terminal中自动运行后打印出来的结果。我们经过手动检查,发现生成的代码符合预期,找出来的春节也是准确的,计算的春节后一周(代码自动选择春节后前五个交易日作为春节后第一周)的收益率也是准确的。

此外,生成的代码也画出了收益的均值和箱体分布图,画图结果如下图所示。

上述过程中,我们不仅没有写任何一行代码,也没有调整任何一行Roo Code生成的代码,而Roo Code根据初始的指令和后续的自动对话,在读取原始的Wind全A行情数据后,完整地生成了统计春节后第一周收益率的代码,并详细给出了第一周交易日的具体时间和和每天的收益率,把相关的图完整的展现出来。
如果是进行更复杂的项目,Roo Code会先设计项目的框架,比如一些文件夹存放生成因子文件的文件、一些文件夹存放分析因子代码的文件、一些文件存放配置信息等,如果开发者同意其给出的设计框架,Roo Code则会进一步依据框架,生成不同的文件夹和其下应该存放的相关代码,最后再生成代码,并运行和测试。由于篇幅原因,这里我们就不展示使用Roo Code来设计复杂的项目了。
因此, 当投研人员用好相关AI编程工具后,则可以对复杂任务实现半自动化代码编写,对于简单的任务甚至可以实现全自动化代码编写,而这会大大提高投研人员的数据分析效率、并增强投资决策数据化支撑。从这个角度来说,投研的范式也在发生悄然变化。

2.如何利用大模型高效处理案头文字工作?
2.1.对已有文本和数据自动化归纳和总结
天风金工团队从2024年12月22日开始对研报摘要进行文本景气度跟踪,从2025年1月6日开始对研报文本进行总结(详见发布于2024年12月22日的《天风证券-金工定期报告-大模型解读行业研报:文本景气度周度跟踪》、发布于2025年1月6日的 《天风证券-金工定期报告-大模型总结和解读行业研报》 ),对大模型总结文本有一定的经验。
我们在使用过程中发现调用DeepSeek-V3大模型对研报文本有较好的总结能力,而且对于文本也有较好的理解能力。
下图展示了在总结时,输入给模型的研报内容以及模型输出总结结果。



2.2.文本分析和信息提取
大模型在文本分析和信息提取方面展现出强大的能力,能够快速准确地从大量文本中提取关键信息,为投研人员提供有价值的洞察。此外, 大模型的出现,也使得不同投研人员的自然语言处理能力达到了同一水平。
具体来说,大模型能够进行情感分析,判断文本中的情感倾向,从而帮助投研人员评估市场情绪和投资者信心。为检验大模型的能力,我们将春节期间至2025年2月15日期间摘要中含有DeepSeek的研报提取出来,分析其情感、并分析其产业链。
在下图中,我们设计了分析情感的提示词,调用豆包大模型,得到如下情感。

另一方面,大模型还可以提取出关键实体、事件和关系,为投研人员提供更全面的市场信息。我们依然调用了豆包大模型,分析DeepSeek的产业链。下图左侧分别展示了提示词和输入内容,右侧展示了豆包的返回结果。

2.3.深度研究
OpenAI 于 2025 年 2 月 2 日推出的一项新功能OpenAI Deep Research,旨在帮助用户快速获取所需信息并生成高质量的研究报告。
传统研究过程中,研究人员需要花费大量时间在文献检索、数据整理和报告撰写上。Deep Research 通过自动化和智能化的方式,显著提升了这些任务的效率。
OpenAI 长期以来一直致力于开发 AGI,而 Deep Research 的推出标志着在这一目标上迈出了重要一步。Deep Research 基于OpenAI o3 模型,能够完成复杂的多步骤研究任务,包括信息搜索、分析和综合。 它可以在几十分钟内完成人类需要数小时才能完成的工作,生成数万字的文章 ,并且能够根据实时信息调整研究方向和策略,类似于人类研究员的工作方式。
在投研领域,研究员通常需要搜寻大量数据和事实进行整理和归纳,而Deep Research 为投研人员提供了高效、精准和可靠的研究工具。
不同于带搜索功能的推理模型,Deep Research展现出更强的调查研究能力。在使用Deep Research过程中,我们先给它抛出一个问题,Deep Research认为这个问题不具体,进一步询问需要对哪些内容进行分析,我们明确了分析范围后,Deep Research则开始进行一边搜索一边推理总结。

下图展示的是Deep Research在7分钟后得到超过万字的详细报告,把上中下游每个细分的领域都进行分析,形成的报告内容不输于初级研究员。

马斯克旗下的xAI也随后上线深度研究功能,我们也问Grok 3 Deep Research了相似的问题,发现生成的结果稍弱于OpenAI 的Deep Research。

3.如何利用大模型进一步解放双手?
3.1.智能体
AI Agent作为一个新的名词,并没有一个广泛被接受的定义。通常来说,AI Agent被定义为一种能够感知其环境、做出决策并采取行动的系统。
OpenAI的ChatGPT Task就可以理解为一个AI Agent,比如,它定期自动执行相关任务以获取信息、生成文本,下图左侧展示的是官方给出ChatGPT Task提示词例子,下图右侧展示的执行完任务后将相应信息发送到邮箱等提醒选项。

OpenAI的Operator也可以理解为一个AI Agent,其旨在通过自动化浏览器任务帮助用户提高工作效率。Operator可以处理各种重复性的浏览器任务,例如填写表格、订购杂货,甚至创建表情包。Operator能够使用人类日常交互的界面和工具,帮助用户节省日常任务的时间。而且,可以处于用户的控制之中,在关键节点要求用户输入和确认:
1)接管模式:当在浏览器中输入敏感信息(如登录凭据或支付信息)时,Operator会要求用户接管。在接管模式下,Operator不会收集或截取用户输入的信息。
2)用户确认:在执行任何重大操作(如提交订单或发送电子邮件)之前,Operator应征求用户的批准。
3)任务限制:Operator会拒绝某些敏感任务,例如银行交易或需要高风险决策的任务。
4)监控模式:在特别敏感的网站(如电子邮件或金融服务)上,Operator需要对其行为进行密切监督,以便用户能够直接发现任何潜在错误。
下图展示了Operator进行操作的过程、操作返回的结果、以及用户查看Operator操作过程的截图。Operator在一直运行的过程中,如果新的结果还会进一步通知用户。

Operator在自动化操作浏览器过程中会对操作过程进行截屏,下图展示了用户会看Operator操作过程截图的示例,图片右方下侧的进度条进行拖动,即可查看在操作的每个步骤时,Operator是如何操作浏览器的。

ChatGPT Task的定时任务可以让用户减少规律性的重复工作,Operator 可以处理各种重复性的浏览器任务,这些都会进一步解放双手、提高工作效率。
3.2.知识库
在简单易用的知识库工具出现之前,构建知识库都是一个相对复杂的事情,需要一定的代码能力将相关知识文本进行文本嵌入,并配置和调用相关大模型的API。
下面我们以腾讯ima.copilot和火山引擎为例,介绍如何快速知识库并进行提问。
首先,我们展示ima.copilot的知识库效果(https://ima.qq.com/)。我们将天风证券金融工程团队2024年11月至2025年2月16日的量化择时周报上传至ima.copilot,直接提问“天风证券金融工程团队近期有什么择时观点”,选择DeepSeek-R1模型。下图左侧是模型思考过程,我们可以看到模型首先筛选出哪些知识库中的文件是和该问题相关,然后从这些文件中找出哪些是和问题中“近期”相关,最后则进行提取和总结。下图右侧是总结的结果。

我们也把同样的内容给了火山引擎的知识库,选择DeepSeek-R1模型,并进行了同样的提问。下图左侧是模型思考过程,我们可以看到思考过程中注意提到的日期,思考过程确认这些信息来自参考材料,没有遗漏重要部分,确保回复逻辑清晰,观点明确,风险提示充分。下图右侧是返回的结果。

总体上,个人投研人员可以选择ima.copilot等简单易用的软件,文档多数量多且查询数量大的话,可以选择火山引擎等大模型API平台提供的知识库。
4.API和本地部署?效果和风险
4.1.API用哪家
由于大模型需要消耗大量算力,而购买大模型API成为了一个比较常见的选择,因为购买API不需要购买和维护昂贵的服务器硬件,也不需要花费时间和计算资源来训练模型。此外,API 的使用方式通常是简单的 HTTP 请求,或者使用自家的SDK或者是兼容OpenAI,容易集成。模型也通常由提供者维护和更新,用户可以不定期获得性能改进和功能扩展,进行微调和增强搜索也都比较方便。
OpenRouter 是一个统一的 API 服务平台(https://openrouter.ai/),允许用户通过单一接口访问多种大型语言模型(LLM),如 OpenAI 的 ChatGPT、Anthropic 的 Claude、Google 的 Gemini、DeepSeek的R1、xAI 的 Grok等。OpenRouter的特点是统一接口,提供标准化的 API,简化了模型的集成和部署过程,也支持通过一个 API Key 自由切换使用不同的 AI 服务。下图展示了OpenRouter上大模型调用量排名。

火山引擎是字节跳动旗下的云服务平台,提供多种大模型自家豆包和DeepSeek-V3以及R1的API,下图展示的是火山引擎的模型广场,具体信息请通过火山引擎登录后查看(https://console.volcengine.com/)。

通义千问系列是阿里推出的大模型,涵盖多种模型版本,包括 qwen-max、qwen-plus、qwen-turbo 以及 qwen2.5 系列模型,阿里平台也集成了其他开源模型,比如DeepSeek等。下图展示的是阿里云百炼平台的模型广场,具体信息请通过阿里云登录后查看(https://account.aliyun.com/)。

DeepSeek则由于服务器压力,已经暂停API充值,存量金额可以继续调用。

4.2.如何本地部署
不同的操作系统在本地部署大模型方面存在一定的差异,比如:如果模型放到了HuggingFace上,可以使用transformers包直接载入;再比如DeepSeek对R1版本的建议是使用VLLM或SGLang,这两个大模型框架需要在Linux系统上运行。这些部署方法都需要一定计算机知识或者计算机配置的门槛。
因此我们可以选择简单易用的本地部署工具,如Ollama,它支持多种大模型(如 Llama 3.3、DeepSeek-R1、Mistral等),并且提供了跨平台支持(macOS、Linux、Windows)。它简化了模型的安装和运行流程,适合快速部署和测试大模型。具体步骤如下:
1)访问Ollama官网:https://ollama.com/,根据操作系统选择对应的版本进行下载安装。
2)安装DeepSeek-R1模型:在左上角找到“models”,点击进入。选择“deepseek-R1”大模型,并选择参数。如果选择最小参数的模型,可以在终端(比如Windows系统为终端管理员或者PowerShell)复制并粘贴以下命令,然后回车执行:ollama run deepseek-R1:1.5b。等待模型安装完成。
3)连接大模型:可以安装网页页面(如适合Ollama的PageAssit,仓库地址:https://github.com/n4ze3m/page-assist),也可以下载安装Chatbox前端,官网地址:chatboxai.app/zh,对于批量化的任务也可以通过python代码访问本地大模型的端口。
理论上,前面展示的代码生成、文字总结、情感分析、信息提取、知识库构建等等都可以使用本地部署来实现。但由于模型参数规模的原因,本地模型在特定任务上可能展现出不弱于更大规模参数模型的性能,但通用性上可能会差一些。
下图展示了使用python代码如何访问本地大模型端口。对于研发环境受网络限制的、同时有需要进行大规模文本处理的投研人员,可以考虑调用本地大模型端口。下方右图展示了让一句话解释量化投资和人工智能返回的结果,也展现出了一定的指令遵从性。

下图展示了使用Chatbox前端选择模型,左侧是安装Chatbox后选择本地安装的模型,右侧展示的是利用Chatbox前端进行聊天的页面。

4.3.效果比较
为了比较满血版和蒸馏版(通过Ollama部署)的效果差异,我们将八篇在同一周发布的石油石化行业的研报摘要放在一起,和如下提示拼接,八篇报告摘要的总字数约8000字。提示词是:“你是一名专业的金融分析师。请将以下行多个业研报的摘要内容进行整合,并总结为**不超过200个汉字**的简明摘要。摘要需**准确反映**这些研报的主要事实、观点和结论,**避免包含**风险提示和个人意见。请**严格控制字数**,确保不超过200个汉字。内容如下:”
下图展示的是DeepSeek官方满血版的总结结果,我们发现其思考过程清晰,一篇一篇地去思考,并且在思考的最后,也进一步强调了提示词中的要求,总结出的结果也包括了八篇报的要点,其中重要的数据、事实和观点都完整保留了。

DeepSeek-R1-Distill-Qwen-32B的模型虽然有思考过程,但从思考过程中看,似乎丢失了前六篇研报,也没有完全遵照指令,保留了风险提示。丢失的内容比如说有供需比较、美国制裁、炼化项目价差等等。

同样,DeepSeek-R1-Distill-Llama-70B的模型虽然有思考过程,但从思考过程中看,似乎丢失了前五篇研报,也没有完全遵照指令,生成的结果过于长、也同样错误保留了风险提示。
可能蒸馏的能力主要是针对代码和数学能力,DeepSeek-R1蒸馏出来的32B和70B模型的文字能力还是相对一般,不能较好的满足投研的需求。蒸馏出来的更小参数的模型,我们经过测试,发现在文字总结方面还是有内容丢失、指令遵从性不强的特点。
因此,在文字总结方面,如果内容不涉及敏感信息,还是要使用全参数的模型以获得更好的效果。
5.大模型对工作效率的提高可能存在哪些风险
尽管大模型为投研领域带来了诸多益处,大大提高了效率,但在使用过程中也面临一系列潜在风险,需要审慎应对。
5.1.模型局限与过度依赖风险
当前的大模型在金融投研领域虽功能强大,但并非万无一失。其在复杂推理、专业判断上仍有局限,若投研人员对模型结论不加甄别地采信,可能导致决策失误;另外,生成的代码可能会过于复杂,比如可能使用装饰器等复杂用法,如果投研人员对代码的理解能力不足,可能使得投研人员无法判断没有报错的代码是否正确,这可能导致代码包含隐藏的bug,在将代码用到其他地方时更易出错。为此,应坚持人机协同原则:将大模型定位为辅助者而非决策者,关键投资决策仍需由经验丰富的基金经理或风控人员做最终判断;生成的代码仍需投研人员进行详细审查。在应用大模型时,投研人员应明确模型的适用范围,定期评估模型输出与实际业务需求是否匹配,模型是否出现错误等。
5.2.数据偏差与模型偏见
大模型的训练效果高度依赖于数据。市场环境若发生重大变化(如政策突变),模型基于历史数据形成的判断偏好可能不再适用。应对策略:一是确保训练数据的多样性和时效性,定期引入最新的市场数据和案例对模型再训练或微调;二是对模型输出进行偏差监测,及时发现潜在偏见。
5.3.模型“幻觉”与错误信息风险
大模型有时会生成看似合理但实则错误的回答(即所谓“幻觉”现象),即便使用搜索功能并添加了引用来源,可能也存在“幻觉”。在金融应用中,这可能表现为编造不存在的统计数据或曲解相关内容。如未能察觉,可能对投资判断造成误导。应对这类风险,需要加强模型输出验证:重要的结论要求模型给出清晰的数据来源或依据(如引用来源的原始片段),并由人工核实。投研人员也可采用“双模型交叉验证”的方式,即让两个不同的大模型(基于不同的基座模型)分别生成结论并相互校对,提高正确率。
5.4.合规风险

使用AI模型还可能引发合规问题,例如辅助编程分析的数据或总结归纳的数据涉及内部信息或客户信息,如使用API则不能保证模型不会泄露公司内部信息或客户隐私数据。此外,即便我们能够看到大模型进行推理或者思考的过程,其内部过程依然是一个黑盒。应对方法包括,在利用大模型分析内部信息和客户信息时,仅使用本地模型进行分析,而不将其上传至网络。在模型输出前增加合规规则过滤,确保其建议符合监管要求。模型涉及到内部信息和客户数据时,要特别注意数据脱敏和权限控制,防止隐私泄露。一旦发现模型出现不当行为迹象(例如输出敏感信息),应立即暂停相关功能并调查原因,完善防范机制。



风险提示

市场环境变动风险,大模型稳定性风险,大模型偏差与准确性风险。



天风金工专题报告一览






多因子选股系列报告

向下滑动查看往期链接







请到「今天看啥」查看全文