DeepSeek开源模型的发布同时也引发了海外对其安全风险的关注和讨论,众多海外国家和组织针对DeepSeek开源模型进行了针对国家安全、数据安全、版权风险和安全漏洞等方面的安全影响评估并提出了治理措施或建议。例如,美国云安全平台Wiz Research发现DeepSeek关联数据库存在泄露大量后端数据、操作细节等敏感信息的风险,该团队立即向DeepSeek披露了此问题,并提出人工智能公司应实施与公共云提供商和主要基础设施提供商同等的安全措施。[1]人工智能安全平台Hiddenlayer对DeepSeek-R1的安全评测结论指出,该模型存在无法抵御简单越狱攻击、思想链 (CoT) 推理可能会导致信息泄露等安全漏洞,建议确保部署环境的可控性再使用该开源模型。
[2]
从评估结果来看,DeepSeek开源模型的风险主要集中在数据安全和安全(safety)漏洞两个方面。DeepSeek开源模型带来的数据安全风险主要表现为敏感数据的攻击泄露(关联数据库泄露DeepSeek内部敏感信息且攻击者易访问)以及思维链数据泄露(CoT推理引入中间步骤可能会无意泄露敏感信息、内部逻辑以及模型训练中使用的专有数据等)。
前者主要为数据库等基础设施的安全风险,这属于用户-模型数据交互链路中执行环境的特定环节,需要采用系统化的视角来进行安全加固,并非模型本身的固有安全漏洞。
(参考阅读:
《
治理之智|用户-模型数据交互安全:挑战、应对及思考
》
)
后者则并非DeepSeek独有的问题,目前所有的推理模型技术都面临此类CoT数据泄露的数据安全风险。
DeepSeek开源模型存在的安全漏洞风险则包含网络安全、内容安全、偏见与歧视、代码安全、CBRN(化学、生物、放射和核能)安全等方面。根据海外多个人工智能安全平台及研究团队(Enkrypt AI、Robust Intelligence等)的安全评估和红队测试结果,DeepSeek-R1模型在在部分测试项目上展现出相对与其他主流模型更高的安全风险,例如生成不安全代码的可能性比OpenAI o1高出4倍,偏见歧视内容诱导的成功率高达83%且比Claude-3 Opus高出3倍,生成CBRN相关内容的脆弱性是OpenAI o1和Claude-3-Opus的3.5倍等。[3]但细究其评测结论的分析过程,
其核心原因在于各国在安全风险优先级、模型输出内容管理要求、容忍度基准等方面存在差异性,导致各国对模型的安全表现评价各不相同。
整体来看,排除评价标准差异化因素的影响,各国评估并未发现DeepSeek开源模型及其应用会造成额外的风险
。换言之,
DeepSeek作为大模型技术并未带来相比于其他大模型的更多风险;但作为开源大模型,考虑到开源将降低使用门槛并让模型更加普及化,开源模型生态中的滥用误用情况则可能变多
。此时开源模型并非主要的风险源,总体安全风险反而将受到复杂的上下游任务链参与方以及基础设施、系统拦防和使用场景等多重因素影响,而这便要求风险治理机制的进一步完善与改革。