在未来的数字生态中,AI大模型的基础设施地位将愈发凸显。
但与此同时,数据隐私泄露、认知安全隐患、基础设施遭受威胁等一系列安全风险如影随形,其严重程度可能超乎想象。
如何在推动技术创新的同时有效管控安全风险,成为一项至关重要且亟待解决的课题。
2025年1月,美国云安全公司Wiz Research评估DeepSeek的外部安全态势时,发现了一个可公开访问的ClickHouse数据库,且未经身份验证,其中包含超过100万行的日志流以及大量聊天记录、后端数据和敏感信息,如API密钥等,并允许完全控制数据库操作。
“这是员工误操作引发的数据泄露,也是通用安全风险,好比出门忘关保险柜。我们既要防范传统的‘明枪’,也要警惕AI时代的‘暗箭’。”天翼安全科技有限公司(以下简称“电信安全”)解决方案专家李磬说道。
据《IT时报》记者了解,
电信安全经过长时间监测也发现,九成AI一体机处于“裸奔”状态,本地化部署大模型的安全隐患极大,只要对外提供服务,互联网暴露风险就高达九成。
在李磬看来,大模型本身没有安全护栏,靠的是大模型的对齐能力,本地部署的安全问题不只针对DeepSeek,90%以上的大模型都存在。
技术部署的便捷性与安全意识的滞后性之间存在矛盾,此外,大模型的快速普及促使企业和个人追求快速落地,往往将安全视为“可选项”而非“必选项”。
更深层次的问题是,行业对新兴技术风险认知的不足。现行网络安全法规对大模型这类新兴技术的针对性不足,缺乏强制性的合规要求,导致企业安全建设投入比例低。此外,部分企业将安全责任完全外包给第三方或依赖开源社区,缺乏主动防御能力。
任何人不需要任何认证即可随意调用、在未经授权的情况下访问这些服务,极有可能造成数据泄露和服务中断,甚至可以发送指令删除所部署的DeepSeek、Qwen等大模型文件……
除了内部泄密、DDoS攻击外,传统的安全风险还有多手段的数据窃取。
电信安全解决方案专家李磬总结了AI模型特有的三点风险:一是“学坏风险”,比如被指令教唆生成虚假信息,生成虚假信息引发舆情,教唆数字人播报错误新闻等;二是“泄密风险”,可能无意间透露训练时“记住”的隐私数据;三是“失控风险”,比如越狱攻击,诱导模型输出违法内容,如同教唆机器人犯罪。
自从DeepSeek出圈后,政务、教育、医疗等行业的企业在短时间内密集接入DeepSeek。“大规模接入DeepSeek只有一个月,预计大模型用到生产环节,大量企业将私有数据上传至模型后,大模型的安全问题就会集中暴露。”李磬预计,今年内政务、医疗等行业用户可能会有大规模的模型安全需求。
在构
建大模型安
全防护体系中,隐私计算技术发挥着至关重要的作用。比如利用加密计算,确保数据在计算过程中仍然保持加密,即使在云端或第三方环境中运行,也不会暴露原始数据;在TEE环境中执行模型计算,防止模型参数被窃取或篡改,保障模型知识产权;结合数据要素库的可信安全手段,保护敏感的训练数据或微调数据,保障使用过程安全。
如何最大程度规避风险,构建大模型安全防护体系,不少安全公司开始行动起来。
电信安全设计了“三位一体”的
防护方
案:首先是网络侧,
电信安全在互联网入口部署“防洪堤+安检门”,用抗DDoS+云WAF组合,如果遭遇像DeepSeek与X平台这种大规模DDoS攻击时,可以调用、部署流量清洗系统和API网关,监控识别异常流量并过滤;
其次是主机侧,
在服务器和工作站部署“智能保镖”,实时监控异常进程。持续监测比如境外开源工具Ollama其默认API服务11434端口,可以在未授权情况下被调用,攻击者可远程访问该接口,调用私域大模型计算资源,窃取知识库、投喂虚假甚至有害信息等,同时对开源的工具如anythingllm、VLLM等工具进行持续的跟踪监控;
最后是模型侧,
给DeepSeek加装“安全刹车”,也就是大模型护栏,拦截越狱指令和有害输出。
“仅电信体系内部就有基础模型和各类行业模型就超过100个。”