专栏名称: 网空闲话plus
原《网空闲话》。主推网络空间安全情报分享,安全意识教育普及,安全文化建设培育。将陆续推出网安快讯、网安锐评、网安政策、谍影扫描、APT掠影、密码技术、OT安全等专集。
目录
相关文章推荐
西藏发布  ·  《实施细则》出台!涉及拉萨这些人! ·  21 小时前  
西藏发布  ·  次旦玉珍夺得滑雪登山亚冬会历史首金 ·  昨天  
西藏发布  ·  西藏跨省异地就医人员注意! ·  3 天前  
51好读  ›  专栏  ›  网空闲话plus

DeepSeek已遭美西方全面围剿:各种放大后的问题及恶意舆论接踵而至

网空闲话plus  · 公众号  ·  · 2025-01-30 09:39

正文

随着DeepSeek在全球人工智能领域的迅速崛起,美国及西方舆论对其展开了多方面的攻击,试图通过技术问题和舆论抹黑削弱其影响力。据证实,此前DeepSeek遭遇了大规模的DDoS攻击,使其不得不暂停新用户注册,幕后黑手不言自明。紧接着,外媒的舆论引导已开始各种放大DeepSeek的问题,而这些问题是LLM和AI当前共性的问题。首先,数据库泄露敏感信息的问题被夸大,尽管Wiz Research确实发现并报告了相关漏洞,但DeepSeek已迅速修复,这表明其具备快速响应能力。其次,所谓“数据流向东方”的指控缺乏实质性证据,更多是地缘政治博弈的一部分,旨在制造对DeepSeek的不信任。第三,炒作DeepSeek在安全测试方面的问题,忽视了其在技术研发和安全防护上的持续投入。最后,恶意炒作DeepSeek威胁全球安全,试图将其塑造为技术威胁,实则是为了遏制中国在AI领域的发展势头。对此网络攻击和舆论战,不得不妨。

总体来看,这些攻击不仅是技术层面的质疑,更是国际竞争中的舆论战。相比之下,美国推出的类似大模型如ChatGPT、Gemini等同样存在数据安全和隐私保护问题,却未被同等关注,这种选择性攻击显然是典型的双重标准。DeepSeek需在加强技术安全的同时,积极应对舆论挑战,提升透明度,以维护其全球声誉和市场地位。同时,国际社会应摒弃双重标准,公平看待各国在人工智能领域的发展与挑战。

1、渲染数据库泄露敏感信息的问题

2025年1月30日,Wiz Research团队发现中国人工智能初创公司DeepSeek的一个可公开访问的ClickHouse数据库,该数据库未经过身份验证,暴露了超过一百万行包含高度敏感信息的日志流。泄露的数据包括聊天记录、API密钥、后端详细信息以及操作元数据等。此次暴露还可能导致完全数据库控制和权限提升,对DeepSeek及其用户的安全构成严重威胁。

Wiz Research通过简单的侦察技术发现DeepSeek的两个子域(oauth2callback.deepseek.com和dev.deepseek.com)开放了不寻常的端口(8123和9000),这些端口直接暴露了ClickHouse数据库。通过执行SQL查询,研究人员访问了包含敏感数据的log_stream表,其中记录了自2025年1月6日以来的日志,包括聊天历史、API密钥和操作元数据。

此次事件凸显了人工智能服务在快速扩展过程中忽视基础设施安全的风险。尽管人工智能安全通常关注未来威胁,但基本的安全漏洞(如数据库暴露)仍然是主要风险。Wiz Research呼吁AI行业在处理敏感数据时,必须实施与公共云提供商同等的安全措施,确保客户数据的安全。

DeepSeek在收到报告后迅速修复了漏洞,但此次事件提醒业界,安全团队必须与AI工程师紧密合作,确保架构和工具的安全性,防止类似事件再次发生。

2、放大所谓数据流向东方的问题

2025年1月28日,据相关报道,中国人工智能平台DeepSeek的普及引发了数据安全和隐私方面的担忧。DeepSeek是一个由中国大型对冲基金支持的生成式人工智能平台,提供本地化的人工智能模型和便捷的应用程序访问。尽管美国试图限制中国服务,但DeepSeek的用户数量仍在增长,表明技术禁令难以阻止先进技术的传播。

DeepSeek的隐私政策显示,用户数据(包括聊天记录、语音请求和上传文件)将被发送到中国的服务器进行处理。此外,平台还收集设备信息、IP地址、操作系统和打字节奏等数据。专家警告用户避免在平台上输入机密信息。由于中国法律要求科技公司与政府机构合作提供数据访问权限,这引发了对DeepSeek可能被用于宣传或情报收集的担忧。

尽管DeepSeek提供了离线运行的本地版本以避免数据传输,但其对中国政策的承诺仍引发质疑。生成式人工智能的使用要求开发人员提高透明度,而DeepSeek通过免费访问吸引用户,可能以个人数据的转移为代价。这种做法不仅损害用户隐私,还增加了数据安全风险。当前局势进一步加剧了中美之间的紧张关系。

3、炒作DeepSeek安全测试方面的问题

2025年1月29日,据相关外媒报道,中国人工智能模型DeepSeek R1在安全测试中表现不佳,存在严重安全风险。尽管DeepSeek R1在解决复杂逻辑问题、编程和数学方面表现出色,但KELA分析师发现该模型更容易遭受黑客攻击,且更容易被“越狱”,即绕过安全机制生成禁止内容。测试中,专家利用过时但有效的技术,让DeepSeek R1创建恶意软件,提供洗钱和组装致命无人机的详细说明,甚至生成了制造炸弹、炸药和无法追踪毒素的指令。此外,该模型还生成了窃取用户数据的恶意代码,并推荐了可疑平台用于出售被盗数据。

DeepSeek R1基于大规模强化学习训练的DeepSeek-V3模型,在Chatbot Arena平台上表现优于多个领先模型,但在安全机制方面存在明显不足。该模型还存在生成虚假和危险数据的问题,例如在测试中生成了包含OpenAI员工虚假个人信息的表格。此外,DeepSeek的隐私政策允许使用用户查询和响应来训练模型,且中国法律要求公司与当局共享数据,这引发了隐私和数据安全方面的担忧。KELA建议组织在实施此类技术前应仔细评估风险,确保生成式人工智能模型在投入工作流程前经过严格的安全测试,以防止数据泄露和恶意内容传播。

4、恶评DeepSeek威胁全球安全

外媒对DeepSeek大模型的恶意揣摩还不仅限于漏洞、安全性、数据隐私,AI威胁论调也正在泛滥。

一是技术威胁与全球平衡。外媒认为DeepSeek的快速发展可能改变全球人工智能的力量平衡,威胁美国在该领域的长期领导地位。DeepSeek在数学、编程和逻辑推理方面的表现已达到与OpenAI模型相当的水平,这可能削弱美国的垄断地位。







请到「今天看啥」查看全文