近日有网传消息称,万豪要求其员工在限定时间内删除中国AI应用DeepSeek,否则将限制其访问内部邮箱、管理系统等核心工具。
一石激起千层浪。网友们怒斥万豪在中国赚得盆满钵满,现在反过来居然要砸中国AI的饭碗,真的太看不起中国市场了。
但也有理智的网友出来解释“万豪其实不光是禁了DeepSeek,美国自己的ChatGPT,也是不让用的。”
目前尚无法判断,这个网传消息是否属实。截至发稿,万豪方面尚未对此事进行公开回应。
实际上,即便这一消息属实,从万豪的立场出发,背后大概率有着基于数据安全的合理性考量,且并非是针对 DeepSeek 这一特定应用。
万豪高层此前就曾在接受环球旅讯采访时提到,
他们对与客户数据信息相关的科技应用持谨慎态度。
毕竟,万豪在数据安全问题上缴纳过 “天价学费”:
万豪属于一朝被蛇咬,十年怕井绳。要是自家员工把内部数据放在AI上跑一跑,又泄露了涉密信息怎么办呢?
像DeepSeek 这类人工智能应用,虽然在信息处理和生成方面具有强大的能力,但也存在一定的数据安全风险。
所以这
其实是公司内部信息安全管理的操作,可能并不是对中国市场的歧视。
并且,万豪的担忧并非孤例。在制造业,禁用生成式AI早成常态。
一网友表示,“工程师若用ChatGPT优化生产线参数,等于将数十年积累的工艺knowhow免费投喂给AI模型。”这类经验数据从未公开,一旦被AI学习,可能被竞争对手反向破解。
这也是为什么德国巴斯夫等化工巨头甚至开发内部AI系统,所有运算均在本地服务器完成,都严格隔绝外部连接。
当然,禁止员工使用AI工具虽能降低风险,却也带来效率争议。毕竟DeepSeek等应用在文档处理、数据分析方面的优势显而易见。
有网友认为,个人手机用不应该被限制——其实恰恰好问题就出在这里,因为如果是公司网络、公司设备部署好规范化的使用方式,反而是可以提高效率的,同时不涉及数据泄露。
未来,企业或许会采用“AI隔离”方案,例如通过虚拟专用网络限制AI工具的数据访问权限,或开发内部替代产品。
但在技术成熟前,“一刀切”禁用仍是多数企业的无奈选择。
话说回来,无论万豪禁用DeepSeek的消息是否属实,其反映的趋势已不可逆:
在数据泄露代价高昂的今天,企业正将数据主权保护置于技术创新之上。
这种选择或许暂时影响效率,但相较于动辄数亿的罚款与不可逆的品牌声誉损伤,仍是一种理性的风险规避。
当AI技术狂飙突进时,如何为其套上安全的缰绳,将是所有数据密集型行业的长期课题。