本周AI圈两条安全相关的新闻同时刷屏。
一条来自Anthropic:Claude引入强实名制验证,部分用户在访问特定功能或触发风控时,必须手持证件自拍验证身份,否则直接封号。据新智元报道,这一措施旨在防止滥用及合规,但引发了全球范围的隐私争议。
另一条来自OpenAI:GPT-5.4-Cyber安全模型发布,可在无源码情况下自动寻找软件漏洞,据称已修复3000个安全缺陷。但该模型仅限安全专家使用,不向公众开放。
两条新闻看似各自独立,实则指向同一个命题:大模型安全该从哪一端入手——管用户,还是管模型?
强实名的逻辑很简单:如果每个使用AI的人都是可追溯的,滥用就会大幅减少。这和国内手机号实名制、金融账户KYC的思路一脉相承。
但问题也很明显——实名验证意味着用户必须向平台交出身份信息。对于个人用户,这已经是隐私侵犯的边界;对于企业用户,这意味着你的员工信息、使用习惯、业务场景数据,全部暴露在平台的视野之内。
更值得警惕的是:当大模型平台掌握了你的企业身份和使用数据,它对你的了解可能比你想象的更深——你问什么问题、关注什么领域、遇到什么技术瓶颈,都是“裸奔”的。
GPT-5.4-Cyber的逻辑是:让AI本身成为安全工具,用“好的AI”打败“坏的AI”。这比强实名更“优雅”——不需要侵犯用户隐私,而是提升模型自身的安全能力。
但“仅限专家使用”这个限制,恰恰暴露了它的局限性:当安全能力变成少数人的特权,大多数企业就被排除在保护圈之外。中小企业用不起、不会用、不敢用,最终安全鸿沟反而被拉大。
无论哪条路径,企业都需要思考一个更根本的问题:你的数据主权归谁?
强实名意味着你的身份数据归平台,专用安全模型意味着你的安全能力依赖平台。两条路的终点是一样的——企业对AI基础设施的控制力在减弱。
这正是谷雨在AI落地陪跑中反复强调的原则:数据主权归企业,这是不可谈判的底线。具体到实践层面:
按照谷雨L0-L3成熟度模型,AI安全的建设也有清晰的阶段路径:
大多数中国企业目前还在L0到L1之间。Claude强实名和GPT-5.4-Cyber的“双面局”,恰恰提醒企业:不要等问题发生才补课,AI安全应该是落地第一课,而不是最后一课。
Anthropic和OpenAI选择了不同的安全路径,但对企业的启示是一致的:无论平台怎么管,企业必须管好自己的数据主权。在SEAT-D方法论中,Data Intelligence(数据智能)不仅指数据驱动决策,更指对数据本身的智能管控——你的数据在哪里、谁在用、怎么用,必须清清楚楚。
这也是破土计划“行业共识原型”层的第一步:在AI安全上达成组织共识,然后才能谈落地。不是等技术成熟了再动手,而是先建立安全意识框架,再在实践中迭代。