Claude Code源代码大规模泄露,Anthropic承认人为错误,AI开发界震动

  • 时间:2026-04-03

近日,人工智能公司Anthropic遭遇重大泄露事件,其热门编程工具Claude Code的源代码被意外公开,总计超过51万行代码,提前曝光了尚未发布的电子宠物和持久化AI助手等功能,引发了业界对AI开发安全性和市场竞争的关注。此次泄露源于一次低级的打包失误,迅速在开发者社区扩散,成为一场震动AI圈的“野生发布会”。

泄露事件由安全研究员Chaofan Shou于2026年3月31日凌晨发现。他在检查Claude Code的npm包时,注意到一个约60MB的源映射文件(source map)未被删除,该文件指向了包含1900多个TypeScript文件的完整源代码库,总计512,000行未经混淆的代码。数小时内,这些代码被上传至GitHub,星标破万、备份超2万次,即使Anthropic紧急下架原版本,代码已在开源社区永久留存。

Anthropic公司迅速对此事作出回应,Claude Code项目开发负责人Boris Cherny在社交平台上表示:“这是人为错误。我们的部署流程包含几个手动步骤,其中一个步骤我们操作有误。”公司方面向媒体确认,此次泄露是由于打包配置疏漏导致,而非安全漏洞,未涉及敏感客户数据或核心AI模型参数。这已是Anthropic近期第二次泄露事件,此前曾因CMS配置错误泄露模型信息,频繁的“人为失误”正在侵蚀市场信任。

泄露的代码库不仅包含了Claude Code的完整架构,还提前曝光了一系列尚未公开的隐藏功能。根据开发者分析,代码中出现了名为“Buddy System”的电子宠物和“Kairos”持久化AI助手等模块,展示了Anthropic在产品布局上的前沿规划。此外,代码揭示了Claude Code的多层设计哲学,包括入口层、运行层、引擎层等五层架构,以及动态提示拼装等技术细节,让外界首次窥见成熟AI Agent的内部构造。

事件对AI开发行业产生了双重影响。一方面,泄露为中小开发者提供了宝贵的学习机会,代码中蕴含的架构设计、优化思路和工程实现细节,可视为一份完整的技术参考范本,助力提升产品能力。另一方面,专家警告,相关代码的商业化使用可能面临法律风险,北京华夏工联网智能技术研究院院长王喜文指出,AI研发应始终以自主创新为核心,将泄露源代码作为辅助学习手段,而非依赖资源。

Anthropic已采取紧急措施控制事态影响,包括通过版权下架申请删除GitHub上的代码副本。截至4月2日,公司已将下架范围缩减至96份副本,称最初的申请覆盖了超出预期的账号。尽管公司强调泄露未暴露核心算法权重,但此次事件再次敲响了AI企业运维安全的警钟,凸显了从构建到发布流程中健全性检查的重要性。

从行业趋势看,此次泄露事件暴露了AI Agent开发的前沿设计,如上下文工程、工具集最小化和子智能体隔离等原则在代码中得到实践。开发者社区已开始对泄露源码进行解构分析,讨论其工程价值,这或许将推动整个行业在AI工具研发上的技术交流与进步,但也提醒企业需加强内部安全管控,避免类似低级错误重演。