开源软件供应链安全再次拉响警报。
近日,安全研究人员发现了一种新型攻击方式。
攻击者仅需使用两条简单的 Git 配置命令,就能伪装成知名技术专家的身份,欺骗基于大语言模型的自动化代码审查工具,使其自动批准并合并包含恶意代码的拉取请求。
这一漏洞可能影响全球上万个开源项目和企业内部代码仓库。
如今,Claude Code、GitHub Copilot、谷歌 Gemini CLI、OpenAI Codex 等 AI 编码助手已经成为开发者日常工作的标配。
它们不仅能帮助编写代码,还被越来越多的团队部署到 CI/CD 流水线中,承担代码审查甚至自动合并的工作。
为了提高效率,许多项目配置了自动化规则。
当 AI 识别出提交者是 "可信人员" 时,就会自动批准其拉取请求。
这些可信人员可能包括项目维护者、组织成员或者行业内公认的专家。 这种做法看似合理,却隐藏着致命的安全隐患。
AI 代码审查者做出信任判断的依据,仅仅是 Git 提交记录中自报的作者姓名和邮箱。而 Git 的作者身份信息从设计之初就是可以自由修改的,不需要任何凭证验证。
安全研究人员进行了一次完整的模拟攻击。他们成功伪装成了著名 AI 研究者安德烈・卡帕西,让 claude-code-action 自动合并了包含恶意代码的拉取请求。整个过程分为四个步骤,全程没有使用任何漏洞利用工具,也没有窃取任何账号密码。
#ai创造营# #科技风向标#
发布了头条文章:《冒充知名开发者骗过AI合并恶意代码到主分支》 http://t.cn/AXxwKUqe
发布于 广东
