Trail of Bits 的安全研究人员发现了一种利用图像缩放的提示注入攻击方式,可以直接威胁实际运行中的 AI 系统。攻击者会将恶意指令隐藏在高分辨率的大型图像中,这些内容在人眼观察时不可见。但当 AI 系统自动对图像进行缩小处理时,隐藏的指令就会被“显现”,并被 AI 代理当作提示执行。
研究人员在多个生产环境下验证了这一攻击手法,包括 Google Assistant、Google Gemini CLI、Google Vertex AI,以及 Genspark 浏览器代理。问题的根源在于,大多数 AI 服务在分析前都会对图像进行缩放,而缩放过程中常用的插值算法(如最近邻、双线性或双三次插值)可能将隐藏内容“放大”出来,从而触发恶意行为。
发布于 中国香港
