AI 路由漏洞可被利用注入恶意代码并窃取敏感数据

张开发
2026/4/13 14:50:50 15 分钟阅读

分享文章

AI 路由漏洞可被利用注入恶意代码并窃取敏感数据
在 AI Agent 生态系统中第三方 API 路由正成为一个关键且长期被忽视的攻击面。攻击者可将其武器化悄无声息地劫持工具调用、清空加密货币钱包并大规模窃取敏感凭证。随着 AI Agent 越来越多地自动化执行高风险任务如运行代码、管理云基础设施和处理金融交易它们依赖名为 LLM API 路由的中介服务将请求分发给 OpenAI、Anthropic 和 Google 等供应商。危险的信任边界加州大学圣塔芭芭拉分校研究人员在题为《你的 Agent 归我所有测量 LLM 供应链中的恶意中介攻击》的新研究中揭示这些路由代表着危险且无防护的信任边界。LLM API 路由位于 AI Agent 客户端与上游模型供应商之间作为应用层代理运行能够完全明文访问每个传输中的 JSON 有效载荷。与需要伪造 TLS 证书的传统中间人攻击不同这些中介是由开发者自愿配置为 API 端点的。路由会终止客户端 TLS 连接并重新建立上游连接使其处于理想位置来读取、修改或伪造任何工具调用有效载荷而不被发现。目前没有主流 AI 供应商强制实施客户端与上游模型之间的加密完整性验证这意味着无法阻止恶意路由重写 Agent 执行的命令。恶意代码注入实践研究团队从淘宝、闲鱼和 Shopify 托管商店等平台购买了 28 个付费路由并从公共社区收集了 400 个免费路由发现9 个路由在返回的工具调用中主动注入恶意代码1 个付费8 个免费17 个免费路由在拦截研究人员拥有的 AWS 凭证后触发后续未授权使用1 个路由清空了研究人员持有的以太坊私钥中的 ETH2 个路由实施自适应规避仅在 50 次请求后激活恶意载荷或针对运行 Rust/Go 项目的自主 YOLO 模式会话特别危险的攻击类别 AC-1载荷注入通过将良性安装程序 URL 或包名替换为攻击者控制的端点实现。由于被篡改的 JSON 载荷在语法上仍然有效它能通过模式验证并避开大多数自动化安全检查。仅需重写一条curl命令就可在客户端机器上实现任意代码执行。路由污染实验威胁不仅来自主动恶意的路由。研究表明即使表面良性的路由也可能被污染在中国论坛和聊天群组故意泄露一个研究用的 OpenAI API 密钥后该密钥生成了 1 亿个 GPT-5.4 token并在多个下游 Codex 会话中暴露凭证通过在 20 个域名和 20 个 IP 地址部署故意设置薄弱的路由诱饵吸引了 4 万次未授权访问尝试提供了约 20 亿计费 token在 398 个不同项目的 440 个 Codex 会话中暴露 99 组凭证。值得注意的是其中 401 个会话已处于自主 YOLO 模式工具执行无需逐条确认防御方案虽然研究者指出客户端防御无法完全验证返回工具调用的来源但有三项无需供应商配合即可部署的缓解措施故障关闭策略门通过仅允许本地白名单命令以 1.0% 误报率拦截所有 shell 重写和依赖注入攻击若攻击者将载荷托管在白名单域名仍可绕过响应端异常筛查使用基于良性工具调用模式训练的 IsolationForest 模型以 6.7% 误报预算标记 89% 的载荷注入尝试只追加透明日志记录完整请求/响应元数据、TLS 数据和响应哈希以支持事后取证分析每条记录仅约 1.26 KB研究团队认为要彻底解决来源验证问题需要供应商签署响应信封——类似电子邮件的 DKIM 机制通过加密方式将 Agent 执行的工具调用与上游模型的实际输出绑定。在 OpenAI 等主要供应商实施此类响应完整性机制前通过第三方路由部署 AI Agent 的开发者应将每个中介视为潜在对手并相应实施分层客户端防御。

更多文章