【漏洞通告】vLLM auto_map 动态模块远程代码执行漏洞 (CVE-2026-22807)

发布时间 2026-01-22

一、漏洞概述


漏洞名称

vLLM auto_map 动态模块远程代码执行漏洞

CVE   ID

CVE-2026-22807

漏洞类型

RCE

发现时间

2026-01-22

漏洞评分

8.8

漏洞等级

高危

攻击向量

网络

所需权限

利用难度

用户交互

需要

PoC/EXP

未公开

在野利用

未发现


vLLM是一个高性能的大模型推理框架,专为大规模语言模型的高吞吐量、低延迟部署而设计。其核心特性包括PagedAttention高效内存管理、并行化调度优化以及对多GPU、分布式环境的良好支持。vLLM兼容Hugging Face接口,便于模型快速加载与集成,广泛用于推理服务、AI应用后端与生产级模型部署场景。


2026年1月22日,启明星辰集团VSRC监测到vLLM在模型初始化阶段存在的一项远程代码执行漏洞。该漏洞源于vLLM在解析模型配置时,无条件加载Hugging Face模型中的auto_map动态模块,且未对trust_remote_code选项进行有效校验。攻击者一旦能够控制模型仓库路径(本地目录或远程仓库),即可在模型加载过程中注入并执行任意Python代码。该行为发生在服务启动阶段,请求处理之前,无需任何接口访问权限,风险较高,可能直接导致宿主系统被完全控制。


二、影响范围


0.10.1 <= vLLM < 0.14.0。


三、安全措施


3.1 升级版本


官方已发布修复版本,建议用户升级

vLLM > 0.14.0


下载链接:https://github.com/vllm-project/vllm/releases/


3.2 临时措施


暂无。


3.3 通用建议


• 定期更新系统补丁,减少系统漏洞,提升服务器的安全性。
• 加强系统和网络的访问控制,修改防火墙策略,关闭非必要的应用端口或服务,减少将危险服务(如SSH、RDP等)暴露到公网,减少攻击面。
• 使用企业级安全产品,提升企业的网络安全性能。
• 加强系统用户和权限管理,启用多因素认证机制和最小权限原则,用户和软件权限应保持在最低限度。
• 启用强密码策略并设置为定期修改。


3.4 参考链接


https://nvd.nist.gov/vuln/detail/CVE-2026-22807
https://github.com/vllm-project/vllm/security/advisories/GHSA-2pc9-4j83-qjmr