【漏洞通告】vLLM trust_remote_code绕过远程代码执行漏洞(CVE-2026-27893)

发布时间 2026-03-27

一、漏洞概述


漏洞名称

vLLM trust_remote_code绕过远程代码执行漏洞

CVE   ID

CVE-2026-27893

漏洞类型

RCE

发现时间

2026-3-27

漏洞评分

8.8

漏洞等级

高危

攻击向量

网络

所需权限

利用难度

用户交互

需要

PoC/EXP

未公开

在野利用

未发现


vLLM是一个高性能的大模型推理框架,专为大规模语言模型的高吞吐量、低延迟部署而设计。其核心特性包括PagedAttention高效内存管理、并行化调度优化以及对多GPU、分布式环境的良好支持。vLLM兼容Hugging Face接口,便于模型快速加载与集成,广泛用于推理服务、AI应用后端与生产级模型部署场景。


2026年3月27日,启明星辰安全应急响应中心(VSRC)监测到vLLM trust_remote_code绕过远程代码执行漏洞。该漏洞存在于vllm/model_executor/models/nemotron_vl.py和vllm/model_executor/models/kimi_k25.py文件中,由于代码中硬编码设置trust_remote_code=True,导致用户显式配置trust-remote-code=False被绕过。攻击者可通过构造恶意HuggingFace模型仓库,在模型加载过程中执行任意Python代码,获取服务器执行权限,进而实现系统控制、数据窃取或横向移动。该漏洞破坏了trust_remote_code安全机制的信任边界,可能导致敏感数据泄露及服务被完全接管,存在较高合规风险。


二、影响范围


vLLM >=0.10.1


三、安全措施


3.1 升级版本


官方已发布修复补丁,以修复该漏洞。
vLLM >= 0.18.0


下载链接:https://github.com/vllm-project/vllm/releases/


3.2 临时措施


暂无。


3.3 通用建议


• 定期更新系统补丁,减少系统漏洞,提升服务器的安全性。
• 加强系统和网络的访问控制,修改防火墙策略,关闭非必要的应用端口或服务,减少将危险服务(如SSH、RDP等)暴露到公网,减少攻击面。
• 使用企业级安全产品,提升企业的网络安全性能。
• 加强系统用户和权限管理,启用多因素认证机制和最小权限原则,用户和软件权限应保持在最低限度。

• 启用强密码策略并设置为定期修改。


3.4 参考链接


https://github.com/vllm-project/vllm/security/advisories/GHSA-7972-pg2x-xr59/