1. 漏洞背景
vLLM是一个被广泛采用的、用于大型语言模型(LLM)推理和服务的开源库,以其高效性和易用性著称。Mooncake 是一个开源的大模型推理架构。近日,监测发现vLLM在与Mooncake配置结合使用时,存在一个远程代码执行漏洞,编号为 CVE-2025-32444。攻击者可能利用此漏洞在托管vLLM服务的系统上执行恶意代码。
2. 漏洞详情
CVE-2025-32444是一个远程代码执行漏洞,根据其潜在影响,被评定为“严重”级别。该漏洞的根本原因在于,当vLLM 配置为使用Mooncake时,其内部通讯采用了基于Python pickle模块的序列化机制,并通过一个未做充分安全防护的 ZeroMQ 套接字进行数据传输。更为关键的是,这个受影响的ZeroMQ套接字被配置为监听所有网络接口 (通常是 0.0.0.0),这意味着任何能够访问到该服务网络端口的攻击者,都有可能通过发送特制的恶意 pickle 数据包来触发此漏洞,进而实现在目标服务器上的远程代码执行。此漏洞利用无需用户交互,攻击复杂度较低。
目前受影响的版本为:
3. 漏洞影响
远程代码执行风险:攻击者一旦成功利用此漏洞,将能够在运行vLLM服务的服务器上执行任意代码,可能导致:
高危安全威胁:由于该漏洞允许未经身份验证的远程攻击者执行代码,且利用条件相对简单,网络可达即可,对系统的机密性、完整性和可用性均构成严重威胁。
业务连续性风险:vLLM作为流行的LLM服务库,其用户可能遍布多个行业。一旦漏洞被利用,可能导致相关AI服务中断,影响业务正常运行。
4. 处置建议