• 网站首页
  •   >   威胁情报
  •   >   正文
  • 威胁情报

    vLLM远程代码执行漏洞(CVE-2025-32444)

    发布日期:2025-05-08    浏览次数:

    1. 漏洞背景

    vLLM是一个被广泛采用的、用于大型语言模型(LLM)推理和服务的开源库,以其高效性和易用性著称。Mooncake 是一个开源的大模型推理架构。近日,监测发现vLLM在与Mooncake配置结合使用时,存在一个远程代码执行漏洞,编号为 CVE-2025-32444。攻击者可能利用此漏洞在托管vLLM服务的系统上执行恶意代码。

    2. 漏洞详情

    CVE-2025-32444是一个远程代码执行漏洞,根据其潜在影响,被评定为“严重”级别。该漏洞的根本原因在于,当vLLM 配置为使用Mooncake时,其内部通讯采用了基于Python pickle模块的序列化机制,并通过一个未做充分安全防护的 ZeroMQ 套接字进行数据传输。更为关键的是,这个受影响的ZeroMQ套接字被配置为监听所有网络接口 (通常是 0.0.0.0),这意味着任何能够访问到该服务网络端口的攻击者,都有可能通过发送特制的恶意 pickle 数据包来触发此漏洞,进而实现在目标服务器上的远程代码执行。此漏洞利用无需用户交互,攻击复杂度较低。

    目前受影响的版本为:

    • 0.6.5 <= vLLM < 0.8.5

    3. 漏洞影响

    • 远程代码执行风险:攻击者一旦成功利用此漏洞,将能够在运行vLLM服务的服务器上执行任意代码,可能导致:

      • 植入木马、后门、勒索软件等恶意程序。

      • 窃取服务器上的敏感数据,如模型权重、训练数据、用户交互信息或其他关键业务数据。

      • 获取服务器的完全控制权,将其作为跳板对内网其他系统进行渗透,或用于组建僵尸网络。

    • 高危安全威胁:由于该漏洞允许未经身份验证的远程攻击者执行代码,且利用条件相对简单,网络可达即可,对系统的机密性、完整性和可用性均构成严重威胁。

    • 业务连续性风险:vLLM作为流行的LLM服务库,其用户可能遍布多个行业。一旦漏洞被利用,可能导致相关AI服务中断,影响业务正常运行。

    4. 处置建议

    • 版本检查

      • 排查部署环境中vLLM的版本号。

      • 通常可以通过项目的依赖管理文件(如 requirements.txt)或使用包管理工具(如 pip show vllm)来查看当前 vLLM 的版本。

    • 更新修复

      • vLLM 官方已针对此漏洞发布了修复版本。

      • 强烈建议所有受影响用户立即将 vLLM 客户端(库)更新至 0.8.5 或更高版本。

      • 官方下载/更新地址: https://github.com/vllm-project/vllm/releases

    • 安全加固

      • 参考资料:

      • https://github.com/vllm-project/vllm/security/advisories/GHSA-hj4w-hm2g-p6w5

      • https://nvd.nist.gov/vuln/detail/CVE-2025-32444

      • 网络访问控制:在完成版本更新前,或作为纵深防御措施,务必使用防火墙或其他网络安全策略,严格限制对 vLLM 服务所使用的 ZeroMQ 套接字端口的访问。仅允许来自可信任IP地址或网络的访问,避免将其暴露在不安全的网络环境中,特别是公网。

      • 最小权限原则:确保运行 vLLM 服务的用户账户权限最小化,避免使用 root 或管理员权限运行。

      • 安全监控与审计:加强对相关服务器和应用日志的监控,及时发现异常网络连接和潜在的攻击行为。定期进行安全审计,日志审计等。


    地址: 成都市外东成洛大道2025号 版权所有©成都大学 蜀ICP备05006454号电话:028-84616931  邮编:610106