* [doc] update FAQ with logprobs MQ limits and deprecation * [doc] update FAQ with logprobs MQ limits and deprecation * update faq
4.7 KiB
常见问题FAQ
1.显存不足
- 启动服务时显存不足:
- 核对模型和量化方式对应的部署最小卡数,如果不满足则需要增加部署卡数
- 如果开启了CUDAGraph,尝试通过降低
gpu_memory_utilization来为CUDAGraph留存更多的显存,或通过减少max_num_seqs,设置cudagraph_capture_sizes来减少CUDAGraph的显存占用。
- 服务运行期间显存不足:
- 检查log中是否有类似如下信息,如有,通常是输出block不足导致,需要减小
kv-cache-ratio
need_block_len: 1, free_list_len: 0
step max_id: 2, max_num: 133, encoder block len: 24
recover seq_id: 2, free_list_len: 144, used_list_len: 134
need_block_len: 1, free_list_len: 0
step max_id: 2, max_num: 144, encoder_block_len: 24
建议启用服务管理全局 Block功能,在启动服务前,加入环境变量
export ENABLE_V1_KVCACHE_SCHEDULER=1
2.模型性能差
- 首先检查输出长度是否符合预期,是否是解码过长导致。
如果场景输出本身较长,请检查log中是否有类似如下信息,如有,通常是输出block不足导致,需要减小
kv-cache-ratio
need_block_len: 1, free_list_len: 0
step max_id: 2, max_num: 133, encoder block len: 24
recover seq_id: 2, free_list_len: 144, used_list_len: 134
need_block_len: 1, free_list_len: 0
step max_id: 2, max_num: 144, encoder_block_len: 24
同样建议启用服务管理全局 Block功能,在启动服务前,加入环境变量
export ENABLE_V1_KVCACHE_SCHEDULER=1
- 检查自动profile分配的KVCache block是否符合预期,如果自动profile中受到显存波动影响可能导致分配偏少,可以通过手工设置
num_gpu_blocks_override参数扩大KVCache block。
3.服务可以支持多大并发?
-
服务部署时推荐配置以下环境变量
export ENABLE_V1_KVCACHE_SCHEDULER=1 -
服务启动时需要配置
max-num-seqs该参数表示 Decode 阶段的最大 Batch 数,当并发超过该值时,多余的请求会进入排队等待处理。 一般情况下,你可以将max-num-seqs配置为 128,保持在较高范围;实际并发能力由压测客户端决定。 -
max-num-seqs仅表示配置的上限,但服务真正能支持的并发量取决于 KVCache 的总大小 服务启动后,在log/worker_process.log中会看到类似:num_blocks_global: 17131这表示当前服务的 KVCache Block 数量为 17131,若
block_size = 64(默认),则可缓存 Token 总量为:17131 * 64 = 1,096,384 tokens如果你的请求平均(输入 + 输出)为 20K tokens,那么服务实际能支持的并发大约为:
1,096,384 / 20,000 ≈ 53
4. 启用 logprobs 后推理请求卡住
启用 logprobs 后,推理结果会附带每个 token 的logprobs信息,使单条消息体显著变大。在默认配置下,这可能触发 System V Message Queue 的消息大小限制,从而导致推理任务token输出卡住。
不同模式下(MTP / 非 MTP)logprobs 会导致消息体膨胀的规模不同,具体计算如下。
消息体大小计算
-
非 MTP 模式 + logprobs 单条消息体大小:
((512 * (20 + 1)) + 2) * 8 + 512 * (20 + 1) * 4 + 512 * 8 = 133136 bytes -
MTP 模式 + logprobs 单条消息体大小:
(512 * 6 * (20 + 1) + 512 + 3) * 8 + 512 * 6 * (20 + 1) * 4 + 512 * 6 * 8 = 802840 bytes
问题原因
通过 ipcs -l 查看系统默认的 System V 消息队列限制,常见设置如下:
------ Messages Limits --------
max queues system wide = 32000
max size of message (bytes) = 8192
default max size of queue (bytes) = 16384
当单条消息体大小超过 max size of message(默认 8192 bytes) 时,进程间通信会被阻塞,最终表现为推理请求卡住。
解决方案
调大 System V Message Queue 的消息大小限制。
由于 MTP 下的消息体可接近 800 KB,建议将单条消息大小限制提升至 1MB(1048576 bytes)。
Linux 系统可通过以下命令调整:
# 提高单条消息的最大允许大小
sysctl -w kernel.msgmax=1048576
# 提高单个消息队列的最大容量
sysctl -w kernel.msgmnb=268435456
注意: 若在 Docker 容器中运行,需要启用特权模式(
--privileged),或在启动参数中显式设置相关内核参数。
废弃说明
当前基于 System V Message Queue 的通信机制将在后续版本中被废弃。未来将迁移到更稳定、更高效的通信方式,以彻底解决上述限制问题。