[LLM] Support deploy LLM model

This commit is contained in:
chengyanfu
2024-08-29 19:38:11 +08:00
parent cd0ee79c91
commit 2d7d0ee92e
37 changed files with 4521 additions and 3 deletions

View File

@@ -0,0 +1,213 @@
## 目录
- [部署环境准备](#部署环境准备)
- [准备部署镜像](#准备部署镜像)
- [准备模型](#准备模型)
- [创建容器](#创建容器)
- [基于dockerfile创建自己的镜像](#基于dockerfile创建自己的镜像)
- [启动服务](#启动服务)
- [配置参数](#配置参数)
- [启动FastDeploy](#启动FastDeploy)
- [服务状态查询](#服务状态查询)
- [服务测试](#服务测试)
- [Python 客户端](#Python-客户端)
- [HTTP调用](#HTTP调用)
- [请求参数介绍](#请求参数介绍)
- [返回示例](#返回示例)
## 部署环境准备
### 准备部署镜像
为了方便部署我们提供了cuda12.3的镜像可以直接拉取镜像或者使用dockerfile[构建自定义镜像](#基于dockerfile创建自己的镜像)
```
docker pull registry.baidubce.com/paddlepaddle/fastdeploy:llm-serving-cuda123-cudnn9-v1.0
```
### 准备模型
模型放在对应文件夹下,以 `/home/workspace/models_dir` 为例
```
cd /home/workspace/models_dir
# 模型内目录结构需要整理成特定格式,如下是单卡部署的模型目录结构
# /opt/output/Serving/models
# ├── config.json # 模型配置文件(必选)
# ├── xxxx.model # 词表模型文件(必选)
# ├── special_tokens_map.json # 词表配置文件(必选)
# ├── tokenizer_config.json # 词表配置文件(必选)
# ├── rank_mapping.csv # 多卡模型会有此文件,如为单卡模型,则无此文件(可选,仅在多卡部署模式下需要)
# └── rank_0 # 保存模型结构和权重文件的目录(必选)
# ├── model.pdiparams
# └── model.pdmodel
```
### 创建容器
```
docker run --gpus all \
--name fastdeploy_serving \
--network=host \
--shm-size=10G \
-v /home/workspace/models_dir:/fastdeploy/models/ \
-dit registry.baidubce.com/paddlepaddle/fastdeploy:llm-serving-cuda123-cudnn9-v1.0 bash
# 进入容器检查GPU环境和模型挂载是否正常
docker exec -it fastdeploy_serving /bin/bash
nvidia-smi
ls /fastdeploy/models/
```
## 基于dockerfile创建自己的镜像
```
git clone https://github.com/PaddlePaddle/FastDeploy.git
cd FastDeploy/llm
docker build -f ./dockerfiles/Dockerfile_serving_cuda123_cudnn9 -t llm-serving-cu123-self .
```
创建自己的镜像后,可以基于该镜像[创建容器](#创建容器)
## 启动服务
### 配置参数
根据需求和硬件信息,配置以下环境变量
```
# 单/多卡推理配置。自行修改。
## 如果是单卡推理使用0卡设置如下环境变量。
export MP_NUM=1
export CUDA_VISIBLE_DEVICES=0
## 如果是多卡推理除了模型导出得满足2卡要求同时设置如下环境变量。
# export MP_NUM=2
# export CUDA_VISIBLE_DEVICES=0,1
# 如部署场景无流式Token返回需求可配置如下开关
# 服务将会将每个请求的所有生成Token一次性返回
# 降低服务逐个Token发送压力
# 默认关闭
# export DISABLE_STREAMING=1
# 配置数据服务。需要自行修改HTTP_PORT、GRPC_PORT、METRICS_PORT和INFER_QUEUE_PORT。
# 请事先检查端口可用:执行`netstat -tuln | grep <端口号>`如果没有log输出则表示该端口未被占用。
export HTTP_PORT="8751" # 探活服务的http端口当前仅用于健康检查、探活
export GRPC_PORT="8752" # 模型推服务的grpc端口
export METRICS_PORT="8753" # 模型服务中监督指标的端口
export INFER_QUEUE_PORT="8754" # 模型服务内部使用的端口
export PUSH_MODE_HTTP_PORT="8143" # 服务请求HTTP端口号如不配置默认为-1即服务只支持GRPC协议
# MAX_SEQ_LEN: 服务会拒绝input token数量超过MAX_SEQ_LEN的请求并返回错误提示
# MAX_DEC_LEN: 服务会拒绝请求中max_dec_len/min_dec_len超过此参数的请求并返回错误提示
export MAX_SEQ_LEN=8192
export MAX_DEC_LEN=1024
export BATCH_SIZE="48" # 设置最大Batch Size模型可同时并发处理的最大输入数量不能高于128
export BLOCK_BS="5" # 缓存Block支持的最大Query Batch Size如果出现out of memeory 错误,尝试减少该数值
export BLOCK_RATIO="0.75" # 一般可以设置成 输入平均Token数/(输入+输出平均Token数)
export MAX_CACHED_TASK_NUM="128" # 服务缓存队列最大长度队列达到上限后会拒绝新的请求默认128
# 开启HTTP接口配置如下参数
export PUSH_MODE_HTTP_WORKERS="1" # HTTP服务进程数在 PUSH_MODE_HTTP_PORT 配置的情况下有效最高设置到8即可默认为1
```
### 启动FastDeploy
```
cd /opt/output/Serving
bash start_server.sh
# 重新启动服务前,需要停止服务,在/opt/output/Serving目录下执行 bash stop_server.sh
```
### 服务状态查询
```
# port为上面启动服务时候指定的HTTP_PORT
live接口 (服务是否能正常接收请求)
http://{ip}:{HTTP_PORT}/v2/health/live
health接口模型是否准备好推理
http://{ip}:{HTTP_PORT}/v2/health/ready
```
## 服务测试
### Python 客户端
```
from fastdeploy_client.chatbot import ChatBot
hostname = "127.0.0.1" # 服务部署的hostname
port = 8000 # 服务配置的GRPC_PORT
chatbot = ChatBot(hostname=hostname, port=port)
# 非流式接口
result = chatbot.generate("你好", topp=0.8, max_dec_len=128, timeout=120)
print(result)
# 流式接口
chatbot = ChatBot(hostname=hostname, port=port, model_id=model_id, mode=mode)
stream_result = chatbot.stream_generate("你好", max_dec_len=128, timeout=120)
for res in stream_result:
print(res)
```
### HTTP调用
提示HTTP调用接口使用变量 PUSH_MODE_HTTP_PORT 配置HTTP_PORT 仅用于探活接口使用!
```
import uuid
import json
import requests
url = f"http://0.0.0.0:{PUSH_MODE_HTTP_PORT}/v1/chat/completions"
req_id = str(uuid.uuid1())
data = {
"text": "Hello, how are you?",
"req_id": req_id,
"max_dec_len": 64,
"stream": True,
}
# 逐token返回
res = requests.post(url, json=data, stream=True)
for line in res.iter_lines():
print(json.loads(line))
```
### 请求参数介绍
| 字段名 | 字段类型 | 说明 | 是否必填 | 默认值 | 备注 |
| :---: | :-----: | :---: | :---: | :-----: | :----: |
| req_id | str | 请求ID用于标识一个请求。建议设置req_id保证其唯一性 | 否 | 随机id | 如果推理服务中同时有两个相同req_id的请求会返回req_id重复的错误信息 |
| text | str | 请求的文本 | 是 | 无 | |
| max_dec_len | int | 最大生成token的长度如果请求的文本token长度加上max_dec_len大于模型的max_seq_len会返回长度超限的错误信息 | 否 | max_seq_len减去文本token长度 | |
| min_dec_len | int | 最小生成token的长度最小是1 | 否 | 1 | |
| topp | float | 控制随机性参数数值越大则随机性越大范围是0~1 | 否 | 0.7 | |
| temperature | float | 控制随机性参数,数值越小随机性越大,需要大于 0 | 否 | 0.95 | |
| frequency_score | float | 频率分数 | 否 | 0 | |
| penalty_score | float | 惩罚分数 | 否 | 1 | |
| presence_score | float | 存在分数 | 否 | 0 | |
| stream | bool | 是否流式返回 | 否 | False | |
| return_all_tokens | bool | 是否一次性返回所有结果 | 否 | False | 与stream参数差异见表后备注 |
| timeout | int | 请求等待的超时时间,单位是秒 | 否 | 300 | |
* 在正确配置PUSH_MODE_HTTP_PORT字段下服务支持 GRPC 和 HTTP 两种请求服务
* stream 参数仅对 HTTP 请求生效
* return_all_tokens 参数对 GRPC 和 HTTP 请求均有效
### 返回示例
```
如果stream为True流式返回
如果正常,返回{'token': xxx, 'is_end': xxx, 'send_idx': xxx, ..., 'error_msg': '', 'error_code': 0}
如果异常,返回{'error_msg': xxx, 'error_code': xxx}error_msg字段不为空error_code字段不为0
如果stream为False非流式返回
如果正常,返回{'tokens_all': xxx, 'tokens_all_num': xxx, ..., 'error_msg': '', 'error_code': 0}
如果异常,返回{'error_msg': xxx, 'error_code': xxx}error_msg字段不为空error_code字段不为0
```