mirror of
https://github.com/PaddlePaddle/FastDeploy.git
synced 2025-10-06 09:07:10 +08:00
[LLM] Support deploy LLM model
This commit is contained in:
213
llm/docs/FastDeploy_usage_tutorial.md
Normal file
213
llm/docs/FastDeploy_usage_tutorial.md
Normal file
@@ -0,0 +1,213 @@
|
||||
|
||||
## 目录
|
||||
|
||||
- [部署环境准备](#部署环境准备)
|
||||
- [准备部署镜像](#准备部署镜像)
|
||||
- [准备模型](#准备模型)
|
||||
- [创建容器](#创建容器)
|
||||
- [基于dockerfile创建自己的镜像](#基于dockerfile创建自己的镜像)
|
||||
- [启动服务](#启动服务)
|
||||
- [配置参数](#配置参数)
|
||||
- [启动FastDeploy](#启动FastDeploy)
|
||||
- [服务状态查询](#服务状态查询)
|
||||
- [服务测试](#服务测试)
|
||||
- [Python 客户端](#Python-客户端)
|
||||
- [HTTP调用](#HTTP调用)
|
||||
- [请求参数介绍](#请求参数介绍)
|
||||
- [返回示例](#返回示例)
|
||||
|
||||
## 部署环境准备
|
||||
|
||||
### 准备部署镜像
|
||||
|
||||
为了方便部署,我们提供了cuda12.3的镜像,可以直接拉取镜像,或者使用dockerfile[构建自定义镜像](#基于dockerfile创建自己的镜像)
|
||||
```
|
||||
docker pull registry.baidubce.com/paddlepaddle/fastdeploy:llm-serving-cuda123-cudnn9-v1.0
|
||||
```
|
||||
|
||||
### 准备模型
|
||||
|
||||
模型放在对应文件夹下,以 `/home/workspace/models_dir` 为例
|
||||
```
|
||||
cd /home/workspace/models_dir
|
||||
|
||||
# 模型内目录结构需要整理成特定格式,如下是单卡部署的模型目录结构
|
||||
# /opt/output/Serving/models
|
||||
# ├── config.json # 模型配置文件(必选)
|
||||
# ├── xxxx.model # 词表模型文件(必选)
|
||||
# ├── special_tokens_map.json # 词表配置文件(必选)
|
||||
# ├── tokenizer_config.json # 词表配置文件(必选)
|
||||
# ├── rank_mapping.csv # 多卡模型会有此文件,如为单卡模型,则无此文件(可选,仅在多卡部署模式下需要)
|
||||
# └── rank_0 # 保存模型结构和权重文件的目录(必选)
|
||||
# ├── model.pdiparams
|
||||
# └── model.pdmodel
|
||||
```
|
||||
|
||||
### 创建容器
|
||||
|
||||
```
|
||||
docker run --gpus all \
|
||||
--name fastdeploy_serving \
|
||||
--network=host \
|
||||
--shm-size=10G \
|
||||
-v /home/workspace/models_dir:/fastdeploy/models/ \
|
||||
-dit registry.baidubce.com/paddlepaddle/fastdeploy:llm-serving-cuda123-cudnn9-v1.0 bash
|
||||
|
||||
# 进入容器,检查GPU环境和模型挂载是否正常
|
||||
docker exec -it fastdeploy_serving /bin/bash
|
||||
nvidia-smi
|
||||
ls /fastdeploy/models/
|
||||
```
|
||||
|
||||
## 基于dockerfile创建自己的镜像
|
||||
|
||||
```
|
||||
git clone https://github.com/PaddlePaddle/FastDeploy.git
|
||||
cd FastDeploy/llm
|
||||
|
||||
docker build -f ./dockerfiles/Dockerfile_serving_cuda123_cudnn9 -t llm-serving-cu123-self .
|
||||
```
|
||||
|
||||
创建自己的镜像后,可以基于该镜像[创建容器](#创建容器)
|
||||
|
||||
## 启动服务
|
||||
|
||||
### 配置参数
|
||||
|
||||
根据需求和硬件信息,配置以下环境变量
|
||||
|
||||
```
|
||||
# 单/多卡推理配置。自行修改。
|
||||
## 如果是单卡推理,使用0卡,设置如下环境变量。
|
||||
export MP_NUM=1
|
||||
export CUDA_VISIBLE_DEVICES=0
|
||||
|
||||
## 如果是多卡推理,除了模型导出得满足2卡要求,同时设置如下环境变量。
|
||||
# export MP_NUM=2
|
||||
# export CUDA_VISIBLE_DEVICES=0,1
|
||||
|
||||
# 如部署场景无流式Token返回需求,可配置如下开关
|
||||
# 服务将会将每个请求的所有生成Token一次性返回
|
||||
# 降低服务逐个Token发送压力
|
||||
# 默认关闭
|
||||
# export DISABLE_STREAMING=1
|
||||
|
||||
# 配置数据服务。需要自行修改HTTP_PORT、GRPC_PORT、METRICS_PORT和INFER_QUEUE_PORT。
|
||||
# 请事先检查端口可用:执行`netstat -tuln | grep <端口号>`,如果没有log输出,则表示该端口未被占用。
|
||||
export HTTP_PORT="8751" # 探活服务的http端口(当前仅用于健康检查、探活)
|
||||
export GRPC_PORT="8752" # 模型推服务的grpc端口
|
||||
export METRICS_PORT="8753" # 模型服务中监督指标的端口
|
||||
export INFER_QUEUE_PORT="8754" # 模型服务内部使用的端口
|
||||
export PUSH_MODE_HTTP_PORT="8143" # 服务请求HTTP端口号,如不配置,默认为-1,即服务只支持GRPC协议
|
||||
|
||||
# MAX_SEQ_LEN: 服务会拒绝input token数量超过MAX_SEQ_LEN的请求,并返回错误提示
|
||||
# MAX_DEC_LEN: 服务会拒绝请求中max_dec_len/min_dec_len超过此参数的请求,并返回错误提示
|
||||
export MAX_SEQ_LEN=8192
|
||||
export MAX_DEC_LEN=1024
|
||||
|
||||
export BATCH_SIZE="48" # 设置最大Batch Size,模型可同时并发处理的最大输入数量,不能高于128
|
||||
export BLOCK_BS="5" # 缓存Block支持的最大Query Batch Size,如果出现out of memeory 错误,尝试减少该数值
|
||||
export BLOCK_RATIO="0.75" # 一般可以设置成 输入平均Token数/(输入+输出平均Token数)
|
||||
|
||||
export MAX_CACHED_TASK_NUM="128" # 服务缓存队列最大长度,队列达到上限后,会拒绝新的请求,默认128
|
||||
# 开启HTTP接口配置如下参数
|
||||
export PUSH_MODE_HTTP_WORKERS="1" # HTTP服务进程数,在 PUSH_MODE_HTTP_PORT 配置的情况下有效,最高设置到8即可,默认为1
|
||||
```
|
||||
|
||||
### 启动FastDeploy
|
||||
|
||||
```
|
||||
cd /opt/output/Serving
|
||||
bash start_server.sh
|
||||
|
||||
# 重新启动服务前,需要停止服务,在/opt/output/Serving目录下执行 bash stop_server.sh
|
||||
```
|
||||
|
||||
### 服务状态查询
|
||||
|
||||
```
|
||||
# port为上面启动服务时候指定的HTTP_PORT
|
||||
live接口: (服务是否能正常接收请求)
|
||||
http://{ip}:{HTTP_PORT}/v2/health/live
|
||||
health接口:(模型是否准备好推理)
|
||||
http://{ip}:{HTTP_PORT}/v2/health/ready
|
||||
```
|
||||
|
||||
## 服务测试
|
||||
|
||||
### Python 客户端
|
||||
|
||||
```
|
||||
from fastdeploy_client.chatbot import ChatBot
|
||||
|
||||
hostname = "127.0.0.1" # 服务部署的hostname
|
||||
port = 8000 # 服务配置的GRPC_PORT
|
||||
|
||||
chatbot = ChatBot(hostname=hostname, port=port)
|
||||
|
||||
# 非流式接口
|
||||
result = chatbot.generate("你好", topp=0.8, max_dec_len=128, timeout=120)
|
||||
print(result)
|
||||
|
||||
# 流式接口
|
||||
chatbot = ChatBot(hostname=hostname, port=port, model_id=model_id, mode=mode)
|
||||
stream_result = chatbot.stream_generate("你好", max_dec_len=128, timeout=120)
|
||||
for res in stream_result:
|
||||
print(res)
|
||||
```
|
||||
|
||||
### HTTP调用
|
||||
|
||||
提示:HTTP调用接口使用变量 PUSH_MODE_HTTP_PORT 配置!HTTP_PORT 仅用于探活接口使用!
|
||||
|
||||
```
|
||||
import uuid
|
||||
import json
|
||||
import requests
|
||||
|
||||
url = f"http://0.0.0.0:{PUSH_MODE_HTTP_PORT}/v1/chat/completions"
|
||||
req_id = str(uuid.uuid1())
|
||||
data = {
|
||||
"text": "Hello, how are you?",
|
||||
"req_id": req_id,
|
||||
"max_dec_len": 64,
|
||||
"stream": True,
|
||||
}
|
||||
# 逐token返回
|
||||
res = requests.post(url, json=data, stream=True)
|
||||
for line in res.iter_lines():
|
||||
print(json.loads(line))
|
||||
```
|
||||
|
||||
### 请求参数介绍
|
||||
|
||||
| 字段名 | 字段类型 | 说明 | 是否必填 | 默认值 | 备注 |
|
||||
| :---: | :-----: | :---: | :---: | :-----: | :----: |
|
||||
| req_id | str | 请求ID,用于标识一个请求。建议设置req_id,保证其唯一性 | 否 | 随机id | 如果推理服务中同时有两个相同req_id的请求,会返回req_id重复的错误信息 |
|
||||
| text | str | 请求的文本 | 是 | 无 | |
|
||||
| max_dec_len | int | 最大生成token的长度,如果请求的文本token长度加上max_dec_len大于模型的max_seq_len,会返回长度超限的错误信息 | 否 | max_seq_len减去文本token长度 | |
|
||||
| min_dec_len | int | 最小生成token的长度,最小是1 | 否 | 1 | |
|
||||
| topp | float | 控制随机性参数,数值越大则随机性越大,范围是0~1 | 否 | 0.7 | |
|
||||
| temperature | float | 控制随机性参数,数值越小随机性越大,需要大于 0 | 否 | 0.95 | |
|
||||
| frequency_score | float | 频率分数 | 否 | 0 | |
|
||||
| penalty_score | float | 惩罚分数 | 否 | 1 | |
|
||||
| presence_score | float | 存在分数 | 否 | 0 | |
|
||||
| stream | bool | 是否流式返回 | 否 | False | |
|
||||
| return_all_tokens | bool | 是否一次性返回所有结果 | 否 | False | 与stream参数差异见表后备注 |
|
||||
| timeout | int | 请求等待的超时时间,单位是秒 | 否 | 300 | |
|
||||
|
||||
* 在正确配置PUSH_MODE_HTTP_PORT字段下,服务支持 GRPC 和 HTTP 两种请求服务
|
||||
* stream 参数仅对 HTTP 请求生效
|
||||
* return_all_tokens 参数对 GRPC 和 HTTP 请求均有效
|
||||
|
||||
### 返回示例
|
||||
|
||||
```
|
||||
如果stream为True,流式返回
|
||||
如果正常,返回{'token': xxx, 'is_end': xxx, 'send_idx': xxx, ..., 'error_msg': '', 'error_code': 0}
|
||||
如果异常,返回{'error_msg': xxx, 'error_code': xxx},error_msg字段不为空,error_code字段不为0
|
||||
|
||||
如果stream为False,非流式返回
|
||||
如果正常,返回{'tokens_all': xxx, 'tokens_all_num': xxx, ..., 'error_msg': '', 'error_code': 0}
|
||||
如果异常,返回{'error_msg': xxx, 'error_code': xxx},error_msg字段不为空,error_code字段不为0
|
||||
```
|
Reference in New Issue
Block a user