mirror of
https://github.com/PaddlePaddle/FastDeploy.git
synced 2025-10-19 23:16:15 +08:00

* move text_cls to ernie-3.0 * Add main page of ernie-3.0 * rename infer -> seq_cls_infer * Fix the links * Add ernie-3.0 python, cpp readme * Fix some cpp readme * Add fastdeploy::FDERROR * Add python readme for ernie-3.0 * update README.md * Add empty line * update readme * Fix readme * remove the - from ernie 3.0 * ernie-3.0 -> ernie 3.0 * Use AutoTokenizer to tokenize * Ernie -> ERNIE
1.4 KiB
1.4 KiB
ERNIE 3.0 模型部署
模型详细说明
支持的模型列表
模型 | 结构 | 语言 |
---|---|---|
ERNIE 3.0-Base |
12-layers, 768-hidden, 12-heads | 中文 |
ERNIE 3.0-Medium |
6-layers, 768-hidden, 12-heads | 中文 |
ERNIE 3.0-Mini |
6-layers, 384-hidden, 12-heads | 中文 |
ERNIE 3.0-Micro |
4-layers, 384-hidden, 12-heads | 中文 |
ERNIE 3.0-Nano |
4-layers, 312-hidden, 12-heads | 中文 |
支持的NLP任务列表
任务 Task | 是否支持 |
---|---|
文本分类 | ✅ |
序列标注 | ❌ |
导出部署模型
在部署前,需要先将训练好的ERNIE模型导出成部署模型,导出步骤可参考文档导出模型.
下载微调模型
分类任务
为了方便开发者的测试,下面提供了在文本分类AFQMC数据集上微调的ERNIE 3.0-Medium模型,开发者可直接下载体验。