mirror of
https://github.com/PaddlePaddle/FastDeploy.git
synced 2025-12-24 13:28:13 +08:00
[Docx] add language (en/cn) switch links (#4470)
* add install docs * 修改文档 * 修改文档
This commit is contained in:
@@ -1,3 +1,5 @@
|
||||
[English](../../get_started/ernie-4.5-vl.md)
|
||||
|
||||
# ERNIE-4.5-VL多模态模型
|
||||
|
||||
本文档讲解如何部署ERNIE-4.5-VL多模态模型,支持用户使用多模态数据与模型进行对话交互(包含思考Reasoning),在开始部署前,请确保你的硬件环境满足如下条件:
|
||||
|
||||
@@ -1,3 +1,5 @@
|
||||
[English](../../get_started/ernie-4.5.md)
|
||||
|
||||
# ERNIE-4.5模型
|
||||
|
||||
本文档讲解如何部署ERNIE-4.5模型,在开始部署前,请确保你的硬件环境满足如下条件:
|
||||
|
||||
@@ -1,3 +1,5 @@
|
||||
[English](../../../get_started/installation/Enflame_gcu.md)
|
||||
|
||||
# 使用 FastDeploy 在燧原 S60 上运行 ERNIE 4.5 系列模型
|
||||
|
||||
燧原 S60([了解燧原](https://www.enflame-tech.com/))是面向数据中心大规模部署的新一代人工智能推理加速卡,满足大语言模型、搜广推及传统模型的需求,具有模型覆盖面广、易用性强、易迁移易部署等特点,可广泛应用于图像及文本生成等应用、搜索与推荐、文本、图像及语音识别等主流推理场景。
|
||||
|
||||
@@ -1,3 +1,5 @@
|
||||
[English](../../../get_started/installation/README.md)
|
||||
|
||||
# FastDeploy 安装
|
||||
|
||||
FastDeploy支持如下硬件平台:
|
||||
|
||||
@@ -1,3 +1,5 @@
|
||||
[English](../../../get_started/installation/hygon_dcu.md)
|
||||
|
||||
# 使用 FastDeploy 在海光 K100AI 上运行 ERNIE-4.5-300B-A47B & ERNIE-4.5-21B-A3B
|
||||
当前版本软件只是作为K100AI + Fastdeploy 推理大模型的一个演示 demo,跑最新ERNIE4.5模型可能存在问题,后续进行修复和性能优化,给客户提供一个更稳定的版本。
|
||||
|
||||
|
||||
@@ -1,3 +1,5 @@
|
||||
[English](../../../get_started/installation/iluvatar_gpu.md)
|
||||
|
||||
# 如何在天数机器上运行 ERNIE-4.5-300B-A47B-BF16 & ERNIE-4.5-21B-A3B
|
||||
|
||||
## 准备机器
|
||||
|
||||
@@ -1,3 +1,5 @@
|
||||
[English](../../../get_started/installation/intel_gaudi.md)
|
||||
|
||||
# 使用 Intel Gaudi 运行ERNIE 4.5 系列模型
|
||||
|
||||
在环境满足如下条件前提下
|
||||
|
||||
@@ -1,3 +1,5 @@
|
||||
[English](../../../get_started/installation/kunlunxin_xpu.md)
|
||||
|
||||
# 昆仑芯 XPU
|
||||
|
||||
## 要求
|
||||
|
||||
@@ -1,3 +1,5 @@
|
||||
[English](../../../get_started/installation/metax_gpu.md)
|
||||
|
||||
# 使用 Metax GPU C550 运行ERNIE 4.5 系列模型
|
||||
|
||||
FastDeploy在Metax C550上对ERNIE 4.5系列模型进行了深度适配和优化,实现了推理入口和GPU的统一,无需修改即可完成推理任务的迁移。
|
||||
|
||||
@@ -1,3 +1,5 @@
|
||||
[English](../../../get_started/installation/nvidia_gpu.md)
|
||||
|
||||
# NVIDIA CUDA GPU Installation
|
||||
|
||||
在环境满足如下条件前提下
|
||||
|
||||
@@ -1,3 +1,5 @@
|
||||
[English](../../get_started/quick_start.md)
|
||||
|
||||
# 10分钟完成 ERNIE-4.5-0.3B-Paddle 模型部署
|
||||
|
||||
本文档讲解如何部署ERNIE-4.5-0.3B-Base-Paddle模型,在开始部署前,请确保你的硬件环境满足如下条件:
|
||||
|
||||
@@ -1,3 +1,5 @@
|
||||
[English](../../get_started/quick_start_qwen.md)
|
||||
|
||||
# 10分钟完成 Qwen3-0.6b 模型部署
|
||||
|
||||
本文档讲解如何部署Qwen3-0.6b模型,在开始部署前,请确保你的硬件环境满足如下条件:
|
||||
|
||||
@@ -1,3 +1,5 @@
|
||||
[English](../../get_started/quick_start_vl.md)
|
||||
|
||||
# 10分钟完成 ERNIE-4.5-VL-28B-A3B-Paddle 多模态模型部署
|
||||
|
||||
本文档讲解如何部署ERNIE-4.5-VL-28B-A3B-Paddle模型,在开始部署前,请确保你的硬件环境满足如下条件:
|
||||
|
||||
Reference in New Issue
Block a user