Skip to content

Commit 6079410

Browse files
c121914yuctrlz526
authored andcommitted
fix: doc path (labring#5393)
1 parent 4a261d7 commit 6079410

File tree

36 files changed

+1130
-1651
lines changed

36 files changed

+1130
-1651
lines changed

document/components/docs/not-found.tsx

Lines changed: 6 additions & 8 deletions
Original file line numberDiff line numberDiff line change
@@ -29,16 +29,16 @@ export default function NotFound() {
2929
const router = useRouter();
3030

3131
useEffect(() => {
32-
const tryRedirect = async () => {
32+
(async () => {
3333
if (exactMap[pathname]) {
34-
router.replace(exactMap[pathname]);
34+
window.location.replace(exactMap[pathname]);
3535
return;
3636
}
3737

3838
for (const [oldPrefix, newPrefix] of Object.entries(prefixMap)) {
3939
if (pathname.startsWith(oldPrefix)) {
4040
const rest = pathname.slice(oldPrefix.length);
41-
router.replace(newPrefix + rest);
41+
window.location.replace(newPrefix + rest);
4242
return;
4343
}
4444
}
@@ -54,17 +54,15 @@ export default function NotFound() {
5454

5555
if (validPage) {
5656
console.log('validPage', validPage);
57-
router.replace(validPage);
57+
window.location.replace(validPage);
5858
return;
5959
}
6060
} catch (e) {
6161
console.warn('meta.json fallback failed:', e);
6262
}
6363

64-
router.replace(fallbackRedirect);
65-
};
66-
67-
tryRedirect();
64+
window.location.replace(fallbackRedirect);
65+
})();
6866
}, [pathname, router]);
6967

7068
return null;

document/content/docs/introduction/development/configuration.mdx

Lines changed: 2 additions & 2 deletions
Original file line numberDiff line numberDiff line change
@@ -3,7 +3,7 @@ title: 配置文件介绍
33
description: FastGPT 配置参数介绍
44
---
55

6-
由于环境变量不利于配置复杂的内容,新版 FastGPT 采用了 ConfigMap 的形式挂载配置文件,你可以在 `projects/app/data/config.json` 看到默认的配置文件。可以参考 [docker-compose 快速部署](/docs/development/docker/) 来挂载配置文件。
6+
由于环境变量不利于配置复杂的内容,新版 FastGPT 采用了 ConfigMap 的形式挂载配置文件,你可以在 `projects/app/data/config.json` 看到默认的配置文件。可以参考 [docker-compose 快速部署](/docs/introduction/development/docker/) 来挂载配置文件。
77

88
**开发环境下**,你需要将示例配置文件 `config.json` 复制成 `config.local.json` 文件才会生效。
99

@@ -70,4 +70,4 @@ description: FastGPT 配置参数介绍
7070

7171
### 使用 Marker 解析 PDF 文件
7272

73-
[点击查看 Marker 接入教程](/docs/development/custom-models/marker)
73+
[点击查看 Marker 接入教程](/docs/introduction/development/custom-models/marker)

document/content/docs/introduction/development/custom-models/chatglm2-m3e.mdx

Lines changed: 6 additions & 6 deletions
Original file line numberDiff line numberDiff line change
@@ -9,9 +9,9 @@ FastGPT 默认使用了 OpenAI 的 LLM 模型和向量模型,如果想要私
99

1010
## 部署镜像
1111

12-
+ 镜像名: `stawky/chatglm2-m3e:latest`
13-
+ 国内镜像名: `registry.cn-hangzhou.aliyuncs.com/fastgpt_docker/chatglm2-m3e:latest`
14-
+ 端口号: 6006
12+
- 镜像名: `stawky/chatglm2-m3e:latest`
13+
- 国内镜像名: `registry.cn-hangzhou.aliyuncs.com/fastgpt_docker/chatglm2-m3e:latest`
14+
- 端口号: 6006
1515

1616
```
1717
# 设置安全凭证(即oneapi中的渠道密钥)
@@ -21,7 +21,7 @@ FastGPT 默认使用了 OpenAI 的 LLM 模型和向量模型,如果想要私
2121

2222
## 接入 OneAPI
2323

24-
文档链接:[One API](/docs/development/modelconfig/one-api/)
24+
文档链接:[One API](/docs/introduction/development/modelconfig/one-api/)
2525

2626
为 chatglm2 和 m3e-large 各添加一个渠道,参数如下:
2727

@@ -97,7 +97,7 @@ M3E 模型的使用方法如下:
9797
1. 创建知识库时候选择 M3E 模型。
9898

9999
注意,一旦选择后,知识库将无法修改向量模型。
100-
100+
101101
![](/imgs/model-m3e2.png)
102102

103103
2. 导入数据
@@ -108,7 +108,7 @@ M3E 模型的使用方法如下:
108108
4. 应用绑定知识库
109109

110110
注意,应用只能绑定同一个向量模型的知识库,不能跨模型绑定。并且,需要注意调整相似度,不同向量模型的相似度(距离)会有所区别,需要自行测试实验。
111-
111+
112112
![](/imgs/model-m3e4.png)
113113

114114
chatglm2 模型的使用方法如下:

document/content/docs/introduction/development/custom-models/ollama.mdx

Lines changed: 5 additions & 5 deletions
Original file line numberDiff line numberDiff line change
@@ -7,14 +7,14 @@ description: ' 采用 Ollama 部署自己的模型'
77

88
## 安装 Ollama
99

10-
Ollama 本身支持多种安装方式,但是推荐使用 Docker 拉取镜像部署。如果是个人设备上安装了 Ollama 后续需要解决如何让 Docker 中 FastGPT 容器访问宿主机 Ollama的问题,较为麻烦。
10+
Ollama 本身支持多种安装方式,但是推荐使用 Docker 拉取镜像部署。如果是个人设备上安装了 Ollama 后续需要解决如何让 Docker 中 FastGPT 容器访问宿主机 Ollama的问题,较为麻烦。
1111

1212
### Docker 安装(推荐)
1313

1414
你可以使用 Ollama 官方的 Docker 镜像来一键安装和启动 Ollama 服务(确保你的机器上已经安装了 Docker),命令如下:
1515

1616
```bash
17-
docker pull ollama/ollama
17+
docker pull ollama/ollama
1818
docker run --rm -d --name ollama -p 11434:11434 ollama/ollama
1919
```
2020

@@ -81,7 +81,6 @@ ollama pull [模型名]
8181

8282
![](/imgs/Ollama-pull.png)
8383

84-
8584
### 测试通信
8685

8786
在安装完成后,需要进行检测测试,首先进入 FastGPT 所在的容器,尝试访问自己的 Ollama ,命令如下:
@@ -108,15 +107,15 @@ ollama ls
108107

109108
### 2. AI Proxy 接入
110109

111-
如果你采用的是 FastGPT 中的默认配置文件部署[这里](/docs/development/docker.md),即默认采用 AI Proxy 进行启动。
110+
如果你采用的是 FastGPT 中的默认配置文件部署[这里](/docs/introduction/development/docker.md),即默认采用 AI Proxy 进行启动。
112111

113112
![](/imgs/Ollama-aiproxy1.png)
114113

115114
以及在确保你的 FastGPT 可以直接访问 Ollama 容器的情况下,无法访问,参考上文[点此跳转](#安装-ollama)的安装过程,检测是不是主机不能监测0.0.0.0,或者容器不在同一个网络。
116115

117116
![](/imgs/Ollama-aiproxy2.png)
118117

119-
在 FastGPT 中点击账号->模型提供商->模型配置->新增模型,添加自己的模型即可,添加模型时需要保证模型ID和 OneAPI 中的模型名称一致。详细参考[这里](/docs/development/modelConfig/intro.md)
118+
在 FastGPT 中点击账号->模型提供商->模型配置->新增模型,添加自己的模型即可,添加模型时需要保证模型ID和 OneAPI 中的模型名称一致。详细参考[这里](/docs/introduction/development/modelConfig/intro.md)
120119

121120
![](/imgs/Ollama-models2.png)
122121

@@ -177,4 +176,5 @@ docker run -it --network [ FastGPT 网络 ] --name 容器名 intel/oneapi-hpckit
177176
![](/imgs/Ollama-models4.png)
178177

179178
### 6. 补充
179+
180180
上述接入 Ollama 的代理地址中,主机安装 Ollama 的地址为“http://[主机IP]:[端口]”,容器部署 Ollama 地址为“http://[容器名]:[端口]

document/content/docs/introduction/development/custom-models/xinference.mdx

Lines changed: 5 additions & 8 deletions
Original file line numberDiff line numberDiff line change
@@ -13,8 +13,8 @@ Xinference 支持多种推理引擎作为后端,以满足不同场景下部署
1313

1414
如果你的目标是在一台 Linux 或者 Window 服务器上部署大模型,可以选择 Transformers 或 vLLM 作为 Xinference 的推理后端:
1515

16-
+ [Transformers](https://huggingface.co/docs/transformers/index):通过集成 Huggingface 的 Transformers 库作为后端,Xinference 可以最快地 集成当今自然语言处理(NLP)领域的最前沿模型(自然也包括 LLM)。
17-
+ [vLLM](https://vllm.ai/): vLLM 是由加州大学伯克利分校开发的一个开源库,专为高效服务大型语言模型(LLM)而设计。它引入了 PagedAttention 算法, 通过有效管理注意力键和值来改善内存管理,吞吐量能够达到 Transformers 的 24 倍,因此 vLLM 适合在生产环境中使用,应对高并发的用户访问。
16+
- [Transformers](https://huggingface.co/docs/transformers/index):通过集成 Huggingface 的 Transformers 库作为后端,Xinference 可以最快地 集成当今自然语言处理(NLP)领域的最前沿模型(自然也包括 LLM)。
17+
- [vLLM](https://vllm.ai/): vLLM 是由加州大学伯克利分校开发的一个开源库,专为高效服务大型语言模型(LLM)而设计。它引入了 PagedAttention 算法, 通过有效管理注意力键和值来改善内存管理,吞吐量能够达到 Transformers 的 24 倍,因此 vLLM 适合在生产环境中使用,应对高并发的用户访问。
1818

1919
假设你服务器配备 NVIDIA 显卡,可以参考[这篇文章中的指令来安装 CUDA](https://xorbits.cn/blogs/langchain-streamlit-doc-chat),从而让 Xinference 最大限度地利用显卡的加速功能。
2020

@@ -98,7 +98,7 @@ xinference launch -n qwen-chat -s 14 -f pytorch
9898

9999
## 将本地模型接入 One API
100100

101-
One API 的部署和接入请参考[这里](/docs/development/modelconfig/one-api/)
101+
One API 的部署和接入请参考[这里](/docs/introduction/development/modelconfig/one-api/)
102102

103103
为 qwen1.5-chat 添加一个渠道,这里的 Base URL 需要填 Xinference 服务的端点,并且注册 qwen-chat (模型的 UID) 。
104104

@@ -153,9 +153,6 @@ curl --location --request POST 'https://[oneapi_url]/v1/chat/completions' \
153153

154154
然后重启 FastGPT 就可以在应用配置中选择 Qwen 模型进行对话:
155155

156-
![](/imgs/fastgpt-list-models.png)
157-
---
158-
159-
+ 参考:[FastGPT + Xinference:一站式本地 LLM 私有化部署和应用开发](https://xorbits.cn/blogs/fastgpt-weather-chat)
160-
156+
## ![](/imgs/fastgpt-list-models.png)
161157

158+
- 参考:[FastGPT + Xinference:一站式本地 LLM 私有化部署和应用开发](https://xorbits.cn/blogs/fastgpt-weather-chat)

document/content/docs/introduction/development/docker.mdx

Lines changed: 4 additions & 4 deletions
Original file line numberDiff line numberDiff line change
@@ -58,7 +58,7 @@ Zilliz Cloud 由 Milvus 原厂打造,是全托管的 SaaS 向量数据库服
5858

5959
### 1. 确保网络环境
6060

61-
如果使用`OpenAI`等国外模型接口,请确保可以正常访问,否则会报错:`Connection error` 等。 方案可以参考:[代理方案](/docs/development/proxy/)
61+
如果使用`OpenAI`等国外模型接口,请确保可以正常访问,否则会报错:`Connection error` 等。 方案可以参考:[代理方案](/docs/introduction/development/proxy/nginx)
6262

6363
### 2. 准备 Docker 环境
6464

@@ -181,7 +181,7 @@ docker-compose up -d
181181
### 6. 配置模型
182182

183183
- 首次登录FastGPT后,系统会提示未配置`语言模型``索引模型`,并自动跳转模型配置页面。系统必须至少有这两类模型才能正常使用。
184-
- 如果系统未正常跳转,可以在`账号-模型提供商`页面,进行模型配置。[点击查看相关教程](/docs/development/modelconfig/ai-proxy)
184+
- 如果系统未正常跳转,可以在`账号-模型提供商`页面,进行模型配置。[点击查看相关教程](/docs/introduction/development/modelConfig/ai-proxy)
185185
- 目前已知可能问题:首次进入系统后,整个浏览器 tab 无法响应。此时需要删除该tab,重新打开一次即可。
186186

187187
## FAQ
@@ -271,7 +271,7 @@ docker-compose up -d
271271
272272
### 如何更新版本?
273273
274-
1. 查看[更新文档](/docs/development/upgrading/index/),确认要升级的版本,避免跨版本升级。
274+
1. 查看[更新文档](/docs/upgrading),确认要升级的版本,避免跨版本升级。
275275
2. 修改镜像 tag 到指定版本
276276
3. 执行下面命令会自动拉取镜像:
277277
@@ -284,7 +284,7 @@ docker-compose up -d
284284
285285
### 如何自定义配置文件?
286286
287-
修改`config.json`文件,并执行`docker-compose down`再执行`docker-compose up -d`重起容器。具体配置,参考[配置详解](/docs/development/configuration)。
287+
修改`config.json`文件,并执行`docker-compose down`再执行`docker-compose up -d`重起容器。具体配置,参考[配置详解](/docs/introduction/development/configuration)。
288288
289289
### 如何检查自定义配置文件是否挂载
290290

document/content/docs/introduction/development/faq.mdx

Lines changed: 24 additions & 28 deletions
Original file line numberDiff line numberDiff line change
@@ -18,7 +18,7 @@ description: FastGPT 私有部署常见问题
1818

1919
### OneAPI 错误
2020

21-
带有`requestId`的,都是 OneAPI 提示错误,大部分都是因为模型接口报错。可以参考 [OneAPI 常见错误](/docs/development/faq/#三常见的-oneapi-错误)
21+
带有`requestId`的,都是 OneAPI 提示错误,大部分都是因为模型接口报错。可以参考 [OneAPI 常见错误](/docs/introduction/development/faq/#三常见的-oneapi-错误)
2222

2323
## 二、通用问题
2424

@@ -59,13 +59,15 @@ description: FastGPT 私有部署常见问题
5959

6060
1. 看日志。如果提示 JSON invalid,not support tool 之类的,说明该模型不支持工具调用或函数调用,需要设置`toolChoice=false``functionCall=false`,就会默认走提示词模式。目前内置提示词仅针对了商业模型API进行测试。问题分类基本可用,内容提取不太行。
6161
2. 如果已经配置正常,并且没有错误日志,则说明可能提示词不太适合该模型,可以通过修改`customCQPrompt`来自定义提示词。
62-
62+
6363
### 页面崩溃
6464

6565
1. 关闭翻译
6666
2. 检查配置文件是否正常加载,如果没有正常加载会导致缺失系统信息,在某些操作下会导致空指针。
67-
* 95%情况是配置文件不对。会提示 xxx undefined
68-
* 提示`URI malformed`,请 Issue 反馈具体操作和页面,这是由于特殊字符串编码解析报错。
67+
68+
- 95%情况是配置文件不对。会提示 xxx undefined
69+
- 提示`URI malformed`,请 Issue 反馈具体操作和页面,这是由于特殊字符串编码解析报错。
70+
6971
3. 某些api不兼容问题(较少)
7072

7173
### 开启内容补全后,响应速度变慢
@@ -102,7 +104,7 @@ description: FastGPT 私有部署常见问题
102104

103105
带有 requestId 的都是 OneAPI 的报错。
104106

105-
### insufficient_user_quota user quota is not enough
107+
### insufficient_user_quota user quota is not enough
106108

107109
OneAPI 账号的余额不足,默认 root 用户只有 200 刀,可以手动修改。
108110

@@ -120,7 +122,8 @@ FastGPT 模型配置文件中的 model 必须与 OneAPI 渠道中的模型对应
120122

121123
### 点击模型测试失败
122124

123-
OneAPI 只会测试渠道的第一个模型,并且只会测试对话模型,向量模型无法自动测试,需要手动发起请求进行测试。[查看测试模型命令示例](/docs/development/faq/#如何检查模型问题)
125+
OneAPI 只会测试渠道的第一个模型,并且只会测试对话模型,向量模型无法自动测试,需要手动发起请求进行测试。[查看测试模型命令示例](/docs/introduction/development/faq/#如何检查模型问题)
126+
124127
### get request url failed: Post `"https://xxx"` dial tcp: xxxx
125128

126129
OneAPI 与模型网络不通,需要检查网络配置。
@@ -137,7 +140,6 @@ OneAPI 的 API Key 配置错误,需要修改`OPENAI_API_KEY`环境变量,并
137140
2. 模型接口参数异常(温度、max token等可能不适配)
138141
3. ....
139142

140-
141143
### Tiktoken 下载失败
142144

143145
由于 OneAPI 会在启动时从网络下载一个 tiktoken 的依赖,如果网络异常,就会导致启动失败。可以参考[OneAPI 离线部署](https://blog.csdn.net/wanh/article/details/139039216)解决。
@@ -312,27 +314,21 @@ curl --location --request POST 'https://oneapi.xxx/v1/chat/completions' \
312314
"choices": [
313315
{
314316
"index": 0,
315-
"delta": {
316-
"role": "assistant",
317-
"content": null,
318-
"tool_calls": [
319-
{
320-
"index": 0,
321-
"id": "call_0n24eiFk8OUyIyrdEbLdirU7",
322-
"type": "function",
323-
"function": {
324-
"name": "mEYIcFl84rYC",
325-
"arguments": ""
326-
}
327-
}
328-
],
329-
"refusal": null
330-
},
331-
"logprobs": null,
332-
"finish_reason": null
333-
}
334-
],
335-
"usage": null
317+
"id": "call_0n24eiFk8OUyIyrdEbLdirU7",
318+
"type": "function",
319+
"function": {
320+
"name": "mEYIcFl84rYC",
321+
"arguments": ""
322+
}
323+
}
324+
],
325+
"refusal": null
326+
},
327+
"logprobs": null,
328+
"finish_reason": null
329+
}
330+
],
331+
"usage": null
336332
}
337333
```
338334

document/content/docs/introduction/development/intro.mdx

Lines changed: 18 additions & 11 deletions
Original file line numberDiff line numberDiff line change
@@ -24,6 +24,7 @@ import FastGPTLink from '@/components/docs/linkFastGPT';
2424

2525
1. 用户默认的时区为 `Asia/Shanghai`,非 linux 环境时候,获取系统时间会异常,本地开发时候,可以将用户的时区调整成 UTC(+0)。
2626
2. 建议先服务器装好**数据库**,再进行本地开发。
27+
2728
</Alert>
2829

2930
### 1. Fork 存储库
@@ -46,9 +47,11 @@ git clone [email protected]:<github_username>/FastGPT.git
4647

4748
### 3. 安装数据库
4849

49-
第一次开发,需要先部署数据库,建议本地开发可以随便找一台 2C2G 的轻量小数据库实践,或者新建文件夹并配置相关文件用以运行docker。数据库部署教程:[Docker 快速部署](/docs/development/docker/)。部署完了,可以本地访问其数据库。
50+
第一次开发,需要先部署数据库,建议本地开发可以随便找一台 2C2G 的轻量小数据库实践,或者新建文件夹并配置相关文件用以运行docker。数据库部署教程:[Docker 快速部署](/docs/introduction/development/docker/)。部署完了,可以本地访问其数据库。
51+
5052
<Alert context="warning">
51-
Mongo 数据库需要注意,需要注意在连接地址中增加 `directConnection=true` 参数,才能连接上副本集的数据库。
53+
Mongo 数据库需要注意,需要注意在连接地址中增加 `directConnection=true`
54+
参数,才能连接上副本集的数据库。
5255
</Alert>
5356

5457
### 4. 初始配置
@@ -61,7 +64,7 @@ Mongo 数据库需要注意,需要注意在连接地址中增加 `directConnec
6164

6265
**2. config 配置文件**
6366

64-
复制 `data/config.json` 文件,生成一个 `data/config.local.json` 配置文件,具体配置参数说明,可参考 [config 配置说明](/docs/development/configuration)
67+
复制 `data/config.json` 文件,生成一个 `data/config.local.json` 配置文件,具体配置参数说明,可参考 [config 配置说明](/docs/introduction/development/configuration)
6568

6669
**注意:json 配置文件不能包含注释,介绍中为了方便看才加入的注释**
6770

@@ -128,7 +131,7 @@ make build name=app image=registry.cn-hangzhou.aliyuncs.com/fastgpt/fastgpt:v4.8
128131
FastGPT 在`pnpm i`后会执行`postinstall`脚本,用于自动生成`ChakraUI``Type`。如果没有权限,可以先执行`chmod -R +x ./scripts/`,再执行`pnpm i`
129132

130133
仍不可行的话,可以手动执行`./scripts/postinstall.sh`里的内容。
131-
*如果是Windows下的话,可以使用git bash给`postinstall`脚本添加执行权限并执行sh脚本*
134+
_如果是Windows下的话,可以使用git bash给`postinstall`脚本添加执行权限并执行sh脚本_
132135

133136
### TypeError: Cannot read properties of null (reading 'useMemo' )
134137

@@ -148,7 +151,11 @@ FastGPT 在`pnpm i`后会执行`postinstall`脚本,用于自动生成`ChakraUI
148151

149152
遇到困难了吗?有任何问题吗? 加入飞书群与开发者和用户保持沟通。
150153

151-
<img width="400px" src="https://oss.laf.run/otnvvf-imgs/fastgpt-feishu1.png" className="medium-zoom-image" />
154+
<img
155+
width="400px"
156+
src="https://oss.laf.run/otnvvf-imgs/fastgpt-feishu1.png"
157+
className="medium-zoom-image"
158+
/>
152159

153160
## 代码结构说明
154161

@@ -160,12 +167,12 @@ FastGPT 使用了 nextjs 的 page route 作为框架。为了区分好前后端
160167

161168
FastGPT 采用 pnpm workspace 方式构建 monorepo 项目,主要分为两个部分:
162169

163-
- projects/app - FastGPT 主项目
164-
- packages/ - 子模块
165-
- global - 共用代码,通常是放一些前后端都能执行的函数、类型声明、常量。
166-
- service - 服务端代码
167-
- web - 前端代码
168-
- plugin - 工作流自定义插件的代码
170+
- projects/app - FastGPT 主项目
171+
- packages/ - 子模块
172+
- global - 共用代码,通常是放一些前后端都能执行的函数、类型声明、常量。
173+
- service - 服务端代码
174+
- web - 前端代码
175+
- plugin - 工作流自定义插件的代码
169176

170177
### 领域驱动模式(DDD)
171178

0 commit comments

Comments
 (0)