Skip to content

Commit

Permalink
fix(locales): update maxTokens description to clarify input token limits
Browse files Browse the repository at this point in the history
  • Loading branch information
dingyi222666 committed Dec 31, 2024
1 parent fb704e6 commit 141c3f5
Show file tree
Hide file tree
Showing 25 changed files with 26 additions and 26 deletions.
2 changes: 1 addition & 1 deletion packages/azure-openai-adapter/src/locales/en-US.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -20,7 +20,7 @@ $inner:
modelVersion: Version
contextSize: Context window
$desc: Supported model deployments.
maxTokens: 'Max response tokens (16-128000, multiple of 16). Note: >2000 recommended for 8k+ token models.'
maxTokens: 'Max input tokens (16-128000, multiple of 16). Note: >2000 recommended for 8k+ token models.'
temperature: Sampling temperature. Higher values increase randomness.
presencePenalty: Penalize new tokens based on presence in text (-2 to 2, step 0.1).
frequencyPenalty: Penalize new tokens based on frequency in text (-2 to 2, step 0.1).
2 changes: 1 addition & 1 deletion packages/azure-openai-adapter/src/locales/zh-CN.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -20,7 +20,7 @@ $inner:
modelVersion: 模型版本
contextSize: 模型上下文大小
$desc: 支持的模型列表(部署点名称列表)。
maxTokens: 回复的最大 Token(16~128000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。
maxTokens: 输入的最大上下文 Token(16~128000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。
temperature: 回复的随机性程度,数值越高,回复越随机。
presencePenalty: 重复惩罚系数,数值越高,越不易重复出现已出现过至少一次的 Token(范围:-2~2,步长:0.1)。
frequencyPenalty: 频率惩罚系数,数值越高,越不易重复出现次数较多的 Token(范围:-2~2,步长:0.1)。
2 changes: 1 addition & 1 deletion packages/chatglm-adapter/src/locales/zh-CN.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -10,7 +10,7 @@ $inner:
$desc: Embeddings 模型的名称。

- $desc: 模型设置
maxTokens: 回复的最大 Token(16~36000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 512 token。
maxTokens: 输入的最大上下文 Token(16~36000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 512 token。
temperature: 回复的随机性程度,数值越高,回复越随机。
presencePenalty: 重复惩罚系数,数值越高,越不易重复出现已出现过至少一次的 Token(范围:-2~2,步长:0.1)。
frequencyPenalty: 频率惩罚系数,数值越高,越不易重复出现次数较多的 Token(范围:-2~2,步长:0.1)。
2 changes: 1 addition & 1 deletion packages/claude-adapter/src/locales/en-US.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -8,7 +8,7 @@ $inner:
$desc: 'List of Claude API credentials'

- $desc: 'Model Parameters'
maxTokens: 'Maximum response tokens (16-200000, multiple of 16). Note: >2000 recommended for 8k+ token models'
maxTokens: 'Maximum input tokens (16-200000, multiple of 16). Note: >2000 recommended for 8k+ token models'
temperature: 'Sampling temperature (higher values increase randomness)'
presencePenalty: 'Token presence penalty (-2 to 2, step 0.1, higher values discourage token repetition)'
frequencyPenalty: 'Token frequency penalty (-2 to 2, step 0.1, higher values reduce repetition of frequent tokens)'
2 changes: 1 addition & 1 deletion packages/claude-adapter/src/locales/zh-CN.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -8,7 +8,7 @@ $inner:
$desc: Claude 的 API Key 和请求地址列表。

- $desc: 模型配置
maxTokens: 回复的最大 Token(16~200000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。
maxTokens: 输入的最大上下文 Token(16~200000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。
temperature: 回复的随机性程度,数值越高,回复越随机。
presencePenalty: 重复惩罚系数,数值越高,越不易重复出现已出现过至少一次的 Token(范围:-2~2,步长:0.1)。
frequencyPenalty: 频率惩罚系数,数值越高,越不易重复出现次数较多的 Token(范围:-2~2,步长:0.1)。
2 changes: 1 addition & 1 deletion packages/gemini-adapter/src/locales/zh-CN.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -8,7 +8,7 @@ $inner:
$desc: 'Gemini 的 API Key 和请求地址列表。'

- $desc: '模型配置'
maxTokens: '回复的最大 Token(16~2097000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。'
maxTokens: '输入的最大上下文 Token(16~2097000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。'
temperature: '回复的随机性程度,数值越高,回复越随机(范围:0~2)。'
googleSearch: '为模型启用谷歌搜索。'
searchThreshold: '搜索的置信度阈值,范围:0~1,设置的数值越低,则越倾向于使用谷歌搜索。'
2 changes: 1 addition & 1 deletion packages/hunyuan-adapter/src/locales/en-US.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -5,6 +5,6 @@ $inner:
$desc: 'Hunyuan LLM API credentials'

- $desc: 'Model Parameters'
maxTokens: 'Max response tokens (16-128000, multiple of 16). Note: >2000 recommended for 8k+ token models'
maxTokens: 'Max input tokens (16-128000, multiple of 16). Note: >2000 recommended for 8k+ token models'
temperature: 'Sampling temperature (higher values increase randomness)'
enableSearch: 'Toggle model built-in search functionality'
2 changes: 1 addition & 1 deletion packages/hunyuan-adapter/src/locales/zh-CN.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -5,6 +5,6 @@ $inner:
$desc: '混元大模型的 API Key 列表。'

- $desc: '模型配置'
maxTokens: '回复的最大 Token(16~128000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。'
maxTokens: '输入的最大上下文 Token(16~128000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。'
temperature: '回复的随机性程度,数值越高,回复越随机。'
enableSearch: '是否启用模型自带搜索功能。'
2 changes: 1 addition & 1 deletion packages/ollama-adapter/src/locales/en-US.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -6,7 +6,7 @@ $inner:
supportImage: 'Whether the current model supports multi-modal image input'

- $desc: 'Model Parameters'
maxTokens: 'Max response tokens (16-4096, multiple of 16). Note: >2000 for 8k+ token models'
maxTokens: 'Max input tokens (16-4096, multiple of 16). Note: >2000 for 8k+ token models'
temperature: 'Sampling temperature (higher values increase randomness)'
presencePenalty: 'Token presence penalty (-2 to 2, step 0.1, discourages token repetition)'
frequencyPenalty: 'Token frequency penalty (-2 to 2, step 0.1, reduces frequent token repetition)'
2 changes: 1 addition & 1 deletion packages/ollama-adapter/src/locales/zh-CN.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -6,7 +6,7 @@ $inner:
supportImage: 目前运行的模型是否支持多模态图片输入。

- $desc: 模型配置
maxTokens: 回复的最大 Token(16~4096,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。
maxTokens: 输入的最大上下文 Token(16~4096,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。
temperature: 回复的随机性程度,数值越高,回复越随机。
presencePenalty: 重复惩罚系数,数值越高,越不易重复出现已出现过至少一次的 Token(范围:-2~2,步长:0.1)。
frequencyPenalty: 频率惩罚系数,数值越高,越不易重复出现次数较多的 Token(范围:-2~2,步长:0.1)。
2 changes: 1 addition & 1 deletion packages/openai-adapter/src/locales/en-US.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -8,7 +8,7 @@ $inner:
$desc: 'OpenAI API credentials'

- $desc: 'Model Parameters'
maxTokens: 'Max response tokens (16-128000, multiple of 16). Note: >2000 for 8k+ token models'
maxTokens: 'Max input tokens (16-128000, multiple of 16). Note: >2000 for 8k+ token models'
temperature: 'Sampling temperature (higher values increase randomness)'
presencePenalty: 'Token presence penalty (-2 to 2, step 0.1, discourages token repetition)'
frequencyPenalty: 'Token frequency penalty (-2 to 2, step 0.1, reduces frequent token repetition)'
2 changes: 1 addition & 1 deletion packages/openai-adapter/src/locales/zh-CN.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -8,7 +8,7 @@ $inner:
$desc: OpenAI 的 API Key 和请求地址列表。

- $desc: 模型配置
maxTokens: 回复的最大 Token(16~128000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。
maxTokens: 输入的最大上下文 Token(16~128000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。
temperature: 回复的随机性程度,数值越高,回复越随机。
presencePenalty: 重复惩罚系数,数值越高,越不易重复出现已出现过至少一次的 Token(范围:-2~2,步长:0.1)。
frequencyPenalty: 频率惩罚系数,数值越高,越不易重复出现次数较多的 Token(范围:-2~2,步长:0.1)。
2 changes: 1 addition & 1 deletion packages/openai-like-adapter/src/locales/en-US.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -23,7 +23,7 @@ $inner:
$desc: 'Additional cookies'

- $desc: 'Model Parameters'
maxTokens: 'Max response tokens (16-128000, multiple of 16). Note: >2000 for 8k+ token models'
maxTokens: 'Max input tokens (16-128000, multiple of 16). Note: >2000 for 8k+ token models'
temperature: 'Sampling temperature (higher values increase randomness)'
presencePenalty: 'Token presence penalty (-2 to 2, step 0.1, discourages repetition)'
frequencyPenalty: 'Token frequency penalty (-2 to 2, step 0.1, reduces repetition)'
2 changes: 1 addition & 1 deletion packages/openai-like-adapter/src/locales/zh-CN.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -23,7 +23,7 @@ $inner:
$desc: 设置额外的 Cookie。

- $desc: 模型设置
maxTokens: 回复的最大 Token(16~128000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。
maxTokens: 输入的最大上下文 Token(16~128000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。
temperature: 回复的随机性程度,数值越高,回复越随机。
presencePenalty: 重复惩罚系数,数值越高,越不易重复出现已出现过至少一次的 Token(范围:-2~2,步长:0.1)。
frequencyPenalty: 频率惩罚系数,数值越高,越不易重复出现次数较多的 Token(范围:-2~2,步长:0.1)。
4 changes: 2 additions & 2 deletions packages/plugin-common/package.json
Original file line number Diff line number Diff line change
Expand Up @@ -63,12 +63,12 @@
"@types/uuid": "^10.0.0",
"atsc": "^2.1.0",
"koishi": "^4.18.4",
"koishi-plugin-chatluna-knowledge-chat": "^1.0.19"
"koishi-plugin-chatluna-knowledge-chat": "^1.0.20"
},
"peerDependencies": {
"koishi": "^4.18.4",
"koishi-plugin-chatluna": "^1.0.0-beta.149",
"koishi-plugin-chatluna-knowledge-chat": "^1.0.19"
"koishi-plugin-chatluna-knowledge-chat": "^1.0.20"
},
"peerDependenciesMeta": {
"koishi-plugin-chatluna-knowledge-chat": {
Expand Down
2 changes: 1 addition & 1 deletion packages/qwen-adapter/src/locales/en-US.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -11,6 +11,6 @@ $inner:
contextSize: 'Context size'

- $desc: 'Model Parameters'
maxTokens: 'Max response tokens (16-128000, multiple of 16). Note: >2000 for 8k+ token models'
maxTokens: 'Max input tokens (16-128000, multiple of 16). Note: >2000 for 8k+ token models'
temperature: 'Sampling temperature (higher values increase randomness)'
enableSearch: 'Enable built-in Quark search'
2 changes: 1 addition & 1 deletion packages/qwen-adapter/src/locales/zh-CN.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -11,6 +11,6 @@ $inner:
contextSize: 模型上下文大小

- $desc: 模型配置
maxTokens: 回复的最大 Token(16~128000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。
maxTokens: 输入的最大上下文 Token(16~128000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。
temperature: 回复的随机性程度,数值越高,回复越随机。
enableSearch: 是否启用模型自带夸克搜索功能。
2 changes: 1 addition & 1 deletion packages/rwkv-adapter/src/locales/en-US.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -8,7 +8,7 @@ $inner:
$desc: 'RWKV Runner API Keys and endpoints'

- $desc: 'Model Parameters'
maxTokens: 'Max response tokens (16-4096, multiple of 16). Note: >2000 for 8k+ token models'
maxTokens: 'Max input tokens (16-4096, multiple of 16). Note: >2000 for 8k+ token models'
temperature: 'Sampling temperature (higher values increase randomness)'
presencePenalty: 'Token presence penalty (-2 to 2, step 0.1, discourages token repetition)'
frequencyPenalty: 'Token frequency penalty (-2 to 2, step 0.1, reduces frequent token repetition)'
2 changes: 1 addition & 1 deletion packages/rwkv-adapter/src/locales/zh-CN.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -8,7 +8,7 @@ $inner:
$desc: RWKV Runner API 的 API Key 和请求地址列表。

- $desc: 模型配置
maxTokens: 回复的最大 Token(16~4096,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。
maxTokens: 输入的最大上下文 Token(16~4096,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。
temperature: 回复的随机性程度,数值越高,回复越随机。
presencePenalty: 重复惩罚系数,数值越高,越不易重复出现已出现过至少一次的 Token(范围:-2~2,步长:0.1)。
frequencyPenalty: 频率惩罚系数,数值越高,越不易重复出现次数较多的 Token(范围:-2~2,步长:0.1)。
2 changes: 1 addition & 1 deletion packages/spark-adapter/src/locales/en-US.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -14,4 +14,4 @@ $inner:
- 'Spark assistant link'

- $desc: 'Model Parameters'
maxTokens: 'Max response tokens (16-12800, multiple of 16). Note: >1024 for 8k+ token models'
maxTokens: 'Max input tokens (16-12800, multiple of 16). Note: >1024 for 8k+ token models'
2 changes: 1 addition & 1 deletion packages/spark-adapter/src/locales/zh-CN.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -14,5 +14,5 @@ $inner:
- 讯飞星火助手的链接。

- $desc: 模型设置
maxTokens: 回复的最大 Token(16~12800,必须是 16 的倍数)。注:仅当使用的模型最大 Token 为 8000 及以上时,建议设置超过 1024 token。
maxTokens: 输入的最大上下文 Token(16~12800,必须是 16 的倍数)。注:仅当使用的模型最大 Token 为 8000 及以上时,建议设置超过 1024 token。
temperature: 回复温度,数值越高随机性越强。
2 changes: 1 addition & 1 deletion packages/wenxin-adapter/src/locales/en-US.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -8,7 +8,7 @@ $inner:
- 'Secret Key for Baidu Qianfan platform'

- $desc: 'Model Parameters'
maxTokens: 'Max response tokens (16-12000, multiple of 16). Note: >2000 for 8k+ token models'
maxTokens: 'Max input tokens (16-12000, multiple of 16). Note: >2000 for 8k+ token models'
temperature: 'Sampling temperature (higher values increase randomness)'
presencePenalty: 'Repetition penalty (1-2, step 0.1, higher values discourage repetition)'
enableSearch: 'Enable model built-in search'
2 changes: 1 addition & 1 deletion packages/wenxin-adapter/src/locales/zh-CN.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -8,7 +8,7 @@ $inner:
- 百度千帆大模型平台应用的 Secret Key

- $desc: 模型配置
maxTokens: 回复的最大 Token(16~12000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。
maxTokens: 输入的最大上下文 Token(16~12000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 8000 及以上时,才建议设置超过 2000 token。
temperature: 回复的随机性程度,数值越高,回复越随机。
presencePenalty: 重复惩罚系数,数值越高,越不易重复出现已出现过至少一次的 Token(范围:1~2,步长:0.1)。
enableSearch: 是否启用模型自带搜索功能。
2 changes: 1 addition & 1 deletion packages/zhipu-adapter/src/locales/en-US.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -7,7 +7,7 @@ $inner:
- 'API Key for Zhipu platform'

- $desc: 'Model Parameters'
maxTokens: 'Max response tokens (16-1024000, multiple of 16). Note: >8000 for 32k+ token models'
maxTokens: 'Max input tokens (16-1024000, multiple of 16). Note: >8000 for 32k+ token models'
temperature: 'Sampling temperature (higher values increase randomness)'
webSearch: 'Enable Web search'
retrieval:
Expand Down
2 changes: 1 addition & 1 deletion packages/zhipu-adapter/src/locales/zh-CN.schema.yml
Original file line number Diff line number Diff line change
Expand Up @@ -7,7 +7,7 @@ $inner:
- 智谱平台的 API Key

- $desc: 模型配置
maxTokens: 回复的最大 Token(16~1024000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 32k 及以上时,才建议设置超过 8000 token。
maxTokens: 输入的最大上下文 Token(16~1024000,必须是 16 的倍数)。注意:仅当您使用的模型最大 Token 为 32k 及以上时,才建议设置超过 8000 token。
temperature: 回复的随机性程度,数值越高,回复越随机。
webSearch: 是否启用 Web 搜索功能。
retrieval:
Expand Down

0 comments on commit 141c3f5

Please sign in to comment.