From 037c1f9c03b04edea9bfaf1619fb40349844c2b1 Mon Sep 17 00:00:00 2001 From: YxlaGyb <1242352258@qq.com> Date: Fri, 9 Jan 2026 23:42:22 +0800 Subject: [PATCH] Update zh-CN translation --- zh-CN/chat.json | 4 +++- zh-CN/config.json | 3 +++ zh-CN/developer.json | 17 +++++++++++++++++ zh-CN/models.json | 17 +++++++++++++++++ zh-CN/settings.json | 19 +++++++++++++++++++ zh-CN/shared.json | 1 + 6 files changed, 60 insertions(+), 1 deletion(-) diff --git a/zh-CN/chat.json b/zh-CN/chat.json index eb991101..84461b9d 100644 --- a/zh-CN/chat.json +++ b/zh-CN/chat.json @@ -237,7 +237,9 @@ "stopReason.maxPredictedTokensReached": "达到最大预测词元", "stopReason.contextLengthReached": "达到上下文长度上限", "speculativeDecodedBy": "草稿模型:{{decodedBy}}", - "speculativeDecodingStats": "已采纳 {{accepted}}/{{total}} 个草稿token({{percentage}}%)" + "speculativeDecodingStats": "已采纳 {{accepted}}/{{total}} 个草稿token({{percentage}}%)", + "speculativeDecodingAcceptedPercentage": "{{percentage}}% 草稿 Token 已被采纳", + "speculativeDecodingTooltip": "已采纳 {{accepted}}/{{total}} 个草稿 Token" }, "tabs": { diff --git a/zh-CN/config.json b/zh-CN/config.json index 48a45d2f..b362c72c 100644 --- a/zh-CN/config.json +++ b/zh-CN/config.json @@ -139,6 +139,9 @@ "llm.load.seed/title": "种子", "llm.load.seed/subTitle": "用于文本生成的随机数生成器的种子。-1 表示随机", "llm.load.seed/info": "随机种子:设置随机数生成的种子以确保可重复的结果", + "llm.load.numCpuExpertLayersRatio/title": "强制放置在 CPU 上的 MoE 专家层数量", + "llm.load.numCpuExpertLayersRatio/subTitle": "强制将特定数量层的专家权重 (Experts) 移至 CPU。这可以节省显存 (VRAM),且在某些情况下比部分 GPU 卸载更快。如果显存足以容纳整个模型,则不建议开启。", + "llm.load.numCpuExpertLayersRatio/info": "指定强制放置在 CPU 上的专家层数量。这会将注意力层 (Attention layers) 保留在 GPU 上,在保持推理速度的同时节省显存。", "llm.load.llama.evalBatchSize/title": "评估批处理大小", "llm.load.llama.evalBatchSize/subTitle": "每次处理的输入token数量。增加此值会提高性能,但会增加内存使用量", diff --git a/zh-CN/developer.json b/zh-CN/developer.json index 9ed7ec42..87fc6ef6 100644 --- a/zh-CN/developer.json +++ b/zh-CN/developer.json @@ -47,6 +47,15 @@ "serverOptions/jitModelLoadingTTL/ttl/unit": "分钟", "serverOptions/unloadPreviousJITModelOnLoad/title": "仅保留最后一个即时加载的模型", "serverOptions/unloadPreviousJITModelOnLoad/hint": "确保在任意时刻最多只有一个即时加载的模型(会卸载之前的模型)", + "serverOptions/allowMcp/title": "允许远程 MCP", + "serverOptions/allowMcp/hint": "允许使用未列在 mcp.json 中的 MCP。这些 MCP 连接是瞬时的,仅在请求期间存在。目前仅支持远程 MCP。", + "serverOptions/allowMcp/mode/off": "关闭", + "serverOptions/allowMcp/mode/off/hint": "不允许服务器请求使用 MCP", + "serverOptions/allowMcp/mode/remote": "远程", + "serverOptions/allowMcp/mode/remote/hint": "允许连接到远程 MCP 服务器", + + "serverOptions/start/error": "启动服务器失败", + "serverOptions/stop/error": "停止服务器失败", "serverLogs/scrollToBottom": "跳转到底部", "serverLogs/clearLogs": "清除日志 ({{shortcut}})", @@ -162,10 +171,18 @@ }, "endpoints/openaiCompatRest/title": "支持的端点 (与 OpenAI 兼容的格式)", + "endpoints/openaiCompatRest/segmentedLabel": "OpenAI 兼容", "endpoints/openaiCompatRest/getModels": "列出当前已加载的模型", "endpoints/openaiCompatRest/postCompletions": "文本补全模式。给定一个提示,预测下一个token。注意:OpenAI 认为此端点已'弃用'。", "endpoints/openaiCompatRest/postChatCompletions": "聊天补全。向模型发送聊天历史以预测下一个助手响应。", "endpoints/openaiCompatRest/postEmbeddings": "文本嵌入。为给定的文本输入生成文本嵌入。接受字符串或字符串数组。", + "endpoints/openaiCompatRest/postResponses": "生成模型回复的高级接口。通过将前一个回复的 ID 作为下一个回复的输入,实现有状态的交互。", + "endpoints/lmStudioRest/segmentedLabel": "LM Studio", + "endpoints/lmStudioRestV1/getModels": "列出可用模型", + "endpoints/lmStudioRestV1/postModelsLoad": "根据配置加载模型", + "endpoints/lmStudioRestV1/postModelsDownload": "下载模型", + "endpoints/lmStudioRestV1/postChat": "与模型对话。支持有状态的多轮对话及 MCP", + "endpoints/lmStudioRestV1/getModelsDownloadStatus": "获取模型下载状态", "model.createVirtualModelFromInstance": "另存为新的虚拟模型", "model.createVirtualModelFromInstance/error": "另存为新的虚拟模型失败", diff --git a/zh-CN/models.json b/zh-CN/models.json index da248fdf..08c862ad 100644 --- a/zh-CN/models.json +++ b/zh-CN/models.json @@ -32,6 +32,7 @@ "loader.model.bundled": "捆绑", "action.cancel": "取消", "indexingOngoing": "正在索引模型... 这可能需要几秒钟", + "indexingPageLoaderText": "正在索引模型...", "index/error_one": "索引以下文件夹失败:", "index/error_other": "索引以下文件夹失败:", "badModels/title_one": "索引以下模型失败:", @@ -95,6 +96,16 @@ "loader.info.clickOnModelToLoad": "点击模型以加载", "loader.info.configureLoadParameters": "配置模型加载参数", "loader.info.activeGeneratorWarning": "您正在使用带有自定义生成器的插件。当前加载的模型是否适用于该插件,取决于生成器的具体实现方式", + "loader.guardrails.estimatedMemoryUsage": "预计内存占用", + "loader.guardrails.total": "总计", + "loader.guardrails.gpu": "GPU", + "loader.guardrails.unavailable": "无法获取该模型的内存占用预估", + "loader.guardrails.notEnoughResources": "当前配置下的资源不足以加载该模型", + "loader.guardrails.notEnoughResources/options": "选项", + "loader.guardrails.notEnoughResources.moreInfoSection.appearsNotEnoughMemory": "您的系统似乎没有足够的内存/显存来加载此模型。", + "loader.guardrails.notEnoughResources.moreInfoSection.ifYouBelieveThisIsIncorrect": "您可以在设置中调整模型加载限制(Guardrails),或按住 强制加载。", + "loader.guardrails.notEnoughResources.moreInfoSection.warning": "加载过大的模型可能会使系统超负荷,并导致系统卡死或崩溃。", + "loader.guardrails.notEnoughResources.alwaysAllowLoadAnyway": "(不推荐) 始终允许“强制加载”,无需按住 Alt/Option 键", "virtual": { "local": { @@ -110,6 +121,12 @@ "next": "下一步", "confirm": "创建", "error": "创建虚拟模型失败" + }, + "altsSelect": { + "title": "切换模型来源", + "resetButton": "重置为默认", + "description": "此模型有多个可用的源文件。", + "trigger": "变体 (Variants)" } } } diff --git a/zh-CN/settings.json b/zh-CN/settings.json index 3c0cfbe3..8166186f 100644 --- a/zh-CN/settings.json +++ b/zh-CN/settings.json @@ -49,6 +49,9 @@ "sideButtonLabels": "显示侧边按钮标签", "showModelFileNames": "在“我的模型”中始终显示完整模型文件名", "colorThemeLabel": "颜色主题", + "appNavigationBarPositionLabel": "导航栏位置", + "appNavigationBarPositionTop": "顶部", + "appNavigationBarPositionLeft": "左侧", "complexityLevelLabel": "用户界面复杂度级别", "selectComplexityLevelPlaceholder": "选择默认的UI复杂度级别", "userComplexityLevelLabel": "普通用户", @@ -92,6 +95,7 @@ "changeLanguageLabel": "选择应用语言(仍在开发中)", "developerLabel": "开发者", "localServiceLabel": "本地 LLM 服务(无界面)", + "modelDefaultsLabel": "模型默认设置", "showExperimentalFeaturesLabel": "显示实验性功能", "appFirstLoadLabel": "应用首次加载体验", "showDebugInfoBlocksInChatLabel": "在聊天中显示调试信息块", @@ -136,6 +140,7 @@ "modelLoadingGuardrails.custom.label": "内存限制:", "modelLoadingGuardrails.custom.unitGB": "GB", "modelLoadingGuardrails.custom.description": "为模型加载设置自定义内存限制。如果加载的模型会超过此限制,则不会加载模型。", + "modelLoadingGuardrails.alwaysAllowLoadAnyway": "(不推荐) 始终允许“强制加载”,无需按住 Alt/Option 键", "experimentalLoadPresets": "在预设中启用模型加载配置支持", "experimentalLoadPresets.description": "是否允许预设包含模型加载配置。此功能尚处于试验阶段,我们欢迎反馈。", @@ -191,5 +196,19 @@ "warnDescription": "禁用工具调用确认非常危险。如果您的插件中包含可能执行破坏性操作的工具(例如运行命令、删除文件、覆盖文件、上传文件等),模型将无需确认即可执行这些操作。您可以通过逐个工具或逐个插件的方式禁用确认提示。强烈不建议启用此选项。请谨慎操作。", "warnButton": "我了解风险" } + }, + + "defaultContextLength": { + "label": "默认上下文长度", + "maxTitle": "模型最大值", + "customTitle": "自定义数值", + "maxSubtitle": "使用每个模型支持的最大上下文长度。", + "customSubtitle": "设置加载新模型时的默认上下文长度。如果模型支持的最大长度低于此值,将以模型最大值为准。", + "invalidNaNError": "上下文长度数值无效。当前使用:{{value}}", + "invalidRangeError": "上下文长度数值无效。范围应在 1 到 2^30 之间。当前使用:{{value}}", + "largeContextWarning": "上下文长度越高,模型占用的内存/显存就越多。如果您不确定,请勿更改默认设置。" + }, + "jitTTL": { + "subtitle": "即时加载 (JIT) 的模型在闲置指定时长后将自动卸载。" } } diff --git a/zh-CN/shared.json b/zh-CN/shared.json index 24fc7431..45e14d9a 100644 --- a/zh-CN/shared.json +++ b/zh-CN/shared.json @@ -50,6 +50,7 @@ "pending": "待处理", "doneWithExclamation": "完成!", "done": "完成", + "beta": "测试", "complete": { "completeWithEllipsis": "完成...",