From e1f841ceeb97cf18487bde1136ad803c07f673fa Mon Sep 17 00:00:00 2001 From: howtomakeaname <82312111+howtomakeaname@users.noreply.github.com> Date: Thu, 5 Mar 2026 16:00:24 +0800 Subject: [PATCH] =?UTF-8?q?zh-CN:=20=E8=A1=A5=E5=85=A8=E6=96=B0=E5=8A=9F?= =?UTF-8?q?=E8=83=BD=E7=BF=BB=E8=AF=91?= MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit --- zh-CN/chat.json | 6 +++++- zh-CN/config.json | 20 ++++++++++++++++++++ zh-CN/developer.json | 17 +++++++++++++++++ zh-CN/models.json | 17 +++++++++++++++++ zh-CN/settings.json | 16 ++++++++++++++++ zh-CN/shared.json | 5 +++-- 6 files changed, 78 insertions(+), 3 deletions(-) diff --git a/zh-CN/chat.json b/zh-CN/chat.json index eb991101..8b7b9398 100644 --- a/zh-CN/chat.json +++ b/zh-CN/chat.json @@ -67,6 +67,8 @@ "actions/changeToLastUsedModel/tooltip": "您上次在这个聊天中发送消息时使用了不同的模型。点击以卸载当前选定的模型({{currentModel}})并加载上次与这个聊天一起使用的模型:\n\n{{lastModel}}", "actions/switchToLastUsedModel": "切换到 {{lastModel}}", "actions/switchToLastUsedModel/tooltip": "点击以切换到上次与这个聊天一起使用的模型:\n\n{{lastModel}}", + "actions/clearLastUsedModel": "清除上次使用的模型", + "actions/clearLastUsedModel/error": "清除上次使用的模型失败。", "actions/loadModel": "加载模型", "actions/toggleViewingProcessed/currentlyFalse": "当前查看的是原始消息。点击以查看预处理后的消息。", "actions/toggleViewingProcessed/currentlyTrue": "当前查看的是预处理后的消息。点击以查看原始消息。", @@ -237,7 +239,9 @@ "stopReason.maxPredictedTokensReached": "达到最大预测词元", "stopReason.contextLengthReached": "达到上下文长度上限", "speculativeDecodedBy": "草稿模型:{{decodedBy}}", - "speculativeDecodingStats": "已采纳 {{accepted}}/{{total}} 个草稿token({{percentage}}%)" + "speculativeDecodingStats": "已采纳 {{accepted}}/{{total}} 个草稿token({{percentage}}%)", + "speculativeDecodingAcceptedPercentage": "{{percentage}}% 草稿token已采纳", + "speculativeDecodingTooltip": "已采纳 {{accepted}}/{{total}} 个草稿token" }, "tabs": { diff --git a/zh-CN/config.json b/zh-CN/config.json index 48a45d2f..f1e97c4c 100644 --- a/zh-CN/config.json +++ b/zh-CN/config.json @@ -126,6 +126,13 @@ "llm.load.splitStrategy/placeholder": "选择拆分策略...", "llm.load.offloadKVCacheToGpu/title": "将 KV 缓存卸载到 GPU 内存", "llm.load.offloadKVCacheToGpu/subTitle": "将 KV 缓存卸载到 GPU 内存。这可以提高性能但需要更多 GPU 内存", + "llm.load.numParallelSessions/title": "最大并发预测数", + "llm.load.numParallelSessions/subTitle": "模型在给定时间内可以运行的最大预测数。每个预测的速度可能随着并发增加而降低,但每个预测会更快启动,并且可以实现更高的总吞吐量", + "llm.load.useUnifiedKvCache/title": "统一 KV 缓存", + "llm.load.useUnifiedKvCache/subTitle": "控制并发预测是否共享单个 KV 缓存,从而节省内存。禁用此选项可确保每个预测都能充分利用完整的上下文长度,但代价是使用更多内存", + "llm.load.numCpuExpertLayersRatio/title": "强制将 MoE 权重加载到 CPU 的层数", + "llm.load.numCpuExpertLayersRatio/subTitle": "强制将专家加载到 CPU 的层数。可以节省 VRAM,并且可能比部分 GPU 卸载更快。如果模型完全适合 VRAM,则不推荐使用。", + "llm.load.numCpuExpertLayersRatio/info": "指定强制将专家加载到 CPU 的层数。将注意力层保留在 GPU 上,从而节省 VRAM,同时保持相当快的推理速度。", "load.gpuStrictVramCap/title": "限制模型卸载至专用 GPU 内存", "load.gpuStrictVramCap.customSubTitleOff": "关闭:若专用 GPU 内存已满,允许将模型权重卸载至共享内存", "load.gpuStrictVramCap.customSubTitleOn": "开启:系统将限制模型权重的卸载仅限于专用 GPU 内存及 RAM 。上下文仍可能使用共享内存", @@ -372,6 +379,19 @@ "presets": { "title": "预设", + "saveChanges": "保存", + "saveChanges/description": "将您的更改保存到预设。", + "saveChanges.manual": "检测到新字段。您将能够选择要包含在预设中的更改。", + "saveChanges.manual.hold.0": "按住", + "saveChanges.manual.hold.1": "选择要保存到预设的更改。", + "saveChanges.saveAll.hold.0": "按住", + "saveChanges.saveAll.hold.1": "保存所有更改。", + "saveChanges.saveInPreset.hold.0": "按住", + "saveChanges.saveInPreset.hold.1": "仅保存已包含在预设中的字段的更改。", + "saveChanges/error": "未能将更改保存到预设。", + "saveChanges.manual/description": "选择要包含在预设中的更改。", + "cannotSaveChangesNoChanges": "没有可保存的更改。", + "import.resultsModal.titleFailSection_zero": "", "commitChanges": "提交更改", "commitChanges/description": "将您的更改提交给预设。", "commitChanges.manual": "检测到新的字段。您将能够选择要包含在预设中的更改。", diff --git a/zh-CN/developer.json b/zh-CN/developer.json index 9ed7ec42..ddfd3d91 100644 --- a/zh-CN/developer.json +++ b/zh-CN/developer.json @@ -41,6 +41,14 @@ "serverOptions/jitModelLoading/title": "JIT(即时)模型加载", "serverOptions/jitModelLoading/hint": "启用后,如果请求指定了一个未加载的模型,该模型将自动加载并使用。此外,\"/v1/models\" 端点还将包含尚未加载的模型。", "serverOptions/loadModel/error": "加载模型失败", + "serverOptions/allowMcp/title": "允许远程 MCP", + "serverOptions/allowMcp/hint": "允许使用不在 mcp.json 中的 MCP。这些 MCP 连接是临时的,仅在请求期间存在。目前仅支持远程 MCP。", + "serverOptions/allowMcp/mode/off": "关闭", + "serverOptions/allowMcp/mode/off/hint": "不允许服务器请求使用 MCP", + "serverOptions/allowMcp/mode/remote": "远程", + "serverOptions/allowMcp/mode/remote/hint": "允许连接到远程 MCP 服务器", + "serverOptions/start/error": "启动服务器失败", + "serverOptions/stop/error": "停止服务器失败", "serverOptions/jitModelLoadingTTL/title": "自动卸载未使用的即时加载模型", "serverOptions/jitModelLoadingTTL/hint": "通过 API 请求即时加载的模型,若在一段时间内未被使用,将会被自动卸载(TTL)", "serverOptions/jitModelLoadingTTL/ttl/label": "最大空闲 TTL", @@ -166,6 +174,15 @@ "endpoints/openaiCompatRest/postCompletions": "文本补全模式。给定一个提示,预测下一个token。注意:OpenAI 认为此端点已'弃用'。", "endpoints/openaiCompatRest/postChatCompletions": "聊天补全。向模型发送聊天历史以预测下一个助手响应。", "endpoints/openaiCompatRest/postEmbeddings": "文本嵌入。为给定的文本输入生成文本嵌入。接受字符串或字符串数组。", + "endpoints/openaiCompatRest/segmentedLabel": "类 OpenAI 接口", + "endpoints/openaiCompatRest/postResponses": "用于生成模型响应的高级接口。通过将前一个响应的 ID 作为输入传递给下一个来创建有状态的交互。", + "endpoints/lmStudioRest/segmentedLabel": "LM Studio", + "endpoints/lmStudioRestV1/getModels": "列出可用模型", + "endpoints/lmStudioRestV1/postModelsLoad": "加载模型(带选项)", + "endpoints/lmStudioRestV1/postModelsDownload": "下载模型", + "endpoints/lmStudioRestV1/postChat": "与模型聊天。支持有状态的多轮对话和 MCP", + "endpoints/lmStudioRestV1/getModelsDownloadStatus": "获取模型下载状态", + "endpoints/anthropicCompatRest/segmentedLabel": "Anthropic 兼容接口", "model.createVirtualModelFromInstance": "另存为新的虚拟模型", "model.createVirtualModelFromInstance/error": "另存为新的虚拟模型失败", diff --git a/zh-CN/models.json b/zh-CN/models.json index da248fdf..abed0934 100644 --- a/zh-CN/models.json +++ b/zh-CN/models.json @@ -32,6 +32,7 @@ "loader.model.bundled": "捆绑", "action.cancel": "取消", "indexingOngoing": "正在索引模型... 这可能需要几秒钟", + "indexingPageLoaderText": "正在索引模型...", "index/error_one": "索引以下文件夹失败:", "index/error_other": "索引以下文件夹失败:", "badModels/title_one": "索引以下模型失败:", @@ -95,6 +96,16 @@ "loader.info.clickOnModelToLoad": "点击模型以加载", "loader.info.configureLoadParameters": "配置模型加载参数", "loader.info.activeGeneratorWarning": "您正在使用带有自定义生成器的插件。当前加载的模型是否适用于该插件,取决于生成器的具体实现方式", + "loader.guardrails.estimatedMemoryUsage": "预估内存使用", + "loader.guardrails.total": "总计", + "loader.guardrails.gpu": "GPU", + "loader.guardrails.unavailable": "无法为此模型估算内存", + "loader.guardrails.notEnoughResources": "资源不足,无法使用当前设置加载模型", + "loader.guardrails.notEnoughResources/options": "选项", + "loader.guardrails.notEnoughResources.moreInfoSection.appearsNotEnoughMemory": "您的系统似乎没有足够的内存来加载此模型。", + "loader.guardrails.notEnoughResources.moreInfoSection.ifYouBelieveThisIsIncorrect": "您可以在设置中调整模型加载限制,或按住 Alt/Option 键强制加载。", + "loader.guardrails.notEnoughResources.moreInfoSection.warning": "加载过大的模型可能会使系统过载并导致卡顿。", + "loader.guardrails.notEnoughResources.alwaysAllowLoadAnyway": "(不推荐)始终允许\"强制加载\"而无需按住 Alt/Option", "virtual": { "local": { @@ -110,6 +121,12 @@ "next": "下一步", "confirm": "创建", "error": "创建虚拟模型失败" + }, + "altsSelect": { + "title": "切换模型来源", + "resetButton": "重置为默认", + "description": "此模型有多个可用的源文件。", + "trigger": "变体" } } } diff --git a/zh-CN/settings.json b/zh-CN/settings.json index 3c0cfbe3..de485c6f 100644 --- a/zh-CN/settings.json +++ b/zh-CN/settings.json @@ -90,6 +90,9 @@ "unloadPreviousModelLabel": "选择要加载的模型时,先卸载所有当前已加载的模型", "languageLabel": "语言", "changeLanguageLabel": "选择应用语言(仍在开发中)", + "appNavigationBarPositionLabel": "导航栏位置", + "appNavigationBarPositionTop": "顶部", + "appNavigationBarPositionLeft": "左侧", "developerLabel": "开发者", "localServiceLabel": "本地 LLM 服务(无界面)", "showExperimentalFeaturesLabel": "显示实验性功能", @@ -136,11 +139,24 @@ "modelLoadingGuardrails.custom.label": "内存限制:", "modelLoadingGuardrails.custom.unitGB": "GB", "modelLoadingGuardrails.custom.description": "为模型加载设置自定义内存限制。如果加载的模型会超过此限制,则不会加载模型。", + "modelLoadingGuardrails.alwaysAllowLoadAnyway": "(不推荐)始终允许\"强制加载\"而无需按住 Alt/Option", + + "modelDefaultsLabel": "模型默认值", + + "defaultContextLength/label": "默认上下文长度", + "defaultContextLength/maxTitle": "模型最大值", + "defaultContextLength/customTitle": "自定义值", + "defaultContextLength/maxSubtitle": "使用每个模型支持的最大上下文长度。", + "defaultContextLength/customSubtitle": "设置加载新模型时的默认上下文长度。如果模型支持的最大上下文长度低于此值,将使用该值。", + "defaultContextLength/invalidNaNError": "无效的上下文长度值。使用 {{value}}", + "defaultContextLength/invalidRangeError": "无效的上下文长度值。应在 1 和 2^30 之间。使用 {{value}}", + "defaultContextLength/largeContextWarning": "上下文长度越高,模型占用的内存越多。如果不确定,请不要更改默认值", "experimentalLoadPresets": "在预设中启用模型加载配置支持", "experimentalLoadPresets.description": "是否允许预设包含模型加载配置。此功能尚处于试验阶段,我们欢迎反馈。", "unloadPreviousJITModelOnLoad": "模型自动卸载:始终仅允许一个JIT模型加载(加载新模型时卸载上一个)", + "jitTTL/subtitle": "JIT 加载的模型在空闲指定时间后将被自动卸载。", "autoDeleteExtensionPacks": "自动删除最近最少使用的运行环境扩展包", "autoUpdateExtensionPacks": "自动更新选中运行环境扩展包", "useHFProxy.label": "使用 LM Studio 的 Hugging Face 代理", diff --git a/zh-CN/shared.json b/zh-CN/shared.json index 24fc7431..77bb8da6 100644 --- a/zh-CN/shared.json +++ b/zh-CN/shared.json @@ -1,5 +1,6 @@ -{ - "copyLmStudioLinkButton/toolTip": "复制模型下载链接", +{ + "beta": "Beta", + "copyLmStudioLinkButton/toolTip": "复制模型下载链接", "filter.noMatches": "没有匹配项", "longRunningTask": {