diff --git a/ja/chat.json b/ja/chat.json index 00478d3b..d6d80eff 100644 --- a/ja/chat.json +++ b/ja/chat.json @@ -60,7 +60,9 @@ "actions/loadLastModel": "前回使用したモデルを再読み込み", "actions/loadLastModel/tooltip": "このチャットで最後に使用したモデルを読み込むにはクリック:\n\n{{lastModel}}", "actions/loadLastModel/error": "前回使用したモデルの読み込みに失敗しました。", - "actions/continueCurrentModel": "現在のモデルを使用", + "actions/clearLastUsedModel": "最後に使用したモデルをクリア", + "actions/clearLastUsedModel/error": "最後に使用したモデルのクリアに失敗しました", + "actions/continueCurrentModel": "現在のモデルを使う", "actions/continueCurrentModel/tooltip": "現在のモデル: {{currentModel}}", "actions/changeToLastUsedModel": "{{lastModel}}を読み込む", "actions/changeToLastUsedModel/error": "前回使用したモデルへの変更に失敗しました。", @@ -237,10 +239,12 @@ "stopReason.maxPredictedTokensReached": "最大予測トークン数に到達", "stopReason.contextLengthReached": "コンテキスト長制限に到達", "speculativeDecodedBy": "ドラフトモデル: {{decodedBy}}", - "speculativeDecodingStats": "{{total}}個中{{accepted}}個のドラフトトークンを受理 ({{percentage}}%)" + "speculativeDecodingStats": "{{total}}個中{{accepted}}個のドラフトトークンを受理 ({{percentage}}%)", + "speculativeDecodingAcceptedPercentage": "ドラフトトークンを受け入れています {{percentage}}%", + "speculativeDecodingTooltip": "承認されたドラフトトークン {{accepted}}個中 {{total}} 個" }, "tabs": { "systemPromptEditorTab.headerLabel": "システムプロンプト編集" } -} \ No newline at end of file +} diff --git a/ja/config.json b/ja/config.json index bb475d14..a4f60b02 100644 --- a/ja/config.json +++ b/ja/config.json @@ -44,7 +44,7 @@ "llm.prediction.systemPrompt/edit": "システムプロンプトを編集...", "llm.prediction.systemPrompt/addInstructionsWithMore": "指示を追加...", "llm.prediction.systemPrompt/addInstructions": "指示を追加", - "llm.prediction.temperature/title": "Temperature", + "llm.prediction.temperature/title": "温度", "llm.prediction.temperature/subTitle": "ランダム性の度合い。0は毎回同じ結果になり、高い値では創造性とばらつきが増加します", "llm.prediction.temperature/info": "llama.cpp ヘルプドキュメントより:「デフォルト値は <{{dynamicValue}}> で、ランダム性と決定性のバランスを提供します。極端な場合、temperature が 0 だと常に最も可能性の高い次のトークンを選択し、毎回同じ出力になります」", "llm.prediction.llama.sampling/title": "サンプリング", @@ -97,7 +97,7 @@ "llm.prediction.onnx.topPSampling/title": "Top P サンプリング", "llm.prediction.onnx.topPSampling/subTitle": "次の可能なトークンの最小累積確率。temperatureと同様の動作をします", "llm.prediction.onnx.topPSampling/info": "ONNX ドキュメントより:\n\nTopP 以上の確率を加算した最も確率の高いトークンのみが生成用に保持されます\n\n• このフィルターはデフォルトでオフになっています", - "llm.prediction.seed/title": "Seed", + "llm.prediction.seed/title": "シード", "llm.prediction.structured/title": "構造化出力", "llm.prediction.structured/info": "構造化出力", "llm.prediction.structured/description": "高度:特定の出力形式をモデルに強制するために[JSON Schema](https://json-schema.org/learn/miscellaneous-examples)を提供できます。詳細は[ドキュメント](https://lmstudio.ai/docs/advanced/structured-output)をお読みください", @@ -126,6 +126,10 @@ "llm.load.splitStrategy/placeholder": "分割戦略を選択...", "llm.load.offloadKVCacheToGpu/title": "KVキャッシュをGPUメモリにオフロード", "llm.load.offloadKVCacheToGpu/subTitle": "KVキャッシュをGPUメモリにオフロードします。パフォーマンスが向上しますが、より多くのGPUメモリが必要です", + "llm.load.numParallelSessions/title": "最大の同時予測数", + "llm.load.numParallelSessions/subTitle": "モデルが同時に実行できる予測の最大数。同時実行によって一つずつの予測の速度は低下する可能性がありますが、各予測の開始速度は速くなり、全体的なスループットは向上します。", + "llm.load.useUnifiedKvCache/title": "統合KVキャッシュ", + "llm.load.useUnifiedKvCache/subTitle": "同時予測が単一のKVキャッシュを共有するかどうかを制御してメモリを節約します。これを無効にすると、各予測がコンテキスト長全体を利用できるようになりますが、メモリ使用量は増加します。", "load.gpuStrictVramCap/title": "モデルオフロードを専用GPUメモリに制限", "load.gpuStrictVramCap.customSubTitleOff": "オフ:専用GPUメモリが満杯の場合、モデル重みを共有メモリにオフロードすることを許可します", "load.gpuStrictVramCap.customSubTitleOn": "オン:システムはモデル重みのオフロードを専用GPUメモリとRAMのみに制限します。コンテキストは引き続き共有メモリを使用する可能性があります", @@ -136,10 +140,13 @@ "llm.load.contextLength/subTitle": "モデルが一つのプロンプトで処理できる最大トークン数。これを管理する方法については、「推論パラメータ」の下の会話オーバーフロー オプションを参照してください", "llm.load.contextLength/info": "モデルが一度に考慮できるトークンの最大数を指定し、処理中に保持するコンテキストの量に影響します", "llm.load.contextLength/warning": "コンテキスト長に高い値を設定すると、メモリ使用量に大きな影響を与える可能性があります", - "llm.load.seed/title": "Seed", + "llm.load.seed/title": "シード", "llm.load.seed/subTitle": "テキスト生成で使用される乱数ジェネレータのシード。-1はランダムです", "llm.load.seed/info": "ランダムシード:再現可能な結果を保証するために、乱数生成のシードを設定します", + "llm.load.numCpuExpertLayersRatio/title": "MoEの重みをCPUに強制するレイヤーの数", + "llm.load.numCpuExpertLayersRatio/subTitle": "エキスパートをCPUに強制的に割り当てたいレイヤー数。VRAMを節約し、部分的なGPUオフロードよりも高速化できます。モデルがVRAMに完全に収まる場合は推奨されません。", + "llm.load.numCpuExpertLayersRatio/info": "エキスパートをCPUに強制的に割り当てるべきレイヤー数を指定します。アテンションレイヤーはGPUに残し、推論速度を一定に保ちながらVRAMを節約します。", "llm.load.llama.evalBatchSize/title": "評価バッチサイズ", "llm.load.llama.evalBatchSize/subTitle": "一度に処理する入力トークンの数。これを増やすとメモリ使用量は増えますがパフォーマンスが向上します", "llm.load.llama.evalBatchSize/info": "評価中に一つのバッチで一緒に処理される例の数を設定し、速度とメモリ使用量に影響します", @@ -220,7 +227,7 @@ "embedding.load.llama.tryMmap/title": "mmap() を試行", "embedding.load.llama.tryMmap/subTitle": "モデルの読み込み時間が改善されます。利用可能なシステムRAMよりもモデルが大きい場合は、これを無効にするとパフォーマンスが向上する可能性があります", "embedding.load.llama.tryMmap/info": "モデルファイルをディスクから直接メモリに読み込みます", - "embedding.load.seed/title": "Seed", + "embedding.load.seed/title": "シード", "embedding.load.seed/subTitle": "テキスト生成で使用される乱数ジェネレータのシード。-1はランダムシードです", "embedding.load.seed/info": "ランダムシード:再現可能な結果を保証するために、乱数生成のシードを設定します", @@ -372,21 +379,21 @@ "presets": { "title": "プリセット", - "commitChanges": "変更をコミット", - "commitChanges/description": "変更をプリセットにコミットします。", - "commitChanges.manual": "新しいフィールドが検出されました。プリセットに含める変更を選択できます。", - "commitChanges.manual.hold.0": "押しながら", - "commitChanges.manual.hold.1": "をクリックして、プリセットにコミットする変更を選択してください。", - "commitChanges.saveAll.hold.0": "押しながら", - "commitChanges.saveAll.hold.1": "をクリックして、すべての変更を保存してください。", - "commitChanges.saveInPreset.hold.0": "押しながら", - "commitChanges.saveInPreset.hold.1": "をクリックして、プリセットに既に含まれているフィールドのみの変更を保存してください。", - "commitChanges/error": "プリセットへの変更のコミットに失敗しました。", - "commitChanges.manual/description": "プリセットに含める変更を選択してください。", + "saveChanges": "変更をコミット", + "saveChanges/description": "変更をプリセットに保存します。", + "saveChanges.manual": "新しいフィールドが検出されました。プリセットに含める変更を選択できます。", + "saveChanges.manual.hold.0": "押しながら", + "saveChanges.manual.hold.1": "をクリックして、プリセットにコミットする変更を選択してください。", + "saveChanges.saveAll.hold.0": "押しながら", + "saveChanges.saveAll.hold.1": "をクリックして、すべての変更を保存してください。", + "saveChanges.saveInPreset.hold.0": "押しながら", + "saveChanges.saveInPreset.hold.1": "をクリックして、プリセットに既に含まれているフィールドのみの変更を保存してください。", + "saveChanges/error": "プリセットへの変更の保存に失敗しました。", + "saveChanges.manual/description": "プリセットに含める変更を選択してください。", "saveAs": "新規保存...", "presetNamePlaceholder": "プリセットの名前を入力...", "cannotCommitChangesLegacy": "これはレガシープリセットで変更できません。「新規保存...」を使用してコピーを作成できます。", - "cannotCommitChangesNoChanges": "コミットする変更がありません。", + "cannotSaveChangesNoChanges": "コミットする変更がありません。", "emptyNoUnsaved": "プリセットを選択...", "emptyWithUnsaved": "未保存のプリセット", "saveEmptyWithUnsaved": "プリセットに名前を付けて保存...", diff --git a/ja/developer.json b/ja/developer.json index 87be85ed..c40d515b 100644 --- a/ja/developer.json +++ b/ja/developer.json @@ -47,6 +47,15 @@ "serverOptions/jitModelLoadingTTL/ttl/unit": "分", "serverOptions/unloadPreviousJITModelOnLoad/title": "最後のJITロードモデルのみを保持", "serverOptions/unloadPreviousJITModelOnLoad/hint": "任意の時点でJITを介してロードされるモデルは最大1つに制限されます(以前のモデルはアンロードされます)", + "serverOptions/allowMcp/title": "リモートMCPを許可", + "serverOptions/allowMcp/hint": "mcp.json に記載されていないMCPの許可します。これらのMCP接続は一時的なもので、リクエストが有効な間のみ有効になります。現時点ではリモートMCPのみがサポートされています。", + "serverOptions/allowMcp/mode/off": "OFF", + "serverOptions/allowMcp/mode/off/hint": "MCPを使用するサーバー要求を許可しない", + "serverOptions/allowMcp/mode/remote": "リモート", + "serverOptions/allowMcp/mode/remote/hint": "リモートMCPサーバーへの接続を許可する", + + "serverOptions/start/error": "サーバーの起動に失敗しました", + "serverOptions/stop/error": "サーバーの停止に失敗しました", "serverLogs/scrollToBottom": "一番下に移動", "serverLogs/clearLogs": "ログをクリア ({{shortcut}})", @@ -167,6 +176,15 @@ "endpoints/openaiCompatRest/postChatCompletions": "チャット補完。チャット履歴をモデルに送信し、次のアシスタント応答を予測します", "endpoints/openaiCompatRest/postEmbeddings": "テキスト埋め込み。指定したテキスト入力に対して埋め込みベクトルを生成します。文字列または文字列配列を受け付けます。", + "endpoints/openaiCompatRest/postResponses": "モデルレスポンスを生成するための高度なインターフェース。前のレスポンスのIDを次のレスポンスの入力として渡すことで、ステートフルなインタラクションを作成できます。", + "endpoints/lmStudioRest/segmentedLabel": "LM Studio", + "endpoints/lmStudioRestV1/getModels": "利用可能なモデルをリストする", + "endpoints/lmStudioRestV1/postModelsLoad": "オプション付きモデルをロードする", + "endpoints/lmStudioRestV1/postModelsDownload": "モデルをダウンロード", + "endpoints/lmStudioRestV1/postChat": "モデルとチャット。ステートフルなマルチターン会話とMCPをサポート", + "endpoints/lmStudioRestV1/getModelsDownloadStatus": "モデルのダウンロードのステータスを取得する", + "endpoints/anthropicCompatRest/segmentedLabel": "Anthropicとの互換性", + "model.createVirtualModelFromInstance": "設定を新しい仮想モデルとして保存", "model.createVirtualModelFromInstance/error": "設定の仮想モデル保存に失敗しました", diff --git a/ja/models.json b/ja/models.json index fb8d9821..d7f7f986 100644 --- a/ja/models.json +++ b/ja/models.json @@ -3,12 +3,10 @@ "filterModels.placeholder": "モデルをフィルタ...", "aggregate_one": "ローカルモデルが{{count}}つあり、ディスクスペースを{{size}}使用しています。", "aggregate_other": "ローカルモデルが{{count}}つあり、ディスクスペースを{{size}}使用しています。", - "noModels.title": "ローカルモデルはここに表示されます。", "noModels.discoverButtonText.prefix": "左のサイドバーの", "noModels.discoverButtonText.suffix": "ボタンをクリックして、ダウンロードする興味深いLLMを見つけてください。", "noModels.discoverModelsPrompt": "ローカルLLMを探索してください!", - "modelsTable.arch/label": "アーキテクチャ", "modelsTable.params/label": "パラメータ", "modelsTable.publisher/label": "発行者", @@ -17,21 +15,19 @@ "modelsTable.size/label": "サイズ", "modelsTable.dateModified/label": "最終更新日", "modelsTable.actions/label": "アクション", - "modelsTable.quant/label": "量子化", "modelsTable.llms/label": "LLM", "modelsTable.embeddingModels/label": "埋め込みモデル", - "action.model.delete": "削除", "action.model.delete.full": "モデルを削除", "action.model.delete.confirmation/title": "{{name}}を削除", "action.model.delete.confirmation/description": "本当に削除しますか?これにより、このモデルに関連付けられたすべてのファイルがマシンから永久に削除されます。この操作は元に戻せません。", "action.model.delete.confirmation/confirm": "削除", "action.model.delete/error": "モデルの削除に失敗しました", - "loader.model.bundled": "バンドル済み", "action.cancel": "キャンセル", "indexingOngoing": "モデルをインデックス中... しばらくお待ちください", + "indexingPageLoaderText": "モデルをインデックス中...", "index/error_one": "次のフォルダーのインデックス作成に失敗しました:", "index/error_other": "次のフォルダーのインデックス作成に失敗しました:", "badModels/title_one": "次のモデルのインデックス作成に失敗しました:", @@ -46,7 +42,6 @@ "unresolvedVirtualModels.revealInExplorer": "エクスプローラーで表示", "unresolvedVirtualModels.revealInFinder": "Finderで表示", "unresolvedVirtualModels.reveal/error": "表示に失敗しました", - "modelsDirectory": "モデルディレクトリ", "modelsDirectory.change": "変更...", "modelsDirectory.change/error": "モデルディレクトリの変更に失敗しました", @@ -85,17 +80,24 @@ "tooltip/editModelDefaultConfig/override": "モデルのデフォルト設定を編集 (* はオーバーライドがあります)", "tooltip/visionBadge": "このモデルは画像入力を処理できます", "tooltip/toolUseBadge": "このモデルはツール使用のためにトレーニングされています", - "visionBadge/label": "Vision は有効です", "toolUseBadge/label": "ツール使用のためにトレーニングされています", - "loader.action.load": "モデルを読み込む", "loader.action.clearChanges": "変更をクリア", "loader.action.cancel": "キャンセル", "loader.info.clickOnModelToLoad": "モデルをクリックして読み込みます", "loader.info.configureLoadParameters": "モデルの読み込みパラメーターを設定します", "loader.info.activeGeneratorWarning": "カスタムジェネレーターを使用しているプラグインを使用しています。このプラグインに応じて、現在読み込まれているモデルが適用される場合とされない場合があります", - + "loader.guardrails.estimatedMemoryUsage": "推定メモリ使用率", + "loader.guardrails.total": "合計", + "loader.guardrails.gpu": "GPU", + "loader.guardrails.unavailable": "このモデルでは推定メモリは利用できません", + "loader.guardrails.notEnoughResources": "現在の設定でモデルをロードするにはリソースが足りません", + "loader.guardrails.notEnoughResources/options": "オプション", + "loader.guardrails.notEnoughResources.moreInfoSection.appearsNotEnoughMemory": "お使いのシステムには、このモデルを読み込むのに十分なメモリがないようです。", + "loader.guardrails.notEnoughResources.moreInfoSection.ifYouBelieveThisIsIncorrect": "設定でモデルの読み込みガードレールを調整するか、Alt/Optionを押してとにかく読み込むことができます。", + "loader.guardrails.notEnoughResources.moreInfoSection.warning": "大きすぎるモデルを読み込むと、システムに過負荷がかかり、フリーズする可能性があります。", + "loader.guardrails.notEnoughResources.alwaysAllowLoadAnyway": "Alt/Option キーを押さなくても常に「とにかく読み込む」を許可してください。(非推奨)", "virtual": { "local": { "create": "仮想モデルを作成", @@ -110,6 +112,12 @@ "next": "次へ", "confirm": "作成", "error": "仮想モデルの作成に失敗しました" + }, + "altsSelect": { + "title": "モデルソースを切り替え", + "resetButton": "デフォルトにリセット", + "description": "このモデルには複数のソース ファイルが利用可能です。", + "trigger": "バリエーション" } } } diff --git a/ja/settings.json b/ja/settings.json index 5b96a6c8..d5b7190b 100644 --- a/ja/settings.json +++ b/ja/settings.json @@ -49,6 +49,9 @@ "sideButtonLabels": "サイドボタンのラベルを表示", "showModelFileNames": "マイモデル: 常に完全なモデルファイル名を表示", "colorThemeLabel": "カラーテーマ", + "appNavigationBarPositionLabel": "ナビゲーションバーの位置", + "appNavigationBarPositionTop": "上", + "appNavigationBarPositionLeft": "左", "complexityLevelLabel": "ユーザーインターフェースの複雑さレベル", "selectComplexityLevelPlaceholder": "デフォルトのUI複雑さレベルを選択", "userComplexityLevelLabel": "ユーザー", @@ -92,6 +95,7 @@ "changeLanguageLabel": "アプリの言語を選択 (まだ開発中)", "developerLabel": "開発者", "localServiceLabel": "ローカルLLMサービス (ヘッドレス)", + "modelDefaultsLabel": "モデルのデフォルト", "showExperimentalFeaturesLabel": "実験的機能を表示", "appFirstLoadLabel": "アプリ初回ロード体験", "showDebugInfoBlocksInChatLabel": "チャットにデバッグ情報ブロックを表示", @@ -120,22 +124,23 @@ "modelLoadingGuardrails.description": "システムリソースの制限を超えてモデルを読み込むと、システムの不安定性やフリーズを引き起こす可能性があります。ガードレールは、偶発的なオーバーロードを防ぎます。必要に応じてここでこれらの制限を調整できますが、システムの制限に近いモデルを読み込むと、安定性が低下する可能性があることに注意してください。", "modelLoadingGuardrails.value.off": "OFF (推奨されません)", "modelLoadingGuardrails.value.off/subTitle": "システムオーバーロードに対する予防策はありません", - "modelLoadingGuardrails.value.off/detail": "Off detail", - "modelLoadingGuardrails.value.low": "カジュアル", + "modelLoadingGuardrails.value.off/detail": "OFFの詳細", + "modelLoadingGuardrails.value.low": "弱い", "modelLoadingGuardrails.value.low/subTitle": "システムオーバーロードに対する予防策はありません", - "modelLoadingGuardrails.value.low/detail": "Relaxed detail", - "modelLoadingGuardrails.value.medium": "バランス", + "modelLoadingGuardrails.value.low/detail": "リラックスの詳細", + "modelLoadingGuardrails.value.medium": "普通", "modelLoadingGuardrails.value.medium/subTitle": "システムオーバーロードに対する中程度の予防策", - "modelLoadingGuardrails.value.medium/detail": "Balanced detail", - "modelLoadingGuardrails.value.high": "厳格", + "modelLoadingGuardrails.value.medium/detail": "バランスの詳細", + "modelLoadingGuardrails.value.high": "強い", "modelLoadingGuardrails.value.high/subTitle": "システムオーバーロードに対する強力な予防策", - "modelLoadingGuardrails.value.high/detail": "Strict detail", + "modelLoadingGuardrails.value.high/detail": "厳しい詳細", "modelLoadingGuardrails.value.custom": "カスタム", "modelLoadingGuardrails.value.custom/subTitle": "読み込むことができる最大モデルサイズの制限を設定します", - "modelLoadingGuardrails.value.custom/detail": "Custom detail", + "modelLoadingGuardrails.value.custom/detail": "カスタムの詳細", "modelLoadingGuardrails.custom.label": "メモリ制限: ", "modelLoadingGuardrails.custom.unitGB": "GB", "modelLoadingGuardrails.custom.description": "モデルの読み込みに対するカスタムメモリ制限を設定します。この制限を超えるモデルは読み込まれません。", + "modelLoadingGuardrails.alwaysAllowLoadAnyway": "Alt または Option キーを押さなくても「とにかく読み込む」を常に有効にする(非推奨)", "experimentalLoadPresets": "モデル読み込みのプリセットにおける設定サポートを有効にする", "experimentalLoadPresets.description": "プリセットがモデル読み込み設定を含むことを許可するかどうかを指定します。この機能は実験的であり、フィードバックを歓迎します。", @@ -191,5 +196,19 @@ "warnDescription": "ツール呼び出しの確認を無効にすることは危険です。プラグインのいずれかが、破壊的なアクションを実行する可能性のあるツールを提供している場合(コマンドの実行、ファイルの削除、ファイルの上書き、ファイルのアップロードなど)、モデルは確認なしにそれを実行できるようになります。ツールごと、またはプラグインごとに確認を無効にすることは常に可能です。このオプションを有効にすることは推奨されません。十分に注意してください。", "warnButton": "リスクを理解しました" } + }, + + "defaultContextLength": { + "label": "デフォルトのコンテキストの長さ", + "maxTitle": "モデルの最大", + "customTitle": "カスタム値", + "maxSubtitle": "各モデルでサポートされている最大コンテキスト長が使用できます。", + "customSubtitle": "新しいモデルを読み込む際のデフォルトのコンテキスト長を設定します。モデルでサポートされている最大コンテキスト長よりも短い場合は、その値が使用されます。", + "invalidNaNError": "{{value}} というコンテキストの長さの値は無効です。", + "invalidRangeError": "{{value}} というコンテキストの長さの値は無効です。1~2^30の範囲で指定してください。", + "largeContextWarning": "コンテキストの長さが長いほど、モデルが使用するメモリ量が多くなります。よくわからない場合は、変更しないでください。" + }, + "jitTTL": { + "subtitle": "JIT ロードされたモデルは、指定された期間アイドル状態になった後、自動的にアンロードされます。" } }