Skip to content
Open
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Loading
Jump to
Jump to file
Failed to load files.
Loading
Diff view
Diff view
10 changes: 7 additions & 3 deletions ja/chat.json
Original file line number Diff line number Diff line change
Expand Up @@ -60,7 +60,9 @@
"actions/loadLastModel": "前回使用したモデルを再読み込み",
"actions/loadLastModel/tooltip": "このチャットで最後に使用したモデルを読み込むにはクリック:\n\n{{lastModel}}",
"actions/loadLastModel/error": "前回使用したモデルの読み込みに失敗しました。",
"actions/continueCurrentModel": "現在のモデルを使用",
"actions/clearLastUsedModel": "最後に使用したモデルをクリア",
"actions/clearLastUsedModel/error": "最後に使用したモデルのクリアに失敗しました",
"actions/continueCurrentModel": "現在のモデルを使う",
"actions/continueCurrentModel/tooltip": "現在のモデル: {{currentModel}}",
"actions/changeToLastUsedModel": "{{lastModel}}を読み込む",
"actions/changeToLastUsedModel/error": "前回使用したモデルへの変更に失敗しました。",
Expand Down Expand Up @@ -237,10 +239,12 @@
"stopReason.maxPredictedTokensReached": "最大予測トークン数に到達",
"stopReason.contextLengthReached": "コンテキスト長制限に到達",
"speculativeDecodedBy": "ドラフトモデル: {{decodedBy}}",
"speculativeDecodingStats": "{{total}}個中{{accepted}}個のドラフトトークンを受理 ({{percentage}}%)"
"speculativeDecodingStats": "{{total}}個中{{accepted}}個のドラフトトークンを受理 ({{percentage}}%)",
"speculativeDecodingAcceptedPercentage": "ドラフトトークンを受け入れています {{percentage}}%",
"speculativeDecodingTooltip": "承認されたドラフトトークン {{accepted}}個中 {{total}} 個"
},

"tabs": {
"systemPromptEditorTab.headerLabel": "システムプロンプト編集"
}
}
}
39 changes: 23 additions & 16 deletions ja/config.json
Original file line number Diff line number Diff line change
Expand Up @@ -44,7 +44,7 @@
"llm.prediction.systemPrompt/edit": "システムプロンプトを編集...",
"llm.prediction.systemPrompt/addInstructionsWithMore": "指示を追加...",
"llm.prediction.systemPrompt/addInstructions": "指示を追加",
"llm.prediction.temperature/title": "Temperature",
"llm.prediction.temperature/title": "温度",
"llm.prediction.temperature/subTitle": "ランダム性の度合い。0は毎回同じ結果になり、高い値では創造性とばらつきが増加します",
"llm.prediction.temperature/info": "llama.cpp ヘルプドキュメントより:「デフォルト値は <{{dynamicValue}}> で、ランダム性と決定性のバランスを提供します。極端な場合、temperature が 0 だと常に最も可能性の高い次のトークンを選択し、毎回同じ出力になります」",
"llm.prediction.llama.sampling/title": "サンプリング",
Expand Down Expand Up @@ -97,7 +97,7 @@
"llm.prediction.onnx.topPSampling/title": "Top P サンプリング",
"llm.prediction.onnx.topPSampling/subTitle": "次の可能なトークンの最小累積確率。temperatureと同様の動作をします",
"llm.prediction.onnx.topPSampling/info": "ONNX ドキュメントより:\n\nTopP 以上の確率を加算した最も確率の高いトークンのみが生成用に保持されます\n\n• このフィルターはデフォルトでオフになっています",
"llm.prediction.seed/title": "Seed",
"llm.prediction.seed/title": "シード",
"llm.prediction.structured/title": "構造化出力",
"llm.prediction.structured/info": "構造化出力",
"llm.prediction.structured/description": "高度:特定の出力形式をモデルに強制するために[JSON Schema](https://json-schema.org/learn/miscellaneous-examples)を提供できます。詳細は[ドキュメント](https://lmstudio.ai/docs/advanced/structured-output)をお読みください",
Expand Down Expand Up @@ -126,6 +126,10 @@
"llm.load.splitStrategy/placeholder": "分割戦略を選択...",
"llm.load.offloadKVCacheToGpu/title": "KVキャッシュをGPUメモリにオフロード",
"llm.load.offloadKVCacheToGpu/subTitle": "KVキャッシュをGPUメモリにオフロードします。パフォーマンスが向上しますが、より多くのGPUメモリが必要です",
"llm.load.numParallelSessions/title": "最大の同時予測数",
"llm.load.numParallelSessions/subTitle": "モデルが同時に実行できる予測の最大数。同時実行によって一つずつの予測の速度は低下する可能性がありますが、各予測の開始速度は速くなり、全体的なスループットは向上します。",
"llm.load.useUnifiedKvCache/title": "統合KVキャッシュ",
"llm.load.useUnifiedKvCache/subTitle": "同時予測が単一のKVキャッシュを共有するかどうかを制御してメモリを節約します。これを無効にすると、各予測がコンテキスト長全体を利用できるようになりますが、メモリ使用量は増加します。",
"load.gpuStrictVramCap/title": "モデルオフロードを専用GPUメモリに制限",
"load.gpuStrictVramCap.customSubTitleOff": "オフ:専用GPUメモリが満杯の場合、モデル重みを共有メモリにオフロードすることを許可します",
"load.gpuStrictVramCap.customSubTitleOn": "オン:システムはモデル重みのオフロードを専用GPUメモリとRAMのみに制限します。コンテキストは引き続き共有メモリを使用する可能性があります",
Expand All @@ -136,10 +140,13 @@
"llm.load.contextLength/subTitle": "モデルが一つのプロンプトで処理できる最大トークン数。これを管理する方法については、「推論パラメータ」の下の会話オーバーフロー オプションを参照してください",
"llm.load.contextLength/info": "モデルが一度に考慮できるトークンの最大数を指定し、処理中に保持するコンテキストの量に影響します",
"llm.load.contextLength/warning": "コンテキスト長に高い値を設定すると、メモリ使用量に大きな影響を与える可能性があります",
"llm.load.seed/title": "Seed",
"llm.load.seed/title": "シード",
"llm.load.seed/subTitle": "テキスト生成で使用される乱数ジェネレータのシード。-1はランダムです",
"llm.load.seed/info": "ランダムシード:再現可能な結果を保証するために、乱数生成のシードを設定します",

"llm.load.numCpuExpertLayersRatio/title": "MoEの重みをCPUに強制するレイヤーの数",
"llm.load.numCpuExpertLayersRatio/subTitle": "エキスパートをCPUに強制的に割り当てたいレイヤー数。VRAMを節約し、部分的なGPUオフロードよりも高速化できます。モデルがVRAMに完全に収まる場合は推奨されません。",
"llm.load.numCpuExpertLayersRatio/info": "エキスパートをCPUに強制的に割り当てるべきレイヤー数を指定します。アテンションレイヤーはGPUに残し、推論速度を一定に保ちながらVRAMを節約します。",
"llm.load.llama.evalBatchSize/title": "評価バッチサイズ",
"llm.load.llama.evalBatchSize/subTitle": "一度に処理する入力トークンの数。これを増やすとメモリ使用量は増えますがパフォーマンスが向上します",
"llm.load.llama.evalBatchSize/info": "評価中に一つのバッチで一緒に処理される例の数を設定し、速度とメモリ使用量に影響します",
Expand Down Expand Up @@ -220,7 +227,7 @@
"embedding.load.llama.tryMmap/title": "mmap() を試行",
"embedding.load.llama.tryMmap/subTitle": "モデルの読み込み時間が改善されます。利用可能なシステムRAMよりもモデルが大きい場合は、これを無効にするとパフォーマンスが向上する可能性があります",
"embedding.load.llama.tryMmap/info": "モデルファイルをディスクから直接メモリに読み込みます",
"embedding.load.seed/title": "Seed",
"embedding.load.seed/title": "シード",
"embedding.load.seed/subTitle": "テキスト生成で使用される乱数ジェネレータのシード。-1はランダムシードです",

"embedding.load.seed/info": "ランダムシード:再現可能な結果を保証するために、乱数生成のシードを設定します",
Expand Down Expand Up @@ -372,21 +379,21 @@

"presets": {
"title": "プリセット",
"commitChanges": "変更をコミット",
"commitChanges/description": "変更をプリセットにコミットします。",
"commitChanges.manual": "新しいフィールドが検出されました。プリセットに含める変更を選択できます。",
"commitChanges.manual.hold.0": "押しながら",
"commitChanges.manual.hold.1": "をクリックして、プリセットにコミットする変更を選択してください。",
"commitChanges.saveAll.hold.0": "押しながら",
"commitChanges.saveAll.hold.1": "をクリックして、すべての変更を保存してください。",
"commitChanges.saveInPreset.hold.0": "押しながら",
"commitChanges.saveInPreset.hold.1": "をクリックして、プリセットに既に含まれているフィールドのみの変更を保存してください。",
"commitChanges/error": "プリセットへの変更のコミットに失敗しました。",
"commitChanges.manual/description": "プリセットに含める変更を選択してください。",
"saveChanges": "変更をコミット",
"saveChanges/description": "変更をプリセットに保存します。",
"saveChanges.manual": "新しいフィールドが検出されました。プリセットに含める変更を選択できます。",
"saveChanges.manual.hold.0": "押しながら",
"saveChanges.manual.hold.1": "をクリックして、プリセットにコミットする変更を選択してください。",
"saveChanges.saveAll.hold.0": "押しながら",
"saveChanges.saveAll.hold.1": "をクリックして、すべての変更を保存してください。",
"saveChanges.saveInPreset.hold.0": "押しながら",
"saveChanges.saveInPreset.hold.1": "をクリックして、プリセットに既に含まれているフィールドのみの変更を保存してください。",
"saveChanges/error": "プリセットへの変更の保存に失敗しました。",
"saveChanges.manual/description": "プリセットに含める変更を選択してください。",
"saveAs": "新規保存...",
"presetNamePlaceholder": "プリセットの名前を入力...",
"cannotCommitChangesLegacy": "これはレガシープリセットで変更できません。「新規保存...」を使用してコピーを作成できます。",
"cannotCommitChangesNoChanges": "コミットする変更がありません。",
"cannotSaveChangesNoChanges": "コミットする変更がありません。",
"emptyNoUnsaved": "プリセットを選択...",
"emptyWithUnsaved": "未保存のプリセット",
"saveEmptyWithUnsaved": "プリセットに名前を付けて保存...",
Expand Down
18 changes: 18 additions & 0 deletions ja/developer.json
Original file line number Diff line number Diff line change
Expand Up @@ -47,6 +47,15 @@
"serverOptions/jitModelLoadingTTL/ttl/unit": "分",
"serverOptions/unloadPreviousJITModelOnLoad/title": "最後のJITロードモデルのみを保持",
"serverOptions/unloadPreviousJITModelOnLoad/hint": "任意の時点でJITを介してロードされるモデルは最大1つに制限されます(以前のモデルはアンロードされます)",
"serverOptions/allowMcp/title": "リモートMCPを許可",
"serverOptions/allowMcp/hint": "mcp.json に記載されていないMCPの許可します。これらのMCP接続は一時的なもので、リクエストが有効な間のみ有効になります。現時点ではリモートMCPのみがサポートされています。",
"serverOptions/allowMcp/mode/off": "OFF",
"serverOptions/allowMcp/mode/off/hint": "MCPを使用するサーバー要求を許可しない",
"serverOptions/allowMcp/mode/remote": "リモート",
"serverOptions/allowMcp/mode/remote/hint": "リモートMCPサーバーへの接続を許可する",

"serverOptions/start/error": "サーバーの起動に失敗しました",
"serverOptions/stop/error": "サーバーの停止に失敗しました",

"serverLogs/scrollToBottom": "一番下に移動",
"serverLogs/clearLogs": "ログをクリア ({{shortcut}})",
Expand Down Expand Up @@ -167,6 +176,15 @@
"endpoints/openaiCompatRest/postChatCompletions": "チャット補完。チャット履歴をモデルに送信し、次のアシスタント応答を予測します",
"endpoints/openaiCompatRest/postEmbeddings": "テキスト埋め込み。指定したテキスト入力に対して埋め込みベクトルを生成します。文字列または文字列配列を受け付けます。",

"endpoints/openaiCompatRest/postResponses": "モデルレスポンスを生成するための高度なインターフェース。前のレスポンスのIDを次のレスポンスの入力として渡すことで、ステートフルなインタラクションを作成できます。",
"endpoints/lmStudioRest/segmentedLabel": "LM Studio",
"endpoints/lmStudioRestV1/getModels": "利用可能なモデルをリストする",
"endpoints/lmStudioRestV1/postModelsLoad": "オプション付きモデルをロードする",
"endpoints/lmStudioRestV1/postModelsDownload": "モデルをダウンロード",
"endpoints/lmStudioRestV1/postChat": "モデルとチャット。ステートフルなマルチターン会話とMCPをサポート",
"endpoints/lmStudioRestV1/getModelsDownloadStatus": "モデルのダウンロードのステータスを取得する",
"endpoints/anthropicCompatRest/segmentedLabel": "Anthropicとの互換性",

"model.createVirtualModelFromInstance": "設定を新しい仮想モデルとして保存",
"model.createVirtualModelFromInstance/error": "設定の仮想モデル保存に失敗しました",

Expand Down
26 changes: 17 additions & 9 deletions ja/models.json
Original file line number Diff line number Diff line change
Expand Up @@ -3,12 +3,10 @@
"filterModels.placeholder": "モデルをフィルタ...",
"aggregate_one": "ローカルモデルが{{count}}つあり、ディスクスペースを{{size}}使用しています。",
"aggregate_other": "ローカルモデルが{{count}}つあり、ディスクスペースを{{size}}使用しています。",

"noModels.title": "ローカルモデルはここに表示されます。",
"noModels.discoverButtonText.prefix": "左のサイドバーの",
"noModels.discoverButtonText.suffix": "ボタンをクリックして、ダウンロードする興味深いLLMを見つけてください。",
"noModels.discoverModelsPrompt": "ローカルLLMを探索してください!",

"modelsTable.arch/label": "アーキテクチャ",
"modelsTable.params/label": "パラメータ",
"modelsTable.publisher/label": "発行者",
Expand All @@ -17,21 +15,19 @@
"modelsTable.size/label": "サイズ",
"modelsTable.dateModified/label": "最終更新日",
"modelsTable.actions/label": "アクション",

"modelsTable.quant/label": "量子化",
"modelsTable.llms/label": "LLM",
"modelsTable.embeddingModels/label": "埋め込みモデル",

"action.model.delete": "削除",
"action.model.delete.full": "モデルを削除",
"action.model.delete.confirmation/title": "{{name}}を削除",
"action.model.delete.confirmation/description": "本当に削除しますか?これにより、このモデルに関連付けられたすべてのファイルがマシンから永久に削除されます。この操作は元に戻せません。",
"action.model.delete.confirmation/confirm": "削除",
"action.model.delete/error": "モデルの削除に失敗しました",

"loader.model.bundled": "バンドル済み",
"action.cancel": "キャンセル",
"indexingOngoing": "モデルをインデックス中... しばらくお待ちください",
"indexingPageLoaderText": "モデルをインデックス中...",
"index/error_one": "次のフォルダーのインデックス作成に失敗しました:",
"index/error_other": "次のフォルダーのインデックス作成に失敗しました:",
"badModels/title_one": "次のモデルのインデックス作成に失敗しました:",
Expand All @@ -46,7 +42,6 @@
"unresolvedVirtualModels.revealInExplorer": "エクスプローラーで表示",
"unresolvedVirtualModels.revealInFinder": "Finderで表示",
"unresolvedVirtualModels.reveal/error": "表示に失敗しました",

"modelsDirectory": "モデルディレクトリ",
"modelsDirectory.change": "変更...",
"modelsDirectory.change/error": "モデルディレクトリの変更に失敗しました",
Expand Down Expand Up @@ -85,17 +80,24 @@
"tooltip/editModelDefaultConfig/override": "モデルのデフォルト設定を編集 (* はオーバーライドがあります)",
"tooltip/visionBadge": "このモデルは画像入力を処理できます",
"tooltip/toolUseBadge": "このモデルはツール使用のためにトレーニングされています",

"visionBadge/label": "Vision は有効です",
"toolUseBadge/label": "ツール使用のためにトレーニングされています",

"loader.action.load": "モデルを読み込む",
"loader.action.clearChanges": "変更をクリア",
"loader.action.cancel": "キャンセル",
"loader.info.clickOnModelToLoad": "モデルをクリックして読み込みます",
"loader.info.configureLoadParameters": "モデルの読み込みパラメーターを設定します",
"loader.info.activeGeneratorWarning": "カスタムジェネレーターを使用しているプラグインを使用しています。このプラグインに応じて、現在読み込まれているモデルが適用される場合とされない場合があります",

"loader.guardrails.estimatedMemoryUsage": "推定メモリ使用率",
"loader.guardrails.total": "合計",
"loader.guardrails.gpu": "GPU",
"loader.guardrails.unavailable": "このモデルでは推定メモリは利用できません",
"loader.guardrails.notEnoughResources": "現在の設定でモデルをロードするにはリソースが足りません",
"loader.guardrails.notEnoughResources/options": "オプション",
"loader.guardrails.notEnoughResources.moreInfoSection.appearsNotEnoughMemory": "お使いのシステムには、このモデルを読み込むのに十分なメモリがないようです。",
"loader.guardrails.notEnoughResources.moreInfoSection.ifYouBelieveThisIsIncorrect": "設定でモデルの読み込みガードレールを調整するか、Alt/Optionを押してとにかく読み込むことができます。",
"loader.guardrails.notEnoughResources.moreInfoSection.warning": "大きすぎるモデルを読み込むと、システムに過負荷がかかり、フリーズする可能性があります。",
"loader.guardrails.notEnoughResources.alwaysAllowLoadAnyway": "Alt/Option キーを押さなくても常に「とにかく読み込む」を許可してください。(非推奨)",
"virtual": {
"local": {
"create": "仮想モデルを作成",
Expand All @@ -110,6 +112,12 @@
"next": "次へ",
"confirm": "作成",
"error": "仮想モデルの作成に失敗しました"
},
"altsSelect": {
"title": "モデルソースを切り替え",
"resetButton": "デフォルトにリセット",
"description": "このモデルには複数のソース ファイルが利用可能です。",
"trigger": "バリエーション"
}
}
}
Loading