From c3e82bbe450697531565593a2412625b3d6a1c6e Mon Sep 17 00:00:00 2001 From: dai Date: Tue, 12 Aug 2025 09:05:23 +0900 Subject: [PATCH 1/9] Update chat.json --- ja/chat.json | 2 ++ 1 file changed, 2 insertions(+) diff --git a/ja/chat.json b/ja/chat.json index c901e61e..c84b1c33 100644 --- a/ja/chat.json +++ b/ja/chat.json @@ -60,6 +60,7 @@ "actions/continueCurrentModel/tooltip": "現在のモデル: {{currentModel}}", "actions/changeToLastUsedModel": "{{lastModel}} を読み込み", "actions/changeToLastUsedModel/error": "最後に使用したモデルへの変更に失敗しました。", + "actions/changeToLastUsedModel/tooltip": "前回このチャットで送信したメッセージで使用した別のモデルがあります。クリックして現在選択されているモデル({{currentModel}})をアンロードし、このチャットで最後に使用したモデルを読み込みます:\n\n{{lastModel}}", "actions/switchToLastUsedModel": "{{lastModel}} に切り替え", "actions/switchToLastUsedModel/tooltip": "このチャットで最後に使用したモデルに切り替えるにはクリック:\n\n{{lastModel}}", @@ -77,6 +78,7 @@ "tokenCount/totalAvailablePercentage": "コンテキストの使用率は{{percentage}}%です", "tokenCount/contextOverflow": "未処理のコンテキストがモデルの最大トークン制限を超えています。コンテキスト制限超過ポリシーに応じて、コンテキストが切り詰められるか、メッセージが送信されない場合があります。", "modelLoader/manualLoadParams/label": "モデル読み込みパラメータを手動で選択", + "modelLoader/manualLoadParams/hint/before": "(またはホールド ", "modelLoader/manualLoadParams/hint/after": ")", "actions/move/error": "移動に失敗しました", From 66a05f12faa368a643898b949366f345fb76f483 Mon Sep 17 00:00:00 2001 From: dai Date: Tue, 12 Aug 2025 11:13:50 +0900 Subject: [PATCH 2/9] Update Japanese (ja-JP) Localizations Refined and expanded Japanese localization in chat.json and config.json, including terminology updates, improved clarity, consistency, and added new keys for plugin and advanced model settings. This update enhances user experience and maintains translation accuracy across new and existing UI elements. --- ja/chat.json | 270 +++++++++++++----- ja/config.json | 680 ++++++++++++++++++++++++++++++++++----------- ja/developer.json | 192 ++++++++++--- ja/discover.json | 1 + ja/download.json | 48 +++- ja/models.json | 116 +++++--- ja/onboarding.json | 30 +- ja/settings.json | 241 +++++++++------- ja/shared.json | 302 +++++++++++++++++++- 9 files changed, 1439 insertions(+), 441 deletions(-) diff --git a/ja/chat.json b/ja/chat.json index c84b1c33..00478d3b 100644 --- a/ja/chat.json +++ b/ja/chat.json @@ -1,126 +1,246 @@ { - "modelLoaderPlaceholder": "読み込むモデルを選択", + "modelLoaderPlaceholder": "モデルを選択してください", "systemPromptPlaceholder": "システムプロンプトを設定", "userRoleText": "ユーザー", "assistantRoleText": "アシスタント", "addMessageButtonText": "追加", - "addMessageButtonText/toolTip": "メッセージをコンテキストに挿入しても予測をトリガーしません", + "addMessageButtonText/toolTip": "予測を実行せずにコンテキストにメッセージを挿入します", "sendMessageButtonText": "送信", - "sendMessageButtonText/toolTip": "プロンプトと会話履歴をモデルに送信して処理を開始します", - "ejectButtonText": "アンロード", - "unloadTooltip": "メモリ上からモデルデータをアンロード", + "sendMessageButtonText/toolTip": "プロンプトと会話履歴をモデルに送信して処理します", + "ejectButtonText": "取り出す", + "unloadTooltip": "モデルをメモリから取り出します", "cancelButtonText": "キャンセル", - "loadButtonText": "ロード", + "loadButtonText": "読み込む", "advancedSegmentText": "詳細設定", "chatSegmentText": "チャット", "chatSidebarTitle": "チャット一覧", - "newChatButton": "新しいチャット", - "newFolderButton": "新しいフォルダー", + "newChatButton": "新規チャット", + "newFolderButton": "新規フォルダー", "viewModeLabel": "表示モード", "noChatSelected": "チャットが選択されていません", "chatViewOptions": "チャット表示オプション", "uiControls/title": "表示設定", "noChatSelectedPlaceholder": "チャットを選択してください", - "unnamedChat": "名称未設定のチャット", - "emptyFolder": "フォルダーが空です", - "tokenCount": "トークンカウント", - "messageTokenCount": "メッセージのトークン数", - "tokenCount/hint": "メッセージ内のトークン数です。現在選択されているモデルのトークナイザーを使用してカウントされます。\n\nモデルがロードされている必要があります。", - "messageTokenCount/hint": "メッセージ内のトークン数です。現在選択されているモデルのトークナイザーを使用してカウントされます。\n\n**ファイル添付のトークン数の推定値は含まれません**。", + "unnamedChat": "無名チャット", + "emptyFolder": "フォルダーは空です", + + "tokenCount": "トークン数", + "messageTokenCount": "入力トークン数", + "tokenCount/hint": "メッセージ内のトークン数。現在選択されているモデルのトークナイザーでカウントされます。\n\nモデルの読み込みが必要です。", + "messageTokenCount/hint": "メッセージ内のトークン数。現在選択されているモデルのトークナイザーでカウントされます。\n\nファイル添付のトークン数は含みません。", + "notes": "会話メモ", "notes/add/first": "メモを追加", - "notes/add/another": "別のメモを追加", - "notes/hint": "このチャットにメモを保存します。メモはあくまで参考用で、モデルには送信されません。すべての変更は自動保存されます。", + "notes/add/another": "さらにメモを追加", + "notes/hint": "このチャットにメモを保存します。メモは参照用で、モデルには送信されません。すべて自動保存されます。", "notes/placeholder": "ここにメモを入力...", "notes/delete": "メモを削除", "notes/noteLabel": "メモ", - "notes/copyContent": "メモの内容をコピー", + "notes/copyContent": "メモ内容をコピー", + "actions/sendMessage/error": "メッセージの送信に失敗しました", - "actions/loadModel/error": "🥲 モデルのロードに失敗しました", - "actions/addFile": "[実験的] このメッセージにファイルを添付\n(.pdf、プレーンテキスト、または .docx)", - "actions/changeRole": "ユーザーとアシスタントの役割を切り替えます。\n\nこれにより、会話を特定の方向に誘導することができます。\n\nfew-shot learningやin-context learningのシナリオで使用することが可能です。", - "actions/addImage": "画像を追加", + "actions/loadModel/error": "🥲 モデルの読み込みに失敗しました", + "actions/addFile": "[実験的] このメッセージにファイルを添付\n(.pdf、テキスト、または .docx)", + "actions/addFile/label": "ファイルを添付", + "actions/changeRole": "ユーザーとアシスタントの役割を切り替えます。\n\n会話を特定の方向に誘導したい場合に便利です。\n\n「few-shot learning」や「in-context learning」のシナリオにも使用できます", + "actions/addImage": "画像を添付", "actions/deleteMessage": "メッセージを削除", "actions/deleteMessage/confirmation": "このメッセージを削除してもよろしいですか?", "actions/copyMessage": "メッセージをコピー", "actions/editMessage": "メッセージを編集", - "actions/editMessage/cannotEditPreprocessed": "事前処理されたメッセージは編集できません。これは、事前処理が実行されると上書きされるためです。メッセージを編集するには、\n\n - 元のメッセージに切り替えて編集するか、\n\n - 事前処理が望む結果を生成するように変更してください。", + "actions/editMessage/cannotEditPreprocessed": "前処理済みメッセージは編集できません。前処理後に上書きされるためです。編集するには、\n\n - 元のメッセージに切り替えて編集する\n - 前処理を変更して希望の出力にする\nいずれかを行ってください。", "actions/regenerateMessage": "メッセージを再生成", "actions/regenerateMessage/error": "メッセージの再生成に失敗しました", - "actions/branchChat": "このメッセージの後でチャットを分岐", + "actions/branchChat": "このメッセージ以降でチャットを分岐", "actions/branchChat/error": "チャットの分岐に失敗しました", - "actions/continueAssistantMessage": "アシスタントのメッセージを続行", - "actions/continueAssistantMessage/error": "アシスタントメッセージの続行に失敗しました", - "actions/predictNext": "AIの応答を生成", - "actions/predictNext/error": "AIの応答の生成に失敗しました", - "actions/loadLastModel": "最後に使用したモデルを再読み込み", - "actions/loadLastModel/tooltip": "このチャットで最後に使用したモデルを読み込みます:\n\n{{lastModel}}", - "actions/loadLastModel/error": "最後に使用したモデルの読み込みに失敗しました。", + "actions/continueAssistantMessage": "アシスタントメッセージを続ける", + "actions/continueAssistantMessage/error": "アシスタントメッセージの継続に失敗しました", + "actions/predictNext": "AI応答を生成", + "actions/predictNext/error": "AI応答の生成に失敗しました", + "actions/loadLastModel": "前回使用したモデルを再読み込み", + "actions/loadLastModel/tooltip": "このチャットで最後に使用したモデルを読み込むにはクリック:\n\n{{lastModel}}", + "actions/loadLastModel/error": "前回使用したモデルの読み込みに失敗しました。", "actions/continueCurrentModel": "現在のモデルを使用", "actions/continueCurrentModel/tooltip": "現在のモデル: {{currentModel}}", - "actions/changeToLastUsedModel": "{{lastModel}} を読み込み", - "actions/changeToLastUsedModel/error": "最後に使用したモデルへの変更に失敗しました。", - - "actions/changeToLastUsedModel/tooltip": "前回このチャットで送信したメッセージで使用した別のモデルがあります。クリックして現在選択されているモデル({{currentModel}})をアンロードし、このチャットで最後に使用したモデルを読み込みます:\n\n{{lastModel}}", - "actions/switchToLastUsedModel": "{{lastModel}} に切り替え", - "actions/switchToLastUsedModel/tooltip": "このチャットで最後に使用したモデルに切り替えるにはクリック:\n\n{{lastModel}}", + "actions/changeToLastUsedModel": "{{lastModel}}を読み込む", + "actions/changeToLastUsedModel/error": "前回使用したモデルへの変更に失敗しました。", + "actions/changeToLastUsedModel/tooltip": "このチャットで前回送信時に使用したモデルは異なります。現在選択されているモデル({{currentModel}})を取り出し、前回使用したモデル({{lastModel}})を読み込むにはクリック:\n\n{{lastModel}}", + "actions/switchToLastUsedModel": "{{lastModel}}に切り替え", + "actions/switchToLastUsedModel/tooltip": "前回使用したモデルに切り替えるにはクリック:\n\n{{lastModel}}", "actions/loadModel": "モデルを読み込む", - "actions/toggleViewingProcessed/currentlyFalse": "現在は元のメッセージを表示しています。事前処理されたメッセージを表示するにはクリック。", - "actions/toggleViewingProcessed/currentlyTrue": "現在は事前処理されたメッセージを表示しています。元のメッセージを表示するにはクリック。", - "actions/toggleViewingProcessed/hint": "メッセージがモデルに送信される前に、プロンプトの事前処理が行われることがあります。元のメッセージと事前処理されたメッセージの間で切り替えます。事前処理されたメッセージのみがモデルに送信されます。", + "actions/toggleViewingProcessed/currentlyFalse": "現在は元のメッセージを表示中。前処理済みメッセージを表示するにはクリック。", + "actions/toggleViewingProcessed/currentlyTrue": "現在は前処理済みメッセージを表示中。元のメッセージを表示するにはクリック。", + "actions/toggleViewingProcessed/hint": "メッセージはモデルに送信される前にプロンプト前処理で加工される場合があります。元のメッセージと前処理済みメッセージの表示を切り替えます。モデルに送信されるのは前処理済みメッセージのみです。", "editMessageConfirm/title": "変更を保存しますか?", - "editMessageConfirm/message": "メッセージに変更を加えました。保存しますか?", + "editMessageConfirm/message": "メッセージを変更しました。保存しますか?", "editMessageConfirm/keepEditing": "編集を続ける", "editMessageConfirm/save": "保存", "editMessageConfirm/discard": "変更を破棄", "tokenCount/totalNotAvailable": "トークン: {{current}}", "tokenCount/totalAvailable": "トークン: {{current}}/{{total}}", - "tokenCount/totalAvailablePercentage": "コンテキストの使用率は{{percentage}}%です", - "tokenCount/contextOverflow": "未処理のコンテキストがモデルの最大トークン制限を超えています。コンテキスト制限超過ポリシーに応じて、コンテキストが切り詰められるか、メッセージが送信されない場合があります。", + "tokenCount/totalAvailablePercentage": "コンテキストは{{percentage}}%使用中", + "tokenCount/contextOverflow": "未処理のコンテキストがモデルの最大トークン制限を超えています。コンテキストオーバーフローポリシーにより、コンテキストが切り捨てられるか、メッセージが送信されない場合があります。", "modelLoader/manualLoadParams/label": "モデル読み込みパラメータを手動で選択", - - "modelLoader/manualLoadParams/hint/before": "(またはホールド ", - "modelLoader/manualLoadParams/hint/after": ")", + "modelLoader/manualLoadParams/hint/before": "(または ", + "modelLoader/manualLoadParams/hint/after": " を押しながら)", "actions/move/error": "移動に失敗しました", "actions/rename/error": "名前の変更に失敗しました", - "actions/createChatAtRoot": "新しいチャットを作成", - "actions/createChatAtRoot/error": "ルートでのチャット作成に失敗しました", - "actions/createFolderAtRoot": "新しいフォルダーを作成", - "actions/createFolderAtRoot/error": "ルートでのフォルダー作成に失敗しました", - "actions/createChat/error": "チャット作成に失敗しました", - "userFile/fileSizeLimit": "ファイルサイズの上限は ", - "userFile/noImageSupport": "モデルは画像入力をサポートしていません", + "actions/createChatAtRoot": "新規チャット...", + "actions/createChatAtRoot/error": "ルートでチャットの作成に失敗しました", + "actions/createFolderAtRoot": "新規フォルダー...", + "actions/createFolderAtRoot/error": "ルートでフォルダーの作成に失敗しました", + "actions/openInFolder/mac": "Finderで表示", + "actions/openInFolder/pc": "エクスプローラーで表示", + + "actions/createChat/error": "チャットの作成に失敗しました", + "actions/deleteChat/errorTitle": "チャットの削除に失敗しました", + + "userFile/fileSizeLimit": "ファイルサイズ上限: ", + "userFile/noImageSupport": "モデルは画像入力に対応していません", "userFile/errorPrefix": "エラー - ", - "userFile/supportedImagePrefix": "サポートされていない画像タイプ - 対応しているのは ", - "userFile/supportedImageSuffix": " のみです", - "userFile/unsupportedFileType": "サポートされていないファイルタイプ - 画像、PDF、および .txt ファイルのみサポートされています。", - "userFile/maxFilesPerMessage": "メッセージあたりの最大ファイル数に達しました。これ以上ファイルを追加できません。 ({{files}} ファイルまで)", - "userFile/maxFileSizePerMessage": "メッセージあたりの最大ファイルサイズに達しました。{{size}} より大きなファイルは追加できません。 ", + "userFile/supportedImagePrefix": "未対応の画像タイプ - ", + "userFile/supportedImageSuffix": " のみ対応しています", + "userFile/unsupportedFileType": "未対応のファイルタイプ - 画像、PDF、.txtファイルのみ対応しています。", + "userFile/maxFilesPerMessage": "1メッセージあたりのファイル数上限に達しました。{{files}}個以上は追加できません。", + "userFile/maxFileSizePerMessage": "1メッセージあたりのファイルサイズ上限に達しました。{{size}}より大きいファイルは追加できません。", + "userFile/maxFileSizePerConversation": "1会話あたりのファイルサイズ上限に達しました。{{size}}より大きいファイルは追加できません。", + "userFile/failedToUploadError/title": "ファイルのアップロードに失敗しました", + "userFile/failedToAddFile/title": "チャットへのファイル追加に失敗しました", "errorTitle": "エラー", - "prediction/busyModel/title": "モデルがビジー状態です", - "prediction/busyModel/message": "モデルが処理を完了するまでお待ちください", + "userFile/chatTerminalDocumentsCount_one": "チャット内のドキュメント: {{count}}件", + "userFile/chatTerminalDocumentsCount_other": "チャット内のドキュメント: {{count}}件", + + "prediction/busyModel/title": "モデルが処理中です", + "prediction/busyModel/message": "モデルの処理が終わるまでお待ちください", "prediction/noModel/title": "モデルが選択されていません", - "prediction/modelLoading": "メッセージがキューに入りました。モデルの読み込みが完了したら送信されます", + "prediction/modelLoading": "メッセージがキューに入りました。モデルの読み込みが終わり次第送信されます", "prediction/noModel/message": "メッセージを送信するにはモデルを選択してください", - "prediction/unloadModel/error": "モデルのアンロードに失敗しました", - "retrieval/user/processingLabel": "AIが考えています...", - "retrieval/powerUser/intermediateStepsHidden": "中間ステップは非表示です。クリックして展開。", - "retrieval/actions/clickToExpand": "中間ステップを展開するにはクリック", - "retrieval/actions/clickToCollapse": "中間ステップを折りたたむにはクリック", - "style": "チャットの外観", + "prediction/unloadModel/error": "モデルの取り出しに失敗しました", + + "retrieval/user/processingLabel": "AIが思考中...", + "retrieval/powerUser/intermediateStepsHidden": "中間ステップは非表示です。クリックで展開。", + "retrieval/actions/clickToExpand": "中間ステップを展開", + "retrieval/actions/clickToCollapse": "中間ステップを折りたたむ", + + "style": "外観", + "style/viewMode/markdown": "Markdown", "style/viewMode/plaintext": "プレーンテキスト", "style/viewMode/monospace": "等幅フォント", + + "speculativeDecodingVisualization/toggle": "受理されたドラフトトークンを可視化", + "speculativeDecodingVisualization/fromDraftModel_one": "受理されたドラフトトークン", + "speculativeDecodingVisualization/fromDraftModel_other": "受理されたドラフトトークン", + "speculativeDecodingVisualization/cannotChangeViewMode": "ドラフトトークン可視化中は表示モードの選択はできません。", + "style/fontSize/label": "フォントサイズ", - "style/fontSize/medium": "デフォルト", + "style/fontSize/medium": "標準", "style/fontSize/large": "大きい", "style/fontSize/small": "小さい", - "topBarActions/duplicateChat": "チャットを複製する", - "topBarActions/clearChat": "全てのメッセージをクリア", - "topBarActions/clearChatConfirmation": "このチャットでの全てのメッセージをクリアしても良いですか?", + + "style/debugBlocks/label": "デバッグ情報ブロックを表示", + + "style/thinkingUI/label": "推論ブロックをデフォルトで展開", + "style/chatFullWidth/label": "チャットコンテナをウィンドウ幅に拡張", + + "style/chatUtilityMenusShowLabel/label": "チャットユーティリティメニューのラベルを表示", + + "messageBlocks": { + "expandBlockTooltip": "内容を展開", + "collapseBlockTooltip": "内容を折りたたむ", + "debug": { + "label": "デバッグ情報", + "collapseTooltip": "デバッグ情報ブロックを折りたたむ", + "expandTooltip": "デバッグ情報ブロックを展開" + } + }, + + "chatTabOptions/clearAllMessages": "すべてのメッセージをクリア...", + "chatTabOptions/duplicateChat": "チャットを複製", + + "topBarActions/duplicateChat": "複製", + "topBarActions/clearChat": "すべてクリア", + "topBarActions/clearChatConfirmation": "このチャットのすべてのメッセージをクリアしてもよろしいですか?", "topBarActions/clearChatCancel": "キャンセル", - "topBarActions/clearChatDelete": "全てクリア", - "noModels.indexing": "モデルファイルをインデックスしています... (時間がかかる場合があります)", - "noModels.downloading": "あなたの初めてのLLMをダウンロード中...", - "noModels": "LLMモデルがまだありません!利用を開始するにはダウンロードしてください!" -} + "topBarActions/clearChatDelete": "すべてクリア", + + "noModels.indexing": "モデルファイルをインデックス作成中...(しばらくお待ちください)", + "noModels.downloading": "最初のLLMをダウンロード中...", + "noModels": "まだLLMがありません!ダウンロードして始めましょう!", + + "plugins": { + "pluginTrigger": { + "noPlugins": "プラグイン", + "multiplePlugins": "{{dynamicValue}}個のプラグイン" + }, + "pluginSelect": { + "title": "プラグイン", + "dropdown": { + "configure": "設定", + "disable": "無効化", + "fork": "フォーク", + "uninstall": "アンインストール" + }, + "actionButtons": { + "create": "作成", + "import": "インポート", + "discover": "発見" + }, + "recentlyCreated": { + "title": "最近作成したプラグイン", + "placeholder": "作成したプラグインはここに表示されます" + }, + "startRunningDevelopmentPlugin/error": "開発モードでプラグインの実行開始に失敗しました", + "stopRunningDevelopmentPlugin/error": "開発モードでプラグインの実行停止に失敗しました", + "forceReInitPlugin/error": "プラグインの再起動に失敗しました" + }, + "pluginConfiguration": { + "title": "プラグイン設定", + "selectAPlugin": "編集するプラグインを選択してください", + "preprocessorAndGenerator": "このプラグインにはカスタム前処理と生成器が含まれています", + "generatorOnly": "このプラグインにはカスタム生成器のみ含まれています", + "preprocessorOnly": "このプラグインにはカスタム前処理のみ含まれています" + }, + "instructions": { + "runTheFollowing": "プラグインを実行するには、ターミナルで以下を入力してください", + "pushTo": "Hubにプラグインを公開して他の人と共有しましょう(任意)", + "createdSuccessfully": "プラグインが正常に作成されました", + "creatingPlugin": "プラグイン作成中...", + "projectFilesTitle": "プロジェクトファイル", + "buttons": { + "documentation": "ドキュメント", + "dismiss": "閉じる", + "publish": "公開", + "openInZed": "Zedで開く", + "openInVscode": "VS Codeで開く", + "revealInFinder": "Finderで表示", + "openInFileExplorer": "エクスプローラーで表示" + } + }, + "localFork": { + "error": "プラグインのローカル開発コピー作成に失敗しました。" + }, + "restartErrorPlugin/error": "プラグインの再起動に失敗しました" + }, + + "genInfo": { + "tokensPerSecond": "{{tokensPerSecond}} トークン/秒", + "predictedTokensCount": "{{predictedTokensCount}} トークン", + "timeToFirstTokenSec": "最初のトークンまで{{timeToFirstTokenSec}}秒", + "stopReason": "停止理由: {{stopReason}}", + "stopReason.userStopped": "ユーザーによる停止", + "stopReason.modelUnloaded": "モデルが取り出されました", + "stopReason.failed": "生成に失敗しました", + "stopReason.eosFound": "EOSトークン検出", + "stopReason.stopStringFound": "停止文字列検出", + "stopReason.toolCalls": "ツール呼び出し", + "stopReason.maxPredictedTokensReached": "最大予測トークン数に到達", + "stopReason.contextLengthReached": "コンテキスト長制限に到達", + "speculativeDecodedBy": "ドラフトモデル: {{decodedBy}}", + "speculativeDecodingStats": "{{total}}個中{{accepted}}個のドラフトトークンを受理 ({{percentage}}%)" + }, + + "tabs": { + "systemPromptEditorTab.headerLabel": "システムプロンプト編集" + } +} \ No newline at end of file diff --git a/ja/config.json b/ja/config.json index bad22ba6..bb475d14 100644 --- a/ja/config.json +++ b/ja/config.json @@ -1,152 +1,251 @@ { - "noInstanceSelected": "モデルインスタンスが選択されていません", + "noInstanceSelected": "モデルが選択されていません", "resetToDefault": "リセット", "showAdvancedSettings": "詳細設定を表示", - "showAll": "全て", - "basicSettings": "基本設定", - "configSubtitle": "プリセットの読み込みや保存、モデルパラメータの上書き設定を試してみましょう", + "showAll": "すべて", + "basicSettings": "基本", + "configSubtitle": "プリセットの読み込みまたは保存、モデルパラメータのオーバーライドを試す", "inferenceParameters/title": "予測パラメータ", - "inferenceParameters/info": "予測に影響を与えるパラメータを試すことができます。", - "generalParameters/title": "一般設定", - "samplingParameters/title": "サンプリング設定", + "inferenceParameters/info": "予測に影響を与えるパラメータを試す。", + "generalParameters/title": "一般", + "samplingParameters/title": "サンプリング", "basicTab": "基本", "advancedTab": "詳細", "advancedTab/title": "🧪 詳細設定", - "advancedTab/expandAll": "全て展開", - "advancedTab/overridesTitle": "設定の上書き", - "advancedTab/noConfigsText": "未保存の変更はありません - 上記の値を編集して上書き設定をここに表示します。", - "loadInstanceFirst": "モデルを読み込んで設定可能なパラメータを表示してください", - "noListedConfigs": "設定可能なパラメータがありません", - "generationParameters/info": "テキスト生成に影響を与える基本パラメータを試してみましょう。", - "loadParameters/title": "読み込みパラメータ", - "loadParameters/description": "モデルがメモリに読み込まれる際の設定を制御します。", + "advancedTab/expandAll": "すべて展開", + "advancedTab/overridesTitle": "設定のオーバーライド", + "advancedTab/noConfigsText": "未保存の変更はありません - 上の値を編集してここでオーバーライドを表示します。", + "loadInstanceFirst": "モデルを読み込んで、設定可能なパラメータを表示します", + "noListedConfigs": "設定可能なパラメータはありません", + "generationParameters/info": "テキスト生成に影響を与える基本的なパラメータを試す。", + "loadParameters/title": "パラメータの読み込み", + "loadParameters/description": "モデルの初期化とメモリへの読み込み方法を制御する設定。", "loadParameters/reload": "変更を適用するには再読み込み", + "loadParameters/reload/error": "モデルの再読み込みに失敗しました", "discardChanges": "変更を破棄", "loadModelToSeeOptions": "オプションを表示するにはモデルを読み込んでください", + "schematicsError.title": "設定スキーマに以下のフィールドにエラーがあります:", + "manifestSections": { + "structuredOutput/title": "構造化出力", + "speculativeDecoding/title": "推測デコーディング", + "sampling/title": "サンプリング", + "settings/title": "設定", + "toolUse/title": "ツールの使用", + "promptTemplate/title": "プロンプトテンプレート", + "customFields/title": "カスタムフィールド" + }, + "llm.prediction.systemPrompt/title": "システムプロンプト", - "llm.prediction.systemPrompt/description": "モデルに対して背景となる指示やルール、制約、全体的な要件を提供するためのフィールドです。このフィールドは「システムプロンプト」とも呼ばれます。", - "llm.prediction.systemPrompt/subTitle": "AIへのガイドライン", - "llm.prediction.temperature/title": "temperature", - "llm.prediction.temperature/subTitle": "ランダム性をどれくらい加えるか。0にすると毎回同じ結果になり、高い値にすると創造性と多様性が増加します。", - "llm.prediction.temperature/info": "llama.cpp のドキュメントによると、デフォルト値は <{{dynamicValue}}> で、ランダム性と決定論のバランスを取ります。極端な場合、temperatureが0だと常に最も可能性の高いトークンが選ばれ、毎回同じ結果になります。", + "llm.prediction.systemPrompt/description": "このフィールドには、モデルに対する背景指示(ルール、制約、一般的な要件など)を記載してください。", + "llm.prediction.systemPrompt/subTitle": "AI のガイドライン", + "llm.prediction.systemPrompt/openEditor": "エディター", + "llm.prediction.systemPrompt/closeEditor": "エディターを閉じる", + "llm.prediction.systemPrompt/openedEditor": "エディターで開いています...", + "llm.prediction.systemPrompt/edit": "システムプロンプトを編集...", + "llm.prediction.systemPrompt/addInstructionsWithMore": "指示を追加...", + "llm.prediction.systemPrompt/addInstructions": "指示を追加", + "llm.prediction.temperature/title": "Temperature", + "llm.prediction.temperature/subTitle": "ランダム性の度合い。0は毎回同じ結果になり、高い値では創造性とばらつきが増加します", + "llm.prediction.temperature/info": "llama.cpp ヘルプドキュメントより:「デフォルト値は <{{dynamicValue}}> で、ランダム性と決定性のバランスを提供します。極端な場合、temperature が 0 だと常に最も可能性の高い次のトークンを選択し、毎回同じ出力になります」", "llm.prediction.llama.sampling/title": "サンプリング", - "llm.prediction.topKSampling/title": "Top-Kサンプリング", - "llm.prediction.topKSampling/subTitle": "次のトークンを最も確率の高いK個のトークンから選択します。temperatureと似たように機能します。", - "llm.prediction.topKSampling/info": "llama.cppのドキュメントによると、Top-Kサンプリングは、モデルが予測した最も可能性の高いK個のトークンの中から次のトークンを選択するテキスト生成法です。これにより、低確率や意味不明なトークンが生成されるリスクが減りますが、多様性も制限される可能性があります。Kの値が大きい(例:100)と、多様なテキストが生成され、小さい(例:10)と、より保守的なテキストが生成されます。デフォルト値は <{{dynamicValue}}> です。", - "llm.prediction.llama.cpuThreads/title": "CPUスレッド数", - "llm.prediction.llama.cpuThreads/subTitle": "推論時に使用するCPUスレッド数", - "llm.prediction.llama.cpuThreads/info": "計算中に使用するスレッド数です。スレッド数を増やすと必ずしも性能が向上するわけではありません。デフォルト値は <{{dynamicValue}}> です。", - "llm.prediction.maxPredictedTokens/title": "レスポンスの長さを制限", - "llm.prediction.maxPredictedTokens/subTitle": "AIのレスポンスの長さをオプションで制限できます。", - "llm.prediction.maxPredictedTokens/info": "チャットボットのレスポンスの最大長を制御します。オンにするとレスポンスの最大長を設定できます。オフにするとチャットボットが停止するタイミングを決定します。", - "llm.prediction.maxPredictedTokens/inputLabel": "最大レスポンス長(トークン数)", - "llm.prediction.maxPredictedTokens/wordEstimate": "約 {{maxWords}} 語", + "llm.prediction.topKSampling/title": "Top K サンプリング", + "llm.prediction.topKSampling/subTitle": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします", + "llm.prediction.topKSampling/info": "llama.cpp ヘルプドキュメントより:\n\nTop-kサンプリングは、モデルによって予測された上位k個の最も可能性の高いトークンのみから次のトークンを選択するテキスト生成方法です。\n\n確率の低いまたは無意味なトークンを生成するリスクを減らすのに役立ちますが、出力の多様性を制限する可能性もあります。\n\ntop-kの値が高いほど(例:100)、より多くのトークンが考慮され、より多様なテキストが生成され、値が低いほど(例:10)、最も確率の高いトークンに焦点を当て、より保守的なテキストが生成されます。\n\n• デフォルト値は <{{dynamicValue}}> です", + "llm.prediction.llama.cpuThreads/title": "CPUスレッド", + "llm.prediction.llama.cpuThreads/subTitle": "推論中に使用するCPUスレッドの数", + "llm.prediction.llama.cpuThreads/info": "計算中に使用するスレッド数。スレッド数を増やしても必ずしもパフォーマンスの向上に繋がるわけではありません。デフォルト値は <{{dynamicValue}}> です。", + "llm.prediction.maxPredictedTokens/title": "応答長の制限", + "llm.prediction.maxPredictedTokens/subTitle": "AIの応答の長さを制限します", + "llm.prediction.maxPredictedTokens/info": "チャットボットの応答の最大長を制御します。オンにして応答の最大長を制限するか、オフにしてチャットボット自体に停止タイミングを決めさせます。", + "llm.prediction.maxPredictedTokens/inputLabel": "最大応答長(トークン)", + "llm.prediction.maxPredictedTokens/wordEstimate": "約{{maxWords}}語", "llm.prediction.repeatPenalty/title": "繰り返しペナルティ", - "llm.prediction.repeatPenalty/subTitle": "同じトークンを繰り返すことをどの程度抑制するか", - "llm.prediction.repeatPenalty/info": "llama.cppのドキュメントによると、この設定はモデルが繰り返しや単調なテキストを生成するのを防ぎます。値が高い(例:1.5)ほど、繰り返しに対するペナルティが強くなり、値が低い(例:0.9)ほど寛容になります。デフォルト値は <{{dynamicValue}}> です。", - "llm.prediction.minPSampling/title": "最小Pサンプリング", - "llm.prediction.minPSampling/subTitle": "トークンが出力されるための最小ベース確率", - "llm.prediction.minPSampling/info": "llama.cppのドキュメントによると、次のトークンを選択するための最小確率は、最も可能性の高いトークンの確率に基づきます。値は[0, 1]の範囲内で設定できます。デフォルト値は <{{dynamicValue}}> です。", - "llm.prediction.topPSampling/title": "Top-Pサンプリング", - "llm.prediction.topPSampling/subTitle": "次のトークンの可能性のある最小累積確率。temperatureと似たように機能します。", - "llm.prediction.topPSampling/info": "llama.cppのドキュメントによると、Top-Pサンプリングは、可能性のあるトークンの累積確率がP以上になるようにトークンを選択します。この手法は、多様性と品質のバランスをとるため、トークンの確率とトークン数の両方を考慮します。Top-Pの値が高い(例:0.95)と多様なテキストが生成され、値が低い(例:0.5)とより保守的なテキストが生成されます。値は (0, 1] の範囲内で設定できます。デフォルト値は <{{dynamicValue}}> です。", + "llm.prediction.repeatPenalty/subTitle": "同じトークンの繰り返しをどの程度抑制するか", + "llm.prediction.repeatPenalty/info": "llama.cpp ヘルプドキュメントより:「モデルが繰り返しや単調なテキストを生成することを防ぐのに役立ちます。\n\n高い値(例:1.5)は繰り返しをより強くペナルティ化し、低い値(例:0.9)はより寛大になります。」 • デフォルト値は <{{dynamicValue}}> です", + "llm.prediction.minPSampling/title": "Min P サンプリング", + "llm.prediction.minPSampling/subTitle": "出力対象として選択されるトークンの最小ベース確率", + "llm.prediction.minPSampling/info": "llama.cpp ヘルプドキュメントより:\n\n最も可能性の高いトークンの確率に対する相対的な、トークンが考慮される最小確率。[0, 1]の範囲である必要があります。\n\n• デフォルト値は <{{dynamicValue}}> です", + "llm.prediction.topPSampling/title": "Top P サンプリング", + "llm.prediction.topPSampling/subTitle": "次の可能なトークンの最小累積確率。temperatureと同様の動作をします", + "llm.prediction.topPSampling/info": "llama.cpp ヘルプドキュメントより:\n\nNucleus サンプリングとも呼ばれる Top-p サンプリングは、累積確率が少なくとも p となるトークンのサブセットから次のトークンを選択するテキスト生成方法です。\n\nこの方法は、トークンの確率とサンプリング対象となるトークン数の両方を考慮することで、多様性と品質のバランスを提供します。\n\ntop-p の値が高い(例:0.95)場合はより多様なテキストが生成され、低い値(例:0.5)の場合はより集中的で保守的なテキストが生成されます。(0, 1]の範囲である必要があります。\n\n• デフォルト値は <{{dynamicValue}}> です", "llm.prediction.stopStrings/title": "停止文字列", - "llm.prediction.stopStrings/subTitle": "モデルがトークンの生成を停止するべき文字列", - "llm.prediction.stopStrings/info": "特定の文字列が検出された場合に、モデルがトークンの生成を停止します。", - "llm.prediction.stopStrings/placeholder": "文字列を入力し、⏎キーを押してください", - "llm.prediction.contextOverflowPolicy/title": "会話のオーバーフロー", - "llm.prediction.contextOverflowPolicy/subTitle": "会話がモデルの処理可能なサイズを超えた場合の動作", - "llm.prediction.contextOverflowPolicy/info": "会話がモデルのメモリ容量(コンテキスト)を超えた場合にどうするかを設定します。", - "llm.prediction.llama.frequencyPenalty/title": "Frequency ペナルティ", - "llm.prediction.llama.presencePenalty/title": "Presence ペナルティ", - "llm.prediction.llama.tailFreeSampling/title": "Tail-Freeサンプリング", - "llm.prediction.llama.locallyTypicalSampling/title": "ローカルTypicalサンプリング", - "llm.prediction.onnx.topKSampling/title": "Top-Kサンプリング", - "llm.prediction.onnx.topKSampling/subTitle": "次のトークンを最も確率の高いK個のトークンに制限します。temperatureと同様の機能を持ちます。", - "llm.prediction.onnx.topKSampling/info": "ONNXのドキュメントによると、最も確率の高いボキャブラリトークンの上位K個をTop-Kフィルタリングのために保持します。デフォルトではこのフィルタはオフです。", + "llm.prediction.stopStrings/subTitle": "モデルがトークン生成を停止する文字列", + "llm.prediction.stopStrings/info": "これらの文字列が検出されたときにモデルがさらなるトークン生成を停止する特定の文字列", + "llm.prediction.stopStrings/placeholder": "文字列を入力してから ⏎ を押してください", + "llm.prediction.contextOverflowPolicy/title": "コンテキストオーバーフロー", + "llm.prediction.contextOverflowPolicy/subTitle": "会話がモデルの処理能力を超えた場合の動作方法", + "llm.prediction.contextOverflowPolicy/info": "会話がモデルの作業メモリ('コンテキスト')のサイズを超えた場合の対応を決定します", + "llm.prediction.llama.frequencyPenalty/title": "頻度ペナルティ", + "llm.prediction.llama.presencePenalty/title": "存在ペナルティ", + "llm.prediction.llama.tailFreeSampling/title": "テイルフリーサンプリング", + "llm.prediction.llama.locallyTypicalSampling/title": "局所的典型サンプリング", + "llm.prediction.llama.xtcProbability/title": "XTCサンプリング確率", + "llm.prediction.llama.xtcProbability/subTitle": "XTC(Exclude Top Choices)サンプラーが生成された各トークンでこの確率で有効化されます。XTCサンプリングは創造性を向上させ、陳腐な表現を減らします", + "llm.prediction.llama.xtcProbability/info": "XTC(Exclude Top Choices)サンプリングは、生成された各トークンでこの確率でのみ有効化されます。XTCサンプリングは通常創造性を向上させ、陳腐な表現を減らします", + "llm.prediction.llama.xtcThreshold/title": "XTCサンプリング閾値", + "llm.prediction.llama.xtcThreshold/subTitle": "XTC(Exclude Top Choices)閾値。`xtc-probability`の確率で、`xtc-threshold`と0.5の間の確率を持つトークンを検索し、最も確率の低いもの以外のそのようなトークンをすべて除去します", + "llm.prediction.llama.xtcThreshold/info": "XTC(Exclude Top Choices)閾値。`xtc-probability`の確率で、`xtc-threshold`と0.5の間の確率を持つトークンを検索し、最も確率の低いもの以外のそのようなトークンをすべて除去します", + "llm.prediction.mlx.topKSampling/title": "Top K サンプリング", + "llm.prediction.mlx.topKSampling/subTitle": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします", + "llm.prediction.mlx.topKSampling/info": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします", + "llm.prediction.onnx.topKSampling/title": "Top K サンプリング", + "llm.prediction.onnx.topKSampling/subTitle": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします", + "llm.prediction.onnx.topKSampling/info": "ONNX ドキュメントより:\n\ntop-k フィルタリング用に保持する最高確率語彙トークンの数\n\n• このフィルターはデフォルトでオフになっています", "llm.prediction.onnx.repeatPenalty/title": "繰り返しペナルティ", - "llm.prediction.onnx.repeatPenalty/subTitle": "同じトークンを繰り返すことをどの程度抑制するか", - "llm.prediction.onnx.repeatPenalty/info": "モデルが繰り返しを行わないようにするための設定です。値が高いほど抑制されます。", - "llm.prediction.onnx.topPSampling/title": "Top-Pサンプリング", - "llm.prediction.onnx.topPSampling/subTitle": "次のトークンの可能性のある最小累積確率。temperatureと似たように機能します。", - "llm.prediction.onnx.topPSampling/info": "ONNXのドキュメントによると、確率がTop-Pまたはそれ以上になる最も可能性の高いトークンだけが保持されます。デフォルトではこのフィルタはオフです。", - "llm.prediction.seed/title": "シード値", + "llm.prediction.onnx.repeatPenalty/subTitle": "同じトークンの繰り返しをどの程度抑制するか", + "llm.prediction.onnx.repeatPenalty/info": "高い値により、モデルが同じ内容を繰り返すことを抑制します", + "llm.prediction.onnx.topPSampling/title": "Top P サンプリング", + "llm.prediction.onnx.topPSampling/subTitle": "次の可能なトークンの最小累積確率。temperatureと同様の動作をします", + "llm.prediction.onnx.topPSampling/info": "ONNX ドキュメントより:\n\nTopP 以上の確率を加算した最も確率の高いトークンのみが生成用に保持されます\n\n• このフィルターはデフォルトでオフになっています", + "llm.prediction.seed/title": "Seed", "llm.prediction.structured/title": "構造化出力", - "llm.prediction.structured/info": "構造化された出力を生成します。", - "llm.prediction.structured/description": "上級者向け: モデルから特定の出力形式を強制するためにJSONスキーマを指定できます。詳細については[ドキュメント](https://lmstudio.ai/docs/advanced/structured-output)をご覧ください。", + "llm.prediction.structured/info": "構造化出力", + "llm.prediction.structured/description": "高度:特定の出力形式をモデルに強制するために[JSON Schema](https://json-schema.org/learn/miscellaneous-examples)を提供できます。詳細は[ドキュメント](https://lmstudio.ai/docs/advanced/structured-output)をお読みください", + "llm.prediction.tools/title": "ツールの使用", + "llm.prediction.tools/description": "高度:モデルが呼び出しを要求するツールのJSONに準拠したリストを提供できます。詳細は[ドキュメント](https://lmstudio.ai/docs/advanced/tool-use)をお読みください", + "llm.prediction.tools/serverPageDescriptionAddon": "サーバーAPIを使用する際は、リクエストボディで`tools`としてこれを渡してください", "llm.prediction.promptTemplate/title": "プロンプトテンプレート", - "llm.prediction.promptTemplate/subTitle": "チャットでメッセージがモデルに送信されるフォーマットです。これを変更すると予期しない動作が発生する可能性があります。変更前に必ず確認してください。", + "llm.prediction.promptTemplate/subTitle": "チャット内のメッセージがモデルに送信される形式。これを変更すると予期しない動作を引き起こす可能性があります - 何をしているか理解していることを確認してください!", + "llm.prediction.speculativeDecoding.numDraftTokensExact/title": "生成するドラフトトークン数", + "llm.prediction.speculativeDecoding.numDraftTokensExact/subTitle": "メインモデルのトークンごとにドラフトモデルで生成するトークン数。計算量と報酬の最適なバランスを見つけてください", + "llm.prediction.speculativeDecoding.minContinueDraftingProbability/title": "ドラフティング確率カットオフ", + "llm.prediction.speculativeDecoding.minContinueDraftingProbability/subTitle": "トークンの確率がこの閾値を下回るまでドラフティングを続行します。高い値は一般的に低リスク・低報酬を意味します", + "llm.prediction.speculativeDecoding.minDraftLengthToConsider/title": "最小ドラフトサイズ", + "llm.prediction.speculativeDecoding.minDraftLengthToConsider/subTitle": "これより小さいドラフトはメインモデルによって無視されます。高い値は一般的に低リスク・低報酬を意味します", + "llm.prediction.speculativeDecoding.maxTokensToDraft/title": "最大ドラフトサイズ", + "llm.prediction.speculativeDecoding.maxTokensToDraft/subTitle": "ドラフトで許可されるトークンの最大数。すべてのトークン確率がカットオフを上回る場合の上限。低い値は一般的に低リスク・低報酬を意味します", + "llm.prediction.speculativeDecoding.draftModel/title": "ドラフトモデル", + "llm.prediction.reasoning.parsing/title": "推論セクション解析", + "llm.prediction.reasoning.parsing/subTitle": "モデル出力の推論セクションの解析方法", + + "llm.load.mainGpu/title": "メインGPU", + "llm.load.mainGpu/subTitle": "モデル計算で優先するGPU", + "llm.load.mainGpu/placeholder": "メインGPUを選択...", + "llm.load.splitStrategy/title": "分割戦略", + "llm.load.splitStrategy/subTitle": "モデル計算をGPU間でどのように分割するか", + "llm.load.splitStrategy/placeholder": "分割戦略を選択...", + "llm.load.offloadKVCacheToGpu/title": "KVキャッシュをGPUメモリにオフロード", + "llm.load.offloadKVCacheToGpu/subTitle": "KVキャッシュをGPUメモリにオフロードします。パフォーマンスが向上しますが、より多くのGPUメモリが必要です", + "load.gpuStrictVramCap/title": "モデルオフロードを専用GPUメモリに制限", + "load.gpuStrictVramCap.customSubTitleOff": "オフ:専用GPUメモリが満杯の場合、モデル重みを共有メモリにオフロードすることを許可します", + "load.gpuStrictVramCap.customSubTitleOn": "オン:システムはモデル重みのオフロードを専用GPUメモリとRAMのみに制限します。コンテキストは引き続き共有メモリを使用する可能性があります", + "load.gpuStrictVramCap.customGpuOffloadWarning": "モデルオフロードが専用GPUメモリに制限されました。実際のオフロードされるレイヤー数は異なる場合があります", + "load.allGpusDisabledWarning": "現在、すべてのGPUが無効になっています。オフロードするには少なくとも1つを有効にしてください", + "llm.load.contextLength/title": "コンテキスト長", - "llm.load.contextLength/subTitle": "1つのプロンプトでモデルが処理できるトークンの最大数。コンテキストのオーバーフローオプションは「予測パラメータ」セクションにあります。", - "llm.load.contextLength/info": "モデルが一度に処理できるトークンの最大数を指定します。これにより、処理中に保持されるコンテキスト量が影響を受けます。", - "llm.load.contextLength/warning": "コンテキスト長の値を高く設定すると、メモリ使用量が大幅に増加する可能性があります。", - "llm.load.seed/title": "シード値", - "llm.load.seed/subTitle": "テキスト生成に使用される乱数生成器のシード値。-1でランダムになります。", - "llm.load.seed/info": "乱数シード: 乱数生成のシード値を設定して結果を再現可能にします。", + "llm.load.contextLength/subTitle": "モデルが一つのプロンプトで処理できる最大トークン数。これを管理する方法については、「推論パラメータ」の下の会話オーバーフロー オプションを参照してください", + "llm.load.contextLength/info": "モデルが一度に考慮できるトークンの最大数を指定し、処理中に保持するコンテキストの量に影響します", + "llm.load.contextLength/warning": "コンテキスト長に高い値を設定すると、メモリ使用量に大きな影響を与える可能性があります", + "llm.load.seed/title": "Seed", + "llm.load.seed/subTitle": "テキスト生成で使用される乱数ジェネレータのシード。-1はランダムです", + "llm.load.seed/info": "ランダムシード:再現可能な結果を保証するために、乱数生成のシードを設定します", + "llm.load.llama.evalBatchSize/title": "評価バッチサイズ", - "llm.load.llama.evalBatchSize/subTitle": "一度に処理する入力トークンの数。これを増やすとパフォーマンスが向上しますが、メモリ使用量も増加します。", - "llm.load.llama.evalBatchSize/info": "評価時に一度に処理される例の数を設定し、速度とメモリ使用量に影響を与えます。", - "llm.load.llama.ropeFrequencyBase/title": "RoPE基本周波数", - "llm.load.llama.ropeFrequencyBase/subTitle": "Rotary Positional Embeddings(RoPE)の基本周波数をカスタマイズします。これを増やすと、長いコンテキストでのパフォーマンスが向上する場合があります。", - "llm.load.llama.ropeFrequencyBase/info": "[高度] 回転位置エンコーディングの基本周波数を調整し、位置情報の埋め込み方法に影響を与えます。", + "llm.load.llama.evalBatchSize/subTitle": "一度に処理する入力トークンの数。これを増やすとメモリ使用量は増えますがパフォーマンスが向上します", + "llm.load.llama.evalBatchSize/info": "評価中に一つのバッチで一緒に処理される例の数を設定し、速度とメモリ使用量に影響します", + "llm.load.llama.ropeFrequencyBase/title": "RoPE周波数ベース", + "llm.load.llama.ropeFrequencyBase/subTitle": "回転位置エンベディング(RoPE)のカスタムベース周波数。これを増やすと、高いコンテキスト長でのパフォーマンス向上が期待できます", + "llm.load.llama.ropeFrequencyBase/info": "[高度] 回転位置エンコーディングのベース周波数を調整し、位置情報の埋め込み方法に影響します", "llm.load.llama.ropeFrequencyScale/title": "RoPE周波数スケール", - "llm.load.llama.ropeFrequencyScale/subTitle": "RoPEを使用して、コンテキスト長をこの倍率でスケールします。", - "llm.load.llama.ropeFrequencyScale/info": "[高度] 回転位置エンコーディングの周波数スケーリングを調整し、位置エンコーディングの粒度を制御します。", + "llm.load.llama.ropeFrequencyScale/subTitle": "RoPEを使用して効果的なコンテキストを拡張するために、コンテキスト長がこの要素でスケールされます", + "llm.load.llama.ropeFrequencyScale/info": "[高度] 回転位置エンコーディングの周波数スケーリングを変更し、位置エンコーディングの粒度を制御します", "llm.load.llama.acceleration.offloadRatio/title": "GPUオフロード", - "llm.load.llama.acceleration.offloadRatio/subTitle": "GPUアクセラレーションのためにGPUで計算するモデル層の数", - "llm.load.llama.acceleration.offloadRatio/info": "GPUにオフロードする層の数を設定します。", + "llm.load.llama.acceleration.offloadRatio/subTitle": "GPU高速化のためにGPUで計算する個別のモデルレイヤー数", + "llm.load.llama.acceleration.offloadRatio/info": "GPUにオフロードするレイヤー数を設定します。", "llm.load.llama.flashAttention/title": "Flash Attention", - "llm.load.llama.flashAttention/subTitle": "一部のモデルでメモリ使用量と生成時間を削減します。", - "llm.load.llama.flashAttention/info": "注意メカニズムを高速化し、より効率的に処理します。", - "llm.load.numExperts/title": "エキスパートの数", + "llm.load.llama.flashAttention/subTitle": "一部のモデルでメモリ使用量と生成時間を削減します", + "llm.load.llama.flashAttention/info": "より高速で効率的な処理のためにAttentionメカニズムを加速します", + "llm.load.numExperts/title": "エキスパート数", "llm.load.numExperts/subTitle": "モデルで使用するエキスパートの数", - "llm.load.numExperts/info": "モデルで使用するエキスパートの数を設定します。", + "llm.load.numExperts/info": "モデルで使用するエキスパートの数", "llm.load.llama.keepModelInMemory/title": "モデルをメモリに保持", - "llm.load.llama.keepModelInMemory/subTitle": "モデルがGPUにオフロードされていても、システムメモリにモデルを保持します。これによりパフォーマンスが向上しますが、システムRAMを多く消費します。", - "llm.load.llama.keepModelInMemory/info": "モデルがディスクにスワップアウトされるのを防ぎ、より高速なアクセスを可能にしますが、RAMの使用量が増加します。", + "llm.load.llama.keepModelInMemory/subTitle": "GPUにオフロードした場合でも、モデル用にシステムメモリを予約します。パフォーマンスが向上しますが、より多くのシステムRAMが必要です", + "llm.load.llama.keepModelInMemory/info": "モデルがディスクにスワップされることを防ぎ、RAMの使用量増加を犠牲により高速なアクセスを保証します", "llm.load.llama.useFp16ForKVCache/title": "KVキャッシュにFP16を使用", - "llm.load.llama.useFp16ForKVCache/info": "キャッシュを半精度(FP16)で保存することで、メモリ使用量を削減します。", - "llm.load.llama.tryMmap/title": "mmap()を試す", - "llm.load.llama.tryMmap/subTitle": "モデルのロード時間を短縮します。モデルがシステムRAMを超える場合は、これを無効にするとパフォーマンスが向上することがあります。", - "llm.load.llama.tryMmap/info": "モデルファイルをディスクからメモリに直接読み込みます。", + "llm.load.llama.useFp16ForKVCache/info": "キャッシュを半精度(FP16)で保存することでメモリ使用量を削減します", + "llm.load.llama.tryMmap/title": "mmap() を試行", + "llm.load.llama.tryMmap/subTitle": "モデルの読み込み時間が改善されます。利用可能なシステムRAMよりもモデルが大きい場合は、これを無効にするとパフォーマンスが向上する可能性があります", + "llm.load.llama.tryMmap/info": "モデルファイルをディスクから直接メモリに読み込みます", + "llm.load.llama.cpuThreadPoolSize/title": "CPUスレッドプールサイズ", + "llm.load.llama.cpuThreadPoolSize/subTitle": "モデル計算に使用するスレッドプールに割り当てるCPUスレッド数", + "llm.load.llama.cpuThreadPoolSize/info": "モデル計算に使用するスレッドプールに割り当てるCPUスレッド数。スレッド数を増やしても必ずしもパフォーマンスの向上に繋がるわけではありません。デフォルト値は <{{dynamicValue}}> です。", + "llm.load.llama.kCacheQuantizationType/title": "K キャッシュ量子化タイプ", + "llm.load.llama.kCacheQuantizationType/subTitle": "低い値でメモリ使用量を削減しますが、品質が低下する可能性があります。効果はモデルによって大きく異なります。", + "llm.load.llama.vCacheQuantizationType/title": "V キャッシュ量子化タイプ", + "llm.load.llama.vCacheQuantizationType/subTitle": "低い値でメモリ使用量を削減しますが、品質が低下する可能性があります。効果はモデルによって大きく異なります。", + "llm.load.llama.vCacheQuantizationType/turnedOnWarning": "⚠️ Flash Attentionが有効でない場合は、この値を無効にする必要があります", + "llm.load.llama.vCacheQuantizationType/disabledMessage": "Flash Attentionが有効な場合にのみオンにできます", + "llm.load.llama.vCacheQuantizationType/invalidF32MetalState": "⚠️ F32を使用する際はFlash Attentionを無効にする必要があります", + "llm.load.mlx.kvCacheBits/title": "KV キャッシュ量子化", + "llm.load.mlx.kvCacheBits/subTitle": "KVキャッシュを量子化するビット数", + "llm.load.mlx.kvCacheBits/info": "KVキャッシュを量子化するビット数", + "llm.load.mlx.kvCacheBits/turnedOnWarning": "KVキャッシュ量子化を使用すると、コンテキスト長設定は無視されます", + "llm.load.mlx.kvCacheGroupSize/title": "KV キャッシュ量子化: グループサイズ", + "llm.load.mlx.kvCacheGroupSize/subTitle": "KVキャッシュの量子化操作中のグループサイズ。グループサイズが大きいほどメモリ使用量は削減されますが、品質が低下する可能性があります", + "llm.load.mlx.kvCacheGroupSize/info": "KVキャッシュを量子化するビット数", + "llm.load.mlx.kvCacheQuantizationStart/title": "KV キャッシュ量子化: ctx がこの長さを超えたら量子化を開始", + "llm.load.mlx.kvCacheQuantizationStart/subTitle": "KVキャッシュの量子化を開始するコンテキスト長の閾値", + "llm.load.mlx.kvCacheQuantizationStart/info": "KVキャッシュの量子化を開始するコンテキスト長の閾値", + "llm.load.mlx.kvCacheQuantization/title": "KV キャッシュ量子化", + "llm.load.mlx.kvCacheQuantization/subTitle": "モデルのKVキャッシュを量子化します。これにより生成の高速化とメモリ使用量の削減が可能ですが、\nモデル出力の品質を犠牲にします。", + "llm.load.mlx.kvCacheQuantization/bits/title": "KVキャッシュ量子化ビット", + "llm.load.mlx.kvCacheQuantization/bits/tooltip": "KVキャッシュを量子化するビット数", + "llm.load.mlx.kvCacheQuantization/bits/bits": "ビット", + "llm.load.mlx.kvCacheQuantization/groupSize/title": "グループサイズ戦略", + "llm.load.mlx.kvCacheQuantization/groupSize/accuracy": "精度", + "llm.load.mlx.kvCacheQuantization/groupSize/balanced": "バランス", + "llm.load.mlx.kvCacheQuantization/groupSize/speedy": "高速", + "llm.load.mlx.kvCacheQuantization/groupSize/tooltip": "高度:量子化された「行列積グループサイズ」の構成\n\n• 精度 = グループサイズ 32\n• バランス = グループサイズ 64\n• 高速 = グループサイズ 128\n", + "llm.load.mlx.kvCacheQuantization/quantizedStart/title": "ctx がこの長さに達したら量子化を開始", + "llm.load.mlx.kvCacheQuantization/quantizedStart/tooltip": "コンテキストがこのトークン数に達したら、\nKVキャッシュの量子化を開始する", + "embedding.load.contextLength/title": "コンテキスト長", - "embedding.load.contextLength/subTitle": "1つのプロンプトでモデルが処理できるトークンの最大数。「予測パラメータ」セクションでコンテキストのオーバーフローオプションを参照してください。", - "embedding.load.contextLength/info": "モデルが一度に処理できるトークンの最大数を指定し、処理中に保持されるコンテキストの量に影響します。", - "embedding.load.llama.ropeFrequencyBase/title": "RoPE基本周波数", - "embedding.load.llama.ropeFrequencyBase/subTitle": "Rotary Positional Embeddings(RoPE)の基本周波数をカスタマイズします。これを増やすと、長いコンテキストでのパフォーマンスが向上する場合があります。", - "embedding.load.llama.ropeFrequencyBase/info": "[高度] RoPE(Rotary Positional Embeddings)の基本周波数を調整し、位置情報のEmbeddingに影響を与えます。", + "embedding.load.contextLength/subTitle": "モデルが一つのプロンプトで処理できる最大トークン数。これを管理する方法については、「推論パラメータ」の下の会話オーバーフロー オプションを参照してください", + "embedding.load.contextLength/info": "モデルが一度に考慮できるトークンの最大数を指定し、処理中に保持するコンテキストの量に影響します", + "embedding.load.llama.ropeFrequencyBase/title": "RoPE周波数ベース", + "embedding.load.llama.ropeFrequencyBase/subTitle": "回転位置エンベディング(RoPE)のカスタムベース周波数。これを増やすと、高いコンテキスト長でのパフォーマンス向上が期待できます", + "embedding.load.llama.ropeFrequencyBase/info": "[高度] 回転位置エンコーディングのベース周波数を調整し、位置情報の埋め込み方法に影響します", "embedding.load.llama.evalBatchSize/title": "評価バッチサイズ", - "embedding.load.llama.evalBatchSize/subTitle": "一度に処理する入力トークンの数。これを増やすとパフォーマンスが向上しますが、メモリ使用量も増加します。", - "embedding.load.llama.evalBatchSize/info": "評価時に一度に処理されるトークンの数を設定し、速度とメモリ使用量に影響を与えます。", + "embedding.load.llama.evalBatchSize/subTitle": "一度に処理する入力トークンの数。これを増やすとメモリ使用量は増えますがパフォーマンスが向上します", + "embedding.load.llama.evalBatchSize/info": "評価中に一つのバッチで一緒に処理されるトークンの数を設定します", "embedding.load.llama.ropeFrequencyScale/title": "RoPE周波数スケール", - "embedding.load.llama.ropeFrequencyScale/subTitle": "RoPEを使用して、コンテキスト長をこの倍率でスケールします。", - "embedding.load.llama.ropeFrequencyScale/info": "[高度] RoPE(Rotary Positional Embeddings)の周波数スケーリングを調整して、位置情報のエンコーディングを細かく制御します。", + "embedding.load.llama.ropeFrequencyScale/subTitle": "RoPEを使用して効果的なコンテキストを拡張するために、コンテキスト長がこの要素でスケールされます", + "embedding.load.llama.ropeFrequencyScale/info": "[高度] 回転位置エンコーディングの周波数スケーリングを変更し、位置エンコーディングの粒度を制御します", "embedding.load.llama.acceleration.offloadRatio/title": "GPUオフロード", - "embedding.load.llama.acceleration.offloadRatio/subTitle": "GPUアクセラレーションのためにGPUで処理するモデル層の数", - "embedding.load.llama.acceleration.offloadRatio/info": "GPUにオフロードする層の数を設定します。", + "embedding.load.llama.acceleration.offloadRatio/subTitle": "GPU高速化のためにGPUで計算する個別のモデルレイヤー数", + "embedding.load.llama.acceleration.offloadRatio/info": "GPUにオフロードするレイヤー数を設定します。", "embedding.load.llama.keepModelInMemory/title": "モデルをメモリに保持", - "embedding.load.llama.keepModelInMemory/subTitle": "モデルがGPUにオフロードされていても、システムメモリにモデルを保持します。これによりパフォーマンスが向上しますが、システムRAMを多く消費します。", - "embedding.load.llama.keepModelInMemory/info": "モデルがストレージにスワップアウトされるのを防ぎ、より高速なアクセスを可能にしますが、RAMの使用量が増加します。", - "embedding.load.llama.tryMmap/title": "mmap()を試す", - "embedding.load.llama.tryMmap/subTitle": "モデルの読み込み時間を短縮します。モデルのサイズがシステムRAMの容量を超える場合は、これを無効にするとパフォーマンスが向上することがあります。", - "embedding.load.llama.tryMmap/info": "モデルファイルをディスクからメモリに直接読み込みます。", - "embedding.load.seed/title": "シード値", - "embedding.load.seed/subTitle": "テキスト生成に使用される乱数生成器のシード値。-1でランダムになります。", - "embedding.load.seed/info": "ランダムシード値: 乱数生成のシード値を設定して、再現可能な結果を得られるようにします。", + "embedding.load.llama.keepModelInMemory/subTitle": "GPUにオフロードした場合でも、モデル用にシステムメモリを予約します。パフォーマンスが向上しますが、より多くのシステムRAMが必要です", + "embedding.load.llama.keepModelInMemory/info": "モデルがディスクにスワップされることを防ぎ、RAMの使用量増加を犠牲により高速なアクセスを保証します", + "embedding.load.llama.tryMmap/title": "mmap() を試行", + "embedding.load.llama.tryMmap/subTitle": "モデルの読み込み時間が改善されます。利用可能なシステムRAMよりもモデルが大きい場合は、これを無効にするとパフォーマンスが向上する可能性があります", + "embedding.load.llama.tryMmap/info": "モデルファイルをディスクから直接メモリに読み込みます", + "embedding.load.seed/title": "Seed", + "embedding.load.seed/subTitle": "テキスト生成で使用される乱数ジェネレータのシード。-1はランダムシードです", + + "embedding.load.seed/info": "ランダムシード:再現可能な結果を保証するために、乱数生成のシードを設定します", + "presetTooltip": { - "included/title": "適用される項目", - "included/description": "次のフィールドが適用されます", - "included/empty": "このコンテキストで適用されるフィールドはありません。", - "included/conflict": "この値を適用するかどうか、このあと選択を求められます", - "separateLoad/title": "ロード時の設定", - "separateLoad/description.1": "プリセットには以下のロード時設定も含まれています。ロード時の設定はモデル全体に適用され、効果を発揮するにはモデルの再読み込みが必要です。ホールド", - "separateLoad/description.2": "して適用するには", - "separateLoad/description.3": "を押してください。", - "excluded/title": "適用されない項目", - "excluded/description": "次のフィールドはプリセットに含まれていますが、現在のコンテキストでは適用されません。", + "included/title": "プリセット値", + "included/description": "以下のフィールドが適用されます", + "included/empty": "このプリセットのフィールドはこのコンテキストで適用されません。", + "included/conflict": "この値を適用するかどうか選択を求められます", + "separateLoad/title": "読み込み時設定", + "separateLoad/description.1": "プリセットには以下の読み込み時設定も含まれています。読み込み時設定はモデル全体に適用され、効果を有効にするにはモデルの再読み込みが必要です。", + "separateLoad/description.2": "を押しながらクリックして", + "separateLoad/description.3": "に適用します。", + "excluded/title": "適用されない可能性があります", + "excluded/description": "以下のフィールドはプリセットに含まれていますが、現在のコンテキストでは適用されません。", "legacy/title": "レガシープリセット", - "legacy/description": "このプリセットはレガシープリセットです。次のフィールドは現在自動的に処理されるか、もはや適用されません。" + "legacy/description": "これはレガシープリセットです。現在では自動的に処理されるか、もはや適用できない以下のフィールドが含まれています。", + "button/publish": "Hubに公開", + "button/pushUpdate": "変更をHubにプッシュ", + "button/noChangesToPush": "プッシュする変更がありません", + "button/export": "エクスポート", + "hubLabel": "{{user}}によるHubからのプリセット", + "ownHubLabel": "Hubにある自分のプリセット" }, + "customInputs": { "string": { "emptyParagraph": "<空>" @@ -154,57 +253,101 @@ "checkboxNumeric": { "off": "オフ" }, + "llamaCacheQuantizationType": { + "off": "オフ" + }, + "mlxKvCacheBits": { + "off": "オフ" + }, "stringArray": { "empty": "<空>" }, "llmPromptTemplate": { "type": "タイプ", - "types.jinja/label": "Jinja", + "types.jinja/label": "テンプレート(Jinja)", "jinja.bosToken/label": "BOSトークン", "jinja.eosToken/label": "EOSトークン", "jinja.template/label": "テンプレート", - "jinja/error": "Jinjaテンプレートの解析に失敗しました: {{error}}", - "jinja/empty": "上部にJinjaテンプレートを入力してください。", - "jinja/unlikelyToWork": "入力されたJinjaテンプレートは、変数\"messages\"を参照していないため、正しく動作しない可能性があります。正しいテンプレートが入力されているかもう一度確認してください。", - "types.manual/label": "マニュアル", + "jinja/error": "Jinjaテンプレートの解析に失敗しました:{{error}}", + "jinja/empty": "上記にJinjaテンプレートを入力してください。", + "jinja/unlikelyToWork": "上記に提供されたJinjaテンプレートは、変数「messages」を参照していないため機能しない可能性があります。正しいテンプレートを入力したかご確認ください。", + "types.manual/label": "手動", "manual.subfield.beforeSystem/label": "システムの前", - "manual.subfield.beforeSystem/placeholder": "システムのプレフィックスを入力...", + "manual.subfield.beforeSystem/placeholder": "システムプレフィックスを入力...", "manual.subfield.afterSystem/label": "システムの後", - "manual.subfield.afterSystem/placeholder": "システムのサフィックスを入力...", + "manual.subfield.afterSystem/placeholder": "システムサフィックスを入力...", "manual.subfield.beforeUser/label": "ユーザーの前", - "manual.subfield.beforeUser/placeholder": "ユーザーのプレフィックスを入力...", + "manual.subfield.beforeUser/placeholder": "ユーザープレフィックスを入力...", "manual.subfield.afterUser/label": "ユーザーの後", - "manual.subfield.afterUser/placeholder": "ユーザーのサフィックスを入力...", + "manual.subfield.afterUser/placeholder": "ユーザーサフィックスを入力...", "manual.subfield.beforeAssistant/label": "アシスタントの前", - "manual.subfield.beforeAssistant/placeholder": "アシスタントのプレフィックスを入力...", + "manual.subfield.beforeAssistant/placeholder": "アシスタントプレフィックスを入力...", "manual.subfield.afterAssistant/label": "アシスタントの後", - "manual.subfield.afterAssistant/placeholder": "アシスタントのサフィックスを入力...", - "stopStrings/label": "追加の停止文字列", - "stopStrings/subTitle": "テンプレート固有の停止文字列で、ユーザー指定の停止文字列に加えて使用されます。" + "manual.subfield.afterAssistant/placeholder": "アシスタントサフィックスを入力...", + "stopStrings/label": "追加停止文字列", + "stopStrings/subTitle": "ユーザー指定の停止文字列に加えて使用される、テンプレート固有の停止文字列。" }, "contextLength": { - "maxValueTooltip": "これはモデルが処理できる最大のトークン数です。この値に設定するにはクリックしてください。", + "maxValueTooltip": "これは、モデルが処理するために訓練された最大トークン数です。クリックしてコンテキストをこの値に設定します", "maxValueTextStart": "モデルは最大で", "maxValueTextEnd": "トークンをサポートします", - "tooltipHint": "モデルが一定数のトークンをサポートしていても、マシンのリソースが処理負荷に対して低い場合はパフォーマンスが低下する可能性があります。値を増やす際は注意してください。" + "tooltipHint": "モデルは特定の数のトークンまでサポートしていても、マシンのリソースが負荷を処理できない場合はパフォーマンスが劣化する可能性があります - この値を増加させる際は注意してください" }, "contextOverflowPolicy": { - "stopAtLimit": "上限で停止", - "stopAtLimitSub": "モデルのメモリがいっぱいになったら生成を停止", - "truncateMiddle": "中間を切り捨て", - "truncateMiddleSub": "会話の中間部分を削除して新しいメッセージにスペースを作ります。モデルは会話の最初の部分を覚えています。", + "stopAtLimit": "制限で停止", + "stopAtLimitSub": "モデルのメモリが満杯になったら生成を停止します", + "truncateMiddle": "中間を切り詰め", + "truncateMiddleSub": "新しいメッセージのためのスペースを作るために、会話の中間部分からメッセージを削除します。モデルは会話の最初の部分は記憶しています", "rollingWindow": "ローリングウィンドウ", - "rollingWindowSub": "モデルは常に最新のメッセージを数件取得しますが、会話の最初の部分を忘れる可能性があります。" + "rollingWindowSub": "モデルは常に最新の数メッセージを取得しますが、会話の最初の部分を忘れる可能性があります" }, "llamaAccelerationOffloadRatio": { "max": "最大", "off": "オフ" + }, + "gpuSplitStrategy": { + "evenly": "均等に", + "favorMainGpu": "メインGPUを優先" + }, + "speculativeDecodingDraftModel": { + "readMore": "動作原理を読む", + "placeholder": "互換性のあるドラフトモデルを選択", + "noCompatible": "現在のモデル選択に対応する互換性のあるドラフトモデルが見つかりません", + "stillLoading": "互換性のあるドラフトモデルを識別しています...", + "notCompatible": "選択されたドラフトモデル()は現在のモデル選択()と互換性がありません。", + "off": "オフ", + "loadModelToSeeOptions": "互換性のあるオプションを確認するにはモデルを読み込んでください ", + "compatibleWithNumberOfModels": "あなたのモデルの少なくとも{{dynamicValue}}個に推奨されます", + "recommendedForSomeModels": "いくつかのモデルに推奨されます", + "recommendedForLlamaModels": "Llamaモデルに推奨されます", + "recommendedForQwenModels": "Qwenモデルに推奨されます", + "onboardingModal": { + "introducing": "紹介", + "speculativeDecoding": "推測デコーディング", + "firstStepBody": "llama.cppMLXモデルの推論高速化", + "secondStepTitle": "推測デコーディングによる推論高速化", + "secondStepBody": "推測デコーディングは、2つのモデルの協調を含む技術です:\n - 大きな「メイン」モデル\n - 小さな「ドラフト」モデル\n\n生成中、ドラフトモデルは大きなメインモデルが検証するためのトークンを迅速に提案します。トークンの検証は、実際にそれらを生成するよりもはるかに高速なプロセスであり、これが高速化の源泉です。**一般的に、メインモデルとドラフトモデルのサイズ差が大きいほど、高速化も大きくなります**。\n\n品質を維持するため、メインモデルは自身が生成したであろうものと一致するトークンのみを受け入れ、より大きなモデルの応答品質をより高速な推論速度で実現します。両モデルは同じ語彙を共有する必要があります。", + "draftModelRecommendationsTitle": "ドラフトモデルの推奨", + "basedOnCurrentModels": "現在のモデルに基づく", + "close": "閉じる", + "next": "次へ", + "done": "完了" + }, + "speculativeDecodingLoadModelToSeeOptions": "最初にモデルを読み込んでください ", + "errorEngineNotSupported": "推測デコーディングにはエンジン{{engineName}}のバージョン{{minVersion}}以上が必要です。エンジンを更新し()、この機能を使用するためにモデルを再読み込みしてください。", + "errorEngineNotSupported/noKey": "推測デコーディングにはエンジン{{engineName}}のバージョン{{minVersion}}以上が必要です。エンジンを更新し、この機能を使用するためにモデルを再読み込みしてください。" + }, + "llmReasoningParsing": { + "startString/label": "開始文字列", + "startString/placeholder": "開始文字列を入力...", + "endString/label": "終了文字列", + "endString/placeholder": "終了文字列を入力..." } }, "saveConflictResolution": { - "title": "プリセットに含める値を選択してください", + "title": "プリセットに含める値を選択", "description": "保持する値を選択してください", - "instructions": "値をクリックして含めます", + "instructions": "値をクリックして含めてください", "userValues": "以前の値", "presetValues": "新しい値", "confirm": "確認", @@ -212,33 +355,41 @@ }, "applyConflictResolution": { "title": "どの値を保持しますか?", - "description": "未適用の変更が受信したプリセットと重複しています", - "instructions": "保持する値をクリックしてください", + "description": "受信プリセットと重複する未コミットの変更があります", + "instructions": "保持したい値をクリックしてください", "userValues": "現在の値", - "presetValues": "受信したプリセットの値", + "presetValues": "受信プリセット値", "confirm": "確認", "cancel": "キャンセル" }, + "empty": "<空>", + "noModelSelected": "モデルが選択されていません", + "apiIdentifier.label": "API識別子", + "apiIdentifier.hint": "オプションで、このモデルの識別子を提供してください。これはAPIリクエストで使用されます。空白のままにするとデフォルトの識別子を使用します。", + "idleTTL.label": "アイドル時自動アンロード(TTL)", + "idleTTL.hint": "設定すると、モデルは指定された時間アイドル状態が続いた後に自動的にアンロードされます。", + "idleTTL.mins": "分", + "presets": { "title": "プリセット", - "commitChanges": "変更を適用", - "commitChanges/description": "変更をプリセットに適用します。", - "commitChanges.manual": "新しいフィールドが検出されました。どの変更をプリセットに含めるか選択できます。", - "commitChanges.manual.hold.0": "長押し", - "commitChanges.manual.hold.1": "してプリセットに適用する変更を選択してください。", - "commitChanges.saveAll.hold.0": "長押し", - "commitChanges.saveAll.hold.1": "してすべての変更を保存します。", - "commitChanges.saveInPreset.hold.0": "長押し", - "commitChanges.saveInPreset.hold.1": "してプリセットにすでに含まれているフィールドの変更だけを保存します。", - "commitChanges/error": "プリセットへの変更の適用に失敗しました。", + "commitChanges": "変更をコミット", + "commitChanges/description": "変更をプリセットにコミットします。", + "commitChanges.manual": "新しいフィールドが検出されました。プリセットに含める変更を選択できます。", + "commitChanges.manual.hold.0": "押しながら", + "commitChanges.manual.hold.1": "をクリックして、プリセットにコミットする変更を選択してください。", + "commitChanges.saveAll.hold.0": "押しながら", + "commitChanges.saveAll.hold.1": "をクリックして、すべての変更を保存してください。", + "commitChanges.saveInPreset.hold.0": "押しながら", + "commitChanges.saveInPreset.hold.1": "をクリックして、プリセットに既に含まれているフィールドのみの変更を保存してください。", + "commitChanges/error": "プリセットへの変更のコミットに失敗しました。", "commitChanges.manual/description": "プリセットに含める変更を選択してください。", - "saveAs": "新しいプリセットとして保存...", - "presetNamePlaceholder": "プリセット名を入力してください...", - "cannotCommitChangesLegacy": "これはレガシープリセットのため、変更はできません。「新しいプリセットとして保存」を使用してコピーを作成できます。", - "cannotCommitChangesNoChanges": "適用する変更がありません。", + "saveAs": "新規保存...", + "presetNamePlaceholder": "プリセットの名前を入力...", + "cannotCommitChangesLegacy": "これはレガシープリセットで変更できません。「新規保存...」を使用してコピーを作成できます。", + "cannotCommitChangesNoChanges": "コミットする変更がありません。", "emptyNoUnsaved": "プリセットを選択...", "emptyWithUnsaved": "未保存のプリセット", - "saveEmptyWithUnsaved": "プリセットを名前を付けて保存...", + "saveEmptyWithUnsaved": "プリセットに名前を付けて保存...", "saveConfirm": "保存", "saveCancel": "キャンセル", "saving": "保存中...", @@ -247,14 +398,217 @@ "deselect/error": "プリセットの選択解除に失敗しました。", "select/error": "プリセットの選択に失敗しました。", "delete/error": "プリセットの削除に失敗しました。", - "discardChanges": "未保存の変更を破棄", - "discardChanges/info": "未保存の全ての変更を破棄し、プリセットを元の状態に戻します。", - "newEmptyPreset": "新しい空のプリセットを作成...", - "contextMenuSelect": "プリセットを選択", - "contextMenuDelete": "削除" + "discardChanges": "未保存を破棄", + "discardChanges/info": "すべての未コミット変更を破棄し、プリセットを元の状態に復元します", + "newEmptyPreset": "+ 新しいプリセット", + "importPreset": "インポート", + "contextMenuCopyIdentifier": "プリセット識別子をコピー", + "contextMenuSelect": "プリセットを適用", + "contextMenuDelete": "削除...", + "contextMenuShare": "公開...", + "contextMenuOpenInHub": "Webで表示", + "contextMenuPullFromHub": "最新を取得", + "contextMenuPushChanges": "変更をHubにプッシュ", + "contextMenuPushingChanges": "プッシュ中...", + "contextMenuPushedChanges": "変更がプッシュされました", + "contextMenuExport": "ファイルをエクスポート", + "contextMenuRevealInExplorer": "エクスプローラーで表示", + "contextMenuRevealInFinder": "Finderで表示", + "share": { + "title": "プリセットを公開", + "action": "他の人がダウンロード、いいね、フォークできるようにプリセットを共有します", + "presetOwnerLabel": "所有者", + "uploadAs": "あなたのプリセットは{{name}}として作成されます", + "presetNameLabel": "プリセット名", + "descriptionLabel": "説明(オプション)", + "loading": "公開中...", + "success": "プリセットの公開が完了しました", + "presetIsLive": "がHubで公開されました!", + "close": "閉じる", + "confirmViewOnWeb": "Webで表示", + "confirmCopy": "URLをコピー", + "confirmCopied": "コピー完了!", + "pushedToHub": "プリセットがHubにプッシュされました", + "descriptionPlaceholder": "説明を入力...", + "willBePublic": "このプリセットは公開されます。インターネット上の誰でも見ることができます。", + "willBePrivate": "このプリセットはあなたのみが表示できます", + "willBeOrgVisible": "このプリセットは組織内のすべてのメンバーに表示されます。", + "publicSubtitle": "あなたのプリセットは公開されています。他の人がlmstudio.aiでダウンロードやフォークができます", + "privateUsageReached": "プライベートプリセット数の上限に達しました。", + "continueInBrowser": "ブラウザで続行", + "confirmShareButton": "公開", + "error": "プリセットの公開に失敗しました", + "createFreeAccount": "Hubで無料アカウントを作成してプリセットを公開しましょう" + }, + "update": { + "title": "変更をHubにプッシュ", + "title/success": "プリセットの更新が完了しました", + "subtitle": "に変更を加えてHubにプッシュします", + "descriptionLabel": "説明", + "descriptionPlaceholder": "説明を入力...", + "loading": "プッシュ中...", + "cancel": "キャンセル", + "createFreeAccount": "Hubで無料アカウントを作成してプリセットを公開しましょう", + "error": "更新のプッシュに失敗しました", + "confirmUpdateButton": "プッシュ" + }, + "resolve": { + "title": "競合を解決...", + "tooltip": "Hubバージョンとの差分を解決するためのモーダルを開きます" + }, + "loginToManage": { + "title": "管理するにはログイン..." + }, + "downloadFromHub": { + "title": "ダウンロード", + "downloading": "ダウンロード中...", + "success": "ダウンロード完了!", + "error": "ダウンロードに失敗しました" + }, + "push": { + "title": "変更をプッシュ", + "pushing": "プッシュ中...", + "success": "プッシュ完了", + "tooltip": "ローカルの変更をHubでホストされているリモートバージョンにプッシュします", + "error": "プッシュに失敗しました" + }, + "saveAsNewModal": { + "title": "おっと!Hubでプリセットが見つかりませんでした", + "confirmSaveAsNewDescription": "このプリセットを新しいプリセットとして公開しますか?", + "confirmButton": "新規として公開" + }, + "pull": { + "title": "最新を取得", + "error": "取得に失敗しました", + "contextMenuErrorMessage": "取得に失敗しました", + "success": "取得完了", + "pulling": "取得中...", + "upToDate": "最新です!", + "unsavedChangesModal": { + "title": "未保存の変更があります。", + "bodyContent": "リモートからの取得により、未保存の変更が上書きされます。続行しますか?", + "confirmButton": "未保存の変更を上書き" + } + }, + "import": { + "title": "ファイルからプリセットをインポート", + "dragPrompt": "プリセットファイル(.tar.gz または preset.json)をドラッグ&ドロップするか、コンピューターから選択してください", + "remove": "削除", + "cancel": "キャンセル", + "importPreset_zero": "プリセットをインポート", + "importPreset_one": "プリセットをインポート", + "importPreset_other": "{{count}}個のプリセットをインポート", + "selectDialog": { + "title": "プリセットファイルを選択(preset.json または .tar.gz)", + "button": "インポート" + }, + "error": "プリセットのインポートに失敗しました", + "resultsModal": { + "titleSuccessSection_one": "1個のプリセットを正常にインポートしました", + "titleSuccessSection_other": "{{count}}個のプリセットを正常にインポートしました", + "titleFailSection_zero": "", + "titleFailSection_one": "({{count}}個が失敗)", + "titleFailSection_other": "({{count}}個が失敗)", + "titleAllFailed": "プリセットのインポートに失敗しました", + "importMore": "さらにインポート", + "close": "完了", + "successBadge": "成功", + "alreadyExistsBadge": "プリセットは既に存在します", + "errorBadge": "エラー", + "invalidFileBadge": "無効なファイル", + "otherErrorBadge": "プリセットのインポートに失敗しました", + "errorViewDetailsButton": "詳細を表示", + "seeError": "エラーを確認", + "noName": "プリセット名なし", + "useInChat": "チャットで使用" + }, + "importFromUrl": { + "button": "URLからインポート...", + "title": "URLからインポート", + "back": "ファイルからインポート...", + "action": "インポートしたいプリセットのLM Studio Hub URLを以下に貼り付けてください", + "invalidUrl": "無効なURLです。正しいLM Studio Hub URLを貼り付けていることを確認してください。", + "tip": "LM Studio Hubの{{buttonName}}ボタンでプリセットを直接インストールできます", + "confirm": "インポート", + "cancel": "キャンセル", + "loading": "インポート中...", + "error": "プリセットのダウンロードに失敗しました。" + } + }, + "download": { + "title": "LM Studio Hubからを取得", + "subtitle": "をプリセットに保存します。これにより、このプリセットをアプリで使用できるようになります", + "button": "取得", + "button/loading": "取得中...", + "cancel": "キャンセル", + "error": "プリセットのダウンロードに失敗しました。" + }, + "inclusiveness": { + "speculativeDecoding": "プリセットに含める" + } }, - "flashAttentionWarning": "Flash Attention は実験的な機能であり、特定のモデルで問題を引き起こす可能性があります。問題が発生した場合は無効にしてみてください。", + + "flashAttentionWarning": "Flash Attentionは一部のモデルで問題を引き起こす可能性のある実験的機能です。問題が発生した場合は、無効にしてみてください。", + "llamaKvCacheQuantizationWarning": "KVキャッシュ量子化は一部のモデルで問題を引き起こす可能性のある実験的機能です。Vキャッシュ量子化にはFlash Attentionを有効にする必要があります。問題が発生した場合は、デフォルトの「F16」にリセットしてください。", + "seedUncheckedHint": "ランダムシード", "ropeFrequencyBaseUncheckedHint": "自動", - "ropeFrequencyScaleUncheckedHint": "自動" + "ropeFrequencyScaleUncheckedHint": "自動", + + "hardware": { + "environmentVariables": "環境変数", + "environmentVariables.info": "不明な場合は、これらをデフォルト値のままにしてください", + "environmentVariables.reset": "デフォルトにリセット", + + "gpus.information": "マシンで検出されたグラフィックス処理装置(GPU)を設定します", + "gpuSettings": { + "editMaxCapacity": "最大容量を編集", + "hideEditMaxCapacity": "最大容量の編集を非表示", + "allOffWarning": "すべてのGPUがオフまたは無効になっています。モデルの読み込みを有効にするために、いくつかのGPU割り当てがあることを確認してください", + "split": { + "title": "戦略", + "placeholder": "GPUメモリ割り当てを選択", + "options": { + "generalDescription": "モデルがGPUにどのように読み込まれるかを設定します", + "evenly": { + "title": "均等に分割", + "description": "GPU間でメモリを均等に割り当てます" + }, + "priorityOrder": { + "title": "優先順位", + "description": "ドラッグして優先順位を変更します。システムは最初にリストされたGPUにより多くを割り当てようとします" + }, + "custom": { + "title": "カスタム", + "description": "メモリを割り当て", + "maxAllocation": "最大割り当て" + } + } + }, + "deviceId.info": "このデバイスの一意識別子", + "changesOnlyAffectNewlyLoadedModels": "変更は新たに読み込まれるモデルにのみ影響します", + "toggleGpu": "GPUを有効/無効にする" + } + }, + + "load.gpuSplitConfig/title": "GPU分割設定", + "envVars/title": "環境変数を設定", + "envVars": { + "select": { + "placeholder": "環境変数を選択...", + "noOptions": "利用可能な項目がありません", + "filter": { + "placeholder": "検索結果をフィルタリング", + "resultsFound_zero": "結果が見つかりません", + "resultsFound_one": "1件の結果が見つかりました", + "resultsFound_other": "{{count}}件の結果が見つかりました" + } + }, + "inputValue": { + "placeholder": "値を入力してください" + }, + "values": { + "title": "現在の値" + } + } } diff --git a/ja/developer.json b/ja/developer.json index 6865e1b6..87be85ed 100644 --- a/ja/developer.json +++ b/ja/developer.json @@ -1,59 +1,179 @@ { "tabs/server": "ローカルサーバー", - "tabs/extensions": "LMランタイム", + "tabs/extensions": "LM Runtimes", "loadSettings/title": "設定を読み込む", - "modelSettings/placeholder": "設定するモデルを選択", + "modelSettings/placeholder": "構成するモデルを選択", + "loadedModels/noModels": "モデルが読み込まれていません", + "serverOptions/title": "サーバーオプション", - "serverOptions/configurableTitle": "設定可能なオプション", - "serverOptions/port/hint": "ローカルサーバーが使用するネットワークポートを設定します。デフォルトでは、LM Studioはポート1234を使用します。このポートが既に使用されている場合は、変更する必要があります。", + "serverOptions/configurableTitle": "構成可能なオプション", + "serverOptions/port/hint": "ローカルサーバーが使用するネットワークポートを設定します。デフォルトでは、LM Studioはポート1234を使用します。このポートがすでに使用されている場合は、変更する必要があります。", "serverOptions/port/subtitle": "リッスンするポート", - "serverOptions/autostart/title": "サーバーの自動起動", - "serverOptions/autostart/hint": "モデルが読み込まれた際に自動でローカルサーバーを起動します", - "serverOptions/port/integerWarning": "ポート番号は整数でなければなりません", + "serverOptions/autostart/title": "自動起動サーバー", + "serverOptions/autostart/hint": "アプリまたはサービスの起動時にLM StudioのローカルLLMsサーバーを自動的にオンにします", + "serverOptions/port/integerWarning": "ポート番号は整数である必要があります", "serverOptions/port/invalidPortWarning": "ポートは1から65535の間である必要があります", "serverOptions/cors/title": "CORSを有効にする", - "serverOptions/cors/hint1": "CORS(クロスオリジンリソース共有)を有効にすると、アクセスしたウェブサイトがLM Studioサーバーにリクエストを送信できるようになります。", - "serverOptions/cors/hint2": "CORSはウェブページやVS Code、その他の拡張機能からリクエストを送信する際に必要になる場合があります。", + "serverOptions/cors/hint1": "CORS(Cross-origin Resource Sharing)を有効にすると、訪問するウェブサイトがLM Studioサーバーにリクエストを送信できるようになります。", + "serverOptions/cors/hint2": "CORSは、ウェブページやVS Code / 他の拡張機能からリクエストを送信する際に必要になる場合があります。", "serverOptions/cors/subtitle": "クロスオリジンリクエストを許可する", - "serverOptions/network/title": "ローカルネットワークでサービング", - "serverOptions/network/subtitle": "サーバーをネットワーク上のデバイスに公開", - "serverOptions/network/hint1": "他のネットワークデバイスからの接続を許可するかどうかを設定します。", - "serverOptions/network/hint2": "チェックを外した場合、サーバーはlocalhostのみをリッスンします。", - "serverOptions/verboseLogging/title": "詳細ログを有効にする", - "serverOptions/verboseLogging/subtitle": "ローカルサーバーの詳細なログを有効にする", + "serverOptions/network/title": "ローカルネットワークで提供", + "serverOptions/network/subtitle": "ネットワーク上のデバイスにサーバーを公開", + "serverOptions/network/hint1": "ネットワーク上の他のデバイスからの接続を許可するかどうか。", + "serverOptions/network/hint2": "チェックされていない場合、サーバーはlocalhostのみでリッスンします。", + "serverOptions/verboseLogging/title": "詳細ログ", + "serverOptions/verboseLogging/subtitle": "ローカルサーバーの詳細ログを有効にします", "serverOptions/contentLogging/title": "プロンプトとレスポンスをログに記録", "serverOptions/contentLogging/subtitle": "ローカルリクエスト/レスポンスのログ設定", - "serverOptions/contentLogging/hint": "ローカルサーバーログファイルにプロンプトやレスポンスを記録するかどうかを設定します。", - "serverOptions/jitModelLoading/title": "JITモデル読み込み", - "serverOptions/jitModelLoading/hint": "有効にすると、リクエストで指定されたモデルが未読み込みの場合、自動的に読み込まれ使用されます。さらに、\"/v1/models\" エンドポイントにもまだ読み込まれていないモデルが含まれるようになります。", + "serverOptions/contentLogging/hint": "ローカルサーバーログファイルにプロンプトおよび/またはレスポンスを記録するかどうか。", + "serverOptions/redactContent/title": "コンテンツを編集", + "serverOptions/redactContent/hint": "有効にすると、リクエストやレスポンスの内容などの機密データがログに記録されないようにします。", + "serverOptions/logIncomingTokens/title": "受信トークンをログに記録", + "serverOptions/logIncomingTokens/hint": "生成中の各トークンをログに記録するかどうか。", + "serverOptions/fileLoggingMode/title": "ファイルログモード", + "serverOptions/fileLoggingMode/off/title": "OFF", + "serverOptions/fileLoggingMode/off/hint": "ログファイルを作成しない", + "serverOptions/fileLoggingMode/succinct/title": "簡潔", + "serverOptions/fileLoggingMode/succinct/hint": "コンソールと同じ内容をログに記録します。長いリクエストは切り捨てられます。", + "serverOptions/fileLoggingMode/full/title": "フル", + "serverOptions/fileLoggingMode/full/hint": "長いリクエストを切り捨てないでください。", + "serverOptions/jitModelLoading/title": "ジャストインタイムモデルロード", + "serverOptions/jitModelLoading/hint": "有効にすると、リクエストで指定されたモデルが読み込まれていない場合、自動的に読み込まれて使用されます。さらに、\"/v1/models\"エンドポイントには、まだ読み込まれていないモデルも含まれます。", "serverOptions/loadModel/error": "モデルの読み込みに失敗しました", - "serverLogs/scrollToBottom": "一番下にジャンプ", + "serverOptions/jitModelLoadingTTL/title": "未使用のJITロードモデルを自動的にアンロード", + "serverOptions/jitModelLoadingTTL/hint": "APIリクエストに応じてジャストインタイム(JIT)で読み込まれたモデルは、一定期間(TTL)使用されなかった場合に自動的にアンロードされます。", + "serverOptions/jitModelLoadingTTL/ttl/label": "最大アイドルTTL", + "serverOptions/jitModelLoadingTTL/ttl/unit": "分", + "serverOptions/unloadPreviousJITModelOnLoad/title": "最後のJITロードモデルのみを保持", + "serverOptions/unloadPreviousJITModelOnLoad/hint": "任意の時点でJITを介してロードされるモデルは最大1つに制限されます(以前のモデルはアンロードされます)", + + "serverLogs/scrollToBottom": "一番下に移動", "serverLogs/clearLogs": "ログをクリア ({{shortcut}})", - "serverLogs/openLogsFolder": "サーバーログフォルダを開く", + "serverLogs/openLogsFolder": "サーバーログフォルダーを開く", + "runtimeSettings/title": "ランタイム設定", - "runtimeSettings/chooseRuntime/title": "ランタイムの設定", - "runtimeSettings/chooseRuntime/description": "各モデルフォーマットに対してランタイムを選択", - "runtimeSettings/chooseRuntime/showAllVersions/label": "全バージョンを表示", - "runtimeSettings/chooseRuntime/showAllVersions/hint": "デフォルトでは、LM Studioは各ランタイムの最新バージョンのみを表示します。このオプションを有効にすると、利用可能な全バージョンが表示されます。", - "runtimeSettings/chooseRuntime/select/placeholder": "ランタイムを選択", + "runtimeSettings/chooseRuntime/title": "選択", + "runtimeSettings/chooseRuntime/description": "各モデルフォーマットに使用するエンジンを選択します", + "runtimeSettings/chooseRuntime/showAllVersions/label": "すべての拡張パックを表示", + "runtimeSettings/chooseRuntime/showAllVersions/hint": "デフォルトでは、LM Studioは各拡張パックの最新バージョンのみを表示します。このオプションを有効にすると、すべての利用可能な拡張パックが表示されます。", + "runtimeSettings/chooseRuntime/select/placeholder": "エンジンを選択", + + "runtimeSettings/chooseFrameworks/title": "フレームワーク", + "runtimeSettings/chooseFrameworks/description": "各機能に使用するフレームワークを選択してください", + "runtimeSettings/chooseFramework/documentParser/builtIn/label": "組み込みパーサー", + "runtimeSettings/chooseFramework/documentParser/select/label": "ドキュメントパーサー", + "runtimeSettings/chooseFramework/documentParser/select/placeholder": "ドキュメントパーサーを選択", + "runtimeOptions/uninstall": "アンインストール", - "runtimeOptions/uninstallDialog/title": "{{runtimeName}} をアンインストールしますか?", + "runtimeOptions/uninstallDialog/title": "{{runtimeName}}をアンインストールしますか?", "runtimeOptions/uninstallDialog/body": "このランタイムをアンインストールすると、システムから削除されます。この操作は元に戻せません。", - "runtimeOptions/uninstallDialog/body/caveats": "一部のファイルはLM Studioを再起動後にのみ削除される場合があります。", + "runtimeOptions/uninstallDialog/body/caveats": "一部のファイルはLM Studioの再起動後にのみ削除される場合があります。", "runtimeOptions/uninstallDialog/error": "ランタイムのアンインストールに失敗しました", "runtimeOptions/uninstallDialog/confirm": "続行してアンインストール", "runtimeOptions/uninstallDialog/cancel": "キャンセル", "runtimeOptions/noCompatibleRuntimes": "互換性のあるランタイムが見つかりません", - "runtimeOptions/downloadIncompatibleRuntime": "このランタイムはお使いのマシンでは互換性がないと判断されました。おそらく動作しません。", + "runtimeOptions/downloadIncompatibleRuntime": "このランタイムはお使いのマシンと互換性がないと判断されました。正常に動作しない可能性があります。", "runtimeOptions/noRuntimes": "ランタイムが見つかりません", - "inferenceParams/noParams": "このモデルタイプには設定可能な推論パラメーターがありません", - "endpoints/openaiCompatRest/title": "サポートされているエンドポイント (OpenAI互換)", - "endpoints/openaiCompatRest/getModels": "現在読み込まれているモデルを一覧表示", - "endpoints/openaiCompatRest/postCompletions": "テキスト補完モード。プロンプトをもとに次のトークンを予測します。注:OpenAIではこのエンドポイントを「非推奨」としています。", - "endpoints/openaiCompatRest/postChatCompletions": "チャット補完。チャット履歴をモデルに送信して、次のアシスタントレスポンスを予測します", - "endpoints/openaiCompatRest/postEmbeddings": "テキストの埋め込み(Embedding)。指定されたテキスト入力に対して埋め込みを生成します。文字列または文字列の配列を受け取ります。", - "model.createVirtualModelFromInstance": "設定を新しいバーチャルモデルとして保存", - "model.createVirtualModelFromInstance/error": "設定のバーチャルモデルとしての保存に失敗しました", + + "runtimes": { + "manageLMRuntimes": "LMランタイムの管理", + "includeOlderRuntimeVersions": "古いバージョンも含める", + "dismiss": "閉じる", + "updateAvailableToast": { + "title": "LMランタイムのアップデートがあります!" + }, + "updatedToast": { + "title": " ✅ LMランタイムが更新されました: {{runtime}} → v{{version}}", + "preferencesUpdated": "新しくロードされた{{compatibilityTypes}}モデルは更新されたランタイムを使用します。" + }, + "noAvx2ErrorMessage": "すべてのLMランタイムは現在AVX2対応CPUが必要です", + "downloadableRuntimes": { + "runtimeExtensionPacks": "ランタイム拡張パック", + "refresh": "更新", + "refreshing": "更新中...", + "filterSegment": { + "compatibleOnly": "互換性のみ", + "all": "すべて" + }, + "card": { + "releaseNotes": "リリースノート", + "latestVersionInstalled": "最新バージョンがインストール済み", + "updateAvailable": "アップデート可能" + } + }, + "installedRuntimes": { + "manage": { + "title": "アクティブランタイムの管理" + }, + "dropdownOptions": { + "installedVersions": "バージョン管理", + "close": "閉じる" + }, + "tabs": { + "all": "すべて", + "frameworks": "マイフレームワーク", + "engines": "マイエンジン" + }, + "detailsModal": { + "installedVersions": "{{runtimeName}}のインストール済みバージョン", + "manifestJsonTitle": "マニフェストJSON(詳細)", + "releaseNotesTitle": "リリースノート", + "noReleaseNotes": "このバージョンのリリースノートはありません", + "back": "戻る", + "close": "閉じる" + }, + "noEngines": "エンジンがインストールされていません", + "noFrameworks": "フレームワークがインストールされていません" + } + }, + + "inferenceParams/noParams": "このモデルタイプには設定可能な推論パラメータがありません", + + "quickDocs": { + "tabChipTitle": "クイックドキュメント", + "newToolUsePopover": "コードスニペットが\"クイックドキュメント\"で利用可能になりました。ツールの使い方はこちらをクリック!", + "newToolUsePopoverTitle": "📚 クイックドキュメント", + "learnMore": "ℹ️ 👾 LM Studioローカルサーバーのエンドポイントについて詳しくは[ドキュメント](https://lmstudio.ai/docs)をご覧ください。", + "helloWorld": { + "title": "Hello, World!" + }, + "chat": { + "title": "チャット" + }, + "structuredOutput": { + "title": "構造化出力" + }, + "imageInput": { + "title": "画像入力" + }, + "embeddings": { + "title": "埋め込み" + }, + "toolUse": { + "title": "ツール利用", + "tab": { + "saveAsPythonFile": "Pythonファイルとして保存", + "runTheScript": "スクリプトを実行:", + "savePythonFileCopyPaste": "コピペ用Pythonファイルとして保存" + } + }, + "newBadge": "新規" + }, + + "endpoints/openaiCompatRest/title": "対応エンドポイント(OpenAI互換)", + "endpoints/openaiCompatRest/getModels": "現在ロードされているモデル一覧", + "endpoints/openaiCompatRest/postCompletions": "テキスト補完モード。プロンプトに基づき次のトークンを予測します。※OpenAIではこのエンドポイントは非推奨です。", + "endpoints/openaiCompatRest/postChatCompletions": "チャット補完。チャット履歴をモデルに送信し、次のアシスタント応答を予測します", + "endpoints/openaiCompatRest/postEmbeddings": "テキスト埋め込み。指定したテキスト入力に対して埋め込みベクトルを生成します。文字列または文字列配列を受け付けます。", + + "model.createVirtualModelFromInstance": "設定を新しい仮想モデルとして保存", + "model.createVirtualModelFromInstance/error": "設定の仮想モデル保存に失敗しました", + + "model": { + "toolUseSectionTitle": "ツール利用", + "toolUseDescription": "このモデルはツール利用向けに訓練されています\n\n詳細はクイックドキュメントをご覧ください" + }, + "apiConfigOptions/title": "API設定" } diff --git a/ja/discover.json b/ja/discover.json index 9a711f6d..27281cb6 100644 --- a/ja/discover.json +++ b/ja/discover.json @@ -23,6 +23,7 @@ "download.option.recommended/description": "お使いのハードウェアに基づいてこのオプションが推奨されます。", "download.option.downloaded/title": "ダウンロード済み", "download.option.downloading/title": "ダウンロード中 ({{progressPercentile}}%)", + "failedToStartDownload": "ダウンロードの開始に失敗しました", "feed.action.refresh": "フィードを更新" } diff --git a/ja/download.json b/ja/download.json index 9ec3f96c..0f047846 100644 --- a/ja/download.json +++ b/ja/download.json @@ -1,21 +1,43 @@ { - "postDownloadActionExecutor.zipExtraction/status": "展開中...", - "finalizing": "ダウンロードの最終処理中...(しばらくお待ちください)", - "noOptions": "利用可能な互換性のあるオプションがありません", + "postDownloadActionExecutor.zipExtraction/status": "ファイルを解凍中...", + "postDownloadActionExecutor.tarGzExtraction/status": "ファイルを解凍中...", + "postDownloadActionExecutor.runtimeIndexerTarGzExtraction/status": "ファイルを解凍中...", + "postDownloadActionExecutor.modifyModelData/status": "モデルデータを更新中...", + "postDownloadActionExecutor.notification/status": "ユーザーに通知中...", + "postDownloadActionExecutor.writeString/status": "メタデータを書き込み中...", + "postDownloadActionExecutor.updateSelectedBackendVersions/status": "選択したバージョンを更新中...", + "postDownloadActionExecutor.extensionPackAutoDeletion/status": "未使用の拡張機能を削除中...", + "postDownloadActionExecutor.pluginInstall/status": "プラグインをインストール中...", + "postDownloadActionExecutor.pluginUninstall/status": "プラグインをアンインストール中...", + + "finalizing": "ダウンロードを最終化中... (しばらくお待ちください)", + "noOptions": "ダウンロード可能な互換オプションがありません", + "deeplink/confirmation/title": "Hugging Face 🤗 からモデルをダウンロード", "deeplink/confirmation/subtitle": "{{modelName}}", - "deeplink/confirmation/selectRecommended": "推奨オプションを選択", + "deeplink/confirmation/selectRecommended": "推奨を選択", "deeplink/confirmation/selectOption": "ダウンロードオプションを選択", - "deeplink/confirmation/recommendedOption": "ほとんどのユーザーに最適と思われるオプション", + "deeplink/confirmation/recommendedOption": "おそらくほとんどのユーザーにとって最良のオプション", "deeplink/confirmation/downloadButton": "ダウンロード", - "deeplink/confirmation/nevermindButton": "やっぱりやめる", - "deeplink/confirmation/modelPresent/title": "Hugging Faceモデルが見つかりました ✅", - "deeplink/confirmation/modelPresent/body": "良いニュースです!このモデルファイルは既にローカルマシンに存在しています。", - "deeplink/confirmation/loadInChat": "{{ modelName }} を新しいチャットに読み込む", - "deeplink/error/modelNotFound/title": "モデルが見つかりませんでした", - "deeplink/error/modelNotFound/body": "モデル名をもう一度確認し、別のダウンロードオプションを試してみてください。", - "deeplink/actions/trySearching": "{{modelName}} をHugging Faceで検索してみる", + "deeplink/confirmation/nevermindButton": "気にしない", + "deeplink/confirmation/modelPresent/title": "Hugging Face でモデルが見つかりました ✅", + "deeplink/confirmation/modelPresent/body": "良いニュースです!このモデルファイルはすでにローカルマシンにあります。", + "deeplink/confirmation/loadInChat": "新しいチャットで {{ modelName }} を読み込む", + "deeplink/error/modelNotFound/title": "Ruh roh, このモデルを見つけられませんでした", + "deeplink/error/modelNotFound/body": "モデル名を再確認し、別のダウンロードオプションを試してみてください。", + "deeplink/actions/trySearching": "Hugging Face で {{modelName}} を検索してみてください", + "downloadsPanel/title": "ダウンロード", "downloadsPanel/sectionTitle/ongoing": "進行中", - "downloadsPanel/sectionTitle/completed": "完了" + "downloadsPanel/sectionTitle/completed": "完了", + "downloadsPanel": { + "reveal": { + "mac": "Finderで表示", + "mac/error": "Finderで表示できませんでした", + "nonMac": "ファイルエクスプローラーで表示", + "nonMac/error": "ファイルエクスプローラーで表示できませんでした" + }, + "completed": "ダウンロード完了", + "loadModel": "モデルを読み込む" + } } diff --git a/ja/models.json b/ja/models.json index ac9474e2..fb8d9821 100644 --- a/ja/models.json +++ b/ja/models.json @@ -1,85 +1,115 @@ { "pageTitle": "マイモデル", "filterModels.placeholder": "モデルをフィルタ...", - "aggregate_one": "ローカルにモデルが {{count}} 個あり、ストレージを {{size}} 占有しています。", - "aggregate_other": "ローカルにモデルが {{count}} 個あり、ストレージを {{size}} 占有しています。", + "aggregate_one": "ローカルモデルが{{count}}つあり、ディスクスペースを{{size}}使用しています。", + "aggregate_other": "ローカルモデルが{{count}}つあり、ディスクスペースを{{size}}使用しています。", - "noModels.title": "ここにローカルLLMが表示されます。", - "noModels.discoverButtonText.prefix": "左側のサイドバーの", - "noModels.discoverButtonText.suffix": "ボタンをクリックして、ダウンロード可能な面白いLLMを見つけましょう。", - "noModels.discoverModelsPrompt": "ローカルLLMを探索してみましょう!", + "noModels.title": "ローカルモデルはここに表示されます。", + "noModels.discoverButtonText.prefix": "左のサイドバーの", + "noModels.discoverButtonText.suffix": "ボタンをクリックして、ダウンロードする興味深いLLMを見つけてください。", + "noModels.discoverModelsPrompt": "ローカルLLMを探索してください!", "modelsTable.arch/label": "アーキテクチャ", "modelsTable.params/label": "パラメータ", "modelsTable.publisher/label": "発行者", - "modelsTable.llms/label": "LLM", - "modelsTable.embeddingModels/label": "埋め込みモデル", - "modelsTable.quant/label": "量子化", + "modelsTable.displayName/label": "名前", + "modelsTable.modelKey/label": "モデルキー", "modelsTable.size/label": "サイズ", "modelsTable.dateModified/label": "最終更新日", "modelsTable.actions/label": "アクション", + "modelsTable.quant/label": "量子化", + "modelsTable.llms/label": "LLM", + "modelsTable.embeddingModels/label": "埋め込みモデル", + "action.model.delete": "削除", "action.model.delete.full": "モデルを削除", - "action.model.delete.confirmation/title": "{{name}} を削除", - "action.model.delete.confirmation/description": "本当に削除しますか?これにより、このモデルに関連する全てのファイルがマシンから完全に削除されます。この操作は取り消せません。", + "action.model.delete.confirmation/title": "{{name}}を削除", + "action.model.delete.confirmation/description": "本当に削除しますか?これにより、このモデルに関連付けられたすべてのファイルがマシンから永久に削除されます。この操作は元に戻せません。", "action.model.delete.confirmation/confirm": "削除", - - "action.createVirtual": "プリセットを作成", - "action.createVirtual.details/title": "プリセットを作成", - "action.createVirtual.details/create": "作成", - "action.createVirtual.details/cancel": "キャンセル", - "action.createVirtual.details.base/label": "ベースモデル", - "action.createVirtual.details.name/label": "名前", - "action.createVirtual.details.includeMachineDependent/label": "機種依存の設定を含める", - "action.createVirtual.details.includeMachineDependent/hint": "プリセットに機種依存の設定(GPU設定など)を含めるかどうかを選択します。共有には推奨されません。", - "action.createVirtual.details.config/label": "設定の上書き", - "action.createVirtual.details.config.empty": "設定の上書きはありません", - "action.createVirtual.details/error": "仮想モデルの作成に失敗しました。", + "action.model.delete/error": "モデルの削除に失敗しました", "loader.model.bundled": "バンドル済み", "action.cancel": "キャンセル", - "indexingOngoing": "モデルをインデックス中... 少しお待ちください", - "index/error_one": "次のフォルダーのインデックスに失敗しました:", - "index/error_other": "次のフォルダーのインデックスに失敗しました:", - "badModels/title_one": "次のモデルのインデックスに失敗しました:", - "badModels/title_other": "次のモデルのインデックスに失敗しました:", - "badModels.virtualModelIncorrectPlacement": "仮想モデルの配置が間違っています。期待される場所は {{expected}} です。実際には {{actual}} にあります。", + "indexingOngoing": "モデルをインデックス中... しばらくお待ちください", + "index/error_one": "次のフォルダーのインデックス作成に失敗しました:", + "index/error_other": "次のフォルダーのインデックス作成に失敗しました:", + "badModels/title_one": "次のモデルのインデックス作成に失敗しました:", + "badModels/title_other": "次のモデルのインデックス作成に失敗しました:", + "badModels.virtualModelIncorrectPlacement": "仮想モデルの配置が正しくありません。{{expected}}にあるべきです。{{actual}}にあります。", "badModels.virtualModelBadManifest": "無効な仮想モデルマニフェスト (model.yaml):", "unresolvedVirtualModels/title_one": "次の仮想モデルの解決に失敗しました:", "unresolvedVirtualModels/title_other": "次の仮想モデルの解決に失敗しました:", - "unresolvedVirtualModels.missingModel": "依存モデルがありません: {{missing}}. 依存パス:\n{{chain}}", - "unresolvedVirtualModels.circular": "循環参照となっている依存関係が検出されました。", + "unresolvedVirtualModels.missingModel": "依存モデルが見つかりません: {{missing}}。依存関係パス:\n{{chain}}", + "unresolvedVirtualModels.circular": "循環依存関係が検出されました。", + "unresolvedVirtualModels.fix": "修正", + "unresolvedVirtualModels.revealInExplorer": "エクスプローラーで表示", + "unresolvedVirtualModels.revealInFinder": "Finderで表示", + "unresolvedVirtualModels.reveal/error": "表示に失敗しました", "modelsDirectory": "モデルディレクトリ", "modelsDirectory.change": "変更...", - "modelsDirectory.reset": "デフォルトのパスにリセット", + "modelsDirectory.change/error": "モデルディレクトリの変更に失敗しました", + "modelsDirectory.reset": "デフォルトパスにリセット", "modelsDirectory.reveal.mac": "Finderで表示", - "modelsDirectory.reveal.nonMac": "ファイルエクスプローラーで開く", + "modelsDirectory.reveal.nonMac": "ファイルエクスプローラーで表示", + "modelsDirectory.reveal.mac/error": "Finderで表示できませんでした", + "modelsDirectory.reveal.nonMac/error": "ファイルエクスプローラーで表示できませんでした", "modelsDirectory.forceReindex": "更新", "loadState/loaded": "読み込み完了", "loadState/loading": "読み込み中", - "loadState/unloaded": "アンロード済み", - "loadState/unloading": "アンロード中", - "loadState/idle": "アイドル状態", - "pinned": "このモデルは固定されています。右クリックで固定を解除します。", + "loadState/unloaded": "未読み込み", + "loadState/unloading": "読み込み解除中", + "loadState/idle": "アイドル", + "pinned": "このモデルはピン留めされています。右クリックしてピン留めを解除します。", "lastUsed": "最終使用", - "contextMenu/pin": "トップに固定", - "contextMenu/unpin": "固定を解除", + "contextMenu/pin": "上にピン留め", + "contextMenu/unpin": "ピン留めを解除", "contextMenu/copyAbsolutePath": "絶対パスをコピー", - "contextMenu/copyModelName": "モデルパスをコピー", + "contextMenu/copyModelName": "モデル名をコピー", + "contextMenu/copyModelDefaultIdentifier": "デフォルト識別子をコピー", + "contextMenu/showRawMetadata": "生のメタデータを表示", "contextMenu/openOnHuggingFace": "Hugging Faceで開く", + "contextMenu": { + "showOnWeb": "Webで表示", + "pullLatest": { + "label": "最新を取得", + "checking": "更新を確認中...", + "upToDate": "最新の状態です", + "error": "更新の確認に失敗しました" + } + }, "tooltip/moreActions": "その他のアクション", "tooltip/getInfo": "情報を取得", "tooltip/editModelDefaultConfig": "モデルのデフォルト設定を編集", - "tooltip/editModelDefaultConfig/override": "モデルのデフォルト設定を編集 (*現在は上書きされています)", + "tooltip/editModelDefaultConfig/override": "モデルのデフォルト設定を編集 (* はオーバーライドがあります)", "tooltip/visionBadge": "このモデルは画像入力を処理できます", + "tooltip/toolUseBadge": "このモデルはツール使用のためにトレーニングされています", - "visionBadge/label": "画像入力対応", + "visionBadge/label": "Vision は有効です", + "toolUseBadge/label": "ツール使用のためにトレーニングされています", "loader.action.load": "モデルを読み込む", "loader.action.clearChanges": "変更をクリア", "loader.action.cancel": "キャンセル", "loader.info.clickOnModelToLoad": "モデルをクリックして読み込みます", - "loader.info.configureLoadParameters": "モデルの読み込みパラメータを設定" + "loader.info.configureLoadParameters": "モデルの読み込みパラメーターを設定します", + "loader.info.activeGeneratorWarning": "カスタムジェネレーターを使用しているプラグインを使用しています。このプラグインに応じて、現在読み込まれているモデルが適用される場合とされない場合があります", + + "virtual": { + "local": { + "create": "仮想モデルを作成", + "title": "ローカル仮想モデルを作成", + "description": "モデルを一連の構成とバンドルすることで仮想モデルを作成します。基盤となる重みは複製されません。", + "modelKey.label": "モデルキー", + "modelKey.placeholder": "一意のモデルキーを入力", + "modelKey.normalized": "モデルキーは次のように正規化されます: {{normalized}}", + "baseModel.label": "ベースモデル", + "baseModel.placeholder": "ベースモデルを選択", + "baseModel.empty": "ベースモデルとして使用するモデルをダウンロード", + "next": "次へ", + "confirm": "作成", + "error": "仮想モデルの作成に失敗しました" + } + } } diff --git a/ja/onboarding.json b/ja/onboarding.json index 1ea30f8f..cbeebd97 100644 --- a/ja/onboarding.json +++ b/ja/onboarding.json @@ -3,22 +3,40 @@ "action.next": "次へ", "action.back": "戻る", "action.finish": "完了", - + "dismissable_rag_modal": { - "description": "検索拡張生成(RAG)を使用して、あなたのドキュメントを元にチャットができます。使い方はこちら:", + "description": "Retrieval Augmented Generation (RAG)によってドキュメントと対話できます。これがやり方です:", "instructions": { "attach_files": { "title": "ファイルを添付", - "description": "最大5つ、合計サイズ30MBまでのファイルをアップロードできます。対応フォーマットはPDF、DOCX、TXT、CSVです。" + "description": "一度に最大5つのファイルをアップロードでき、合計サイズは30MBまでです。サポートされている形式はPDF、DOCX、TXT、CSVです。" }, "be_specific": { "title": "具体的に", - "description": "質問する際には、できるだけ詳細を伝えましょう。これにより、システムが最も関連性の高い情報をドキュメントから取得できます。" + "description": "質問をする際は、できるだけ多くの詳細を述べてください。これにより、システムはドキュメントから最も関連性の高い情報を取得できます。" }, "get_responses": { - "title": "応答を取得して実験", - "description": "LLMがあなたのクエリとドキュメントから抽出された内容を元に、応答を生成します。さまざまなクエリを試して、最適な方法を見つけましょう。" + "title": "応答を取得し、実験する", + "description": "LLMはあなたのクエリとドキュメントから取得した抜粋を見て、応答を生成しようとします。さまざまなクエリを試して、最適なものを見つけてください。" } } + }, + + "toolUse": { + "step_0": { + "title": "ベータ: Tool Use 🛠️ (Function Calling)", + "text_0": "一部のモデル(例: Llama 3.1/3.2、Mistral、Qwenなど)は、ツールを使用するようにトレーニングされています。", + "text_1": "これは実際には、特定の形式でLLMに「ツール」(関数シグネチャ)の配列を提供し、ユーザーのプロンプトに基づいてLLMがそれらを「呼び出す」かどうかを決定できることを意味します。", + "text_2": "APIをクエリしたり、コードを実行したり、関数呼び出しとして表現できるほぼすべてのことを想像できます。" + }, + "step_1": { + "title": "Tool Useを開始する", + "toolUseCanWorkWithAnyModel": "ツール使用のためにトレーニングされたモデルは他のモデルよりも優れたパフォーマンスを発揮しますが、あらゆるモデルでツールを使用しようとすることができます。詳細については、ドキュメントをお読みください。\nツール使用のためにトレーニングされたモデルには新しいバッジが付けられます:", + "hasCompatibleModel": "🎉 すでにツールサポートのあるモデルをお持ちのようです!", + "downloadRecommendedModel": "ツール使用のためにトレーニングされたモデルをダウンロード:" + }, + "nextButton": "次へ", + "letsGoButton": "モデルを読み込み、サーバーを起動", + "doneButton": "閉じる" } } diff --git a/ja/settings.json b/ja/settings.json index 15289946..f271495c 100644 --- a/ja/settings.json +++ b/ja/settings.json @@ -1,46 +1,53 @@ { - "settingsDialogTitle": "アプリ設定", - "settingsDialogButtonTooltip": "アプリ設定", + "settingsDialogTitle": "設定", + "settingsDialogButtonTooltip": "設定", + "accountDialogButtonTooltip": "アカウント", + "settingsNewButtonPopover": { - "primary": "アプリ設定は画面右下に移動しました", - "secondary": "⚙️ボタンをクリックして開いてください。", - "tertiary": "または、押してください" + "primary": "設定は右下隅に移動しました", + "secondary": "⚙️ ボタンをクリックして開きます。", + "tertiary": "または、次を押します" }, "appUpdate": "アプリの更新", "checkingAppUpdate": "更新を確認中...", "checkForUpdates": "更新を確認", "failedCheckingAppUpdate": "更新の確認に失敗しました", - "newUpdateAvailable": "新しいバージョンのLM Studioが利用可能です! 🎉", - "newBetaUpdateAvailable": "新しいベータ版のLM Studioが利用可能です! 🛠️🎉", + "newUpdateAvailable": "LM Studioの新しいバージョンが利用可能です! 🎉", + "newBetaUpdateAvailable": "LM Studioの新しいベータ版が利用可能です! 🛠️🎉", "downloadingInProgress": "更新をダウンロード中...", - "downloadUpdate": "LM Studio {{version}} に更新", - "downloadBetaUpdate": "LM Studio ベータ {{version}} に更新 (ビルド {{build}})", - "downloadCompleted": "ダウンロード完了!", - "updateDownloadComplete": "更新が正常にダウンロードされました!", - "updateDownloadFailed": "更新のダウンロードに失敗しました!", - "hasFinishedDownloading": "のダウンロードが完了しました。", + "downloadUpdate": "LM Studio {{version}}に更新", + "downloadBetaUpdate": "LM Studio Beta {{version}} (build {{build}})に更新", + "downloadCompleted": "ダウンロード完了!", + "updateDownloadComplete": "LM Studioの更新が準備完了です", + "updateDownloadFailed": "更新に失敗しました!", + "hasFinishedDownloading": "ダウンロードが完了しました。", "yourCurrentVersion": "現在のバージョン:", "latestVersion": "最新バージョン:", "downloadLabel": "今すぐ更新", + "downloadLabel/Linux": "更新をダウンロード", "cancelDownloadLabel": "キャンセル", - "downloadingUpdate": "更新をダウンロード中...", - "updateDownloaded": "新しい更新が正常にダウンロードされました。再起動して更新を適用してください。", - "restartAppToUpdate": "アプリを再起動して更新を適用", - "appUpdatedToastTitle": "{{title}} に更新されました", - "appUpdatedToastDescriptionPrefix": "次の項目を確認してください ", + "downloadingUpdate": "ダウンロード中 {{item}}...", + "updateDownloaded": "アプリを再起動して更新を適用する必要があります", + "restartAppToUpdate": "アプリを再起動して更新を適用します", + "appUpdatedToastTitle": "{{title}}に更新されました", + "appUpdatedToastDescriptionPrefix": "を表示", "AppUpdatedToastDescriptionReleaseNotes": "リリースノート", - "doItLater": "後で実行", - "failedToUpdate": "アプリの更新に失敗しました。インターネット接続を確認するか、後でもう一度お試しください。", + "toolUseToastTitle": "ベータの新機能: Tool Use と Function Calls API", + "toolUseToastDescription": "Drop-in replacement for OpenAI Tool Use with select models such as Llama 3.1/3.2, Mistral, and Qwen.", + "toolUseToastButtonText": "開発者ページに行き試してみる", + "doItLater": "後でやります", + "failedToUpdate": "アプリの更新に失敗しました。インターネット接続を再確認するか、後でもう一度お試しください。", "retryInBackground": "バックグラウンドで再試行", "laterLabel": "後で", "releaseNotesLabel": "リリースノート", - "remindMeLater": "後で通知", + "remindMeLater": "後でリマインド", "failedDownloadUpdate": "更新のダウンロードに失敗しました", "installAndRelaunch": "インストールして再起動", - "uptodate": "すべて最新です!現在のバージョンは {{version}} です", - "preferences": "環境設定", + "uptodate": "すべて最新の状態です! 現在のバージョンは {{version}} です", + "preferences": "設定", "general": "一般", - "sideButtonLabels": "サイドボタンラベルを表示", + "sideButtonLabels": "サイドボタンのラベルを表示", + "showModelFileNames": "マイモデル: 常に完全なモデルファイル名を表示", "colorThemeLabel": "カラーテーマ", "complexityLevelLabel": "ユーザーインターフェースの複雑さレベル", "selectComplexityLevelPlaceholder": "デフォルトのUI複雑さレベルを選択", @@ -49,114 +56,140 @@ "developerComplexityLevelLabel": "開発者", "chatSettingsLabel": "チャット設定", "chat/alwaysShowPromptTemplate": "チャットサイドバーにプロンプトテンプレートを常に表示", - "chat/highlightChatMessageOnHover": "チャットメッセージにカーソルを合わせてハイライト表示", + "chat/highlightChatMessageOnHover": "チャットメッセージにカーソルを合わせたときにハイライト", "chat/doubleClickMessageToEdit": "チャットメッセージをダブルクリックして編集", + + "chat/aiNaming/label": "AI に名前をつける", + "chat/aiNaming/mode/label": "AI生成チャット名", + "chat/aiNaming/mode/value/never": "しない", + "chat/aiNaming/mode/value/never/subTitle": "AI生成チャット名を作成しない", + "chat/aiNaming/mode/value/auto": "自動", + "chat/aiNaming/mode/value/auto/subTitle": "生成速度に基づいて名前を作成するかどうかを決定", + "chat/aiNaming/mode/value/always": "常に", + "chat/aiNaming/mode/value/always/subTitle": "生成速度に関係なくAI生成チャット名を作成する", + "chat/aiNaming/emoji": "AI生成チャット名に絵文字を使用", "chat/keyboardShortcuts/label": "キーボードショートカット", "chat/keyboardShortcuts/verbPrefix": "使用", - "chat/keyboardShortcuts/regenerate": "で最後のメッセージを再生成", - "chat/keyboardShortcuts/sendMessage": "でメッセージを送信", - "chat/aiNaming/mode/label": "AIがチャット名を生成します", - "chat/aiNaming/mode/value/never": "生成しない", - "chat/aiNaming/mode/value/never/subTitle": "AIはチャット名を生成しません", - "chat/aiNaming/mode/value/auto": "自動", - "chat/aiNaming/mode/value/auto/subTitle": "生成速度に基づいて名前を生成するかどうかを決めます", - "chat/aiNaming/mode/value/always": "常に生成", - "chat/aiNaming/mode/value/always/subTitle": "生成速度に関係なく、AIがチャット名を生成します", - "enableLocalService": "ローカルLLMサービスを有効にする", - "enableLocalService.subtitle": "LM Studio の LLM サーバーを、アプリケーションを開いたままにしなくても使用できます", - "localServiceLabel": "Local LLM Service (ヘッドレス)", - "onboarding/blockTitle": "オンボーディングのヒント", - "onboarding/dismissedHints": "非表示にしたオンボーディングのヒント", - "onboarding/resetHintTooltip": "クリックしてこのオンボーディングヒントを再度有効にします", + "chat/keyboardShortcuts/regenerate": "最後のメッセージを再生成する", + "chat/keyboardShortcuts/sendMessage": "メッセージを送信する", + + "onboarding/blockTitle": "オンボーディングヒント", + "onboarding/dismissedHints": "無視されたオンボーディングヒント", + "onboarding/resetHintTooltip": "このオンボーディングヒントを再度有効にするにはクリックしてください", "onboarding/resetAllHints": "すべてのオンボーディングヒントをリセット", - "onboarding/noneDismissed": "非表示にしたヒントはありません。現在、すべてのオンボーディングヘルパーヒントが表示されます。", - "firstTimeExperienceLabel": "チャットの初回利用体験", - "firstTimeExperienceMarkCompletedLabel": "完了済みにする", + "onboarding/noneDismissed": "無視されたヒントはありません。現在、すべてのオンボーディングヘルプヒントが次に無視されるまで表示されます", + + "firstTimeExperienceLabel": "チャット初回体験", + "firstTimeExperienceMarkCompletedLabel": "完了としてマーク", "firstTimeExperienceResetLabel": "リセット", - "showPromptSuggestionsLabel": "新しいチャットを作成する際にプロンプトの提案を表示", + "showPromptSuggestionsLabel": "新しいチャットを作成するときにプロンプトの提案を表示", "darkThemeLabel": "ダーク", "lightThemeLabel": "ライト", "systemThemeLabel": "自動", "sepiaThemeLabel": "セピア", - "unloadPreviousModelLabel": "モデルを選択する際に、現在読み込まれているものを最初にアンロードする", + "unloadPreviousModelLabel": "モデルを選択する際は、最初に現在読み込まれているモデルをアンロードしてください", "languageLabel": "言語", - "changeLanguageLabel": "アプリの言語を変更", + "changeLanguageLabel": "アプリの言語を選択 (まだ開発中)", "developerLabel": "開発者", - "showExperimentalFeaturesLabel": "実験的な機能を表示", - "appFirstLoadLabel": "アプリ初回読み込み体験", - "showDebugInfoBlocksInChatLabel": "チャットでデバッグ情報ブロックを表示", - "autoLoadBundledLLMLabel": "起動時にバンドルされたLLMモデルを自動読み込み", + "localServiceLabel": "ローカルLLMサービス (ヘッドレス)", + "showExperimentalFeaturesLabel": "実験的機能を表示", + "appFirstLoadLabel": "アプリ初回ロード体験", + "showDebugInfoBlocksInChatLabel": "チャットにデバッグ情報ブロックを表示", + "autoLoadBundledLLMLabel": "起動時にバンドルされたLLMモデルを自動ロード", "showReleaseNotes": "リリースノートを表示", "hideReleaseNotes": "リリースノートを非表示", - "backendDownloadNewUpdate": "新しいバージョンのバックエンドが利用可能です!", + + "backendDownloadNewUpdate": "新しいバックエンドが利用可能です!", "backendDownloadNewUpdateAction": "開発者ページに移動", - "backendDownloadChannel.label": "LM Studio拡張パックダウンロードチャンネル", + + "backendDownloadChannel.label": "LM Studio 拡張パックダウンロードチャネル", "backendDownloadChannel.value.stable": "安定版", "backendDownloadChannel.value.beta": "ベータ版", - "backendDownloadChannel.value.latest": "開発版", - "backendDownloadChannel.shortLabel": "ランタイムダウンロードチャンネル", - "backendDownloadChannel.hint": "LM Studio拡張パックをダウンロードするチャンネルを選択します。「{{stableName}}」がほとんどのユーザーに推奨されるチャンネルです。", - "appUpdateChannel.label": "LM Studioアップデートチャンネル", + "backendDownloadChannel.value.latest": "最新版", + "backendDownloadChannel.shortLabel": "ランタイムのダウンロードチャネル", + "backendDownloadChannel.hint": "LM Studio 拡張パックのダウンロードチャネルを選択してください。 \"{{stableName}}\" はほとんどのユーザーに推奨されるチャネルです。", + + "appUpdateChannel.label": "アップデートチャネル", "appUpdateChannel.value.stable": "安定版", "appUpdateChannel.value.beta": "ベータ版", - "appUpdateChannel.shortLabel": "アプリアップデートチャンネル", - "appUpdateChannel.hint": "LM Studioのアプリ更新を受け取るチャンネルを選択します。「{{stableName}}」がほとんどのユーザーに推奨されるチャンネルです。", - "modelLoadingGuardrails.label": "モデル読み込みのガードレール", - "modelLoadingGuardrails.description": "システムリソースの制限を超えたモデルの読み込みは、システムの不安定やフリーズを引き起こす可能性があります。ガードレールは、誤ってシステムを過負荷にしないようにします。必要に応じてここでこれらの制限を調整できますが、システムの限界近くでモデルを読み込むと、安定性が低下する可能性があることに注意してください。", - "modelLoadingGuardrails.value.off": "オフ (推奨されません)", - "modelLoadingGuardrails.value.off/subTitle": "システム過負荷に対する予防措置なし", - "modelLoadingGuardrails.value.off/detail": "オフの詳細", - "modelLoadingGuardrails.value.low": "低", - "modelLoadingGuardrails.value.low/subTitle": "システム過負荷に対する低レベルな予防措置", - "modelLoadingGuardrails.value.low/detail": "低レベルの詳細", - "modelLoadingGuardrails.value.medium": "中レベル", - "modelLoadingGuardrails.value.medium/subTitle": "システム過負荷に対する中レベルの予防措置", - "modelLoadingGuardrails.value.medium/detail": "中レベルの詳細", - "modelLoadingGuardrails.value.high": "高レベル", - "modelLoadingGuardrails.value.high/subTitle": "システム過負荷に対する高レベルな予防措置", - "modelLoadingGuardrails.value.high/detail": "高レベルの詳細", + "appUpdateChannel.value.alpha": "アルファ版", + "appUpdateChannel.shortLabel": "アプリのアップデートチャネル", + "appUpdateChannel.hint": "LM Studio アプリのアップデートを受信するチャネルを選択してください。 \"{{stableName}}\" はほとんどのユーザーに推奨されるチャネルです。", + + "modelLoadingGuardrails.label": "モデル読み込みガードレール", + "modelLoadingGuardrails.description": "システムリソースの制限を超えてモデルを読み込むと、システムの不安定性やフリーズを引き起こす可能性があります。ガードレールは、偶発的なオーバーロードを防ぎます。必要に応じてここでこれらの制限を調整できますが、システムの制限に近いモデルを読み込むと、安定性が低下する可能性があることに注意してください。", + "modelLoadingGuardrails.value.off": "OFF (推奨されません)", + "modelLoadingGuardrails.value.off/subTitle": "システムオーバーロードに対する予防策はありません", + "modelLoadingGuardrails.value.off/detail": "Off detail", + "modelLoadingGuardrails.value.low": "カジュアル", + "modelLoadingGuardrails.value.low/subTitle": "システムオーバーロードに対する予防策はありません", + "modelLoadingGuardrails.value.low/detail": "Relaxed detail", + "modelLoadingGuardrails.value.medium": "バランス", + "modelLoadingGuardrails.value.medium/subTitle": "システムオーバーロードに対する中程度の予防策", + "modelLoadingGuardrails.value.medium/detail": "Balanced detail", + "modelLoadingGuardrails.value.high": "厳格", + "modelLoadingGuardrails.value.high/subTitle": "システムオーバーロードに対する強力な予防策", + "modelLoadingGuardrails.value.high/detail": "Strict detail", "modelLoadingGuardrails.value.custom": "カスタム", - "modelLoadingGuardrails.value.custom/subTitle": "読み込むモデルの最大サイズの制限を設定", - "modelLoadingGuardrails.value.custom/detail": "カスタムの詳細", + "modelLoadingGuardrails.value.custom/subTitle": "読み込むことができる最大モデルサイズの制限を設定します", + "modelLoadingGuardrails.value.custom/detail": "Custom detail", "modelLoadingGuardrails.custom.label": "メモリ制限: ", "modelLoadingGuardrails.custom.unitGB": "GB", - "modelLoadingGuardrails.custom.description": "モデル読み込み時のカスタムメモリ制限を設定します。この制限を超える場合、モデルは読み込まれません。", - "experimentalLoadPresets": "プリセットでのモデル読み込み設定サポートを有効化", - "experimentalLoadPresets.description": "プリセットにモデル読み込み設定を含めることを許可するかどうかを設定します。この機能は実験的であり、フィードバックを歓迎します。", - "unloadPreviousJITModelOnLoad": "JIT モデルの自動アンロード:任意の時点で JIT により読み込まれるモデルは最大で 1 つに制限され、前のモデルは自動的にアンロードされます", - "autoUpdateExtensionPacks": "選択したランタイム拡張パックの自動更新", - "useHFProxy.label": "LM Studio の Hugging Face プロキシを使用する", - "useHFProxy.hint": "モデルの検索とダウンロードには、LM StudioのHugging Face Proxyをご利用ください。Hugging Faceへの直接アクセスが困難な場合に役立ちます。", - "showModelFileNames": "マイモデル:常にモデルファイルのフルネームを表示する", - "separateReasoningContentInResponses": "該当する場合は、API レスポンスで `reasoning_content` と `content` を分離する。", - "promptWhenCommittingUnsavedChangesWithNewFields": "プリセット: 新しいフィールドをプリセットに適用する際に確認ダイアログを表示", - "promptWhenCommittingUnsavedChangesWithNewFields.description": "新しいフィールドをプリセットに誤って追加するのを防ぐのに役立ちます。", - "autoStartOnLogin": "ログイン時にLLMサービスを起動", - "autoStartOnLogin.description": "コンピューターにログインした際にLLMサービスを自動的に開始します。", - "expandConfigsOnClick": "クリックで設定を展開する(ホバーではなく)", + "modelLoadingGuardrails.custom.description": "モデルの読み込みに対するカスタムメモリ制限を設定します。この制限を超えるモデルは読み込まれません。", + + "experimentalLoadPresets": "モデル読み込みのプリセットにおける設定サポートを有効にする", + "experimentalLoadPresets.description": "プリセットがモデル読み込み設定を含むことを許可するかどうかを指定します。この機能は実験的であり、フィードバックを歓迎します。", + + "unloadPreviousJITModelOnLoad": "JIT モデルの自動アンロード: 任意の時点で JIT 経由で読み込まれるモデルは最大 1 つに制限されます(以前のモデルをアンロードします)", + "autoDeleteExtensionPacks": "最も最近使用されていないランタイム拡張パックを自動削除", + "autoUpdateExtensionPacks": "選択したランタイム拡張パックを自動更新", + "useHFProxy.label": "LM Studio の Hugging Face プロキシを使用", + "useHFProxy.hint": "LM Studio の Hugging Face プロキシを使用してモデルを検索およびダウンロードします。これにより、Hugging Face に直接アクセスできないユーザーを支援できます。", + "separateReasoningContentInResponses": "適用可能な場合、API レスポンスで `reasoning_content` と `content` を分離", + "separateReasoningContentInResponses/hint": "この設定は、DeepSeek R1 やその蒸留版、`` および `` タグ内で CoT を生成する他のモデルなど、'reasoning' モデルにのみ適用されます。", + + "promptWhenCommittingUnsavedChangesWithNewFields": "プリセット: 新しいフィールドをプリセットにコミットする際に確認ダイアログを表示", + "promptWhenCommittingUnsavedChangesWithNewFields.description": "これは、誤って新しいフィールドをプリセットに追加するのを防ぎたい場合に便利です。", + + "enableLocalService": "ローカル LLM サービスを有効にする", + "enableLocalService.subtitle": "LM Studio の LLM サーバーを、LM Studio アプリケーションを開いておくことなく使用する", + "enableLocalService.description": "有効にすると、LM Studio ローカル LLM サービスが起動時に起動します。LM Studio を閉じても、ローカル LLM サービスはシステムトレイで実行され続けます。", + + "expandConfigsOnClick": "クリック時に設定を展開し、ホバー時には展開しない", + "migrateChats": { - "label": "バージョン0.3.0以前のチャットを移行", - "hasBetterLabel": "バージョン0.3.0以前のチャットを再移行", - "action_one": "1件のチャットを移行", - "action_other": "{{count}} 件のチャットを移行", + "label": "pre-0.3.0 チャットへの移行", + "hasBetterLabel": "pre-0.3.0 チャットへの移行", + "action_one": "1 チャットを移行", + "action_other": "{{count}} チャットを移行", "inProgress": "チャットを移行中...", "hint": { - "primary": "v0.3.0以降のチャットメッセージのマルチバージョンサポートなどの機能を利用するため、内部データ構造を改良しました。古いチャットをアプリで表示するには、新しいフォーマットに移行する必要があります。", - "details": "移行プロセスにより、古いチャットが削除されることはなく、新しいフォーマットのコピーが作成されます。", - "footer": "古いバージョンのLM Studioを使用して、以前のチャットにアクセスすることができます。現在、画像は自動的に移行されません。" + "プライマリ": "v0.3.0+ のチャット機能において、マルチバージョンチャットメッセージなどの新機能に対応するため、内部のデータ構造を再設計しました。古いチャットをアプリに表示させるためには、新しい形式へ移行する必要があります。", + "details": "移行プロセスは古いチャットを削除するのではなく、新しい形式でのコピーを作成します。", + "footer": "古いバージョンの LM Studio を通じて、古いチャットにアクセスすることは引き続き可能です。現在、画像は自動的に移行されません。" }, "hasBetterHint": { - "primary": "旧チャットを移行した後に、チャット移行機能が改良されました。再度実行しますか?", - "details": "移行プロセスでは、新たに移行されたチャットを保存する新しいフォルダが作成されます。旧チャットはそのまま保持されます。", - "footer": "旧バージョンのLM Studioを使用して旧チャットにアクセスすることも可能です。現在、画像は自動的に移行されません。" + "プライマリ": "古いチャットを移行してから、チャット移行ツールを改善しました。もう一度実行されますか?", + "details": "移行プロセスは新しい形式のチャットを含む新しいフォルダーを作成します。古いチャットはそのまま残ります。", + "footer": "古いバージョンの LM Studio を通じて、古いチャットにアクセスすることは引き続き可能です。現在、画像は自動的に移行されません。" }, "success": "チャットの移行に成功しました!", - "success_one": "1件のチャットの移行に成功しました", - "success_other": "{{count}} 件のチャットの移行に成功しました", + "success_one": "1 チャットの移行に成功しました", + "success_other": "{{count}} チャットの移行に成功しました", "showInstructionsButton": "手順を表示", - "footerCardText": "以前のバージョンのLM Studioからのチャットは、このバージョンで使用するために移行する必要があります。", - "hasBetterFooterCardText": "旧チャットを移行した後に、チャット移行機能が改良されました。移行プロセスを再実行できます(新たに移行されたチャットを保存する新しいフォルダを作成します)。", - "dismissConfirm": "閉じる", - "dismissConfirmDescription": "いつでも設定からチャットの移行を処理できます" + "footerCardText": "古いバージョンの LM Studio からのチャットは、このバージョンで使用するために移行する必要があります。", + "hasBetterFooterCardText": "古いチャットを移行してから、チャット移行ツールを改善しました。もう一度実行されますか?(新しく移行されたチャットを含む新しいフォルダーを作成します。)", + "dismissConfirm": "やめる", + "dismissConfirmDescription": "チャットの移行は、設定からいつでも行うことができます。" + }, + "toolConfirmation": { + "label": "Tool Call 確認", + "neverAsk": { + "label": "ツールを実行する前に確認を求めない (推奨しません)", + "hint": "ツールを実行する前の確認を無効にします。これは推奨されません。", + "warnTitle": "本当によろしいですか?", + "warnDescription": "ツール呼び出しの確認を無効にすることは危険です。プラグインのいずれかが、破壊的なアクションを実行する可能性のあるツールを提供している場合(コマンドの実行、ファイルの削除、ファイルの上書き、ファイルのアップロードなど)、モデルは確認なしにそれを実行できるようになります。ツールごと、またはプラグインごとに確認を無効にすることは常に可能です。このオプションを有効にすることは推奨されません。十分に注意してください。", + "warnButton": "リスクを理解しました" + } } } diff --git a/ja/shared.json b/ja/shared.json index 785f6b96..7d020837 100644 --- a/ja/shared.json +++ b/ja/shared.json @@ -1,4 +1,304 @@ { "copyLmStudioLinkButton/toolTip": "モデルのダウンロードリンクをコピー", - "filter.noMatches": "一致するものがありません" + + "filter.noMatches": "一致するものはありません", + "longRunningTask": { + "unbundlingDependencies": { + "badge": "リソースを抽出中" + }, + "performingBackendHardwareSurvey": { + "badge": "バックエンドハードウェアの互換性を確認中" + }, + "indexingRuntimes": { + "badge": "ランタイムをインデックス中" + }, + "indexingModels": { + "badge": "モデルをインデックス中" + }, + "authenticating": { + "badge": "認証中" + }, + "autoUpdatingExtensionPack": { + "badge": "拡張パックを更新中 ({{name}} v{{version}})" + } + }, + "auth": { + "prompt": "LM Studio Hubにログイン", + "authError": "認証に失敗しました", + "noAccount": "アカウントをお持ちでないですか?", + "signUp": "サインアップ", + "havingTrouble": "問題がありますか?", + "retry": "再試行" + }, + "artifacts": { + "fetchError": "アーティファクトの取得に失敗しました", + "organizationVisible": "組織が表示されます" + }, + + "incompatible": "非互換", + "compatible": "互換性あり", + "public": "公開", + "private": "非公開", + "yes": "はい", + "no": "いいえ", + "go": "実行", + + "proceedWithEllipsis": "続行...", + "proceed": "続行", + "inProgress": "進行中...", + "failed": "失敗", + "pending": "保留中", + "doneWithExclamation": "完了!", + "done": "完了", + + "complete": { + "completeWithEllipsis": "完了...", + "complete": "完了", + "completingWithEllipsis": "完了中...", + "completing": "完了中", + "completedWithExclamation": "完了!", + "completed": "完了" + }, + + "cancel": { + "cancelWithEllipsis": "キャンセル...", + "cancel": "キャンセル", + "cancelingWithEllipsis": "キャンセル中...", + "canceling": "キャンセル中", + "canceled": "キャンセル済み" + }, + + "next": { + "nextWithEllipsis": "次へ...", + "next": "次へ" + }, + + "back": { + "backWithEllipsis": "戻る...", + "back": "戻る" + }, + + "close": { + "closeWithEllipsis": "閉じる...", + "close": "閉じる", + "closingWithEllipsis": "閉じる中...", + "closing": "閉じる中", + "closedWithExclamation": "閉じました!", + "closed": "閉じました" + }, + + "delete": { + "deleteWithEllipsis": "削除...", + "delete": "削除", + "deletingWithEllipsis": "削除中...", + "deleting": "削除中", + "deletedWithExclamation": "削除しました!", + "deleted": "削除しました" + }, + + "retry": { + "retryWithEllipsis": "再試行...", + "retry": "再試行", + "retryingWithEllipsis": "再試行中...", + "retrying": "再試行中" + }, + + "refresh": { + "refreshWithEllipsis": "更新...", + "refresh": "更新", + "refreshingWithEllipsis": "更新中...", + "refreshing": "更新中", + "refreshedWithExclamation": "更新しました!", + "refreshed": "更新しました" + }, + + "confirm": { + "confirm": "確認", + "confirmingWithEllipsis": "確認中...", + "confirming": "確認中", + "confirmedWithExclamation": "確認しました!", + "confirmed": "確認しました" + }, + + "copy": { + "copyWithEllipsis": "コピー...", + "copy": "コピー", + "copyingWithEllipsis": "コピー中...", + "copying": "コピー中", + "copiedWithExclamation": "コピーしました!", + "copied": "コピーしました" + }, + + "edit": { + "editWithEllipsis": "編集...", + "edit": "編集", + "editingWithEllipsis": "編集中...", + "editing": "編集中", + "editedWithExclamation": "編集しました!", + "edited": "編集しました" + }, + + "load": { + "loadWithEllipsis": "読み込み...", + "load": "読み込み", + "loadingWithEllipsis": "読み込み中...", + "loading": "読み込み中", + "loadedWithExclamation": "読み込みました!", + "loaded": "読み込みました" + }, + + "save": { + "saveWithEllipsis": "保存...", + "save": "保存", + "savingWithEllipsis": "保存中...", + "saving": "保存中", + "savedWithExclamation": "保存しました!", + "saved": "保存しました" + }, + + "saveAs": { + "saveAsWithEllipsis": "名前を付けて保存...", + "saveAs": "名前を付けて保存" + }, + + "saveAsNew": { + "saveAsNewWithEllipsis": "名前を付けて保存...", + "saveAsNew": "名前を付けて保存" + }, + + "search": { + "searchWithEllipsis": "検索...", + "search": "検索", + "searchingWithEllipsis": "検索中...", + "searching": "検索中" + }, + + "update": { + "updateWithEllipsis": "更新...", + "update": "更新", + "updatingWithEllipsis": "更新中...", + "updating": "更新中", + "updatedWithExclamation": "更新しました!", + "updated": "更新しました" + }, + + "create": { + "createWithEllipsis": "作成...", + "create": "作成", + "creatingWithEllipsis": "作成中...", + "creating": "作成中", + "createdWithExclamation": "作成しました!", + "created": "作成しました" + }, + + "reset": { + "resetWithEllipsis": "リセット...", + "reset": "リセット", + "resettingWithEllipsis": "リセット中...", + "resetting": "リセット中" + }, + + "pause": { + "pause": "一時停止", + "pausingWithEllipsis": "一時停止中...", + "pausing": "一時停止中", + "paused": "一時停止" + }, + + "download": { + "download": "ダウンロード", + "downloadingWithEllipsis": "ダウンロード中...", + "downloading": "ダウンロード中", + "downloadedWithExclamation": "ダウンロードしました!", + "downloaded": "ダウンロードしました" + }, + + "upload": { + "uploadWithEllipsis": "アップロード...", + "upload": "アップロード", + "uploadingWithEllipsis": "アップロード中...", + "uploading": "アップロード中", + "uploadedWithExclamation": "アップロードしました!", + "uploaded": "アップロードしました" + }, + + "remove": { + "removeWithEllipsis": "削除...", + "remove": "削除", + "removingWithEllipsis": "削除中...", + "removing": "削除中", + "removedWithExclamation": "削除しました!", + "removed": "削除しました" + }, + + "uninstall": { + "uninstallWithEllipsis": "アンインストール...", + "uninstall": "アンインストール", + "uninstallingWithEllipsis": "アンインストール中...", + "uninstalling": "アンインストール中", + "uninstalledWithExclamation": "アンインストールしました!", + "uninstalled": "アンインストールしました" + }, + + "resume": { + "resumeWithEllipsis": "再開...", + "resume": "再開", + "resumingWithEllipsis": "再開中...", + "resuming": "再開中" + }, + + "start": { + "startWithEllipsis": "開始...", + "start": "開始", + "startingWithEllipsis": "開始中...", + "starting": "開始中", + "started": "開始しました" + }, + + "stop": { + "stopWithEllipsis": "停止...", + "stop": "停止", + "stoppingWithEllipsis": "停止中...", + "stopping": "停止中", + "stoppedWithExclamation": "停止しました!", + "stopped": "停止しました" + }, + + "import": { + "importWithEllipsis": "インポート...", + "import": "インポート", + "importingWithEllipsis": "インポート中...", + "importing": "インポート中", + "importedWithExclamation": "インポートしました!", + "imported": "インポートしました" + }, + + "letsGo": { + "letsGo": "Let's Go", + "letsGoWithEllipsis": "Let's Go...", + "letsGoWithExclamation": "Let's Go!" + }, + + "run": { + "runWithEllipsis": "実行...", + "run": "実行", + "runningWithEllipsis": "実行中...", + "running": "実行中" + }, + + "configure": { + "configureWithEllipsis": "設定...", + "configure": "設定", + "configuringWithEllipsis": "設定中...", + "configured": "設定完了" + }, + + "publish": { + "publishWithEllipsis": "公開...", + "publish": "公開", + "publishingWithEllipsis": "公開中...", + "publishing": "公開中", + "publishedWithExclamation": "公開しました!", + "published": "公開しました" + } } From a54a0b3ad137f0da38d1e73e8ea82cd264999a92 Mon Sep 17 00:00:00 2001 From: dai Date: Tue, 12 Aug 2025 11:23:34 +0900 Subject: [PATCH 3/9] Fix key name typo in Japanese settings MIME-Version: 1.0 Content-Type: text/plain; charset=UTF-8 Content-Transfer-Encoding: 8bit Corrected 'プライマリ' to 'primary' in chat migration hint and hasBetterHint objects to ensure proper key usage and consistency in the Japanese settings.json file. --- ja/settings.json | 4 ++-- 1 file changed, 2 insertions(+), 2 deletions(-) diff --git a/ja/settings.json b/ja/settings.json index f271495c..884ee18a 100644 --- a/ja/settings.json +++ b/ja/settings.json @@ -164,12 +164,12 @@ "action_other": "{{count}} チャットを移行", "inProgress": "チャットを移行中...", "hint": { - "プライマリ": "v0.3.0+ のチャット機能において、マルチバージョンチャットメッセージなどの新機能に対応するため、内部のデータ構造を再設計しました。古いチャットをアプリに表示させるためには、新しい形式へ移行する必要があります。", + "primary": "v0.3.0+ のチャット機能において、マルチバージョンチャットメッセージなどの新機能に対応するため、内部のデータ構造を再設計しました。古いチャットをアプリに表示させるためには、新しい形式へ移行する必要があります。", "details": "移行プロセスは古いチャットを削除するのではなく、新しい形式でのコピーを作成します。", "footer": "古いバージョンの LM Studio を通じて、古いチャットにアクセスすることは引き続き可能です。現在、画像は自動的に移行されません。" }, "hasBetterHint": { - "プライマリ": "古いチャットを移行してから、チャット移行ツールを改善しました。もう一度実行されますか?", + "primary": "古いチャットを移行してから、チャット移行ツールを改善しました。もう一度実行されますか?", "details": "移行プロセスは新しい形式のチャットを含む新しいフォルダーを作成します。古いチャットはそのまま残ります。", "footer": "古いバージョンの LM Studio を通じて、古いチャットにアクセスすることは引き続き可能です。現在、画像は自動的に移行されません。" }, From cb157653d3b5aade4a0685a0083c8fdd58bfb891 Mon Sep 17 00:00:00 2001 From: dai Date: Wed, 13 Aug 2025 12:49:35 +0900 Subject: [PATCH 4/9] Update ja/shared.json via copilot suggestion Co-authored-by: Copilot <175728472+Copilot@users.noreply.github.com> --- ja/shared.json | 6 +++--- 1 file changed, 3 insertions(+), 3 deletions(-) diff --git a/ja/shared.json b/ja/shared.json index 7d020837..4f8b551e 100644 --- a/ja/shared.json +++ b/ja/shared.json @@ -274,9 +274,9 @@ }, "letsGo": { - "letsGo": "Let's Go", - "letsGoWithEllipsis": "Let's Go...", - "letsGoWithExclamation": "Let's Go!" + "letsGo": "始めましょう", + "letsGoWithEllipsis": "始めましょう...", + "letsGoWithExclamation": "始めましょう!" }, "run": { From 13917d6edeb3944420cffcef2277e1c62189b0c6 Mon Sep 17 00:00:00 2001 From: dai Date: Wed, 13 Aug 2025 12:51:41 +0900 Subject: [PATCH 5/9] Update ja/settings.json Co-authored-by: Copilot <175728472+Copilot@users.noreply.github.com> --- ja/settings.json | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/ja/settings.json b/ja/settings.json index 884ee18a..5b96a6c8 100644 --- a/ja/settings.json +++ b/ja/settings.json @@ -33,7 +33,7 @@ "appUpdatedToastDescriptionPrefix": "を表示", "AppUpdatedToastDescriptionReleaseNotes": "リリースノート", "toolUseToastTitle": "ベータの新機能: Tool Use と Function Calls API", - "toolUseToastDescription": "Drop-in replacement for OpenAI Tool Use with select models such as Llama 3.1/3.2, Mistral, and Qwen.", + "toolUseToastDescription": "Llama 3.1/3.2、Mistral、Qwen などの一部モデルで OpenAI Tool Use をそのまま置き換えて利用できます。", "toolUseToastButtonText": "開発者ページに行き試してみる", "doItLater": "後でやります", "failedToUpdate": "アプリの更新に失敗しました。インターネット接続を再確認するか、後でもう一度お試しください。", From 97ad5ff2adb586b62424d5794eacd082b0413767 Mon Sep 17 00:00:00 2001 From: dai Date: Fri, 22 Aug 2025 16:03:07 +0900 Subject: [PATCH 6/9] Update Japanese translations for model settings Added and revised Japanese translations in config.json and settings.json, including new options for MoE expert layer CPU offload, default context length, and improved terminology for seed and tool call confirmation. These changes enhance clarity and provide support for new model configuration features. --- ja/config.json | 7 +++++-- ja/settings.json | 17 ++++++++++++++++- 2 files changed, 21 insertions(+), 3 deletions(-) diff --git a/ja/config.json b/ja/config.json index bb475d14..9618aba7 100644 --- a/ja/config.json +++ b/ja/config.json @@ -136,10 +136,13 @@ "llm.load.contextLength/subTitle": "モデルが一つのプロンプトで処理できる最大トークン数。これを管理する方法については、「推論パラメータ」の下の会話オーバーフロー オプションを参照してください", "llm.load.contextLength/info": "モデルが一度に考慮できるトークンの最大数を指定し、処理中に保持するコンテキストの量に影響します", "llm.load.contextLength/warning": "コンテキスト長に高い値を設定すると、メモリ使用量に大きな影響を与える可能性があります", - "llm.load.seed/title": "Seed", + "llm.load.seed/title": "シード", "llm.load.seed/subTitle": "テキスト生成で使用される乱数ジェネレータのシード。-1はランダムです", "llm.load.seed/info": "ランダムシード:再現可能な結果を保証するために、乱数生成のシードを設定します", - + "llm.load.numCpuExpertLayersRatio/title": "モデルエキスパート重みをCPUに強制", + "llm.load.numCpuExpertLayersRatio/subTitle": "MoEエキスパート重みをCPU RAMに強制するかどうか。VRAMを節約でき、部分的なGPUオフロードより高速になる場合があります。モデルがVRAMに完全に収まる場合は推奨されません。", + "llm.load.numCpuExpertLayersRatio/info": "すべてのMoEエキスパートレイヤーをCPU RAMに配置するかどうかを指定します。注意レイヤーはGPUに残り、VRAMを節約しながら推論を比較的高速に保ちます。", + "llm.load.numCpuExpertLayersRatio/turnedOnWarning": "⚠️ モデルがVRAMに完全に収まる場合は、これを無効にする必要があります", "llm.load.llama.evalBatchSize/title": "評価バッチサイズ", "llm.load.llama.evalBatchSize/subTitle": "一度に処理する入力トークンの数。これを増やすとメモリ使用量は増えますがパフォーマンスが向上します", "llm.load.llama.evalBatchSize/info": "評価中に一つのバッチで一緒に処理される例の数を設定し、速度とメモリ使用量に影響します", diff --git a/ja/settings.json b/ja/settings.json index 5b96a6c8..0ed00fee 100644 --- a/ja/settings.json +++ b/ja/settings.json @@ -92,6 +92,7 @@ "changeLanguageLabel": "アプリの言語を選択 (まだ開発中)", "developerLabel": "開発者", "localServiceLabel": "ローカルLLMサービス (ヘッドレス)", + "modelDefaultsLabel": "モデルのデフォルト設定", "showExperimentalFeaturesLabel": "実験的機能を表示", "appFirstLoadLabel": "アプリ初回ロード体験", "showDebugInfoBlocksInChatLabel": "チャットにデバッグ情報ブロックを表示", @@ -183,7 +184,7 @@ "dismissConfirmDescription": "チャットの移行は、設定からいつでも行うことができます。" }, "toolConfirmation": { - "label": "Tool Call 確認", + "label": "ツール呼び出しの確認", "neverAsk": { "label": "ツールを実行する前に確認を求めない (推奨しません)", "hint": "ツールを実行する前の確認を無効にします。これは推奨されません。", @@ -191,5 +192,19 @@ "warnDescription": "ツール呼び出しの確認を無効にすることは危険です。プラグインのいずれかが、破壊的なアクションを実行する可能性のあるツールを提供している場合(コマンドの実行、ファイルの削除、ファイルの上書き、ファイルのアップロードなど)、モデルは確認なしにそれを実行できるようになります。ツールごと、またはプラグインごとに確認を無効にすることは常に可能です。このオプションを有効にすることは推奨されません。十分に注意してください。", "warnButton": "リスクを理解しました" } + }, + + "defaultContextLength": { + "label": "デフォルトのコンテキスト長", + "maxTitle": "モデルの最大値", + "customTitle": "カスタム値", + "maxSubtitle": "各モデルがサポートする最大のコンテキスト長を使用します。", + "customSubtitle": "新しいモデルを読み込む際のデフォルトのコンテキスト長を設定します。モデルが対応する最大コンテキスト長がより短い場合は、その値が使用されます。", + "invalidNaNError": "無効なコンテキスト長の値です。{{value}} を使用します。", + "invalidRangeError": "無効なコンテキスト長の値です。1から2^30の範囲で指定してください。{{value}} を使用します。", + "largeContextWarning": "コンテキスト長が大きいほど、モデルが使用するメモリも増加します。よく分からない場合は、デフォルト値を変更しないでください。" + }, + "jitTTL": { + "subtitle": "JIT で読み込まれたモデルは、指定された時間アイドル状態が続くと自動的にアンロードされます。" } } From c82fafe4f4c76c3171603c7c7ca5a0101b30a7c8 Mon Sep 17 00:00:00 2001 From: dai Date: Fri, 22 Aug 2025 16:05:58 +0900 Subject: [PATCH 7/9] Fix markdown link formatting in localization credits Removed extra spaces in markdown links for several contributors in the localization section of README.md to ensure proper link rendering. --- README.md | 8 ++++---- 1 file changed, 4 insertions(+), 4 deletions(-) diff --git a/README.md b/README.md index 8595fabd..c0197624 100644 --- a/README.md +++ b/README.md @@ -23,11 +23,11 @@ LM Studio localization - Vietnamese [@trinhvanminh](https://github.com/trinhvanminh), [@godkyo98](https://github.com/godkyo98) - Portuguese (BR) [@Sm1g00l](https://github.com/Sm1g00l), [@altiereslima](https://github.com/altiereslima) - Portuguese (PT) [@catarino](https://github.com/catarino) -- Chinese (zh-CN) [@neotan](https://github.com/neotan), [@SweetDream0256](https://github.com/SweetDream0256), [@enKl03B](https://github.com/enKl03B), [@evansrrr](https://github.com/evansrrr), [@xkonglong](https://github.com/xkonglong), [@shadow01a](https://github.com/shadow01a), [@Mabbs] (https://github.com/Mabbs), [@WhatDamon] (https://github.com/WhatDamon) -- Chinese (zh-HK), (zh-TW) [@neotan](https://github.com/neotan), [ceshizhuanyong895](https://github.com/ceshizhuanyong895), [@BrassaiKao](https://github.com/BrassaiKao), [@AlphaSu1978] (https://github.com/AlphaSu1978), [@HJ-zhtw] (https://github.com/HJ-zhtw) +- Chinese (zh-CN) [@neotan](https://github.com/neotan), [@SweetDream0256](https://github.com/SweetDream0256), [@enKl03B](https://github.com/enKl03B), [@evansrrr](https://github.com/evansrrr), [@xkonglong](https://github.com/xkonglong), [@shadow01a](https://github.com/shadow01a), [@Mabbs](https://github.com/Mabbs), [@WhatDamon](https://github.com/WhatDamon) +- Chinese (zh-HK), (zh-TW) [@neotan](https://github.com/neotan), [ceshizhuanyong895](https://github.com/ceshizhuanyong895), [@BrassaiKao](https://github.com/BrassaiKao), [@AlphaSu1978](https://github.com/AlphaSu1978), [@HJ-zhtw](https://github.com/HJ-zhtw) - Chinese (zh-Hant) [@kywarai](https://github.com/kywarai), [ceshizhuanyong895](https://github.com/ceshizhuanyong895) - Ukrainian (uk) [@hmelenok](https://github.com/hmelenok) -- Japanese (ja) [@digitalsp](https://github.com/digitalsp), [@era760](https://github.com/era760), [@dai] (https://github.com/dai) +- Japanese (ja) [@digitalsp](https://github.com/digitalsp), [@era760](https://github.com/era760), [@dai](https://github.com/dai) - Dutch (nl) [@alaaf11](https://github.com/alaaf11) - Italian (it) [@fralapo](https://github.com/fralapo), [@Bl4ck-D0g](https://github.com/Bl4ck-D0g), [@nikypalma](https://github.com/nikypalma) - Indonesian (id) [@dwirx](https://github.com/dwirx) @@ -47,5 +47,5 @@ LM Studio localization Still under development (due to lack of RTL support in LM Studio) - Hebrew: [@NHLOCAL](https://github.com/NHLOCAL) -- Persian (Farsi) (fa) [@mohammad007kh](https://github.com/mohammad007kh), [@darwindev]((https://github.com/darwindev) +- Persian (Farsi) (fa) [@mohammad007kh](https://github.com/mohammad007kh), [@darwindev](https://github.com/darwindev) - Arabic (ar) [@haqbany](https://github.com/haqbany) From d3fe6500cbcd5d9da49f6a3801b58e3f114ecf30 Mon Sep 17 00:00:00 2001 From: dai Date: Wed, 24 Sep 2025 13:58:28 +0900 Subject: [PATCH 8/9] chore: Update Japanese translations for presets and models Replaced 'commit' terminology with 'save' in ja/config.json for preset actions. Added new MCP server options in ja/developer.json. Introduced guardrails and memory usage messages for model loading in ja/models.json. --- ja/config.json | 26 +++++++++++++------------- ja/developer.json | 6 ++++++ ja/models.json | 10 ++++++++++ 3 files changed, 29 insertions(+), 13 deletions(-) diff --git a/ja/config.json b/ja/config.json index 9618aba7..7bf5ba4c 100644 --- a/ja/config.json +++ b/ja/config.json @@ -375,21 +375,21 @@ "presets": { "title": "プリセット", - "commitChanges": "変更をコミット", - "commitChanges/description": "変更をプリセットにコミットします。", - "commitChanges.manual": "新しいフィールドが検出されました。プリセットに含める変更を選択できます。", - "commitChanges.manual.hold.0": "押しながら", - "commitChanges.manual.hold.1": "をクリックして、プリセットにコミットする変更を選択してください。", - "commitChanges.saveAll.hold.0": "押しながら", - "commitChanges.saveAll.hold.1": "をクリックして、すべての変更を保存してください。", - "commitChanges.saveInPreset.hold.0": "押しながら", - "commitChanges.saveInPreset.hold.1": "をクリックして、プリセットに既に含まれているフィールドのみの変更を保存してください。", - "commitChanges/error": "プリセットへの変更のコミットに失敗しました。", - "commitChanges.manual/description": "プリセットに含める変更を選択してください。", + "saveChanges": "保存", + "saveChanges/description": "プリセットへの変更を保存します。", + "saveChanges.manual": "新しいフィールドが検出されました。プリセットに含める変更を選択できます。", + "saveChanges.manual.hold.0": "押しながら", + "saveChanges.manual.hold.1": "をクリックして、プリセットに保存する変更を選択してください。", + "saveChanges.saveAll.hold.0": "押しながら", + "saveChanges.saveAll.hold.1": "をクリックして、すべての変更を保存してください。", + "saveChanges.saveInPreset.hold.0": "押しながら", + "saveChanges.saveInPreset.hold.1": "をクリックして、プリセットに既に含まれているフィールドのみの変更を保存してください。", + "saveChanges/error": "プリセットへの変更の保存に失敗しました。", + "saveChanges.manual/description": "プリセットに含める変更を選択してください。", "saveAs": "新規保存...", "presetNamePlaceholder": "プリセットの名前を入力...", "cannotCommitChangesLegacy": "これはレガシープリセットで変更できません。「新規保存...」を使用してコピーを作成できます。", - "cannotCommitChangesNoChanges": "コミットする変更がありません。", + "cannotSaveChangesNoChanges": "保存する変更がありません。", "emptyNoUnsaved": "プリセットを選択...", "emptyWithUnsaved": "未保存のプリセット", "saveEmptyWithUnsaved": "プリセットに名前を付けて保存...", @@ -402,7 +402,7 @@ "select/error": "プリセットの選択に失敗しました。", "delete/error": "プリセットの削除に失敗しました。", "discardChanges": "未保存を破棄", - "discardChanges/info": "すべての未コミット変更を破棄し、プリセットを元の状態に復元します", + "discardChanges/info": "すべての未保存の変更を破棄し、プリセットを元の状態に復元します", "newEmptyPreset": "+ 新しいプリセット", "importPreset": "インポート", "contextMenuCopyIdentifier": "プリセット識別子をコピー", diff --git a/ja/developer.json b/ja/developer.json index 87be85ed..feacce39 100644 --- a/ja/developer.json +++ b/ja/developer.json @@ -47,6 +47,12 @@ "serverOptions/jitModelLoadingTTL/ttl/unit": "分", "serverOptions/unloadPreviousJITModelOnLoad/title": "最後のJITロードモデルのみを保持", "serverOptions/unloadPreviousJITModelOnLoad/hint": "任意の時点でJITを介してロードされるモデルは最大1つに制限されます(以前のモデルはアンロードされます)", + "serverOptions/allowMcp/title": "MCPを許可", + "serverOptions/allowMcp/hint": "サーバーリクエストがMCPを使用できるようにする方法を選択します。MCPサーバーのインストールと使用には常に注意してください。安全でない可能性があります。", + "serverOptions/allowMcp/mode/off": "オフ", + "serverOptions/allowMcp/mode/off/hint": "サーバーリクエストがMCPを使用することを許可しない", + "serverOptions/allowMcp/mode/mcpJson": "mcp.json", + "serverOptions/allowMcp/mode/mcpJson/hint": "mcp.jsonで構成されたMCPサーバーを許可します", "serverLogs/scrollToBottom": "一番下に移動", "serverLogs/clearLogs": "ログをクリア ({{shortcut}})", diff --git a/ja/models.json b/ja/models.json index fb8d9821..8d8903f2 100644 --- a/ja/models.json +++ b/ja/models.json @@ -95,6 +95,16 @@ "loader.info.clickOnModelToLoad": "モデルをクリックして読み込みます", "loader.info.configureLoadParameters": "モデルの読み込みパラメーターを設定します", "loader.info.activeGeneratorWarning": "カスタムジェネレーターを使用しているプラグインを使用しています。このプラグインに応じて、現在読み込まれているモデルが適用される場合とされない場合があります", + "loader.guardrails.estimatedMemoryUsage": "推定メモリ使用量:", + "loader.guardrails.total": "計", + "loader.guardrails.gpu": "GPU", + "loader.guardrails.unavailable": "このモデルのメモリ推定値は利用できません", + "loader.guardrails.notEnoughResources": "現在の設定でモデルを読み込むためのリソースが不足しています", + "loader.guardrails.notEnoughResources/moreInfo": "詳細情報", + "loader.guardrails.notEnoughResources.moreInfoSection.appearsNotEnoughMemory": "システムにこのモデルを読み込むのに十分なメモリがないようです。", + "loader.guardrails.notEnoughResources.moreInfoSection.conditionalEstimate": "推定では のメモリが必要です。", + "loader.guardrails.notEnoughResources.moreInfoSection.ifYouBelieveThisIsIncorrect": "設定でモデルの読み込みガードレールを調整するか、 を押しながら読み込むことができます。", + "loader.guardrails.notEnoughResources.moreInfoSection.note": "注: 大きすぎるモデルを読み込むと、システムがオーバーロードされてフリーズする可能性があります。", "virtual": { "local": { From d9a56958595795d337274f1b09ae3afb1e4dcebc Mon Sep 17 00:00:00 2001 From: dai Date: Thu, 29 Jan 2026 11:07:35 +0900 Subject: [PATCH 9/9] feat: Update Japanese localization files for shared and sidebar components - Enhanced translations in shared.json, including new entries for "beta" and improved formatting. - Updated sidebar.json to maintain consistent formatting and structure. --- ja/chat.json | 494 +++++++++--------- ja/config.json | 1238 +++++++++++++++++++++++---------------------- ja/developer.json | 381 +++++++------- ja/models.json | 257 +++++----- ja/settings.json | 424 ++++++++-------- ja/shared.json | 609 +++++++++++----------- ja/sidebar.json | 18 +- 7 files changed, 1726 insertions(+), 1695 deletions(-) diff --git a/ja/chat.json b/ja/chat.json index 00478d3b..a1ef07d6 100644 --- a/ja/chat.json +++ b/ja/chat.json @@ -1,246 +1,250 @@ -{ - "modelLoaderPlaceholder": "モデルを選択してください", - "systemPromptPlaceholder": "システムプロンプトを設定", - "userRoleText": "ユーザー", - "assistantRoleText": "アシスタント", - "addMessageButtonText": "追加", - "addMessageButtonText/toolTip": "予測を実行せずにコンテキストにメッセージを挿入します", - "sendMessageButtonText": "送信", - "sendMessageButtonText/toolTip": "プロンプトと会話履歴をモデルに送信して処理します", - "ejectButtonText": "取り出す", - "unloadTooltip": "モデルをメモリから取り出します", - "cancelButtonText": "キャンセル", - "loadButtonText": "読み込む", - "advancedSegmentText": "詳細設定", - "chatSegmentText": "チャット", - "chatSidebarTitle": "チャット一覧", - "newChatButton": "新規チャット", - "newFolderButton": "新規フォルダー", - "viewModeLabel": "表示モード", - "noChatSelected": "チャットが選択されていません", - "chatViewOptions": "チャット表示オプション", - "uiControls/title": "表示設定", - "noChatSelectedPlaceholder": "チャットを選択してください", - "unnamedChat": "無名チャット", - "emptyFolder": "フォルダーは空です", - - "tokenCount": "トークン数", - "messageTokenCount": "入力トークン数", - "tokenCount/hint": "メッセージ内のトークン数。現在選択されているモデルのトークナイザーでカウントされます。\n\nモデルの読み込みが必要です。", - "messageTokenCount/hint": "メッセージ内のトークン数。現在選択されているモデルのトークナイザーでカウントされます。\n\nファイル添付のトークン数は含みません。", - - "notes": "会話メモ", - "notes/add/first": "メモを追加", - "notes/add/another": "さらにメモを追加", - "notes/hint": "このチャットにメモを保存します。メモは参照用で、モデルには送信されません。すべて自動保存されます。", - "notes/placeholder": "ここにメモを入力...", - "notes/delete": "メモを削除", - "notes/noteLabel": "メモ", - "notes/copyContent": "メモ内容をコピー", - - "actions/sendMessage/error": "メッセージの送信に失敗しました", - "actions/loadModel/error": "🥲 モデルの読み込みに失敗しました", - "actions/addFile": "[実験的] このメッセージにファイルを添付\n(.pdf、テキスト、または .docx)", - "actions/addFile/label": "ファイルを添付", - "actions/changeRole": "ユーザーとアシスタントの役割を切り替えます。\n\n会話を特定の方向に誘導したい場合に便利です。\n\n「few-shot learning」や「in-context learning」のシナリオにも使用できます", - "actions/addImage": "画像を添付", - "actions/deleteMessage": "メッセージを削除", - "actions/deleteMessage/confirmation": "このメッセージを削除してもよろしいですか?", - "actions/copyMessage": "メッセージをコピー", - "actions/editMessage": "メッセージを編集", - "actions/editMessage/cannotEditPreprocessed": "前処理済みメッセージは編集できません。前処理後に上書きされるためです。編集するには、\n\n - 元のメッセージに切り替えて編集する\n - 前処理を変更して希望の出力にする\nいずれかを行ってください。", - "actions/regenerateMessage": "メッセージを再生成", - "actions/regenerateMessage/error": "メッセージの再生成に失敗しました", - "actions/branchChat": "このメッセージ以降でチャットを分岐", - "actions/branchChat/error": "チャットの分岐に失敗しました", - "actions/continueAssistantMessage": "アシスタントメッセージを続ける", - "actions/continueAssistantMessage/error": "アシスタントメッセージの継続に失敗しました", - "actions/predictNext": "AI応答を生成", - "actions/predictNext/error": "AI応答の生成に失敗しました", - "actions/loadLastModel": "前回使用したモデルを再読み込み", - "actions/loadLastModel/tooltip": "このチャットで最後に使用したモデルを読み込むにはクリック:\n\n{{lastModel}}", - "actions/loadLastModel/error": "前回使用したモデルの読み込みに失敗しました。", - "actions/continueCurrentModel": "現在のモデルを使用", - "actions/continueCurrentModel/tooltip": "現在のモデル: {{currentModel}}", - "actions/changeToLastUsedModel": "{{lastModel}}を読み込む", - "actions/changeToLastUsedModel/error": "前回使用したモデルへの変更に失敗しました。", - "actions/changeToLastUsedModel/tooltip": "このチャットで前回送信時に使用したモデルは異なります。現在選択されているモデル({{currentModel}})を取り出し、前回使用したモデル({{lastModel}})を読み込むにはクリック:\n\n{{lastModel}}", - "actions/switchToLastUsedModel": "{{lastModel}}に切り替え", - "actions/switchToLastUsedModel/tooltip": "前回使用したモデルに切り替えるにはクリック:\n\n{{lastModel}}", - "actions/loadModel": "モデルを読み込む", - "actions/toggleViewingProcessed/currentlyFalse": "現在は元のメッセージを表示中。前処理済みメッセージを表示するにはクリック。", - "actions/toggleViewingProcessed/currentlyTrue": "現在は前処理済みメッセージを表示中。元のメッセージを表示するにはクリック。", - "actions/toggleViewingProcessed/hint": "メッセージはモデルに送信される前にプロンプト前処理で加工される場合があります。元のメッセージと前処理済みメッセージの表示を切り替えます。モデルに送信されるのは前処理済みメッセージのみです。", - "editMessageConfirm/title": "変更を保存しますか?", - "editMessageConfirm/message": "メッセージを変更しました。保存しますか?", - "editMessageConfirm/keepEditing": "編集を続ける", - "editMessageConfirm/save": "保存", - "editMessageConfirm/discard": "変更を破棄", - "tokenCount/totalNotAvailable": "トークン: {{current}}", - "tokenCount/totalAvailable": "トークン: {{current}}/{{total}}", - "tokenCount/totalAvailablePercentage": "コンテキストは{{percentage}}%使用中", - "tokenCount/contextOverflow": "未処理のコンテキストがモデルの最大トークン制限を超えています。コンテキストオーバーフローポリシーにより、コンテキストが切り捨てられるか、メッセージが送信されない場合があります。", - "modelLoader/manualLoadParams/label": "モデル読み込みパラメータを手動で選択", - "modelLoader/manualLoadParams/hint/before": "(または ", - "modelLoader/manualLoadParams/hint/after": " を押しながら)", - "actions/move/error": "移動に失敗しました", - "actions/rename/error": "名前の変更に失敗しました", - "actions/createChatAtRoot": "新規チャット...", - "actions/createChatAtRoot/error": "ルートでチャットの作成に失敗しました", - "actions/createFolderAtRoot": "新規フォルダー...", - "actions/createFolderAtRoot/error": "ルートでフォルダーの作成に失敗しました", - "actions/openInFolder/mac": "Finderで表示", - "actions/openInFolder/pc": "エクスプローラーで表示", - - "actions/createChat/error": "チャットの作成に失敗しました", - "actions/deleteChat/errorTitle": "チャットの削除に失敗しました", - - "userFile/fileSizeLimit": "ファイルサイズ上限: ", - "userFile/noImageSupport": "モデルは画像入力に対応していません", - "userFile/errorPrefix": "エラー - ", - "userFile/supportedImagePrefix": "未対応の画像タイプ - ", - "userFile/supportedImageSuffix": " のみ対応しています", - "userFile/unsupportedFileType": "未対応のファイルタイプ - 画像、PDF、.txtファイルのみ対応しています。", - "userFile/maxFilesPerMessage": "1メッセージあたりのファイル数上限に達しました。{{files}}個以上は追加できません。", - "userFile/maxFileSizePerMessage": "1メッセージあたりのファイルサイズ上限に達しました。{{size}}より大きいファイルは追加できません。", - "userFile/maxFileSizePerConversation": "1会話あたりのファイルサイズ上限に達しました。{{size}}より大きいファイルは追加できません。", - "userFile/failedToUploadError/title": "ファイルのアップロードに失敗しました", - "userFile/failedToAddFile/title": "チャットへのファイル追加に失敗しました", - "errorTitle": "エラー", - "userFile/chatTerminalDocumentsCount_one": "チャット内のドキュメント: {{count}}件", - "userFile/chatTerminalDocumentsCount_other": "チャット内のドキュメント: {{count}}件", - - "prediction/busyModel/title": "モデルが処理中です", - "prediction/busyModel/message": "モデルの処理が終わるまでお待ちください", - "prediction/noModel/title": "モデルが選択されていません", - "prediction/modelLoading": "メッセージがキューに入りました。モデルの読み込みが終わり次第送信されます", - "prediction/noModel/message": "メッセージを送信するにはモデルを選択してください", - "prediction/unloadModel/error": "モデルの取り出しに失敗しました", - - "retrieval/user/processingLabel": "AIが思考中...", - "retrieval/powerUser/intermediateStepsHidden": "中間ステップは非表示です。クリックで展開。", - "retrieval/actions/clickToExpand": "中間ステップを展開", - "retrieval/actions/clickToCollapse": "中間ステップを折りたたむ", - - "style": "外観", - - "style/viewMode/markdown": "Markdown", - "style/viewMode/plaintext": "プレーンテキスト", - "style/viewMode/monospace": "等幅フォント", - - "speculativeDecodingVisualization/toggle": "受理されたドラフトトークンを可視化", - "speculativeDecodingVisualization/fromDraftModel_one": "受理されたドラフトトークン", - "speculativeDecodingVisualization/fromDraftModel_other": "受理されたドラフトトークン", - "speculativeDecodingVisualization/cannotChangeViewMode": "ドラフトトークン可視化中は表示モードの選択はできません。", - - "style/fontSize/label": "フォントサイズ", - "style/fontSize/medium": "標準", - "style/fontSize/large": "大きい", - "style/fontSize/small": "小さい", - - "style/debugBlocks/label": "デバッグ情報ブロックを表示", - - "style/thinkingUI/label": "推論ブロックをデフォルトで展開", - "style/chatFullWidth/label": "チャットコンテナをウィンドウ幅に拡張", - - "style/chatUtilityMenusShowLabel/label": "チャットユーティリティメニューのラベルを表示", - - "messageBlocks": { - "expandBlockTooltip": "内容を展開", - "collapseBlockTooltip": "内容を折りたたむ", - "debug": { - "label": "デバッグ情報", - "collapseTooltip": "デバッグ情報ブロックを折りたたむ", - "expandTooltip": "デバッグ情報ブロックを展開" - } - }, - - "chatTabOptions/clearAllMessages": "すべてのメッセージをクリア...", - "chatTabOptions/duplicateChat": "チャットを複製", - - "topBarActions/duplicateChat": "複製", - "topBarActions/clearChat": "すべてクリア", - "topBarActions/clearChatConfirmation": "このチャットのすべてのメッセージをクリアしてもよろしいですか?", - "topBarActions/clearChatCancel": "キャンセル", - "topBarActions/clearChatDelete": "すべてクリア", - - "noModels.indexing": "モデルファイルをインデックス作成中...(しばらくお待ちください)", - "noModels.downloading": "最初のLLMをダウンロード中...", - "noModels": "まだLLMがありません!ダウンロードして始めましょう!", - - "plugins": { - "pluginTrigger": { - "noPlugins": "プラグイン", - "multiplePlugins": "{{dynamicValue}}個のプラグイン" - }, - "pluginSelect": { - "title": "プラグイン", - "dropdown": { - "configure": "設定", - "disable": "無効化", - "fork": "フォーク", - "uninstall": "アンインストール" - }, - "actionButtons": { - "create": "作成", - "import": "インポート", - "discover": "発見" - }, - "recentlyCreated": { - "title": "最近作成したプラグイン", - "placeholder": "作成したプラグインはここに表示されます" - }, - "startRunningDevelopmentPlugin/error": "開発モードでプラグインの実行開始に失敗しました", - "stopRunningDevelopmentPlugin/error": "開発モードでプラグインの実行停止に失敗しました", - "forceReInitPlugin/error": "プラグインの再起動に失敗しました" - }, - "pluginConfiguration": { - "title": "プラグイン設定", - "selectAPlugin": "編集するプラグインを選択してください", - "preprocessorAndGenerator": "このプラグインにはカスタム前処理と生成器が含まれています", - "generatorOnly": "このプラグインにはカスタム生成器のみ含まれています", - "preprocessorOnly": "このプラグインにはカスタム前処理のみ含まれています" - }, - "instructions": { - "runTheFollowing": "プラグインを実行するには、ターミナルで以下を入力してください", - "pushTo": "Hubにプラグインを公開して他の人と共有しましょう(任意)", - "createdSuccessfully": "プラグインが正常に作成されました", - "creatingPlugin": "プラグイン作成中...", - "projectFilesTitle": "プロジェクトファイル", - "buttons": { - "documentation": "ドキュメント", - "dismiss": "閉じる", - "publish": "公開", - "openInZed": "Zedで開く", - "openInVscode": "VS Codeで開く", - "revealInFinder": "Finderで表示", - "openInFileExplorer": "エクスプローラーで表示" - } - }, - "localFork": { - "error": "プラグインのローカル開発コピー作成に失敗しました。" - }, - "restartErrorPlugin/error": "プラグインの再起動に失敗しました" - }, - - "genInfo": { - "tokensPerSecond": "{{tokensPerSecond}} トークン/秒", - "predictedTokensCount": "{{predictedTokensCount}} トークン", - "timeToFirstTokenSec": "最初のトークンまで{{timeToFirstTokenSec}}秒", - "stopReason": "停止理由: {{stopReason}}", - "stopReason.userStopped": "ユーザーによる停止", - "stopReason.modelUnloaded": "モデルが取り出されました", - "stopReason.failed": "生成に失敗しました", - "stopReason.eosFound": "EOSトークン検出", - "stopReason.stopStringFound": "停止文字列検出", - "stopReason.toolCalls": "ツール呼び出し", - "stopReason.maxPredictedTokensReached": "最大予測トークン数に到達", - "stopReason.contextLengthReached": "コンテキスト長制限に到達", - "speculativeDecodedBy": "ドラフトモデル: {{decodedBy}}", - "speculativeDecodingStats": "{{total}}個中{{accepted}}個のドラフトトークンを受理 ({{percentage}}%)" - }, - - "tabs": { - "systemPromptEditorTab.headerLabel": "システムプロンプト編集" - } +{ + "modelLoaderPlaceholder": "モデルを選択してください", + "systemPromptPlaceholder": "システムプロンプトを設定", + "userRoleText": "ユーザー", + "assistantRoleText": "アシスタント", + "addMessageButtonText": "追加", + "addMessageButtonText/toolTip": "予測を実行せずにコンテキストにメッセージを挿入します", + "sendMessageButtonText": "送信", + "sendMessageButtonText/toolTip": "プロンプトと会話履歴をモデルに送信して処理します", + "ejectButtonText": "取り出す", + "unloadTooltip": "モデルをメモリから取り出します", + "cancelButtonText": "キャンセル", + "loadButtonText": "読み込む", + "advancedSegmentText": "詳細設定", + "chatSegmentText": "チャット", + "chatSidebarTitle": "チャット一覧", + "newChatButton": "新規チャット", + "newFolderButton": "新規フォルダー", + "viewModeLabel": "表示モード", + "noChatSelected": "チャットが選択されていません", + "chatViewOptions": "チャット表示オプション", + "uiControls/title": "表示設定", + "noChatSelectedPlaceholder": "チャットを選択してください", + "unnamedChat": "無名チャット", + "emptyFolder": "フォルダーは空です", + + "tokenCount": "トークン数", + "messageTokenCount": "入力トークン数", + "tokenCount/hint": "メッセージ内のトークン数。現在選択されているモデルのトークナイザーでカウントされます。\n\nモデルの読み込みが必要です。", + "messageTokenCount/hint": "メッセージ内のトークン数。現在選択されているモデルのトークナイザーでカウントされます。\n\nファイル添付のトークン数は含みません。", + + "notes": "会話メモ", + "notes/add/first": "メモを追加", + "notes/add/another": "さらにメモを追加", + "notes/hint": "このチャットにメモを保存します。メモは参照用で、モデルには送信されません。すべて自動保存されます。", + "notes/placeholder": "ここにメモを入力...", + "notes/delete": "メモを削除", + "notes/noteLabel": "メモ", + "notes/copyContent": "メモ内容をコピー", + + "actions/sendMessage/error": "メッセージの送信に失敗しました", + "actions/loadModel/error": "🥲 モデルの読み込みに失敗しました", + "actions/addFile": "[実験的] このメッセージにファイルを添付\n(.pdf、テキスト、または .docx)", + "actions/addFile/label": "ファイルを添付", + "actions/changeRole": "ユーザーとアシスタントの役割を切り替えます。\n\n会話を特定の方向に誘導したい場合に便利です。\n\n「few-shot learning」や「in-context learning」のシナリオにも使用できます", + "actions/addImage": "画像を添付", + "actions/deleteMessage": "メッセージを削除", + "actions/deleteMessage/confirmation": "このメッセージを削除してもよろしいですか?", + "actions/copyMessage": "メッセージをコピー", + "actions/editMessage": "メッセージを編集", + "actions/editMessage/cannotEditPreprocessed": "前処理済みメッセージは編集できません。前処理後に上書きされるためです。編集するには、\n\n - 元のメッセージに切り替えて編集する\n - 前処理を変更して希望の出力にする\nいずれかを行ってください。", + "actions/regenerateMessage": "メッセージを再生成", + "actions/regenerateMessage/error": "メッセージの再生成に失敗しました", + "actions/branchChat": "このメッセージ以降でチャットを分岐", + "actions/branchChat/error": "チャットの分岐に失敗しました", + "actions/continueAssistantMessage": "アシスタントメッセージを続ける", + "actions/continueAssistantMessage/error": "アシスタントメッセージの継続に失敗しました", + "actions/predictNext": "AI応答を生成", + "actions/predictNext/error": "AI応答の生成に失敗しました", + "actions/loadLastModel": "前回使用したモデルを再読み込み", + "actions/loadLastModel/tooltip": "このチャットで最後に使用したモデルを読み込むにはクリック:\n\n{{lastModel}}", + "actions/loadLastModel/error": "前回使用したモデルの読み込みに失敗しました。", + "actions/clearLastUsedModel": "前回使用したモデルをクリア", + "actions/clearLastUsedModel/error": "前回使用したモデルのクリアに失敗しました。", + "actions/continueCurrentModel": "現在のモデルを使用", + "actions/continueCurrentModel/tooltip": "現在のモデル: {{currentModel}}", + "actions/changeToLastUsedModel": "{{lastModel}}を読み込む", + "actions/changeToLastUsedModel/error": "前回使用したモデルへの変更に失敗しました。", + "actions/changeToLastUsedModel/tooltip": "このチャットで前回送信時に使用したモデルは異なります。現在選択されているモデル({{currentModel}})を取り出し、前回使用したモデル({{lastModel}})を読み込むにはクリック:\n\n{{lastModel}}", + "actions/switchToLastUsedModel": "{{lastModel}}に切り替え", + "actions/switchToLastUsedModel/tooltip": "前回使用したモデルに切り替えるにはクリック:\n\n{{lastModel}}", + "actions/loadModel": "モデルを読み込む", + "actions/toggleViewingProcessed/currentlyFalse": "現在は元のメッセージを表示中。前処理済みメッセージを表示するにはクリック。", + "actions/toggleViewingProcessed/currentlyTrue": "現在は前処理済みメッセージを表示中。元のメッセージを表示するにはクリック。", + "actions/toggleViewingProcessed/hint": "メッセージはモデルに送信される前にプロンプト前処理で加工される場合があります。元のメッセージと前処理済みメッセージの表示を切り替えます。モデルに送信されるのは前処理済みメッセージのみです。", + "editMessageConfirm/title": "変更を保存しますか?", + "editMessageConfirm/message": "メッセージを変更しました。保存しますか?", + "editMessageConfirm/keepEditing": "編集を続ける", + "editMessageConfirm/save": "保存", + "editMessageConfirm/discard": "変更を破棄", + "tokenCount/totalNotAvailable": "トークン: {{current}}", + "tokenCount/totalAvailable": "トークン: {{current}}/{{total}}", + "tokenCount/totalAvailablePercentage": "コンテキストは{{percentage}}%使用中", + "tokenCount/contextOverflow": "未処理のコンテキストがモデルの最大トークン制限を超えています。コンテキストオーバーフローポリシーにより、コンテキストが切り捨てられるか、メッセージが送信されない場合があります。", + "modelLoader/manualLoadParams/label": "モデル読み込みパラメータを手動で選択", + "modelLoader/manualLoadParams/hint/before": "(または ", + "modelLoader/manualLoadParams/hint/after": " を押しながら)", + "actions/move/error": "移動に失敗しました", + "actions/rename/error": "名前の変更に失敗しました", + "actions/createChatAtRoot": "新規チャット...", + "actions/createChatAtRoot/error": "ルートでチャットの作成に失敗しました", + "actions/createFolderAtRoot": "新規フォルダー...", + "actions/createFolderAtRoot/error": "ルートでフォルダーの作成に失敗しました", + "actions/openInFolder/mac": "Finderで表示", + "actions/openInFolder/pc": "エクスプローラーで表示", + + "actions/createChat/error": "チャットの作成に失敗しました", + "actions/deleteChat/errorTitle": "チャットの削除に失敗しました", + + "userFile/fileSizeLimit": "ファイルサイズ上限: ", + "userFile/noImageSupport": "モデルは画像入力に対応していません", + "userFile/errorPrefix": "エラー - ", + "userFile/supportedImagePrefix": "未対応の画像タイプ - ", + "userFile/supportedImageSuffix": " のみ対応しています", + "userFile/unsupportedFileType": "未対応のファイルタイプ - 画像、PDF、.txtファイルのみ対応しています。", + "userFile/maxFilesPerMessage": "1メッセージあたりのファイル数上限に達しました。{{files}}個以上は追加できません。", + "userFile/maxFileSizePerMessage": "1メッセージあたりのファイルサイズ上限に達しました。{{size}}より大きいファイルは追加できません。", + "userFile/maxFileSizePerConversation": "1会話あたりのファイルサイズ上限に達しました。{{size}}より大きいファイルは追加できません。", + "userFile/failedToUploadError/title": "ファイルのアップロードに失敗しました", + "userFile/failedToAddFile/title": "チャットへのファイル追加に失敗しました", + "errorTitle": "エラー", + "userFile/chatTerminalDocumentsCount_one": "チャット内のドキュメント: {{count}}件", + "userFile/chatTerminalDocumentsCount_other": "チャット内のドキュメント: {{count}}件", + + "prediction/busyModel/title": "モデルが処理中です", + "prediction/busyModel/message": "モデルの処理が終わるまでお待ちください", + "prediction/noModel/title": "モデルが選択されていません", + "prediction/modelLoading": "メッセージがキューに入りました。モデルの読み込みが終わり次第送信されます", + "prediction/noModel/message": "メッセージを送信するにはモデルを選択してください", + "prediction/unloadModel/error": "モデルの取り出しに失敗しました", + + "retrieval/user/processingLabel": "AIが思考中...", + "retrieval/powerUser/intermediateStepsHidden": "中間ステップは非表示です。クリックで展開。", + "retrieval/actions/clickToExpand": "中間ステップを展開", + "retrieval/actions/clickToCollapse": "中間ステップを折りたたむ", + + "style": "外観", + + "style/viewMode/markdown": "Markdown", + "style/viewMode/plaintext": "プレーンテキスト", + "style/viewMode/monospace": "等幅フォント", + + "speculativeDecodingVisualization/toggle": "受理されたドラフトトークンを可視化", + "speculativeDecodingVisualization/fromDraftModel_one": "受理されたドラフトトークン", + "speculativeDecodingVisualization/fromDraftModel_other": "受理されたドラフトトークン", + "speculativeDecodingVisualization/cannotChangeViewMode": "ドラフトトークン可視化中は表示モードの選択はできません。", + + "style/fontSize/label": "フォントサイズ", + "style/fontSize/medium": "標準", + "style/fontSize/large": "大きい", + "style/fontSize/small": "小さい", + + "style/debugBlocks/label": "デバッグ情報ブロックを表示", + + "style/thinkingUI/label": "推論ブロックをデフォルトで展開", + "style/chatFullWidth/label": "チャットコンテナをウィンドウ幅に拡張", + + "style/chatUtilityMenusShowLabel/label": "チャットユーティリティメニューのラベルを表示", + + "messageBlocks": { + "expandBlockTooltip": "内容を展開", + "collapseBlockTooltip": "内容を折りたたむ", + "debug": { + "label": "デバッグ情報", + "collapseTooltip": "デバッグ情報ブロックを折りたたむ", + "expandTooltip": "デバッグ情報ブロックを展開" + } + }, + + "chatTabOptions/clearAllMessages": "すべてのメッセージをクリア...", + "chatTabOptions/duplicateChat": "チャットを複製", + + "topBarActions/duplicateChat": "複製", + "topBarActions/clearChat": "すべてクリア", + "topBarActions/clearChatConfirmation": "このチャットのすべてのメッセージをクリアしてもよろしいですか?", + "topBarActions/clearChatCancel": "キャンセル", + "topBarActions/clearChatDelete": "すべてクリア", + + "noModels.indexing": "モデルファイルをインデックス作成中...(しばらくお待ちください)", + "noModels.downloading": "最初のLLMをダウンロード中...", + "noModels": "まだLLMがありません!ダウンロードして始めましょう!", + + "plugins": { + "pluginTrigger": { + "noPlugins": "プラグイン", + "multiplePlugins": "{{dynamicValue}}個のプラグイン" + }, + "pluginSelect": { + "title": "プラグイン", + "dropdown": { + "configure": "設定", + "disable": "無効化", + "fork": "フォーク", + "uninstall": "アンインストール" + }, + "actionButtons": { + "create": "作成", + "import": "インポート", + "discover": "発見" + }, + "recentlyCreated": { + "title": "最近作成したプラグイン", + "placeholder": "作成したプラグインはここに表示されます" + }, + "startRunningDevelopmentPlugin/error": "開発モードでプラグインの実行開始に失敗しました", + "stopRunningDevelopmentPlugin/error": "開発モードでプラグインの実行停止に失敗しました", + "forceReInitPlugin/error": "プラグインの再起動に失敗しました" + }, + "pluginConfiguration": { + "title": "プラグイン設定", + "selectAPlugin": "編集するプラグインを選択してください", + "preprocessorAndGenerator": "このプラグインにはカスタム前処理と生成器が含まれています", + "generatorOnly": "このプラグインにはカスタム生成器のみ含まれています", + "preprocessorOnly": "このプラグインにはカスタム前処理のみ含まれています" + }, + "instructions": { + "runTheFollowing": "プラグインを実行するには、ターミナルで以下を入力してください", + "pushTo": "Hubにプラグインを公開して他の人と共有しましょう(任意)", + "createdSuccessfully": "プラグインが正常に作成されました", + "creatingPlugin": "プラグイン作成中...", + "projectFilesTitle": "プロジェクトファイル", + "buttons": { + "documentation": "ドキュメント", + "dismiss": "閉じる", + "publish": "公開", + "openInZed": "Zedで開く", + "openInVscode": "VS Codeで開く", + "revealInFinder": "Finderで表示", + "openInFileExplorer": "エクスプローラーで表示" + } + }, + "localFork": { + "error": "プラグインのローカル開発コピー作成に失敗しました。" + }, + "restartErrorPlugin/error": "プラグインの再起動に失敗しました" + }, + + "genInfo": { + "tokensPerSecond": "{{tokensPerSecond}} トークン/秒", + "predictedTokensCount": "{{predictedTokensCount}} トークン", + "timeToFirstTokenSec": "最初のトークンまで{{timeToFirstTokenSec}}秒", + "stopReason": "停止理由: {{stopReason}}", + "stopReason.userStopped": "ユーザーによる停止", + "stopReason.modelUnloaded": "モデルが取り出されました", + "stopReason.failed": "生成に失敗しました", + "stopReason.eosFound": "EOSトークン検出", + "stopReason.stopStringFound": "停止文字列検出", + "stopReason.toolCalls": "ツール呼び出し", + "stopReason.maxPredictedTokensReached": "最大予測トークン数に到達", + "stopReason.contextLengthReached": "コンテキスト長制限に到達", + "speculativeDecodedBy": "ドラフトモデル: {{decodedBy}}", + "speculativeDecodingStats": "{{total}}個中{{accepted}}個のドラフトトークンを受理 ({{percentage}}%)", + "speculativeDecodingAcceptedPercentage": "{{percentage}}% のドラフトトークンを受理", + "speculativeDecodingTooltip": "{{accepted}}/{{total}} 個のドラフトトークンを受理" + }, + + "tabs": { + "systemPromptEditorTab.headerLabel": "システムプロンプト編集" + } } \ No newline at end of file diff --git a/ja/config.json b/ja/config.json index 7bf5ba4c..686c5f1d 100644 --- a/ja/config.json +++ b/ja/config.json @@ -1,617 +1,621 @@ -{ - "noInstanceSelected": "モデルが選択されていません", - "resetToDefault": "リセット", - "showAdvancedSettings": "詳細設定を表示", - "showAll": "すべて", - "basicSettings": "基本", - "configSubtitle": "プリセットの読み込みまたは保存、モデルパラメータのオーバーライドを試す", - "inferenceParameters/title": "予測パラメータ", - "inferenceParameters/info": "予測に影響を与えるパラメータを試す。", - "generalParameters/title": "一般", - "samplingParameters/title": "サンプリング", - "basicTab": "基本", - "advancedTab": "詳細", - "advancedTab/title": "🧪 詳細設定", - "advancedTab/expandAll": "すべて展開", - "advancedTab/overridesTitle": "設定のオーバーライド", - "advancedTab/noConfigsText": "未保存の変更はありません - 上の値を編集してここでオーバーライドを表示します。", - "loadInstanceFirst": "モデルを読み込んで、設定可能なパラメータを表示します", - "noListedConfigs": "設定可能なパラメータはありません", - "generationParameters/info": "テキスト生成に影響を与える基本的なパラメータを試す。", - "loadParameters/title": "パラメータの読み込み", - "loadParameters/description": "モデルの初期化とメモリへの読み込み方法を制御する設定。", - "loadParameters/reload": "変更を適用するには再読み込み", - "loadParameters/reload/error": "モデルの再読み込みに失敗しました", - "discardChanges": "変更を破棄", - "loadModelToSeeOptions": "オプションを表示するにはモデルを読み込んでください", - "schematicsError.title": "設定スキーマに以下のフィールドにエラーがあります:", - "manifestSections": { - "structuredOutput/title": "構造化出力", - "speculativeDecoding/title": "推測デコーディング", - "sampling/title": "サンプリング", - "settings/title": "設定", - "toolUse/title": "ツールの使用", - "promptTemplate/title": "プロンプトテンプレート", - "customFields/title": "カスタムフィールド" - }, - - "llm.prediction.systemPrompt/title": "システムプロンプト", - "llm.prediction.systemPrompt/description": "このフィールドには、モデルに対する背景指示(ルール、制約、一般的な要件など)を記載してください。", - "llm.prediction.systemPrompt/subTitle": "AI のガイドライン", - "llm.prediction.systemPrompt/openEditor": "エディター", - "llm.prediction.systemPrompt/closeEditor": "エディターを閉じる", - "llm.prediction.systemPrompt/openedEditor": "エディターで開いています...", - "llm.prediction.systemPrompt/edit": "システムプロンプトを編集...", - "llm.prediction.systemPrompt/addInstructionsWithMore": "指示を追加...", - "llm.prediction.systemPrompt/addInstructions": "指示を追加", - "llm.prediction.temperature/title": "Temperature", - "llm.prediction.temperature/subTitle": "ランダム性の度合い。0は毎回同じ結果になり、高い値では創造性とばらつきが増加します", - "llm.prediction.temperature/info": "llama.cpp ヘルプドキュメントより:「デフォルト値は <{{dynamicValue}}> で、ランダム性と決定性のバランスを提供します。極端な場合、temperature が 0 だと常に最も可能性の高い次のトークンを選択し、毎回同じ出力になります」", - "llm.prediction.llama.sampling/title": "サンプリング", - "llm.prediction.topKSampling/title": "Top K サンプリング", - "llm.prediction.topKSampling/subTitle": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします", - "llm.prediction.topKSampling/info": "llama.cpp ヘルプドキュメントより:\n\nTop-kサンプリングは、モデルによって予測された上位k個の最も可能性の高いトークンのみから次のトークンを選択するテキスト生成方法です。\n\n確率の低いまたは無意味なトークンを生成するリスクを減らすのに役立ちますが、出力の多様性を制限する可能性もあります。\n\ntop-kの値が高いほど(例:100)、より多くのトークンが考慮され、より多様なテキストが生成され、値が低いほど(例:10)、最も確率の高いトークンに焦点を当て、より保守的なテキストが生成されます。\n\n• デフォルト値は <{{dynamicValue}}> です", - "llm.prediction.llama.cpuThreads/title": "CPUスレッド", - "llm.prediction.llama.cpuThreads/subTitle": "推論中に使用するCPUスレッドの数", - "llm.prediction.llama.cpuThreads/info": "計算中に使用するスレッド数。スレッド数を増やしても必ずしもパフォーマンスの向上に繋がるわけではありません。デフォルト値は <{{dynamicValue}}> です。", - "llm.prediction.maxPredictedTokens/title": "応答長の制限", - "llm.prediction.maxPredictedTokens/subTitle": "AIの応答の長さを制限します", - "llm.prediction.maxPredictedTokens/info": "チャットボットの応答の最大長を制御します。オンにして応答の最大長を制限するか、オフにしてチャットボット自体に停止タイミングを決めさせます。", - "llm.prediction.maxPredictedTokens/inputLabel": "最大応答長(トークン)", - "llm.prediction.maxPredictedTokens/wordEstimate": "約{{maxWords}}語", - "llm.prediction.repeatPenalty/title": "繰り返しペナルティ", - "llm.prediction.repeatPenalty/subTitle": "同じトークンの繰り返しをどの程度抑制するか", - "llm.prediction.repeatPenalty/info": "llama.cpp ヘルプドキュメントより:「モデルが繰り返しや単調なテキストを生成することを防ぐのに役立ちます。\n\n高い値(例:1.5)は繰り返しをより強くペナルティ化し、低い値(例:0.9)はより寛大になります。」 • デフォルト値は <{{dynamicValue}}> です", - "llm.prediction.minPSampling/title": "Min P サンプリング", - "llm.prediction.minPSampling/subTitle": "出力対象として選択されるトークンの最小ベース確率", - "llm.prediction.minPSampling/info": "llama.cpp ヘルプドキュメントより:\n\n最も可能性の高いトークンの確率に対する相対的な、トークンが考慮される最小確率。[0, 1]の範囲である必要があります。\n\n• デフォルト値は <{{dynamicValue}}> です", - "llm.prediction.topPSampling/title": "Top P サンプリング", - "llm.prediction.topPSampling/subTitle": "次の可能なトークンの最小累積確率。temperatureと同様の動作をします", - "llm.prediction.topPSampling/info": "llama.cpp ヘルプドキュメントより:\n\nNucleus サンプリングとも呼ばれる Top-p サンプリングは、累積確率が少なくとも p となるトークンのサブセットから次のトークンを選択するテキスト生成方法です。\n\nこの方法は、トークンの確率とサンプリング対象となるトークン数の両方を考慮することで、多様性と品質のバランスを提供します。\n\ntop-p の値が高い(例:0.95)場合はより多様なテキストが生成され、低い値(例:0.5)の場合はより集中的で保守的なテキストが生成されます。(0, 1]の範囲である必要があります。\n\n• デフォルト値は <{{dynamicValue}}> です", - "llm.prediction.stopStrings/title": "停止文字列", - "llm.prediction.stopStrings/subTitle": "モデルがトークン生成を停止する文字列", - "llm.prediction.stopStrings/info": "これらの文字列が検出されたときにモデルがさらなるトークン生成を停止する特定の文字列", - "llm.prediction.stopStrings/placeholder": "文字列を入力してから ⏎ を押してください", - "llm.prediction.contextOverflowPolicy/title": "コンテキストオーバーフロー", - "llm.prediction.contextOverflowPolicy/subTitle": "会話がモデルの処理能力を超えた場合の動作方法", - "llm.prediction.contextOverflowPolicy/info": "会話がモデルの作業メモリ('コンテキスト')のサイズを超えた場合の対応を決定します", - "llm.prediction.llama.frequencyPenalty/title": "頻度ペナルティ", - "llm.prediction.llama.presencePenalty/title": "存在ペナルティ", - "llm.prediction.llama.tailFreeSampling/title": "テイルフリーサンプリング", - "llm.prediction.llama.locallyTypicalSampling/title": "局所的典型サンプリング", - "llm.prediction.llama.xtcProbability/title": "XTCサンプリング確率", - "llm.prediction.llama.xtcProbability/subTitle": "XTC(Exclude Top Choices)サンプラーが生成された各トークンでこの確率で有効化されます。XTCサンプリングは創造性を向上させ、陳腐な表現を減らします", - "llm.prediction.llama.xtcProbability/info": "XTC(Exclude Top Choices)サンプリングは、生成された各トークンでこの確率でのみ有効化されます。XTCサンプリングは通常創造性を向上させ、陳腐な表現を減らします", - "llm.prediction.llama.xtcThreshold/title": "XTCサンプリング閾値", - "llm.prediction.llama.xtcThreshold/subTitle": "XTC(Exclude Top Choices)閾値。`xtc-probability`の確率で、`xtc-threshold`と0.5の間の確率を持つトークンを検索し、最も確率の低いもの以外のそのようなトークンをすべて除去します", - "llm.prediction.llama.xtcThreshold/info": "XTC(Exclude Top Choices)閾値。`xtc-probability`の確率で、`xtc-threshold`と0.5の間の確率を持つトークンを検索し、最も確率の低いもの以外のそのようなトークンをすべて除去します", - "llm.prediction.mlx.topKSampling/title": "Top K サンプリング", - "llm.prediction.mlx.topKSampling/subTitle": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします", - "llm.prediction.mlx.topKSampling/info": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします", - "llm.prediction.onnx.topKSampling/title": "Top K サンプリング", - "llm.prediction.onnx.topKSampling/subTitle": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします", - "llm.prediction.onnx.topKSampling/info": "ONNX ドキュメントより:\n\ntop-k フィルタリング用に保持する最高確率語彙トークンの数\n\n• このフィルターはデフォルトでオフになっています", - "llm.prediction.onnx.repeatPenalty/title": "繰り返しペナルティ", - "llm.prediction.onnx.repeatPenalty/subTitle": "同じトークンの繰り返しをどの程度抑制するか", - "llm.prediction.onnx.repeatPenalty/info": "高い値により、モデルが同じ内容を繰り返すことを抑制します", - "llm.prediction.onnx.topPSampling/title": "Top P サンプリング", - "llm.prediction.onnx.topPSampling/subTitle": "次の可能なトークンの最小累積確率。temperatureと同様の動作をします", - "llm.prediction.onnx.topPSampling/info": "ONNX ドキュメントより:\n\nTopP 以上の確率を加算した最も確率の高いトークンのみが生成用に保持されます\n\n• このフィルターはデフォルトでオフになっています", - "llm.prediction.seed/title": "Seed", - "llm.prediction.structured/title": "構造化出力", - "llm.prediction.structured/info": "構造化出力", - "llm.prediction.structured/description": "高度:特定の出力形式をモデルに強制するために[JSON Schema](https://json-schema.org/learn/miscellaneous-examples)を提供できます。詳細は[ドキュメント](https://lmstudio.ai/docs/advanced/structured-output)をお読みください", - "llm.prediction.tools/title": "ツールの使用", - "llm.prediction.tools/description": "高度:モデルが呼び出しを要求するツールのJSONに準拠したリストを提供できます。詳細は[ドキュメント](https://lmstudio.ai/docs/advanced/tool-use)をお読みください", - "llm.prediction.tools/serverPageDescriptionAddon": "サーバーAPIを使用する際は、リクエストボディで`tools`としてこれを渡してください", - "llm.prediction.promptTemplate/title": "プロンプトテンプレート", - "llm.prediction.promptTemplate/subTitle": "チャット内のメッセージがモデルに送信される形式。これを変更すると予期しない動作を引き起こす可能性があります - 何をしているか理解していることを確認してください!", - "llm.prediction.speculativeDecoding.numDraftTokensExact/title": "生成するドラフトトークン数", - "llm.prediction.speculativeDecoding.numDraftTokensExact/subTitle": "メインモデルのトークンごとにドラフトモデルで生成するトークン数。計算量と報酬の最適なバランスを見つけてください", - "llm.prediction.speculativeDecoding.minContinueDraftingProbability/title": "ドラフティング確率カットオフ", - "llm.prediction.speculativeDecoding.minContinueDraftingProbability/subTitle": "トークンの確率がこの閾値を下回るまでドラフティングを続行します。高い値は一般的に低リスク・低報酬を意味します", - "llm.prediction.speculativeDecoding.minDraftLengthToConsider/title": "最小ドラフトサイズ", - "llm.prediction.speculativeDecoding.minDraftLengthToConsider/subTitle": "これより小さいドラフトはメインモデルによって無視されます。高い値は一般的に低リスク・低報酬を意味します", - "llm.prediction.speculativeDecoding.maxTokensToDraft/title": "最大ドラフトサイズ", - "llm.prediction.speculativeDecoding.maxTokensToDraft/subTitle": "ドラフトで許可されるトークンの最大数。すべてのトークン確率がカットオフを上回る場合の上限。低い値は一般的に低リスク・低報酬を意味します", - "llm.prediction.speculativeDecoding.draftModel/title": "ドラフトモデル", - "llm.prediction.reasoning.parsing/title": "推論セクション解析", - "llm.prediction.reasoning.parsing/subTitle": "モデル出力の推論セクションの解析方法", - - "llm.load.mainGpu/title": "メインGPU", - "llm.load.mainGpu/subTitle": "モデル計算で優先するGPU", - "llm.load.mainGpu/placeholder": "メインGPUを選択...", - "llm.load.splitStrategy/title": "分割戦略", - "llm.load.splitStrategy/subTitle": "モデル計算をGPU間でどのように分割するか", - "llm.load.splitStrategy/placeholder": "分割戦略を選択...", - "llm.load.offloadKVCacheToGpu/title": "KVキャッシュをGPUメモリにオフロード", - "llm.load.offloadKVCacheToGpu/subTitle": "KVキャッシュをGPUメモリにオフロードします。パフォーマンスが向上しますが、より多くのGPUメモリが必要です", - "load.gpuStrictVramCap/title": "モデルオフロードを専用GPUメモリに制限", - "load.gpuStrictVramCap.customSubTitleOff": "オフ:専用GPUメモリが満杯の場合、モデル重みを共有メモリにオフロードすることを許可します", - "load.gpuStrictVramCap.customSubTitleOn": "オン:システムはモデル重みのオフロードを専用GPUメモリとRAMのみに制限します。コンテキストは引き続き共有メモリを使用する可能性があります", - "load.gpuStrictVramCap.customGpuOffloadWarning": "モデルオフロードが専用GPUメモリに制限されました。実際のオフロードされるレイヤー数は異なる場合があります", - "load.allGpusDisabledWarning": "現在、すべてのGPUが無効になっています。オフロードするには少なくとも1つを有効にしてください", - - "llm.load.contextLength/title": "コンテキスト長", - "llm.load.contextLength/subTitle": "モデルが一つのプロンプトで処理できる最大トークン数。これを管理する方法については、「推論パラメータ」の下の会話オーバーフロー オプションを参照してください", - "llm.load.contextLength/info": "モデルが一度に考慮できるトークンの最大数を指定し、処理中に保持するコンテキストの量に影響します", - "llm.load.contextLength/warning": "コンテキスト長に高い値を設定すると、メモリ使用量に大きな影響を与える可能性があります", - "llm.load.seed/title": "シード", - "llm.load.seed/subTitle": "テキスト生成で使用される乱数ジェネレータのシード。-1はランダムです", - "llm.load.seed/info": "ランダムシード:再現可能な結果を保証するために、乱数生成のシードを設定します", - "llm.load.numCpuExpertLayersRatio/title": "モデルエキスパート重みをCPUに強制", - "llm.load.numCpuExpertLayersRatio/subTitle": "MoEエキスパート重みをCPU RAMに強制するかどうか。VRAMを節約でき、部分的なGPUオフロードより高速になる場合があります。モデルがVRAMに完全に収まる場合は推奨されません。", - "llm.load.numCpuExpertLayersRatio/info": "すべてのMoEエキスパートレイヤーをCPU RAMに配置するかどうかを指定します。注意レイヤーはGPUに残り、VRAMを節約しながら推論を比較的高速に保ちます。", - "llm.load.numCpuExpertLayersRatio/turnedOnWarning": "⚠️ モデルがVRAMに完全に収まる場合は、これを無効にする必要があります", - "llm.load.llama.evalBatchSize/title": "評価バッチサイズ", - "llm.load.llama.evalBatchSize/subTitle": "一度に処理する入力トークンの数。これを増やすとメモリ使用量は増えますがパフォーマンスが向上します", - "llm.load.llama.evalBatchSize/info": "評価中に一つのバッチで一緒に処理される例の数を設定し、速度とメモリ使用量に影響します", - "llm.load.llama.ropeFrequencyBase/title": "RoPE周波数ベース", - "llm.load.llama.ropeFrequencyBase/subTitle": "回転位置エンベディング(RoPE)のカスタムベース周波数。これを増やすと、高いコンテキスト長でのパフォーマンス向上が期待できます", - "llm.load.llama.ropeFrequencyBase/info": "[高度] 回転位置エンコーディングのベース周波数を調整し、位置情報の埋め込み方法に影響します", - "llm.load.llama.ropeFrequencyScale/title": "RoPE周波数スケール", - "llm.load.llama.ropeFrequencyScale/subTitle": "RoPEを使用して効果的なコンテキストを拡張するために、コンテキスト長がこの要素でスケールされます", - "llm.load.llama.ropeFrequencyScale/info": "[高度] 回転位置エンコーディングの周波数スケーリングを変更し、位置エンコーディングの粒度を制御します", - "llm.load.llama.acceleration.offloadRatio/title": "GPUオフロード", - "llm.load.llama.acceleration.offloadRatio/subTitle": "GPU高速化のためにGPUで計算する個別のモデルレイヤー数", - "llm.load.llama.acceleration.offloadRatio/info": "GPUにオフロードするレイヤー数を設定します。", - "llm.load.llama.flashAttention/title": "Flash Attention", - "llm.load.llama.flashAttention/subTitle": "一部のモデルでメモリ使用量と生成時間を削減します", - "llm.load.llama.flashAttention/info": "より高速で効率的な処理のためにAttentionメカニズムを加速します", - "llm.load.numExperts/title": "エキスパート数", - "llm.load.numExperts/subTitle": "モデルで使用するエキスパートの数", - "llm.load.numExperts/info": "モデルで使用するエキスパートの数", - "llm.load.llama.keepModelInMemory/title": "モデルをメモリに保持", - "llm.load.llama.keepModelInMemory/subTitle": "GPUにオフロードした場合でも、モデル用にシステムメモリを予約します。パフォーマンスが向上しますが、より多くのシステムRAMが必要です", - "llm.load.llama.keepModelInMemory/info": "モデルがディスクにスワップされることを防ぎ、RAMの使用量増加を犠牲により高速なアクセスを保証します", - "llm.load.llama.useFp16ForKVCache/title": "KVキャッシュにFP16を使用", - "llm.load.llama.useFp16ForKVCache/info": "キャッシュを半精度(FP16)で保存することでメモリ使用量を削減します", - "llm.load.llama.tryMmap/title": "mmap() を試行", - "llm.load.llama.tryMmap/subTitle": "モデルの読み込み時間が改善されます。利用可能なシステムRAMよりもモデルが大きい場合は、これを無効にするとパフォーマンスが向上する可能性があります", - "llm.load.llama.tryMmap/info": "モデルファイルをディスクから直接メモリに読み込みます", - "llm.load.llama.cpuThreadPoolSize/title": "CPUスレッドプールサイズ", - "llm.load.llama.cpuThreadPoolSize/subTitle": "モデル計算に使用するスレッドプールに割り当てるCPUスレッド数", - "llm.load.llama.cpuThreadPoolSize/info": "モデル計算に使用するスレッドプールに割り当てるCPUスレッド数。スレッド数を増やしても必ずしもパフォーマンスの向上に繋がるわけではありません。デフォルト値は <{{dynamicValue}}> です。", - "llm.load.llama.kCacheQuantizationType/title": "K キャッシュ量子化タイプ", - "llm.load.llama.kCacheQuantizationType/subTitle": "低い値でメモリ使用量を削減しますが、品質が低下する可能性があります。効果はモデルによって大きく異なります。", - "llm.load.llama.vCacheQuantizationType/title": "V キャッシュ量子化タイプ", - "llm.load.llama.vCacheQuantizationType/subTitle": "低い値でメモリ使用量を削減しますが、品質が低下する可能性があります。効果はモデルによって大きく異なります。", - "llm.load.llama.vCacheQuantizationType/turnedOnWarning": "⚠️ Flash Attentionが有効でない場合は、この値を無効にする必要があります", - "llm.load.llama.vCacheQuantizationType/disabledMessage": "Flash Attentionが有効な場合にのみオンにできます", - "llm.load.llama.vCacheQuantizationType/invalidF32MetalState": "⚠️ F32を使用する際はFlash Attentionを無効にする必要があります", - "llm.load.mlx.kvCacheBits/title": "KV キャッシュ量子化", - "llm.load.mlx.kvCacheBits/subTitle": "KVキャッシュを量子化するビット数", - "llm.load.mlx.kvCacheBits/info": "KVキャッシュを量子化するビット数", - "llm.load.mlx.kvCacheBits/turnedOnWarning": "KVキャッシュ量子化を使用すると、コンテキスト長設定は無視されます", - "llm.load.mlx.kvCacheGroupSize/title": "KV キャッシュ量子化: グループサイズ", - "llm.load.mlx.kvCacheGroupSize/subTitle": "KVキャッシュの量子化操作中のグループサイズ。グループサイズが大きいほどメモリ使用量は削減されますが、品質が低下する可能性があります", - "llm.load.mlx.kvCacheGroupSize/info": "KVキャッシュを量子化するビット数", - "llm.load.mlx.kvCacheQuantizationStart/title": "KV キャッシュ量子化: ctx がこの長さを超えたら量子化を開始", - "llm.load.mlx.kvCacheQuantizationStart/subTitle": "KVキャッシュの量子化を開始するコンテキスト長の閾値", - "llm.load.mlx.kvCacheQuantizationStart/info": "KVキャッシュの量子化を開始するコンテキスト長の閾値", - "llm.load.mlx.kvCacheQuantization/title": "KV キャッシュ量子化", - "llm.load.mlx.kvCacheQuantization/subTitle": "モデルのKVキャッシュを量子化します。これにより生成の高速化とメモリ使用量の削減が可能ですが、\nモデル出力の品質を犠牲にします。", - "llm.load.mlx.kvCacheQuantization/bits/title": "KVキャッシュ量子化ビット", - "llm.load.mlx.kvCacheQuantization/bits/tooltip": "KVキャッシュを量子化するビット数", - "llm.load.mlx.kvCacheQuantization/bits/bits": "ビット", - "llm.load.mlx.kvCacheQuantization/groupSize/title": "グループサイズ戦略", - "llm.load.mlx.kvCacheQuantization/groupSize/accuracy": "精度", - "llm.load.mlx.kvCacheQuantization/groupSize/balanced": "バランス", - "llm.load.mlx.kvCacheQuantization/groupSize/speedy": "高速", - "llm.load.mlx.kvCacheQuantization/groupSize/tooltip": "高度:量子化された「行列積グループサイズ」の構成\n\n• 精度 = グループサイズ 32\n• バランス = グループサイズ 64\n• 高速 = グループサイズ 128\n", - "llm.load.mlx.kvCacheQuantization/quantizedStart/title": "ctx がこの長さに達したら量子化を開始", - "llm.load.mlx.kvCacheQuantization/quantizedStart/tooltip": "コンテキストがこのトークン数に達したら、\nKVキャッシュの量子化を開始する", - - "embedding.load.contextLength/title": "コンテキスト長", - "embedding.load.contextLength/subTitle": "モデルが一つのプロンプトで処理できる最大トークン数。これを管理する方法については、「推論パラメータ」の下の会話オーバーフロー オプションを参照してください", - "embedding.load.contextLength/info": "モデルが一度に考慮できるトークンの最大数を指定し、処理中に保持するコンテキストの量に影響します", - "embedding.load.llama.ropeFrequencyBase/title": "RoPE周波数ベース", - "embedding.load.llama.ropeFrequencyBase/subTitle": "回転位置エンベディング(RoPE)のカスタムベース周波数。これを増やすと、高いコンテキスト長でのパフォーマンス向上が期待できます", - "embedding.load.llama.ropeFrequencyBase/info": "[高度] 回転位置エンコーディングのベース周波数を調整し、位置情報の埋め込み方法に影響します", - "embedding.load.llama.evalBatchSize/title": "評価バッチサイズ", - "embedding.load.llama.evalBatchSize/subTitle": "一度に処理する入力トークンの数。これを増やすとメモリ使用量は増えますがパフォーマンスが向上します", - "embedding.load.llama.evalBatchSize/info": "評価中に一つのバッチで一緒に処理されるトークンの数を設定します", - "embedding.load.llama.ropeFrequencyScale/title": "RoPE周波数スケール", - "embedding.load.llama.ropeFrequencyScale/subTitle": "RoPEを使用して効果的なコンテキストを拡張するために、コンテキスト長がこの要素でスケールされます", - "embedding.load.llama.ropeFrequencyScale/info": "[高度] 回転位置エンコーディングの周波数スケーリングを変更し、位置エンコーディングの粒度を制御します", - "embedding.load.llama.acceleration.offloadRatio/title": "GPUオフロード", - "embedding.load.llama.acceleration.offloadRatio/subTitle": "GPU高速化のためにGPUで計算する個別のモデルレイヤー数", - "embedding.load.llama.acceleration.offloadRatio/info": "GPUにオフロードするレイヤー数を設定します。", - "embedding.load.llama.keepModelInMemory/title": "モデルをメモリに保持", - "embedding.load.llama.keepModelInMemory/subTitle": "GPUにオフロードした場合でも、モデル用にシステムメモリを予約します。パフォーマンスが向上しますが、より多くのシステムRAMが必要です", - "embedding.load.llama.keepModelInMemory/info": "モデルがディスクにスワップされることを防ぎ、RAMの使用量増加を犠牲により高速なアクセスを保証します", - "embedding.load.llama.tryMmap/title": "mmap() を試行", - "embedding.load.llama.tryMmap/subTitle": "モデルの読み込み時間が改善されます。利用可能なシステムRAMよりもモデルが大きい場合は、これを無効にするとパフォーマンスが向上する可能性があります", - "embedding.load.llama.tryMmap/info": "モデルファイルをディスクから直接メモリに読み込みます", - "embedding.load.seed/title": "Seed", - "embedding.load.seed/subTitle": "テキスト生成で使用される乱数ジェネレータのシード。-1はランダムシードです", - - "embedding.load.seed/info": "ランダムシード:再現可能な結果を保証するために、乱数生成のシードを設定します", - - "presetTooltip": { - "included/title": "プリセット値", - "included/description": "以下のフィールドが適用されます", - "included/empty": "このプリセットのフィールドはこのコンテキストで適用されません。", - "included/conflict": "この値を適用するかどうか選択を求められます", - "separateLoad/title": "読み込み時設定", - "separateLoad/description.1": "プリセットには以下の読み込み時設定も含まれています。読み込み時設定はモデル全体に適用され、効果を有効にするにはモデルの再読み込みが必要です。", - "separateLoad/description.2": "を押しながらクリックして", - "separateLoad/description.3": "に適用します。", - "excluded/title": "適用されない可能性があります", - "excluded/description": "以下のフィールドはプリセットに含まれていますが、現在のコンテキストでは適用されません。", - "legacy/title": "レガシープリセット", - "legacy/description": "これはレガシープリセットです。現在では自動的に処理されるか、もはや適用できない以下のフィールドが含まれています。", - "button/publish": "Hubに公開", - "button/pushUpdate": "変更をHubにプッシュ", - "button/noChangesToPush": "プッシュする変更がありません", - "button/export": "エクスポート", - "hubLabel": "{{user}}によるHubからのプリセット", - "ownHubLabel": "Hubにある自分のプリセット" - }, - - "customInputs": { - "string": { - "emptyParagraph": "<空>" - }, - "checkboxNumeric": { - "off": "オフ" - }, - "llamaCacheQuantizationType": { - "off": "オフ" - }, - "mlxKvCacheBits": { - "off": "オフ" - }, - "stringArray": { - "empty": "<空>" - }, - "llmPromptTemplate": { - "type": "タイプ", - "types.jinja/label": "テンプレート(Jinja)", - "jinja.bosToken/label": "BOSトークン", - "jinja.eosToken/label": "EOSトークン", - "jinja.template/label": "テンプレート", - "jinja/error": "Jinjaテンプレートの解析に失敗しました:{{error}}", - "jinja/empty": "上記にJinjaテンプレートを入力してください。", - "jinja/unlikelyToWork": "上記に提供されたJinjaテンプレートは、変数「messages」を参照していないため機能しない可能性があります。正しいテンプレートを入力したかご確認ください。", - "types.manual/label": "手動", - "manual.subfield.beforeSystem/label": "システムの前", - "manual.subfield.beforeSystem/placeholder": "システムプレフィックスを入力...", - "manual.subfield.afterSystem/label": "システムの後", - "manual.subfield.afterSystem/placeholder": "システムサフィックスを入力...", - "manual.subfield.beforeUser/label": "ユーザーの前", - "manual.subfield.beforeUser/placeholder": "ユーザープレフィックスを入力...", - "manual.subfield.afterUser/label": "ユーザーの後", - "manual.subfield.afterUser/placeholder": "ユーザーサフィックスを入力...", - "manual.subfield.beforeAssistant/label": "アシスタントの前", - "manual.subfield.beforeAssistant/placeholder": "アシスタントプレフィックスを入力...", - "manual.subfield.afterAssistant/label": "アシスタントの後", - "manual.subfield.afterAssistant/placeholder": "アシスタントサフィックスを入力...", - "stopStrings/label": "追加停止文字列", - "stopStrings/subTitle": "ユーザー指定の停止文字列に加えて使用される、テンプレート固有の停止文字列。" - }, - "contextLength": { - "maxValueTooltip": "これは、モデルが処理するために訓練された最大トークン数です。クリックしてコンテキストをこの値に設定します", - "maxValueTextStart": "モデルは最大で", - "maxValueTextEnd": "トークンをサポートします", - "tooltipHint": "モデルは特定の数のトークンまでサポートしていても、マシンのリソースが負荷を処理できない場合はパフォーマンスが劣化する可能性があります - この値を増加させる際は注意してください" - }, - "contextOverflowPolicy": { - "stopAtLimit": "制限で停止", - "stopAtLimitSub": "モデルのメモリが満杯になったら生成を停止します", - "truncateMiddle": "中間を切り詰め", - "truncateMiddleSub": "新しいメッセージのためのスペースを作るために、会話の中間部分からメッセージを削除します。モデルは会話の最初の部分は記憶しています", - "rollingWindow": "ローリングウィンドウ", - "rollingWindowSub": "モデルは常に最新の数メッセージを取得しますが、会話の最初の部分を忘れる可能性があります" - }, - "llamaAccelerationOffloadRatio": { - "max": "最大", - "off": "オフ" - }, - "gpuSplitStrategy": { - "evenly": "均等に", - "favorMainGpu": "メインGPUを優先" - }, - "speculativeDecodingDraftModel": { - "readMore": "動作原理を読む", - "placeholder": "互換性のあるドラフトモデルを選択", - "noCompatible": "現在のモデル選択に対応する互換性のあるドラフトモデルが見つかりません", - "stillLoading": "互換性のあるドラフトモデルを識別しています...", - "notCompatible": "選択されたドラフトモデル()は現在のモデル選択()と互換性がありません。", - "off": "オフ", - "loadModelToSeeOptions": "互換性のあるオプションを確認するにはモデルを読み込んでください ", - "compatibleWithNumberOfModels": "あなたのモデルの少なくとも{{dynamicValue}}個に推奨されます", - "recommendedForSomeModels": "いくつかのモデルに推奨されます", - "recommendedForLlamaModels": "Llamaモデルに推奨されます", - "recommendedForQwenModels": "Qwenモデルに推奨されます", - "onboardingModal": { - "introducing": "紹介", - "speculativeDecoding": "推測デコーディング", - "firstStepBody": "llama.cppMLXモデルの推論高速化", - "secondStepTitle": "推測デコーディングによる推論高速化", - "secondStepBody": "推測デコーディングは、2つのモデルの協調を含む技術です:\n - 大きな「メイン」モデル\n - 小さな「ドラフト」モデル\n\n生成中、ドラフトモデルは大きなメインモデルが検証するためのトークンを迅速に提案します。トークンの検証は、実際にそれらを生成するよりもはるかに高速なプロセスであり、これが高速化の源泉です。**一般的に、メインモデルとドラフトモデルのサイズ差が大きいほど、高速化も大きくなります**。\n\n品質を維持するため、メインモデルは自身が生成したであろうものと一致するトークンのみを受け入れ、より大きなモデルの応答品質をより高速な推論速度で実現します。両モデルは同じ語彙を共有する必要があります。", - "draftModelRecommendationsTitle": "ドラフトモデルの推奨", - "basedOnCurrentModels": "現在のモデルに基づく", - "close": "閉じる", - "next": "次へ", - "done": "完了" - }, - "speculativeDecodingLoadModelToSeeOptions": "最初にモデルを読み込んでください ", - "errorEngineNotSupported": "推測デコーディングにはエンジン{{engineName}}のバージョン{{minVersion}}以上が必要です。エンジンを更新し()、この機能を使用するためにモデルを再読み込みしてください。", - "errorEngineNotSupported/noKey": "推測デコーディングにはエンジン{{engineName}}のバージョン{{minVersion}}以上が必要です。エンジンを更新し、この機能を使用するためにモデルを再読み込みしてください。" - }, - "llmReasoningParsing": { - "startString/label": "開始文字列", - "startString/placeholder": "開始文字列を入力...", - "endString/label": "終了文字列", - "endString/placeholder": "終了文字列を入力..." - } - }, - "saveConflictResolution": { - "title": "プリセットに含める値を選択", - "description": "保持する値を選択してください", - "instructions": "値をクリックして含めてください", - "userValues": "以前の値", - "presetValues": "新しい値", - "confirm": "確認", - "cancel": "キャンセル" - }, - "applyConflictResolution": { - "title": "どの値を保持しますか?", - "description": "受信プリセットと重複する未コミットの変更があります", - "instructions": "保持したい値をクリックしてください", - "userValues": "現在の値", - "presetValues": "受信プリセット値", - "confirm": "確認", - "cancel": "キャンセル" - }, - "empty": "<空>", - "noModelSelected": "モデルが選択されていません", - "apiIdentifier.label": "API識別子", - "apiIdentifier.hint": "オプションで、このモデルの識別子を提供してください。これはAPIリクエストで使用されます。空白のままにするとデフォルトの識別子を使用します。", - "idleTTL.label": "アイドル時自動アンロード(TTL)", - "idleTTL.hint": "設定すると、モデルは指定された時間アイドル状態が続いた後に自動的にアンロードされます。", - "idleTTL.mins": "分", - - "presets": { - "title": "プリセット", - "saveChanges": "保存", - "saveChanges/description": "プリセットへの変更を保存します。", - "saveChanges.manual": "新しいフィールドが検出されました。プリセットに含める変更を選択できます。", - "saveChanges.manual.hold.0": "押しながら", - "saveChanges.manual.hold.1": "をクリックして、プリセットに保存する変更を選択してください。", - "saveChanges.saveAll.hold.0": "押しながら", - "saveChanges.saveAll.hold.1": "をクリックして、すべての変更を保存してください。", - "saveChanges.saveInPreset.hold.0": "押しながら", - "saveChanges.saveInPreset.hold.1": "をクリックして、プリセットに既に含まれているフィールドのみの変更を保存してください。", - "saveChanges/error": "プリセットへの変更の保存に失敗しました。", - "saveChanges.manual/description": "プリセットに含める変更を選択してください。", - "saveAs": "新規保存...", - "presetNamePlaceholder": "プリセットの名前を入力...", - "cannotCommitChangesLegacy": "これはレガシープリセットで変更できません。「新規保存...」を使用してコピーを作成できます。", - "cannotSaveChangesNoChanges": "保存する変更がありません。", - "emptyNoUnsaved": "プリセットを選択...", - "emptyWithUnsaved": "未保存のプリセット", - "saveEmptyWithUnsaved": "プリセットに名前を付けて保存...", - "saveConfirm": "保存", - "saveCancel": "キャンセル", - "saving": "保存中...", - "save/error": "プリセットの保存に失敗しました。", - "deselect": "プリセットの選択を解除", - "deselect/error": "プリセットの選択解除に失敗しました。", - "select/error": "プリセットの選択に失敗しました。", - "delete/error": "プリセットの削除に失敗しました。", - "discardChanges": "未保存を破棄", - "discardChanges/info": "すべての未保存の変更を破棄し、プリセットを元の状態に復元します", - "newEmptyPreset": "+ 新しいプリセット", - "importPreset": "インポート", - "contextMenuCopyIdentifier": "プリセット識別子をコピー", - "contextMenuSelect": "プリセットを適用", - "contextMenuDelete": "削除...", - "contextMenuShare": "公開...", - "contextMenuOpenInHub": "Webで表示", - "contextMenuPullFromHub": "最新を取得", - "contextMenuPushChanges": "変更をHubにプッシュ", - "contextMenuPushingChanges": "プッシュ中...", - "contextMenuPushedChanges": "変更がプッシュされました", - "contextMenuExport": "ファイルをエクスポート", - "contextMenuRevealInExplorer": "エクスプローラーで表示", - "contextMenuRevealInFinder": "Finderで表示", - "share": { - "title": "プリセットを公開", - "action": "他の人がダウンロード、いいね、フォークできるようにプリセットを共有します", - "presetOwnerLabel": "所有者", - "uploadAs": "あなたのプリセットは{{name}}として作成されます", - "presetNameLabel": "プリセット名", - "descriptionLabel": "説明(オプション)", - "loading": "公開中...", - "success": "プリセットの公開が完了しました", - "presetIsLive": "がHubで公開されました!", - "close": "閉じる", - "confirmViewOnWeb": "Webで表示", - "confirmCopy": "URLをコピー", - "confirmCopied": "コピー完了!", - "pushedToHub": "プリセットがHubにプッシュされました", - "descriptionPlaceholder": "説明を入力...", - "willBePublic": "このプリセットは公開されます。インターネット上の誰でも見ることができます。", - "willBePrivate": "このプリセットはあなたのみが表示できます", - "willBeOrgVisible": "このプリセットは組織内のすべてのメンバーに表示されます。", - "publicSubtitle": "あなたのプリセットは公開されています。他の人がlmstudio.aiでダウンロードやフォークができます", - "privateUsageReached": "プライベートプリセット数の上限に達しました。", - "continueInBrowser": "ブラウザで続行", - "confirmShareButton": "公開", - "error": "プリセットの公開に失敗しました", - "createFreeAccount": "Hubで無料アカウントを作成してプリセットを公開しましょう" - }, - "update": { - "title": "変更をHubにプッシュ", - "title/success": "プリセットの更新が完了しました", - "subtitle": "に変更を加えてHubにプッシュします", - "descriptionLabel": "説明", - "descriptionPlaceholder": "説明を入力...", - "loading": "プッシュ中...", - "cancel": "キャンセル", - "createFreeAccount": "Hubで無料アカウントを作成してプリセットを公開しましょう", - "error": "更新のプッシュに失敗しました", - "confirmUpdateButton": "プッシュ" - }, - "resolve": { - "title": "競合を解決...", - "tooltip": "Hubバージョンとの差分を解決するためのモーダルを開きます" - }, - "loginToManage": { - "title": "管理するにはログイン..." - }, - "downloadFromHub": { - "title": "ダウンロード", - "downloading": "ダウンロード中...", - "success": "ダウンロード完了!", - "error": "ダウンロードに失敗しました" - }, - "push": { - "title": "変更をプッシュ", - "pushing": "プッシュ中...", - "success": "プッシュ完了", - "tooltip": "ローカルの変更をHubでホストされているリモートバージョンにプッシュします", - "error": "プッシュに失敗しました" - }, - "saveAsNewModal": { - "title": "おっと!Hubでプリセットが見つかりませんでした", - "confirmSaveAsNewDescription": "このプリセットを新しいプリセットとして公開しますか?", - "confirmButton": "新規として公開" - }, - "pull": { - "title": "最新を取得", - "error": "取得に失敗しました", - "contextMenuErrorMessage": "取得に失敗しました", - "success": "取得完了", - "pulling": "取得中...", - "upToDate": "最新です!", - "unsavedChangesModal": { - "title": "未保存の変更があります。", - "bodyContent": "リモートからの取得により、未保存の変更が上書きされます。続行しますか?", - "confirmButton": "未保存の変更を上書き" - } - }, - "import": { - "title": "ファイルからプリセットをインポート", - "dragPrompt": "プリセットファイル(.tar.gz または preset.json)をドラッグ&ドロップするか、コンピューターから選択してください", - "remove": "削除", - "cancel": "キャンセル", - "importPreset_zero": "プリセットをインポート", - "importPreset_one": "プリセットをインポート", - "importPreset_other": "{{count}}個のプリセットをインポート", - "selectDialog": { - "title": "プリセットファイルを選択(preset.json または .tar.gz)", - "button": "インポート" - }, - "error": "プリセットのインポートに失敗しました", - "resultsModal": { - "titleSuccessSection_one": "1個のプリセットを正常にインポートしました", - "titleSuccessSection_other": "{{count}}個のプリセットを正常にインポートしました", - "titleFailSection_zero": "", - "titleFailSection_one": "({{count}}個が失敗)", - "titleFailSection_other": "({{count}}個が失敗)", - "titleAllFailed": "プリセットのインポートに失敗しました", - "importMore": "さらにインポート", - "close": "完了", - "successBadge": "成功", - "alreadyExistsBadge": "プリセットは既に存在します", - "errorBadge": "エラー", - "invalidFileBadge": "無効なファイル", - "otherErrorBadge": "プリセットのインポートに失敗しました", - "errorViewDetailsButton": "詳細を表示", - "seeError": "エラーを確認", - "noName": "プリセット名なし", - "useInChat": "チャットで使用" - }, - "importFromUrl": { - "button": "URLからインポート...", - "title": "URLからインポート", - "back": "ファイルからインポート...", - "action": "インポートしたいプリセットのLM Studio Hub URLを以下に貼り付けてください", - "invalidUrl": "無効なURLです。正しいLM Studio Hub URLを貼り付けていることを確認してください。", - "tip": "LM Studio Hubの{{buttonName}}ボタンでプリセットを直接インストールできます", - "confirm": "インポート", - "cancel": "キャンセル", - "loading": "インポート中...", - "error": "プリセットのダウンロードに失敗しました。" - } - }, - "download": { - "title": "LM Studio Hubからを取得", - "subtitle": "をプリセットに保存します。これにより、このプリセットをアプリで使用できるようになります", - "button": "取得", - "button/loading": "取得中...", - "cancel": "キャンセル", - "error": "プリセットのダウンロードに失敗しました。" - }, - "inclusiveness": { - "speculativeDecoding": "プリセットに含める" - } - }, - - "flashAttentionWarning": "Flash Attentionは一部のモデルで問題を引き起こす可能性のある実験的機能です。問題が発生した場合は、無効にしてみてください。", - "llamaKvCacheQuantizationWarning": "KVキャッシュ量子化は一部のモデルで問題を引き起こす可能性のある実験的機能です。Vキャッシュ量子化にはFlash Attentionを有効にする必要があります。問題が発生した場合は、デフォルトの「F16」にリセットしてください。", - - "seedUncheckedHint": "ランダムシード", - "ropeFrequencyBaseUncheckedHint": "自動", - "ropeFrequencyScaleUncheckedHint": "自動", - - "hardware": { - "environmentVariables": "環境変数", - "environmentVariables.info": "不明な場合は、これらをデフォルト値のままにしてください", - "environmentVariables.reset": "デフォルトにリセット", - - "gpus.information": "マシンで検出されたグラフィックス処理装置(GPU)を設定します", - "gpuSettings": { - "editMaxCapacity": "最大容量を編集", - "hideEditMaxCapacity": "最大容量の編集を非表示", - "allOffWarning": "すべてのGPUがオフまたは無効になっています。モデルの読み込みを有効にするために、いくつかのGPU割り当てがあることを確認してください", - "split": { - "title": "戦略", - "placeholder": "GPUメモリ割り当てを選択", - "options": { - "generalDescription": "モデルがGPUにどのように読み込まれるかを設定します", - "evenly": { - "title": "均等に分割", - "description": "GPU間でメモリを均等に割り当てます" - }, - "priorityOrder": { - "title": "優先順位", - "description": "ドラッグして優先順位を変更します。システムは最初にリストされたGPUにより多くを割り当てようとします" - }, - "custom": { - "title": "カスタム", - "description": "メモリを割り当て", - "maxAllocation": "最大割り当て" - } - } - }, - "deviceId.info": "このデバイスの一意識別子", - "changesOnlyAffectNewlyLoadedModels": "変更は新たに読み込まれるモデルにのみ影響します", - "toggleGpu": "GPUを有効/無効にする" - } - }, - - "load.gpuSplitConfig/title": "GPU分割設定", - "envVars/title": "環境変数を設定", - "envVars": { - "select": { - "placeholder": "環境変数を選択...", - "noOptions": "利用可能な項目がありません", - "filter": { - "placeholder": "検索結果をフィルタリング", - "resultsFound_zero": "結果が見つかりません", - "resultsFound_one": "1件の結果が見つかりました", - "resultsFound_other": "{{count}}件の結果が見つかりました" - } - }, - "inputValue": { - "placeholder": "値を入力してください" - }, - "values": { - "title": "現在の値" - } - } -} +{ + "noInstanceSelected": "モデルが選択されていません", + "resetToDefault": "リセット", + "showAdvancedSettings": "詳細設定を表示", + "showAll": "すべて", + "basicSettings": "基本", + "configSubtitle": "プリセットの読み込みまたは保存、モデルパラメータのオーバーライドを試す", + "inferenceParameters/title": "予測パラメータ", + "inferenceParameters/info": "予測に影響を与えるパラメータを試す。", + "generalParameters/title": "一般", + "samplingParameters/title": "サンプリング", + "basicTab": "基本", + "advancedTab": "詳細", + "advancedTab/title": "🧪 詳細設定", + "advancedTab/expandAll": "すべて展開", + "advancedTab/overridesTitle": "設定のオーバーライド", + "advancedTab/noConfigsText": "未保存の変更はありません - 上の値を編集してここでオーバーライドを表示します。", + "loadInstanceFirst": "モデルを読み込んで、設定可能なパラメータを表示します", + "noListedConfigs": "設定可能なパラメータはありません", + "generationParameters/info": "テキスト生成に影響を与える基本的なパラメータを試す。", + "loadParameters/title": "パラメータの読み込み", + "loadParameters/description": "モデルの初期化とメモリへの読み込み方法を制御する設定。", + "loadParameters/reload": "変更を適用するには再読み込み", + "loadParameters/reload/error": "モデルの再読み込みに失敗しました", + "discardChanges": "変更を破棄", + "loadModelToSeeOptions": "オプションを表示するにはモデルを読み込んでください", + "schematicsError.title": "設定スキーマに以下のフィールドにエラーがあります:", + "manifestSections": { + "structuredOutput/title": "構造化出力", + "speculativeDecoding/title": "推測デコーディング", + "sampling/title": "サンプリング", + "settings/title": "設定", + "toolUse/title": "ツールの使用", + "promptTemplate/title": "プロンプトテンプレート", + "customFields/title": "カスタムフィールド" + }, + + "llm.prediction.systemPrompt/title": "システムプロンプト", + "llm.prediction.systemPrompt/description": "このフィールドには、モデルに対する背景指示(ルール、制約、一般的な要件など)を記載してください。", + "llm.prediction.systemPrompt/subTitle": "AI のガイドライン", + "llm.prediction.systemPrompt/openEditor": "エディター", + "llm.prediction.systemPrompt/closeEditor": "エディターを閉じる", + "llm.prediction.systemPrompt/openedEditor": "エディターで開いています...", + "llm.prediction.systemPrompt/edit": "システムプロンプトを編集...", + "llm.prediction.systemPrompt/addInstructionsWithMore": "指示を追加...", + "llm.prediction.systemPrompt/addInstructions": "指示を追加", + "llm.prediction.temperature/title": "Temperature", + "llm.prediction.temperature/subTitle": "ランダム性の度合い。0は毎回同じ結果になり、高い値では創造性とばらつきが増加します", + "llm.prediction.temperature/info": "llama.cpp ヘルプドキュメントより:「デフォルト値は <{{dynamicValue}}> で、ランダム性と決定性のバランスを提供します。極端な場合、temperature が 0 だと常に最も可能性の高い次のトークンを選択し、毎回同じ出力になります」", + "llm.prediction.llama.sampling/title": "サンプリング", + "llm.prediction.topKSampling/title": "Top K サンプリング", + "llm.prediction.topKSampling/subTitle": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします", + "llm.prediction.topKSampling/info": "llama.cpp ヘルプドキュメントより:\n\nTop-kサンプリングは、モデルによって予測された上位k個の最も可能性の高いトークンのみから次のトークンを選択するテキスト生成方法です。\n\n確率の低いまたは無意味なトークンを生成するリスクを減らすのに役立ちますが、出力の多様性を制限する可能性もあります。\n\ntop-kの値が高いほど(例:100)、より多くのトークンが考慮され、より多様なテキストが生成され、値が低いほど(例:10)、最も確率の高いトークンに焦点を当て、より保守的なテキストが生成されます。\n\n• デフォルト値は <{{dynamicValue}}> です", + "llm.prediction.llama.cpuThreads/title": "CPUスレッド", + "llm.prediction.llama.cpuThreads/subTitle": "推論中に使用するCPUスレッドの数", + "llm.prediction.llama.cpuThreads/info": "計算中に使用するスレッド数。スレッド数を増やしても必ずしもパフォーマンスの向上に繋がるわけではありません。デフォルト値は <{{dynamicValue}}> です。", + "llm.prediction.maxPredictedTokens/title": "応答長の制限", + "llm.prediction.maxPredictedTokens/subTitle": "AIの応答の長さを制限します", + "llm.prediction.maxPredictedTokens/info": "チャットボットの応答の最大長を制御します。オンにして応答の最大長を制限するか、オフにしてチャットボット自体に停止タイミングを決めさせます。", + "llm.prediction.maxPredictedTokens/inputLabel": "最大応答長(トークン)", + "llm.prediction.maxPredictedTokens/wordEstimate": "約{{maxWords}}語", + "llm.prediction.repeatPenalty/title": "繰り返しペナルティ", + "llm.prediction.repeatPenalty/subTitle": "同じトークンの繰り返しをどの程度抑制するか", + "llm.prediction.repeatPenalty/info": "llama.cpp ヘルプドキュメントより:「モデルが繰り返しや単調なテキストを生成することを防ぐのに役立ちます。\n\n高い値(例:1.5)は繰り返しをより強くペナルティ化し、低い値(例:0.9)はより寛大になります。」 • デフォルト値は <{{dynamicValue}}> です", + "llm.prediction.minPSampling/title": "Min P サンプリング", + "llm.prediction.minPSampling/subTitle": "出力対象として選択されるトークンの最小ベース確率", + "llm.prediction.minPSampling/info": "llama.cpp ヘルプドキュメントより:\n\n最も可能性の高いトークンの確率に対する相対的な、トークンが考慮される最小確率。[0, 1]の範囲である必要があります。\n\n• デフォルト値は <{{dynamicValue}}> です", + "llm.prediction.topPSampling/title": "Top P サンプリング", + "llm.prediction.topPSampling/subTitle": "次の可能なトークンの最小累積確率。temperatureと同様の動作をします", + "llm.prediction.topPSampling/info": "llama.cpp ヘルプドキュメントより:\n\nNucleus サンプリングとも呼ばれる Top-p サンプリングは、累積確率が少なくとも p となるトークンのサブセットから次のトークンを選択するテキスト生成方法です。\n\nこの方法は、トークンの確率とサンプリング対象となるトークン数の両方を考慮することで、多様性と品質のバランスを提供します。\n\ntop-p の値が高い(例:0.95)場合はより多様なテキストが生成され、低い値(例:0.5)の場合はより集中的で保守的なテキストが生成されます。(0, 1]の範囲である必要があります。\n\n• デフォルト値は <{{dynamicValue}}> です", + "llm.prediction.stopStrings/title": "停止文字列", + "llm.prediction.stopStrings/subTitle": "モデルがトークン生成を停止する文字列", + "llm.prediction.stopStrings/info": "これらの文字列が検出されたときにモデルがさらなるトークン生成を停止する特定の文字列", + "llm.prediction.stopStrings/placeholder": "文字列を入力してから ⏎ を押してください", + "llm.prediction.contextOverflowPolicy/title": "コンテキストオーバーフロー", + "llm.prediction.contextOverflowPolicy/subTitle": "会話がモデルの処理能力を超えた場合の動作方法", + "llm.prediction.contextOverflowPolicy/info": "会話がモデルの作業メモリ('コンテキスト')のサイズを超えた場合の対応を決定します", + "llm.prediction.llama.frequencyPenalty/title": "頻度ペナルティ", + "llm.prediction.llama.presencePenalty/title": "存在ペナルティ", + "llm.prediction.llama.tailFreeSampling/title": "テイルフリーサンプリング", + "llm.prediction.llama.locallyTypicalSampling/title": "局所的典型サンプリング", + "llm.prediction.llama.xtcProbability/title": "XTCサンプリング確率", + "llm.prediction.llama.xtcProbability/subTitle": "XTC(Exclude Top Choices)サンプラーが生成された各トークンでこの確率で有効化されます。XTCサンプリングは創造性を向上させ、陳腐な表現を減らします", + "llm.prediction.llama.xtcProbability/info": "XTC(Exclude Top Choices)サンプリングは、生成された各トークンでこの確率でのみ有効化されます。XTCサンプリングは通常創造性を向上させ、陳腐な表現を減らします", + "llm.prediction.llama.xtcThreshold/title": "XTCサンプリング閾値", + "llm.prediction.llama.xtcThreshold/subTitle": "XTC(Exclude Top Choices)閾値。`xtc-probability`の確率で、`xtc-threshold`と0.5の間の確率を持つトークンを検索し、最も確率の低いもの以外のそのようなトークンをすべて除去します", + "llm.prediction.llama.xtcThreshold/info": "XTC(Exclude Top Choices)閾値。`xtc-probability`の確率で、`xtc-threshold`と0.5の間の確率を持つトークンを検索し、最も確率の低いもの以外のそのようなトークンをすべて除去します", + "llm.prediction.mlx.topKSampling/title": "Top K サンプリング", + "llm.prediction.mlx.topKSampling/subTitle": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします", + "llm.prediction.mlx.topKSampling/info": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします", + "llm.prediction.onnx.topKSampling/title": "Top K サンプリング", + "llm.prediction.onnx.topKSampling/subTitle": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします", + "llm.prediction.onnx.topKSampling/info": "ONNX ドキュメントより:\n\ntop-k フィルタリング用に保持する最高確率語彙トークンの数\n\n• このフィルターはデフォルトでオフになっています", + "llm.prediction.onnx.repeatPenalty/title": "繰り返しペナルティ", + "llm.prediction.onnx.repeatPenalty/subTitle": "同じトークンの繰り返しをどの程度抑制するか", + "llm.prediction.onnx.repeatPenalty/info": "高い値により、モデルが同じ内容を繰り返すことを抑制します", + "llm.prediction.onnx.topPSampling/title": "Top P サンプリング", + "llm.prediction.onnx.topPSampling/subTitle": "次の可能なトークンの最小累積確率。temperatureと同様の動作をします", + "llm.prediction.onnx.topPSampling/info": "ONNX ドキュメントより:\n\nTopP 以上の確率を加算した最も確率の高いトークンのみが生成用に保持されます\n\n• このフィルターはデフォルトでオフになっています", + "llm.prediction.seed/title": "Seed", + "llm.prediction.structured/title": "構造化出力", + "llm.prediction.structured/info": "構造化出力", + "llm.prediction.structured/description": "高度:特定の出力形式をモデルに強制するために[JSON Schema](https://json-schema.org/learn/miscellaneous-examples)を提供できます。詳細は[ドキュメント](https://lmstudio.ai/docs/advanced/structured-output)をお読みください", + "llm.prediction.tools/title": "ツールの使用", + "llm.prediction.tools/description": "高度:モデルが呼び出しを要求するツールのJSONに準拠したリストを提供できます。詳細は[ドキュメント](https://lmstudio.ai/docs/advanced/tool-use)をお読みください", + "llm.prediction.tools/serverPageDescriptionAddon": "サーバーAPIを使用する際は、リクエストボディで`tools`としてこれを渡してください", + "llm.prediction.promptTemplate/title": "プロンプトテンプレート", + "llm.prediction.promptTemplate/subTitle": "チャット内のメッセージがモデルに送信される形式。これを変更すると予期しない動作を引き起こす可能性があります - 何をしているか理解していることを確認してください!", + "llm.prediction.speculativeDecoding.numDraftTokensExact/title": "生成するドラフトトークン数", + "llm.prediction.speculativeDecoding.numDraftTokensExact/subTitle": "メインモデルのトークンごとにドラフトモデルで生成するトークン数。計算量と報酬の最適なバランスを見つけてください", + "llm.prediction.speculativeDecoding.minContinueDraftingProbability/title": "ドラフティング確率カットオフ", + "llm.prediction.speculativeDecoding.minContinueDraftingProbability/subTitle": "トークンの確率がこの閾値を下回るまでドラフティングを続行します。高い値は一般的に低リスク・低報酬を意味します", + "llm.prediction.speculativeDecoding.minDraftLengthToConsider/title": "最小ドラフトサイズ", + "llm.prediction.speculativeDecoding.minDraftLengthToConsider/subTitle": "これより小さいドラフトはメインモデルによって無視されます。高い値は一般的に低リスク・低報酬を意味します", + "llm.prediction.speculativeDecoding.maxTokensToDraft/title": "最大ドラフトサイズ", + "llm.prediction.speculativeDecoding.maxTokensToDraft/subTitle": "ドラフトで許可されるトークンの最大数。すべてのトークン確率がカットオフを上回る場合の上限。低い値は一般的に低リスク・低報酬を意味します", + "llm.prediction.speculativeDecoding.draftModel/title": "ドラフトモデル", + "llm.prediction.reasoning.parsing/title": "推論セクション解析", + "llm.prediction.reasoning.parsing/subTitle": "モデル出力の推論セクションの解析方法", + + "llm.load.mainGpu/title": "メインGPU", + "llm.load.mainGpu/subTitle": "モデル計算で優先するGPU", + "llm.load.mainGpu/placeholder": "メインGPUを選択...", + "llm.load.splitStrategy/title": "分割戦略", + "llm.load.splitStrategy/subTitle": "モデル計算をGPU間でどのように分割するか", + "llm.load.splitStrategy/placeholder": "分割戦略を選択...", + "llm.load.offloadKVCacheToGpu/title": "KVキャッシュをGPUメモリにオフロード", + "llm.load.offloadKVCacheToGpu/subTitle": "KVキャッシュをGPUメモリにオフロードします。パフォーマンスが向上しますが、より多くのGPUメモリが必要です", + "llm.load.numParallelSessions/title": "最大同時予測数", + "llm.load.numParallelSessions/subTitle": "モデルが同時に実行できる予測の最大数。並行性が高いと個々の予測速度は低下する可能性がありますが、各予測の開始が速くなり、総スループットが向上します", + "llm.load.useUnifiedKvCache/title": "統一KVキャッシュ", + "llm.load.useUnifiedKvCache/subTitle": "同時予測が単一のKVキャッシュを共有するかどうかを制御し、メモリを節約します。無効にすると、各予測が完全なコンテキスト長を利用できますが、メモリ使用量が増加します", + "load.gpuStrictVramCap/title": "モデルオフロードを専用GPUメモリに制限", + "load.gpuStrictVramCap.customSubTitleOff": "オフ:専用GPUメモリが満杯の場合、モデル重みを共有メモリにオフロードすることを許可します", + "load.gpuStrictVramCap.customSubTitleOn": "オン:システムはモデル重みのオフロードを専用GPUメモリとRAMのみに制限します。コンテキストは引き続き共有メモリを使用する可能性があります", + "load.gpuStrictVramCap.customGpuOffloadWarning": "モデルオフロードが専用GPUメモリに制限されました。実際のオフロードされるレイヤー数は異なる場合があります", + "load.allGpusDisabledWarning": "現在、すべてのGPUが無効になっています。オフロードするには少なくとも1つを有効にしてください", + + "llm.load.contextLength/title": "コンテキスト長", + "llm.load.contextLength/subTitle": "モデルが一つのプロンプトで処理できる最大トークン数。これを管理する方法については、「推論パラメータ」の下の会話オーバーフロー オプションを参照してください", + "llm.load.contextLength/info": "モデルが一度に考慮できるトークンの最大数を指定し、処理中に保持するコンテキストの量に影響します", + "llm.load.contextLength/warning": "コンテキスト長に高い値を設定すると、メモリ使用量に大きな影響を与える可能性があります", + "llm.load.seed/title": "シード", + "llm.load.seed/subTitle": "テキスト生成で使用される乱数ジェネレータのシード。-1はランダムです", + "llm.load.seed/info": "ランダムシード:再現可能な結果を保証するために、乱数生成のシードを設定します", + "llm.load.numCpuExpertLayersRatio/title": "モデルエキスパート重みをCPUに強制", + "llm.load.numCpuExpertLayersRatio/subTitle": "MoEエキスパート重みをCPU RAMに強制するかどうか。VRAMを節約でき、部分的なGPUオフロードより高速になる場合があります。モデルがVRAMに完全に収まる場合は推奨されません。", + "llm.load.numCpuExpertLayersRatio/info": "すべてのMoEエキスパートレイヤーをCPU RAMに配置するかどうかを指定します。注意レイヤーはGPUに残り、VRAMを節約しながら推論を比較的高速に保ちます。", + + "llm.load.llama.evalBatchSize/title": "評価バッチサイズ", + "llm.load.llama.evalBatchSize/subTitle": "一度に処理する入力トークンの数。これを増やすとメモリ使用量は増えますがパフォーマンスが向上します", + "llm.load.llama.evalBatchSize/info": "評価中に一つのバッチで一緒に処理される例の数を設定し、速度とメモリ使用量に影響します", + "llm.load.llama.ropeFrequencyBase/title": "RoPE周波数ベース", + "llm.load.llama.ropeFrequencyBase/subTitle": "回転位置エンベディング(RoPE)のカスタムベース周波数。これを増やすと、高いコンテキスト長でのパフォーマンス向上が期待できます", + "llm.load.llama.ropeFrequencyBase/info": "[高度] 回転位置エンコーディングのベース周波数を調整し、位置情報の埋め込み方法に影響します", + "llm.load.llama.ropeFrequencyScale/title": "RoPE周波数スケール", + "llm.load.llama.ropeFrequencyScale/subTitle": "RoPEを使用して効果的なコンテキストを拡張するために、コンテキスト長がこの要素でスケールされます", + "llm.load.llama.ropeFrequencyScale/info": "[高度] 回転位置エンコーディングの周波数スケーリングを変更し、位置エンコーディングの粒度を制御します", + "llm.load.llama.acceleration.offloadRatio/title": "GPUオフロード", + "llm.load.llama.acceleration.offloadRatio/subTitle": "GPU高速化のためにGPUで計算する個別のモデルレイヤー数", + "llm.load.llama.acceleration.offloadRatio/info": "GPUにオフロードするレイヤー数を設定します。", + "llm.load.llama.flashAttention/title": "Flash Attention", + "llm.load.llama.flashAttention/subTitle": "一部のモデルでメモリ使用量と生成時間を削減します", + "llm.load.llama.flashAttention/info": "より高速で効率的な処理のためにAttentionメカニズムを加速します", + "llm.load.numExperts/title": "エキスパート数", + "llm.load.numExperts/subTitle": "モデルで使用するエキスパートの数", + "llm.load.numExperts/info": "モデルで使用するエキスパートの数", + "llm.load.llama.keepModelInMemory/title": "モデルをメモリに保持", + "llm.load.llama.keepModelInMemory/subTitle": "GPUにオフロードした場合でも、モデル用にシステムメモリを予約します。パフォーマンスが向上しますが、より多くのシステムRAMが必要です", + "llm.load.llama.keepModelInMemory/info": "モデルがディスクにスワップされることを防ぎ、RAMの使用量増加を犠牲により高速なアクセスを保証します", + "llm.load.llama.useFp16ForKVCache/title": "KVキャッシュにFP16を使用", + "llm.load.llama.useFp16ForKVCache/info": "キャッシュを半精度(FP16)で保存することでメモリ使用量を削減します", + "llm.load.llama.tryMmap/title": "mmap() を試行", + "llm.load.llama.tryMmap/subTitle": "モデルの読み込み時間が改善されます。利用可能なシステムRAMよりもモデルが大きい場合は、これを無効にするとパフォーマンスが向上する可能性があります", + "llm.load.llama.tryMmap/info": "モデルファイルをディスクから直接メモリに読み込みます", + "llm.load.llama.cpuThreadPoolSize/title": "CPUスレッドプールサイズ", + "llm.load.llama.cpuThreadPoolSize/subTitle": "モデル計算に使用するスレッドプールに割り当てるCPUスレッド数", + "llm.load.llama.cpuThreadPoolSize/info": "モデル計算に使用するスレッドプールに割り当てるCPUスレッド数。スレッド数を増やしても必ずしもパフォーマンスの向上に繋がるわけではありません。デフォルト値は <{{dynamicValue}}> です。", + "llm.load.llama.kCacheQuantizationType/title": "K キャッシュ量子化タイプ", + "llm.load.llama.kCacheQuantizationType/subTitle": "低い値でメモリ使用量を削減しますが、品質が低下する可能性があります。効果はモデルによって大きく異なります。", + "llm.load.llama.vCacheQuantizationType/title": "V キャッシュ量子化タイプ", + "llm.load.llama.vCacheQuantizationType/subTitle": "低い値でメモリ使用量を削減しますが、品質が低下する可能性があります。効果はモデルによって大きく異なります。", + "llm.load.llama.vCacheQuantizationType/turnedOnWarning": "⚠️ Flash Attentionが有効でない場合は、この値を無効にする必要があります", + "llm.load.llama.vCacheQuantizationType/disabledMessage": "Flash Attentionが有効な場合にのみオンにできます", + "llm.load.llama.vCacheQuantizationType/invalidF32MetalState": "⚠️ F32を使用する際はFlash Attentionを無効にする必要があります", + "llm.load.mlx.kvCacheBits/title": "KVキャッシュ量子化", + "llm.load.mlx.kvCacheBits/subTitle": "KVキャッシュを量子化するビット数", + "llm.load.mlx.kvCacheBits/info": "KVキャッシュを量子化するビット数", + "llm.load.mlx.kvCacheBits/turnedOnWarning": "KVキャッシュ量子化を使用すると、コンテキスト長設定は無視されます", + "llm.load.mlx.kvCacheGroupSize/title": "KVキャッシュ量子化: グループサイズ", + "llm.load.mlx.kvCacheGroupSize/subTitle": "KVキャッシュの量子化操作中のグループサイズ。グループサイズが大きいほどメモリ使用量は削減されますが、品質が低下する可能性があります", + "llm.load.mlx.kvCacheGroupSize/info": "KVキャッシュを量子化するビット数", + "llm.load.mlx.kvCacheQuantizationStart/title": "KVキャッシュ量子化: ctx がこの長さを超えたら量子化を開始", + "llm.load.mlx.kvCacheQuantizationStart/subTitle": "KVキャッシュの量子化を開始するコンテキスト長の閾値", + "llm.load.mlx.kvCacheQuantizationStart/info": "KVキャッシュの量子化を開始するコンテキスト長の閾値", + "llm.load.mlx.kvCacheQuantization/title": "KVキャッシュ量子化", + "llm.load.mlx.kvCacheQuantization/subTitle": "モデルのKVキャッシュを量子化します。これにより生成の高速化とメモリ使用量の削減が可能ですが、\nモデル出力の品質を犠牲にします。", + "llm.load.mlx.kvCacheQuantization/bits/title": "KVキャッシュ量子化ビット", + "llm.load.mlx.kvCacheQuantization/bits/tooltip": "KVキャッシュを量子化するビット数", + "llm.load.mlx.kvCacheQuantization/bits/bits": "ビット", + "llm.load.mlx.kvCacheQuantization/groupSize/title": "グループサイズ戦略", + "llm.load.mlx.kvCacheQuantization/groupSize/accuracy": "精度", + "llm.load.mlx.kvCacheQuantization/groupSize/balanced": "バランス", + "llm.load.mlx.kvCacheQuantization/groupSize/speedy": "高速", + "llm.load.mlx.kvCacheQuantization/groupSize/tooltip": "高度:量子化された「行列積グループサイズ」の構成\n\n• 精度 = グループサイズ 32\n• バランス = グループサイズ 64\n• 高速 = グループサイズ 128\n", + "llm.load.mlx.kvCacheQuantization/quantizedStart/title": "ctx がこの長さに達したら量子化を開始", + "llm.load.mlx.kvCacheQuantization/quantizedStart/tooltip": "コンテキストがこのトークン数に達したら、\nKVキャッシュの量子化を開始する", + + "embedding.load.contextLength/title": "コンテキスト長", + "embedding.load.contextLength/subTitle": "モデルが一つのプロンプトで処理できる最大トークン数。これを管理する方法については、「推論パラメータ」の下の会話オーバーフロー オプションを参照してください", + "embedding.load.contextLength/info": "モデルが一度に考慮できるトークンの最大数を指定し、処理中に保持するコンテキストの量に影響します", + "embedding.load.llama.ropeFrequencyBase/title": "RoPE周波数ベース", + "embedding.load.llama.ropeFrequencyBase/subTitle": "回転位置エンベディング(RoPE)のカスタムベース周波数。これを増やすと、高いコンテキスト長でのパフォーマンス向上が期待できます", + "embedding.load.llama.ropeFrequencyBase/info": "[高度] 回転位置エンコーディングのベース周波数を調整し、位置情報の埋め込み方法に影響します", + "embedding.load.llama.evalBatchSize/title": "評価バッチサイズ", + "embedding.load.llama.evalBatchSize/subTitle": "一度に処理する入力トークンの数。これを増やすとメモリ使用量は増えますがパフォーマンスが向上します", + "embedding.load.llama.evalBatchSize/info": "評価中に一つのバッチで一緒に処理されるトークンの数を設定します", + "embedding.load.llama.ropeFrequencyScale/title": "RoPE周波数スケール", + "embedding.load.llama.ropeFrequencyScale/subTitle": "RoPEを使用して効果的なコンテキストを拡張するために、コンテキスト長がこの要素でスケールされます", + "embedding.load.llama.ropeFrequencyScale/info": "[高度] 回転位置エンコーディングの周波数スケーリングを変更し、位置エンコーディングの粒度を制御します", + "embedding.load.llama.acceleration.offloadRatio/title": "GPUオフロード", + "embedding.load.llama.acceleration.offloadRatio/subTitle": "GPU高速化のためにGPUで計算する個別のモデルレイヤー数", + "embedding.load.llama.acceleration.offloadRatio/info": "GPUにオフロードするレイヤー数を設定します。", + "embedding.load.llama.keepModelInMemory/title": "モデルをメモリに保持", + "embedding.load.llama.keepModelInMemory/subTitle": "GPUにオフロードした場合でも、モデル用にシステムメモリを予約します。パフォーマンスが向上しますが、より多くのシステムRAMが必要です", + "embedding.load.llama.keepModelInMemory/info": "モデルがディスクにスワップされることを防ぎ、RAMの使用量増加を犠牲により高速なアクセスを保証します", + "embedding.load.llama.tryMmap/title": "mmap() を試行", + "embedding.load.llama.tryMmap/subTitle": "モデルの読み込み時間が改善されます。利用可能なシステムRAMよりもモデルが大きい場合は、これを無効にするとパフォーマンスが向上する可能性があります", + "embedding.load.llama.tryMmap/info": "モデルファイルをディスクから直接メモリに読み込みます", + "embedding.load.seed/title": "Seed", + "embedding.load.seed/subTitle": "テキスト生成で使用される乱数ジェネレータのシード。-1はランダムシードです", + + "embedding.load.seed/info": "ランダムシード:再現可能な結果を保証するために、乱数生成のシードを設定します", + + "presetTooltip": { + "included/title": "プリセット値", + "included/description": "以下のフィールドが適用されます", + "included/empty": "このプリセットのフィールドはこのコンテキストで適用されません。", + "included/conflict": "この値を適用するかどうか選択を求められます", + "separateLoad/title": "読み込み時設定", + "separateLoad/description.1": "プリセットには以下の読み込み時設定も含まれています。読み込み時設定はモデル全体に適用され、効果を有効にするにはモデルの再読み込みが必要です。", + "separateLoad/description.2": "を押しながらクリックして", + "separateLoad/description.3": "に適用します。", + "excluded/title": "適用されない可能性があります", + "excluded/description": "以下のフィールドはプリセットに含まれていますが、現在のコンテキストでは適用されません。", + "legacy/title": "レガシープリセット", + "legacy/description": "これはレガシープリセットです。現在では自動的に処理されるか、もはや適用できない以下のフィールドが含まれています。", + "button/publish": "Hubに公開", + "button/pushUpdate": "変更をHubにプッシュ", + "button/noChangesToPush": "プッシュする変更がありません", + "button/export": "エクスポート", + "hubLabel": "{{user}}によるHubからのプリセット", + "ownHubLabel": "Hubにある自分のプリセット" + }, + + "customInputs": { + "string": { + "emptyParagraph": "<空>" + }, + "checkboxNumeric": { + "off": "オフ" + }, + "llamaCacheQuantizationType": { + "off": "オフ" + }, + "mlxKvCacheBits": { + "off": "オフ" + }, + "stringArray": { + "empty": "<空>" + }, + "llmPromptTemplate": { + "type": "タイプ", + "types.jinja/label": "テンプレート(Jinja)", + "jinja.bosToken/label": "BOSトークン", + "jinja.eosToken/label": "EOSトークン", + "jinja.template/label": "テンプレート", + "jinja/error": "Jinjaテンプレートの解析に失敗しました:{{error}}", + "jinja/empty": "上記にJinjaテンプレートを入力してください。", + "jinja/unlikelyToWork": "上記に提供されたJinjaテンプレートは、変数「messages」を参照していないため機能しない可能性があります。正しいテンプレートを入力したかご確認ください。", + "types.manual/label": "手動", + "manual.subfield.beforeSystem/label": "システムの前", + "manual.subfield.beforeSystem/placeholder": "システムプレフィックスを入力...", + "manual.subfield.afterSystem/label": "システムの後", + "manual.subfield.afterSystem/placeholder": "システムサフィックスを入力...", + "manual.subfield.beforeUser/label": "ユーザーの前", + "manual.subfield.beforeUser/placeholder": "ユーザープレフィックスを入力...", + "manual.subfield.afterUser/label": "ユーザーの後", + "manual.subfield.afterUser/placeholder": "ユーザーサフィックスを入力...", + "manual.subfield.beforeAssistant/label": "アシスタントの前", + "manual.subfield.beforeAssistant/placeholder": "アシスタントプレフィックスを入力...", + "manual.subfield.afterAssistant/label": "アシスタントの後", + "manual.subfield.afterAssistant/placeholder": "アシスタントサフィックスを入力...", + "stopStrings/label": "追加停止文字列", + "stopStrings/subTitle": "ユーザー指定の停止文字列に加えて使用される、テンプレート固有の停止文字列。" + }, + "contextLength": { + "maxValueTooltip": "これは、モデルが処理するために訓練された最大トークン数です。クリックしてコンテキストをこの値に設定します", + "maxValueTextStart": "モデルは最大で", + "maxValueTextEnd": "トークンをサポートします", + "tooltipHint": "モデルは特定の数のトークンまでサポートしていても、マシンのリソースが負荷を処理できない場合はパフォーマンスが劣化する可能性があります - この値を増加させる際は注意してください" + }, + "contextOverflowPolicy": { + "stopAtLimit": "制限で停止", + "stopAtLimitSub": "モデルのメモリが満杯になったら生成を停止します", + "truncateMiddle": "中間を切り詰め", + "truncateMiddleSub": "新しいメッセージのためのスペースを作るために、会話の中間部分からメッセージを削除します。モデルは会話の最初の部分は記憶しています", + "rollingWindow": "ローリングウィンドウ", + "rollingWindowSub": "モデルは常に最新の数メッセージを取得しますが、会話の最初の部分を忘れる可能性があります" + }, + "llamaAccelerationOffloadRatio": { + "max": "最大", + "off": "オフ" + }, + "gpuSplitStrategy": { + "evenly": "均等に", + "favorMainGpu": "メインGPUを優先" + }, + "speculativeDecodingDraftModel": { + "readMore": "動作原理を読む", + "placeholder": "互換性のあるドラフトモデルを選択", + "noCompatible": "現在のモデル選択に対応する互換性のあるドラフトモデルが見つかりません", + "stillLoading": "互換性のあるドラフトモデルを識別しています...", + "notCompatible": "選択されたドラフトモデル()は現在のモデル選択()と互換性がありません。", + "off": "オフ", + "loadModelToSeeOptions": "互換性のあるオプションを確認するにはモデルを読み込んでください ", + "compatibleWithNumberOfModels": "あなたのモデルの少なくとも{{dynamicValue}}個に推奨されます", + "recommendedForSomeModels": "いくつかのモデルに推奨されます", + "recommendedForLlamaModels": "Llamaモデルに推奨されます", + "recommendedForQwenModels": "Qwenモデルに推奨されます", + "onboardingModal": { + "introducing": "紹介", + "speculativeDecoding": "推測デコーディング", + "firstStepBody": "llama.cppMLXモデルの推論高速化", + "secondStepTitle": "推測デコーディングによる推論高速化", + "secondStepBody": "推測デコーディングは、2つのモデルの協調を含む技術です:\n - 大きな「メイン」モデル\n - 小さな「ドラフト」モデル\n\n生成中、ドラフトモデルは大きなメインモデルが検証するためのトークンを迅速に提案します。トークンの検証は、実際にそれらを生成するよりもはるかに高速なプロセスであり、これが高速化の源泉です。**一般的に、メインモデルとドラフトモデルのサイズ差が大きいほど、高速化も大きくなります**。\n\n品質を維持するため、メインモデルは自身が生成したであろうものと一致するトークンのみを受け入れ、より大きなモデルの応答品質をより高速な推論速度で実現します。両モデルは同じ語彙を共有する必要があります。", + "draftModelRecommendationsTitle": "ドラフトモデルの推奨", + "basedOnCurrentModels": "現在のモデルに基づく", + "close": "閉じる", + "next": "次へ", + "done": "完了" + }, + "speculativeDecodingLoadModelToSeeOptions": "最初にモデルを読み込んでください ", + "errorEngineNotSupported": "推測デコーディングにはエンジン{{engineName}}のバージョン{{minVersion}}以上が必要です。エンジンを更新し()、この機能を使用するためにモデルを再読み込みしてください。", + "errorEngineNotSupported/noKey": "推測デコーディングにはエンジン{{engineName}}のバージョン{{minVersion}}以上が必要です。エンジンを更新し、この機能を使用するためにモデルを再読み込みしてください。" + }, + "llmReasoningParsing": { + "startString/label": "開始文字列", + "startString/placeholder": "開始文字列を入力...", + "endString/label": "終了文字列", + "endString/placeholder": "終了文字列を入力..." + } + }, + "saveConflictResolution": { + "title": "プリセットに含める値を選択", + "description": "保持する値を選択してください", + "instructions": "値をクリックして含めてください", + "userValues": "以前の値", + "presetValues": "新しい値", + "confirm": "確認", + "cancel": "キャンセル" + }, + "applyConflictResolution": { + "title": "どの値を保持しますか?", + "description": "受信プリセットと重複する未コミットの変更があります", + "instructions": "保持したい値をクリックしてください", + "userValues": "現在の値", + "presetValues": "受信プリセット値", + "confirm": "確認", + "cancel": "キャンセル" + }, + "empty": "<空>", + "noModelSelected": "モデルが選択されていません", + "apiIdentifier.label": "API識別子", + "apiIdentifier.hint": "オプションで、このモデルの識別子を提供してください。これはAPIリクエストで使用されます。空白のままにするとデフォルトの識別子を使用します。", + "idleTTL.label": "アイドル時自動アンロード(TTL)", + "idleTTL.hint": "設定すると、モデルは指定された時間アイドル状態が続いた後に自動的にアンロードされます。", + "idleTTL.mins": "分", + + "presets": { + "title": "プリセット", + "saveChanges": "保存", + "saveChanges/description": "プリセットへの変更を保存します。", + "saveChanges.manual": "新しいフィールドが検出されました。プリセットに含める変更を選択できます。", + "saveChanges.manual.hold.0": "押しながら", + "saveChanges.manual.hold.1": "をクリックして、プリセットに保存する変更を選択してください。", + "saveChanges.saveAll.hold.0": "押しながら", + "saveChanges.saveAll.hold.1": "をクリックして、すべての変更を保存してください。", + "saveChanges.saveInPreset.hold.0": "押しながら", + "saveChanges.saveInPreset.hold.1": "をクリックして、プリセットに既に含まれているフィールドのみの変更を保存してください。", + "saveChanges/error": "プリセットへの変更の保存に失敗しました。", + "saveChanges.manual/description": "プリセットに含める変更を選択してください。", + "saveAs": "新規保存...", + "presetNamePlaceholder": "プリセットの名前を入力...", + "cannotCommitChangesLegacy": "これはレガシープリセットで変更できません。「新規保存...」を使用してコピーを作成できます。", + "cannotSaveChangesNoChanges": "保存する変更がありません。", + "emptyNoUnsaved": "プリセットを選択...", + "emptyWithUnsaved": "未保存のプリセット", + "saveEmptyWithUnsaved": "プリセットに名前を付けて保存...", + "saveConfirm": "保存", + "saveCancel": "キャンセル", + "saving": "保存中...", + "save/error": "プリセットの保存に失敗しました。", + "deselect": "プリセットの選択を解除", + "deselect/error": "プリセットの選択解除に失敗しました。", + "select/error": "プリセットの選択に失敗しました。", + "delete/error": "プリセットの削除に失敗しました。", + "discardChanges": "未保存を破棄", + "discardChanges/info": "すべての未保存の変更を破棄し、プリセットを元の状態に復元します", + "newEmptyPreset": "+ 新しいプリセット", + "importPreset": "インポート", + "contextMenuCopyIdentifier": "プリセット識別子をコピー", + "contextMenuSelect": "プリセットを適用", + "contextMenuDelete": "削除...", + "contextMenuShare": "公開...", + "contextMenuOpenInHub": "Webで表示", + "contextMenuPullFromHub": "最新を取得", + "contextMenuPushChanges": "変更をHubにプッシュ", + "contextMenuPushingChanges": "プッシュ中...", + "contextMenuPushedChanges": "変更がプッシュされました", + "contextMenuExport": "ファイルをエクスポート", + "contextMenuRevealInExplorer": "エクスプローラーで表示", + "contextMenuRevealInFinder": "Finderで表示", + "share": { + "title": "プリセットを公開", + "action": "他の人がダウンロード、いいね、フォークできるようにプリセットを共有します", + "presetOwnerLabel": "所有者", + "uploadAs": "あなたのプリセットは{{name}}として作成されます", + "presetNameLabel": "プリセット名", + "descriptionLabel": "説明(オプション)", + "loading": "公開中...", + "success": "プリセットの公開が完了しました", + "presetIsLive": "がHubで公開されました!", + "close": "閉じる", + "confirmViewOnWeb": "Webで表示", + "confirmCopy": "URLをコピー", + "confirmCopied": "コピー完了!", + "pushedToHub": "プリセットがHubにプッシュされました", + "descriptionPlaceholder": "説明を入力...", + "willBePublic": "このプリセットは公開されます。インターネット上の誰でも見ることができます。", + "willBePrivate": "このプリセットはあなたのみが表示できます", + "willBeOrgVisible": "このプリセットは組織内のすべてのメンバーに表示されます。", + "publicSubtitle": "あなたのプリセットは公開されています。他の人がlmstudio.aiでダウンロードやフォークができます", + "privateUsageReached": "プライベートプリセット数の上限に達しました。", + "continueInBrowser": "ブラウザで続行", + "confirmShareButton": "公開", + "error": "プリセットの公開に失敗しました", + "createFreeAccount": "Hubで無料アカウントを作成してプリセットを公開しましょう" + }, + "update": { + "title": "変更をHubにプッシュ", + "title/success": "プリセットの更新が完了しました", + "subtitle": "に変更を加えてHubにプッシュします", + "descriptionLabel": "説明", + "descriptionPlaceholder": "説明を入力...", + "loading": "プッシュ中...", + "cancel": "キャンセル", + "createFreeAccount": "Hubで無料アカウントを作成してプリセットを公開しましょう", + "error": "更新のプッシュに失敗しました", + "confirmUpdateButton": "プッシュ" + }, + "resolve": { + "title": "競合を解決...", + "tooltip": "Hubバージョンとの差分を解決するためのモーダルを開きます" + }, + "loginToManage": { + "title": "管理するにはログイン..." + }, + "downloadFromHub": { + "title": "ダウンロード", + "downloading": "ダウンロード中...", + "success": "ダウンロード完了!", + "error": "ダウンロードに失敗しました" + }, + "push": { + "title": "変更をプッシュ", + "pushing": "プッシュ中...", + "success": "プッシュ完了", + "tooltip": "ローカルの変更をHubでホストされているリモートバージョンにプッシュします", + "error": "プッシュに失敗しました" + }, + "saveAsNewModal": { + "title": "おっと!Hubでプリセットが見つかりませんでした", + "confirmSaveAsNewDescription": "このプリセットを新しいプリセットとして公開しますか?", + "confirmButton": "新規として公開" + }, + "pull": { + "title": "最新を取得", + "error": "取得に失敗しました", + "contextMenuErrorMessage": "取得に失敗しました", + "success": "取得完了", + "pulling": "取得中...", + "upToDate": "最新です!", + "unsavedChangesModal": { + "title": "未保存の変更があります。", + "bodyContent": "リモートからの取得により、未保存の変更が上書きされます。続行しますか?", + "confirmButton": "未保存の変更を上書き" + } + }, + "import": { + "title": "ファイルからプリセットをインポート", + "dragPrompt": "プリセットファイル(.tar.gz または preset.json)をドラッグ&ドロップするか、コンピューターから選択してください", + "remove": "削除", + "cancel": "キャンセル", + "importPreset_zero": "プリセットをインポート", + "importPreset_one": "プリセットをインポート", + "importPreset_other": "{{count}}個のプリセットをインポート", + "selectDialog": { + "title": "プリセットファイルを選択(preset.json または .tar.gz)", + "button": "インポート" + }, + "error": "プリセットのインポートに失敗しました", + "resultsModal": { + "titleSuccessSection_one": "1個のプリセットを正常にインポートしました", + "titleSuccessSection_other": "{{count}}個のプリセットを正常にインポートしました", + "titleFailSection_zero": "", + "titleFailSection_one": "({{count}}個が失敗)", + "titleFailSection_other": "({{count}}個が失敗)", + "titleAllFailed": "プリセットのインポートに失敗しました", + "importMore": "さらにインポート", + "close": "完了", + "successBadge": "成功", + "alreadyExistsBadge": "プリセットは既に存在します", + "errorBadge": "エラー", + "invalidFileBadge": "無効なファイル", + "otherErrorBadge": "プリセットのインポートに失敗しました", + "errorViewDetailsButton": "詳細を表示", + "seeError": "エラーを確認", + "noName": "プリセット名なし", + "useInChat": "チャットで使用" + }, + "importFromUrl": { + "button": "URLからインポート...", + "title": "URLからインポート", + "back": "ファイルからインポート...", + "action": "インポートしたいプリセットのLM Studio Hub URLを以下に貼り付けてください", + "invalidUrl": "無効なURLです。正しいLM Studio Hub URLを貼り付けていることを確認してください。", + "tip": "LM Studio Hubの{{buttonName}}ボタンでプリセットを直接インストールできます", + "confirm": "インポート", + "cancel": "キャンセル", + "loading": "インポート中...", + "error": "プリセットのダウンロードに失敗しました。" + } + }, + "download": { + "title": "LM Studio Hubからを取得", + "subtitle": "をプリセットに保存します。これにより、このプリセットをアプリで使用できるようになります", + "button": "取得", + "button/loading": "取得中...", + "cancel": "キャンセル", + "error": "プリセットのダウンロードに失敗しました。" + }, + "inclusiveness": { + "speculativeDecoding": "プリセットに含める" + } + }, + + "flashAttentionWarning": "Flash Attentionは一部のモデルで問題を引き起こす可能性のある実験的機能です。問題が発生した場合は、無効にしてみてください。", + "llamaKvCacheQuantizationWarning": "KVキャッシュ量子化は一部のモデルで問題を引き起こす可能性のある実験的機能です。Vキャッシュ量子化にはFlash Attentionを有効にする必要があります。問題が発生した場合は、デフォルトの「F16」にリセットしてください。", + + "seedUncheckedHint": "ランダムシード", + "ropeFrequencyBaseUncheckedHint": "自動", + "ropeFrequencyScaleUncheckedHint": "自動", + + "hardware": { + "environmentVariables": "環境変数", + "environmentVariables.info": "不明な場合は、これらをデフォルト値のままにしてください", + "environmentVariables.reset": "デフォルトにリセット", + + "gpus.information": "マシンで検出されたグラフィックス処理装置(GPU)を設定します", + "gpuSettings": { + "editMaxCapacity": "最大容量を編集", + "hideEditMaxCapacity": "最大容量の編集を非表示", + "allOffWarning": "すべてのGPUがオフまたは無効になっています。モデルの読み込みを有効にするために、いくつかのGPU割り当てがあることを確認してください", + "split": { + "title": "戦略", + "placeholder": "GPUメモリ割り当てを選択", + "options": { + "generalDescription": "モデルがGPUにどのように読み込まれるかを設定します", + "evenly": { + "title": "均等に分割", + "description": "GPU間でメモリを均等に割り当てます" + }, + "priorityOrder": { + "title": "優先順位", + "description": "ドラッグして優先順位を変更します。システムは最初にリストされたGPUにより多くを割り当てようとします" + }, + "custom": { + "title": "カスタム", + "description": "メモリを割り当て", + "maxAllocation": "最大割り当て" + } + } + }, + "deviceId.info": "このデバイスの一意識別子", + "changesOnlyAffectNewlyLoadedModels": "変更は新たに読み込まれるモデルにのみ影響します", + "toggleGpu": "GPUを有効/無効にする" + } + }, + + "load.gpuSplitConfig/title": "GPU分割設定", + "envVars/title": "環境変数を設定", + "envVars": { + "select": { + "placeholder": "環境変数を選択...", + "noOptions": "利用可能な項目がありません", + "filter": { + "placeholder": "検索結果をフィルタリング", + "resultsFound_zero": "結果が見つかりません", + "resultsFound_one": "1件の結果が見つかりました", + "resultsFound_other": "{{count}}件の結果が見つかりました" + } + }, + "inputValue": { + "placeholder": "値を入力してください" + }, + "values": { + "title": "現在の値" + } + } +} diff --git a/ja/developer.json b/ja/developer.json index feacce39..b30d82a8 100644 --- a/ja/developer.json +++ b/ja/developer.json @@ -1,185 +1,196 @@ -{ - "tabs/server": "ローカルサーバー", - "tabs/extensions": "LM Runtimes", - "loadSettings/title": "設定を読み込む", - "modelSettings/placeholder": "構成するモデルを選択", - - "loadedModels/noModels": "モデルが読み込まれていません", - - "serverOptions/title": "サーバーオプション", - "serverOptions/configurableTitle": "構成可能なオプション", - "serverOptions/port/hint": "ローカルサーバーが使用するネットワークポートを設定します。デフォルトでは、LM Studioはポート1234を使用します。このポートがすでに使用されている場合は、変更する必要があります。", - "serverOptions/port/subtitle": "リッスンするポート", - "serverOptions/autostart/title": "自動起動サーバー", - "serverOptions/autostart/hint": "アプリまたはサービスの起動時にLM StudioのローカルLLMsサーバーを自動的にオンにします", - "serverOptions/port/integerWarning": "ポート番号は整数である必要があります", - "serverOptions/port/invalidPortWarning": "ポートは1から65535の間である必要があります", - "serverOptions/cors/title": "CORSを有効にする", - "serverOptions/cors/hint1": "CORS(Cross-origin Resource Sharing)を有効にすると、訪問するウェブサイトがLM Studioサーバーにリクエストを送信できるようになります。", - "serverOptions/cors/hint2": "CORSは、ウェブページやVS Code / 他の拡張機能からリクエストを送信する際に必要になる場合があります。", - "serverOptions/cors/subtitle": "クロスオリジンリクエストを許可する", - "serverOptions/network/title": "ローカルネットワークで提供", - "serverOptions/network/subtitle": "ネットワーク上のデバイスにサーバーを公開", - "serverOptions/network/hint1": "ネットワーク上の他のデバイスからの接続を許可するかどうか。", - "serverOptions/network/hint2": "チェックされていない場合、サーバーはlocalhostのみでリッスンします。", - "serverOptions/verboseLogging/title": "詳細ログ", - "serverOptions/verboseLogging/subtitle": "ローカルサーバーの詳細ログを有効にします", - "serverOptions/contentLogging/title": "プロンプトとレスポンスをログに記録", - "serverOptions/contentLogging/subtitle": "ローカルリクエスト/レスポンスのログ設定", - "serverOptions/contentLogging/hint": "ローカルサーバーログファイルにプロンプトおよび/またはレスポンスを記録するかどうか。", - "serverOptions/redactContent/title": "コンテンツを編集", - "serverOptions/redactContent/hint": "有効にすると、リクエストやレスポンスの内容などの機密データがログに記録されないようにします。", - "serverOptions/logIncomingTokens/title": "受信トークンをログに記録", - "serverOptions/logIncomingTokens/hint": "生成中の各トークンをログに記録するかどうか。", - "serverOptions/fileLoggingMode/title": "ファイルログモード", - "serverOptions/fileLoggingMode/off/title": "OFF", - "serverOptions/fileLoggingMode/off/hint": "ログファイルを作成しない", - "serverOptions/fileLoggingMode/succinct/title": "簡潔", - "serverOptions/fileLoggingMode/succinct/hint": "コンソールと同じ内容をログに記録します。長いリクエストは切り捨てられます。", - "serverOptions/fileLoggingMode/full/title": "フル", - "serverOptions/fileLoggingMode/full/hint": "長いリクエストを切り捨てないでください。", - "serverOptions/jitModelLoading/title": "ジャストインタイムモデルロード", - "serverOptions/jitModelLoading/hint": "有効にすると、リクエストで指定されたモデルが読み込まれていない場合、自動的に読み込まれて使用されます。さらに、\"/v1/models\"エンドポイントには、まだ読み込まれていないモデルも含まれます。", - "serverOptions/loadModel/error": "モデルの読み込みに失敗しました", - "serverOptions/jitModelLoadingTTL/title": "未使用のJITロードモデルを自動的にアンロード", - "serverOptions/jitModelLoadingTTL/hint": "APIリクエストに応じてジャストインタイム(JIT)で読み込まれたモデルは、一定期間(TTL)使用されなかった場合に自動的にアンロードされます。", - "serverOptions/jitModelLoadingTTL/ttl/label": "最大アイドルTTL", - "serverOptions/jitModelLoadingTTL/ttl/unit": "分", - "serverOptions/unloadPreviousJITModelOnLoad/title": "最後のJITロードモデルのみを保持", - "serverOptions/unloadPreviousJITModelOnLoad/hint": "任意の時点でJITを介してロードされるモデルは最大1つに制限されます(以前のモデルはアンロードされます)", - "serverOptions/allowMcp/title": "MCPを許可", - "serverOptions/allowMcp/hint": "サーバーリクエストがMCPを使用できるようにする方法を選択します。MCPサーバーのインストールと使用には常に注意してください。安全でない可能性があります。", - "serverOptions/allowMcp/mode/off": "オフ", - "serverOptions/allowMcp/mode/off/hint": "サーバーリクエストがMCPを使用することを許可しない", - "serverOptions/allowMcp/mode/mcpJson": "mcp.json", - "serverOptions/allowMcp/mode/mcpJson/hint": "mcp.jsonで構成されたMCPサーバーを許可します", - - "serverLogs/scrollToBottom": "一番下に移動", - "serverLogs/clearLogs": "ログをクリア ({{shortcut}})", - "serverLogs/openLogsFolder": "サーバーログフォルダーを開く", - - "runtimeSettings/title": "ランタイム設定", - "runtimeSettings/chooseRuntime/title": "選択", - "runtimeSettings/chooseRuntime/description": "各モデルフォーマットに使用するエンジンを選択します", - "runtimeSettings/chooseRuntime/showAllVersions/label": "すべての拡張パックを表示", - "runtimeSettings/chooseRuntime/showAllVersions/hint": "デフォルトでは、LM Studioは各拡張パックの最新バージョンのみを表示します。このオプションを有効にすると、すべての利用可能な拡張パックが表示されます。", - "runtimeSettings/chooseRuntime/select/placeholder": "エンジンを選択", - - "runtimeSettings/chooseFrameworks/title": "フレームワーク", - "runtimeSettings/chooseFrameworks/description": "各機能に使用するフレームワークを選択してください", - "runtimeSettings/chooseFramework/documentParser/builtIn/label": "組み込みパーサー", - "runtimeSettings/chooseFramework/documentParser/select/label": "ドキュメントパーサー", - "runtimeSettings/chooseFramework/documentParser/select/placeholder": "ドキュメントパーサーを選択", - - "runtimeOptions/uninstall": "アンインストール", - "runtimeOptions/uninstallDialog/title": "{{runtimeName}}をアンインストールしますか?", - "runtimeOptions/uninstallDialog/body": "このランタイムをアンインストールすると、システムから削除されます。この操作は元に戻せません。", - "runtimeOptions/uninstallDialog/body/caveats": "一部のファイルはLM Studioの再起動後にのみ削除される場合があります。", - "runtimeOptions/uninstallDialog/error": "ランタイムのアンインストールに失敗しました", - "runtimeOptions/uninstallDialog/confirm": "続行してアンインストール", - "runtimeOptions/uninstallDialog/cancel": "キャンセル", - "runtimeOptions/noCompatibleRuntimes": "互換性のあるランタイムが見つかりません", - "runtimeOptions/downloadIncompatibleRuntime": "このランタイムはお使いのマシンと互換性がないと判断されました。正常に動作しない可能性があります。", - "runtimeOptions/noRuntimes": "ランタイムが見つかりません", - - "runtimes": { - "manageLMRuntimes": "LMランタイムの管理", - "includeOlderRuntimeVersions": "古いバージョンも含める", - "dismiss": "閉じる", - "updateAvailableToast": { - "title": "LMランタイムのアップデートがあります!" - }, - "updatedToast": { - "title": " ✅ LMランタイムが更新されました: {{runtime}} → v{{version}}", - "preferencesUpdated": "新しくロードされた{{compatibilityTypes}}モデルは更新されたランタイムを使用します。" - }, - "noAvx2ErrorMessage": "すべてのLMランタイムは現在AVX2対応CPUが必要です", - "downloadableRuntimes": { - "runtimeExtensionPacks": "ランタイム拡張パック", - "refresh": "更新", - "refreshing": "更新中...", - "filterSegment": { - "compatibleOnly": "互換性のみ", - "all": "すべて" - }, - "card": { - "releaseNotes": "リリースノート", - "latestVersionInstalled": "最新バージョンがインストール済み", - "updateAvailable": "アップデート可能" - } - }, - "installedRuntimes": { - "manage": { - "title": "アクティブランタイムの管理" - }, - "dropdownOptions": { - "installedVersions": "バージョン管理", - "close": "閉じる" - }, - "tabs": { - "all": "すべて", - "frameworks": "マイフレームワーク", - "engines": "マイエンジン" - }, - "detailsModal": { - "installedVersions": "{{runtimeName}}のインストール済みバージョン", - "manifestJsonTitle": "マニフェストJSON(詳細)", - "releaseNotesTitle": "リリースノート", - "noReleaseNotes": "このバージョンのリリースノートはありません", - "back": "戻る", - "close": "閉じる" - }, - "noEngines": "エンジンがインストールされていません", - "noFrameworks": "フレームワークがインストールされていません" - } - }, - - "inferenceParams/noParams": "このモデルタイプには設定可能な推論パラメータがありません", - - "quickDocs": { - "tabChipTitle": "クイックドキュメント", - "newToolUsePopover": "コードスニペットが\"クイックドキュメント\"で利用可能になりました。ツールの使い方はこちらをクリック!", - "newToolUsePopoverTitle": "📚 クイックドキュメント", - "learnMore": "ℹ️ 👾 LM Studioローカルサーバーのエンドポイントについて詳しくは[ドキュメント](https://lmstudio.ai/docs)をご覧ください。", - "helloWorld": { - "title": "Hello, World!" - }, - "chat": { - "title": "チャット" - }, - "structuredOutput": { - "title": "構造化出力" - }, - "imageInput": { - "title": "画像入力" - }, - "embeddings": { - "title": "埋め込み" - }, - "toolUse": { - "title": "ツール利用", - "tab": { - "saveAsPythonFile": "Pythonファイルとして保存", - "runTheScript": "スクリプトを実行:", - "savePythonFileCopyPaste": "コピペ用Pythonファイルとして保存" - } - }, - "newBadge": "新規" - }, - - "endpoints/openaiCompatRest/title": "対応エンドポイント(OpenAI互換)", - "endpoints/openaiCompatRest/getModels": "現在ロードされているモデル一覧", - "endpoints/openaiCompatRest/postCompletions": "テキスト補完モード。プロンプトに基づき次のトークンを予測します。※OpenAIではこのエンドポイントは非推奨です。", - "endpoints/openaiCompatRest/postChatCompletions": "チャット補完。チャット履歴をモデルに送信し、次のアシスタント応答を予測します", - "endpoints/openaiCompatRest/postEmbeddings": "テキスト埋め込み。指定したテキスト入力に対して埋め込みベクトルを生成します。文字列または文字列配列を受け付けます。", - - "model.createVirtualModelFromInstance": "設定を新しい仮想モデルとして保存", - "model.createVirtualModelFromInstance/error": "設定の仮想モデル保存に失敗しました", - - "model": { - "toolUseSectionTitle": "ツール利用", - "toolUseDescription": "このモデルはツール利用向けに訓練されています\n\n詳細はクイックドキュメントをご覧ください" - }, - - "apiConfigOptions/title": "API設定" -} +{ + "tabs/server": "ローカルサーバー", + "tabs/extensions": "LM Runtimes", + "loadSettings/title": "設定を読み込む", + "modelSettings/placeholder": "構成するモデルを選択", + + "loadedModels/noModels": "モデルが読み込まれていません", + + "serverOptions/title": "サーバーオプション", + "serverOptions/configurableTitle": "構成可能なオプション", + "serverOptions/port/hint": "ローカルサーバーが使用するネットワークポートを設定します。デフォルトでは、LM Studioはポート1234を使用します。このポートがすでに使用されている場合は、変更する必要があります。", + "serverOptions/port/subtitle": "リッスンするポート", + "serverOptions/autostart/title": "自動起動サーバー", + "serverOptions/autostart/hint": "アプリまたはサービスの起動時にLM StudioのローカルLLMsサーバーを自動的にオンにします", + "serverOptions/port/integerWarning": "ポート番号は整数である必要があります", + "serverOptions/port/invalidPortWarning": "ポートは1から65535の間である必要があります", + "serverOptions/cors/title": "CORSを有効にする", + "serverOptions/cors/hint1": "CORS(Cross-origin Resource Sharing)を有効にすると、訪問するウェブサイトがLM Studioサーバーにリクエストを送信できるようになります。", + "serverOptions/cors/hint2": "CORSは、ウェブページやVS Code / 他の拡張機能からリクエストを送信する際に必要になる場合があります。", + "serverOptions/cors/subtitle": "クロスオリジンリクエストを許可する", + "serverOptions/network/title": "ローカルネットワークで提供", + "serverOptions/network/subtitle": "ネットワーク上のデバイスにサーバーを公開", + "serverOptions/network/hint1": "ネットワーク上の他のデバイスからの接続を許可するかどうか。", + "serverOptions/network/hint2": "チェックされていない場合、サーバーはlocalhostのみでリッスンします。", + "serverOptions/verboseLogging/title": "詳細ログ", + "serverOptions/verboseLogging/subtitle": "ローカルサーバーの詳細ログを有効にします", + "serverOptions/contentLogging/title": "プロンプトとレスポンスをログに記録", + "serverOptions/contentLogging/subtitle": "ローカルリクエスト/レスポンスのログ設定", + "serverOptions/contentLogging/hint": "ローカルサーバーログファイルにプロンプトおよび/またはレスポンスを記録するかどうか。", + "serverOptions/redactContent/title": "コンテンツを編集", + "serverOptions/redactContent/hint": "有効にすると、リクエストやレスポンスの内容などの機密データがログに記録されないようにします。", + "serverOptions/logIncomingTokens/title": "受信トークンをログに記録", + "serverOptions/logIncomingTokens/hint": "生成中の各トークンをログに記録するかどうか。", + "serverOptions/fileLoggingMode/title": "ファイルログモード", + "serverOptions/fileLoggingMode/off/title": "OFF", + "serverOptions/fileLoggingMode/off/hint": "ログファイルを作成しない", + "serverOptions/fileLoggingMode/succinct/title": "簡潔", + "serverOptions/fileLoggingMode/succinct/hint": "コンソールと同じ内容をログに記録します。長いリクエストは切り捨てられます。", + "serverOptions/fileLoggingMode/full/title": "フル", + "serverOptions/fileLoggingMode/full/hint": "長いリクエストを切り捨てないでください。", + "serverOptions/jitModelLoading/title": "ジャストインタイムモデルロード", + "serverOptions/jitModelLoading/hint": "有効にすると、リクエストで指定されたモデルが読み込まれていない場合、自動的に読み込まれて使用されます。さらに、\"/v1/models\"エンドポイントには、まだ読み込まれていないモデルも含まれます。", + "serverOptions/loadModel/error": "モデルの読み込みに失敗しました", + "serverOptions/jitModelLoadingTTL/title": "未使用のJITロードモデルを自動的にアンロード", + "serverOptions/jitModelLoadingTTL/hint": "APIリクエストに応じてジャストインタイム(JIT)で読み込まれたモデルは、一定期間(TTL)使用されなかった場合に自動的にアンロードされます。", + "serverOptions/jitModelLoadingTTL/ttl/label": "最大アイドルTTL", + "serverOptions/jitModelLoadingTTL/ttl/unit": "分", + "serverOptions/unloadPreviousJITModelOnLoad/title": "最後のJITロードモデルのみを保持", + "serverOptions/unloadPreviousJITModelOnLoad/hint": "任意の時点でJITを介してロードされるモデルは最大1つに制限されます(以前のモデルはアンロードされます)", + "serverOptions/allowMcp/title": "MCPを許可", + "serverOptions/allowMcp/hint": "サーバーリクエストがMCPを使用できるようにする方法を選択します。MCPサーバーのインストールと使用には常に注意してください。安全でない可能性があります。", + "serverOptions/allowMcp/mode/off": "オフ", + "serverOptions/allowMcp/mode/off/hint": "サーバーリクエストがMCPを使用することを許可しない", + "serverOptions/allowMcp/mode/remote": "リモート", + "serverOptions/allowMcp/mode/remote/hint": "リモートMCPサーバーへの接続を許可する", + + "serverOptions/start/error": "サーバーの起動に失敗しました", + "serverOptions/stop/error": "サーバーの停止に失敗しました", + + "serverLogs/scrollToBottom": "一番下に移動", + "serverLogs/clearLogs": "ログをクリア ({{shortcut}})", + "serverLogs/openLogsFolder": "サーバーログフォルダーを開く", + + "runtimeSettings/title": "ランタイム設定", + "runtimeSettings/chooseRuntime/title": "選択", + "runtimeSettings/chooseRuntime/description": "各モデルフォーマットに使用するエンジンを選択します", + "runtimeSettings/chooseRuntime/showAllVersions/label": "すべての拡張パックを表示", + "runtimeSettings/chooseRuntime/showAllVersions/hint": "デフォルトでは、LM Studioは各拡張パックの最新バージョンのみを表示します。このオプションを有効にすると、すべての利用可能な拡張パックが表示されます。", + "runtimeSettings/chooseRuntime/select/placeholder": "エンジンを選択", + + "runtimeSettings/chooseFrameworks/title": "フレームワーク", + "runtimeSettings/chooseFrameworks/description": "各機能に使用するフレームワークを選択してください", + "runtimeSettings/chooseFramework/documentParser/builtIn/label": "組み込みパーサー", + "runtimeSettings/chooseFramework/documentParser/select/label": "ドキュメントパーサー", + "runtimeSettings/chooseFramework/documentParser/select/placeholder": "ドキュメントパーサーを選択", + + "runtimeOptions/uninstall": "アンインストール", + "runtimeOptions/uninstallDialog/title": "{{runtimeName}}をアンインストールしますか?", + "runtimeOptions/uninstallDialog/body": "このランタイムをアンインストールすると、システムから削除されます。この操作は元に戻せません。", + "runtimeOptions/uninstallDialog/body/caveats": "一部のファイルはLM Studioの再起動後にのみ削除される場合があります。", + "runtimeOptions/uninstallDialog/error": "ランタイムのアンインストールに失敗しました", + "runtimeOptions/uninstallDialog/confirm": "続行してアンインストール", + "runtimeOptions/uninstallDialog/cancel": "キャンセル", + "runtimeOptions/noCompatibleRuntimes": "互換性のあるランタイムが見つかりません", + "runtimeOptions/downloadIncompatibleRuntime": "このランタイムはお使いのマシンと互換性がないと判断されました。正常に動作しない可能性があります。", + "runtimeOptions/noRuntimes": "ランタイムが見つかりません", + + "runtimes": { + "manageLMRuntimes": "LMランタイムの管理", + "includeOlderRuntimeVersions": "古いバージョンも含める", + "dismiss": "閉じる", + "updateAvailableToast": { + "title": "LMランタイムのアップデートがあります!" + }, + "updatedToast": { + "title": " ✅ LMランタイムが更新されました: {{runtime}} → v{{version}}", + "preferencesUpdated": "新しくロードされた{{compatibilityTypes}}モデルは更新されたランタイムを使用します。" + }, + "noAvx2ErrorMessage": "すべてのLMランタイムは現在AVX2対応CPUが必要です", + "downloadableRuntimes": { + "runtimeExtensionPacks": "ランタイム拡張パック", + "refresh": "更新", + "refreshing": "更新中...", + "filterSegment": { + "compatibleOnly": "互換性のみ", + "all": "すべて" + }, + "card": { + "releaseNotes": "リリースノート", + "latestVersionInstalled": "最新バージョンがインストール済み", + "updateAvailable": "アップデート可能" + } + }, + "installedRuntimes": { + "manage": { + "title": "アクティブランタイムの管理" + }, + "dropdownOptions": { + "installedVersions": "バージョン管理", + "close": "閉じる" + }, + "tabs": { + "all": "すべて", + "frameworks": "マイフレームワーク", + "engines": "マイエンジン" + }, + "detailsModal": { + "installedVersions": "{{runtimeName}}のインストール済みバージョン", + "manifestJsonTitle": "マニフェストJSON(詳細)", + "releaseNotesTitle": "リリースノート", + "noReleaseNotes": "このバージョンのリリースノートはありません", + "back": "戻る", + "close": "閉じる" + }, + "noEngines": "エンジンがインストールされていません", + "noFrameworks": "フレームワークがインストールされていません" + } + }, + + "inferenceParams/noParams": "このモデルタイプには設定可能な推論パラメータがありません", + + "quickDocs": { + "tabChipTitle": "クイックドキュメント", + "newToolUsePopover": "コードスニペットが\"クイックドキュメント\"で利用可能になりました。ツールの使い方はこちらをクリック!", + "newToolUsePopoverTitle": "📚 クイックドキュメント", + "learnMore": "ℹ️ 👾 LM Studioローカルサーバーのエンドポイントについて詳しくは[ドキュメント](https://lmstudio.ai/docs)をご覧ください。", + "helloWorld": { + "title": "Hello, World!" + }, + "chat": { + "title": "チャット" + }, + "structuredOutput": { + "title": "構造化出力" + }, + "imageInput": { + "title": "画像入力" + }, + "embeddings": { + "title": "埋め込み" + }, + "toolUse": { + "title": "ツール利用", + "tab": { + "saveAsPythonFile": "Pythonファイルとして保存", + "runTheScript": "スクリプトを実行:", + "savePythonFileCopyPaste": "コピペ用Pythonファイルとして保存" + } + }, + "newBadge": "新規" + }, + + "endpoints/openaiCompatRest/title": "対応エンドポイント{{extra}}", + "endpoints/openaiCompatRest/segmentedLabel": "OpenAI互換", + "endpoints/openaiCompatRest/getModels": "現在ロードされているモデル一覧", + "endpoints/openaiCompatRest/postCompletions": "テキスト補完モード。プロンプトに基づき次のトークンを予測します。※OpenAIではこのエンドポイントは非推奨です。", + "endpoints/openaiCompatRest/postChatCompletions": "チャット補完。チャット履歴をモデルに送信し、次のアシスタント応答を予測します", + "endpoints/openaiCompatRest/postEmbeddings": "テキスト埋め込み。指定したテキスト入力に対して埋め込みベクトルを生成します。文字列または文字列配列を受け付けます。", + "endpoints/openaiCompatRest/postResponses": "高度なインターフェース。前回の応答のIDを次の入力として渡すことで状態を持つ対話を作成します。", + "endpoints/lmStudioRest/segmentedLabel": "LM Studio", + "endpoints/lmStudioRestV1/getModels": "利用可能なモデルの一覧を取得", + "endpoints/lmStudioRestV1/postModelsLoad": "オプション付きでモデルを読み込む", + "endpoints/lmStudioRestV1/postModelsDownload": "モデルをダウンロードする", + "endpoints/lmStudioRestV1/postChat": "モデルとチャットする。状態を持つマルチターン会話とMCPをサポート", + "endpoints/lmStudioRestV1/getModelsDownloadStatus": "モデルダウンロードの状態を取得する", + + "model.createVirtualModelFromInstance": "設定を新しい仮想モデルとして保存", + "model.createVirtualModelFromInstance/error": "設定の仮想モデル保存に失敗しました", + + "model": { + "toolUseSectionTitle": "ツール利用", + "toolUseDescription": "このモデルはツール利用向けに訓練されています\n\n詳細はクイックドキュメントをご覧ください" + }, + + "apiConfigOptions/title": "API設定" +} diff --git a/ja/models.json b/ja/models.json index 8d8903f2..d6e22ba3 100644 --- a/ja/models.json +++ b/ja/models.json @@ -1,125 +1,132 @@ -{ - "pageTitle": "マイモデル", - "filterModels.placeholder": "モデルをフィルタ...", - "aggregate_one": "ローカルモデルが{{count}}つあり、ディスクスペースを{{size}}使用しています。", - "aggregate_other": "ローカルモデルが{{count}}つあり、ディスクスペースを{{size}}使用しています。", - - "noModels.title": "ローカルモデルはここに表示されます。", - "noModels.discoverButtonText.prefix": "左のサイドバーの", - "noModels.discoverButtonText.suffix": "ボタンをクリックして、ダウンロードする興味深いLLMを見つけてください。", - "noModels.discoverModelsPrompt": "ローカルLLMを探索してください!", - - "modelsTable.arch/label": "アーキテクチャ", - "modelsTable.params/label": "パラメータ", - "modelsTable.publisher/label": "発行者", - "modelsTable.displayName/label": "名前", - "modelsTable.modelKey/label": "モデルキー", - "modelsTable.size/label": "サイズ", - "modelsTable.dateModified/label": "最終更新日", - "modelsTable.actions/label": "アクション", - - "modelsTable.quant/label": "量子化", - "modelsTable.llms/label": "LLM", - "modelsTable.embeddingModels/label": "埋め込みモデル", - - "action.model.delete": "削除", - "action.model.delete.full": "モデルを削除", - "action.model.delete.confirmation/title": "{{name}}を削除", - "action.model.delete.confirmation/description": "本当に削除しますか?これにより、このモデルに関連付けられたすべてのファイルがマシンから永久に削除されます。この操作は元に戻せません。", - "action.model.delete.confirmation/confirm": "削除", - "action.model.delete/error": "モデルの削除に失敗しました", - - "loader.model.bundled": "バンドル済み", - "action.cancel": "キャンセル", - "indexingOngoing": "モデルをインデックス中... しばらくお待ちください", - "index/error_one": "次のフォルダーのインデックス作成に失敗しました:", - "index/error_other": "次のフォルダーのインデックス作成に失敗しました:", - "badModels/title_one": "次のモデルのインデックス作成に失敗しました:", - "badModels/title_other": "次のモデルのインデックス作成に失敗しました:", - "badModels.virtualModelIncorrectPlacement": "仮想モデルの配置が正しくありません。{{expected}}にあるべきです。{{actual}}にあります。", - "badModels.virtualModelBadManifest": "無効な仮想モデルマニフェスト (model.yaml):", - "unresolvedVirtualModels/title_one": "次の仮想モデルの解決に失敗しました:", - "unresolvedVirtualModels/title_other": "次の仮想モデルの解決に失敗しました:", - "unresolvedVirtualModels.missingModel": "依存モデルが見つかりません: {{missing}}。依存関係パス:\n{{chain}}", - "unresolvedVirtualModels.circular": "循環依存関係が検出されました。", - "unresolvedVirtualModels.fix": "修正", - "unresolvedVirtualModels.revealInExplorer": "エクスプローラーで表示", - "unresolvedVirtualModels.revealInFinder": "Finderで表示", - "unresolvedVirtualModels.reveal/error": "表示に失敗しました", - - "modelsDirectory": "モデルディレクトリ", - "modelsDirectory.change": "変更...", - "modelsDirectory.change/error": "モデルディレクトリの変更に失敗しました", - "modelsDirectory.reset": "デフォルトパスにリセット", - "modelsDirectory.reveal.mac": "Finderで表示", - "modelsDirectory.reveal.nonMac": "ファイルエクスプローラーで表示", - "modelsDirectory.reveal.mac/error": "Finderで表示できませんでした", - "modelsDirectory.reveal.nonMac/error": "ファイルエクスプローラーで表示できませんでした", - "modelsDirectory.forceReindex": "更新", - "loadState/loaded": "読み込み完了", - "loadState/loading": "読み込み中", - "loadState/unloaded": "未読み込み", - "loadState/unloading": "読み込み解除中", - "loadState/idle": "アイドル", - "pinned": "このモデルはピン留めされています。右クリックしてピン留めを解除します。", - "lastUsed": "最終使用", - "contextMenu/pin": "上にピン留め", - "contextMenu/unpin": "ピン留めを解除", - "contextMenu/copyAbsolutePath": "絶対パスをコピー", - "contextMenu/copyModelName": "モデル名をコピー", - "contextMenu/copyModelDefaultIdentifier": "デフォルト識別子をコピー", - "contextMenu/showRawMetadata": "生のメタデータを表示", - "contextMenu/openOnHuggingFace": "Hugging Faceで開く", - "contextMenu": { - "showOnWeb": "Webで表示", - "pullLatest": { - "label": "最新を取得", - "checking": "更新を確認中...", - "upToDate": "最新の状態です", - "error": "更新の確認に失敗しました" - } - }, - "tooltip/moreActions": "その他のアクション", - "tooltip/getInfo": "情報を取得", - "tooltip/editModelDefaultConfig": "モデルのデフォルト設定を編集", - "tooltip/editModelDefaultConfig/override": "モデルのデフォルト設定を編集 (* はオーバーライドがあります)", - "tooltip/visionBadge": "このモデルは画像入力を処理できます", - "tooltip/toolUseBadge": "このモデルはツール使用のためにトレーニングされています", - - "visionBadge/label": "Vision は有効です", - "toolUseBadge/label": "ツール使用のためにトレーニングされています", - - "loader.action.load": "モデルを読み込む", - "loader.action.clearChanges": "変更をクリア", - "loader.action.cancel": "キャンセル", - "loader.info.clickOnModelToLoad": "モデルをクリックして読み込みます", - "loader.info.configureLoadParameters": "モデルの読み込みパラメーターを設定します", - "loader.info.activeGeneratorWarning": "カスタムジェネレーターを使用しているプラグインを使用しています。このプラグインに応じて、現在読み込まれているモデルが適用される場合とされない場合があります", - "loader.guardrails.estimatedMemoryUsage": "推定メモリ使用量:", - "loader.guardrails.total": "計", - "loader.guardrails.gpu": "GPU", - "loader.guardrails.unavailable": "このモデルのメモリ推定値は利用できません", - "loader.guardrails.notEnoughResources": "現在の設定でモデルを読み込むためのリソースが不足しています", - "loader.guardrails.notEnoughResources/moreInfo": "詳細情報", - "loader.guardrails.notEnoughResources.moreInfoSection.appearsNotEnoughMemory": "システムにこのモデルを読み込むのに十分なメモリがないようです。", - "loader.guardrails.notEnoughResources.moreInfoSection.conditionalEstimate": "推定では のメモリが必要です。", - "loader.guardrails.notEnoughResources.moreInfoSection.ifYouBelieveThisIsIncorrect": "設定でモデルの読み込みガードレールを調整するか、 を押しながら読み込むことができます。", - "loader.guardrails.notEnoughResources.moreInfoSection.note": "注: 大きすぎるモデルを読み込むと、システムがオーバーロードされてフリーズする可能性があります。", - - "virtual": { - "local": { - "create": "仮想モデルを作成", - "title": "ローカル仮想モデルを作成", - "description": "モデルを一連の構成とバンドルすることで仮想モデルを作成します。基盤となる重みは複製されません。", - "modelKey.label": "モデルキー", - "modelKey.placeholder": "一意のモデルキーを入力", - "modelKey.normalized": "モデルキーは次のように正規化されます: {{normalized}}", - "baseModel.label": "ベースモデル", - "baseModel.placeholder": "ベースモデルを選択", - "baseModel.empty": "ベースモデルとして使用するモデルをダウンロード", - "next": "次へ", - "confirm": "作成", - "error": "仮想モデルの作成に失敗しました" - } - } -} +{ + "pageTitle": "マイモデル", + "filterModels.placeholder": "モデルをフィルタ...", + "aggregate_one": "ローカルモデルが{{count}}つあり、ディスクスペースを{{size}}使用しています。", + "aggregate_other": "ローカルモデルが{{count}}つあり、ディスクスペースを{{size}}使用しています。", + + "noModels.title": "ローカルモデルはここに表示されます。", + "noModels.discoverButtonText.prefix": "左のサイドバーの", + "noModels.discoverButtonText.suffix": "ボタンをクリックして、ダウンロードする興味深いLLMを見つけてください。", + "noModels.discoverModelsPrompt": "ローカルLLMを探索してください!", + + "modelsTable.arch/label": "アーキテクチャ", + "modelsTable.params/label": "パラメータ", + "modelsTable.publisher/label": "発行者", + "modelsTable.displayName/label": "名前", + "modelsTable.modelKey/label": "モデルキー", + "modelsTable.size/label": "サイズ", + "modelsTable.dateModified/label": "最終更新日", + "modelsTable.actions/label": "アクション", + + "modelsTable.quant/label": "量子化", + "modelsTable.llms/label": "LLM", + "modelsTable.embeddingModels/label": "埋め込みモデル", + + "action.model.delete": "削除", + "action.model.delete.full": "モデルを削除", + "action.model.delete.confirmation/title": "{{name}}を削除", + "action.model.delete.confirmation/description": "本当に削除しますか?これにより、このモデルに関連付けられたすべてのファイルがマシンから永久に削除されます。この操作は元に戻せません。", + "action.model.delete.confirmation/confirm": "削除", + "action.model.delete/error": "モデルの削除に失敗しました", + + "loader.model.bundled": "バンドル済み", + "action.cancel": "キャンセル", + "indexingOngoing": "モデルをインデックス中... しばらくお待ちください", + "indexingPageLoaderText": "モデルをインデックス中...", + "index/error_one": "次のフォルダーのインデックス作成に失敗しました:", + "index/error_other": "次のフォルダーのインデックス作成に失敗しました:", + "badModels/title_one": "次のモデルのインデックス作成に失敗しました:", + "badModels/title_other": "次のモデルのインデックス作成に失敗しました:", + "badModels.virtualModelIncorrectPlacement": "仮想モデルの配置が正しくありません。{{expected}}にあるべきです。{{actual}}にあります。", + "badModels.virtualModelBadManifest": "無効な仮想モデルマニフェスト (model.yaml):", + "unresolvedVirtualModels/title_one": "次の仮想モデルの解決に失敗しました:", + "unresolvedVirtualModels/title_other": "次の仮想モデルの解決に失敗しました:", + "unresolvedVirtualModels.missingModel": "依存モデルが見つかりません: {{missing}}。依存関係パス:\n{{chain}}", + "unresolvedVirtualModels.circular": "循環依存関係が検出されました。", + "unresolvedVirtualModels.fix": "修正", + "unresolvedVirtualModels.revealInExplorer": "エクスプローラーで表示", + "unresolvedVirtualModels.revealInFinder": "Finderで表示", + "unresolvedVirtualModels.reveal/error": "表示に失敗しました", + + "modelsDirectory": "モデルディレクトリ", + "modelsDirectory.change": "変更...", + "modelsDirectory.change/error": "モデルディレクトリの変更に失敗しました", + "modelsDirectory.reset": "デフォルトパスにリセット", + "modelsDirectory.reveal.mac": "Finderで表示", + "modelsDirectory.reveal.nonMac": "ファイルエクスプローラーで表示", + "modelsDirectory.reveal.mac/error": "Finderで表示できませんでした", + "modelsDirectory.reveal.nonMac/error": "ファイルエクスプローラーで表示できませんでした", + "modelsDirectory.forceReindex": "更新", + "loadState/loaded": "読み込み完了", + "loadState/loading": "読み込み中", + "loadState/unloaded": "未読み込み", + "loadState/unloading": "読み込み解除中", + "loadState/idle": "アイドル", + "pinned": "このモデルはピン留めされています。右クリックしてピン留めを解除します。", + "lastUsed": "最終使用", + "contextMenu/pin": "上にピン留め", + "contextMenu/unpin": "ピン留めを解除", + "contextMenu/copyAbsolutePath": "絶対パスをコピー", + "contextMenu/copyModelName": "モデル名をコピー", + "contextMenu/copyModelDefaultIdentifier": "デフォルト識別子をコピー", + "contextMenu/showRawMetadata": "生のメタデータを表示", + "contextMenu/openOnHuggingFace": "Hugging Faceで開く", + "contextMenu": { + "showOnWeb": "Webで表示", + "pullLatest": { + "label": "最新を取得", + "checking": "更新を確認中...", + "upToDate": "最新の状態です", + "error": "更新の確認に失敗しました" + } + }, + "tooltip/moreActions": "その他のアクション", + "tooltip/getInfo": "情報を取得", + "tooltip/editModelDefaultConfig": "モデルのデフォルト設定を編集", + "tooltip/editModelDefaultConfig/override": "モデルのデフォルト設定を編集 (* はオーバーライドがあります)", + "tooltip/visionBadge": "このモデルは画像入力を処理できます", + "tooltip/toolUseBadge": "このモデルはツール使用のためにトレーニングされています", + + "visionBadge/label": "Vision は有効です", + "toolUseBadge/label": "ツール使用のためにトレーニングされています", + + "loader.action.load": "モデルを読み込む", + "loader.action.clearChanges": "変更をクリア", + "loader.action.cancel": "キャンセル", + "loader.info.clickOnModelToLoad": "モデルをクリックして読み込みます", + "loader.info.configureLoadParameters": "モデルの読み込みパラメーターを設定します", + "loader.info.activeGeneratorWarning": "カスタムジェネレーターを使用しているプラグインを使用しています。このプラグインに応じて、現在読み込まれているモデルが適用される場合とされない場合があります", + "loader.guardrails.estimatedMemoryUsage": "推定メモリ使用量:", + "loader.guardrails.total": "計", + "loader.guardrails.gpu": "GPU", + "loader.guardrails.unavailable": "このモデルのメモリ推定値は利用できません", + "loader.guardrails.notEnoughResources": "現在の設定でモデルを読み込むためのリソースが不足しています", + "loader.guardrails.notEnoughResources/moreInfo": "詳細情報", + "loader.guardrails.notEnoughResources.moreInfoSection.appearsNotEnoughMemory": "システムにこのモデルを読み込むのに十分なメモリがないようです。", + "loader.guardrails.notEnoughResources.moreInfoSection.conditionalEstimate": "推定では のメモリが必要です。", + "loader.guardrails.notEnoughResources.moreInfoSection.ifYouBelieveThisIsIncorrect": "設定でモデルの読み込みガードレールを調整するか、 を押しながら読み込むことができます。", + "loader.guardrails.notEnoughResources.moreInfoSection.note": "注: 大きすぎるモデルを読み込むと、システムがオーバーロードされてフリーズする可能性があります。", + + "virtual": { + "local": { + "create": "仮想モデルを作成", + "title": "ローカル仮想モデルを作成", + "description": "モデルを一連の構成とバンドルすることで仮想モデルを作成します。基盤となる重みは複製されません。", + "modelKey.label": "モデルキー", + "modelKey.placeholder": "一意のモデルキーを入力", + "modelKey.normalized": "モデルキーは次のように正規化されます: {{normalized}}", + "baseModel.label": "ベースモデル", + "baseModel.placeholder": "ベースモデルを選択", + "baseModel.empty": "ベースモデルとして使用するモデルをダウンロード", + "next": "次へ", + "confirm": "作成", + "error": "仮想モデルの作成に失敗しました" + }, + "altsSelect": { + "title": "モデルソースを切り替え", + "resetButton": "デフォルトにリセット", + "description": "このモデルには複数の利用可能なソースファイルがあります。", + "trigger": "バリアント" + } + } +} diff --git a/ja/settings.json b/ja/settings.json index 0ed00fee..78222f4d 100644 --- a/ja/settings.json +++ b/ja/settings.json @@ -1,210 +1,214 @@ -{ - "settingsDialogTitle": "設定", - "settingsDialogButtonTooltip": "設定", - "accountDialogButtonTooltip": "アカウント", - - "settingsNewButtonPopover": { - "primary": "設定は右下隅に移動しました", - "secondary": "⚙️ ボタンをクリックして開きます。", - "tertiary": "または、次を押します" - }, - "appUpdate": "アプリの更新", - "checkingAppUpdate": "更新を確認中...", - "checkForUpdates": "更新を確認", - "failedCheckingAppUpdate": "更新の確認に失敗しました", - "newUpdateAvailable": "LM Studioの新しいバージョンが利用可能です! 🎉", - "newBetaUpdateAvailable": "LM Studioの新しいベータ版が利用可能です! 🛠️🎉", - "downloadingInProgress": "更新をダウンロード中...", - "downloadUpdate": "LM Studio {{version}}に更新", - "downloadBetaUpdate": "LM Studio Beta {{version}} (build {{build}})に更新", - "downloadCompleted": "ダウンロード完了!", - "updateDownloadComplete": "LM Studioの更新が準備完了です", - "updateDownloadFailed": "更新に失敗しました!", - "hasFinishedDownloading": "ダウンロードが完了しました。", - "yourCurrentVersion": "現在のバージョン:", - "latestVersion": "最新バージョン:", - "downloadLabel": "今すぐ更新", - "downloadLabel/Linux": "更新をダウンロード", - "cancelDownloadLabel": "キャンセル", - "downloadingUpdate": "ダウンロード中 {{item}}...", - "updateDownloaded": "アプリを再起動して更新を適用する必要があります", - "restartAppToUpdate": "アプリを再起動して更新を適用します", - "appUpdatedToastTitle": "{{title}}に更新されました", - "appUpdatedToastDescriptionPrefix": "を表示", - "AppUpdatedToastDescriptionReleaseNotes": "リリースノート", - "toolUseToastTitle": "ベータの新機能: Tool Use と Function Calls API", - "toolUseToastDescription": "Llama 3.1/3.2、Mistral、Qwen などの一部モデルで OpenAI Tool Use をそのまま置き換えて利用できます。", - "toolUseToastButtonText": "開発者ページに行き試してみる", - "doItLater": "後でやります", - "failedToUpdate": "アプリの更新に失敗しました。インターネット接続を再確認するか、後でもう一度お試しください。", - "retryInBackground": "バックグラウンドで再試行", - "laterLabel": "後で", - "releaseNotesLabel": "リリースノート", - "remindMeLater": "後でリマインド", - "failedDownloadUpdate": "更新のダウンロードに失敗しました", - "installAndRelaunch": "インストールして再起動", - "uptodate": "すべて最新の状態です! 現在のバージョンは {{version}} です", - "preferences": "設定", - "general": "一般", - "sideButtonLabels": "サイドボタンのラベルを表示", - "showModelFileNames": "マイモデル: 常に完全なモデルファイル名を表示", - "colorThemeLabel": "カラーテーマ", - "complexityLevelLabel": "ユーザーインターフェースの複雑さレベル", - "selectComplexityLevelPlaceholder": "デフォルトのUI複雑さレベルを選択", - "userComplexityLevelLabel": "ユーザー", - "powerUserComplexityLevelLabel": "パワーユーザー", - "developerComplexityLevelLabel": "開発者", - "chatSettingsLabel": "チャット設定", - "chat/alwaysShowPromptTemplate": "チャットサイドバーにプロンプトテンプレートを常に表示", - "chat/highlightChatMessageOnHover": "チャットメッセージにカーソルを合わせたときにハイライト", - "chat/doubleClickMessageToEdit": "チャットメッセージをダブルクリックして編集", - - "chat/aiNaming/label": "AI に名前をつける", - "chat/aiNaming/mode/label": "AI生成チャット名", - "chat/aiNaming/mode/value/never": "しない", - "chat/aiNaming/mode/value/never/subTitle": "AI生成チャット名を作成しない", - "chat/aiNaming/mode/value/auto": "自動", - "chat/aiNaming/mode/value/auto/subTitle": "生成速度に基づいて名前を作成するかどうかを決定", - "chat/aiNaming/mode/value/always": "常に", - "chat/aiNaming/mode/value/always/subTitle": "生成速度に関係なくAI生成チャット名を作成する", - "chat/aiNaming/emoji": "AI生成チャット名に絵文字を使用", - "chat/keyboardShortcuts/label": "キーボードショートカット", - "chat/keyboardShortcuts/verbPrefix": "使用", - "chat/keyboardShortcuts/regenerate": "最後のメッセージを再生成する", - "chat/keyboardShortcuts/sendMessage": "メッセージを送信する", - - "onboarding/blockTitle": "オンボーディングヒント", - "onboarding/dismissedHints": "無視されたオンボーディングヒント", - "onboarding/resetHintTooltip": "このオンボーディングヒントを再度有効にするにはクリックしてください", - "onboarding/resetAllHints": "すべてのオンボーディングヒントをリセット", - "onboarding/noneDismissed": "無視されたヒントはありません。現在、すべてのオンボーディングヘルプヒントが次に無視されるまで表示されます", - - "firstTimeExperienceLabel": "チャット初回体験", - "firstTimeExperienceMarkCompletedLabel": "完了としてマーク", - "firstTimeExperienceResetLabel": "リセット", - "showPromptSuggestionsLabel": "新しいチャットを作成するときにプロンプトの提案を表示", - "darkThemeLabel": "ダーク", - "lightThemeLabel": "ライト", - "systemThemeLabel": "自動", - "sepiaThemeLabel": "セピア", - "unloadPreviousModelLabel": "モデルを選択する際は、最初に現在読み込まれているモデルをアンロードしてください", - "languageLabel": "言語", - "changeLanguageLabel": "アプリの言語を選択 (まだ開発中)", - "developerLabel": "開発者", - "localServiceLabel": "ローカルLLMサービス (ヘッドレス)", - "modelDefaultsLabel": "モデルのデフォルト設定", - "showExperimentalFeaturesLabel": "実験的機能を表示", - "appFirstLoadLabel": "アプリ初回ロード体験", - "showDebugInfoBlocksInChatLabel": "チャットにデバッグ情報ブロックを表示", - "autoLoadBundledLLMLabel": "起動時にバンドルされたLLMモデルを自動ロード", - "showReleaseNotes": "リリースノートを表示", - "hideReleaseNotes": "リリースノートを非表示", - - "backendDownloadNewUpdate": "新しいバックエンドが利用可能です!", - "backendDownloadNewUpdateAction": "開発者ページに移動", - - "backendDownloadChannel.label": "LM Studio 拡張パックダウンロードチャネル", - "backendDownloadChannel.value.stable": "安定版", - "backendDownloadChannel.value.beta": "ベータ版", - "backendDownloadChannel.value.latest": "最新版", - "backendDownloadChannel.shortLabel": "ランタイムのダウンロードチャネル", - "backendDownloadChannel.hint": "LM Studio 拡張パックのダウンロードチャネルを選択してください。 \"{{stableName}}\" はほとんどのユーザーに推奨されるチャネルです。", - - "appUpdateChannel.label": "アップデートチャネル", - "appUpdateChannel.value.stable": "安定版", - "appUpdateChannel.value.beta": "ベータ版", - "appUpdateChannel.value.alpha": "アルファ版", - "appUpdateChannel.shortLabel": "アプリのアップデートチャネル", - "appUpdateChannel.hint": "LM Studio アプリのアップデートを受信するチャネルを選択してください。 \"{{stableName}}\" はほとんどのユーザーに推奨されるチャネルです。", - - "modelLoadingGuardrails.label": "モデル読み込みガードレール", - "modelLoadingGuardrails.description": "システムリソースの制限を超えてモデルを読み込むと、システムの不安定性やフリーズを引き起こす可能性があります。ガードレールは、偶発的なオーバーロードを防ぎます。必要に応じてここでこれらの制限を調整できますが、システムの制限に近いモデルを読み込むと、安定性が低下する可能性があることに注意してください。", - "modelLoadingGuardrails.value.off": "OFF (推奨されません)", - "modelLoadingGuardrails.value.off/subTitle": "システムオーバーロードに対する予防策はありません", - "modelLoadingGuardrails.value.off/detail": "Off detail", - "modelLoadingGuardrails.value.low": "カジュアル", - "modelLoadingGuardrails.value.low/subTitle": "システムオーバーロードに対する予防策はありません", - "modelLoadingGuardrails.value.low/detail": "Relaxed detail", - "modelLoadingGuardrails.value.medium": "バランス", - "modelLoadingGuardrails.value.medium/subTitle": "システムオーバーロードに対する中程度の予防策", - "modelLoadingGuardrails.value.medium/detail": "Balanced detail", - "modelLoadingGuardrails.value.high": "厳格", - "modelLoadingGuardrails.value.high/subTitle": "システムオーバーロードに対する強力な予防策", - "modelLoadingGuardrails.value.high/detail": "Strict detail", - "modelLoadingGuardrails.value.custom": "カスタム", - "modelLoadingGuardrails.value.custom/subTitle": "読み込むことができる最大モデルサイズの制限を設定します", - "modelLoadingGuardrails.value.custom/detail": "Custom detail", - "modelLoadingGuardrails.custom.label": "メモリ制限: ", - "modelLoadingGuardrails.custom.unitGB": "GB", - "modelLoadingGuardrails.custom.description": "モデルの読み込みに対するカスタムメモリ制限を設定します。この制限を超えるモデルは読み込まれません。", - - "experimentalLoadPresets": "モデル読み込みのプリセットにおける設定サポートを有効にする", - "experimentalLoadPresets.description": "プリセットがモデル読み込み設定を含むことを許可するかどうかを指定します。この機能は実験的であり、フィードバックを歓迎します。", - - "unloadPreviousJITModelOnLoad": "JIT モデルの自動アンロード: 任意の時点で JIT 経由で読み込まれるモデルは最大 1 つに制限されます(以前のモデルをアンロードします)", - "autoDeleteExtensionPacks": "最も最近使用されていないランタイム拡張パックを自動削除", - "autoUpdateExtensionPacks": "選択したランタイム拡張パックを自動更新", - "useHFProxy.label": "LM Studio の Hugging Face プロキシを使用", - "useHFProxy.hint": "LM Studio の Hugging Face プロキシを使用してモデルを検索およびダウンロードします。これにより、Hugging Face に直接アクセスできないユーザーを支援できます。", - "separateReasoningContentInResponses": "適用可能な場合、API レスポンスで `reasoning_content` と `content` を分離", - "separateReasoningContentInResponses/hint": "この設定は、DeepSeek R1 やその蒸留版、`` および `` タグ内で CoT を生成する他のモデルなど、'reasoning' モデルにのみ適用されます。", - - "promptWhenCommittingUnsavedChangesWithNewFields": "プリセット: 新しいフィールドをプリセットにコミットする際に確認ダイアログを表示", - "promptWhenCommittingUnsavedChangesWithNewFields.description": "これは、誤って新しいフィールドをプリセットに追加するのを防ぎたい場合に便利です。", - - "enableLocalService": "ローカル LLM サービスを有効にする", - "enableLocalService.subtitle": "LM Studio の LLM サーバーを、LM Studio アプリケーションを開いておくことなく使用する", - "enableLocalService.description": "有効にすると、LM Studio ローカル LLM サービスが起動時に起動します。LM Studio を閉じても、ローカル LLM サービスはシステムトレイで実行され続けます。", - - "expandConfigsOnClick": "クリック時に設定を展開し、ホバー時には展開しない", - - "migrateChats": { - "label": "pre-0.3.0 チャットへの移行", - "hasBetterLabel": "pre-0.3.0 チャットへの移行", - "action_one": "1 チャットを移行", - "action_other": "{{count}} チャットを移行", - "inProgress": "チャットを移行中...", - "hint": { - "primary": "v0.3.0+ のチャット機能において、マルチバージョンチャットメッセージなどの新機能に対応するため、内部のデータ構造を再設計しました。古いチャットをアプリに表示させるためには、新しい形式へ移行する必要があります。", - "details": "移行プロセスは古いチャットを削除するのではなく、新しい形式でのコピーを作成します。", - "footer": "古いバージョンの LM Studio を通じて、古いチャットにアクセスすることは引き続き可能です。現在、画像は自動的に移行されません。" - }, - "hasBetterHint": { - "primary": "古いチャットを移行してから、チャット移行ツールを改善しました。もう一度実行されますか?", - "details": "移行プロセスは新しい形式のチャットを含む新しいフォルダーを作成します。古いチャットはそのまま残ります。", - "footer": "古いバージョンの LM Studio を通じて、古いチャットにアクセスすることは引き続き可能です。現在、画像は自動的に移行されません。" - }, - "success": "チャットの移行に成功しました!", - "success_one": "1 チャットの移行に成功しました", - "success_other": "{{count}} チャットの移行に成功しました", - "showInstructionsButton": "手順を表示", - "footerCardText": "古いバージョンの LM Studio からのチャットは、このバージョンで使用するために移行する必要があります。", - "hasBetterFooterCardText": "古いチャットを移行してから、チャット移行ツールを改善しました。もう一度実行されますか?(新しく移行されたチャットを含む新しいフォルダーを作成します。)", - "dismissConfirm": "やめる", - "dismissConfirmDescription": "チャットの移行は、設定からいつでも行うことができます。" - }, - "toolConfirmation": { - "label": "ツール呼び出しの確認", - "neverAsk": { - "label": "ツールを実行する前に確認を求めない (推奨しません)", - "hint": "ツールを実行する前の確認を無効にします。これは推奨されません。", - "warnTitle": "本当によろしいですか?", - "warnDescription": "ツール呼び出しの確認を無効にすることは危険です。プラグインのいずれかが、破壊的なアクションを実行する可能性のあるツールを提供している場合(コマンドの実行、ファイルの削除、ファイルの上書き、ファイルのアップロードなど)、モデルは確認なしにそれを実行できるようになります。ツールごと、またはプラグインごとに確認を無効にすることは常に可能です。このオプションを有効にすることは推奨されません。十分に注意してください。", - "warnButton": "リスクを理解しました" - } - }, - - "defaultContextLength": { - "label": "デフォルトのコンテキスト長", - "maxTitle": "モデルの最大値", - "customTitle": "カスタム値", - "maxSubtitle": "各モデルがサポートする最大のコンテキスト長を使用します。", - "customSubtitle": "新しいモデルを読み込む際のデフォルトのコンテキスト長を設定します。モデルが対応する最大コンテキスト長がより短い場合は、その値が使用されます。", - "invalidNaNError": "無効なコンテキスト長の値です。{{value}} を使用します。", - "invalidRangeError": "無効なコンテキスト長の値です。1から2^30の範囲で指定してください。{{value}} を使用します。", - "largeContextWarning": "コンテキスト長が大きいほど、モデルが使用するメモリも増加します。よく分からない場合は、デフォルト値を変更しないでください。" - }, - "jitTTL": { - "subtitle": "JIT で読み込まれたモデルは、指定された時間アイドル状態が続くと自動的にアンロードされます。" - } -} +{ + "settingsDialogTitle": "設定", + "settingsDialogButtonTooltip": "設定", + "accountDialogButtonTooltip": "アカウント", + + "settingsNewButtonPopover": { + "primary": "設定は右下隅に移動しました", + "secondary": "⚙️ ボタンをクリックして開きます。", + "tertiary": "または、次を押します" + }, + "appUpdate": "アプリの更新", + "checkingAppUpdate": "更新を確認中...", + "checkForUpdates": "更新を確認", + "failedCheckingAppUpdate": "更新の確認に失敗しました", + "newUpdateAvailable": "LM Studioの新しいバージョンが利用可能です! 🎉", + "newBetaUpdateAvailable": "LM Studioの新しいベータ版が利用可能です! 🛠️🎉", + "downloadingInProgress": "更新をダウンロード中...", + "downloadUpdate": "LM Studio {{version}}に更新", + "downloadBetaUpdate": "LM Studio Beta {{version}} (build {{build}})に更新", + "downloadCompleted": "ダウンロード完了!", + "updateDownloadComplete": "LM Studioの更新が準備完了です", + "updateDownloadFailed": "更新に失敗しました!", + "hasFinishedDownloading": "ダウンロードが完了しました。", + "yourCurrentVersion": "現在のバージョン:", + "latestVersion": "最新バージョン:", + "downloadLabel": "今すぐ更新", + "downloadLabel/Linux": "更新をダウンロード", + "cancelDownloadLabel": "キャンセル", + "downloadingUpdate": "ダウンロード中 {{item}}...", + "updateDownloaded": "アプリを再起動して更新を適用する必要があります", + "restartAppToUpdate": "アプリを再起動して更新を適用します", + "appUpdatedToastTitle": "{{title}}に更新されました", + "appUpdatedToastDescriptionPrefix": "を表示", + "AppUpdatedToastDescriptionReleaseNotes": "リリースノート", + "toolUseToastTitle": "ベータの新機能: Tool Use と Function Calls API", + "toolUseToastDescription": "Llama 3.1/3.2、Mistral、Qwen などの一部モデルで OpenAI Tool Use をそのまま置き換えて利用できます。", + "toolUseToastButtonText": "開発者ページに行き試してみる", + "doItLater": "後でやります", + "failedToUpdate": "アプリの更新に失敗しました。インターネット接続を再確認するか、後でもう一度お試しください。", + "retryInBackground": "バックグラウンドで再試行", + "laterLabel": "後で", + "releaseNotesLabel": "リリースノート", + "remindMeLater": "後でリマインド", + "failedDownloadUpdate": "更新のダウンロードに失敗しました", + "installAndRelaunch": "インストールして再起動", + "uptodate": "すべて最新の状態です! 現在のバージョンは {{version}} です", + "preferences": "設定", + "general": "一般", + "sideButtonLabels": "サイドボタンのラベルを表示", + "showModelFileNames": "マイモデル: 常に完全なモデルファイル名を表示", + "colorThemeLabel": "カラーテーマ", + "appNavigationBarPositionLabel": "ナビゲーションバーの位置", + "appNavigationBarPositionTop": "上", + "appNavigationBarPositionLeft": "左", + "complexityLevelLabel": "ユーザーインターフェースの複雑さレベル", + "selectComplexityLevelPlaceholder": "デフォルトのUI複雑さレベルを選択", + "userComplexityLevelLabel": "ユーザー", + "powerUserComplexityLevelLabel": "パワーユーザー", + "developerComplexityLevelLabel": "開発者", + "chatSettingsLabel": "チャット設定", + "chat/alwaysShowPromptTemplate": "チャットサイドバーにプロンプトテンプレートを常に表示", + "chat/highlightChatMessageOnHover": "チャットメッセージにカーソルを合わせたときにハイライト", + "chat/doubleClickMessageToEdit": "チャットメッセージをダブルクリックして編集", + + "chat/aiNaming/label": "AIに名前をつける", + "chat/aiNaming/mode/label": "AI生成チャット名", + "chat/aiNaming/mode/value/never": "しない", + "chat/aiNaming/mode/value/never/subTitle": "AI生成チャット名を作成しない", + "chat/aiNaming/mode/value/auto": "自動", + "chat/aiNaming/mode/value/auto/subTitle": "生成速度に基づいて名前を作成するかどうかを決定", + "chat/aiNaming/mode/value/always": "常に", + "chat/aiNaming/mode/value/always/subTitle": "生成速度に関係なくAI生成チャット名を作成する", + "chat/aiNaming/emoji": "AI生成チャット名に絵文字を使用", + "chat/keyboardShortcuts/label": "キーボードショートカット", + "chat/keyboardShortcuts/verbPrefix": "使用", + "chat/keyboardShortcuts/regenerate": "最後のメッセージを再生成する", + "chat/keyboardShortcuts/sendMessage": "メッセージを送信する", + + "onboarding/blockTitle": "オンボーディングヒント", + "onboarding/dismissedHints": "無視されたオンボーディングヒント", + "onboarding/resetHintTooltip": "このオンボーディングヒントを再度有効にするにはクリックしてください", + "onboarding/resetAllHints": "すべてのオンボーディングヒントをリセット", + "onboarding/noneDismissed": "無視されたヒントはありません。現在、すべてのオンボーディングヘルプヒントが次に無視されるまで表示されます", + + "firstTimeExperienceLabel": "チャット初回体験", + "firstTimeExperienceMarkCompletedLabel": "完了としてマーク", + "firstTimeExperienceResetLabel": "リセット", + "showPromptSuggestionsLabel": "新しいチャットを作成するときにプロンプトの提案を表示", + "darkThemeLabel": "ダーク", + "lightThemeLabel": "ライト", + "systemThemeLabel": "自動", + "sepiaThemeLabel": "セピア", + "unloadPreviousModelLabel": "モデルを選択する際は、最初に現在読み込まれているモデルをアンロードしてください", + "languageLabel": "言語", + "changeLanguageLabel": "アプリの言語を選択 (まだ開発中)", + "developerLabel": "開発者", + "localServiceLabel": "ローカルLLMサービス (ヘッドレス)", + "modelDefaultsLabel": "モデルのデフォルト設定", + "showExperimentalFeaturesLabel": "実験的機能を表示", + "appFirstLoadLabel": "アプリ初回ロード体験", + "showDebugInfoBlocksInChatLabel": "チャットにデバッグ情報ブロックを表示", + "autoLoadBundledLLMLabel": "起動時にバンドルされたLLMモデルを自動ロード", + "showReleaseNotes": "リリースノートを表示", + "hideReleaseNotes": "リリースノートを非表示", + + "backendDownloadNewUpdate": "新しいバックエンドが利用可能です!", + "backendDownloadNewUpdateAction": "開発者ページに移動", + + "backendDownloadChannel.label": "LM Studio 拡張パックダウンロードチャネル", + "backendDownloadChannel.value.stable": "安定版", + "backendDownloadChannel.value.beta": "ベータ版", + "backendDownloadChannel.value.latest": "最新版", + "backendDownloadChannel.shortLabel": "ランタイムのダウンロードチャネル", + "backendDownloadChannel.hint": "LM Studio 拡張パックのダウンロードチャネルを選択してください。 \"{{stableName}}\" はほとんどのユーザーに推奨されるチャネルです。", + + "appUpdateChannel.label": "アップデートチャネル", + "appUpdateChannel.value.stable": "安定版", + "appUpdateChannel.value.beta": "ベータ版", + "appUpdateChannel.value.alpha": "アルファ版", + "appUpdateChannel.shortLabel": "アプリのアップデートチャネル", + "appUpdateChannel.hint": "LM Studio アプリのアップデートを受信するチャネルを選択してください。 \"{{stableName}}\" はほとんどのユーザーに推奨されるチャネルです。", + + "modelLoadingGuardrails.label": "モデル読み込みガードレール", + "modelLoadingGuardrails.description": "システムリソースの制限を超えてモデルを読み込むと、システムの不安定性やフリーズを引き起こす可能性があります。ガードレールは、偶発的なオーバーロードを防ぎます。必要に応じてここでこれらの制限を調整できますが、システムの制限に近いモデルを読み込むと、安定性が低下する可能性があることに注意してください。", + "modelLoadingGuardrails.value.off": "OFF (推奨されません)", + "modelLoadingGuardrails.value.off/subTitle": "システムオーバーロードに対する予防策はありません", + "modelLoadingGuardrails.value.off/detail": "Off detail", + "modelLoadingGuardrails.value.low": "カジュアル", + "modelLoadingGuardrails.value.low/subTitle": "システムオーバーロードに対する予防策はありません", + "modelLoadingGuardrails.value.low/detail": "Relaxed detail", + "modelLoadingGuardrails.value.medium": "バランス", + "modelLoadingGuardrails.value.medium/subTitle": "システムオーバーロードに対する中程度の予防策", + "modelLoadingGuardrails.value.medium/detail": "Balanced detail", + "modelLoadingGuardrails.value.high": "厳格", + "modelLoadingGuardrails.value.high/subTitle": "システムオーバーロードに対する強力な予防策", + "modelLoadingGuardrails.value.high/detail": "Strict detail", + "modelLoadingGuardrails.value.custom": "カスタム", + "modelLoadingGuardrails.value.custom/subTitle": "読み込むことができる最大モデルサイズの制限を設定します", + "modelLoadingGuardrails.value.custom/detail": "Custom detail", + "modelLoadingGuardrails.custom.label": "メモリ制限: ", + "modelLoadingGuardrails.custom.unitGB": "GB", + "modelLoadingGuardrails.custom.description": "モデルの読み込みに対するカスタムメモリ制限を設定します。この制限を超えるモデルは読み込まれません。", + "modelLoadingGuardrails.alwaysAllowLoadAnyway": "(非推奨) Alt/Optionキーを押さずに'Load Anyway'「とにかく読み込む」ことを常に許可する", + + "experimentalLoadPresets": "モデル読み込みのプリセットにおける設定サポートを有効にする", + "experimentalLoadPresets.description": "プリセットがモデル読み込み設定を含むことを許可するかどうかを指定します。この機能は実験的であり、フィードバックを歓迎します。", + + "unloadPreviousJITModelOnLoad": "JIT モデルの自動アンロード: 任意の時点で JIT 経由で読み込まれるモデルは最大 1 つに制限されます(以前のモデルをアンロードします)", + "autoDeleteExtensionPacks": "最も最近使用されていないランタイム拡張パックを自動削除", + "autoUpdateExtensionPacks": "選択したランタイム拡張パックを自動更新", + "useHFProxy.label": "LM Studio の Hugging Face プロキシを使用", + "useHFProxy.hint": "LM Studio の Hugging Face プロキシを使用してモデルを検索およびダウンロードします。これにより、Hugging Face に直接アクセスできないユーザーを支援できます。", + "separateReasoningContentInResponses": "適用可能な場合、API レスポンスで `reasoning_content` と `content` を分離", + "separateReasoningContentInResponses/hint": "この設定は、DeepSeek R1 やその蒸留版、`` および `` タグ内で CoT を生成する他のモデルなど、'reasoning' モデルにのみ適用されます。", + + "promptWhenCommittingUnsavedChangesWithNewFields": "プリセット: 新しいフィールドをプリセットにコミットする際に確認ダイアログを表示", + "promptWhenCommittingUnsavedChangesWithNewFields.description": "これは、誤って新しいフィールドをプリセットに追加するのを防ぎたい場合に便利です。", + + "enableLocalService": "ローカル LLM サービスを有効にする", + "enableLocalService.subtitle": "LM Studio の LLM サーバーを、LM Studio アプリケーションを開いておくことなく使用する", + "enableLocalService.description": "有効にすると、LM Studio ローカル LLM サービスが起動時に起動します。LM Studio を閉じても、ローカル LLM サービスはシステムトレイで実行され続けます。", + + "expandConfigsOnClick": "クリック時に設定を展開し、ホバー時には展開しない", + + "migrateChats": { + "label": "pre-0.3.0 チャットへの移行", + "hasBetterLabel": "pre-0.3.0 チャットへの移行", + "action_one": "1 チャットを移行", + "action_other": "{{count}} チャットを移行", + "inProgress": "チャットを移行中...", + "hint": { + "primary": "v0.3.0+ のチャット機能において、マルチバージョンチャットメッセージなどの新機能に対応するため、内部のデータ構造を再設計しました。古いチャットをアプリに表示させるためには、新しい形式へ移行する必要があります。", + "details": "移行プロセスは古いチャットを削除するのではなく、新しい形式でのコピーを作成します。", + "footer": "古いバージョンの LM Studio を通じて、古いチャットにアクセスすることは引き続き可能です。現在、画像は自動的に移行されません。" + }, + "hasBetterHint": { + "primary": "古いチャットを移行してから、チャット移行ツールを改善しました。もう一度実行されますか?", + "details": "移行プロセスは新しい形式のチャットを含む新しいフォルダーを作成します。古いチャットはそのまま残ります。", + "footer": "古いバージョンの LM Studio を通じて、古いチャットにアクセスすることは引き続き可能です。現在、画像は自動的に移行されません。" + }, + "success": "チャットの移行に成功しました!", + "success_one": "1 チャットの移行に成功しました", + "success_other": "{{count}} チャットの移行に成功しました", + "showInstructionsButton": "手順を表示", + "footerCardText": "古いバージョンの LM Studio からのチャットは、このバージョンで使用するために移行する必要があります。", + "hasBetterFooterCardText": "古いチャットを移行してから、チャット移行ツールを改善しました。もう一度実行されますか?(新しく移行されたチャットを含む新しいフォルダーを作成します。)", + "dismissConfirm": "やめる", + "dismissConfirmDescription": "チャットの移行は、設定からいつでも行うことができます。" + }, + "toolConfirmation": { + "label": "ツール呼び出しの確認", + "neverAsk": { + "label": "ツールを実行する前に確認を求めない (推奨しません)", + "hint": "ツールを実行する前の確認を無効にします。これは推奨されません。", + "warnTitle": "本当によろしいですか?", + "warnDescription": "ツール呼び出しの確認を無効にすることは危険です。プラグインのいずれかが、破壊的なアクションを実行する可能性のあるツールを提供している場合(コマンドの実行、ファイルの削除、ファイルの上書き、ファイルのアップロードなど)、モデルは確認なしにそれを実行できるようになります。ツールごと、またはプラグインごとに確認を無効にすることは常に可能です。このオプションを有効にすることは推奨されません。十分に注意してください。", + "warnButton": "リスクを理解しました" + } + }, + + "defaultContextLength": { + "label": "デフォルトのコンテキスト長", + "maxTitle": "モデルの最大値", + "customTitle": "カスタム値", + "maxSubtitle": "各モデルがサポートする最大のコンテキスト長を使用します。", + "customSubtitle": "新しいモデルを読み込む際のデフォルトのコンテキスト長を設定します。モデルが対応する最大コンテキスト長がより短い場合は、その値が使用されます。", + "invalidNaNError": "無効なコンテキスト長の値です。{{value}} を使用します。", + "invalidRangeError": "無効なコンテキスト長の値です。1から2^30の範囲で指定してください。{{value}} を使用します。", + "largeContextWarning": "コンテキスト長が大きいほど、モデルが使用するメモリも増加します。よく分からない場合は、デフォルト値を変更しないでください。" + }, + "jitTTL": { + "subtitle": "JIT で読み込まれたモデルは、指定された時間アイドル状態が続くと自動的にアンロードされます。" + } +} diff --git a/ja/shared.json b/ja/shared.json index 4f8b551e..a6d89b2f 100644 --- a/ja/shared.json +++ b/ja/shared.json @@ -1,304 +1,305 @@ -{ - "copyLmStudioLinkButton/toolTip": "モデルのダウンロードリンクをコピー", - - "filter.noMatches": "一致するものはありません", - "longRunningTask": { - "unbundlingDependencies": { - "badge": "リソースを抽出中" - }, - "performingBackendHardwareSurvey": { - "badge": "バックエンドハードウェアの互換性を確認中" - }, - "indexingRuntimes": { - "badge": "ランタイムをインデックス中" - }, - "indexingModels": { - "badge": "モデルをインデックス中" - }, - "authenticating": { - "badge": "認証中" - }, - "autoUpdatingExtensionPack": { - "badge": "拡張パックを更新中 ({{name}} v{{version}})" - } - }, - "auth": { - "prompt": "LM Studio Hubにログイン", - "authError": "認証に失敗しました", - "noAccount": "アカウントをお持ちでないですか?", - "signUp": "サインアップ", - "havingTrouble": "問題がありますか?", - "retry": "再試行" - }, - "artifacts": { - "fetchError": "アーティファクトの取得に失敗しました", - "organizationVisible": "組織が表示されます" - }, - - "incompatible": "非互換", - "compatible": "互換性あり", - "public": "公開", - "private": "非公開", - "yes": "はい", - "no": "いいえ", - "go": "実行", - - "proceedWithEllipsis": "続行...", - "proceed": "続行", - "inProgress": "進行中...", - "failed": "失敗", - "pending": "保留中", - "doneWithExclamation": "完了!", - "done": "完了", - - "complete": { - "completeWithEllipsis": "完了...", - "complete": "完了", - "completingWithEllipsis": "完了中...", - "completing": "完了中", - "completedWithExclamation": "完了!", - "completed": "完了" - }, - - "cancel": { - "cancelWithEllipsis": "キャンセル...", - "cancel": "キャンセル", - "cancelingWithEllipsis": "キャンセル中...", - "canceling": "キャンセル中", - "canceled": "キャンセル済み" - }, - - "next": { - "nextWithEllipsis": "次へ...", - "next": "次へ" - }, - - "back": { - "backWithEllipsis": "戻る...", - "back": "戻る" - }, - - "close": { - "closeWithEllipsis": "閉じる...", - "close": "閉じる", - "closingWithEllipsis": "閉じる中...", - "closing": "閉じる中", - "closedWithExclamation": "閉じました!", - "closed": "閉じました" - }, - - "delete": { - "deleteWithEllipsis": "削除...", - "delete": "削除", - "deletingWithEllipsis": "削除中...", - "deleting": "削除中", - "deletedWithExclamation": "削除しました!", - "deleted": "削除しました" - }, - - "retry": { - "retryWithEllipsis": "再試行...", - "retry": "再試行", - "retryingWithEllipsis": "再試行中...", - "retrying": "再試行中" - }, - - "refresh": { - "refreshWithEllipsis": "更新...", - "refresh": "更新", - "refreshingWithEllipsis": "更新中...", - "refreshing": "更新中", - "refreshedWithExclamation": "更新しました!", - "refreshed": "更新しました" - }, - - "confirm": { - "confirm": "確認", - "confirmingWithEllipsis": "確認中...", - "confirming": "確認中", - "confirmedWithExclamation": "確認しました!", - "confirmed": "確認しました" - }, - - "copy": { - "copyWithEllipsis": "コピー...", - "copy": "コピー", - "copyingWithEllipsis": "コピー中...", - "copying": "コピー中", - "copiedWithExclamation": "コピーしました!", - "copied": "コピーしました" - }, - - "edit": { - "editWithEllipsis": "編集...", - "edit": "編集", - "editingWithEllipsis": "編集中...", - "editing": "編集中", - "editedWithExclamation": "編集しました!", - "edited": "編集しました" - }, - - "load": { - "loadWithEllipsis": "読み込み...", - "load": "読み込み", - "loadingWithEllipsis": "読み込み中...", - "loading": "読み込み中", - "loadedWithExclamation": "読み込みました!", - "loaded": "読み込みました" - }, - - "save": { - "saveWithEllipsis": "保存...", - "save": "保存", - "savingWithEllipsis": "保存中...", - "saving": "保存中", - "savedWithExclamation": "保存しました!", - "saved": "保存しました" - }, - - "saveAs": { - "saveAsWithEllipsis": "名前を付けて保存...", - "saveAs": "名前を付けて保存" - }, - - "saveAsNew": { - "saveAsNewWithEllipsis": "名前を付けて保存...", - "saveAsNew": "名前を付けて保存" - }, - - "search": { - "searchWithEllipsis": "検索...", - "search": "検索", - "searchingWithEllipsis": "検索中...", - "searching": "検索中" - }, - - "update": { - "updateWithEllipsis": "更新...", - "update": "更新", - "updatingWithEllipsis": "更新中...", - "updating": "更新中", - "updatedWithExclamation": "更新しました!", - "updated": "更新しました" - }, - - "create": { - "createWithEllipsis": "作成...", - "create": "作成", - "creatingWithEllipsis": "作成中...", - "creating": "作成中", - "createdWithExclamation": "作成しました!", - "created": "作成しました" - }, - - "reset": { - "resetWithEllipsis": "リセット...", - "reset": "リセット", - "resettingWithEllipsis": "リセット中...", - "resetting": "リセット中" - }, - - "pause": { - "pause": "一時停止", - "pausingWithEllipsis": "一時停止中...", - "pausing": "一時停止中", - "paused": "一時停止" - }, - - "download": { - "download": "ダウンロード", - "downloadingWithEllipsis": "ダウンロード中...", - "downloading": "ダウンロード中", - "downloadedWithExclamation": "ダウンロードしました!", - "downloaded": "ダウンロードしました" - }, - - "upload": { - "uploadWithEllipsis": "アップロード...", - "upload": "アップロード", - "uploadingWithEllipsis": "アップロード中...", - "uploading": "アップロード中", - "uploadedWithExclamation": "アップロードしました!", - "uploaded": "アップロードしました" - }, - - "remove": { - "removeWithEllipsis": "削除...", - "remove": "削除", - "removingWithEllipsis": "削除中...", - "removing": "削除中", - "removedWithExclamation": "削除しました!", - "removed": "削除しました" - }, - - "uninstall": { - "uninstallWithEllipsis": "アンインストール...", - "uninstall": "アンインストール", - "uninstallingWithEllipsis": "アンインストール中...", - "uninstalling": "アンインストール中", - "uninstalledWithExclamation": "アンインストールしました!", - "uninstalled": "アンインストールしました" - }, - - "resume": { - "resumeWithEllipsis": "再開...", - "resume": "再開", - "resumingWithEllipsis": "再開中...", - "resuming": "再開中" - }, - - "start": { - "startWithEllipsis": "開始...", - "start": "開始", - "startingWithEllipsis": "開始中...", - "starting": "開始中", - "started": "開始しました" - }, - - "stop": { - "stopWithEllipsis": "停止...", - "stop": "停止", - "stoppingWithEllipsis": "停止中...", - "stopping": "停止中", - "stoppedWithExclamation": "停止しました!", - "stopped": "停止しました" - }, - - "import": { - "importWithEllipsis": "インポート...", - "import": "インポート", - "importingWithEllipsis": "インポート中...", - "importing": "インポート中", - "importedWithExclamation": "インポートしました!", - "imported": "インポートしました" - }, - - "letsGo": { - "letsGo": "始めましょう", - "letsGoWithEllipsis": "始めましょう...", - "letsGoWithExclamation": "始めましょう!" - }, - - "run": { - "runWithEllipsis": "実行...", - "run": "実行", - "runningWithEllipsis": "実行中...", - "running": "実行中" - }, - - "configure": { - "configureWithEllipsis": "設定...", - "configure": "設定", - "configuringWithEllipsis": "設定中...", - "configured": "設定完了" - }, - - "publish": { - "publishWithEllipsis": "公開...", - "publish": "公開", - "publishingWithEllipsis": "公開中...", - "publishing": "公開中", - "publishedWithExclamation": "公開しました!", - "published": "公開しました" - } -} +{ + "copyLmStudioLinkButton/toolTip": "モデルのダウンロードリンクをコピー", + + "filter.noMatches": "一致するものはありません", + "longRunningTask": { + "unbundlingDependencies": { + "badge": "リソースを抽出中" + }, + "performingBackendHardwareSurvey": { + "badge": "バックエンドハードウェアの互換性を確認中" + }, + "indexingRuntimes": { + "badge": "ランタイムをインデックス中" + }, + "indexingModels": { + "badge": "モデルをインデックス中" + }, + "authenticating": { + "badge": "認証中" + }, + "autoUpdatingExtensionPack": { + "badge": "拡張パックを更新中 ({{name}} v{{version}})" + } + }, + "auth": { + "prompt": "LM Studio Hubにログイン", + "authError": "認証に失敗しました", + "noAccount": "アカウントをお持ちでないですか?", + "signUp": "サインアップ", + "havingTrouble": "問題がありますか?", + "retry": "再試行" + }, + "artifacts": { + "fetchError": "アーティファクトの取得に失敗しました", + "organizationVisible": "組織が表示されます" + }, + + "incompatible": "非互換", + "compatible": "互換性あり", + "public": "公開", + "private": "非公開", + "yes": "はい", + "no": "いいえ", + "go": "実行", + + "proceedWithEllipsis": "続行...", + "proceed": "続行", + "inProgress": "進行中...", + "failed": "失敗", + "pending": "保留中", + "doneWithExclamation": "完了!", + "done": "完了", + "beta": "ベータ", + + "complete": { + "completeWithEllipsis": "完了...", + "complete": "完了", + "completingWithEllipsis": "完了中...", + "completing": "完了中", + "completedWithExclamation": "完了!", + "completed": "完了" + }, + + "cancel": { + "cancelWithEllipsis": "キャンセル...", + "cancel": "キャンセル", + "cancelingWithEllipsis": "キャンセル中...", + "canceling": "キャンセル中", + "canceled": "キャンセル済み" + }, + + "next": { + "nextWithEllipsis": "次へ...", + "next": "次へ" + }, + + "back": { + "backWithEllipsis": "戻る...", + "back": "戻る" + }, + + "close": { + "closeWithEllipsis": "閉じる...", + "close": "閉じる", + "closingWithEllipsis": "閉じる中...", + "closing": "閉じる中", + "closedWithExclamation": "閉じました!", + "closed": "閉じました" + }, + + "delete": { + "deleteWithEllipsis": "削除...", + "delete": "削除", + "deletingWithEllipsis": "削除中...", + "deleting": "削除中", + "deletedWithExclamation": "削除しました!", + "deleted": "削除しました" + }, + + "retry": { + "retryWithEllipsis": "再試行...", + "retry": "再試行", + "retryingWithEllipsis": "再試行中...", + "retrying": "再試行中" + }, + + "refresh": { + "refreshWithEllipsis": "更新...", + "refresh": "更新", + "refreshingWithEllipsis": "更新中...", + "refreshing": "更新中", + "refreshedWithExclamation": "更新しました!", + "refreshed": "更新しました" + }, + + "confirm": { + "confirm": "確認", + "confirmingWithEllipsis": "確認中...", + "confirming": "確認中", + "confirmedWithExclamation": "確認しました!", + "confirmed": "確認しました" + }, + + "copy": { + "copyWithEllipsis": "コピー...", + "copy": "コピー", + "copyingWithEllipsis": "コピー中...", + "copying": "コピー中", + "copiedWithExclamation": "コピーしました!", + "copied": "コピーしました" + }, + + "edit": { + "editWithEllipsis": "編集...", + "edit": "編集", + "editingWithEllipsis": "編集中...", + "editing": "編集中", + "editedWithExclamation": "編集しました!", + "edited": "編集しました" + }, + + "load": { + "loadWithEllipsis": "読み込み...", + "load": "読み込み", + "loadingWithEllipsis": "読み込み中...", + "loading": "読み込み中", + "loadedWithExclamation": "読み込みました!", + "loaded": "読み込みました" + }, + + "save": { + "saveWithEllipsis": "保存...", + "save": "保存", + "savingWithEllipsis": "保存中...", + "saving": "保存中", + "savedWithExclamation": "保存しました!", + "saved": "保存しました" + }, + + "saveAs": { + "saveAsWithEllipsis": "名前を付けて保存...", + "saveAs": "名前を付けて保存" + }, + + "saveAsNew": { + "saveAsNewWithEllipsis": "名前を付けて保存...", + "saveAsNew": "名前を付けて保存" + }, + + "search": { + "searchWithEllipsis": "検索...", + "search": "検索", + "searchingWithEllipsis": "検索中...", + "searching": "検索中" + }, + + "update": { + "updateWithEllipsis": "更新...", + "update": "更新", + "updatingWithEllipsis": "更新中...", + "updating": "更新中", + "updatedWithExclamation": "更新しました!", + "updated": "更新しました" + }, + + "create": { + "createWithEllipsis": "作成...", + "create": "作成", + "creatingWithEllipsis": "作成中...", + "creating": "作成中", + "createdWithExclamation": "作成しました!", + "created": "作成しました" + }, + + "reset": { + "resetWithEllipsis": "リセット...", + "reset": "リセット", + "resettingWithEllipsis": "リセット中...", + "resetting": "リセット中" + }, + + "pause": { + "pause": "一時停止", + "pausingWithEllipsis": "一時停止中...", + "pausing": "一時停止中", + "paused": "一時停止" + }, + + "download": { + "download": "ダウンロード", + "downloadingWithEllipsis": "ダウンロード中...", + "downloading": "ダウンロード中", + "downloadedWithExclamation": "ダウンロードしました!", + "downloaded": "ダウンロードしました" + }, + + "upload": { + "uploadWithEllipsis": "アップロード...", + "upload": "アップロード", + "uploadingWithEllipsis": "アップロード中...", + "uploading": "アップロード中", + "uploadedWithExclamation": "アップロードしました!", + "uploaded": "アップロードしました" + }, + + "remove": { + "removeWithEllipsis": "削除...", + "remove": "削除", + "removingWithEllipsis": "削除中...", + "removing": "削除中", + "removedWithExclamation": "削除しました!", + "removed": "削除しました" + }, + + "uninstall": { + "uninstallWithEllipsis": "アンインストール...", + "uninstall": "アンインストール", + "uninstallingWithEllipsis": "アンインストール中...", + "uninstalling": "アンインストール中", + "uninstalledWithExclamation": "アンインストールしました!", + "uninstalled": "アンインストールしました" + }, + + "resume": { + "resumeWithEllipsis": "再開...", + "resume": "再開", + "resumingWithEllipsis": "再開中...", + "resuming": "再開中" + }, + + "start": { + "startWithEllipsis": "開始...", + "start": "開始", + "startingWithEllipsis": "開始中...", + "starting": "開始中", + "started": "開始しました" + }, + + "stop": { + "stopWithEllipsis": "停止...", + "stop": "停止", + "stoppingWithEllipsis": "停止中...", + "stopping": "停止中", + "stoppedWithExclamation": "停止しました!", + "stopped": "停止しました" + }, + + "import": { + "importWithEllipsis": "インポート...", + "import": "インポート", + "importingWithEllipsis": "インポート中...", + "importing": "インポート中", + "importedWithExclamation": "インポートしました!", + "imported": "インポートしました" + }, + + "letsGo": { + "letsGo": "始めましょう", + "letsGoWithEllipsis": "始めましょう...", + "letsGoWithExclamation": "始めましょう!" + }, + + "run": { + "runWithEllipsis": "実行...", + "run": "実行", + "runningWithEllipsis": "実行中...", + "running": "実行中" + }, + + "configure": { + "configureWithEllipsis": "設定...", + "configure": "設定", + "configuringWithEllipsis": "設定中...", + "configured": "設定完了" + }, + + "publish": { + "publishWithEllipsis": "公開...", + "publish": "公開", + "publishingWithEllipsis": "公開中...", + "publishing": "公開中", + "publishedWithExclamation": "公開しました!", + "published": "公開しました" + } +} diff --git a/ja/sidebar.json b/ja/sidebar.json index 711fd6f7..6d80540a 100644 --- a/ja/sidebar.json +++ b/ja/sidebar.json @@ -1,9 +1,9 @@ -{ - "chat": "チャット", - "discover": "探索", - "myModels": "マイモデル", - "developer": "開発者", - "runtimes": "ランタイム", - "settings": "設定", - "download": "ダウンロード" -} +{ + "chat": "チャット", + "discover": "探索", + "myModels": "マイモデル", + "developer": "開発者", + "runtimes": "ランタイム", + "settings": "設定", + "download": "ダウンロード" +}