diff --git a/README.md b/README.md
index 8595fabd..c0197624 100644
--- a/README.md
+++ b/README.md
@@ -23,11 +23,11 @@ LM Studio localization
- Vietnamese [@trinhvanminh](https://github.com/trinhvanminh), [@godkyo98](https://github.com/godkyo98)
- Portuguese (BR) [@Sm1g00l](https://github.com/Sm1g00l), [@altiereslima](https://github.com/altiereslima)
- Portuguese (PT) [@catarino](https://github.com/catarino)
-- Chinese (zh-CN) [@neotan](https://github.com/neotan), [@SweetDream0256](https://github.com/SweetDream0256), [@enKl03B](https://github.com/enKl03B), [@evansrrr](https://github.com/evansrrr), [@xkonglong](https://github.com/xkonglong), [@shadow01a](https://github.com/shadow01a), [@Mabbs] (https://github.com/Mabbs), [@WhatDamon] (https://github.com/WhatDamon)
-- Chinese (zh-HK), (zh-TW) [@neotan](https://github.com/neotan), [ceshizhuanyong895](https://github.com/ceshizhuanyong895), [@BrassaiKao](https://github.com/BrassaiKao), [@AlphaSu1978] (https://github.com/AlphaSu1978), [@HJ-zhtw] (https://github.com/HJ-zhtw)
+- Chinese (zh-CN) [@neotan](https://github.com/neotan), [@SweetDream0256](https://github.com/SweetDream0256), [@enKl03B](https://github.com/enKl03B), [@evansrrr](https://github.com/evansrrr), [@xkonglong](https://github.com/xkonglong), [@shadow01a](https://github.com/shadow01a), [@Mabbs](https://github.com/Mabbs), [@WhatDamon](https://github.com/WhatDamon)
+- Chinese (zh-HK), (zh-TW) [@neotan](https://github.com/neotan), [ceshizhuanyong895](https://github.com/ceshizhuanyong895), [@BrassaiKao](https://github.com/BrassaiKao), [@AlphaSu1978](https://github.com/AlphaSu1978), [@HJ-zhtw](https://github.com/HJ-zhtw)
- Chinese (zh-Hant) [@kywarai](https://github.com/kywarai), [ceshizhuanyong895](https://github.com/ceshizhuanyong895)
- Ukrainian (uk) [@hmelenok](https://github.com/hmelenok)
-- Japanese (ja) [@digitalsp](https://github.com/digitalsp), [@era760](https://github.com/era760), [@dai] (https://github.com/dai)
+- Japanese (ja) [@digitalsp](https://github.com/digitalsp), [@era760](https://github.com/era760), [@dai](https://github.com/dai)
- Dutch (nl) [@alaaf11](https://github.com/alaaf11)
- Italian (it) [@fralapo](https://github.com/fralapo), [@Bl4ck-D0g](https://github.com/Bl4ck-D0g), [@nikypalma](https://github.com/nikypalma)
- Indonesian (id) [@dwirx](https://github.com/dwirx)
@@ -47,5 +47,5 @@ LM Studio localization
Still under development (due to lack of RTL support in LM Studio)
- Hebrew: [@NHLOCAL](https://github.com/NHLOCAL)
-- Persian (Farsi) (fa) [@mohammad007kh](https://github.com/mohammad007kh), [@darwindev]((https://github.com/darwindev)
+- Persian (Farsi) (fa) [@mohammad007kh](https://github.com/mohammad007kh), [@darwindev](https://github.com/darwindev)
- Arabic (ar) [@haqbany](https://github.com/haqbany)
diff --git a/ja/chat.json b/ja/chat.json
index 00478d3b..a1ef07d6 100644
--- a/ja/chat.json
+++ b/ja/chat.json
@@ -1,246 +1,250 @@
-{
- "modelLoaderPlaceholder": "モデルを選択してください",
- "systemPromptPlaceholder": "システムプロンプトを設定",
- "userRoleText": "ユーザー",
- "assistantRoleText": "アシスタント",
- "addMessageButtonText": "追加",
- "addMessageButtonText/toolTip": "予測を実行せずにコンテキストにメッセージを挿入します",
- "sendMessageButtonText": "送信",
- "sendMessageButtonText/toolTip": "プロンプトと会話履歴をモデルに送信して処理します",
- "ejectButtonText": "取り出す",
- "unloadTooltip": "モデルをメモリから取り出します",
- "cancelButtonText": "キャンセル",
- "loadButtonText": "読み込む",
- "advancedSegmentText": "詳細設定",
- "chatSegmentText": "チャット",
- "chatSidebarTitle": "チャット一覧",
- "newChatButton": "新規チャット",
- "newFolderButton": "新規フォルダー",
- "viewModeLabel": "表示モード",
- "noChatSelected": "チャットが選択されていません",
- "chatViewOptions": "チャット表示オプション",
- "uiControls/title": "表示設定",
- "noChatSelectedPlaceholder": "チャットを選択してください",
- "unnamedChat": "無名チャット",
- "emptyFolder": "フォルダーは空です",
-
- "tokenCount": "トークン数",
- "messageTokenCount": "入力トークン数",
- "tokenCount/hint": "メッセージ内のトークン数。現在選択されているモデルのトークナイザーでカウントされます。\n\nモデルの読み込みが必要です。",
- "messageTokenCount/hint": "メッセージ内のトークン数。現在選択されているモデルのトークナイザーでカウントされます。\n\nファイル添付のトークン数は含みません。",
-
- "notes": "会話メモ",
- "notes/add/first": "メモを追加",
- "notes/add/another": "さらにメモを追加",
- "notes/hint": "このチャットにメモを保存します。メモは参照用で、モデルには送信されません。すべて自動保存されます。",
- "notes/placeholder": "ここにメモを入力...",
- "notes/delete": "メモを削除",
- "notes/noteLabel": "メモ",
- "notes/copyContent": "メモ内容をコピー",
-
- "actions/sendMessage/error": "メッセージの送信に失敗しました",
- "actions/loadModel/error": "🥲 モデルの読み込みに失敗しました",
- "actions/addFile": "[実験的] このメッセージにファイルを添付\n(.pdf、テキスト、または .docx)",
- "actions/addFile/label": "ファイルを添付",
- "actions/changeRole": "ユーザーとアシスタントの役割を切り替えます。\n\n会話を特定の方向に誘導したい場合に便利です。\n\n「few-shot learning」や「in-context learning」のシナリオにも使用できます",
- "actions/addImage": "画像を添付",
- "actions/deleteMessage": "メッセージを削除",
- "actions/deleteMessage/confirmation": "このメッセージを削除してもよろしいですか?",
- "actions/copyMessage": "メッセージをコピー",
- "actions/editMessage": "メッセージを編集",
- "actions/editMessage/cannotEditPreprocessed": "前処理済みメッセージは編集できません。前処理後に上書きされるためです。編集するには、\n\n - 元のメッセージに切り替えて編集する\n - 前処理を変更して希望の出力にする\nいずれかを行ってください。",
- "actions/regenerateMessage": "メッセージを再生成",
- "actions/regenerateMessage/error": "メッセージの再生成に失敗しました",
- "actions/branchChat": "このメッセージ以降でチャットを分岐",
- "actions/branchChat/error": "チャットの分岐に失敗しました",
- "actions/continueAssistantMessage": "アシスタントメッセージを続ける",
- "actions/continueAssistantMessage/error": "アシスタントメッセージの継続に失敗しました",
- "actions/predictNext": "AI応答を生成",
- "actions/predictNext/error": "AI応答の生成に失敗しました",
- "actions/loadLastModel": "前回使用したモデルを再読み込み",
- "actions/loadLastModel/tooltip": "このチャットで最後に使用したモデルを読み込むにはクリック:\n\n{{lastModel}}",
- "actions/loadLastModel/error": "前回使用したモデルの読み込みに失敗しました。",
- "actions/continueCurrentModel": "現在のモデルを使用",
- "actions/continueCurrentModel/tooltip": "現在のモデル: {{currentModel}}",
- "actions/changeToLastUsedModel": "{{lastModel}}を読み込む",
- "actions/changeToLastUsedModel/error": "前回使用したモデルへの変更に失敗しました。",
- "actions/changeToLastUsedModel/tooltip": "このチャットで前回送信時に使用したモデルは異なります。現在選択されているモデル({{currentModel}})を取り出し、前回使用したモデル({{lastModel}})を読み込むにはクリック:\n\n{{lastModel}}",
- "actions/switchToLastUsedModel": "{{lastModel}}に切り替え",
- "actions/switchToLastUsedModel/tooltip": "前回使用したモデルに切り替えるにはクリック:\n\n{{lastModel}}",
- "actions/loadModel": "モデルを読み込む",
- "actions/toggleViewingProcessed/currentlyFalse": "現在は元のメッセージを表示中。前処理済みメッセージを表示するにはクリック。",
- "actions/toggleViewingProcessed/currentlyTrue": "現在は前処理済みメッセージを表示中。元のメッセージを表示するにはクリック。",
- "actions/toggleViewingProcessed/hint": "メッセージはモデルに送信される前にプロンプト前処理で加工される場合があります。元のメッセージと前処理済みメッセージの表示を切り替えます。モデルに送信されるのは前処理済みメッセージのみです。",
- "editMessageConfirm/title": "変更を保存しますか?",
- "editMessageConfirm/message": "メッセージを変更しました。保存しますか?",
- "editMessageConfirm/keepEditing": "編集を続ける",
- "editMessageConfirm/save": "保存",
- "editMessageConfirm/discard": "変更を破棄",
- "tokenCount/totalNotAvailable": "トークン: {{current}}",
- "tokenCount/totalAvailable": "トークン: {{current}}/{{total}}",
- "tokenCount/totalAvailablePercentage": "コンテキストは{{percentage}}%使用中",
- "tokenCount/contextOverflow": "未処理のコンテキストがモデルの最大トークン制限を超えています。コンテキストオーバーフローポリシーにより、コンテキストが切り捨てられるか、メッセージが送信されない場合があります。",
- "modelLoader/manualLoadParams/label": "モデル読み込みパラメータを手動で選択",
- "modelLoader/manualLoadParams/hint/before": "(または ",
- "modelLoader/manualLoadParams/hint/after": " を押しながら)",
- "actions/move/error": "移動に失敗しました",
- "actions/rename/error": "名前の変更に失敗しました",
- "actions/createChatAtRoot": "新規チャット...",
- "actions/createChatAtRoot/error": "ルートでチャットの作成に失敗しました",
- "actions/createFolderAtRoot": "新規フォルダー...",
- "actions/createFolderAtRoot/error": "ルートでフォルダーの作成に失敗しました",
- "actions/openInFolder/mac": "Finderで表示",
- "actions/openInFolder/pc": "エクスプローラーで表示",
-
- "actions/createChat/error": "チャットの作成に失敗しました",
- "actions/deleteChat/errorTitle": "チャットの削除に失敗しました",
-
- "userFile/fileSizeLimit": "ファイルサイズ上限: ",
- "userFile/noImageSupport": "モデルは画像入力に対応していません",
- "userFile/errorPrefix": "エラー - ",
- "userFile/supportedImagePrefix": "未対応の画像タイプ - ",
- "userFile/supportedImageSuffix": " のみ対応しています",
- "userFile/unsupportedFileType": "未対応のファイルタイプ - 画像、PDF、.txtファイルのみ対応しています。",
- "userFile/maxFilesPerMessage": "1メッセージあたりのファイル数上限に達しました。{{files}}個以上は追加できません。",
- "userFile/maxFileSizePerMessage": "1メッセージあたりのファイルサイズ上限に達しました。{{size}}より大きいファイルは追加できません。",
- "userFile/maxFileSizePerConversation": "1会話あたりのファイルサイズ上限に達しました。{{size}}より大きいファイルは追加できません。",
- "userFile/failedToUploadError/title": "ファイルのアップロードに失敗しました",
- "userFile/failedToAddFile/title": "チャットへのファイル追加に失敗しました",
- "errorTitle": "エラー",
- "userFile/chatTerminalDocumentsCount_one": "チャット内のドキュメント: {{count}}件",
- "userFile/chatTerminalDocumentsCount_other": "チャット内のドキュメント: {{count}}件",
-
- "prediction/busyModel/title": "モデルが処理中です",
- "prediction/busyModel/message": "モデルの処理が終わるまでお待ちください",
- "prediction/noModel/title": "モデルが選択されていません",
- "prediction/modelLoading": "メッセージがキューに入りました。モデルの読み込みが終わり次第送信されます",
- "prediction/noModel/message": "メッセージを送信するにはモデルを選択してください",
- "prediction/unloadModel/error": "モデルの取り出しに失敗しました",
-
- "retrieval/user/processingLabel": "AIが思考中...",
- "retrieval/powerUser/intermediateStepsHidden": "中間ステップは非表示です。クリックで展開。",
- "retrieval/actions/clickToExpand": "中間ステップを展開",
- "retrieval/actions/clickToCollapse": "中間ステップを折りたたむ",
-
- "style": "外観",
-
- "style/viewMode/markdown": "Markdown",
- "style/viewMode/plaintext": "プレーンテキスト",
- "style/viewMode/monospace": "等幅フォント",
-
- "speculativeDecodingVisualization/toggle": "受理されたドラフトトークンを可視化",
- "speculativeDecodingVisualization/fromDraftModel_one": "受理されたドラフトトークン",
- "speculativeDecodingVisualization/fromDraftModel_other": "受理されたドラフトトークン",
- "speculativeDecodingVisualization/cannotChangeViewMode": "ドラフトトークン可視化中は表示モードの選択はできません。",
-
- "style/fontSize/label": "フォントサイズ",
- "style/fontSize/medium": "標準",
- "style/fontSize/large": "大きい",
- "style/fontSize/small": "小さい",
-
- "style/debugBlocks/label": "デバッグ情報ブロックを表示",
-
- "style/thinkingUI/label": "推論ブロックをデフォルトで展開",
- "style/chatFullWidth/label": "チャットコンテナをウィンドウ幅に拡張",
-
- "style/chatUtilityMenusShowLabel/label": "チャットユーティリティメニューのラベルを表示",
-
- "messageBlocks": {
- "expandBlockTooltip": "内容を展開",
- "collapseBlockTooltip": "内容を折りたたむ",
- "debug": {
- "label": "デバッグ情報",
- "collapseTooltip": "デバッグ情報ブロックを折りたたむ",
- "expandTooltip": "デバッグ情報ブロックを展開"
- }
- },
-
- "chatTabOptions/clearAllMessages": "すべてのメッセージをクリア...",
- "chatTabOptions/duplicateChat": "チャットを複製",
-
- "topBarActions/duplicateChat": "複製",
- "topBarActions/clearChat": "すべてクリア",
- "topBarActions/clearChatConfirmation": "このチャットのすべてのメッセージをクリアしてもよろしいですか?",
- "topBarActions/clearChatCancel": "キャンセル",
- "topBarActions/clearChatDelete": "すべてクリア",
-
- "noModels.indexing": "モデルファイルをインデックス作成中...(しばらくお待ちください)",
- "noModels.downloading": "最初のLLMをダウンロード中...",
- "noModels": "まだLLMがありません!ダウンロードして始めましょう!",
-
- "plugins": {
- "pluginTrigger": {
- "noPlugins": "プラグイン",
- "multiplePlugins": "{{dynamicValue}}個のプラグイン"
- },
- "pluginSelect": {
- "title": "プラグイン",
- "dropdown": {
- "configure": "設定",
- "disable": "無効化",
- "fork": "フォーク",
- "uninstall": "アンインストール"
- },
- "actionButtons": {
- "create": "作成",
- "import": "インポート",
- "discover": "発見"
- },
- "recentlyCreated": {
- "title": "最近作成したプラグイン",
- "placeholder": "作成したプラグインはここに表示されます"
- },
- "startRunningDevelopmentPlugin/error": "開発モードでプラグインの実行開始に失敗しました",
- "stopRunningDevelopmentPlugin/error": "開発モードでプラグインの実行停止に失敗しました",
- "forceReInitPlugin/error": "プラグインの再起動に失敗しました"
- },
- "pluginConfiguration": {
- "title": "プラグイン設定",
- "selectAPlugin": "編集するプラグインを選択してください",
- "preprocessorAndGenerator": "このプラグインにはカスタム前処理と生成器が含まれています",
- "generatorOnly": "このプラグインにはカスタム生成器のみ含まれています",
- "preprocessorOnly": "このプラグインにはカスタム前処理のみ含まれています"
- },
- "instructions": {
- "runTheFollowing": "プラグインを実行するには、ターミナルで以下を入力してください",
- "pushTo": "Hubにプラグインを公開して他の人と共有しましょう(任意)",
- "createdSuccessfully": "プラグインが正常に作成されました",
- "creatingPlugin": "プラグイン作成中...",
- "projectFilesTitle": "プロジェクトファイル",
- "buttons": {
- "documentation": "ドキュメント",
- "dismiss": "閉じる",
- "publish": "公開",
- "openInZed": "Zedで開く",
- "openInVscode": "VS Codeで開く",
- "revealInFinder": "Finderで表示",
- "openInFileExplorer": "エクスプローラーで表示"
- }
- },
- "localFork": {
- "error": "プラグインのローカル開発コピー作成に失敗しました。"
- },
- "restartErrorPlugin/error": "プラグインの再起動に失敗しました"
- },
-
- "genInfo": {
- "tokensPerSecond": "{{tokensPerSecond}} トークン/秒",
- "predictedTokensCount": "{{predictedTokensCount}} トークン",
- "timeToFirstTokenSec": "最初のトークンまで{{timeToFirstTokenSec}}秒",
- "stopReason": "停止理由: {{stopReason}}",
- "stopReason.userStopped": "ユーザーによる停止",
- "stopReason.modelUnloaded": "モデルが取り出されました",
- "stopReason.failed": "生成に失敗しました",
- "stopReason.eosFound": "EOSトークン検出",
- "stopReason.stopStringFound": "停止文字列検出",
- "stopReason.toolCalls": "ツール呼び出し",
- "stopReason.maxPredictedTokensReached": "最大予測トークン数に到達",
- "stopReason.contextLengthReached": "コンテキスト長制限に到達",
- "speculativeDecodedBy": "ドラフトモデル: {{decodedBy}}",
- "speculativeDecodingStats": "{{total}}個中{{accepted}}個のドラフトトークンを受理 ({{percentage}}%)"
- },
-
- "tabs": {
- "systemPromptEditorTab.headerLabel": "システムプロンプト編集"
- }
+{
+ "modelLoaderPlaceholder": "モデルを選択してください",
+ "systemPromptPlaceholder": "システムプロンプトを設定",
+ "userRoleText": "ユーザー",
+ "assistantRoleText": "アシスタント",
+ "addMessageButtonText": "追加",
+ "addMessageButtonText/toolTip": "予測を実行せずにコンテキストにメッセージを挿入します",
+ "sendMessageButtonText": "送信",
+ "sendMessageButtonText/toolTip": "プロンプトと会話履歴をモデルに送信して処理します",
+ "ejectButtonText": "取り出す",
+ "unloadTooltip": "モデルをメモリから取り出します",
+ "cancelButtonText": "キャンセル",
+ "loadButtonText": "読み込む",
+ "advancedSegmentText": "詳細設定",
+ "chatSegmentText": "チャット",
+ "chatSidebarTitle": "チャット一覧",
+ "newChatButton": "新規チャット",
+ "newFolderButton": "新規フォルダー",
+ "viewModeLabel": "表示モード",
+ "noChatSelected": "チャットが選択されていません",
+ "chatViewOptions": "チャット表示オプション",
+ "uiControls/title": "表示設定",
+ "noChatSelectedPlaceholder": "チャットを選択してください",
+ "unnamedChat": "無名チャット",
+ "emptyFolder": "フォルダーは空です",
+
+ "tokenCount": "トークン数",
+ "messageTokenCount": "入力トークン数",
+ "tokenCount/hint": "メッセージ内のトークン数。現在選択されているモデルのトークナイザーでカウントされます。\n\nモデルの読み込みが必要です。",
+ "messageTokenCount/hint": "メッセージ内のトークン数。現在選択されているモデルのトークナイザーでカウントされます。\n\nファイル添付のトークン数は含みません。",
+
+ "notes": "会話メモ",
+ "notes/add/first": "メモを追加",
+ "notes/add/another": "さらにメモを追加",
+ "notes/hint": "このチャットにメモを保存します。メモは参照用で、モデルには送信されません。すべて自動保存されます。",
+ "notes/placeholder": "ここにメモを入力...",
+ "notes/delete": "メモを削除",
+ "notes/noteLabel": "メモ",
+ "notes/copyContent": "メモ内容をコピー",
+
+ "actions/sendMessage/error": "メッセージの送信に失敗しました",
+ "actions/loadModel/error": "🥲 モデルの読み込みに失敗しました",
+ "actions/addFile": "[実験的] このメッセージにファイルを添付\n(.pdf、テキスト、または .docx)",
+ "actions/addFile/label": "ファイルを添付",
+ "actions/changeRole": "ユーザーとアシスタントの役割を切り替えます。\n\n会話を特定の方向に誘導したい場合に便利です。\n\n「few-shot learning」や「in-context learning」のシナリオにも使用できます",
+ "actions/addImage": "画像を添付",
+ "actions/deleteMessage": "メッセージを削除",
+ "actions/deleteMessage/confirmation": "このメッセージを削除してもよろしいですか?",
+ "actions/copyMessage": "メッセージをコピー",
+ "actions/editMessage": "メッセージを編集",
+ "actions/editMessage/cannotEditPreprocessed": "前処理済みメッセージは編集できません。前処理後に上書きされるためです。編集するには、\n\n - 元のメッセージに切り替えて編集する\n - 前処理を変更して希望の出力にする\nいずれかを行ってください。",
+ "actions/regenerateMessage": "メッセージを再生成",
+ "actions/regenerateMessage/error": "メッセージの再生成に失敗しました",
+ "actions/branchChat": "このメッセージ以降でチャットを分岐",
+ "actions/branchChat/error": "チャットの分岐に失敗しました",
+ "actions/continueAssistantMessage": "アシスタントメッセージを続ける",
+ "actions/continueAssistantMessage/error": "アシスタントメッセージの継続に失敗しました",
+ "actions/predictNext": "AI応答を生成",
+ "actions/predictNext/error": "AI応答の生成に失敗しました",
+ "actions/loadLastModel": "前回使用したモデルを再読み込み",
+ "actions/loadLastModel/tooltip": "このチャットで最後に使用したモデルを読み込むにはクリック:\n\n{{lastModel}}",
+ "actions/loadLastModel/error": "前回使用したモデルの読み込みに失敗しました。",
+ "actions/clearLastUsedModel": "前回使用したモデルをクリア",
+ "actions/clearLastUsedModel/error": "前回使用したモデルのクリアに失敗しました。",
+ "actions/continueCurrentModel": "現在のモデルを使用",
+ "actions/continueCurrentModel/tooltip": "現在のモデル: {{currentModel}}",
+ "actions/changeToLastUsedModel": "{{lastModel}}を読み込む",
+ "actions/changeToLastUsedModel/error": "前回使用したモデルへの変更に失敗しました。",
+ "actions/changeToLastUsedModel/tooltip": "このチャットで前回送信時に使用したモデルは異なります。現在選択されているモデル({{currentModel}})を取り出し、前回使用したモデル({{lastModel}})を読み込むにはクリック:\n\n{{lastModel}}",
+ "actions/switchToLastUsedModel": "{{lastModel}}に切り替え",
+ "actions/switchToLastUsedModel/tooltip": "前回使用したモデルに切り替えるにはクリック:\n\n{{lastModel}}",
+ "actions/loadModel": "モデルを読み込む",
+ "actions/toggleViewingProcessed/currentlyFalse": "現在は元のメッセージを表示中。前処理済みメッセージを表示するにはクリック。",
+ "actions/toggleViewingProcessed/currentlyTrue": "現在は前処理済みメッセージを表示中。元のメッセージを表示するにはクリック。",
+ "actions/toggleViewingProcessed/hint": "メッセージはモデルに送信される前にプロンプト前処理で加工される場合があります。元のメッセージと前処理済みメッセージの表示を切り替えます。モデルに送信されるのは前処理済みメッセージのみです。",
+ "editMessageConfirm/title": "変更を保存しますか?",
+ "editMessageConfirm/message": "メッセージを変更しました。保存しますか?",
+ "editMessageConfirm/keepEditing": "編集を続ける",
+ "editMessageConfirm/save": "保存",
+ "editMessageConfirm/discard": "変更を破棄",
+ "tokenCount/totalNotAvailable": "トークン: {{current}}",
+ "tokenCount/totalAvailable": "トークン: {{current}}/{{total}}",
+ "tokenCount/totalAvailablePercentage": "コンテキストは{{percentage}}%使用中",
+ "tokenCount/contextOverflow": "未処理のコンテキストがモデルの最大トークン制限を超えています。コンテキストオーバーフローポリシーにより、コンテキストが切り捨てられるか、メッセージが送信されない場合があります。",
+ "modelLoader/manualLoadParams/label": "モデル読み込みパラメータを手動で選択",
+ "modelLoader/manualLoadParams/hint/before": "(または ",
+ "modelLoader/manualLoadParams/hint/after": " を押しながら)",
+ "actions/move/error": "移動に失敗しました",
+ "actions/rename/error": "名前の変更に失敗しました",
+ "actions/createChatAtRoot": "新規チャット...",
+ "actions/createChatAtRoot/error": "ルートでチャットの作成に失敗しました",
+ "actions/createFolderAtRoot": "新規フォルダー...",
+ "actions/createFolderAtRoot/error": "ルートでフォルダーの作成に失敗しました",
+ "actions/openInFolder/mac": "Finderで表示",
+ "actions/openInFolder/pc": "エクスプローラーで表示",
+
+ "actions/createChat/error": "チャットの作成に失敗しました",
+ "actions/deleteChat/errorTitle": "チャットの削除に失敗しました",
+
+ "userFile/fileSizeLimit": "ファイルサイズ上限: ",
+ "userFile/noImageSupport": "モデルは画像入力に対応していません",
+ "userFile/errorPrefix": "エラー - ",
+ "userFile/supportedImagePrefix": "未対応の画像タイプ - ",
+ "userFile/supportedImageSuffix": " のみ対応しています",
+ "userFile/unsupportedFileType": "未対応のファイルタイプ - 画像、PDF、.txtファイルのみ対応しています。",
+ "userFile/maxFilesPerMessage": "1メッセージあたりのファイル数上限に達しました。{{files}}個以上は追加できません。",
+ "userFile/maxFileSizePerMessage": "1メッセージあたりのファイルサイズ上限に達しました。{{size}}より大きいファイルは追加できません。",
+ "userFile/maxFileSizePerConversation": "1会話あたりのファイルサイズ上限に達しました。{{size}}より大きいファイルは追加できません。",
+ "userFile/failedToUploadError/title": "ファイルのアップロードに失敗しました",
+ "userFile/failedToAddFile/title": "チャットへのファイル追加に失敗しました",
+ "errorTitle": "エラー",
+ "userFile/chatTerminalDocumentsCount_one": "チャット内のドキュメント: {{count}}件",
+ "userFile/chatTerminalDocumentsCount_other": "チャット内のドキュメント: {{count}}件",
+
+ "prediction/busyModel/title": "モデルが処理中です",
+ "prediction/busyModel/message": "モデルの処理が終わるまでお待ちください",
+ "prediction/noModel/title": "モデルが選択されていません",
+ "prediction/modelLoading": "メッセージがキューに入りました。モデルの読み込みが終わり次第送信されます",
+ "prediction/noModel/message": "メッセージを送信するにはモデルを選択してください",
+ "prediction/unloadModel/error": "モデルの取り出しに失敗しました",
+
+ "retrieval/user/processingLabel": "AIが思考中...",
+ "retrieval/powerUser/intermediateStepsHidden": "中間ステップは非表示です。クリックで展開。",
+ "retrieval/actions/clickToExpand": "中間ステップを展開",
+ "retrieval/actions/clickToCollapse": "中間ステップを折りたたむ",
+
+ "style": "外観",
+
+ "style/viewMode/markdown": "Markdown",
+ "style/viewMode/plaintext": "プレーンテキスト",
+ "style/viewMode/monospace": "等幅フォント",
+
+ "speculativeDecodingVisualization/toggle": "受理されたドラフトトークンを可視化",
+ "speculativeDecodingVisualization/fromDraftModel_one": "受理されたドラフトトークン",
+ "speculativeDecodingVisualization/fromDraftModel_other": "受理されたドラフトトークン",
+ "speculativeDecodingVisualization/cannotChangeViewMode": "ドラフトトークン可視化中は表示モードの選択はできません。",
+
+ "style/fontSize/label": "フォントサイズ",
+ "style/fontSize/medium": "標準",
+ "style/fontSize/large": "大きい",
+ "style/fontSize/small": "小さい",
+
+ "style/debugBlocks/label": "デバッグ情報ブロックを表示",
+
+ "style/thinkingUI/label": "推論ブロックをデフォルトで展開",
+ "style/chatFullWidth/label": "チャットコンテナをウィンドウ幅に拡張",
+
+ "style/chatUtilityMenusShowLabel/label": "チャットユーティリティメニューのラベルを表示",
+
+ "messageBlocks": {
+ "expandBlockTooltip": "内容を展開",
+ "collapseBlockTooltip": "内容を折りたたむ",
+ "debug": {
+ "label": "デバッグ情報",
+ "collapseTooltip": "デバッグ情報ブロックを折りたたむ",
+ "expandTooltip": "デバッグ情報ブロックを展開"
+ }
+ },
+
+ "chatTabOptions/clearAllMessages": "すべてのメッセージをクリア...",
+ "chatTabOptions/duplicateChat": "チャットを複製",
+
+ "topBarActions/duplicateChat": "複製",
+ "topBarActions/clearChat": "すべてクリア",
+ "topBarActions/clearChatConfirmation": "このチャットのすべてのメッセージをクリアしてもよろしいですか?",
+ "topBarActions/clearChatCancel": "キャンセル",
+ "topBarActions/clearChatDelete": "すべてクリア",
+
+ "noModels.indexing": "モデルファイルをインデックス作成中...(しばらくお待ちください)",
+ "noModels.downloading": "最初のLLMをダウンロード中...",
+ "noModels": "まだLLMがありません!ダウンロードして始めましょう!",
+
+ "plugins": {
+ "pluginTrigger": {
+ "noPlugins": "プラグイン",
+ "multiplePlugins": "{{dynamicValue}}個のプラグイン"
+ },
+ "pluginSelect": {
+ "title": "プラグイン",
+ "dropdown": {
+ "configure": "設定",
+ "disable": "無効化",
+ "fork": "フォーク",
+ "uninstall": "アンインストール"
+ },
+ "actionButtons": {
+ "create": "作成",
+ "import": "インポート",
+ "discover": "発見"
+ },
+ "recentlyCreated": {
+ "title": "最近作成したプラグイン",
+ "placeholder": "作成したプラグインはここに表示されます"
+ },
+ "startRunningDevelopmentPlugin/error": "開発モードでプラグインの実行開始に失敗しました",
+ "stopRunningDevelopmentPlugin/error": "開発モードでプラグインの実行停止に失敗しました",
+ "forceReInitPlugin/error": "プラグインの再起動に失敗しました"
+ },
+ "pluginConfiguration": {
+ "title": "プラグイン設定",
+ "selectAPlugin": "編集するプラグインを選択してください",
+ "preprocessorAndGenerator": "このプラグインにはカスタム前処理と生成器が含まれています",
+ "generatorOnly": "このプラグインにはカスタム生成器のみ含まれています",
+ "preprocessorOnly": "このプラグインにはカスタム前処理のみ含まれています"
+ },
+ "instructions": {
+ "runTheFollowing": "プラグインを実行するには、ターミナルで以下を入力してください",
+ "pushTo": "Hubにプラグインを公開して他の人と共有しましょう(任意)",
+ "createdSuccessfully": "プラグインが正常に作成されました",
+ "creatingPlugin": "プラグイン作成中...",
+ "projectFilesTitle": "プロジェクトファイル",
+ "buttons": {
+ "documentation": "ドキュメント",
+ "dismiss": "閉じる",
+ "publish": "公開",
+ "openInZed": "Zedで開く",
+ "openInVscode": "VS Codeで開く",
+ "revealInFinder": "Finderで表示",
+ "openInFileExplorer": "エクスプローラーで表示"
+ }
+ },
+ "localFork": {
+ "error": "プラグインのローカル開発コピー作成に失敗しました。"
+ },
+ "restartErrorPlugin/error": "プラグインの再起動に失敗しました"
+ },
+
+ "genInfo": {
+ "tokensPerSecond": "{{tokensPerSecond}} トークン/秒",
+ "predictedTokensCount": "{{predictedTokensCount}} トークン",
+ "timeToFirstTokenSec": "最初のトークンまで{{timeToFirstTokenSec}}秒",
+ "stopReason": "停止理由: {{stopReason}}",
+ "stopReason.userStopped": "ユーザーによる停止",
+ "stopReason.modelUnloaded": "モデルが取り出されました",
+ "stopReason.failed": "生成に失敗しました",
+ "stopReason.eosFound": "EOSトークン検出",
+ "stopReason.stopStringFound": "停止文字列検出",
+ "stopReason.toolCalls": "ツール呼び出し",
+ "stopReason.maxPredictedTokensReached": "最大予測トークン数に到達",
+ "stopReason.contextLengthReached": "コンテキスト長制限に到達",
+ "speculativeDecodedBy": "ドラフトモデル: {{decodedBy}}",
+ "speculativeDecodingStats": "{{total}}個中{{accepted}}個のドラフトトークンを受理 ({{percentage}}%)",
+ "speculativeDecodingAcceptedPercentage": "{{percentage}}% のドラフトトークンを受理",
+ "speculativeDecodingTooltip": "{{accepted}}/{{total}} 個のドラフトトークンを受理"
+ },
+
+ "tabs": {
+ "systemPromptEditorTab.headerLabel": "システムプロンプト編集"
+ }
}
\ No newline at end of file
diff --git a/ja/config.json b/ja/config.json
index bb475d14..686c5f1d 100644
--- a/ja/config.json
+++ b/ja/config.json
@@ -1,614 +1,621 @@
-{
- "noInstanceSelected": "モデルが選択されていません",
- "resetToDefault": "リセット",
- "showAdvancedSettings": "詳細設定を表示",
- "showAll": "すべて",
- "basicSettings": "基本",
- "configSubtitle": "プリセットの読み込みまたは保存、モデルパラメータのオーバーライドを試す",
- "inferenceParameters/title": "予測パラメータ",
- "inferenceParameters/info": "予測に影響を与えるパラメータを試す。",
- "generalParameters/title": "一般",
- "samplingParameters/title": "サンプリング",
- "basicTab": "基本",
- "advancedTab": "詳細",
- "advancedTab/title": "🧪 詳細設定",
- "advancedTab/expandAll": "すべて展開",
- "advancedTab/overridesTitle": "設定のオーバーライド",
- "advancedTab/noConfigsText": "未保存の変更はありません - 上の値を編集してここでオーバーライドを表示します。",
- "loadInstanceFirst": "モデルを読み込んで、設定可能なパラメータを表示します",
- "noListedConfigs": "設定可能なパラメータはありません",
- "generationParameters/info": "テキスト生成に影響を与える基本的なパラメータを試す。",
- "loadParameters/title": "パラメータの読み込み",
- "loadParameters/description": "モデルの初期化とメモリへの読み込み方法を制御する設定。",
- "loadParameters/reload": "変更を適用するには再読み込み",
- "loadParameters/reload/error": "モデルの再読み込みに失敗しました",
- "discardChanges": "変更を破棄",
- "loadModelToSeeOptions": "オプションを表示するにはモデルを読み込んでください",
- "schematicsError.title": "設定スキーマに以下のフィールドにエラーがあります:",
- "manifestSections": {
- "structuredOutput/title": "構造化出力",
- "speculativeDecoding/title": "推測デコーディング",
- "sampling/title": "サンプリング",
- "settings/title": "設定",
- "toolUse/title": "ツールの使用",
- "promptTemplate/title": "プロンプトテンプレート",
- "customFields/title": "カスタムフィールド"
- },
-
- "llm.prediction.systemPrompt/title": "システムプロンプト",
- "llm.prediction.systemPrompt/description": "このフィールドには、モデルに対する背景指示(ルール、制約、一般的な要件など)を記載してください。",
- "llm.prediction.systemPrompt/subTitle": "AI のガイドライン",
- "llm.prediction.systemPrompt/openEditor": "エディター",
- "llm.prediction.systemPrompt/closeEditor": "エディターを閉じる",
- "llm.prediction.systemPrompt/openedEditor": "エディターで開いています...",
- "llm.prediction.systemPrompt/edit": "システムプロンプトを編集...",
- "llm.prediction.systemPrompt/addInstructionsWithMore": "指示を追加...",
- "llm.prediction.systemPrompt/addInstructions": "指示を追加",
- "llm.prediction.temperature/title": "Temperature",
- "llm.prediction.temperature/subTitle": "ランダム性の度合い。0は毎回同じ結果になり、高い値では創造性とばらつきが増加します",
- "llm.prediction.temperature/info": "llama.cpp ヘルプドキュメントより:「デフォルト値は <{{dynamicValue}}> で、ランダム性と決定性のバランスを提供します。極端な場合、temperature が 0 だと常に最も可能性の高い次のトークンを選択し、毎回同じ出力になります」",
- "llm.prediction.llama.sampling/title": "サンプリング",
- "llm.prediction.topKSampling/title": "Top K サンプリング",
- "llm.prediction.topKSampling/subTitle": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします",
- "llm.prediction.topKSampling/info": "llama.cpp ヘルプドキュメントより:\n\nTop-kサンプリングは、モデルによって予測された上位k個の最も可能性の高いトークンのみから次のトークンを選択するテキスト生成方法です。\n\n確率の低いまたは無意味なトークンを生成するリスクを減らすのに役立ちますが、出力の多様性を制限する可能性もあります。\n\ntop-kの値が高いほど(例:100)、より多くのトークンが考慮され、より多様なテキストが生成され、値が低いほど(例:10)、最も確率の高いトークンに焦点を当て、より保守的なテキストが生成されます。\n\n• デフォルト値は <{{dynamicValue}}> です",
- "llm.prediction.llama.cpuThreads/title": "CPUスレッド",
- "llm.prediction.llama.cpuThreads/subTitle": "推論中に使用するCPUスレッドの数",
- "llm.prediction.llama.cpuThreads/info": "計算中に使用するスレッド数。スレッド数を増やしても必ずしもパフォーマンスの向上に繋がるわけではありません。デフォルト値は <{{dynamicValue}}> です。",
- "llm.prediction.maxPredictedTokens/title": "応答長の制限",
- "llm.prediction.maxPredictedTokens/subTitle": "AIの応答の長さを制限します",
- "llm.prediction.maxPredictedTokens/info": "チャットボットの応答の最大長を制御します。オンにして応答の最大長を制限するか、オフにしてチャットボット自体に停止タイミングを決めさせます。",
- "llm.prediction.maxPredictedTokens/inputLabel": "最大応答長(トークン)",
- "llm.prediction.maxPredictedTokens/wordEstimate": "約{{maxWords}}語",
- "llm.prediction.repeatPenalty/title": "繰り返しペナルティ",
- "llm.prediction.repeatPenalty/subTitle": "同じトークンの繰り返しをどの程度抑制するか",
- "llm.prediction.repeatPenalty/info": "llama.cpp ヘルプドキュメントより:「モデルが繰り返しや単調なテキストを生成することを防ぐのに役立ちます。\n\n高い値(例:1.5)は繰り返しをより強くペナルティ化し、低い値(例:0.9)はより寛大になります。」 • デフォルト値は <{{dynamicValue}}> です",
- "llm.prediction.minPSampling/title": "Min P サンプリング",
- "llm.prediction.minPSampling/subTitle": "出力対象として選択されるトークンの最小ベース確率",
- "llm.prediction.minPSampling/info": "llama.cpp ヘルプドキュメントより:\n\n最も可能性の高いトークンの確率に対する相対的な、トークンが考慮される最小確率。[0, 1]の範囲である必要があります。\n\n• デフォルト値は <{{dynamicValue}}> です",
- "llm.prediction.topPSampling/title": "Top P サンプリング",
- "llm.prediction.topPSampling/subTitle": "次の可能なトークンの最小累積確率。temperatureと同様の動作をします",
- "llm.prediction.topPSampling/info": "llama.cpp ヘルプドキュメントより:\n\nNucleus サンプリングとも呼ばれる Top-p サンプリングは、累積確率が少なくとも p となるトークンのサブセットから次のトークンを選択するテキスト生成方法です。\n\nこの方法は、トークンの確率とサンプリング対象となるトークン数の両方を考慮することで、多様性と品質のバランスを提供します。\n\ntop-p の値が高い(例:0.95)場合はより多様なテキストが生成され、低い値(例:0.5)の場合はより集中的で保守的なテキストが生成されます。(0, 1]の範囲である必要があります。\n\n• デフォルト値は <{{dynamicValue}}> です",
- "llm.prediction.stopStrings/title": "停止文字列",
- "llm.prediction.stopStrings/subTitle": "モデルがトークン生成を停止する文字列",
- "llm.prediction.stopStrings/info": "これらの文字列が検出されたときにモデルがさらなるトークン生成を停止する特定の文字列",
- "llm.prediction.stopStrings/placeholder": "文字列を入力してから ⏎ を押してください",
- "llm.prediction.contextOverflowPolicy/title": "コンテキストオーバーフロー",
- "llm.prediction.contextOverflowPolicy/subTitle": "会話がモデルの処理能力を超えた場合の動作方法",
- "llm.prediction.contextOverflowPolicy/info": "会話がモデルの作業メモリ('コンテキスト')のサイズを超えた場合の対応を決定します",
- "llm.prediction.llama.frequencyPenalty/title": "頻度ペナルティ",
- "llm.prediction.llama.presencePenalty/title": "存在ペナルティ",
- "llm.prediction.llama.tailFreeSampling/title": "テイルフリーサンプリング",
- "llm.prediction.llama.locallyTypicalSampling/title": "局所的典型サンプリング",
- "llm.prediction.llama.xtcProbability/title": "XTCサンプリング確率",
- "llm.prediction.llama.xtcProbability/subTitle": "XTC(Exclude Top Choices)サンプラーが生成された各トークンでこの確率で有効化されます。XTCサンプリングは創造性を向上させ、陳腐な表現を減らします",
- "llm.prediction.llama.xtcProbability/info": "XTC(Exclude Top Choices)サンプリングは、生成された各トークンでこの確率でのみ有効化されます。XTCサンプリングは通常創造性を向上させ、陳腐な表現を減らします",
- "llm.prediction.llama.xtcThreshold/title": "XTCサンプリング閾値",
- "llm.prediction.llama.xtcThreshold/subTitle": "XTC(Exclude Top Choices)閾値。`xtc-probability`の確率で、`xtc-threshold`と0.5の間の確率を持つトークンを検索し、最も確率の低いもの以外のそのようなトークンをすべて除去します",
- "llm.prediction.llama.xtcThreshold/info": "XTC(Exclude Top Choices)閾値。`xtc-probability`の確率で、`xtc-threshold`と0.5の間の確率を持つトークンを検索し、最も確率の低いもの以外のそのようなトークンをすべて除去します",
- "llm.prediction.mlx.topKSampling/title": "Top K サンプリング",
- "llm.prediction.mlx.topKSampling/subTitle": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします",
- "llm.prediction.mlx.topKSampling/info": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします",
- "llm.prediction.onnx.topKSampling/title": "Top K サンプリング",
- "llm.prediction.onnx.topKSampling/subTitle": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします",
- "llm.prediction.onnx.topKSampling/info": "ONNX ドキュメントより:\n\ntop-k フィルタリング用に保持する最高確率語彙トークンの数\n\n• このフィルターはデフォルトでオフになっています",
- "llm.prediction.onnx.repeatPenalty/title": "繰り返しペナルティ",
- "llm.prediction.onnx.repeatPenalty/subTitle": "同じトークンの繰り返しをどの程度抑制するか",
- "llm.prediction.onnx.repeatPenalty/info": "高い値により、モデルが同じ内容を繰り返すことを抑制します",
- "llm.prediction.onnx.topPSampling/title": "Top P サンプリング",
- "llm.prediction.onnx.topPSampling/subTitle": "次の可能なトークンの最小累積確率。temperatureと同様の動作をします",
- "llm.prediction.onnx.topPSampling/info": "ONNX ドキュメントより:\n\nTopP 以上の確率を加算した最も確率の高いトークンのみが生成用に保持されます\n\n• このフィルターはデフォルトでオフになっています",
- "llm.prediction.seed/title": "Seed",
- "llm.prediction.structured/title": "構造化出力",
- "llm.prediction.structured/info": "構造化出力",
- "llm.prediction.structured/description": "高度:特定の出力形式をモデルに強制するために[JSON Schema](https://json-schema.org/learn/miscellaneous-examples)を提供できます。詳細は[ドキュメント](https://lmstudio.ai/docs/advanced/structured-output)をお読みください",
- "llm.prediction.tools/title": "ツールの使用",
- "llm.prediction.tools/description": "高度:モデルが呼び出しを要求するツールのJSONに準拠したリストを提供できます。詳細は[ドキュメント](https://lmstudio.ai/docs/advanced/tool-use)をお読みください",
- "llm.prediction.tools/serverPageDescriptionAddon": "サーバーAPIを使用する際は、リクエストボディで`tools`としてこれを渡してください",
- "llm.prediction.promptTemplate/title": "プロンプトテンプレート",
- "llm.prediction.promptTemplate/subTitle": "チャット内のメッセージがモデルに送信される形式。これを変更すると予期しない動作を引き起こす可能性があります - 何をしているか理解していることを確認してください!",
- "llm.prediction.speculativeDecoding.numDraftTokensExact/title": "生成するドラフトトークン数",
- "llm.prediction.speculativeDecoding.numDraftTokensExact/subTitle": "メインモデルのトークンごとにドラフトモデルで生成するトークン数。計算量と報酬の最適なバランスを見つけてください",
- "llm.prediction.speculativeDecoding.minContinueDraftingProbability/title": "ドラフティング確率カットオフ",
- "llm.prediction.speculativeDecoding.minContinueDraftingProbability/subTitle": "トークンの確率がこの閾値を下回るまでドラフティングを続行します。高い値は一般的に低リスク・低報酬を意味します",
- "llm.prediction.speculativeDecoding.minDraftLengthToConsider/title": "最小ドラフトサイズ",
- "llm.prediction.speculativeDecoding.minDraftLengthToConsider/subTitle": "これより小さいドラフトはメインモデルによって無視されます。高い値は一般的に低リスク・低報酬を意味します",
- "llm.prediction.speculativeDecoding.maxTokensToDraft/title": "最大ドラフトサイズ",
- "llm.prediction.speculativeDecoding.maxTokensToDraft/subTitle": "ドラフトで許可されるトークンの最大数。すべてのトークン確率がカットオフを上回る場合の上限。低い値は一般的に低リスク・低報酬を意味します",
- "llm.prediction.speculativeDecoding.draftModel/title": "ドラフトモデル",
- "llm.prediction.reasoning.parsing/title": "推論セクション解析",
- "llm.prediction.reasoning.parsing/subTitle": "モデル出力の推論セクションの解析方法",
-
- "llm.load.mainGpu/title": "メインGPU",
- "llm.load.mainGpu/subTitle": "モデル計算で優先するGPU",
- "llm.load.mainGpu/placeholder": "メインGPUを選択...",
- "llm.load.splitStrategy/title": "分割戦略",
- "llm.load.splitStrategy/subTitle": "モデル計算をGPU間でどのように分割するか",
- "llm.load.splitStrategy/placeholder": "分割戦略を選択...",
- "llm.load.offloadKVCacheToGpu/title": "KVキャッシュをGPUメモリにオフロード",
- "llm.load.offloadKVCacheToGpu/subTitle": "KVキャッシュをGPUメモリにオフロードします。パフォーマンスが向上しますが、より多くのGPUメモリが必要です",
- "load.gpuStrictVramCap/title": "モデルオフロードを専用GPUメモリに制限",
- "load.gpuStrictVramCap.customSubTitleOff": "オフ:専用GPUメモリが満杯の場合、モデル重みを共有メモリにオフロードすることを許可します",
- "load.gpuStrictVramCap.customSubTitleOn": "オン:システムはモデル重みのオフロードを専用GPUメモリとRAMのみに制限します。コンテキストは引き続き共有メモリを使用する可能性があります",
- "load.gpuStrictVramCap.customGpuOffloadWarning": "モデルオフロードが専用GPUメモリに制限されました。実際のオフロードされるレイヤー数は異なる場合があります",
- "load.allGpusDisabledWarning": "現在、すべてのGPUが無効になっています。オフロードするには少なくとも1つを有効にしてください",
-
- "llm.load.contextLength/title": "コンテキスト長",
- "llm.load.contextLength/subTitle": "モデルが一つのプロンプトで処理できる最大トークン数。これを管理する方法については、「推論パラメータ」の下の会話オーバーフロー オプションを参照してください",
- "llm.load.contextLength/info": "モデルが一度に考慮できるトークンの最大数を指定し、処理中に保持するコンテキストの量に影響します",
- "llm.load.contextLength/warning": "コンテキスト長に高い値を設定すると、メモリ使用量に大きな影響を与える可能性があります",
- "llm.load.seed/title": "Seed",
- "llm.load.seed/subTitle": "テキスト生成で使用される乱数ジェネレータのシード。-1はランダムです",
- "llm.load.seed/info": "ランダムシード:再現可能な結果を保証するために、乱数生成のシードを設定します",
-
- "llm.load.llama.evalBatchSize/title": "評価バッチサイズ",
- "llm.load.llama.evalBatchSize/subTitle": "一度に処理する入力トークンの数。これを増やすとメモリ使用量は増えますがパフォーマンスが向上します",
- "llm.load.llama.evalBatchSize/info": "評価中に一つのバッチで一緒に処理される例の数を設定し、速度とメモリ使用量に影響します",
- "llm.load.llama.ropeFrequencyBase/title": "RoPE周波数ベース",
- "llm.load.llama.ropeFrequencyBase/subTitle": "回転位置エンベディング(RoPE)のカスタムベース周波数。これを増やすと、高いコンテキスト長でのパフォーマンス向上が期待できます",
- "llm.load.llama.ropeFrequencyBase/info": "[高度] 回転位置エンコーディングのベース周波数を調整し、位置情報の埋め込み方法に影響します",
- "llm.load.llama.ropeFrequencyScale/title": "RoPE周波数スケール",
- "llm.load.llama.ropeFrequencyScale/subTitle": "RoPEを使用して効果的なコンテキストを拡張するために、コンテキスト長がこの要素でスケールされます",
- "llm.load.llama.ropeFrequencyScale/info": "[高度] 回転位置エンコーディングの周波数スケーリングを変更し、位置エンコーディングの粒度を制御します",
- "llm.load.llama.acceleration.offloadRatio/title": "GPUオフロード",
- "llm.load.llama.acceleration.offloadRatio/subTitle": "GPU高速化のためにGPUで計算する個別のモデルレイヤー数",
- "llm.load.llama.acceleration.offloadRatio/info": "GPUにオフロードするレイヤー数を設定します。",
- "llm.load.llama.flashAttention/title": "Flash Attention",
- "llm.load.llama.flashAttention/subTitle": "一部のモデルでメモリ使用量と生成時間を削減します",
- "llm.load.llama.flashAttention/info": "より高速で効率的な処理のためにAttentionメカニズムを加速します",
- "llm.load.numExperts/title": "エキスパート数",
- "llm.load.numExperts/subTitle": "モデルで使用するエキスパートの数",
- "llm.load.numExperts/info": "モデルで使用するエキスパートの数",
- "llm.load.llama.keepModelInMemory/title": "モデルをメモリに保持",
- "llm.load.llama.keepModelInMemory/subTitle": "GPUにオフロードした場合でも、モデル用にシステムメモリを予約します。パフォーマンスが向上しますが、より多くのシステムRAMが必要です",
- "llm.load.llama.keepModelInMemory/info": "モデルがディスクにスワップされることを防ぎ、RAMの使用量増加を犠牲により高速なアクセスを保証します",
- "llm.load.llama.useFp16ForKVCache/title": "KVキャッシュにFP16を使用",
- "llm.load.llama.useFp16ForKVCache/info": "キャッシュを半精度(FP16)で保存することでメモリ使用量を削減します",
- "llm.load.llama.tryMmap/title": "mmap() を試行",
- "llm.load.llama.tryMmap/subTitle": "モデルの読み込み時間が改善されます。利用可能なシステムRAMよりもモデルが大きい場合は、これを無効にするとパフォーマンスが向上する可能性があります",
- "llm.load.llama.tryMmap/info": "モデルファイルをディスクから直接メモリに読み込みます",
- "llm.load.llama.cpuThreadPoolSize/title": "CPUスレッドプールサイズ",
- "llm.load.llama.cpuThreadPoolSize/subTitle": "モデル計算に使用するスレッドプールに割り当てるCPUスレッド数",
- "llm.load.llama.cpuThreadPoolSize/info": "モデル計算に使用するスレッドプールに割り当てるCPUスレッド数。スレッド数を増やしても必ずしもパフォーマンスの向上に繋がるわけではありません。デフォルト値は <{{dynamicValue}}> です。",
- "llm.load.llama.kCacheQuantizationType/title": "K キャッシュ量子化タイプ",
- "llm.load.llama.kCacheQuantizationType/subTitle": "低い値でメモリ使用量を削減しますが、品質が低下する可能性があります。効果はモデルによって大きく異なります。",
- "llm.load.llama.vCacheQuantizationType/title": "V キャッシュ量子化タイプ",
- "llm.load.llama.vCacheQuantizationType/subTitle": "低い値でメモリ使用量を削減しますが、品質が低下する可能性があります。効果はモデルによって大きく異なります。",
- "llm.load.llama.vCacheQuantizationType/turnedOnWarning": "⚠️ Flash Attentionが有効でない場合は、この値を無効にする必要があります",
- "llm.load.llama.vCacheQuantizationType/disabledMessage": "Flash Attentionが有効な場合にのみオンにできます",
- "llm.load.llama.vCacheQuantizationType/invalidF32MetalState": "⚠️ F32を使用する際はFlash Attentionを無効にする必要があります",
- "llm.load.mlx.kvCacheBits/title": "KV キャッシュ量子化",
- "llm.load.mlx.kvCacheBits/subTitle": "KVキャッシュを量子化するビット数",
- "llm.load.mlx.kvCacheBits/info": "KVキャッシュを量子化するビット数",
- "llm.load.mlx.kvCacheBits/turnedOnWarning": "KVキャッシュ量子化を使用すると、コンテキスト長設定は無視されます",
- "llm.load.mlx.kvCacheGroupSize/title": "KV キャッシュ量子化: グループサイズ",
- "llm.load.mlx.kvCacheGroupSize/subTitle": "KVキャッシュの量子化操作中のグループサイズ。グループサイズが大きいほどメモリ使用量は削減されますが、品質が低下する可能性があります",
- "llm.load.mlx.kvCacheGroupSize/info": "KVキャッシュを量子化するビット数",
- "llm.load.mlx.kvCacheQuantizationStart/title": "KV キャッシュ量子化: ctx がこの長さを超えたら量子化を開始",
- "llm.load.mlx.kvCacheQuantizationStart/subTitle": "KVキャッシュの量子化を開始するコンテキスト長の閾値",
- "llm.load.mlx.kvCacheQuantizationStart/info": "KVキャッシュの量子化を開始するコンテキスト長の閾値",
- "llm.load.mlx.kvCacheQuantization/title": "KV キャッシュ量子化",
- "llm.load.mlx.kvCacheQuantization/subTitle": "モデルのKVキャッシュを量子化します。これにより生成の高速化とメモリ使用量の削減が可能ですが、\nモデル出力の品質を犠牲にします。",
- "llm.load.mlx.kvCacheQuantization/bits/title": "KVキャッシュ量子化ビット",
- "llm.load.mlx.kvCacheQuantization/bits/tooltip": "KVキャッシュを量子化するビット数",
- "llm.load.mlx.kvCacheQuantization/bits/bits": "ビット",
- "llm.load.mlx.kvCacheQuantization/groupSize/title": "グループサイズ戦略",
- "llm.load.mlx.kvCacheQuantization/groupSize/accuracy": "精度",
- "llm.load.mlx.kvCacheQuantization/groupSize/balanced": "バランス",
- "llm.load.mlx.kvCacheQuantization/groupSize/speedy": "高速",
- "llm.load.mlx.kvCacheQuantization/groupSize/tooltip": "高度:量子化された「行列積グループサイズ」の構成\n\n• 精度 = グループサイズ 32\n• バランス = グループサイズ 64\n• 高速 = グループサイズ 128\n",
- "llm.load.mlx.kvCacheQuantization/quantizedStart/title": "ctx がこの長さに達したら量子化を開始",
- "llm.load.mlx.kvCacheQuantization/quantizedStart/tooltip": "コンテキストがこのトークン数に達したら、\nKVキャッシュの量子化を開始する",
-
- "embedding.load.contextLength/title": "コンテキスト長",
- "embedding.load.contextLength/subTitle": "モデルが一つのプロンプトで処理できる最大トークン数。これを管理する方法については、「推論パラメータ」の下の会話オーバーフロー オプションを参照してください",
- "embedding.load.contextLength/info": "モデルが一度に考慮できるトークンの最大数を指定し、処理中に保持するコンテキストの量に影響します",
- "embedding.load.llama.ropeFrequencyBase/title": "RoPE周波数ベース",
- "embedding.load.llama.ropeFrequencyBase/subTitle": "回転位置エンベディング(RoPE)のカスタムベース周波数。これを増やすと、高いコンテキスト長でのパフォーマンス向上が期待できます",
- "embedding.load.llama.ropeFrequencyBase/info": "[高度] 回転位置エンコーディングのベース周波数を調整し、位置情報の埋め込み方法に影響します",
- "embedding.load.llama.evalBatchSize/title": "評価バッチサイズ",
- "embedding.load.llama.evalBatchSize/subTitle": "一度に処理する入力トークンの数。これを増やすとメモリ使用量は増えますがパフォーマンスが向上します",
- "embedding.load.llama.evalBatchSize/info": "評価中に一つのバッチで一緒に処理されるトークンの数を設定します",
- "embedding.load.llama.ropeFrequencyScale/title": "RoPE周波数スケール",
- "embedding.load.llama.ropeFrequencyScale/subTitle": "RoPEを使用して効果的なコンテキストを拡張するために、コンテキスト長がこの要素でスケールされます",
- "embedding.load.llama.ropeFrequencyScale/info": "[高度] 回転位置エンコーディングの周波数スケーリングを変更し、位置エンコーディングの粒度を制御します",
- "embedding.load.llama.acceleration.offloadRatio/title": "GPUオフロード",
- "embedding.load.llama.acceleration.offloadRatio/subTitle": "GPU高速化のためにGPUで計算する個別のモデルレイヤー数",
- "embedding.load.llama.acceleration.offloadRatio/info": "GPUにオフロードするレイヤー数を設定します。",
- "embedding.load.llama.keepModelInMemory/title": "モデルをメモリに保持",
- "embedding.load.llama.keepModelInMemory/subTitle": "GPUにオフロードした場合でも、モデル用にシステムメモリを予約します。パフォーマンスが向上しますが、より多くのシステムRAMが必要です",
- "embedding.load.llama.keepModelInMemory/info": "モデルがディスクにスワップされることを防ぎ、RAMの使用量増加を犠牲により高速なアクセスを保証します",
- "embedding.load.llama.tryMmap/title": "mmap() を試行",
- "embedding.load.llama.tryMmap/subTitle": "モデルの読み込み時間が改善されます。利用可能なシステムRAMよりもモデルが大きい場合は、これを無効にするとパフォーマンスが向上する可能性があります",
- "embedding.load.llama.tryMmap/info": "モデルファイルをディスクから直接メモリに読み込みます",
- "embedding.load.seed/title": "Seed",
- "embedding.load.seed/subTitle": "テキスト生成で使用される乱数ジェネレータのシード。-1はランダムシードです",
-
- "embedding.load.seed/info": "ランダムシード:再現可能な結果を保証するために、乱数生成のシードを設定します",
-
- "presetTooltip": {
- "included/title": "プリセット値",
- "included/description": "以下のフィールドが適用されます",
- "included/empty": "このプリセットのフィールドはこのコンテキストで適用されません。",
- "included/conflict": "この値を適用するかどうか選択を求められます",
- "separateLoad/title": "読み込み時設定",
- "separateLoad/description.1": "プリセットには以下の読み込み時設定も含まれています。読み込み時設定はモデル全体に適用され、効果を有効にするにはモデルの再読み込みが必要です。",
- "separateLoad/description.2": "を押しながらクリックして",
- "separateLoad/description.3": "に適用します。",
- "excluded/title": "適用されない可能性があります",
- "excluded/description": "以下のフィールドはプリセットに含まれていますが、現在のコンテキストでは適用されません。",
- "legacy/title": "レガシープリセット",
- "legacy/description": "これはレガシープリセットです。現在では自動的に処理されるか、もはや適用できない以下のフィールドが含まれています。",
- "button/publish": "Hubに公開",
- "button/pushUpdate": "変更をHubにプッシュ",
- "button/noChangesToPush": "プッシュする変更がありません",
- "button/export": "エクスポート",
- "hubLabel": "{{user}}によるHubからのプリセット",
- "ownHubLabel": "Hubにある自分のプリセット"
- },
-
- "customInputs": {
- "string": {
- "emptyParagraph": "<空>"
- },
- "checkboxNumeric": {
- "off": "オフ"
- },
- "llamaCacheQuantizationType": {
- "off": "オフ"
- },
- "mlxKvCacheBits": {
- "off": "オフ"
- },
- "stringArray": {
- "empty": "<空>"
- },
- "llmPromptTemplate": {
- "type": "タイプ",
- "types.jinja/label": "テンプレート(Jinja)",
- "jinja.bosToken/label": "BOSトークン",
- "jinja.eosToken/label": "EOSトークン",
- "jinja.template/label": "テンプレート",
- "jinja/error": "Jinjaテンプレートの解析に失敗しました:{{error}}",
- "jinja/empty": "上記にJinjaテンプレートを入力してください。",
- "jinja/unlikelyToWork": "上記に提供されたJinjaテンプレートは、変数「messages」を参照していないため機能しない可能性があります。正しいテンプレートを入力したかご確認ください。",
- "types.manual/label": "手動",
- "manual.subfield.beforeSystem/label": "システムの前",
- "manual.subfield.beforeSystem/placeholder": "システムプレフィックスを入力...",
- "manual.subfield.afterSystem/label": "システムの後",
- "manual.subfield.afterSystem/placeholder": "システムサフィックスを入力...",
- "manual.subfield.beforeUser/label": "ユーザーの前",
- "manual.subfield.beforeUser/placeholder": "ユーザープレフィックスを入力...",
- "manual.subfield.afterUser/label": "ユーザーの後",
- "manual.subfield.afterUser/placeholder": "ユーザーサフィックスを入力...",
- "manual.subfield.beforeAssistant/label": "アシスタントの前",
- "manual.subfield.beforeAssistant/placeholder": "アシスタントプレフィックスを入力...",
- "manual.subfield.afterAssistant/label": "アシスタントの後",
- "manual.subfield.afterAssistant/placeholder": "アシスタントサフィックスを入力...",
- "stopStrings/label": "追加停止文字列",
- "stopStrings/subTitle": "ユーザー指定の停止文字列に加えて使用される、テンプレート固有の停止文字列。"
- },
- "contextLength": {
- "maxValueTooltip": "これは、モデルが処理するために訓練された最大トークン数です。クリックしてコンテキストをこの値に設定します",
- "maxValueTextStart": "モデルは最大で",
- "maxValueTextEnd": "トークンをサポートします",
- "tooltipHint": "モデルは特定の数のトークンまでサポートしていても、マシンのリソースが負荷を処理できない場合はパフォーマンスが劣化する可能性があります - この値を増加させる際は注意してください"
- },
- "contextOverflowPolicy": {
- "stopAtLimit": "制限で停止",
- "stopAtLimitSub": "モデルのメモリが満杯になったら生成を停止します",
- "truncateMiddle": "中間を切り詰め",
- "truncateMiddleSub": "新しいメッセージのためのスペースを作るために、会話の中間部分からメッセージを削除します。モデルは会話の最初の部分は記憶しています",
- "rollingWindow": "ローリングウィンドウ",
- "rollingWindowSub": "モデルは常に最新の数メッセージを取得しますが、会話の最初の部分を忘れる可能性があります"
- },
- "llamaAccelerationOffloadRatio": {
- "max": "最大",
- "off": "オフ"
- },
- "gpuSplitStrategy": {
- "evenly": "均等に",
- "favorMainGpu": "メインGPUを優先"
- },
- "speculativeDecodingDraftModel": {
- "readMore": "動作原理を読む",
- "placeholder": "互換性のあるドラフトモデルを選択",
- "noCompatible": "現在のモデル選択に対応する互換性のあるドラフトモデルが見つかりません",
- "stillLoading": "互換性のあるドラフトモデルを識別しています...",
- "notCompatible": "選択されたドラフトモデル()は現在のモデル選択()と互換性がありません。",
- "off": "オフ",
- "loadModelToSeeOptions": "互換性のあるオプションを確認するにはモデルを読み込んでください ",
- "compatibleWithNumberOfModels": "あなたのモデルの少なくとも{{dynamicValue}}個に推奨されます",
- "recommendedForSomeModels": "いくつかのモデルに推奨されます",
- "recommendedForLlamaModels": "Llamaモデルに推奨されます",
- "recommendedForQwenModels": "Qwenモデルに推奨されます",
- "onboardingModal": {
- "introducing": "紹介",
- "speculativeDecoding": "推測デコーディング",
- "firstStepBody": "llama.cppとMLXモデルの推論高速化",
- "secondStepTitle": "推測デコーディングによる推論高速化",
- "secondStepBody": "推測デコーディングは、2つのモデルの協調を含む技術です:\n - 大きな「メイン」モデル\n - 小さな「ドラフト」モデル\n\n生成中、ドラフトモデルは大きなメインモデルが検証するためのトークンを迅速に提案します。トークンの検証は、実際にそれらを生成するよりもはるかに高速なプロセスであり、これが高速化の源泉です。**一般的に、メインモデルとドラフトモデルのサイズ差が大きいほど、高速化も大きくなります**。\n\n品質を維持するため、メインモデルは自身が生成したであろうものと一致するトークンのみを受け入れ、より大きなモデルの応答品質をより高速な推論速度で実現します。両モデルは同じ語彙を共有する必要があります。",
- "draftModelRecommendationsTitle": "ドラフトモデルの推奨",
- "basedOnCurrentModels": "現在のモデルに基づく",
- "close": "閉じる",
- "next": "次へ",
- "done": "完了"
- },
- "speculativeDecodingLoadModelToSeeOptions": "最初にモデルを読み込んでください ",
- "errorEngineNotSupported": "推測デコーディングにはエンジン{{engineName}}のバージョン{{minVersion}}以上が必要です。エンジンを更新し()、この機能を使用するためにモデルを再読み込みしてください。",
- "errorEngineNotSupported/noKey": "推測デコーディングにはエンジン{{engineName}}のバージョン{{minVersion}}以上が必要です。エンジンを更新し、この機能を使用するためにモデルを再読み込みしてください。"
- },
- "llmReasoningParsing": {
- "startString/label": "開始文字列",
- "startString/placeholder": "開始文字列を入力...",
- "endString/label": "終了文字列",
- "endString/placeholder": "終了文字列を入力..."
- }
- },
- "saveConflictResolution": {
- "title": "プリセットに含める値を選択",
- "description": "保持する値を選択してください",
- "instructions": "値をクリックして含めてください",
- "userValues": "以前の値",
- "presetValues": "新しい値",
- "confirm": "確認",
- "cancel": "キャンセル"
- },
- "applyConflictResolution": {
- "title": "どの値を保持しますか?",
- "description": "受信プリセットと重複する未コミットの変更があります",
- "instructions": "保持したい値をクリックしてください",
- "userValues": "現在の値",
- "presetValues": "受信プリセット値",
- "confirm": "確認",
- "cancel": "キャンセル"
- },
- "empty": "<空>",
- "noModelSelected": "モデルが選択されていません",
- "apiIdentifier.label": "API識別子",
- "apiIdentifier.hint": "オプションで、このモデルの識別子を提供してください。これはAPIリクエストで使用されます。空白のままにするとデフォルトの識別子を使用します。",
- "idleTTL.label": "アイドル時自動アンロード(TTL)",
- "idleTTL.hint": "設定すると、モデルは指定された時間アイドル状態が続いた後に自動的にアンロードされます。",
- "idleTTL.mins": "分",
-
- "presets": {
- "title": "プリセット",
- "commitChanges": "変更をコミット",
- "commitChanges/description": "変更をプリセットにコミットします。",
- "commitChanges.manual": "新しいフィールドが検出されました。プリセットに含める変更を選択できます。",
- "commitChanges.manual.hold.0": "押しながら",
- "commitChanges.manual.hold.1": "をクリックして、プリセットにコミットする変更を選択してください。",
- "commitChanges.saveAll.hold.0": "押しながら",
- "commitChanges.saveAll.hold.1": "をクリックして、すべての変更を保存してください。",
- "commitChanges.saveInPreset.hold.0": "押しながら",
- "commitChanges.saveInPreset.hold.1": "をクリックして、プリセットに既に含まれているフィールドのみの変更を保存してください。",
- "commitChanges/error": "プリセットへの変更のコミットに失敗しました。",
- "commitChanges.manual/description": "プリセットに含める変更を選択してください。",
- "saveAs": "新規保存...",
- "presetNamePlaceholder": "プリセットの名前を入力...",
- "cannotCommitChangesLegacy": "これはレガシープリセットで変更できません。「新規保存...」を使用してコピーを作成できます。",
- "cannotCommitChangesNoChanges": "コミットする変更がありません。",
- "emptyNoUnsaved": "プリセットを選択...",
- "emptyWithUnsaved": "未保存のプリセット",
- "saveEmptyWithUnsaved": "プリセットに名前を付けて保存...",
- "saveConfirm": "保存",
- "saveCancel": "キャンセル",
- "saving": "保存中...",
- "save/error": "プリセットの保存に失敗しました。",
- "deselect": "プリセットの選択を解除",
- "deselect/error": "プリセットの選択解除に失敗しました。",
- "select/error": "プリセットの選択に失敗しました。",
- "delete/error": "プリセットの削除に失敗しました。",
- "discardChanges": "未保存を破棄",
- "discardChanges/info": "すべての未コミット変更を破棄し、プリセットを元の状態に復元します",
- "newEmptyPreset": "+ 新しいプリセット",
- "importPreset": "インポート",
- "contextMenuCopyIdentifier": "プリセット識別子をコピー",
- "contextMenuSelect": "プリセットを適用",
- "contextMenuDelete": "削除...",
- "contextMenuShare": "公開...",
- "contextMenuOpenInHub": "Webで表示",
- "contextMenuPullFromHub": "最新を取得",
- "contextMenuPushChanges": "変更をHubにプッシュ",
- "contextMenuPushingChanges": "プッシュ中...",
- "contextMenuPushedChanges": "変更がプッシュされました",
- "contextMenuExport": "ファイルをエクスポート",
- "contextMenuRevealInExplorer": "エクスプローラーで表示",
- "contextMenuRevealInFinder": "Finderで表示",
- "share": {
- "title": "プリセットを公開",
- "action": "他の人がダウンロード、いいね、フォークできるようにプリセットを共有します",
- "presetOwnerLabel": "所有者",
- "uploadAs": "あなたのプリセットは{{name}}として作成されます",
- "presetNameLabel": "プリセット名",
- "descriptionLabel": "説明(オプション)",
- "loading": "公開中...",
- "success": "プリセットの公開が完了しました",
- "presetIsLive": "がHubで公開されました!",
- "close": "閉じる",
- "confirmViewOnWeb": "Webで表示",
- "confirmCopy": "URLをコピー",
- "confirmCopied": "コピー完了!",
- "pushedToHub": "プリセットがHubにプッシュされました",
- "descriptionPlaceholder": "説明を入力...",
- "willBePublic": "このプリセットは公開されます。インターネット上の誰でも見ることができます。",
- "willBePrivate": "このプリセットはあなたのみが表示できます",
- "willBeOrgVisible": "このプリセットは組織内のすべてのメンバーに表示されます。",
- "publicSubtitle": "あなたのプリセットは公開されています。他の人がlmstudio.aiでダウンロードやフォークができます",
- "privateUsageReached": "プライベートプリセット数の上限に達しました。",
- "continueInBrowser": "ブラウザで続行",
- "confirmShareButton": "公開",
- "error": "プリセットの公開に失敗しました",
- "createFreeAccount": "Hubで無料アカウントを作成してプリセットを公開しましょう"
- },
- "update": {
- "title": "変更をHubにプッシュ",
- "title/success": "プリセットの更新が完了しました",
- "subtitle": "に変更を加えてHubにプッシュします",
- "descriptionLabel": "説明",
- "descriptionPlaceholder": "説明を入力...",
- "loading": "プッシュ中...",
- "cancel": "キャンセル",
- "createFreeAccount": "Hubで無料アカウントを作成してプリセットを公開しましょう",
- "error": "更新のプッシュに失敗しました",
- "confirmUpdateButton": "プッシュ"
- },
- "resolve": {
- "title": "競合を解決...",
- "tooltip": "Hubバージョンとの差分を解決するためのモーダルを開きます"
- },
- "loginToManage": {
- "title": "管理するにはログイン..."
- },
- "downloadFromHub": {
- "title": "ダウンロード",
- "downloading": "ダウンロード中...",
- "success": "ダウンロード完了!",
- "error": "ダウンロードに失敗しました"
- },
- "push": {
- "title": "変更をプッシュ",
- "pushing": "プッシュ中...",
- "success": "プッシュ完了",
- "tooltip": "ローカルの変更をHubでホストされているリモートバージョンにプッシュします",
- "error": "プッシュに失敗しました"
- },
- "saveAsNewModal": {
- "title": "おっと!Hubでプリセットが見つかりませんでした",
- "confirmSaveAsNewDescription": "このプリセットを新しいプリセットとして公開しますか?",
- "confirmButton": "新規として公開"
- },
- "pull": {
- "title": "最新を取得",
- "error": "取得に失敗しました",
- "contextMenuErrorMessage": "取得に失敗しました",
- "success": "取得完了",
- "pulling": "取得中...",
- "upToDate": "最新です!",
- "unsavedChangesModal": {
- "title": "未保存の変更があります。",
- "bodyContent": "リモートからの取得により、未保存の変更が上書きされます。続行しますか?",
- "confirmButton": "未保存の変更を上書き"
- }
- },
- "import": {
- "title": "ファイルからプリセットをインポート",
- "dragPrompt": "プリセットファイル(.tar.gz または preset.json)をドラッグ&ドロップするか、コンピューターから選択してください",
- "remove": "削除",
- "cancel": "キャンセル",
- "importPreset_zero": "プリセットをインポート",
- "importPreset_one": "プリセットをインポート",
- "importPreset_other": "{{count}}個のプリセットをインポート",
- "selectDialog": {
- "title": "プリセットファイルを選択(preset.json または .tar.gz)",
- "button": "インポート"
- },
- "error": "プリセットのインポートに失敗しました",
- "resultsModal": {
- "titleSuccessSection_one": "1個のプリセットを正常にインポートしました",
- "titleSuccessSection_other": "{{count}}個のプリセットを正常にインポートしました",
- "titleFailSection_zero": "",
- "titleFailSection_one": "({{count}}個が失敗)",
- "titleFailSection_other": "({{count}}個が失敗)",
- "titleAllFailed": "プリセットのインポートに失敗しました",
- "importMore": "さらにインポート",
- "close": "完了",
- "successBadge": "成功",
- "alreadyExistsBadge": "プリセットは既に存在します",
- "errorBadge": "エラー",
- "invalidFileBadge": "無効なファイル",
- "otherErrorBadge": "プリセットのインポートに失敗しました",
- "errorViewDetailsButton": "詳細を表示",
- "seeError": "エラーを確認",
- "noName": "プリセット名なし",
- "useInChat": "チャットで使用"
- },
- "importFromUrl": {
- "button": "URLからインポート...",
- "title": "URLからインポート",
- "back": "ファイルからインポート...",
- "action": "インポートしたいプリセットのLM Studio Hub URLを以下に貼り付けてください",
- "invalidUrl": "無効なURLです。正しいLM Studio Hub URLを貼り付けていることを確認してください。",
- "tip": "LM Studio Hubの{{buttonName}}ボタンでプリセットを直接インストールできます",
- "confirm": "インポート",
- "cancel": "キャンセル",
- "loading": "インポート中...",
- "error": "プリセットのダウンロードに失敗しました。"
- }
- },
- "download": {
- "title": "LM Studio Hubからを取得",
- "subtitle": "をプリセットに保存します。これにより、このプリセットをアプリで使用できるようになります",
- "button": "取得",
- "button/loading": "取得中...",
- "cancel": "キャンセル",
- "error": "プリセットのダウンロードに失敗しました。"
- },
- "inclusiveness": {
- "speculativeDecoding": "プリセットに含める"
- }
- },
-
- "flashAttentionWarning": "Flash Attentionは一部のモデルで問題を引き起こす可能性のある実験的機能です。問題が発生した場合は、無効にしてみてください。",
- "llamaKvCacheQuantizationWarning": "KVキャッシュ量子化は一部のモデルで問題を引き起こす可能性のある実験的機能です。Vキャッシュ量子化にはFlash Attentionを有効にする必要があります。問題が発生した場合は、デフォルトの「F16」にリセットしてください。",
-
- "seedUncheckedHint": "ランダムシード",
- "ropeFrequencyBaseUncheckedHint": "自動",
- "ropeFrequencyScaleUncheckedHint": "自動",
-
- "hardware": {
- "environmentVariables": "環境変数",
- "environmentVariables.info": "不明な場合は、これらをデフォルト値のままにしてください",
- "environmentVariables.reset": "デフォルトにリセット",
-
- "gpus.information": "マシンで検出されたグラフィックス処理装置(GPU)を設定します",
- "gpuSettings": {
- "editMaxCapacity": "最大容量を編集",
- "hideEditMaxCapacity": "最大容量の編集を非表示",
- "allOffWarning": "すべてのGPUがオフまたは無効になっています。モデルの読み込みを有効にするために、いくつかのGPU割り当てがあることを確認してください",
- "split": {
- "title": "戦略",
- "placeholder": "GPUメモリ割り当てを選択",
- "options": {
- "generalDescription": "モデルがGPUにどのように読み込まれるかを設定します",
- "evenly": {
- "title": "均等に分割",
- "description": "GPU間でメモリを均等に割り当てます"
- },
- "priorityOrder": {
- "title": "優先順位",
- "description": "ドラッグして優先順位を変更します。システムは最初にリストされたGPUにより多くを割り当てようとします"
- },
- "custom": {
- "title": "カスタム",
- "description": "メモリを割り当て",
- "maxAllocation": "最大割り当て"
- }
- }
- },
- "deviceId.info": "このデバイスの一意識別子",
- "changesOnlyAffectNewlyLoadedModels": "変更は新たに読み込まれるモデルにのみ影響します",
- "toggleGpu": "GPUを有効/無効にする"
- }
- },
-
- "load.gpuSplitConfig/title": "GPU分割設定",
- "envVars/title": "環境変数を設定",
- "envVars": {
- "select": {
- "placeholder": "環境変数を選択...",
- "noOptions": "利用可能な項目がありません",
- "filter": {
- "placeholder": "検索結果をフィルタリング",
- "resultsFound_zero": "結果が見つかりません",
- "resultsFound_one": "1件の結果が見つかりました",
- "resultsFound_other": "{{count}}件の結果が見つかりました"
- }
- },
- "inputValue": {
- "placeholder": "値を入力してください"
- },
- "values": {
- "title": "現在の値"
- }
- }
-}
+{
+ "noInstanceSelected": "モデルが選択されていません",
+ "resetToDefault": "リセット",
+ "showAdvancedSettings": "詳細設定を表示",
+ "showAll": "すべて",
+ "basicSettings": "基本",
+ "configSubtitle": "プリセットの読み込みまたは保存、モデルパラメータのオーバーライドを試す",
+ "inferenceParameters/title": "予測パラメータ",
+ "inferenceParameters/info": "予測に影響を与えるパラメータを試す。",
+ "generalParameters/title": "一般",
+ "samplingParameters/title": "サンプリング",
+ "basicTab": "基本",
+ "advancedTab": "詳細",
+ "advancedTab/title": "🧪 詳細設定",
+ "advancedTab/expandAll": "すべて展開",
+ "advancedTab/overridesTitle": "設定のオーバーライド",
+ "advancedTab/noConfigsText": "未保存の変更はありません - 上の値を編集してここでオーバーライドを表示します。",
+ "loadInstanceFirst": "モデルを読み込んで、設定可能なパラメータを表示します",
+ "noListedConfigs": "設定可能なパラメータはありません",
+ "generationParameters/info": "テキスト生成に影響を与える基本的なパラメータを試す。",
+ "loadParameters/title": "パラメータの読み込み",
+ "loadParameters/description": "モデルの初期化とメモリへの読み込み方法を制御する設定。",
+ "loadParameters/reload": "変更を適用するには再読み込み",
+ "loadParameters/reload/error": "モデルの再読み込みに失敗しました",
+ "discardChanges": "変更を破棄",
+ "loadModelToSeeOptions": "オプションを表示するにはモデルを読み込んでください",
+ "schematicsError.title": "設定スキーマに以下のフィールドにエラーがあります:",
+ "manifestSections": {
+ "structuredOutput/title": "構造化出力",
+ "speculativeDecoding/title": "推測デコーディング",
+ "sampling/title": "サンプリング",
+ "settings/title": "設定",
+ "toolUse/title": "ツールの使用",
+ "promptTemplate/title": "プロンプトテンプレート",
+ "customFields/title": "カスタムフィールド"
+ },
+
+ "llm.prediction.systemPrompt/title": "システムプロンプト",
+ "llm.prediction.systemPrompt/description": "このフィールドには、モデルに対する背景指示(ルール、制約、一般的な要件など)を記載してください。",
+ "llm.prediction.systemPrompt/subTitle": "AI のガイドライン",
+ "llm.prediction.systemPrompt/openEditor": "エディター",
+ "llm.prediction.systemPrompt/closeEditor": "エディターを閉じる",
+ "llm.prediction.systemPrompt/openedEditor": "エディターで開いています...",
+ "llm.prediction.systemPrompt/edit": "システムプロンプトを編集...",
+ "llm.prediction.systemPrompt/addInstructionsWithMore": "指示を追加...",
+ "llm.prediction.systemPrompt/addInstructions": "指示を追加",
+ "llm.prediction.temperature/title": "Temperature",
+ "llm.prediction.temperature/subTitle": "ランダム性の度合い。0は毎回同じ結果になり、高い値では創造性とばらつきが増加します",
+ "llm.prediction.temperature/info": "llama.cpp ヘルプドキュメントより:「デフォルト値は <{{dynamicValue}}> で、ランダム性と決定性のバランスを提供します。極端な場合、temperature が 0 だと常に最も可能性の高い次のトークンを選択し、毎回同じ出力になります」",
+ "llm.prediction.llama.sampling/title": "サンプリング",
+ "llm.prediction.topKSampling/title": "Top K サンプリング",
+ "llm.prediction.topKSampling/subTitle": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします",
+ "llm.prediction.topKSampling/info": "llama.cpp ヘルプドキュメントより:\n\nTop-kサンプリングは、モデルによって予測された上位k個の最も可能性の高いトークンのみから次のトークンを選択するテキスト生成方法です。\n\n確率の低いまたは無意味なトークンを生成するリスクを減らすのに役立ちますが、出力の多様性を制限する可能性もあります。\n\ntop-kの値が高いほど(例:100)、より多くのトークンが考慮され、より多様なテキストが生成され、値が低いほど(例:10)、最も確率の高いトークンに焦点を当て、より保守的なテキストが生成されます。\n\n• デフォルト値は <{{dynamicValue}}> です",
+ "llm.prediction.llama.cpuThreads/title": "CPUスレッド",
+ "llm.prediction.llama.cpuThreads/subTitle": "推論中に使用するCPUスレッドの数",
+ "llm.prediction.llama.cpuThreads/info": "計算中に使用するスレッド数。スレッド数を増やしても必ずしもパフォーマンスの向上に繋がるわけではありません。デフォルト値は <{{dynamicValue}}> です。",
+ "llm.prediction.maxPredictedTokens/title": "応答長の制限",
+ "llm.prediction.maxPredictedTokens/subTitle": "AIの応答の長さを制限します",
+ "llm.prediction.maxPredictedTokens/info": "チャットボットの応答の最大長を制御します。オンにして応答の最大長を制限するか、オフにしてチャットボット自体に停止タイミングを決めさせます。",
+ "llm.prediction.maxPredictedTokens/inputLabel": "最大応答長(トークン)",
+ "llm.prediction.maxPredictedTokens/wordEstimate": "約{{maxWords}}語",
+ "llm.prediction.repeatPenalty/title": "繰り返しペナルティ",
+ "llm.prediction.repeatPenalty/subTitle": "同じトークンの繰り返しをどの程度抑制するか",
+ "llm.prediction.repeatPenalty/info": "llama.cpp ヘルプドキュメントより:「モデルが繰り返しや単調なテキストを生成することを防ぐのに役立ちます。\n\n高い値(例:1.5)は繰り返しをより強くペナルティ化し、低い値(例:0.9)はより寛大になります。」 • デフォルト値は <{{dynamicValue}}> です",
+ "llm.prediction.minPSampling/title": "Min P サンプリング",
+ "llm.prediction.minPSampling/subTitle": "出力対象として選択されるトークンの最小ベース確率",
+ "llm.prediction.minPSampling/info": "llama.cpp ヘルプドキュメントより:\n\n最も可能性の高いトークンの確率に対する相対的な、トークンが考慮される最小確率。[0, 1]の範囲である必要があります。\n\n• デフォルト値は <{{dynamicValue}}> です",
+ "llm.prediction.topPSampling/title": "Top P サンプリング",
+ "llm.prediction.topPSampling/subTitle": "次の可能なトークンの最小累積確率。temperatureと同様の動作をします",
+ "llm.prediction.topPSampling/info": "llama.cpp ヘルプドキュメントより:\n\nNucleus サンプリングとも呼ばれる Top-p サンプリングは、累積確率が少なくとも p となるトークンのサブセットから次のトークンを選択するテキスト生成方法です。\n\nこの方法は、トークンの確率とサンプリング対象となるトークン数の両方を考慮することで、多様性と品質のバランスを提供します。\n\ntop-p の値が高い(例:0.95)場合はより多様なテキストが生成され、低い値(例:0.5)の場合はより集中的で保守的なテキストが生成されます。(0, 1]の範囲である必要があります。\n\n• デフォルト値は <{{dynamicValue}}> です",
+ "llm.prediction.stopStrings/title": "停止文字列",
+ "llm.prediction.stopStrings/subTitle": "モデルがトークン生成を停止する文字列",
+ "llm.prediction.stopStrings/info": "これらの文字列が検出されたときにモデルがさらなるトークン生成を停止する特定の文字列",
+ "llm.prediction.stopStrings/placeholder": "文字列を入力してから ⏎ を押してください",
+ "llm.prediction.contextOverflowPolicy/title": "コンテキストオーバーフロー",
+ "llm.prediction.contextOverflowPolicy/subTitle": "会話がモデルの処理能力を超えた場合の動作方法",
+ "llm.prediction.contextOverflowPolicy/info": "会話がモデルの作業メモリ('コンテキスト')のサイズを超えた場合の対応を決定します",
+ "llm.prediction.llama.frequencyPenalty/title": "頻度ペナルティ",
+ "llm.prediction.llama.presencePenalty/title": "存在ペナルティ",
+ "llm.prediction.llama.tailFreeSampling/title": "テイルフリーサンプリング",
+ "llm.prediction.llama.locallyTypicalSampling/title": "局所的典型サンプリング",
+ "llm.prediction.llama.xtcProbability/title": "XTCサンプリング確率",
+ "llm.prediction.llama.xtcProbability/subTitle": "XTC(Exclude Top Choices)サンプラーが生成された各トークンでこの確率で有効化されます。XTCサンプリングは創造性を向上させ、陳腐な表現を減らします",
+ "llm.prediction.llama.xtcProbability/info": "XTC(Exclude Top Choices)サンプリングは、生成された各トークンでこの確率でのみ有効化されます。XTCサンプリングは通常創造性を向上させ、陳腐な表現を減らします",
+ "llm.prediction.llama.xtcThreshold/title": "XTCサンプリング閾値",
+ "llm.prediction.llama.xtcThreshold/subTitle": "XTC(Exclude Top Choices)閾値。`xtc-probability`の確率で、`xtc-threshold`と0.5の間の確率を持つトークンを検索し、最も確率の低いもの以外のそのようなトークンをすべて除去します",
+ "llm.prediction.llama.xtcThreshold/info": "XTC(Exclude Top Choices)閾値。`xtc-probability`の確率で、`xtc-threshold`と0.5の間の確率を持つトークンを検索し、最も確率の低いもの以外のそのようなトークンをすべて除去します",
+ "llm.prediction.mlx.topKSampling/title": "Top K サンプリング",
+ "llm.prediction.mlx.topKSampling/subTitle": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします",
+ "llm.prediction.mlx.topKSampling/info": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします",
+ "llm.prediction.onnx.topKSampling/title": "Top K サンプリング",
+ "llm.prediction.onnx.topKSampling/subTitle": "次のトークンを上位k個の最も確率の高いトークンのいずれかに制限します。temperatureと同様の動作をします",
+ "llm.prediction.onnx.topKSampling/info": "ONNX ドキュメントより:\n\ntop-k フィルタリング用に保持する最高確率語彙トークンの数\n\n• このフィルターはデフォルトでオフになっています",
+ "llm.prediction.onnx.repeatPenalty/title": "繰り返しペナルティ",
+ "llm.prediction.onnx.repeatPenalty/subTitle": "同じトークンの繰り返しをどの程度抑制するか",
+ "llm.prediction.onnx.repeatPenalty/info": "高い値により、モデルが同じ内容を繰り返すことを抑制します",
+ "llm.prediction.onnx.topPSampling/title": "Top P サンプリング",
+ "llm.prediction.onnx.topPSampling/subTitle": "次の可能なトークンの最小累積確率。temperatureと同様の動作をします",
+ "llm.prediction.onnx.topPSampling/info": "ONNX ドキュメントより:\n\nTopP 以上の確率を加算した最も確率の高いトークンのみが生成用に保持されます\n\n• このフィルターはデフォルトでオフになっています",
+ "llm.prediction.seed/title": "Seed",
+ "llm.prediction.structured/title": "構造化出力",
+ "llm.prediction.structured/info": "構造化出力",
+ "llm.prediction.structured/description": "高度:特定の出力形式をモデルに強制するために[JSON Schema](https://json-schema.org/learn/miscellaneous-examples)を提供できます。詳細は[ドキュメント](https://lmstudio.ai/docs/advanced/structured-output)をお読みください",
+ "llm.prediction.tools/title": "ツールの使用",
+ "llm.prediction.tools/description": "高度:モデルが呼び出しを要求するツールのJSONに準拠したリストを提供できます。詳細は[ドキュメント](https://lmstudio.ai/docs/advanced/tool-use)をお読みください",
+ "llm.prediction.tools/serverPageDescriptionAddon": "サーバーAPIを使用する際は、リクエストボディで`tools`としてこれを渡してください",
+ "llm.prediction.promptTemplate/title": "プロンプトテンプレート",
+ "llm.prediction.promptTemplate/subTitle": "チャット内のメッセージがモデルに送信される形式。これを変更すると予期しない動作を引き起こす可能性があります - 何をしているか理解していることを確認してください!",
+ "llm.prediction.speculativeDecoding.numDraftTokensExact/title": "生成するドラフトトークン数",
+ "llm.prediction.speculativeDecoding.numDraftTokensExact/subTitle": "メインモデルのトークンごとにドラフトモデルで生成するトークン数。計算量と報酬の最適なバランスを見つけてください",
+ "llm.prediction.speculativeDecoding.minContinueDraftingProbability/title": "ドラフティング確率カットオフ",
+ "llm.prediction.speculativeDecoding.minContinueDraftingProbability/subTitle": "トークンの確率がこの閾値を下回るまでドラフティングを続行します。高い値は一般的に低リスク・低報酬を意味します",
+ "llm.prediction.speculativeDecoding.minDraftLengthToConsider/title": "最小ドラフトサイズ",
+ "llm.prediction.speculativeDecoding.minDraftLengthToConsider/subTitle": "これより小さいドラフトはメインモデルによって無視されます。高い値は一般的に低リスク・低報酬を意味します",
+ "llm.prediction.speculativeDecoding.maxTokensToDraft/title": "最大ドラフトサイズ",
+ "llm.prediction.speculativeDecoding.maxTokensToDraft/subTitle": "ドラフトで許可されるトークンの最大数。すべてのトークン確率がカットオフを上回る場合の上限。低い値は一般的に低リスク・低報酬を意味します",
+ "llm.prediction.speculativeDecoding.draftModel/title": "ドラフトモデル",
+ "llm.prediction.reasoning.parsing/title": "推論セクション解析",
+ "llm.prediction.reasoning.parsing/subTitle": "モデル出力の推論セクションの解析方法",
+
+ "llm.load.mainGpu/title": "メインGPU",
+ "llm.load.mainGpu/subTitle": "モデル計算で優先するGPU",
+ "llm.load.mainGpu/placeholder": "メインGPUを選択...",
+ "llm.load.splitStrategy/title": "分割戦略",
+ "llm.load.splitStrategy/subTitle": "モデル計算をGPU間でどのように分割するか",
+ "llm.load.splitStrategy/placeholder": "分割戦略を選択...",
+ "llm.load.offloadKVCacheToGpu/title": "KVキャッシュをGPUメモリにオフロード",
+ "llm.load.offloadKVCacheToGpu/subTitle": "KVキャッシュをGPUメモリにオフロードします。パフォーマンスが向上しますが、より多くのGPUメモリが必要です",
+ "llm.load.numParallelSessions/title": "最大同時予測数",
+ "llm.load.numParallelSessions/subTitle": "モデルが同時に実行できる予測の最大数。並行性が高いと個々の予測速度は低下する可能性がありますが、各予測の開始が速くなり、総スループットが向上します",
+ "llm.load.useUnifiedKvCache/title": "統一KVキャッシュ",
+ "llm.load.useUnifiedKvCache/subTitle": "同時予測が単一のKVキャッシュを共有するかどうかを制御し、メモリを節約します。無効にすると、各予測が完全なコンテキスト長を利用できますが、メモリ使用量が増加します",
+ "load.gpuStrictVramCap/title": "モデルオフロードを専用GPUメモリに制限",
+ "load.gpuStrictVramCap.customSubTitleOff": "オフ:専用GPUメモリが満杯の場合、モデル重みを共有メモリにオフロードすることを許可します",
+ "load.gpuStrictVramCap.customSubTitleOn": "オン:システムはモデル重みのオフロードを専用GPUメモリとRAMのみに制限します。コンテキストは引き続き共有メモリを使用する可能性があります",
+ "load.gpuStrictVramCap.customGpuOffloadWarning": "モデルオフロードが専用GPUメモリに制限されました。実際のオフロードされるレイヤー数は異なる場合があります",
+ "load.allGpusDisabledWarning": "現在、すべてのGPUが無効になっています。オフロードするには少なくとも1つを有効にしてください",
+
+ "llm.load.contextLength/title": "コンテキスト長",
+ "llm.load.contextLength/subTitle": "モデルが一つのプロンプトで処理できる最大トークン数。これを管理する方法については、「推論パラメータ」の下の会話オーバーフロー オプションを参照してください",
+ "llm.load.contextLength/info": "モデルが一度に考慮できるトークンの最大数を指定し、処理中に保持するコンテキストの量に影響します",
+ "llm.load.contextLength/warning": "コンテキスト長に高い値を設定すると、メモリ使用量に大きな影響を与える可能性があります",
+ "llm.load.seed/title": "シード",
+ "llm.load.seed/subTitle": "テキスト生成で使用される乱数ジェネレータのシード。-1はランダムです",
+ "llm.load.seed/info": "ランダムシード:再現可能な結果を保証するために、乱数生成のシードを設定します",
+ "llm.load.numCpuExpertLayersRatio/title": "モデルエキスパート重みをCPUに強制",
+ "llm.load.numCpuExpertLayersRatio/subTitle": "MoEエキスパート重みをCPU RAMに強制するかどうか。VRAMを節約でき、部分的なGPUオフロードより高速になる場合があります。モデルがVRAMに完全に収まる場合は推奨されません。",
+ "llm.load.numCpuExpertLayersRatio/info": "すべてのMoEエキスパートレイヤーをCPU RAMに配置するかどうかを指定します。注意レイヤーはGPUに残り、VRAMを節約しながら推論を比較的高速に保ちます。",
+
+ "llm.load.llama.evalBatchSize/title": "評価バッチサイズ",
+ "llm.load.llama.evalBatchSize/subTitle": "一度に処理する入力トークンの数。これを増やすとメモリ使用量は増えますがパフォーマンスが向上します",
+ "llm.load.llama.evalBatchSize/info": "評価中に一つのバッチで一緒に処理される例の数を設定し、速度とメモリ使用量に影響します",
+ "llm.load.llama.ropeFrequencyBase/title": "RoPE周波数ベース",
+ "llm.load.llama.ropeFrequencyBase/subTitle": "回転位置エンベディング(RoPE)のカスタムベース周波数。これを増やすと、高いコンテキスト長でのパフォーマンス向上が期待できます",
+ "llm.load.llama.ropeFrequencyBase/info": "[高度] 回転位置エンコーディングのベース周波数を調整し、位置情報の埋め込み方法に影響します",
+ "llm.load.llama.ropeFrequencyScale/title": "RoPE周波数スケール",
+ "llm.load.llama.ropeFrequencyScale/subTitle": "RoPEを使用して効果的なコンテキストを拡張するために、コンテキスト長がこの要素でスケールされます",
+ "llm.load.llama.ropeFrequencyScale/info": "[高度] 回転位置エンコーディングの周波数スケーリングを変更し、位置エンコーディングの粒度を制御します",
+ "llm.load.llama.acceleration.offloadRatio/title": "GPUオフロード",
+ "llm.load.llama.acceleration.offloadRatio/subTitle": "GPU高速化のためにGPUで計算する個別のモデルレイヤー数",
+ "llm.load.llama.acceleration.offloadRatio/info": "GPUにオフロードするレイヤー数を設定します。",
+ "llm.load.llama.flashAttention/title": "Flash Attention",
+ "llm.load.llama.flashAttention/subTitle": "一部のモデルでメモリ使用量と生成時間を削減します",
+ "llm.load.llama.flashAttention/info": "より高速で効率的な処理のためにAttentionメカニズムを加速します",
+ "llm.load.numExperts/title": "エキスパート数",
+ "llm.load.numExperts/subTitle": "モデルで使用するエキスパートの数",
+ "llm.load.numExperts/info": "モデルで使用するエキスパートの数",
+ "llm.load.llama.keepModelInMemory/title": "モデルをメモリに保持",
+ "llm.load.llama.keepModelInMemory/subTitle": "GPUにオフロードした場合でも、モデル用にシステムメモリを予約します。パフォーマンスが向上しますが、より多くのシステムRAMが必要です",
+ "llm.load.llama.keepModelInMemory/info": "モデルがディスクにスワップされることを防ぎ、RAMの使用量増加を犠牲により高速なアクセスを保証します",
+ "llm.load.llama.useFp16ForKVCache/title": "KVキャッシュにFP16を使用",
+ "llm.load.llama.useFp16ForKVCache/info": "キャッシュを半精度(FP16)で保存することでメモリ使用量を削減します",
+ "llm.load.llama.tryMmap/title": "mmap() を試行",
+ "llm.load.llama.tryMmap/subTitle": "モデルの読み込み時間が改善されます。利用可能なシステムRAMよりもモデルが大きい場合は、これを無効にするとパフォーマンスが向上する可能性があります",
+ "llm.load.llama.tryMmap/info": "モデルファイルをディスクから直接メモリに読み込みます",
+ "llm.load.llama.cpuThreadPoolSize/title": "CPUスレッドプールサイズ",
+ "llm.load.llama.cpuThreadPoolSize/subTitle": "モデル計算に使用するスレッドプールに割り当てるCPUスレッド数",
+ "llm.load.llama.cpuThreadPoolSize/info": "モデル計算に使用するスレッドプールに割り当てるCPUスレッド数。スレッド数を増やしても必ずしもパフォーマンスの向上に繋がるわけではありません。デフォルト値は <{{dynamicValue}}> です。",
+ "llm.load.llama.kCacheQuantizationType/title": "K キャッシュ量子化タイプ",
+ "llm.load.llama.kCacheQuantizationType/subTitle": "低い値でメモリ使用量を削減しますが、品質が低下する可能性があります。効果はモデルによって大きく異なります。",
+ "llm.load.llama.vCacheQuantizationType/title": "V キャッシュ量子化タイプ",
+ "llm.load.llama.vCacheQuantizationType/subTitle": "低い値でメモリ使用量を削減しますが、品質が低下する可能性があります。効果はモデルによって大きく異なります。",
+ "llm.load.llama.vCacheQuantizationType/turnedOnWarning": "⚠️ Flash Attentionが有効でない場合は、この値を無効にする必要があります",
+ "llm.load.llama.vCacheQuantizationType/disabledMessage": "Flash Attentionが有効な場合にのみオンにできます",
+ "llm.load.llama.vCacheQuantizationType/invalidF32MetalState": "⚠️ F32を使用する際はFlash Attentionを無効にする必要があります",
+ "llm.load.mlx.kvCacheBits/title": "KVキャッシュ量子化",
+ "llm.load.mlx.kvCacheBits/subTitle": "KVキャッシュを量子化するビット数",
+ "llm.load.mlx.kvCacheBits/info": "KVキャッシュを量子化するビット数",
+ "llm.load.mlx.kvCacheBits/turnedOnWarning": "KVキャッシュ量子化を使用すると、コンテキスト長設定は無視されます",
+ "llm.load.mlx.kvCacheGroupSize/title": "KVキャッシュ量子化: グループサイズ",
+ "llm.load.mlx.kvCacheGroupSize/subTitle": "KVキャッシュの量子化操作中のグループサイズ。グループサイズが大きいほどメモリ使用量は削減されますが、品質が低下する可能性があります",
+ "llm.load.mlx.kvCacheGroupSize/info": "KVキャッシュを量子化するビット数",
+ "llm.load.mlx.kvCacheQuantizationStart/title": "KVキャッシュ量子化: ctx がこの長さを超えたら量子化を開始",
+ "llm.load.mlx.kvCacheQuantizationStart/subTitle": "KVキャッシュの量子化を開始するコンテキスト長の閾値",
+ "llm.load.mlx.kvCacheQuantizationStart/info": "KVキャッシュの量子化を開始するコンテキスト長の閾値",
+ "llm.load.mlx.kvCacheQuantization/title": "KVキャッシュ量子化",
+ "llm.load.mlx.kvCacheQuantization/subTitle": "モデルのKVキャッシュを量子化します。これにより生成の高速化とメモリ使用量の削減が可能ですが、\nモデル出力の品質を犠牲にします。",
+ "llm.load.mlx.kvCacheQuantization/bits/title": "KVキャッシュ量子化ビット",
+ "llm.load.mlx.kvCacheQuantization/bits/tooltip": "KVキャッシュを量子化するビット数",
+ "llm.load.mlx.kvCacheQuantization/bits/bits": "ビット",
+ "llm.load.mlx.kvCacheQuantization/groupSize/title": "グループサイズ戦略",
+ "llm.load.mlx.kvCacheQuantization/groupSize/accuracy": "精度",
+ "llm.load.mlx.kvCacheQuantization/groupSize/balanced": "バランス",
+ "llm.load.mlx.kvCacheQuantization/groupSize/speedy": "高速",
+ "llm.load.mlx.kvCacheQuantization/groupSize/tooltip": "高度:量子化された「行列積グループサイズ」の構成\n\n• 精度 = グループサイズ 32\n• バランス = グループサイズ 64\n• 高速 = グループサイズ 128\n",
+ "llm.load.mlx.kvCacheQuantization/quantizedStart/title": "ctx がこの長さに達したら量子化を開始",
+ "llm.load.mlx.kvCacheQuantization/quantizedStart/tooltip": "コンテキストがこのトークン数に達したら、\nKVキャッシュの量子化を開始する",
+
+ "embedding.load.contextLength/title": "コンテキスト長",
+ "embedding.load.contextLength/subTitle": "モデルが一つのプロンプトで処理できる最大トークン数。これを管理する方法については、「推論パラメータ」の下の会話オーバーフロー オプションを参照してください",
+ "embedding.load.contextLength/info": "モデルが一度に考慮できるトークンの最大数を指定し、処理中に保持するコンテキストの量に影響します",
+ "embedding.load.llama.ropeFrequencyBase/title": "RoPE周波数ベース",
+ "embedding.load.llama.ropeFrequencyBase/subTitle": "回転位置エンベディング(RoPE)のカスタムベース周波数。これを増やすと、高いコンテキスト長でのパフォーマンス向上が期待できます",
+ "embedding.load.llama.ropeFrequencyBase/info": "[高度] 回転位置エンコーディングのベース周波数を調整し、位置情報の埋め込み方法に影響します",
+ "embedding.load.llama.evalBatchSize/title": "評価バッチサイズ",
+ "embedding.load.llama.evalBatchSize/subTitle": "一度に処理する入力トークンの数。これを増やすとメモリ使用量は増えますがパフォーマンスが向上します",
+ "embedding.load.llama.evalBatchSize/info": "評価中に一つのバッチで一緒に処理されるトークンの数を設定します",
+ "embedding.load.llama.ropeFrequencyScale/title": "RoPE周波数スケール",
+ "embedding.load.llama.ropeFrequencyScale/subTitle": "RoPEを使用して効果的なコンテキストを拡張するために、コンテキスト長がこの要素でスケールされます",
+ "embedding.load.llama.ropeFrequencyScale/info": "[高度] 回転位置エンコーディングの周波数スケーリングを変更し、位置エンコーディングの粒度を制御します",
+ "embedding.load.llama.acceleration.offloadRatio/title": "GPUオフロード",
+ "embedding.load.llama.acceleration.offloadRatio/subTitle": "GPU高速化のためにGPUで計算する個別のモデルレイヤー数",
+ "embedding.load.llama.acceleration.offloadRatio/info": "GPUにオフロードするレイヤー数を設定します。",
+ "embedding.load.llama.keepModelInMemory/title": "モデルをメモリに保持",
+ "embedding.load.llama.keepModelInMemory/subTitle": "GPUにオフロードした場合でも、モデル用にシステムメモリを予約します。パフォーマンスが向上しますが、より多くのシステムRAMが必要です",
+ "embedding.load.llama.keepModelInMemory/info": "モデルがディスクにスワップされることを防ぎ、RAMの使用量増加を犠牲により高速なアクセスを保証します",
+ "embedding.load.llama.tryMmap/title": "mmap() を試行",
+ "embedding.load.llama.tryMmap/subTitle": "モデルの読み込み時間が改善されます。利用可能なシステムRAMよりもモデルが大きい場合は、これを無効にするとパフォーマンスが向上する可能性があります",
+ "embedding.load.llama.tryMmap/info": "モデルファイルをディスクから直接メモリに読み込みます",
+ "embedding.load.seed/title": "Seed",
+ "embedding.load.seed/subTitle": "テキスト生成で使用される乱数ジェネレータのシード。-1はランダムシードです",
+
+ "embedding.load.seed/info": "ランダムシード:再現可能な結果を保証するために、乱数生成のシードを設定します",
+
+ "presetTooltip": {
+ "included/title": "プリセット値",
+ "included/description": "以下のフィールドが適用されます",
+ "included/empty": "このプリセットのフィールドはこのコンテキストで適用されません。",
+ "included/conflict": "この値を適用するかどうか選択を求められます",
+ "separateLoad/title": "読み込み時設定",
+ "separateLoad/description.1": "プリセットには以下の読み込み時設定も含まれています。読み込み時設定はモデル全体に適用され、効果を有効にするにはモデルの再読み込みが必要です。",
+ "separateLoad/description.2": "を押しながらクリックして",
+ "separateLoad/description.3": "に適用します。",
+ "excluded/title": "適用されない可能性があります",
+ "excluded/description": "以下のフィールドはプリセットに含まれていますが、現在のコンテキストでは適用されません。",
+ "legacy/title": "レガシープリセット",
+ "legacy/description": "これはレガシープリセットです。現在では自動的に処理されるか、もはや適用できない以下のフィールドが含まれています。",
+ "button/publish": "Hubに公開",
+ "button/pushUpdate": "変更をHubにプッシュ",
+ "button/noChangesToPush": "プッシュする変更がありません",
+ "button/export": "エクスポート",
+ "hubLabel": "{{user}}によるHubからのプリセット",
+ "ownHubLabel": "Hubにある自分のプリセット"
+ },
+
+ "customInputs": {
+ "string": {
+ "emptyParagraph": "<空>"
+ },
+ "checkboxNumeric": {
+ "off": "オフ"
+ },
+ "llamaCacheQuantizationType": {
+ "off": "オフ"
+ },
+ "mlxKvCacheBits": {
+ "off": "オフ"
+ },
+ "stringArray": {
+ "empty": "<空>"
+ },
+ "llmPromptTemplate": {
+ "type": "タイプ",
+ "types.jinja/label": "テンプレート(Jinja)",
+ "jinja.bosToken/label": "BOSトークン",
+ "jinja.eosToken/label": "EOSトークン",
+ "jinja.template/label": "テンプレート",
+ "jinja/error": "Jinjaテンプレートの解析に失敗しました:{{error}}",
+ "jinja/empty": "上記にJinjaテンプレートを入力してください。",
+ "jinja/unlikelyToWork": "上記に提供されたJinjaテンプレートは、変数「messages」を参照していないため機能しない可能性があります。正しいテンプレートを入力したかご確認ください。",
+ "types.manual/label": "手動",
+ "manual.subfield.beforeSystem/label": "システムの前",
+ "manual.subfield.beforeSystem/placeholder": "システムプレフィックスを入力...",
+ "manual.subfield.afterSystem/label": "システムの後",
+ "manual.subfield.afterSystem/placeholder": "システムサフィックスを入力...",
+ "manual.subfield.beforeUser/label": "ユーザーの前",
+ "manual.subfield.beforeUser/placeholder": "ユーザープレフィックスを入力...",
+ "manual.subfield.afterUser/label": "ユーザーの後",
+ "manual.subfield.afterUser/placeholder": "ユーザーサフィックスを入力...",
+ "manual.subfield.beforeAssistant/label": "アシスタントの前",
+ "manual.subfield.beforeAssistant/placeholder": "アシスタントプレフィックスを入力...",
+ "manual.subfield.afterAssistant/label": "アシスタントの後",
+ "manual.subfield.afterAssistant/placeholder": "アシスタントサフィックスを入力...",
+ "stopStrings/label": "追加停止文字列",
+ "stopStrings/subTitle": "ユーザー指定の停止文字列に加えて使用される、テンプレート固有の停止文字列。"
+ },
+ "contextLength": {
+ "maxValueTooltip": "これは、モデルが処理するために訓練された最大トークン数です。クリックしてコンテキストをこの値に設定します",
+ "maxValueTextStart": "モデルは最大で",
+ "maxValueTextEnd": "トークンをサポートします",
+ "tooltipHint": "モデルは特定の数のトークンまでサポートしていても、マシンのリソースが負荷を処理できない場合はパフォーマンスが劣化する可能性があります - この値を増加させる際は注意してください"
+ },
+ "contextOverflowPolicy": {
+ "stopAtLimit": "制限で停止",
+ "stopAtLimitSub": "モデルのメモリが満杯になったら生成を停止します",
+ "truncateMiddle": "中間を切り詰め",
+ "truncateMiddleSub": "新しいメッセージのためのスペースを作るために、会話の中間部分からメッセージを削除します。モデルは会話の最初の部分は記憶しています",
+ "rollingWindow": "ローリングウィンドウ",
+ "rollingWindowSub": "モデルは常に最新の数メッセージを取得しますが、会話の最初の部分を忘れる可能性があります"
+ },
+ "llamaAccelerationOffloadRatio": {
+ "max": "最大",
+ "off": "オフ"
+ },
+ "gpuSplitStrategy": {
+ "evenly": "均等に",
+ "favorMainGpu": "メインGPUを優先"
+ },
+ "speculativeDecodingDraftModel": {
+ "readMore": "動作原理を読む",
+ "placeholder": "互換性のあるドラフトモデルを選択",
+ "noCompatible": "現在のモデル選択に対応する互換性のあるドラフトモデルが見つかりません",
+ "stillLoading": "互換性のあるドラフトモデルを識別しています...",
+ "notCompatible": "選択されたドラフトモデル()は現在のモデル選択()と互換性がありません。",
+ "off": "オフ",
+ "loadModelToSeeOptions": "互換性のあるオプションを確認するにはモデルを読み込んでください ",
+ "compatibleWithNumberOfModels": "あなたのモデルの少なくとも{{dynamicValue}}個に推奨されます",
+ "recommendedForSomeModels": "いくつかのモデルに推奨されます",
+ "recommendedForLlamaModels": "Llamaモデルに推奨されます",
+ "recommendedForQwenModels": "Qwenモデルに推奨されます",
+ "onboardingModal": {
+ "introducing": "紹介",
+ "speculativeDecoding": "推測デコーディング",
+ "firstStepBody": "llama.cppとMLXモデルの推論高速化",
+ "secondStepTitle": "推測デコーディングによる推論高速化",
+ "secondStepBody": "推測デコーディングは、2つのモデルの協調を含む技術です:\n - 大きな「メイン」モデル\n - 小さな「ドラフト」モデル\n\n生成中、ドラフトモデルは大きなメインモデルが検証するためのトークンを迅速に提案します。トークンの検証は、実際にそれらを生成するよりもはるかに高速なプロセスであり、これが高速化の源泉です。**一般的に、メインモデルとドラフトモデルのサイズ差が大きいほど、高速化も大きくなります**。\n\n品質を維持するため、メインモデルは自身が生成したであろうものと一致するトークンのみを受け入れ、より大きなモデルの応答品質をより高速な推論速度で実現します。両モデルは同じ語彙を共有する必要があります。",
+ "draftModelRecommendationsTitle": "ドラフトモデルの推奨",
+ "basedOnCurrentModels": "現在のモデルに基づく",
+ "close": "閉じる",
+ "next": "次へ",
+ "done": "完了"
+ },
+ "speculativeDecodingLoadModelToSeeOptions": "最初にモデルを読み込んでください ",
+ "errorEngineNotSupported": "推測デコーディングにはエンジン{{engineName}}のバージョン{{minVersion}}以上が必要です。エンジンを更新し()、この機能を使用するためにモデルを再読み込みしてください。",
+ "errorEngineNotSupported/noKey": "推測デコーディングにはエンジン{{engineName}}のバージョン{{minVersion}}以上が必要です。エンジンを更新し、この機能を使用するためにモデルを再読み込みしてください。"
+ },
+ "llmReasoningParsing": {
+ "startString/label": "開始文字列",
+ "startString/placeholder": "開始文字列を入力...",
+ "endString/label": "終了文字列",
+ "endString/placeholder": "終了文字列を入力..."
+ }
+ },
+ "saveConflictResolution": {
+ "title": "プリセットに含める値を選択",
+ "description": "保持する値を選択してください",
+ "instructions": "値をクリックして含めてください",
+ "userValues": "以前の値",
+ "presetValues": "新しい値",
+ "confirm": "確認",
+ "cancel": "キャンセル"
+ },
+ "applyConflictResolution": {
+ "title": "どの値を保持しますか?",
+ "description": "受信プリセットと重複する未コミットの変更があります",
+ "instructions": "保持したい値をクリックしてください",
+ "userValues": "現在の値",
+ "presetValues": "受信プリセット値",
+ "confirm": "確認",
+ "cancel": "キャンセル"
+ },
+ "empty": "<空>",
+ "noModelSelected": "モデルが選択されていません",
+ "apiIdentifier.label": "API識別子",
+ "apiIdentifier.hint": "オプションで、このモデルの識別子を提供してください。これはAPIリクエストで使用されます。空白のままにするとデフォルトの識別子を使用します。",
+ "idleTTL.label": "アイドル時自動アンロード(TTL)",
+ "idleTTL.hint": "設定すると、モデルは指定された時間アイドル状態が続いた後に自動的にアンロードされます。",
+ "idleTTL.mins": "分",
+
+ "presets": {
+ "title": "プリセット",
+ "saveChanges": "保存",
+ "saveChanges/description": "プリセットへの変更を保存します。",
+ "saveChanges.manual": "新しいフィールドが検出されました。プリセットに含める変更を選択できます。",
+ "saveChanges.manual.hold.0": "押しながら",
+ "saveChanges.manual.hold.1": "をクリックして、プリセットに保存する変更を選択してください。",
+ "saveChanges.saveAll.hold.0": "押しながら",
+ "saveChanges.saveAll.hold.1": "をクリックして、すべての変更を保存してください。",
+ "saveChanges.saveInPreset.hold.0": "押しながら",
+ "saveChanges.saveInPreset.hold.1": "をクリックして、プリセットに既に含まれているフィールドのみの変更を保存してください。",
+ "saveChanges/error": "プリセットへの変更の保存に失敗しました。",
+ "saveChanges.manual/description": "プリセットに含める変更を選択してください。",
+ "saveAs": "新規保存...",
+ "presetNamePlaceholder": "プリセットの名前を入力...",
+ "cannotCommitChangesLegacy": "これはレガシープリセットで変更できません。「新規保存...」を使用してコピーを作成できます。",
+ "cannotSaveChangesNoChanges": "保存する変更がありません。",
+ "emptyNoUnsaved": "プリセットを選択...",
+ "emptyWithUnsaved": "未保存のプリセット",
+ "saveEmptyWithUnsaved": "プリセットに名前を付けて保存...",
+ "saveConfirm": "保存",
+ "saveCancel": "キャンセル",
+ "saving": "保存中...",
+ "save/error": "プリセットの保存に失敗しました。",
+ "deselect": "プリセットの選択を解除",
+ "deselect/error": "プリセットの選択解除に失敗しました。",
+ "select/error": "プリセットの選択に失敗しました。",
+ "delete/error": "プリセットの削除に失敗しました。",
+ "discardChanges": "未保存を破棄",
+ "discardChanges/info": "すべての未保存の変更を破棄し、プリセットを元の状態に復元します",
+ "newEmptyPreset": "+ 新しいプリセット",
+ "importPreset": "インポート",
+ "contextMenuCopyIdentifier": "プリセット識別子をコピー",
+ "contextMenuSelect": "プリセットを適用",
+ "contextMenuDelete": "削除...",
+ "contextMenuShare": "公開...",
+ "contextMenuOpenInHub": "Webで表示",
+ "contextMenuPullFromHub": "最新を取得",
+ "contextMenuPushChanges": "変更をHubにプッシュ",
+ "contextMenuPushingChanges": "プッシュ中...",
+ "contextMenuPushedChanges": "変更がプッシュされました",
+ "contextMenuExport": "ファイルをエクスポート",
+ "contextMenuRevealInExplorer": "エクスプローラーで表示",
+ "contextMenuRevealInFinder": "Finderで表示",
+ "share": {
+ "title": "プリセットを公開",
+ "action": "他の人がダウンロード、いいね、フォークできるようにプリセットを共有します",
+ "presetOwnerLabel": "所有者",
+ "uploadAs": "あなたのプリセットは{{name}}として作成されます",
+ "presetNameLabel": "プリセット名",
+ "descriptionLabel": "説明(オプション)",
+ "loading": "公開中...",
+ "success": "プリセットの公開が完了しました",
+ "presetIsLive": "がHubで公開されました!",
+ "close": "閉じる",
+ "confirmViewOnWeb": "Webで表示",
+ "confirmCopy": "URLをコピー",
+ "confirmCopied": "コピー完了!",
+ "pushedToHub": "プリセットがHubにプッシュされました",
+ "descriptionPlaceholder": "説明を入力...",
+ "willBePublic": "このプリセットは公開されます。インターネット上の誰でも見ることができます。",
+ "willBePrivate": "このプリセットはあなたのみが表示できます",
+ "willBeOrgVisible": "このプリセットは組織内のすべてのメンバーに表示されます。",
+ "publicSubtitle": "あなたのプリセットは公開されています。他の人がlmstudio.aiでダウンロードやフォークができます",
+ "privateUsageReached": "プライベートプリセット数の上限に達しました。",
+ "continueInBrowser": "ブラウザで続行",
+ "confirmShareButton": "公開",
+ "error": "プリセットの公開に失敗しました",
+ "createFreeAccount": "Hubで無料アカウントを作成してプリセットを公開しましょう"
+ },
+ "update": {
+ "title": "変更をHubにプッシュ",
+ "title/success": "プリセットの更新が完了しました",
+ "subtitle": "に変更を加えてHubにプッシュします",
+ "descriptionLabel": "説明",
+ "descriptionPlaceholder": "説明を入力...",
+ "loading": "プッシュ中...",
+ "cancel": "キャンセル",
+ "createFreeAccount": "Hubで無料アカウントを作成してプリセットを公開しましょう",
+ "error": "更新のプッシュに失敗しました",
+ "confirmUpdateButton": "プッシュ"
+ },
+ "resolve": {
+ "title": "競合を解決...",
+ "tooltip": "Hubバージョンとの差分を解決するためのモーダルを開きます"
+ },
+ "loginToManage": {
+ "title": "管理するにはログイン..."
+ },
+ "downloadFromHub": {
+ "title": "ダウンロード",
+ "downloading": "ダウンロード中...",
+ "success": "ダウンロード完了!",
+ "error": "ダウンロードに失敗しました"
+ },
+ "push": {
+ "title": "変更をプッシュ",
+ "pushing": "プッシュ中...",
+ "success": "プッシュ完了",
+ "tooltip": "ローカルの変更をHubでホストされているリモートバージョンにプッシュします",
+ "error": "プッシュに失敗しました"
+ },
+ "saveAsNewModal": {
+ "title": "おっと!Hubでプリセットが見つかりませんでした",
+ "confirmSaveAsNewDescription": "このプリセットを新しいプリセットとして公開しますか?",
+ "confirmButton": "新規として公開"
+ },
+ "pull": {
+ "title": "最新を取得",
+ "error": "取得に失敗しました",
+ "contextMenuErrorMessage": "取得に失敗しました",
+ "success": "取得完了",
+ "pulling": "取得中...",
+ "upToDate": "最新です!",
+ "unsavedChangesModal": {
+ "title": "未保存の変更があります。",
+ "bodyContent": "リモートからの取得により、未保存の変更が上書きされます。続行しますか?",
+ "confirmButton": "未保存の変更を上書き"
+ }
+ },
+ "import": {
+ "title": "ファイルからプリセットをインポート",
+ "dragPrompt": "プリセットファイル(.tar.gz または preset.json)をドラッグ&ドロップするか、コンピューターから選択してください",
+ "remove": "削除",
+ "cancel": "キャンセル",
+ "importPreset_zero": "プリセットをインポート",
+ "importPreset_one": "プリセットをインポート",
+ "importPreset_other": "{{count}}個のプリセットをインポート",
+ "selectDialog": {
+ "title": "プリセットファイルを選択(preset.json または .tar.gz)",
+ "button": "インポート"
+ },
+ "error": "プリセットのインポートに失敗しました",
+ "resultsModal": {
+ "titleSuccessSection_one": "1個のプリセットを正常にインポートしました",
+ "titleSuccessSection_other": "{{count}}個のプリセットを正常にインポートしました",
+ "titleFailSection_zero": "",
+ "titleFailSection_one": "({{count}}個が失敗)",
+ "titleFailSection_other": "({{count}}個が失敗)",
+ "titleAllFailed": "プリセットのインポートに失敗しました",
+ "importMore": "さらにインポート",
+ "close": "完了",
+ "successBadge": "成功",
+ "alreadyExistsBadge": "プリセットは既に存在します",
+ "errorBadge": "エラー",
+ "invalidFileBadge": "無効なファイル",
+ "otherErrorBadge": "プリセットのインポートに失敗しました",
+ "errorViewDetailsButton": "詳細を表示",
+ "seeError": "エラーを確認",
+ "noName": "プリセット名なし",
+ "useInChat": "チャットで使用"
+ },
+ "importFromUrl": {
+ "button": "URLからインポート...",
+ "title": "URLからインポート",
+ "back": "ファイルからインポート...",
+ "action": "インポートしたいプリセットのLM Studio Hub URLを以下に貼り付けてください",
+ "invalidUrl": "無効なURLです。正しいLM Studio Hub URLを貼り付けていることを確認してください。",
+ "tip": "LM Studio Hubの{{buttonName}}ボタンでプリセットを直接インストールできます",
+ "confirm": "インポート",
+ "cancel": "キャンセル",
+ "loading": "インポート中...",
+ "error": "プリセットのダウンロードに失敗しました。"
+ }
+ },
+ "download": {
+ "title": "LM Studio Hubからを取得",
+ "subtitle": "をプリセットに保存します。これにより、このプリセットをアプリで使用できるようになります",
+ "button": "取得",
+ "button/loading": "取得中...",
+ "cancel": "キャンセル",
+ "error": "プリセットのダウンロードに失敗しました。"
+ },
+ "inclusiveness": {
+ "speculativeDecoding": "プリセットに含める"
+ }
+ },
+
+ "flashAttentionWarning": "Flash Attentionは一部のモデルで問題を引き起こす可能性のある実験的機能です。問題が発生した場合は、無効にしてみてください。",
+ "llamaKvCacheQuantizationWarning": "KVキャッシュ量子化は一部のモデルで問題を引き起こす可能性のある実験的機能です。Vキャッシュ量子化にはFlash Attentionを有効にする必要があります。問題が発生した場合は、デフォルトの「F16」にリセットしてください。",
+
+ "seedUncheckedHint": "ランダムシード",
+ "ropeFrequencyBaseUncheckedHint": "自動",
+ "ropeFrequencyScaleUncheckedHint": "自動",
+
+ "hardware": {
+ "environmentVariables": "環境変数",
+ "environmentVariables.info": "不明な場合は、これらをデフォルト値のままにしてください",
+ "environmentVariables.reset": "デフォルトにリセット",
+
+ "gpus.information": "マシンで検出されたグラフィックス処理装置(GPU)を設定します",
+ "gpuSettings": {
+ "editMaxCapacity": "最大容量を編集",
+ "hideEditMaxCapacity": "最大容量の編集を非表示",
+ "allOffWarning": "すべてのGPUがオフまたは無効になっています。モデルの読み込みを有効にするために、いくつかのGPU割り当てがあることを確認してください",
+ "split": {
+ "title": "戦略",
+ "placeholder": "GPUメモリ割り当てを選択",
+ "options": {
+ "generalDescription": "モデルがGPUにどのように読み込まれるかを設定します",
+ "evenly": {
+ "title": "均等に分割",
+ "description": "GPU間でメモリを均等に割り当てます"
+ },
+ "priorityOrder": {
+ "title": "優先順位",
+ "description": "ドラッグして優先順位を変更します。システムは最初にリストされたGPUにより多くを割り当てようとします"
+ },
+ "custom": {
+ "title": "カスタム",
+ "description": "メモリを割り当て",
+ "maxAllocation": "最大割り当て"
+ }
+ }
+ },
+ "deviceId.info": "このデバイスの一意識別子",
+ "changesOnlyAffectNewlyLoadedModels": "変更は新たに読み込まれるモデルにのみ影響します",
+ "toggleGpu": "GPUを有効/無効にする"
+ }
+ },
+
+ "load.gpuSplitConfig/title": "GPU分割設定",
+ "envVars/title": "環境変数を設定",
+ "envVars": {
+ "select": {
+ "placeholder": "環境変数を選択...",
+ "noOptions": "利用可能な項目がありません",
+ "filter": {
+ "placeholder": "検索結果をフィルタリング",
+ "resultsFound_zero": "結果が見つかりません",
+ "resultsFound_one": "1件の結果が見つかりました",
+ "resultsFound_other": "{{count}}件の結果が見つかりました"
+ }
+ },
+ "inputValue": {
+ "placeholder": "値を入力してください"
+ },
+ "values": {
+ "title": "現在の値"
+ }
+ }
+}
diff --git a/ja/developer.json b/ja/developer.json
index 87be85ed..b30d82a8 100644
--- a/ja/developer.json
+++ b/ja/developer.json
@@ -1,179 +1,196 @@
-{
- "tabs/server": "ローカルサーバー",
- "tabs/extensions": "LM Runtimes",
- "loadSettings/title": "設定を読み込む",
- "modelSettings/placeholder": "構成するモデルを選択",
-
- "loadedModels/noModels": "モデルが読み込まれていません",
-
- "serverOptions/title": "サーバーオプション",
- "serverOptions/configurableTitle": "構成可能なオプション",
- "serverOptions/port/hint": "ローカルサーバーが使用するネットワークポートを設定します。デフォルトでは、LM Studioはポート1234を使用します。このポートがすでに使用されている場合は、変更する必要があります。",
- "serverOptions/port/subtitle": "リッスンするポート",
- "serverOptions/autostart/title": "自動起動サーバー",
- "serverOptions/autostart/hint": "アプリまたはサービスの起動時にLM StudioのローカルLLMsサーバーを自動的にオンにします",
- "serverOptions/port/integerWarning": "ポート番号は整数である必要があります",
- "serverOptions/port/invalidPortWarning": "ポートは1から65535の間である必要があります",
- "serverOptions/cors/title": "CORSを有効にする",
- "serverOptions/cors/hint1": "CORS(Cross-origin Resource Sharing)を有効にすると、訪問するウェブサイトがLM Studioサーバーにリクエストを送信できるようになります。",
- "serverOptions/cors/hint2": "CORSは、ウェブページやVS Code / 他の拡張機能からリクエストを送信する際に必要になる場合があります。",
- "serverOptions/cors/subtitle": "クロスオリジンリクエストを許可する",
- "serverOptions/network/title": "ローカルネットワークで提供",
- "serverOptions/network/subtitle": "ネットワーク上のデバイスにサーバーを公開",
- "serverOptions/network/hint1": "ネットワーク上の他のデバイスからの接続を許可するかどうか。",
- "serverOptions/network/hint2": "チェックされていない場合、サーバーはlocalhostのみでリッスンします。",
- "serverOptions/verboseLogging/title": "詳細ログ",
- "serverOptions/verboseLogging/subtitle": "ローカルサーバーの詳細ログを有効にします",
- "serverOptions/contentLogging/title": "プロンプトとレスポンスをログに記録",
- "serverOptions/contentLogging/subtitle": "ローカルリクエスト/レスポンスのログ設定",
- "serverOptions/contentLogging/hint": "ローカルサーバーログファイルにプロンプトおよび/またはレスポンスを記録するかどうか。",
- "serverOptions/redactContent/title": "コンテンツを編集",
- "serverOptions/redactContent/hint": "有効にすると、リクエストやレスポンスの内容などの機密データがログに記録されないようにします。",
- "serverOptions/logIncomingTokens/title": "受信トークンをログに記録",
- "serverOptions/logIncomingTokens/hint": "生成中の各トークンをログに記録するかどうか。",
- "serverOptions/fileLoggingMode/title": "ファイルログモード",
- "serverOptions/fileLoggingMode/off/title": "OFF",
- "serverOptions/fileLoggingMode/off/hint": "ログファイルを作成しない",
- "serverOptions/fileLoggingMode/succinct/title": "簡潔",
- "serverOptions/fileLoggingMode/succinct/hint": "コンソールと同じ内容をログに記録します。長いリクエストは切り捨てられます。",
- "serverOptions/fileLoggingMode/full/title": "フル",
- "serverOptions/fileLoggingMode/full/hint": "長いリクエストを切り捨てないでください。",
- "serverOptions/jitModelLoading/title": "ジャストインタイムモデルロード",
- "serverOptions/jitModelLoading/hint": "有効にすると、リクエストで指定されたモデルが読み込まれていない場合、自動的に読み込まれて使用されます。さらに、\"/v1/models\"エンドポイントには、まだ読み込まれていないモデルも含まれます。",
- "serverOptions/loadModel/error": "モデルの読み込みに失敗しました",
- "serverOptions/jitModelLoadingTTL/title": "未使用のJITロードモデルを自動的にアンロード",
- "serverOptions/jitModelLoadingTTL/hint": "APIリクエストに応じてジャストインタイム(JIT)で読み込まれたモデルは、一定期間(TTL)使用されなかった場合に自動的にアンロードされます。",
- "serverOptions/jitModelLoadingTTL/ttl/label": "最大アイドルTTL",
- "serverOptions/jitModelLoadingTTL/ttl/unit": "分",
- "serverOptions/unloadPreviousJITModelOnLoad/title": "最後のJITロードモデルのみを保持",
- "serverOptions/unloadPreviousJITModelOnLoad/hint": "任意の時点でJITを介してロードされるモデルは最大1つに制限されます(以前のモデルはアンロードされます)",
-
- "serverLogs/scrollToBottom": "一番下に移動",
- "serverLogs/clearLogs": "ログをクリア ({{shortcut}})",
- "serverLogs/openLogsFolder": "サーバーログフォルダーを開く",
-
- "runtimeSettings/title": "ランタイム設定",
- "runtimeSettings/chooseRuntime/title": "選択",
- "runtimeSettings/chooseRuntime/description": "各モデルフォーマットに使用するエンジンを選択します",
- "runtimeSettings/chooseRuntime/showAllVersions/label": "すべての拡張パックを表示",
- "runtimeSettings/chooseRuntime/showAllVersions/hint": "デフォルトでは、LM Studioは各拡張パックの最新バージョンのみを表示します。このオプションを有効にすると、すべての利用可能な拡張パックが表示されます。",
- "runtimeSettings/chooseRuntime/select/placeholder": "エンジンを選択",
-
- "runtimeSettings/chooseFrameworks/title": "フレームワーク",
- "runtimeSettings/chooseFrameworks/description": "各機能に使用するフレームワークを選択してください",
- "runtimeSettings/chooseFramework/documentParser/builtIn/label": "組み込みパーサー",
- "runtimeSettings/chooseFramework/documentParser/select/label": "ドキュメントパーサー",
- "runtimeSettings/chooseFramework/documentParser/select/placeholder": "ドキュメントパーサーを選択",
-
- "runtimeOptions/uninstall": "アンインストール",
- "runtimeOptions/uninstallDialog/title": "{{runtimeName}}をアンインストールしますか?",
- "runtimeOptions/uninstallDialog/body": "このランタイムをアンインストールすると、システムから削除されます。この操作は元に戻せません。",
- "runtimeOptions/uninstallDialog/body/caveats": "一部のファイルはLM Studioの再起動後にのみ削除される場合があります。",
- "runtimeOptions/uninstallDialog/error": "ランタイムのアンインストールに失敗しました",
- "runtimeOptions/uninstallDialog/confirm": "続行してアンインストール",
- "runtimeOptions/uninstallDialog/cancel": "キャンセル",
- "runtimeOptions/noCompatibleRuntimes": "互換性のあるランタイムが見つかりません",
- "runtimeOptions/downloadIncompatibleRuntime": "このランタイムはお使いのマシンと互換性がないと判断されました。正常に動作しない可能性があります。",
- "runtimeOptions/noRuntimes": "ランタイムが見つかりません",
-
- "runtimes": {
- "manageLMRuntimes": "LMランタイムの管理",
- "includeOlderRuntimeVersions": "古いバージョンも含める",
- "dismiss": "閉じる",
- "updateAvailableToast": {
- "title": "LMランタイムのアップデートがあります!"
- },
- "updatedToast": {
- "title": " ✅ LMランタイムが更新されました: {{runtime}} → v{{version}}",
- "preferencesUpdated": "新しくロードされた{{compatibilityTypes}}モデルは更新されたランタイムを使用します。"
- },
- "noAvx2ErrorMessage": "すべてのLMランタイムは現在AVX2対応CPUが必要です",
- "downloadableRuntimes": {
- "runtimeExtensionPacks": "ランタイム拡張パック",
- "refresh": "更新",
- "refreshing": "更新中...",
- "filterSegment": {
- "compatibleOnly": "互換性のみ",
- "all": "すべて"
- },
- "card": {
- "releaseNotes": "リリースノート",
- "latestVersionInstalled": "最新バージョンがインストール済み",
- "updateAvailable": "アップデート可能"
- }
- },
- "installedRuntimes": {
- "manage": {
- "title": "アクティブランタイムの管理"
- },
- "dropdownOptions": {
- "installedVersions": "バージョン管理",
- "close": "閉じる"
- },
- "tabs": {
- "all": "すべて",
- "frameworks": "マイフレームワーク",
- "engines": "マイエンジン"
- },
- "detailsModal": {
- "installedVersions": "{{runtimeName}}のインストール済みバージョン",
- "manifestJsonTitle": "マニフェストJSON(詳細)",
- "releaseNotesTitle": "リリースノート",
- "noReleaseNotes": "このバージョンのリリースノートはありません",
- "back": "戻る",
- "close": "閉じる"
- },
- "noEngines": "エンジンがインストールされていません",
- "noFrameworks": "フレームワークがインストールされていません"
- }
- },
-
- "inferenceParams/noParams": "このモデルタイプには設定可能な推論パラメータがありません",
-
- "quickDocs": {
- "tabChipTitle": "クイックドキュメント",
- "newToolUsePopover": "コードスニペットが\"クイックドキュメント\"で利用可能になりました。ツールの使い方はこちらをクリック!",
- "newToolUsePopoverTitle": "📚 クイックドキュメント",
- "learnMore": "ℹ️ 👾 LM Studioローカルサーバーのエンドポイントについて詳しくは[ドキュメント](https://lmstudio.ai/docs)をご覧ください。",
- "helloWorld": {
- "title": "Hello, World!"
- },
- "chat": {
- "title": "チャット"
- },
- "structuredOutput": {
- "title": "構造化出力"
- },
- "imageInput": {
- "title": "画像入力"
- },
- "embeddings": {
- "title": "埋め込み"
- },
- "toolUse": {
- "title": "ツール利用",
- "tab": {
- "saveAsPythonFile": "Pythonファイルとして保存",
- "runTheScript": "スクリプトを実行:",
- "savePythonFileCopyPaste": "コピペ用Pythonファイルとして保存"
- }
- },
- "newBadge": "新規"
- },
-
- "endpoints/openaiCompatRest/title": "対応エンドポイント(OpenAI互換)",
- "endpoints/openaiCompatRest/getModels": "現在ロードされているモデル一覧",
- "endpoints/openaiCompatRest/postCompletions": "テキスト補完モード。プロンプトに基づき次のトークンを予測します。※OpenAIではこのエンドポイントは非推奨です。",
- "endpoints/openaiCompatRest/postChatCompletions": "チャット補完。チャット履歴をモデルに送信し、次のアシスタント応答を予測します",
- "endpoints/openaiCompatRest/postEmbeddings": "テキスト埋め込み。指定したテキスト入力に対して埋め込みベクトルを生成します。文字列または文字列配列を受け付けます。",
-
- "model.createVirtualModelFromInstance": "設定を新しい仮想モデルとして保存",
- "model.createVirtualModelFromInstance/error": "設定の仮想モデル保存に失敗しました",
-
- "model": {
- "toolUseSectionTitle": "ツール利用",
- "toolUseDescription": "このモデルはツール利用向けに訓練されています\n\n詳細はクイックドキュメントをご覧ください"
- },
-
- "apiConfigOptions/title": "API設定"
-}
+{
+ "tabs/server": "ローカルサーバー",
+ "tabs/extensions": "LM Runtimes",
+ "loadSettings/title": "設定を読み込む",
+ "modelSettings/placeholder": "構成するモデルを選択",
+
+ "loadedModels/noModels": "モデルが読み込まれていません",
+
+ "serverOptions/title": "サーバーオプション",
+ "serverOptions/configurableTitle": "構成可能なオプション",
+ "serverOptions/port/hint": "ローカルサーバーが使用するネットワークポートを設定します。デフォルトでは、LM Studioはポート1234を使用します。このポートがすでに使用されている場合は、変更する必要があります。",
+ "serverOptions/port/subtitle": "リッスンするポート",
+ "serverOptions/autostart/title": "自動起動サーバー",
+ "serverOptions/autostart/hint": "アプリまたはサービスの起動時にLM StudioのローカルLLMsサーバーを自動的にオンにします",
+ "serverOptions/port/integerWarning": "ポート番号は整数である必要があります",
+ "serverOptions/port/invalidPortWarning": "ポートは1から65535の間である必要があります",
+ "serverOptions/cors/title": "CORSを有効にする",
+ "serverOptions/cors/hint1": "CORS(Cross-origin Resource Sharing)を有効にすると、訪問するウェブサイトがLM Studioサーバーにリクエストを送信できるようになります。",
+ "serverOptions/cors/hint2": "CORSは、ウェブページやVS Code / 他の拡張機能からリクエストを送信する際に必要になる場合があります。",
+ "serverOptions/cors/subtitle": "クロスオリジンリクエストを許可する",
+ "serverOptions/network/title": "ローカルネットワークで提供",
+ "serverOptions/network/subtitle": "ネットワーク上のデバイスにサーバーを公開",
+ "serverOptions/network/hint1": "ネットワーク上の他のデバイスからの接続を許可するかどうか。",
+ "serverOptions/network/hint2": "チェックされていない場合、サーバーはlocalhostのみでリッスンします。",
+ "serverOptions/verboseLogging/title": "詳細ログ",
+ "serverOptions/verboseLogging/subtitle": "ローカルサーバーの詳細ログを有効にします",
+ "serverOptions/contentLogging/title": "プロンプトとレスポンスをログに記録",
+ "serverOptions/contentLogging/subtitle": "ローカルリクエスト/レスポンスのログ設定",
+ "serverOptions/contentLogging/hint": "ローカルサーバーログファイルにプロンプトおよび/またはレスポンスを記録するかどうか。",
+ "serverOptions/redactContent/title": "コンテンツを編集",
+ "serverOptions/redactContent/hint": "有効にすると、リクエストやレスポンスの内容などの機密データがログに記録されないようにします。",
+ "serverOptions/logIncomingTokens/title": "受信トークンをログに記録",
+ "serverOptions/logIncomingTokens/hint": "生成中の各トークンをログに記録するかどうか。",
+ "serverOptions/fileLoggingMode/title": "ファイルログモード",
+ "serverOptions/fileLoggingMode/off/title": "OFF",
+ "serverOptions/fileLoggingMode/off/hint": "ログファイルを作成しない",
+ "serverOptions/fileLoggingMode/succinct/title": "簡潔",
+ "serverOptions/fileLoggingMode/succinct/hint": "コンソールと同じ内容をログに記録します。長いリクエストは切り捨てられます。",
+ "serverOptions/fileLoggingMode/full/title": "フル",
+ "serverOptions/fileLoggingMode/full/hint": "長いリクエストを切り捨てないでください。",
+ "serverOptions/jitModelLoading/title": "ジャストインタイムモデルロード",
+ "serverOptions/jitModelLoading/hint": "有効にすると、リクエストで指定されたモデルが読み込まれていない場合、自動的に読み込まれて使用されます。さらに、\"/v1/models\"エンドポイントには、まだ読み込まれていないモデルも含まれます。",
+ "serverOptions/loadModel/error": "モデルの読み込みに失敗しました",
+ "serverOptions/jitModelLoadingTTL/title": "未使用のJITロードモデルを自動的にアンロード",
+ "serverOptions/jitModelLoadingTTL/hint": "APIリクエストに応じてジャストインタイム(JIT)で読み込まれたモデルは、一定期間(TTL)使用されなかった場合に自動的にアンロードされます。",
+ "serverOptions/jitModelLoadingTTL/ttl/label": "最大アイドルTTL",
+ "serverOptions/jitModelLoadingTTL/ttl/unit": "分",
+ "serverOptions/unloadPreviousJITModelOnLoad/title": "最後のJITロードモデルのみを保持",
+ "serverOptions/unloadPreviousJITModelOnLoad/hint": "任意の時点でJITを介してロードされるモデルは最大1つに制限されます(以前のモデルはアンロードされます)",
+ "serverOptions/allowMcp/title": "MCPを許可",
+ "serverOptions/allowMcp/hint": "サーバーリクエストがMCPを使用できるようにする方法を選択します。MCPサーバーのインストールと使用には常に注意してください。安全でない可能性があります。",
+ "serverOptions/allowMcp/mode/off": "オフ",
+ "serverOptions/allowMcp/mode/off/hint": "サーバーリクエストがMCPを使用することを許可しない",
+ "serverOptions/allowMcp/mode/remote": "リモート",
+ "serverOptions/allowMcp/mode/remote/hint": "リモートMCPサーバーへの接続を許可する",
+
+ "serverOptions/start/error": "サーバーの起動に失敗しました",
+ "serverOptions/stop/error": "サーバーの停止に失敗しました",
+
+ "serverLogs/scrollToBottom": "一番下に移動",
+ "serverLogs/clearLogs": "ログをクリア ({{shortcut}})",
+ "serverLogs/openLogsFolder": "サーバーログフォルダーを開く",
+
+ "runtimeSettings/title": "ランタイム設定",
+ "runtimeSettings/chooseRuntime/title": "選択",
+ "runtimeSettings/chooseRuntime/description": "各モデルフォーマットに使用するエンジンを選択します",
+ "runtimeSettings/chooseRuntime/showAllVersions/label": "すべての拡張パックを表示",
+ "runtimeSettings/chooseRuntime/showAllVersions/hint": "デフォルトでは、LM Studioは各拡張パックの最新バージョンのみを表示します。このオプションを有効にすると、すべての利用可能な拡張パックが表示されます。",
+ "runtimeSettings/chooseRuntime/select/placeholder": "エンジンを選択",
+
+ "runtimeSettings/chooseFrameworks/title": "フレームワーク",
+ "runtimeSettings/chooseFrameworks/description": "各機能に使用するフレームワークを選択してください",
+ "runtimeSettings/chooseFramework/documentParser/builtIn/label": "組み込みパーサー",
+ "runtimeSettings/chooseFramework/documentParser/select/label": "ドキュメントパーサー",
+ "runtimeSettings/chooseFramework/documentParser/select/placeholder": "ドキュメントパーサーを選択",
+
+ "runtimeOptions/uninstall": "アンインストール",
+ "runtimeOptions/uninstallDialog/title": "{{runtimeName}}をアンインストールしますか?",
+ "runtimeOptions/uninstallDialog/body": "このランタイムをアンインストールすると、システムから削除されます。この操作は元に戻せません。",
+ "runtimeOptions/uninstallDialog/body/caveats": "一部のファイルはLM Studioの再起動後にのみ削除される場合があります。",
+ "runtimeOptions/uninstallDialog/error": "ランタイムのアンインストールに失敗しました",
+ "runtimeOptions/uninstallDialog/confirm": "続行してアンインストール",
+ "runtimeOptions/uninstallDialog/cancel": "キャンセル",
+ "runtimeOptions/noCompatibleRuntimes": "互換性のあるランタイムが見つかりません",
+ "runtimeOptions/downloadIncompatibleRuntime": "このランタイムはお使いのマシンと互換性がないと判断されました。正常に動作しない可能性があります。",
+ "runtimeOptions/noRuntimes": "ランタイムが見つかりません",
+
+ "runtimes": {
+ "manageLMRuntimes": "LMランタイムの管理",
+ "includeOlderRuntimeVersions": "古いバージョンも含める",
+ "dismiss": "閉じる",
+ "updateAvailableToast": {
+ "title": "LMランタイムのアップデートがあります!"
+ },
+ "updatedToast": {
+ "title": " ✅ LMランタイムが更新されました: {{runtime}} → v{{version}}",
+ "preferencesUpdated": "新しくロードされた{{compatibilityTypes}}モデルは更新されたランタイムを使用します。"
+ },
+ "noAvx2ErrorMessage": "すべてのLMランタイムは現在AVX2対応CPUが必要です",
+ "downloadableRuntimes": {
+ "runtimeExtensionPacks": "ランタイム拡張パック",
+ "refresh": "更新",
+ "refreshing": "更新中...",
+ "filterSegment": {
+ "compatibleOnly": "互換性のみ",
+ "all": "すべて"
+ },
+ "card": {
+ "releaseNotes": "リリースノート",
+ "latestVersionInstalled": "最新バージョンがインストール済み",
+ "updateAvailable": "アップデート可能"
+ }
+ },
+ "installedRuntimes": {
+ "manage": {
+ "title": "アクティブランタイムの管理"
+ },
+ "dropdownOptions": {
+ "installedVersions": "バージョン管理",
+ "close": "閉じる"
+ },
+ "tabs": {
+ "all": "すべて",
+ "frameworks": "マイフレームワーク",
+ "engines": "マイエンジン"
+ },
+ "detailsModal": {
+ "installedVersions": "{{runtimeName}}のインストール済みバージョン",
+ "manifestJsonTitle": "マニフェストJSON(詳細)",
+ "releaseNotesTitle": "リリースノート",
+ "noReleaseNotes": "このバージョンのリリースノートはありません",
+ "back": "戻る",
+ "close": "閉じる"
+ },
+ "noEngines": "エンジンがインストールされていません",
+ "noFrameworks": "フレームワークがインストールされていません"
+ }
+ },
+
+ "inferenceParams/noParams": "このモデルタイプには設定可能な推論パラメータがありません",
+
+ "quickDocs": {
+ "tabChipTitle": "クイックドキュメント",
+ "newToolUsePopover": "コードスニペットが\"クイックドキュメント\"で利用可能になりました。ツールの使い方はこちらをクリック!",
+ "newToolUsePopoverTitle": "📚 クイックドキュメント",
+ "learnMore": "ℹ️ 👾 LM Studioローカルサーバーのエンドポイントについて詳しくは[ドキュメント](https://lmstudio.ai/docs)をご覧ください。",
+ "helloWorld": {
+ "title": "Hello, World!"
+ },
+ "chat": {
+ "title": "チャット"
+ },
+ "structuredOutput": {
+ "title": "構造化出力"
+ },
+ "imageInput": {
+ "title": "画像入力"
+ },
+ "embeddings": {
+ "title": "埋め込み"
+ },
+ "toolUse": {
+ "title": "ツール利用",
+ "tab": {
+ "saveAsPythonFile": "Pythonファイルとして保存",
+ "runTheScript": "スクリプトを実行:",
+ "savePythonFileCopyPaste": "コピペ用Pythonファイルとして保存"
+ }
+ },
+ "newBadge": "新規"
+ },
+
+ "endpoints/openaiCompatRest/title": "対応エンドポイント{{extra}}",
+ "endpoints/openaiCompatRest/segmentedLabel": "OpenAI互換",
+ "endpoints/openaiCompatRest/getModels": "現在ロードされているモデル一覧",
+ "endpoints/openaiCompatRest/postCompletions": "テキスト補完モード。プロンプトに基づき次のトークンを予測します。※OpenAIではこのエンドポイントは非推奨です。",
+ "endpoints/openaiCompatRest/postChatCompletions": "チャット補完。チャット履歴をモデルに送信し、次のアシスタント応答を予測します",
+ "endpoints/openaiCompatRest/postEmbeddings": "テキスト埋め込み。指定したテキスト入力に対して埋め込みベクトルを生成します。文字列または文字列配列を受け付けます。",
+ "endpoints/openaiCompatRest/postResponses": "高度なインターフェース。前回の応答のIDを次の入力として渡すことで状態を持つ対話を作成します。",
+ "endpoints/lmStudioRest/segmentedLabel": "LM Studio",
+ "endpoints/lmStudioRestV1/getModels": "利用可能なモデルの一覧を取得",
+ "endpoints/lmStudioRestV1/postModelsLoad": "オプション付きでモデルを読み込む",
+ "endpoints/lmStudioRestV1/postModelsDownload": "モデルをダウンロードする",
+ "endpoints/lmStudioRestV1/postChat": "モデルとチャットする。状態を持つマルチターン会話とMCPをサポート",
+ "endpoints/lmStudioRestV1/getModelsDownloadStatus": "モデルダウンロードの状態を取得する",
+
+ "model.createVirtualModelFromInstance": "設定を新しい仮想モデルとして保存",
+ "model.createVirtualModelFromInstance/error": "設定の仮想モデル保存に失敗しました",
+
+ "model": {
+ "toolUseSectionTitle": "ツール利用",
+ "toolUseDescription": "このモデルはツール利用向けに訓練されています\n\n詳細はクイックドキュメントをご覧ください"
+ },
+
+ "apiConfigOptions/title": "API設定"
+}
diff --git a/ja/models.json b/ja/models.json
index fb8d9821..d6e22ba3 100644
--- a/ja/models.json
+++ b/ja/models.json
@@ -1,115 +1,132 @@
-{
- "pageTitle": "マイモデル",
- "filterModels.placeholder": "モデルをフィルタ...",
- "aggregate_one": "ローカルモデルが{{count}}つあり、ディスクスペースを{{size}}使用しています。",
- "aggregate_other": "ローカルモデルが{{count}}つあり、ディスクスペースを{{size}}使用しています。",
-
- "noModels.title": "ローカルモデルはここに表示されます。",
- "noModels.discoverButtonText.prefix": "左のサイドバーの",
- "noModels.discoverButtonText.suffix": "ボタンをクリックして、ダウンロードする興味深いLLMを見つけてください。",
- "noModels.discoverModelsPrompt": "ローカルLLMを探索してください!",
-
- "modelsTable.arch/label": "アーキテクチャ",
- "modelsTable.params/label": "パラメータ",
- "modelsTable.publisher/label": "発行者",
- "modelsTable.displayName/label": "名前",
- "modelsTable.modelKey/label": "モデルキー",
- "modelsTable.size/label": "サイズ",
- "modelsTable.dateModified/label": "最終更新日",
- "modelsTable.actions/label": "アクション",
-
- "modelsTable.quant/label": "量子化",
- "modelsTable.llms/label": "LLM",
- "modelsTable.embeddingModels/label": "埋め込みモデル",
-
- "action.model.delete": "削除",
- "action.model.delete.full": "モデルを削除",
- "action.model.delete.confirmation/title": "{{name}}を削除",
- "action.model.delete.confirmation/description": "本当に削除しますか?これにより、このモデルに関連付けられたすべてのファイルがマシンから永久に削除されます。この操作は元に戻せません。",
- "action.model.delete.confirmation/confirm": "削除",
- "action.model.delete/error": "モデルの削除に失敗しました",
-
- "loader.model.bundled": "バンドル済み",
- "action.cancel": "キャンセル",
- "indexingOngoing": "モデルをインデックス中... しばらくお待ちください",
- "index/error_one": "次のフォルダーのインデックス作成に失敗しました:",
- "index/error_other": "次のフォルダーのインデックス作成に失敗しました:",
- "badModels/title_one": "次のモデルのインデックス作成に失敗しました:",
- "badModels/title_other": "次のモデルのインデックス作成に失敗しました:",
- "badModels.virtualModelIncorrectPlacement": "仮想モデルの配置が正しくありません。{{expected}}にあるべきです。{{actual}}にあります。",
- "badModels.virtualModelBadManifest": "無効な仮想モデルマニフェスト (model.yaml):",
- "unresolvedVirtualModels/title_one": "次の仮想モデルの解決に失敗しました:",
- "unresolvedVirtualModels/title_other": "次の仮想モデルの解決に失敗しました:",
- "unresolvedVirtualModels.missingModel": "依存モデルが見つかりません: {{missing}}。依存関係パス:\n{{chain}}",
- "unresolvedVirtualModels.circular": "循環依存関係が検出されました。",
- "unresolvedVirtualModels.fix": "修正",
- "unresolvedVirtualModels.revealInExplorer": "エクスプローラーで表示",
- "unresolvedVirtualModels.revealInFinder": "Finderで表示",
- "unresolvedVirtualModels.reveal/error": "表示に失敗しました",
-
- "modelsDirectory": "モデルディレクトリ",
- "modelsDirectory.change": "変更...",
- "modelsDirectory.change/error": "モデルディレクトリの変更に失敗しました",
- "modelsDirectory.reset": "デフォルトパスにリセット",
- "modelsDirectory.reveal.mac": "Finderで表示",
- "modelsDirectory.reveal.nonMac": "ファイルエクスプローラーで表示",
- "modelsDirectory.reveal.mac/error": "Finderで表示できませんでした",
- "modelsDirectory.reveal.nonMac/error": "ファイルエクスプローラーで表示できませんでした",
- "modelsDirectory.forceReindex": "更新",
- "loadState/loaded": "読み込み完了",
- "loadState/loading": "読み込み中",
- "loadState/unloaded": "未読み込み",
- "loadState/unloading": "読み込み解除中",
- "loadState/idle": "アイドル",
- "pinned": "このモデルはピン留めされています。右クリックしてピン留めを解除します。",
- "lastUsed": "最終使用",
- "contextMenu/pin": "上にピン留め",
- "contextMenu/unpin": "ピン留めを解除",
- "contextMenu/copyAbsolutePath": "絶対パスをコピー",
- "contextMenu/copyModelName": "モデル名をコピー",
- "contextMenu/copyModelDefaultIdentifier": "デフォルト識別子をコピー",
- "contextMenu/showRawMetadata": "生のメタデータを表示",
- "contextMenu/openOnHuggingFace": "Hugging Faceで開く",
- "contextMenu": {
- "showOnWeb": "Webで表示",
- "pullLatest": {
- "label": "最新を取得",
- "checking": "更新を確認中...",
- "upToDate": "最新の状態です",
- "error": "更新の確認に失敗しました"
- }
- },
- "tooltip/moreActions": "その他のアクション",
- "tooltip/getInfo": "情報を取得",
- "tooltip/editModelDefaultConfig": "モデルのデフォルト設定を編集",
- "tooltip/editModelDefaultConfig/override": "モデルのデフォルト設定を編集 (* はオーバーライドがあります)",
- "tooltip/visionBadge": "このモデルは画像入力を処理できます",
- "tooltip/toolUseBadge": "このモデルはツール使用のためにトレーニングされています",
-
- "visionBadge/label": "Vision は有効です",
- "toolUseBadge/label": "ツール使用のためにトレーニングされています",
-
- "loader.action.load": "モデルを読み込む",
- "loader.action.clearChanges": "変更をクリア",
- "loader.action.cancel": "キャンセル",
- "loader.info.clickOnModelToLoad": "モデルをクリックして読み込みます",
- "loader.info.configureLoadParameters": "モデルの読み込みパラメーターを設定します",
- "loader.info.activeGeneratorWarning": "カスタムジェネレーターを使用しているプラグインを使用しています。このプラグインに応じて、現在読み込まれているモデルが適用される場合とされない場合があります",
-
- "virtual": {
- "local": {
- "create": "仮想モデルを作成",
- "title": "ローカル仮想モデルを作成",
- "description": "モデルを一連の構成とバンドルすることで仮想モデルを作成します。基盤となる重みは複製されません。",
- "modelKey.label": "モデルキー",
- "modelKey.placeholder": "一意のモデルキーを入力",
- "modelKey.normalized": "モデルキーは次のように正規化されます: {{normalized}}",
- "baseModel.label": "ベースモデル",
- "baseModel.placeholder": "ベースモデルを選択",
- "baseModel.empty": "ベースモデルとして使用するモデルをダウンロード",
- "next": "次へ",
- "confirm": "作成",
- "error": "仮想モデルの作成に失敗しました"
- }
- }
-}
+{
+ "pageTitle": "マイモデル",
+ "filterModels.placeholder": "モデルをフィルタ...",
+ "aggregate_one": "ローカルモデルが{{count}}つあり、ディスクスペースを{{size}}使用しています。",
+ "aggregate_other": "ローカルモデルが{{count}}つあり、ディスクスペースを{{size}}使用しています。",
+
+ "noModels.title": "ローカルモデルはここに表示されます。",
+ "noModels.discoverButtonText.prefix": "左のサイドバーの",
+ "noModels.discoverButtonText.suffix": "ボタンをクリックして、ダウンロードする興味深いLLMを見つけてください。",
+ "noModels.discoverModelsPrompt": "ローカルLLMを探索してください!",
+
+ "modelsTable.arch/label": "アーキテクチャ",
+ "modelsTable.params/label": "パラメータ",
+ "modelsTable.publisher/label": "発行者",
+ "modelsTable.displayName/label": "名前",
+ "modelsTable.modelKey/label": "モデルキー",
+ "modelsTable.size/label": "サイズ",
+ "modelsTable.dateModified/label": "最終更新日",
+ "modelsTable.actions/label": "アクション",
+
+ "modelsTable.quant/label": "量子化",
+ "modelsTable.llms/label": "LLM",
+ "modelsTable.embeddingModels/label": "埋め込みモデル",
+
+ "action.model.delete": "削除",
+ "action.model.delete.full": "モデルを削除",
+ "action.model.delete.confirmation/title": "{{name}}を削除",
+ "action.model.delete.confirmation/description": "本当に削除しますか?これにより、このモデルに関連付けられたすべてのファイルがマシンから永久に削除されます。この操作は元に戻せません。",
+ "action.model.delete.confirmation/confirm": "削除",
+ "action.model.delete/error": "モデルの削除に失敗しました",
+
+ "loader.model.bundled": "バンドル済み",
+ "action.cancel": "キャンセル",
+ "indexingOngoing": "モデルをインデックス中... しばらくお待ちください",
+ "indexingPageLoaderText": "モデルをインデックス中...",
+ "index/error_one": "次のフォルダーのインデックス作成に失敗しました:",
+ "index/error_other": "次のフォルダーのインデックス作成に失敗しました:",
+ "badModels/title_one": "次のモデルのインデックス作成に失敗しました:",
+ "badModels/title_other": "次のモデルのインデックス作成に失敗しました:",
+ "badModels.virtualModelIncorrectPlacement": "仮想モデルの配置が正しくありません。{{expected}}にあるべきです。{{actual}}にあります。",
+ "badModels.virtualModelBadManifest": "無効な仮想モデルマニフェスト (model.yaml):",
+ "unresolvedVirtualModels/title_one": "次の仮想モデルの解決に失敗しました:",
+ "unresolvedVirtualModels/title_other": "次の仮想モデルの解決に失敗しました:",
+ "unresolvedVirtualModels.missingModel": "依存モデルが見つかりません: {{missing}}。依存関係パス:\n{{chain}}",
+ "unresolvedVirtualModels.circular": "循環依存関係が検出されました。",
+ "unresolvedVirtualModels.fix": "修正",
+ "unresolvedVirtualModels.revealInExplorer": "エクスプローラーで表示",
+ "unresolvedVirtualModels.revealInFinder": "Finderで表示",
+ "unresolvedVirtualModels.reveal/error": "表示に失敗しました",
+
+ "modelsDirectory": "モデルディレクトリ",
+ "modelsDirectory.change": "変更...",
+ "modelsDirectory.change/error": "モデルディレクトリの変更に失敗しました",
+ "modelsDirectory.reset": "デフォルトパスにリセット",
+ "modelsDirectory.reveal.mac": "Finderで表示",
+ "modelsDirectory.reveal.nonMac": "ファイルエクスプローラーで表示",
+ "modelsDirectory.reveal.mac/error": "Finderで表示できませんでした",
+ "modelsDirectory.reveal.nonMac/error": "ファイルエクスプローラーで表示できませんでした",
+ "modelsDirectory.forceReindex": "更新",
+ "loadState/loaded": "読み込み完了",
+ "loadState/loading": "読み込み中",
+ "loadState/unloaded": "未読み込み",
+ "loadState/unloading": "読み込み解除中",
+ "loadState/idle": "アイドル",
+ "pinned": "このモデルはピン留めされています。右クリックしてピン留めを解除します。",
+ "lastUsed": "最終使用",
+ "contextMenu/pin": "上にピン留め",
+ "contextMenu/unpin": "ピン留めを解除",
+ "contextMenu/copyAbsolutePath": "絶対パスをコピー",
+ "contextMenu/copyModelName": "モデル名をコピー",
+ "contextMenu/copyModelDefaultIdentifier": "デフォルト識別子をコピー",
+ "contextMenu/showRawMetadata": "生のメタデータを表示",
+ "contextMenu/openOnHuggingFace": "Hugging Faceで開く",
+ "contextMenu": {
+ "showOnWeb": "Webで表示",
+ "pullLatest": {
+ "label": "最新を取得",
+ "checking": "更新を確認中...",
+ "upToDate": "最新の状態です",
+ "error": "更新の確認に失敗しました"
+ }
+ },
+ "tooltip/moreActions": "その他のアクション",
+ "tooltip/getInfo": "情報を取得",
+ "tooltip/editModelDefaultConfig": "モデルのデフォルト設定を編集",
+ "tooltip/editModelDefaultConfig/override": "モデルのデフォルト設定を編集 (* はオーバーライドがあります)",
+ "tooltip/visionBadge": "このモデルは画像入力を処理できます",
+ "tooltip/toolUseBadge": "このモデルはツール使用のためにトレーニングされています",
+
+ "visionBadge/label": "Vision は有効です",
+ "toolUseBadge/label": "ツール使用のためにトレーニングされています",
+
+ "loader.action.load": "モデルを読み込む",
+ "loader.action.clearChanges": "変更をクリア",
+ "loader.action.cancel": "キャンセル",
+ "loader.info.clickOnModelToLoad": "モデルをクリックして読み込みます",
+ "loader.info.configureLoadParameters": "モデルの読み込みパラメーターを設定します",
+ "loader.info.activeGeneratorWarning": "カスタムジェネレーターを使用しているプラグインを使用しています。このプラグインに応じて、現在読み込まれているモデルが適用される場合とされない場合があります",
+ "loader.guardrails.estimatedMemoryUsage": "推定メモリ使用量:",
+ "loader.guardrails.total": "計",
+ "loader.guardrails.gpu": "GPU",
+ "loader.guardrails.unavailable": "このモデルのメモリ推定値は利用できません",
+ "loader.guardrails.notEnoughResources": "現在の設定でモデルを読み込むためのリソースが不足しています",
+ "loader.guardrails.notEnoughResources/moreInfo": "詳細情報",
+ "loader.guardrails.notEnoughResources.moreInfoSection.appearsNotEnoughMemory": "システムにこのモデルを読み込むのに十分なメモリがないようです。",
+ "loader.guardrails.notEnoughResources.moreInfoSection.conditionalEstimate": "推定では のメモリが必要です。",
+ "loader.guardrails.notEnoughResources.moreInfoSection.ifYouBelieveThisIsIncorrect": "設定でモデルの読み込みガードレールを調整するか、 を押しながら読み込むことができます。",
+ "loader.guardrails.notEnoughResources.moreInfoSection.note": "注: 大きすぎるモデルを読み込むと、システムがオーバーロードされてフリーズする可能性があります。",
+
+ "virtual": {
+ "local": {
+ "create": "仮想モデルを作成",
+ "title": "ローカル仮想モデルを作成",
+ "description": "モデルを一連の構成とバンドルすることで仮想モデルを作成します。基盤となる重みは複製されません。",
+ "modelKey.label": "モデルキー",
+ "modelKey.placeholder": "一意のモデルキーを入力",
+ "modelKey.normalized": "モデルキーは次のように正規化されます: {{normalized}}",
+ "baseModel.label": "ベースモデル",
+ "baseModel.placeholder": "ベースモデルを選択",
+ "baseModel.empty": "ベースモデルとして使用するモデルをダウンロード",
+ "next": "次へ",
+ "confirm": "作成",
+ "error": "仮想モデルの作成に失敗しました"
+ },
+ "altsSelect": {
+ "title": "モデルソースを切り替え",
+ "resetButton": "デフォルトにリセット",
+ "description": "このモデルには複数の利用可能なソースファイルがあります。",
+ "trigger": "バリアント"
+ }
+ }
+}
diff --git a/ja/settings.json b/ja/settings.json
index 5b96a6c8..78222f4d 100644
--- a/ja/settings.json
+++ b/ja/settings.json
@@ -1,195 +1,214 @@
-{
- "settingsDialogTitle": "設定",
- "settingsDialogButtonTooltip": "設定",
- "accountDialogButtonTooltip": "アカウント",
-
- "settingsNewButtonPopover": {
- "primary": "設定は右下隅に移動しました",
- "secondary": "⚙️ ボタンをクリックして開きます。",
- "tertiary": "または、次を押します"
- },
- "appUpdate": "アプリの更新",
- "checkingAppUpdate": "更新を確認中...",
- "checkForUpdates": "更新を確認",
- "failedCheckingAppUpdate": "更新の確認に失敗しました",
- "newUpdateAvailable": "LM Studioの新しいバージョンが利用可能です! 🎉",
- "newBetaUpdateAvailable": "LM Studioの新しいベータ版が利用可能です! 🛠️🎉",
- "downloadingInProgress": "更新をダウンロード中...",
- "downloadUpdate": "LM Studio {{version}}に更新",
- "downloadBetaUpdate": "LM Studio Beta {{version}} (build {{build}})に更新",
- "downloadCompleted": "ダウンロード完了!",
- "updateDownloadComplete": "LM Studioの更新が準備完了です",
- "updateDownloadFailed": "更新に失敗しました!",
- "hasFinishedDownloading": "ダウンロードが完了しました。",
- "yourCurrentVersion": "現在のバージョン:",
- "latestVersion": "最新バージョン:",
- "downloadLabel": "今すぐ更新",
- "downloadLabel/Linux": "更新をダウンロード",
- "cancelDownloadLabel": "キャンセル",
- "downloadingUpdate": "ダウンロード中 {{item}}...",
- "updateDownloaded": "アプリを再起動して更新を適用する必要があります",
- "restartAppToUpdate": "アプリを再起動して更新を適用します",
- "appUpdatedToastTitle": "{{title}}に更新されました",
- "appUpdatedToastDescriptionPrefix": "を表示",
- "AppUpdatedToastDescriptionReleaseNotes": "リリースノート",
- "toolUseToastTitle": "ベータの新機能: Tool Use と Function Calls API",
- "toolUseToastDescription": "Llama 3.1/3.2、Mistral、Qwen などの一部モデルで OpenAI Tool Use をそのまま置き換えて利用できます。",
- "toolUseToastButtonText": "開発者ページに行き試してみる",
- "doItLater": "後でやります",
- "failedToUpdate": "アプリの更新に失敗しました。インターネット接続を再確認するか、後でもう一度お試しください。",
- "retryInBackground": "バックグラウンドで再試行",
- "laterLabel": "後で",
- "releaseNotesLabel": "リリースノート",
- "remindMeLater": "後でリマインド",
- "failedDownloadUpdate": "更新のダウンロードに失敗しました",
- "installAndRelaunch": "インストールして再起動",
- "uptodate": "すべて最新の状態です! 現在のバージョンは {{version}} です",
- "preferences": "設定",
- "general": "一般",
- "sideButtonLabels": "サイドボタンのラベルを表示",
- "showModelFileNames": "マイモデル: 常に完全なモデルファイル名を表示",
- "colorThemeLabel": "カラーテーマ",
- "complexityLevelLabel": "ユーザーインターフェースの複雑さレベル",
- "selectComplexityLevelPlaceholder": "デフォルトのUI複雑さレベルを選択",
- "userComplexityLevelLabel": "ユーザー",
- "powerUserComplexityLevelLabel": "パワーユーザー",
- "developerComplexityLevelLabel": "開発者",
- "chatSettingsLabel": "チャット設定",
- "chat/alwaysShowPromptTemplate": "チャットサイドバーにプロンプトテンプレートを常に表示",
- "chat/highlightChatMessageOnHover": "チャットメッセージにカーソルを合わせたときにハイライト",
- "chat/doubleClickMessageToEdit": "チャットメッセージをダブルクリックして編集",
-
- "chat/aiNaming/label": "AI に名前をつける",
- "chat/aiNaming/mode/label": "AI生成チャット名",
- "chat/aiNaming/mode/value/never": "しない",
- "chat/aiNaming/mode/value/never/subTitle": "AI生成チャット名を作成しない",
- "chat/aiNaming/mode/value/auto": "自動",
- "chat/aiNaming/mode/value/auto/subTitle": "生成速度に基づいて名前を作成するかどうかを決定",
- "chat/aiNaming/mode/value/always": "常に",
- "chat/aiNaming/mode/value/always/subTitle": "生成速度に関係なくAI生成チャット名を作成する",
- "chat/aiNaming/emoji": "AI生成チャット名に絵文字を使用",
- "chat/keyboardShortcuts/label": "キーボードショートカット",
- "chat/keyboardShortcuts/verbPrefix": "使用",
- "chat/keyboardShortcuts/regenerate": "最後のメッセージを再生成する",
- "chat/keyboardShortcuts/sendMessage": "メッセージを送信する",
-
- "onboarding/blockTitle": "オンボーディングヒント",
- "onboarding/dismissedHints": "無視されたオンボーディングヒント",
- "onboarding/resetHintTooltip": "このオンボーディングヒントを再度有効にするにはクリックしてください",
- "onboarding/resetAllHints": "すべてのオンボーディングヒントをリセット",
- "onboarding/noneDismissed": "無視されたヒントはありません。現在、すべてのオンボーディングヘルプヒントが次に無視されるまで表示されます",
-
- "firstTimeExperienceLabel": "チャット初回体験",
- "firstTimeExperienceMarkCompletedLabel": "完了としてマーク",
- "firstTimeExperienceResetLabel": "リセット",
- "showPromptSuggestionsLabel": "新しいチャットを作成するときにプロンプトの提案を表示",
- "darkThemeLabel": "ダーク",
- "lightThemeLabel": "ライト",
- "systemThemeLabel": "自動",
- "sepiaThemeLabel": "セピア",
- "unloadPreviousModelLabel": "モデルを選択する際は、最初に現在読み込まれているモデルをアンロードしてください",
- "languageLabel": "言語",
- "changeLanguageLabel": "アプリの言語を選択 (まだ開発中)",
- "developerLabel": "開発者",
- "localServiceLabel": "ローカルLLMサービス (ヘッドレス)",
- "showExperimentalFeaturesLabel": "実験的機能を表示",
- "appFirstLoadLabel": "アプリ初回ロード体験",
- "showDebugInfoBlocksInChatLabel": "チャットにデバッグ情報ブロックを表示",
- "autoLoadBundledLLMLabel": "起動時にバンドルされたLLMモデルを自動ロード",
- "showReleaseNotes": "リリースノートを表示",
- "hideReleaseNotes": "リリースノートを非表示",
-
- "backendDownloadNewUpdate": "新しいバックエンドが利用可能です!",
- "backendDownloadNewUpdateAction": "開発者ページに移動",
-
- "backendDownloadChannel.label": "LM Studio 拡張パックダウンロードチャネル",
- "backendDownloadChannel.value.stable": "安定版",
- "backendDownloadChannel.value.beta": "ベータ版",
- "backendDownloadChannel.value.latest": "最新版",
- "backendDownloadChannel.shortLabel": "ランタイムのダウンロードチャネル",
- "backendDownloadChannel.hint": "LM Studio 拡張パックのダウンロードチャネルを選択してください。 \"{{stableName}}\" はほとんどのユーザーに推奨されるチャネルです。",
-
- "appUpdateChannel.label": "アップデートチャネル",
- "appUpdateChannel.value.stable": "安定版",
- "appUpdateChannel.value.beta": "ベータ版",
- "appUpdateChannel.value.alpha": "アルファ版",
- "appUpdateChannel.shortLabel": "アプリのアップデートチャネル",
- "appUpdateChannel.hint": "LM Studio アプリのアップデートを受信するチャネルを選択してください。 \"{{stableName}}\" はほとんどのユーザーに推奨されるチャネルです。",
-
- "modelLoadingGuardrails.label": "モデル読み込みガードレール",
- "modelLoadingGuardrails.description": "システムリソースの制限を超えてモデルを読み込むと、システムの不安定性やフリーズを引き起こす可能性があります。ガードレールは、偶発的なオーバーロードを防ぎます。必要に応じてここでこれらの制限を調整できますが、システムの制限に近いモデルを読み込むと、安定性が低下する可能性があることに注意してください。",
- "modelLoadingGuardrails.value.off": "OFF (推奨されません)",
- "modelLoadingGuardrails.value.off/subTitle": "システムオーバーロードに対する予防策はありません",
- "modelLoadingGuardrails.value.off/detail": "Off detail",
- "modelLoadingGuardrails.value.low": "カジュアル",
- "modelLoadingGuardrails.value.low/subTitle": "システムオーバーロードに対する予防策はありません",
- "modelLoadingGuardrails.value.low/detail": "Relaxed detail",
- "modelLoadingGuardrails.value.medium": "バランス",
- "modelLoadingGuardrails.value.medium/subTitle": "システムオーバーロードに対する中程度の予防策",
- "modelLoadingGuardrails.value.medium/detail": "Balanced detail",
- "modelLoadingGuardrails.value.high": "厳格",
- "modelLoadingGuardrails.value.high/subTitle": "システムオーバーロードに対する強力な予防策",
- "modelLoadingGuardrails.value.high/detail": "Strict detail",
- "modelLoadingGuardrails.value.custom": "カスタム",
- "modelLoadingGuardrails.value.custom/subTitle": "読み込むことができる最大モデルサイズの制限を設定します",
- "modelLoadingGuardrails.value.custom/detail": "Custom detail",
- "modelLoadingGuardrails.custom.label": "メモリ制限: ",
- "modelLoadingGuardrails.custom.unitGB": "GB",
- "modelLoadingGuardrails.custom.description": "モデルの読み込みに対するカスタムメモリ制限を設定します。この制限を超えるモデルは読み込まれません。",
-
- "experimentalLoadPresets": "モデル読み込みのプリセットにおける設定サポートを有効にする",
- "experimentalLoadPresets.description": "プリセットがモデル読み込み設定を含むことを許可するかどうかを指定します。この機能は実験的であり、フィードバックを歓迎します。",
-
- "unloadPreviousJITModelOnLoad": "JIT モデルの自動アンロード: 任意の時点で JIT 経由で読み込まれるモデルは最大 1 つに制限されます(以前のモデルをアンロードします)",
- "autoDeleteExtensionPacks": "最も最近使用されていないランタイム拡張パックを自動削除",
- "autoUpdateExtensionPacks": "選択したランタイム拡張パックを自動更新",
- "useHFProxy.label": "LM Studio の Hugging Face プロキシを使用",
- "useHFProxy.hint": "LM Studio の Hugging Face プロキシを使用してモデルを検索およびダウンロードします。これにより、Hugging Face に直接アクセスできないユーザーを支援できます。",
- "separateReasoningContentInResponses": "適用可能な場合、API レスポンスで `reasoning_content` と `content` を分離",
- "separateReasoningContentInResponses/hint": "この設定は、DeepSeek R1 やその蒸留版、`` および `` タグ内で CoT を生成する他のモデルなど、'reasoning' モデルにのみ適用されます。",
-
- "promptWhenCommittingUnsavedChangesWithNewFields": "プリセット: 新しいフィールドをプリセットにコミットする際に確認ダイアログを表示",
- "promptWhenCommittingUnsavedChangesWithNewFields.description": "これは、誤って新しいフィールドをプリセットに追加するのを防ぎたい場合に便利です。",
-
- "enableLocalService": "ローカル LLM サービスを有効にする",
- "enableLocalService.subtitle": "LM Studio の LLM サーバーを、LM Studio アプリケーションを開いておくことなく使用する",
- "enableLocalService.description": "有効にすると、LM Studio ローカル LLM サービスが起動時に起動します。LM Studio を閉じても、ローカル LLM サービスはシステムトレイで実行され続けます。",
-
- "expandConfigsOnClick": "クリック時に設定を展開し、ホバー時には展開しない",
-
- "migrateChats": {
- "label": "pre-0.3.0 チャットへの移行",
- "hasBetterLabel": "pre-0.3.0 チャットへの移行",
- "action_one": "1 チャットを移行",
- "action_other": "{{count}} チャットを移行",
- "inProgress": "チャットを移行中...",
- "hint": {
- "primary": "v0.3.0+ のチャット機能において、マルチバージョンチャットメッセージなどの新機能に対応するため、内部のデータ構造を再設計しました。古いチャットをアプリに表示させるためには、新しい形式へ移行する必要があります。",
- "details": "移行プロセスは古いチャットを削除するのではなく、新しい形式でのコピーを作成します。",
- "footer": "古いバージョンの LM Studio を通じて、古いチャットにアクセスすることは引き続き可能です。現在、画像は自動的に移行されません。"
- },
- "hasBetterHint": {
- "primary": "古いチャットを移行してから、チャット移行ツールを改善しました。もう一度実行されますか?",
- "details": "移行プロセスは新しい形式のチャットを含む新しいフォルダーを作成します。古いチャットはそのまま残ります。",
- "footer": "古いバージョンの LM Studio を通じて、古いチャットにアクセスすることは引き続き可能です。現在、画像は自動的に移行されません。"
- },
- "success": "チャットの移行に成功しました!",
- "success_one": "1 チャットの移行に成功しました",
- "success_other": "{{count}} チャットの移行に成功しました",
- "showInstructionsButton": "手順を表示",
- "footerCardText": "古いバージョンの LM Studio からのチャットは、このバージョンで使用するために移行する必要があります。",
- "hasBetterFooterCardText": "古いチャットを移行してから、チャット移行ツールを改善しました。もう一度実行されますか?(新しく移行されたチャットを含む新しいフォルダーを作成します。)",
- "dismissConfirm": "やめる",
- "dismissConfirmDescription": "チャットの移行は、設定からいつでも行うことができます。"
- },
- "toolConfirmation": {
- "label": "Tool Call 確認",
- "neverAsk": {
- "label": "ツールを実行する前に確認を求めない (推奨しません)",
- "hint": "ツールを実行する前の確認を無効にします。これは推奨されません。",
- "warnTitle": "本当によろしいですか?",
- "warnDescription": "ツール呼び出しの確認を無効にすることは危険です。プラグインのいずれかが、破壊的なアクションを実行する可能性のあるツールを提供している場合(コマンドの実行、ファイルの削除、ファイルの上書き、ファイルのアップロードなど)、モデルは確認なしにそれを実行できるようになります。ツールごと、またはプラグインごとに確認を無効にすることは常に可能です。このオプションを有効にすることは推奨されません。十分に注意してください。",
- "warnButton": "リスクを理解しました"
- }
- }
-}
+{
+ "settingsDialogTitle": "設定",
+ "settingsDialogButtonTooltip": "設定",
+ "accountDialogButtonTooltip": "アカウント",
+
+ "settingsNewButtonPopover": {
+ "primary": "設定は右下隅に移動しました",
+ "secondary": "⚙️ ボタンをクリックして開きます。",
+ "tertiary": "または、次を押します"
+ },
+ "appUpdate": "アプリの更新",
+ "checkingAppUpdate": "更新を確認中...",
+ "checkForUpdates": "更新を確認",
+ "failedCheckingAppUpdate": "更新の確認に失敗しました",
+ "newUpdateAvailable": "LM Studioの新しいバージョンが利用可能です! 🎉",
+ "newBetaUpdateAvailable": "LM Studioの新しいベータ版が利用可能です! 🛠️🎉",
+ "downloadingInProgress": "更新をダウンロード中...",
+ "downloadUpdate": "LM Studio {{version}}に更新",
+ "downloadBetaUpdate": "LM Studio Beta {{version}} (build {{build}})に更新",
+ "downloadCompleted": "ダウンロード完了!",
+ "updateDownloadComplete": "LM Studioの更新が準備完了です",
+ "updateDownloadFailed": "更新に失敗しました!",
+ "hasFinishedDownloading": "ダウンロードが完了しました。",
+ "yourCurrentVersion": "現在のバージョン:",
+ "latestVersion": "最新バージョン:",
+ "downloadLabel": "今すぐ更新",
+ "downloadLabel/Linux": "更新をダウンロード",
+ "cancelDownloadLabel": "キャンセル",
+ "downloadingUpdate": "ダウンロード中 {{item}}...",
+ "updateDownloaded": "アプリを再起動して更新を適用する必要があります",
+ "restartAppToUpdate": "アプリを再起動して更新を適用します",
+ "appUpdatedToastTitle": "{{title}}に更新されました",
+ "appUpdatedToastDescriptionPrefix": "を表示",
+ "AppUpdatedToastDescriptionReleaseNotes": "リリースノート",
+ "toolUseToastTitle": "ベータの新機能: Tool Use と Function Calls API",
+ "toolUseToastDescription": "Llama 3.1/3.2、Mistral、Qwen などの一部モデルで OpenAI Tool Use をそのまま置き換えて利用できます。",
+ "toolUseToastButtonText": "開発者ページに行き試してみる",
+ "doItLater": "後でやります",
+ "failedToUpdate": "アプリの更新に失敗しました。インターネット接続を再確認するか、後でもう一度お試しください。",
+ "retryInBackground": "バックグラウンドで再試行",
+ "laterLabel": "後で",
+ "releaseNotesLabel": "リリースノート",
+ "remindMeLater": "後でリマインド",
+ "failedDownloadUpdate": "更新のダウンロードに失敗しました",
+ "installAndRelaunch": "インストールして再起動",
+ "uptodate": "すべて最新の状態です! 現在のバージョンは {{version}} です",
+ "preferences": "設定",
+ "general": "一般",
+ "sideButtonLabels": "サイドボタンのラベルを表示",
+ "showModelFileNames": "マイモデル: 常に完全なモデルファイル名を表示",
+ "colorThemeLabel": "カラーテーマ",
+ "appNavigationBarPositionLabel": "ナビゲーションバーの位置",
+ "appNavigationBarPositionTop": "上",
+ "appNavigationBarPositionLeft": "左",
+ "complexityLevelLabel": "ユーザーインターフェースの複雑さレベル",
+ "selectComplexityLevelPlaceholder": "デフォルトのUI複雑さレベルを選択",
+ "userComplexityLevelLabel": "ユーザー",
+ "powerUserComplexityLevelLabel": "パワーユーザー",
+ "developerComplexityLevelLabel": "開発者",
+ "chatSettingsLabel": "チャット設定",
+ "chat/alwaysShowPromptTemplate": "チャットサイドバーにプロンプトテンプレートを常に表示",
+ "chat/highlightChatMessageOnHover": "チャットメッセージにカーソルを合わせたときにハイライト",
+ "chat/doubleClickMessageToEdit": "チャットメッセージをダブルクリックして編集",
+
+ "chat/aiNaming/label": "AIに名前をつける",
+ "chat/aiNaming/mode/label": "AI生成チャット名",
+ "chat/aiNaming/mode/value/never": "しない",
+ "chat/aiNaming/mode/value/never/subTitle": "AI生成チャット名を作成しない",
+ "chat/aiNaming/mode/value/auto": "自動",
+ "chat/aiNaming/mode/value/auto/subTitle": "生成速度に基づいて名前を作成するかどうかを決定",
+ "chat/aiNaming/mode/value/always": "常に",
+ "chat/aiNaming/mode/value/always/subTitle": "生成速度に関係なくAI生成チャット名を作成する",
+ "chat/aiNaming/emoji": "AI生成チャット名に絵文字を使用",
+ "chat/keyboardShortcuts/label": "キーボードショートカット",
+ "chat/keyboardShortcuts/verbPrefix": "使用",
+ "chat/keyboardShortcuts/regenerate": "最後のメッセージを再生成する",
+ "chat/keyboardShortcuts/sendMessage": "メッセージを送信する",
+
+ "onboarding/blockTitle": "オンボーディングヒント",
+ "onboarding/dismissedHints": "無視されたオンボーディングヒント",
+ "onboarding/resetHintTooltip": "このオンボーディングヒントを再度有効にするにはクリックしてください",
+ "onboarding/resetAllHints": "すべてのオンボーディングヒントをリセット",
+ "onboarding/noneDismissed": "無視されたヒントはありません。現在、すべてのオンボーディングヘルプヒントが次に無視されるまで表示されます",
+
+ "firstTimeExperienceLabel": "チャット初回体験",
+ "firstTimeExperienceMarkCompletedLabel": "完了としてマーク",
+ "firstTimeExperienceResetLabel": "リセット",
+ "showPromptSuggestionsLabel": "新しいチャットを作成するときにプロンプトの提案を表示",
+ "darkThemeLabel": "ダーク",
+ "lightThemeLabel": "ライト",
+ "systemThemeLabel": "自動",
+ "sepiaThemeLabel": "セピア",
+ "unloadPreviousModelLabel": "モデルを選択する際は、最初に現在読み込まれているモデルをアンロードしてください",
+ "languageLabel": "言語",
+ "changeLanguageLabel": "アプリの言語を選択 (まだ開発中)",
+ "developerLabel": "開発者",
+ "localServiceLabel": "ローカルLLMサービス (ヘッドレス)",
+ "modelDefaultsLabel": "モデルのデフォルト設定",
+ "showExperimentalFeaturesLabel": "実験的機能を表示",
+ "appFirstLoadLabel": "アプリ初回ロード体験",
+ "showDebugInfoBlocksInChatLabel": "チャットにデバッグ情報ブロックを表示",
+ "autoLoadBundledLLMLabel": "起動時にバンドルされたLLMモデルを自動ロード",
+ "showReleaseNotes": "リリースノートを表示",
+ "hideReleaseNotes": "リリースノートを非表示",
+
+ "backendDownloadNewUpdate": "新しいバックエンドが利用可能です!",
+ "backendDownloadNewUpdateAction": "開発者ページに移動",
+
+ "backendDownloadChannel.label": "LM Studio 拡張パックダウンロードチャネル",
+ "backendDownloadChannel.value.stable": "安定版",
+ "backendDownloadChannel.value.beta": "ベータ版",
+ "backendDownloadChannel.value.latest": "最新版",
+ "backendDownloadChannel.shortLabel": "ランタイムのダウンロードチャネル",
+ "backendDownloadChannel.hint": "LM Studio 拡張パックのダウンロードチャネルを選択してください。 \"{{stableName}}\" はほとんどのユーザーに推奨されるチャネルです。",
+
+ "appUpdateChannel.label": "アップデートチャネル",
+ "appUpdateChannel.value.stable": "安定版",
+ "appUpdateChannel.value.beta": "ベータ版",
+ "appUpdateChannel.value.alpha": "アルファ版",
+ "appUpdateChannel.shortLabel": "アプリのアップデートチャネル",
+ "appUpdateChannel.hint": "LM Studio アプリのアップデートを受信するチャネルを選択してください。 \"{{stableName}}\" はほとんどのユーザーに推奨されるチャネルです。",
+
+ "modelLoadingGuardrails.label": "モデル読み込みガードレール",
+ "modelLoadingGuardrails.description": "システムリソースの制限を超えてモデルを読み込むと、システムの不安定性やフリーズを引き起こす可能性があります。ガードレールは、偶発的なオーバーロードを防ぎます。必要に応じてここでこれらの制限を調整できますが、システムの制限に近いモデルを読み込むと、安定性が低下する可能性があることに注意してください。",
+ "modelLoadingGuardrails.value.off": "OFF (推奨されません)",
+ "modelLoadingGuardrails.value.off/subTitle": "システムオーバーロードに対する予防策はありません",
+ "modelLoadingGuardrails.value.off/detail": "Off detail",
+ "modelLoadingGuardrails.value.low": "カジュアル",
+ "modelLoadingGuardrails.value.low/subTitle": "システムオーバーロードに対する予防策はありません",
+ "modelLoadingGuardrails.value.low/detail": "Relaxed detail",
+ "modelLoadingGuardrails.value.medium": "バランス",
+ "modelLoadingGuardrails.value.medium/subTitle": "システムオーバーロードに対する中程度の予防策",
+ "modelLoadingGuardrails.value.medium/detail": "Balanced detail",
+ "modelLoadingGuardrails.value.high": "厳格",
+ "modelLoadingGuardrails.value.high/subTitle": "システムオーバーロードに対する強力な予防策",
+ "modelLoadingGuardrails.value.high/detail": "Strict detail",
+ "modelLoadingGuardrails.value.custom": "カスタム",
+ "modelLoadingGuardrails.value.custom/subTitle": "読み込むことができる最大モデルサイズの制限を設定します",
+ "modelLoadingGuardrails.value.custom/detail": "Custom detail",
+ "modelLoadingGuardrails.custom.label": "メモリ制限: ",
+ "modelLoadingGuardrails.custom.unitGB": "GB",
+ "modelLoadingGuardrails.custom.description": "モデルの読み込みに対するカスタムメモリ制限を設定します。この制限を超えるモデルは読み込まれません。",
+ "modelLoadingGuardrails.alwaysAllowLoadAnyway": "(非推奨) Alt/Optionキーを押さずに'Load Anyway'「とにかく読み込む」ことを常に許可する",
+
+ "experimentalLoadPresets": "モデル読み込みのプリセットにおける設定サポートを有効にする",
+ "experimentalLoadPresets.description": "プリセットがモデル読み込み設定を含むことを許可するかどうかを指定します。この機能は実験的であり、フィードバックを歓迎します。",
+
+ "unloadPreviousJITModelOnLoad": "JIT モデルの自動アンロード: 任意の時点で JIT 経由で読み込まれるモデルは最大 1 つに制限されます(以前のモデルをアンロードします)",
+ "autoDeleteExtensionPacks": "最も最近使用されていないランタイム拡張パックを自動削除",
+ "autoUpdateExtensionPacks": "選択したランタイム拡張パックを自動更新",
+ "useHFProxy.label": "LM Studio の Hugging Face プロキシを使用",
+ "useHFProxy.hint": "LM Studio の Hugging Face プロキシを使用してモデルを検索およびダウンロードします。これにより、Hugging Face に直接アクセスできないユーザーを支援できます。",
+ "separateReasoningContentInResponses": "適用可能な場合、API レスポンスで `reasoning_content` と `content` を分離",
+ "separateReasoningContentInResponses/hint": "この設定は、DeepSeek R1 やその蒸留版、`` および `` タグ内で CoT を生成する他のモデルなど、'reasoning' モデルにのみ適用されます。",
+
+ "promptWhenCommittingUnsavedChangesWithNewFields": "プリセット: 新しいフィールドをプリセットにコミットする際に確認ダイアログを表示",
+ "promptWhenCommittingUnsavedChangesWithNewFields.description": "これは、誤って新しいフィールドをプリセットに追加するのを防ぎたい場合に便利です。",
+
+ "enableLocalService": "ローカル LLM サービスを有効にする",
+ "enableLocalService.subtitle": "LM Studio の LLM サーバーを、LM Studio アプリケーションを開いておくことなく使用する",
+ "enableLocalService.description": "有効にすると、LM Studio ローカル LLM サービスが起動時に起動します。LM Studio を閉じても、ローカル LLM サービスはシステムトレイで実行され続けます。",
+
+ "expandConfigsOnClick": "クリック時に設定を展開し、ホバー時には展開しない",
+
+ "migrateChats": {
+ "label": "pre-0.3.0 チャットへの移行",
+ "hasBetterLabel": "pre-0.3.0 チャットへの移行",
+ "action_one": "1 チャットを移行",
+ "action_other": "{{count}} チャットを移行",
+ "inProgress": "チャットを移行中...",
+ "hint": {
+ "primary": "v0.3.0+ のチャット機能において、マルチバージョンチャットメッセージなどの新機能に対応するため、内部のデータ構造を再設計しました。古いチャットをアプリに表示させるためには、新しい形式へ移行する必要があります。",
+ "details": "移行プロセスは古いチャットを削除するのではなく、新しい形式でのコピーを作成します。",
+ "footer": "古いバージョンの LM Studio を通じて、古いチャットにアクセスすることは引き続き可能です。現在、画像は自動的に移行されません。"
+ },
+ "hasBetterHint": {
+ "primary": "古いチャットを移行してから、チャット移行ツールを改善しました。もう一度実行されますか?",
+ "details": "移行プロセスは新しい形式のチャットを含む新しいフォルダーを作成します。古いチャットはそのまま残ります。",
+ "footer": "古いバージョンの LM Studio を通じて、古いチャットにアクセスすることは引き続き可能です。現在、画像は自動的に移行されません。"
+ },
+ "success": "チャットの移行に成功しました!",
+ "success_one": "1 チャットの移行に成功しました",
+ "success_other": "{{count}} チャットの移行に成功しました",
+ "showInstructionsButton": "手順を表示",
+ "footerCardText": "古いバージョンの LM Studio からのチャットは、このバージョンで使用するために移行する必要があります。",
+ "hasBetterFooterCardText": "古いチャットを移行してから、チャット移行ツールを改善しました。もう一度実行されますか?(新しく移行されたチャットを含む新しいフォルダーを作成します。)",
+ "dismissConfirm": "やめる",
+ "dismissConfirmDescription": "チャットの移行は、設定からいつでも行うことができます。"
+ },
+ "toolConfirmation": {
+ "label": "ツール呼び出しの確認",
+ "neverAsk": {
+ "label": "ツールを実行する前に確認を求めない (推奨しません)",
+ "hint": "ツールを実行する前の確認を無効にします。これは推奨されません。",
+ "warnTitle": "本当によろしいですか?",
+ "warnDescription": "ツール呼び出しの確認を無効にすることは危険です。プラグインのいずれかが、破壊的なアクションを実行する可能性のあるツールを提供している場合(コマンドの実行、ファイルの削除、ファイルの上書き、ファイルのアップロードなど)、モデルは確認なしにそれを実行できるようになります。ツールごと、またはプラグインごとに確認を無効にすることは常に可能です。このオプションを有効にすることは推奨されません。十分に注意してください。",
+ "warnButton": "リスクを理解しました"
+ }
+ },
+
+ "defaultContextLength": {
+ "label": "デフォルトのコンテキスト長",
+ "maxTitle": "モデルの最大値",
+ "customTitle": "カスタム値",
+ "maxSubtitle": "各モデルがサポートする最大のコンテキスト長を使用します。",
+ "customSubtitle": "新しいモデルを読み込む際のデフォルトのコンテキスト長を設定します。モデルが対応する最大コンテキスト長がより短い場合は、その値が使用されます。",
+ "invalidNaNError": "無効なコンテキスト長の値です。{{value}} を使用します。",
+ "invalidRangeError": "無効なコンテキスト長の値です。1から2^30の範囲で指定してください。{{value}} を使用します。",
+ "largeContextWarning": "コンテキスト長が大きいほど、モデルが使用するメモリも増加します。よく分からない場合は、デフォルト値を変更しないでください。"
+ },
+ "jitTTL": {
+ "subtitle": "JIT で読み込まれたモデルは、指定された時間アイドル状態が続くと自動的にアンロードされます。"
+ }
+}
diff --git a/ja/shared.json b/ja/shared.json
index 4f8b551e..a6d89b2f 100644
--- a/ja/shared.json
+++ b/ja/shared.json
@@ -1,304 +1,305 @@
-{
- "copyLmStudioLinkButton/toolTip": "モデルのダウンロードリンクをコピー",
-
- "filter.noMatches": "一致するものはありません",
- "longRunningTask": {
- "unbundlingDependencies": {
- "badge": "リソースを抽出中"
- },
- "performingBackendHardwareSurvey": {
- "badge": "バックエンドハードウェアの互換性を確認中"
- },
- "indexingRuntimes": {
- "badge": "ランタイムをインデックス中"
- },
- "indexingModels": {
- "badge": "モデルをインデックス中"
- },
- "authenticating": {
- "badge": "認証中"
- },
- "autoUpdatingExtensionPack": {
- "badge": "拡張パックを更新中 ({{name}} v{{version}})"
- }
- },
- "auth": {
- "prompt": "LM Studio Hubにログイン",
- "authError": "認証に失敗しました",
- "noAccount": "アカウントをお持ちでないですか?",
- "signUp": "サインアップ",
- "havingTrouble": "問題がありますか?",
- "retry": "再試行"
- },
- "artifacts": {
- "fetchError": "アーティファクトの取得に失敗しました",
- "organizationVisible": "組織が表示されます"
- },
-
- "incompatible": "非互換",
- "compatible": "互換性あり",
- "public": "公開",
- "private": "非公開",
- "yes": "はい",
- "no": "いいえ",
- "go": "実行",
-
- "proceedWithEllipsis": "続行...",
- "proceed": "続行",
- "inProgress": "進行中...",
- "failed": "失敗",
- "pending": "保留中",
- "doneWithExclamation": "完了!",
- "done": "完了",
-
- "complete": {
- "completeWithEllipsis": "完了...",
- "complete": "完了",
- "completingWithEllipsis": "完了中...",
- "completing": "完了中",
- "completedWithExclamation": "完了!",
- "completed": "完了"
- },
-
- "cancel": {
- "cancelWithEllipsis": "キャンセル...",
- "cancel": "キャンセル",
- "cancelingWithEllipsis": "キャンセル中...",
- "canceling": "キャンセル中",
- "canceled": "キャンセル済み"
- },
-
- "next": {
- "nextWithEllipsis": "次へ...",
- "next": "次へ"
- },
-
- "back": {
- "backWithEllipsis": "戻る...",
- "back": "戻る"
- },
-
- "close": {
- "closeWithEllipsis": "閉じる...",
- "close": "閉じる",
- "closingWithEllipsis": "閉じる中...",
- "closing": "閉じる中",
- "closedWithExclamation": "閉じました!",
- "closed": "閉じました"
- },
-
- "delete": {
- "deleteWithEllipsis": "削除...",
- "delete": "削除",
- "deletingWithEllipsis": "削除中...",
- "deleting": "削除中",
- "deletedWithExclamation": "削除しました!",
- "deleted": "削除しました"
- },
-
- "retry": {
- "retryWithEllipsis": "再試行...",
- "retry": "再試行",
- "retryingWithEllipsis": "再試行中...",
- "retrying": "再試行中"
- },
-
- "refresh": {
- "refreshWithEllipsis": "更新...",
- "refresh": "更新",
- "refreshingWithEllipsis": "更新中...",
- "refreshing": "更新中",
- "refreshedWithExclamation": "更新しました!",
- "refreshed": "更新しました"
- },
-
- "confirm": {
- "confirm": "確認",
- "confirmingWithEllipsis": "確認中...",
- "confirming": "確認中",
- "confirmedWithExclamation": "確認しました!",
- "confirmed": "確認しました"
- },
-
- "copy": {
- "copyWithEllipsis": "コピー...",
- "copy": "コピー",
- "copyingWithEllipsis": "コピー中...",
- "copying": "コピー中",
- "copiedWithExclamation": "コピーしました!",
- "copied": "コピーしました"
- },
-
- "edit": {
- "editWithEllipsis": "編集...",
- "edit": "編集",
- "editingWithEllipsis": "編集中...",
- "editing": "編集中",
- "editedWithExclamation": "編集しました!",
- "edited": "編集しました"
- },
-
- "load": {
- "loadWithEllipsis": "読み込み...",
- "load": "読み込み",
- "loadingWithEllipsis": "読み込み中...",
- "loading": "読み込み中",
- "loadedWithExclamation": "読み込みました!",
- "loaded": "読み込みました"
- },
-
- "save": {
- "saveWithEllipsis": "保存...",
- "save": "保存",
- "savingWithEllipsis": "保存中...",
- "saving": "保存中",
- "savedWithExclamation": "保存しました!",
- "saved": "保存しました"
- },
-
- "saveAs": {
- "saveAsWithEllipsis": "名前を付けて保存...",
- "saveAs": "名前を付けて保存"
- },
-
- "saveAsNew": {
- "saveAsNewWithEllipsis": "名前を付けて保存...",
- "saveAsNew": "名前を付けて保存"
- },
-
- "search": {
- "searchWithEllipsis": "検索...",
- "search": "検索",
- "searchingWithEllipsis": "検索中...",
- "searching": "検索中"
- },
-
- "update": {
- "updateWithEllipsis": "更新...",
- "update": "更新",
- "updatingWithEllipsis": "更新中...",
- "updating": "更新中",
- "updatedWithExclamation": "更新しました!",
- "updated": "更新しました"
- },
-
- "create": {
- "createWithEllipsis": "作成...",
- "create": "作成",
- "creatingWithEllipsis": "作成中...",
- "creating": "作成中",
- "createdWithExclamation": "作成しました!",
- "created": "作成しました"
- },
-
- "reset": {
- "resetWithEllipsis": "リセット...",
- "reset": "リセット",
- "resettingWithEllipsis": "リセット中...",
- "resetting": "リセット中"
- },
-
- "pause": {
- "pause": "一時停止",
- "pausingWithEllipsis": "一時停止中...",
- "pausing": "一時停止中",
- "paused": "一時停止"
- },
-
- "download": {
- "download": "ダウンロード",
- "downloadingWithEllipsis": "ダウンロード中...",
- "downloading": "ダウンロード中",
- "downloadedWithExclamation": "ダウンロードしました!",
- "downloaded": "ダウンロードしました"
- },
-
- "upload": {
- "uploadWithEllipsis": "アップロード...",
- "upload": "アップロード",
- "uploadingWithEllipsis": "アップロード中...",
- "uploading": "アップロード中",
- "uploadedWithExclamation": "アップロードしました!",
- "uploaded": "アップロードしました"
- },
-
- "remove": {
- "removeWithEllipsis": "削除...",
- "remove": "削除",
- "removingWithEllipsis": "削除中...",
- "removing": "削除中",
- "removedWithExclamation": "削除しました!",
- "removed": "削除しました"
- },
-
- "uninstall": {
- "uninstallWithEllipsis": "アンインストール...",
- "uninstall": "アンインストール",
- "uninstallingWithEllipsis": "アンインストール中...",
- "uninstalling": "アンインストール中",
- "uninstalledWithExclamation": "アンインストールしました!",
- "uninstalled": "アンインストールしました"
- },
-
- "resume": {
- "resumeWithEllipsis": "再開...",
- "resume": "再開",
- "resumingWithEllipsis": "再開中...",
- "resuming": "再開中"
- },
-
- "start": {
- "startWithEllipsis": "開始...",
- "start": "開始",
- "startingWithEllipsis": "開始中...",
- "starting": "開始中",
- "started": "開始しました"
- },
-
- "stop": {
- "stopWithEllipsis": "停止...",
- "stop": "停止",
- "stoppingWithEllipsis": "停止中...",
- "stopping": "停止中",
- "stoppedWithExclamation": "停止しました!",
- "stopped": "停止しました"
- },
-
- "import": {
- "importWithEllipsis": "インポート...",
- "import": "インポート",
- "importingWithEllipsis": "インポート中...",
- "importing": "インポート中",
- "importedWithExclamation": "インポートしました!",
- "imported": "インポートしました"
- },
-
- "letsGo": {
- "letsGo": "始めましょう",
- "letsGoWithEllipsis": "始めましょう...",
- "letsGoWithExclamation": "始めましょう!"
- },
-
- "run": {
- "runWithEllipsis": "実行...",
- "run": "実行",
- "runningWithEllipsis": "実行中...",
- "running": "実行中"
- },
-
- "configure": {
- "configureWithEllipsis": "設定...",
- "configure": "設定",
- "configuringWithEllipsis": "設定中...",
- "configured": "設定完了"
- },
-
- "publish": {
- "publishWithEllipsis": "公開...",
- "publish": "公開",
- "publishingWithEllipsis": "公開中...",
- "publishing": "公開中",
- "publishedWithExclamation": "公開しました!",
- "published": "公開しました"
- }
-}
+{
+ "copyLmStudioLinkButton/toolTip": "モデルのダウンロードリンクをコピー",
+
+ "filter.noMatches": "一致するものはありません",
+ "longRunningTask": {
+ "unbundlingDependencies": {
+ "badge": "リソースを抽出中"
+ },
+ "performingBackendHardwareSurvey": {
+ "badge": "バックエンドハードウェアの互換性を確認中"
+ },
+ "indexingRuntimes": {
+ "badge": "ランタイムをインデックス中"
+ },
+ "indexingModels": {
+ "badge": "モデルをインデックス中"
+ },
+ "authenticating": {
+ "badge": "認証中"
+ },
+ "autoUpdatingExtensionPack": {
+ "badge": "拡張パックを更新中 ({{name}} v{{version}})"
+ }
+ },
+ "auth": {
+ "prompt": "LM Studio Hubにログイン",
+ "authError": "認証に失敗しました",
+ "noAccount": "アカウントをお持ちでないですか?",
+ "signUp": "サインアップ",
+ "havingTrouble": "問題がありますか?",
+ "retry": "再試行"
+ },
+ "artifacts": {
+ "fetchError": "アーティファクトの取得に失敗しました",
+ "organizationVisible": "組織が表示されます"
+ },
+
+ "incompatible": "非互換",
+ "compatible": "互換性あり",
+ "public": "公開",
+ "private": "非公開",
+ "yes": "はい",
+ "no": "いいえ",
+ "go": "実行",
+
+ "proceedWithEllipsis": "続行...",
+ "proceed": "続行",
+ "inProgress": "進行中...",
+ "failed": "失敗",
+ "pending": "保留中",
+ "doneWithExclamation": "完了!",
+ "done": "完了",
+ "beta": "ベータ",
+
+ "complete": {
+ "completeWithEllipsis": "完了...",
+ "complete": "完了",
+ "completingWithEllipsis": "完了中...",
+ "completing": "完了中",
+ "completedWithExclamation": "完了!",
+ "completed": "完了"
+ },
+
+ "cancel": {
+ "cancelWithEllipsis": "キャンセル...",
+ "cancel": "キャンセル",
+ "cancelingWithEllipsis": "キャンセル中...",
+ "canceling": "キャンセル中",
+ "canceled": "キャンセル済み"
+ },
+
+ "next": {
+ "nextWithEllipsis": "次へ...",
+ "next": "次へ"
+ },
+
+ "back": {
+ "backWithEllipsis": "戻る...",
+ "back": "戻る"
+ },
+
+ "close": {
+ "closeWithEllipsis": "閉じる...",
+ "close": "閉じる",
+ "closingWithEllipsis": "閉じる中...",
+ "closing": "閉じる中",
+ "closedWithExclamation": "閉じました!",
+ "closed": "閉じました"
+ },
+
+ "delete": {
+ "deleteWithEllipsis": "削除...",
+ "delete": "削除",
+ "deletingWithEllipsis": "削除中...",
+ "deleting": "削除中",
+ "deletedWithExclamation": "削除しました!",
+ "deleted": "削除しました"
+ },
+
+ "retry": {
+ "retryWithEllipsis": "再試行...",
+ "retry": "再試行",
+ "retryingWithEllipsis": "再試行中...",
+ "retrying": "再試行中"
+ },
+
+ "refresh": {
+ "refreshWithEllipsis": "更新...",
+ "refresh": "更新",
+ "refreshingWithEllipsis": "更新中...",
+ "refreshing": "更新中",
+ "refreshedWithExclamation": "更新しました!",
+ "refreshed": "更新しました"
+ },
+
+ "confirm": {
+ "confirm": "確認",
+ "confirmingWithEllipsis": "確認中...",
+ "confirming": "確認中",
+ "confirmedWithExclamation": "確認しました!",
+ "confirmed": "確認しました"
+ },
+
+ "copy": {
+ "copyWithEllipsis": "コピー...",
+ "copy": "コピー",
+ "copyingWithEllipsis": "コピー中...",
+ "copying": "コピー中",
+ "copiedWithExclamation": "コピーしました!",
+ "copied": "コピーしました"
+ },
+
+ "edit": {
+ "editWithEllipsis": "編集...",
+ "edit": "編集",
+ "editingWithEllipsis": "編集中...",
+ "editing": "編集中",
+ "editedWithExclamation": "編集しました!",
+ "edited": "編集しました"
+ },
+
+ "load": {
+ "loadWithEllipsis": "読み込み...",
+ "load": "読み込み",
+ "loadingWithEllipsis": "読み込み中...",
+ "loading": "読み込み中",
+ "loadedWithExclamation": "読み込みました!",
+ "loaded": "読み込みました"
+ },
+
+ "save": {
+ "saveWithEllipsis": "保存...",
+ "save": "保存",
+ "savingWithEllipsis": "保存中...",
+ "saving": "保存中",
+ "savedWithExclamation": "保存しました!",
+ "saved": "保存しました"
+ },
+
+ "saveAs": {
+ "saveAsWithEllipsis": "名前を付けて保存...",
+ "saveAs": "名前を付けて保存"
+ },
+
+ "saveAsNew": {
+ "saveAsNewWithEllipsis": "名前を付けて保存...",
+ "saveAsNew": "名前を付けて保存"
+ },
+
+ "search": {
+ "searchWithEllipsis": "検索...",
+ "search": "検索",
+ "searchingWithEllipsis": "検索中...",
+ "searching": "検索中"
+ },
+
+ "update": {
+ "updateWithEllipsis": "更新...",
+ "update": "更新",
+ "updatingWithEllipsis": "更新中...",
+ "updating": "更新中",
+ "updatedWithExclamation": "更新しました!",
+ "updated": "更新しました"
+ },
+
+ "create": {
+ "createWithEllipsis": "作成...",
+ "create": "作成",
+ "creatingWithEllipsis": "作成中...",
+ "creating": "作成中",
+ "createdWithExclamation": "作成しました!",
+ "created": "作成しました"
+ },
+
+ "reset": {
+ "resetWithEllipsis": "リセット...",
+ "reset": "リセット",
+ "resettingWithEllipsis": "リセット中...",
+ "resetting": "リセット中"
+ },
+
+ "pause": {
+ "pause": "一時停止",
+ "pausingWithEllipsis": "一時停止中...",
+ "pausing": "一時停止中",
+ "paused": "一時停止"
+ },
+
+ "download": {
+ "download": "ダウンロード",
+ "downloadingWithEllipsis": "ダウンロード中...",
+ "downloading": "ダウンロード中",
+ "downloadedWithExclamation": "ダウンロードしました!",
+ "downloaded": "ダウンロードしました"
+ },
+
+ "upload": {
+ "uploadWithEllipsis": "アップロード...",
+ "upload": "アップロード",
+ "uploadingWithEllipsis": "アップロード中...",
+ "uploading": "アップロード中",
+ "uploadedWithExclamation": "アップロードしました!",
+ "uploaded": "アップロードしました"
+ },
+
+ "remove": {
+ "removeWithEllipsis": "削除...",
+ "remove": "削除",
+ "removingWithEllipsis": "削除中...",
+ "removing": "削除中",
+ "removedWithExclamation": "削除しました!",
+ "removed": "削除しました"
+ },
+
+ "uninstall": {
+ "uninstallWithEllipsis": "アンインストール...",
+ "uninstall": "アンインストール",
+ "uninstallingWithEllipsis": "アンインストール中...",
+ "uninstalling": "アンインストール中",
+ "uninstalledWithExclamation": "アンインストールしました!",
+ "uninstalled": "アンインストールしました"
+ },
+
+ "resume": {
+ "resumeWithEllipsis": "再開...",
+ "resume": "再開",
+ "resumingWithEllipsis": "再開中...",
+ "resuming": "再開中"
+ },
+
+ "start": {
+ "startWithEllipsis": "開始...",
+ "start": "開始",
+ "startingWithEllipsis": "開始中...",
+ "starting": "開始中",
+ "started": "開始しました"
+ },
+
+ "stop": {
+ "stopWithEllipsis": "停止...",
+ "stop": "停止",
+ "stoppingWithEllipsis": "停止中...",
+ "stopping": "停止中",
+ "stoppedWithExclamation": "停止しました!",
+ "stopped": "停止しました"
+ },
+
+ "import": {
+ "importWithEllipsis": "インポート...",
+ "import": "インポート",
+ "importingWithEllipsis": "インポート中...",
+ "importing": "インポート中",
+ "importedWithExclamation": "インポートしました!",
+ "imported": "インポートしました"
+ },
+
+ "letsGo": {
+ "letsGo": "始めましょう",
+ "letsGoWithEllipsis": "始めましょう...",
+ "letsGoWithExclamation": "始めましょう!"
+ },
+
+ "run": {
+ "runWithEllipsis": "実行...",
+ "run": "実行",
+ "runningWithEllipsis": "実行中...",
+ "running": "実行中"
+ },
+
+ "configure": {
+ "configureWithEllipsis": "設定...",
+ "configure": "設定",
+ "configuringWithEllipsis": "設定中...",
+ "configured": "設定完了"
+ },
+
+ "publish": {
+ "publishWithEllipsis": "公開...",
+ "publish": "公開",
+ "publishingWithEllipsis": "公開中...",
+ "publishing": "公開中",
+ "publishedWithExclamation": "公開しました!",
+ "published": "公開しました"
+ }
+}
diff --git a/ja/sidebar.json b/ja/sidebar.json
index 711fd6f7..6d80540a 100644
--- a/ja/sidebar.json
+++ b/ja/sidebar.json
@@ -1,9 +1,9 @@
-{
- "chat": "チャット",
- "discover": "探索",
- "myModels": "マイモデル",
- "developer": "開発者",
- "runtimes": "ランタイム",
- "settings": "設定",
- "download": "ダウンロード"
-}
+{
+ "chat": "チャット",
+ "discover": "探索",
+ "myModels": "マイモデル",
+ "developer": "開発者",
+ "runtimes": "ランタイム",
+ "settings": "設定",
+ "download": "ダウンロード"
+}